DeepSeek против ChatGPT: инновации, заимствования и риски для индустрии ИИ

В 2025 году китайская компания DeepSeek громко заявила о себе, выпустив языковую модель, сопоставимую по возможностям с ChatGPT, но в десятки раз дешевле в разработке и эксплуатации. Однако успех DeepSeek сопровождается серьёзными спорами: эксперты и представители OpenAI подозревают, что китайская команда использовала данные и архитектурные решения ChatGPT при обучении своей модели. В этой статье мы разбираем признаки возможного неправомерного заимствования, основные отличия DeepSeek от ChatGPT и детали конфликта вокруг обучения на выводах конкурента.


Признаки неправомерного использования ChatGPT


Сразу после релиза DeepSeek в профессиональном сообществе появились подозрения в использовании выводов ChatGPT для обучения китайской модели. Вот основные аргументы:


Дистилляция моделей

DeepSeek R1 демонстрирует паттерны ответов, идентичные ChatGPT: уникальные формулировки, структура, даже шутки и инструкции, свойственные только продукту OpenAI. В ряде тестов DeepSeek ошибочно идентифицирует себя как GPT-4, что невозможно без обучения на соответствующих данных.


Повторение артефактов обучения

В ответах DeepSeek встречаются внутренние инструкции по использованию API OpenAI и коды ошибок ChatGPT. Анализ датасетов выявил включение сырых данных из публичных чатов с GPT-4.


Косвенные доказательства и аномалии

OpenAI зафиксировала всплеск запросов к своему API из Китая в период обучения DeepSeek. Кроме того, у DeepSeek наблюдается падение качества при сложных или креативных запросах - типичная проблема моделей, обученных на выводах других ИИ («копирование копии»).


Ключевые различия между DeepSeek и ChatGPT


Несмотря на схожесть результатов, DeepSeek и ChatGPT принципиально различаются по архитектуре, стоимости и функциональности


DeepSeek выгодно отличается по цене и скорости вывода на рынок, но уступает ChatGPT в универсальности, мультимодальности и глубине понимания сложных запросов.


Как DeepSeek использовала ChatGPT для обучения


Главная причина низкой стоимости и быстрого запуска DeepSeek - обучение на выводах ChatGPT с помощью технологии дистилляции.

Этот подход позволил:

Сократить объём оригинальных данных на 72%**, используя ответы GPT-4 как основу для обучения.

Сгенерировать датасеты с помощью промптов на китайском и английском, стилизуя ответы под стиль ChatGPT.

Снизить расходы на аннотацию: затраты на человеческих аннотаторов составили $1,2 млн против $23 млн у OpenAI.

Уменьшить сроки разработки: от 8–12 месяцев до 2 месяцев.

Однако такой подход чреват юридическими и техническими последствиями. OpenAI может подать иск за нарушение лицензии API, а накопление «галлюцинаций» и ошибок GPT-4 в DeepSeek снижает качество модели.

Заключение

DeepSeek стал символом новой волны оптимизированных ИИ-моделей: дешёвых, быстрых, но не всегда оригинальных. Использование выводов ChatGPT позволило китайской компании резко сократить расходы и время на разработку, но поставило под сомнение этичность и легитимность такого подхода. Конфликт между DeepSeek и OpenAI - важный прецедент для всей индустрии, где границы между инновацией и заимствованием становятся всё более размытыми.

Начать дискуссию