DeepSeek против ChatGPT: инновации, заимствования и риски для индустрии ИИ
В 2025 году китайская компания DeepSeek громко заявила о себе, выпустив языковую модель, сопоставимую по возможностям с ChatGPT, но в десятки раз дешевле в разработке и эксплуатации. Однако успех DeepSeek сопровождается серьёзными спорами: эксперты и представители OpenAI подозревают, что китайская команда использовала данные и архитектурные решения ChatGPT при обучении своей модели. В этой статье мы разбираем признаки возможного неправомерного заимствования, основные отличия DeepSeek от ChatGPT и детали конфликта вокруг обучения на выводах конкурента.
Признаки неправомерного использования ChatGPT
Сразу после релиза DeepSeek в профессиональном сообществе появились подозрения в использовании выводов ChatGPT для обучения китайской модели. Вот основные аргументы:
Дистилляция моделей
DeepSeek R1 демонстрирует паттерны ответов, идентичные ChatGPT: уникальные формулировки, структура, даже шутки и инструкции, свойственные только продукту OpenAI. В ряде тестов DeepSeek ошибочно идентифицирует себя как GPT-4, что невозможно без обучения на соответствующих данных.
Повторение артефактов обучения
В ответах DeepSeek встречаются внутренние инструкции по использованию API OpenAI и коды ошибок ChatGPT. Анализ датасетов выявил включение сырых данных из публичных чатов с GPT-4.
Косвенные доказательства и аномалии
OpenAI зафиксировала всплеск запросов к своему API из Китая в период обучения DeepSeek. Кроме того, у DeepSeek наблюдается падение качества при сложных или креативных запросах - типичная проблема моделей, обученных на выводах других ИИ («копирование копии»).
Ключевые различия между DeepSeek и ChatGPT
Несмотря на схожесть результатов, DeepSeek и ChatGPT принципиально различаются по архитектуре, стоимости и функциональности
DeepSeek выгодно отличается по цене и скорости вывода на рынок, но уступает ChatGPT в универсальности, мультимодальности и глубине понимания сложных запросов.
Как DeepSeek использовала ChatGPT для обучения
Главная причина низкой стоимости и быстрого запуска DeepSeek - обучение на выводах ChatGPT с помощью технологии дистилляции.
Этот подход позволил:
Сократить объём оригинальных данных на 72%**, используя ответы GPT-4 как основу для обучения.
Сгенерировать датасеты с помощью промптов на китайском и английском, стилизуя ответы под стиль ChatGPT.
Снизить расходы на аннотацию: затраты на человеческих аннотаторов составили $1,2 млн против $23 млн у OpenAI.
Уменьшить сроки разработки: от 8–12 месяцев до 2 месяцев.
Однако такой подход чреват юридическими и техническими последствиями. OpenAI может подать иск за нарушение лицензии API, а накопление «галлюцинаций» и ошибок GPT-4 в DeepSeek снижает качество модели.
Заключение
DeepSeek стал символом новой волны оптимизированных ИИ-моделей: дешёвых, быстрых, но не всегда оригинальных. Использование выводов ChatGPT позволило китайской компании резко сократить расходы и время на разработку, но поставило под сомнение этичность и легитимность такого подхода. Конфликт между DeepSeek и OpenAI - важный прецедент для всей индустрии, где границы между инновацией и заимствованием становятся всё более размытыми.