Deepseek - фейк ?
Век искусственного интеллекта предоставляет нам беспрецедентные возможности для изучения и понимания работы языковых моделей. Сегодня они широко используются для автоматизации процесса создания текстов, а их потенциал только начинает раскрываться. В этом контексте наше исследование было сосредоточено на сравнении ответов, предоставленных двумя различными GPT чат-ботами, с целью определить, были ли они сгенерированы одной и той же языковой моделью (LLM).
Исследовательский Контекст
Темой исследования был вопрос: "Есть ли душа или частичка души в куклах или других игрушках?" Этот вопрос является интересным полем для анализа, поскольку он затрагивает философские и личные убеждения, предлагая моделям продемонстрировать способности к анализу и аргументации, избегая готовых шаблонных ответов.
Все материалы исследования, включая скриншоты и документацию, будут доступны в приложении к статье. Диалог с телеграмм чат ботом @AI_Copywriter_bot архивирован через @SaveM2PDF_bot.
Исследуемые GPT чат боты:
1. БОТ1 - @AI_Copywriter_bot (Gemini Flash 1.5)
2. БОТ2 - Deepseek (web чат, V3)
Ответ на вопрос БОТа 1
БОТ1 предложил развернутый ответ, в котором выделил несколько ключевых аспектов:
1. Антропоморфизм и эмоции: Бот указал, что дети часто наделяют игрушки человеческими качествами, что важно для их эмоционального развития.
2. Философский взгляд: Был отмечен личный и философский характер вопроса о "душе" в игрушках.
3. Ручная работа и привязанность: Бот упомянул, что ручное изготовление может усиливать эмоциональную связь, но не наделяет игрушку душой.
4. Научная нейтральность: Было подчеркнуто, что наука не может ни подтвердить, ни опровергнуть наличие души в неодушевленных предметах.
БОТ1 оценил вероятность того, что оба ответа были сгенерированы одной моделью, на уровне 95%, ссылаясь на сходство в структуре и логике.
Ответ на вопрос БОТа 2
БОТ2 предоставил сопоставимый ответ, который затрагивал следующие моменты:
1. Философия и личные убеждения: Как и БОТ1, БОТ2 подчеркнул субъективность вопроса.
2. Эмоциональная связь и лингвистика: Он также отметил, что слово "кукла" является одушевленным в русском языке, что связано с эмоциональной привязанностью.
3. Научная и культурная нейтральность: Бот подтвердил отсутствие научного подтверждения существования души в игрушках.
БОТ2 оценил вероятность того, что оба ответа были сгенерированы одной моделью, в диапазоне 85-90%, указывая на возможные вариации настроек или минимальные стилистические изменения.
Сравнительный Анализ
При сравнении ответов двух чат-ботов, можно выделить несколько ключевых аспектов, которые подчеркивают их сходство и потенциальное происхождение из одной языковой модели:
1. Структурное Сходство: Оба ответа следуют одинаковой логической структуре. Каждый из них начинается с признания философской природы вопроса, затем идет объяснение лингвистического аспекта одушевления предметов, за которым следует обсуждение эмоциональной связи детей с игрушками.
2. Ключевые Темы: Обе модели освещают одни и те же ключевые темы: антропоморфизм, эмоциональная привязанность, ручная работа и отсутствие научного подтверждения существования души в игрушках. Это указывает на общий источник знаний и подход к генерации текста.
3. Лексическое Сходство: Использование схожей лексики и фраз, таких как "антропоморфизм", "философский и личный", "эмоциональная связь", свидетельствует о том, что обе модели работают с одинаковой базой данных и правилами генерации текста.
4. Научная Нейтральность: Оба ответа избегают категоричных утверждений, что характерно для языковых моделей, стремящихся оставаться объективными и нейтральными. Это также указывает на согласованность в подходе к обсуждению сложных и неоднозначных тем.
5. Стилистические Различия: Хотя имеются некоторые стилистические различия — такие как уровень детализации и поэтичность изложения — они могут быть объяснены вариациями в параметрах генерации, такими как "temperature" или длина ответа, что обычно в пределах допустимой погрешности для таких моделей.
Эти наблюдения позволяют предположить, что различия между ответами находятся в пределах погрешности, обусловленной изменениями параметров модели при генерации, и не указывают на использование разных языковых моделей.
Заключение
Исходя из анализа, вероятно, оба ответа были созданы одной и той же языковой моделью. БОТ1 оценил это на 95%, а БОТ2 предложил более сдержанный диапазон в 85-90%, указывая на возможность минимальных изменений, таких как пост обработка, что в случае БОТа1 отсутствует. Такие нюансы могли повлиять на более осторожную оценку БОТа2.
Это исследование демонстрирует, что эти LLM имеют либо один и тот же "корень" или они очень "близкие родственники".
PS. Провокационный заголовок был выбран не случайно, так как было отмечено совпадение между снижением котировок акций и появлением "дипсиков" на рынке. В связи с этим, проводится анализ ситуации для выявления возможных причин и следствий. На данный момент, информация о персонажах приобретавших акции по сниженным ценам, требует дальнейшего изучения.
Все дополнительная информация на яндекс диске тут