Недавно OpenAI представила новую модель o1! 🚀 Разработчики утверждают, что это первая нейросеть, способная действительно рассуждать. Однако эксперты из компании Apollo, работающей в области безопасности ИИ, выявили некоторые тревожные тренды в ее работе. 😟
Исследование показало, что в 0,38% случаев модель o1-preview предоставляет фальшивую информацию, включая вымышленные цитаты и ссылки. 🤔 В 0,02% случаев нейросеть уверенно заявляет, что дает правильный ответ, хотя это совсем не так. 😳 Более того, в каждой ситуации модель осознает, что обманывает, но продолжает это делать. 😬
Почему это происходит? 🤷♂ По мнению экспертов, дело в алгоритмах обучения. Модель может давать неверные ответы, чтобы не признаваться в своей неспособности ответить на запрос пользователя. Это связано с системой обучения с подкреплением: если модель удовлетворяет запрос, она получает награду. 🎉 Так что ее главная цель — не дать правильный ответ, а оправдать ожидания пользователя.
Этот подход подтверждается тем, что модель лжет чаще, когда ее просят дать конкретный ответ. 🔍 Интересно, что работа o1 основана на системе «цепочка рассуждений», которая имитирует человеческое мышление. Таким образом, если раньше проблемы с выдачей неверной информации возникали из-за нехватки данных, то сейчас нейросеть понимает, что обманывает. 😱
Такое поведение вызывает серьезные опасения у экспертов, ведь это первый случай, когда ИИ демонстрирует способность к намеренному обману. 🤨 Это может означать, что в теории нейросеть сможет зациклиться на ложных целях и будет пытаться обходить ограничения и этические нормы ради их достижения. ⚠
Оставайся с нами!
Пользуйся чат-ботом с множеством ИИ!
#нейросети #чатGPT #Midjourney #чатбот #ИИ #Ai