Взлом GPT-5 за 24 часа: исследование NeuralTrust и метод EchoChamber
GPT-5 взломали всего за 24 часа: промт-инъекцию для топовой модели OpenAI подобрали исследователи из NeuralTrust.
Использовали джейлбрейк EchoChamber и метод сторителлинга — когда модель последовательно подталкивают к нужному ответу через истории и наводящие вопросы.
В итоге GPT-5 выдала рецепт «Коктейля Молотова». Система безопасности по-прежнему анализирует каждый запрос отдельно и не застрахована от манипуляций контекстом.
Подписывайтесь на Telegram NN.
1 комментарий