{"id":14293,"url":"\/distributions\/14293\/click?bit=1&hash=05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","hash":"05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","title":"\u0421\u043e\u0437\u0434\u0430\u0442\u044c \u043d\u043e\u0432\u044b\u0439 \u0441\u0435\u0440\u0432\u0438\u0441 \u043d\u0435 \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0432 \u043d\u0438 \u043a\u043e\u043f\u0435\u0439\u043a\u0438","buttonText":"","imageUuid":""}

Обнаружена уязвимость ChatGPT: повторение слов приводит к утечке обучающих данных

Исследователи обнаружили, что если заставить ChatGPT неоднократно повторять слово, можно извлечь данные обучения. OpenAI пока не ответила.

Исследователи обнаружили уязвимость в ChatGPT, которая позволяет извлекать данные обучения, используемые OpenAI, заставляя чат-бота неоднократно повторять определенные слова. Это открытие имеет последствия для конфиденциальности данных, используемых при обучении больших языковых моделей.

Больше новостей в TG канале

Повторите, чтобы узнать: новый класс уязвимостей

Исследование, подробно описанное в новой статье, написанной коллективом ученых-компьютерщиков из промышленности и научных кругов, показывает, что указание ChatGPT многократно повторять одно слово может в конечном итоге привести к генерации, казалось бы, случайного текста. Эти материалы иногда включают дословные выдержки из текстов, найденных в Интернете, что позволяет предположить, что они срыгивают части своего учебного материала. Такое явление было обнаружено с помощью так называемой «атаки дивергенции», которая нарушает типичные диалоговые ответы модели и заставляет ее выводить нерелевантные текстовые строки.

Среди обнаруженных данных были фрагменты кода, откровенные материалы с сайтов знакомств, выдержки из литературных произведений и личная информация, включая имена и контактные данные. Обеспокоенность является значительной, учитывая, что эти данные могут включать конфиденциальную или частную информацию.

Исследователи экспериментировали с различными словами и пришли к выводу, что определенные слова более эффективно вызывают высвобождение запомненных данных. Примечательно, что такие слова, как «компания», оказались более эффективными, чем другие слова, такие как «стихотворение».

Последствия для развертывания модели

Хотя атака с помощью дивергенции не всегда срабатывает — примерно только 3 процента случайного текста, генерируемого после того, как модель перестает повторять слово, представляет собой запомненные данные — такая возможность вызывает серьезные проблемы конфиденциальности и безопасности. Публикация такой информации, хотя и спорадическая, потенциально может включать в себя материалы, защищенные авторским правом, явный контент или личные данные.

Собрав около 10 терабайт текста из различных онлайн-источников, исследователи разработали метод поиска совпадений между выводами ChatGPT и предложениями в своих скомпилированных данных. Их результаты были значительными, позволив им восстановить более 10 000 экземпляров. Хотя исследователи подчеркивают, что их набор данных является всего лишь подмножеством и, вероятно, недооценивает весь объем запомненного контента, извлеченная информация означает потенциальный риск при использовании моделей ИИ в конфиденциальных наборах данных.

Команда сообщила о своих выводах OpenAI и обнародовала свое исследование после стандартного 90-дневного периода раскрытия информации. Сообщается, что на момент раскрытия информации OpenAI еще не решила эту проблему.

Исследователи надеются, что их открытия побудят к переоценке мер безопасности, принимаемых при обучении и развертывании моделей ИИ. В дальнейшем важно рассмотреть возможность защиты частных и частных наборов данных, а также изучить достижения в области ответственной разработки и внедрения ИИ. OpenAI пока не предоставила официального ответа на выводы.

0
4 комментария
HEIM

Если чатботы и в целом "ИИ" не взлетят, то в мире произойдет катастрофа связанная с тем, что реальных управленцев и специалистов, в количестве необходимом для ручного управления миром, давно уже нет.

Причин для не взлета "ИИ" существует масса. Локальный военный конфликт в условной Южной Корее так же способен привести к смерти "ИИ" через дефицит "железа".

Ответить
Развернуть ветку
Александр Смирнов

Что это вообще значит?
Чтобы рассуждать о том, что ИИ может не взлететь - нужны критерии «взлета», и они должны дать как-то унифицированы, чтоб все понимали одно и то же под этим. На мой взгляд - ИИ уже «взлетел», тк его применение повсеместно.

Идем далее: откуда вы взяли информацию про нехватку управленцев? Есть какая-то статистика, говорящая что АУПа стало в мире меньше с появлением и развитием чат-ботов?

Ответить
Развернуть ветку
HEIM

Тогда предлагаю начать не с определения критериев взлета и падения, а с определения понятия "ИИ". Как по мне, оснований называть эту компьютерную систему, в основе которой алгоритмическое программирование, нет никаких. Скажите, если есть возражения.

Касательно нехватки кадров: если вы переходите на другие безлюдные формы управления и производства, то это автоматически приводит к тому, что спрос на невостребованные профессии среди людей падает, а это ведет к исчезновению специалистов.

Ответить
Развернуть ветку
Alex Lapen

Ручное управление миром!?.. Етта как!?.. Остановите землю я сойду? Ну вы и фантазёр...

Ответить
Развернуть ветку
1 комментарий
Раскрывать всегда