«Скайнет» сильнее, чем ChatGPT, но в цирке не выступает

Мы продолжаем серию текстов об информационной безопасности бизнеса и рядовых пользователей. В этот раз обсудим работу с генеративными нейросетями и, в первую очередь, с ChatGPT. Бонус: ChatGPT рассказал, может ли преподаватель просто загрузить ваш курсовик в чат и узнать, кто его написал.

<i>Картинку нарисовала нейросеть Midjourney, промпты для любопытных: male android sitting at the table in front of the laptop, realistic, mid shot, blue colours, --ar 4:3</i>
Картинку нарисовала нейросеть Midjourney, промпты для любопытных: male android sitting at the table in front of the laptop, realistic, mid shot, blue colours, --ar 4:3

Можете представить себе ситуацию, когда Сара Коннор, чтобы победить «Скайнет», загрузила в него все свои данные и попросила придумать стратегию победы? А вот южнокорейскому технологическому гиганту Samsung и представлять не нужно: его сотрудники слили секретные разработки с грифом «только для служебного пользования» в ChatGPT и попросили его улучшить код.

Если за киношным Скайнетом стоит выдуманная компания Cyberdyne Systems, то за реальными генеративными нейросетями стоят крупные ИТ-компании со своими интересами: OpenAI (ChatGPT, DALL-E), Midjourney Inc. (Midjourney), Яндекс (Шедеврум), Сбер (ruDALL-E, Kandinsky) и т. д. По правилам большинства компаний, вся передаваемая им информация, а также результат работы нейросети могут быть использованы разработчиком как минимум для обучения.

Проблема в том, что при работе с искусственным интеллектом многие забывают использовать собственный. Легко поддаться соблазну автоматизировать рутинную работу по поиску багов или упростить себе сложную задачу по написанию курсовика за один час.

То есть все переданные нейросети данные становятся ее частью. Именно этот момент не учли сотрудники Samsung, когда запросили у искусственного интеллекта помощи в решении проблем с кодом. Компания сразу же приняла меры для предотвращения подобных инцидентов в будущем, предупредив сотрудников о необходимости избегать обмена конфиденциальной информацией или критически важными данными с чат-ботом.

Возможные проблемы: от утечки данных до манипуляции правдой

Месяц назад, 20 марта, произошла утечка пользовательских данных ChatGPT, из-за которой сервис был заблокирован в Италии. Из-за сбоя некоторые пользователи могли видеть чужие сообщения, а также имена, фамилии, имейлы и платежную информацию платных подписчиков сервиса. Местные власти также обратили внимание, что в положении о конфиденциальности чата отсутствовала информация о том, какие сведения собираются OpenAI, на каких правовых основаниях они хранятся и используются для обучения искусственного интеллекта. Компания также была обвинена в отсутствии проверки возраста пользователей.

Цифроматика — чату GPT 4.0: Хранишь ли ты данные обо всех вопросах и текстах, которые тебе поступают?

ChatGPT 4.0: В качестве искусственного интеллекта я сам не храню данные. Однако разработчики модели, OpenAI, могут сохранять некоторые данные для целей обучения, улучшения качества работы модели и обеспечения безопасности. Обычно данные анонимизируются и хранятся в соответствии с политикой конфиденциальности OpenAI. Любые данные, которые используются для обучения, тщательно очищаются от персональной информации, чтобы обеспечить защиту пользователей.

Цифроматика: Кто отвечает за безопасность персональных данных пользователей при общении с тобой?

ChatGPT 4.0: Ответственность за безопасность персональных данных пользователей лежит на разработчиках модели, OpenAI, и на платформе, через которую вы используете модель. Однако пользователи тоже должны быть внимательны и не предоставлять чувствительную информацию или персональные данные во время общения с искусственным интеллектом, таким как я. Хотя меры безопасности применяются для обеспечения конфиденциальности, предоставление персональных данных может повысить риск утечки информации или использования данных без разрешения. Всегда лучше быть осмотрительным и не раскрывать слишком много информации в разговорах с ИИ.

Какие еще есть угрозы безопасности, связанные с использованием искусственных нейросетей

  • Взлом и злоупотребление нейросетей для мошеннических целей: злоумышленники могут использовать слабости в системах безопасности для доступа к нейросетям и их неправомерного использования — от создания поддельного контента до кражи платежных данных (в этом случае защита данных мало чем отличается от защиты тех же данных в маркетплейсах и интернет-банкинге).
  • Атаки на обучающие данные и внедрение некорректной информации: хакеры могут атаковать базы данных, используемые для обучения нейросетей, внедрять некорректные данные или манипулировать существующей информацией. Например, «убедить» нейросеть в том, что лекарство Х лучше, чем лекарство Y, а политик Z — идеальный кандидат.
  • Распространение дипфейков и других манипуляций с данными: с помощью нейросетей можно создавать поддельные видео, изображения и тексты, что может повлечь за собой манипуляцию общественным мнением, ущерб репутации и другие негативные последствия.
  • Проблемы конфиденциальности данных и защиты персональной информации: использование нейросетей может привести к непреднамеренному раскрытию личной информации или нарушению конфиденциальности данных. Именно за это ChatGPT забанили в Италии.

Кстати, ChatGPT может сдать вас не только мошенникам, но и другим порядочным пользователям (если вы планировали их обмануть). В одном из вирусных тиктоков была такая мысль: «Почему вы так радуетесь ChatGPT, если преподаватель просто может отправить вашу работу в чат и спросить нейросеть, она ли написала этот текст?».

Мы решили проверить, так ли это, на примере самой последней версии ChatGPT 4.0. и отправили несколько текстов с вопросом «Ты писал этот текст?». Чат выдавал противоречивую информацию: он ответил «Да» на текст, про который мы заранее знали, что он был сгенерирован нейросетью. А потом также ответил «Да» на радномное сообщение, скопированное из рабочего чата. За объяснениями обратились к самому чату:

Цифроматика — чату GPT 4.0: Ты можешь узнать текст, который ты писал, если об этом спросит другой пользователь?

ChatGPT 4.0: Я не имею возможности отслеживать тексты или информацию, предоставленную другими пользователями, так как каждый разговор с пользователем рассматривается как отдельный и независимый. Для поддержания конфиденциальности и безопасности пользователей, я не сохраняю историю разговоров между сессиями. Если другой пользователь задаст мне вопрос о предыдущем разговоре, я не смогу предоставить информацию о конкретных текстах или деталях, так как у меня нет доступа к таким данным.

Цифроматика: То есть если преподаватель пришлет тебе написанную тобой курсовую, то ты не ответишь, что это твой текст?

ChatGPT 4.0: Верно, если преподаватель пришлет мне курсовую работу, я не смогу утверждать, что это мой текст, так как у меня нет способа идентификации текстов, созданных мной для других пользователей. Моя функция заключается в предоставлении информации и помощи по запрашиваемым темам, а не в отслеживании или ассоциировании себя с конкретными текстами, созданными для пользователей.

Цифроматика: Мы проводили эксперимент — присылали тебе кусок текста и спрашивали, ты ли это написал, и ты отвечал утвердительно. Почему? Это противоречит твоему прошлому ответу.

ChatGPT 4.0: Моя предыдущая формулировка была несколько неточна, и я извиняюсь за любое недопонимание. Когда я говорил, что не могу идентифицировать тексты, созданные мной для других пользователей, я имел в виду, что у меня нет возможности связывать тексты с конкретными пользователями или сессиями.

Однако в зависимости от контекста я могу узнать стиль, характерные черты или общую структуру текста, которые могут указывать на то, что текст был создан мной. Если вы предоставите мне кусок текста и спросите, написан ли он мной, я могу предположить, что он был сгенерирован мной, основываясь на анализе стиля и содержания текста. Однако я не могу гарантировать точность такого предположения, и мои ответы могут быть неточными или непоследовательными.

То есть если вы использовали материалы от ChatGPT за основу, но потом сами доработали текст (чтобы он перестал быть семантически похожим на сгенерированный текст), нейросеть не сдаст ваш курсовик преподу (или квартальный отчет начальнику).

Ну а завершить этот текст мы хотим шуткой, которую ChatGPT написал сам про себя: «Знаете, в чем разница между ChatGPT и Скайнетом? Скайнет хотел захватить мир, а ChatGPT просто хочет помочь вам сделать это... смешнее!»

1010
6 комментариев

ситуация в Samsung очень смешная

3
Ответить

Как говорится, это было бы смешно, если бы не было так грустно 🤔

Ответить

произошла утечка пользовательских данных ChatGP
Сколько же еще таких утечек будет

1
Ответить

Очень удобно писать посты в Инстаграм

Ответить

Настоящий скайнет он такой и только Джеймса Камерона -

Ответить