Данные под угрозой: будьте осторожны с тем, что вы пишете ChatGPT

СhatGPT и сервисы на его основе привлекательны и полезны, но потенциал ИИ-интерфейсов в качестве каналов для мошенничества и агрессивного сбора данных огромен — и будет только расти. Фактически, ваши данные еще никогда не были в такой большой опасности.

Кейт О'Флаэрти
Журналист в области технологий

Обеспокоенность по поводу растущих возможностей чат-ботов, обученных таких на больших языковых моделях, как OpenAI GPT-4, Google Bard и Microsoft Bing Chat, попадает в заголовки газет. Эксперты предупреждают об их способности распространять дезинформацию в грандиозных масштабах, а также об экзистенциальной угрозе, которую их разработка представляет для человечества. И, как будто этого мало, появилась третья причина для беспокойства — недавний запрет ChatGPT в Италии из соображений конфиденциальности.

Чат-боты могут быть полезны для работы и личных задач, но они собирают огромное количество данных. Искусственный интеллект также создает многочисленные риски в области безопасности - например, возможность использования ИИ преступниками для совершения более убедительных и эффективных кибератак.

Данные под угрозой: будьте осторожны с тем, что вы пишете ChatGPT

Правда ли, что чат-боты опаснее в плане конфиденциальности, чем поисковые системы?

Большинство людей знают о рисках конфиденциальности, связанных с поисковыми системами по типу Google, но, как считают эксперты, чат-боты еще более требовательны к данным. "Дружеское", разговорное общение с ними побуждает людей выдавать больше информации, чем они ввели бы в поисковую систему. "Человекоподобный стиль может обезоружить пользователей", — предупреждает Али Вазири, директор по правовым вопросам в группе данных и конфиденциальности юридической фирмы Lewis Silkin.

Каждый раз, когда вы обращаетесь за помощью к чат-боту с искусственным интеллектом, системы ИИ создают профиль вашей личности.

Джейк Мур

Чат-боты обычно собирают текстовую и голосовую информацию, информацию о вашем устройстве, а также данные, которые могут раскрыть ваше местоположение - например, ваш IP-адрес. Как и поисковые системы, чат-боты собирают данные об активности в социальных сетях, некоторые из этих данных могут включать ваш адрес электронной почты и номер телефона, заявляет доктор Люциан Типи, помощник декана Бирмингемского городского университета.

Несмотря на то что компании, создающие ИИ ботов, утверждают, что ваши данные нужны только для улучшения качества услуг, данные также могут использоваться для таргетированной рекламы. Каждый раз, когда вы обращаетесь за помощью к чат-боту с искусственным интеллектом, системы ИИ создают профиль вашей личности, утверждает Джейк Мур, советник по глобальной кибербезопасности в компании ESET: "Эти данные анализируются и могут быть использованы для таргетированной рекламы".

И это уже происходит. Компания Microsoft объявила, что изучает возможность добавления рекламы в чат Bing. Недавно также стало известно, что сотрудники Microsoft могут читать разговоры чат-ботов пользователей, и американская компания обновила свою политику конфиденциальности, чтобы обозначить в ней этот факт.

Хотя Google и OpenAI обещают не передавать информацию третьим лицам, условия политики конфиденциальности позволяют им использовать данные в рекламных целях.

Как использовать чат-бот конфиденциально и безопасно?

Данные под угрозой: будьте осторожны с тем, что вы пишете ChatGPT

Использовать чат-боты конфиденциально и безопасно сложно, но есть способы ограничить объем собираемых ими данных. Например, неплохо использовать VPN, чтобы скрыть свой IP-адрес.

На данном этапе технология слишком нова и несовершенна, чтобы можно было верить в ее конфиденциальность и безопасность, говорит Уилл Ричмонд-Когган, специалист по данным, конфиденциальности и ИИ в юридической фирме Freeths. Он считает, что следует проявлять "значительную осторожность", прежде чем делиться любыми данными - особенно если эта информация является конфиденциальной или связана с бизнесом.

Природа чат-бота означает, что он всегда будет раскрывать информацию о пользователе, независимо от того, как используется сервис, говорит Москона: "Даже если вы используете чат-бота через анонимный аккаунт или VPN, контент, который вы предоставляете, со временем может раскрыть достаточно информации, чтобы вас идентифицировали или отследили".

Как насчет использования чат-ботов для помощи в решении рабочих задач?

Чат-боты могут быть полезны на работе, но эксперты советуют действовать осторожно, чтобы не разглашать слишком много информации и не попасть под действие нормативных актов, таких как обновленная версия общего регламента ЕС по защите данных (GDPR). Именно с учетом этого компании, включая JP Morgan и Amazon, запретили или ограничили использование ChatGPT своими сотрудниками.

Риск настолько велик, что разработчики сами советуют воздержаться от их использования. "Мы не можем удалить информацию из вашей истории переписки", - говорится в FAQ ChatGPT. "Пожалуйста, не делитесь в разговорах конфиденциальной информацией".

Использование чат-ботов в деловых целях "может быть неразумным", говорит Москона. "Бесплатная версия ChatGPT не дает четких и однозначных гарантий того, как она будет защищать безопасность чатов или конфиденциальность вводимых и генерируемых чат-ботом данных. Хоть политика конфиденциальности и обещает защитить личную информацию, OpenAI очень расплывчато говорят о ее безопасности."

Microsoft утверждает, что Bing может помочь в решении рабочих задач, но заявляет и следующее: "Мы бы не рекомендовали передавать конфиденциальную информацию компании в любой потребительский сервис".

Если вы вынуждены пользоваться чат-ботами в профессии, эксперты советуют соблюдать осторожность. "Следуйте политике безопасности вашей компании и никогда не делитесь конфиденциальной или секретной информацией", - говорит Ник Николас, генеральный директор компании Covelent, специализирующейся на консультировании по вопросам данных.

Как обнаружить вредоносные программы, электронные письма и другой вредоносный контент, созданный ИИ?

По мере внедрения чат-ботов в интернет и социальные сети возрастает вероятность стать жертвой вредоносного ПО или вредоносных электронных писем. Национальный центр кибербезопасности Великобритании (NCSC) предупредил об опасности чат-ботов с искусственным интеллектом, заявив, что технология, на которой они работают, может быть использована в кибератаках.

Генерировать электронные письма на разных языках теперь проще простого. Признаки мошенничества, такие как плохая грамматика, будут менее очевидны.

Ник Николас

По мнению экспертов, ChatGPT и его конкуренты могут позволить злоумышленникам создавать более сложные фишинговые электронные письма. Например, генерировать электронные письма на разных языках будет проще, поэтому такие признаки мошеннических сообщений, как плохая грамматика и орфография, будут менее очевидны. Однако хотя стиль речи может показаться безупречным, сам текст за авторством чат-бота часто содержит фактические ошибки или устаревшую информацию.

Учитывая опасность мошенничества, эксперты советуют проявлять большую бдительность чем когда-либо при переходе по ссылкам или загрузке файлов из неизвестных источников. Используйте программное обеспечение безопасности и постоянно обновляйте его для защиты от вредоносных программ, советует Николас.

Данные под угрозой: будьте осторожны с тем, что вы пишете ChatGPT

Сервисы с поддержкой искусственного интеллекта быстро появляются, и по мере их развития риски будут возрастать. Эксперты говорят, что такие сервисы, как ChatGPT, могут быть использованы для помощи киберпреступникам в написании вредоносных программ, и есть опасения, что конфиденциальная информация, вводимая в сервисы с поддержкой чата, может попасть в Интернет.

Другие формы генеративного ИИ - искусственные интеллекты, способные создавать контент в виде голоса и изображений - могут дать преступникам возможность создавать более реалистичные deepfake видео, имитируя, например, сотрудника банка, спрашивающего пароль.

"Лучшая защита от вредоносного ПО и ИИ, созданного преступниками, - это бдительность", - говорит Ник Николас.

Этот текст – перевод и адаптация англоязычной статьи.

ChatGPT сервис Тайный Советник:

Это улучшенная альтернатива ChatGPT:

– телеграм-бот, работает без VPN на русском языке

– Общается с помощью GPT-3.5-turbo

– Запоминает диалоги

– Улучшает точность ответов на русском языке

– Понимает голос, синтезирует речь

– Генерирует изображения

– Решает проблемы с помощью узкопрофильных ИИ-персон, каждая из которых обладает своим характером и моделью поведения. Есть персоны для работы и личной жизни, есть даже модели 18+.

Попробуйте – первые 40 сообщений и 5 изображений бесплатно. https://t. me/Secret_Advisor_bot

2828
21 комментарий

Лекарство от яда отличается только дозой, так со всем, ИИ не исключение..)

4

вот что говорит ChatGPT по этому поводу , а дальше думайте сами, нужно оно вам или нет)
"Как и любые данные, которые вы передаете через Интернет, сообщения, отправляемые в Chat GPT, могут быть уязвимы для взлома или кражи данных. Однако, если вы используете надежный и защищенный сервис для обмена сообщениями, вероятность такого события будет минимальной. Необходимо также помнить о том, что использование чата GPT не гарантирует полную конфиденциальность."

3

Вот всегда так, чем лучше становится жить, тем опаснее...

2

Опаснее и несвободнее

Сливы данных происходят только в дерьмоконторах, большие корпорации в первую очередь заинтересованы в том, чтобы эти данные никуда не утекли. Верить, что данные из OpenAI утекают куда-то - как верить в иллюминатов.

2

Лучшая защита от вредоносного ПО и ИИ, созданного преступниками, - это бдительность-мда ,будем тогда бдить ,если других возможностей у нас пока нет

2

Комментарий недоступен

1