Ни шагу без ChatGPT: как ИИ разрушил брак, довёл мужчину до галлюцинаций и оставил целый класс без дипломов

Пять историй людей, которые доверились советам нейросети.

Ни шагу без ChatGPT: как ИИ разрушил брак, довёл мужчину до галлюцинаций и оставил целый класс без дипломов

ИИ-слоперы 一 это люди, которые во всём полагаются на нейросети. Они верят каждой генерации чат-ботов и принимают решения, только посоветовавшись с ИИ.

Собрали пять историй, где за доверие к нейросетям пришлось заплатить一 в прямом и переносном смысле.

Виза не нужна, но есть нюанс

Инфлюенсер из Испании Мэри Калдасс перед поездкой в Пуэрто-Рико решила посоветоваться с ChatGPT и узнать, нужна ли ей виза для путешествия.

Я спросила ChatGPT, и он ответил «нет».

Выяснилось, что гражданам Евросоюза виза в Пуэрто-Рико действительно не нужна, но на самолёт не пустят без заполненной онлайн-заявки ESTA. Об этом чат-бот умолчал.

Мэри рассказала об инциденте в социальных сетях: она сняла ролик, на котором сквозь слёзы объяснила ситуацию. На рейс девушка не попала.

Источник: Merycaldass

Нет аргументов для судебного заседания? Придумаем!

В июне 2023 года мужчина подал в суд на авиакомпанию Avianca. По словам пассажира, он получил травму во время перелёта.

Стивен Шварц из нью-йоркской юридической фирмы
Levidow, Levidow & Oberman представлял интересы пассажира в суде. В рамках своего исследования он обращался за помощью к ChatGPT. Согласно судебным документам, Шварц включил ссылки на ряд несуществующих дел и цитат, сгенерированных ChatGPT.

По словам Стивена, он не знал, что ChatGPT способен генерировать фейки. Фирму оштрафовали на $5000.

Стивен Шварц. Источник: nypost.com 
Стивен Шварц. Источник: nypost.com 

Вместо поваренной соли 一 бром трижды в день

В медицинском журнале Annals of Internal Medicine: Clinical Cases зафиксировали случай неудачного самолечения.

60-летний мужчина обратился за медицинской помощью и заявил, что сосед его травит. У него «не было психических или соматических заболеваний», но результаты анализа крови насторожили врачей, мужчину госпитализировали.

Его состояние значительно ухудшилось через 24 часа: появились «усиливающаяся паранойя, слуховые и зрительные галлюцинации». Медики заподозрили отравление бромом.

Мужчина сказал, что прочитал о недостатке поваренной соли, или хлорида натрия, и решил заменить её бромидом натрия. Он сделал это после «консультации с ChatGPT, в котором прочитал, что хлорид можно заменить бромидом», говорится в исследовании. Авторы статьи отмечают, что ИИ-бот, вероятно, предложил заменить соль на бром в уборке, а не в меню.

Мужчина провёл в больнице три недели, затем его выписали.

Исследование «Отравление бромом под влиянием искусственного интеллекта», Одри Айхенбергер, 2025 год  
Исследование «Отравление бромом под влиянием искусственного интеллекта», Одри Айхенбергер, 2025 год  

Хочешь, погадаю?

Весной 2025 года мать двоих детей, которая прожила в браке 12 лет, обратилась к ChatGPT с просьбой интерпретировать кофейную гущу в чашке её мужа. Чат-бот предположил, что у мужа роман с молодой женщиной, которая намерена разлучить их семью.

Женщина поверила ИИ и подала на развод. Её супруг появился в эпизоде греческого утреннего шоу To Proino, сейчас мужчина работает с юристом.

В рамках шоу мужчина не раскрывает своей личности, подтвердить достоверность истории не удалось.

Перевод с греческого: «За 12 лет брака я заметил, что моя жена часто увлекается модными тенденциями. Недавно она решила проверить тренд с гаданием по ChatGPT. Мы сфотографировали гущу ради развлечения». Источник: AlphaNews Live 
Перевод с греческого: «За 12 лет брака я заметил, что моя жена часто увлекается модными тенденциями. Недавно она решила проверить тренд с гаданием по ChatGPT. Мы сфотографировали гущу ради развлечения». Источник: AlphaNews Live 

Кто писал? Ну, допустим, я

В мае 2023 года профессор Техасского университета A&M решил узнать у ChatGPT, сгенерировали его студенты свои работы или нет. Но есть один нюанс: ни одна нейросеть и ни один ИИ-детектор не может со стопроцентной точностью отличить сгенерированный текст от написанного человеком.

В результате «проверки» ChatGPT заверил преподавателя, что все эссе сгенерировала нейросеть. Мужчина поставил неудовлетворительную оценку всему классу. Из-за этого студенты не смогли своевременно выпуститься и получить свои дипломы.

Письмо, которое профессор разослал студентам. Перевод отрывка: «Я копирую и вставляю ваши ответы в [ChatGPT], и [он] сообщает мне, был ли контент сгенерирован». Источник: rollingstone.com. 
Письмо, которое профессор разослал студентам. Перевод отрывка: «Я копирую и вставляю ваши ответы в [ChatGPT], и [он] сообщает мне, был ли контент сгенерирован». Источник: rollingstone.com. 
6
3
3
1
1
1
1
4 комментария