Ни шагу без ChatGPT: как ИИ разрушил брак, довёл мужчину до галлюцинаций и оставил целый класс без дипломов
Пять историй людей, которые доверились советам нейросети.
ИИ-слоперы 一 это люди, которые во всём полагаются на нейросети. Они верят каждой генерации чат-ботов и принимают решения, только посоветовавшись с ИИ.
Собрали пять историй, где за доверие к нейросетям пришлось заплатить一 в прямом и переносном смысле.
Виза не нужна, но есть нюанс
Инфлюенсер из Испании Мэри Калдасс перед поездкой в Пуэрто-Рико решила посоветоваться с ChatGPT и узнать, нужна ли ей виза для путешествия.
Я спросила ChatGPT, и он ответил «нет».
Выяснилось, что гражданам Евросоюза виза в Пуэрто-Рико действительно не нужна, но на самолёт не пустят без заполненной онлайн-заявки ESTA. Об этом чат-бот умолчал.
Мэри рассказала об инциденте в социальных сетях: она сняла ролик, на котором сквозь слёзы объяснила ситуацию. На рейс девушка не попала.
Нет аргументов для судебного заседания? Придумаем!
В июне 2023 года мужчина подал в суд на авиакомпанию Avianca. По словам пассажира, он получил травму во время перелёта.
Стивен Шварц из нью-йоркской юридической фирмы
Levidow, Levidow & Oberman представлял интересы пассажира в суде. В рамках своего исследования он обращался за помощью к ChatGPT. Согласно судебным документам, Шварц включил ссылки на ряд несуществующих дел и цитат, сгенерированных ChatGPT.
По словам Стивена, он не знал, что ChatGPT способен генерировать фейки. Фирму оштрафовали на $5000.
Вместо поваренной соли 一 бром трижды в день
В медицинском журнале Annals of Internal Medicine: Clinical Cases зафиксировали случай неудачного самолечения.
60-летний мужчина обратился за медицинской помощью и заявил, что сосед его травит. У него «не было психических или соматических заболеваний», но результаты анализа крови насторожили врачей, мужчину госпитализировали.
Его состояние значительно ухудшилось через 24 часа: появились «усиливающаяся паранойя, слуховые и зрительные галлюцинации». Медики заподозрили отравление бромом.
Мужчина сказал, что прочитал о недостатке поваренной соли, или хлорида натрия, и решил заменить её бромидом натрия. Он сделал это после «консультации с ChatGPT, в котором прочитал, что хлорид можно заменить бромидом», говорится в исследовании. Авторы статьи отмечают, что ИИ-бот, вероятно, предложил заменить соль на бром в уборке, а не в меню.
Мужчина провёл в больнице три недели, затем его выписали.
Хочешь, погадаю?
Весной 2025 года мать двоих детей, которая прожила в браке 12 лет, обратилась к ChatGPT с просьбой интерпретировать кофейную гущу в чашке её мужа. Чат-бот предположил, что у мужа роман с молодой женщиной, которая намерена разлучить их семью.
Женщина поверила ИИ и подала на развод. Её супруг появился в эпизоде греческого утреннего шоу To Proino, сейчас мужчина работает с юристом.
В рамках шоу мужчина не раскрывает своей личности, подтвердить достоверность истории не удалось.
Кто писал? Ну, допустим, я
В результате «проверки» ChatGPT заверил преподавателя, что все эссе сгенерировала нейросеть. Мужчина поставил неудовлетворительную оценку всему классу. Из-за этого студенты не смогли своевременно выпуститься и получить свои дипломы.