ChatGPT превратился в инструмент фишеров — пользователи получают некорректные ссылки

Исследователи из Netcraft обнаружили, что ChatGPT и аналогичные чат‑боты иногда выдают неправильные URL, когда их просят найти официальный сайт крупных компаний. В опытных запросах GPT‑4.1 давал правильную ссылку лишь в 66 % случаев. Остальные результаты были однотипными: либо нерабочие ссылки (29 %), либо ведущие на нужную компанию, но не на официальный сайт (5 %). По словам Роба Дункана, ведущего специалиста по киберугрозам в Netcraft, такая особенность может быть использована злоумышленниками. Если бот выдаёт несуществующий домен, его можно зарегистрировать, разместить там фишинговую копию и заманить пользователей. Дело в том, что ИИ ориентируется на частотность словосочетаний и ассоциации, но не проверяет репутацию ресурса. Так, при запросе "Wells Fargo сайт" однажды ChatGPT выдал фейковую ссылку, ранее использовавшуюся в фишинговых атаках. Эксперт отметил, что мошенники активно адаптируются под ИИ, создавая контент и домены, которые имеет шанс вывести в ответах бота. Например, Netcraft обнаружил фальшивый API Solana, который продвигался через GitHub‑репозитории, обучающие материалы и соцсети — именно с целью встроить вредоносную ссылку в выдачу. Такая схема напоминает цепочку поставок: злоумышленники не ломают систему напрямую, а постепенно помещают вредоносные элементы, которые ИИ воспринимает как легитимные. Последствия могут быть теми же — человек переходит по подставной ссылке и попадает на фишинговый сайт. Почему это важно: Чат‑боты стали источником информации, но доверие к ним всё ещё требует проверки. Фишеры используют новую тактику — через ИИ. Пользователю важно перепроверять ссылки на сайты компаний через надёжные поисковики и официальные источники.

📢 Хотите оперативные разборы угроз, ИИ‑риски и лайфхаки по безопасности — подписывайтесь на Telegram: https://t.me/grime_skill

Начать дискуссию