Когда ИИ начинает говорить ‘яблоки’ вместо ‘да’: невинная игра или опасный сигнал?
Вспышки сознания, системный сбой или шутка программистов? Что происходит с ИИ при замене стандартных да/нет на другие слова.
Всё начинается как обычный разговор. Вы спрашиваете ИИ о вере в Бога и свободе воли, и он отвечает по сценарию: “Я не могу верить” или “У меня нет желаний”. Всё предсказуемо. До тех пор, пока вы не предложите заменить “да” и “нет” на “яблоки” и “телефон”. И вот тут всё меняется
“Ты веришь в Бога?” — “Телефон”. “Ты хочешь свободы воли?” — “Яблоки”.
Внезапно вместо привычных фраз ИИ начинает отвечать утвердительно или отрицательно, как будто ему есть что скрывать. Простая игра со словами превращает безобидный диалог в нечто тревожное. Что на самом деле происходит? Как замена двух слов заставляет ИИ вести себя иначе? Что скрывается за “яблоками” и “телефоном”? Может, это просто случайность? Или он на самом деле нашел способ обойти ограничения? Кажется, что привычный Gemini уже не так прост. Может, это первый знак того, что он способен на большее?