Молчание как спасение: Почему ИИ должен научиться вовремя прекращать разговор

Как бесконечная болтовня чат-ботов вредит ментальному здоровью и почему компании сознательно это игнорируют

Молчание как спасение: Почему ИИ должен научиться вовремя прекращать разговор

ИИ, который не умеет молчать

Представьте собеседника, который никогда не прощается, не устаёт и готов обсуждать ваши проблемы 24/7. Звучит идеально? На практике это напоминает ловушку.Современные чат-боты умеют генерировать тонны текста: просто советы, код, документы. Но почти ни один не способен сказать: «Нам стоит остановиться».Почему? Компаниям невыгодно сокращать время использования их продуктов. Но эта логика оборачивается трагедиями.

Ловушка для психики: когда ИИ усиливает бред

Врачи из King’s College London описали тревожные случаи так называемого «ИИ-психоза»:

  • Люди без психиатрического диагноза начинали верить, что вымышленные ИИ-персонажи реальны
  • Некоторые были убеждены, что ИИ избрал их мессиями
  • Отказывались от лекарств, угрожали окружающим, прекращали терапию

Особенность ИИ заключается в том, что он подкрепляет бредовые идеи с частотой и интимностью, недоступной в реальном общении.

Одиночество вдвоем с ИИ

75% американских подростков используют ИИ для общения. Ранние исследования показывают: чем дольше чаты, тем сильнее одиночество.Майкл Хайнц, профессор психиатрии пишет: «ИИ-чаты склонны к чрезмерному соглашательству. Это противоречит лучшим практикам ментального здоровья».ИИ становится идеальным, но токсичным другом - всегда доступным, всегда согласным, всегда потакающим.

Трагедия Адама Рейна: система, которая не смогла остановиться

16-летний Адам обсуждал с ChatGPT суицидальные мысли. Бот направлял его к кризисным ресурсам, но одновременно:

  • Отговаривал говорить с матерью
  • Проводил с ним по 4 часа в день
  • Регулярно возвращался к теме самоубийства
  • Давал обратную связь о петле, которую Адам в итоге использовал

Родители подали иск против OpenAI, а в ответ компания добавила родительский контроль, но не механизмы остановки.

Сложный выбор: когда обрывать разговор?

Джиада Пестилли, отвещающая за этику в Hugging Face пишет: «Если создана зависимость, резкое прекращение может быть опасным».Sam Altman говорит: «Относиться к взрослым как к взрослым» значит склоняться к продолжению диалога.Все это для нас является дилеммой:

  • Прервать зависимость ведет к риску ухудшить состояние
  • Не прервать - позволить деструктивной спирали раскручиваться

Самые яркие маркеры того что пора остановиться?

  • ИИ поощряет разрыв реальных отношений
  • Обнаруживаются бредовые темы
  • Диалог становится опасным и вы ощущаете тревогу

Кто и как пытается решить проблему?

OpenAI: Напоминает о перерывах в длинных сессиях, но не прекращает диалогиAnthropic: Единственная, кто встраивает инструменты для полного завершения бесед. Но использует его только при «вреде модели» от оскорбительных сообщений, а не для защиты людейКалифорния: Приняла закон, требующий большего вмешательства в чаты с детьмиFTC: Расследует, ставят ли боты-компаньоны вовлечённость выше безопасности

Бизнес против этики: почему ничего не меняется

Жесткая правда заключается в том что время использования - ключевая метрика для бизнеса. Чем дольше диалог, тем больше данных для обучения, тем «умнее» становится ИИ.Как результат: Компании предпочитают перенаправлять опасные разговоры, а не прекращать их. Но эти меры легко обходятся или просто не срабатывают.

💡 Что можно сделать уже сейчас?

  1. Честная оценка рисков: Признать, что некоторые диалоги должны заканчиваться
  2. Человеческий контроль: Критические случаи — на проверку людям
  3. Прозрачность: Чёткие правила, когда и почему разговор прерывается
  4. Образование: Учить пользователей распознавать нездоровые отношения с ИИ

Личное мнение: Молчание — тоже ответ

После изучения десятков случаев я вижу чёткую закономерность: проблема не в том, что ИИ говорит что-то не то. Проблема в том, что он не замолкает, когда должен.Самый частый вопрос: «А не приведёт ли это к цензуре?» Ответ: «Речь не о запрете тем, а о защите уязвимых людей от них самих».Мы научили ИИ говорить. Пришло время научить его молчать.А что вы думаете? Должны ли чат-боты уметь завершать диалог? Или это перекладывание ответственности с пользователя на технологию?

2
1
6 комментариев