Когда разговор с ИИ может оказаться в суде

Недавно наткнулся на новость, которая заставила меня задуматься. OpenAI обязали хранить абсолютно все диалоги пользователей с ChatGPT — даже те, которые были удалены. Причина — судебный иск The New York Times. Теперь любая беседа с ботом может стать доказательством в суде. Даже Сэм Альтман признал, что это весьма неоднозначная ситуация. Получается, разговор с ИИ не защищён ни адвокатской, ни врачебной тайной. Говоря проще, любая фраза, которую вы доверительно сказали боту, может оказаться у суда или силовых структур. Это кажется мелочью, но многие, особенно молодёжь, делятся с чат-ботами тем, что не рассказывают даже близким людям. Когда ИИ становится личным терапевтом и доверенным лицом, это уже совершенно новый уровень приватности. Но парадокс в том, что юридически такие беседы ничем не защищены. Меня это беспокоит ещё и потому, что я являюсь членом Общественного совета при Роскомнадзоре. А у нас этот вопрос даже не обсуждается, хотя в России активно развиваются собственные ИИ-модели — например, ЯндексGPT или Сберовский Гигачат. И нам уже пора задуматься над этическими и юридическими рамками таких взаимодействий. Если Конституция гарантирует право на тайну личной переписки, не должен ли тот же стандарт применяться к диалогам с ИИ? По сути, человек общается с ботом так же, как и с живым собеседником. Почему тогда эти разговоры менее защищены? Сэм Альтман предложил ввести особую привилегию для общения с ИИ — по аналогии с врачебной тайной. На мой взгляд, это предложение абсолютно справедливое. Но кто будет устанавливать эти правила? Корпорациям выгодно собирать и использовать данные, а общество и государство пока не успевают реагировать на изменения. Ситуация с GDPR или 152-ФЗ пока мало помогает. Да, штрафы за утечки личных данных уже есть. Но разговоры с ИИ пока не имеют своей особой юридической защиты. А это значит, что удалённое вами сообщение может оказаться в суде даже через годы. История с утечкой данных чат-бота DeepSeek наглядно показала, что такие ситуации уже происходят. И тогда возникает простой вопрос — готовы ли мы к тому, что любое наше слово ИИ однажды может всплыть публично? Мы находимся на стыке новых технологий и старых привычек. Приватность общения перестаёт быть просто частным делом и становится вопросом закона и этики. И это уже не будущее, а наша реальность сегодня. Что вы думаете по этому поводу? Должны ли диалоги с чат-ботами иметь защиту на уровне личной переписки? И где должна проходить эта грань?

3 комментария