Переписки с ChatGPT могут использовать в суде — все действительно серьезно?

Давайте разберемся глубже в новости про то, что переписки с ChatGPT в роли психотерапевта (а также врача и юриста) могут быть использованы в суде.

Если кто пропустил, то 24 июля на канале Тео Вона появилось большое интервью с Сэмом Альтманом. В котором глава OpenAI в том числе призвал пользователей ChatGPT с осторожностью использовать ИИ в роли психотерапевта. Вот почему:

  • Когда вы посещаете реального психотерапевта, врача или юриста — сказанное на приеме защищено законом о конфиденциальности. Законы немного различаются в зависимости от страны, но суть одна и та же.
  • Когда вы используете ChatGPT в качестве одного из этих специалистов — закон не работает. Соответственно, если власти запросят переписку, то OpenAI придется раскрыть ее.
  • Даже удаленные и анонимные чаты хранятся на серверах OpenAI 30 дней. А сейчас, из-за судебного разбирательства с NY Times, компанию вынудили увеличить сроки хранения.

Вдвойне интересно это выглядит на фоне собранной Talker Research статистики, которая говорит, что в США уже 20% пользователей ИИ обращаются к ним за психотерапевтической помощью, а 35% — за консультациями по здоровью. Так что, срочно удаляем чаты? Скорее — включаем здравый смысл.

Для начала важно знать, что даже законодательство о конфиденциальности не абсолютное. Если на приеме/консультации вскроется угроза жизни/здоровью человека или факт серьезного преступления — специалист может (а в некоторых случаях даже обязан!) доложить куда надо. Аналогично и суд может запросить содержимое консультаций, но должен будет доказать серьезность дела.

Однако для подобных случаев правила игры установлены, хорошие специалисты их знают и могут заранее предупредить, какие темы они готовы обсуждать, а какие — нет.

В случае же с ИИ начинается совершенно дикая история. Начнем с того, что современные модели не обязаны докладывать, если в ходе переписки вскроется возможность серьезного преступления. Скорее всего, подобный случай просто заблокирует система безопасности.

Хорошо это или плохо — большой вопрос и лежит он скорее в правильном определении серьезности намерений. Разговор с живым человеком подразумевает определенный уровень ответственности, ну а что ИИ – новомодная игрушка, с которой легко можно поболтать даже о самых невероятных глупостях, которые в жизни ты бы никогда не решился сделать. И если по каждой такой ерунде будет уходить доклад куда надо — то это не столько поможет, сколько добавит нагрузку.

Но одновременно в текущих реалиях суд вправе затребовать переписку с ИИ по любой мелочи, а затем применить ее против пользователя. Опять же, большой вопрос, как часто суды будут запрашивать подобное — пока, судя по отсутствию шума в прессе, речь скорее о единичных случаях, чем о регулярной практике. Но если теоретическая возможность есть — то рано или поздно ее применят.

Поэтому Альтман хоть и давал свои рекомендации пользователям ChatGPT, но между строк у него звучит обращение к законодателям — ИИ развивается быстро, а вы отстаете, давайте срочно решать этот вопрос. Боюсь, мы в принципе оказались не готовы к темпами развития в этой области — и впереди еще много похожих ситуаций, когда пользователи ИИ будут оказываться в "диких землях".

Что же пока делать всем нам? Руководствоваться правилом здравого смысла. Чат-боту можно пожаловаться на выгорание, или выговориться после того, как сын принес из школы целую пачку двоек. Но вот с серьезными вопросами стоит идти к реальному специалисту, который разбирается в своих возможностях, правах и обязанностях, а значит — сможет дать грамотную консультацию и понести за нее ответственность.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", на котором я рассказываю про ИИ с творческой стороны.

Начать дискуссию