Переписки с ChatGPT могут использовать в суде — все действительно серьезно?
Давайте разберемся глубже в новости про то, что переписки с ChatGPT в роли психотерапевта (а также врача и юриста) могут быть использованы в суде.
Если кто пропустил, то 24 июля на канале Тео Вона появилось большое интервью с Сэмом Альтманом. В котором глава OpenAI в том числе призвал пользователей ChatGPT с осторожностью использовать ИИ в роли психотерапевта. Вот почему:
- Когда вы посещаете реального психотерапевта, врача или юриста — сказанное на приеме защищено законом о конфиденциальности. Законы немного различаются в зависимости от страны, но суть одна и та же.
- Когда вы используете ChatGPT в качестве одного из этих специалистов — закон не работает. Соответственно, если власти запросят переписку, то OpenAI придется раскрыть ее.
- Даже удаленные и анонимные чаты хранятся на серверах OpenAI 30 дней. А сейчас, из-за судебного разбирательства с NY Times, компанию вынудили увеличить сроки хранения.
Вдвойне интересно это выглядит на фоне собранной Talker Research статистики, которая говорит, что в США уже 20% пользователей ИИ обращаются к ним за психотерапевтической помощью, а 35% — за консультациями по здоровью. Так что, срочно удаляем чаты? Скорее — включаем здравый смысл.
Для начала важно знать, что даже законодательство о конфиденциальности не абсолютное. Если на приеме/консультации вскроется угроза жизни/здоровью человека или факт серьезного преступления — специалист может (а в некоторых случаях даже обязан!) доложить куда надо. Аналогично и суд может запросить содержимое консультаций, но должен будет доказать серьезность дела.
Однако для подобных случаев правила игры установлены, хорошие специалисты их знают и могут заранее предупредить, какие темы они готовы обсуждать, а какие — нет.
В случае же с ИИ начинается совершенно дикая история. Начнем с того, что современные модели не обязаны докладывать, если в ходе переписки вскроется возможность серьезного преступления. Скорее всего, подобный случай просто заблокирует система безопасности.
Хорошо это или плохо — большой вопрос и лежит он скорее в правильном определении серьезности намерений. Разговор с живым человеком подразумевает определенный уровень ответственности, ну а что ИИ – новомодная игрушка, с которой легко можно поболтать даже о самых невероятных глупостях, которые в жизни ты бы никогда не решился сделать. И если по каждой такой ерунде будет уходить доклад куда надо — то это не столько поможет, сколько добавит нагрузку.
Но одновременно в текущих реалиях суд вправе затребовать переписку с ИИ по любой мелочи, а затем применить ее против пользователя. Опять же, большой вопрос, как часто суды будут запрашивать подобное — пока, судя по отсутствию шума в прессе, речь скорее о единичных случаях, чем о регулярной практике. Но если теоретическая возможность есть — то рано или поздно ее применят.
Поэтому Альтман хоть и давал свои рекомендации пользователям ChatGPT, но между строк у него звучит обращение к законодателям — ИИ развивается быстро, а вы отстаете, давайте срочно решать этот вопрос. Боюсь, мы в принципе оказались не готовы к темпами развития в этой области — и впереди еще много похожих ситуаций, когда пользователи ИИ будут оказываться в "диких землях".
Что же пока делать всем нам? Руководствоваться правилом здравого смысла. Чат-боту можно пожаловаться на выгорание, или выговориться после того, как сын принес из школы целую пачку двоек. Но вот с серьезными вопросами стоит идти к реальному специалисту, который разбирается в своих возможностях, правах и обязанностях, а значит — сможет дать грамотную консультацию и понести за нее ответственность.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", на котором я рассказываю про ИИ с творческой стороны.