Адвокат из Нью-Йорка использовал ChatGPT для подготовки документов по делу — теперь его самого ждёт суд

Специалист с тридцатью годами юридической практики за плечами «не знал, что данные чат-бота могут быть недостоверными».

  • Юрист фирмы Levidow, Levidow & Oberman Стивен Шварц защищал интересы пассажира Роберто Маты, который пострадал на рейсе латиноамериканской авиакомпании Avianca: тот получил травму колена при столкновении с металлической тележкой, пишет NYT.
  • Avianca просила отклонить иск, но адвокаты истца возражали. Шварц подготовил десятистраничный отчёт, в котором сослался на якобы принятые ранее решения примерно по десяти схожим делам. При изучении его данных возникла проблема: ни судья, ни юристы Avianca не смогли найти упомянутые в отчёте заключения в судебных базах.
  • Позже Шварц рассказал, что для подготовки отчёта использовал чат-бота ChatGPT — «источник, который оказался ненадёжным». Он поделился с судом и тем, как проверял правдивость его ответов: он спрашивал у бота, реальны ли разбирательства, на которые он ссылается. Тот отвечал утвердительно.
  • Адвокат заявил, что не собирался обманывать ни суд, ни авиакомпанию и признался, что до этого никогда не пользовался сервисом и потому «не знал, что его информация может быть недостоверной». Он раскаялся и пообещал впредь не использовать ChatGPT без «всесторонней проверки» его данных.
  • Суд назвал беспрецедентной ситуацию, в которой «толкование правовой позиции состоит из ложных судебных постановлений, ссылок и цитат». Он назначил Стивену Шварцу слушание на 8 июня 2023 года, где рассмотрит «потенциальные меры наказания». Редакция CNN обратилась к юристу за комментарием, но тот на момент написания заметки не ответил.
Источник: <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.nytimes.com%2F2023%2F05%2F27%2Fnyregion%2Favianca-airline-lawsuit-chatgpt.html%3Fsmid%3Dtw-nytimes%26amp%3Bsmtyp%3Dcur&postId=708925" rel="nofollow noreferrer noopener" target="_blank">NYT</a>
Источник: NYT
104104
реклама
разместить
137 комментариев

Не знал он, ага. 30 лет практики не научили квалифицированного адвоката, что всё нужно проверять.
Блях, уровень школьника, срисовывающего реферат на отшибись.
— Не врёшь, чатгпт?
— Мамой клянусь, всё правда!

70

Вполне нормально. Он юрист. перепутал с поисковой машиной.

К стати, для стартаперов. Вот охрененная тема на которой можно будет поднять свои первые 100 лимонов.
ИИ поисковик по прецендентам. В зоне действия английского права все адвокаты будут ваши.

32

Дядя за 30 лет практики много чему научился, в том числе и развешиванию лапши на уши уважаемым коллегам. Кто мог знать, что в этот раз его заявления решат особо тщательно проверить.

6

ЧатЖПТ впилили в скайп под видом поиска ответов на вопросы. Думаю, человек подумал что это типа Google. Хотя Гугл тоже может содержать кривые документы, но там хоть по внешнему виду сайта и домену можно понять: скам это или нет.

5

Да может реально просто доверился и с виду показалось, что инфа правильная, если не вчитываться...

1

Как тут принято говорить. Это будущее, все остальное каменный век!

Надеюсь у него хватит ума спросить у ChatGPT как выиграть дело.

47