Адвокат из Нью-Йорка использовал ChatGPT для подготовки документов по делу — теперь его самого ждёт суд

Специалист с тридцатью годами юридической практики за плечами «не знал, что данные чат-бота могут быть недостоверными».

  • Юрист фирмы Levidow, Levidow & Oberman Стивен Шварц защищал интересы пассажира Роберто Маты, который пострадал на рейсе латиноамериканской авиакомпании Avianca: тот получил травму колена при столкновении с металлической тележкой, пишет NYT.
  • Avianca просила отклонить иск, но адвокаты истца возражали. Шварц подготовил десятистраничный отчёт, в котором сослался на якобы принятые ранее решения примерно по десяти схожим делам. При изучении его данных возникла проблема: ни судья, ни юристы Avianca не смогли найти упомянутые в отчёте заключения в судебных базах.
  • Позже Шварц рассказал, что для подготовки отчёта использовал чат-бота ChatGPT — «источник, который оказался ненадёжным». Он поделился с судом и тем, как проверял правдивость его ответов: он спрашивал у бота, реальны ли разбирательства, на которые он ссылается. Тот отвечал утвердительно.
  • Адвокат заявил, что не собирался обманывать ни суд, ни авиакомпанию и признался, что до этого никогда не пользовался сервисом и потому «не знал, что его информация может быть недостоверной». Он раскаялся и пообещал впредь не использовать ChatGPT без «всесторонней проверки» его данных.
  • Суд назвал беспрецедентной ситуацию, в которой «толкование правовой позиции состоит из ложных судебных постановлений, ссылок и цитат». Он назначил Стивену Шварцу слушание на 8 июня 2023 года, где рассмотрит «потенциальные меры наказания». Редакция CNN обратилась к юристу за комментарием, но тот на момент написания заметки не ответил.
Источник: <a href="https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html?smid=tw-nytimes&amp;smtyp=cur" rel="nofollow noreferrer noopener" target="_blank">NYT</a>
Источник: NYT
29K29K показов
19K19K открытий
66 репостов
137 комментариев

Не знал он, ага. 30 лет практики не научили квалифицированного адвоката, что всё нужно проверять.
Блях, уровень школьника, срисовывающего реферат на отшибись.
— Не врёшь, чатгпт?
— Мамой клянусь, всё правда!

Ответить

Вполне нормально. Он юрист. перепутал с поисковой машиной.

К стати, для стартаперов. Вот охрененная тема на которой можно будет поднять свои первые 100 лимонов.
ИИ поисковик по прецендентам. В зоне действия английского права все адвокаты будут ваши.

Ответить

Дядя за 30 лет практики много чему научился, в том числе и развешиванию лапши на уши уважаемым коллегам. Кто мог знать, что в этот раз его заявления решат особо тщательно проверить.

Ответить

ЧатЖПТ впилили в скайп под видом поиска ответов на вопросы. Думаю, человек подумал что это типа Google. Хотя Гугл тоже может содержать кривые документы, но там хоть по внешнему виду сайта и домену можно понять: скам это или нет.

Ответить

Да может реально просто доверился и с виду показалось, что инфа правильная, если не вчитываться...

Ответить

Как тут принято говорить. Это будущее, все остальное каменный век!

Ответить

Надеюсь у него хватит ума спросить у ChatGPT как выиграть дело.

Ответить