Адвокат из Нью-Йорка использовал ChatGPT для подготовки документов по делу — теперь его самого ждёт суд Статьи редакции
Специалист с тридцатью годами юридической практики за плечами «не знал, что данные чат-бота могут быть недостоверными».
- Юрист фирмы Levidow, Levidow & Oberman Стивен Шварц защищал интересы пассажира Роберто Маты, который пострадал на рейсе латиноамериканской авиакомпании Avianca: тот получил травму колена при столкновении с металлической тележкой, пишет NYT.
- Avianca просила отклонить иск, но адвокаты истца возражали. Шварц подготовил десятистраничный отчёт, в котором сослался на якобы принятые ранее решения примерно по десяти схожим делам. При изучении его данных возникла проблема: ни судья, ни юристы Avianca не смогли найти упомянутые в отчёте заключения в судебных базах.
- Позже Шварц рассказал, что для подготовки отчёта использовал чат-бота ChatGPT — «источник, который оказался ненадёжным». Он поделился с судом и тем, как проверял правдивость его ответов: он спрашивал у бота, реальны ли разбирательства, на которые он ссылается. Тот отвечал утвердительно.
- Адвокат заявил, что не собирался обманывать ни суд, ни авиакомпанию и признался, что до этого никогда не пользовался сервисом и потому «не знал, что его информация может быть недостоверной». Он раскаялся и пообещал впредь не использовать ChatGPT без «всесторонней проверки» его данных.
- Суд назвал беспрецедентной ситуацию, в которой «толкование правовой позиции состоит из ложных судебных постановлений, ссылок и цитат». Он назначил Стивену Шварцу слушание на 8 июня 2023 года, где рассмотрит «потенциальные меры наказания». Редакция CNN обратилась к юристу за комментарием, но тот на момент написания заметки не ответил.
28K
показов
18K
открытий
6
репостов
Не знал он, ага. 30 лет практики не научили квалифицированного адвоката, что всё нужно проверять.
Блях, уровень школьника, срисовывающего реферат на отшибись.
— Не врёшь, чатгпт?
— Мамой клянусь, всё правда!
Вполне нормально. Он юрист. перепутал с поисковой машиной.
К стати, для стартаперов. Вот охрененная тема на которой можно будет поднять свои первые 100 лимонов.
ИИ поисковик по прецендентам. В зоне действия английского права все адвокаты будут ваши.
Дядя за 30 лет практики много чему научился, в том числе и развешиванию лапши на уши уважаемым коллегам. Кто мог знать, что в этот раз его заявления решат особо тщательно проверить.
ЧатЖПТ впилили в скайп под видом поиска ответов на вопросы. Думаю, человек подумал что это типа Google. Хотя Гугл тоже может содержать кривые документы, но там хоть по внешнему виду сайта и домену можно понять: скам это или нет.
Да может реально просто доверился и с виду показалось, что инфа правильная, если не вчитываться...
Как тут принято говорить. Это будущее, все остальное каменный век!
Надеюсь у него хватит ума спросить у ChatGPT как выиграть дело.
Походу он уже спросил.
ага и проиграть дело)
Даже пацан, который писал диплом с помощью ChatGPT смог проверить данные и защитить его...
Пацану 22, адвокату лет 400
ну это единицы, сейчас уже такие работы проверяются
Так он прошаренный в технике, а мужик за 40 не особо
Не всем дано быть такими смекалистыми)
Однажды я спросил у ChatGPT топ-10 лучших фильмов детективов с неожиданной концовкой. Он порекомендовал мне потрясающий список с отличным кратким пересказом сюжета, страной, годом выпуска и актерами. Некоторые фильмы из этого списка я знал хорошо (например "достать ножи"), но о некоторых ничего не слышал и краткое описание меня очень заинтриговало. В итоге оказалось, что половина списка состоят из несуществующих картин.
Я очень расстроился, ведь именно эти фильмы звучали очень интригующе...
Достать ножи - хороший фильм?
Потому что ChatGPT - это скам.
Посмотри "Патруль времени (Predestination)". Вот тут концовка вообще норм
Ну ты же список фильмов получил:)
Вполне возможно они когда-нибудь будут сняты
А я как-то попросил у Бинга какую-нибудь вумную цитату и он мне ее действительно дал
История поучительная
что за фильм?
Поучительная история. Во-первых, я узнал, что адвокаты в США могут халтурить. Раньше я думал, что они неделями сидят в библиотеках, выискивая подходящий прецедент. Во-вторых, я узнал, что ChatGPT может подвести пользователя под монастырь. Так что не стоит безгранично доверять этому сервису.
Человеку, который живёт в России, сложно понять всю глубину фразы "я знаю хорошего адвоката" которую мы так часто слышим в фильмах. Под это фразой скрыт очень простой смысл, 99% адвокатов в США это люди с лицензией которым так остоебенила их работа, что слово "халтурить" в качестве их характеристики можно считать комплиментом, по факту же зачастую откровенное вредительство. Такие адвокаты делают все, чтобы за меньшее количество времени заработать больше денег, таким образом они набирают клиентов больше, чем могут качественно обработать - следовательно, качество падает. Это можно сравнить с нашим "я знаю хорошего механика" или "я знаю хорошего стоматолога" подразумевая под этим не дешевезну услуги, возможно даже стоимость услуги будет выше рынка, но мы хотим получить услугу соответствующую её стоимости.
не все в жизни как в форсмажорах)
Вы либо смотрите слишком много "голливудских" фильмов, либо мало путешествуете. Люди везде одинаковые, почти всё зависит от созданной сверху среды. Очень полезный фильм "Поменяться местами".
Кстати, при использовании чата написано, что компания openai не отвечает за медицинские и финансовые ответы, а про судебные дела нет ни слова.
Да все люди в любых профессиях могут схалтурить и не хотят тратить лишнее время. От человека зависит просто.
То то и удивительно. Сколько уже писали, что chatgpt придумывает то авторов, то истолкование)) может действительно спутал с поисковиком. Но тоже странно, почему не поискать в толмутах закона?)
Не, ну если не хочешь мозгами своими пользоваться, то пускай
Везде люди, и у всех при возможности заработать не прикладывая усилий, появляется соблазн. Мы ничем не отличаемся в разных странах. Этот юрист был пойман, а количество не пойманных (когда суд не заметил подлог) нам просто неизвестно. И дальше эта проблема будет только разрастаться
Главное, чтобы судья с Chat GPT по вердиктам не советовался
Смотря где. В россии вполне может и лучше оказаться.
-
А там по похожему методу выносится вердикт, я уверена.
Ну еще впереди,у него же только предстоит суд
Хуже всего в этом плане версия от Bing.
Даже когда ставишь его перед фактом его вранья, он все равно утверждает, что это ты неправ.
Настоящая нетерпимая сволочь с чувством превосходства перед мешками.
Оригинальный от open ai хоть и врёт, но подхалим и старается.
Это конкретная проблема ChatGPT. Сервис генерирует ссылки на научные статьи, даёт для них ссылки DOI, авторов, абстракции и ничего из этого не существует в природе. А если таки существует, то по указанным ссылкам обнаруживаются совсем другие статьи.
Прям генератор ложной информации.
И как с этой проблемой бороться -вообще пока не ясно. Так как эти галлюцинации зачастую выглядят реально не отличимыми от реальности (
Юристы понимают, что ИИ легко может их заменить с большей эффективностью, поэтому будут всячески защищать "свою территорию"
Не понятно при чём тут ИИ до соблюдения процессуальных норм. Поиск прецедентов тоже к ИИ практически не относится. Опрос свидетелей? Однозначно нет. Заключительное слово с ориентацией на присяжных? Уровень вообще не тот. В какой именно области юриспруденции ИИ может «легко заменить», подскажи?
Помочь может, заменить пока нет.
Комментарий недоступен
Через лет 5 только, если хорошенько прокачать намеренно, то быстрее. Всех не заменит, пока, но большинство вполне... И ошибок будет меньше чем у "мешков с костями"))), ведь они ещё те лжецы и хитрецы, да и косикопоры .
Чтобы обелить своё честное имя и доказать, что он хороший юрист, у него теперь имеется единственный выход: подать в суд на Сэма Альтмана, OpenAI, Робокопа, R2-D2, ВАЛЛ-И, Т-1000, Бендера Родригеса и Вертера. Ну и выиграть дело.
Вперёд, Стивен, держу за тебя кулачки.
Так, от wall•e, T-1000 и Бендера Родригиса руки прочь.
Остальных не жалко.
На Скайнет пусть только не подает. А то мало ли что
1) ИИ Набросай иск по делу. отправить. следующий.
2) Сидим ждём миллионы.
- Сперва они пересчитывают за excel'ем на калькуляторе. Потом верят ChatGPT на слово. Как это называется?
- Гуманитарии, сэр.
Получается, нейросеть сгенерировала фальшивые дела для обоснования запроса юриста или просто где- то нашла эти данные, не сверив с официальными источниками?
За информацию в базах данных есть ответственные, а за чат? Скорее всего, в пользовательском соглашении мелкими буковками что- то такое было... тогда вопрос к юристу.
Она ничего не ищет и ничего не проверяет. Она не так работает. Она именно генерирует свои ответы.
Не просто в EULA, а прямо рядом с чатом и написано
Нейросеть не могла найти эти дела, так как они находятся под пейволлом
Все что нужно знать о ChatGPT.
Единственное что он делает хорошо - генерирует текст. Особенно если перед этим накормить его источниками, то будет неплохой результат.
Можно ещё код дописывать, но только если вы разбираетесь в этом вопросе
Премию Дарвина этому господину)
Оказывается, теперь можно на Чатбота все свалить, если дело не выиграл🤔😄
Лучше бы так и сделал
Тут уже написали, что судья поймал адвоката с помощью чатжпт?
Комментарий удален модератором
Как же он раньше-то работал? Ведь проверял же как-то данные до появления чат-ботов. Тридцать лет коту под хвост - круто! Особенно для США.
Решил время сэкономить. Лень движет человеком
Ну вряд ли бы он официально заявил, что думал, что обман прокатит и что суд не обратит внимания. Это же сразу лишение лицензии.
А так скажет, что это все случайность и злого умысла не было. Ограничат в практике на год и назначат штраф.
Комментарий недоступен
И писателями комментариев.
Я вот подумал не дай бог, врачи лечить начнут по этим модным штукам. А что удобно, ввел симптомы получил результат. Чат бот еще спросит как будем лечить мешка, дорого или дешево.
это будет начало конца
Этот случай был до того как Билл Гейтс на конференции заявил, что ИИ сделает поисковые системы ненужными?)
странно как вообще он сдал бар
Либо не подумал / поленился проверить полученные примеры, либо вообще решил под дурочка закосить и сваливает провалившуюся попытку нае*алова на chatgpt.
Любой из трёх вариантов не очень хорошо характеризует его как специалиста.
Использую chatgpt для мини-подсказок при кодинге. В последнее время очень часто он стал писать код с ошибками и ему нужно указывать на них. После этого ошибки исправляются.
Абсолютно любой программист спустя некоторое время работы где-либо:
стал писать код с ошибками и ему нужно указывать на них. После этого ошибки исправляются.Комментарий недоступен
В университетах можно пользоваться только предварительно одобреными моделями калькуляторов. Модель калькулятора указывается на экзаменационном листе.
Если калькулятор на 2+2 говорит 5, то вопросы к тому кто им пользуется.
Хотя у гпт такие рейтинги фантастические по юриспруденции
А то люди не врут.))) причём постоянно и ещё как...
Практически мем получился😂 Главное, чтобы будущие врачи дипломы не писали по ChatGPT😉
Просто нужно понижать параметр "температура", который влияет на творчество ИИ, тогда и ответы будут правдивее. Делов то... 😏
Комментарий удален модератором
ай да адвокат, а да сукин сын))
Мдаа.. Надмозг в деле..
Вверх идиотизма это верить нейросети, почему адвокат с 30-ти летним стажем это не понял
Это интересно.
Чаты с ИИ научились лениться, врать и выдавать желаемое за действительное в 1000 раз быстрее людей.
Новые профессии для тех, кого заместили ИИ: перепроверятель данных, опровержитель выводов нейросетей, исследователь проверенных фактов, восстановитель объективных истин.
Комментарий удален модератором
Комментарий удален модератором
Нужна вторая нейросеть, которая бы ходила и верифицировала что там придумала первая. Но вторую тоже надо проверять. Учитывая скорость, с которой они могут генерировать информацию, человеческих ресурсов для контроля может не хватить тупо
знал, но не знал - классика
Хотел помочь и сам окажется в суде 😂😂😂
источник прецедентов: поверь мне, брат