В США есть проект под названием California Innocence Project. В нем разбираются дела тысяч заключенных, которые в настоящее время находятся в тюрьме и пытаются доказать свою невиновность. Их дела очень большие — в них детальные отчеты полиции, стенограммы судебных заседаний, протоколы дачи показаний и многое другое. Чтобы выполнить работу качественно, юристам нужно вычитать каждую страницу. На это необходимо очень много времени.
Известно, что процесс работы над всеми делами распланирован на четыре года вперед. Напомню, что все это время люди, которые ждут обжалования приговора, проведут в тюрьме.
Но вот появляется наш продукт, способный проанализировать весь кейс за считанные минуты и подсветить все важные детали. Вместо месяца работы юриста — 15 минут работы ИИ. Таким образом рассмотрение всех дел за четыре года можно уместить всего в несколько месяцев.
Технологии меняют жизнь, не правда ли?
Тут вопрос в другом - есть ли риски у такой технологии?
Нейронки сейчас часто ошибаются и в целом запросы не точно обрабатывают некоторые. Не приведет ли это к коллапсу и куче ошибок в юридической индустрии?
Всё гораздо, гораздо хуже.
Нейронные сети не думают, они галлюцинирует. Т.е. они генерируют текст, ОЧЕНЬ ПОХОЖИЙ на правду.
Да, чаще всего текст похожий на правду оказывается правдой. Зато когда нет - в ответ приходит максимально убедительная ложь, какую только смог придумать ИИ специально для вас.
Мы в России всю жизнь живем под рисками и ошибками чиновников, судов и прочих инстанций.
И ничего, к юридическому коллапсу это не привело.
Так и тут, кому то повезет больше, а кому то меньше.
Представьте себе, если технологии могут заменить чиновника и не просить за это зарплату, то как сократится штат депутатов и прочих?
Перспективы просто колоссальные.
есть риск глобальной лжи. ИИ "учится" на текстах из интернета, через пару лет 90% текстов в интернете будет составлено самим ИИ, и другие ИИ будут на них обучаться. Круговорот бессмысленного контента замкнется.
очень интересно, что не угасает желание их использовать... Все говорят о том что нейронки ошибаются и делают чушь всякую, но новостей о применение все больше
да, думаю инфу все равно нужно будет проверять
Риски есть у любой технологии, и у нейронки тоже
Кучи ошибок можно избежать, если на каждом этапе работу сервиса будет сопровождать человек.
Casetext вообще анализирует существующие дела и все материалы к ним, а не принимает решения, поэтому в коллапс слабо верится 🙃