Исследование: ChatGPT не может воспроизвести человеческие суждения о нарушениях правил

Исследователи сообщают, что модели, обученные с использованием обычных методов сбора данных, судят о нарушениях правил более строго, чем люди.

Изображение создано с помощью <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fkolersky.com%2Fmj&postId=693344" rel="nofollow noreferrer noopener" target="_blank">Midjourney</a>
77

Это падение точности может иметь серьезные последствия в реальном мире. Например, если описательная модель используется для принятия решений о том, может ли человек совершить повторное преступление, выводы исследователей показывают, что она может выносить более строгие суждения, чем человек, что может привести к более высоким суммам залога или более длительным уголовным приговорам.

А что, судьи уже используют ИИ для вынесения приговора?.. Ничоси ))

Ответить

судьи вряд ли, а вот адвокаты вполне себе, хотя я в этом не вижу ничего предосудительного. Что касается вообще юриспруденции я думаю что эта отрасль должна все же, оставаться прерогативой только людей, т.е. ИИ тут не место как ни крути

1
Ответить

Сейчас данные с камер видеофиксации нарушений ПДД обрабатываются инспекторами-людьми. Конечно на человека наверное попадает только снимок с явным нарушением - где нужно вынести решение. но с учетом что там какие то объемы инфы почему бы этим не занялась нейросеть?

Ответить