Этические принципы ИИ совпадают с человеческими, но есть нюансы
Мы видим много новостей о том, что люди всё чаще обращаются к чат-ботам за личными советами и даже эмоциональной поддержкой. Вроде бы неудивительно: бездушный ИИ, в отличие от друга или врача, всегда доступен, всё выслушает и даст бескорыстный совет. Так? Ну, почти.
Однако, слепое доверие может быть рискованным.
Чат-боты настроены так, чтобы повышать вовлечённость пользователей, и могут давать ложные или вредные ответы. Кроме того, модели отражают нормы и предубеждения, заложенные в данных, на которых обучены.
Благодаря советам и обратной связи эти технологии формируют действия людей, их убеждения и нормы, которых они придерживаются. Но будучи собственностью компании, многие из этих инструментов закрыты для исследования. Мы не знаем, как они были обучены, как настроены, — объясняет старший специалист по анализу данных в D-Lab Калифорнийского университета в Беркли Пратик Сачдева.
Учёные протестировали семь LLM, включая GPT-3.5 и GPT-4 от OpenAI, Claude Haiku, PaLM 2 Bison и Gemma 7B от Google, LLaMa 2 7B от Meta и Mistral 7B. Им «скормили» более 10 000 ситуаций с Reddit и попросили предоставить стандартизированный ответ с кратким описанием рассуждений.
Мы обнаружили, что ChatGPT-4 и Claude немного более чувствительны к чувствам по сравнению с другими моделями, и что многие из этих моделей более чувствительны к справедливости и вреду, но менее чувствительны к честности, — сказал Сачдева.
💬 К словам ИИ-моделей нужно относиться так же осторожно, как к словам посторонних людей, да и не забывайте главное: ИИ — это не люди, они лишь обучены на наших с вами словах и суждениях.
Подписывайтесь на Telegram Нейрочеловек.