ChatGPT не может лгать вам, но вы все равно не должны доверять ему

ChatGPT не может лгать вам, но вы все равно не должны доверять ему

ChatGPT - это платформа для генерации естественного языка, основанная на языковой модели OpenAI GPT-3".

Почему вы поверили вышеуказанному утверждению? Простой ответ заключается в том, что вы доверяете автору этой статьи. Мы не можем проверить все, что нам говорят, поэтому мы регулярно доверяем показаниям друзей, незнакомцев, "экспертов" и учреждений.

Доверие кому-то не всегда может быть основной причиной для веры в то, что они говорят - правда. (Например, я уже знаю, что вы мне сказали.) Но тот факт, что мы доверяем оратору, дает нам дополнительную мотивацию верить в то, что они говорят.

Поэтому чат-боты с искусственным интеллектом поднимают интересные вопросы о доверии и свидетельских показаниях. Мы должны подумать, доверяем ли мы тому, что говорят нам генераторы естественного языка, такие как ChatGPT. Другой вопрос заключается в том, способны ли эти чат-боты с искусственным интеллектом заслужить доверие.

Оправданные убеждения

Предположим, вы скажете мне, что на улице идет дождь. Согласно одному из способов, которым философы рассматривают свидетельство, я уверен в том, что верю вам только в том случае, если у меня есть основания подогнать, что ваше свидетельство надежно - например, вы были снаружи - и нет никаких первостепенных причин думать, что это не так. Это известно как редукционистская теория свидетельств.

Но, согласно другой точке зрения , я буду уверен, что на улице идет дождь, пока у меня нет причин думать, что это утверждение ложно. Это значительно облегчает приобретение оправданных убеждений с помощью показаний. Это называется нередукционистской теорией свидетельств.

Обратите внимание, что ни одна из этих теорий не предполагает доверия к оратору.

Доверие и полегание

Когда я полагаюсь на кого-то или что-то, я делаю прогноз, что он будет делать то, что я ожидаю. Например, я полагаюсь на свой будильник, который зазвучит в нужное время, или я полагаюсь на других водителей, которые будут соблюдать правила дорожного движения.

Доверие, однако, - это больше, чем просто полегание. Чтобы проиллюстрировать это, давайте рассмотрим нашу реакцию на неуместное доверие по сравнению с неуместной зависимостью.

Если бы я доверил кому-то поливать мои тюльпаны, пока я был в отпуске, и он небрежно позволил им умереть, я мог бы по праву почувствовать себя преданным. В то время как если бы я полагался на свой автоматический разбрызгиватель для полива тюльпанов, и он не сработал, я мог бы быть разочарован, но не чувствовал себя преданным.

Другими словами, доверие делает нас уязвимыми для предательства.

Разница между доверием и тем когда вы полагаетесь на что-то подчеркивает некоторые важные моменты в показаниях. Когда человек говорит кому-то, что идет дождь, он не просто делится информацией; он берет на себя ответственность за достоверность того, что он говорит.

В философии это называется теорией уверенности в свидетельских показаниях. Оратор предлагает слушателю своего рода гарантию того, что то, что он говорит, правда, и при этом дает слушателю повод ему поверить. Мы доверяем оратору, а не полагаемся на него.

Если бы я узнал, что вы догадываетесь о дожде, но, к счастью, все правильно понял, я бы все равно почувствовал, что мое доверие не преданно, потому что ваша «гарантия» была пуста. Аспект уверенности также помогает понять, почему ложь кажется нам морально хуже, чем ложные заявления.

Моральное агентство

Если точка зрения уверенности вверена, то ChatGPT должен быть способен взять на себя ответственность за то, что он говорит, чтобы быть надежным оратором. Хотя кажется, что мы можем разумно приписать агентство ИИ для выполнения задач по мере необходимости, может ли ИИ быть морально ответственным агентом - это совсем другой вопрос.

Некоторые философы утверждают, что моральное агентство не ограничивается людьми. Другие утверждают, что ИИ не может нести моральную ответственность, потому что, приведу несколько примеров, они неспособны к психическим состояниям, не имеют автономии или не обладают способностью к моральным рассуждениям.

Тем не менее, ChatGPT не является моральным агентом; он не может взять на себя ответственность за то, что говорит. Когда он нам что-то говорит, он не дает никаких гарантий в своей правде. Вот почему он может давать ложные заявления, но не лгать. На своем веб-сайте OpenAI, который создал ChatGPT, говорит, что, поскольку ИИ обучен данным из Интернета, он «иногда может быть неточным, неправдивым и иным образом вводящим в заблуждение».

В лучшем случае, это "метр правды" или проверка фактов - и, по многим данным, не особенно точный. Хотя иногда мы можем быть оправданы, полагаясь на то, что в нем говорится, мы не должны доверять этому.

Если вам интересно, вступительная цитата этой статьи была отрывок из ответа ChatGPT, когда я спросил его: "Что такое ChatGPT?" Поэтому вам не следовало верить, что утверждение было правдой. Однако я могу заверить вас, что это так.

88
Начать дискуссию