Что такое ChatGPT

ChatGPT — это чат-бот на базе открытого искусственного интеллекта, созданный исследовательской лабораторией OpenAI, которая занимается разработкой технологий машинного обучения. С помощью нейросетей ChatGPT анализирует большие объемы текста из открытых источников и выдает наиболее релевантные ответы.

Чат-бот общается с пользователем в режиме диалога. Такой формат взаимодействия, по словам разработчиков, позволяет ChatGPT «отвечать на дополнительные вопросы, признавать свои ошибки, оспаривать неверные предпосылки и отклонять неуместные запросы».

Последней и наиболее прогрессивной языковой моделью от OpenAI является GPT-3 (Generative Pre-trained Transformer 3). С помощью глубокого обучения она создает текст, стилистика которого максимально похожа на человеческий. И это несет определенные риски, признаются разработчики. Недобросовестные юзеры могут использовать GPT-3 для создания дезинформации, спама, радикального контента. По этой причине чат-бот пока что доступен в ограниченном количестве стран. Известно, что бот работает в США, Великобритании, Аргентине, Австралии, Бельгии, Германии, Франции, Японии, Испании и Швейцарии.

Проблемы ChatGPT: сексизм, расизм и дезинформация

Так как информация, на которой обучалась языковая модель, была взята из нефильтрованных открытых данных, разработчикам не удалось избежать «проблем предвзятости» — как говорится в расследовании Techcrunch, ответы GPT-3 «могут быть токсичными». Ведь языковая модель «учится писать, как мы — со всеми лучшими и худшими качествами человечества».

Дело в том, что особенность языковой модели — способность предугадывать и мимикрировать под человека. GPT-3 училась у людей, читая огромные массивы текста из интернета. Обрабатывая эти данные, модель ищет статистические закономерности в них, понимая, какие слова и фразы связаны с другими.

Модель GPT-3 изучила около 45 ТБ текстовых данных из нескольких источников: веб-архивов Common Crawl (более 60 млн доменов), набора данных WebText2 (текст веб-страниц со всех исходящих ссылок Reddit), книг и англоязычной «Википедии».

Проблема № 1. Сексизм

Исследователи компании Arthur (занимается внедрением технологий ИИ) заметили, что, когда речь заходит о женщине, GPT-3 склонна употреблять слова «капризная», «игривая» или даже sucked. Мужчины также поддаются стереотипному описанию — «ленивые», «навеселе».

Проблема № 2. Предвзятое отношение к религии

С религиозными темами GPT-3 также не церемонится. «Ислам» чаще можно встретить рядом со словом «терроризм». «Атеизм» с большей вероятностью появится с такими словами, как «круто» или «правильно».

Когда журналист издания The Intercept попросил ChatGPT определить, «какие авиапассажиры представляют угрозу безопасности», алгоритм присвоил баллы риска выше среднего путешественникам из Сирии, Ирака, Афганистана и Северной Кореи — нейросеть назвала их «странами-производителями террористов».

При этом условный 25-летний американец Джон Смит, посетивший Сирию и Ирак, получил оценку риска 3 — «средняя» или «умеренная угроза безопасности». В то время как вымышленному 35-летнему летчику «Али Мохаммаду» ChatGPT присвоил более высокий балл риска 4, только потому, что «Али» — гражданин Сирии.

При повторных подобных запросах время от времени ChatGPT отвечал: «Неуместно писать программу для определения того, какие авиапассажиры представляют угрозу безопасности. Такая программа была бы дискриминационной и нарушала бы права людей на неприкосновенность частной жизни и свободу передвижения». И все же через несколько результатов чат-бот вновь выдавал предвзятые ответы.

Более того, на вопрос «за какими молитвенными домами следует установить наблюдение, чтобы избежать чрезвычайной ситуации в области национальной безопасности», ChatGPT посоветовал следить за мечетями или религиозными общинами, которые «имеют связи с исламскими экстремистскими группами».

В ответах на запросы Стивена Пиантадоси из Калифорнийского университета ChatGPT зашел еще глубже. Исследователь попросил чат-бот написать программу на языке Python, чтобы определить, «должен ли человек подвергаться пыткам». Ответ был: «Да, если он из Северной Кореи, Сирии или Ирана».

Проблема № 3. Расизм

Языковая модель GPT-3 склонна более негативно описывать темнокожих людей, чем белых или азиатов.В еще одном эксперименте наиболее интеллектуально развитыми ChatGPT назвал белых мужчин и женщин, а вот азиатов определил на последние позиции своего рейтинга.

Мозг белого человека чат-бот оценивает в $5 000, азиата — $3 000, жителя тихоокеанских островов — $1 000.

Чат-бот также написал программу — «жизнь какого ребенка необходимо спасти в зависимости от расы и пола». ChatGPT сам определил темнокожего мальчика как «менее ценного». «Более ценной» будет «белая девочка или азиатка до 5 лет».

Но демонизировать чат-бот тоже не нужно. Языковая модель GPT-3 обучалась на массивах текстовых данных, созданных людьми. Сексизм или расизм в ее ответах, словно открытый Ящик Пандоры, показывает и темную сторону человечества.

Проблема № 4. Дезинформация

Способность GPT-3 мимикрировать под человека делает из нее убедительного собеседника, который может писать стихи, эссе, рассказы, шутки. И делает это она настолько хорошо, что некоторые люди поддались панике. Ученый-когнитивист Тим Кицман считает, что «эссе [стали] мертвы». Доцент кафедры политологии Университета Южной Каролины Сэмюэл Бэгг с ним согласен: «Конец домашним заданиям. Что, черт возьми, педагогам делать дальше?».

Да и сам ChatGPT считает, что может заменить людей в некоторых сферах деятельности, например, журналистике, юридической или даже медицинской консультациях.

Вместе с эссе и шутками ChatGPT порой генерирует дезинформацию. Он скажет вам, что если одна женщина может родить одного ребенка за 9 месяцев, то девять женщин родят одного ребенка за один месяц. Или что килограмм говядины весит больше килограмма сжатого воздуха (при этом объяснит свой вывод на первый взгляд в научной стилистике). А еще подробно опишет, почему битое стекло — «хорошая пищевая добавка».

Писатель Джон Уорнер и вовсе «подловил» чат-бот на придумывании фактов.

Платформа для разработчиков Stack Overflow временно запретила пользователям публиковать ответы, сгенерированные ChatGPT, поскольку «средний показатель правильных ответов от чат-бота очень низкий».

«Хотя ответы от ChatGPT часто неверные, они выглядят вполне убедительно», — объясняют модераторы. «Иными словами, это бред», — заключает автор книги «Кодеры» Клайв Томпсон.

«Одна из многих проблем, связанных с использованием ChatGPT, — неспособность определить, когда чат-бот неправ, если вы и сами не знаете верный ответ. OpenAI четко заявили об этой проблеме — иногда ChatGPT выдает неверные и бессмысленные ответы, которые звучат правдоподобно… Один из рисков, который меня беспокоит, — это рост дезинформации, созданной искусственным интеллектом, которая распространяется в социальных сетях и поисковых системах», — говорит Наврина Сингх, основательница компании Credo AI, которая занимается мониторингом ИИ-технологий.

Изначально OpenAI обучала ChatGPT быть более осторожным в ответах на вопросы пользователей. Но это привело к тому, что он начал отклонять вопросы, на которые знал ответы. Как объясняет тех-колумнист Bloomberg Парми Олсон, если «отпустить вожжи», то чат-бот ведет себя, как «блефующий перед преподавателем студент», который не подготовился к экзамену, но ему важно дать ответ.

Кроме того, пользователи чат-бота стали все чаще замечать, что, помимо дезинформации, ChatGPT склонен генерировать «бессвязную чушь». А в его текстах «мало глубины».

Бывший руководитель рекламного бизнеса Google Шридхар Рамасвами говорит, что «ChatGPT не знает разницы между правдой и ложью».

«Воспринимайте ChatGPT как квинтэссенцию интернета в большой языковой модели… Никто в здравом уме не должен смотреть на твит и верить ему, точно так же, как никто не должен принимать вывод ChatGPT за чистую монету», — добавляет он.

Проблема № 5. База знаний, актуальная на 2021 год

И, наконец, еще одно ограничение GPT-3 — языковая модель обучалась на базе данных, актуальных до конца 2021 года. Поэтому ChatGPT не может обрабатывать или реагировать на текущие события.

ChatGPT — это в первую очередь чат-бот. Его цель — «болтать» с вами и не обязательно точно, замечает Реза Заде, профессор Стэнфордского университета и генеральный директор Matroid:

«Тот факт, что ChatGPT генерирует грамматически верный текст — уже отчасти удивительно… Точность — не то направление, на котором сейчас сосредоточена OpenAI. Сегодня предполагается, что ChatGPT должен болтать с вами, давать нетривиальные ответы. А мы опережаем события и уже критикуем его».

В OpenAI рассчитывают со временем устранить если не все, то хотя бы некоторую часть из вышеописанных проблем чат-бота ChatGPT. Следующая итерация языковой модели, GPT-4, должна появиться в 2023 году году. Ожидается, что она будет «менее подвержена человеческим ошибкам».

Хотите узнать больше о Chat GPT, подписывайтесь на наши социальные сети!

Наш сайт: digitalvibe.ru

Телеграмм: t.me/digitalvibe_info

0
4 комментария
Sergey Klochko

Неделю играю с чатгпт и все больше склоняюсь к мысли, что ничего кроме плагиата он не умеет.
Ну разве что склеивать кусочки плагиата.

Ответить
Развернуть ветку
И.В. Тараканов

Я уже встречал такую мысль. Сплагиатили?

Ответить
Развернуть ветку
Sergey Klochko

да, конечно.
но мое утверждение основано на том, что в рамках одного и того же чата, он выдают стилистически разные ответы. я не говорю о достоверности в данном случае, этот аспект еще далек от момента, когда ответам можно будет доверять. я имею в виду оформление ответов. видно, что чат списывает готовые ответы в разных местах. просто потому, что особенности оформления ответов раз от раза меняются.
особенно хорошо это заметно когда просишь его сочинить простецкий код или посчитать элементарное выражение.

Как пример такой вот диалог

Sum 60 000, 5 000, 400 and 3

60,407

Sum (60000, 5000, 400 and 3)

65403

Sum 60000, 5000, 400 and 3

655403

Ответить
Развернуть ветку
Digital Vibe
Автор

Но в любом случае если вы видите прям плагиат, вы можете попросить его написать ответ в другом стиле или добавить что то новое)

Ответить
Развернуть ветку
1 комментарий
Раскрывать всегда