Иллюзорный страх перед ИИ скрывает реальную проблему: человек искаженно использует машинный интеллект

Мы обвиняем технологию ИИ за принятие решений, которые в действительности сделаны правительством и корпорациями. Последние случаи некорректной работы алгоритмов создают необоснованные страхи в обществе перед «самым умным и всесильным» ИИ. Топ менеджеры техно компаний пугают общественность жуткими прогнозами о крайне опасном ИИ. Но если ИИ так опасен для человека, то зачем тратить миллиарды на его разработку и усовершенствование? Именно человек принимает решение использовать алгоритм, не проверять его результаты и перекладывать на машину ответственность за свое решение. У страха глаза велики. Они настолько велики от ужаса перед «страшным» ИИ, что человек теряет способность критически мыслить и не видит проблему: необходимо определиться с отношением человека к результатам работы машинного алгоритма.

В ноябре прошлого года молодого афроамериканца Randal Quran Reid остановила полицейская машина в штате Джорджия по пути его следования в Атланту. Его арестовали на основании ордера, выданного полицией штата Луизиана за две кражи, имевшие место в Новом Орлеане. Randal никогда не был в Луизиане и уж тем более в Новом Орлеане. Его протесты против задержания ни к чему не привели, и его арестовали на шесть суток. Все это время его семья потратила фантастические для своего кошелька тысячи долларов за адвокатов в штатах Джорджия и Луизина, чтобы вытащить его из тюрьмы.

Такая ситуация возникла вследствие того, что ордер на арест был выдан на основе решения системы распознавания лиц, хотя ни в одном документе полиции об этом не было ни слова. В ордере была фраза, что он был выписан на основе «достоверного источника». Опознавание лица было выполнено неверно, обвинение против Randal было снято и его отпустили.

Randal – счастливчик. Его семья нашла ресурсы, чтобы добиться правды. Миллионы американцев не имеют таких финансовых и административных ресурсов. Randal – не единственная жертва некорректной работы технологии распознавания лиц. Таких жертв пока немного, но большинство арестованных на основе некорректной работы систем – черные американцы. Это не удивительно, так как мы знаем, что технологии распознавания лиц хуже распознают черных, и алгоритмы повторяют предубеждения в решениях человека.

Случай с Randal и других арестованных по ложному ордеру должен быть главным пунктом в современных дебатах: что такое технология искусственного интеллекта, и какие угрозы она несет. Это показывает, как мало людей понимают важность этого пункта, и какими искаженными стали обсуждения ИИ. Дебаты об ИИ нуждаются в перезагрузке.

Гипотетический мир, который может создать ИИ, давно является предметом скрытых страхов общества. Последние достижения в этой технологии усилил этот страх и вывели его на открытую площадку дискуссий в обществе. Версия 3.5 ChatGPT, выпущенная в прошлом году, и версия 4 от марта этого года вызвала трепет и панику: трепет перед способностями чат-бота имитировать язык человека и панику перед возможностями создавать фейки, начиная от студенческих эссе до репортажей новостей.

Топ менеджеры техно отрасли: ИИ угрожает человечеству

Две недели назад топ менеджеры техно отрасли, включая Sam Altman - CEO OpenAI -разработчика ChatGPT, Demis Hassabis- CEO Google DeepMind и Geoffrey Hinton с Yoshua Bengio, которых считают крестными отцами технологи ИИ, продвинулись дальше. Они опубликовали обращение, где объявили ИИ началом конца человечества. «Предотвращение риска вымирания человека из-за ИИ должно стать глобальным приоритетом наряду с другими социальными рисками, такими как пандемия и ядерная война».

Если ИИ так опасен, то зачем тратить миллиарды на разработку и совершенствование продуктов с ИИ?

Если столько шишек из Силиконовой Долины верят, что они создают продукт, способный уничтожить человечество, то тогда зачем они тратят миллиарды долларов на разработку и усовершенствование этого продукт? Это похоже на наркомана, который настолько зависим от дозы наркотика, что умоляет о реабилитации, чтобы избавиться от зависимости от тяжелых наркотиков. Техно топы тешат свое самолюбие, представляя наперебой все более умные и продвинутые продукты, а также увеличивают свою прибыль. Но технология ИИ не так уж умна и всесильна, как мы хотим верить. ChatGPT – очень хорош для поиска и копирования текста, так как хорошо имитирует человека, но алгоритм совершенно не понимает окружающий мир. Алгоритм – всего лишь «стохастический попугай», как считает один исследователь технологии.

Мы еще очень далеки от Святого Грааля «генеративного ИИ», то есть машины, которая способна понимать, учиться и решать интеллектуальные задачи подобно человеку, и которая может продемонстрировать хотя бы немного интеллекта похожего на человеческий.

Иллюзорный страх перед ИИ не дает увидеть реальную проблему алгоритма

Навязчивая фокусировка на иллюзорных страхах помогает не видеть самые простые, но тем не менее важные проблемы с ИИ, которые нас по-настоящему должны волновать. Мы живем в мире, созданном технологиями ИИ, с их эффектами: от слежки до дезинформации.

Maciej Ceglowski, техно предприниматель, на слушаниях в Сенате США: главная черта «нового мира слежки за окружающими» - это то, что «мы не можем уклониться от него, как мы не можем отказаться от автомобиля, даже если не водим машину». Мы столкнулись с цифровым паноптикумом, почти не осознавая этого. Однако понимать, что мы уже живем в мире, созданном ИИ, - не значит понимать всю проблему. Не может быть машины без человека и вряд ли в будущем появится.

Randal арестовали не из-за плохой работы алгоритма, а на основании решений человека

Причина, по которой Randal был ошибочно заключен в тюрьму, мало связана с технологией ИИ, она напрямую связана с решением, которое принял человек. Человек разработал программное обеспечение и проводил его обучение. Человек безоговорочно принял результаты сверки алгоритма распознавания лиц. Человек получил ордер на арест Randal и указал, что основание ареста – «достоверный источник информации». Человек отказался поставить под сомнение результаты алгоритма после того, как Randal протестовал против задержания.

Моральный аутсорсинг Rumman’а Chowdhury

Очень часто, когда мы обсуждаем «проблемы» ИИ, мы исключаем человека из этой дискуссии. Rumman Chowdhury, социолог и разработчик, ввел в оборот понятие «моральный аутсорсинг»- когда мы обвиняем машину в последствиях решения человека. Мы волнуемся, что ИИ «уничтожит рабочие места» и оставит миллионы людей без работы, но мы не признаем, что реальные решения принимаются правительствами и корпорациями, и управляют ими люди. Заголовки СМИ предупреждают нас о «расистских и сексистских алгоритмах», но эти алгоритмы созданы людьми и внедряются они тоже людьми.

Искаженное восприятие проблемы ИИ

В итоге мы приходим к видению мира, где машины – главные актеры, а люди - жертвы машин. Ирония в том, что именно наш страх антиутопии, а не технология ИИ сама по себе, создают тот страшный мир, в котором человек занимает все менее значительное место, а машины становятся главными действующими лицами. Такой страх искажает возможности управления ситуацией и алгоритмами. Вместо того, чтобы разрабатывать регулирование как модель взаимодействия человека с технологией ИИ, мы ищем способы защититься от вражеского ИИ. Нас должно больше беспокоить не ИИ, а наше чувство фатализма и слепость к тому, как политики используют машинный интеллект.

99 показов
3939 открытий
Начать дискуссию