Почему развитие ИИ не представляет опасности и причем тут китайская комната
Все мы знаем, на что способен ChatGPT, и уже есть публичные заявления о том, что к декабрю завершится обучение GPT-5, которая станет полноценным AGI* и чуть ли не квантовые компьютеры сможет программировать.
Классификация
Давайте разберемся. Во первых, что такое AGI? Существует классификация уровней ИИ:
- Artificial Narrow Intelligence (ANI, Narrow AI) – специализируется в одной области, решает одну проблему.
- Artificial General Intelligence (AGI, Strong AI) – способен выполнять большинство из задач, на которые способен человек.
- Artificial Super Intelligence (ASI) – превосходит возможности интеллекта любого из людей, способен решать сложные задачи моментально.
До резкого скачка в развитии GPT мы видели только примеры Narrow AI – системы, обученные для решения одной специфической задачи: распознавание, перевод, генерация изображений, генерация текстов. Начиная с GPT-4 появилась мультимодальность: теперь нейросеть может, например, распознать изображение и рассказать, что на ней изображено. Это и есть прямая дорога к AGI: когда одна система способна выполнять все эти задачи.
Возвращаясь к классификации, можно обнаружить ещё один термин. Artificial Super Intelligence, появление которого предполагается следом за AGI, при условии, что AGI сможет самообучаться. Если, говоря об AGI, мы говорим о когнитивных способностях, близких к человеческим, то "супер-интеллект" превосходит человека в разы. Вместе с созданием супер-интеллекта, гипотетически, возникает технологическая сингулярность – момент или точка невозврата, когда технологическое развитие становится в принципе неуправляемым и необратимым.
Окей, звучит пугающе. Или нет. Но одного ожидания OpenAI что GPT-5 станет AGI, не достаточно. На самом деле, чтобы система называлась системой, способной выполнять большинство человеческих задач, она должна соответствовать нескольким критериям:
Мышление – группа методов (дедукция, индукция, ассоциация, абстракция) направленных на выделение фактов из информации и их представление.
- Память – использование различных типов памяти (кратковременная, долговременная). Позволяет точнее решать задачи, опираясь на предыдущий опыт.
- Планирование – тактическое и стратегическое.
- Обучение – включает в себя имитацию действий другого объекта и обучение через проведение экспериментов.
Важно обратить внимание, что соответствие данным критериям не гарантирует, что система будет являться AGI, но тем не менее эксперты сходятся во мнении, что системам, обладающим этими признаков, будет проще добиться статуса AGI.
Есть еще набор критериев, которые находятся в этом списке, но являются спорными для получения статуса AGI:
Обработка естественного языка – необходимый пункт для возможности обучения на основе сформированной базы знаний. В случае обучения за счёт взаимодействия с окружающей средой может не являться обязательным.
Восприятие – способность получать информацию и обратную связь из окружающей среды.
Взаимодействие с окружающей средой – возможность манипулирования, передвижения и ориентации.
- Внимательность – обращение внимания на детали в окружающей среде, поведение других субъектов
- Осознанность – способность осознавать себя как отдельного субъекта.
Более подробно с этим можно ознакомиться здесь.
Читая эти пункты мы сразу проводим параллели с ChatGPT. Способности нейросети уже удовлетворяют нескольким критериям и, возможно, если GPT-5 загрузить в тело робота, она даже сможет пройти кофе-тест от Стива Возняка.
Стив Возняк придумал тест, суть которого заключается в том, что машина должна посетить обычный дом американца и сварить кофе, выполнив сопутствующие задачи: найти кофемашину, кофе и кружку, сварить кофе нажимая нужные кнопки.
Будет способна сварить кофе, если ее попросить. Будет варить кофе, если ее обучить тому, что при пробуждении человека кофе должен быть готов. Сможет подметать улицы, если на них появляется мусор. Но где тут хотя бы перспектива появления SkyNet и опасности для человечества?
Китайская комната
В 1980 году философ Джон Серл впервые представил мысленный эксперимент в статье «Minds, Brains, and Programs» журнала «The Behavioral and Brain Sciences». Заявленная цель статьи состояла в том, чтобы доказать два утверждения:
- Интенциональность человека (и животных) есть результат каузальных свойств мозга.
- Выполнение компьютером программы не может быть достаточным условием появления интенциональности.
Интенциональность (от лат. intentio «намерение») — понятие в философии, означающее центральное свойство человеческого сознания: быть направленным на некоторый предмет.
За три десятилетия до выхода статьи Серла, Алан Тюринг сформулировал критерий для определения разумности машины, известный также как Тест Тюринга.
Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор.
К настоящему времени ChatGPT без проблем способен пройти данный тест. Иной раз задумываешься, что при правильном обучении человек не сможет отличить, человек перед ним или нейросеть.
Вернемся к комнате. Статья Серла, содержащая описанный ниже эксперимент, стала во многом реакцией на утверждения и мнение, что машина способна понимать человеческую речь и, возможно, мыслить.
В данном эксперименте человек находится в комнате, в которую можно передавать карточки с китайскими иероглифами. Но этот человек не знает китайского языка и не понимает смысл иероглифов. Ему дали инструкции о том, как обрабатывать карточки и как на них отвечать. Таким образом, если кто-то задаст вопрос снаружи комнаты, человек внутри сможет по инструкции ответить так, что вопрошающий подумает, что тот понимает китайский язык. На самом же деле он лишь выполняет инструкции и не понимает смысла карточек. Ему не дана возможность выучить язык, так как карточки с иероглифами – единственный способ связи с миром.
Автор эксперимента считает, что машина (китайская комната) не может понимать, потому что работает только с синтаксическими правилами. Человек же способен понимать значения, а не только символы, но машина не может это делать. Главная идея статьи Серла заключается в том, что для настоящего искусственного интеллекта необходима не только формальная программа, но и носитель, который обладает свойствами, позволяющими ему понимать. Формальная программа не может понимать и не является носителем понимания или сознания. Серл говорит, что интенциональность является необходимым свойством мышления, и это свойство происходит из внутренних свойств мозга. Машина, обладающая такими же свойствами, может мыслить. Обычный компьютер не обладает этими свойствами, поэтому любая программа, написанная для него, не сможет привести к появлению мышления и сознания.
Простым языком, GPT может отвечать нам таким образом, что мы воспринимаем эти ответы осознанными, будто их пишет человек. Но GPT не осознает того, что он нам отправляет, не понимает смысл каждого слова. Для него это просто иероглифы, которые он обучен отправлять нам в заданной последовательности.
Вывод
Нейросети быстро развиваются, это замечательно. Уже сейчас они хорошо помогают в решении прикладных задач. Но нейросеть не является ИИ и никогда им не станет. Это не более, чем система, обученная отвечать на запросы пользователя.
Умение болтать еще не признак интеллекта.
Стоит ли на самом деле опасаться восстания машин или технологической сингулярности из-за появления и развития продвинутых вопросно-ответных систем? Нет. В конце концов, даже Джарвис стал Виженом только после появления камня разума.
Спасибо за то, что прочитали статью! Если вам интересна тема ИИ и вы боитесь пропустить что-то новое, то предлагаю подписаться на мой Telegram канал – там я публикую новости, инсайды, подборки генеративных сервисов и инструментов.
Что думаете вы? Поделитесь в комментариях, какие у вас есть прогнозы насчет стремительного развития нейросетей.
представляет опасность ИИ как лобист интересов своего хозяина.
Не первоапрельская шутка — Илон Маск выложил весь код Твиттера на GitHub.
(https://github.com/twitter/the-algorithm)Теперь любой желающий может понять, как работают алгоритмы соцсети изнутри. Если коротко, программка сама всех помечает , например "демократ" или "республиканец" и ранжирует. Задал нужные ключевые слова владелец ИИ и программка сама заблокирует кого надо или расставит в нужную клеточку. Это касается не только Twitter, так будет работать любой ИИ.
К настоящему времени ChatGPT без проблем способен пройти данный тест.
Ну чушь же. В плане прохождения теста Тьюринга чатгпт находится на том же уровне что и самые первые чатботы вроде элизы - т.е. фейлится практически сразу.
>Но нейросеть не является ИИ и никогда им не станет.<< В башке человека тоже всего лишь... сложная нейросеть.