{"id":14285,"url":"\/distributions\/14285\/click?bit=1&hash=346f3dd5dee2d88930b559bfe049bf63f032c3f6597a81b363a99361cc92d37d","title":"\u0421\u0442\u0438\u043f\u0435\u043d\u0434\u0438\u044f, \u043a\u043e\u0442\u043e\u0440\u0443\u044e \u043c\u043e\u0436\u043d\u043e \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0442\u044c \u043d\u0430 \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u0438\u043b\u0438 \u043f\u0443\u0442\u0435\u0448\u0435\u0441\u0442\u0432\u0438\u044f","buttonText":"","imageUuid":""}

Почему развитие ИИ не представляет опасности и причем тут китайская комната

OpenAI обучают GPT 5 и обещают создать AGI*, главы техкомпаний просят остановиться и предостерегают об опасности, ютуб-эксперты ожидают появления SkyNet. Но что будет на самом деле? Заваривайте чай, будем разбираться.

Машина осознает свою бесполезность

История развития нейросетей-трансформеров (а именно ей является GPT) начинается в 2017 году, когда инженеры Google Brain представили модель обработки естественного языка с архитектурой «трансформер». Генеративные сети-трансформеры создают контент подбирая наиболее релевантные слова.

Год спустя, в июне 2018 года OpenAI опубликовала документ «Improving Language Understanding by Generative Pre-Training», в котором описана модель GPT – генеративный предварительно обученный трансформер. В том же году разработчики выпустили первую полноценную версию этой нейросети, получившую название GPT-1.

Подробно и понятным языком о том, как работает ChatGPT, рассказано в этом замечательном материале:

Как работает ChatGPT: объясняем на простом русском эволюцию языковых моделей начиная от T9

В последнее время нам почти каждый день рассказывают в новостях, как языковые нейросетки уже вот-вот совершенно точно оставят лично вас без работы. При этом мало кто понимает – а как вообще нейросети вроде ChatGPT работают внутри? Так вот, устраивайтесь поудобнее: в этой статье мы наконец объясним всё так, чтобы понял даже шестилетний гуманитарий!

OpenAI – компанию, сделавшую ChatGPT, – основали в 2015 году вот эти двое парнишек: Сэм Альтман и Илон Маск (кто бы тогда знал, во что это в итоге выльется...)

Все мы знаем, на что способен ChatGPT, и уже есть публичные заявления о том, что к декабрю завершится обучение GPT-5, которая станет полноценным AGI* и чуть ли не квантовые компьютеры сможет программировать.

Классификация

Давайте разберемся. Во первых, что такое AGI? Существует классификация уровней ИИ:

  • Artificial Narrow Intelligence (ANI, Narrow AI) – специализируется в одной области, решает одну проблему.
  • Artificial General Intelligence (AGI, Strong AI) – способен выполнять большинство из задач, на которые способен человек.
  • Artificial Super Intelligence (ASI) – превосходит возможности интеллекта любого из людей, способен решать сложные задачи моментально.

До резкого скачка в развитии GPT мы видели только примеры Narrow AI – системы, обученные для решения одной специфической задачи: распознавание, перевод, генерация изображений, генерация текстов. Начиная с GPT-4 появилась мультимодальность: теперь нейросеть может, например, распознать изображение и рассказать, что на ней изображено. Это и есть прямая дорога к AGI: когда одна система способна выполнять все эти задачи.

Возвращаясь к классификации, можно обнаружить ещё один термин. Artificial Super Intelligence, появление которого предполагается следом за AGI, при условии, что AGI сможет самообучаться. Если, говоря об AGI, мы говорим о когнитивных способностях, близких к человеческим, то "супер-интеллект" превосходит человека в разы. Вместе с созданием супер-интеллекта, гипотетически, возникает технологическая сингулярность – момент или точка невозврата, когда технологическое развитие становится в принципе неуправляемым и необратимым.

Человечество приближается к технологической сингулярности колоссальными темпами

Окей, звучит пугающе. Или нет. Но одного ожидания OpenAI что GPT-5 станет AGI, не достаточно. На самом деле, чтобы система называлась системой, способной выполнять большинство человеческих задач, она должна соответствовать нескольким критериям:

  • Мышление – группа методов (дедукция, индукция, ассоциация, абстракция) направленных на выделение фактов из информации и их представление.

  • Память – использование различных типов памяти (кратковременная, долговременная). Позволяет точнее решать задачи, опираясь на предыдущий опыт.
  • Планирование – тактическое и стратегическое.
  • Обучение – включает в себя имитацию действий другого объекта и обучение через проведение экспериментов.

Важно обратить внимание, что соответствие данным критериям не гарантирует, что система будет являться AGI, но тем не менее эксперты сходятся во мнении, что системам, обладающим этими признаков, будет проще добиться статуса AGI.

Есть еще набор критериев, которые находятся в этом списке, но являются спорными для получения статуса AGI:

  • Обработка естественного языка – необходимый пункт для возможности обучения на основе сформированной базы знаний. В случае обучения за счёт взаимодействия с окружающей средой может не являться обязательным.

  • Восприятие – способность получать информацию и обратную связь из окружающей среды.

  • Взаимодействие с окружающей средой – возможность манипулирования, передвижения и ориентации.

  • Внимательность – обращение внимания на детали в окружающей среде, поведение других субъектов
  • Осознанность – способность осознавать себя как отдельного субъекта.

Более подробно с этим можно ознакомиться здесь.

Читая эти пункты мы сразу проводим параллели с ChatGPT. Способности нейросети уже удовлетворяют нескольким критериям и, возможно, если GPT-5 загрузить в тело робота, она даже сможет пройти кофе-тест от Стива Возняка.

Стив Возняк придумал тест, суть которого заключается в том, что машина должна посетить обычный дом американца и сварить кофе, выполнив сопутствующие задачи: найти кофемашину, кофе и кружку, сварить кофе нажимая нужные кнопки.

Будет способна сварить кофе, если ее попросить. Будет варить кофе, если ее обучить тому, что при пробуждении человека кофе должен быть готов. Сможет подметать улицы, если на них появляется мусор. Но где тут хотя бы перспектива появления SkyNet и опасности для человечества?

Китайская комната

В 1980 году философ Джон Серл впервые представил мысленный эксперимент в статье «Minds, Brains, and Programs» журнала «The Behavioral and Brain Sciences». Заявленная цель статьи состояла в том, чтобы доказать два утверждения:

  • Интенциональность человека (и животных) есть результат каузальных свойств мозга.
  • Выполнение компьютером программы не может быть достаточным условием появления интенциональности.

Интенциональность (от лат. intentio «намерение») — понятие в философии, означающее центральное свойство человеческого сознания: быть направленным на некоторый предмет.

Wikipedia

За три десятилетия до выхода статьи Серла, Алан Тюринг сформулировал критерий для определения разумности машины, известный также как Тест Тюринга.

Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор.

К настоящему времени ChatGPT без проблем способен пройти данный тест. Иной раз задумываешься, что при правильном обучении человек не сможет отличить, человек перед ним или нейросеть.

OpenAI настойчиво работают над запретами и моралью, но Senior Prompt Engineer настойчивее.

Вернемся к комнате. Статья Серла, содержащая описанный ниже эксперимент, стала во многом реакцией на утверждения и мнение, что машина способна понимать человеческую речь и, возможно, мыслить.

В данном эксперименте человек находится в комнате, в которую можно передавать карточки с китайскими иероглифами. Но этот человек не знает китайского языка и не понимает смысл иероглифов. Ему дали инструкции о том, как обрабатывать карточки и как на них отвечать. Таким образом, если кто-то задаст вопрос снаружи комнаты, человек внутри сможет по инструкции ответить так, что вопрошающий подумает, что тот понимает китайский язык. На самом же деле он лишь выполняет инструкции и не понимает смысла карточек. Ему не дана возможность выучить язык, так как карточки с иероглифами – единственный способ связи с миром.

Сможешь ли ты выучить китайский, зная как составлять таблички чтобы получилось предложение, но не понимая ни смысла, ни значения иероглифов?

Автор эксперимента считает, что машина (китайская комната) не может понимать, потому что работает только с синтаксическими правилами. Человек же способен понимать значения, а не только символы, но машина не может это делать. Главная идея статьи Серла заключается в том, что для настоящего искусственного интеллекта необходима не только формальная программа, но и носитель, который обладает свойствами, позволяющими ему понимать. Формальная программа не может понимать и не является носителем понимания или сознания. Серл говорит, что интенциональность является необходимым свойством мышления, и это свойство происходит из внутренних свойств мозга. Машина, обладающая такими же свойствами, может мыслить. Обычный компьютер не обладает этими свойствами, поэтому любая программа, написанная для него, не сможет привести к появлению мышления и сознания.

Простым языком, GPT может отвечать нам таким образом, что мы воспринимаем эти ответы осознанными, будто их пишет человек. Но GPT не осознает того, что он нам отправляет, не понимает смысл каждого слова. Для него это просто иероглифы, которые он обучен отправлять нам в заданной последовательности.

Вывод

Нейросети быстро развиваются, это замечательно. Уже сейчас они хорошо помогают в решении прикладных задач. Но нейросеть не является ИИ и никогда им не станет. Это не более, чем система, обученная отвечать на запросы пользователя.

Умение болтать еще не признак интеллекта.

Квай-Гон Джинн

Стоит ли на самом деле опасаться восстания машин или технологической сингулярности из-за появления и развития продвинутых вопросно-ответных систем? Нет. В конце концов, даже Джарвис стал Виженом только после появления камня разума.

Спасибо за то, что прочитали статью! Если вам интересна тема ИИ и вы боитесь пропустить что-то новое, то предлагаю подписаться на мой Telegram канал – там я публикую новости, инсайды, подборки генеративных сервисов и инструментов.

Что думаете вы? Поделитесь в комментариях, какие у вас есть прогнозы насчет стремительного развития нейросетей.

Развитие нейросетей опасно для человечества?
Безусловно
Не знаю
Нет, это абсолютно безопасная технология
Показать результаты
Переголосовать
Проголосовать
0
4 комментария
Виолетта

представляет опасность ИИ как лобист интересов своего хозяина.

Ответить
Развернуть ветку
Виолетта

Не первоапрельская шутка — Илон Маск выложил весь код Твиттера на GitHub.

(https://github.com/twitter/the-algorithm)Теперь любой желающий может понять, как работают алгоритмы соцсети изнутри. Если коротко, программка сама всех помечает , например "демократ" или "республиканец" и ранжирует. Задал нужные ключевые слова владелец ИИ и программка сама заблокирует кого надо или расставит в нужную клеточку. Это касается не только Twitter, так будет работать любой ИИ.

Ответить
Развернуть ветку
Valentin Budaev
К настоящему времени ChatGPT без проблем способен пройти данный тест.

Ну чушь же. В плане прохождения теста Тьюринга чатгпт находится на том же уровне что и самые первые чатботы вроде элизы - т.е. фейлится практически сразу.

Ответить
Развернуть ветку
Nota Benya
>Но нейросеть не является ИИ и никогда им не станет.<< В башке человека тоже всего лишь... сложная нейросеть.
Ответить
Развернуть ветку
1 комментарий
Раскрывать всегда