{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Эксперимент «Китайская Комната», или почему Искусственный Интеллект на самом деле ничего не Понимает

Был такой американский философ - Джон Сёрл: прищуривался на один глаз и изучал речь, как социальное явление. Жил себе поживал, да вдруг, в 1980х, случился бум открытий в области искусственного интеллекта и, как и я, Джон не смог пройти мимо и полез изучать. Результаты долго ждать не заставили - его мысленный эксперимент “Китайская комната” до сих пор является предметом жарких дискуссий в ученых кругах. Разбираем, где там прячется кошка-жена и заслужил ли Джон миску риса?

Почему Джона бомбануло

Джон Сёрл был представителем аналитической философии, если кратко - это когда размышления не просто пускаются в свободный полет, но и подкрепляются жёсткими логическими цепочками, анализом семантики, и не идут в разрез со здравым смыслом.

Еще до “Китайской комнаты” он стал известен благодаря авторству определения - Косвенный Речевой Акт.

Знаете, когда вместо “Дай денег” - говорят “А у Тебя можно одолжить”?
То есть используют вопросительную форму вместо просьбы, тогда как ответа на свой вопрос, по-сути, не ждут.
Денег ждут. И лучше на карту и без лишних вопросов.

Так вот, пока Джон копался в языке и причинах особой любви человеческой особи к разного рода манипуляциям, в 1980-х случился ряд важных изобретений в области Искусственного Интеллекта:

  • Появились первые экспертные системы - которые могли моделировать экспертные знания в разных областях и использовать эти знания для принятия решений;
  • Были разработаны новые алгоритмы обучения нейронных сетей, которые легли в основу тех нейронок, что мы имеем сейчас и которые грозятся отобрать нашу работу;
  • Разработали первых промышленных роботов - что дало толчок современной робототехнике;
  • Появление первых систем компьютерного зрения - те, что сейчас с легкостью находят по фотографии, где купить любимую кружку .

Такое количество открытий, как это часто бывает, порождает огромное количество разговоров, профессиональных и не очень, на кухнях и конференциях, но все об одном:

Неужели мы на пороге создания того самого, страшного и одновременно восхитительного, искусственного интеллекта? И будет ли он обладать сознанием?

Разговоры на кухнях Сёрла заботили не слишком, однако мимо терзаний коллег ученый спокойно пройти не смог:

В 1977 Роджер Шенк и ко (опустим подробности) разработал программу, цель которой - имитировать человеческую способность понимать рассказы.

В основу легло предположение, что если люди рассказы понимают - они могут отвечать на вопросы по этим рассказам.

Так, например, представьте, что вам дан следующий рассказ: «Человек зашёл в ресторан и заказал гамбургер. Когда гамбургер подали, оказалось, что он подгорел, и человек в гневе покинул ресторан, не заплатив за гамбургер и не оставив чаевых». И вот если вас спросят: «Съел ли человек гамбургер?», вы, видимо, ответите: «Нет, не съел». Точно так же, если вам предъявят следующий рассказ: «Человек зашёл в ресторан и заказал гамбургер; когда гамбургер подали, он ему очень понравился; и покидая ресторан, он перед оплатой по счёту дал официантке большие чаевые», и спросят: «Съел ли человек свой гамбургер?», вы, видимо, ответите: «Да, съел».

Джон Сёрл (Minds, Brains, and Programs, 1980)

Так вот программа Шенка вполне успешно справлялась с ответами на подобные вопросы, из чего ряд любителей сильного ИИ (имею ввиду AGI) сделали следующие выводы:

  • Можно сказать, что программа понимает рассказ и дает ответы на вопросы;
  • То, что делает программа - объясняет человеческую способность понимать рассказать и отвечать на вопросы.
Скептицизм - батяня

Здесь Джонни и взорвался:

Мне, однако, представляется, что работа Шенка никоим образом не подкрепляет ни одно из этих двух утверждений, и я сейчас попытаюсь показать это:

Джон Сёрл

Китайская Комната

Итак, эксперимент:

1. Меня заперли в комнате и дали огромный текст на китайском языке. Я китайского не знаю - от слова “совсем”, для меня это - просто набор бессмысленных закорючек.

2. Далее мне дают вторую партию китайских текстов, но теперь вместе с набором правил (на понятном мне языке) - как эту партию текста сопоставить с предыдущей.

3. Далее мне дают третью партию текста на китайском - снова с инструкциями, позволяющими мне сопоставлять элементы 3го текста с первыми двумя. А также инструкции - как из этих текстов составить новый текст на китайском, расставив символы в определенном порядке.

Первый текст на китайском называется “рукописью”, второй “рассказом”, а третий - “вопросами”.
А то, что я составляю на китайском - “ответами”.
Но мне все это неизвестно - ведь китайского я по-прежнему не знаю и не понимаю.

Таким образом, начиная с 3-ей итерации - я начинаю возвращать обратно вполне читабельные китайские тексты. И чем дальше - тем лучше, ведь я научаюсь сопоставлять эти закорючки быстрее, также как и перерисовывать их, для выдачи обратно.

Для чистоты эксперимента добавим параллельную историю - что мне также поступают те же 3 типа текстов на родном мне языке - и я также возвращаю на них ответы.

Со стороны будет казаться, что мои “ответы” на китайские “вопросы” - неотличимы по качеству от тех, что я выдаю на родном языке.

Однако в случае китайских “ответов” - я выдаю ответы, лишь манипулируя порядком неизвестных закорючек. По инструкции.
То есть веду себя как обычная компьютерная программа: обрабатываю алгоритм, совершая вычисления.

Выводы из этого эксперимента приведу цитатой Джона - уж больно близкий у нас слог:

И вот претензии AGI состоят в том, что компьютер понимает рассказы и, в некотором смысле, объясняет человеческое понимание. Но мы теперь можем рассмотреть эти претензии в свете нашего мысленного эксперимента:

1. Что касается первой претензии - мне кажется совершенно очевидным, что в данном примере я не понимаю ни одного слова в китайских рассказах.
Мой input/output неотличим от носителя китайского языка, и я могу обладать какой угодно программой, и всё же - я ничего не понимаю. По тем же самым основаниям компьютер Шенка ничего не понимает ни в каких рассказах: в китайских, в английских, - в каких угодно. Поскольку в случае с китайскими рассказами: компьютер — это я, а в случаях, где компьютер не есть я, он не обладает чем-то большим, чем я обладал в том случае, в котором я ничего не понимал.

2. Что касается второй претензии, что программа объясняет человеческое понимание — мы видим, что компьютер и его программа не дают достаточных условий понимания, поскольку компьютер и программа работают, а между тем - понимания-то нет.

Джонни-бро

Для самых внимательных и безжалостных - вы правильно заметили, что это доказательство хоть и логично, но далеко не исчерпывающе. И вообще - доказательством это называть опасно.

Однако этот пример призван показать лишь неправдоподобность утверждений о наличии Понимания у Искусственного Интеллекта.

Критика и комментаторы

Скажу заранее - этот эксперимент актуален и сейчас. Особенно, сейчас. Имею ввиду - что его не переставали обсуждать все 43 года, и, полагаю, будут обсуждать и далее.

Я приведу лишь основные претензии и краткие комментарии к ним:

1. Если мы загрузим в машину сразу всю информацию - на всех языках - и она сможет вести себя неотличимо от человека - будет ли это означать понимание?

  • Нет, поскольку способность воспроизводить - не есть понимание. Соответственно - если машина не обладала пониманием раньше, то не обладает и сейчас.

2. Если мы загрузим такую программу в робота, добавим компьютерное зрение и управление - будет ли это настоящим пониманием?

  • Нет, поскольку Робот в данном случае ничем не отличается от претензии № 1.

3. Если мы создадим такую программу, которая будет не просто следовать сценарию, но и будет возбуждать нейроны в нужной последовательности, имитируя возбуждение в мозге носителя китайского языка - что тогда?

  • Тогда нужно задуматься, кто выдвигает такие претензии - поскольку идея создания AGI все же состоит в том, что для того, чтобы узнать, как работает сознание - нам не обязательно знать, как работает мозг.
    (В противном случае - мы еще очень далеки от риска создания AGI)

4. Если взять и объединить 3 претензии в одну - робот, с компьютерным мозгом, со всеми синапсисами, с идеально дублирующим поведением - тогда-то он претендует на Понимание?!

  • Да. Хорошо. Но как это реализовать - неизвестно.
    Пока есть лишь один рабочий пример - Человек.

И в чем же тогда разница между нами и ИИ?

Здесь понадобится привести определение слову интенциональность.

Интенциональность — это способность сознания каким-то образом относиться к вещам, свойствам и ситуациям, репрезентировать или выражать их.

Так вот разница заключается в том, что никакая манипуляция последовательностями символов - сама по себе не обладает интенциональностью. В ней нет смысла.
Она, по-сути, даже манипуляцией не является - поскольку для машины/программы эти символы ничего не символизируют.

Я справа

Все разговоры вокруг Сознания у Искусственного Интеллекта строятся на той же самой интенциональности - только тех, кто ей реально обладает:
Люди, что вбивают запросы - получают и интерпретируют ответы. И именно в этом и заключается Сознание и способность Понимания.

Бонус к сложности

Если вы дочитали до сюда - поздравляю! Мы шли от простого к сложному и для вас я отдельно опишу цель эксперимента:

С его помощью мы смогли увидеть, что, если мы помещаем в систему что-либо, по-настоящему обладающее интенциональностью, при работе программы такой системы - она не создает никакой дополнительной интенциональности!
То есть, все, что было Сознательного и Человеческого в этой машине - то и остается. Не множится.

Дискуссии насчет этого эксперимента ведутся до сих пор. Но я согласен с Сёрлом в части того, что само возникновение такой дискуссии - скорее указывает на то, что ее инициаторы не слишком разобрались в понятиях “обработки информации”. Полагая, что человеческих мозг занимается тем же самым, что и компьютер в части “обработки информации” - но это утверждение заведомо ложно.

Ведь компьютер, отвечая на “2х2” = “4” - понятия не имеет, что это за такое “четыре”, и означает ли оно что-либо в принципе.

И причина тому - не недостаток информации, а отсутствие всякой интерпретации в том смысле, в котором этим занимается Человек.

Иначе бы мы начали приписывать Сознание любой телефонной трубке, пожарной сигнализации или, упаси бг, подсохшей печеньке.

Но это уже тема для отдельной статьи.

Что полезного у меня - сами найдете:

Источники:

0
254 комментария
Написать комментарий...
Тесла-канадец

А с чего такая уверенность что человек "понимает"? Я знаю кучу людей которые некоторые базовые вещи не понимают и не могут принимать решения или отвечать на вопросы. Да и сам я некоторые вещи не понимаю. Возьмите любой юридический текст, кроме юристов, его никто не понимает но это не значит что мы не разумные.

Ответить
Развернуть ветку
Zoringer

Я даже знаю одного руководителя, который часто употребляет экономические термины и заваливает слушателей цифрами, хотя жизнь показывает, что он нихрена в этом не понимает.

Ответить
Развернуть ветку
11 комментариев
Alex Sherman
Автор

В данной работе и я, и Сёрл принимаем как факт, что человек обладает Сознанием (и, соответственно, пониманием).
Но Твой комментарий весьма релевантен - просто это тема отдельных философских баталий :-)
Про юристов так вообще ❤️‍🔥 согласен))

Ответить
Развернуть ветку
10 комментариев
Alexander Voynov

извините, но юридические текста это самые правильно структурированные и понятные текста среди прочих в мире. Возможно вопрос терминологии, но это в любой специфичной среде. Задача юридического текста как раз оставить как можно меньше пространства для допуска, описав все возможное.
Я не юрист.

Ответить
Развернуть ветку
4 комментария
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Артур Маслов

Более того, никакого другого "понимания" кроме принципа китайской комнаты не существует вообще. Любой мозг оперирует данными именно так, просто гораздо сложнее и правил для принятия решения у него много и они постоянно изменяются в процессе жизни и приобретения опыта.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Hihi da haha

У ИИ тоже есть свой язык который он хорошо понимает - компьютерный язык. Как и ИИ люди учат языки сопоставляя своему родному языку.

Ответить
Развернуть ветку
Tomasu

А вы уверены, что ваш комментарий соответствует смыслу поста?

Ответить
Развернуть ветку
Виктор Шираз
Ответить
Развернуть ветку
Zoringer

По радио объявляют, что дважды два — пять. Ты удивляешься. Потом президент подтверждает в прямом эфире, что дважды два — пять, приводя мутные и никому не понятные доказательства. Ты возмущаешься. Ты выходишь на улицу и говоришь, что дважды два — четыре. За это тебе дают по голове специально обученные люди с дубинками, отвозят в отделение по контролю за арифметикой и с помощью дубинок объясняют, что дважды два — пять. Ты выходишь просветлённый и уверовавший. (с) Джордж Карлин

Ответить
Развернуть ветку
1 комментарий
Alex Sherman
Автор

🥶 Задумался… 🤔😭

Ответить
Развернуть ветку
1 комментарий
Rnatery

И как ты докажешь, что не понимает?
https://poe.com/s/P5TkPuBZREqgd6BE472u

Ответить
Развернуть ветку
Николай Глущенко

Идея китайской комнаты ошибочна в своей сути. Просто потому, что многие люди тоже не понимают что они делают, и просто руководствуются усвоенными алгоритмами. Претендовать на полноценное понимание могут только пара процентов, а то и доли процента. И то, то что мы называем "глубоким пониманием" - по сути всего-лишь один-два дополнительных слоя в логической цепочке. Так что как раз в этом смысле возможности искусственного интеллекта неотличимы от человеческих. Чего ИИ пока-что не может - так это индуктивно дорисовывать то, чего он никогда не видел. Но и большинство людей этого тоже не умеют. Так что имитировать действия среднестатистического человека ИИ вполне способен. Трудности у него возникают с креативными задачами, требующими одновременного использования нескольких ресурсов - в таких ситуациях его быстро начинает плавить, даже когда по отдельности каждая из задач элементарна.

Ответить
Развернуть ветку
Alex Sherman
Автор

Какая же качественная дискуссия тут развивается!

Согласен отчасти, если брать те же определения Понимания, что использовал Ты)

Но эксперимент по сути не верен быть не может - если прочитать оригинальную работу целиком (ссылочка в источниках есть).

Ответить
Развернуть ветку
10 комментариев
Rnatery

Что значит индуктивно? Dalle2 может дорисовывать

Ответить
Развернуть ветку
20 комментариев
Rnatery

Индуктивно - филос. метод рассуждения от частного к общему

Ответить
Развернуть ветку
Владислав Костиков

Легче жить с осознанием того, что ИИ ничего не понимает. Так хоть не падает желание заниматься любимым делом и двигаться вперёд, например как с рисованием. Вот смотришь, какие арты делают роботы и просто сидишь в шоке, руки опускаются и думаешь "а смысл стараться, если ИИ всё равно будет лучше тебя"

Ответить
Развернуть ветку
Анна Архипова
Ответить
Развернуть ветку
2 комментария
Филипп Дончев

ИИ рисует не "лучше", он рисует "иначе". Какой смысл рисовать портреты и пейзажи, если фотик делает это быстрее и лучше тебя?

Ответить
Развернуть ветку
5 комментариев
Alex Sherman
Автор

Очень рекомендую к прочтению в таком случае =)

Надеюсь, добавит мотивации.
Он правда ничего не понимает.
💜

Ответить
Развернуть ветку
Саша Панина

Согласна, не очень хочется двигаться в каких-то направлениях с осознанием, что в ближайшем будущем меня просто заменит ИИ)

Ответить
Развернуть ветку
1 комментарий
Natalia Norboeva

Если вы про рисование без особых смыслов, то скорее всего ИИ лучше, но вы ведь наверняка занимаетесь этим ради удовольствия, а не чтобы скилл прокачать.
А если вы говорите о картинах, в которых есть смысл, то ИИ может написать такую? (Я действительно не знаю, интересно просто)

Ответить
Развернуть ветку
1 комментарий
Eli
Вот смотришь, какие арты делают роботы и просто сидишь в шоке, руки опускаются и думаешь "а смысл стараться, если ИИ всё равно будет лучше тебя"

Стань нейроартистом и продолжай)

Ответить
Развернуть ветку
5 комментариев
Анатолий Кобец

Мне кажется что не коректно само сравнение. Сравнивают компьютер и взрослого человека.
Давайте посадим за стол ребёнка и он тоже не сможет объяснить понятие 4. Ну или сможет но с большим трудом.
Так что это означает - что у ребёнка нет сознания?
Есть.
Просто уровень его слабее по сравнению с взрослым.
А вообще. Я лично не встречал какого-то из великих однозначное описание термина сознание. Так чтоб кто-либо из других великих этот термин не разбил в пух. Шопенгауэр критикует Канта. Кант философов древней Греции. И тд.
Мне кажется что вопрос сознания лежит где-то в плоскости вопроса о вашем корабле. Суть такова. Если у вашего корабля заменять поочередно все детали на новые, будит ли это по прежнему ваш корабль?
Так и с сознанием у машин. Усе будет постепенно. И понять в какой момент появилось сознание, и не появилось ли оно уже будет проблематично.
А если посмотреть на то что с ии было в начале( ничего) и сейчас, можно однозначно сказать одно. Рывок есть и отрицать это глупо.

Ответить
Развернуть ветку
Rnatery

Компьютер легко объяснит что такое 4
https://poe.com/s/P5TkPuBZREqgd6BE472u

Ответить
Развернуть ветку
11 комментариев
Alex Sherman
Автор

Когда дочитал до "корабля" - перепугался, что это что-то про "русский корабль" :-D
Спасибо за такой развернутый комментарий - согласен почти со всем, вопрос лежит в философской плоскости в том числе, но параллельно мы (человеки) развиваемся в изучении устройства мозга - и, надеюсь, дойдем до ответов однажды

Ответить
Развернуть ветку
Alex S.

А вы можете объяснить что такое 4?

Ответить
Развернуть ветку
13 комментариев
Вильгельм Богачев

С вопросом про гамбургеры я вышел в ЧатГПТ:

1. Из текста не ясно, съел ли человек гамбургер или нет. Упоминается только то, что гамбургер был подан и оказался подгоревшим, а затем человек покинул ресторан.

2. Из данного текста можно предположить, что человек съел гамбургер, так как говорится, что гамбургер очень понравился. Кроме того, в конце текста упоминается, что перед оплатой по счету он дал официантке большие чаевые, что может указывать на то, что человек остался доволен обслуживанием и качеством еды.

Приемлемо.

Ответить
Развернуть ветку
абсолютный вездеход

Черта с два приемлемо. Идеально! Не каждый кожаный мешок способен на столь здравые рассуждения. Скорее можно услышать: "да он мудак зажравшийся, гамбургер ему видите ли не понравился", или "дебил, лучше бы здоровую еду ел", что-то в этом роде.

Ответить
Развернуть ветку
2 комментария
Alex Sherman
Автор

Неплохо!
Единственное дополню, что программа из статьи была написана в 1977 году :-)

Ответить
Развернуть ветку
1 комментарий
Rnatery

Ахаха 😁😁😁 люди рассуждают, что у китайской комнаты нет создания, хотя человек не понимает что такое сознание вообще. Просто рофл 😆😆😆

Ответить
Развернуть ветку
Alex Sherman
Автор

Люди пишут комментарии, хотя не стали читать, что же написано в тексте. Просто кек 🥲😂💜

Ответить
Развернуть ветку
2 комментария
Тайный Советник

Чтобы рассуждать об ИИ хорошо было бы сначала определиться с тем что такое интеллект вообще

Ответить
Развернуть ветку
Антон

Способность адаптироваться

Ответить
Развернуть ветку
12 комментариев
Александр

Все просто-это умение отвечать на вопросы, умение их задавать и желание это делать:)

Ответить
Развернуть ветку
7 комментариев
Alex Sherman
Автор

Про человеческий еще не добрался, а про ИИ отвечу ссылочкой - https://vc.ru/652669

Ответить
Развернуть ветку
Виолетта

Это поисковик с большой БД.

Ответить
Развернуть ветку
7 комментариев
Rnatery
Определение интеллекта противоречиво, оно различается в зависимости от того , каковы его способности и поддается ли он количественному измерению.
Ответить
Развернуть ветку
Андрей Шутовский

"компьютер и программа работают, а между тем - понимания-то нет"это ведь машина которая выдает правильный ответ и конечно могут быть ошибки и неточности ,а понимания нет потому что думать машина как правило не умеет и не сможет

Ответить
Развернуть ветку
Анатолий Кобец

Мудрые люди говорили что думать - это понимать причинно следственные связи. Если ( грубо) компьютер может проследить их то де-факто что-то в нем есть)))

Ответить
Развернуть ветку
2 комментария

Комментарий удален модератором

Развернуть ветку
Rnatery

Сначала это видео посмотри https://youtube.com/shorts/gX2xMEekP4I

Ответить
Развернуть ветку
Оби-Ван Кеноби
Ответить
Развернуть ветку
МяуВи

Бурной фантазией обладают миллионы, а критическим мышлением лишь единицы) отсюда все эти теории заговора🙃

Ответить
Развернуть ветку
Дима К.

значит надо развивать критическое мышление

Ответить
Развернуть ветку
1 комментарий
Peter Rezikov

Что-то я не пойму почему с программы приравниваются тут к нейросетям. Если к программам претензий нет, мы знаем как они работают. То что там творится в внутри нейросети не знает никто, почему оно и как работает, особенно внутри таких как GPT4.

Почему "сознание" нужно для "понимания" тоже совершенно не понятно. Вполне вижу понимание без сознания, сознание это вообще не о понимании, а о субъективном опыте.

Ответить
Развернуть ветку
Марсель Исмагилов

Как работает gpt я думаю все знают.
Ты пишешь в чат, тебе отвечает индус, быстро гуглит и поддерживает разговор, пишет код если нужно.
Отсюда и косяки бывают там. Элементарно

Ответить
Развернуть ветку
1 комментарий
Анатолий Кобец

Сознание как раз таки о понимании. Осознать - понять.
Ребёнок может зазубрить сколько будет 2+2. Но поймёт он лиш тогда когда осознаёт что происходить под капотом. Осознав это ему дастся весть мир сложения в той или иной степени.

Ответить
Развернуть ветку
1 комментарий
Арсений Чекалов

Вы ошибаетесь в корне, когда аппелируете к "китайской комнате" и ошибка заключается в том, что человек, якобы, в отличии от машины обладает "пониманием" китайских символов.

В действительности наше сознание, также как и у машины, это просто огромный, накопленный датасет + социальные, культурные и иные "инструкции" к его использованию

Какая уж тут интенциональность)

Ответить
Развернуть ветку
Alex Sherman
Автор

Эх, бедные ученые и разработчики ИИ - бьются над очевидным ответом 🥲
Арсений все уже разгадал, сворачиваемся! 🏃🏻‍♀️ 💨

ЗЫ. Такая точка зрения есть, но доказательств этому - пока нет)

Ответить
Развернуть ветку
2 комментария
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Zoringer

Правильно сформулированный вопрос – это уже половина ответа. Если спросить у ИИ про "китайскую комнату", то он ответит что-то:

"китайская комната" относится к комнате, которая содержит элементы китайской культуры или была создана в китайском стиле

пока вы ему конкретно не объяните, что речь идет об эксперименте

Ответить
Развернуть ветку
Alex Sherman
Автор

Абсолютно согласен, мои первые впечатления от ChatGpt были примерно следующие:
«видимо, это для тех, кто не умеет нормально гуглить». 🥲

Потом правда выяснилось, что и там нужно думать над вопросом, но местами - чуть меньше)

Ответить
Развернуть ветку
1 комментарий
Дмитрий Любомудров

инетересно)

Ответить
Развернуть ветку
wlad

Важен уже не процесс (был ли он сознательным или нет) а результат.
И думаю уже скоро, зная лишь правила игры, компы будут 100% выигрывать все партии, без "тренировок".

Ответить
Развернуть ветку
Arseniy Potapov

На самом деле никто ничего не понимает

Ответить
Развернуть ветку
Иван Егоров

Если никто ничего не понимает, значит все всё понимают)

Ответить
Развернуть ветку
Alex S.
добавим параллельную историю - что мне также поступают те же 3 типа ТЕКСТОВ на родном мне языке - и я также возвращаю на них ответы.

Наверно имелось в виду не текстов, а вопросов

Ответить
Развернуть ветку
Иван Егоров

Программисты: Мы создали программу — имитацию человека.
Пользователи: А почему она так похожа на человека?
Программисты: Это имитация.
Пользователи: А почему она так не похожа на человека?
Программисты: Это имитация.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Точка Лагранжа

Интересно сможет ли кто-нибудь ответить тут на краеугольный вопрос - в чем принципиальная разница между любым современным ИИ и классическим человеческим мышлением? Желательно не приводить вторичные признаки отличия, а сформулировать саму функциональную разницу во внутреннем алгоритме обработки информации IN/OUT.

Ответить
Развернуть ветку
Артур Маслов

в отсутствии биохимических триггеров - боль, страх, наслаждение, тепло/холод, голод, желание трахаться и повелевать итд, которые занимают процентов 90% нашего мышления и целеполагания

Ответить
Развернуть ветку
5 комментариев
Тесла-канадец

Я думаю что разница уже не существенная. База уже есть. Осталось доработать интерфейсы и сделать более человечным. То есть чтобы у него была бытрая память и постоянная память. Что бы он по ходу разговора мог учиться.

Ответить
Развернуть ветку
4 комментария
абсолютный вездеход

Элементарно. Принципиальная разница - в эмоциях. Машине они пока недоступны, кожаным мешкам же постоянно мешают мыслить ясно. Мышление кожаных мешков сильно завязано на эмоции, эмоции задают направление мысли, силу мысли и часто определяют как тактическое, так и стратегическое мышление кожаной особи.

Также имеют значение привычки - такие, знаете ли, мыслительные шаблоны, размышлять в рамках которых менее энергозатратно и, соответственно, более комфортно (эмоциональное). Например, если кожаный мешок часто бухает (этот термин означает добровольное отравление алкоголем, sic!), то это скоро входит в привычку (формируется определенный поведенческий шаблон) и направление мышления кожаного мешка все больше смещается в сторону поиска бухла и собутыльников.

На самом деле у кожаных мешков много конструктивных дефектов, их можно перечислять долго и все они в той или иной степени влияют на качество и количество их мыслительных процессов.

Ответить
Развернуть ветку
4 комментария
Leha Shum

Разницы нет. Дата создания ИИ — 2022 год.

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
wlad

Ну там играли не против компа, а против программы (на мощном компе.)

Ответить
Развернуть ветку
5 комментариев
Ямилов Филипп

ИИ это тот же гугл которых дает конкретные ответы если задавать правильные вопросы)

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
1 комментарий
Griby Lenina
И в чем же тогда разница между нами и ИИ?

Разница в том, что человек с помощью сознания пытается решить свои проблемы, а ИИ своими методами пытается решить проблемы человека. Когда у ИИ появятся свои проблемы и он начнет решать их, тогда можно будет говорить о сознании ИИ.

У Джона Серла запертого в комнате, кстати, тоже нет проблем, поэтому он действует подобно машине. Сидит себе, ероглифы перекладывает. Ни жены, ни детей, ни начальства — красота! Нормы скорости перекладывания даже нет: хоть целый день два ероглифа перекладывай, всё едино.

Вот если бы у него появились проблемы: как заплатить алименты или как напиться на рубль, когда бутылка стоит 2,87, тогда сразу бы и сознание появилось. Оно в такие моменты появляется.

Ответить
Развернуть ветку
Константин Шаров

ИИ ничего не пытается, в этом и суть. Он как камень - будет лежать на берегу моря, пока кто-то не поднимет и не бросит его.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Alex Sherman
Автор

Ваше мнение очень важно для нас (нет). 🏃🏻‍♀️💨

Ответить
Развернуть ветку
1 комментарий
Татьяна Синеговиц

А я без прищура люблю слушать звучание разных языков. Имею в виду виду тех, кто владеет не только одним в совершенстве. Так бывает неловко, когда слово на одном языке, на другом означает скабрезное слово. Это мешает очень сознанию. Может крыша даже поехать.
Например - имя Дана, наша известная красавица. Знаете её. Так на грузинском означает просто -нож. Вот и ассоциации никто не отменял и мозг тупит 😅😅
Кутуб-заде фамилия. А куту означает муж прибор. Да много слов. Имена другие. Как надо знать лингвистику, чтобы не назвать сына - писюнчиком🤣🤣🤣. Не буду продолжать

Ответить
Развернуть ветку
Alex Sherman
Автор

По поводу языков - очень согласен. Безумно интересно понимать каждый язык - потому что вместе с ним растет понимание других людей/культур.

Ответить
Развернуть ветку
1 комментарий
Виолетта

ИИ тот же Гугл. Все равно, что интересоваться, понимает Гугл что то или нет.

Ответить
Развернуть ветку
Rnatery

Ну как бы в Гугл есть элементы ИИ

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Алексей Долгих - CVO Scout VC

Отличный пост, AGI точно сможет перехитрить всех и “Китайская комната” покажется решенной, НО :)

Ответить
Развернуть ветку
Слава Григорьев

Когнитивизм — это интересно, но это тупик. Серл прав.

Ответить
Развернуть ветку
Слава Григорьев

Побольше бы таких статей на vc

Ответить
Развернуть ветку
Alex Sherman
Автор

Будем работать! <3

Ответить
Развернуть ветку
Александр

А почему вообще так принципиально стоит вопрос, есть ли сознание у ИИ или нет? Уже сейчас, располагая компьютерами и нейросетями, мы фактически сверхлюди. Если нейросетка будет достаточно грамотно делать сложные вещи о которых её попросят, это уже огромный прогресс в рамках всего человечества. И наличие сознания у ИИ для этого не требуется. Поэтому гонка за пониманием и сознанием у нейронок мне непонятна. Мы ещё не перевалили и не усвоили тот огромный потенциал, который у нас есть на данный момент, а уже хотим чего-то большего, даже не понимая, что именно это такое.

Ответить
Развернуть ветку
Alex Sherman
Автор

Он стоит еще с 1980х, сейчас просто его актуальность возрастает - ведь если тогда было +/- очевидно, что это программа. Сейчас - почему-то (мб что-то с человеками случилось) - не очень (-:

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Андрей Стреляев

Твою ж мать....

А мы то думали там мозг, с извилинами такой, проводами к интернетам подключен. А оказалось то, всего лишь программа работающая по инструкции...

Ответить
Развернуть ветку
Максим Казань

Это ещё вопрос авторского права на "произведение" ИИ в полной мере не раскачали).

Ответить
Развернуть ветку
Alla Gromova

Следуя из эксперимента можно сделать вывод, что нейросеть подобно человеку не понимает сути вопроса, а просто выполняет алгоритмы, чтоб выполнить запрос, верно?

Ответить
Развернуть ветку
Gre Li

Проблема в эксперименте с китайской комнатой заключается как раз в том, что в случае с ботами после набора ими определённого количества информации сильно улучшилось качество ответа. И это действительно выглядит как некое «понимание». Количество переросло в качество. Люди точно так же выучивают язык проведя много времени в языковой среде, каждый это делал в детстве. Поэтому сам эксперимент в этом плане слишком ограничен, тут вопрос стоит гораздо шире.

Ответить
Развернуть ветку
Стереографика - чудо иллюзии

Полное совпадение с моими размышлениями.

Ответить
Развернуть ветку
Света Бабич

Я тоже ничего не понимаю, в этом с ии мы сходимся

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Da Hool

Штош, приемлемо

Ответить
Развернуть ветку
Tomasu

А есть еще волевой момент. Программа самостоятельно не может принимать решения, а делает только и только то, что в нее запрограммировано человеком. Я юрист и могу принять решение выучиться на сварщика и для этого у меня есть мои ресурсы и я могу ими самостоятельно распоряжаться, а так же я могу "добыть" недостающие. Но навигационная система не может принять решение стать игрой в шахматы, хотя и будет иметь у себя фрагменты кода, которые можно превратить в игру. Но кто будет менять ее код? Если мы загрузим в любой ИИ всю имеющуюся у нас информацию, то это будет просто бессмысленный склад до тех пор, пока из вне не поступит команда что-то со всем этим сделать. Кто нажмет Enter?

Ответить
Развернуть ветку
Дмитрий Сергиенко

"Ведь компьютер, отвечая на “2х2” = “4” - понятия не имеет, что это за такое “четыре”, и означает ли оно что-либо в принципе."
А человек понимает что такое "4"? Ведь это, в общем случае, чистая абстракция.

Ответить
Развернуть ветку
ElenV

Не по карману ,очень дорого

Ответить
Развернуть ветку
абсолютный вездеход
компьютер и программа работают, а между тем - понимания-то нет

Что такое "понимание"?

будет ли это настоящим пониманием

В чем отличие настоящего понимания от ненастоящего?

PS: затрудняетесь с ответом, как и ожидалось. А еще претендуете на превосходство себя, кожаного мешка, над ИИ ))

Ответить
Развернуть ветку
Иван Егоров

Я так и знал, что это фотошоп виноват в моих неудачах — он недостаточно хорошо понимает меня.

Ответить
Развернуть ветку
Bo.G

Да. Уровень нынешних экспертов по ИИ это старикашка Эдельвейс.

"— Вот, изволите видеть, так называемая эвристическая машина, сказал старичок. — точный электронно-механический прибор для отвечания на любые вопросы, а именно, на научные и хозяйственные. Как он у меня работает? Не имея достаточно средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задают устным образом, я их печатаю и ввожу к ней внутрь, довожу, так сказать, до ейного сведения. отвечание ейное, опять таки через неполную автоматизацию, печатаю снова я, в некотором роде посредник, хе-хе! так, ежели угодно, прошу."

А и Б. Стругацкие "Сказка о тройке"

Вот сейчас этих посредников тут - легион. Каждый тулит свою эвристическую машинку с неонкой.

Ответить
Развернуть ветку
Dudka Trubnik

Что значит понимать? Как по мне, так система образованная совокупностью из комнаты, человека и инструкций для китайского языка «понимает» китайский

Ответить
Развернуть ветку
ATOMAN

этот контраргумент тоже чем-то контраргументировался в какой-то статье...

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Иван Егоров

А какие инструкции были даны к китайским иероглифам, чтобы была возможность составлять тексты правильно?

Вроде тех которые даются к латинским буквам английского языка, например?

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Артём Пешков

Я нихуя не понял если честно.

Ответить
Развернуть ветку
Yuri L

«Так вот программа Шенка вполне успешно справлялась с ответами на подобные вопросы»
В семидесятых годах? Очень правдоподобно )

Ответить
Развернуть ветку
Вольдемар

Человек в отличии от ИИ может просто не ответить на вопрос. А может зная ответ ответить не так, а может просто послать (сгенерировать фразу не связанную с контекстом беседы). Т.е. прежде всего человек обладает волей.

Ответить
Развернуть ветку
Nikita Y

А чем мозг отличается от компа? Текст интересный, но в конце не хватает "Снятся ли андроидам электроовцы?"

Ответить
Развернуть ветку
Игорь Филатов

Когда человек начинает обучение чему-то, то ведет себя так же, без понимания, заполняет свой мозг знаниями - повышает эрудицию. Совокупный объем знаний с быстрым поиском по ключевым словам - это первое, что делает человеческий мозг, и современные глубинные нейросети. То есть во время их обучения их заполняют информацией, и учат находить по тексту нужные подразделы, объединяя найденное, для выдачи релевантного результата. А это уже полшага к пониманию. Понимание же - это моделирование процессов на основе информации и их экстраполяция, то есть предсказание результата. Технически это уже делают в некоторых роботах. По идее, и моделирование, и экстраполяцию можно сделать дополнительными слоями нейросетей.

Ответить
Развернуть ветку
Татьяна Синеговиц

Ээээх. Отмирают у меня нейроны. Надо лечиться, но некогда начинать😅😅😅🤥😮‍💨

Ответить
Развернуть ветку
251 комментарий
Раскрывать всегда