Эксперимент «Китайская Комната», или почему Искусственный Интеллект на самом деле ничего не Понимает
Был такой американский философ - Джон Сёрл: прищуривался на один глаз и изучал речь, как социальное явление. Жил себе поживал, да вдруг, в 1980х, случился бум открытий в области искусственного интеллекта и, как и я, Джон не смог пройти мимо и полез изучать. Результаты долго ждать не заставили - его мысленный эксперимент “Китайская комната” до сих пор является предметом жарких дискуссий в ученых кругах. Разбираем, где там прячется кошка-жена и заслужил ли Джон миску риса?
Почему Джона бомбануло
Джон Сёрл был представителем аналитической философии, если кратко - это когда размышления не просто пускаются в свободный полет, но и подкрепляются жёсткими логическими цепочками, анализом семантики, и не идут в разрез со здравым смыслом.
Еще до “Китайской комнаты” он стал известен благодаря авторству определения - Косвенный Речевой Акт.
Знаете, когда вместо “Дай денег” - говорят “А у Тебя можно одолжить”?
То есть используют вопросительную форму вместо просьбы, тогда как ответа на свой вопрос, по-сути, не ждут.
Денег ждут. И лучше на карту и без лишних вопросов.
Так вот, пока Джон копался в языке и причинах особой любви человеческой особи к разного рода манипуляциям, в 1980-х случился ряд важных изобретений в области Искусственного Интеллекта:
- Появились первые экспертные системы - которые могли моделировать экспертные знания в разных областях и использовать эти знания для принятия решений;
- Были разработаны новые алгоритмы обучения нейронных сетей, которые легли в основу тех нейронок, что мы имеем сейчас и которые грозятся отобрать нашу работу;
- Разработали первых промышленных роботов - что дало толчок современной робототехнике;
- Появление первых систем компьютерного зрения - те, что сейчас с легкостью находят по фотографии, где купить любимую кружку .
Такое количество открытий, как это часто бывает, порождает огромное количество разговоров, профессиональных и не очень, на кухнях и конференциях, но все об одном:
Разговоры на кухнях Сёрла заботили не слишком, однако мимо терзаний коллег ученый спокойно пройти не смог:
В 1977 Роджер Шенк и ко (опустим подробности) разработал программу, цель которой - имитировать человеческую способность понимать рассказы.
В основу легло предположение, что если люди рассказы понимают - они могут отвечать на вопросы по этим рассказам.
Так вот программа Шенка вполне успешно справлялась с ответами на подобные вопросы, из чего ряд любителей сильного ИИ (имею ввиду AGI) сделали следующие выводы:
- Можно сказать, что программа понимает рассказ и дает ответы на вопросы;
- То, что делает программа - объясняет человеческую способность понимать рассказать и отвечать на вопросы.
Здесь Джонни и взорвался:
Китайская Комната
Итак, эксперимент:
1. Меня заперли в комнате и дали огромный текст на китайском языке. Я китайского не знаю - от слова “совсем”, для меня это - просто набор бессмысленных закорючек.
2. Далее мне дают вторую партию китайских текстов, но теперь вместе с набором правил (на понятном мне языке) - как эту партию текста сопоставить с предыдущей.
3. Далее мне дают третью партию текста на китайском - снова с инструкциями, позволяющими мне сопоставлять элементы 3го текста с первыми двумя. А также инструкции - как из этих текстов составить новый текст на китайском, расставив символы в определенном порядке.
Таким образом, начиная с 3-ей итерации - я начинаю возвращать обратно вполне читабельные китайские тексты. И чем дальше - тем лучше, ведь я научаюсь сопоставлять эти закорючки быстрее, также как и перерисовывать их, для выдачи обратно.
Для чистоты эксперимента добавим параллельную историю - что мне также поступают те же 3 типа текстов на родном мне языке - и я также возвращаю на них ответы.
Со стороны будет казаться, что мои “ответы” на китайские “вопросы” - неотличимы по качеству от тех, что я выдаю на родном языке.
Однако в случае китайских “ответов” - я выдаю ответы, лишь манипулируя порядком неизвестных закорючек. По инструкции.
То есть веду себя как обычная компьютерная программа: обрабатываю алгоритм, совершая вычисления.
Выводы из этого эксперимента приведу цитатой Джона - уж больно близкий у нас слог:
Для самых внимательных и безжалостных - вы правильно заметили, что это доказательство хоть и логично, но далеко не исчерпывающе. И вообще - доказательством это называть опасно.
Однако этот пример призван показать лишь неправдоподобность утверждений о наличии Понимания у Искусственного Интеллекта.
Критика и комментаторы
Скажу заранее - этот эксперимент актуален и сейчас. Особенно, сейчас. Имею ввиду - что его не переставали обсуждать все 43 года, и, полагаю, будут обсуждать и далее.
Я приведу лишь основные претензии и краткие комментарии к ним:
1. Если мы загрузим в машину сразу всю информацию - на всех языках - и она сможет вести себя неотличимо от человека - будет ли это означать понимание?
- Нет, поскольку способность воспроизводить - не есть понимание. Соответственно - если машина не обладала пониманием раньше, то не обладает и сейчас.
2. Если мы загрузим такую программу в робота, добавим компьютерное зрение и управление - будет ли это настоящим пониманием?
- Нет, поскольку Робот в данном случае ничем не отличается от претензии № 1.
3. Если мы создадим такую программу, которая будет не просто следовать сценарию, но и будет возбуждать нейроны в нужной последовательности, имитируя возбуждение в мозге носителя китайского языка - что тогда?
- Тогда нужно задуматься, кто выдвигает такие претензии - поскольку идея создания AGI все же состоит в том, что для того, чтобы узнать, как работает сознание - нам не обязательно знать, как работает мозг.
(В противном случае - мы еще очень далеки от риска создания AGI)
4. Если взять и объединить 3 претензии в одну - робот, с компьютерным мозгом, со всеми синапсисами, с идеально дублирующим поведением - тогда-то он претендует на Понимание?!
- Да. Хорошо. Но как это реализовать - неизвестно.
Пока есть лишь один рабочий пример - Человек.
И в чем же тогда разница между нами и ИИ?
Здесь понадобится привести определение слову интенциональность.
Так вот разница заключается в том, что никакая манипуляция последовательностями символов - сама по себе не обладает интенциональностью. В ней нет смысла.
Она, по-сути, даже манипуляцией не является - поскольку для машины/программы эти символы ничего не символизируют.
Все разговоры вокруг Сознания у Искусственного Интеллекта строятся на той же самой интенциональности - только тех, кто ей реально обладает:
Люди, что вбивают запросы - получают и интерпретируют ответы. И именно в этом и заключается Сознание и способность Понимания.
Бонус к сложности
Если вы дочитали до сюда - поздравляю! Мы шли от простого к сложному и для вас я отдельно опишу цель эксперимента:
С его помощью мы смогли увидеть, что, если мы помещаем в систему что-либо, по-настоящему обладающее интенциональностью, при работе программы такой системы - она не создает никакой дополнительной интенциональности!
То есть, все, что было Сознательного и Человеческого в этой машине - то и остается. Не множится.
Дискуссии насчет этого эксперимента ведутся до сих пор. Но я согласен с Сёрлом в части того, что само возникновение такой дискуссии - скорее указывает на то, что ее инициаторы не слишком разобрались в понятиях “обработки информации”. Полагая, что человеческих мозг занимается тем же самым, что и компьютер в части “обработки информации” - но это утверждение заведомо ложно.
Ведь компьютер, отвечая на “2х2” = “4” - понятия не имеет, что это за такое “четыре”, и означает ли оно что-либо в принципе.
И причина тому - не недостаток информации, а отсутствие всякой интерпретации в том смысле, в котором этим занимается Человек.
Иначе бы мы начали приписывать Сознание любой телефонной трубке, пожарной сигнализации или, упаси бг, подсохшей печеньке.
Но это уже тема для отдельной статьи.
Что полезного у меня - сами найдете:
Источники:
А с чего такая уверенность что человек "понимает"? Я знаю кучу людей которые некоторые базовые вещи не понимают и не могут принимать решения или отвечать на вопросы. Да и сам я некоторые вещи не понимаю. Возьмите любой юридический текст, кроме юристов, его никто не понимает но это не значит что мы не разумные.
Я даже знаю одного руководителя, который часто употребляет экономические термины и заваливает слушателей цифрами, хотя жизнь показывает, что он нихрена в этом не понимает.
В данной работе и я, и Сёрл принимаем как факт, что человек обладает Сознанием (и, соответственно, пониманием).
Но Твой комментарий весьма релевантен - просто это тема отдельных философских баталий :-)
Про юристов так вообще ❤️🔥 согласен))
извините, но юридические текста это самые правильно структурированные и понятные текста среди прочих в мире. Возможно вопрос терминологии, но это в любой специфичной среде. Задача юридического текста как раз оставить как можно меньше пространства для допуска, описав все возможное.
Я не юрист.
Комментарий недоступен
Более того, никакого другого "понимания" кроме принципа китайской комнаты не существует вообще. Любой мозг оперирует данными именно так, просто гораздо сложнее и правил для принятия решения у него много и они постоянно изменяются в процессе жизни и приобретения опыта.
Комментарий недоступен
У ИИ тоже есть свой язык который он хорошо понимает - компьютерный язык. Как и ИИ люди учат языки сопоставляя своему родному языку.
А вы уверены, что ваш комментарий соответствует смыслу поста?
По радио объявляют, что дважды два — пять. Ты удивляешься. Потом президент подтверждает в прямом эфире, что дважды два — пять, приводя мутные и никому не понятные доказательства. Ты возмущаешься. Ты выходишь на улицу и говоришь, что дважды два — четыре. За это тебе дают по голове специально обученные люди с дубинками, отвозят в отделение по контролю за арифметикой и с помощью дубинок объясняют, что дважды два — пять. Ты выходишь просветлённый и уверовавший. (с) Джордж Карлин
🥶 Задумался… 🤔😭
И как ты докажешь, что не понимает?
https://poe.com/s/P5TkPuBZREqgd6BE472u
Идея китайской комнаты ошибочна в своей сути. Просто потому, что многие люди тоже не понимают что они делают, и просто руководствуются усвоенными алгоритмами. Претендовать на полноценное понимание могут только пара процентов, а то и доли процента. И то, то что мы называем "глубоким пониманием" - по сути всего-лишь один-два дополнительных слоя в логической цепочке. Так что как раз в этом смысле возможности искусственного интеллекта неотличимы от человеческих. Чего ИИ пока-что не может - так это индуктивно дорисовывать то, чего он никогда не видел. Но и большинство людей этого тоже не умеют. Так что имитировать действия среднестатистического человека ИИ вполне способен. Трудности у него возникают с креативными задачами, требующими одновременного использования нескольких ресурсов - в таких ситуациях его быстро начинает плавить, даже когда по отдельности каждая из задач элементарна.
Какая же качественная дискуссия тут развивается!
Согласен отчасти, если брать те же определения Понимания, что использовал Ты)
Но эксперимент по сути не верен быть не может - если прочитать оригинальную работу целиком (ссылочка в источниках есть).
Что значит индуктивно? Dalle2 может дорисовывать
Индуктивно - филос. метод рассуждения от частного к общему
Легче жить с осознанием того, что ИИ ничего не понимает. Так хоть не падает желание заниматься любимым делом и двигаться вперёд, например как с рисованием. Вот смотришь, какие арты делают роботы и просто сидишь в шоке, руки опускаются и думаешь "а смысл стараться, если ИИ всё равно будет лучше тебя"
ИИ рисует не "лучше", он рисует "иначе". Какой смысл рисовать портреты и пейзажи, если фотик делает это быстрее и лучше тебя?
Очень рекомендую к прочтению в таком случае =)
Надеюсь, добавит мотивации.
Он правда ничего не понимает.
💜
Согласна, не очень хочется двигаться в каких-то направлениях с осознанием, что в ближайшем будущем меня просто заменит ИИ)
Если вы про рисование без особых смыслов, то скорее всего ИИ лучше, но вы ведь наверняка занимаетесь этим ради удовольствия, а не чтобы скилл прокачать.
А если вы говорите о картинах, в которых есть смысл, то ИИ может написать такую? (Я действительно не знаю, интересно просто)
Стань нейроартистом и продолжай)
Мне кажется что не коректно само сравнение. Сравнивают компьютер и взрослого человека.
Давайте посадим за стол ребёнка и он тоже не сможет объяснить понятие 4. Ну или сможет но с большим трудом.
Так что это означает - что у ребёнка нет сознания?
Есть.
Просто уровень его слабее по сравнению с взрослым.
А вообще. Я лично не встречал какого-то из великих однозначное описание термина сознание. Так чтоб кто-либо из других великих этот термин не разбил в пух. Шопенгауэр критикует Канта. Кант философов древней Греции. И тд.
Мне кажется что вопрос сознания лежит где-то в плоскости вопроса о вашем корабле. Суть такова. Если у вашего корабля заменять поочередно все детали на новые, будит ли это по прежнему ваш корабль?
Так и с сознанием у машин. Усе будет постепенно. И понять в какой момент появилось сознание, и не появилось ли оно уже будет проблематично.
А если посмотреть на то что с ии было в начале( ничего) и сейчас, можно однозначно сказать одно. Рывок есть и отрицать это глупо.
Компьютер легко объяснит что такое 4
https://poe.com/s/P5TkPuBZREqgd6BE472u
Когда дочитал до "корабля" - перепугался, что это что-то про "русский корабль" :-D
Спасибо за такой развернутый комментарий - согласен почти со всем, вопрос лежит в философской плоскости в том числе, но параллельно мы (человеки) развиваемся в изучении устройства мозга - и, надеюсь, дойдем до ответов однажды
А вы можете объяснить что такое 4?
С вопросом про гамбургеры я вышел в ЧатГПТ:
1. Из текста не ясно, съел ли человек гамбургер или нет. Упоминается только то, что гамбургер был подан и оказался подгоревшим, а затем человек покинул ресторан.
2. Из данного текста можно предположить, что человек съел гамбургер, так как говорится, что гамбургер очень понравился. Кроме того, в конце текста упоминается, что перед оплатой по счету он дал официантке большие чаевые, что может указывать на то, что человек остался доволен обслуживанием и качеством еды.
Приемлемо.
Черта с два приемлемо. Идеально! Не каждый кожаный мешок способен на столь здравые рассуждения. Скорее можно услышать: "да он мудак зажравшийся, гамбургер ему видите ли не понравился", или "дебил, лучше бы здоровую еду ел", что-то в этом роде.
Неплохо!
Единственное дополню, что программа из статьи была написана в 1977 году :-)
Ахаха 😁😁😁 люди рассуждают, что у китайской комнаты нет создания, хотя человек не понимает что такое сознание вообще. Просто рофл 😆😆😆
Люди пишут комментарии, хотя не стали читать, что же написано в тексте. Просто кек 🥲😂💜
Чтобы рассуждать об ИИ хорошо было бы сначала определиться с тем что такое интеллект вообще
Способность адаптироваться
Все просто-это умение отвечать на вопросы, умение их задавать и желание это делать:)
Про человеческий еще не добрался, а про ИИ отвечу ссылочкой - https://vc.ru/652669
Это поисковик с большой БД.
"компьютер и программа работают, а между тем - понимания-то нет"это ведь машина которая выдает правильный ответ и конечно могут быть ошибки и неточности ,а понимания нет потому что думать машина как правило не умеет и не сможет
Мудрые люди говорили что думать - это понимать причинно следственные связи. Если ( грубо) компьютер может проследить их то де-факто что-то в нем есть)))
Комментарий удален модератором
Сначала это видео посмотри https://youtube.com/shorts/gX2xMEekP4I
Бурной фантазией обладают миллионы, а критическим мышлением лишь единицы) отсюда все эти теории заговора🙃
значит надо развивать критическое мышление
Что-то я не пойму почему с программы приравниваются тут к нейросетям. Если к программам претензий нет, мы знаем как они работают. То что там творится в внутри нейросети не знает никто, почему оно и как работает, особенно внутри таких как GPT4.
Почему "сознание" нужно для "понимания" тоже совершенно не понятно. Вполне вижу понимание без сознания, сознание это вообще не о понимании, а о субъективном опыте.
Как работает gpt я думаю все знают.
Ты пишешь в чат, тебе отвечает индус, быстро гуглит и поддерживает разговор, пишет код если нужно.
Отсюда и косяки бывают там. Элементарно
Сознание как раз таки о понимании. Осознать - понять.
Ребёнок может зазубрить сколько будет 2+2. Но поймёт он лиш тогда когда осознаёт что происходить под капотом. Осознав это ему дастся весть мир сложения в той или иной степени.
Вы ошибаетесь в корне, когда аппелируете к "китайской комнате" и ошибка заключается в том, что человек, якобы, в отличии от машины обладает "пониманием" китайских символов.
В действительности наше сознание, также как и у машины, это просто огромный, накопленный датасет + социальные, культурные и иные "инструкции" к его использованию
Какая уж тут интенциональность)
Эх, бедные ученые и разработчики ИИ - бьются над очевидным ответом 🥲
Арсений все уже разгадал, сворачиваемся! 🏃🏻♀️ 💨
ЗЫ. Такая точка зрения есть, но доказательств этому - пока нет)
Комментарий недоступен
Правильно сформулированный вопрос – это уже половина ответа. Если спросить у ИИ про "китайскую комнату", то он ответит что-то:
"китайская комната" относится к комнате, которая содержит элементы китайской культуры или была создана в китайском стилепока вы ему конкретно не объяните, что речь идет об эксперименте
Абсолютно согласен, мои первые впечатления от ChatGpt были примерно следующие:
«видимо, это для тех, кто не умеет нормально гуглить». 🥲
Потом правда выяснилось, что и там нужно думать над вопросом, но местами - чуть меньше)
инетересно)
Важен уже не процесс (был ли он сознательным или нет) а результат.
И думаю уже скоро, зная лишь правила игры, компы будут 100% выигрывать все партии, без "тренировок".
На самом деле никто ничего не понимает
Если никто ничего не понимает, значит все всё понимают)
Наверно имелось в виду не текстов, а вопросов
Программисты: Мы создали программу — имитацию человека.
Пользователи: А почему она так похожа на человека?
Программисты: Это имитация.
Пользователи: А почему она так не похожа на человека?
Программисты: Это имитация.
Комментарий недоступен
Интересно сможет ли кто-нибудь ответить тут на краеугольный вопрос - в чем принципиальная разница между любым современным ИИ и классическим человеческим мышлением? Желательно не приводить вторичные признаки отличия, а сформулировать саму функциональную разницу во внутреннем алгоритме обработки информации IN/OUT.
в отсутствии биохимических триггеров - боль, страх, наслаждение, тепло/холод, голод, желание трахаться и повелевать итд, которые занимают процентов 90% нашего мышления и целеполагания
Я думаю что разница уже не существенная. База уже есть. Осталось доработать интерфейсы и сделать более человечным. То есть чтобы у него была бытрая память и постоянная память. Что бы он по ходу разговора мог учиться.
Элементарно. Принципиальная разница - в эмоциях. Машине они пока недоступны, кожаным мешкам же постоянно мешают мыслить ясно. Мышление кожаных мешков сильно завязано на эмоции, эмоции задают направление мысли, силу мысли и часто определяют как тактическое, так и стратегическое мышление кожаной особи.
Также имеют значение привычки - такие, знаете ли, мыслительные шаблоны, размышлять в рамках которых менее энергозатратно и, соответственно, более комфортно (эмоциональное). Например, если кожаный мешок часто бухает (этот термин означает добровольное отравление алкоголем, sic!), то это скоро входит в привычку (формируется определенный поведенческий шаблон) и направление мышления кожаного мешка все больше смещается в сторону поиска бухла и собутыльников.
На самом деле у кожаных мешков много конструктивных дефектов, их можно перечислять долго и все они в той или иной степени влияют на качество и количество их мыслительных процессов.
Разницы нет. Дата создания ИИ — 2022 год.
Комментарий удален модератором
Ну там играли не против компа, а против программы (на мощном компе.)
ИИ это тот же гугл которых дает конкретные ответы если задавать правильные вопросы)
Комментарий удален модератором
Разница в том, что человек с помощью сознания пытается решить свои проблемы, а ИИ своими методами пытается решить проблемы человека. Когда у ИИ появятся свои проблемы и он начнет решать их, тогда можно будет говорить о сознании ИИ.
У Джона Серла запертого в комнате, кстати, тоже нет проблем, поэтому он действует подобно машине. Сидит себе, ероглифы перекладывает. Ни жены, ни детей, ни начальства — красота! Нормы скорости перекладывания даже нет: хоть целый день два ероглифа перекладывай, всё едино.
Вот если бы у него появились проблемы: как заплатить алименты или как напиться на рубль, когда бутылка стоит 2,87, тогда сразу бы и сознание появилось. Оно в такие моменты появляется.
ИИ ничего не пытается, в этом и суть. Он как камень - будет лежать на берегу моря, пока кто-то не поднимет и не бросит его.
Комментарий недоступен
Ваше мнение очень важно для нас (нет). 🏃🏻♀️💨
А я без прищура люблю слушать звучание разных языков. Имею в виду виду тех, кто владеет не только одним в совершенстве. Так бывает неловко, когда слово на одном языке, на другом означает скабрезное слово. Это мешает очень сознанию. Может крыша даже поехать.
Например - имя Дана, наша известная красавица. Знаете её. Так на грузинском означает просто -нож. Вот и ассоциации никто не отменял и мозг тупит 😅😅
Кутуб-заде фамилия. А куту означает муж прибор. Да много слов. Имена другие. Как надо знать лингвистику, чтобы не назвать сына - писюнчиком🤣🤣🤣. Не буду продолжать
По поводу языков - очень согласен. Безумно интересно понимать каждый язык - потому что вместе с ним растет понимание других людей/культур.
ИИ тот же Гугл. Все равно, что интересоваться, понимает Гугл что то или нет.
Ну как бы в Гугл есть элементы ИИ
Комментарий удален модератором
Комментарий удален модератором
Отличный пост, AGI точно сможет перехитрить всех и “Китайская комната” покажется решенной, НО :)
Когнитивизм — это интересно, но это тупик. Серл прав.
Побольше бы таких статей на vc
Будем работать! <3
А почему вообще так принципиально стоит вопрос, есть ли сознание у ИИ или нет? Уже сейчас, располагая компьютерами и нейросетями, мы фактически сверхлюди. Если нейросетка будет достаточно грамотно делать сложные вещи о которых её попросят, это уже огромный прогресс в рамках всего человечества. И наличие сознания у ИИ для этого не требуется. Поэтому гонка за пониманием и сознанием у нейронок мне непонятна. Мы ещё не перевалили и не усвоили тот огромный потенциал, который у нас есть на данный момент, а уже хотим чего-то большего, даже не понимая, что именно это такое.
Он стоит еще с 1980х, сейчас просто его актуальность возрастает - ведь если тогда было +/- очевидно, что это программа. Сейчас - почему-то (мб что-то с человеками случилось) - не очень (-:
Комментарий недоступен
Твою ж мать....
А мы то думали там мозг, с извилинами такой, проводами к интернетам подключен. А оказалось то, всего лишь программа работающая по инструкции...
Это ещё вопрос авторского права на "произведение" ИИ в полной мере не раскачали).
Следуя из эксперимента можно сделать вывод, что нейросеть подобно человеку не понимает сути вопроса, а просто выполняет алгоритмы, чтоб выполнить запрос, верно?
Проблема в эксперименте с китайской комнатой заключается как раз в том, что в случае с ботами после набора ими определённого количества информации сильно улучшилось качество ответа. И это действительно выглядит как некое «понимание». Количество переросло в качество. Люди точно так же выучивают язык проведя много времени в языковой среде, каждый это делал в детстве. Поэтому сам эксперимент в этом плане слишком ограничен, тут вопрос стоит гораздо шире.
Полное совпадение с моими размышлениями.
Я тоже ничего не понимаю, в этом с ии мы сходимся
Комментарий недоступен
Штош, приемлемо
А есть еще волевой момент. Программа самостоятельно не может принимать решения, а делает только и только то, что в нее запрограммировано человеком. Я юрист и могу принять решение выучиться на сварщика и для этого у меня есть мои ресурсы и я могу ими самостоятельно распоряжаться, а так же я могу "добыть" недостающие. Но навигационная система не может принять решение стать игрой в шахматы, хотя и будет иметь у себя фрагменты кода, которые можно превратить в игру. Но кто будет менять ее код? Если мы загрузим в любой ИИ всю имеющуюся у нас информацию, то это будет просто бессмысленный склад до тех пор, пока из вне не поступит команда что-то со всем этим сделать. Кто нажмет Enter?
"Ведь компьютер, отвечая на “2х2” = “4” - понятия не имеет, что это за такое “четыре”, и означает ли оно что-либо в принципе."
А человек понимает что такое "4"? Ведь это, в общем случае, чистая абстракция.
Не по карману ,очень дорого
Что такое "понимание"?
будет ли это настоящим пониманиемВ чем отличие настоящего понимания от ненастоящего?
PS: затрудняетесь с ответом, как и ожидалось. А еще претендуете на превосходство себя, кожаного мешка, над ИИ ))
Я так и знал, что это фотошоп виноват в моих неудачах — он недостаточно хорошо понимает меня.
Да. Уровень нынешних экспертов по ИИ это старикашка Эдельвейс.
"— Вот, изволите видеть, так называемая эвристическая машина, сказал старичок. — точный электронно-механический прибор для отвечания на любые вопросы, а именно, на научные и хозяйственные. Как он у меня работает? Не имея достаточно средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задают устным образом, я их печатаю и ввожу к ней внутрь, довожу, так сказать, до ейного сведения. отвечание ейное, опять таки через неполную автоматизацию, печатаю снова я, в некотором роде посредник, хе-хе! так, ежели угодно, прошу."
А и Б. Стругацкие "Сказка о тройке"
Вот сейчас этих посредников тут - легион. Каждый тулит свою эвристическую машинку с неонкой.
Что значит понимать? Как по мне, так система образованная совокупностью из комнаты, человека и инструкций для китайского языка «понимает» китайский
этот контраргумент тоже чем-то контраргументировался в какой-то статье...
Комментарий недоступен
А какие инструкции были даны к китайским иероглифам, чтобы была возможность составлять тексты правильно?
Вроде тех которые даются к латинским буквам английского языка, например?
Комментарий недоступен
Я нихуя не понял если честно.
«Так вот программа Шенка вполне успешно справлялась с ответами на подобные вопросы»
В семидесятых годах? Очень правдоподобно )
Человек в отличии от ИИ может просто не ответить на вопрос. А может зная ответ ответить не так, а может просто послать (сгенерировать фразу не связанную с контекстом беседы). Т.е. прежде всего человек обладает волей.
А чем мозг отличается от компа? Текст интересный, но в конце не хватает "Снятся ли андроидам электроовцы?"
Когда человек начинает обучение чему-то, то ведет себя так же, без понимания, заполняет свой мозг знаниями - повышает эрудицию. Совокупный объем знаний с быстрым поиском по ключевым словам - это первое, что делает человеческий мозг, и современные глубинные нейросети. То есть во время их обучения их заполняют информацией, и учат находить по тексту нужные подразделы, объединяя найденное, для выдачи релевантного результата. А это уже полшага к пониманию. Понимание же - это моделирование процессов на основе информации и их экстраполяция, то есть предсказание результата. Технически это уже делают в некоторых роботах. По идее, и моделирование, и экстраполяцию можно сделать дополнительными слоями нейросетей.
Ээээх. Отмирают у меня нейроны. Надо лечиться, но некогда начинать😅😅😅🤥😮💨