Местный антиспам принял меня за бота, заблокировал и удалил все посты. Сейчас разобрались, всё вернули. Но последний пост со ссылками на статьи вышел кривой. Тем не менее, думаю, разобраться можно. Если что, нужно копировать ссылку от знака = до квадратной скобки, вставлять в поисковую строку и всё получится. По названиям искать нельзя - может найтись устаревший вариант статей, значительно отличающийся от нынешнего.
Вот почитайте. Это обновлённые версии статей, ссылки на которые у вас, возможно, есть. Статьи пересекаются, но в каждой сделан упор на свою тему.
[url=https://drive.google.com/file/d/1cvN9tYza7kshKCnHwGJ2ahLnM-pVciPF/view]Пределы сложности искусственного интеллекта[/url] — это целая книга, в ней много слов, для понимания принципа расстановки которых важно прочитать последний абзац Предисловия. На стр. 11 там коротко написано о мышлении. Далее в главе «Искусственная нейронная сеть» описано, как они работают, а в части «Искусственный интеллект» эта тема продолжена. Но в целом эта работа посвящена другому.
Поэтому с целью понимания работы биологических систем лучше читать статью [url=https://drive.google.com/file/d/1KxB_v0XXwy2MuXu_HDesiJWftmWfEB6B/view]Самоорганизация в организме и мозге[/url], где оставлено только нужное по этой теме.
По теме познания лучше читать статью [url=https://drive.google.com/file/d/1KxB_v0XXwy2MuXu_HDesiJWftmWfEB6B/view]Эволюция методов познания[/url]. Темы пределов познания, его эволюции, изучения сознания и пределов сложности ИИ в ней сформулированы наиболее коротко и просто.
И статья [url=https://drive.google.com/file/d/1tD-QA0fmH19uOnBf8U4uKP7kPXDL4lwJ/view]Гёделевский аргумент и вычислимость интеллекта[/url]. Это фактически первая глава книги «Пределы сложности искусственного интеллекта», но тоже сформулированная как самостоятельная статья, с отличием в последних абзацах.
>>Белый (Михаил?), вы в самом деле не вникали... все мимо. Это - не сеть (не многослойный персептрон), а у вас замечания - по персептронной "сети".
Да я, кто же ещё.
Я и пишу, что у вас не сеть, а мозг — сеть. Сети не программируются, а обучаются. Это позволяет им решать не формализованные задачи. Другими словами, вам не нужно писать сети пошаговую программу того, что ей делать. Она сама учится, были бы примеры. Вы же, отказавшись от сети, своего Бота решили именно запрограммировать, то есть всё его «мышление» пошагово расписать. В результате трудности у вас растут как снежный ком. Всякие контексты, регулировки и так далее. Это тупик. И всем это ясно.
Вы пока этого не понимаете, но у вашего Бота никакого мышления не будет — он будет говорить только то и так, как вы ему скажете. Проще говоря, нейронную сеть программируют примеры — обучающая среда, а вашего Бота — вы. Нейронные сети умеют делать индуктивные выводы — от частного к общему, от данных к теории. То есть умеют находить зависимости в отдельных данных и обобщать их в некоторый вывод, отсутствующий при обучении, например, узнать образ, построить фразу, прогноз или стратегию. Запрограммировать это невозможно, так как равносильно тому, что вы сами все эти прогнозы и стратегии построите. И так как ваш Бот — это программа, то в этом важнейшем свойстве разума он будет ограничен. Поэтому утверждения, что ваш Бот имеет уровень 3-х летнего ребёнка, не имеют отношения к действительности. Программы не имеют отношения ни к какому интеллекту вообще.
Вы изначально, когда начинали исследовать тему мышления, пошли неверным путём. Вы не поняли, что такое нейронная сеть, как она работает (например, ваши схемы с нейронами на Форните — это не нейронные сети). Но зато вы слишком близко восприняли идеи Павлова об условно-рефлекторной деятельности. Хотя то, что они не могут объяснить мышление, было всем очевидно ещё в 30-х годах прошлого века.
Идеи Павлова плохи тем, что в них мозг предстаёт набором отдельных элементов, каждый из которых выполняет свою функцию и в их подключении и отключении мышление и происходит. Но это в корне противоречит тому, как работает мозг и вообще нейронные сети, даже искусственные. Вы же идеи Павлова ещё и развили и в результате пришли уже к совершенно неверным мыслям, противоречивым уже на уровне простейшей логики и противоречащих общеизвестным фактам уже в самом основании. Начиная от идеи, что усложнение мозга шло этапами от рефлексов к автоматизмам и далее к произвольности (хотя на самом деле нейронная сеть она и у муравья нейронная сеть, и у человека — просто у человека больше). И вообще к идеям того характера, что мышление представляет из себя набор отдельных функций и элементов, подключаемых и отключаемых. Которые, соответственно, несложно выразить в программе, как несложно описать в программе работу механизма.
Вам всё испортил ваш личный сайт. На нём было слишком легко устранять оппонентов.
>>И гомеостаз. Это совсем не то, что вы, видимо, думаете. Это свойство открытых термодинамически неравновесных систем>>тут проявляете свою безграмотность и свою идею-фикс.
Это общеизвестные факты. В ссылках всё написано. У меня нет идей, которые противоречат научным.
>>Что касается и следующего утверждения: "сознание, если оно есть, должно быть связано с какой-то физикой, материей. А у вас оно вроде бы зависит именно от организации вычислений, то есть его нет."
Вы просто не представляете, как мало вы знаете.
>>Ну не стоит говорить с таким судейским апломбом если 1) не вникал и 2) просто не в теме даже в основах.
Больше говорить некому. У вас настолько значительные проблемы и в научной, и в логической составляющей идей, что они никого другого разбирающегося в теме не заинтересуют. Я же по старой памяти. Не мог пройти мимо. Хотя и понимаю, что объяснять вам что-то, по всей видимости, бесполезно.
В подробности не вникал, поэтому, возможно, ошибаюсь, но, по-моему, проблемы у вас в следующем.
Вы пытаетесь реализовать сложное поведение прямыми средствами. То есть задавая его непосредственно во всех нюансах. Но это невозможно — трудности будут расти как снежный ком, с чем вы и столкнулись. Иной подход в нейронных сетях. Они обучаются. Вначале есть случайная структура весов связей, предъявляемые сети примеры из обучающей выборки эти веса меняют. Повторяющиеся признаки в этих примерах меняют веса больше, редкие меньше. То есть сеть учится, выделяет признаки условий. В результате по мере обучения на выходе возникает реакция, связанная с этими признаками.
Если в сети есть ещё и обратные связи, то уже сформированная реакция на выходе сети по обратным связям может влиять на реакцию ещё только формирующуюся, тем самым появляется возможность формировать цепочки реакций, связанных общим смыслом, то есть проводить целенаправленное поведение.
Разная организация обратных связей позволят реализовать, например, кратковременную память. Слова произносятся последовательно, а смысл предложения зависит от порядка всех слов, то сеть должна запомнить всю последовательность, обобщая вновь поступающие слова фразы с предыдущими, в ходе чего формируется перевод. Такой сетью является гугл-переводчик ("долгая краткосрочная память" — ищите в Википедии).
И гомеостаз. Это совсем не то, что вы, видимо, думаете. Это свойство открытых термодинамически неравновесных систем (ищите "Открытая система (физика)" в Википедии), к каковым относится каждая клетка и организм в целом. Конкретно на уровне нервной регуляции гомеостаз связан с синхронизацией. Естественная хаотическая активность нейронов в мозге сама собой синхронизируется, возникают ритмы мозга. То есть из хаоса возникает некоторый порядок. Сигналы рецепторов вносят в него возмущение, порядок сам собой противостоит разрушению скоординированными реакциями (вот в этом противостоянии и заключается гомеостаз, прочитайте определение гомеостаза в Википедии) — и в результате на выходе нейронной сети мы имеем тоже упорядоченное поведение. Программно это не моделируется. Есть осцилляторные сети, но там всё сложно.
Сознание не может появляться и исчезать в зависимости от организации системы, то есть сознание, если оно есть, должно быть связано с какой-то физикой, материей. А у вас оно вроде бы зависит именно от организации вычислений, то есть его нет. Но вы, как я понимаю, считаете, что сознание у Бота есть. Противоречие.
К тому же мозг вообще иначе работает, чем вычислительные системы. То есть или сознание есть в мозге, но нет в вычислительных системах, или наоборот. Но в мозге точно есть, следовательно у Бота, как вычислительной системы, точно нет.
Форнит не нужно специально «огаживать», как вы выражаетесь. Ваши идеи сами за себя говорят. Их противоречивость не всем заметна сразу — особенно раньше, когда было мало информации о работе мозга, нейронных сетях или квантовой механике, которую вы тоже переиначили под себя — но постепенно и даже до самых глуповатых ваших поклонников стало доходить, что дело неладно, что-то им не то на Форните втолковывают. Сейчас же, когда наконец от рассуждений вы перешли к практике, понятно это становится и вам самому.
Может быть, меняться уже поздно и вам стоит остаться верному Идее, какой бы противоречивой она ни была. В таком случае альтернативный путь я вам хотя бы укажу.
Он состоит в том, чтобы разобраться с нейронными сетями. Когда вы поймёте, как они работают, вы поймёте и противоречивость ваших идей. До тех пор, не видя альтернативы, не имея возможности сравнить, вы так и будете думать, что есть только путь программирования. Чтобы ваш Бот мог сделать что-то, что не задано вами прямо — то есть мог сделать что-то «сам», что-то «придумать» — вы должны его не программировать, а обучать. Разберитесь, в чём разница и почему нейроны нельзя заменить. Википедию хотя бы откройте. Причём, отягощая программу лишней сущностью «гомеостаза», вы ещё больше её усложняете. Вы и так пошагово все действия Бота расписываете, а тут ещё и «гомеостаз» приходится в программу включать.
То, чем занимаетесь вы, описано по ссылке в главе «Детерминированные алгоритмы». Противоречивость деления мозга на реально разные сущности описана в главе «Распределённый опыт и ошибочные интерпретации», а как мозг «разделён» на самом деле, написано в главе «Системная и биохимическая составляющая».