Спасибо, за очень полезный ответ.
1. Описание работы алгоритма дип блю можно посмотреть здесь. https://www.research.ibm.com/deepblue/meet/html/d.3.2.html
Описание подтверждает, что машина не использовала простой перебор в качестве основного метода игры. Система имела механизм "стратегической оценки позиции", стоимость фигур, положение короля, длина пути к победе. Победить этой программе помогла именно способность "стратегической оценки" ситуации, а не грубый перебор, так как математически доказано, что количество комбинаций в шахматных партиях в начале игры превышает количество атомов в известной вселенной. Таким образом, при любой мощности компьютеров простым перебором невозможно решить задачу. Но я, конечно, согласен, что программа перебирала позиции в рамках тех направлений, который считала перспективными.
2. Задачу универсального интеллекта и прохождения теста тьюринга решают множество компаний. В данной ситуации ее решают Google и Facebook, и многие другие. Кроме того, более 20 лет проходят соревнования по прохождению теста тьюринга. В частности учреждена так называемая Loebner Prize в размере 100,000 долларов за прохождение этого теста.
3. Рассказ обязательно посмотрю
4. Алгоритмы машинного обучения работают только тогда, когда имеющихся данных достаточно - вот с этим тезисом не могу согласиться. Дело в том, что для простейшей задачи "идентификации изображения кошки" в бесконечном множестве картинок не может существовать алгоритма с исчерпывающимся набором данных. Кошки могут быть изображены бесконечным количеством способов. Тем не менее, программы типа Google Brain успешно справляются с этим. Конечно, у них есть ошибки, но ошибки есть и у человека.
Дело в том, что практически с самого начала развития ИИ программисты используют эвристики и так называемые коннекционные модели. Это простейшие нейронные сети (в компьютерном смысле нейронные). Каждый узел этих нейронов тренируется и со временем приобретает вес. Таким образом программа "обучается", или настраивается. Эта настройка позволяет работать с гипотезами и не дедуктивными выводами. на подобных механизмах основан весь современный Deep learning.
Надеюсь, мой ответ будет вам полезен!
Китайская комната - действительно один из самых обсуждаемых эксперментов в аналитической философии. Но это и один из самых критикуемых мысленных экспериментов. Пожалуй, только Серл и еще пару десятков его коллег всерьез его защищают. Самый правильный ответ на этот аргумент, с моей точки зрения, ответ Систем. Его разрабатывали Д. Деннет и Д. Хофстадтер. Он показывает, что даже если Серл внутри комнаты не понимает китайский текстов, понимает вся комната. Просто вообразить эту комнату очень сложно.
вот с этим я тоже полностью согласен. Если посмотреть на человеческий мозг, это просто набор из миллиона довольно тупых роботов, которые выполняют рутинную работу. Нейроны не понимаю ничего сами, но в совокупности они образуют машину, которая способна к пониманию. Мы можем сколько угодно говорить, что компьютер - это простая железка, но во многих задачах она уже справляется лучше, чем биологический материал
Компьютеры уже давно "не просто исполняют команды". Программисты, которые писали программу Deep blue, которая выиграла у Каспарова, сами не могли выиграть у Каспарова. И не предполагали, как эта программа будет играть. Более того, эта программа не "просто считала" комбинации в игре. Она училась у других программ. Большая часть современных AI продуктов построены на Deep learning, то есть на самообучающихся моделях. Эти модели создаются с наборами примитивных правил, а потом их деплоят в среду, где они начинают тестировать свои гипотезы.
Мой аргумент в конце статьи был как раз о том, что не совсем обязательно моделировать мозг, чтобы сделать что-то, что умнее человека. Не обязательно моделировать крыло и перья, чтобы летать. Если бы для того, чтобы быстро передвигаться мы пытались воспроизвести механизмы движения животных, мы бы все еще не смогли ходили пешком от Москвы до Петербурга.
Любопытно! Вполне возможно, вы правы!
Все гипотезы могут быть неверными. В этом Вы правы. Просто одни лучше других. Тест Тьюринга предполагает универсальную языковую компетенцию, а также знания о мире. Возможно, для настоящей рациональности этого не достаточно, но тогда противники гипотезы должны показать, почему этого не достаточно. Например, я могу считать, что для рациональности необходимо закончить Университет. Такая гипотеза может существовать, но я бы с ней не согласился, так как видел множество очень умных и рациональных людей, которые университетов не заканчивали.
Тест Тьюринга считается водоразделом, так как пока программы его не прошли. И представляется, что для прохождения теста нужна универсальная рациональность. То есть рациональность в самой широкой области. Пройти тест просто симулируя понимание просто не получится
Наверное, сейчас стали чаще говорить, что ИИ может нас лишить необходимости развивать собственный интеллект. Но я сам так не считаю. По крайней мере, Люси никак не претендует на ведущую интеллектуальную роль. Она будет только интерфейсом к домашнему кинотеатру, собственной библиотеке фотографий, музыки и т.п.