Dmitry Volkov

с 2017
2 подписчика
25 подписок

Наверное, сейчас стали чаще говорить, что ИИ может нас лишить необходимости развивать собственный интеллект. Но я сам так не считаю. По крайней мере, Люси никак не претендует на ведущую интеллектуальную роль. Она будет только интерфейсом к домашнему кинотеатру, собственной библиотеке фотографий, музыки и т.п.

Спасибо, за очень полезный ответ.
1. Описание работы алгоритма дип блю можно посмотреть здесь. https://www.research.ibm.com/deepblue/meet/html/d.3.2.html
Описание подтверждает, что машина не использовала простой перебор в качестве основного метода игры. Система имела механизм "стратегической оценки позиции", стоимость фигур, положение короля, длина пути к победе. Победить этой программе помогла именно способность "стратегической оценки" ситуации, а не грубый перебор, так как математически доказано, что количество комбинаций в шахматных партиях в начале игры превышает количество атомов в известной вселенной. Таким образом, при любой мощности компьютеров простым перебором невозможно решить задачу. Но я, конечно, согласен, что программа перебирала позиции в рамках тех направлений, который считала перспективными.

2. Задачу универсального интеллекта и прохождения теста тьюринга решают множество компаний. В данной ситуации ее решают Google и Facebook, и многие другие. Кроме того, более 20 лет проходят соревнования по прохождению теста тьюринга. В частности учреждена так называемая Loebner Prize в размере 100,000 долларов за прохождение этого теста.
3. Рассказ обязательно посмотрю
4. Алгоритмы машинного обучения работают только тогда, когда имеющихся данных достаточно - вот с этим тезисом не могу согласиться. Дело в том, что для простейшей задачи "идентификации изображения кошки" в бесконечном множестве картинок не может существовать алгоритма с исчерпывающимся набором данных. Кошки могут быть изображены бесконечным количеством способов. Тем не менее, программы типа Google Brain успешно справляются с этим. Конечно, у них есть ошибки, но ошибки есть и у человека.

Дело в том, что практически с самого начала развития ИИ программисты используют эвристики и так называемые коннекционные модели. Это простейшие нейронные сети (в компьютерном смысле нейронные). Каждый узел этих нейронов тренируется и со временем приобретает вес. Таким образом программа "обучается", или настраивается. Эта настройка позволяет работать с гипотезами и не дедуктивными выводами. на подобных механизмах основан весь современный Deep learning.

Надеюсь, мой ответ будет вам полезен!

Китайская комната - действительно один из самых обсуждаемых эксперментов в аналитической философии. Но это и один из самых критикуемых мысленных экспериментов. Пожалуй, только Серл и еще пару десятков его коллег всерьез его защищают. Самый правильный ответ на этот аргумент, с моей точки зрения, ответ Систем. Его разрабатывали Д. Деннет и Д. Хофстадтер. Он показывает, что даже если Серл внутри комнаты не понимает китайский текстов, понимает вся комната. Просто вообразить эту комнату очень сложно.

вот с этим я тоже полностью согласен. Если посмотреть на человеческий мозг, это просто набор из миллиона довольно тупых роботов, которые выполняют рутинную работу. Нейроны не понимаю ничего сами, но в совокупности они образуют машину, которая способна к пониманию. Мы можем сколько угодно говорить, что компьютер - это простая железка, но во многих задачах она уже справляется лучше, чем биологический материал

Компьютеры уже давно "не просто исполняют команды". Программисты, которые писали программу Deep blue, которая выиграла у Каспарова, сами не могли выиграть у Каспарова. И не предполагали, как эта программа будет играть. Более того, эта программа не "просто считала" комбинации в игре. Она училась у других программ. Большая часть современных AI продуктов построены на Deep learning, то есть на самообучающихся моделях. Эти модели создаются с наборами примитивных правил, а потом их деплоят в среду, где они начинают тестировать свои гипотезы.

Мой аргумент в конце статьи был как раз о том, что не совсем обязательно моделировать мозг, чтобы сделать что-то, что умнее человека. Не обязательно моделировать крыло и перья, чтобы летать. Если бы для того, чтобы быстро передвигаться мы пытались воспроизвести механизмы движения животных, мы бы все еще не смогли ходили пешком от Москвы до Петербурга.

1

Все гипотезы могут быть неверными. В этом Вы правы. Просто одни лучше других. Тест Тьюринга предполагает универсальную языковую компетенцию, а также знания о мире. Возможно, для настоящей рациональности этого не достаточно, но тогда противники гипотезы должны показать, почему этого не достаточно. Например, я могу считать, что для рациональности необходимо закончить Университет. Такая гипотеза может существовать, но я бы с ней не согласился, так как видел множество очень умных и рациональных людей, которые университетов не заканчивали.

1

Тест Тьюринга считается водоразделом, так как пока программы его не прошли. И представляется, что для прохождения теста нужна универсальная рациональность. То есть рациональность в самой широкой области. Пройти тест просто симулируя понимание просто не получится