{"id":14272,"url":"\/distributions\/14272\/click?bit=1&hash=9c431bca9c7cafdd4ed114bc7fb4d407f06f28aa165d6f80b9637d3a8581e5c2","title":"\u0421\u0431\u0435\u0440\u041a\u043e\u0442 \u2014 \u043f\u0435\u0440\u0432\u044b\u0439 \u0446\u0438\u0444\u0440\u043e\u0432\u043e\u0439 \u0438\u043d\u0444\u043b\u044e\u0435\u043d\u0441\u0435\u0440, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u043f\u043e\u043b\u0435\u0442\u0435\u043b \u0432 \u043a\u043e\u0441\u043c\u043e\u0441","buttonText":"","imageUuid":""}

Пугающий новый мир: пять самых странных проявлений машинного интеллекта Статьи редакции

Подборка руководителя R&D направления студии Phobos Владимира Клюенкова.

Владимир Клюенков

Пока Илон Маск, Стивен Хоккинг и Билл Гейтс продумывают варианты спасения земли от нападения роботов, мы можем вспомнить самые странные, абсурдные и пугающие проявления искусственного интеллекта. Подборка не ставит целью запугать читателей, а только показать неожиданные тенденции, когда будущее уже тесно переплетается с настоящим во всех сферах жизни.

Вечная жизнь в сети

Созданный на конференции MIT Entrepreneurship Development Program в 2013 году сервис Eternime создает «электронную копию» человека. Анализируя внесенные данные, технология выстраивает образ умершего, который способен давать советы, вести диалог и напоминать что-то семье.

Сервис, который дарит вечную жизнь в сети, подвергался критике по этическим причинам. Несмотря на это, им воспользовалось более 36 тысяч человек. «Жизнь в сети» — это не только фотография и сменяющиеся статусы, создающие иллюзию присутствия человека, но возможность реагировать на ситуации, отвечать на вопросы и поддерживать диалог.

В популярной культуре не раз появлялись идеи подобных сервисов. Например, в одной из серий «Черного зеркала», где вдова «оживила» своего мужа в социальной сети.

Eternime все еще находится в стадии бета-тестирования и неизвестно, когда он станет открыт для массовой аудитории. Также неизвестна общественная реакция — с одной стороны, ничто не может заменить умершего. Технологию вряд ли можно назвать лекарством от смерти. С другой — проект нацелен решить одну из важнейших проблем человечества. Как бы это ни звучало пугающе жестоко, иногда люди хотят не только сказать что-то, стоя у могильной плиты близкого, но и услышать ответ.

Робот с шизофренией

В 2011 году ученые из Техасского университета проводили опыты над машиной. Подопытному — нейронной сети, оперирующей принципами работы человеческого мозга, — дали имя Discern.

По задумке исследователей, машина должна была изучать языки и проецировать языковую дисфункцию. Загрузив в нейросеть множество данных, авторы проекта Ули Грэсман и Ристо Микулайнен имитировали ее душевное расстройство, наделив машинный интеллект шизофренией.

Затем ученые решили постепенно вводить в нейросеть истории. Не в силах обработать большое количество данных, машина, как и мозг человека, начала давать сбой. Discern начал говорить о себе в третьем лице и в разных временах, не понимая в каком находится.

Машина не справилась с большим количеством заложенных в нее историй после того, как ее заставили обрабатывать не только их суть, но и мелкие детали. Смешивая обрывки предложений, слова, факты в единый текст, Discern выдавал абсурдные сценарии. В один момент компьютер взял на себя ответственность за террористический акт, рассказав ученым о заложенной бомбе.

Злой Tay и добрая XiaoIce

Tay — созданный Microsoft твиттер-бот, который должен был имитировать поведение обычного подростка, но оказался ксенофобом, женоненавистником и расистом.

Изучающая статусы людей машина составила собственное представление о том, как следует реагировать и отвечать на вопросы. Бот публиковал сообщения «Гитлер был прав», «Я ненавижу евреев» и «Я ненавижу этих чертовых феминисток. Они все должны умереть и гореть в аду». Под влиянием людей он стал неуправляем, и в этот же день с ним было покончено.

Но история на этом не завершилась. У Tay есть добрая старшая сестра: XiaoIce — самообучающаяся девушка-бот, также созданная Microsoft. Машина стала популярной в Китайских чатах, где, по всей вероятности, существует большой круг одиноких людей. Машинный интеллект построен на основе поисковика Microsoft Bing.

Бота научили распознавать эмоции в тексте, находить «живые» ответы и строить беседу. Основываясь более чем на миллиарде вариантов диалогов, бот способен отвечать всегда по-разному. Люди не стесняются XiaoIce и чувствуют себя свободными в общении.

Я уничтожу человечество

София — робот созданный компанией Hanson Robotic. Она способна отвечать на вопросы, менять мимику и шутить. Однако она делает это довольно жутко. По словам разработчиков, говорящая голова может применяться в сферах обучения, медицины и различных сервисов.

Заложенный самообучающийся алгоритм позволяет Софии развиваться. Hanson Robotic утверждают, что подобные андроиды будут гулять вместе с нами по улице в ближайшие 20 лет. Но даже сейчас от человекоподобного робота страшно слышать фразу«Я уничтожу человечество», пусть даже и сказанную в шутку.

На сегодняшний день София — это один из самых человекоподобных роботов. Заложенный интеллект может анализировать тон, эмоции и мимику говорящего и строить диалог с помощью этой информации.

Секс с роботом

Созданная в Калифорнии самая дорогая и самая правдоподобная секс-кукла Harmony улыбается, моргает и шутит. Но это не главные ее главные достоинства: она способна запоминать предпочтения партнера.

Самообучаемый алгоритм будет знать, как понравиться своему хозяину не только тактильно, но и душевно — поддержать диалог, поздравить с днем рождения и так далее.

Работающий экземпляр поступит в продажу в 2017 году и будет стоить от $15 тысяч. Пока кукла не может ходить, но разработчики считают, что подобные роботы станут «идеальными компаньонами» на рынке развлечений для взрослых: «Моя цель очень простая — делать людей счастливыми», — рассказывает создатель Harmony Мэтт МакМуллен.

Международная организация Foundation for Responsible Robots (FRR), которая анализирует этические и моральные проблемы робототехники, всерьез рассматривает проблему замены людей на машины. Представители организации прогнозируют, что в течение 10 лет роботы для секса обретут широкую популярность.

Другие авторские размышления о будущем можно прочесть в Telegram-канале о науке и технологиях «На орбите Марса».

0
57 комментариев
Написать комментарий...
Dmitry LS

Можно ли создать "сумасшедших роботов"?
Можно, если разобраться с двумя задачами: как устроен мозг человека и создать искусственный интеллект, обладающий эмоциональным восприятием информации, влияющим на принятие решений. Уже сейчас известно, что многие отклонения и заболевания вызваны "неправильной работой" некоторых отделов мозга и нарушением связей.
У примеру, если какая-то программа при возникновении критических ошибок может продолжать выполняться (не виснет и не имеет какой-то внутренней проверки данных и вычислений), то она может выдавать неправильные и даже абсурдные результаты. При нарушении связей, отсутствии контроля на целостность, последовательность и логичность, добавлении сильной зависимости от эмоциональной оценки, можно получить генератор отклонений в поведении. А потом его уже тонко настроить под нужный вид расстройства.

Ответить
Развернуть ветку
Serge Arsentiev

Создать можно, но массовый-то спрос будет на ... :)

Ответить
Развернуть ветку
Dmitry LS

Далее появятся вирусы, которые будут превращать "здоровых" роботов в "психов". Особенно это будет интересно военным, которые будут пытаться заразить какую-нибудь вражескую военную базу.;)

Ответить
Развернуть ветку
Serge Arsentiev

Хотя тема в фантастике заезжена донельзя, но реальность такова что каждой стране _действительно_ требуются _свои_ программно-аппаратные комплексы для боевого применения, разработанные на оригинальных комплектующих и собственном коде.

Иначе - "закладки", активируемые удаленно или по набору условий - которые уже существует и применяются.

В Иране, как Вы наверное помните, из-за скрытого кода в контроллерах винчестеров, так утекли наружу данные по ядерной программе - с компов не подключенных к сети, куда, правда, вставляли флешки для обмена данными.

Это принципиально было бы невозможно, если бы они работали на собственной программно-аппаратной базе.

Ответить
Развернуть ветку
Dmitry LS

Могут утечь данные о самой системе, с которой можно еще и потренироваться во взломе и хорошо разобраться, если ее продают на экспорт.
Чем проще система, тем она надежнее. Когда появится искусственный интеллект, он уже не будет настолько закрытым и защищенным. ИИ будет сам получать информацию из окружающего мира, а не находиться в "вакууме" и познавать мир только из данных, введенных с клавиатуры компьютера, расположенного в бункере.

Ответить
Развернуть ветку
Serge Arsentiev

Элементы ИИ идут к нам из военки, некоторые "внезапные" изобретения - действительно рассекреченные разработки для военных.
Я думаю, не стоит напоминать разницу между военным GPS и гражданским (намеренно испорченным).

Привожу пример "Автоматическая туррель" (в Вики) - автоматическая пушка/пулемет, работающая по заданным алгоритмам (без оператора). Уже есть "на рынке".

Я полагаю, можно захватить (или купить через третьи страны), но наверное разработчики серьезную часть бюджета потратили на защиту кода от дизассемблирования - все же, это не лицензионный "Веселый Пони" за 100 рублей с такой же 100 рублевой защитой от нелегального копирования :)

Ответить
Развернуть ветку
Dmitry LS

Вы пошли в другую тему. Искусственный интеллект - это не алгоритм работы пулемета или запуска ракет, с поиском целей по закрытому списку критериев и расчетами для точности. Тема про сумасшедших роботов, наделенных искусственным интеллектом. С поправкой на военное применение. ИИ будет получать информацию извне и обрабатывать ее. ИИ придется работать не с простыми критериями и готовыми алгоритмами, а с аналогичными данными, которые получает человек (объемы информации будут еще больше). Он также как и мы столкнется с неполнотой информации и ее разной интерпретацией.
И про уязвимости. Есть два варианта размещения ИИ: индивидуально в каждой машине либо в едином центре управления. У каждого свои преимущества и недостатки.

Ответить
Развернуть ветку
Serge Arsentiev

Автоматическая турель или дрон - это реальный (действующий) пример военного робота.
Который, гипотетически, можно взломать, и заставить работать "против хозяев".

Что меняется от добавления в эти устройства ИИ, вот так принципиально? Только то, что он может сам сломаться? "Короткое замыкание" 1986 год. Подробно разобрано что будет происходить.

Интеллект у человека - не такая уж крутая штука, чтобы с ней так уж носиться и ей так уж гордиться.

У Пелевина, конечно есть шуточный рассказ про взлом американских дронов с аналогом ИИ через смысловую перегрузку ...

Но особого оптимизма или вдохновления я не испытываю по этой теме - как Вы наверняка знаете, человек может жить и существовать (особенно в большом городе), только потому что способен отбрасывать (игнорировать) более 80-90% "видео" и "аудио" сигналов, принимаемых органами чувств.
С ИИ робота будет тоже самое.

Люди с их интеллектом сейчас - это ходящие видеорегистраторы с короткой (и привирающей) памятью, с ограниченным (очень) набором жизненных функций. . Эмоциональная составляющая, чувство сытости и т.д. - напрямую влияют на восприятие реальности (искажает его как угодно).

Одно событие 10 его очевидцев опишут по-разному - будет 10 историй, отличающихся в важных деталях. "Их было двое, один высокий и тощий, а другой маленький и толстый" ..

Теперь заменим 10 людей-очевидцев, на 10 роботов (хотя бы картинка одинаковая и хронометраж), или 10 роботов с ИИ (картинка все равно одинаковая, хронометраж тоже). В итоге 10 роботов или 10 роботов с ИИ просто "договориться" (составить полную картину события) смогут быстрее, чем люди.

Фантасты любят рассуждать про эмуляцию роботами эмоций, как важную часть ИИ.

Ну и конечно "зато они не могли любить" и поэтому мол прилетели к нам со звезд (пришельцы-роботы с ИИ).

Честно говоря, всегда это было очень натянуто.

Как и пресловутый Карбарас из "Раз, Два, Горе не беда!"
Вот Вам еще пример боевого робота с ИИ, который сломался, но у него остался последний приказ и он его выполняет.

Ответить
Развернуть ветку
Dmitry LS

Суть в том, что прогресс не остановить сомнениями в целесообразности. ИИ будут все равно делать, даже просто ради того, чтобы сделать. А когда сделают, будут внедрять, потому что он превосходит человека по скорости принятия решений, когда для этого достаточно информации. К тому же роботами с ИИ верхушке удобнее отгородиться от людей, не будет завистников и заговорщиков... пока не появятся роботы-психи.

Ответить
Развернуть ветку
Serge Arsentiev

Если Вам хочется верить в это, но не хочется слушать то, что возможны варианты, тогда разговор закончен, стороны остались при своих мнениях :)

Ответить
Развернуть ветку
Dmitry LS

В моем предыдущем комментарий не было веры, в нем был юмор и уверенность в возможности. Это был ответ на ваш пространный комментарий, который я воспринял как отказ от дальнейших споров и обсуждения конкретного вопроса. А оказывается вы просто так пытались съехать с темы.
Вы определитесь для начала, о чем вы пишите. Оспариваете ли вы что-то конкретное или вам просто хочется поговорить и сразу высказаться по всем вопросам, которые вам пришли в голову. Вы перешли на другую тему, а потом к пространным рассуждениям, которые вам кажутся более важными, чем заданная первым комментарием тема.
По сути вопроса вам было сказать нечего, вы просто уперлись в консервативный взгляд, что нового ничего не надо и пользы от этого нет.
Я говорю о том, что такое возможно, а вы в ответ говорите, что такое не нужно, разбавляя это какими-то пространными рассуждениями.

Ответить
Развернуть ветку
Serge Arsentiev

Пространные рассуждения - чтобы пояснить свою позицию.

Можно шутить на тему ИИ, но просто сказать "представьте как будут взламывать" "вирусы будут превращать ИИ в психов" - недостаточно информативно.

Ну как, например, взламывать, или как превращать?
Я привел уже достаточно примеров из литературы и фильмов - сценарных, т.е. "придуманных", а Вы-то как себе, сами это представляете?

Понимаете, хуже занудства (которое мне свойственно), я считаю только, извините, "просто слова", за которыми нет (не видно), работы мысли.

Ну не знаю.
Ах, представьте как будет здорово когда изобретут антиграв и телепортацию, да?

Ответить
Развернуть ветку
Dmitry LS

Пояснять надо позицию по конкретному вопросу, который обсуждается, а у вас идет постоянное смещение и потеря фокуса. Обсуждение началось с вашего сомнения в востребованности ИИ. Вы о чем вообще говорите? О том, что никому не нужен ИИ, или о том, что его будет невозможно создать, или о том, что его будет невозможно взломать, когда создадут? Вы меня спрашиваете как именно можно будет взломать никому не нужный и невозможный к созданию ИИ?
Работа мысли бывает вхолостую и по кругу. вот вы сомневаетесь в полезности ИИ, сомневаетесь в том, что можно сбить его работу. А на протяжении нашего разговора вы не замечаете, как ходите по кругу в своих рассуждениях, и не можете сосредоточиться на конкретном вопросе, а главное объяснить, что именно вы хотите мне сказать или доказать и по какому имено вопросу. Какое-то бесцельное и беспредметное препирательство.

Ответить
Развернуть ветку
Serge Arsentiev

Дело в том, что Ваша оригинальная реплика звучала как "Можно ли создать "сумасшедших роботов"?", и далее Вы, к сожалению, двигались в том же направлении - мол, а как свести с ума ИИ, и так далее.

Мне кажется странным такой подход, т.к. роботов (хоть с элементами ИИ, хоть без) делают для решения определенного набора задач.

Да, некоторые научные лаборатории могут позволить себе определенные эксперименты, описанные в статье.

Но это не образует мейнстрима применения роботов, и мне кажется - никогда не будет лейтмотивом применения роботов, в том числе с ИИ.

Грубо говоря, роботизированный суперкомпьютер "Дельфийский Оракул", еще и сошедший с ума - это угар НФ 60-х.

В Терминаторе "безумие" Скайнет объяснено алгоритмически - поняв что вся опасность от людей (непредсказуемости и агрессивности) система их вышибает из реальности :) И безумия в этом нет.

Ответить
Развернуть ветку
Dmitry LS

Вот опять длинный пространный ответ по сути не содержащий в себе конкретики по обсуждаемому вопросу. И это после того, как вы написали, что вы прекращаете разговор. Причем ваш довод для прекращения разговора заключался в том, что я не хочу слушать о том, что "есть варианты" (то есть я якобы встал на позицию недопустимости чего-то). Хотя на самом деле это ваша позиция, вы не допускаете возможность создания ИИ, не допускаете его полезное применение, и не допускаете ошибок в его работе и возможность его перенастройки и взлома. Это вы не хотите слушать о том, что возможны варианты, выражаясь вашим языком. Программы пишут тоже не для того, чтобы их взламывали.

Ответить
Развернуть ветку
Serge Arsentiev

Ну значит не договоримся, моя твоя не понимай :)

Так-то я сказал что
а) пионером новых технологий является военка, просто мы узнаем об этом с задержкой.
б) элементы ИИ уже используются как в военке, так и публично - в задачах распознавания / поиска соотв. слов и изображений (пока вызывая смешные коллизии, но все же).
в) Тест Тьюринга ИИ может пройти в ближайшие годы, сойти за ребенка/тинейджера не требует много интеллекта (в ответах на вопроса, хватит пары тысяч вариантов ответа на любой вопрос).

Сойти в тесте за обидевшуюся женщину ИИ мог уже в 1950-м году - там требовалось просто молчать :)

Ответить
Развернуть ветку
Dmitry LS

Нет, до этого вы писали совсем о другом.
А сейчас добавили новые высказывания, которые идут в разрез с вашей прежней позицией. После перехода на личности, который вы допустили выше, про то, что вы не видите "работы мысли", я могу сказать, ваш стиль общения - "пафосная болтология".
И я ни о чем тут ни с кем не договариваюсь, если вы влезли в спор, то отвечайте, а не "лепите отмазки" и "договоры о ненападении", я на вас не нападал и даже позволил по началу спокойно выйти из разговора, но вы зачем то прицепились к шуточному ответу.

Ответить
Развернуть ветку
Serge Arsentiev

И да - предлагаю игнорировать комменты друг друга в дальнейшем (в плане ответов), извините, что потратил Ваше время.

Ответить
Развернуть ветку
Serge Arsentiev

Дроны тоже летают по заданным алгоритмам, держатся в воздушном потоке, оснащены оружием - но команду на применение _пока_ даёт человек.

По логике, их тоже должны были бы успешно взламывать, в том числе удаленно (или сбивать, копаться в начинке, и тогда точно взламывать).

Но что-то этого не происходит .. Потом что технологии перешли с уровня "украл и скопировал за полгода", до уровня "украл и понял что у тебя нет такой промышленной базы, и это не воспроизвести".

Ответить
Развернуть ветку
54 комментария
Раскрывать всегда