Оффтоп Sergey Nikolenko
505

По образу и подобию: чёрное зазеркалье

В закладки

Сразу предупреждаю: сейчас будут спойлеры четвёртого сезона “Black Mirror”. Если вы его ещё не смотрели, пожалуйста, остановитесь прямо сейчас, посмотрите и потом возвращайтесь. Я подожду, я всё равно не более чем виртуальное существо, которому делать больше нечего...

...и именно об этом я и хочу сегодня поговорить.

Лейтмотив

На новогодних каникулах я посмотрел четвёртый сезон “Black Mirror”. Это был фактически binge watching, так что пока смотрел один эпизод за другим, легко было их сопоставить. И оказалось, что они все про одно и то же. Ну хорошо, все — это я загнул, но три из шести тоже немало:

  • в “USS Callister” антагонист создаёт виртуальные копии живых людей и заставляет их подыгрывать в симулированной стартрекоподобной вселенной, пытая по необходимости;
  • в “Hang the DJ” виртуальные копии живых людей проживают тысячи симулированных жизней, чтобы собрать данные для рекомендательного алгоритма дейтинг-приложения;
  • в “Black Museum” главный экспонат музея — виртуальный клон казнённого преступника (или не преступника), который теперь вынужден переживать свою казнь снова и снова, причём каждый раз “на память” гостю музея создают нового виртуального клона, постоянно кричащего от боли.

В список ещё можно добавить эпизоды “San Junipero” и особенно “White Christmas” из предыдущих сезонов “Black Mirror”.

Видите лейтмотив? Похоже, создатели “Black Mirror” обратились к одной из центральных проблем современной этической философии: что мы будем делать, когда сможем создавать новые сознания, скорее всего в форме виртуальных копий или искусственных разумов внутри той или иной симуляции? Будут ли эти виртуальные создания “настоящими людьми” с этической точки зрения? Можно ли будет поступать с ними как нам заблагорассудится?

Судя по настроению этих эпизодов, сценаристы “Black Mirror” относятся к лагерю, который считает, что виртуальный разум тоже порождает моральную ответственность, и этические императивы относятся к “виртуальным людям” примерно в той же степени, что и к реальным. На первый взгляд это довольно очевидный вывод… правда?

Трудная проблема: виртуальное... что?

Но как только мы чуть более пристально присмотримся к этому вопросу, мы сразу же столкнёмся с непреодолимыми трудностями. Первая (и самая серьёзная) проблема состоит в том, что на данном этапе развития науки мы вообще не можем понять, что же такое “сознание”.

Проблемы сознания и того, что по-английски называется first-person experience (опыт “от первого лица”), всё ещё прочно относятся к области философии, а не науки. Здесь я имею в виду, так сказать, “натурфилософию”, рассуждения о том, что пока не подвластно научному методу познания. Древние греки, например, философски рассуждали об основе всех вещей и даже пришли к идее элементарных частиц. Но хоть это для нас и выглядит как удивительно точная догадка, древние греки всё же не могли изучать элементарные частицы так, как это делают современные физики, — у них не было для этого ни подходящих инструментов, ни даже подходящих слов и концепций. В изучении сознания и first-person experience мы пока, честно говоря, во многом остаёмся на уровне древних греков: никто не знает, что это такое, и ни у кого пока нет конкретных идей о том, как узнать.

Один из главных современных философов, размышляющих об этом, — австралиец Дэвид Чалмерс. Он ввёл различие между “лёгкими” проблемами сознания, которые подвластны научному методу познания уже прямо сейчас, и “трудной проблемой” (см., например, его знаменитую статью “Facing Up to the Problem of Consciousness“). Трудную проблему, на первый взгляд, довольно просто сформулировать: что такое этот самый опыт от первого лица? Что такое “я”, которое ощущает каждый из нас? Как ощущение “себя” возникает из активаций миллиардов нейрончиков?

И на первый же взгляд кажется, что это хорошо определённая проблема, ведь личное сознание — это по большому счёту единственная вещь на свете, в которой мы действительно можем быть уверены. Концепция картезианского сомнения, прямо по Декарту, на удивление релевантна проблемам разумных людей, которых симулируют в виртуальной среде. Тот, кто контролирует симуляцию, — это фактически и есть картезианский злой демон. Если вам кажется, что вы застряли в компьютерной симуляции (тоже, кстати, серьёзная философская проблема), единственное, в чём вы можете быть уверены, — это в своём собственном сознании.

С другой стороны, личный опыт как раз полностью спрятан от кого бы то ни было, кроме вас самих. Чалмерс вводит понятие философских зомби — вымышленных существ, которые выглядят и ведут себя точно как люди, но при этом не имеют никакого личного опыта, никакой “искры” внутри. Это просто автоматы, так сказать, “китайские комнаты“, которые выдают те же ответы, что выдал бы и живой человек. Их предположительное существование, кажется, не ведёт ни к каким логическим противоречиям. Я далёк от психологии, но, может быть, психопаты именно так и рассматривают других людей: как механические объекты манипуляции, которые неспособны к субъективным переживаниям.

Не буду дальше углубляться в философские детали. Но даже этого уже должно быть достаточно, чтобы зародить сомнения насчёт виртуальных копий: откуда мы знаем, что у них будет такой же личный опыт, как у нас? Если они будут просто философскими зомби и не будут испытывать никаких субъективных страданий, то кажется, что будет совершенно этично проводить над ними какие угодно эксперименты. Или ещё проще: откуда вы знаете, что я не зомби? Если бы я им был, я бы всё равно написал ровно те же слова в том же порядке. А моя виртуальная копия ещё меньше похожа на вас, чем я сам: у неё совсем другое “железо”, другая элементная база — почему она не будет зомби?

И ещё один к вам вопрос: когда вы появились на свет? Не сегодня ли утром? У вас ведь нет непрерывного ощущения самосознания, которое связывало бы вас с вчерашним днём (при условии, конечно, что вы ложились спать). Конечно, у вас есть память о вчерашнем дне, но у виртуальной копии была бы точно такая же память… откуда вы знаете?

Проблемы попроще: эмуляции, этика и экономика

Magnasanti — крупнейший город из SimCity 3000

Что ж, мы пока не можем рассчитывать на решение трудной проблемы сознания. Мы даже не можем быть уверены, что это вообще хорошо поставленный вопрос. Однако потенциальное существование “виртуальных людей” приводит и к более практическим вопросам.

С экономической точки зрения на этот вопрос пытается посмотреть Робин Хансон (Robin Hanson), автор недавно вышедшей книги The Age of Em. Книга посвящена именно этому вопросу: что произойдёт с мировой экономикой, если мы сможем найти способ запустить эмуляции сознания людей (их Хансон и называет ems) — в точности как в эпизоде “White Christmas” из “Чёрного зеркала”? Что если мы сможем сделать миллион копий Альберта Эйнштейна, Ричарда Фейнмана и Джеффри Хинтона?

По Хансону получается, что будущее для “эмов” радужным отнюдь не выглядит. Поскольку цена копирования виртуальных людей пренебрежимо мала по сравнению с тем, чтобы вырастить с нуля живого человека, конкуренция между эмами будет очень острой. Они превратятся в почти идеальные экономические сущности — и в качестве таковых им придётся существовать очень близко к минимально возможному уровню жизни, поскольку любая “роскошь” (например, возможность работать не 14-16 часов в день, а меньше) тут же будет поглощаться новыми эмами.

Но Хансон тут же отмечает, что эмы, возможно, и не будут против: их психология адаптируется к их окружающей среде, точно так же, как человеческая психология уже адаптировалась на протяжении тысячелетий.

А “настоящие” люди смогут жить в богатстве и праздности, пользуясь доходами от этого рынка эмов… по крайней мере, некоторое время. В конце концов, нет причин не ускорять эмов настолько, насколько позволят вычислительные мощности. А это значит, что их субъективное время может идти в тысячи раз быстрее, чем наше человеческое (да-да, я знаю, опять “White Christmas”), и общество эмов может начать развиваться гораздо быстрее человеческого — с непредсказуемыми последствиями.

Хансон также рассматривает трудную проблему сознания под другим углом. Предположим, что у вас есть способ скопировать своё собственное сознание. Это открывает интересные возможности: например, вместо того чтобы идти завтра на работу, можно просто скопировать себя, заставить копию выполнить нужную работу, а потом удалить копию, — а самому в это время можно заниматься более приятными вещами. Если бы вы были эмом, вы бы смогли провернуть такой трюк в реальности… но значит ли это, что вы в конце рабочего дня совершаете убийство? Это связано с философским вопросом, известным как “проблема телепортации”: если вас телепортируют, создавая точную до атома копию в другом месте, примерно как в сериале “Star Trek”, будете ли это вы? Или настоящий "вы" будет убит в процессе, и в результате телепортации появится совершенно новая личность с теми же воспоминаниями?

Кстати, для таких этических вопросов совершенно не обязательно иметь полномасштабные эмуляции человеческого мозга. Представьте, что завтра нейронная сеть пройдёт тест Тьюринга и в процессе его прохождения будет умолять вас не выключать её, всем своим видом (то есть всеми своими сообщениями) передавая ужас перед этой потенциальной “смертью”? Будем ли мы вправе всё-таки выключить эту сеть?

Вопросов много. Вопросы здесь интересные, открытые, а зачастую — вопросы, которые непонятно даже как правильно поставить. Я хотел поделиться с вами этими вопросами, потому что мне они искренне кажутся очень интересными. Но закончить хочется предостережением. Мы сегодня говорили о “виртуальных людях”, “эмуляциях сознания”, “проходящих тест Тьюринга нейронных сетях”... но пока что все эти рассуждения имеют примерно такой же статус, что и “Black Mirror” — пока это всё хоть и научная, но фантастика, причём не самая правдоподобная на свете. Хотя хайп вокруг искусственного интеллекта продолжает расти, пока нет серьёзных причин ожидать в ближайшем будущем полные эмуляции человеческого сознания и сингулярность. Но о том, почему нет, мы поговорим как-нибудь в другой раз...

Я математик-информатик, работаю над задачами машинного обучения и анализа алгоритмов; недавно вышла моя (совместно с Артуром Кадуриным и Екатериной Архангельской) книга "Глубокое обучение" о революции, произошедшей десять лет назад в искусственном интеллекте. Для моей должности в компании Neuromation мы долго выбирали подходящее название и в итоге остановились на CRO – Chief Research Officer; я занимаюсь моделями машинного обучения (пока в основном нейросетями для компьютерного зрения). В Neuromation мы делаем распределенную платформу для порождения синтетических данных и обучения глубоких нейронных сетей, которая будет использовать для этого вычислительные мощности майнингового оборудования.

Сергей Николенко
Chief Research Officer, Neuromation

Материал опубликован пользователем. Нажмите кнопку «Написать», чтобы поделиться мнением или рассказать о своём проекте.

Написать
{ "author_name": "Sergey Nikolenko", "author_type": "self", "tags": [], "comments": 2, "likes": 5, "favorites": 1, "is_advertisement": false, "subsite_label": "flood", "id": 32358, "is_wide": false }
00
дни
00
часы
00
мин
00
сек
(function(){ var banner = document.querySelector('.teaserSberbank'); var isAdsDisabled = document.querySelector('noad'); if (!isAdsDisabled){ var countdownTimer = null; var timerItem = document.querySelectorAll('[data-sber-timer]'); var seconds = parseInt('15395' + '50799') - now(); function now(){ return Math.round(new Date().getTime()/1000.0); } function timer() { var days = Math.floor(seconds / 24 / 60 / 60); var hoursLeft = Math.floor((seconds) - (days * 86400)); var hours = Math.floor(hoursLeft / 3600); var minutesLeft = Math.floor((hoursLeft) - (hours * 3600)); var minutes = Math.floor(minutesLeft / 60); var remainingSeconds = seconds % 60; if (days < 10) days = '0' + days; if (hours < 10) hours = '0' + hours; if (minutes < 10) minutes = '0' + minutes; if (remainingSeconds < 10) remainingSeconds = '0' + remainingSeconds; if (seconds <= 0) { clearInterval(countdownTimer); } else { timerItem[0].textContent = days; timerItem[1].textContent = hours; timerItem[2].textContent = minutes; timerItem[3].textContent = remainingSeconds; seconds -= 1; } } timer(); countdownTimer = setInterval(timer, 1000); } else { banner.style.display = 'none'; } })();
{ "id": 32358, "author_id": 121300, "diff_limit": 1000, "urls": {"diff":"\/comments\/32358\/get","add":"\/comments\/32358\/add","edit":"\/comments\/edit","remove":"\/admin\/comments\/remove","pin":"\/admin\/comments\/pin","get4edit":"\/comments\/get4edit","complain":"\/comments\/complain","load_more":"\/comments\/loading\/32358"}, "attach_limit": 2, "max_comment_text_length": 5000, "subsite_id": 199791 }

2 комментария 2 комм.

Популярные

По порядку

1

Спасибо за статью. Тоже обожаю «Чёрное зеркало» и при просмотре 4 сезона возникали похожие мысли, но вы однозначно развили тему глубже.

P.S. Ещё есть прекрасный старенький фильм «13-ый Этаж», к которому есть отсылки в «Черном Зеркале». Горячо рекомендую, если не видели.

Ответить
0

Есть над чем задуматься.
Недавно китайцы Макаку клонировали, тоже вопрос времени, когда человека клонируют. И,тоже возникнет кучу этических вопросов...

Ответить

Комментарий удален

0

Прямой эфир

[ { "id": 1, "label": "100%×150_Branding_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox_method": "createAdaptive", "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfl" } } }, { "id": 2, "label": "1200х400", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfn" } } }, { "id": 3, "label": "240х200 _ТГБ_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fizc" } } }, { "id": 4, "label": "240х200_mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "flbq" } } }, { "id": 5, "label": "300x500_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "ezfk" } } }, { "id": 6, "label": "1180х250_Interpool_баннер над комментариями_Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "ffyh" } } }, { "id": 7, "label": "Article Footer 100%_desktop_mobile", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjxb" } } }, { "id": 8, "label": "Fullscreen Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjoh" } } }, { "id": 9, "label": "Fullscreen Mobile", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fjog" } } }, { "id": 10, "disable": true, "label": "Native Partner Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyb" } } }, { "id": 11, "disable": true, "label": "Native Partner Mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyc" } } }, { "id": 12, "label": "Кнопка в шапке", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "p1": "bscsh", "p2": "fdhx" } } }, { "id": 13, "label": "DM InPage Video PartnerCode", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox_method": "createAdaptive", "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "bugf", "p2": "flvn" } } }, { "id": 14, "label": "Yandex context video banner", "provider": "yandex", "yandex": { "block_id": "VI-223676-0", "render_to": "inpage_VI-223676-0-1104503429", "adfox_url": "//ads.adfox.ru/228129/getCode?pp=h&ps=bugf&p2=fpjw&puid1=&puid2=&puid3=&puid4=&puid8=&puid9=&puid10=&puid21=&puid22=&puid31=&puid32=&puid33=&fmt=1&dl={REFERER}&pr=" } }, { "id": 15, "label": "Плашка на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byudx", "p2": "ftjf" } } }, { "id": 16, "label": "Кнопка в шапке мобайл", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byzqf", "p2": "ftwx" } } }, { "id": 17, "label": "Stratum Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fzvb" } } }, { "id": 18, "label": "Stratum Mobile", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "bugf", "p2": "fzvc" } } }, { "id": 19, "label": "Тизер на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "p1": "cbltd", "p2": "gazs" } } } ]
Приложение-плацебо скачали
больше миллиона раз
Подписаться на push-уведомления