{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Denis Bystruev

Точно так же можно описать процессы, происходящие в мозгу человека. У каждого нейрона на входе несколько дендритов, на выходе — аксон. Мы точно знаем, что один нейрон сознанием не обладает, а мозг из 86 млрд нейронов его имеет. Когда именно появляется сознание, мы так и не установили.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Николай Замотаев

Ну вообще-то функционал частей - грубо знаем. И не все части мозга "одинаково полезны" с точки зрения выживания.

Ответить
Развернуть ветку
Сестра Агата

Не всё так просто. Современные исследования по нейропластичности доказывают, что мозг легко может перестраивать нейронные связи и заменять целые отделы, пострадавшие в результате каких-либо причин, переносить функции в другие области мозга Например, если пострадала слуховая зона, ее функцию начинает на себя брать зрительная, в дополнение к своей. Этим и объясняются случаи, когда у человека нет половины мозга, а он живёт себе припеваючи.

Ответить
Развернуть ветку
Николай Замотаев

Не совсем - есть зоны, потеря которых приведёт к быстрой смерти, нейропластичность просто не успеет отработать (ствол мозга, как пример, там много регуляторных частей, без которых человек довольно быстро умрёт)

Ответить
Развернуть ветку
Сестра Агата

Само собой, эти ситуации мы не рассматриваем)

Ответить
Развернуть ветку
Rnatery

Если кору мозга одного полушария прострелить, то это не смертельно?

Ответить
Развернуть ветку
John Doe

1. Смерть - это смерть. Состояние овоща - не смерть.
2. Если прострелите по касательной - без того, чтобы затронуть глубоколежащие центры, то по стандартам "сферического коня в вакууме" жить будет, но вероятны серьезные "спецэффекты". Но "спецэффекты" - это формально не смерть.

Ответить
Развернуть ветку
Rnatery

Так если люди без одного полушария живут, то почему тут нельзя жить?
Какие центры? Ну если прострелить насквозь это большое полушарие

Ответить
Развернуть ветку
From Syberia

Ну и без одного легкого живут, но если одно из них прострелить, есть неиллюзорный шанс подавиться мацой - в случае с мозгом это будет кровопотеря, контаминация инфекцией и воспалительная реакция на повреждение, что включает в себя, как известно, отек, а отек мозга очень плохая вещь

Ответить
Развернуть ветку
John Doe
Ну и без одного легкого живут, но если одно из них прострелить, есть неиллюзорный шанс подавиться мацой

Вы же про "утопление", да? С легким более вероятно, чем кровопотеря, если только в специальные места не попасть.

отек мозга очень плохая вещь

Отек снимается в большинстве случаев. Если только это не Путинская (и не Зеленско-Порошенковская) районная больничка, где в загашнике только аспирин и умело сочувствующий психолог.

Ответить
Развернуть ветку
John Doe

Вам ехать или шашечки? Если шашечки, то почитайте хотя бы Вики (желательно англоязычную).

Ответить
Развернуть ветку
Николай Замотаев

случаи разные бывают:
https://en.m.wikipedia.org/wiki/Phineas_Gage это из самых известных.
Но так чтобы с гарантией - никто вам её не даст.

Ответить
Развернуть ветку
Николай Замотаев

Прострелить - это... скажем так - не точечное воздействие. Мозг по сути хрупкая жидкость, а тут будет и ударная волна и много чего.
Пробить острым предметом или вырезать кусок - будет намного более выживаемо.

Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда