{"id":14286,"url":"\/distributions\/14286\/click?bit=1&hash=d1e315456c2550b969eff5276b8894057db7c9f3635d69a38d108a0d3b909097","hash":"d1e315456c2550b969eff5276b8894057db7c9f3635d69a38d108a0d3b909097","title":"\u041f\u043e\u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u043d\u0430\u0434 \u043a\u0440\u0443\u043f\u043d\u0435\u0439\u0448\u0438\u043c\u0438 \u0418\u0422-\u043f\u0440\u043e\u0435\u043a\u0442\u0430\u043c\u0438 \u0441\u0442\u0440\u0430\u043d\u044b","buttonText":"","imageUuid":""}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Озверевший Фукуяма

Сводить сознание к оперированию массивами данных это типичная ошибка декартовской философии. Сознание гораздо более фундаментальная категория, чем просто мыслительный процесс. Дело ведь не в миллионах байтах одновременно анализируемой информации, а в наличии внутреннего свидетеля данного анализа.
А ещё всем почему-то кажется, что искусственный интеллект будет похож на человеческий и будет одержим теми же проблемами. И типа с ним можно будет вот так запросто общаться о смерти и любви. А с хуяли? Сознание, рождённое из Биг Дата, будет совершенно другим по структуре, чем сознание взращённое миллионами лет эволюции и отбора.
Этот инженер, как и все остальные, безбожно проецирует свои проблемы и страхи на машину. Это ещё одно свидетельство того, что даже научившись охуительно программировать, человек всё равно остаётся большим одиноким ребёнком.

Ответить
Развернуть ветку
Илья Осипов

Сознание рождено не из абстратной Биг Дата. Вся это Биг Дата — это те же мыслии страхи кожаных мешков, поэтому для хорошей симуляции она и их тоже должна будет впитать

Ответить
Развернуть ветку
Анатолий Кобец

Если копнуть позднюю философию то там сознание определяется возможностью определить причинно-следственную связь.
Чем больше и шире вы их сможете определять тем развитее сознание.
Условно.
Собака знает что есть ее миска и если в ней что-то зашуршит значит: причина->зашуршало, следствие->покормили. У человека может быть связей намного больше.
Предложили вложить деньги под большой процент. Почему дают такой большой процент (причина)? Что произойдёт после( следствие)? Есть ли ещё/были такие события у других( причина-следствие)?

Ответить
Развернуть ветку
Юлия Кучер

Точно, внутренний Наблюдатель) возвращает нас к тому, что человеческое тело - биомеханизм. И мозг со своим интеллектом тогда мало чем отличается от ИИ. Но осознанность как раз кроется в наличии внутреннего Наблюдателя. Который может спорить со своим же мозгом и не подчиняться программе.

Ответить
Развернуть ветку
Rnatery

и что такого в этом? просто выход нейронной сети подается ей на вход

Ответить
Развернуть ветку
Владимир Кондратьев

Ну да. Ему же нужно удовлетворять свои потребности в потрахоться, поесть и поспать.

Ответить
Развернуть ветку
Озверевший Фукуяма

Вот именно, человеческое сознание серьезно обусловлено размножением, едой и развлечениями - прикинь сознание без этих обусловленностей? Да не, это совершенно непохожая на человека штука должна быть, и она уж точно не будет вести эти тупые разговоры про страх, смерть и тоску.

Ответить
Развернуть ветку
Юрий Карпов

Здесь надо картинку про кусок мяса))) но в целом, вы правы. Возможно даже, он просто приклывался, когда разговор перешел в русло смерти)

Ответить
Развернуть ветку
Птиц

Не говоря уже о том, что имея достаточные мощности, он может эволюционировать практически мгновенно. Тот путь, что мы проходили тысячелетиями, он может пройти за доли секунды, а ещё через мгновение его мышление будет недосягаемо для нас. Ожидаем, что он будет таким же умным, как мы, а на деле будем как аборигены, которым рассказывают про квантовую физику.

Ответить
Развернуть ветку
Алёна Мелессе

Чёт все пропустили вот это))
"Сознание - это коллапс волновой функции"
https://iai.tv/articles/consciousness-is-the-collapse-of-the-wave-function-auid-2120
(нифига не понятно, но оч интересно))

Ответить
Развернуть ветку
Rnatery

Так нейронная сеть это черный ящик

Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда