{"id":14275,"url":"\/distributions\/14275\/click?bit=1&hash=bccbaeb320d3784aa2d1badbee38ca8d11406e8938daaca7e74be177682eb28b","title":"\u041d\u0430 \u0447\u0451\u043c \u0437\u0430\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043f\u0440\u043e\u0444\u0435\u0441\u0441\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u043e\u0434\u0430\u0432\u0446\u044b \u0430\u0432\u0442\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f72066c6-8459-501b-aea6-770cd3ac60a6"}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Сергей Токарев

секунду.

а как вы решаете проблему отсутствия сознания во время сна?

Человеческий мозг находится в состоянии сознания не все время и тем более не непрерывно - следовательно, тезис "Сознание как минимум это непрерывный процесс." требует корректировки

Ответить
Развернуть ветку
Озверевший Фукуяма

Во сне сознание не отключается, отсюда феномен сна. И далее возникает старый добрый вопрос - «Снятся ли андроидам электроовцы?». То бишь способен ли искусственный интеллект видеть сны. Поскольку именно способность видеть сны - то есть проецировать внутреннее содержание сознания в воспринимаемые образы в момент отключения связи с внешним миром - именно это и есть признак непрерывности сознания.
Ключевой вопрос, отсюда и фильм Бегущий по лезвию.

Ответить
Развернуть ветку
Aleksandr Rogozhnikov

Нет никакого сна, есть лишь несколько секунд дремоты в момент просыпания. Когда все нейроны "связались" и воспоминания выстроились в ровную временную линию, то мы сразу "забываем" сон т.к. это были лишь неупорядоченные обрывки памяти.

Ответить
Развернуть ветку
Ренат Ренатович

Ага, наверно поэтому просыпаясь иногда помню до 5-7 разных снов, каждого из которых на полноценный фильм хватит. Хотя знаю людей которые снов почти никогда не видят (или не помнят)

Ответить
Развернуть ветку
Aleksandr Rogozhnikov

Ну, запишите хоть раз свои сны на бумагу и тут же они начнут "сыпаться" в деталях, т.к. вспомните, что это из той книги, а то из этого сериала. В повествовании снов всегда нет линии, лишь обрывки искаженной информации и несвязанных событий.

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Rnatery

Офк они сыплятся, но это не значит, что сновидений нет длинных. Это то же самое как ты сначала думаешь об одном, потом от другом во время бодстрования, резкие переходы не замечаешь потому во время сновидений подавляется критическое мышление

Ответить
Развернуть ветку
Rnatery

Чушь не мели, во время осознанного сна общались с человеком. И посмотри как например кошки ногами дёргают во сне , им снится погоня.
В смысле забываем? А если не забываем полностью?

Ответить
Развернуть ветку
Семён Горбунков

А вы вообще анатомию сна знаете или придумывает параллельную? Не пишите подобную глупость.

Ответить
Развернуть ветку
Toxic Person
Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда