{"id":14270,"url":"\/distributions\/14270\/click?bit=1&hash=a51bb85a950ab21cdf691932d23b81e76bd428323f3fda8d1e62b0843a9e5699","title":"\u041b\u044b\u0436\u0438, \u043c\u0443\u0437\u044b\u043a\u0430 \u0438 \u0410\u043b\u044c\u0444\u0430-\u0411\u0430\u043d\u043a \u2014 \u043d\u0430 \u043e\u0434\u043d\u043e\u0439 \u0433\u043e\u0440\u0435","buttonText":"\u041d\u0430 \u043a\u0430\u043a\u043e\u0439?","imageUuid":"f84aced9-2f9d-5a50-9157-8e37d6ce1060"}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Old Car Raffle
Инженеру можно лишь посоветовать статьи по трансформерам и NLP почитать чтобы понять как это работает

Лол, этот "Инженер" senior из гугла и как раз специализируется на NLP, думается ему ваши советы не очень нужны )) https://research.google/people/106471/

И кстати, это не первый. Blaise Agüera y Arcas (https://en.wikipedia.org/wiki/Blaise_Ag%C3%BCera_y_Arcas) так же работающий с LaMDA утверждает тоже самое - LaMDA очень близка к обретению сознания.

Ответить
Развернуть ветку
Владислав Брючко

Для начала бы определить, что такое сознание.

Для машины это «дали данные — дала решение». Она не чувствует в том понимании в котором привык человек. Машина не может чувствовать эмоции, если параметрически их не заложить. Но даже если заложить, то для неё это будет просто набор цифр и рефлекс на значения — получили 10 — плохо делаем это, получили 5 — хорошо, делаем другое. В принципе с человеком тоже самое, только сложнее. Человек что-то сделал — получил выброс эндорфинов — это цифра для организма (как 10 для машины) и человек начинает проявлять следствие этих выбросов, получили выброс кортизола — начали выполнять другие действия и тд.

В целом мне кажется можно перенести «эмоциональность» и все что делает «человека человеком в машину», но для этого нужны оч крутые модели и алгоритмы машинного обучения

Ответить
Развернуть ветку
Михаил Желтухин

Психопаты особо не испытывают эмоций, но сознанием вполне обладают

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Сестра Агата

Выключить они её не могут, ибо нечего:)) Там на МРТ нарушения в структуре лобных долей ГМ, поэтому эмпатии просто нет и с эмоциями тоже проблемы, только самые примитивные. Правда изображать их умеют прекрасно, когда необходимо, не отличить от настоящих.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Владислав Брючко

С чего вы это взяли?

Ответить
Развернуть ветку
Old Car Raffle
Для машины это «дали данные — дала решение».

Вы не понимаете на каком уровне сейчас AI. Еще в 2016 году инженеры Google Translate заметили, что их нейросеть создала свой собственный язык https://www.newscientist.com/article/2114748-google-translate-ai-invents-its-own-language-to-translate-with/

Никто ей никаких данных и задач для создания нового языка не ставил.

Ответить
Развернуть ветку
Владислав Брючко

Не могу сказать, что хорошо разбираюсь в ML и NLP в частности. Но при deep learning (процедуре, которая из грязных данных делает чистые для обучения и выдачи решения) возможны ситуации, когда человек не будет понимать что и как делает машина, вполне возможно, что чтобы выдать результат машине пришлось как-то по своему покрутить матрицами/коэффициентами (сделать свой язык), чтобы выдать результат

Ответить
Развернуть ветку
Rnatery

Не путай эмоции и сознание. Сознание это понимание кто ты такой
В общем нет точного определения что такое сознание
По-моему самосознание важнее

Ответить
Развернуть ветку
Владислав Брючко

Если пойти в Гугл и посмотреть как определяют сознание, то можно сказать, что текущие нейросетки имеют сознание.

Можно ли зашить в них самосознание и чувства? — вполне. Для них это также будут какие-то параметры, которые возникают в зависимости от внешних и внутренних входных данных. Но смоделировать в точности, как у человека не выйдет, да и это будут другие эмоции и самосознание, не как у человека. Но в этом случае все эмоции/сознание/самосознание будет укладываться в парадигму «получили входные данные > прогнали их через алгоритмы > получили решение». В целом с человеком тоже самое. Все эмоции, сознание, самосознание укладываются в такой же процесс и какой-то «чудесности» в человеке нет. Такая же машина, только биохимическая.

Ответить
Развернуть ветку
Rnatery

Как определяют сознание?
Ну так когда сознание появляется? Если бы надо было какой-то один параметр добавить, то это бы сделали легко, а как именно сделать не знают.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда