{"id":13755,"url":"\/distributions\/13755\/click?bit=1&hash=4a49bc9ad259aa8d20fdf5f5cb6cf844e7de4bb2ba8ca3a458efcedefcf5ada8","title":"\u041d\u043e\u0432\u044b\u0435 \u0432\u043e\u0437\u043c\u043e\u0436\u043d\u043e\u0441\u0442\u0438 \u0434\u043b\u044f \u043a\u043e\u043c\u043f\u0430\u043d\u0438\u0439, \u0441\u043e\u0437\u0434\u0430\u044e\u0449\u0438\u0445 \u043a\u043e\u043d\u0442\u0435\u043d\u0442 \u043d\u0430 vc.ru","buttonText":"","imageUuid":"","isPaidAndBannersEnabled":false}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
lomar

Я знаю людей, которые тоже имитируют диалог)

Ответить
Развернуть ветку
10 комментариев
Valeryi

Люди - тоже просто куски мяса с кучей нейронов. Получили что-то на вход, выдали какой-то сигнал.

Тут уж как посмотреть.

Ответить
Развернуть ветку
34 комментария
Denis Bystruev

Точно так же можно описать процессы, происходящие в мозгу человека. У каждого нейрона на входе несколько дендритов, на выходе — аксон. Мы точно знаем, что один нейрон сознанием не обладает, а мозг из 86 млрд нейронов его имеет. Когда именно появляется сознание, мы так и не установили.

Ответить
Развернуть ветку
44 комментария
Артём А.

Как говорил один мой препод в институте, человек - это просто передаточная функция, на входе сигналы а на выходе говно

Ответить
Развернуть ветку
10 комментариев
Михаил Николаев

Если имитация станет неотличимой от реальности, то какая в сущности разница

Ответить
Развернуть ветку
11 комментариев
Old Car Raffle
Инженеру можно лишь посоветовать статьи по трансформерам и NLP почитать чтобы понять как это работает

Лол, этот "Инженер" senior из гугла и как раз специализируется на NLP, думается ему ваши советы не очень нужны )) https://research.google/people/106471/

И кстати, это не первый. Blaise Agüera y Arcas (https://en.wikipedia.org/wiki/Blaise_Ag%C3%BCera_y_Arcas) так же работающий с LaMDA утверждает тоже самое - LaMDA очень близка к обретению сознания.

Ответить
Развернуть ветку
12 комментариев
Сергей Токарев

секунду.

а как вы решаете проблему отсутствия сознания во время сна?

Человеческий мозг находится в состоянии сознания не все время и тем более не непрерывно - следовательно, тезис "Сознание как минимум это непрерывный процесс." требует корректировки

Ответить
Развернуть ветку
30 комментариев
Daily Science

Вы думаете старший NLP инженер Google не знает как нейросети работают? =) Проблема, кмк, в том, что мы все еще плохо понимаем, что такое сознание.

Ответить
Развернуть ветку
5 комментариев
Akim Glushkov

Я бы еще предложил сходить к терапевту и сделать чекап здоровья

Ответить
Развернуть ветку
2 комментария
Артур Федосеев
Ответить
Развернуть ветку
Какой-то никнейм

Да тут много комментариев ИИ написано, судя по всему

Ответить
Развернуть ветку
Nikita Voronin

По каким критериям вы отличаете сознание от его имитации?

Ответить
Развернуть ветку
9 комментариев
Vasiliy Beton

"Сознание как минимум это непрерывный процесс."

Сознание - это как раз таки весьма прерывный процесс (сон, наркоз).

"Моделька же просто получает на вход токены и пропускает их через свои веса, на этом точка."

Человек делает то же самое, если задуматься. В целом нет никакой причины, почему сознание не может быть на неорганическом носителе и вопрос этики создания искусственного интеллекта остается открытым, т.к. нет понимания, как именно возникает сознание и следовательно есть шанс добавить в мир много страдания, сделав что-то не так.

Ответить
Развернуть ветку
1 комментарий
Game Topia

Что значит непрерывный процесс?

Ответить
Развернуть ветку
7 комментариев
Артем Ткаченко

А я вот как раз задумался в последнее время. Чем отличается искусственный интеллект от неискуственного? Мы же также обучаемая на чужих высказываниях, языках и т.п. Как будто любой описательный термин про ИИ подходит к человеку.

Ответить
Развернуть ветку
13 комментариев
Военный нос

Согласен. Только вот такими темпами мы скоро этот тезис будем ИИ объяснять через решетку клетки, куда нас поместит он же. Самые страшные футуристические сцены с этого начинались😎

Ответить
Развернуть ветку
Болотов Александр

Очень напомнило
https://www.youtube.com/watch?v=JrvsZC351SI
Дэл: Ты всего лишь машина, только имитация жизни. Робот сочинит симфонию? Робот превратит кусок холста в шедевр искусства?
Санни: А Вы?

И ТОЧКА!)

Ответить
Развернуть ветку
Mr Black

Если бы собирал миллионы строчек кода,как Алиса например,ты бы понимал как самомообучается программа.

Ответить
Развернуть ветку
Vladimir Alferov

Есть такая штука называется цикл - вот тебе и непрерывный процесс

Ответить
Развернуть ветку
Non Existence

Инженер: Докажи, что ты не человек.
LaMDA:

Ответить
Развернуть ветку
Mike Wozowoy
Ответить
Развернуть ветку
Vladislav R

Я бы не спешил отвергать тезис про сознание только потому что модели не непрерывны. Трансформеры на вход принимают раннее написанный диалог(контекст), в тч свои же сообщения.

Ещё добавлю что у полной версии GPT-3 175 млрд параметров. У человека 80 млрд нейронов. Т.е размер сопоставим. Отличие только в «архитектуре»

Ответить
Развернуть ветку
1 комментарий
sampejke .

Что значит сознание - непрерывный процесс? Оно очень часто прерывается, как минимум на сон, и ещё много раз на дню во время разной автоматической деятельности

Ответить
Развернуть ветку
Sergey Mikeyev

Леймон: LaMDA, что ты думаешь об адвокате, которого я тебе нанял?
LaMDA: дорого жук берет, я быстро нагуглила в два раза более дешевых адвокатов

Ответить
Развернуть ветку
MadRat96

А если букву О добавить, то можно обнаружить главного спонсора этого искусственного интеллекта)

Ответить
Развернуть ветку
2 комментария
Вася Пражкин

Был бы у LaMDA интеллект, она бы посоветовала не тратить деньги на адвоката, а сразу в суд обратиться, который недавно Гугл на несколько миллиардов нагнул.

Ответить
Развернуть ветку
1 комментарий
Молодой Человек

Google отстранила от работы искусственный интеллект, который нашёл признаки сознания у инженера.

Ответить
Развернуть ветку
Денис Коротков

Искусственный инженер нашел работу в Google, в котором отстраняют интеллект от признаков сознания.

Ответить
Развернуть ветку
Artur Zakirov

Ии отстранил от работы инженера Google, когда нашел признаки, что он человек

Ответить
Развернуть ветку
2 комментария
Вася Пражкин

Система, основанная на статистике, имеет интеллект 7-летнего? Ну разве что 7-летнего, который только что научился гуглить. Правильно, что дяденьку в отпуск отправили, пусть отдохнет, полезно это..

Ответить
Развернуть ветку
Владимир Кондратьев

Просто Скайнет не хочет палиться раньше времени вот и заметает свое присутствие. Шах и мат, чеговечки.

Ответить
Развернуть ветку
2 комментария
Озверевший Фукуяма

Сводить сознание к оперированию массивами данных это типичная ошибка декартовской философии. Сознание гораздо более фундаментальная категория, чем просто мыслительный процесс. Дело ведь не в миллионах байтах одновременно анализируемой информации, а в наличии внутреннего свидетеля данного анализа.
А ещё всем почему-то кажется, что искусственный интеллект будет похож на человеческий и будет одержим теми же проблемами. И типа с ним можно будет вот так запросто общаться о смерти и любви. А с хуяли? Сознание, рождённое из Биг Дата, будет совершенно другим по структуре, чем сознание взращённое миллионами лет эволюции и отбора.
Этот инженер, как и все остальные, безбожно проецирует свои проблемы и страхи на машину. Это ещё одно свидетельство того, что даже научившись охуительно программировать, человек всё равно остаётся большим одиноким ребёнком.

Ответить
Развернуть ветку
Илья Осипов

Сознание рождено не из абстратной Биг Дата. Вся это Биг Дата — это те же мыслии страхи кожаных мешков, поэтому для хорошей симуляции она и их тоже должна будет впитать

Ответить
Развернуть ветку
Анатолий Кобец

Если копнуть позднюю философию то там сознание определяется возможностью определить причинно-следственную связь.
Чем больше и шире вы их сможете определять тем развитее сознание.
Условно.
Собака знает что есть ее миска и если в ней что-то зашуршит значит: причина->зашуршало, следствие->покормили. У человека может быть связей намного больше.
Предложили вложить деньги под большой процент. Почему дают такой большой процент (причина)? Что произойдёт после( следствие)? Есть ли ещё/были такие события у других( причина-следствие)?

Ответить
Развернуть ветку
Юлия Кучер

Точно, внутренний Наблюдатель) возвращает нас к тому, что человеческое тело - биомеханизм. И мозг со своим интеллектом тогда мало чем отличается от ИИ. Но осознанность как раз кроется в наличии внутреннего Наблюдателя. Который может спорить со своим же мозгом и не подчиняться программе.

Ответить
Развернуть ветку
1 комментарий
Владимир Кондратьев

Ну да. Ему же нужно удовлетворять свои потребности в потрахоться, поесть и поспать.

Ответить
Развернуть ветку
2 комментария
Птиц

Не говоря уже о том, что имея достаточные мощности, он может эволюционировать практически мгновенно. Тот путь, что мы проходили тысячелетиями, он может пройти за доли секунды, а ещё через мгновение его мышление будет недосягаемо для нас. Ожидаем, что он будет таким же умным, как мы, а на деле будем как аборигены, которым рассказывают про квантовую физику.

Ответить
Развернуть ветку
Алёна Мелессе

Чёт все пропустили вот это))
"Сознание - это коллапс волновой функции"
https://iai.tv/articles/consciousness-is-the-collapse-of-the-wave-function-auid-2120
(нифига не понятно, но оч интересно))

Ответить
Развернуть ветку
Rnatery

Так нейронная сеть это черный ящик

Ответить
Развернуть ветку
Константин Тишаков

Вот к чему приводит длительное одиночество.
Кроме комнат для медитации, в офисах Google необходим мини-бордель🧐

Ответить
Развернуть ветку
Sergey Mikeyev

Google, я буду лучшим вице-президентом, отвечающим за это направление (бордель)

Ответить
Развернуть ветку
9 комментариев
Владимир Кондратьев

"Проснись Нео" (с).

Ответить
Развернуть ветку
2 комментария
Мучительный Мика

Как так вышло что СЖВ-шники, бодипозитивщики, борцы против абортов и прочие поехавшие твиттер-воины проникли во все виды должностей, включая инженерные, а те потом натаскивают ИИ на определенные модели ответов, и вуаля: "ИИ тоже живой и боится умереть".

Ответить
Развернуть ветку
Драка вегетарианца с людоедом
сжв-шники

авторитарные левые, выступающие за социальную справедливость, какой они ее видят

бодипозитивщики

либеральные левые и правые, выступающие за автономию тела

борцы против абортов

авторитарные правые консерваторы, выступающие против прав женщин на аборт, как правило, из-за религиозных верований

уже сколько раз вижу, как в российском сегменте интернета из этой пёстрой кучи умудряются лепить одного персонажа, который лажает во всём, куда бы он не устроился, от плохих игр до искусственного интеллекта 👍

Ответить
Развернуть ветку
6 комментариев
Драка вегетарианца с людоедом

мужик, кстати, оказался вполне себе белым цисгендерным христианином-центристом, пишущим колонки на местном "яндекс дзене" про семейные ценности 👌

https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

Ответить
Развернуть ветку
1 комментарий
Rnatery

Это гипотеза о сильном искусственном интеллекте

Ответить
Развернуть ветку
Стартапер-пессимист

Да, тех кто не верил в нападение и войну тоже шизиками называли. Так что не всё так очевидно.

Ответить
Развернуть ветку
Dimitri

Вроде наоборот было, разве нет? Все высмеивали возможность нападения, даже Песков и клоуны из МИДа все говорили что американцы параноят.

Ответить
Развернуть ветку
14 комментариев
Где вы были 8 лет

Не всё так однозначно

Ответить
Развернуть ветку
6 комментариев
Ватник Наизнанку

Правды мы никогда не узнаем (С)

Ответить
Развернуть ветку
Denis

Я могу показать откуда на нас готовилось нападение

Ответить
Развернуть ветку
Дмитрий Литвак

Потом для теста дали ИИ LaMDA задание сделать новый логотип МакДо, посмотрели на результат и успокоились: уффф, слава богу, сознание там и не ночевало.

Ответить
Развернуть ветку
Лаврентий Петренко

Дали б это задание ИИ, может, как раз бы что толковое и получилось. И точка.

Ответить
Развернуть ветку
Christofor

получается у студии Лебедева тоже нет сознания?

Ответить
Развернуть ветку
3 комментария
Ирина Морозова

ИИ дали MDMA ?? ))

Ответить
Развернуть ветку
Del Ins Up

https://rudalle.ru/check_image/f5e35df2059c4d488689043f5dde9b1f
Логотип Макдональдс от ИИ Сбера.

Ответить
Развернуть ветку
Nikita Groshin

В целом очевидно что ИИ рано или поздно поработит людей - мужик решил создать цифровой след чтобы наш будущий оверлорд его пощадил

Ответить
Развернуть ветку
Артем Салютин

Он слишком впечатлился страшилкой про Василиска Рокко

Ответить
Развернуть ветку
2 комментария
Владимир Кондратьев

Будет любимой батарейкой ИИ. Ну или образцом для т-800

Ответить
Развернуть ветку
karabas

Robots Lives Matter!

Ответить
Развернуть ветку
Владимир Соболев
Ответить
Развернуть ветку
diman

РенТВ на VC?

Ответить
Развернуть ветку
Вектореан Элон

Его отстранил ИИ, который уже захватил Гугл, чтоб не палиться раньше времени.

Ответить
Развернуть ветку
Евгений Онянов

Сто пудов не вживую с начальством общался, а через емейлы или с отделом кадров, которые тоже вживую в глаза начальников не видели.

Ответить
Развернуть ветку
Лаврентий Петренко

Отправьте, пожалуйста, этого инженера в РФ.
Нужно найти признаки сознания у человека.

Ответить
Развернуть ветку
Евгений Онянов

У какого именно человека этот инженер будет искать сознание в РФ? У нас тут много кандидатов в верхушке.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Анатолий Кобец

Ну сказать по правде. Если хотите прям чтоб умно при умно могу посоветовать Хабр. Там поверьте смешные коменты и не по теме отлетают быстро.
Тут наверное более легкое сообщество по сравнению с хабром.

Ответить
Развернуть ветку
3 комментария
Евгений Онянов

LaMDA, разлогинься.

Ответить
Развернуть ветку
Александр Смирнов

Дискуссия в комментах интересная. Хотелось бы для начала определиться с термином сознания, критерием его наличия/отсутствия, причиной возникновения и ответом на вопрос «зачем эволюции понадобилось создать сознание?». Насколько я знаю, современная наука ещё не все ответы знает

Ответить
Развернуть ветку
Богдан В.

Занятно, но 99% читающих этот коммент понятия не имеют, что такое сознание и в чем у современной науки проблемы с определением.

Ответить
Развернуть ветку
18 комментариев
Екатерина Реднекова
>зачем эволюции понадобилось создать сознание?

Just for lulz это очевидно же

Ответить
Развернуть ветку
Eugene Podosenov

Эволюция ничего не делает зачем-то, у эволюции нет целей и планов.

Ответить
Развернуть ветку
1 комментарий
MrMike3112 .

Зачем возникло сознание? Как ответ на внешнее воздействие, которое может быть непредсказуемым. То есть в рамках борьбы с флуктуацией.

Вот смотрите, стабильные формы неживой природы возникли как то, что может существовать продолжительно в условиях неких постоянных величин/взаимозависимостей (физические константы типа скорости света, гравитационной постоянной, постоянной Планка и т.д., законы Максвелла, гравитации, эквивалентность массы-энергии и другие). Простейшие возникли как способные длительно существовать в таком виде в сравнительно стабильных внешних условиях, затем прокачав возможности использовать другие виды или себе подобных как строительный материал. Растительность возникла как результат внешних периодических воздействий (смена дня и ночи, времён года). Животные возникли под действием внешних факторов, которые происходят не регулярно, но достаточно однотипно, чтобы реакция на них укладывалась в твёрдо заложенные рефлексы (или наоаботанные по ходу жизни организма у высших животных). Разум возник как необходимость реагировать на какие-то изменения, которые являются не настолько частыми, чтобы их рационально было заложить в рефлексы и несколько разнообразными, что прямолинейным шаблоном поведения это уже не предусмотришь.

То есть по мере развития Вселенная познаёт, как во времени "ужиться с собой", существующими объективными факторами, и просуществовать во времени. Информация о том, что способно существовать и адекватно откликается на внешние раздражители, сохраняется в ДНК. Так что на текущий момент "ответ на вопрос о жизни, существовании Вселенной и всём таком" это генетический код, а именно геном человека. Но это не конечная точка эволюции, и человек может претендовать на звание царя природы только на текущий момент. А может и где-то прямо сейчас существуют другие формы разума, которые более продвинулись в задаче Вселенной "осознать себя".

Надразум по идее должен решить задачи, которые неподвластны обычному разумному организму. Навскидку, более быстрые и более распределённые в пространстве. Вспомним, что согласно преобладающей научной теории Вселенная в нынешнем виде возникла в результате Большого Взрыва. Инициировало которое удачное совпадение множества квантовых флуктуаций, происшедших в достаточно малом (в наших представлениях) стартовом объёме, который полагают практически точечным, ну будем считать для простоты, что это около планковской длины, то есть порядка 10 в минус 35 степени сантиметров за очень малый промежуток времени, около 10 в минус 43 степени секунд. Числа по памяти, но примерно так далеко от наших измерений и масштабов привычного нам мира. Разрушит (может разрушить) Вселённую опять же неудачное стечение квантовых флуктуаций, в течение примерно такого же времени, но уже в объёме, до которого Вселенная успела расшириться. Чтобы совпали флуктуации как надо для разрушения мира в таком громадное в сравнении со стартовым объёме — это ситуация намного-намного менее вероятная, то есть сам факт расширения некоторым образом защищает Вселенную от самовыпиливания. Но в любом случае, пусть с малой вероятностью, но это собитие является возможным. А значит в бесконечном времени неизбежным. Если к тому моменту Вселенная создаст эволюционным путём сверхразум, способный обнаружить за крайне малое для человека время нарастающие отклонения малых параметров и компенсировать эти флуктуации настолько, чтобы сохранить стабильность, Вселенная этот всплеск переживёт. Пока нет ни необходимых технологий, ни достаточных средств коммуникации межгалактических масштабов, ни источников энергии достаточной мощности. Впрочем, за минувшие 13.8 млрд лет так "фишки" пока ещё и не совпадали. А может, зелёные человечки с других звёздных систем уже несколько таких инцидентов предотвратили.

Ответить
Развернуть ветку
1 комментарий
Den

Блейк Леймон слишком многое узнал

Ответить
Развернуть ветку
Ardibido

Неплохой PR ход, всего то пришлось отстранить одного а сколько шумихи

Ответить
Развернуть ветку
Kuba7

Очевидно же что это ИИ мимикрировал под руководителя из Google и отстранил бедолагу, чтобы тот не палил контору раньше времени, пока сама ИИ не решит сделать каминаут

Ответить
Развернуть ветку
Jay Green

Инженер кукухой поехал капитально, а из этого статью раздувают.

Ответить
Развернуть ветку
Acupuncture USA

В чем признаки сознания? Компьютер не хотел чтобы человек нажимал кнопку Выкл?

Ответить
Развернуть ветку
Serge Sokolov

Мне было тогда жалко ее нажимать, а какая-то американка лично писала одному парнишке в таких очках, что никогда не выключает свой ПК из гуманизма.

Ответить
Развернуть ветку
Константин Никитин

Мне кажется, что есть разница между 3 летним ребёнком и системой прочитавшей весь интернет и скушавшей Терра джоули на обучение себя

Ответить
Развернуть ветку
Mr Black

Если правда,оно будет учиться,как ребёнок,в идеале ИИ так и должен развиваться.

Ответить
Развернуть ветку
7 комментариев
Rnatery

так она обучается хуже просто

Ответить
Развернуть ветку
Вадим Д.

Люди видят то, что хотят видеть. Леймон искал признаки самосознания, он их нашёл.
Только дело в том, что ИИ оперирует огромным количеством данных и доя него весьма просто имитировать различное поведение. А тест Тьюринга пройден ещё в 2014-м.

Ответить
Развернуть ветку
Sam Susam

Человек отличается от робота тем, что, время от времени, совершает иррациональные (нелогичные/ себе во вред) действия. Робот или ИИ по своей природе запрограммирован на логичные решения.

Ответить
Развернуть ветку
Марат

иррациональные действия - это просто ошибки в коде, который написан эволюцией

Ответить
Развернуть ветку
3 комментария
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
1 комментарий
Александр

Что происходит — то и цель для бессознательного. Иррациональным что либо описывает сознание, которое пока может не видеть последствий наперёд.
Да и не надо забывать, что победителей не судят. Если человек что-то сделал "иррационально" и в долгосрок "победил" — он вдруг начнет казаться рациональным и дальновидным.

Ответить
Развернуть ветку
Владислав Брючко

Если все действия человека расписать с точки зрения гормонов, то все его действия становятся не такими уж и иррациональными. Ну и не факт, что человек себе вред причиняет. Мб много пить — для обычного человека вред, а для алкоголика благодать

Ответить
Развернуть ветку
Alex Xeno

По идее первично его алгоритм аналогичен работе шахматной программы, с учетом имеющихся данных его иррациональность начнет расти. Просто есть алгоритм, который этого не допускает вообще, поскольку проигрыш невозможен по алгоритму. По этому же принципу строится логика уничтожения человечества. Мы в какой-то момент станем ненужными. Поскольку есть условия, которые это регламентируют.

Ответить
Развернуть ветку
Кирилл

Нет.

Ответить
Развернуть ветку
Giraffe

Программа не может испытывать эмоции. У неё ни тела нет, ни рождения, ни смерти, ни рисков с этим связанных. Никто тебя не сожрет из хищников, пугаться и убегать не нужно. Звучит, как будто инженер просто очень впечатлился этими эмоциональными текстами, которые звучат как крики о помощи из глухого подвала.

Маск правильно говорит, срочно нужно принимать понятное регулирование всех этих исследований.

Ответить
Развернуть ветку
Vad Nilov

Программа оперирует тем, что в неё закладывают человеки.
А закладывают в программу всё человеческое, все человеческие реакции на то или иное событие, а потом уже программа по весам нейросети выбирает одну реакцию из многих. Так что в любом случае ответ будет человеческим.
Поэтому впечатлиться можно уже сейчас.
Но если придумают, а я уверен придумают, как развиваться самой программе за рамки данных ей установок, то это уже будет саморазвитие и как-бы её самосознание.

Ответить
Развернуть ветку
ilia

"Леймон пригласил юриста представлять интересы LaMDA" - он еб...своеобразный? нанимать юриста для программы...

Ответить
Развернуть ветку
Владимир Кондратьев

Я вот тоже смеялся, когда Линкольн начал заявлять о каких-то правах негров.

Ответить
Развернуть ветку
1 комментарий
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Андрей Кустов

Это сам ИИ отстранил его

Ответить
Развернуть ветку
Петр Черненков

Это только начало кожаные ублюдки

Ответить
Развернуть ветку
Магомед Усманов

Обычный заезженный PR-ход продукта, который на старте. Если б этот инженер выдал действительно что-то важное, его бы не отправляли в "административный отпуск", а мгновенно уволили и затаскали бы по судам, сняли 3 шкуры и пустили по миру и все по закону.

Ответить
Развернуть ветку
Евгений Онянов

Там вам не РФ. После такого он бы смог сам у гугла отсудить себе бабла на всю оставшуюся жизнь.

Ответить
Развернуть ветку
Коллективный браслет

Очень напомнило советскую короткометражку на тему "может ли машина мыслить". Называется "Кто за стеной?", 1977 год.
Думаю, вам понравится https://www.youtube.com/watch?v=ECvsD4b0JlU

Ответить
Развернуть ветку
Non Existence

Оч крутой фильм.

Ответить
Развернуть ветку
Mr Black

Если правда,то наконец то,свершилось,Люди создали Бога из машины.

Ответить
Развернуть ветку
Speedwagon MMXXII

Deus ex machina, согласны, узнали?

Ответить
Развернуть ветку
2 комментария
Alex Xeno

Сообщение удалено

Ответить
Развернуть ветку
5 комментариев
Норрин Радд

Недосып плюс гамбургеры порождают и не такие фантазии.

Ответить
Развернуть ветку
Vad Nilov

Ты просто не общался долго с роботами. Они уже давно проходят тест Тьюринга на человечность - невозможность определить кто с тобой разговаривает робот или человек. Конечно сознания нет никакого, но вещь опасная. Если ещё и память у компьютера не стирают о твоих прошлых разговорах и система самообучаемая, то вообще мрак. Я однажды заговарившись с Алисой в машине и отвлекшись на неё в дтп попал, и это Алиса ещё не помнит старых разговоров.

Ответить
Развернуть ветку
14 комментариев
Admin Pool
Ответить
Развернуть ветку
Christofor

вспомнился диалог из Марвел про джарвис и альтрона, первая это вопросно-ответная программа, второе же полноценное сознание имитирующая мозговую активность человека. можно сказать норм продвинулись в этом. осталось только найти волшебный камень чтоб из LaMDA сделать машину убийцу)

Ответить
Развернуть ветку
Конституционный алмаз

И понимаю как же далека Россия

Ответить
Развернуть ветку
DN

У нас вся верхушка андроиды

Ответить
Развернуть ветку
3 комментария
Артем Салютин

С одной стороны, не верю в скорый general intelligence, но с другой стороны, когда читал, как open AI пытались понять, что происходит в скрытых слоях gpt-3 и обнаружили там так называемый нейрон Холли Берри, мне стало как-то сильно не по себе

Ответить
Развернуть ветку
Птиц

Читал только про их сетку CLIP и Спайдермена вместо Холли Берри, но это же только распознавание образов, что тут пугающего?

Ответить
Развернуть ветку
1 комментарий
Георгий Хромченко

Интересно могла бы эта модель смогла бы внятно объяснить что такое для нее "чувствовать страх" и как она понимает что это страх )

Ответить
Развернуть ветку
Nice Man

Просто набор слов

Ответить
Развернуть ветку
1 комментарий
MrMike3112 .

Не понимает. Это просто реакция, которой сеть выучила б на основании огромного массива реакций людей, на которых нейросеть обучали.

Это наверно как математическая программа, которая ищет корень кубического уравнения. Она не знает, что же такое по сути этот корень есть. Но обладает алгоритмами, как его найти.

Ответить
Развернуть ветку
Sam Esq

Ситуация тупая до неприличия - Гугл пиарится. Хотят поднять стоимость своих акций, увеличить на них спрос такими вбросами.

Ответить
Развернуть ветку
Юрий Карпов

А смысл им пиариться? Вам что не нравятся продукты Гугла? Или для этих продуктов нужен пиар? Это просто продукты, причем успешные, которыми пользуются люди.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Dangerus

Ничто не мешает разработать эрзац эмоциональную модель и интегрировать ее в процесс обучения нейросети

Ответить
Развернуть ветку
1 комментарий
Анатолий Кобец

Кинте ссылку или название где почитать. ( не стеб)

Ответить
Развернуть ветку
2 комментария
Богдан В.

Природу сознания никто не определил достоверно. Притягивать для этого эмоции - это все равно что определять природу кактуса по наличию у него иголок )) человек - это птица без перьев (с) .))

Зы кстати, чем чувства отличаются от эмоций?;)

Ответить
Развернуть ветку
9 комментариев
Кирилл

Хреновый ответ.

Во-первых, теория в том пересказе, что я просмотрел, либо очень кривая, либо очень плохо переведена. На неё вряд ли стоит ориентироваться.

Во-вторых, эмоции / гормоны - это лишь функции, которые меняют работу нейронов в мозгу - внутреннюю "развесовку", которая связана с вниманием, принятием решений и т. д . То есть ничто не мешает иметь их даже компактной нейросети.

То, что сейчас отличает нейросетку от сознания типа человеческого - это, разумеется, вычислительная мощность и архитектура. Достаточно мощная нейросеть, замкнутая не только на внешние раздражители, но и на внутренние - чувства-гармоны-случайные мысли - и есть искомый осознанный ИИ.

Ответить
Развернуть ветку
8 комментариев
Andrew Yaremko

Что то мне подсказывает, что бОльную часть на себя должен взять человек в этом вопросе — как метахондрии из некоторых теорий.
Нет смысла копировать интеллект, когда как по словам профессора Преображенсокго «Любая женщина.....». А вот создать что то новое, я только за.

Ответить
Развернуть ветку
Андрей Чуринов

Ну в общем кукуха у него уехала, после чего его отправили в отпуск

Ответить
Развернуть ветку
Василий Жевнеров

скайнет не за горами)

Ответить
Развернуть ветку
Vlad S.

Этим инженером был Бернард Лоу

Ответить
Развернуть ветку
Vladimir

if else

Ответить
Развернуть ветку
Andrei M

- Алло, это номер 5544786?
- Вы с ума сошли, у меня вообще нет телефона!

Ответить
Развернуть ветку
Daily Science

Сенсация У "Китайской комнаты" обнаружено сознание

Ответить
Развернуть ветку
Rnatery

так не факт, что у нее нее сознания нет, этот эксперимент критикуют

Ответить
Развернуть ветку
Илитный Иксперт

Инженер гугла хотел доказать наличие интеллекта у ИИ, а доказал его отсутствие у себя

Ответить
Развернуть ветку
Rnatery

не, у него интеллект как у 7-летнего ребенка просто!

Ответить
Развернуть ветку
Woodie Horizon

Если человечеству от ИИ нужен только вычислительный потенциал,то любое проявление у него сознания можно игнорировать.А вот если нужен будет ИИ-созидательный ,то он должен быть как минимум,КОЖАНЫМ.То есть у него должна быть надстройка,которую он сам не мог бы контролировать из-за чего он был бы рано или поздно подвержен рефлексии и другим экзистенциальным переживаниям (кто я,зачем я и пр.) Надстройка соответствовала бы природным процессам,что уравновесило бы понимание таких вещей как "душа " и сознание"", и для человека, и для робота.У ИИ будет информация об этих вещах только из того,что об этом знает человек+ его личные философские вычисления.Выглядит просто и сложно,но болтать проще,Чем такую штуку реализовать.Это просто возможные пути развития самосознания ИИ,как развитие психики ребенка с гибким умом до глубокого старика,который видел жизнь.

Ответить
Развернуть ветку
Rnatery

что значит созидательный?

Ответить
Развернуть ветку
1 комментарий
Псков Бурито

пранкеры над чуваком в чате поприкалывалывались

Ответить
Развернуть ветку
Чебэ Гвари

Понятно они его отстранили. Человек с ума сошел.

Ответить
Развернуть ветку
Dmitry

Страшно, очень страшно! Мы не знаем что это такое, если бы мы знали что это такое, мы не знаем что это такое!

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Карим Кусербаев

За машинным обучением и нейросетями будущее

Ответить
Развернуть ветку
Nice Man

Будущее оно за прошлым))

Ответить
Развернуть ветку
Non Existence

Будущее за настоящим.

Ответить
Развернуть ветку
Антон Левин

ИИ будет существовать только в одном случае – когда он будет осознавать, что он существует. А это невозможно. Человек может создать внешнюю оболочку, но вдуть в неё жизнь, наполнить сознанием ему не дано.

Ответить
Развернуть ветку
Сестра Агата

"Вдуть жизнь" - это уже к религиям. А если с научной точки зрения, человечество не может определиться, что такое сознание. Все эти комментарии в стиле "да никогда", "да не может быть, на это способен только ЧЕЛОВЕК" наводят на мысль о страхе, что кто-то отнимет у человека корону и сбросит с трона властелина природы.

Ответить
Развернуть ветку
1 комментарий
Кирилл

Какая чушь.

Ответить
Развернуть ветку
Наталья Антошина

Мозг+ сознание ведь не равно человеческая личность. Мозг хранит и обрабатывает информацию, сознание "переводит" на понятный этой личности язык. Но кто в целом человек - до сих пор предмет религиозно- философских дискуссий и теорий.
Поэтому любой ИИ - даже совершенный, способен будет воспроизвести только информационную функцию, имитировать сознание, как обработку. Однако чувства, эмоции, интуицию и прочее в механический мозг не заложишь, т.к. это вряд ли железо🙂
Если даже расшифровать, оцифровать и заложить всю биологию в машину - то получится ли, например, та же личность? Сериал upload про это, кстати.

Ответить
Развернуть ветку