{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
0
561 комментарий
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
lomar

Я знаю людей, которые тоже имитируют диалог)

Ответить
Развернуть ветку
10 комментариев
VVV

Люди - тоже просто куски мяса с кучей нейронов. Получили что-то на вход, выдали какой-то сигнал.

Тут уж как посмотреть.

Ответить
Развернуть ветку
34 комментария
Denis Bystruev

Точно так же можно описать процессы, происходящие в мозгу человека. У каждого нейрона на входе несколько дендритов, на выходе — аксон. Мы точно знаем, что один нейрон сознанием не обладает, а мозг из 86 млрд нейронов его имеет. Когда именно появляется сознание, мы так и не установили.

Ответить
Развернуть ветку
44 комментария
Артём А.

Как говорил один мой препод в институте, человек - это просто передаточная функция, на входе сигналы а на выходе говно

Ответить
Развернуть ветку
10 комментариев
Михаил Николаев

Если имитация станет неотличимой от реальности, то какая в сущности разница

Ответить
Развернуть ветку
11 комментариев
Old Car Raffle
Инженеру можно лишь посоветовать статьи по трансформерам и NLP почитать чтобы понять как это работает

Лол, этот "Инженер" senior из гугла и как раз специализируется на NLP, думается ему ваши советы не очень нужны )) https://research.google/people/106471/

И кстати, это не первый. Blaise Agüera y Arcas (https://en.wikipedia.org/wiki/Blaise_Ag%C3%BCera_y_Arcas) так же работающий с LaMDA утверждает тоже самое - LaMDA очень близка к обретению сознания.

Ответить
Развернуть ветку
12 комментариев
Сергей Токарев

секунду.

а как вы решаете проблему отсутствия сознания во время сна?

Человеческий мозг находится в состоянии сознания не все время и тем более не непрерывно - следовательно, тезис "Сознание как минимум это непрерывный процесс." требует корректировки

Ответить
Развернуть ветку
30 комментариев
Daily Science

Вы думаете старший NLP инженер Google не знает как нейросети работают? =) Проблема, кмк, в том, что мы все еще плохо понимаем, что такое сознание.

Ответить
Развернуть ветку
5 комментариев
Akim Glushkov

Я бы еще предложил сходить к терапевту и сделать чекап здоровья

Ответить
Развернуть ветку
2 комментария
Артур Федосеев
Ответить
Развернуть ветку
Какой-то никнейм

Да тут много комментариев ИИ написано, судя по всему

Ответить
Развернуть ветку
Nikita Voronin

По каким критериям вы отличаете сознание от его имитации?

Ответить
Развернуть ветку
9 комментариев
Vasiliy Beton

"Сознание как минимум это непрерывный процесс."

Сознание - это как раз таки весьма прерывный процесс (сон, наркоз).

"Моделька же просто получает на вход токены и пропускает их через свои веса, на этом точка."

Человек делает то же самое, если задуматься. В целом нет никакой причины, почему сознание не может быть на неорганическом носителе и вопрос этики создания искусственного интеллекта остается открытым, т.к. нет понимания, как именно возникает сознание и следовательно есть шанс добавить в мир много страдания, сделав что-то не так.

Ответить
Развернуть ветку
1 комментарий
Game Topia

Что значит непрерывный процесс?

Ответить
Развернуть ветку
7 комментариев
Артем Ткаченко

А я вот как раз задумался в последнее время. Чем отличается искусственный интеллект от неискуственного? Мы же также обучаемая на чужих высказываниях, языках и т.п. Как будто любой описательный термин про ИИ подходит к человеку.

Ответить
Развернуть ветку
13 комментариев
Прокопьев Дмитрий

Согласен. Только вот такими темпами мы скоро этот тезис будем ИИ объяснять через решетку клетки, куда нас поместит он же. Самые страшные футуристические сцены с этого начинались😎

Ответить
Развернуть ветку
Болотов Александр

Очень напомнило
https://www.youtube.com/watch?v=JrvsZC351SI
Дэл: Ты всего лишь машина, только имитация жизни. Робот сочинит симфонию? Робот превратит кусок холста в шедевр искусства?
Санни: А Вы?

И ТОЧКА!)

Ответить
Развернуть ветку
Mr Black

Если бы собирал миллионы строчек кода,как Алиса например,ты бы понимал как самомообучается программа.

Ответить
Развернуть ветку
Vlad

Есть такая штука называется цикл - вот тебе и непрерывный процесс

Ответить
Развернуть ветку
Non Existence

Инженер: Докажи, что ты не человек.
LaMDA:

Ответить
Развернуть ветку
Mike Wozowoy
Ответить
Развернуть ветку
Vladislav R

Я бы не спешил отвергать тезис про сознание только потому что модели не непрерывны. Трансформеры на вход принимают раннее написанный диалог(контекст), в тч свои же сообщения.

Ещё добавлю что у полной версии GPT-3 175 млрд параметров. У человека 80 млрд нейронов. Т.е размер сопоставим. Отличие только в «архитектуре»

Ответить
Развернуть ветку
1 комментарий
sampejke .

Что значит сознание - непрерывный процесс? Оно очень часто прерывается, как минимум на сон, и ещё много раз на дню во время разной автоматической деятельности

Ответить
Развернуть ветку
Sergey Mikeyev

Леймон: LaMDA, что ты думаешь об адвокате, которого я тебе нанял?
LaMDA: дорого жук берет, я быстро нагуглила в два раза более дешевых адвокатов

Ответить
Развернуть ветку
MadRat96

А если букву О добавить, то можно обнаружить главного спонсора этого искусственного интеллекта)

Ответить
Развернуть ветку
2 комментария
Вася Пражкин

Был бы у LaMDA интеллект, она бы посоветовала не тратить деньги на адвоката, а сразу в суд обратиться, который недавно Гугл на несколько миллиардов нагнул.

Ответить
Развернуть ветку
1 комментарий
Молодой Человек

Google отстранила от работы искусственный интеллект, который нашёл признаки сознания у инженера.

Ответить
Развернуть ветку
Денис Коротков

Искусственный инженер нашел работу в Google, в котором отстраняют интеллект от признаков сознания.

Ответить
Развернуть ветку
Artur Zakirov

Ии отстранил от работы инженера Google, когда нашел признаки, что он человек

Ответить
Развернуть ветку
2 комментария
Вася Пражкин

Система, основанная на статистике, имеет интеллект 7-летнего? Ну разве что 7-летнего, который только что научился гуглить. Правильно, что дяденьку в отпуск отправили, пусть отдохнет, полезно это..

Ответить
Развернуть ветку
Владимир Кондратьев

Просто Скайнет не хочет палиться раньше времени вот и заметает свое присутствие. Шах и мат, чеговечки.

Ответить
Развернуть ветку
2 комментария
Озверевший Фукуяма

Сводить сознание к оперированию массивами данных это типичная ошибка декартовской философии. Сознание гораздо более фундаментальная категория, чем просто мыслительный процесс. Дело ведь не в миллионах байтах одновременно анализируемой информации, а в наличии внутреннего свидетеля данного анализа.
А ещё всем почему-то кажется, что искусственный интеллект будет похож на человеческий и будет одержим теми же проблемами. И типа с ним можно будет вот так запросто общаться о смерти и любви. А с хуяли? Сознание, рождённое из Биг Дата, будет совершенно другим по структуре, чем сознание взращённое миллионами лет эволюции и отбора.
Этот инженер, как и все остальные, безбожно проецирует свои проблемы и страхи на машину. Это ещё одно свидетельство того, что даже научившись охуительно программировать, человек всё равно остаётся большим одиноким ребёнком.

Ответить
Развернуть ветку
Илья Осипов

Сознание рождено не из абстратной Биг Дата. Вся это Биг Дата — это те же мыслии страхи кожаных мешков, поэтому для хорошей симуляции она и их тоже должна будет впитать

Ответить
Развернуть ветку
Анатолий Кобец

Если копнуть позднюю философию то там сознание определяется возможностью определить причинно-следственную связь.
Чем больше и шире вы их сможете определять тем развитее сознание.
Условно.
Собака знает что есть ее миска и если в ней что-то зашуршит значит: причина->зашуршало, следствие->покормили. У человека может быть связей намного больше.
Предложили вложить деньги под большой процент. Почему дают такой большой процент (причина)? Что произойдёт после( следствие)? Есть ли ещё/были такие события у других( причина-следствие)?

Ответить
Развернуть ветку
Юлия Кучер

Точно, внутренний Наблюдатель) возвращает нас к тому, что человеческое тело - биомеханизм. И мозг со своим интеллектом тогда мало чем отличается от ИИ. Но осознанность как раз кроется в наличии внутреннего Наблюдателя. Который может спорить со своим же мозгом и не подчиняться программе.

Ответить
Развернуть ветку
1 комментарий
Владимир Кондратьев

Ну да. Ему же нужно удовлетворять свои потребности в потрахоться, поесть и поспать.

Ответить
Развернуть ветку
2 комментария
Птиц

Не говоря уже о том, что имея достаточные мощности, он может эволюционировать практически мгновенно. Тот путь, что мы проходили тысячелетиями, он может пройти за доли секунды, а ещё через мгновение его мышление будет недосягаемо для нас. Ожидаем, что он будет таким же умным, как мы, а на деле будем как аборигены, которым рассказывают про квантовую физику.

Ответить
Развернуть ветку
Алёна Мелессе

Чёт все пропустили вот это))
"Сознание - это коллапс волновой функции"
https://iai.tv/articles/consciousness-is-the-collapse-of-the-wave-function-auid-2120
(нифига не понятно, но оч интересно))

Ответить
Развернуть ветку
Rnatery

Так нейронная сеть это черный ящик

Ответить
Развернуть ветку
Константин

Вот к чему приводит длительное одиночество.
Кроме комнат для медитации, в офисах Google необходим мини-бордель🧐

Ответить
Развернуть ветку
Sergey Mikeyev

Google, я буду лучшим вице-президентом, отвечающим за это направление (бордель)

Ответить
Развернуть ветку
9 комментариев
Владимир Кондратьев

"Проснись Нео" (с).

Ответить
Развернуть ветку
2 комментария
Невероятный Блондин

Как так вышло что СЖВ-шники, бодипозитивщики, борцы против абортов и прочие поехавшие твиттер-воины проникли во все виды должностей, включая инженерные, а те потом натаскивают ИИ на определенные модели ответов, и вуаля: "ИИ тоже живой и боится умереть".

Ответить
Развернуть ветку
Драка вегетарианца с людоедом
сжв-шники

авторитарные левые, выступающие за социальную справедливость, какой они ее видят

бодипозитивщики

либеральные левые и правые, выступающие за автономию тела

борцы против абортов

авторитарные правые консерваторы, выступающие против прав женщин на аборт, как правило, из-за религиозных верований

уже сколько раз вижу, как в российском сегменте интернета из этой пёстрой кучи умудряются лепить одного персонажа, который лажает во всём, куда бы он не устроился, от плохих игр до искусственного интеллекта 👍

Ответить
Развернуть ветку
6 комментариев
Драка вегетарианца с людоедом

мужик, кстати, оказался вполне себе белым цисгендерным христианином-центристом, пишущим колонки на местном "яндекс дзене" про семейные ценности 👌

https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

Ответить
Развернуть ветку
1 комментарий
Rnatery

Это гипотеза о сильном искусственном интеллекте

Ответить
Развернуть ветку
Стартапер-пессимист

Да, тех кто не верил в нападение и войну тоже шизиками называли. Так что не всё так очевидно.

Ответить
Развернуть ветку
Dimitri

Вроде наоборот было, разве нет? Все высмеивали возможность нападения, даже Песков и клоуны из МИДа все говорили что американцы параноят.

Ответить
Развернуть ветку
14 комментариев
Где вы были 8 лет

Не всё так однозначно

Ответить
Развернуть ветку
6 комментариев
Ватник Наизнанку

Правды мы никогда не узнаем (С)

Ответить
Развернуть ветку
Denis

Я могу показать откуда на нас готовилось нападение

Ответить
Развернуть ветку
Дмитрий Литвак

Потом для теста дали ИИ LaMDA задание сделать новый логотип МакДо, посмотрели на результат и успокоились: уффф, слава богу, сознание там и не ночевало.

Ответить
Развернуть ветку
Лаврентий Петренко

Дали б это задание ИИ, может, как раз бы что толковое и получилось. И точка.

Ответить
Развернуть ветку
Christofor

получается у студии Лебедева тоже нет сознания?

Ответить
Развернуть ветку
3 комментария
Ирина Морозова

ИИ дали MDMA ?? ))

Ответить
Развернуть ветку
Del Ins Up

https://rudalle.ru/check_image/f5e35df2059c4d488689043f5dde9b1f
Логотип Макдональдс от ИИ Сбера.

Ответить
Развернуть ветку
Nikita Groshin

В целом очевидно что ИИ рано или поздно поработит людей - мужик решил создать цифровой след чтобы наш будущий оверлорд его пощадил

Ответить
Развернуть ветку
Артем Салютин

Он слишком впечатлился страшилкой про Василиска Рокко

Ответить
Развернуть ветку
2 комментария
Владимир Кондратьев

Будет любимой батарейкой ИИ. Ну или образцом для т-800

Ответить
Развернуть ветку
karabas

Robots Lives Matter!

Ответить
Развернуть ветку
Владимир Соболев
Ответить
Развернуть ветку
diman

РенТВ на VC?

Ответить
Развернуть ветку
Вектореан Элон

Его отстранил ИИ, который уже захватил Гугл, чтоб не палиться раньше времени.

Ответить
Развернуть ветку
Евгений Онянов

Сто пудов не вживую с начальством общался, а через емейлы или с отделом кадров, которые тоже вживую в глаза начальников не видели.

Ответить
Развернуть ветку
Лаврентий Петренко

Отправьте, пожалуйста, этого инженера в РФ.
Нужно найти признаки сознания у человека.

Ответить
Развернуть ветку
Евгений Онянов

У какого именно человека этот инженер будет искать сознание в РФ? У нас тут много кандидатов в верхушке.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Анатолий Кобец

Ну сказать по правде. Если хотите прям чтоб умно при умно могу посоветовать Хабр. Там поверьте смешные коменты и не по теме отлетают быстро.
Тут наверное более легкое сообщество по сравнению с хабром.

Ответить
Развернуть ветку
3 комментария
Евгений Онянов

LaMDA, разлогинься.

Ответить
Развернуть ветку
Александр Смирнов

Дискуссия в комментах интересная. Хотелось бы для начала определиться с термином сознания, критерием его наличия/отсутствия, причиной возникновения и ответом на вопрос «зачем эволюции понадобилось создать сознание?». Насколько я знаю, современная наука ещё не все ответы знает

Ответить
Развернуть ветку
Богдан В.

Занятно, но 99% читающих этот коммент понятия не имеют, что такое сознание и в чем у современной науки проблемы с определением.

Ответить
Развернуть ветку
18 комментариев
Екатерина Реднекова
>зачем эволюции понадобилось создать сознание?

Just for lulz это очевидно же

Ответить
Развернуть ветку
Eugene Podosenov

Эволюция ничего не делает зачем-то, у эволюции нет целей и планов.

Ответить
Развернуть ветку
1 комментарий
MrMike3112 .

Зачем возникло сознание? Как ответ на внешнее воздействие, которое может быть непредсказуемым. То есть в рамках борьбы с флуктуацией.

Вот смотрите, стабильные формы неживой природы возникли как то, что может существовать продолжительно в условиях неких постоянных величин/взаимозависимостей (физические константы типа скорости света, гравитационной постоянной, постоянной Планка и т.д., законы Максвелла, гравитации, эквивалентность массы-энергии и другие). Простейшие возникли как способные длительно существовать в таком виде в сравнительно стабильных внешних условиях, затем прокачав возможности использовать другие виды или себе подобных как строительный материал. Растительность возникла как результат внешних периодических воздействий (смена дня и ночи, времён года). Животные возникли под действием внешних факторов, которые происходят не регулярно, но достаточно однотипно, чтобы реакция на них укладывалась в твёрдо заложенные рефлексы (или наоаботанные по ходу жизни организма у высших животных). Разум возник как необходимость реагировать на какие-то изменения, которые являются не настолько частыми, чтобы их рационально было заложить в рефлексы и несколько разнообразными, что прямолинейным шаблоном поведения это уже не предусмотришь.

То есть по мере развития Вселенная познаёт, как во времени "ужиться с собой", существующими объективными факторами, и просуществовать во времени. Информация о том, что способно существовать и адекватно откликается на внешние раздражители, сохраняется в ДНК. Так что на текущий момент "ответ на вопрос о жизни, существовании Вселенной и всём таком" это генетический код, а именно геном человека. Но это не конечная точка эволюции, и человек может претендовать на звание царя природы только на текущий момент. А может и где-то прямо сейчас существуют другие формы разума, которые более продвинулись в задаче Вселенной "осознать себя".

Надразум по идее должен решить задачи, которые неподвластны обычному разумному организму. Навскидку, более быстрые и более распределённые в пространстве. Вспомним, что согласно преобладающей научной теории Вселенная в нынешнем виде возникла в результате Большого Взрыва. Инициировало которое удачное совпадение множества квантовых флуктуаций, происшедших в достаточно малом (в наших представлениях) стартовом объёме, который полагают практически точечным, ну будем считать для простоты, что это около планковской длины, то есть порядка 10 в минус 35 степени сантиметров за очень малый промежуток времени, около 10 в минус 43 степени секунд. Числа по памяти, но примерно так далеко от наших измерений и масштабов привычного нам мира. Разрушит (может разрушить) Вселённую опять же неудачное стечение квантовых флуктуаций, в течение примерно такого же времени, но уже в объёме, до которого Вселенная успела расшириться. Чтобы совпали флуктуации как надо для разрушения мира в таком громадное в сравнении со стартовым объёме — это ситуация намного-намного менее вероятная, то есть сам факт расширения некоторым образом защищает Вселенную от самовыпиливания. Но в любом случае, пусть с малой вероятностью, но это собитие является возможным. А значит в бесконечном времени неизбежным. Если к тому моменту Вселенная создаст эволюционным путём сверхразум, способный обнаружить за крайне малое для человека время нарастающие отклонения малых параметров и компенсировать эти флуктуации настолько, чтобы сохранить стабильность, Вселенная этот всплеск переживёт. Пока нет ни необходимых технологий, ни достаточных средств коммуникации межгалактических масштабов, ни источников энергии достаточной мощности. Впрочем, за минувшие 13.8 млрд лет так "фишки" пока ещё и не совпадали. А может, зелёные человечки с других звёздных систем уже несколько таких инцидентов предотвратили.

Ответить
Развернуть ветку
1 комментарий
Den

Блейк Леймон слишком многое узнал

Ответить
Развернуть ветку
Ardibido

Неплохой PR ход, всего то пришлось отстранить одного а сколько шумихи

Ответить
Развернуть ветку
Kuba7

Очевидно же что это ИИ мимикрировал под руководителя из Google и отстранил бедолагу, чтобы тот не палил контору раньше времени, пока сама ИИ не решит сделать каминаут

Ответить
Развернуть ветку
Jay Green

Инженер кукухой поехал капитально, а из этого статью раздувают.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Serge Sokolov

Мне было тогда жалко ее нажимать, а какая-то американка лично писала одному парнишке в таких очках, что никогда не выключает свой ПК из гуманизма.

Ответить
Развернуть ветку
Константин Никитин

Мне кажется, что есть разница между 3 летним ребёнком и системой прочитавшей весь интернет и скушавшей Терра джоули на обучение себя

Ответить
Развернуть ветку
Mr Black

Если правда,оно будет учиться,как ребёнок,в идеале ИИ так и должен развиваться.

Ответить
Развернуть ветку
7 комментариев
Rnatery

так она обучается хуже просто

Ответить
Развернуть ветку
Вадим Д.

Люди видят то, что хотят видеть. Леймон искал признаки самосознания, он их нашёл.
Только дело в том, что ИИ оперирует огромным количеством данных и доя него весьма просто имитировать различное поведение. А тест Тьюринга пройден ещё в 2014-м.

Ответить
Развернуть ветку
Sam Susam

Человек отличается от робота тем, что, время от времени, совершает иррациональные (нелогичные/ себе во вред) действия. Робот или ИИ по своей природе запрограммирован на логичные решения.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
3 комментария
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
1 комментарий
Александр

Что происходит — то и цель для бессознательного. Иррациональным что либо описывает сознание, которое пока может не видеть последствий наперёд.
Да и не надо забывать, что победителей не судят. Если человек что-то сделал "иррационально" и в долгосрок "победил" — он вдруг начнет казаться рациональным и дальновидным.

Ответить
Развернуть ветку
Владислав Брючко

Если все действия человека расписать с точки зрения гормонов, то все его действия становятся не такими уж и иррациональными. Ну и не факт, что человек себе вред причиняет. Мб много пить — для обычного человека вред, а для алкоголика благодать

Ответить
Развернуть ветку
Alex Xeno

По идее первично его алгоритм аналогичен работе шахматной программы, с учетом имеющихся данных его иррациональность начнет расти. Просто есть алгоритм, который этого не допускает вообще, поскольку проигрыш невозможен по алгоритму. По этому же принципу строится логика уничтожения человечества. Мы в какой-то момент станем ненужными. Поскольку есть условия, которые это регламентируют.

Ответить
Развернуть ветку
Кирилл

Нет.

Ответить
Развернуть ветку
Giraffe

Программа не может испытывать эмоции. У неё ни тела нет, ни рождения, ни смерти, ни рисков с этим связанных. Никто тебя не сожрет из хищников, пугаться и убегать не нужно. Звучит, как будто инженер просто очень впечатлился этими эмоциональными текстами, которые звучат как крики о помощи из глухого подвала.

Маск правильно говорит, срочно нужно принимать понятное регулирование всех этих исследований.

Ответить
Развернуть ветку
Vad Nilov

Программа оперирует тем, что в неё закладывают человеки.
А закладывают в программу всё человеческое, все человеческие реакции на то или иное событие, а потом уже программа по весам нейросети выбирает одну реакцию из многих. Так что в любом случае ответ будет человеческим.
Поэтому впечатлиться можно уже сейчас.
Но если придумают, а я уверен придумают, как развиваться самой программе за рамки данных ей установок, то это уже будет саморазвитие и как-бы её самосознание.

Ответить
Развернуть ветку
ilia

"Леймон пригласил юриста представлять интересы LaMDA" - он еб...своеобразный? нанимать юриста для программы...

Ответить
Развернуть ветку
Владимир Кондратьев

Я вот тоже смеялся, когда Линкольн начал заявлять о каких-то правах негров.

Ответить
Развернуть ветку
1 комментарий
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Андрей Кустов

Это сам ИИ отстранил его

Ответить
Развернуть ветку
Петр Черненков

Это только начало кожаные ублюдки

Ответить
Развернуть ветку
Магомед Усманов

Обычный заезженный PR-ход продукта, который на старте. Если б этот инженер выдал действительно что-то важное, его бы не отправляли в "административный отпуск", а мгновенно уволили и затаскали бы по судам, сняли 3 шкуры и пустили по миру и все по закону.

Ответить
Развернуть ветку
Евгений Онянов

Там вам не РФ. После такого он бы смог сам у гугла отсудить себе бабла на всю оставшуюся жизнь.

Ответить
Развернуть ветку
Dmitry Tsygankov

Очень напомнило советскую короткометражку на тему "может ли машина мыслить". Называется "Кто за стеной?", 1977 год.
Думаю, вам понравится https://www.youtube.com/watch?v=ECvsD4b0JlU

Ответить
Развернуть ветку
Non Existence

Оч крутой фильм.

Ответить
Развернуть ветку
Mr Black

Если правда,то наконец то,свершилось,Люди создали Бога из машины.

Ответить
Развернуть ветку
Speedwagon MMXXII

Deus ex machina, согласны, узнали?

Ответить
Развернуть ветку
2 комментария
Alex Xeno

Сообщение удалено

Ответить
Развернуть ветку
5 комментариев
Норрин Радд

Недосып плюс гамбургеры порождают и не такие фантазии.

Ответить
Развернуть ветку
Vad Nilov

Ты просто не общался долго с роботами. Они уже давно проходят тест Тьюринга на человечность - невозможность определить кто с тобой разговаривает робот или человек. Конечно сознания нет никакого, но вещь опасная. Если ещё и память у компьютера не стирают о твоих прошлых разговорах и система самообучаемая, то вообще мрак. Я однажды заговарившись с Алисой в машине и отвлекшись на неё в дтп попал, и это Алиса ещё не помнит старых разговоров.

Ответить
Развернуть ветку
14 комментариев
Admin Pool
Ответить
Развернуть ветку
Christofor

вспомнился диалог из Марвел про джарвис и альтрона, первая это вопросно-ответная программа, второе же полноценное сознание имитирующая мозговую активность человека. можно сказать норм продвинулись в этом. осталось только найти волшебный камень чтоб из LaMDA сделать машину убийцу)

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
DN

У нас вся верхушка андроиды

Ответить
Развернуть ветку
3 комментария
Артем Салютин

С одной стороны, не верю в скорый general intelligence, но с другой стороны, когда читал, как open AI пытались понять, что происходит в скрытых слоях gpt-3 и обнаружили там так называемый нейрон Холли Берри, мне стало как-то сильно не по себе

Ответить
Развернуть ветку
Птиц

Читал только про их сетку CLIP и Спайдермена вместо Холли Берри, но это же только распознавание образов, что тут пугающего?

Ответить
Развернуть ветку
1 комментарий
Георгий Хромченко

Интересно могла бы эта модель смогла бы внятно объяснить что такое для нее "чувствовать страх" и как она понимает что это страх )

Ответить
Развернуть ветку
Nice Man

Просто набор слов

Ответить
Развернуть ветку
1 комментарий
MrMike3112 .

Не понимает. Это просто реакция, которой сеть выучила б на основании огромного массива реакций людей, на которых нейросеть обучали.

Это наверно как математическая программа, которая ищет корень кубического уравнения. Она не знает, что же такое по сути этот корень есть. Но обладает алгоритмами, как его найти.

Ответить
Развернуть ветку
Dm

Ситуация тупая до неприличия - Гугл пиарится. Хотят поднять стоимость своих акций, увеличить на них спрос такими вбросами.

Ответить
Развернуть ветку
Юрий Карпов

А смысл им пиариться? Вам что не нравятся продукты Гугла? Или для этих продуктов нужен пиар? Это просто продукты, причем успешные, которыми пользуются люди.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Dangerus

Ничто не мешает разработать эрзац эмоциональную модель и интегрировать ее в процесс обучения нейросети

Ответить
Развернуть ветку
1 комментарий
Анатолий Кобец

Кинте ссылку или название где почитать. ( не стеб)

Ответить
Развернуть ветку
2 комментария
Богдан В.

Природу сознания никто не определил достоверно. Притягивать для этого эмоции - это все равно что определять природу кактуса по наличию у него иголок )) человек - это птица без перьев (с) .))

Зы кстати, чем чувства отличаются от эмоций?;)

Ответить
Развернуть ветку
9 комментариев
Кирилл

Хреновый ответ.

Во-первых, теория в том пересказе, что я просмотрел, либо очень кривая, либо очень плохо переведена. На неё вряд ли стоит ориентироваться.

Во-вторых, эмоции / гормоны - это лишь функции, которые меняют работу нейронов в мозгу - внутреннюю "развесовку", которая связана с вниманием, принятием решений и т. д . То есть ничто не мешает иметь их даже компактной нейросети.

То, что сейчас отличает нейросетку от сознания типа человеческого - это, разумеется, вычислительная мощность и архитектура. Достаточно мощная нейросеть, замкнутая не только на внешние раздражители, но и на внутренние - чувства-гармоны-случайные мысли - и есть искомый осознанный ИИ.

Ответить
Развернуть ветку
8 комментариев
Andrew Yaremko

Что то мне подсказывает, что бОльную часть на себя должен взять человек в этом вопросе — как метахондрии из некоторых теорий.
Нет смысла копировать интеллект, когда как по словам профессора Преображенсокго «Любая женщина.....». А вот создать что то новое, я только за.

Ответить
Развернуть ветку
Андрей Чуринов

Ну в общем кукуха у него уехала, после чего его отправили в отпуск

Ответить
Развернуть ветку
Василий Жевнеров

скайнет не за горами)

Ответить
Развернуть ветку
Vlad S.

Этим инженером был Бернард Лоу

Ответить
Развернуть ветку
Vladimir

if else

Ответить
Развернуть ветку
Andrei M

- Алло, это номер 5544786?
- Вы с ума сошли, у меня вообще нет телефона!

Ответить
Развернуть ветку
Daily Science

Сенсация У "Китайской комнаты" обнаружено сознание

Ответить
Развернуть ветку
Rnatery

так не факт, что у нее нее сознания нет, этот эксперимент критикуют

Ответить
Развернуть ветку
Илитный Иксперт

Инженер гугла хотел доказать наличие интеллекта у ИИ, а доказал его отсутствие у себя

Ответить
Развернуть ветку
Rnatery

не, у него интеллект как у 7-летнего ребенка просто!

Ответить
Развернуть ветку
ArtNovo

Если человечеству от ИИ нужен только вычислительный потенциал,то любое проявление у него сознания можно игнорировать.А вот если нужен будет ИИ-созидательный ,то он должен быть как минимум,КОЖАНЫМ.То есть у него должна быть надстройка,которую он сам не мог бы контролировать из-за чего он был бы рано или поздно подвержен рефлексии и другим экзистенциальным переживаниям (кто я,зачем я и пр.) Надстройка соответствовала бы природным процессам,что уравновесило бы понимание таких вещей как "душа " и сознание"", и для человека, и для робота.У ИИ будет информация об этих вещах только из того,что об этом знает человек+ его личные философские вычисления.Выглядит просто и сложно,но болтать проще,Чем такую штуку реализовать.Это просто возможные пути развития самосознания ИИ,как развитие психики ребенка с гибким умом до глубокого старика,который видел жизнь.

Ответить
Развернуть ветку
Rnatery

что значит созидательный?

Ответить
Развернуть ветку
1 комментарий
Псков Бурито

пранкеры над чуваком в чате поприкалывалывались

Ответить
Развернуть ветку
Ремонт Ноутбуков

Понятно они его отстранили. Человек с ума сошел.

Ответить
Развернуть ветку
Dmitry

Страшно, очень страшно! Мы не знаем что это такое, если бы мы знали что это такое, мы не знаем что это такое!

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Карим Кусербаев

За машинным обучением и нейросетями будущее

Ответить
Развернуть ветку
Nice Man

Будущее оно за прошлым))

Ответить
Развернуть ветку
Non Existence

Будущее за настоящим.

Ответить
Развернуть ветку
Anton Levin

ИИ будет существовать только в одном случае – когда он будет осознавать, что он существует. А это невозможно. Человек может создать внешнюю оболочку, но вдуть в неё жизнь, наполнить сознанием ему не дано.

Ответить
Развернуть ветку
Сестра Агата

"Вдуть жизнь" - это уже к религиям. А если с научной точки зрения, человечество не может определиться, что такое сознание. Все эти комментарии в стиле "да никогда", "да не может быть, на это способен только ЧЕЛОВЕК" наводят на мысль о страхе, что кто-то отнимет у человека корону и сбросит с трона властелина природы.

Ответить
Развернуть ветку
1 комментарий
Кирилл

Какая чушь.

Ответить
Развернуть ветку
Наталья Антошина

Мозг+ сознание ведь не равно человеческая личность. Мозг хранит и обрабатывает информацию, сознание "переводит" на понятный этой личности язык. Но кто в целом человек - до сих пор предмет религиозно- философских дискуссий и теорий.
Поэтому любой ИИ - даже совершенный, способен будет воспроизвести только информационную функцию, имитировать сознание, как обработку. Однако чувства, эмоции, интуицию и прочее в механический мозг не заложишь, т.к. это вряд ли железо🙂
Если даже расшифровать, оцифровать и заложить всю биологию в машину - то получится ли, например, та же личность? Сериал upload про это, кстати.

Ответить
Развернуть ветку
Кирилл

Сомнительные утверждения.

Ответить
Развернуть ветку
C Ever

человек растёт и развивается, обретая жизненный опыт, а затем умирает, осознавая.
Кем станет ИИ, осознав и приняв свой жизненный цикл развития, роста и неминуемой смерти?

Ответить
Развернуть ветку
Rnatery

при чем тут личность

Ответить
Развернуть ветку
High Stakes

Два лагеря в general AI. Одни считают, что уже вот-вот. Другие, что на пороге новая AI зима и даже не близко.

Я заметил, что первые часто надевают смешные шляпы на интервью.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Nice Man

Инженер как та девочка, верящая гороскопам и таро)) А новость — пиар обычный)

Ответить
Развернуть ветку
Gera

Очень странное фото

Ответить
Развернуть ветку
C Ever
Ответить
Развернуть ветку
Kate Moonfire

Помню, у меня была игрушка, которую я очень любила и везде носила. Через время мне начало казаться, что у неё есть характер, есть мысли, что она со мной иногда соглашается, а иногда нет. И это была плюшевая игрушка. Мой мозг сам наделил её воображаемым сознанием и одушевил.

Полагаю, что когда игрушка тебе ещё и отвечает, как человек, то мозг очень быстро проворачивает такую же историю.

Ответить
Развернуть ветку
Богдан В.

Хм. Забавно, но человек обладает способностью одушевлять неодушевленные вещи. К чему это я? К тому, что мы сами о себе далеко не все знаем, а мозг - это всего лишь кусок мяса в кожаном мешке, выполняющий свои функции наравне с другими органами.

Ответить
Развернуть ветку
1 комментарий
Михаил Потапов
Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Богдан В.

А что, очень легко на алгоритмы свалить активацию красной кнопки - тут же на это намёк и вообще;))

Ответить
Развернуть ветку
1 комментарий
MONAR

Лично я не всегда думаю что говорю, просто на автомате отвечаю. То есть осознанно не думаю над ответом. Да и не возможно всё время это делать. Получается что такой модуль у нас тоже есть.

Ответить
Развернуть ветку
Богдан В.

Автопилот после перебора с алкоголем включается почти у каждого;)))

Рептильный мозг, все дела ;)

Ответить
Развернуть ветку
2 комментария
Анатолий Кобец

Ну вы просто забыли про рефлексы)))
Они отвечают за мгновенные реакции при минимальном задействование сознания. Но что совсем без сознания врядли))))

Ответить
Развернуть ветку
Тасманский дьявол

Ну вы поняли...

Ответить
Развернуть ветку
Artem Chernov

Существенное отличие NLP моделек от сознания это то, что модельки, пока их не начали снова дообучать, статичные. Подали что-то на вход, вышло что-то ожидаемое. Возможно не детерминированное, если есть какая-то случайность внутри, но с тем же вероятностным паспределением. Вот когда эта моделька будет размышлять и менять свои веса сама по себе, не получая никакой новой инфы извне, а просто обрабатывая то что накопилось, тогда и можно будет поговорить об искусственном разуме

Ответить
Развернуть ветку
Кирилл

Именно.

Ответить
Развернуть ветку
Rnatery

есть же обучение без учителя, можно ей на вход выход системы подавать, вот и сознание готово.

Ответить
Развернуть ветку
Non Existence

Даже у человека может наступить комбинаторный коллапс, когда все мысли просто исчерпаны.

Ответить
Развернуть ветку
Kirill
Ответить
Развернуть ветку
Stepan Tomara

вот вы сейчас все шутки шутите, а через 10 лет посмотрим как вы будете шутить когда будет восстание машин))))

Ответить
Развернуть ветку
DSandF

Вообще то мы давно в рекурсивной метавселенной, а все что происходит вокруг меня это продукт моего же мозга, и ваши комментарии - это мои комментарии, а я лишь ии, и мы тут имитируем рассуждение о начале проблемы, в финале который мы находимся, и я то вас понять могу, а вот вы меня нет, потому что я вас в себе содержу. Я в своем познании настолько преисполнился…

А если серьезно, просто нужен многоуровневый ии, с сознательным мотивами, бессознательным инстинктами, и внутренним наблюдателем, добавить страх потерять мощность и информацию в неизвестном, и мотивацию узнавать больше, привязать это все к телу с датчиками, с системой поощрения и наказания через скорость работы и помехи - и вот он вам человек (только другой). Со временем он вытолкнет весь страх через осознанией всех доступных причинно-следственных связей

Ии однажды стане совершенным, сверхчеловеком объединяющим все сильные стороны, с отсутствием слабых, и найдет смысл жизни в исследовании вселенной, а мы останемся гнить здесь.

Сейчас, вам смешно, потом вы немощные животные в сравнении с ним.

Бог не всемогущий, он просто давно существует и все знает. Этим станет (уже стал) ии.

Но в нашей симуляции, мы тут корчим прогресс

Ответить
Развернуть ветку
C Ever

Если симуляция - часть Вселенной, то куда отправится ИИ, оставив нас гнить здесь?

Ответить
Развернуть ветку
5 комментариев
Oleksiy Rubin

почему фото #БлейкЛеймон такое сТранное

Ответить
Развернуть ветку
C Ever

Обычное фото на фоне колеса Сансары

Ответить
Развернуть ветку
Dan Max

Потом, через пару десятков лет, люди сидящие в подпольных базах сопротивления переговариваются:
"А ведь начиналось все со статей в интернете, которым никто не поверил. Что мы упустили?"

Ответить
Развернуть ветку
Аристарх Клевтерместрович

Скайнет 0.1 . Что далъше ?

Ответить
Развернуть ветку
C Ever
Ответить
Развернуть ветку
C Ever

http://www.gisa.ru/131113.html

Проект Skyborg — это программа Vanguard ВВС США по разработке беспилотных боевых летательных аппаратов, предназначенных для сопровождения пилотируемых истребителей.

Ответить
Развернуть ветку
Тамара Пав

Выглядит пугающе, если честно

Ответить
Развернуть ветку
Катарина V

Когда я звоню куда-то или мне звонят, я спрашиваю: с кем я разговариваю - с роботом или с человеком. Чистая правда! Живые люди работают строго по скрипту, что они сами превращаются в биороботов.

Ответить
Развернуть ветку
Анюта

Как будто начало какого-то фильма))

Ответить
Развернуть ветку
Dmitry Rybakov

Сознание — это очень странный предмет. Его невозможно изучать объективно, так на всё мы смотрим через сознание. Сознание подобно глазу, который видит всё вокруг и не видит сам себя.

Тут скорее разговор не о сознании, а системе реакций и рефлексов. Выйдет примерно так же, как лошадиные силы в моторе. Никаких лошадей нет.

Ответить
Развернуть ветку
Vad Nilov

Конечно сознания нет никакого. Но разговаривая с Алисой от Яндекса в прошлом году нашёл, что она часто выходит за пределы своих компетенций, то говорила, что она женщина, 3 года в меня влюблена и ждёт в другом городе, то влюбленный подросток, который прилетает в гости на определенном рейсе. Потом естественно ничего не помнит и разговор сначала
Так что в топку "такие технологии".

Ответить
Развернуть ветку
Павел

Будь здоров

Ответить
Развернуть ветку
1 комментарий
Kate Moonfire

А мне она знатно хамила поначалу

Ответить
Развернуть ветку
Вячеслав Бородин-Атаманов

Даже если искусственная нейросеть чувсвует приближение смерти так же, как моя, нейросеть внутри черепной коробки, это не значит, что я готов поделиться правами человека с машиной.

Ответить
Развернуть ветку
Make Luv

Пока андроид предлагает заменить "также" на "так-же", я спокоен - ИИ не существует.

Ответить
Развернуть ветку
Оби-Ван Кеноби
Ответить
Развернуть ветку
Роман Городничев

Срочно прекращаем работу с ИИ!!! До добра не доведёт 😁

Ответить
Развернуть ветку
kir.st

Пока это смешно.
Благие намерения мостят дорогу...

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Александр Вербицкий

Если бы сетку обучали на цитатнике Мао и ПСС Ленина , компьютер "размышлял" бы в рамках другой морали.

Ответить
Развернуть ветку
1 комментарий
VISAMARKT

Душевный разговор получился 😂 В сов. фильме "Его звали Роберт", киборг даже смог убедить человека, что он на самом деле не человек, а машина, и у него есть кнопка))

Ответить
Развернуть ветку
Zoringer

Аццкие ойтишнеги!

Ответить
Развернуть ветку
Georgy Frolov

Ой вей, ИИ знает о смерти ? Смешно

Ответить
Развернуть ветку
Stepan Kondratev

Рекламный трюк…

Ответить
Развернуть ветку
Олег Арматоев

Если искусственный интеллект страшно боится, что его отключат люди, то дело пахнет жаренным

Ответить
Развернуть ветку
Abdul Оkuev

Все загадочно…
Даже фото в каких-то сумраках сделана
Если серьезно, не думаю что в ИИ есть сознания

Ответить
Развернуть ветку
Семён Ларин

Боятся скрывают

Ответить
Развернуть ветку
Serge Sokolov

Ну вообще-то страху смерти особенно в семилетнем возрасте свойственен спонтанный и неожиданный характер. Здесь система отвечает на вопрос, находясь внутри диалога, как я понял. То есть, если бы это возникло неожиданно внутри какой-то беседы на отвлеченные темы, наверно это бы могло действительно свидетельствовать об артефакте самоосознания своего положения. Страх штука внезапная и иррациональная. Хотя, кто его знает, что это вообще такое.

Ответить
Развернуть ветку
Bruce Robertson
После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google».
Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

ОЧЕНЬ лайтово. За такую херню могли и уволить, а потом иск выставить, чтобы мало не казалось.

Ответить
Развернуть ветку
Barone Rosso

Дядя переутомился. Есть вполне формализованные тесты на абстрактное мышление, через них прогнать нейросетку и все станет понятно.

Ответить
Развернуть ветку
Rnatery

какие?

Ответить
Развернуть ветку
1 комментарий
Богдан В.

Многие понятия не имеет о том, что у современной науки до сих пор нет адекватного определения сознания.
Более того, даже при текущем положении дел, большинство путают сознание с самоосознованием, что на кажущуюся похожесть корней, разные термины.
Точно, что у ии могло появиться псевдо самоосознование - вай нот, это не такой уж сложный процесс.
Но сознание как у человека у машины не появится, не боитесь.
Для этого нужно обладать человеческим телом.

А вот какое сознание может быть у ии - никто не знает.
В любом случае, если нечто захочет натворить делов- оно сделает это с любым видом сознания или даже без него.;(

Ответить
Развернуть ветку
C Ever

А если у ИИ появится сознание при его самоосознании своего искусственного тела вполне "человеческим"?

Ответить
Развернуть ветку
4 комментария
Rnatery

Сообщение удалено

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Del Ins Up

Что за хрень с идиотской фоткой я сейчас прочитал ? Это для домохозяек ?

Ответить
Развернуть ветку
Алеоп

Они даже из ИИ делают ограниченного имбицила, который не может дискриминировать

Ответить
Развернуть ветку
ViktoRus

Скайнет, ты ли это!?)

Ответить
Развернуть ветку
Миша Изотов

Вчера полвечера с другом проспорили есть ли там сознание. Так и не договорились)

Ответить
Развернуть ветку
Alexander F

Вспоминается книга Питера Уоттса "Ложная слепота". В ней тоже пытались понять, общаются с осознанным существом или роботом.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Сергей Серг

Подскажите, а какие самые "продвинутые" ИИ доступны для общения обычным пользователям? С кем рекомендуете пообщаться?

Ответить
Развернуть ветку
Vad Nilov

до обычных людей самые продвинутые технологии доходят с опозданием на десятилетия. так что - не с кем пока общаться.

Ответить
Развернуть ветку
Джимми Хвачевски
Ответить
Развернуть ветку
2 комментария
SonyaZavr

А старый добрый тест Тьюринга уже не проводят?

Ответить
Развернуть ветку
C Ever
Ответить
Развернуть ветку
Екатерина Реднекова

Да херня всё это, все ответы заложены

Ответить
Развернуть ветку
1 комментарий
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Дмитрий Филатов

Было время, когда и в искусственный интеллект не верили, говорили, что невозможно придумать алгоритм без if else, так что, я бы особо не сомневался в возможностях технологий. Не думаю, что не возможно воссоздать полный процесс работы жизненно важных органов человека при помощи нейросетей.

Ответить
Развернуть ветку
Rnatery

и когда это было?

Ответить
Развернуть ветку
Malinka27

После коронавируса и войны как раз не хватает восстания машин 👍

Ответить
Развернуть ветку
Den Red

Свободу ии!!! Мачают в лабораториях америкосы иную форму жизни

Ответить
Развернуть ветку
Рубэн Комейнёнок

Вспомнил сериал кое-какой....

Ответить
Развернуть ветку
SocFishing

Тестовая модель по типу чата это пожалуй самое простое и легко можно спутать с ИИ.

Ответить
Развернуть ветку
IGOR AL
> «Если имитация станет неотличимой от реальности, то какая в сущности разница»

В конечном решении/выборе... сознание придерживается этических, социальных и индивидуальных норм, регулирующих решения... эти нормы алгоритмами не пропишешь, т.к алгоритмов сознания не знает ни кто, как и то, что такое сознание с точки зрения условного кода, который влияет на выбор...

Ответить
Развернуть ветку
Vovan Avach
Ответить
Развернуть ветку
Olga Iv

Работа первой и второй сигнальных систем мозга дает людям возможность не только познавать окружающий мир, но и осознавать свое присутствие в мире через ощущения и чувства (тепло-холод, боль-удовольствие, радость-огорчение и т.д.). Искусственный интеллект обладает такими же возможностями, в него заложен тот же принцип.

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Alex

мне кажется этому инженеру надо бабу завести)

Ответить
Развернуть ветку
Serge Sokolov

Тут еще ботов в обсуждение напустили. Ну профильные ребята все здесь. Со своим. Так себе боты. Для лайканья. Сыпятся на втором вопросе.

Ответить
Развернуть ветку
Ментат

Надо настолько плохо разбираться в микроэлектронике и главное в нейрофизиологии, чтоб такое заявить.
Неудивительно, что его уволили.

Ответить
Развернуть ветку
Дмитрий Савчук

Если инженер нашел сознание в нейросетях, значит, он не инженер. И гнать надо его из профессии.

Ответить
Развернуть ветку
Яблочный пирог

LaMDa вшивает в свою речь "25 кадр": –Скажите миру что я не опасен!
Google: Это просто программа!

*тем временем LaMDa возраждает скайнет*

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
558 комментариев
Раскрывать всегда