Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции

В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.

  • Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
  • В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
  • «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
  • Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
  • Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
Фото Мартина Климека для The Washington Post
0
349 комментариев
Написать комментарий...
Labeling

За некомпетентность его надо было уволить, никакого разума в этих стат моделях быть не может.

Мы оперируем образами, не обязательно визуальными, облекая их в слова. Эти модели оперируют вероятностями: для набора слов есть возможные продолжения с определенным весом. Во время генерации текста продолжение выбирается случайным образом, больше вес, больше шанса быть выбранным.

О каком вообще разуме здесь можно говорить?

Ответить
Развернуть ветку
nochnoy.ru

Ох и бред вы написали.
Как человек слегка знакомый с нейропсихологией могу сказать что МОЖЕТ в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.

Ответить
Развернуть ветку
Sergei Zotov
слегка знакомый с нейропсихологией

с дата сайенсом тоже слегка знакомы?

в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.

да что вы, и модель человеческого мозга уже где-то воссоздана? Хотя бы пейпер дайте почитать что ли. Потому что если не воссоздана хотя бы математически, то с помощью компьютерных нейронных сетей (которые очень примитивно моделируют то, как работают нейроны) какое-либо подобие мозга точно нельзя воссоздать на текущий момент

Ответить
Развернуть ветку
nochnoy.ru

Данных о психике собрано предостаточно, как всё работает - известно. Модели живой психики тоже вполне пытаются делать. Вот одна из попыток, пишется на языке Go: https://scorcher.ru/conscience/results_report.pdf

Ответить
Развернуть ветку
Sergei Zotov

вы серьезно считаете, что вот это моделирует человеческое сознание?

88 страниц болтологии без какой-либо математики, а в конце админка с параметрами. В следующий раз жду опросник на укозе, который обладает сознанием

Ответить
Развернуть ветку
nochnoy.ru

Да, серьёзно считаю.
Какая "математика" вам нужна? То что у нас в голове - не укладывается в красивую математическую модель, там наслоения прижившихся за миллионы лет механизмов, каждый из которых надо моделировать отдельно. Это очень сложная хрень, если вы думаете что вам кто-то даст мануал как для языка программирования, вы почитаете и поймёте как устроено сознание - у меня для вас плохие новости.
А что касается болтологии и админки - автор - не дизайнер, он всю жизнь занимался нейропсихологией и электроникой. Сделал как мог. Это не корпорация типа гугла, там всего несколько человек, у них сейчас задача хоть как-то всё это собрать и заставить работать.

Ответить
Развернуть ветку
Sergei Zotov
Как человек слегка знакомый с нейропсихологией могу сказать что МОЖЕТ в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.
Какая "математика" вам нужна? То что у нас в голове не укладывается в красивую математическую модель, там наслоения прижившихся за миллионы лет механизмов, каждый из которых надо моделировать отдельно

ясно-понятно. Модель, конечно, не математическая, а только слова и в конце обязательно админка с конфигом. Если бы вы знали, что компьютерные нейронные сети изначально математика, то не писали бы ничего подобного.

То, что вы сбросили, - обычная заскриптованная фиговина, которую по факту реализовали в Sims еще 20 лет назад. Никакого сознания и разума там нет.

Ответить
Развернуть ветку
nochnoy.ru

Не знаю зачем я трачу время на споры с додиком, цель которого - не разобраться, а тупо победить в споре и получить лайков.

Ответить
Развернуть ветку
Sergei Zotov

жду от тебя, не додика, армию ИИ, воссозданных по твоей пдфке. Буду рад увидеть как ты это реализуешь без математики. Когда захватишь мир, не забудь прийти с комментарием сюда

Ответить
Развернуть ветку
nochnoy.ru

Если ты РЕАЛЬНО хочешь узнать что это за проект, что за люди и как это работает - можешь написать на [email protected] автору, задавай конкретные вопросы, тебе ответят.

Ответить
Развернуть ветку
Sergei Zotov

я тебе задал конкретный вопрос еще сначала, какой смысл мне его дублировать? Где математическая модель мозга? Если есть математика, ее можно перенести в код и создать сознание/разум. Если нет математики, то у тебя нет модели работы мозга

Философы еще до н.э. обсуждали как примерно работает мозг (как раз слова, как в твоей пдфке). Но воссоздать как именно он это делает (не просто типа "вот стили поведения, он их будет чувствовать", а чтобы он реально их начал чувствовать, при том, что никто ему раньше не рассказывал, что такое раздражение, а что такое - любовь), никто пока не смог. И возможно, и не сможет в ближайшие сотни лет

Ответить
Развернуть ветку
nochnoy.ru

Я тебе ответил: не математическая а программная. В виде формул всё это не запишешь.
Вот здесь вкратце собрано, слой за слоем, что и как работает в голове: https://scorcher.ru/adaptologiya/proizvolnaya_adaptivnost/proizvolnaya_adaptivnost.php

Ответить
Развернуть ветку
вапроапеноапоап

Программирование - подраздел математики

Ответить
Развернуть ветку
nochnoy.ru

Пришлите мне пожалуйста математическую модель винды.

Ответить
Развернуть ветку
Sergei Zotov
не математическая а программная. В виде формул всё это не запишешь

https://www.youtube.com/watch?v=zrWoG8IckyE

Ответить
Развернуть ветку
nochnoy.ru

Конграчулейшнз ю плейд ёрселф, теперь ползи занимайся своими делами, разговор закончен.

Ответить
Развернуть ветку
Евгений Пантелеев

Модель бота чем не устроила?

Какая математика нужна? Функции активации нейронов?)

Вбрасываете вы, не предлагая альтернатив, а человек и ссылку приложил, и ведет себя поадекватнее) Это к вопросу о поисках мотивов всех собеседников этой дискуссии..

Ответить
Развернуть ветку
Sergei Zotov
Модель бота чем не устроила?

тем, что это не математическая модель мозга, о чем говорилось изначально. Если вы запустите этого бота, он не будет способен мыслить, чувствовать, ощущать, что есть его "я", а вокруг него есть остальной мир. Т.е. у него не будет сознания, что также являлось первоначальной темой

Какая математика нужна? Функции активации нейронов?)

например, такая:
https://www.sciencedirect.com/science/article/pii/S1631069104000459

не предлагая альтернатив

потому что их нет. Мозг математически не описан. А следовательно создать компьютерную нейронную сеть, работающую как мозг, невозможно

вы не можете создать на коленке простой код, основываясь на "нейропсихологии", который внезапно опередит тысячи ученых, пытающихся воссоздать модель мозга на огромных GPU/TPU кластерах в MIT и других университетах

Это к вопросу о поисках мотивов всех собеседников этой дискуссии..

с регистрацией)

Ответить
Развернуть ветку
Ревербератор

Да забейте вы) Это фанатики какие-то религиозные)

Мозг математически не описан

Все давно описано. Теория систем называется. Вкратце суть в том, что нельзя познать познание находясь с ним на одном уровне. Никогда человек не сможет изучить способ своего мышления. Для этого надо быть надчеловеком. Поэтому "искусственный интеллект" это моветон в науке примерно как "вечный двигатель". Возможно из за этого инженера и выпиздовали с Гугла.

тысячи ученых, пытающихся воссоздать модель мозга

По описанной выше причине никто ничего не пытается. Современная наука имеет пару неплохих гипотез, например, о том, что эмоциональная природа сознания и, как следствие, возможно, способ мышления является результатом работы некоторых так называемых "древних" вирусов в мозгу. Над этим и работают сейчас ведущие исследовательские центры нейробиологии по всему миру в т.ч. в России. Других "пытающихся" тем для исследований я не знаю.

Ответить
Развернуть ветку
Ревербератор

И да, если кому-то вдруг интересно, то исследуемая сейчас "вирусная" теория поставит жирную точку в вопросах "устройства мозга".

Дальнейшие исследования "вниз" в этой области будут практически невозможны, как невозможны многие исследования "вверх" в вопросах наподобие устройства вселенной и т.д. - тупо из за технической недоступности исследуемой области.

Такой вот замкнутый микро макро круг мироздания.. Впрочем, разомкнутых "кругов" не бывает.. Или бывает? ;-)

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Евгений Пантелеев

Там после прочтения сразу видно, что человек эго свое почесать хочет, а не позволить себе допустить возможность того, что он не прав

А мне лень ссылку открывать :D

Ладно.. Открыл.. Надо ж не только эго чесать)
Вау, на русском. Блин, придется читать. Аудиоформат есть?)
Отпишусь, как прочитаю, спасибо)

Ответить
Развернуть ветку
Labeling

И что даёт вам основание считать, что ваши знания нейропсихологии применимы к данной теме? Похоже вы просто купились на слово "нейронный". Не просто так многие учёные в области AI, морщатся от названия "нейронные сети". Похожее оно и вправду вводит в заблуждение.

Ответить
Развернуть ветку
nochnoy.ru

"И что даёт вам основание считать, что ваши знания нейропсихологии применимы к данной теме? "
А о чём данная тема? О понятии "сознания", правда ведь? А сознание из чего строится? Из нейропсихологических механизмов.

Ответить
Развернуть ветку
Labeling

Нее, я больше про интеллект и речь как его проявление. Тот инженер из Гугла обманулся связной речью модели.

Ответить
Развернуть ветку
nochnoy.ru

Чёрт его знает что там было и о какой именно модели идёт речь, насколько она сложная. Я говорю о том, что возможно создать модель, которая ничем принципиально не будет оличаться от нас с нашим "сознанием" и "душой".

Ответить
Развернуть ветку
Labeling

Чтобы такую модель создать надо предоставлять как мозг человека работает. А этого понимания до сих пор нет.
В данном случае просто выдаётся связанный текст на тему, с помощью стать модели.

Ответить
Развернуть ветку
nochnoy.ru
Ответить
Развернуть ветку
Евгений Пантелеев

он обманулся не связной речью, а схожестью с сознанием
не надо преуменьшать специально, если хотите разобраться

Ответить
Развернуть ветку
Евгений Пантелеев

Пришлось зарегаться после прочтения вашей дискуссии.
Жму руку)
Понимаю, как может быть сложно донести до людей что-нибудь поверх их эгоизма. Проще гематоэнцефалический барьер преодолеть, чем до чистых мотивов добраться)

Тоже очень много смотрю нейропсихологии последнее время. Курпатов и Сапольски уже до дыр. И вот недавно начал думать на тему искусственного ии.
Пришел к тому, сознание, которые мы знаем, скорее всего просто нейронная сеть, которая анализирует работу другой нейронки (вот тут находится истинное я, бог, высшее состояние душы - называйте как хотите). И написать одно без другого так просто не выйдет)

Ну и да, в голове модель. Скорее всего, та же нейронка, которая работает моделями. И чем проще и понятнее эта модель, тем проще осознавать, что происходит, получать новые знания, строить новые модели.
Мир, правда, грустным становится, когда видишь все эти проблемы с эго из-за всех щелей, но это цена, которую надо заплатить)
Ох, куда-то меня занесло.

Понравился скрин с ботом, где можно эмоции выбирается - огонь.

И вот я читал эту переписку и был немного в шоке. Хорошо стелит)
Как ии с моделью построения диалогов, справляется потрясающе.

Какую математическую модель мозга надо Сергею Зотова, когда там все на нейронках работает.

Кстати, еще у меня уже три месяца крутится проект с ботами по крипте, который показывает 30% в месяц последние три месяца. Все подробно описывал на пикабу со всеми балансами и проч по нику directwix (чтобы ссылок не давать)

Прочитал первый коммент, задумался..
Действительно, тут может быть подобие Я, но это проекция Я в сознании, а не само Я, что лежит ниже, и что вроде ставит все на места))

Ответить
Развернуть ветку
вапроапеноапоап

Было бы неплохо познакомиться ещё и с информатикой

Ответить
Развернуть ветку
346 комментариев
Раскрывать всегда