Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции

В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.

  • Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
  • В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
  • «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
  • Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
  • Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
Фото Мартина Климека для The Washington Post
0
349 комментариев
Написать комментарий...
Labeling

За некомпетентность его надо было уволить, никакого разума в этих стат моделях быть не может.

Мы оперируем образами, не обязательно визуальными, облекая их в слова. Эти модели оперируют вероятностями: для набора слов есть возможные продолжения с определенным весом. Во время генерации текста продолжение выбирается случайным образом, больше вес, больше шанса быть выбранным.

О каком вообще разуме здесь можно говорить?

Ответить
Развернуть ветку
nochnoy.ru

Ох и бред вы написали.
Как человек слегка знакомый с нейропсихологией могу сказать что МОЖЕТ в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.

Ответить
Развернуть ветку
Sergei Zotov
слегка знакомый с нейропсихологией

с дата сайенсом тоже слегка знакомы?

в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.

да что вы, и модель человеческого мозга уже где-то воссоздана? Хотя бы пейпер дайте почитать что ли. Потому что если не воссоздана хотя бы математически, то с помощью компьютерных нейронных сетей (которые очень примитивно моделируют то, как работают нейроны) какое-либо подобие мозга точно нельзя воссоздать на текущий момент

Ответить
Развернуть ветку
nochnoy.ru

Данных о психике собрано предостаточно, как всё работает - известно. Модели живой психики тоже вполне пытаются делать. Вот одна из попыток, пишется на языке Go: https://scorcher.ru/conscience/results_report.pdf

Ответить
Развернуть ветку
Sergei Zotov

вы серьезно считаете, что вот это моделирует человеческое сознание?

88 страниц болтологии без какой-либо математики, а в конце админка с параметрами. В следующий раз жду опросник на укозе, который обладает сознанием

Ответить
Развернуть ветку
nochnoy.ru

Да, серьёзно считаю.
Какая "математика" вам нужна? То что у нас в голове - не укладывается в красивую математическую модель, там наслоения прижившихся за миллионы лет механизмов, каждый из которых надо моделировать отдельно. Это очень сложная хрень, если вы думаете что вам кто-то даст мануал как для языка программирования, вы почитаете и поймёте как устроено сознание - у меня для вас плохие новости.
А что касается болтологии и админки - автор - не дизайнер, он всю жизнь занимался нейропсихологией и электроникой. Сделал как мог. Это не корпорация типа гугла, там всего несколько человек, у них сейчас задача хоть как-то всё это собрать и заставить работать.

Ответить
Развернуть ветку
Sergei Zotov
Как человек слегка знакомый с нейропсихологией могу сказать что МОЖЕТ в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.
Какая "математика" вам нужна? То что у нас в голове не укладывается в красивую математическую модель, там наслоения прижившихся за миллионы лет механизмов, каждый из которых надо моделировать отдельно

ясно-понятно. Модель, конечно, не математическая, а только слова и в конце обязательно админка с конфигом. Если бы вы знали, что компьютерные нейронные сети изначально математика, то не писали бы ничего подобного.

То, что вы сбросили, - обычная заскриптованная фиговина, которую по факту реализовали в Sims еще 20 лет назад. Никакого сознания и разума там нет.

Ответить
Развернуть ветку
Евгений Пантелеев

Модель бота чем не устроила?

Какая математика нужна? Функции активации нейронов?)

Вбрасываете вы, не предлагая альтернатив, а человек и ссылку приложил, и ведет себя поадекватнее) Это к вопросу о поисках мотивов всех собеседников этой дискуссии..

Ответить
Развернуть ветку
Sergei Zotov
Модель бота чем не устроила?

тем, что это не математическая модель мозга, о чем говорилось изначально. Если вы запустите этого бота, он не будет способен мыслить, чувствовать, ощущать, что есть его "я", а вокруг него есть остальной мир. Т.е. у него не будет сознания, что также являлось первоначальной темой

Какая математика нужна? Функции активации нейронов?)

например, такая:
https://www.sciencedirect.com/science/article/pii/S1631069104000459

не предлагая альтернатив

потому что их нет. Мозг математически не описан. А следовательно создать компьютерную нейронную сеть, работающую как мозг, невозможно

вы не можете создать на коленке простой код, основываясь на "нейропсихологии", который внезапно опередит тысячи ученых, пытающихся воссоздать модель мозга на огромных GPU/TPU кластерах в MIT и других университетах

Это к вопросу о поисках мотивов всех собеседников этой дискуссии..

с регистрацией)

Ответить
Развернуть ветку
Ревербератор

Да забейте вы) Это фанатики какие-то религиозные)

Мозг математически не описан

Все давно описано. Теория систем называется. Вкратце суть в том, что нельзя познать познание находясь с ним на одном уровне. Никогда человек не сможет изучить способ своего мышления. Для этого надо быть надчеловеком. Поэтому "искусственный интеллект" это моветон в науке примерно как "вечный двигатель". Возможно из за этого инженера и выпиздовали с Гугла.

тысячи ученых, пытающихся воссоздать модель мозга

По описанной выше причине никто ничего не пытается. Современная наука имеет пару неплохих гипотез, например, о том, что эмоциональная природа сознания и, как следствие, возможно, способ мышления является результатом работы некоторых так называемых "древних" вирусов в мозгу. Над этим и работают сейчас ведущие исследовательские центры нейробиологии по всему миру в т.ч. в России. Других "пытающихся" тем для исследований я не знаю.

Ответить
Развернуть ветку
Ревербератор

И да, если кому-то вдруг интересно, то исследуемая сейчас "вирусная" теория поставит жирную точку в вопросах "устройства мозга".

Дальнейшие исследования "вниз" в этой области будут практически невозможны, как невозможны многие исследования "вверх" в вопросах наподобие устройства вселенной и т.д. - тупо из за технической недоступности исследуемой области.

Такой вот замкнутый микро макро круг мироздания.. Впрочем, разомкнутых "кругов" не бывает.. Или бывает? ;-)

Ответить
Развернуть ветку
346 комментариев
Раскрывать всегда