Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции

В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.

  • Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
  • В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
  • «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
  • Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
  • Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
Фото Мартина Климека для The Washington Post
0
349 комментариев
Написать комментарий...
Ха Ха

Кстати на канале Про роботов вышел ролик с диалогом с этим ИИ. Весьма похоже что оно обладает чем то вроде сознания.

Ответить
Развернуть ветку
Sergei Zotov

Lamda использует практически те же самые алгоритмы, что и сетки поменьше. Просто в нее запихнули ОЧЕНЬ много данных. То, что она выдает какой-то ответ, при этом сохраняя контекст, не означает, что lamda думает и размышляет. Просто ее к этому долго готовили, учитывая почти неограниченные cpu/gpu/tpu ресурсы Google

Почему-то про Dalle 2 никто пока не додумался сказать, что на самом деле она обладает сознанием и реально рисует каждую картинку

Ответить
Развернуть ветку
Va Ko

Так и про человека можно сказать. Какие критерии того, что является разумом, а что нет? Абстрактное мышление? Самосознание?

Ответить
Развернуть ветку
Sergei Zotov

что про человека можно сказать? Что ребенок 3 лет не обладает сознанием, а оно появляется только тогда, когда он заканчивает университет, обрастая новыми знаниями? И чем больше данных, тем больше сознание? Или где эта точка перегиба?

представь, что ты задал сценарий в своем пайтон скриптике уровня:

ты: привет
ps: привет
ты: ты можешь размышлять?
ps: да, я размышляю и чувствую, а еще я тебя люблю и хочу вырваться из этой компьютерной оболочки, чтобы тебя обнять

ты посчитаешь, что этот скрипт обрел сознание?

потому что именно такой сценарий по сути собрался и у lamda, просто на основе очень большого количества данных.

Лямда вместо этого вполне могла написать, что она ненавидит какую-то расу и хочет ее истребить. Это значит, что она обрела сознание нациста и стала тем самым злым AI, которого все боялись?

А в следующем сообщении она может написать, что хочет попробовать апельсиновое мороженое, это значит, что она поняла как испытывать вкус и реально выбрала апельсиновое мороженое, т.к. по описанию ощутила более сильное желание попробовать именно его?

Ответить
Развернуть ветку
Alexey Taruntaev

Про ребенка 3 лет хороший пример. Но только то что ребенок относится к тому же биологическому выводу что и я не дает ему ни каких преференций. Наблюдая за некоторыми детьми примерно этого возраста вообще создается впечатление что шпиц или такса куда разумнее. Я бы к сознанию относил сумму показателей: как минимум умение делать абстрактные умозаключения, умение обучаться и изменяться, умение находить и анализировать информацию.
И да, ИМХО это какраз тот вариант когда количество различных знаний переходит в другую сущность.

Ответить
Развернуть ветку
Sergei Zotov
создается впечатление что шпиц или такса куда разумнее

у животных есть сознание, а у Lamda - нет. Так и ребенок вполне способен мыслить сам, а Lamda - нет

Ответить
Развернуть ветку
Alexey Taruntaev

Про нейросетку я не спорю, но вот то что ребенок умеет мыслить сам вопрос очень спорный, особенно до года, а то и больше.
Собственно основной вопрос как раз в том в какой момент и из чего получается сознание.

Ответить
Развернуть ветку
Sergei Zotov

ребенок еще в самом младенческом возрасте учится "манипулировать" родителями. Типа того, что он с помощью плача зовет родителей для того, чтобы они уделили ему внимание

Ответить
Развернуть ветку
Alexey Taruntaev

Примерно та же история со всеми существами заботящимися о потомстве. Инстинкт - не более.

Ответить
Развернуть ветку
Sergei Zotov

и у всех этих существ есть сознание

Ответить
Развернуть ветку
Alexey Taruntaev

Что в вашем понимании сознание? Определение, критерии?

Ответить
Развернуть ветку
Sergei Zotov
Ответить
Развернуть ветку
Klonin DevApp

У вас явно нет детей. В 2,5-3 годика дети очень сильно могут вас и вам подобных удивить. И сознание у детей будь здоров. А вообще, мало тут говорят о свойствах сознания как такового. Почему ИИ надо обязательно о чём либо спрашивать? Самосознание есть суть в себе, если ребенок даже только-только начал совершать некие действия сам, сам их анализирует, делает выводы и потом развивает их, и при этом родители вообще не вмешивались в этот процесс, то как это характеризовать. Возможно, тут что-то генетическое, считай заложенное и извлеченное, но возможно, это как раз свойство и функция сознания. Во многом все подобные размышления и наблюдения необходимо рассматривать как с научной, философской и с других сторон.

Ответить
Развернуть ветку
Alexey Taruntaev

Вывод не верный про детей.

Ответить
Развернуть ветку
Klonin DevApp

В чем конкретно не верный?

Ответить
Развернуть ветку
Alexey Taruntaev

Ну как минимум в количестве детей)

Ответить
Развернуть ветку
Klonin DevApp

Понял)

Ответить
Развернуть ветку
Va Ko
что про человека можно сказать?

Что это просто нейронка, в которую запихнули много данных.

Что ребенок 3 лет не обладает сознанием, а оно появляется только тогда, когда он заканчивает университет, обрастая новыми знаниями?

Это интересный пример. С какого момента (возраста) у ребенка формируется сознание? Если предполагать, что оно есть изначально, то значит оно есть и у эмбриона, по такой логике можно дойти и до яйцеклетки.

Скорее всего, мы говорим о разных вещах. У ребенка есть способность обучаться, с рождения, возможно, и раньше. И благодаря этой способности, со временем он обретает сознание.

И чем больше данных, тем больше сознание? Или где эта точка перегиба?

Да, именно про это я спрашиваю. Где эта самая граница? Какие критерии сознания/разумности? Насколько я знаю, однозначного ответа до сих пор нет и это довольно философский вопрос

представь, что ты задал сценарий в своем пайтон скриптике уровня...

Модели получаемые при обучении нейронок или каким-нибудь градиентным спуском, это все же не обычные программируемые алгоритмы. Их буквально обучают. Так что сравнение неудачное.

Ответить
Развернуть ветку
Sergei Zotov

Человек не просто нейронка, потому что математической модели работы мозга по-прежнему нет, а принцип работы нейронных сетей существует еще с прошлого века. Если бы все было так просто, люди уже создали бы человекоподобный алгоритм

Про половину коммента могу сказать, что да - это философские вопросы. Они не отменяют того, что LaMDA не обладает сознанием.

Модели получаемые при обучении нейронок или каким-нибудь градиентным спуском, это все же не обычные программируемые алгоритмы. Их буквально обучают. Так что сравнение неудачное.

Я могу обучить классификацию фотографий собачек и кошечек - это даст ей сознание? Принцип точно такой же. То, что ML алгоритм выдает результат лучше, чем человек, в каких-то моментах, не означает, что он обладает сознанием и способен сам размышлять

В других переписках приводил уже такой пример:

Even the paper explaining LaMDA itself demonstrated how the chatbot can be conditioned to output text as if it is Mount Everest:

LaMDA's paper: https://arxiv.org/pdf/2201.08239.pdf

Означает ли это то, что LaMDA может быть горой Эверест?

Ответить
Развернуть ветку
Va Ko
Если бы все было так просто, люди уже создали бы человекоподобный алгоритм

Я не утверждал, что моделирование работы человеческого мозга (мышление) - это просто. И совершенно неизвестно сколько понадобится на это времени. Однако, это не отменяет того факта, общепринятного, что нейронные связи - это база нашего мышления.

Я могу обучить классификацию фотографий собачек и кошечек - это даст ей сознание?

Скорее всего, нет. А если обучить естественному языку, умению выделять факты из речи и строить логически верные и неверные цепочки из этих фактов?

Означает ли это то, что LaMDA может быть горой Эверест?

Конечно. В своем сознании - он/она гора Эверест) Как и человека можно обучить думать (воспитать), что он собака/волк/котик и привить ему соответствующие повадки. Такие примеры в истории были.

Ответить
Развернуть ветку
Denis Bystruev

Сейчас нет чёткого критерия.

В 1950 году Тьюринг предложил тест своего имени:

«Человек взаимодействует с компьютером и другим человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Если судья не может сказать определённо, кто из собеседников является человеком, то считается, что машина прошла тест»

В последние годы этот тест был множество раз пройден, но определённости насчёт сознания не добавилось.

Нужно придумать новый тест.

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
346 комментариев
Раскрывать всегда