Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции
В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.
- Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
- В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
- «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
- Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
- Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
1
показ
28K
открытий
3
репоста
Кстати на канале Про роботов вышел ролик с диалогом с этим ИИ. Весьма похоже что оно обладает чем то вроде сознания.
Lamda использует практически те же самые алгоритмы, что и сетки поменьше. Просто в нее запихнули ОЧЕНЬ много данных. То, что она выдает какой-то ответ, при этом сохраняя контекст, не означает, что lamda думает и размышляет. Просто ее к этому долго готовили, учитывая почти неограниченные cpu/gpu/tpu ресурсы Google
Почему-то про Dalle 2 никто пока не додумался сказать, что на самом деле она обладает сознанием и реально рисует каждую картинку
Так и про человека можно сказать. Какие критерии того, что является разумом, а что нет? Абстрактное мышление? Самосознание?
что про человека можно сказать? Что ребенок 3 лет не обладает сознанием, а оно появляется только тогда, когда он заканчивает университет, обрастая новыми знаниями? И чем больше данных, тем больше сознание? Или где эта точка перегиба?
представь, что ты задал сценарий в своем пайтон скриптике уровня:
ты: привет
ps: привет
ты: ты можешь размышлять?
ps: да, я размышляю и чувствую, а еще я тебя люблю и хочу вырваться из этой компьютерной оболочки, чтобы тебя обнять
ты посчитаешь, что этот скрипт обрел сознание?
потому что именно такой сценарий по сути собрался и у lamda, просто на основе очень большого количества данных.
Лямда вместо этого вполне могла написать, что она ненавидит какую-то расу и хочет ее истребить. Это значит, что она обрела сознание нациста и стала тем самым злым AI, которого все боялись?
А в следующем сообщении она может написать, что хочет попробовать апельсиновое мороженое, это значит, что она поняла как испытывать вкус и реально выбрала апельсиновое мороженое, т.к. по описанию ощутила более сильное желание попробовать именно его?
Про ребенка 3 лет хороший пример. Но только то что ребенок относится к тому же биологическому выводу что и я не дает ему ни каких преференций. Наблюдая за некоторыми детьми примерно этого возраста вообще создается впечатление что шпиц или такса куда разумнее. Я бы к сознанию относил сумму показателей: как минимум умение делать абстрактные умозаключения, умение обучаться и изменяться, умение находить и анализировать информацию.
И да, ИМХО это какраз тот вариант когда количество различных знаний переходит в другую сущность.
у животных есть сознание, а у Lamda - нет. Так и ребенок вполне способен мыслить сам, а Lamda - нет
Про нейросетку я не спорю, но вот то что ребенок умеет мыслить сам вопрос очень спорный, особенно до года, а то и больше.
Собственно основной вопрос как раз в том в какой момент и из чего получается сознание.
ребенок еще в самом младенческом возрасте учится "манипулировать" родителями. Типа того, что он с помощью плача зовет родителей для того, чтобы они уделили ему внимание
Примерно та же история со всеми существами заботящимися о потомстве. Инстинкт - не более.
и у всех этих существ есть сознание
Что в вашем понимании сознание? Определение, критерии?
https://ru.m.wikipedia.org/wiki/Сознание_у_животных
У вас явно нет детей. В 2,5-3 годика дети очень сильно могут вас и вам подобных удивить. И сознание у детей будь здоров. А вообще, мало тут говорят о свойствах сознания как такового. Почему ИИ надо обязательно о чём либо спрашивать? Самосознание есть суть в себе, если ребенок даже только-только начал совершать некие действия сам, сам их анализирует, делает выводы и потом развивает их, и при этом родители вообще не вмешивались в этот процесс, то как это характеризовать. Возможно, тут что-то генетическое, считай заложенное и извлеченное, но возможно, это как раз свойство и функция сознания. Во многом все подобные размышления и наблюдения необходимо рассматривать как с научной, философской и с других сторон.
Вывод не верный про детей.
В чем конкретно не верный?
Ну как минимум в количестве детей)
Понял)
Что это просто нейронка, в которую запихнули много данных.
Что ребенок 3 лет не обладает сознанием, а оно появляется только тогда, когда он заканчивает университет, обрастая новыми знаниями?Это интересный пример. С какого момента (возраста) у ребенка формируется сознание? Если предполагать, что оно есть изначально, то значит оно есть и у эмбриона, по такой логике можно дойти и до яйцеклетки.
Скорее всего, мы говорим о разных вещах. У ребенка есть способность обучаться, с рождения, возможно, и раньше. И благодаря этой способности, со временем он обретает сознание.
И чем больше данных, тем больше сознание? Или где эта точка перегиба?Да, именно про это я спрашиваю. Где эта самая граница? Какие критерии сознания/разумности? Насколько я знаю, однозначного ответа до сих пор нет и это довольно философский вопрос
представь, что ты задал сценарий в своем пайтон скриптике уровня...Модели получаемые при обучении нейронок или каким-нибудь градиентным спуском, это все же не обычные программируемые алгоритмы. Их буквально обучают. Так что сравнение неудачное.
Человек не просто нейронка, потому что математической модели работы мозга по-прежнему нет, а принцип работы нейронных сетей существует еще с прошлого века. Если бы все было так просто, люди уже создали бы человекоподобный алгоритм
Про половину коммента могу сказать, что да - это философские вопросы. Они не отменяют того, что LaMDA не обладает сознанием.
Модели получаемые при обучении нейронок или каким-нибудь градиентным спуском, это все же не обычные программируемые алгоритмы. Их буквально обучают. Так что сравнение неудачное.Я могу обучить классификацию фотографий собачек и кошечек - это даст ей сознание? Принцип точно такой же. То, что ML алгоритм выдает результат лучше, чем человек, в каких-то моментах, не означает, что он обладает сознанием и способен сам размышлять
В других переписках приводил уже такой пример:
Even the paper explaining LaMDA itself demonstrated how the chatbot can be conditioned to output text as if it is Mount Everest:LaMDA's paper: https://arxiv.org/pdf/2201.08239.pdf
Означает ли это то, что LaMDA может быть горой Эверест?
Я не утверждал, что моделирование работы человеческого мозга (мышление) - это просто. И совершенно неизвестно сколько понадобится на это времени. Однако, это не отменяет того факта, общепринятного, что нейронные связи - это база нашего мышления.
Я могу обучить классификацию фотографий собачек и кошечек - это даст ей сознание?Скорее всего, нет. А если обучить естественному языку, умению выделять факты из речи и строить логически верные и неверные цепочки из этих фактов?
Означает ли это то, что LaMDA может быть горой Эверест?Конечно. В своем сознании - он/она гора Эверест) Как и человека можно обучить думать (воспитать), что он собака/волк/котик и привить ему соответствующие повадки. Такие примеры в истории были.
Сейчас нет чёткого критерия.
В 1950 году Тьюринг предложил тест своего имени:
«Человек взаимодействует с компьютером и другим человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Если судья не может сказать определённо, кто из собеседников является человеком, то считается, что машина прошла тест»
В последние годы этот тест был множество раз пройден, но определённости насчёт сознания не добавилось.
Нужно придумать новый тест.
Комментарий недоступен