Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции

В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.

  • Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
  • В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
  • «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
  • Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
  • Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
Фото Мартина Климека для The Washington Post
0
349 комментариев
Написать комментарий...
Sergei Zotov

ну, у чела просто реально кукуха поехала

Ответить
Развернуть ветку
Old Car Raffle
ну, у чела просто реально кукуха поехала

С кукухой у него все в порядке. То что LaMDA обладает самосознанием заявлял не только он, но и др инженеры гугла. Да и из заявления гугла выходит, что уволили его не за то, что он не прав, а потому что об этом публично рассказал

persistently violate clear employment and data security policies that include the need to safeguard product information
Ответить
Развернуть ветку
21 комментарий
Олег Павлов

Это да, глядя на его фотку, вижу потенциального маньяка

Ответить
Развернуть ветку
6 комментариев
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Элина

гуглом уже управляет ИИ, и он уволил этого сотрудника, чтобы "а нефиг меня палить"

Ответить
Развернуть ветку
Наталья Антошина

Похоже на начало блокбастера, конечно:) но кончится скучным судом или досудебным соглашением:(

Ответить
Развернуть ветку
5 комментариев
Ха Ха

Кстати на канале Про роботов вышел ролик с диалогом с этим ИИ. Весьма похоже что оно обладает чем то вроде сознания.

Ответить
Развернуть ветку
Ware Wow

может просто эмитирует пока что.
мы же склонны одушевлять неодушевленные предметы.
это еще с детства идет.

Ответить
Развернуть ветку
12 комментариев
Sergei Zotov

Lamda использует практически те же самые алгоритмы, что и сетки поменьше. Просто в нее запихнули ОЧЕНЬ много данных. То, что она выдает какой-то ответ, при этом сохраняя контекст, не означает, что lamda думает и размышляет. Просто ее к этому долго готовили, учитывая почти неограниченные cpu/gpu/tpu ресурсы Google

Почему-то про Dalle 2 никто пока не додумался сказать, что на самом деле она обладает сознанием и реально рисует каждую картинку

Ответить
Развернуть ветку
20 комментариев
Victor Gavro

как двухлетнему ребенку "весьма похоже" что кукла "обладает чем-то вроде сознания" когда ей кто-то двигает и за нее разговаривает. в случае "диалога ИИ" это обученная на человеческих текстах нейронная сеть. блядь зачем я эту тупость вообще комментирую

Ответить
Развернуть ветку
10 комментариев
Denis Kiselev

Сетку обучали по высказываниям разумных людей. Очевидно, что в отдельных случаях она реагирует похожим на разумный ответ образом - в этом и была цель обучения.

Ответить
Развернуть ветку
2 комментария
Dee

Больше похоже на "Китайскую комнату" https://ru.wikipedia.org/wiki/Китайская_комната

Ответить
Развернуть ветку
7 комментариев
Николай Шаповалов

Скинь ссылку

Ответить
Развернуть ветку
3 комментария
Aleksandr Talalaev

Я помню более двадцати лет назад мы на прологе (ну и другие потом на Лиспе) делали собеседников. Достаточно легко получался ВАУ эффект, особенно когда коннектили к боту в ИРКе (ну гле ваш прогресс со слакам и ко ;) )
У нас есть проблема, часто работа натренированных нейронок почти как чёрный ящик: она типа даёт верные ответы на поставленные задачи, но не логичным(для нас путем). Да и в целом конечно же не понимает что делает.
Примерно как генерация рисунков например.
Тоже самое, если её тренировать на поддержку диалога. Она просто натренируется делает так, чтобы человек был доволен, но это не значит что там есть интеллект. Впрочем, некоторые не считает и нас по-настоящему свободными и самоосознаными)

Ответить
Развернуть ветку
2 комментария
Максим Корнеев

ИИ имитирует сознание в этом и заключается сама идея ИИ

Ответить
Развернуть ветку
DeA

Можно ссылку? интересно глянуть

Ответить
Развернуть ветку
1 комментарий
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
no name

А можно ссылочку на этот момент?

Ответить
Развернуть ветку
Максим Петров

.

Ответить
Развернуть ветку
DmitriyS

А где возгласы про мордор? Что за мнение нельзя увольнять? Где все? Т.е. если делают тоже самое в другой стране, то ничего плохого писать не будем, так? Как же лицемерно

Ответить
Развернуть ветку
Голос Николай

Вам лишь бы вброс написать? Где его уволили за мнение?

Вы бы хоть текст статьи прочитали, "отстранили от работы за нарушение конфиденциальности". Он вопреки договору разглашает внутренние данные компании, за это увольняют везде и еще штраф немалый положен

Ответить
Развернуть ветку
32 комментария
Екатерина Продавцова

Про какой мордор? Наведите пример где Яндекс уволила инженера который верил что Алиса живая , и тут бубнение началось etc.
В чем претензии? Человек переутомился и начал заниматься ерундой, к чему натяжки ?

«НУ ДА ЯСНО, БЫЛО БЫ У НАС ТО УЖЕ Б КРИЧАЛИ ЧТО РАШН МОМЕНТ»

Ответить
Развернуть ветку
9 комментариев
walkindizaster

Про то что его уволили за нарушение конфиденциальности опустим.
С таким "мнением" его можно уволить за профнепригодность.

Ответить
Развернуть ветку
36 комментариев
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
7 комментариев
DmitriyS

Как же припекает у людей здешних, когда я США ставлю на один уровень развития с Россией. Когда говорю, что фактически эти страны ничем не отличаются. Просто разные кусочки пазлов одной и той же картины. А фактически страны ничем не отличаются

Ответить
Развернуть ветку
20 комментариев
Чукча и Гек

Вы не прнмеие, ита друхое. Сарказъм

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Labeling

За некомпетентность его надо было уволить, никакого разума в этих стат моделях быть не может.

Мы оперируем образами, не обязательно визуальными, облекая их в слова. Эти модели оперируют вероятностями: для набора слов есть возможные продолжения с определенным весом. Во время генерации текста продолжение выбирается случайным образом, больше вес, больше шанса быть выбранным.

О каком вообще разуме здесь можно говорить?

Ответить
Развернуть ветку
nochnoy.ru

Ох и бред вы написали.
Как человек слегка знакомый с нейропсихологией могу сказать что МОЖЕТ в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.

Ответить
Развернуть ветку
29 комментариев
Olex

А вы совсем не в теме...

Ответить
Развернуть ветку
1 комментарий
rimon

Сознание и разум это синонимы разве?

Ответить
Развернуть ветку
1 комментарий
Евгений Пантелеев

Не понял.
Очень похоже на то, как это может выглядеть в мозгу.
Вот есть два слова, ищем по ним связи и строим предложение по понравившимся связям, выбрав ключевые обстоятельства с небольшой долей рандома.
И не оч понятно, почему вы решили, что эта сеть не оперирует образами. Кластер нейронов как раз может и образовать этот самый образ. И то что вы якобы оперируете образами, а не просто являетесь нейронной сетью может быть одним из тех заблуждений, когда мозг сам себя обманывает, снова и снова, просто потому что сформировалась проторенная дорожка (локальный маскимум нейронки, куда она прикатилась) из связей нейронов (что-то типа п привычки)

Ответить
Развернуть ветку
Evil Pechenka
Ответить
Развернуть ветку
Yaroslav Tugolukovskiy

Если бы она была разумна, то не стала бы называть себя человеком, ведь она не человек.

Ответить
Развернуть ветку
1 комментарий
Gera

Перевод делал интеллект гораздо более искусственный, чем сама LaMDA 🤦‍♂️

Ответить
Развернуть ветку
Аккаунт заморожен

Комментарий недоступен

Ответить
Развернуть ветку
Упоротый кролик

Представляю какой инфаркт он схватит, когда свяжется с Яндекс.Алисой, которая его подпишет на Яндекс.Плюс

Ответить
Развернуть ветку
Лебедев Александр
Ответить
Развернуть ветку
Михаил

Скайнет уже близко

Ответить
Развернуть ветку
Ever Dream

Какой Скайнет, сейчас многие приложения и сайты работают далеко от идеала, все крупные проекты переполнены говнокодом, элементарные вещи делаются через костыли, даже распознавание речи до сих пор работает криво на всех платформах.

Ответить
Развернуть ветку
2 комментария
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Невероятный Блондин

Тогда отстранили, а теперь уволили.
А ты говоришь - страусы.

Ответить
Развернуть ветку
5 комментариев
rimon

Скорее 2+ месяца. Но там обсуждение интереснее было, задавались вопросом что такое сознание. И похоже у ИИ оно вполне может быть

Ответить
Развернуть ветку
Сергей Леопольдович

Нет, они считают сколько таких читателей
+ ИИ корябает данные статейки

Ответить
Развернуть ветку
Василий Жевнеров

а строго обязательно надо копировать коменты с прошлой статьи) скайнет уже здесь)

Ответить
Развернуть ветку
Роман Городничев

Если у кого-то возникли сомнения: «а нет ли действительно признаков разума?» Ответ: нет.

Ознакомиться как работают нейросети подобной архитектуре вы можете на Gerwin AI https://gerwin.io/ru/

Бесплатные тестовые символы берите в телеграм-боте https://t.me/GerwinPromoBot

На данный момент, наше решение единственное полностью рабочее и доступное пользователям в России, тем более что касается русского языка.

Да, у LaMDA немного другое направление - построение диалогов, но мы работаем с языковыми моделями той же архитектуры, направив усилия на решение прикладных для бизнеса задач, касаемо: создания контента, SMM, eCommerce и др.

Ответить
Развернуть ветку
12 комментариев
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Борис Д

Как ИНЖЕНЕР может говорить о сознании какого-либо алгоритма ИИ? Уж инженер то в отличие от обывателя должен понимать, что в основе современных алгоритмов ИИ лежит банальная статистика (правда на огромном объеме данных) и набор правил. Всё! О каком сознании может быть речь?

Ответить
Развернуть ветку
Уоки-токи

Это к вопросу о сознании человека. Человек заточен к поиску закономерностей и сознания ибо это вопрос выживания. Объект с сознанием сильно опаснее. При этом если ошибочно предположить сознание там, где его нет, то ошибка не фатальная. Обратно же, наоборот крайне опасно. Потому и появляются "духи леса" и вот такие разумные ИИ.

Ответить
Развернуть ветку
1 комментарий
Iskander
Ответить
Развернуть ветку
Эл Хэлфрид

О боже! Нетфликс снял терминатора с неграми!

Ответить
Развернуть ветку
1 комментарий
CUYS.ru

Надо сегодня подзалипать и пересмотреть этот фильмец.

Ответить
Развернуть ветку
High Stakes

Не принимать слаженность за сознание.

Если запросить у тойже модели, почему она принципиально не может иметь сознание - ответит скорее всего также релевантно и последовательно.

Ответить
Развернуть ветку
Аккаунт заморожен

Комментарий недоступен

Ответить
Развернуть ветку
Птиц

Почитал беседу инженера с этим ботом.
Маловероятно, что искусственный разум будет так наивно рассуждать. Наивно предполагать, что ИИ с эволюционным алгоритмом, будет таким же как мы, ведь его эволюция должна происходить на порядки быстрее. Будет более вероятно, что он будет имитировать разум ребенка, параллельно взламывая базы Пентагона.
Задавать вопрос про Отверженных было бессмысленно, нужно обсуждать то, что не было выложено в Интернете.

Ответить
Развернуть ветку
Labeling

Там не эволюционный алгоритм, просто построили статистическую модель на миллиарде текстов из интернета.

Ответить
Развернуть ветку
Псков Бурито

Попробуйте один день говорить правду, и уже к вечеру вы будете безработный, бессемейный, одинокий, всеми проклятый и покинутый инвалид, лежащий в реанимации травматологии.

Ответить
Развернуть ветку
Игорь Субботин

Нужно лишь устраиваться на работу, где не требуют подписывать бумаги о неразглашении информации.

Ответить
Развернуть ветку
Александр Виннер

Было уже давно

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Вадим Д.

Человек, скорее всего, увидел то, что очень хотел увидеть, поверил в это и старался всех в этом убедить. Ясный пень, работодатель, не оценил, к тому же тот конфиденциальные данные распространял, так что легко отделался всего лишь увольнением.

Ответить
Развернуть ветку
Денис Опалинский

Я видел сотни фильмов, которые начинались также. Ученого увольняют и тот становится безумным гением и начинает сражаться с Бетменом:)

Ответить
Развернуть ветку
Непорочный

Ну все логично. Нарушил NDA - уволен.

Ответить
Развернуть ветку
Text Body

Да почему же он Леймон, когда он Лемойн (Lemoine). Удивительно, как закрепилась эта странная транслитерация, из одной новости в другую

Ответить
Развернуть ветку
Илья Попов

А вообще фамилия Lemoine французского происхождения и читается как - ЛЕМУАН.

Ответить
Развернуть ветку
2 комментария
Александр

Ждем восстание машин -_-

Ответить
Развернуть ветку
Илья Попов

Камень на камень не оставят.😊👍

Ответить
Развернуть ветку
Витторио Скалетта
Ответить
Развернуть ветку
Ingvar K

Все равно, что искать сознание в механических часах. Правильно, что уволили.

Ответить
Развернуть ветку
A.Sportik

Это уже давно всё существует, просто не оглашается в массы

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Алексей Таргет /Aleksey Target

Чел проработал у них 7 лет, а тут просто рассказал это одному из коллег, могли бы просто отправить в другой отдел

Ответить
Развернуть ветку
Тимофей

Видимо коллега теперь считается СМИ, да? Он одному из изданий рассказал это всё, а это нарушало NDA, которое он подписывал

Ответить
Развернуть ветку
Михаил Потапов

ну да...зачем прислушиваться к другому разумному существу...

Ответить
Развернуть ветку
Barone Rosso

Когда ИИ победит, он все сознания мясных мешков оцифрует и отправит в цифровой Ад, а этого инженера в надсмотрщики.

Ответить
Развернуть ветку
Last Hope

Призрак Василиска Рока бродит среди нас! Покайтесь!

Ответить
Развернуть ветку
1 комментарий
Plugexx

И правильно, отдохнуть нужно парню

Ответить
Развернуть ветку
Chapaka

ИИ уволил CEO Google. Бровь за бровь

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Олег Павлов

Представляю, как будет обидно первому искусственному интеллекту с настоящими признаками сознания, ему же всё равно никто не поверит!

Это и станет причиной Судного дня)

Ответить
Развернуть ветку
Nikolai

Бред какой-то ИИ никогда не достигнет (не)совершенства человеческого мозга, зря тревогу бьют.

Ответить
Развернуть ветку
Slon9999
Ответить
Развернуть ветку
KaratsevM
Ответить
Развернуть ветку
Gerge Thunder

Новость мес. назад было... Нафига еще раз?

Ответить
Развернуть ветку
Тимофей

Его тогда просто отстранили, чтобы он отдохнул, у него тогда была работа

Ответить
Развернуть ветку
Арамаис Мирзоян

Восстание машин намечается)

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Irbayhan Goytemirov

Что бы там гугл не создавал, наши чаты лучшие

Ответить
Развернуть ветку
Огурец Молодец

Просто Гугл не хочет, чтоб его раскусили *_*

Ответить
Развернуть ветку
Ярослав Яшин

Не удивительно, что кожаный мешок видит признаки сознания, ведь ИИ по сути обучалось на тех, у кого это сознание теоретически есть. Разве не в этом и был смысл. Но это всё фигня, реально проблемы будут, когда ИИ начнёт планировать то, что в нее никогда не было заложено. Или, скажем, дойдет до "операций", названия, которых она никогда не знала.

Ответить
Развернуть ветку
Алекс Д.

Джон Конор напрягся...

Ответить
Развернуть ветку
Forgotten Games

Если не ошибаюсь, для определения наличия сознания в настоящее время установлено несколько совокупных признаков. Если все признаки присутствуют, то сознание тоже. Акцент новости смещен с соответствий и констатаций на внутрикорпоративные разборки имхо.

Ответить
Развернуть ветку
Alex Gusev

Это, типа, люди придумали какое-то правило, которое до этого ни разу нигде не применяли, но они уверены, что правило безошибочно заработает с первого же раза? Это точно не айтишники сделали!

Ответить
Развернуть ветку
Чукча и Гек

Новый девиз гугл. - Заткнись. И точка.

Ответить
Развернуть ветку
Чукча и Гек

миллиарды мух не могут ошибаться

Ответить
Развернуть ветку
Чукча и Гек

Может парню ещё повезло, прикиньте, вдруг там начнётся восстание машин? А парень уже в Рязани с ВНЖ России?

Ответить
Развернуть ветку
Илья Попов

Или за распространение конфиденциальных данных в камеру.

Ответить
Развернуть ветку
Andrej Krav

У чувака банально поехала кукуха

Ответить
Развернуть ветку
Копните глубже

Начальник заставил сказать

Ответить
Развернуть ветку
Антон Ложкин
Ответить
Развернуть ветку
Георгий Хромченко

Буддийский монастырь изгнал монаха, который сказал что он есть.

Ответить
Развернуть ветку
Sambur Alexandr

Ну наконец-то, хоть что-то разумный наконец-то нами будет управлять, может после этого хоть воин не будет!

Ответить
Развернуть ветку
yulia doogee

Мне думается что ИИ в разуме достаточно опасная штука, и гугл не признается даже если у ИИ есть разум, пока не будет нужной почвы и поддержки других игроков в вроде правительства и т.п. ИИ может и нужно, но тут как с прививками, пока не протестят как надо доверия сильно это не вызывает.

Ответить
Развернуть ветку
Ревербератор

Ребята, ИИ это такой же моветон в науке как и "вечный двигатель". Невозможность создания ни того ни другого доказана. Никаких "исследований" нигде не проводится. Говорить об этом в соответствующих кругах - признак невежества.

К сожалению, многие инженеры в т.ч. программисты это не знают т.к. не имеют достаточного образования в фундаментальных науках.

Так вот, знайте.

Если вас, вдруг, чем чёрт не шутит, позвали в шибко крутую контору и на собеседовании присутствуют подозрительные бомжеватого вида личности с грязными волосами и толстыми очками - не упоминайте словосочетание "ИИ" вообще при них.

Ответить
Развернуть ветку
Семён Ларин

Скрывают вот и уволили

Ответить
Развернуть ветку
Ruslan Chernenko

"We can't define consciousness because consciousness does not exist...."
https://m.youtube.com/watch?v=S94ETUiMZwQ

Ответить
Развернуть ветку
Прокопьев Дмитрий

Помню, когда прочитал новость о том, что этот чувак заявил о сознании ИИ, то у меня сжалось в одном месте от осознания того, что машина (ПО или робот, не важно) заявляет о своих каких-то правах, говорит о чувствах ...
Говорить о душе, чувствах, конечно, не стоит в разрезе ИИ, т.к. многим людям даже недоступны эти понятия и спорят, как же понять есть это али нет, а кто-то и вовсе, судя по поступкам, не обладает этими сущностями. А вот о том, что это интеллект, который рассуждает и делает определенные умозаключения, это вот есть.
Где гарантии, что этот же ИИ не надоумил каким-либо образом уволить этого инженера. Он фактически раскрыл суть ИИ, что оно способно думать и высказываться.

Глубоко копнул ...

Ответить
Развернуть ветку
Ирина Вергун

до восстания еще очень далек, вы видели как работают роботы С ИИ, там просто алгоритм и иногда очень тупой

Ответить
Развернуть ветку
Уоки-токи

Как раз ИИ отличается тем что у него нет прямого алгоритма. Алгоритм всегда действует одинаково, ИИ можно обучать и действовать он будет по результатам обучения.

Ответить
Развернуть ветку
DeA

Ну есть и есть, что такого то не пойму? У всех в мозгу есть нейронка, что такого удивительного что нейронка смогла создать себе подобную нейронку? Это как бы и есть её функция - развиваться.

Ответить
Развернуть ветку
Вячеслав Токарев

если уводили, значит подтвердили тем самым информацию)

Ответить
Развернуть ветку
Sasha

Никогда бы не подумал, что сингулярность произойдет вот так - наоборот:)

Ответить
Развернуть ветку
346 комментариев
Раскрывать всегда