Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции

В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.

  • Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
  • В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
  • «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
  • Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
  • Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
Фото Мартина Климека для The Washington Post
0
349 комментариев
Написать комментарий...
Labeling

За некомпетентность его надо было уволить, никакого разума в этих стат моделях быть не может.

Мы оперируем образами, не обязательно визуальными, облекая их в слова. Эти модели оперируют вероятностями: для набора слов есть возможные продолжения с определенным весом. Во время генерации текста продолжение выбирается случайным образом, больше вес, больше шанса быть выбранным.

О каком вообще разуме здесь можно говорить?

Ответить
Развернуть ветку
nochnoy.ru

Ох и бред вы написали.
Как человек слегка знакомый с нейропсихологией могу сказать что МОЖЕТ в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.

Ответить
Развернуть ветку
Labeling

И что даёт вам основание считать, что ваши знания нейропсихологии применимы к данной теме? Похоже вы просто купились на слово "нейронный". Не просто так многие учёные в области AI, морщатся от названия "нейронные сети". Похожее оно и вправду вводит в заблуждение.

Ответить
Развернуть ветку
nochnoy.ru

"И что даёт вам основание считать, что ваши знания нейропсихологии применимы к данной теме? "
А о чём данная тема? О понятии "сознания", правда ведь? А сознание из чего строится? Из нейропсихологических механизмов.

Ответить
Развернуть ветку
Labeling

Нее, я больше про интеллект и речь как его проявление. Тот инженер из Гугла обманулся связной речью модели.

Ответить
Развернуть ветку
nochnoy.ru

Чёрт его знает что там было и о какой именно модели идёт речь, насколько она сложная. Я говорю о том, что возможно создать модель, которая ничем принципиально не будет оличаться от нас с нашим "сознанием" и "душой".

Ответить
Развернуть ветку
Labeling

Чтобы такую модель создать надо предоставлять как мозг человека работает. А этого понимания до сих пор нет.
В данном случае просто выдаётся связанный текст на тему, с помощью стать модели.

Ответить
Развернуть ветку
nochnoy.ru
Ответить
Развернуть ветку
346 комментариев
Раскрывать всегда