Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции

В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.

  • Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
  • В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
  • «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
  • Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
  • Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
Фото Мартина Климека для The Washington Post
0
349 комментариев
Написать комментарий...
Ха Ха

Кстати на канале Про роботов вышел ролик с диалогом с этим ИИ. Весьма похоже что оно обладает чем то вроде сознания.

Ответить
Развернуть ветку
Victor Gavro

как двухлетнему ребенку "весьма похоже" что кукла "обладает чем-то вроде сознания" когда ей кто-то двигает и за нее разговаривает. в случае "диалога ИИ" это обученная на человеческих текстах нейронная сеть. блядь зачем я эту тупость вообще комментирую

Ответить
Развернуть ветку
Юрий Б.

Произошёл троллинг)))

Ответить
Развернуть ветку
Аккаунт заморожен

Комментарий недоступен

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Аккаунт заморожен

Комментарий недоступен

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Аккаунт заморожен

Комментарий недоступен

Ответить
Развернуть ветку
Victor Gavro

под сознанием подразумевается самосознание, то есть способность к рефлексии, чему у machine learning модели взяться неоткуда. ваше рассуждение про "такой же механизм работы" сродни сравнению механической и живой утки. Почитайте про проблему "китайской комнаты". то есть вы правы что механизм работы человеческого мозга схожий, но всё же это не он.

Ответить
Развернуть ветку
Аккаунт заморожен

Комментарий недоступен

Ответить
Развернуть ветку
Victor Gavro

этот эксперимент совершенно точно показывает, что то *что похоже* на сознание *не обязательно* есть сознанием, хотя вы правы в том что ответ на то что такое сознание и как оно работает - это совершенно не дает.
я всего лишь пытаюсь указать на то, что сколько ватой игрушку не набивай, "живой" она от этого не станет.
основа механизма работы мозга - нейронная сеть, но это не значит что любая нейронная сеть при увеличении количества "нод" может стать мозгом, это так не работает. точно так же как основа работы интернета - электромагнитное взаимодействие, но это не значит что если зажечь миллиард лампочек внезапно откроется браузер с vc.ru

Ответить
Развернуть ветку
Jill Can

что то в этом есть,но человеческий мозг гораздо больше этого

Ответить
Развернуть ветку
346 комментариев
Раскрывать всегда