Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции

В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.

  • Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
  • В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
  • «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
  • Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
  • Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
Фото Мартина Климека для The Washington Post
0
349 комментариев
Написать комментарий...
Labeling

За некомпетентность его надо было уволить, никакого разума в этих стат моделях быть не может.

Мы оперируем образами, не обязательно визуальными, облекая их в слова. Эти модели оперируют вероятностями: для набора слов есть возможные продолжения с определенным весом. Во время генерации текста продолжение выбирается случайным образом, больше вес, больше шанса быть выбранным.

О каком вообще разуме здесь можно говорить?

Ответить
Развернуть ветку
nochnoy.ru

Ох и бред вы написали.
Как человек слегка знакомый с нейропсихологией могу сказать что МОЖЕТ в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.

Ответить
Развернуть ветку
Sergei Zotov
слегка знакомый с нейропсихологией

с дата сайенсом тоже слегка знакомы?

в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.

да что вы, и модель человеческого мозга уже где-то воссоздана? Хотя бы пейпер дайте почитать что ли. Потому что если не воссоздана хотя бы математически, то с помощью компьютерных нейронных сетей (которые очень примитивно моделируют то, как работают нейроны) какое-либо подобие мозга точно нельзя воссоздать на текущий момент

Ответить
Развернуть ветку
nochnoy.ru

Данных о психике собрано предостаточно, как всё работает - известно. Модели живой психики тоже вполне пытаются делать. Вот одна из попыток, пишется на языке Go: https://scorcher.ru/conscience/results_report.pdf

Ответить
Развернуть ветку
Sergei Zotov

вы серьезно считаете, что вот это моделирует человеческое сознание?

88 страниц болтологии без какой-либо математики, а в конце админка с параметрами. В следующий раз жду опросник на укозе, который обладает сознанием

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
346 комментариев
Раскрывать всегда