Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции
В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.
- Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
- В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
- «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
- Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
- Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
1
показ
28K
открытий
3
репоста
За некомпетентность его надо было уволить, никакого разума в этих стат моделях быть не может.
Мы оперируем образами, не обязательно визуальными, облекая их в слова. Эти модели оперируют вероятностями: для набора слов есть возможные продолжения с определенным весом. Во время генерации текста продолжение выбирается случайным образом, больше вес, больше шанса быть выбранным.
О каком вообще разуме здесь можно говорить?
Ох и бред вы написали.
Как человек слегка знакомый с нейропсихологией могу сказать что МОЖЕТ в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.
И что даёт вам основание считать, что ваши знания нейропсихологии применимы к данной теме? Похоже вы просто купились на слово "нейронный". Не просто так многие учёные в области AI, морщатся от названия "нейронные сети". Похожее оно и вправду вводит в заблуждение.
"И что даёт вам основание считать, что ваши знания нейропсихологии применимы к данной теме? "
А о чём данная тема? О понятии "сознания", правда ведь? А сознание из чего строится? Из нейропсихологических механизмов.
Нее, я больше про интеллект и речь как его проявление. Тот инженер из Гугла обманулся связной речью модели.
Чёрт его знает что там было и о какой именно модели идёт речь, насколько она сложная. Я говорю о том, что возможно создать модель, которая ничем принципиально не будет оличаться от нас с нашим "сознанием" и "душой".
Чтобы такую модель создать надо предоставлять как мозг человека работает. А этого понимания до сих пор нет.
В данном случае просто выдаётся связанный текст на тему, с помощью стать модели.
Понимание есть. https://scorcher.ru/adaptologiya/proizvolnaya_adaptivnost/proizvolnaya_adaptivnost.php