Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции
В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.
- Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
- В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
- «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
- Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
- Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
1
показ
28K
открытий
3
репоста
Кстати на канале Про роботов вышел ролик с диалогом с этим ИИ. Весьма похоже что оно обладает чем то вроде сознания.
может просто эмитирует пока что.
мы же склонны одушевлять неодушевленные предметы.
это еще с детства идет.
А что, если машина настолько идеально научится имитировать сознание, что ее будет не отличить от человека? Будет ли это сознанием или имитацией?
Если она сможет решать задачи (те которые нужны в реальной жизни),то да, будет сознание.
А есть ли разница между иммитацией и сознанием, если их невозможно различить?
Если имитация будет адаптивной и сможет обучаться в НЕИЗВЕСТНЫХ И НЕЗНАКОМЫХ для себя условиях без внешнего потока категоризированных данных (то есть сама сможет собирать данные для своего обучения с нуля) то это уже и будет признаком сознания, а не его запрограммированной и заранее ограниченной программистом имитацией. Возможность адаптации в неизвестном и создание новых смыслов на основании старых - вот в чём отличие живого организма от имитации. Все современные имитации оперируют лишь огромным количеством шаблонов. Что и предъявляют конкретно данному ИИ - есть мнение что в нём столько шаблонов, что среднестатистический юзер просто не наткнёться на место, где шаблонов у системы нет и видно её неадекватность.
пока что это просто так называемый КОБот - без оператора слеп, глух и хз что делать в хоть немного отличной от стандартной ситуации.