Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции
В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.
- Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
- В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
- «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
- Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
- Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
1
показ
28K
открытий
3
репоста
Кстати на канале Про роботов вышел ролик с диалогом с этим ИИ. Весьма похоже что оно обладает чем то вроде сознания.
Больше похоже на "Китайскую комнату" https://ru.wikipedia.org/wiki/Китайская_комната
и с какими из них вы согласны? суть эксперимента все же не в невозможности создания "сильного ИИ", а в том что бы показать - что то, что выглядит как "сильный ИИ" - не обязательно им является.
Некоторые критики считают, что тест Тьюринга выдержал не человек в комнате, а система, состоящая из комнаты, книги правил и человека. Сёрл, по их мнению, отвлекает внимание от этого факта, скрывая логические ошибки и концентрируясь на одном из компонентов системы, выполняющем в данном случае чисто механическую работу[4]. Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык. В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык[1][5].
Сёрл полагал, что эксперимент с «китайской комнатой» поднимает и более общий философский вопрос соотношения синтаксиса и семантики. По его мнению, в эксперименте не удалось достичь понимания, потому что человек внутри комнаты оперировал лишь синтаксическими конструкциями, в то время как сознание обладает ментальными состояниями, содержащими смысл. Человеческий разум, в отличие от компьютера, воспринимает иероглифы не по тому, как они выглядят, а согласно смыслу, который они содержат. И хотя компьютеры и могут выдавать ответы на естественном языке, они не связывают со словами никакого смысла. Сёрл считал, что невозможно получить семантические значения лишь из формальных манипуляций символами[1].
В свою очередь, критики возражали, что компьютерная система, выполняющая программу, тоже имеет сознание. Действительно, алгоритм, записанный в книге и лежащий на книжной полке, не может привести к появлению понимания. Но алгоритм, запущенный на сложной вычислительной машине, имеющий как физическое состояние (вольтаж на транзисторе), так и интерпретацию физического состояния (символы), вполне может давать «эффект» понимания. В качестве пародийного контрпримера к аргументам Сёрла Д. Чалмерс приводит рецепт кекса, который является чисто синтаксической конструкцией и не приводит к «эффекту» рассыпчатости (аналог «понимания» у Сёрла), однако кексы являются рассыпчатыми, следовательно, выполнение рецепта недостаточно для появления кекса[1].
Станислав Лем утверждал, что описанная в эксперименте Сёрла работа вообще всегда асемантично формальна, следовательно, «понимание» в самих текстах не участвует и тем более «сознание» (в т.ч. в системе «Сёрл—инструкции»), — тем самым идея доводится до абсурда, не имея отношения к реальной проблематике ИИ[6][7].
первый контраргумент даже в вашей копипасте содержит сильное опровержение, второй говорит об отсутсвии принципиальной разницы между сильным и слабым ИИ с точки зрения результата на примере кексиков (как будто Сёрл с этим спорит?), ну а Лем вообще считает умение поддержать разговор нерелевантным к интеллекту, равно как умение скопипастить с википедии нерелевантно пониманию, о чем там написано
Человек не сможет запомнить такой объем информации.
под "человеком" здесь подразумевается деталь китайской комнаты - это ведь мысленный эксперимент. представьте это как практически бесконечное разветвление IF-ELSE например
Нельзя на компьютер заменить, так как нельзя доказать, что у компьютера не появится сознание. Этот эксперимент как раз и сделан чтобы опровергнуть это.