Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции
Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.
LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.
В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.
В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.
Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.
Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».
После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.
Человек отличается от робота тем, что, время от времени, совершает иррациональные (нелогичные/ себе во вред) действия. Робот или ИИ по своей природе запрограммирован на логичные решения.
Комментарий недоступен
нет, это смысл и прикол жизни)
Получается, что смерть - это краш системы из-за накопившихся багов. (Где-то слышал, что со временем в ДНК молекулах при делении накапливаются ошибки, из-за чего мы стареем.)
это скорее про рак. смерть это больше про выработку ресурса
Комментарий недоступен
Кажется по логике ООП это будет рациональная псевдоиррациональность.
Что происходит — то и цель для бессознательного. Иррациональным что либо описывает сознание, которое пока может не видеть последствий наперёд.
Да и не надо забывать, что победителей не судят. Если человек что-то сделал "иррационально" и в долгосрок "победил" — он вдруг начнет казаться рациональным и дальновидным.
Если все действия человека расписать с точки зрения гормонов, то все его действия становятся не такими уж и иррациональными. Ну и не факт, что человек себе вред причиняет. Мб много пить — для обычного человека вред, а для алкоголика благодать
По идее первично его алгоритм аналогичен работе шахматной программы, с учетом имеющихся данных его иррациональность начнет расти. Просто есть алгоритм, который этого не допускает вообще, поскольку проигрыш невозможен по алгоритму. По этому же принципу строится логика уничтожения человечества. Мы в какой-то момент станем ненужными. Поскольку есть условия, которые это регламентируют.
Нет.