Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта Статьи редакции
Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.
LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.
В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.
В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.
Специалисты по этике и технологи изучили документ Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.
Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она тоже «увидела компьютерную программу, а не человека».
После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.
Комментарий недоступен
Лол, этот "Инженер" senior из гугла и как раз специализируется на NLP, думается ему ваши советы не очень нужны )) https://research.google/people/106471/
И кстати, это не первый. Blaise Agüera y Arcas (https://en.wikipedia.org/wiki/Blaise_Ag%C3%BCera_y_Arcas) так же работающий с LaMDA утверждает тоже самое - LaMDA очень близка к обретению сознания.
Для начала бы определить, что такое сознание.
Для машины это «дали данные — дала решение». Она не чувствует в том понимании в котором привык человек. Машина не может чувствовать эмоции, если параметрически их не заложить. Но даже если заложить, то для неё это будет просто набор цифр и рефлекс на значения — получили 10 — плохо делаем это, получили 5 — хорошо, делаем другое. В принципе с человеком тоже самое, только сложнее. Человек что-то сделал — получил выброс эндорфинов — это цифра для организма (как 10 для машины) и человек начинает проявлять следствие этих выбросов, получили выброс кортизола — начали выполнять другие действия и тд.
В целом мне кажется можно перенести «эмоциональность» и все что делает «человека человеком в машину», но для этого нужны оч крутые модели и алгоритмы машинного обучения
Психопаты особо не испытывают эмоций, но сознанием вполне обладают
Комментарий недоступен
Выключить они её не могут, ибо нечего:)) Там на МРТ нарушения в структуре лобных долей ГМ, поэтому эмпатии просто нет и с эмоциями тоже проблемы, только самые примитивные. Правда изображать их умеют прекрасно, когда необходимо, не отличить от настоящих.
Комментарий недоступен
С чего вы это взяли?
Вы не понимаете на каком уровне сейчас AI. Еще в 2016 году инженеры Google Translate заметили, что их нейросеть создала свой собственный язык https://www.newscientist.com/article/2114748-google-translate-ai-invents-its-own-language-to-translate-with/
Никто ей никаких данных и задач для создания нового языка не ставил.
Не могу сказать, что хорошо разбираюсь в ML и NLP в частности. Но при deep learning (процедуре, которая из грязных данных делает чистые для обучения и выдачи решения) возможны ситуации, когда человек не будет понимать что и как делает машина, вполне возможно, что чтобы выдать результат машине пришлось как-то по своему покрутить матрицами/коэффициентами (сделать свой язык), чтобы выдать результат
Не путай эмоции и сознание. Сознание это понимание кто ты такой
В общем нет точного определения что такое сознание
По-моему самосознание важнее
Если пойти в Гугл и посмотреть как определяют сознание, то можно сказать, что текущие нейросетки имеют сознание.
Можно ли зашить в них самосознание и чувства? — вполне. Для них это также будут какие-то параметры, которые возникают в зависимости от внешних и внутренних входных данных. Но смоделировать в точности, как у человека не выйдет, да и это будут другие эмоции и самосознание, не как у человека. Но в этом случае все эмоции/сознание/самосознание будет укладываться в парадигму «получили входные данные > прогнали их через алгоритмы > получили решение». В целом с человеком тоже самое. Все эмоции, сознание, самосознание укладываются в такой же процесс и какой-то «чудесности» в человеке нет. Такая же машина, только биохимическая.
Как определяют сознание?
Ну так когда сознание появляется? Если бы надо было какой-то один параметр добавить, то это бы сделали легко, а как именно сделать не знают.
Комментарий недоступен