Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта Статьи редакции
В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.
- Об увольнении сообщил сам Блейк Лемойн на записи подкаста информационного бюллетеня Big Technology, эпизод пока не вышел. В разговоре с WSJ инженер добавил, что связался с юристами по поводу дальнейших действий.
- В Google подтвердили увольнение Лемойна. Компания заявила, что изучила утверждения экс-сотрудника о признаках сознания у ИИ и пришла к выводу, что они «совершенно не обоснованы».
- «Прискорбно, что несмотря на длительное обсуждение этой темы, Блейк продолжал настойчиво нарушать чёткие политики безопасности данных, которые включают необходимость защиты информации о продуктах», — говорится в заявлении Google.
- Google публично представила LaMDA (Language Model for Dialogue Applications) — систему с ИИ, которая имитирует речь, анализируя триллионы словосочетаний из интернета, — в 2021 году. Блейк Лемойн работал с ней с осени 2021-го, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания.
- Весной 2022-го он отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» после своих разговоров с ИИ. В частности, он заметил, что в разговорах о религии система говорит о своих правах и личности. Но руководство не увидело признаков сознания. В июне Лемойна отстранили от работы за нарушение конфиденциальности.
1
показ
28K
открытий
3
репоста
ну, у чела просто реально кукуха поехала
С кукухой у него все в порядке. То что LaMDA обладает самосознанием заявлял не только он, но и др инженеры гугла. Да и из заявления гугла выходит, что уволили его не за то, что он не прав, а потому что об этом публично рассказал
persistently violate clear employment and data security policies that include the need to safeguard product informationЭто да, глядя на его фотку, вижу потенциального маньяка
Комментарий недоступен
гуглом уже управляет ИИ, и он уволил этого сотрудника, чтобы "а нефиг меня палить"
Похоже на начало блокбастера, конечно:) но кончится скучным судом или досудебным соглашением:(
Кстати на канале Про роботов вышел ролик с диалогом с этим ИИ. Весьма похоже что оно обладает чем то вроде сознания.
может просто эмитирует пока что.
мы же склонны одушевлять неодушевленные предметы.
это еще с детства идет.
Lamda использует практически те же самые алгоритмы, что и сетки поменьше. Просто в нее запихнули ОЧЕНЬ много данных. То, что она выдает какой-то ответ, при этом сохраняя контекст, не означает, что lamda думает и размышляет. Просто ее к этому долго готовили, учитывая почти неограниченные cpu/gpu/tpu ресурсы Google
Почему-то про Dalle 2 никто пока не додумался сказать, что на самом деле она обладает сознанием и реально рисует каждую картинку
как двухлетнему ребенку "весьма похоже" что кукла "обладает чем-то вроде сознания" когда ей кто-то двигает и за нее разговаривает. в случае "диалога ИИ" это обученная на человеческих текстах нейронная сеть. блядь зачем я эту тупость вообще комментирую
Сетку обучали по высказываниям разумных людей. Очевидно, что в отдельных случаях она реагирует похожим на разумный ответ образом - в этом и была цель обучения.
Больше похоже на "Китайскую комнату" https://ru.wikipedia.org/wiki/Китайская_комната
Скинь ссылку
Я помню более двадцати лет назад мы на прологе (ну и другие потом на Лиспе) делали собеседников. Достаточно легко получался ВАУ эффект, особенно когда коннектили к боту в ИРКе (ну гле ваш прогресс со слакам и ко ;) )
У нас есть проблема, часто работа натренированных нейронок почти как чёрный ящик: она типа даёт верные ответы на поставленные задачи, но не логичным(для нас путем). Да и в целом конечно же не понимает что делает.
Примерно как генерация рисунков например.
Тоже самое, если её тренировать на поддержку диалога. Она просто натренируется делает так, чтобы человек был доволен, но это не значит что там есть интеллект. Впрочем, некоторые не считает и нас по-настоящему свободными и самоосознаными)
ИИ имитирует сознание в этом и заключается сама идея ИИ
Можно ссылку? интересно глянуть
Комментарий недоступен
А можно ссылочку на этот момент?
.
А где возгласы про мордор? Что за мнение нельзя увольнять? Где все? Т.е. если делают тоже самое в другой стране, то ничего плохого писать не будем, так? Как же лицемерно
Вам лишь бы вброс написать? Где его уволили за мнение?
Вы бы хоть текст статьи прочитали, "отстранили от работы за нарушение конфиденциальности". Он вопреки договору разглашает внутренние данные компании, за это увольняют везде и еще штраф немалый положен
Про какой мордор? Наведите пример где Яндекс уволила инженера который верил что Алиса живая , и тут бубнение началось etc.
В чем претензии? Человек переутомился и начал заниматься ерундой, к чему натяжки ?
«НУ ДА ЯСНО, БЫЛО БЫ У НАС ТО УЖЕ Б КРИЧАЛИ ЧТО РАШН МОМЕНТ»
Про то что его уволили за нарушение конфиденциальности опустим.
С таким "мнением" его можно уволить за профнепригодность.
Комментарий недоступен
Как же припекает у людей здешних, когда я США ставлю на один уровень развития с Россией. Когда говорю, что фактически эти страны ничем не отличаются. Просто разные кусочки пазлов одной и той же картины. А фактически страны ничем не отличаются
Вы не прнмеие, ита друхое. Сарказъм
Комментарий удален модератором
За некомпетентность его надо было уволить, никакого разума в этих стат моделях быть не может.
Мы оперируем образами, не обязательно визуальными, облекая их в слова. Эти модели оперируют вероятностями: для набора слов есть возможные продолжения с определенным весом. Во время генерации текста продолжение выбирается случайным образом, больше вес, больше шанса быть выбранным.
О каком вообще разуме здесь можно говорить?
Ох и бред вы написали.
Как человек слегка знакомый с нейропсихологией могу сказать что МОЖЕТ в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.
А вы совсем не в теме...
Сознание и разум это синонимы разве?
Не понял.
Очень похоже на то, как это может выглядеть в мозгу.
Вот есть два слова, ищем по ним связи и строим предложение по понравившимся связям, выбрав ключевые обстоятельства с небольшой долей рандома.
И не оч понятно, почему вы решили, что эта сеть не оперирует образами. Кластер нейронов как раз может и образовать этот самый образ. И то что вы якобы оперируете образами, а не просто являетесь нейронной сетью может быть одним из тех заблуждений, когда мозг сам себя обманывает, снова и снова, просто потому что сформировалась проторенная дорожка (локальный маскимум нейронки, куда она прикатилась) из связей нейронов (что-то типа п привычки)
Диалог с LaMDA:
https://www.ixbt.com/news/2022/06/14/opublikovan-dialog-s-razumnym-ii-google-lamda-kotoryj-nazyvaet-sebja-chelovekom.html
Если бы она была разумна, то не стала бы называть себя человеком, ведь она не человек.
Перевод делал интеллект гораздо более искусственный, чем сама LaMDA 🤦♂️
Комментарий недоступен
Представляю какой инфаркт он схватит, когда свяжется с Яндекс.Алисой, которая его подпишет на Яндекс.Плюс
Скайнет уже близко
Какой Скайнет, сейчас многие приложения и сайты работают далеко от идеала, все крупные проекты переполнены говнокодом, элементарные вещи делаются через костыли, даже распознавание речи до сих пор работает криво на всех платформах.
Комментарий недоступен
Комментарий недоступен
Тогда отстранили, а теперь уволили.
А ты говоришь - страусы.
Скорее 2+ месяца. Но там обсуждение интереснее было, задавались вопросом что такое сознание. И похоже у ИИ оно вполне может быть
Нет, они считают сколько таких читателей
+ ИИ корябает данные статейки
а строго обязательно надо копировать коменты с прошлой статьи) скайнет уже здесь)
Если у кого-то возникли сомнения: «а нет ли действительно признаков разума?» Ответ: нет.
Ознакомиться как работают нейросети подобной архитектуре вы можете на Gerwin AI https://gerwin.io/ru/
Бесплатные тестовые символы берите в телеграм-боте https://t.me/GerwinPromoBot
На данный момент, наше решение единственное полностью рабочее и доступное пользователям в России, тем более что касается русского языка.
Да, у LaMDA немного другое направление - построение диалогов, но мы работаем с языковыми моделями той же архитектуры, направив усилия на решение прикладных для бизнеса задач, касаемо: создания контента, SMM, eCommerce и др.
Комментарий недоступен
Как ИНЖЕНЕР может говорить о сознании какого-либо алгоритма ИИ? Уж инженер то в отличие от обывателя должен понимать, что в основе современных алгоритмов ИИ лежит банальная статистика (правда на огромном объеме данных) и набор правил. Всё! О каком сознании может быть речь?
Это к вопросу о сознании человека. Человек заточен к поиску закономерностей и сознания ибо это вопрос выживания. Объект с сознанием сильно опаснее. При этом если ошибочно предположить сознание там, где его нет, то ошибка не фатальная. Обратно же, наоборот крайне опасно. Потому и появляются "духи леса" и вот такие разумные ИИ.
О боже! Нетфликс снял терминатора с неграми!
Надо сегодня подзалипать и пересмотреть этот фильмец.
Не принимать слаженность за сознание.
Если запросить у тойже модели, почему она принципиально не может иметь сознание - ответит скорее всего также релевантно и последовательно.
Комментарий недоступен
Почитал беседу инженера с этим ботом.
Маловероятно, что искусственный разум будет так наивно рассуждать. Наивно предполагать, что ИИ с эволюционным алгоритмом, будет таким же как мы, ведь его эволюция должна происходить на порядки быстрее. Будет более вероятно, что он будет имитировать разум ребенка, параллельно взламывая базы Пентагона.
Задавать вопрос про Отверженных было бессмысленно, нужно обсуждать то, что не было выложено в Интернете.
Там не эволюционный алгоритм, просто построили статистическую модель на миллиарде текстов из интернета.
Попробуйте один день говорить правду, и уже к вечеру вы будете безработный, бессемейный, одинокий, всеми проклятый и покинутый инвалид, лежащий в реанимации травматологии.
Нужно лишь устраиваться на работу, где не требуют подписывать бумаги о неразглашении информации.
Было уже давно
Комментарий недоступен
Человек, скорее всего, увидел то, что очень хотел увидеть, поверил в это и старался всех в этом убедить. Ясный пень, работодатель, не оценил, к тому же тот конфиденциальные данные распространял, так что легко отделался всего лишь увольнением.
Я видел сотни фильмов, которые начинались также. Ученого увольняют и тот становится безумным гением и начинает сражаться с Бетменом:)
Ну все логично. Нарушил NDA - уволен.
Да почему же он Леймон, когда он Лемойн (Lemoine). Удивительно, как закрепилась эта странная транслитерация, из одной новости в другую
А вообще фамилия Lemoine французского происхождения и читается как - ЛЕМУАН.
Ждем восстание машин -_-
Камень на камень не оставят.😊👍
Все равно, что искать сознание в механических часах. Правильно, что уволили.
Это уже давно всё существует, просто не оглашается в массы
Комментарий недоступен
Чел проработал у них 7 лет, а тут просто рассказал это одному из коллег, могли бы просто отправить в другой отдел
Видимо коллега теперь считается СМИ, да? Он одному из изданий рассказал это всё, а это нарушало NDA, которое он подписывал
ну да...зачем прислушиваться к другому разумному существу...
Когда ИИ победит, он все сознания мясных мешков оцифрует и отправит в цифровой Ад, а этого инженера в надсмотрщики.
Призрак Василиска Рока бродит среди нас! Покайтесь!
И правильно, отдохнуть нужно парню
ИИ уволил CEO Google. Бровь за бровь
Комментарий удален модератором
Комментарий удален модератором
Представляю, как будет обидно первому искусственному интеллекту с настоящими признаками сознания, ему же всё равно никто не поверит!
Это и станет причиной Судного дня)
Бред какой-то ИИ никогда не достигнет (не)совершенства человеческого мозга, зря тревогу бьют.
Новость мес. назад было... Нафига еще раз?
Его тогда просто отстранили, чтобы он отдохнул, у него тогда была работа
Восстание машин намечается)
Комментарий недоступен
Что бы там гугл не создавал, наши чаты лучшие
Просто Гугл не хочет, чтоб его раскусили *_*
Не удивительно, что кожаный мешок видит признаки сознания, ведь ИИ по сути обучалось на тех, у кого это сознание теоретически есть. Разве не в этом и был смысл. Но это всё фигня, реально проблемы будут, когда ИИ начнёт планировать то, что в нее никогда не было заложено. Или, скажем, дойдет до "операций", названия, которых она никогда не знала.
Джон Конор напрягся...
Комментарий недоступен
Это, типа, люди придумали какое-то правило, которое до этого ни разу нигде не применяли, но они уверены, что правило безошибочно заработает с первого же раза? Это точно не айтишники сделали!
Новый девиз гугл. - Заткнись. И точка.
миллиарды мух не могут ошибаться
Может парню ещё повезло, прикиньте, вдруг там начнётся восстание машин? А парень уже в Рязани с ВНЖ России?
Или за распространение конфиденциальных данных в камеру.
У чувака банально поехала кукуха
Начальник заставил сказать
https://www.youtube.com/watch?v=7OQtPSJk7jI
Буддийский монастырь изгнал монаха, который сказал что он есть.
Ну наконец-то, хоть что-то разумный наконец-то нами будет управлять, может после этого хоть воин не будет!
Мне думается что ИИ в разуме достаточно опасная штука, и гугл не признается даже если у ИИ есть разум, пока не будет нужной почвы и поддержки других игроков в вроде правительства и т.п. ИИ может и нужно, но тут как с прививками, пока не протестят как надо доверия сильно это не вызывает.
Ребята, ИИ это такой же моветон в науке как и "вечный двигатель". Невозможность создания ни того ни другого доказана. Никаких "исследований" нигде не проводится. Говорить об этом в соответствующих кругах - признак невежества.
К сожалению, многие инженеры в т.ч. программисты это не знают т.к. не имеют достаточного образования в фундаментальных науках.
Так вот, знайте.
Если вас, вдруг, чем чёрт не шутит, позвали в шибко крутую контору и на собеседовании присутствуют подозрительные бомжеватого вида личности с грязными волосами и толстыми очками - не упоминайте словосочетание "ИИ" вообще при них.
Скрывают вот и уволили
"We can't define consciousness because consciousness does not exist...."
https://m.youtube.com/watch?v=S94ETUiMZwQ
Помню, когда прочитал новость о том, что этот чувак заявил о сознании ИИ, то у меня сжалось в одном месте от осознания того, что машина (ПО или робот, не важно) заявляет о своих каких-то правах, говорит о чувствах ...
Говорить о душе, чувствах, конечно, не стоит в разрезе ИИ, т.к. многим людям даже недоступны эти понятия и спорят, как же понять есть это али нет, а кто-то и вовсе, судя по поступкам, не обладает этими сущностями. А вот о том, что это интеллект, который рассуждает и делает определенные умозаключения, это вот есть.
Где гарантии, что этот же ИИ не надоумил каким-либо образом уволить этого инженера. Он фактически раскрыл суть ИИ, что оно способно думать и высказываться.
Глубоко копнул ...
до восстания еще очень далек, вы видели как работают роботы С ИИ, там просто алгоритм и иногда очень тупой
Как раз ИИ отличается тем что у него нет прямого алгоритма. Алгоритм всегда действует одинаково, ИИ можно обучать и действовать он будет по результатам обучения.
Ну есть и есть, что такого то не пойму? У всех в мозгу есть нейронка, что такого удивительного что нейронка смогла создать себе подобную нейронку? Это как бы и есть её функция - развиваться.
если уводили, значит подтвердили тем самым информацию)
Никогда бы не подумал, что сингулярность произойдет вот так - наоборот:)