Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта

В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.

Фото Мартина Климека для <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.washingtonpost.com%2Ftechnology%2F2022%2F06%2F11%2Fgoogle-ai-lamda-blake-lemoine%2F&postId=468350" rel="nofollow noreferrer noopener" target="_blank">The Washington Post</a>
6969

Кстати на канале Про роботов вышел ролик с диалогом с этим ИИ. Весьма похоже что оно обладает чем то вроде сознания.

10
Ответить

может просто эмитирует пока что.
мы же склонны одушевлять неодушевленные предметы.
это еще с детства идет.

69
Ответить

Lamda использует практически те же самые алгоритмы, что и сетки поменьше. Просто в нее запихнули ОЧЕНЬ много данных. То, что она выдает какой-то ответ, при этом сохраняя контекст, не означает, что lamda думает и размышляет. Просто ее к этому долго готовили, учитывая почти неограниченные cpu/gpu/tpu ресурсы Google

Почему-то про Dalle 2 никто пока не додумался сказать, что на самом деле она обладает сознанием и реально рисует каждую картинку

49
Ответить

как двухлетнему ребенку "весьма похоже" что кукла "обладает чем-то вроде сознания" когда ей кто-то двигает и за нее разговаривает. в случае "диалога ИИ" это обученная на человеческих текстах нейронная сеть. блядь зачем я эту тупость вообще комментирую

19
Ответить

Сетку обучали по высказываниям разумных людей. Очевидно, что в отдельных случаях она реагирует похожим на разумный ответ образом - в этом и была цель обучения.

17
Ответить

Больше похоже на "Китайскую комнату" https://ru.wikipedia.org/wiki/Китайская_комната

15
Ответить

Скинь ссылку

Ответить

Я помню более двадцати лет назад мы на прологе (ну и другие потом на Лиспе) делали собеседников. Достаточно легко получался ВАУ эффект, особенно когда коннектили к боту в ИРКе (ну гле ваш прогресс со слакам и ко ;) )
У нас есть проблема, часто работа натренированных нейронок почти как чёрный ящик: она типа даёт верные ответы на поставленные задачи, но не логичным(для нас путем). Да и в целом конечно же не понимает что делает.
Примерно как генерация рисунков например.
Тоже самое, если её тренировать на поддержку диалога. Она просто натренируется делает так, чтобы человек был доволен, но это не значит что там есть интеллект. Впрочем, некоторые не считает и нас по-настоящему свободными и самоосознаными)

1
Ответить

ИИ имитирует сознание в этом и заключается сама идея ИИ

1
Ответить

Можно ссылку? интересно глянуть

Ответить

Комментарий недоступен

1
Ответить

А можно ссылочку на этот момент?

Ответить