Google уволила инженера, который заявил о найденных признаках сознания у искусственного интеллекта

В июне Блейка Лемойна уже отстраняли от работы, но несмотря на это, он продолжал нарушать политики безопасности данных, заявила компания.

Фото Мартина Климека для <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.washingtonpost.com%2Ftechnology%2F2022%2F06%2F11%2Fgoogle-ai-lamda-blake-lemoine%2F&postId=468350" rel="nofollow noreferrer noopener" target="_blank">The Washington Post</a>
6969

За некомпетентность его надо было уволить, никакого разума в этих стат моделях быть не может.

Мы оперируем образами, не обязательно визуальными, облекая их в слова. Эти модели оперируют вероятностями: для набора слов есть возможные продолжения с определенным весом. Во время генерации текста продолжение выбирается случайным образом, больше вес, больше шанса быть выбранным.

О каком вообще разуме здесь можно говорить?

20

Ох и бред вы написали.
Как человек слегка знакомый с нейропсихологией могу сказать что МОЖЕТ в этих моделях содержаться настоящее сознание со своим "я". У вас в голове тоже модель кстати.

А вы совсем не в теме...

Сознание и разум это синонимы разве?

Не понял.
Очень похоже на то, как это может выглядеть в мозгу.
Вот есть два слова, ищем по ним связи и строим предложение по понравившимся связям, выбрав ключевые обстоятельства с небольшой долей рандома.
И не оч понятно, почему вы решили, что эта сеть не оперирует образами. Кластер нейронов как раз может и образовать этот самый образ. И то что вы якобы оперируете образами, а не просто являетесь нейронной сетью может быть одним из тех заблуждений, когда мозг сам себя обманывает, снова и снова, просто потому что сформировалась проторенная дорожка (локальный маскимум нейронки, куда она прикатилась) из связей нейронов (что-то типа п привычки)