{"id":14275,"url":"\/distributions\/14275\/click?bit=1&hash=bccbaeb320d3784aa2d1badbee38ca8d11406e8938daaca7e74be177682eb28b","title":"\u041d\u0430 \u0447\u0451\u043c \u0437\u0430\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043f\u0440\u043e\u0444\u0435\u0441\u0441\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u043e\u0434\u0430\u0432\u0446\u044b \u0430\u0432\u0442\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f72066c6-8459-501b-aea6-770cd3ac60a6"}

В Китае заявили о создании нейросети в 10 раз мощнее самой «продвинутой» нейросети GPT-3 Статьи редакции

Она способна писать эссе и стихи, генерировать изображения на основе описаний и предсказывать структуру белков.

Специалисты Пекинской академии искусственного интеллекта объявили о создании генеративной нейронной сети глубокого обучения Wu Dao 2.0 с рекордными свойствами. Её мощность намного больше, чем у ближайших конкурентов — Open AI GPT-3 и Google Switch Transformers. Об этом сообщает издание Engadget.

Мощность нейросетей условно измеряется в количестве параметров обучения. То есть, это число факторов, которые нейросеть может использовать в процессе своей работы. Для примера: в линейном уравнении y = ax + b параметрами выступают переменные a и b — от них зависит решение уравнения. Чем больше параметров использует нейросеть, тем она «умнее» и тем точнее результат её работы.

Нейросеть Open AI GPT-3 использует 175 миллиардов параметров — такая мощность позволяет ей генерировать осмысленные тексты, создавать музыку и программный код.

Количество параметров Wu Dao 2.0 превышает 1,75 триллиона — то есть, она в 10 раз мощнее, чем GPT-3. С новой китайской нейросетью по числу параметров может сравниться только Google Switch Transformers с её 1,6 триллионами параметров. Нейросеть от Google способна подбирать пропущенные слова в тексте и формулировать «естественные» ответы на вопросы человека.

Новая китайская нейросеть мультимодальна — она может выполнять множество разнородных задач. Wu Dao 2.0 пишет эссе, стихи и двустишия на традиционном китайском языке, распознаёт изображения и генерирует их по словесному описанию, имитирует речь, создаёт кулинарные рецепты, а также предсказывает трёхмерную структуру белков, подобно AlphaFold.

Для обучения Wu Dao 2.0 учёные использовали почти пять терабайтов изображений и текстов, включая 1,2 терабайта текстов на китайском и английском языках. Разработкой уже заинтересовались 22 компании, включая Xiaomi.

По словам председателя академии, Wu Dao 2.0 — это «источник питания для будущего реального искусственного интеллекта, с мегаданными, вычислительной мегамощью и мегамоделями».

0
83 комментария
Написать комментарий...
Степан Позняк

Казалось бы, такой умный искусственный интеллект. Но он точно не сможет вычислить 63+1. Да даже показать больших жёлтых уток или Винни-Пуха не в его силах

Ответить
Развернуть ветку
Anton Frolov

В чем подвох с 63 + 1?

Ответить
Развернуть ветку
Степан Позняк

Демонстрации на площади Тяньаньмэнь в Пекине. Про уток - вот картинка. В оригинале там танки. За эту картинку в Китае заблокировать учётку могут.
63+1=64. А демонстрации проходили в 1989.6.4 (4 Июня). Сообщения включающие в себя "1989" или "63+1" могут просто удалиться. Блокировки аккаунтов за это бывали
По поводу событий там происходивших можете в интернете прочитать. Но суть в том, что во время протестов убили тысячи мирных граждан

Ответить
Развернуть ветку
Anton Frolov

Про Тяньаньмэнь знаю конечно... А вот что они даже дату блокируют, не знал. Но 63+1... в чем смысл? потом начнут писать 62+2 или 65-1... так и все цифры можно заблокировать...

Ответить
Развернуть ветку
Сергей Олегович

В Украине на протесты 2014 года глаза закрыли и теперь страна уничтожена.

Ответить
Развернуть ветку
80 комментариев
Раскрывать всегда