{"id":13766,"url":"\/distributions\/13766\/click?bit=1&hash=eb99035cec3ddd6292d67a0ebdc3d8db9e3aaaac024380ba242dd3f338f3f268","title":"\u0417\u0430\u043f\u0443\u0441\u043a\u0430\u0435\u043c \u0440\u0435\u043a\u043b\u0430\u043c\u0443 \u0442\u043e\u0432\u0430\u0440\u043e\u0432 \u0432 \u00ab\u0414\u0438\u0440\u0435\u043a\u0442\u0435\u00bb \u0437\u0430 5 \u043c\u0438\u043d\u0443\u0442","buttonText":"\u041a\u0430\u043a?","imageUuid":"e94c6ce3-0437-5331-a133-8575f9c625f1","isPaidAndBannersEnabled":false}

В Китае заявили о создании нейросети в 10 раз мощнее самой «продвинутой» нейросети GPT-3 Статьи редакции

Она способна писать эссе и стихи, генерировать изображения на основе описаний и предсказывать структуру белков.

Специалисты Пекинской академии искусственного интеллекта объявили о создании генеративной нейронной сети глубокого обучения Wu Dao 2.0 с рекордными свойствами. Её мощность намного больше, чем у ближайших конкурентов — Open AI GPT-3 и Google Switch Transformers. Об этом сообщает издание Engadget.

Мощность нейросетей условно измеряется в количестве параметров обучения. То есть, это число факторов, которые нейросеть может использовать в процессе своей работы. Для примера: в линейном уравнении y = ax + b параметрами выступают переменные a и b — от них зависит решение уравнения. Чем больше параметров использует нейросеть, тем она «умнее» и тем точнее результат её работы.

Нейросеть Open AI GPT-3 использует 175 миллиардов параметров — такая мощность позволяет ей генерировать осмысленные тексты, создавать музыку и программный код.

Количество параметров Wu Dao 2.0 превышает 1,75 триллиона — то есть, она в 10 раз мощнее, чем GPT-3. С новой китайской нейросетью по числу параметров может сравниться только Google Switch Transformers с её 1,6 триллионами параметров. Нейросеть от Google способна подбирать пропущенные слова в тексте и формулировать «естественные» ответы на вопросы человека.

Новая китайская нейросеть мультимодальна — она может выполнять множество разнородных задач. Wu Dao 2.0 пишет эссе, стихи и двустишия на традиционном китайском языке, распознаёт изображения и генерирует их по словесному описанию, имитирует речь, создаёт кулинарные рецепты, а также предсказывает трёхмерную структуру белков, подобно AlphaFold.

Для обучения Wu Dao 2.0 учёные использовали почти пять терабайтов изображений и текстов, включая 1,2 терабайта текстов на китайском и английском языках. Разработкой уже заинтересовались 22 компании, включая Xiaomi.

По словам председателя академии, Wu Dao 2.0 — это «источник питания для будущего реального искусственного интеллекта, с мегаданными, вычислительной мегамощью и мегамоделями».

0
83 комментария
Написать комментарий...
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Константин Арбузов

У нас так и есть(

Ответить
Развернуть ветку
2 комментария
Никита Брагин

В прошлом году Китайцы познакомили весь мир с Covid 19, границы закрыли. В этом году Китайцы познакомят нас с Wu Dao 2.0 и мы будем сидеть в локальных сетях. 

Ответить
Развернуть ветку
Михаил Б

Там полгода назад еще это самое....

Ответить
Развернуть ветку
2 комментария
Вкусный чувак

Комментарий недоступен

Ответить
Развернуть ветку
Влад Берг
Ответить
Развернуть ветку
Vladimir
Мощность нейросетей условно измеряется в количестве параметров обучения. То есть, это число факторов, которые нейросеть может использовать в процессе своей работы.
нейросети в 10 раз мощнее самой «продвинутой» нейросети GPT-3
Нейросеть Open AI GPT-3 использует 175 миллиардов параметров
по числу параметров может сравниться только Google Switch Transformers с её 1,6 триллионами параметров
самой «продвинутой» нейросети GPT-3

Я дурак или лыжи не едут?

Ответить
Развернуть ветку
Легкость Бытия

так бывает когда не знаешь о чем пишешь
Суть в том что модель китайцев - это считай собрание n моделей внутри себя
GPT это 1 модель, таки самая большая по кол-ву параметров
Гугловский свитч - тоже самое что и китайская, собрание моделей 
В статье просто сравниваются разные сущности

Ответить
Развернуть ветку
4 комментария
MONAR

Что не так

Ответить
Развернуть ветку
Kikidon

Что, даже круче Олега от Тинькофф получилось у китайцев?

Ответить
Развернуть ветку
Bames Jond

Типа сарказм? При чем тут Олег? 

Ответить
Развернуть ветку
1 комментарий
Неприемлемый разговор

Олега и защитника Олега 

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Михаил Похеров

Космическую станцию построили, на марс высадились, нейросеть сделали, токамак прокачали. Рад за китайских баринов 

Ответить
Развернуть ветку
Donnye Darko

Сибирь освоили

Ответить
Развернуть ветку
Dmitry Korolev

Стишок про Винни-Пуха или картинку с ним сможет сгенерировать?

Ответить
Развернуть ветку
Rodeus

"Околесицу" нарисовать? Слова "исконный" и "давеча" уместно использовать?

Ответить
Развернуть ветку
2 комментария
Степан Позняк

А 63+1 вычислить?

Ответить
Развернуть ветку
Giorgiy Kiladze

Надеюсь, это не начало конца 🤷🏼‍♂️

Ответить
Развернуть ветку
Rodeus

У меня есть куча внешних хардов на десятки терабайт, с фоточками. Может переплюнем китайцев и натренируем свою сетку? Вернем Максимова в цифровом виде.

Ответить
Развернуть ветку
Бабка в засаде

Чувак дикпики в качестве данных немного не подходят для того что нам надо 

Ответить
Развернуть ветку
4 комментария
Михаил Синицын

Молодцы

Ответить
Развернуть ветку
Бабка в засаде

А некоторые диванные иксперты до сих пор верят что китайцы могут только паршивые фэйковые найки клепать.
Китай въебет ещё всю планету, вангую

Ответить
Развернуть ветку
Kin Coin

Но мы ещё живы...

Значит, сингулярность ещё не наступила, но и по Курцвейлу ещё рано
Так, если каждые 2 года мощность растёт в 2 раза, то в 2050 г. сингулярность наступит при мощности AI около 50 000 триллионов параметров

Жуть

Ответить
Развернуть ветку
Сергей Никитин

Не каждые два года. А с каждым разом срок удвоения сокращается в два раза.

Ответить
Развернуть ветку
Yan Alex
Ответить
Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Сергей Никитин

Даю 10 лет человечеству. Не больше.

Ответить
Развернуть ветку
Алексей Лисовицкий

Сергей, это ультиматум лично от вас? Стоит ли поставить в известность правительство?

Ответить
Развернуть ветку
Бабка в засаде

На всякий случай беру 10 лет от лица всего человечества! Пока дают надо брать...

Ответить
Развернуть ветку
Степан Позняк

Казалось бы, такой умный искусственный интеллект. Но он точно не сможет вычислить 63+1. Да даже показать больших жёлтых уток или Винни-Пуха не в его силах

Ответить
Развернуть ветку
Anton Frolov

В чем подвох с 63 + 1?

Ответить
Развернуть ветку
10 комментариев
Raimond Vladimirov

Искусственный интеллект члена компартии

Ответить
Развернуть ветку
Zhukov Sergey

Майнить может? Какой хешрейт?

Ответить
Развернуть ветку
Бабка в засаде

100500 в миллисекунду

Ответить
Развернуть ветку
Nick Chernykh

Так...ну когда уже всех с работы уволят и можно будет снова на дерево залезть?

Ответить
Развернуть ветку
MILITARY GURU

Добро пожаловать в мегарабство побег из которого просчитал мегаинтелект и который просто невозможен.

Ответить
Развернуть ветку
Artemy

Нейросеть "Во Даю"

Ответить
Развернуть ветку
Rodeus

Тестируют сеть, я так понимаю, на спаме на VC, боты осмысленные комменты стали писать.

Ответить
Развернуть ветку
Дмитрий Воробьёв

Ну вообще-то кол-во параметров != мощность сети. Сети с меньшим кол-вом параметров могут быть более выразительными и точными, чем сети с большим. Многое зависит непосредственно от обучающей выборки данных, архитектуры сети и ее hyper parameters. Ну и конечно же от прямых рук.

Ответить
Развернуть ветку
Anton Ilabanau

хах что за комент гуманитария.
что вообще такое мощность нейросети?)

спойлер - нет такого понятия, это обычный высер, а высрать можно что  угодно.

Ответить
Развернуть ветку
1 комментарий
Дмитрий Печеркин

Ну так понятно дело, на Уйгурах тренировали годами свою сеть...

Ответить
Развернуть ветку
Project News

5 терабайтов текста и фото, 1.2 текст. 3.8 графика, средний jpeg весит 5мегабайт, и это всего 7 600 000 картинок понадобилось для обучения.

Офф топ - это даже, предположительно, меньше, чем понадобилось Пятому элементу, чтобы узнать 5000 летнюю историю.

Ответить
Развернуть ветку
MKL13666

5 мб это же очень жирно, это 3х4 тыс пикселов примерно. К чему такая избыточность. 

Ответить
Развернуть ветку
1 комментарий
Тимофей Айрих

Китайцам нет запретов. Им позавидовать нужно всему миру. Просто лидеры всегда и во всем

Ответить
Развернуть ветку
Anton Ilabanau

лолшто

Ответить
Развернуть ветку
1 комментарий
Yan Varskii

МОЗГ создан!

Ответить
Развернуть ветку
Легкость Бытия

Не раскрыта тема бенчмарков - это новая SOTA или нет?

Ответить
Развернуть ветку
Уверенный украинец

Только в бенчмарке XiNefritGlue

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Εгор Κонстантинов

Скайнет все ближе... Трандец вам, кожаные мешки

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Бабка в засаде

Да нет у них там никакого голода ) А небольшая нищая часть населения есть в любой стране, а кое-где даже большая (намёк на дефолт кантри, да)

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Аккаунт удален

Комментарий недоступен

Ответить
Развернуть ветку
Артем Салютин

Еще в мае китайцы показали свой аналог DALL-E, который генерит картинки по текстовому описанию. При этом в отличие от Open AI они открыли доступ к онлайн демо, которым может воспользоваться любой. Но эта новость прошла, можно сказать, незамеченной. У китайцев просто хуже с пиаром и маркетингом, а разработки там не отстают. А конкурируют они с США, у которой неограниченный доступ к талантам. 

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Читать все 83 комментария
null