(function(m,e,t,r,i,k,a){m[i]=m[i]||function(){(m[i].a=m[i].a||[]).push(arguments)}; m[i].l=1*new Date(); for (var j = 0; j < document.scripts.length; j++) {if (document.scripts[j].src === r) { return; }} k=e.createElement(t),a=e.getElementsByTagName(t)[0],k.async=1,k.src=r,a.parentNode.insertBefore(k,a)}) (window, document, "script", "https://mc.yandex.ru/metrika/tag.js", "ym"); ym(97339604, "init", { defer: true, clickmap:true, trackLinks:true, accurateTrackBounce:true }); ym(97339604, 'hit', window.location.href);

ChatGPT — неукротимый зверь?

*Примерное время прочтения = 5 минут

Разговорный чатбот ChatGPT как будто из ниоткуда свалился на наши головы 30 ноября 2022 года и сразу завладел сердцами и умами миллионов людей.

Уже целые дифирамбы написаны об этом чатботе и его функционале, с которым, полагаю, все успели поиграться, опробовав различные и порой ужасающие (причем в обоих смыслах) грани его функционала.

Вкратце напомню. ChatGPT — виртуальный “умный” ассистент на основе огромной нейронной модели, которого Вы можете попросить о чем угодно, что подразумевает преобразование текста/кода в текст/код.

То есть, например, найти исторические данные, написать пост в соцсети, эссе на свободную тему, любовный стих, программный код и многое другое. Своего рода Джин из сказок про Алладина, только доступный без волшебных ламп.

Да, неплохая попытка демократизации “ИИ”, даже запакована сносно, хоть и UX можно было бы докрутить. Но мы здесь немного за другим — понять начинку этого ChatGPT. На каких винтиках он крутится?

Искать разгадку механики следует c 2017 года, ставшего рубиконом для всей индустрии ИИ. Именно тогда свет увидел знаковую статью от исследователей Google Brain “Attention is all you need”, представив новую архитектуру нейронных моделей — трансформер. Нет, не Бамблби.

В отличие от предыдущей модели RNN (рекурентная нейронная сеть), нейронки на базе трансформеров стали учиться в разы быстрее! Главная причина почему — трансформеры обрабатывают все вводные данные СРАЗУ параллельно, нежели отдельно друг за другом в последовательной цепочке, как это было раньше с RNN.

Для бОльшей наглядности различий двух подходов ниже прикрепляю схему. Как видите, при RNN слова в предложении обрабатываются последовательно и методично одно за другим, в то время как трансформер прогоняет все исходные слова одним махом. Скоростные передачи архитектуры нейронных движков выросли даже не просто в разы, а в несколько степеней!

Но увеличилась не только скорость обработки данных, так еще и удалось увязать слова в общий контекст! в чем раньше модели, мягко говоря, хромали. Новая математическая техника attention, в определенной степени копирующая когнитивные способности человеческого мозга с его способностью фокусировки на отдельных частях общего, позволила установить взаимные связи между даже далекими друг от друга частями вводных данных (слов или кода). Таким образом, сделалась возможным генерация даже трудно отличимых от написанных человеком текстов. Настолько добротными и быстро обучаемыми стали модели!

Так вот, о чем я это все. Исследователи частной компании OpenAI, которая в 2019 году сменила свою вывеску на коммерческую, в разработке нейронных моделей взяли за основу ту самую архитектуру первопроходцев из Google, то есть трансформер вкупе с механикой attention (внимания).

В результате OpenAI создавали свои модели, которые со временем становились все крупнее и эффективнее, разрастаясь в геометрической прогрессии по количеству параметров или переменных. Параметры модели определяют как именно и с какой точностью преобразятся исходные данные под тем или иным запросом. Чем больше их количество, тем и выше желанная точность конечного ответа.

Так, например, если языковая модель GPT-2 располагала 1,5млрд параметров, то уже в GPT-3 их стало более чем в 100 раз больше — 175млрд! Ожидается, что в готовящейся к релизу уже в текущем 2023 году модели GPT-4 это число приблизится к невообразимым 10трлн! А возможно даже и больше…

Обучая огромные языковые модели на тоннах внутренних тренировочных датасетов и накопленной мудрости всего Интернета, хранящейся в том числе на Wikipedia и Reddit, OpenAI решил наконец запустить своего разговорного чатбота ChatGPT.

Правда, добавили они к языковой модели GPT-3 один важный фактор — тысячи людей, ответственных за ручную донастройку модели.

При так называемом подходе RLHF (обучение с подкреплением человеческого фидбека) человек помогает настроить восприимчивость модели и улучшить точность выдаваемых ответов во время обучения за счет ранжирования наиболее подходящих по смыслу и контексту ответов при каждой итерации. То есть человек на основании заранее выданных ему/ей инструкций в прямом смысле слова ОБУЧАЕТ модель, показывая на конкретных примерах, что такое хорошо и что такое плохо. На фото ниже примерно так буднично и выглядит процесс взаимодействия человека с нейронной моделью.

Помимо повышения точности самой модели при подходе RLHF, присутствует и вполне прозрачный экономический расчет. Оптимизированную человеком модель можно куда быстрее обучать и при этом сохранять компьютерные мощности для обработки запросов. Все таки амортизация железа, состоящего из тысяч графических процессоров (GPU), штука серьезная и выходит в копеечку, куда выгоднее привлечь людей. Ну а как Вы хотели, пока что до настоящего (автономного) ИИ, как до космоса. Имеется в виду далеко.

К тому же здесь и лежит первая бомба замедленного действия для подобных моделей — субъективность мнения таких учителей. А что если он/она оказались неправы в своих суждениях или же занимают позицию радикального меньшинства? Под откос пойдет вся модель, откатить действие назад не получится и придется начинать все с нуля…

Подобные ситуации уже на самом старте, к сожалению, порождают высокий риск предвзятости всего датасета, который позже по нарастанию будет только мультиплицироваться. Такого Франкенштейна и запустила в мир OpenAI.

Надеюсь, теперь Вам, дорогие читатели, стало немного более понятно, что из себя представляет подковерная механика завирусившегося чатбота ChatGPT. В следующем же посте мы разберемся, насколько умен современный ИИ и что в нем есть от человеческого мозга?

Пока что же, если находите новый формат постов полезным и интересным, шерьте материал с друзьями и подписывайтесь на тг-канал Венчурная Прожарка, чтобы всегда быть в курсе последних разборов!

0
Комментарии
-3 комментариев
Раскрывать всегда