ИИ: отрасль рискует «отмыванием облачных денег»

Чат-боту OpenAI ChatGPT требуется гораздо больше вычислительной мощности, чтобы ответить на вопрос, чем Google требуется для ответа на поиск в Интернете, - пишет Bloomberg. Такие организации, как OpenAI, стремятся получить прибыль, им, возможно, придется начать взимать плату за услуги, которые сейчас бесплатны.

<i>Сэм Альтман, главный исполнительный директор OpenAI</i>
Сэм Альтман, главный исполнительный директор OpenAI

23 января корпорация Microsoft объявила о многолетних инвестициях в OpenAI. Человек, знакомый с этой сделкой, пожелавший остаться неназванным и сообщить непубличные подробности о бизнесе оценил ее стоимость в 10 миллиардов долларов. Большая часть этой ценности заключается в том, что Microsoft получает право почти на половину финансовых доходов OpenAI в обмен на предоставление OpenAI доступа к вычислительной мощности в облачной сети Microsoft Azure.

Клеман Деланг, главный исполнительный директор Hugging Face Inc., которая управляет репозиторием моделей искусственного интеллекта с открытым исходным кодом, популярных среди стартапов, говорит, что отрасль рискует «отмыванием облачных денег».

Система GPT-3, на которой построен ChatGPT, использует 175 миллиардов параметров, что расширяет ее универсальность, а также делает ее особенно энергоемкой

Ясно одно: эти системы монументально дороги. Первый шаг к его созданию — это сбор огромных объемов данных — текста, фотографий или рисунков — со всего Интернета. После этого такие данные используются для обучения модели ИИ. Для самых крупных моделей этот процесс исчисляется миллионами долларов даже без учета затрат на специализированных инженеров, таких как лингвисты, говорит Роуэн Карран, аналитик Forrester Research. И чем на большем количестве данных построена система, тем больше вычислительной мощности ей, вероятно, потребуется для ответа на запрос. Каждый новый вопрос должен проходить через модель, включающую десятки миллиардов параметров или переменных, которые система ИИ изучила в ходе обучения и переобучения.

В декабре главный исполнительный директор OpenAI Сэм Альтман написал в Твиттере, что средняя стоимость запроса ChatGPT составляет «вероятно, однозначные центы за чат». Анализ Morgan Stanley оценил его в 2 цента. По данным Morgan Stanley, это примерно в семь раз превышает среднюю стоимость поискового запроса в Google, и эта сумма может быстро накапливаться в продуктах, работающих в таких больших масштабах.

88
9 комментариев

Искусственный нейрон как математическая абстракция не лучший кандидат для функционального базиса в задаче аппроксимации. Далее, стохастический градиентный спуск также наивен и не гарантирует нахождение действительно глобальных экстремумов, застревая в неоптимальных локальных. Как следствие, даже такой монстр на 175 млрд. весов не может просто так вот взять и озвучить несколько фактов из Википедии.

3

Искусственный нейрон как математическая абстракция не лучший кандидат для функционального базиса в задаче аппроксимации.Словоблудие полнейшее.

1) Эта нейросеть сильна именно в понимании речи и умеет ориентироваться в крайне широких областях именно с целью поддержки диалога, а не выдачи информации.
2) Эта нейросеть заточена на работу с информацией на английском языке и глупо делать поиски косяков узко специализированных запросов на русском.
3) Что за бред ты вообще спросил? Широко известное в крайне узких кругах явление, про которое даже не знает гуугл.

Ты спросил бред, получил ответ бред и стал делать выводы.
Твоя нейросеть плохо обучена. Иди переобучайся.

3

Хм.
Так каждая модель для своей цели. Вам уже ниже указали в пункте 1

1

Нужно каждый ИИ использовать по назначению, если грамотно подойти, то это только улучшит подачу информации, сэкономит бизнесу, контент, видео, фото и тд.
GPT3 не один ИИ, он просто может делать несколько разных задач. Вот к примеру список из 60+ ИИ, где каждый делает свою задачу, в GPT3 пытаются их объединить.
https://vc.ru/services/593857-60-iskusstvennyh-intellektov-vse-chto-izobrelo-chelovechestvo-na-segodnya

2

Тоже самое специалисты говорили про вообще ИИ и то что толку не будет потому что число параметров увеличивать дорого и толку нет. Гуугл ии имеет больше параметров, и работает в разы хуже, как так?)
Может нужно понимать что авторы chatGPT заняты именно поиском оптимизации, а не тупо масштабированием как хотя некоторые недалекие менеджеры?

Комментарий недоступен