UBS: ChatGPT стал самым быстрорастущим приложением в истории — ежемесячная аудитория достигла 100 млн за два месяца Статьи редакции

У TikTok на это ушло девять месяцев.

Источник: Forbes
  • По итогам января 2023 года ежемесячная активная аудитория ChatGPT выросла до 100 млн человек, пишет Reuters со ссылкой на исследование швейцарского финансового холдинга UBS. Количество уникальных пользователей в день при этом составляло около 13 млн — это почти вдвое больше, чем в декабре 2022 года.
  • «Мы следим за развитием интернет-пространства уже 20 лет, но столь быстрый рост потребительского приложения видим впервые», — заключили аналитики UBS. Для сравнения: TikTok потратил девять месяцев, чтобы привлечь 100 млн ежемесячных активных пользователей, а Instagram* — 2,5 года.
  • ChatGPT — чат-бот на основе нейросети GPT-3.5 от компании-разработчика OpenAI, который может поддержать разговор и придумать песню или стих, рассказать, как составить HTTP-запрос на Javascript, и найти ошибки в коде, а также решить математические задачи, составить резюме, сдать экзамен в вузе и написать ВКР.
  • Демоверсию ChatGPT опубликовали 30 ноября 2022 года. В январе 2023-го Microsoft начала экспериментировать с его интеграцией в редактор Word и поисковик Bing и подтвердила слухи о «многомиллиардных инвестициях» в проект. 1 февраля OpenAI также анонсировала платную версию ChatGPT Plus — за $20 в месяц.
  • Свою версию «умного» бота собрались представить китайская Baidu, российский «Яндекс» и американская Google. Предположительно, ради этого в Google вернулся и сооснователь корпорации Сергей Брин — для работы с данными, на которых обучают нейросеть LaMDA.

*Meta, владеющая Instagram, признана в России экстремистской и запрещена.

0
355 комментариев
Написать комментарий...
Techno George

Неудивительно, меняется сам подход, как люди стали взаимодействовать с интернетом. Поиск уходит в ютуб, в маркетплейсы, в тикток, в телеграм, форумы, куча всего, что не индексируется. Добавится ChatGPT. К тому же и выдача поисковиков стала забита сеошным дерьмом. В давние времена редко до второй страницы поиска приходилось доходить, а сейчас что-то релевантные получается найти на пятой странице, седьмой, девятой итп, если вообще найдешь.

Ответить
Развернуть ветку
Михаил Октябрьский

ChatGPT работает как раз с индексируемым контентом, из базы индекса он ответ и берёт. Просто вместо кучи страниц, которые вываливает гугл, chatgpt умеет из базы систематизировать знания и сгенерировать результат

Ответить
Развернуть ветку
Vasiliy Leytman

это не верное утверждение.
никакие знания он не систематизирует, если совсем упростить — он берет ваш вопрос и предсказывает как продолжит текст вопроса так, чтобы он стал похож на ответ.
индекс это конкретные данные в табличке, а база LLM — это не индекс, а грубо говоря многомерная карта весов и взаимосвязей между понятиями. то что это не индекс, совершенно очевидно и по тому факту, что ChatGPT никогда не сгенерит одинаковый ответ на один и тот же вопрос, похожий может, но не идентичный, что сами понимаете противоречит индексу — потому что будь это индекс, по конкретному запросу извлекался бы конкретный ответ.
а так энкодер сначала берет ваш запрос, бьет на токены, пропускает через декодер и получает ответ. там конечно есть еще разное, reward model, human supervision итп но все же это совершенно никак не является индексом ни в каком виде)

Ответить
Развернуть ветку
Михаил Октябрьский

а знания для ответа он где берёт?

Ответить
Развернуть ветку
Vasiliy Leytman

еще раз, он не берет знания, он генерирует ответ на ваш запрос. индекс используется для поиска данных. тут нет индекса — есть многомерная база взаимосвязей между понятиями, векторов. он ничего не ищет в индексе — он бьет запрос на токены, строит для них векторы, и потом ищет похожее среди векторов в базе. но очень важно понимать, что это НЕ поиск конкретной информации потому что векторе НЕ содержат конкретной информации, они условно говорят содержат вероятность появления одного слова после другого слова — все это во множестве измерений. грубо говоря вектор это просто массив чисел. оч советую почитать что-нибудь про GPT, attention, transformers, decoders/encoders итп. сейчас очень много людей делают эту странную ошибку и она скоро станет страшной) потому что многие реально начинают думать что их запрос прямо вот анализируется и там прямо вот что-то ищется, но это не так. просто за счет размера базы векторов, очень часто ответ выглядит правильным, потому что вписывается в паттерн из векторов) если хотите что-то что именно СИСТЕМАТИЗИРУЕТ информацию и делает ВЫВОДЫ — это скорее Wolfram Alpha — там после токенизации запрос переводится во внутренний язык функций и поэтому ответы действительно всегда правильные. но это как бы и не conversational model.

Ответить
Развернуть ветку
Oleg Abakumov

А ты где берешь?)

Ответить
Развернуть ветку
Tee Shark

Добавлю к предыдущему ответу, очень грубо и не совсем точно, но и не совсем неправильно.

Это для Вас написанное есть знание, для модели это просто текст, много текста, очень много, который статистически содержит правильные ответы. Поэтому при построении ответа строится нечто среднее между всеми обработанными текстами, и это похоже на правильный ответ. И модель не понимает знания из текста, если её учить "глокими куздрами", то и ответы будут примерно такими же. Вся гонка в том, что с большим числом весов и более точными алгоритмами модель успешней формирует ответ, который ещё более похож на данные, на которых она обучена.

Ответить
Развернуть ветку
352 комментария
Раскрывать всегда