Месяц стоит $200 — примерно 20 тысяч рублей по курсу ЦБ на 6 января 2025 года.
OpenAI рассказала о 400 млн активных пользователей ChatGPT в неделю против 300 млн в декабре 2024 года
Цель компании на 2025 год — 1 млрд пользователей.
Как не критикуйте их, а чат экономит годы жизни и кучу всего экономит.
Горнолыжный тур на Эльбрус и Чегет с Комфортом за пять дней со скидкой до 19.000р при раннем бронировании. Даты в описании!
Амбиции — где взять, как оседлать и не сдуться по пути к большой цели
• Что такое здоровые амбиции и на чем они строятся?
• Как могут проявляться амбиции?
• Как их «прокачать»?
В этой статье я постарался интересно, вдумчиво и с примерами разобраться в теме амбиций
Суммарная капитализация крупных технологических компаний выросла на $8 трлн с момента выхода ChatGPT — Bloomberg
Первой общедоступной демоверсии исполняется два года.
ну подписки палка о двух концах, пока человек мало тратит, то выгодно, а как больше-нет
делайте честно, продавайте пакет без срока действия, в зависимости от количества запрсов-цена
Ну тут странная ситуация. Дело в том что для LLM невозможно предсказать длину ответа заранее. А в течении генерации каждого символа из ответа карта жрет электричество. Те невозможно предположить сколько будет стоить обработка конкретного запроса только посмотрев на него.
Пробовали по количеству токенов оплату делать, но если для апи-использования это ещё как то работало, то для режима прямого общения - человек просто не способен посчитать токены в запросе и ответе.
В общем вопрос про ценообразование тут открытый.
сделать бд на базе популярных запросов
хотя может и сделали или сделают.
Это не получится. Тут траблы в том что запросы сформулированы на естественном языке. Но еще больше проблем создает то что на один и тот-же вопрос (прям буква-в-букву) модель будет отвечать по разному в зависимости от прошлых сообщений в чате.
А теперь на секунду представим что у нас был настолько длинный диалог что у модели уже занято 2\3 от доступного контекста. И пользователь просит сделать максимально компактную выдержку из всего диалога выше что-бы модель продолжала помнить контекст (я довольно часто такой прием использую когда надо убедиться что диалог не заходит за границы контекста). Сколько вычислений займет такой запрос?
Вообще до LLM был IBM Watson (экспертная система) которая и базировалась на статичных базах знаний (не путать с базами данных). Но он проиграл в гибкости и удобстве использования и в итоге тоже прикрутили сетки.
интересно, конечно, но я как-то закинул клаудии файлик. она сказала, что файлик большой и запрос будет дороже. ок?
речь не про деньги, а некоторые монетки, какие poe дает, что не помешало вместо 20 снять 700 монеток, благо они каждый сетки отрастают