OpenAI готовит к запуску GPT-4.1 с мультимодальностью и новыми мини-версиями, но возможны задержки

OpenAI готовит к запуску GPT-4.1 с мультимодальностью и новыми мини-версиями, но возможны задержки

Компания OpenAI работает над запуском обновлённой модели GPT-4.1, которая станет логическим развитием GPT-4o — мультимодальной ИИ-модели, способной обрабатывать текст, изображение и аудио в реальном времени.

🔍 Что известно о GPT-4.1:

  • Будет поддерживать мультимодальные запросы — как и GPT-4o.
  • Упор на улучшенное рассуждение и скорость отклика.
  • В разработке находятся облегчённые версии GPT-4.1 mini и nano, запуск которых ожидается уже на следующей неделе.
  • Также готовятся модели o3 (полноценная) и o4 mini (упрощённая) — они уже упоминаются в коде новой веб-версии ChatGPT.

⚠ Возможные трудности:

Генеральный директор OpenAI Сэм Альтман предупреждает о задержках и сбоях:

«Следует ожидать сбоев, пока мы решаем проблемы с производительностью».

Причина — высокая нагрузка на GPU-серверы: ранее из-за этого даже ограничили генерацию изображений в бесплатной версии ChatGPT.

🧠 Что это значит для пользователей:

  • Новая модель обещает быстрее и точнее обрабатывать сложные запросы, особенно в области анализа изображений и аудио.
  • Лёгкие версии mini и nano могут стать доступными в мобильных устройствах или для встраивания в сторонние продукты.
  • В момент запуска возможны перебои в работе сервисов OpenAI.
Начать дискуссию