Роадмап LLM-инженера: Доступ к моделям через API (тема 3/14)
Пришло время научиться обращаться к моделям через API.
- А куда обращаться? - спросите вы
Есть несколько вариантов:
Первый - на сервера производителей, к, старым добрым, ChatGPT, DeepSeek, Gemini, Qwen.
Второй - к хабам опенсорс моделей, например, HuggingFace
Третий - к сервисам-провайдерам агрегаторам, которые предоставляют и то и другое: Openrouter, Together, Fireworks
К сожалению, форматы API у всех отличаются и обладают своей спецификой. А нам это не удобно, так как мы точно захотим экспериментировать с разными моделями и сервисами.
Но, к счастью, OpenAI был впереди планеты всей, и его формат стал стандартом де-факто.
Поэтому начните с интерфейса OpenAI , возьмите провайдер Openrouter . Изучите спецификацию, форматы сообщений, поэкспериментируйте с системным промптом, параметрами генерации, потоковым выводом (streaming). Изучите мета-информацию в ответе (кол-во токенов, время генерации).
Сгенерируйте своего первого ИИ-ассистента, благо кодовые агенты отлично умеют генерировать код для OpenAI библиотек.
Изучайте основы, не гонитесь сразу за фреймворками верхнего уровня, мы еще познакомимся с ними позднее.
📚 Дополнительные материалы по ссылке в телеграмм канале
🔔 Подписывайтесь, чтобы не пропустить следующую тему -локальный запуск моделей!
Больше про AI-coding ИИ-агентов в моем Telegram-канале AI.Dialogs.
По любым вопросам и предложениям пишите мне в личку smirnoff_ai.