Роадмап LLM-инженера: Доступ к моделям через API (тема 3/14)

Роадмап LLM-инженера: Доступ к моделям через API (тема 3/14)
Роадмап LLM-инженера: Доступ к моделям через API (тема 3/14)

Пришло время научиться обращаться к моделям через API.

- А куда обращаться? - спросите вы

Есть несколько вариантов:

Первый - на сервера производителей, к, старым добрым, ChatGPT, DeepSeek, Gemini, Qwen.

Второй - к хабам опенсорс моделей, например, HuggingFace

Третий - к сервисам-провайдерам агрегаторам, которые предоставляют и то и другое: Openrouter, Together, Fireworks

К сожалению, форматы API у всех отличаются и обладают своей спецификой. А нам это не удобно, так как мы точно захотим экспериментировать с разными моделями и сервисами.

Но, к счастью, OpenAI был впереди планеты всей, и его формат стал стандартом де-факто.

Поэтому начните с интерфейса OpenAI , возьмите провайдер Openrouter . Изучите спецификацию, форматы сообщений, поэкспериментируйте с системным промптом, параметрами генерации, потоковым выводом (streaming). Изучите мета-информацию в ответе (кол-во токенов, время генерации).

Сгенерируйте своего первого ИИ-ассистента, благо кодовые агенты отлично умеют генерировать код для OpenAI библиотек.

Изучайте основы, не гонитесь сразу за фреймворками верхнего уровня, мы еще познакомимся с ними позднее.

📚 Дополнительные материалы по ссылке в телеграмм канале

🔔 Подписывайтесь, чтобы не пропустить следующую тему -локальный запуск моделей!

Больше про AI-coding ИИ-агентов в моем Telegram-канале AI.Dialogs.

По любым вопросам и предложениям пишите мне в личку smirnoff_ai.

Начать дискуссию