{"id":14276,"url":"\/distributions\/14276\/click?bit=1&hash=721b78297d313f451e61a17537482715c74771bae8c8ce438ed30c5ac3bb4196","title":"\u0418\u043d\u0432\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c \u0432 \u043b\u044e\u0431\u043e\u0439 \u0442\u043e\u0432\u0430\u0440 \u0438\u043b\u0438 \u0443\u0441\u043b\u0443\u0433\u0443 \u0431\u0435\u0437 \u0431\u0438\u0440\u0436\u0438","buttonText":"","imageUuid":""}

8 апреля #главное в ИИ

⭐ Команды разработки сервисов GigaChat и SaluteSpeech в SberDevices представили нейросеть GigaAM (Giga Acoustic Model) — семейство акустических моделей для русского языка, которые позволяют распознавать речь и эмоции. В семейство вошли три модели: GigaAM, GigaAM-CTC и GigaAM-Emo.

Веса моделей и примеры использования находятся в открытом доступе. Читать подробный разбор на Хабре.

⭐ Стриминговый сервис Spotify представил AI Playlist – функцию на основе ИИ для создания плейлистов через текстовые команды. Сейчас она находится в бета-тесте и доступна только владельцам подписки Premium в Австралии и Великобритании, но скоро станет доступна и в других странах.

Отчет New York Times подробно рассказывает, как крупные компании в области ИИ решали проблему недостатка качественных данных для обучения ИИ, активно используя «серые схемы», обсуждали возможность нарушения авторских прав и меняли пользовательские соглашения.

Так, OpenAI разработала свою модель аудиотранскрипции Whisper и транскрибировала более миллиона часов видео YouTube. Эти данные затем были использованы для обучения GPT-4.

0
Комментарии
-3 комментариев
Раскрывать всегда