Мимо проходивший

+22 158
с 2022
22 подписчика
3 подписки

на моем приложении был демон на пайтоне держащий обычную версию моделей whisper, потом переписал на нативную библиотеку для моделей https://huggingface.co/argmaxinc/whisperkit-coreml - х4 прирост распознавания, библиотека при скачивании модели ее еще компилирует под М чип.

Не Whisper, я себе написал свое приложение для этого, модели эти используются huggingface/models/argmaxinc/whisperkit-coreml/

Да, процессом, все 3 модели которые включены. Занимают до 600 мб каждая

Я со многим согласен, уже сейчас можно команды прорядить на половину, вручив стобаксовые подписки сенорам, ничего не изменится, гарантирую. У нас в команде не было найма запланированного, просто потому, что за 100 баксов мы делает больше с тем же качеством за идентичное время.
Грустно и страшно одновременно. Разрабы очень сильно пострадают за текущий год, архитекторы тоже, девопсы туда же. За месяцы целые эпохи эволюции проходим (в сравнении), что просто не снилось другим профессиям.

2

Да не, на М чипах одно удовольствие быстрый локальный докер иметь, облака такой скорости не дадут, а мне часто локальный бек нужно поднимать многоконтейнерный и менять конфиг на лету.
В любом случае - макбуки и маки это топ и М перевернул игру. Был у меня Macbook pro 2019 на Intel и Macbook pro 2020 на M1, одинаковые во всем, кроме чипа - на первом можно было яйца жарить без преувеличения, второй холодный был в тех же задачах.

2

Локальные модели, к примеру. Есть модели для распознавания голоса, компилируются по М чипы (под те самые 16 ядер NPU), и работают х4 быстрее. Сам пользуюсь тремя такими одновременно (градация от легкой 500мб до тяжелой 6гб).

1

по факту - дело привычки сочетания нажмать. Но можно и отдельный блок купить для этого.

1