рука как музыкальный инструмент
навайбкодил инструмент за вечер
недавно залип на [Roli Airwave] – штуку которая трекает движения и конвертит жесты в MIDI. красиво, но дорого для эксперимента.
вечером открываю Claude Code, набрасываю концепт (буквально ссылку на продукт, плюс пару предложений из опыта) – что если сделать то же самое, но бесплатно, в браузере, через веб-камеру? MediaPipe Hands от Google трекает 21 точку на руке, Web Audio API генерирует звук, Canvas рисует скелет – всё что нужно уже есть в браузере.
два часа vibe-coding и готово. показываешь руку перед камерой – играешь музыку. поднимаешь выше – питч растёт. наклоняешь запястье – меняется фильтр. сжимаешь пальцы – громкость падает. шесть измерений контроля как у профессионального контроллера, только без контроллера.
добавил voice loop – записываешь голос, потом модулируешь его жестами. LIVE mode – говоришь в микрофон и одновременно обрабатываешь голос движениями руки. экспорт в WAV чтобы сохранить то что получилось.
это не про музыку, это про порог входа. Roli Airwave требует $299, установки софта, калибровки. MIDI AI – открыл ссылку и через 10 секунд играешь. не нужно ничего знать про синтез или MIDI. показал руку – звук пошёл. да, очевидно, там есть больше продуктовой работы и проработанные нишевые кейсы. но уверен, 90% покупателей этого девайса забудут о нем через неделю.
интересно как vibe-coding меняет отношение к творчеству. раньше "сделать музыкальный инструмент" – это месяцы работы, команда, железо. теперь – вечер с Claude, чашка кофе, готовый продукт. барьер между идеей и реализацией почти исчез.
в этом году хочется больше таких экспериментов на стыке AI и искусства. планируем лаборатории по [арту и музыке] – пространство где творчество встречает технологии без лишнего пафоса. просто люди которые делают интересные штуки и делятся процессом.
→ попробовать: https://midi-ai.netlify.app/
Chrome + камера + микрофон. Desktop + mobile. Лучше открывать в Safari
🤖 alex p
Подписывайтесь на Telegram AI Mindset.