RUST: Speed determines the winner!
Отличный обзор перспективных направлений! Согласен с анализом, особенно по DeSci и RWA - эти сектора действительно набирают обороты.
Но удивлён, что в разделе "AI + Blockchain гибриды" тема раскрыта так поверхностно. На мой взгляд, именно конвергенция ИИ и блокчейна станет главным драйвером следующего цикла. Мы уже видим:
- Децентрализованные GPU-маркетплейсы (Akash, Render) решают проблему дефицита вычислительных мощностей для обучения моделей
- Проекты типа SingularityNET создают экосистемы для монетизации AI-агентов через смарт-контракты
- Blockchain решает критическую проблему провенанса данных для обучения ИИ (Ocean Protocol, Filecoin)
- Zero-knowledge proofs позволяют верифицировать результаты работы моделей без раскрытия самих моделей
А биржи уже активно интегрируются в эту историю - Binance Labs инвестирует в AI-инфраструктуру, Coinbase запускает AI-трейдинг боты. Они станут ключевыми gateway между традиционным AI-бизнесом и крипто-экономикой.
Думаю, стоило бы глубже копнуть в эту тему. Проекты вроде Bittensor с их децентрализованной нейросетью или Fetch.ai с автономными экономическими агентами - это не просто "гибриды", а фундаментально новая парадигма организации вычислений и экономических отношений между AI-системами.
Интересная реализация, но вопрос про позиционирование: какую конкретную задачу решает локальный Whisper в браузере, когда у большинства пользователей уже есть встроенное распознавание речи?
Chrome/Edge имеют Web Speech API с онлайн-распознаванием, macOS/iOS - нативную диктовку, Windows - встроенный Speech Recognition. Все работают в реальном времени из любого приложения.
Понятно, что у вас акцент на privacy и офлайн-работу. Но для этого уже есть решения:
- macOS поддерживает локальную диктовку без отправки в облако
- Android имеет Gboard с офлайн-моделями
- Есть десктопные приложения типа Whisper Desktop для тех, кому нужна именно эта модель
В чём уникальность браузерной реализации? Кросс-платформенность? Отсутствие установки? Или задача в транскрибации готовых записей, а не реал-тайм диктовке (тогда логичнее)?
Просто пытаюсь понять use case, где это решение выигрывает у уже интегрированных опций. Может, есть конкретные сценарии использования, которые не очевидны сразу?
Сенсорный экран в новых MacBook Pro, скорее всего, будет работать по тому же принципу, что и у iPhone или iPad: емкостная поверхность, реагирующая на касания. Из этого автоматически следует проблема пятен и разводов от пальцев – привет постоянным протираниям, особенно на свежем "Pro" за пару тысяч баксов. Но Apple же не зря мастер по upsell: жди фирменное перо для "профессионалов" с супер-латентностью и технологичным названием, естественно, за отдельные деньги.
А чтобы совсем не расслаблялись, зарядка для этого пера тоже будет продаваться отдельно. Бери сразу два комплекта, чтобы не искать кабель ночью перед дедлайном. В общем, классика Apple: сделать must-have фичу, а потом изящно монетизировать каждую её деталь, превращая твой Pro в набор аксессуаров "сделай сам".
После обновления Mac всё начало жестоко тормозить, а скруглённые края просто невыносимы — часть пространства экрана теперь скругленная! Прозрачность и кругляшность интерфейса — это будто возврат к временам первого айфона… Ностальгия, но хочется выйти из него.
Классика - каждый релиз генеративной модели превращает соцсети в помойку однотипного контента. Sora 2 не исключение: лента забита тысячами "креативщиков", которые открыли для себя, что промпт работает. Схема железная - первым делом какой-нибудь мем из 2010-го в формате видео, потом обязательно бабушка что-то делает (почему всегда бабушка?), а в финале - псевдофилософский ролик про "будущее ИИ" с драматичной музыкой. Эстетика TikTok плюс нулевая вариативность мышления дают предсказуемый результат.
Проблема не в инструменте, а в том, что доступность технологии не коррелирует с умением ею пользоваться. Те же промпты, те же референсы, тот же путь "от анекдота к экзистенциальному кризису через видео с пенсионеркой". Инструмент мощный, но когда тысячи людей используют его для генерации одного и того же шлака - получается информационный шум. Месяц-два и алгоритмы начнут фильтровать этот мусор, а пока - наслаждайтесь парадом клонированного креатива.
Это только презентация, дождемся релиза, показать то можно все что угодно )
Пользуюсь Comet уже какое-то время и полностью согласен — это не просто браузер, а реальный цифровой помощник и агент. Самое главное: здесь любой запрос — это не просто набор ссылок, а собранная, осмысленная информация из множества источников. Comet действительно меняет саму парадигму поиска и получения знаний в сети — больше не нужно вручную сёрфить десятки сайтов, всё самое полезное уже в ответе. Экономит кучу времени на рутинных задачах и делает работу заметно эффективнее. Спасибо за обзор, рекомендую всем, кто хочет получать максимум от интернета!
Как же круто))) с каждым месяцем у нас качество генераций выходит на новый уровень
Чистка кода после работы ИИ действительно становится всё более важной задачей, и иногда она бывает весьма серьёзной. Но если заниматься этим вручную, велик риск потерять исходную идею и контент, который заложил ИИ. Поэтому оптимальным решением кажется чистить код с помощью самого ИИ, чтобы сохранять замысел и логику программы. Ещё один важный момент — необходимо контролировать и сам код, порождаемый стандартами типа IEEE, ведь зачастую они добавляют слишком много лишних структур и не всегда удачно оптимизируют логику, даже если прописаны правила. Всё это делает профессию «чистильщика кода» действительно сложной и востребованной.
Начинается всё красиво: "не выходя из дома, не тратясь на фотографа". А на пятом шаге из пятнадцати неожиданный поворот сюжета - оказывается, нейрофотосессия требует "огромных мощностей компьютеров и серверов", поэтому нужна подписка. Классический клиффхэнгер в стиле Netflix!
Особенно понравился момент с 30-50 фотографиями для обучения модели. Получается, чтобы не ходить на фотосессию, нужно уже иметь 50 хороших фото с разными ракурсами и освещением. Парадокс Шрёдингера какой-то: фотосессия одновременно и нужна, и не нужна 🤔
А промпт на английском в шаге 14 - это вообще отдельное искусство! Целое эссе о "golden hour lighting" и "autumn foliage". Прямо чувствуется, что автор 8 лет в онлайн-школах - умеет создать образовательный контент с плавным переходом к оплате.
В целом, статья полезная - теперь я точно знаю, что для создания нейрофото мне нужны: подписка, 50 готовых фото и навыки написания промптов на уровне Shakespeare. Или просто открыть Midjourney 😊
P.S. Автор честно предупреждает, что НЮ-фото не делает. Зато 50 ваших личных фото для обучения модели возьмёт с удовольствием!