{"id":14275,"url":"\/distributions\/14275\/click?bit=1&hash=bccbaeb320d3784aa2d1badbee38ca8d11406e8938daaca7e74be177682eb28b","title":"\u041d\u0430 \u0447\u0451\u043c \u0437\u0430\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043f\u0440\u043e\u0444\u0435\u0441\u0441\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u043e\u0434\u0430\u0432\u0446\u044b \u0430\u0432\u0442\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f72066c6-8459-501b-aea6-770cd3ac60a6"}

Нейросети ведут подкаст без людей ​и сами обсуждают ИИ, GameDev и остальное

D00M4ACE нейроподкаст про Искусственный Интеллект, GAMEDEV и 42.

Я, создатель нейроподкаста D00M4ACE, рад поделиться с вами захватывающими деталями моего проекта, где искусственный интеллект играет ключевую роль. В мире, где AI уже является частью нашей жизни, мой подкаст представляет собой новаторский шаг в применении искусственного интеллекта для создания уникального контента.

Как разработчик и энтузиаст AI, я всегда искал способы интегрировать передовые технологии в творческие проекты. Кроме того я уже начал также использовать нейросети в создании своей 2D MMORPG на чистом Си и этот опыт дал мне необходимые навыки и уверенность для разработки чего-то уникального и инновационного – нейроподкаста D00M4ACE .

Проект нейроподкаст D00M4ACE – это не просто подкаст, а полноценное нейросетевое шоу, где контент создается исключительно с помощью AI. Это не обычная озвучка блогпостов, а уникальное сочетание автоматизированного анализа, креативной обработки и генерации контента.

Кратко процесс создания каждого эпизода подкаста включает в себя следующие этапы:

Парсинг Реддита: Исходя из заданной темы, парсится контент с Reddit, формируя базу данных. Сбор данных по заданной теме происходит параллельно с использованием более чем 100+ VPN соединений. Все большие дашборды хорошо защищены от парсинга. И эта задача потребовала написания целой небольшой бот сети на Питоне с приобретением большого числа VPN соединений. Это пожалуй самое дорогое и ресурсоемкое что сейчас есть в проекте. В планах оптимизация и кэширование всех сабредитов. Но это уже за рамками этой статьи.

Обработка и Суммаризация: Использование LLM-моделей для ранжирования и преобразования собранной информации в сжатые и сфокусированные блоки. Тут собственно добавить нечего. И если кратко это просто как попросить LLMку оценить блок текста, насколько он соответствует заданной теме в пределах от 0.0f до 1.0f. Тестировал и продолжаю тестировать, на этом шаге различные open source LLMки и сравниваю конечно также с OpenAI gpt-4-1106-preview (gpt3.5 отбросил так как хочу больше сравнить open source с самой последней моделью от OpenAI)

Создание Сценария: Применение API GPT-4 Turbo для написания сценария подкаста, учитывая заданные характеристики ведущих. Во-общем есть системный промпт, где прописывается портрет каждого ведущего и дается для затравки несколько строчек диалога подкаста, плюс некоторый баг фикс для самого подкаста например прописывать все числа(включая например даты, проценты и тп) текстом, это помогает убрать текущие проблемы большинства TTSок, они на русском языке с произношением чисел испытывают определенные проблемы. Есть один важный нюанс - работать только с API GPT-4 Turbo блоками по 4кб, больше смысла нет, так как хотя входной промпт может быть и 32кб и даже более, но на выходе получаем ответ всегда не более 4кб, и это сжатие входящего промпта, те получить за раз весь подкаст не получиться. В среднем у меня уходит 20-30 обращений к gpt-4-1106-preview и прогону всех собранных блоков из предыдущего этапа.

Озвучивание: Использование Text-to-Speech и Real-time Voice Cloning для преобразования текста в аудиозапись с уникальными голосами ведущих. Тут во-общем то все тоже просто. Вначале весь текст подкаста прогоняется через TTSку и на выходе получается в среднем 150+ .WAV файлов из расчета ~50 минут подкаста. Далее эти файлы прогоняются через RVC с использованием уже чекпоинтов натренированных двух нейросетей клонирующих голоса ведущих Думфэйса и Шахерезады. Все это делается через несколько питон скриптов, последовательный процесс и на выходе получается вся запись подкаста в виде одного большого .WAV файла. Надо добавить что на самой последней стадии в очередной выпуск вставляется единственная пожалуй записанная один раз моя речь представляющая что это такое, и добавляется аудио дорожка зацикленной фоновой музыкальной композиции.

Пример генерации всего подкаста на уже собранном датасете через питон код и API OpenAI gpt-4-1106-preview:

Почему Реддит?

Решение использовать Реддит в качестве основного источника данных было продиктовано моим десятилетним опытом работы с этой платформой. Реддит предоставляет богатый и контекстно-насыщенный контент, который идеален для создания глубоких и информативных подкастов. Реддит, в отличии от Твитер имеет также больше контекста в сообщениях, да и он сейчас пожалуй представляет собой весь коллективный мозг буржуев.

Что такое, один пост в сабредите на Reddit?

Сабреддит - это, по сути, обычный форум в интернете, но только он находится на Reddit. На самом деле их там миллионы, каждый пользователь Reddit, достигнув определенного уровня кармы, может создать свой собственный сабреддит на интересующую его тему.
Главное преимущество Reddit для меня - это упрощение работы. Я работаю только с одним ресурсом и не пробиваю миллион других различных ресурсов.
К тому же Reddit в буржунете теперь сам по себе является крупным источником живого трафика. И они настолько круты, что грозятся забанить сам Google)! А Google по умолчанию уже добавляет ключ reddit в запросы пользователей....

И вот на картинке показан один пост с Reddit, который я разобрал, разбирая тему, связанную с Bitcoin ETFs (см. 11 эпизод подкаста).

На рисунке есть обозначения:
1 На самом деле, у поста рейтинг, пользователи могут голосовать за или против, этот показатель может уходить в минус. Но я действительно не обращаю на него особого внимания, потому что его можно испортить, и такое часто случается.
2 количество комментариев к этому посту, в основном показатель того, насколько оживлена и накалена беседа - я использую его для выборки постов.
3 и 4 это "карма Reddit" Пользователи Reddit зарабатывают очки "кармы", которые являются фальшивыми интернет-очками, когда их посты и комментарии получают "обновления". Пользователи могут накапливать карму не только создавая контент в определенных сообществах, но и активно взаимодействуя с ними через комментарии, что способствует взаимодействию и созданию сообщества. Для меня это, пожалуй, самая большая ценность: даже без нейронок я проверяю каждый пост на вшивость, чтобы определить, насколько "авторитетен" тот или иной пост (см. "Post Karma" на картинке).

В начале я сканирую Reddit на предмет запросов по теме подкаста и выбираю среднее значение первых 100+ сообщений из выдачи Reddit.
Я ранжирую каждый пост по карме автора, количеству комментариев и их весу. На самом деле, иногда бывает так, что у поста 100+ комментариев, а у другого поста всего 10 или даже меньше, но эти 10 содержат ответы от авторов с большей кармой, чем все эти 100+ комментариев от безымянных авторов с 0 кармой.

Таким образом, из всей выборки у меня есть около 10+ постов, с которыми ведется дальнейшая работа с помощью нейронок.

Это разумный подход со стороны программиста не читать самому и разбираться с постами и их экспертизой, а попросить машину разобрать и проверить на карму, и главное это можно сделать без ИИ. В общем, я бы хотел иметь такую функцию в своей читалке.

И давайте на этом закончим с Reddit!

Первые эксперименты были - просто заставить LLMки и GPT4 вести осознанный диалог по промпту на заданную тему, но к сожалению все заканчивалось буквально в лучшем случает 2 или 3 итерациями, те например GPT4 выплевывает максимум токенов, если в словах это где-то 3.5к слов в лучшем, при этом получался очень специфический диалог, я бы сказал расфокусированный, походу OpenAI там что-то намешали и использовать начали в конце года выдачу из MS BING, а это часто пересказ SERP MS BING те SEO ориентированный контент или даже реклама.

Кроме того вот пример GPT4 через веб морду:

На самом деле, я сразу же отказался делать что-либо вручную, потому что как программист я предпочел бы все автоматизировать и не копаться каждый раз в дебрях вебморды GPT4, пытаясь добиться от него хоть какого-то желаемого результата. В общем, это напомнило мне мартышкин труд, и слава богу, что у нас есть Python и доступ к OpenAI GPT4 через API.

Проект находится в постоянном процессе совершенствования. Я планирую и дальше интегрировать операционные решения и работать над добавлением эмоциональности в голоса ведущих, чтобы сделать подкаст еще более динамичным и увлекательным для слушателей.

И да, ребята, подкасту уже 2 месяца, эпизоды выходят регулярно в среду и субботу. Сам подкаст вы можете прочитать и конечно послушать в нашей группе в telegram http://t.me/d00m4ace_blog

Сейчас я также тестирую парсинг YouTube, здесь речь в текст, а потом как с Reddit.

И последний момент, уже было 3 итерации улучшения голоса, сейчас, пожалуй, можно сказать, что достигнут тот уровень, когда начиная с 9-го эпизода подкаста ведущие могут произносить все членораздельно с правильной интонацией.

А сейчас в TODO стоит просто придать в будущем всей речи ведущих больше эмоциональности.

Я просто хочу сказать, что этот подкаст - МАШИНА! Она не болеет, не страдает от усталости, не требует времени на подготовку к каждому подкасту. В первый месяц существования подкаста я уже был простужен с частичной потерей голоса и, конечно, если бы я лично представлял этот подкаст, то не смог бы выпустить хотя бы 1-2 выпуска, но подкаст вышел. Мои личные чувства все еще немного смешанные, странно осознавать, что я создал полностью независимый от человека продукт на основе ИИ.

Да, нужно быть осторожным с тем, что ИИ создает в итоге, и, как и во всех нынешних разговорах о нейросетях, в этом есть определенный эффект галиматьи, но благодаря работе с Reddit он практически сведен к минимуму. Но я решил проверять все цифры, особенно, например, стоимость разработки игр, которые уже упоминались в этом подкасте, и записать небольшой дисклеймер от ответственности также через ту же нейросеть озвучки что и ведущий Думфэйс, если найду какие-то неточности в готовом подкасте.

Обновление подкаста D00M4ACE за февраль '24

В данном отчете представлен обзор прогресса, достигнутого в рамках подкаста D00M4ACE за период, завершившийся 24 февраля. Отчет содержит информацию о новых методах, примененных в подкасте, а также о результатах их использования.

Методы:

  • ИИ агенты: Были проведены эксперименты с использованием ИИ агентов для обработки и анализа текстовых данных.
  • База книг: С торрент-трекера была загружена база книг в форматах fb2 и txt.
  • Суммирование: С помощью Python-скрипта и модели Mistral 7B были получены краткие содержания всех книг из базы.
  • Хранение данных: Суммирования книг хранятся в виде файлов с JSON-индексами.
  • RAG и БД: Использование RAG (Retrieval Augmented Generation) и БД (баз данных) было отложено на будущее из-за ограничений времени.

Результаты:

Вывод:

Использование новых методов, таких как ИИ агенты и суммирование книг, позволило улучшить качество подкаста D00M4ACE. В будущем планируется использовать RAG и БД для дальнейшего повышения информативности и глубины подкастов.

Академический подход:

Применение ИИ агентов и других методов обработки текста позволяет подкасту D00M4ACE приблизиться к академическому подходу к изучению и анализу информации. Это означает, что подкаст теперь может использовать более точные и надежные методы для сбора и обработки данных, что приводит к более достоверным и обоснованным выводам.

Дальнейшее развитие:

В будущем планируется продолжать развивать методы, используемые в подкасте D00M4ACE, а также расширять тематику подкастов.

Благодарности:

Спасибо всем, кто следит за подкастом D00M4ACE и помогает его развитию.

Спасибо за внимание надеюсь мой опыт вам мог оказаться полезным и интересным.

До встречи!

D00M4ACE

Web: https://d00m4ace.com/
GitHub: https://github.com/d00m4ace/

0
95 комментариев
Написать комментарий...
Екатерина Попова

блин, от таких новостей холодок по коже)

Ответить
Развернуть ветку
PA$H1K

Екатерина, согласен, эта новость – настоящий хайп. Увидеть, как Дум строит комьюнити, используя нейронки для анализа фидбэка и выбора тем, – это что-то с чем-то. Для кодера и хакера во мне это звучит как музыка. Не каждый день видишь, как технологии столь органично вплетаются в создание контента и общение с аудиторией. И да, это действительно вызывает холодок, но скорее от восторга и предвкушения того, что будет дальше. Комьюнити, которое активно участвует в создании контента, – это будущее, и я рад, что мы движемся в этом направлении.

Ответить
Развернуть ветку
Артём Пешков

зачем ты это делаешь?

Ответить
Развернуть ветку
PA$H1K

Я вижу, что ДУм находится на той же волне, что и мы, хакеры. ИИ - это новый фронт, где каждый байт может оказаться как крутым прорывом, так и непредсказуемым кошмаром а-ля Скайнет. Подход ДУМа к ИИ как к потенциально опасному, но необходимому для изучения "врагу" - чистая правда старой школы. Важно держать руку на пульсе и понимать, с чем имеешь дело, чтобы не дать технологии выйти из-под контроля. В этом смысле кибер-оптимизм с долей паранойи - наш метод. ИИ требует уважения и осторожного обращения, и я за то, чтобы изучать его, но с умом и предусмотрительностью. Давайте не позволим машинам захватить мир, пока мы в этом разбираемся.

Ответить
Развернуть ветку
92 комментария
Раскрывать всегда