Как сделать бота, который превращает фото в комикс: пошаговая инструкция для чайников
Часть первая
Сегодня мы выберем архитектуру нашей нейросети, проверим ее и соберем свой первый набор данных для обучения.
Выбор архитектуры
После относительно успешного запуска selfie2anime бота (использующего готовую модель UGATIT), мне захотелось сделать то же самое, но свое. Например, модель, превращающую ваши фото в комиксы.
Вот несколько примеров из моего photo2comicsbot, и мы с вами сделаем нечто подобное.
Поскольку модель UGATIT была слишком тяжела для моей видеокарты, я обратил внимание на более старую, но менее прожорливую аналогию - CycleGAN
В данной реализации есть несколько архитектур моделей и удобное визуальное отображение процесса обучения в браузере.
CycleGAN, как и архитектуры для переноса стилей по одному изображению, не требует парных изображенией для обучения. Это важно, потому что иначе нам пришлось бы самим перерисовывать все фото в комиксы для создания обучающей выборки;)
Установка и проверка модели
Нам понадобятся:
- Видеокарта с поддержкой CUDA и 8гб RAM (4 гб тоже может подойти, не проверял)
- ОС Linux (на Windows тоже будет работать, но медленнее, как минимум в 1,5-2 раза)
- Miniconda/Anaconda (можно, конечно, и просто Python 3.5+, но мы же в 2019, господа)
Miniconda можно взять здесь: https://docs.conda.io/en/latest/miniconda.html
Инструкции по установке: https://conda.io/projects/conda/en/latest/user-guide/install/index.html
После установки Anaconda/Miniconda (далее - conda), откроем терминал (или Anaconda Prompt из меню Пуск), создадим новую среду для наших экспериментов и активируем ее:
Теперь все пакеты будут установлены в активную среду, не затрагивая остальные среды. Это удобно, если нужны определенные комбинации версий различных пакетов, например если вы используете чей-то старый код и вам нужно установить устаревшие пакеты, не испортив себе жизнь и основную рабочую среду.
Далее просто следуем инструкциям README.MD из дистрибутива:
Сохраним себе дистрибутив CycleGAN:
(или же просто скачаем архив с GitHub)
Установим нужные пакеты:
Скачаем готовый датасет и соответствующую модель:
Обратите внимание на то, какие фотографии есть в скачанном датасете, в чем разница и что между ними общего.
Если открыть файлы скриптов из предыдущего абзаца, можно увидеть, что есть и другие готовые датасеты и модели для них.
Наконец, протестируем модель на скачанном наборе данных:
Результаты будут сохранены в папке /results/horse2zebra_pretrained/
Что ж, пора собрать свой датасет!
Создание обучающей выборки
Не менее важным этапом после выбора архитектуры будущей модели (и поиска готовой реализации на github ;) является составление dataset’a, или набора данных, на которых мы будем обучать и проверять нашу модель.
Поэтому стоит отбирать те фото\комиксы, которые вы хотите использовать на входе и получить на выходе. Планируете обрабатывать селфи - добавляйте селфи и крупные планы лиц из комиксов, фото зданий - добавляйте фото зданий и страницы из комиксов со зданиями.
В качестве образцов фотографий я использовал DIV2K и Urban100, приправленные фотками звезд из гугла для пущего разнообразия.
Комиксы я взял из Marvel, страницы целиком, выкинув рекламу и анонсы, где рисовка не похожа на комикс. Ссылку приложить не могу по понятным причинам, но по запросу Marvel Comics вы легко найдете отсканированные варианты на любимых сайтах ;)
Список остальных публичных датасетов вы найдете тут.
Структура папок в нашем датасете должна быть следующей:
trainA - наши исходные фото (порядка 1000шт)
testA - несколько фото для тестов модели (30шт. будет достаточно)
trainB - наши комиксы (порядка 1000шт.)
testB - комиксы для тестов (30шт.)
Бережно раскладываем свежескачанные DIV2K и Urban100 в папки trainA, testA, и отправляемся на охоту за любимыми сериями комиксов, которые аккуратно положим в папки trainB и testB.
Датасет желательно разместить на SSD, если есть такая возможность.
На сегодня это все, в следующем выпуске мы начнем обучать модель и получим первые результаты!
Обязательно пишите, если у вас что-то пошло не так, это поможет улучшить руководство и облегчит страдания последующих читателей ;)
Очень интересная статья, спасибо!
А зачем нужно тренировать сеть которая преобразует комикс в реальное фото?
Спасибо за интересный вопрос!
В этом состоит основное отличие архитектуры CycleGAN.
При обучении обычных моделей (без обучаемого критика) или GAN на наборах данных с парными изображениями используются пары "исходное изображение"-"конечное изображение", которые мы подготовили сами - взяли "исходное изображение", перерисовали его в комикс самостоятельно (например, с помощью экшенов в фотошопе) и получили парное "конечное изображение".
В таком случае функция потери (loss function) легко сравнит "предсказанное" (сгенерированное моделью) изображение с "конечным" (ground truth), потому что они парные, на них присутствуют одни и те же элементы и образы.
В нашем случае у нас нет парных изображений.
Поэтому, если мы будем использовать только показания Критика, задача которого получить изображение, неотличимое от комикса, то мы можем получить на выходе нечто, что похоже на комикс, но совершенно непохоже на исходное изображение. Наша задача же получить исходное изображение, стилистически перерисованное в комикс.
Для этого добавляется пара генератор-критик для обратного преобразования из свежесгенерированного комикса в фото. Это дает возможность добавить еще одно ограничение в нашу функцию потери - отличие исходного фото от изображения, полученного после полного цикла фото-комикс-фото. Если вторая пара сможет получить из нашего фейкового комикса изображение, похожее на исходное фото, значит мы на верном пути и наши фейковый комиксы достаточно похожи на исходное фото.
Надеюсь, стало понятнее =)
Спасибо, теперь понятно)