Сравнение эффективности торговли робота на нейронных сетях с некоторыми торговыми алгоритмами

Эта статья будет интересна тем, кто разрабатывает или занимается торговлей и инвестированием как с применением автоматизированных систем (советники, роботы и др.), ровно как и тем, кто всё это делает и принимает решение вручную.

1919

Да, всё верно. Но как я уже сказал, это не имеет значения по ряду причин.

Если у вас есть память на 10Кб, то вы никак в неё не запишите 10Гб.
А размер нейронной сети в единицах нейроннов и того меньше. Вы неизбежно получаете обобщенную модель.

Это видно по отсутствию переобучения на данных графиков, которые я привел выше и в статье.

Вы беспокоитесь за релевантность данных и не натаскалась ли нейросеть на данные и просто показывает то, что запомнила. Но если бы так было, то графики бы это показали. Но этого нет. Переобучения нет и тупого запоминания нейросетью тоже.

+ Ко всему прочему, мы делали всё для того чтобы это не допустить. Регуляризация, дропаут были обязательны для получения именно обобщенной модели.

+ Лично я тестирую нейронные сети не по обучающей выборке. Как я уже сказал, она разделена.

+ Также я тестирую на инструментах, не входящих в обучающую выборку.

1
Ответить

Вы ошибаетесь, это имеет очень больше значение
Во-первых, у вас странное представление о переобучении. Есть переобучение на трейне, а есть утечка теста в трейн, это совершенно разные и несвязанные вещи

Попробуйте обучить любую сеть на тесте, вы получите одинаковые графики лосса на трейне и на тесте (потому что датасеты совпадают), по вашей логике это значит, что переобучения нет. Его и правда нет, но есть лик, значит результатам доверять нельзя

В задачах временных рядов абсолютно всегда нужно делать сплит по времени!!! Нельзя смотреть будущее, на котором вы тестируетесь.

Вот простой пример:
в 2020 году было падение весной, потом бурной рост всего рынка. У меня в обучении не было акции Apple, но зато были все остальные за этот период и модель выучила, что весной лучше все продать, подождать месяц и потом закупиться. Кстати, чтобы это выучить, вам хватит и 1 КБ, поэтому аргументы с размером не очень убедительны

Вы приводите примеры dropout и регуляризаций, это опять же про переобучение. Я рекомендую погуглить "data leakage vs overfitting". Dropout не имеет отношения к проблеме, которую я описываю

3
Ответить