Да, всё верно. Но как я уже сказал, это не имеет значения по ряду причин.
Если у вас есть память на 10Кб, то вы никак в неё не запишите 10Гб. А размер нейронной сети в единицах нейроннов и того меньше. Вы неизбежно получаете обобщенную модель.
Это видно по отсутствию переобучения на данных графиков, которые я привел выше и в статье.
Вы беспокоитесь за релевантность данных и не натаскалась ли нейросеть на данные и просто показывает то, что запомнила. Но если бы так было, то графики бы это показали. Но этого нет. Переобучения нет и тупого запоминания нейросетью тоже.
+ Ко всему прочему, мы делали всё для того чтобы это не допустить. Регуляризация, дропаут были обязательны для получения именно обобщенной модели.
+ Лично я тестирую нейронные сети не по обучающей выборке. Как я уже сказал, она разделена.
+ Также я тестирую на инструментах, не входящих в обучающую выборку.
Вы ошибаетесь, это имеет очень больше значение Во-первых, у вас странное представление о переобучении. Есть переобучение на трейне, а есть утечка теста в трейн, это совершенно разные и несвязанные вещи
Попробуйте обучить любую сеть на тесте, вы получите одинаковые графики лосса на трейне и на тесте (потому что датасеты совпадают), по вашей логике это значит, что переобучения нет. Его и правда нет, но есть лик, значит результатам доверять нельзя
В задачах временных рядов абсолютно всегда нужно делать сплит по времени!!! Нельзя смотреть будущее, на котором вы тестируетесь.
Вот простой пример: в 2020 году было падение весной, потом бурной рост всего рынка. У меня в обучении не было акции Apple, но зато были все остальные за этот период и модель выучила, что весной лучше все продать, подождать месяц и потом закупиться. Кстати, чтобы это выучить, вам хватит и 1 КБ, поэтому аргументы с размером не очень убедительны
Вы приводите примеры dropout и регуляризаций, это опять же про переобучение. Я рекомендую погуглить "data leakage vs overfitting". Dropout не имеет отношения к проблеме, которую я описываю
Да, всё верно. Но как я уже сказал, это не имеет значения по ряду причин.
Если у вас есть память на 10Кб, то вы никак в неё не запишите 10Гб.
А размер нейронной сети в единицах нейроннов и того меньше. Вы неизбежно получаете обобщенную модель.
Это видно по отсутствию переобучения на данных графиков, которые я привел выше и в статье.
Вы беспокоитесь за релевантность данных и не натаскалась ли нейросеть на данные и просто показывает то, что запомнила. Но если бы так было, то графики бы это показали. Но этого нет. Переобучения нет и тупого запоминания нейросетью тоже.
+ Ко всему прочему, мы делали всё для того чтобы это не допустить. Регуляризация, дропаут были обязательны для получения именно обобщенной модели.
+ Лично я тестирую нейронные сети не по обучающей выборке. Как я уже сказал, она разделена.
+ Также я тестирую на инструментах, не входящих в обучающую выборку.
Вы ошибаетесь, это имеет очень больше значение
Во-первых, у вас странное представление о переобучении. Есть переобучение на трейне, а есть утечка теста в трейн, это совершенно разные и несвязанные вещи
Попробуйте обучить любую сеть на тесте, вы получите одинаковые графики лосса на трейне и на тесте (потому что датасеты совпадают), по вашей логике это значит, что переобучения нет. Его и правда нет, но есть лик, значит результатам доверять нельзя
В задачах временных рядов абсолютно всегда нужно делать сплит по времени!!! Нельзя смотреть будущее, на котором вы тестируетесь.
Вот простой пример:
в 2020 году было падение весной, потом бурной рост всего рынка. У меня в обучении не было акции Apple, но зато были все остальные за этот период и модель выучила, что весной лучше все продать, подождать месяц и потом закупиться. Кстати, чтобы это выучить, вам хватит и 1 КБ, поэтому аргументы с размером не очень убедительны
Вы приводите примеры dropout и регуляризаций, это опять же про переобучение. Я рекомендую погуглить "data leakage vs overfitting". Dropout не имеет отношения к проблеме, которую я описываю