В качестве функций активации были выбраны ReLU, ELU, так как они, как правило, лучше себя показывают в задачах регрессии. На выходе из нейронной сети находится линейная функция. Всего в сети 8 слоёв, содержащих в себе в сумме 21000 параметров, в качестве оптимизатора выбран стохастический градиентный спуск.
Спасибо вам за статьи с кодом! Ибо тут это крайне редко, а на Хабре может потеряться среди других.
Благодарим за проявленный интерес!