Я тренирую автоэнкодер DNN для ответа на вопрос о регрессии. Нужны предложения, как улучшить тренировочный процесс.
Общее количество обучающей выборки ~ 100000. Я использую Keras под модель, выставив validation_split = 0.1
. После тренировки нарисовал изменение функции потерь и получил следующую картину. Как видно здесь, потеря валидации нестабильна, а средние значения очень близки к потере обучения.
У меня вопрос: исходя из этого, каким следующим шагом я должен попытаться улучшить тренировочный процесс?
[Редактировать от 26.01.2019] Детали сетевой архитектуры таковы: он имеет 1 скрытый слой из 50 узлов. Входной и выходной слой имеют 1000 узлов соответственно. Активация скрытого слоя - ReLU. Функция потерь - MSE. В качестве оптимизатора я использую Adadelta с настройками параметров по умолчанию. Я также пытался установить lr = 0,5, но получил очень похожие результаты. Различные характеристики данных имеют масштаб от -10 до 10 со средним значением 0.