我正在对15000条推文进行建模,以使用具有128个隐藏单元的单层LSTM(使用类似于word2vec的表示形式,具有80个维度)来进行情感预测。1个纪元后,我获得了下降精度(38%,随机= 20%)。随着训练准确性的提高,更多的训练使验证准确性开始下降-这是过度拟合的明显标志。
因此,我正在考虑进行正则化的方法。我不希望减少隐藏单元的数量(128个似乎已经有点低了)。我目前以50%的概率使用辍学率,但这可能会增加。优化器是Adam,具有Keras的默认参数(http://keras.io/optimizers/#adam)。
有什么有效的方法可以减少我的数据集对此模型的过度拟合?
我有完全相同的问题。您最终如何设法规范化LSTM?我的LSTM的验证准确性为41%。我的输入形状是(200,),我有1个LSTM层(64个单位),然后是2个具有0.4压降的密集层。
—
Nirvan Anjirbag '18 -10-30