为什么LSTM用于分类任务效果很差?

新人一枚,之前见过有教程使用LSTM对MNIST手写数字进行分类识别,取的是LSTM最后一步的输出进行分类,准确率能达到95左右。后来我按照这个思想使用LSTM进行文本分类,为什么效果很差,loss降低的很慢,train与test的准确率始终维持在0.5左右?

rnn一般是做序列预测/生成,为什么非要用它做分类呢。我看到的基本都是用dnn dbn cnn来做分类,你说的教程在哪里?我很好奇。

LSTM本身比较难训练,参数与hidden layer和units等有关,可以加dropout和weight normalization试试,模型本身特点理解很重要