深度学习模型每次训练得到的结果一模一样是什么问题呢?

比如说我训练了两次模型,这两次训练的第i个epoch得到的loss和测试结果完全相同,最后收敛的epoch和最优结果也完全相同,这是什么问题呢

你的参数具体有什么区别?

看看参数是怎么初始化的

每次的训练数据要随机取一批(batch),不能总顺序取。比如第一次训练,取1,2,3,4,一共4批数据。第二次要把训练数据打乱,就可能是2,4,3,1。这只是举例。

请问后来解决了吗,遇到了同样的问题,按理说初始化不是按照一定分布随机初始化的吗,不应该两次都一样啊

请问博主解决了 是什么原因呢