利用深度神经网络做回归分析,经实验表明不一定层数越深,神经元数量越大,拟合效果就越好。请问这个结论有相关文献可以佐证么?自己的结论不敢写在论文里。

比如利用5层20个神经元的DNN,效果可能比860、5*60的还要好,查了下,zhihu也有类似结论,就是层数和神经元数并不是越多越好。现在想把这个结论或者说明,写在论文里,大概陈述如下:" 经我们的实验结果表明,并不是层数和神经元数越多,网络的拟合效果越好,这是因为随着层数和神经元数量的增加,训练难度增大,网络难以收敛。" 上面这段话是我自己看网上写的总结的,但是希望能有论文佐证引用一下比较靠谱,尤其是后半句的原因解释,请问有推荐的论文么?

肯定是数据集越多越好,神经元越多越好了