tensorflow中GradientDescentOptimizer、MomentumOptimizer、AdamOptimizer这三种情况怎样选择,分别在什么情形下适用
这个深度学习的教科书上有分别是梯度下降、动量、自适应,现在adam用的比较多,梯度下降的缺点是比较慢,所以用随机梯度下降,精度有比较差。动量和adam自适应主要就是在这个里面找一个平衡。