卷积核更新权重是同时加/减算出来的更新值么?

就是反向传播后,算完导数乘完学习率,是整个卷积核一起加减算出来的这个更新值么?

望采纳


是的,在卷积神经网络中,每一个卷积核都会有一个对应的权重矩阵,当网络进行反向传播时,每一个权重矩阵都会计算出一个梯度值,然后乘上学习率之后,再将结果与原来的权重矩阵进行加减运算,得到新的权重矩阵。这些操作都是一次性完成的,也就是说整个卷积核一起计算出了更新值。