在tensorboard记录loss看loss是否正常是看每个epoch的loss还是iter的loss

想问一下 在tensorboard记录loss看loss是否正常是看每个epoch的loss还是iter的loss呀

1.在 TensorBoard 中记录 loss 可以是每个 epoch 的 loss,也可以是每个 iteration 的 loss。
2.如果你使用的是 TensorFlow 的高级 API(例如 tf.keras),则可以使用 tf.keras.callbacks.TensorBoard 回调来记录每个 epoch 的 loss。
3.如果你使用的是低级 TensorFlow API,或者使用其他深度学习框架,则需要在训练循环中手动记录每个 iteration 的 loss,并使用 tf.summary.scalar 函数将其写入 TensorBoard 中。

参考GPT和自己的思路:

对于在tensorboard记录loss,应该同时考虑每个epoch的loss和每个iteration的loss。每个epoch的loss是将所有iteration的loss求平均值得到的,它能够反映整个模型在一个epoch中的表现。而每个iteration的loss则更加细致,能够反映模型的实时表现。因此,通过同时观察每个epoch的loss和每个iteration的loss,能够更好地评估模型的训练情况。

不知道你这个问题是否已经解决, 如果还没有解决的话:

如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^