深度学习训练模型的时候一个epoch的时间为什么会越来越长?

在自己的电脑上训练模型的时候一个epoch的时间越来越长,到最后一个epoch需要一个多小时,租了个服务器跑同样的代码就不会,应该不是代码的问题,问了别人好像都没有这种情况,请问为什么,该怎么解决?代码是用pytorch写的。

在训练的时候用visdom可视化每个iterator的loss值,把visdom换成tensorbord发现问题解决了,应该是用visdom记录的时候占用了电脑的进程。