Mask RCNN训练过程中loss为nan的情况(使用labelme标注的数据)

  1. 不是batchsize的问题,不是学习率的问题。我已经将学习率调成了0,结果也是这样,即迭代几次之后(不是一上来就是nan),loss就为nan了,但是后面5个loss正常收敛。
  2. 训练类别数与数据集中的类别数一致。
  3. 想问问 帖子里面有大神知道原因,希望告知!多谢!!

图片说明

https://blog.csdn.net/qq_15969343/article/details/79840517