深度学习用了共享内存后,占用内存不断升高

因为我显存只有8G,没改模型前是不用共享内存的,改模型后,专用GPU内存不够了,就用共享内存,结果占用从刚开始的8.54-9.29-10.2-11.1-12.1-13.2,因为现在还没训练完,我不知道后面会不会继续升高,会不会最后爆了。

如果您的显存只有8G,但是您的模型需要更多的内存才能运行,那么使用共享内存是一个解决方法。然而,如果您发现共享内存的占用率持续上升,这可能会导致系统变得不稳定,甚至导致系统崩溃。
为了防止这种情况发生,您可以尝试以下方法:

  • 1.减少模型的大小:尝试缩小模型,以减少对内存的占用。您可以尝试使用更小的卷积核、更小的池化核、减少全连接层的大小等。
  • 2.减少批次大小:减少每次处理的样本数量,也可以减少内存占用。
  • 3.使用更高级的GPU:如果您的预算允许,购买更高级的GPU可以提供更多的显存和计算能力,以支持更大的模型和更大的批次大小。
  • 4.使用混合精度训练:混合精度训练可以减少内存占用,因为它们使用低精度浮点数进行计算。

总之,如果您的共享内存占用率持续上升,您应该采取措施来减少内存占用,以避免系统不稳定和崩溃的情况发生。

不知道你这个问题是否已经解决, 如果还没有解决的话:

如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^