深度学习GPU专用内存跑满,是否能利用共享GPU加快速度?

训练一个卷积模型,gpu训练耗时很久,看了下GPU利用率不高,但是专用GPU内存拉满了,共享GPU是闲置的,既然打游戏GPU内存爆了可以利用共享GPU内存,求问为什么,怎么才能占满资源。而且我的双路3080也没用上.只用了其中一个。

img

训练的时候设置了双路

img

这是win10显示的bug,其实你的gpu使用率已经上去了,但是任务管理器没有正确显示。可以按下win+g键调用微软提供的游戏录制工具查看正确的使用率。

只设置CUDA_VISIBLE_DEVICES是不够的,你可以看下keras的设置,
keras多显卡训练_搬砖笔记-CSDN博客 使用keras进行训练,默认使用单显卡,即使设置了os.environ['CUDA_VISIBLE_DEVICES']为两张显卡,也只是占满了显存,再设置tf.GPUOptions(allow_growth=True)之后可以清楚看到,只占用了第一张显卡,第二张显卡完全没用。要使用多张显卡,需要按如下步骤:(1)import multi_gpu_model函数:from keras.utils ... https://blog.csdn.net/u010122972/article/details/84784245
如何让keras训练深度网络时使用两张显卡? - 知乎 目前Keras是支持multi GPU训练的,默认是数据并行,可以参考:如何在多张GPU卡上使用Keras?也可以按照这… https://www.zhihu.com/question/67239897/answer/269003621

小哥哥,你解决了嘛?
我想问问你的是只使用专用GPU 共享GPU不使用 这是什么原因