用LeNet5模型训练mnist数据集的时候 GPU和CPU的利用率都很低 用的是cuda10.0和cudann7.6.5 tensorflow-gpu1.14.0
图片是这个样子的。想请问一下有什么方法解决。
batsize搞到最大,能达到快要爆显存为止。而且一般显卡计算比较快,性能会卡在数据IO上面的,这种就没法子了.