我最近入门了Keras,想着用Keras跑一些好玩的项目,显卡RTX 2060,很明显当数据量小一些的时候,GPU还能勉强撑住,但是一旦数据量超过1G,那真的就寄了。
Keras直接报警exceeds 10%,不过这个时候网络还能勉强训练,前提是迭代次数小于50次,一旦数据和迭代次数指数性增长,超过了2G和50次这两个值,Jupyter Kernel直接挂
所以请问各位,多大的显存和内存才够啊?一定要显存和内存比是1:2吗?
显存很大程度上决定着你的数据输入大小,如果想要大batch和大size的图像进行训练,即便是3090也够呛。
建议小一些的数据就在本地训,大一些的数据就在远端训,Google的Colab和百度的AiStudio都有算力可以用的,如果财力雄厚建议购入特斯拉显卡
我1660ti 加8G 的,基本上啥都干不了,跑模型效果很不好,但是足够用来做简单的模型测试,学习够用了,跑模型还是得租服务器跑,或者可以用kaggle,百度什么的免费平台
入门学习2g就够,只是学习一些cuda相关的操作,batch size设置到2看看代码怎么跑的,模型和张量是怎么变换的就行,这还是学cuda加速的,你要是不管这个,单单学网络,cpu跑都行,不需要显卡。
但是你一旦想复现map之类的指标或者训练,那就不一样了,显存越多越好,这样batch size可以搞的很大,训练速度比较快。当然,训练的时候batch size设置成2页也不是不行,但是速度太慢了