请问有一个大尺寸的图像或者数据矩阵(例如:30003000),如何处理放入网络里训练识别,一般的降维好像会损失信息,难道只能分割吗,分成若干个300300的块?
(3000,3000)的尺寸太大了,占用显存大速度慢,如果机器足够,可以适当切分的大一点嘛。同时利用两种信息呢,既进行尺寸缩减处理,又进行分块操作。你可以看下这两种方式,希望可以帮助到你。https://blog.csdn.net/m0_61899108/article/details/127539018