一直输出错误是batch_size是为啥

img

img

创建训练集实例

train_dataset = FruitsDataset(root_dir, transform=image_transform)

创建数据加载器

train_loader = jt.dataset.DataLoader(train_dataset, batch_size=batch_size, shuffle=True)

单独输出下batch_size是多少
看看是不是它不是一个合法的值

不知道你这个问题是否已经解决, 如果还没有解决的话:
  • 这篇文章讲的很详细,请看:Batch_size对于深度学习训练过程的影响?
  • 除此之外, 这篇博客: 训练数据量中关于batch_size,iteration和epoch的概念中的 实例 部分也许能够解决你的问题, 你可以仔细阅读以下内容或者直接跳转源博客中阅读:
    • 训练数据量:60000
      mini-batch方法:batch_size = 100
      迭代次数:iteration = 30000
      平均每个epoch的重复次数:60000 / 100 = 600

    当迭代进行到600次时,即视为完成了一个epoch
    30000 / 600 = 50

    • 从这个实例可以看出,执行完一遍 iteration,完成了50个 epoch

如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^