permute(2, 0, 1)在pytorch的tensor处理中有什么用吗

在对数据集进行处理的时候经常看到permute(2, 0, 1)这个操作,为啥不是1,2,0这种,2,0,1这个顺序会带来什么好处吗?

交换3个维度的顺序, 假设原来的顺序是(W, H, B), permute(2, 0, 1)之后就是(B, W, H), 因为torch里面第一个维度普遍都是batchnum,