我这里使用两张卡进行训练,但在默认bash下输入python -m torch.distributed.launch --nproc_per_node=2 modeltest.py时,
这个命令的batch_size可以是在screen或者tmux下的接近两倍。同时在tmux或screen下还会多输出很多其他内容,并且原本代码中的os.environ["CUDA_VISIBLE_DEVICES"] 在bash运行时几乎不起作用,而在tmux下就会有作用。感觉有点底层的原因,但完全不明白,球各位帮忙。