[已解决]HigherHRNet复现问题:tensorboard Error
if not cfg.MULTIPROCESSING_DISTRIBUTED or (
cfg.MULTIPROCESSING_DISTRIBUTED
and args.rank % ngpus_per_node == 0
):
dump_input = torch.rand(
(1, 3, cfg.DATASET.INPUT_SIZE, cfg.DATASET.INPUT_SIZE)
)
# writer_dict['writer'].add_graph(model, (dump_input, ))
# logger.info(get_model_summary(model, dump_input, verbose=cfg.VERBOSE))
解决如上图,将dist_train.py里的该行代码注释掉即可解决
writer_dict['writer'].add_graph(model, (dump_input, ))
【以下回答由 GPT 生成】
要将代码注释掉,可以使用注释符号 # 在代码行前面添加注释。在这个例子中,你可以将代码注释掉的方法有两种:
第一种方法是在每一行的开头添加注释符号 # ,表示该行代码被注释掉:
# if not cfg.MULTIPROCESSING_DISTRIBUTED or (cfg.MULTIPROCESSING_DISTRIBUTED and args.rank % ngpus_per_node == 0):
# dump_input = torch.rand((1, 3, cfg.DATASET.INPUT_SIZE, cfg.DATASET.INPUT_SIZE))
# # writer_dict['writer'].add_graph(model, (dump_input, ))
# # logger.info(get_model_summary(model, dump_input, verbose=cfg.VERBOSE))
第二种方法是使用多行注释符号 ''' 或 """ 将一段代码块包裹起来,表示该代码块被注释掉:
'''
if not cfg.MULTIPROCESSING_DISTRIBUTED or (cfg.MULTIPROCESSING_DISTRIBUTED and args.rank % ngpus_per_node == 0):
dump_input = torch.rand((1, 3, cfg.DATASET.INPUT_SIZE, cfg.DATASET.INPUT_SIZE))
# writer_dict['writer'].add_graph(model, (dump_input, ))
# logger.info(get_model_summary(model, dump_input, verbose=cfg.VERBOSE))
'''
无论选择哪种方法,都可以将这段代码注释掉。注释后的代码将会被解释器忽略,不会执行。这样就可以达到忽略这段代码的效果。希望对你有帮助!