我用SGD训练出的参数及模型保存下来,下次能否用Adam继续训练?模型不变。

我用SGD训练出的参数及模型保存下来,下次能否用Adam继续训练?模型不变。

可以使用Adam继续训练之前用SGD训练出的参数。在深度学习中,我们通常使用优化器来更新模型的参数。SGD和Adam都是常用的优化器之一。在训练过程中,我们可以使用SGD优化器对模型进行训练,然后将训练出的参数保存下来。之后,如果需要继续训练模型,我们可以加载之前保存的参数,并使用Adam优化器继续训练,这样可以继续优化模型的性能。需要注意的是,使用不同的优化器可能会导致模型的收敛速度和性能有所不同。