Pytorch编写的卷积神经网络,可训练参数量和总参数量相等,没有不可训练参数,是正常情况吗?

我使用Pytorch编写了一个语义分割网络,使用torchsummary查看了模型参数量,发现全部参数都是可训练的,没有不可训练参数,请问是正常情况吗?如果不是,是什么原因引起的?

 

这是很正常的啊,可以选择 freeze 部分层的参数,也可以所有参数都进行训练,这种也叫 fine-tuning

您好,我是有问必答小助手,您的问题已经有小伙伴解答了,您看下是否解决,可以追评进行沟通哦~

如果有您比较满意的答案 / 帮您提供解决思路的答案,可以点击【采纳】按钮,给回答的小伙伴一些鼓励哦~~

ps:问答VIP仅需29元,即可享受5次/月 有问必答服务,了解详情>>>https://vip.csdn.net/askvip?utm_source=1146287632