深度学习中反向传播问题被迫中断的问题

出现报错: Can't call numpy() on Tensor that requires grad. Use tensor.detach().numpy() instead.

查过解决方法是在tensor后面使用.detach().numpy(),但是detach函数会让使用detach函数的tensor反向传播过程中断,而我又不想使这一部分反向传播中断还想解决这个报错问题,怎么才能解决

或者你将Tensor的版本回退,新版本改动比较大

您好,我是有问必答小助手,您的问题已经有小伙伴解答了,您看下是否解决,可以追评进行沟通哦~

如果有您比较满意的答案 / 帮您提供解决思路的答案,可以点击【采纳】按钮,给回答的小伙伴一些鼓励哦~~

ps:问答VIP仅需29元,即可享受5次/月 有问必答服务,了解详情>>>https://vip.csdn.net/askvip?utm_source=1146287632

非常感谢您使用有问必答服务,为了后续更快速的帮您解决问题,现诚邀您参与有问必答体验反馈。您的建议将会运用到我们的产品优化中,希望能得到您的支持与协助!

速戳参与调研>>>https://t.csdnimg.cn/Kf0y