我爱占星网 我爱占星网
首页
编程
java
php
前端
首页 编程 java php 前端

pytorch中zero_grad中detach_的作用

def zero_grad(self):
    """Clears the gradients of all optimized :class:`Variable` s."""
    for group in self.param_groups:
        for p in group['params']:
            if p.grad is not None:
                p.grad.detach_()
                p.grad.zero_()

optimizer.zero_grad()中的p.grad.detach_()怎样理解,为什么梯度也需要detach_()

近期文章

  • 怎么防止wireshark抓包
  • 关于系统重装那点事,不太懂
  • C#编写串口助手使用SLIP协议
  • AttributeError: 'COCOZ' object has no attribute 'img' 报错
  • 使用uwsgi和nginx部署Django项目后,页面报错:502 Bad Gateway
  • 如何在visual studio中修改 WindowsSDK_IncludePath?
  • leetcode200题 dfs怎么打印呀,不会打印
  • 关于#stm32#的问题:是只要和电脑里的代码串口一致就行吗
  • clion如何添加运行环境?
  • 输入圆半径,求其面积。
  • layui的数据怎么返回到自己写的对应的HTML页面上
  • golang构建icmp数据报提示校验和错误
  • macbook无法进入单用户模式
  • 自己写的程序被电脑管家拦截,怎么办?
  • python使用requests大批量请求卡住怎么解决?
  • 有偿,用Hbuild写个小东西。
  • 关于你那个改过的 easymovie texture
  • 更改过桌面位置过后无法回到原位
  • break语句例题,代码是什么意思
  • android如何获取手机ip

Copyright ©2022 我爱占星 All Rights Reserved.

浙ICP备2022030071号-1

部分图文来自网络,如有侵犯您的版权,请告诉我们删除

友情链接:代码精华