https://deephub.blog.csdn.net/article/details/109412617?utm_medium=distribute.pc_relevant.none-task-blog-2~default~BlogCommendFromMachineLearnPai2~default-11.control&dist_request_id=1330144.7821.16180346486147649&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2~default~BlogCommendFromMachineLearnPai2~default-11.control
看了这位兄弟的文章,还是没能理解,当在使用ReLU激活函数时,权重依旧呈现以0为中心的正太分布。