首页
编程
java
php
前端
首页
编程
java
php
前端
关于注意力机制的问题
为什么注意力机制加在最后一层卷积和第一层卷积不改变网络,可以用预训练参数?这个第一层卷积和最后一层卷积是backbone网络的最后一层还是内部的block块的第一层或者最后一层?
点击展开全文