最近在学习注意力机制,对其中的参数不太了解,比如se=SEAttention(channel=512,reduction=8)里面的channel和reduction是什么意思,求各位指点一下
如果要在一个模型里面加入这个注意力,是否需要调整channel和reduction保持和模型里面前后的一致?