卷积神经网络通道数问题

图像分类中,最后结果的通道数都要转换位要分类的类别个数。这点我有点不理解。
我以为,这个通道数(卷积核的个数决定,而有多少个卷积核就相当于提取多少个不同的特征吧,但这都是基于类别a的吧,并没有基于类别b吧)
我所理解的学习过程是这样的(不知道是否正确--分类问题):输入两个类别的图片。假设为猫,狗。然后我们利用卷积核、池化等操作学习特征,这个过程对于类别猫,狗来说是独立的吧(即他们用的学习的卷积核是不同的),那么为什么在最后的输出通道数要改为类别书。然后判断对应的值(选择最大的那个值对应的序号为预测类别)
我找了一些博客。他们说是因为利用了one-hot编码。但是我还是不理解为什么要将通道数变为类别数,然后直接在这通道数上就可以判别这张图片属于哪个类别!!(因为我认为这个学习卷积参数过程对于不同类别是独立的嘛。为什么就可以看单个输出的值就可以判别类别了)

总结一下就是:为什么最后输出的各个通道代表各个“类别”

提取特征的卷积核都是一样的,不然你说如果同一个网络我要做猫虎分类怎么办?肯定是共用同一份参数,只不过最后的特征在超平面内可以划分位两个或者多个类别而已

卷积的特点是共享参数 ,不是独立的
其实你自己实现一下就懂了,你所提到的独立不可行,别光看,要实际动手