如何通俗理解VIT?

卷积我清楚,对RGB的数值矩阵用卷积核来提取特征,但Transformer的QKV是如何实现图像检测的?

QK计算投影后,用softmax来保留需要的特征并舍弃不需要的区域,以此提取特征的么?

Vision Transformer是Transformer的一个变种,它是一种神经网络架构,利用自我注意机制处理顺序数据。在视觉Transformer的情况下,这种架构被应用于图像,使该模型能够执行图像分类和物体检测等任务。

QKV(query-key-value)机制是Transformer中使用的自我注意机制的一个核心组成部分。在视觉Vision Transformer中,该机制被用来计算图像不同区域之间的关系,并根据这些关系与手头任务(如物体检测)的相关性来加权。

在QKV机制中,图像的每个区域被表示为一个查询、一个键和一个值。查询和键被相乘,然后通过一个softmax函数,产生一个数值的加权和。然后,这个加权和被用来表示该区域,其方式与视觉转化器正在使用的特定任务相关。

简而言之,Vision Transformer中的QKV机制被用来计算图像中不同区域之间的关系,并根据这些关系与特定任务(如物体检测)的相关性来加权。这使得该模型能够专注于图像中最重要的特征,而忽略不相关的细节。

VIT,即 Vision Transformer,是 2021 年发表的一篇论文中介绍的一种神经网络架构。它基于 Transformer 架构,这是一种常用于自然语言处理任务的网络。VIT 扩展了 Transformer 架构。
VIT 使用卷积神经网络 (CNN) 从视觉数据中提取特征。卷积核是一种应用于输入数据以提取特征的数学运算。在 VIT 的情况下,卷积核应用于输入图像的 RGB 数值矩阵,以提取与图像检测相关的特征。

将卷积核应用于输入数据后,生成的特征通过 Transformer 架构传递,该架构结合使用自注意力和多头注意力机制来处理特征并识别图像中的对象。自注意力机制允许网络关注图像的不同部分,而多头注意力机制允许网络同时考虑多个不同的特征图。

QKV 或查询键值机制是 Transformer 架构的关键组件,它允许网络处理提取的特征。查询、键和值都是表示输入数据不同方面的数字向量。查询用于从输入中选择相关特征,键用于将所选特征与输入中的其他特征进行比较,值用于聚合所选特征并计算最终输出。

在将 QKV 机制应用于输入数据后,生成的输出通过 softmax 层传递,该层对输出进行归一化并允许网络对图像中的对象进行预测。softmax 层保留所需的特征并丢弃不需要的区域,有效地从输入数据中提取最相关的特征。

总之,VIT 使用卷积核和 Transformer 架构的组合来从视觉数据中提取特征并识别图像中的对象。QKV 机制是 Transformer 架构的关键组成部分,它允许网络处理提取的特征,softmax 层用于归一化输出并对图像中的对象进行预测。