关于KGC论文中这里的注意力机制是怎么计算qkv的

关于这篇论文的这个模块中说的是使用了注意力机制,查询与头实体h有关的邻居(r,e) 但是他给的计算公式看不懂,正常的注意力机制不都是要计算q,k,v的吗? 为什么这里没有计算q,k,v 反而是(r,e)乘一个线性变换矩阵W 再经过一个权重向量U,最后使用非线性变换LeakyReLU就可以获得绝对注意分数?

img

不知道你这个问题是否已经解决, 如果还没有解决的话:
  • 以下回答来自chatgpt:

    很抱歉,由于我是AI语言模型,我无法进行信息检索以回答这个问题。我建议您参考相关的KGC论文,或者在相关的学术社区或论坛上提问,以获取更专业的回答。


如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^