最近在研究知识图谱,想咨询下,用强化学习来推理知识图谱与JENA reasoner 做知识图谱推理的区别?还是说两者差不多,能达到的结果都相似?
Jena推理机运用的是基于符号逻辑的本体推理
强化学习运用了优于基于路径排序的算法和知识图谱嵌入方法的奖励函数
JENA reasoner较成熟,可用于工业
是在RDF上根据规则推理的
多跳的时候是Path-Ranking算法
基于唯心
推理的结果可信度比较高,偏移量比较小,
鲁棒性完全取决于图的属性(图片大时,上游任务中EL的去歧义的任务会更重)
参考:https://www.cnblogs.com/xiaoqi/p/kg-inference-2.html
强化学习——自己玩,学习用
强化学习只是一种学习方式的大分类,
不同应用差别大
所采用的素材多,有图向量,词向量,或者实体本身等等
消耗计算资源会更大。
参考资料:https://www.aminer.org/research_report/61235f5f30e4d5752f50f58a
ena 是在RDF上根据规则推理的,没记错的话多跳的时候应该还是Path-Ranking的算(不是很确定),一定程度上是基于关闭世界假设的,其推理的结果一般确信度比较高,偏移量比较小,但是其鲁棒性完全取决于图的属性. 比如说一旦图过大,那么上游任务中EL的去歧义的任务就会更重,当然这对所有模型都是这样的。至于你说的强化学习,强化学习只是一种学习方式的大分类,在具体应用上还是不同应用差别很大的. 不光是模型,比如所采用的素材就可以有图向量,词向量,或者实体本身等等,所以最好依据具体的文献技术分析。不过大体上来看的学习还是受制于数据量更多一些,而且所需要的计算资源会更大。不过我觉得现在技术应该还没到可以直接毫无保留的应用上。个人感觉可信赖的路径数量还是相对有限的综上,两个完全不是一个东西,差别很大。推荐工业用JENA保效率,学术用RM帮灌水
强化学习主要由智能体(Agent)、环境(Environment)、状态(State)、动作(Action)、奖励(Reward)组成。智能体执行了某个动作后,环境将会转换到一个新的状态,对于该新的状态环境会给出奖励信号(正奖励或者负奖励)。随后,智能体根据新的状态和环境反馈的奖励,按照一定的策略执行新的动作。上述过程为智能体和环境通过状态、动作、奖励进行交互的方式。
知识推理的任务:
可满足性,分类,实例化