Learning Attention-based Embeddings for Relation Prediction in Knowledge Graphs代码运行问题
该论文中的模型参数量巨大,请问复现过该程序的大佬都是用什么样的配置来运行的?
我用的配置为:
硬件环境:Intel(R) Core(TM)i5-6500,3.20GHz的CPU,12G内存计算机,
NVDIA Geforce RTX 2080Ti的GPU计算机。
训练FB15k-237数据集,将batch_size_gat 由272115 缩小至100,epoch由3000缩小至5,运行了一天,且得到的结果与论文结果相比很差。
所以我是否可以租用阿里云来训练模型,且需多大,多长时间?
请问现在运行出结果了么