GIN图同构网络可以结合transformer层使用吗?

可以在GIN图同构网络中加transformer层提高回归预测任务的准确率吗?怎么加呢?

当然可以,惯用手段,把节点的特征向量作为输入,用多头注意力机制进行自注意力计算获得每个节点的上下文表示,把它和原始节点特征向量进行融合,这里当然有很多种方式,我习惯用残差连接,融合后的节点表示作为输入,继续进行GIN图同构网络的卷积层和全连接层的处理