异质图神经网络 HGNN
2019 WWW
方法
-
映射节点特征到相同的特征空间中:(因为不同类型的节点的特征向量的规模可能不一样)
是节点原特征向量,是变换后的该节点特征向量,是该节点对应的节点类型,对每一个类型的节点,都有对应的转换矩阵
- 进行节点级别的注意力计算和节点聚合:
- 首先利用自注意力学习重要性,表示的是节点j对于节点i来说有多重要,论文里叫做the importance of meta-path based node pair (i,j),计算公式为:
其中是用来实现节点级别注意力的DNN,对相同的元路径,这个是一样的;但是和是不一样的,保留了异质图的不对称性;
- 接下来计算节点的权重,基于softmax函数实现,对于节点i来说,计算的是的节点权重,其中表示的是the meta-path based neighbors of node i (include itself);计算公式为:
其中是激活函数,表示连接操作,是针对元路径的节点级别的注意力向量,这个公式实际上就是对重要性进行了正则化,对节点i来说,分母就是的全部重要性;也是非对称的。
- 对节点i,计算出全部中的节点j的权重之后,就可以进行聚合了,获得节点i基于元路径的embedding:(应该会有很多条元路径,对每个节点,每个元路径都会聚合出一个embedding来,这个embedding仅能捕捉这个元路径的语义,接下来会需要语义级别的注意力再进行聚合)
- 把节点级别的注意力再扩展到多头注意力,使训练过程更加稳定,在这里,就是把上述的节点级别注意力重复计算K次,然后连接起来,变成最终的embedding(对多头注意力还不是特别了解,为什么要这么做)
- 如果给定P个元路径,最终获得P组node embeddings:
- 进行语义级别的注意力计算和节点聚合:
- 语义级别的注意力机制也是通过DNN实现的,论文中记为:
其中,是元路径i对应的权重,是全部节点基于元路径i的embedding,可以看成一个矩阵吧;
- 计算每个元路径的重要性,通过语义级别的注意力机制实现:
其中,对于元路径i,每个节点都已经计算出了一个embedding,先将其进行一个非线性的转换,比如上式中就用了一个一层的MLP进行转换,然后用语义级别的注意力向量相乘,图中所有节点的平均值就是这个元路径的重要性了;注意其中的都是需要学习的参数,且在整个网络中共享;
-
将重要性通过softmax进行正则化,获得每个元路径i的权重:
其中,是元路径i对应的权重,是元路径i对应的重要性,是元路径的个数;
- 最终整个异质图每个节点的整体embedding:分元路径的embedding加权求和即可
- 通过最终的node embedding完成特定的任务:
拿到final embedding之后,就可以完成具体的任务了,需要根据不同的任务去确定不同的loss function,如完成半监督的节点分类任务,就可以用交叉熵作为loss function:
其中,是有标签的所有节点的索引集合,表示的是分类任务的全部参数和有标签的节点的final embedding的乘积,也就是这些节点的分类结果,而是有标签的节点的真实标签,求它们的交叉熵;
最后可以通过BP来优化该网络。