Overlap-aware meta-learning attention to enhance hypergraph neural networks for node classification
Murong Yang, Shihui Ying, Yue Gao, Xin-Jian Xu
虽然超图神经网络(HGNN)已成为分析复杂数据集的强大框架,但它们的实际性能往往仍然有限。 一方面,现有网络通常采用单一类型的关注机制,侧重于消息传递过程中的结构或特征相似性。 另一方面,假设当前超图模型中的所有节点具有相同的重叠水平,可能会导致次优的泛化。 为了克服这些限制,我们提出了一种新的框架,对超值神经网络(OMA-HGNN)的重用感知元学习关注。 首先,我们引入了一个超图注意力机制,它结合了结构和特征相似性。 具体来说,我们将各自的损失与HGNN模型的加权因子线性地结合起来。 其次,我们将节点根据其不同的重叠级别划分到不同的任务中,并开发多任务Meta-Weight-Net(MWN)来确定相应的加权因素。 第三,我们结合外部HGNN模型的损失共同训练内部MWN模型,并用内部模型的加权因子对外部模型进行培训。 为了评估OMA-HGNN的有效性,我们对六个真实世界的数据集进行了实验,并将其性能与9种最先进的节点分类方法进行了基准测试。 结果表明,OMA-HGNN在学习卓越的节点表示方面表现出色,并优于这些基线。
Although hypergraph neural networks (HGNNs) have emerged as a powerful framework for analyzing complex datasets, their practical performance often remains limited. On one hand, existing networks typically employ a single type of attention mechanism, focusing on either structural or feature similarities during message passing. On the other hand, assuming that all nodes in current hypergraph models have the same level of overlap may lead to suboptimal generalization. To overcome these limitations,...