商业澳洲 文章 AAAI 2023 | 基于可学习图增强的邻居监督图对比学习

AAAI 2023 | 基于可学习图增强的邻居监督图对比学习


 

 

 

9e7d7fc8076e6a5c1bd6988fc1da6b0d.gif

©PaperWeekly 原创 · 作者 | 沈笑

单位 | 海南大学副教授

研究方向 | 图神经网络、图对比学习等

邮箱 | shenxiaocam@163.com

本文介绍一篇 AAAI-2023 发表的论文,基于可学习图增强的邻居监督图对比学习 [1]。

c898338048b0180f4f348873080eb5b0.png

论文题目:

Neighbor Contrastive Learning on Learnable Graph Augmentation

论文作者:

沈笑,孙德望,潘世瑞,周犀,杨天若

作者单位:

海南大学,澳大利亚格里菲斯大学,加拿大圣弗朗西斯塞维尔大学

论文链接:

https://ojs.aaai.org/index.php/AAAI/article/view/26168

论文代码:

https://github.com/shenxiaocam/NCLA

03863de941dafa6afd367d59ac086676.png

前言

近几年来,对比学习在 CV 和 NLP 领域的无监督表示学习任务上展现了显著的成果。受此启发,研究者们提出一系列图对比学习(Graph Contrastive Learning)方法 [2, 3],通过结合图神经网络和对比学习,旨在从未标记的图数据中学习嵌入表示,以缓解图数据标签缺乏的问题。

现有的图对比学习方法通常采用人为设计的图增强策略(Handcraft Graph Augmentation),如属性掩蔽 [4]、属性扰动 [5]、删除边 [3]、丢弃节点 [6] 等,生成两个或多个具有差异性的增强视图。然而,由于图数据的多样性,难以找到可适用于不同图数据集的图增强策略,而需要依据领域先验知识或反复试错的方式手动为每个图数据集选择合适的图增强 [6],这大幅限制了图对比学习方法的效率和泛化能力。

另外,现有的人为图增强,有可能删除某些关键的节点或边,严重损坏下游任务的相关信息,导致低质量的图嵌入 [4]。另一方面,现有的图对比学习方法通常将 CV 领域提出的对比损失(如 InfoNCE [7]、NT-Xent [8])直接应用于图结构数据 [3, 6, 9, 10],而忽略了图像与图数据的本质区别。

需要注意的是,InfoNCE 和 NT-Xent 只允许每个锚点构建一对正样本,即同一节点在不同视图中的嵌入构成一对正样本,而将其他与锚点不同的节点均视为负样本。这意味着锚点的邻居节点也视为负样本,进而被推离锚点。然而,大部分的图数据都基于同质性假设,即相连的节点应彼此相似 [11]。因此,直接采用 CV 领域提出的 InfoNCE 和 NT-Xent 作为图对比损失,由于忽略考虑图拓扑结构信息,将导致生成的节点嵌入与图的同质性假设相矛盾。

765d825666c566ffd802bbf06a1f3bb1.png

700c608cce9ba7aa475a0fa470b0842f.png

方法

为了改善现有的图对比学习方法在图增强和图对比损失两方面的缺陷,该论文提出了基于可学习图增强的邻居监督图对比学习模型(Neighbor Contrastive Learning on Learnable Graph Augmentation, NCLA)[1]。NCLA 的模型框架如 Fig.1 所示。

首先, NCLA 采用多头图注意力机制自动学习 K 个具有不同自适应拓扑邻接矩阵的增强视图。其次,对于每个增强视图,采用独立的图编码器学习对应的节点嵌入。需要注意的是,不同的增强视图采用不共享的图增强和图嵌入可学习参数,从而保证生成的视图之间具有一定的差异性。

此外,基于多头图注意力机制的可学习图增强,可使得不同的视图保留与原图一致的节点和边,而同一条边在不同视图中具有不同的注意力权重,这可防止对原始拓扑结构的不适应修改,避免破坏下游任务的相关信息。此外,基于多头图注意力机制的图增强方法端到端自动学习,可兼容于不同的图数据集,而不需要依靠领域知识进行人为选择。

另一方面,当前的图对比学习方法通常直接采用 CV 领域提出的 InfoNCE 和 NT-Xent 作为对比损失。这些损失忽略考虑图的拓扑结构信息,将邻居节点视为锚点的负样本,进而推离锚点,这与图的同质性假设相矛盾。针对此问题,在 NT-Xent 的基础上,该论文提出一种新的邻居监督图对比损失(Neighbor Contrastive Loss),采用拓扑结构作为监督信号来定义点-点图对比学习的正样本对和负样本对。

具体来说,不同于 NT-Xent 中每个锚点只能构建一对正样本,邻居监督图对比损失允许每个锚点具有三类正样本,分别是 1)来自不同视图的同一节点;2)来自同一视图的邻居节点,和 3)来自不同视图的邻居节点。反之,来自同一视图和不同视图的非邻居节点将被视为锚点的两类负样本。Fig. 2 展示了三种图对比损失,InfoNCE、NT-Xent 和邻居监督图对比损失中正负样本对的差异。

9eb42c4212b83d7b5a30faa0afb9f72f.png

给定两个视图,选择视图 1 的第 个节点 作为锚点,其关联的邻居监督图对比损失 定义如下:

2dce18db842a77d4eb0eea72cb42f697.png

其中, 是温度系数, 表示相似度度量(论文中采用内积), 是节点 的邻居节点的数量,分母的后两项可分解为:

131c928c51ab035474d6e8aa483ab3e2.png

由于两个视图是对称的,选择视图 2 的第 个节点 作为锚点,可根据上式类似地定义其关联的邻居监督图对比损失 。依次选择视图 1 和视图 2 中每个点作为锚点,总的邻居监督图对比损失定义如下:

d7a4a69da95c808a4f1aa2c64053dcaf.png

bcc5e3899aec02951af7c78a2b2ee087.png

节点分类实验

论文在 5 个基准图数据集,Cora、CiteSeer、PubMed、Amazon-Photo 和 Coauthor-CS 上进行了节点分类任务的实验测评,对比了 11 种 SOTA baselines,包括半监督图神经网络(GCN [12],GAT [13]),半监督图对比学习方法(CGPN [14],CG3 [10]),和自监督图对比学习方法(DGI [5],GMI [15],MVGRL [2],GRACE [3],GCA [4],SUGRL [16],AFGRL [17])。NCLA 也属于自监督图对比学习方法,即在学习节点嵌入的过程完全没有使用下游任务的标签信息。

ef2a6eea6f661918527d236e3de79807.png

节点分类的实验结果如表 1 所示。当节点标签极其缺乏,即每类只有 1、2、3 和 4 个带标签的节点时,NCLA 在所有数据集上的准确率始终高于 SOTA 图对比学习方法。而当拥有更多已知标签时,即每类有 20 个带标签的节点,NCLA 可获得最佳或次优的准确率,与 SOTA 图对比学习方法相当。

当节点标签更为稀缺时,NCLA 比 baselines 的提升更为显著,这是由于两方面的原因:

1)图增强:图对比学习 baselines 采用的人为图增强有可能严重破坏原始拓扑。当节点标签更稀缺时,这种损坏的拓扑结构会更严重地降低节点分类准确性。相反,NCLA 提出的基于多头图注意力的可学习增强方案可避免对拓扑结构的不适当修改。

2)图对比损失:当节点标签非常有限时,考虑邻居节点的信息可显著提升节点分类的准确性。因此,与图对比学习 baselines 所采用的忽略拓扑结构的对比损失相比,NCLA 提出的邻居监督图对比损失可取得更好的节点分类准确性。

1eaa8fd1dda886d25c8cb2df85b94f19.png

总结

GAT 和图对比学习都是当前图表示学习领域极其广泛应用的技术。本文介绍的基于可学习图增强的邻居监督图对比学习方法 NCLA,可被视为采用点-点图对比学习来对比 multi-head GAT 中不同的 head。实验结果表明,当节点标签非常有限时,自监督的 NCLA 方法可取得比半监督的 multi-head GAT 更高的准确率,这表明图对比学习的确有助于学习更高质量的节点嵌入。

NCLA 方法的主要创新点如下:

1)现有的图对比学习方法通常采用人为设计的图增强策略,需要手动为每个图数据集选择合适的图增强参数,极大限制了图对比学习方法的效率和泛化能力。NCLA 方法采用多头图注意力机制端对端地自动学习图增强参数,可自动兼容到不同的图数据集,具有更强的泛化能力。另外,相比于人为图增强策略,NCLA 方法提出的基于注意力机制的可学习图增强方案更安全,可在不破坏下游任务相关信息的条件下,生成具有一定差异性的增强视图。

2)现有的图对比学习方法通常直接采用 CV 领域提出的对比损失,而忽略考虑了图的拓扑结构信息,从而导致学到的节点嵌入表示与图的同质性假设相矛盾。NCLA 方法设计了针对图结构数据的邻居监督图对比损失,采用拓扑结构作为监督信号来定义图对比学习中的正负样本。

3)在标准的图对比学习范式中,图增强和节点嵌入学习通常分两个阶段进行,可能需要两级优化。而在 NCLA 方法中,图增强和节点嵌入是一体化端到端学习的。

4)实验结果表明,当节点标签极其缺乏时,自监督的 NCLA 方法取得的节点分类准确率始终优于 SOTA(自监督和半监督)图对比学习方法,甚至优于一些半监督图神经网络。

outside_default.png

参考文献

outside_default.png

[1] X. Shen, D. Sun, S. Pan, X. Zhou, and L. T. Yang, "Neighbor Contrastive Learning on Learnable Graph Augmentation," in Proceedings of the AAAI Conference on Artificial Intelligence, 2023, pp. 9782-9791.

[2] K. Hassani and A. H. Khasahmadi, "Contrastive multi-view representation learning on graphs," in International Conference on Machine Learning, 2020, pp. 4116-4126.

[3] Y. Zhu, Y. Xu, F. Yu, Q. Liu, S. Wu, and L. J. a. p. a. Wang, "Deep graph contrastive representation learning," 2020.

[4] Y. Zhu, Y. Xu, F. Yu, Q. Liu, S. Wu, and L. Wang, "Graph contrastive learning with adaptive augmentation," in Proceedings of the Web Conference 2021, 2021, pp. 2069-2080.

[5] P. Velickovic, W. Fedus, W. L. Hamilton, P. Liò, Y. Bengio, and R. D. J. I. Hjelm, "Deep Graph Infomax," vol. 2, no. 3, p. 4, 2019.

[6] Y. You, T. Chen, Y. Sui, T. Chen, Z. Wang, and Y. J. A. i. N. I. P. S. Shen, "Graph contrastive learning with augmentations," vol. 33, pp. 5812-5823, 2020.

[7] A. v. d. Oord, Y. Li, and O. J. a. p. a. Vinyals, "Representation learning with contrastive predictive coding," 2018.

[8] T. Chen, S. Kornblith, M. Norouzi, and G. Hinton, "A simple framework for contrastive learning of visual representations," in International conference on machine learning, 2020, pp. 1597-1607.

[9] J. Qiu, Q. Chen, Y. Dong, J. Zhang, H. Yang, M. Ding, K. Wang, and J. Tang, "Gcc: Graph contrastive coding for graph neural network pre-training," in Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, 2020, pp. 1150-1160.

[10] S. Wan, S. Pan, J. Yang, and C. Gong, "Contrastive and generative graph convolutional networks for graph-based semi-supervised learning," in Proceedings of the AAAI Conference on Artificial Intelligence, 2021, pp. 10049-10057.

[11] M. McPherson, L. Smith-Lovin, and J. M. J. A. r. o. s. Cook, "Birds of a feather: Homophily in social networks," pp. 415-444, 2001.

[12] T. N. Kipf and M. J. a. p. a. Welling, "Semi-supervised classification with graph convolutional networks," 2016.

[13] P. Veličković, G. Cucurull, A. Casanova, A. Romero, P. Lio, and Y. J. a. p. a. Bengio, "Graph attention networks," 2017.

[14] S. Wan, Y. Zhan, L. Liu, B. Yu, S. Pan, and C. J. A. i. N. I. P. S. Gong, "Contrastive graph poisson networks: Semi-supervised learning with extremely limited labels," vol. 34, pp. 6316-6327, 2021.

[15] Z. Peng, W. Huang, M. Luo, Q. Zheng, Y. Rong, T. Xu, and J. Huang, "Graph representation learning via graphical mutual information maximization," in Proceedings of The Web Conference 2020, 2020, pp. 259-270.

[16] Y. Mo, L. Peng, J. Xu, X. Shi, and X. Zhu, "Simple unsupervised graph representation learning," 2022.

[17] N. Lee, J. Lee, and C. Park, "Augmentation-free self-supervised learning on graphs," in Proceedings of the AAAI Conference on Artificial Intelligence, 2022, pp. 7372-7380.

更多阅读

d67709283a46f0192aa8f7bde56d43aa.png

e9c3491f1d65d1d044bacf1e17ddd43a.png

8d126d18e10ea778c9dff7acca8d588a.png

bb49b3f7f69fba3a449160c0e90d71d5.gif

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

ad0dd52a256b7fa9863d7ed27caea65d.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

f3de57ef188dabd063909a95db870f87.jpeg


 

 

原文链接:https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/132726066?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522169900313616800188521737%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=169900313616800188521737&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-2-132726066-null-null.nonecase&utm_term=%E6%BE%B3%E6%B4%B22023

作者: 知澳头条

知澳资深作者

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

联系我们

联系我们

1300766331

邮箱: info@getau.com.au

澳洲本地网站设计开发团队 超20人团队,悉尼设计开发14年 联系电话:1300766331 微信: XtechnologyAU
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

返回顶部