Categories
程式開發

图神经网络表达能力不足时,我们能做什么?


在本文中,作者认为图同构设置对于分析图神经网络的表达能力来说太过有限,并建议基于度量嵌入进行更广泛的设置。

前文回顾

《图深度学习:成果、挑战与未来》
《图神经网络的表达能力与 Weisfeiler-Lehman 测试》
《如何设计局部的、计算效率高的、可证明的图神经网络?》

本文最初发表在 TowardsDataScience 博客,经原作者 Michael Bronstein 授权,InfoQ 中文站翻译并分享。

image

Weisfeiler-Lehman(WL)测试【1】是图论多项式时间迭代算法层次结构的总称,为图同构提供了必要但不充分的条件。在图深度学习的背景下,消息传递神经网络被证明与 1-WL 测试一样强大【2】。进行更高阶、更强大的 k-WL 测试会导致图神经网络复杂度和非局部运算【3】,这在实际应用中是不切实际的。

我们在最近的一篇论文【4】中介绍了一种不同的方法,即打破 Weisfeiler-Lehman 层次结构,并采用一种能够感知局部图结构(如环、团和道路)的消息传递机制。这使得图神经网络具有标准消息传递架构的诱人的局部性和低复杂度,同时被证明比 2-WL 更强大,至少不低于 3-WL。这样的观点为图论中的开放性问题打开了深层次的联系,而这些问题是以前在图神经网络表达力方面从未探索过的。

原文链接:【https://www.infoq.cn/article/wK546MGjKQxYcxto3uWy】。未经作者许可,禁止转载。