年底是总结和预测的好时机。2020 年图机器学习(Graph ML)在机器学习领域大获成功。本文中,我征求了在图机器学习和它的应用方面的著名研究者的意见,试图总结出去年的一些亮点,并预测 2021 年的前景。
本文最初发表于 Towards Data Science 博客,经原作者 Michael Bronstein 授权,InfoQ 中文站翻译并分享。
超越消息传递
Will Hamilton,麦吉尔大学(McGill University)助理教授,Mila CIFAR 主席,GraphSAGE 作者。
在 2020 年时,图机器学习领域面临了消息传递模式的基本限制。
其中包括所谓的“瓶颈”问题、过平滑的问题,以及在表达能力上的理论限制。从长远来看,我希望到 2021 年,我们会发现图机器学习的下一个大范式。虽然我不确定下一代图机器学习算法将会是什么样的,但是我相信,要取得进展,就必须突破 2020 年及之前主导该领域的消息传递方案。
我也希望 2021 年图机器学习能够进入更具影响力和挑战性的应用领域。目前大量的研究集中在简单、同质的节点分类任务上。同时,我也希望看到方法能够发展到需要更复杂的算法推理的任务中,如涉及知识图、强化学习和组合优化等。
算法推理
指针图网络结合了经典计算机科学的结构归纳偏好。
Petar Veličković,DeepMind 高级研究员,Graph Attention Networks (图注意力网络)作者。
在机器学习领域,2020 年时,图表示学习已经明显和不可逆转地成为一流的公民。
这一年有太多不能简单列举的进步,但是我个人最喜欢神经算法推理。神经网络在插值方面传统上非常强大,但众所周知,它是一个很糟糕的外推器:因此也是不够充分的推理器;因为推理的一个主要特点是,它可以在分布之外工作。推理任务很可能是进一步发展图神经网络的理想选择,这不仅是因为已知它们与此类任务非常吻合,而且还因为许多现实世界的图任务表现出同质性,也就是说,影响最大、可扩展性最好的方法,通常是更简单的图神经网络形式。
2020 年发表的多篇论文,以诸如神经图灵机和可分化神经计算机等神经执行器 (neural executors)的历史成功为基础,在如今普遍使用的图机器学习工具的支持下,探索了神经执行器的理论极限,提出了一种新的、更强大的基于图神经网络的推理架构,并实现了神经推理任务的完美强泛化。尽管这类架构在 2021 年自然会成为组合优化的胜利,但我个人最兴奋的是,预训练算法执行器能够使我们把经典算法应用到那些过于原始或者不适合算法的输入。举例来说,我们的 XLVIN 代理就是利用这些概念,让图神经网络在强化学习过程中执行一种价值迭代风格的算法,尽管底层 MDP 的具体内容还不清楚。我认为,2021 年,图神经网络在一般强化学习中的应用时机将成熟。
关系结构发现
图神经网络可以学习一个状态转换图(右),解释一个复杂的多粒子系统(左)。
Thomas Kipf,Google Brain(谷歌大脑)研究科学家。Graph Convolutional Networks(图卷积网络)作者。
最近几年,基于图的神经网络模型被广泛采用以来,在图机器学习领域出现了计算结构和数据结构分离的趋势。
在最近一次 ICML 研讨会的演讲中,我将这种趋势称为关系结构发现。典型地,我们设计图神经网络是为了在数据集提供的固定(或时间上不断演进)的结构上传递消息,也就是使用数据集的节点和边作为计算模型结构或消息传递结构的黄金标准。
在 2020 年,我们看到,人们对能够调整计算结构的模型的兴趣不断上升,也就是它们使用什么组件作为节点,以及在哪些节点之间传递信息,而不仅仅是简单的基于关注的模型。2020 年有影响力的例子包括 Amortised Causal Discovery,它利用神经关系推断从时间序列数据中推断(和推理)因果图,具有可学习指针和关系机制的图神经网络、自适应计算图的基于学习网格的物理模拟器,以及学习推断在其上执行计算的抽象节点的模型。这一发展具有广泛的意义,因为它使我们能够有效地利用 图神经网络架构在其他领域(如文本或视频处理)中提供的对称性(如节点置换同变性)和归纳偏好(如成对交互函数的建模)。
放眼未来,我希望我们能够看到,对于给定的数据和任务,在不依赖显式监督的情况下,如何学习最佳的计算图结构(包括节点和关系)方面有很多进展。通过检验这个学习到的结构,并通过推导一个学习到的模型来更好地解释和解释用于解决问题的计算,很可能使我们可以进一步类推因果推理。
表达能力
Haggai Maron,英伟达研究科学家,《可证明具有表达能力的高维图形神经网络》(provably expressive high-dimensional graph neural networks)的作者。
很多优秀的论文都讨论了不同类型的图神经网络架构的表达能力,并说明了其在受深度和宽度限制时的基本表达能力极限,描述了用图神经网络检测和计数什么样的结构,说明了用固定数量的图神经网络来处理多个图任务是没有意义的,并且提出了一个迭代图神经网络,可以学习如何自适应地终止消息传递过程。
在 2021 年,我很乐意看到在图的生成模型的原则性方法、图与图神经网络的匹配和图神经网络的表达能力之间的联系、诸如图象和音频等结构化数据的学习、以及在神经网络社区和处理场景图的计算机视觉社区之间建立更紧密的联系方面取得进展。
可扩展性
Matthias Fey,多特蒙德工业大学(TU Dortmund)博士生,PyTorch Geometric 和 Open Graph Benchmark 的开发者。
图神经网络的可扩展性问题是 2020 年图机器学习研究的热点问题之一。
有些方法通过将预测和传播进行解耦,从而简化了底层计算。很多文章都将不可训练的传播模式和独立于图的模块简单地结合在一起作为前处理或后处理步骤。这样就会产生极好的运行时,并可以显著地实现同构图的平均性能。我很想知道,在访问越来越大的数据集的过程中,我渴望看到怎样才能进步,怎样才能以一种可扩展的方式使用训练和表达性传播。
动态图
Emanuele Rossi,伦敦帝国学院博士生,Twitter 的机器学习研究员,Temporal Graph Networks(时态图网络)的作者。
很多有趣的图机器学习应用在本质上是动态的,图的拓扑结构和属性也是随时间变化的。
不管是社会网络,金融交易网络,还是用户 - 商品互动网络,都是如此。到目前为止,大多数对图机器学习的研究都集中于静态图。少量尝试处理动态图的工作主要是考虑了离散时间动态图,也就是在规则间隔内的一系列图的图快照。到 2020 年,我们将看到关于连续时间动态图的一系列新出现的更一般的研究成果,这些研究成果可被视为定时事件的异步流。同时,动态图模型的首个有趣的成功应用也开始出现:我们看到了虚假账户检测、欺诈检测,以及流行病控制的蔓延。
我认为,我们只是在这个振奋人心的方向上探索,许多有趣的问题还没有得到解决。其中重要的开放性问题包括可扩展性、对动态模型的更好的理论理解,以及在单一框架中结合信息的空间和时间扩散。为了确保能够更好地评估和跟踪进展情况,我们还需要更可靠和更具挑战性的基准。最终,我希望看到更多动态图神经架构的成功应用,尤其是在工业领域。
新硬件
Graphcore 是一家为图机器学习开发新硬件的半导体公司。
Mark Saroufim,Graphcore 机器学习工程师。
我想不出有哪个客户没有在生产中部署过图形神经网络,或者正在计划部署。
这一趋势的部分原因是,在自然语言处理、蛋白质设计或分子特性预测等应用中,传统上没有采用自然图结构,而是采用已有的成熟机器学习模型(如 Transformers)可以接受的数据序列。但是我们知道 Transformers 仅仅是图神经网络,它用来作为邻域聚集函数。在计算中,当某些算法胜出并不是因为它们很适合解决某个问题,而是因为它们在现有硬件上运行得很好时,这一现象被称为硬件彩票(Hardware Lottery):在 GPU 上运行的 Transformers 就是这种情况。
在 Graphcore,我们建立了一个拥有 1472 个内核的新 MIMD 架构,能够同时运行 8832 个程序,我们称之为智能处理单元(Intelligence Processing Unit ,IPU)。 结构非常适合于加速图神经网络。Poplar 软件栈利用稀疏性的优势,为计算图中的不同节点分配了不同的核心。在适合 IPU 的 900 MB 内存的模型中,我们的架构比 GPU 的吞吐量有很大的提升;否则,只需要几行代码,就可以将模型分布在数千个 IPU 上。
我很高兴看到我们的客户利用我们的架构建立了大量的研究,包括 SLAM 的束调整(bundle adjustment)、使用局部更新训练深度网络或加速粒子物理学中的各种问题等应用。我希望在 2021 年能看到更多的研究人员利用我们先进的机器学习硬件。
在工业、物理、医学等领域的应用
MagicLeap 的 SuperGlue 使用 图神经网络解决了一个经典的特征匹配计算机视觉问题。
Sergey Ivanov,Criteo 研究科学家,《图机器学习通讯》(Graph Machine Learning newsletter)编辑。
对于图机器学习研究来说,这是一个惊人的年份。大多数大型的机器学习会议都会有 10~20% 的关于这一领域的论文,每个人都会在这一范围内找到自己喜欢的有趣的图主题。
Google Graph Mining 团队在 NeurIPS 上的表现非常突出。从 312 页的演讲 来看,可以说谷歌在生产中使用图形方面的比任何人都先进。他们的应用主要有新冠肺炎病毒的建模、欺诈检测、隐私保护等,这些都是基于图机器学习的解决方案。另外, DeepMind 也在其产品中推出了用于谷歌地图全球范围内的出行时间预测的图神经网络。这一方法的一个有趣的细节是,它集成了一个迁移学习模型,并将类似的采样子图选取到一个批次,用于图神经网络的参数训练。这样,先进的超参数调优就可以提高实时到达时间估计的正确性,达到最高 50%。
另一个引人注目的应用是图神经网络,它由 MagicLeap 公司开发,该公司专注于 3D 计算机生成图形。在 SuperGlue 的架构中,应用了图神经网络来进行图像的特征匹配:这是 3D 重建、位置识别、定位和映射的一个重要课题。端对端特征表示与最佳的传输优化组合,在实时室内和室外姿势估计方面都是领先的。这一结果只是 2020 年时所取得成就的一个缩影。
明年,我相信我们将看到图机器学习发展在工业领域中的进一步使用。这将包括生产管道和框架、新的开源图数据集,以及电子商务、工程设计和制药行业大规模部署图神经网络。
以图形表示的粒子喷流。图神经网络正在被用来探测粒子物理学中的事件。
Kyle Cranmer,纽约大学物理学教授,希格斯玻色子的发现者之一。
图机器学习最近两年在物理学领域非常流行,这是一个惊人的现象。
早期粒子物理的深度学习工作,常常要求把数据转化为图像表示,以配合卷积神经网络,这是不自然的,因为我们的数据并非天生的网格,而图表示则非常稀疏。图是我们数据更自然的表示方式。LHC 上的研究人员正在努力将图机器学习与实时数据处理系统结合起来,以每秒处理数十亿次碰撞。目前正在进行的一项工作是将图机器学习和实时数据采集系统集成到推理服务器 中,并在 FPGA 和其它特殊硬件上实现算法。
2020 年图机器学习的另一大亮点是,证明了其归纳偏好可以与符号法相匹配。举例来说,我们利用图神经网络来学习如何预测各种动态系统,然后对沿边缘发送的信息进行符号回归。不使用基准力学,我们不仅可以恢复这些动力学系统的基准力学定律,而且也可以提取方程。我们很惊讶地发现,通过提取的符号方程可以重新引入到图神经网络中,以代替原来学习的分量,从而得到更好的对分布外数据的泛化。
GNNs 可以利用种群图进行疾病分类。
Anees Kazi,慕尼黑工业大学博士生,多篇关于医学成像中图机器学习的论文作者。
在医疗领域,图机器学习改变了多模态数据的分析方式,它非常类似于专家们在临床常规中从各个维度观察病人的情况。
近年来,图机器学习在医学影像和医学应用方面的相关研究出现了巨大的高峰,其中包括脑区域分割,利用 MRI/fMRI 数据对脑结构进行疾病预测、药物效应分析等。
2020 年,在图机器学习的主题中,有几个在医学领域非常突出。首先是潜图学习(latent graph learning),由于经验性地定义给定数据的图是迄今为止最佳结果的瓶颈,所以它现在被自动学习潜图结构的方法所解决。其次是数据归集(data imputation), 因为在医学领域许多数据集中,缺乏数据是常态化问题,根据图邻域的关系,基于图的方法已经有助于进行数据推断。再次,关于机器学习模型的可解释性问题,对临床和技术专家而言,重视机器学习模型的研究成果,并将其可靠地集成到 CADx 系统中,具有重要意义。在医学领域,2020 年的另一大亮点当然是新冠肺炎疫情的爆发,图机器学习方法被用来检测新冠肺炎病毒。
在 2021 年,图机器学习可以被用于进一步改善机器学习模型的可解释性,从而更好地做出决策。根据观察,图机器学习方法对图的结构仍然比较敏感,所以对图干扰的健壮性和对抗性攻击是一个重要研究课题。最终,将自监督学习和图机器学习结合起来应用到医学领域将会非常有趣。
使用几何机器学习架构 MaSIF 设计的肿瘤靶点的不同蛋白结合剂。
Bruno Correia,瑞士洛桑联邦理工学院(EPFL)助理教授,蛋白质设计和免疫工程实验室的负责人,MaSIF 的开发者之一。
在 2020 年,蛋白质结构预测方面取得了令人振奋的进展,而蛋白质结构预测是生物信息学的关键问题。但是,这些分子表面所呈现的化学和几何图形对蛋白质的功能是至关重要的。
几十年来,人们一直在研究表面分子特征,但是这给机器学习方法带来了挑战。在蛋白质建模领域,来自几何深度学习领域的方法令人印象深刻,因为它们具有处理不规则数据的能力,这些数据尤其适用于蛋白质表征。在 MaSIF 中,在基于网格的分子表面表征上使用几何深度学习来学习模式,可以预测蛋白质与其他分子(蛋白质和代谢物)的相互作用,并且可以将对接计算速度提高几个数量级。这样就可以促进更大规模的蛋白质相互作用网络的预测工作。
通过对 MaSIF 框架的进一步开发,我们能够在任何时候生成我们的表面和化学特征,从而避免了所有的预计算阶段。我希望这一进展能在蛋白质和小分子设计方面产生改变,并有助于加速生物药物的长期发展。
图神经网络被用于 Decagon 的多药性副作用预测。
Marinka Zitnik,哈佛医学院(Harvard Medical School)生物医学信息学助理教授,Decagon 作者。
2020 年,图机器学习将进入生命科学领域,这是令人兴奋的。
在精心设计的基准数据集上,我们已经看到,图神经网络不仅比早期方法优越,而且还能为开发新药以帮助人类和在基本层面理解自然开辟途径。其重点研究领域包括单细胞生物学、蛋白质与结构生物学、药物发现与重组。
几个世纪以来,科学方法,即科学家用来系统而有逻辑地解释自然世界的基本科学实践,基本上没有变化。到 2021 年,我希望我们能够在利用图机器学习改变这一现状方面取得重大进展。要做到这一点,我认为我们需要设计出能够优化和操纵网络系统并预测其行为的方法,例如基因组学,即人体的自然实验,是如何影响疾病环境中人类的特性的。这一方法需要结合扰动和干预数据(而不仅仅是从我们的世界获取观测数据)。此外,我希望我们可以发展出更多的方法来了解可操作的表征,并且可以很容易地将其应用于科学中可操作的假设。这种方法可以让我们在高风险的环境 (如化学测试、粒子物理、人类临床试验)下作出决策,我们需要准确而可靠的预测,以便对其作出有意义的解释。
作者介绍:
Michael Bronstein,伦敦帝国理工学院教授,Twitter 图机器学习研究负责人,CETI 项目机器学习主管、研究员、教师、企业家和投资者。
原文链接:
https://towardsdatascience.com/predictions-and-hopes-for-graph-ml-in-2021-6af2121c3e3d
评论