HyperAIHyperAI

Command Palette

Search for a command to run...

Transformer 泛化DeepSets并可扩展到图和超图

Jinwoo Kim; Saeyoon Oh; Seunghoon Hong

摘要

我们提出了一种将Transformer模型推广到任意阶排列不变数据(集合、图和超图)的方法。首先,我们观察到Transformer可以视为DeepSets的泛化,即一阶(集合输入)排列不变多层感知机(MLP)。接着,基于最近研究中描述的高阶不变MLP,我们将自注意力机制的概念扩展到更高阶,并提出了适用于kkk阶数据的高阶Transformer模型(对于图数据,k=2k=2k=2;对于超图数据,k>2k>2k>2)。然而,高阶Transformer的复杂度为O(n2k)\mathcal{O}(n^{2k})O(n2k),随着输入节点数nnn的增加而变得难以承受。为了解决这一问题,我们提出了一种稀疏高阶Transformer模型,其复杂度与输入超边数呈二次关系,并进一步采用了核注意力方法将其复杂度降低至线性。特别是,我们证明了采用核注意力的稀疏二阶Transformer在理论上比消息传递操作更具表达能力,同时具有渐近相同的复杂度。我们的模型在大规模图回归和集合到(超)图预测任务中显著优于不变MLP和消息传递图神经网络。我们的实现代码已发布在https://github.com/jw9730/hot


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供