HyperAIHyperAI

Command Palette

Search for a command to run...

Transformer即RNN:具有线性注意力的快速自回归Transformer

Angelos Katharopoulos Apoorv Vyas Nikolaos Pappas François Fleuret

摘要

Transformer 在多项任务中表现出色,但由于其计算复杂度与输入序列长度呈二次关系(O(N2)\mathcal{O}(N^2)O(N2)),在处理极长序列时效率极低,难以实用。为解决这一瓶颈,本文将自注意力机制重新表述为核特征映射之间的线性点积,并利用矩阵乘法的结合律,将复杂度从 O(N2)\mathcal{O}(N^2)O(N2) 降低至 O(N)\mathcal{O}(N)O(N),其中 NNN 表示序列长度。我们证明,该形式支持迭代实现,显著加速自回归 Transformer 的推理过程,并揭示了其与循环神经网络(Recurrent Neural Networks, RNNs)之间的内在联系。实验表明,所提出的线性 Transformer 在性能上可与标准 Transformer 相媲美,且在长序列自回归预测任务中,速度提升最高可达 4000 倍。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供