Command Palette

Search for a command to run...

3 个月前

进展中:面向TinyML的线性Transformer

摘要

我们提出WaveFormer,一种基于线性注意力机制的神经网络架构,旨在实现对超小型机器学习(TinyML)设备的长序列推理。WaveFormer在Google Speech V2关键词识别(KWS)数据集上,针对12类和35类任务分别取得了98.8%和99.1%的新一代最先进准确率,模型权重仅需130 kB存储空间,完全兼容微控制器(MCU)类设备。与当前最优方法相比,Top-1准确率分别提升0.1和0.9个百分点,同时模型规模和计算操作次数分别缩减2.5倍和4.7倍。此外,我们还提出了一种面向硬件优化的8位整数量化算法,用于线性注意力算子,可在不损失精度的前提下,实现低成本、超低功耗微控制器上的高效部署。

基准测试

基准方法指标
keyword-spotting-on-google-speech-commandsWaveFormer
Google Speech Commands V2 12: 98.8
Google Speech Commands V2 35: 99.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
进展中:面向TinyML的线性Transformer | 论文 | HyperAI超神经