HyperAIHyperAI

Command Palette

Search for a command to run...

PHNNs:通过参数化超复数卷积实现的轻量级神经网络

Eleonora Grassucci Aston Zhang Danilo Comminiello

摘要

超复数神经网络通过利用克利福德代数(Clifford algebras)的性质,已在保持优异性能的同时显著减少了模型的总体参数量。近期,超复数线性层进一步通过引入高效的参数化克罗内克积(Kronecker products)得到了优化。本文中,我们定义了超复数卷积层的参数化方法,并提出了一类轻量级且高效的大型超复数神经网络家族——参数化超复数神经网络(Parameterized Hypercomplex Neural Networks, PHNNs)。该方法能够直接从数据中学习卷积规则与滤波器的组织结构,无需依赖预先严格设定的域结构。PHNNs 具有高度灵活性,可在任意用户自定义或可调的域中运行,涵盖从一维到 nnn 维的多种情形,且不依赖于是否预设代数规则。这种高度可塑性使得模型能够在其自然域中处理多维输入,而无需像四元数神经网络在处理三维输入(如彩色图像)时那样额外引入维度。因此,所提出的 PHNN 家族在与实数域对应模型相比时,其自由参数数量仅为后者的 1/n1/n1/n。我们通过在多种图像数据集和音频数据集上的实验,验证了该方法在多个应用领域的广泛适用性,结果表明其性能优于传统的实值和四元数值模型。完整代码已开源,地址为:https://github.com/eleGAN23/HyperNets


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供