Command Palette

Search for a command to run...

3 个月前

负边距的重要性:理解少样本分类中的边距

负边距的重要性:理解少样本分类中的边距

摘要

本文提出了一种针对基于度量学习的少样本学习方法的负边距损失(negative margin loss)。该损失函数显著优于传统的Softmax损失,在三个标准的少样本分类基准上取得了当前最优的准确率,且仅需极少的额外设计技巧。这一结果与度量学习领域普遍采用的零边距或正边距的做法形成了鲜明对比。为了探究负边距损失在少样本分类任务中表现优异的原因,本文从实验和理论两个层面,系统分析了不同边距设置下所学习特征在训练类别与新类别上的可区分性。研究发现,尽管负边距会降低对训练类别的特征可区分性,但它能够有效避免同一新类别样本被错误地映射至多个峰值或聚类中心,从而提升对新类别的判别能力。相关代码已开源,地址为:https://github.com/bl0/negative-margin.few-shot。

代码仓库

bl0/negative-margin.few-shot
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
few-shot-image-classification-on-cub-200-5Neg-Margin
Accuracy: 89.40
few-shot-image-classification-on-cub-200-5-1Neg-Margin
Accuracy: 72.66
few-shot-image-classification-on-mini-1Neg-Margin
Accuracy: 63.85
few-shot-image-classification-on-mini-10Neg-Margin
Accuracy: 69.30

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供