HyperAIHyperAI

Command Palette

Search for a command to run...

PRIMERA:基于金字塔的掩码句子预训练用于多文档摘要

Wen Xiao Iz Beltagy Giuseppe Carenini Arman Cohan

摘要

我们提出PRIMERA,一种面向多文档摘要任务的预训练模型,旨在减少对特定数据集架构以及大量标注微调数据的依赖。PRIMERA采用我们新提出的预训练目标,旨在教会模型在不同文档之间建立关联并整合信息。同时,该模型利用高效的编码器-解码器Transformer结构,简化对拼接输入文档的处理流程。在涵盖三个不同领域的6个多文档摘要数据集上,PRIMERA在零样本(zero-shot)、少样本(few-shot)及全监督(full-supervised)等多种设置下进行了广泛实验,结果表明其在大多数设置下均显著优于当前主流的特定数据集模型及预训练模型。代码与预训练模型已开源,可访问 https://github.com/allenai/PRIMER 获取。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供