HyperAIHyperAI

Command Palette

Search for a command to run...

BERTweet:一种用于英文推文的预训练语言模型

Dat Quoc Nguyen Thanh Vu Anh Tuan Nguyen

摘要

我们提出 BERTweet,这是首个面向英文推文(English Tweets)的大规模预训练语言模型。BERTweet 的架构与 BERT-base(Devlin 等,2019)保持一致,并采用 RoBERTa 的预训练方法(Liu 等,2019)进行训练。实验结果表明,BERTweet 在三项推文自然语言处理任务——词性标注(Part-of-speech tagging)、命名实体识别(Named-entity recognition)和文本分类(text classification)上,均显著优于强基准模型 RoBERTa-base 和 XLM-R-base(Conneau 等,2020),性能超越此前的最先进模型。为促进未来在推文数据上的研究与应用,我们已将 BERTweet 在 MIT 许可证下开源,其项目地址为:https://github.com/VinAIResearch/BERTweet


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供