Command Palette

Search for a command to run...

4 个月前

面向可扩展的神经对话状态跟踪模型

面向可扩展的神经对话状态跟踪模型

摘要

当前基于神经网络的对话状态跟踪模型的延迟问题限制了其在生产系统中的高效部署,尽管这些模型具有很高的准确性。本文提出了一种新的可扩展且准确的神经对话状态跟踪模型,该模型基于Zhong等人最近提出的全局-局部自注意力编码器(Global-Local Self-Attention encoder, GLAD)模型。GLAD模型通过全局模块在不同类型的对话状态(称为槽位)估计器之间共享参数,并通过局部模块学习特定槽位的特征。与GLAD模型中使用的(1 + 槽位数)个具有全局和局部条件的循环神经网络相比,我们提出的模型仅使用一个具有全局条件的循环神经网络,在训练和推理时间上平均减少了35%的延迟,同时保持了信念状态跟踪性能,其中轮次请求准确率为97.38%,联合目标和整体准确率为88.51%。在多域数据集(Multi-WoZ)上的评估也表明,我们的模型在轮次通知和联合目标准确率方面优于GLAD模型。

代码仓库

elnaaz/GCE-Model
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
dialogue-state-tracking-on-wizard-of-ozGCE
Joint: 88.5
Request: 97.4

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供