Kg To Text Generation On Webnlg Unseen
评估指标
BLEU
METEOR
chrF++
评测结果
各个模型在此基准测试上的表现结果
比较表格
模型名称 | BLEU | METEOR | chrF++ |
---|---|---|---|
investigating-pretrained-language-models-for | 53.67 | 42.26 | 72.25 |
investigating-pretrained-language-models-for | 43.97 | 38.61 | 66.53 |
各个模型在此基准测试上的表现结果
模型名称 | BLEU | METEOR | chrF++ |
---|---|---|---|
investigating-pretrained-language-models-for | 53.67 | 42.26 | 72.25 |
investigating-pretrained-language-models-for | 43.97 | 38.61 | 66.53 |