传统对话理解模型依赖对话历史识别用户意图,由于缺乏丰富的知识信息,对生僻或特有内容的理解能力欠佳。通过隐式编码将知识加入模型的方法将知识注入与模型训练高度绑定,难以适应知识库的更新迭代,也会导致知识噪声,引入无关知识破坏原有语义。为解决上述问题,本文提出一种显式知识注入的多任务学习对话理解模型。将知识以自然语言形式插入到对话文本中,即插即用,满足知识源动态发展的需要;通过对话理解的主任务,关联知识识别的辅助任务,进行多任务学习,减少知识噪声。实验结果表明,与现有方法相比,本文提出的模型在意图识别和语义槽填充任务上的宏F1值分别提升了4.87%和2.09%。
来源出处
显式知识注入的任务型对话理解模型
http://sjcj.nuaa.edu.cn/sjcjycl/article/abstract/202403014
相关内容
发布日期
01/21/2024 - 12:12
发布日期
10/31/2021 - 01:47
发布日期
10/31/2021 - 01:16
发布日期
10/31/2021 - 01:48
发布日期
05/12/2024 - 09:43
发布日期
10/16/2024 - 19:36
发布日期
11/02/2023 - 23:34
发布日期
01/10/2022 - 19:31
发布日期
02/24/2024 - 15:39
发布日期
07/04/2024 - 17:54
发布日期
11/28/2023 - 00:31
发布日期
01/10/2022 - 19:31
发布日期
12/15/2023 - 01:19
发布日期
01/01/1970 - 08:00
发布日期
08/04/2020 - 01:35
发布日期
10/31/2021 - 01:12
发布日期
06/17/2022 - 10:21
发布日期
06/17/2022 - 10:21
发布日期
10/20/2024 - 19:37
发布日期
06/11/2024 - 17:46