【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer

共计 2704 个字符,预计需要花费 7 分钟才能阅读完成。

BERT-DST: Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer

概要

问题动机

对话状态跟踪 (DST) 中一个重要但很少被解决的问题是动态 ontology(如电影、餐馆)和 unseen 的插槽值的可扩展性。以前的方法通常依赖于 n 格枚举或槽标记输出的候选生成,这可能遭受错误传播而导致效率低下。

贡献

作者提出了 BERT-DST,一个端到端对话状态跟踪器,它直接从对话上下文中提取插槽值。使用 BERT 作为对话上下文编码器,其上下文语言表示适合于可伸缩的 DST,以从其语义上下文中识别插槽值。

此外,我们在所有插槽上使用编码器参数共享,具有两个优点:(1)参数的数量不会与本体呈线性增长。(2)语言表示知识可以在插槽之间传递。经验评估表明,具有跨槽参数共享的 BERT-DST 在基准可扩展的 DST 数据集 Sim- M 和 Sim- R 上优于之前的工作,并在标准 DSTC2 和 WOZ2.0 数据集上取得了具有竞争力的性能。

再者,使用 BERT 作为对话上下文编码器提供了以下优点。上下文化的单词表示法适合于从上下文模式中提取插槽值。通过大规模语言模型的预训练,BERT 的单词表示是一种很好的初始化方法,可以微调到我们的 DST 问题。

任务定义

作者提出的将 BERT 应用于可扩展 DST 类似于斯坦福问题回答数据集 (SQuAD) 任务。在 SQuAD 中,输入是一个问题和一个阅读段落。如果阅读段落包含对问题的答案,则输出是该段落中的一段文本,由其跨度(开始和结束位置)表示。否则,该模型的输出应该是 unanswerable 的。同样,在可扩展 DST 的目标情况中,插槽的值可以是 none、dontcare 或 span(对话上下文中的字段)。

模型

【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer

​ 对于每个用户回合,BERT-DST 将最近的对话上下文作为输入,并输出回合级对话状态。

  • 首先,对话上下文输入由基于 BERT 的编码模块进行编码,以生成上下文化的句子级和 token 表示。

  • 句子级表示被用于分类器生成一个 3 类别的概率分布(none,dontcare,a span from the input)。
  • 跨度预测模块收集 token 级别的表示,并输出插槽值的开始和结束位置。最后,使用一种更新机制来跟踪回合间的对话状态。

Dialogue Context Encoding Module

对话上下文编码模块基于 BERT。我们使用前一个回合的系统话语和当前回合的用户话语作为对话上下文输入,以 BERT 的输入格式表示为一个令牌序列。第一个标记是 [CLS],后面是标记化的系统话语、[SEP] 和标记化的用户话语。让 【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer 表示输入 token 序列。BERT 的输入层将每个令牌 $x_i$ 嵌入到嵌入 $e_i$ 中,这是三个嵌入的和:

【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer

分别表示词嵌入,段嵌入以及位置嵌入。

经过嵌入的输入序列 【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer 传递给 BERT 的双向转换编码器,其最终隐藏状态由 【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer 表示。

【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer

上下文化的句子级表示 $t0$,即与 [CLS] 标记对应的隐藏状态,被传递给分类模块。跨度预测模块使用了上下文化的 token 级表示【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer。对话上下文编码模块中的参数,由 $Φ{BERT}$ 表示,从一个预先训练好的 BERT 检查点进行初始化,然后在我们的 DST 数据集上进行微调。

Classification Module

分类模块的输入是来自对话上下文编码模块的句子级表示 $t_0$。对于所有可信息槽 S 集合中的每个槽∈,分类模块使用线性预测和软最大预测 s 的值为三类 {none、dontcare、span} 之一。

【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer

每个插槽的分类参数,由 $\Phi{cls}^s = {W{cls}^s,b_{cls} }$ 表示,在我们的 DST 数据集上从头开始训练。

Span Prediction Module

对于每个插槽 $s \in S$,跨度预测模块以对话上下文编码模块的 token 级表示、、作为输入。每个 token 表示 $t_i$ 通过一个公共层线性投影,其输出值 $α_i^s$ 和 $β_i^s$ 分别对应于开始位置和结束位置。然后将 Softmax 应用于位置值,以生成所有 token 上的概率分布,这样可以确定 $s$ 的槽值跨度(开始和结束位置)。

【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer

每个插槽的预测参数,由 $\Phi{span}^s = {W{span}^s,b_{span}^s }$ 表示,在我们的 DST 数据集上从头开始训练。

Dialogue State Update Mechanism

为了跟踪对话状态,作者使用了一种基于规则的更新机制。如果模型对槽的预测是 dontcare 或 span(即 none 以外的任何值),它将用于更新对话状态。否则,插槽的对话状态将与上一回合保持相同。

Parameter Sharing

虽然分类和跨度预测模块是特定于插槽的(每个槽相互独立),但对话上下文编码模块生成的上下文表示可以在插槽之间共享;也就是说,可以在所有插槽的对话上下文编码模块中应用参数共享。在所有插槽中共享对话上下文编码器参数 $Φ_{BERT}$ 不仅大大减少了模型参数的数量,还允许插槽之间的知识转移,这可能会有利于上下文关系的理解。在下面的部分中,作者将特定于插槽的 BERT-DST 模型的联合架构称为 BERT-DST_SS 以及 编码模块参数共享为 BERT-DSTPS。

Slot Value Dropout

为了防止模型对某些富样本插槽训练过度导致过拟合,这会对 OOV 插槽值上的性能造成不利损害。为了提高 unseen 的槽值的鲁棒性,在训练阶段,我们用特定概率的特殊 [UNK] 令牌替换每个目标槽值 token。

实验

数据集

本文在四个基准数据集上评估模型:Sim-M,Sim-R,DSTC2 和 WOZ2.0。这些数据集的统计数据见下表:

【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer

实现细节

使用预训练的 [BERT-Base,Uncased] 模型,它有 12 个 768 个单元的隐藏层和 12 个自注意头用于小写的输入文本。插槽的跨度预测损失设置为零。总损失定义为【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer,其中 $\mathcal{L}^{xent}$ 表示相应预测目标的 交叉熵损失 。使用ADAM 优化 更新了模型中的所有层,其初始学习率为 2e−5,并在验证集中进行早停止(Early stop)。在训练期间,对对话上下文编码器的输出使用 30% 的 Dropout rate。

结果

【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer
【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer


【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer
【论文笔记】Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer

结论

BERT-DST,一个可扩展的端到端对话状态跟踪器,以处理未知的本体和 unseen 的插槽值。不需要候选值,而是 BERT-DST 直接从对话上下文预测槽值。关键组件是 BERT 对话上下文编码模块,它生成从上下文模式中提取插槽的有效值。对 SimM 和 Sim- R 数据集的经验评估表明,所提出的具有 槽值 Dropout 技术 编码器参数共享 的 BERT-DST 模型的有效性。

正文完
 
yhlin
版权声明:本站原创文章,由 yhlin 2023-01-17发表,共计2704字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。