导读: 过去 20 多年, 互联网及移动互联网将人类带到了一个全新的时代, 如果用一个词来总结和概括这个时代的话, 连接这个词再合适不过了这个时代主要建立了四种连接: 第一, 人和商品的连接; 第二, 人和人的连接; 第三, 人和信息的连接; 第四, 人和设备的连接
连接本身不是目的, 它只是为交互建立了通道在人机交互 (Human-Computer Interaction) 中, 人通过输入设备给机器输入相关信号, 这些信号包括语音文本图像触控等中的一种模态或多种模态, 机器通过输出或显示设备给人提供相关反馈信号连接为交互双方架起了桥梁
交互的演进方向是更加自然高效友好和智能对人来说, 采用自然语言与机器进行智能对话交互是最自然的交互方式之一, 但这条路上充满了各种挑战如何让机器理解人类复杂的自然语言? 如何对用户的提问给出精准的答案而不是一堆候选? 如何更加友好地与用户闲聊而不是答非所问? 如何管理复杂的多轮对话状态和对话上下文? 在阿里巴巴, 我们从 2014 年初开始对智能对话交互进行探索和实践创新, 研发成果逐步大规模应用在了智能客服 (针对阿里巴巴生态内部企业的阿里小蜜针对阿里零售平台上的千万商家的店小蜜, 以及针对阿里之外企业及政府的云小蜜等) 和各种设备 (如 YunOS 手机天猫魔盒互联网汽车等) 上
本文将对阿里巴巴在智能对话交互技术上的实践和创新进行系统的介绍首先简要介绍智能对话交互框架和主要任务; 接下来详细介绍自然语言理解智能问答智能聊天和对话管理等核心技术; 然后介绍阿里巴巴的智能对话交互产品; 最后是总结和思考强烈建议收藏细看!
1 智能对话交互框架
典型的智能对话交互框架如图 1 所示其中, 语音识别模块和文本转语音模块为可选模块, 比如在某些场景下用户用文本输入, 系统也用文本回复自然语言理解和对话管理是其中的核心模块, 广义的自然语言理解模块包括对任务类问答类和闲聊类用户输入的理解, 但在深度学习兴起后, 大量端到端 (End-to-End) 的方法涌现出来, 问答和聊天的很多模型都是端到端训练和部署的, 所以本文中的自然语言理解狭义的单指任务类用户输入的语义理解在图 2 所示的智能对话交互核心功能模块中, 自然语言理解和对话管理之外, 智能问答用来完成问答类任务, 智能聊天用来完成闲聊类任务在对外输出层, 我们提供了 SaaS 平台 PaaS 平台和 BotFramework 三种方式, 其中 Bot Framework 为用户提供了定制智能助理的平台
图 1 智能对话交互框架
2 智能对话交互核心技术
智能对话交互中的核心功能模块如图 2 所示, 本部分详细介绍智能对话交互中除输出层外的自然语言理解智能问答智能聊天和对话管理四个核心模块
图 2 智能对话交互中的核心功能模块
2.1 自然语言理解
自然语言理解是人工智能的 AI-Hard 问题[1], 也是目前智能对话交互的核心难题机器要理解自然语言, 主要面临如下的 5 个挑战
(1)语言的多样性
(2)语言的多义性
(3)语言的表达错误
(4)语言的知识依赖
(5)语言的上下文
表 1 上下文示例
U:上海明天的天气 < br style="max-width: 100%;box-sizing: border-box !important;word-wrap: break-word !important;" ow="0" oh="0">A:上海明天天气…… | U:那你嫁给我吧 A:我妈说我还小 U:我问过你妈了她说同意你嫁给我 |
继续延续问天气 | 如何正确的把闲聊接下去 |
注: U 指用户 (user),A 指智能体(agent) 下同
整个自然语言理解围绕着如何解决以上难点问题展开
2.1.1 自然语言理解语义表示
自然语言理解的语义表示主要有三种方式[2]
(1)分布语义表示(Distributional semantics)
(2)框架语义表示(Frame semantics)
(3)模型论语义表示(Model-theoretic semantics)
在智能对话交互中, 自然语言理解一般采用的是 framesemantics 表示的一种变形, 即采用领域 (domain) 意图 (intent) 和属性槽 (slots) 来表示语义结果, 如图 3 所示
图 3 domain ongology 示意图
在定义了上述的 domain ontology 结构后, 整个算法流程如图 4 所示
图 4 自然语言理解流程简图
2.1.2 意图分类
意图分类是一种文本分类, 主要分为基于规则的方法基于传统机器学习的方法和基于深度学习的方法, 如 CNN [3]LSTM [4]RCNN [5]C-LSTM [6]及 FastText[7]等针对 CNNLSTMRCNNC-LSTM 四种典型的模型框架, 我们在 14 个领域的数据集上进行训练, 在 4 万左右规模的测试集上进行测试, 采用 Micro F1 作为度量指标 (注: 此处的训练和测试中, 神经网络的输入只包含 word embedding, 没有融合符号表示), 结果如图 5 所示, 其中 Yoon Kim 在 2014 年提出的基于 CNN[3] 的分类算法效果最好
图 5 四种模型的分类效果对比
单纯以 word vector 为输入的 CNN 分类效果, 在某些领域上无法超越复杂特征工程的 SVM 分类器如何进一步提升深度学习的效果, 其中一个探索方向就是试图把分布式表示和符号表示进行融合比如对于刘德华的忘情水这句话, 通过知识库可以标注刘德华为 singer 忘情水为 song, 期望能把 singer 和 song 这样的符号表示融入到网络中去具体融合方法, 既可以把符号标签进行 embedding, 然后把 embedding 后的 vector 拼接到 wordvector 后进行分类, 也可以直接用 multi-hot 的方式拼接到 word vector 后面分布式表示和符号表示融合后的 CNN 结构如图 6 所示
图 6 分布式表示和符号表示融合后的 CNN 分类网络结构
经过融合后, 在 14 个领域约 4 万条测试数据集上, 对比融合前后的 F1 值(如图 7 所示), 从中可以看出, 像餐厅酒店音乐等命名实体多且命名形式自由的领域, 效果提升非常明显
图 7 在 CNN 中分布式表示融合符号表示前后效果对比
在以词为输入单位的 CNN 中, 经常会遇到 OOV(Out-Of-Vocabulary)问题, 一般情况下会使用一个特殊向量 (比如固定的随机向量或者已知词向量的平均值) 来表示所有的 OOV, 这样做的效果肯定不够好在我们的实现中, 引入了 FastText [8]来训练 word vector, 对于 OOV, 可以用其 subword 向量计算得到, 有效地解决了 OOV 的问题
在效果优化方面, 除了本文中所述的 word vector 的动态训练和 dropout 之外, 通过对训练数据进行数据增强(data augmentation), 效果会有较大的提升
2.1.3 属性抽取
属性抽取问题可以抽象为一个序列标注问题, 可以以字为单位进行序列标注, 也可以以词为单位进行序列标注, 如图 8 所示为以词为单位进行序列标注的示例在这个例子中包含 departuredestination 和 time 三个待标注标签; B 表示一个待标注标签的起始词; I 表示一个待标注标签的非起始词, O 表示非待标注标签词
图 8 序列标注示例
属性抽取的方法, 包括基于规则的方法, 基于传统统计模型的方法, 经典的如 CRF[9], 以及基于深度学习模型的方法 2014 年, 在 ARTIS 数据集上, RNN[10]模型的效果超过了 CRF 此后, R-CRF [11]LSTM[12]Bi-RNN[13] Bi-LSTM-CRF[14]等各种模型陆续出来
在属性抽取这个任务中, 我们采用了如图 9 的网络结构, 该结构具有以下优点
图 9 属性抽取网络结构
(1)输入层
在输入层, 我们做了三部分工作: 采用了分布式表示 (word vector) 和符号表示 (symbol vector) 融合的方式, 有效利用了分布式的上下文学习能力和符号的抽象知识表示能力; 采用了局部上下文窗口 (local context window), 将窗口内的词的表示拼接在一起送入一个非线性映射层, 非线性映射具有特征学习和特征降维的作用; 采用了 FastText [8] 进行 word embedding 的学习, 可以有效解决 OOV(Out-Of-Vocabulary)的问题
(2)Bi-LSTM 层
在中间的隐藏层, 采用 Bi-LSTM 进行特征学习, 既能捕捉上文特征, 也能捕捉下文特征
(3)输出层
在输出层有几种典型的做法, 比如 Bi-LSTM+SoftmaxBi-LSTM+CRF 等, Bi-LSTM+Softmax 是把属性抽取在输出层当成了一个分类问题, 得到的标注结果是局部最优, Bi-LSTM+CRF 在输出层会综合句子层面的信息得到全局最优结果
2.1.4 意图排序
在表 1 中, 我们展示了一个例子, 如果不看上下文, 无法确定后天呢的意图为了解决这个问题, 在系统中我们设计了意图排序模块, 其流程如图 10 所示对于用户输入的 utterance, 一方面先利用分类抽取模型去判定意图并做抽取; 另一方面, 直接继承上文的意图, 然后根据这个意图做属性抽取这两个结果通过特征抽取后一起送入一个 LR 分类器, 以判定当前 utterance 是应该继承上文的意图, 还是遵循分类器分类的意图如果是继承上文意图, 那么可以把这个意图及其属性抽取结果作为最终结果输出; 如果是遵循分类器分类的结果, 那么可以把各个结果按照分类器分类的置信度排序输出
图 10 基于上下文的意图延续判定
2.2 智能问答
在具体的业务场景中有三种典型的问答任务, 一是用户提供 QA-Pairs, 一问一答; 二是建立结构化的知识图谱, 进行基于知识图谱的问答; 三是针对非结构化的文本, 进行基于阅读理解的问答本文重点介绍我们在阅读理解方面做的工作, 比如利用阅读理解解决淘宝活动规则的问答
在阅读理解的方法上, 目前针对斯坦福大学的数据集 SquAD, 有大量优秀的方法不断涌现, 比如 match-LSTM [15]BiDAF [16]DCN [17] FastQA [18]等文献 [18] 给出了目前的通用框架, 如图 11 所示, 主要分为 4 层: Word Embedder, 对问题和文档中的词进行 embedding; Encoder, 对问题和文档进行编码, 一般采用 RNN/LSTM/BiLSTM; Interaction Layer(交互层), 在问题和文档之间逐词进行交互, 这是目前研究的热点, 主流方法是采用注意力机制(attention); Answer Layer(答案层), 预测答案的起始位置和结束位置
图 11 阅读理解的通用框架
我们在具体实现中, 参考 BiDAF [16]网络结构, 在此基础上做了大量优化
(1)模型的业务优化
需要改进模型的结构设计, 使得模型可以支持电商文档格式的输入电商规则文档往往包含大量的文档结构, 如大小标题和文档的层级结构等, 将这些特定的篇章结构信息一起编码输入到网络中, 将大幅提升训练的效果
(2)模型的简化
学术文献中的模型一般都较为复杂, 而工业界场景中由于对性能的要求, 无法将这些模型直接在线上使用, 需要做一些针对性的简化, 使得模型效果下降可控的情况下, 尽可能提升线上预测性能, 例如可以简化模型中的各种 bi-lstm 结构
(3)多种模型的融合
当前这些模型都是纯粹的 end-to-end 模型, 其预测的可控性和可解释性较低, 要适用于业务场景的话, 需要考虑将深度学习模型与传统模型进行融合, 达到智能程度和可控性的最佳平衡点
2.3 智能聊天
面向 open domain 的聊天机器人目前无论在学术界还是在工业界都是一大难题, 目前有两种典型的方法: 一是基于检索的模型, 比如文献[19-20], 其基本思路是利用搜索引擎通过计算相关性来给出答案; 二是基于 Seq2Seq 的生成式模型, 典型的方法如文献[21-22], 其网络结构如图 12 所示
图 12 Seq2Seq 典型网络结构
检索模型的优点是答案在预设的语料库中, 可控, 匹配模型相对简单, 可解释性强; 缺点是在一定程度上缺乏对语义的理解, 且有固定语料库的局限性, 长尾问题覆盖率较差生成模型的优点是通过深层语义方式进行答案生成, 答案不受语料库规模限制; 缺点是模型的可解释性不强, 且难以保证回答一致性和合理性
在我们的聊天引擎中, 结合检索模型和生成模型各自的优势, 提出了一种新的模型 AliMe Chat [23], 基本流程如图 13 所示首先采用检索模型从 QA 知识库中找出候选答案集合; 然后利用带注意力的 Seq2Seq 模型对候选答案进行排序, 如果第一候选的得分超过某个阈值, 则作为最终答案输出, 否则利用生成模型生成答案其中带注意力的 Seq2Seq 模型结构如图 14 所示经过训练后, 主要做了如下测试: 如图 15 所示, 利用 600 个问题的测试集, 测试了检索 (IR) 生成 (Generation) 检索 + 重排序 (Rerank) 及检索 + 重排序 + 生成 (IR+Rerank+Generation) 四种方法的效果, 可以看到在阈值为 0.19 时, IR+Rerank+Generation 的方法效果最好
图 13AliMe Chat 流程图
图 14 带注意力的 Seq2Seq 网络结构示例
图 15 IRGenerationRerankIR+Rerank+Generation 效果对比
此模型在阿里小蜜中上线后, 示例如图 16 所示在阿里小蜜中, 针对之前的 IR 模型和 AliMe Chat 模型, 利用线上流量做了 A/B Test, 结果如图 17 所示从用户日志中随机选择 2 136 条数据, 其中 1 089 是采用 IR 模型回答, 另外 1 047 是采用 AliMe Chat 回答, AliMe Chat Top1 答案的准确率 (accuracy) 是 60.36%, 远远好于 IR 的 40.86%
图 16AliMe Chat 在阿里小蜜中上线后的聊天示例
图 17 阿里小蜜中 IR 方法与 AliMe Chat 方法 A/BTest 结果
2.4 对话管理
对话管理根据语言理解的结构化语义表示结果以及上下文, 来管理整个对话的状态, 并决定下一步采取什么样的动作
下面来看一个简单的对话例子
U: 我要去杭州, 帮我订一张火车票
A: 请问你什么时间出发?
U: 明天上午
A: 为你找到了以下火车票:
U: 我要第二个
A: 第二个是, 您是否要购买?
U: 我要购买
对话交互分成两个阶段, 第一阶段, 通过多轮对话交互, 把用户的需求收集完整, 得到结构化的信息(出发地目的地时间等); 第二阶段就是请求服务, 接着还要去做选择确定支付购买等后面一系列的步骤
传统的人机对话, 包括现在市面上常见的人机对话, 一般都是只在做第一阶段的对话, 第二阶段的对话做得不多对此, 我们设计了一套对话管理体系, 如图 18 所示, 这套对话管理体系具有以三个特点
第一, 设计了一套面向 Task Flow 的对话描述语言该描述语言能够把整个对话任务流完整地表达出来, 这个任务流就是类似于程序设计的流程图对话描述语言带来的好处是它能够让对话引擎和业务逻辑实现分离, 分离之后业务方可以开发脚本语言, 不需要修改背后的引擎
第二, 由于有了 Task Flow 的机制, 我们在对话引擎方带来的收益是能够实现对话的中断和返回机制在人机对话当中有两类中断, 一类是用户主动选择到另外一个意图, 更多是由于机器没有理解用户话的意思, 导致这个意图跳走了由于我们维护了对话完整的任务流, 知道当前这个对话处在一个什么状态, 是在中间状态还是成功结束了, 如果在中间状态, 我们有机会让它回来, 刚才讲过的话不需要从头讲, 可以接着对话
第三, 设计了对话面向开发者的方案, 称之为 OpenDialog, 背后有一个语言理解引擎和一个对话引擎面向开发者的语言理解引擎是基于规则办法, 能够比较好地解决冷启动的问题, 开发者只需要写语言理解的 Grammar, 基于对话描述语言开发一个对话过程, 并且还有对数据的处理操作这样, 一个基本的人机对话就可以完成了
图 18 对话管理框架图
3 阿里巴巴智能对话交互产品
3.1 智能服务小蜜家族
2015 年 7 月, 阿里巴巴推出了自己的智能服务助理 - 阿里小蜜, 一个围绕着电子商务领域中的服务导购, 以及任务助理为核心的智能对话交互产品通过电子商务领域与智能对话交互领域的结合, 带来传统服务行业模式的变革与体验的提升在 2016 年的双十一期间, 阿里小蜜整体智能服务量达到 643 万, 其中智能解决率达到 95%, 智能服务在整个服务量 (总服务量 = 智能服务量 + 在线人工服务量 + 电话服务量) 占比也达到 95%, 成为了双十一期间服务的绝对主力阿里小蜜主要服务阿里国内业务和阿里国际化业务, 国内业务如淘宝天猫飞猪健康闲鱼菜鸟等, 国际化业务如 LazadaPayTMAE 等
随着阿里小蜜的成功, 将智能服务能力赋能给阿里生态圈商家及阿里生态之外的企业和政府部门, 便成了必然的路径店小蜜主要赋能阿里生态中的商家, 云小蜜则面向阿里之外的大中小企业政府等整个小蜜家族如图 19 所示
图 19 小蜜家族
3.2 智能设备
过去 3~4 年, 我们可以看到, 连接互联网的设备发生了很大变化, 设备已经从 PC 和智能手机延伸到更广泛的智能设备, 比如智能音箱智能电视机器人智能汽车等设备智能设备的快速发展正在改变着人和设备之间的交互方式
我们研发的智能对话交互平台为各种设备提供对话交互能力, 目前在 YunOS 手机天猫魔盒互联网汽车等设备上已经大量应用比如在天猫魔盒中, 用户通过对话交互可以完成搜视频查音乐问天气等, 可以进行闲聊, 还可以进行购物
4 总结与思考
过去几年中, 结合阿里巴巴在电商客服智能设备方面的刚性需求和场景, 我们在智能对话交互上做了大量的探索和尝试, 构建了一套相对完整的数据算法在线服务离线数据闭环的技术体系, 并在智能服务和智能设备上得到了大规模的应用, 简单总结如下
(1) 自然语言理解方面, 通过 CNN/Bi-LSTM-CRF 等深度学习模型分布式表示和符号表示的融合多粒度的 wordembedding 基于上下文的意图排序等方法, 构建了规则和深度学习模型有机融合的自然语言理解系统
(2) 智能问答方面, 成功的将机器阅读理解应用在了小蜜产品中
(3) 智能聊天方面, 提出了 AliMe Chat 模型, 融合了搜索模型和生成模型的优点, 大大提高了闲聊的精度
(4) 对话管理方面, 设计了基于 Task Flow 的对话描述语言, 将业务逻辑和对话引擎分离, 并能实现任务的中断返回和属性的 carry-over 等复杂功能
在智能交互技术落地应用的过程, 我们也在不断思考怎么进一步提高智能交互技术水平和用户体验
第一, 坚持用户体验为先坚持用户体验为先, 就是产品要为用户提供核心价值
第二, 提高语言理解的鲁棒性和领域扩展性
第三, 大力发展机器阅读理解能力
第四, 打造让机器持续学习能力
第五, 打造数据闭环, 用数据驱动效果的持续提升
目前的人工智能领域仍然处在弱人工智能阶段, 特别是从感知到认知领域需要提升的空间还非常大智能对话交互在专有领域已经可以与实际场景紧密结合并产生巨大价值, 尤其在智能客服领域 (如阿里巴巴的小蜜) 随着人工智能技术的不断发展, 未来智能对话交互领域的发展还将会有不断的提升
- [1] https://en.wikipedia.org/wiki/Natural_language_understanding.
- [2]Percy Liang, Natural Language Understanding:Foundations and State-of-the-Art,ICML, 2015.
- [3]Yoon Kim, Neural Networks for Sentence Classification, EMNLP, 2014.
- [4] Suman Ravuri, and Andreas Stolcke, Recurrent Neural Network and LSTM Modelsfor Lexical Utterance Classification, InterSpecch, 2015.
- [5] Siwei Lai, Liheng Xu, Kang Liu, and Jun Zhao, Recurrent ConvolutionalNeural Networks for Text Classification, AAAI, 2015.
- [6] Chunting Zhou, Chonglin Sun, Zhiyuan Liu, and Francis C.M. Lau, A C-LSTMNeural Network for Text Classification, arXiv, 2015.
- [7]Armand Joulin, Edouard Grave, Piotr Bojanowski, and Tomas Mikolov, Bag ofTricks for Efficient Text Classification, EACL, 2017.
- [8] Piotr Bojanowski,Edouard Grave, Armand Joulin and Tomas Mikolov, EnrichingWord Vectors withSubword Information, TACL, 2017.
- [9] C. Raymond, and G.Riccardi, Generative and discriminative algorithms for spoken languageunderstanding, Interspeech, 2007.
- [10] Kaisheng Yao,Geoffrey Zweig, Mei-Yuh Hwang, Yangyang Shi, and Dong Yu, Recurrent neural networksfor language understanding, InterSpeech, 2013.
- [11] Kaisheng Yao,Baolin Peng, Geoffrey Zweig, Dong Yu, Xiaolong Li, and Feng Gao, Recurrent conditionalrandom field for language understanding, ICASSP, 2014.
- [12] Kaisheng Yao,Baolin Peng, Yu Zhang, Dong Yu, Geoffrey Zweig, and Yangyang Shi, Spokenlanguage understanding using long short-term memory neural networks, 2014 IEEESpoken Language Technology Workshop (SLT), 2014.
- [13] Grégoire Mesnil,Yann Dauphin, Kaisheng Yao, Yoshua Bengio, Li Deng, Dilek Hakkani-Tur, XiaodongHe, Larry Heck, Gokhan Tur, Dong Yu, and Geoffrey Zweig, Using Recurrent NeuralNetworks for Slot Filling in Spoken Language Understanding, TASLP, 2015
- [14] Guillaume Lample,Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer,Neural architectures for named entity recognition, NAACL, 2016.
- [15]Shuohang Wang, and Jing Jiang, Machine comprehension using match-lstm andanswer pointer, ICLR, 2017.
- [16]Minjoon Seo, Aniruddha Kembhavi, Ali Farhadi, and Hananneh Hajishirzi,Bidirectional attention flow for machine comprehension, ICLR, 2017.
- [17]Caiming Xiong, Victor Zhong, and Richard Socher, Dynamic coattention networksfor question answering, ICLR, 2017.
- [18]Dirk Weissenborn, Georg Wiese, and Laura Seiffe, Making Neural QA as Simple asPossible but not Simpler, arXiv, 2017.
- [19] Zongcheng Ji,Zhengdong Lu, and Hang Li, An information retrieval approach to short textconversation, arXiv, 2014.
- [20] Zhao Yan, NanDuan, Jun-Wei Bao, Peng Chen, Ming Zhou, Zhoujun Li, and Jianshe Zhou, Docchat:An information retrieval approach for chatbot engines using unstructureddocuments, ACL, 2016.
- [21] Dzmitry Bahdanau,Kyunghyun Cho, and Yoshua Bengio, Neural machine translation by jointly learningto align and translate, ICLR, 2015.
- [22] Oriol Vinyals, andQuoc V. Le., A neural conversational model, ICML Deep Learning Workshop, 2015.
- [23] Minghui Qiu,Feng-Lin Li, Siyu Wang, et al., AliMe Chat: A Sequence to Sequence and Rerankbased Chatbot Engine, ACL, 2017.
来源: https://mp.weixin.qq.com/s?__biz=MzU2NzQxNzkxMw==&mid=2247483718&idx=1&sn=7f48ddc8bf3e71c3b6da9b703196e851&chksm=fc9ccc10cbeb4506155875cbf39b27a63f1bb25a737c6903fe787552558d5f566c9398a4341d#rd