基本认知
曾经我认为 Rasa_NLU 是一个意图识别工具, 如今我意识到并不是, Rasa_NLU 只是一个自然语言理解 (NLU:Natural Language Understanding 的一个框架, 它本身并不做任何识别的工作, 真正的训练与识别工作是交由框架管理的各个组件来完成的.
Rasa_NLU 框架的主要工作是:
组件管理
训练数据管理
模型管理
提供 Http 服务
大体结构图如下:
结构图
组件管理
前面说过, Rasa NLU 框架是通过管理的组件完成意图识别的. 而这个识别的过程并不是一步到位的, 需要多个组件的分工合作来完成. 组件之间就如同流水线作业一样, 每个组件处理加工输入数据并输出处理结果供其它组件使用或者是作为最终输出. 这样, 可以为每个步骤提供不同的处理方式.
在介绍组件的管理之前, 先大概了解一下组件的类型及各个类型的工作职责, 以便大致了解意图识别的工作流程. 组件的类型分为五类:
初始化组件: 作用是初始化其它组件工作所需的内容. 代码放在 utils 目录下. 目前包含了 mitie_util 与 spacy_util 两个.
分词组件 (tokenizer): 作用是将输入的句子切分成一个个单独的词.
实体提取组件 (extractor): 作用是根据切分好的词提取设定的关键词.
特征提取组件 (featurizer): 作用是根据切分好的词提取句子的特征.
意图识别组件 (classifier): 作用是根据提取出来的特征识别意图.
框架将组件的配置存放在一个 YAML 文件中, 示例:
- pipeline:
- - name: "nlp_mitie"
- model: "data/total_word_feature_extractor_zh.dat"
- - name: "tokenizer_jieba"
- - name: "ner_mitie"
- - name: "ner_synonyms"
- - name: "intent_entity_featurizer_regex"
- - name: "intent_featurizer_mitie"
- - name: "intent_classifier_sklearn"
首先通过 config 加载配置文件, 然后通过 registry 查找配置文件中组件名对应的组件, 然后根据配置文件中每个组件指定的参数, 初始化各个组件.
训练数据管理
训练数据的组织形式有两种: 单个文件或者是一个目录.
如果是一个目录时, 该框架会自动加载这个目录下的全部文件数据, 并进行合并. 在训练数据比较多时, 非常有利于训练数据的管理.
训练数据的格式也有两种: JSON 格式或者是 Markdown 格式.
JSON 格式需要标记实体在句子中的位置, 而且比较繁琐. 因此个人比较喜欢使用 Markdown 格式.
- /*** JSON 格式 ***/
- {
- "text": "show me chinese restaurants",
- "intent": "restaurant_search",
- "entities": [
- {
- "start": 8,
- "end": 15,
- "value": "chinese",
- "entity": "cuisine"
- }
- ]
- }
- /*** Markdown 格式 ***/
- ## intent:restaurant_search
- - show me [chinese](cuisine) restaurant
显然, Markdown 格式比 JSON 格式要更清晰明了, 也更容易标记. 如果已经有了很多的 JSON 数据或者是只想保存 JSON 数据也没有关系, 框架还提供了 convert 可以轻松将 JSON 格式与 Markdown 格式互相转换.
训练数据的类型有四种:
意图 (intent): 意图就是普通的训练数据, 用于标记句子意图与句子中包含的实体.
同义词 (synonym): 同义词的作用是在实体被提取出来后, 转化为统一的词, 以便于后续的处理.
正则表达式 (regex): 正则表达式的作用是对于句子的, 而不是实体, 用于提供句子特征, 以便于意图的识别.
查找表 (lookup): 在框架的处理中会被理成一个大的正则表达式.
- /*** JSON 格式 ***/
- {
- "rasa_nlu_data": {
- "common_examples": [
- {
- "text": "hey",
- "intent": "greet"
- },
- {
- "text": "hello",
- "intent": "greet"
- }
- ],
- "entity_synonyms": [
- {
- "value": "savings",
- "synonyms": ["pink pig"]
- }
- ],
- "regex_features" : [
- {
- "name": "zipcode",
- "pattern": "[0-9]{5}"
- }
- ],
- "lookup_tables" : [
- {
- "name": "currencies",
- "elements": ["Yen", "USD", "Euro"]
- },
- {
- "name": "additional_currencies",
- "elements": "path/to/currencies.txt"
- }
- ]
- }
- }
- /*** Markdown 格式 ***/
- ## intent:greet
- - hey
- - hello
- ## synonym:savings
- - pink pig
- ## regex:zipcode
- - [0-9]{5}
- ## lookup:currencies
- - Yen
- - USD
- - Euro
- ## lookup:additional_currencies
- path/to/currencies.txt
训练数据的加载
在框架源代码中, 所有训练数据的处理代码放在 training_data 包中. 通过包中的 longing 模块加载目录或文件中的各种格式的训练数据. 然后实例化各训练数据结构, 以待各组件训练模型时使用.
模型管理
模型的结构
在 Rasa_NLU 中有工程和模型的概念, 换个说法就是 Rasa_NLU 框架可以同时管理多个工程与模型. 其结构是模型的存储目录下可以有多个工程, 每个工程下又可以有多个模型.
模型的训练与存储
在训练时, model 模块中的 Trainer 使用 Pipeline 中指定并通过 config 模块加载完成的组件训练转换完成的训练的数据, 然后通过 persistor 模块将模型持久化.
persistor 模块中默认存储器可以将模型持久化到本地目录, 同时还提供了一些可将模型持久化到云服务中的存储器.
持久化的过程是初始化存储器及模型路径. 如果没有指定工程及模型, 模型将会被存储在 default 工程下的一个由框架生成的模型中, 模型名为当前时间. 然后, 再依次调用各个组件, 将各个组件中的模型数据持久化. 最后将 Pipeline 持久化到指定模型的 Metadata.JSON 中.
模型训练与存储的大致流程
模型的加载与使用
在训练完成并持久化存储后, 可以通过加载这个模型用来提取句子的意图及包含的实体. 前面有说到该框架有工程与模型的概念, 对应的, 在代码中也有相关的管理代码. 通过 project 来加载工程, model 来加载模型. 主要逻辑包含了默认模型的加载, default 工程下最新训练的模型, 指定工程与模型的加载, 以及加载远程云服务中存储的模型等.
提供 Http 服务
Rasa_NLU 框架还可以直接启动一个 web Service 服务, 以便于远程访问. 服务提供了模型的训练, 句子意图的分析, 模型的评估等基本功能, 还提供了模型的加载, 卸载, 服务状态等功能.
框架通过 server 模块启动服务并接收 http 请求, 然后再使用 data_router 模块分发使用各个功能模块, 执行请求的操作.
框架还通过在 data_router 中组合 emulator, 通过各 emulator 的实现格式化服务输出结过的格式.
来源: http://www.jianshu.com/p/3cdc6cd55a37