在业务中经常会用到拼音匹配查询, 大家都会用到拼音分词器, 但是拼音分词器匹配的时候有个问题, 就是会出现同音字匹配, 有时候这种情况是业务不希望出现的.
业务场景: 我输入 "纯生 pi 酒" 进行搜索, 文档中有以下数据:
- doc[1]:{
- "name":"纯生啤酒"
- }
- doc[2]:{
- "name":"春生啤酒"
- }
- doc[3]:{
- "name":"纯生劈酒"
- }
以上业务点是我输入 "纯生 pi 酒" 理论上业务希望只返回 doc[1]:{"name":"纯生啤酒"}和 doc[3]:{"name":"纯生劈酒"}其他的不是我要的数据, 因为从业务角度来看, 我已经输入 "纯生" 了, 理论上只需要返回有 "纯生" 的数据 (当然也有很多情况, 会希望把 "春生" 也返回来), 正常使用拼音分词器, 会把 doc[2] 也会返回, 原因是拼音分词器会把 doc[2]变成:
- {
- "tokens": [
- {
- "token": "c",
- "start_offset": 0,
- "end_offset": 1,
- "type": "word",
- "position": 0
- },
- {
- "token": "chun",
- "start_offset": 0,
- "end_offset": 1,
- "type": "word",
- "position": 0
- },
- {
- "token": "s",
- "start_offset": 1,
- "end_offset": 2,
- "type": "word",
- "position": 1
- },
- {
- "token": "sheng",
- "start_offset": 1,
- "end_offset": 2,
- "type": "word",
- "position": 1
- },
- {
- "token": "p",
- "start_offset": 2,
- "end_offset": 3,
- "type": "word",
- "position": 2
- },
- {
- "token": "pi",
- "start_offset": 2,
- "end_offset": 3,
- "type": "word",
- "position": 2
- },
- {
- "token": "j",
- "start_offset": 3,
- "end_offset": 4,
- "type": "word",
- "position": 3
- },
- {
- "token": "jiu",
- "start_offset": 3,
- "end_offset": 4,
- "type": "word",
- "position": 3
- }
- ]
- }
由于 "纯生" 和 "春生" 是同音字, 分词结果 doc[1]和 doc[2]是一样的, 所以把 doc[2]匹配上就是理所当然了, 那么如何解决?
其实我们的需求是就当输入搜索文本时 (搜索文本中可能同时存在中文 / 拼音), 搜索文本中有[中文] 则按[中文] 匹配, 有 [拼音] 则按 [拼音] 匹配即可, 这样就屏蔽掉了输入中文时匹配到同音字的问题. 那么我们可以这样思考, 我们索引的时候同时存在 全拼 / 简拼 / 中文 三种分词, 搜索的时候 输入中有中文则按中文一个个分开, 有英文则按拼音进行分词即可 例如:
索引时 "纯生啤酒" 分词为:
索引分词:
- {
- "tokens": [
- {
- "token": "c",
- "start_offset": 0,
- "end_offset": 1,
- "type": "word",
- "position": 0
- },
- {
- "token": "chun",
- "start_offset": 0,
- "end_offset": 1,
- "type": "word",
- "position": 0
- },
- {
- "token": "纯",
- "start_offset": 0,
- "end_offset": 1,
- "type": "word",
- "position": 0
- },
- {
- "token": "s",
- "start_offset": 1,
- "end_offset": 2,
- "type": "word",
- "position": 1
- },
- {
- "token": "sheng",
- "start_offset": 1,
- "end_offset": 2,
- "type": "word",
- "position": 1
- },
- {
- "token": "生",
- "start_offset": 1,
- "end_offset": 2,
- "type": "word",
- "position": 1
- },
- {
- "token": "p",
- "start_offset": 2,
- "end_offset": 3,
- "type": "word",
- "position": 2
- },
- {
- "token": "pi",
- "start_offset": 2,
- "end_offset": 3,
- "type": "word",
- "position": 2
- },
- {
- "token": "啤",
- "start_offset": 2,
- "end_offset": 3,
- "type": "word",
- "position": 2
- },
- {
- "token": "j",
- "start_offset": 3,
- "end_offset": 4,
- "type": "word",
- "position": 3
- },
- {
- "token": "jiu",
- "start_offset": 3,
- "end_offset": 4,
- "type": "word",
- "position": 3
- },
- {
- "token": "酒",
- "start_offset": 3,
- "end_offset": 4,
- "type": "word",
- "position": 3
- }
- ]
- }
搜索 "纯生 pi 酒", 分词为:
搜索分词:
- {
- "tokens": [
- {
- "token": "纯",
- "start_offset": 0,
- "end_offset": 1,
- "type": "word",
- "position": 0
- },
- {
- "token": "生",
- "start_offset": 1,
- "end_offset": 2,
- "type": "word",
- "position": 1
- },
- {
- "token": "pi",
- "start_offset": 2,
- "end_offset": 4,
- "type": "word",
- "position": 2
- },
- {
- "token": "酒",
- "start_offset": 4,
- "end_offset": 5,
- "type": "word",
- "position": 3
- }
- ]
- }
这样就可以只匹配出有 "纯"|"生"|"酒" 这几个字的数据了, 而不是把 "春" 字的 doc 也匹配出来, 既然解决思路有了, 就找方案了.
由于目前的 es 的拼音分词器是没有分离中文并保留中文的功能, 所以就需要修改其源码增加这个功能(使用的拼音分词器: )
源码的话在上面地址上可以下在, 源码的原理大概讲一下, 就是他调用一个 nlp 工具包 ( https://github.com/NLPchina ) 先对输入文本解析成拼音 即 "纯生 pi 酒" 会解析成 ["chun","sheng",null,null,"酒"] 数组 (这里再提一句这个 nlp 工具包会对词组进行解析, 而不是单个字进行解析例如 "厦 / 门" 会解析成 "xia/men" 而不是 "sha/men" 这个确实有用很多, 当然他还有很多工具, 例如简繁体转化等等, 大家可以学习使用一哈), 然后再单独对英文数字放到 buff 里面进行二次匹配, 采用 "正向最大匹配" 和 "逆向最大匹配" 取出最优解(这些都是常用的分词手法) 匹配出拼音字符, 源代码如下:
- // 分别正向, 逆向最大匹配, 选出最短的作为最优结果
- List<String> forward = positiveMaxMatch(pinyinText, PINYIN_MAX_LENGTH);
- if (forward.size() == 1) { // 前向只切出 1 个的话, 没有必要再做逆向分词
- pinyinList.addAll(forward);
- } else {
- // 分别正向, 逆向最大匹配, 选出最短的作为最优结果
- List<String> backward = reverseMaxMatch(pinyinText, PINYIN_MAX_LENGTH);
- if (forward.size() <= backward.size()) {
- pinyinList.addAll(forward);
- } else {
- pinyinList.addAll(backward);
- }
- }
至于拼音字典匹配结构由于拼音的数量不多, 拼音源码采用了 HashSet 的结构而不是我们 ik 里面的字典树.("正向最大匹配" 和 "逆向最大匹配" 百度一大把就不在这说了)
原理大概讲完了根据需求我们是不需要管英文数字这一块的匹配逻辑的, 只需要修改中文转拼音这附近的逻辑即可.
首先我们先写一个中文分割的工具类或者方法如下:
- public class ChineseUtil {
- /**
- * 汉字始
- */
- public static char CJK_UNIFIED_IDEOGRAPHS_START = '\u4E00';
- /**
- * 汉字止
- */
- public static char CJK_UNIFIED_IDEOGRAPHS_END = '\u9FA5';
- public static List<String> segmentChinese(String str){
- if (StringUtil.isBlank(str)) {
- return Collections.emptyList();
- }
- List<String> lists = str.length()<=32767?new ArrayList<>(str.length()):new LinkedList<>();
- for (int i=0;i<str.length();i++){
- char c = str.charAt(i);
- if(c>=CJK_UNIFIED_IDEOGRAPHS_START&&c<=CJK_UNIFIED_IDEOGRAPHS_END){
- lists.add(String.valueOf(c));
- }
- else{
- lists.add(null);
- }
- }
- return lists;
- }
- }
汉字始或者汉字止这个查一下 nlp 工具的源码 (PinyinUtil) 就可以找到, 或者百度. 然后在拼音源码中的 PinyinConfig 类中添加一项中文分割的配置:
默认 false 就可以了, 然后我们需要修改两个类(PinyinTokenFilter/PinyinTokenizer), 这两个类是最要的分词类, 对应 es 的 analysis 的 filter 和 tokenizer
由于这两个类修改地方是一样的我就随便讲一个, 首先需要修改构造器的校验, 添加刚刚增加的配置:
然后修改该类的 readTerm()方法, 如下:
两个类都修改完就完成源码修改了, 现在需要对源码重新进行打包, mvn install 以下就可以了, 你就会拿到 Elasticsearch-analysis-pinyin-5.6.4.jar(你下载源码的时候要下载 release 的版本进行修改, 版本也要对应你的 es 哦), 同时在源码的 lib 拿到 nlp-lang-1.7.jar 包 , 再加上 resource 中的 plugin-descriptor.properties(这个需要定义插件版本, 启动类等东西, 这个去拼音 release 版本中找个可用的插件解压一下跟着配置就可以了), 最后变成下面这个样子:
放在一个文件夹里面, 这个就是打包好的插件了, 名字自己命名即可, 然后放到 es 的 plugin 目录里面就完成修改了.
剩下就是修改 index 的 setting 和 mapping, 修改思想就是按照开头说的那样 search_analyzer 和 analyzer 分开即可, 如下:
- PUT /test_index
- {
- "settings": {
- "analysis": {
- "analyzer": {
- "pinyin_chinese_analyzer": {
- "tokenizer": "pinyin_tokenizer"
- },
- "pinyin_analyzer": {
- "tokenizer": "pinyin_chinese_tokenizer"
- }
- },
- "tokenizer": {
- "pinyin_chinese_tokenizer": {
- "type": "pinyin",
- "keep_first_letter": false,
- "keep_separate_first_letter": false,
- "keep_full_pinyin":false,
- "keep_original":false,
- "limit_first_letter_length":50,
- "keep_separate_chinese": true,
- "lowercase":true
- },
- "pinyin_tokenizer": {
- "type": "pinyin",
- "keep_first_letter": false,
- "keep_separate_first_letter": true,
- "keep_full_pinyin":true,
- "keep_original":false,
- "limit_first_letter_length":50,
- "keep_separate_chinese": true,
- "lowercase":true
- }
- }
- }
- }
- , "mappings": {
- "indexType":{
- "properties": {
- "name":{
- "type": "text",
- "search_analyzer": "pinyin_chinese_analyzer",
- "analyzer": "pinyin_analyzer"
- }
- }
- }
- }
- }
查询使用 match_pharse 即可(使用原理可以参考我的文章 https://www.cnblogs.com/danvid/p/10570334.html), 当然也可以用其他, 根据业务来把.
总结: 修改原理比较简单, 主要就是多思考找到解决思路, 再实现方案, 多看源码~好好学习, 天天向上, 有问题或者困难欢迎留言沟通
[说明]:Elasticsearch 版本 5.6.4
来源: https://www.cnblogs.com/danvid/p/10691547.html