查看原文
其他

Elasticsearch词频统计实现与原理解读

铭毅天下 铭毅天下 2019-04-16

0、实战问题

有了分词,开发中会遇到,某个索引的文档集合中,共有多少XX关键词?
这就引发出了词频统计的问题。
社区问题:

中文分词后能否统计索引词频
初学者,想做一个简单的论坛检索和热词分析的应用,IK分词后能否将分好的索引词出现频率排序。这样可以形成一个大致的热点词汇范围。

我知道单条index的话可以用termvectors做这个事情,要是上万条index能做吗? 多谢!

1、创建索引

1DELETE message_index
2PUT message_index
3{
4   "mappings": {
5    "_doc":{
6       "properties":{
7            "message": {
8               "analyzer": "ik_smart",
9               "term_vector": "with_positions_offsets",
10                "boost": 8,
11                "type": "text",
12                "fielddata":"true"
13            }
14        }
15    }
16  }
17}

2、导入数据

1POST message_index/_doc/1
2{
3  "message":"沉溺于「轻易获得高成就感」的事情:有意无意地寻求用很小付出获得很大「回报」的偏方,哪怕回报是虚拟的"
4}
5POST message_index/_doc/2
6{
7  "message":"过度追求“短期回报”可以先思考这样一个问题:为什么玩王者荣耀沉溺我们总是停不下来回报"
8}
9POST message_index/_doc/3
10{
11  "message":"过度追求的努力无法带来超额的回报,就因此放弃了努力。这点在聪明人身上尤其明显。以前念本科的时候身在沉溺"
12}

3、聚合获取词频

1POST message_index/_search
2{
3   "size" : 0,  
4    "aggs" : {  
5        "messages" : {  
6            "terms" : {  
7               "size" : 10,
8              "field" : "message"
9            }  
10        }  
11    }
12}

4、返回结果

1{
2  "took": 4,
3  "timed_out": false,
4  "_shards": {
5    "total": 5,
6    "successful": 5,
7    "skipped": 0,
8    "failed": 0
9  },
10  "hits": {
11    "total": 3,
12    "max_score": 0,
13    "hits": []
14  },
15  "aggregations": {
16    "messages": {
17      "doc_count_error_upper_bound": 0,
18      "sum_other_doc_count": 45,
19      "buckets": [
20        {
21          "key": "回报",
22          "doc_count": 3
23        },
24        {
25          "key": "沉溺",
26          "doc_count": 2
27        },
28        {
29          "key": "的",
30          "doc_count": 2
31        },
32        {
33          "key": "过度",
34          "doc_count": 2
35        },
36        {
37          "key": "追求",
38          "doc_count": 2
39        },
40        {
41          "key": "一个",
42          "doc_count": 1
43        },
44        {
45          "key": "为什么",
46          "doc_count": 1
47        },
48        {
49          "key": "了",
50          "doc_count": 1
51        },
52        {
53          "key": "事情",
54          "doc_count": 1
55        },
56        {
57          "key": "付出",
58          "doc_count": 1
59        }
60      ]
61    }
62  }
63}

5、核心知识点解读

"fielddata":"true" 是什么?

5.1 基础认知:text类型不能用于聚合

所有字段是默认被 indexed(被索引的),这使得它们是可搜索的.可以在脚本中排序,聚合和获取字段值,但是需要不同的搜索模式.

搜索需要回答一个问题 “哪个 document(文档) 包含这个 term(词条)”,然而排序和聚合需要回答一个不同的问题 " 这个字段在这个 document(文档)中的值是多少?".

许多字段可以使用 index-time,在磁盘上的 doc_values 支持这种数据访问模式, 但是 text 字段不支持 doc_values

5.2 docvalues和fileddata的本质区别?

docvalues 它保存某一列的数据,并索引它,用于加快聚合和排序的速度。

fileddata 它保存某一列的数据,并索引它,用于加快聚合和排序的速度。和docvalues不一样的是,fielddata保存的是text类型的字段分词后的terms,而不是保存源字段数据。

5.3 fileddata的特点

相反,text 字段使用查询时存在于内存的数据结构 fielddata.这个数据结构是第一次将字段用于聚合,排序,或者脚本时基于需求构建的。

它是通过读取磁盘上的每个 segment(片段)的整个反向索引来构建的,将 term(词条)和 document(文档)关系反转,并将结果存储在内存中,在JVM的堆中.

5.4 text字段默认关闭Fielddat的原因?

text 字段默认关闭 Fielddata Fielddata会消耗很多堆空间,尤其是加载高基数的 text 字段的时候.一旦 fielddata 加载到堆中,它在 segment(片段)中的生命周期还是存在的.

此外,加载 fielddata 是一件非常昂贵的过程,会导致用户体验到延迟的感觉.这就是为什么 fielddata 默认关闭.

如果你尝试对文本字段上的脚本进行排序,访问值,你会看到此异常:

5.5 fielddata的打开方式?

以下ES6.2.X验证ok。

1PUT my_index/_mapping/_doc
2{
3  "properties": {
4    "my_field": {
5      "type":     "text",
6      "fielddata": true
7    }
8  }
9}


参考:
http://t.cn/R3MzYfZ
http://t.cn/R3MzHkJ
通透讲解:http://t.cn/R3MzRiz
fielddata中文:http://t.cn/R3MznOe
fielddata英文:http://t.cn/R3Mz3eN

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存