前面的文章有提到 Elasticsearch 因為是使用反向索引,所以會在建立 Document 時將句子拆開來以建立反向索引。而這個拆分的過程就是由分析器所執行的,分析器主要由三個部分所組成 :
下面我們就來了解分析器是如何運作的。
分析器就像流水線一樣,字串經過一關一關的處理,最後得到單詞。如下 :
字符過濾器用於對字串先進行預處理,也就是會先整理這些字串。例如,去除 html 標籤或是將 &
轉換成 and
。
分詞器會將處理過的字串進行分詞,也就是將字串拆分成單詞。
經過分詞後,單詞在經過單詞過濾器時可能會被改變,例如,大寫換成小寫、刪除無用的單詞 (a、and、the 等等) 或是新增單詞 (harmful、detrimental 這種同義詞)。
標準分析器是 Elasticsearch 默認使用的分析器,他會根據 Unicode 所定義的單詞邊界來劃分字串,並刪除大部分的標點符號。最後再將所有單詞轉換成小寫。標準分析器也可以指定要過濾的字(Stop Words)。
範例
輸入的內容 :
3. Semi-formal, as the name implies, is slightly more relaxed.
經過標準分析器後會產生 :
3
、semi
、formal
、as
、the
、name
、implies
、is
、slightly
、more
、relaxed
簡單分析器會在任何不是字母的地方劃分單詞,再將單詞轉成小寫。
範例
同樣使用標準分析器範例所輸入的內容,經過簡單分析器後會產生 :
semi
、formal
、as
、the
、name
、implies
、is
、slightly
、more
、relaxed
可以發現數字 3 不見了,因為他不是字母。
空格分析器會在空格的地方劃分單詞。
範例
同樣使用標準分析器範例所輸入的內容,經過空格分析器後會產生 :
3.
、Semi-formal,
、as
、the
、name
、implies,
、is
、slightly
、more
、relaxed.
可以發現 semi-formal 因為中間不是空格,所以不會被劃分成兩個單詞。
停用詞分析器基本上有和簡單分析器一樣的功能。此外他還會過濾掉停用詞,預設是英文的修飾詞,例如, a、the、is 等等。
同樣使用標準分析器範例所輸入的內容,經過停用詞分析器後會產生 :
semi
、formal
、name
、implies
、slightly
、relaxed
可以發現有許多單詞已經被過濾掉了。除了預設的停用詞過濾,也可以自己指定要過濾的單詞。
關鍵字分析器不會進行分詞,會直接將輸入當作一個單詞。也就是說以標準分析器的範例輸入內容來說,3. Semi-formal, as the name implies, is slightly more relaxed.
整段不會被分開。
這個在 Elasticsearch (二) - 快速搭建與 Document 的建立、更新和刪除 中,介紹 Mapping 有提到過。如果是沒有先定義 Mapping 直接加入 Document 的話,Elasticsearch 會自動多加一個 Field,這個 Field 就會定義成 Keyword,也就是搜尋時要完全符合。
語言分析器會根據指定的語言進行分詞,Elasticsearch 目前支援的還沒有中文。
同樣使用標準分析器範例所輸入的內容,經過英文的語言分析器後會產生 :
3
、semi
、formal
、name
、impli
、slightli
、more
、relax
首先先建立 6 個 Index 和 Type 並自訂 Mapping,分別指定每個欄位所要使用的分析器。
PUT standard_analyzer
POST standard_analyzer/_mapping/standard
{
"properties": {
"content":{
"type": "text",
"analyzer": "standard"
}
}
}
PUT simple_analyzer
POST simple_analyzer/_mapping/simple
{
"properties": {
"content":{
"type": "text",
"analyzer": "simple"
}
}
}
PUT whitespace_analyzer
POST whitespace_analyzer/_mapping/whitespace
{
"properties": {
"content":{
"type": "text",
"analyzer": "whitespace"
}
}
}
PUT stop_analyzer
POST stop_analyzer/_mapping/stop
{
"properties": {
"content":{
"type": "text",
"analyzer": "stop"
}
}
}
PUT keyword_analyzer
POST keyword_analyzer/_mapping/keyword
{
"properties": {
"content":{
"type": "text",
"analyzer": "keyword"
}
}
}
PUT language_analyzer
POST language_analyzer/_mapping/language
{
"properties": {
"content":{
"type": "text",
"analyzer": "english"
}
}
}
接著讓每個 Index 都建立一筆同樣的 Document。
POST _bulk
{ "create" : { "_index": "standard_analyzer", "_type":"standard", "_id": 1 } }
{ "content":"3. Semi-formal, as the name implies, is slightly more relaxed."}
{ "create" : { "_index": "simple_analyzer", "_type":"simple", "_id": 2 } }
{ "content":"3. Semi-formal, as the name implies, is slightly more relaxed."}
{ "create" : { "_index": "whitespace_analyzer", "_type":"whitespace", "_id": 3 } }
{ "content":"3. Semi-formal, as the name implies, is slightly more relaxed."}
{ "create" : { "_index": "stop_analyzer", "_type":"stop", "_id": 4 } }
{ "content":"3. Semi-formal, as the name implies, is slightly more relaxed."}
{ "create" : { "_index": "keyword_analyzer", "_type":"keyword", "_id": 5 } }
{ "content":"3. Semi-formal, as the name implies, is slightly more relaxed."}
{ "create" : { "_index": "language_analyzer", "_type":"language", "_id": 6 } }
{ "content":"3. Semi-formal, as the name implies, is slightly more relaxed."}
_analyze
可以直接看到分詞的結果。這裡以標準分析器為例子。
GET standard_analyzer/_analyze
{
"field": "content",
"text": "3. Semi-formal, as the name implies, is slightly more relaxed."
}
分詞的結果如下,token 就是分詞後的每個單詞。
{
"tokens" : [
{
"token" : "3",
"start_offset" : 0,
"end_offset" : 1,
"type" : "<NUM>",
"position" : 0
},
{
"token" : "semi",
"start_offset" : 3,
"end_offset" : 7,
"type" : "<ALPHANUM>",
"position" : 1
},
{
"token" : "formal",
"start_offset" : 8,
"end_offset" : 14,
"type" : "<ALPHANUM>",
"position" : 2
},
{
"token" : "as",
"start_offset" : 16,
"end_offset" : 18,
"type" : "<ALPHANUM>",
"position" : 3
},
{
"token" : "the",
"start_offset" : 19,
"end_offset" : 22,
"type" : "<ALPHANUM>",
"position" : 4
},
{
"token" : "name",
"start_offset" : 23,
"end_offset" : 27,
"type" : "<ALPHANUM>",
"position" : 5
},
{
"token" : "implies",
"start_offset" : 28,
"end_offset" : 35,
"type" : "<ALPHANUM>",
"position" : 6
},
{
"token" : "is",
"start_offset" : 37,
"end_offset" : 39,
"type" : "<ALPHANUM>",
"position" : 7
},
{
"token" : "slightly",
"start_offset" : 40,
"end_offset" : 48,
"type" : "<ALPHANUM>",
"position" : 8
},
{
"token" : "more",
"start_offset" : 49,
"end_offset" : 53,
"type" : "<ALPHANUM>",
"position" : 9
},
{
"token" : "relaxed",
"start_offset" : 54,
"end_offset" : 61,
"type" : "<ALPHANUM>",
"position" : 10
}
]
}
_termvectors 可以用來查看一個 Document 的單詞的訊息。
GET /standard_analyzer/standard/1/_termvectors
{
"fields": ["content"]
}
下面是輸出的結果,在 term_vectors 的 terms 中就可以看到每個單詞的訊息。
{
"_index" : "standard_analyzer",
"_type" : "standard",
"_id" : "1",
"_version" : 3,
"found" : true,
"took" : 16,
"term_vectors" : {
"content" : {
"field_statistics" : {
"sum_doc_freq" : 11,
"doc_count" : 1,
"sum_ttf" : 11
},
"terms" : {
"3" : {
"term_freq" : 1,
"tokens" : [
{
"position" : 0,
"start_offset" : 0,
"end_offset" : 1
}
]
},
"as" : {
"term_freq" : 1,
"tokens" : [
{
"position" : 3,
"start_offset" : 16,
"end_offset" : 18
}
]
},
"formal" : {
"term_freq" : 1,
"tokens" : [
{
"position" : 2,
"start_offset" : 8,
"end_offset" : 14
}
]
},
"implies" : {
"term_freq" : 1,
"tokens" : [
{
"position" : 6,
"start_offset" : 28,
"end_offset" : 35
}
]
},
"is" : {
"term_freq" : 1,
"tokens" : [
{
"position" : 7,
"start_offset" : 37,
"end_offset" : 39
}
]
},
"more" : {
"term_freq" : 1,
"tokens" : [
{
"position" : 9,
"start_offset" : 49,
"end_offset" : 53
}
]
},
"name" : {
"term_freq" : 1,
"tokens" : [
{
"position" : 5,
"start_offset" : 23,
"end_offset" : 27
}
]
},
"relaxed" : {
"term_freq" : 1,
"tokens" : [
{
"position" : 10,
"start_offset" : 54,
"end_offset" : 61
}
]
},
"semi" : {
"term_freq" : 1,
"tokens" : [
{
"position" : 1,
"start_offset" : 3,
"end_offset" : 7
}
]
},
"slightly" : {
"term_freq" : 1,
"tokens" : [
{
"position" : 8,
"start_offset" : 40,
"end_offset" : 48
}
]
},
"the" : {
"term_freq" : 1,
"tokens" : [
{
"position" : 4,
"start_offset" : 19,
"end_offset" : 22
}
]
}
}
}
}
}
以上兩個查看分析器結果的 API 差別在於 _analyze 是在建立前先查看使用這個分析器所做出的分詞結果會是甚麼。而 _termvectors 是用來顯示分詞的訊息,所以已經是寫入 Document 經過分析器做好的結果了,可以用在建好之後查看分詞結果。
以下以幾種不同的搜尋內容來看各個分析器所造成的影響。
1. 搜尋 semi
GET _search
{
"query":{
"term":{
"content": "semi"
}
}
}
下面是搜尋的結果,可以看到搜尋到了 simple、standard、language、stop 四個分析器的結果。因為這四個分析器在進行分詞時,會把 semi 分成單詞存在反向索引中,所以可以被找到。
{
"took" : 1,
"timed_out" : false,
"_shards" : {
"total" : 51,
"successful" : 51,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : 4,
"max_score" : 0.2876821,
"hits" : [
{
"_index" : "language_analyzer",
"_type" : "language",
"_id" : "6",
"_score" : 0.2876821,
"_source" : {
"content" : "3. Semi-formal, as the name implies, is slightly more relaxed."
}
},
{
"_index" : "simple_analyzer",
"_type" : "simple",
"_id" : "2",
"_score" : 0.2876821,
"_source" : {
"content" : "3. Semi-formal, as the name implies, is slightly more relaxed."
}
},
{
"_index" : "stop_analyzer",
"_type" : "stop",
"_id" : "4",
"_score" : 0.2876821,
"_source" : {
"content" : "3. Semi-formal, as the name implies, is slightly more relaxed."
}
},
{
"_index" : "standard_analyzer",
"_type" : "standard",
"_id" : "1",
"_score" : 0.2876821,
"_source" : {
"content" : "3. Semi-formal, as the name implies, is slightly more relaxed."
}
}
]
}
}
2. 搜尋 Semi-formal,
GET _search
{
"query":{
"term":{
"content": "Semi-formal,"
}
}
}
下面是搜尋的結果,可以看到只找到了 whitespace 這個分析器的結果。這是因為 whitespace 只會在空格處做分詞,所以 Semi-formal,
會被劃分為一個單詞。
{
"took" : 0,
"timed_out" : false,
"_shards" : {
"total" : 36,
"successful" : 36,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : 1,
"max_score" : 0.2876821,
"hits" : [
{
"_index" : "whitespace_analyzer",
"_type" : "whitespace",
"_id" : "3",
"_score" : 0.2876821,
"_source" : {
"content" : "3. Semi-formal, as the name implies, is slightly more relaxed."
}
}
]
}
}
3. 搜尋 is
GET _search
{
"query":{
"term":{
"content": "is"
}
}
}
下面是輸出的結果,可以看到搜尋到了 simple、standard、whitespace 三個分析器的結果。其他三個因為都沒有提取 is 這個單詞作為索引,所以會找不到。像是 stop 分析器就把 is 過濾掉了。
{
"took" : 0,
"timed_out" : false,
"_shards" : {
"total" : 51,
"successful" : 51,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : 3,
"max_score" : 0.2876821,
"hits" : [
{
"_index" : "simple_analyzer",
"_type" : "simple",
"_id" : "2",
"_score" : 0.2876821,
"_source" : {
"content" : "3. Semi-formal, as the name implies, is slightly more relaxed."
}
},
{
"_index" : "standard_analyzer",
"_type" : "standard",
"_id" : "1",
"_score" : 0.2876821,
"_source" : {
"content" : "3. Semi-formal, as the name implies, is slightly more relaxed."
}
},
{
"_index" : "whitespace_analyzer",
"_type" : "whitespace",
"_id" : "3",
"_score" : 0.2876821,
"_source" : {
"content" : "3. Semi-formal, as the name implies, is slightly more relaxed."
}
}
]
}
}
4. 搜尋 3. Semi-formal, as the name implies, is slightly more relaxed.
GET _search
{
"query":{
"term":{
"content": "3. Semi-formal, as the name implies, is slightly more relaxed."
}
}
}
下面是輸出的結果,可以看到只找到了 keyword 分析器的結果,因為 keyword 不會進行分詞。
{
"took" : 0,
"timed_out" : false,
"_shards" : {
"total" : 51,
"successful" : 51,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : 1,
"max_score" : 0.2876821,
"hits" : [
{
"_index" : "keyword_analyzer",
"_type" : "keyword",
"_id" : "5",
"_score" : 0.2876821,
"_source" : {
"content" : "3. Semi-formal, as the name implies, is slightly more relaxed."
}
}
]
}
}
本篇介紹了分析器的概念以及 Elasticsearch 內建的一些分析器,如果想要更了解這些分析器更詳細的使用請參考 Elasticsearch 官網。
[1] Elasticsearch當中的分析器-Analyzer
[2] 在Elasticsearch中查詢Term Vectors詞條向量信息
[3] 掌握 analyze API,一舉搞定 Elasticsearch 分詞難題
[4] 正則表達式單詞邊界和非單詞邊界
[5] 通過 Analyzer 進行分詞
[6] Text analysis
[7] 認識 ElasticSearch Analyzer 分析器
[8] Elasticsearch Analyzer 的內部機制
[9] 中英文停用詞(stop word)列表
Elasticsearch
NoSQL