-
POST _analyze
{
"analyzer": "ik_max_word",
"text": "我是中国人"
}
查看全部 -
POST _analyze
{
"analyzer": "ik_smart",
"text": "我是中国人"
}
查看全部 -
POST _analyze
{
"analyzer": "standard",
"text": "hello imooc"
}
POST _analyze
{
"analyzer": "standard",
"text": "我是中国人"
}
查看全部 -
ES中文分词器
standard:ES默认,将词汇单元转换为小写形式,并且去除停用词、标点符号,支持中文(单字切分)。
simple:通过非字母字符来分割文本信息,然后将词汇单元统一转换为小写形式,会去除掉数字类型的字符。
whitespace:仅仅是去除空格、小写,不支持中文,对分割的词汇单元不做标准化的处理。
language:特定语言的分词器,不支持中文。
查看全部 -
C:\soft\elastic\logstash-6.3.2\bin>logstash -f ../config/mysql.conf
查看全部 -
output
config/mysql.conf
查看全部 -
input
查看全部 -
logstash数据同步
查看全部 -
alibaba/canal
查看全部 -
binlog同步组件
查看全部 -
本课程大纲
查看全部 -
kibana一定要和ES版本保持一致
查看全部 -
should 相当于 or
must 相当于 and
match 相当于 =
查看全部 -
springboot跨域支持
查看全部 -
es本身对中文分词支持并不是很友好,但是可以通过插件引入ik分词器:
https://github.com/medcl/elasticsearch-analysis-ik
查看全部
举报