1. 基本介绍
-
ElasticSearch特色
Elasticsearch不仅仅是Lucene和全文搜索, 还包括:
- 分布式的实时文件存储,每个字段都被索引并可被搜索。
- 分布式的实时分析搜索引擎。
- 可以扩展到上百台服务器,处理PB级结构化或非结构化数据。
- 各节点组成对等的网络结构,某些节点出现故障时会自动分配其他节点代替其进行工作。
-
ElasticSearch使用场景
ElasticSearch广泛应用于各行业领域, 比如维基百科, GitHub的代码搜索,电商网站的大数据日志统计分析, BI系统报表统计分析等。
-
ElasticSearch基本概念介绍
ElasticSearch Relational Database Index Database Type Table Document Row Field Column Mapping Schema Everything is indexed Index Query DSL SQL GET http://… SELECT * FROM table… PUT http://… UPDATE table SET… -
- 索引(Index)
相比传统的关系型数据库,索引相当于SQL中的一个【数据库】,或者一个数据存储方案(schema)。
-
- 类型(Type)
一个索引内部可以定义一个或多个类型, 在传统关系数据库来说, 类型相当于【表】的概念。
-
- 文档(Document)
文档是Lucene索引和搜索的原子单位,它是包含了一个或多个域的容器,采用JSON格式表示。相当于传统数据库【行】概念。
-
- 集群(Cluster)
集群是由一台及以上主机节点组成并提供存储及搜索服务, 多节点组成的集群拥有冗余能力,它可以在一个或几个节点出现故障时保证服务的整体可用性。
-
- 节点(Node)
Node为集群中的单台节点,其可以为master节点亦可为slave节点(节点属性由集群内部选举得出)并提供存储相关数据的功能。
-
- 切片(shards)
切片是把一个大文件分割成多个小文件然后分散存储在集群中的多个节点上, 可以将其看作mysql的分库分表概念。 Shard有两种类型:primary主片和replica副本,primary用于文档存储,每个新的索引会自动创建5个Primary shard;Replica shard是Primary Shard的副本,用于冗余数据及提高搜索性能。
注意: ES7之后Type被舍弃,只有Index(等同于数据库+表定义)和Document(文档,行记录)。
-
2. ElasticSearch安装
-
下载ElasticSearch服务
下载最新版ElasticSearch7.10.2, 地址入口: www.elastic.co/cn/start
-
解压安装包
tar -xvf elasticsearch-7.10.2-linux-x86_64.tar.gz
-
ElasticSearch不能以Root身份运行, 需要单独创建一个用户
> 1) groupadd elsearch
>
> 2) useradd elsearch -g elsearch -p elasticsearch
>
> 3) chown -R elsearch:elsearch /usr/local/elasticsearch-7.10.2执行以上命令,创建一个名为elsearch用户, 并赋予目录权限。
-
修改配置文件
vi config/elasticsearch.yml, 默认情况下会绑定本机地址, 外网不能访问, 这里要修改下:
# 外网访问地址 network.host: 0.0.0.0
-
关闭防火墙
systemctl stop firewalld.service systemctl disable firewalld.service
-
指定JDK版本
-
最新版的ElasticSearch需要JDK11版本, 下载[JDK11压缩包], 并进行解压。
-
修改环境配置文件
vi bin/elasticsearch-env
参照以下位置, 追加一行, 设置JAVA_HOME, 指定JDK11路径。
JAVA_HOME=/usr/local/jdk11 # now set the path to java if [ ! -z "$JAVA_HOME" ]; then JAVA="$JAVA_HOME/bin/java" else if [ "$(uname -s)" = "Darwin" ]; then # OSX has a different structure JAVA="$ES_HOME/jdk/Contents/Home/bin/java" else JAVA="$ES_HOME/jdk/bin/java" fi fi
-
-
启动ElasticSearch
-
切换用户
su elsearch
-
以后台常驻方式启动
bin/elasticsearch -d
-
-
问题FAQ记录
如果出现max virtual memory areas vm.max_map_count [65530] is too low, increase to at least 错误信息
修改系统配置:
-
vi /etc/sysctl.conf
添加
vm.max_map_count=655360
执行生效
sysctl -p
-
vi /etc/security/limits.conf
在文件末尾添加
* soft nofile 65536 * hard nofile 131072 * soft nproc 2048 * hard nproc 4096 elsearch soft nproc 125535 elsearch hard nproc 125535
重新切换用户即可生效:
su - elsearch
-
-
访问验证
访问地址: http://10.10.20.28:9200/_cat/health
启动状态有green、yellow和red。 green是代表启动正常。
3. Kibana服务安装
Kibana是一个针对Elasticsearch的开源分析及可视化平台,用来搜索、查看交互存储在Elasticsearch索引中的数据。
-
到官网下载, [Kibana安装包], 与之对应7.10.2版本, 选择Linux 64位版本下载,并进行解压。
tar -xvf kibana-7.10.2-linux-x86_64.tar.gz
-
Kibana启动不能使用root用户, 使用上面创建的elsearch用户, 进行赋权:
chown -R elsearch:elsearch kibana-7.10.2-linux-x86_64
-
修改配置文件
vi config/kibana.yml , 修改以下配置:
# 服务端口 server.port: 5601 # 服务地址 server.host: "0.0.0.0" # elasticsearch服务地址 elasticsearch.hosts: ["http://10.10.20.28:9200"]
-
启动kibana
./kibana -q
看到以下日志, 代表启动正常
log [01:40:00.143] [info][listening] Server running at http://0.0.0.0:5601
如果出现启动失败的情况, 要检查集群各节点的日志, 确保服务正常运行状态。
-
访问服务
4. ES的基本操作
-
进入Kibana管理后台
进入"Dev Tools"工具栏:
在Console中可以直接输入命令操作, 比较便捷, 不需要再去模拟http请求。 -
分片设置:
这里增加名为orders的索引, 因为是单节点, 如果副本数, 是会出现错误。
PUT /orders { "settings":{ "index":{ "number_of_shards": 2, "number_of_replicas": 2 } } }
查看索引信息, 会出现yellow提示:
因为单节点模式, 只有主节点信息:
删除重新创建:
PUT /orders { "settings":{ "index":{ "number_of_shards": 2, "number_of_replicas": 0 } } }
将分片数设为0, 再次查看, 则显示正常:
-
创建索引(非结构化方式):
新建索引, 会自动创建account索引:
PUT /orders/_doc/1 { "name":"Mirson", "mobile": "13800138000", "address":"China" }
通过查询命令, 能查看到对应信息, 默认分片数和副本数都为1:
"number_of_shards" : "1", "number_of_replicas" : "1",
ES会自动为属性设置对应类型:
-
创建索引(结构化方式):
结构化方式创建索引:
PUT /orders { "settings":{ "index":{ "number_of_shards": 1, "number_of_replicas": 0 } }, "mappings": { "properties": { "name": {"type": "text"}, "mobile": {"type": "long"}, "address": {"type": "text"} } } }
查看index的mappings信息, 可以看到类型已生效:
-
查看索引设置信息
查看创建的orders索引设置信息:
GET /orders/_settings
返回:
{ "orders" : { "settings" : { "index" : { "routing" : { "allocation" : { "include" : { "_tier_preference" : "data_content" } } }, "number_of_shards" : "1", "provided_name" : "orders", "creation_date" : "1613801650135", "number_of_replicas" : "0", "uuid" : "ZvmjsAxRTpi1PLF6t6mlyA", "version" : { "created" : "7100299" } } } } }
-
根据ID查看文档
get /orders/_doc/1
返回:
{ "_index" : "orders", "_type" : "_doc", "_id" : "1", "_version" : 1, "_seq_no" : 0, "_primary_term" : 1, "found" : true, "_source" : { "name" : "Mirson", "mobile" : "13800138000", "address" : "China" } }
-
更新文档
-
覆盖式更新
PUT /orders/_doc/1 { "name": "Mirson1" }
查看信息:
GET /orders/_doc/1
返回结果:
{ "_index" : "orders", "_type" : "_doc", "_id" : "1", "_version" : 2, "_seq_no" : 1, "_primary_term" : 1, "found" : true, "_source" : { "name" : "Mirson1" } }
从_source中可以看到, 之前创建的balance信息已经被更新覆盖。
-
指定字段更新
POST /orders/_update/1 { "doc": { "mobile": 13700137000 } }
采用POST方式, 附带_update标识。
-
-
删除文档
删除某一个文档,采用DELETE方式操作, 后面要附带删除的数据ID:
DELETE /orders/_doc/1
返回结果:
{ "_index" : "orders", "_type" : "_doc", "_id" : "1", "_version" : 5, "result" : "deleted", "_shards" : { "total" : 1, "successful" : 1, "failed" : 0 }, "_seq_no" : 4, "_primary_term" : 1 }
根据指定条件删除文档信息:
POST /orders/_delete_by_query { "query": { "match": { "address": "China" } } }
返回结果:
{ "took" : 8, "timed_out" : false, "total" : 2, "deleted" : 2, "batches" : 1, "version_conflicts" : 0, "noops" : 0, "retries" : { "bulk" : 0, "search" : 0 }, "throttled_millis" : 0, "requests_per_second" : -1.0, "throttled_until_millis" : 0, "failures" : [ ] }
5. ES数据类型解析
整体数据类型结构:
-
String 类型
主要分为text与keyword两种类型。两者区别主要在于能否分词。
-
text类型
会进行分词处理, 分词器默认采用的是standard。
-
keyword类型
不会进行分词处理。在ES的倒排索引中存储的是完整的字符串。
-
-
Date时间类型
数据库里的日期类型需要规范具体的传入格式, ES是可以控制,自适应处理。
传递不同的时间类型:
PUT my_date_index/_doc/1 { "date": "2021-01-01" } PUT my_date_index/_doc/2 { "date": "2021-01-01T12:10:30Z" } PUT my_date_index/_doc/3 { "date": 1520071600001 }
查看日期数据:
"hits" : [ { "_index" : "my_date_index", "_type" : "_doc", "_id" : "1", "_score" : 1.0, "_source" : { "date" : "2021-01-01" } }, { "_index" : "my_date_index", "_type" : "_doc", "_id" : "2", "_score" : 1.0, "_source" : { "date" : "2021-01-01T12:10:30Z" } }, { "_index" : "my_date_index", "_type" : "_doc", "_id" : "3", "_score" : 1.0, "_source" : { "date" : 1520071600001 } } ] }
ES的Date类型允许可以使用的格式有:
> yyyy-MM-dd HH:mm:ss
> yyyy-MM-dd
> epoch_millis(毫秒值) -
复合类型
复杂类型主要有三种: Array、object、nested。
-
Array类型: 在Elasticsearch中,数组不需要声明专用的字段数据类型。但是,在数组中的所有值都必须具有相同的数据类型。举例:
POST /orders/_doc/1 { "goodsName":["足球","篮球","兵乓球"] }
-
object类型: 用于存储单个JSON对象, 类似于JAVA对的对象类型, 可以有多个值, 比如LIST,可以包含多个对象。
但是LIST只能作为整体, 不能独立的索引查询。举例:
# 新增第一组数据, 组别为美国,两个人。 POST /my_index/_doc/1 { "group" : "america", "users" : [ { "name" : "John", "age" : "22" }, { "name" : "Alice", "age" : "21" } ] } # 新增第二组数据, 组别为英国, 两个人。 POST /my_index/_doc/2 { "group" : "england", "users" : [ { "name" : "lucy", "age" : "21" }, { "name" : "John", "age" : "32" } ] }
这两组数据都包含了name为John,age为21的数据,
采用这个搜索条件, 实际结果:
GET /my_index/_search?pretty { "query": { "bool": { "must": [ { "match": { "users.name": "John" } }, { "match": { "users.age": 21 } } ] } } }
结果可以看到, 这两组数据都能找出,因为每一组数据都是作为一个整体进行搜索匹配, 而非具体某一条数据。
-
Nested类型
用于存储多个JSON对象组成的数组,
nested
类型是object
类型中的一个特例,可以让对象数组独立索引和查询。举例:
创建nested类型的索引:
PUT /my_index { "mappings": { "properties": { "users": { "type": "nested" } } } }
发出查询请求:
GET /my_index/_search?pretty { "query": { "bool": { "must": [ { "nested": { "path": "users", "query": { "bool": { "must": [ { "match": { "users.name": "John" } }, { "match": { "users.age": 21 } } ] } } } } ] } } }
采用以前的条件, 这个时候查不到任何结果, 将年龄改成22, 就可以找出对应的数据:
"hits" : [ { "_index" : "my_index", "_type" : "_doc", "_id" : "1", "_score" : 1.89712, "_source" : { "group" : "america", "users" : [ { "name" : "John", "age" : "22" }, { "name" : "Alice", "age" : "21" } ] } } ]
-
-
GEO地理位置类型
现在大部分APP都有基于位置搜索的功能, 比如交友、购物应用等。这些功能是基于GEO搜索实现的。
对于GEO地理位置类型,分为地图:Geo-point, 和形状:Geo-shape 两种类型。
经纬度 英文 简写 正数 负数 维度 latitude lat 北纬 南纬 经度 longitude lon或lng 东经 西经 创建地理位置索引:
PUT /my_locations { "mappings": { "properties": { "location": { "type": "geo_point" } } } }
添加地理位置数据:
# 采用object对象类型 PUT my_locations/_doc/1 { "text": "Geo-point as an object", "location": { "lat": 41.12, "lon": -71.34 } } # 采用string类型 PUT my_locations/_doc/2 { "text": "Geo-point as a string", "location": "45.12,-75.34" } # 采用geohash类型(geohash算法可以将多维数据映射为一串字符) PUT my_locations/_doc/3 { "text": "Geo-point as a geohash", "location": "drm3btev3e86" } # 采用array数组类型 PUT my_locations/_doc/4 { "text": "Geo-point as an array", "location": [ -80.34, 51.12 ] }
给出某一个地理位置, 搜索方圆200km的地址信息:
GET /my_locations/_search { "query": { "bool" : { "must" : { "match_all" : {} }, "filter" : { "geo_distance" : { "distance" : "200km", "location" : { "lat" : 40, "lon" : -70 } } } } } }
共同学习,写下你的评论
评论加载中...
作者其他优质文章