龙空技术网

Elasticsearch索引管理知识点总结

代码接盘侠 158

前言:

如今你们对“js foreach获取索引”可能比较讲究,小伙伴们都需要分析一些“js foreach获取索引”的相关知识。那么小编在网上网罗了一些关于“js foreach获取索引””的相关文章,希望大家能喜欢,小伙伴们快快来了解一下吧!

之前介绍了什么是Elasticsearch,以及Elasticsearch的安装,这节讲解Elasticsearch的索引的管理的一些知识点,不是很全,但是可以做一些知识点笔记。

索引管理

查看集群的健康状况

其中v是v是用来要求在结果中返回表头。

状态值说明

Green - everything is good (cluster is fully functional) Yellow - all data is available but some replicas are not yet allocated (cluster is fully functional) Red - some data is not available for whatever reason (cluster is partially functional)

查看集群的节点

查看所有索引

创建一个索引

创建一个名为 customer 的索引。pretty要求返回一个漂亮的json 结果

PUT /customer?pretty

再查看一下所有索引

GET /_cat/indices?v

索引一个文档到customer索引中

curl -X PUT "localhost:9200/customer/_doc/1?pretty" -H 'Content-Type: application/json' -d'{  "name": "John Doe"}

从customer索引中获取指定id的文档

curl -X GET "localhost:9200/customer/_doc/1?pretty"

查询所有文档

GET /customer/_search?q=*&sort=name:asc&pretty
GET /customer/_search{  "query": { "match_all": {} },  "sort": [    {"name": "asc" }  ]}
curl -X GET "localhost:9200/customer/_search" -H 'Content-Type: application/json' -d'{  "query": { "match_all": {} },  "sort": [    {"name": "asc" }  ]}'
索引增删改

Create Index 创建索引

PUT twitter{    "settings" : {        "index" : {            "number_of_shards" : 3,             "number_of_replicas" : 2         }    }}

Default for number_of_shards is 5,max is 1024

Default for number_of_replicas is 1

(ie one replica for each primary shard)

索引的名字必须是小写的,不可重名

PUT twitter{    "settings" : {        "number_of_shards" : 3,        "number_of_replicas" : 2    }}

Create Index with mapping,在创建时加入映射定义

PUT test{    "settings" : {        "number_of_shards" : 1    },    "mappings" : {        "type1" : {            "properties" : {                "field1" : { "type" : "text" }            }        }    }}

Create Index with Aliases,在创建时加入别名定义

PUT test{    "aliases" : {        "alias_1" : {},        "alias_2" : {            "filter" : {                "term" : {"user" : "kimchy" }            },            "routing" : "kimchy"        }    }}

返回结果说明

{    "acknowledged": true,#索引创建成功    "shards_acknowledged": true,#所需数量的分片+副本启动成功    "index": "test"}

这两个值也会返回false,如果没有返回错误信息,则表示等待时间到了超时时间就直接返回了。

Get Index,查看索引的定义信息

GET /twitterGET /twitter/_settingsGET /twitter/_mapping

可以一次获取多个索引(以逗号间隔)获取所有索引 _all 或 用通配符*

Delete Index

DELETE /twitter

可以一次删除多个索引(以逗号间隔)删除所有索引 _all 或 通配符 *

判断索引是否存在

HEAD twitter

HTTP status code 表示结果 404 不存在 , 200 存在

修改索引的settings信息

索引的设置信息分为静态信息和动态信息两部分。静态信息不可更改,如索引的分片数。动态信息可以修改。

REST 访问端点:

/_settings 更新所有索引的。

{index}/_settings 更新一个或多个索引的settings。

修改备份数

PUT /twitter/_settings{    "index" : {        "number_of_replicas" : 2    }}

设置回默认值,用null

PUT /twitter/_settings{    "index" : {        "refresh_interval" : null    }}

设置索引的读写

index.blocks.read_only:设为true,则索引以及索引的元数据只可读

index.blocks.read_only_allow_delete:设为true,只读时允许删除。

index.blocks.read:设为true,则不可读。

index.blocks.write:设为true,则不可写。

index.blocks.metadata:设为true,则索引元数据不可读写。

索引模板

在创建索引时,为每个索引写定义信息可能是一件繁琐的事情,ES提供了索引模板功能,让你可以定义一个索引模板,模板中定义好settings、mapping、以及一个模式定义来匹配创建的索引。

:模板只在索引创建时被参考,修改模板不会影响已创建的索引

PUT _template/template_1{  "index_patterns": ["te*", "bar*"],  "settings": {    "number_of_shards": 1  },  "mappings": {    "type1": {      "_source": {        "enabled": false      },      "properties": {        "host_name": {          "type": "keyword"        },        "created_at": {          "type": "date",          "format": "EEE MMM dd HH:mm:ss Z YYYY"        }      }    }  }}

新增/修改名为tempae_1的模板,匹配名称为te* 或 bar*的索引创建。

查看索引模板

GET /_template/template_1GET /_template/temp*GET /_template/template_1,template_2GET /_template

删除模板

DELETE /_template/template_1
Open/Close Index 打开/关闭索引
POST /my_index/_closePOST /my_index/_open

关闭的索引不能进行读写操作,几乎不占集群开销。

关闭的索引可以打开,打开走的是正常的恢复流程。

Shrink Index 收缩索引

索引的分片数是不可更改的,如要减少分片数可以通过收缩方式收缩为一个新的索引。新索引的分片数必须是原分片数的因子值,如原分片数是8,则新索引的分片数可以为4、2、1 。

收缩的流程:

先把所有主分片都转移到一台主机上;在这台主机上创建一个新索引,分片数较小,其他设置和原索引一致;把原索引的所有分片,复制(或硬链接)到新索引的目录下;对新索引进行打开操作恢复分片数据;(可选)重新把新索引的分片均衡到其他节点上。

收缩前的准备工作:

将原索引设置为只读;

将原索引各分片的一个副本重分配到同一个节点上,并且要是健康绿色状态。

PUT /my_source_index/_settings{  "settings": {    #指定进行收缩的节点的名称    "index.routing.allocation.require._name": "shrink_node_name",      #阻止写,只读    "index.blocks.write": true   }}

进行收缩:

POST my_source_index/_shrink/my_target_index{  "settings": {    "index.number_of_replicas": 1,    "index.number_of_shards": 1,     "index.codec": "best_compression"   }}

监控收缩过程:

GET _cat/recovery?vGET _cluster/health
Split Index 拆分索引

当索引的分片容量过大时,可以通过拆分操作将索引拆分为一个倍数分片数的新索引。能拆分为几倍由创建索引时指定的index.number_of_routing_shards 路由分片数决定。这个路由分片数决定了根据一致性hash路由文档到分片的散列空间。

如index.number_of_routing_shards = 30 ,指定的分片数是5,则可按如下倍数方式进行拆分:

5 → 10 → 30 (split by 2, then by 3) 5 → 15 → 30 (split by 3, then by 2) 5 → 30 (split by 6)

和solr的区别是,solr是对一个分片进行拆分,es中是整个索引进行拆分。

准备一个索引来做拆分:

创建时需要指定路由分片数

PUT my_source_index{    "settings": {        "index.number_of_shards" : 1,        "index.number_of_routing_shards" : 2     }}

先设置索引只读:

PUT /my_source_index/_settings{  "settings": {    "index.blocks.write": true   }}

做拆分:

新索引的分片数需符合拆分规则

新索引的分片数需符合拆分规则POST my_source_index/_split/my_target_index{  "settings": {    "index.number_of_shards": 2  }}

监控拆分过程:

GET _cat/recovery?vGET _cluster/health
Rollover Index 别名滚动指向新创建的索引

对于有时效性的索引数据,如日志,过一定时间后,老的索引数据就没有用了。我们可以像数据库中根据时间创建表来存放不同时段的数据一样,在ES中也可用建多个索引的方式来分开存放不同时段的数据。比数据库中更方便的是ES中可以通过别名滚动指向最新的索引的方式,让你通过别名来操作时总是操作的最新的索引。

ES的rollover index API 让我们可以根据满足指定的条件(时间、文档数量、索引大小)创建新的索引,并把别名滚动指向新的索引。

注意:这时的别名只能是一个索引的别名。

Rollover Index 示例

创建一个名字为logs-0000001 、别名为logs_write 的索引

PUT /logs-000001 {  "aliases": {    "logs_write": {}  }}

如果别名logs_write指向的索引是7天前(含)创建的或索引的文档数>=1000或索引的大小>= 5gb,则会创建一个新索引 logs-000002,并把别名logs_writer指向新创建的logs-000002索引

# Add > 1000 documents to logs-000001POST /logs_write/_rollover {  "conditions": {    "max_age":   "7d",    "max_docs":  1000,    "max_size":  "5gb"  }}

Rollover Index 新建索引的命名规则

如果索引的名称是-数字结尾,如logs-000001,则新建索引的名称也会是这个模式,数值增1。

如果索引的名称不是-数值结尾,则在请求rollover api时需指定新索引的名称:

POST /my_alias/_rollover/my_new_index_name{  "conditions": {    "max_age":   "7d",    "max_docs":  1000,    "max_size": "5gb"  }}

在名称中使用Date math(时间表达式)

如果你希望生成的索引名称中带有日期,如logstash-2016.02.03-1 ,则可以在创建索引时采用时间表达式来命名:

# PUT /<logs-{now/d}-1> with URI encoding:PUT /%3Clogs-%7Bnow%2Fd%7D-1%3E {  "aliases": {    "logs_write": {}  }}PUT logs_write/_doc/1{  "message": "a dummy log"}POST logs_write/_refresh
# Wait for a day to passPOST /logs_write/_rollover {  "conditions": {    "max_docs":   "1"  }}

Rollover时可对新的索引作定义

PUT /logs-000001{  "aliases": {    "logs_write": {}  }}POST /logs_write/_rollover{  "conditions" : {    "max_age": "7d",    "max_docs": 1000,    "max_size": "5gb"  },  "settings": {    "index.number_of_shards": 2  }}

Dry run 实际操作前先来个排练

POST /logs_write/_rollover?dry_run{  "conditions" : {    "max_age": "7d",    "max_docs": 1000,    "max_size": "5gb"  }}

排练不会创建索引,只是检测条件是否满足

注意:rollover是你请求它才会进行操作,并不是自动在后台进行的。你可以周期性地去请求它。

索引监控

查看索引状态信息

GET /_statsGET /index1,index2/_stats

查看索引段信息

GET /test/_segmentsGET /index1,index2/_segmentsGET /_segments

查看索引恢复信息

GET index1,index2/_recovery?humanGET /_recovery?human

查看索引分片的存储信息

# return information of only index testGET /test/_shard_stores# return information of only test1 and test2 indicesGET /test1,test2/_shard_stores# return information of all indicesGET /_shard_stores
GET /_shard_stores?status=green
索引状态管理

Force merge 强制段合并

POST /kimchy/_forcemerge?only_expunge_deletes=false&max_num_segments=100&flush=true

可选参数说明:

max_num_segments :合并为几个段,默认1

only_expunge_deletes :是否只合并含有删除文档的段,默认false

flush :合并后是否刷新,默认true

POST /kimchy,elasticsearch/_forcemergePOST /_forcemerge

标签: #js foreach获取索引