前言
可能你经历过这些Red.
。。。等等
那ES的Red是神么意思?
这里说的red,是指es集群的状态,一共有三种,green、red、yellow。具体含义:
冷静分析
从上图可知,集群red是由于有主分片不可用,这种情况一般是由于节点宕机。
有什么影响呢?
至少一个主分片(以及它的全部副本)都在缺失中。这意味着你在缺少数据:搜索只能返回部分数据,而分配到这个分片上的写入请求会返回一个异常。
此时我们可以执行相关的命令进行状态检查。
集群节点是否都存在、查看集群状态。
curl -uelastic:pwd -XGET "http://ip:9200/_cluster/health?pretty"
- active_shards 是涵盖了所有索引的所有分片的汇总值,其中包括副本分片。
- relocating_shards 显示当前正在从一个节点迁往其他节点的分片的数量。通常来说应该是 0,不过在 Elasticsearch 发现集群不太均衡时,该值会上涨。比如说:添加了一个新节点,或者下线了一个节点。
- initializing_shards 显示的是刚刚创建的分片的个数。比如,当你刚创建第一个索引,分片都会短暂的处于 initializing 状态,分片不应该长期停留在 initializing 状态。你还可能在节点刚重启的时候看到 initializing 分片:当分片从磁盘上加载后,它们会从 initializing 状态开始。所以这一般是临时状态。
- unassigned_shards 是已经在集群状态中存在的分片,但是实际在集群里又找不着。最常见的体现在副本上。比如,我有两个es节点,索引设置分片数量为 10, 3 副本,那么在集群上,由于灾备原则,主分片和其对应副本不能同时在一个节点上,es无法找到其他节点来存放第三个副本的分片,所以就会有 10 个未分配副本分片。如果你的集群是 red 状态,也会长期保有未分配分片(因为缺少主分片)。
unassigned_shards原因1
- 上面说了一种造成 unassigned_shards的原因,就是副本太多,节点太少,es无法完成分片。
- 举一反三!由于索引的副本是可以动态修改的,那么,如果在修改时分配的副本数大于节点数目,那么肯定会有分片是这个状态。
这种情况的解决办法有两种:
- 1、是动态调整一下副本数量。
- 2、新加入一个节点来平衡。
unassigned还有其他原因?
- 目前集群爆红,但是所有节点都还在,有点诡异,从集群状态看,一共是两个分片有问题,一个正在初始化,一个是unassigned。确定了故障范围后,我们再来从索引层面、分片层面深入的分析具体原因把。
索引层面分析
再执行
curl -uelastic:pwd -XGET "http://ip:9200/_cluster/health?pretty&level=indices"
没错,还是这个api,不过值得注意的是level=indices,想必读者已经心领神会。
这个api返回的是一个格式化后的json,如果太长,推荐输出到一个文本里面看。
从返回的信息中,我们可以看到,01-04索引目前状态为red,它有2个分片,0个副本,有一个分片正在初始化,从这个数据可以看出,受影响的是主分片,想到这里,感到慌不择路。
分片层面分析
少侠,莫慌!
知道了索引层面的故障信息,我们继续深究,看看分片层面。
curl -uelastic:pwd -XGET "http://ip:9200/_cluster/health?level=shards"
当然,重点还是level=shards,显示如下:
至此,我们可以得到更多的线索:
- 索引名:xxx-01-04。
- 分片数量:2。
- 副本数:0。
- 有问题的分片号:0。并且是主分片。
- 分片状态:initializing。说明正在初始化,自我恢复中。
既然是在恢复,那找恢复相关的api,看看。
curl -u elastic:pwd -XGET http://ip:9200/索引名/_recovery?pretty=true
从上图可以看到,花费了14.1个小时,从translog中恢复!目前进度很是堪忧。
配合kibana看一下:
插播一下,translog的知识
- 我们把数据写到磁盘后,还要调用fsync才能把数据刷到磁盘中,如果不这样做在系统掉电的时候就会导致数据丢失,这个原理相信大家都清楚,elasticsearch为了高可靠性必须把所有的修改持久化到磁盘中。
- 我们的数据先写入到buffer里面,在buffer里面的数据时搜索不到的,同时将数据写入到translog日志文件之中。如果buffer快满了,或是一段时间之后,就会将buffer数据refresh到一个新的OS cache之中。
- translog的作用:在执行commit之前,所有的而数据都是停留在buffer或OS cache之中,无论buffer或OS cache都是内存,
一旦这台机器死了,内存的数据就会丢失,所以需要将数据对应的操作写入一个专门的日志文件之中。
- 一旦机器出现宕机,再次重启的时候,es会主动的读取translog之中的日志文件数据,恢复到内存buffer和OS cache之中。
整个commit过程就叫做一个flush操作
- 其实translog的数据也是先写入到OS cache之中的,默认每隔5秒之中将数据刷新到硬盘中去,也就是说,
可能有5秒的数据仅仅停留在buffer或者translog文件的OS cache中,如果此时机器挂了,
会丢失5秒的数据,但是这样的性能比较好,我们也可以将每次的操作都必须是直接fsync到磁盘,但是性能会比较差。
上述摘录于互联网,写得清晰明了,可以参考一下,分析看了日志也没有找到其他有用的信息,由于是历史索引,就将其删除掉了,虽然没有定位到根本原因,不过记录一下排查过程总是好的。
剩下的unassigned分片
- 解决了一个问题,那么还剩下一个分片是未分配的,还是从索引层面和分片层面查询检查,发现同样是0号主分片出问题。
- 尝试手动分配
curl -uelastic:pwd -XPOST 'http://ip:9200/_cluster/reroute' -H"Content-Type:application/json" -d '{
"commands" : [ {
"allocate_stale_primary" : {
"index" : "B_2020-01-05",
"shard" : 0,
"node" : "SL8u8zKESy6rSHjHO0jEvA"
}
}
]
}'
报错:
No data for shard [0] of index [B_2020-01-05] found on node [SL8u8zKESy6rSHjHO0jEvA]"},"status":400}
- 尝试手动分配失败后,更换思路。摆脱掉各种复杂的查询API,使用es为我们提供的一个Explain API,它会解释为什么分片没有分配,解决问题之前,先诊断诊断。
curl -uelastic:pwd -XGET "http://ip:9200/_cluster/allocation/explain" -H"Content-Type:application/json" -d '{
"index": "B_2020-01-05",
"shard": 0,
"primary": true
}'
- 看上述错误,分片被锁住了,尝试分配,但是被拒绝,手动分配时,可以指定"accept_data_loss" : true。但这样会导致数据完全丢失。
- 这种情况一般出现在有结点短暂离开集群,然后马上重新加入,并且有线程正在对某个shard做bulk或者scroll等长时间的写入操作。等结点重新加入集群的时候,由于shard lock没有释放,master无法allocate这个shard。 通常/_cluster/reroute?retry_failed=true可以解决问题,如果按照你说的依然无法解决,可能还有其他原因导致锁住该shard的线程长时间操作该shard无法释放锁(长时间GC?)。
如果retry_failed无法解决问题,可以尝试一下allocate_stale_primary,前提是需要知道这个shard的primary在哪个结点上。实在解决不了,又不想丢数据,还可以重启一下该结点,内存锁应该可以释放。
执行集群reroute命令:
curl -XPOST "http://ip:9200/_cluster/reroute?retry_failed=true"
- 再看分片状态:
- 此时集群已经恢复Green。大功告成。
总结
一、遇到集群Red时,我们可以从如下方法排查:
- 集群层面:/_cluster/health。
- 索引层面:/_cluster/health?pretty&level=indices。
- 分片层面:/_cluster/health?pretty&level=shards。
- 看恢复情况:/_recovery?pretty。
二、有unassigned分片的排查思路
- _cluster/allocation/explain,先诊断。
- /_cluster/reroute尝试重新分配。
三、数据重放
- 如果实在恢复不了,那只能索引重建了。提供一种思路:
先新建备份索引
curl -XPUT ‘http://xxxx:9200/a_index_copy/‘ -d ‘{
“settings”:{
“index”:{
“number_of_shards”:3,
“number_of_replicas”:2
}
}
}
通过reindex,将目前可用的数据导入:
POST _reindex
{
"source": {
"index": "a_index"
},
"dest": {
"index": "a_index_copy",
"op_type": "create"
}
}
删除a_index索引,这个必须要先做,否则别名无法添加.
curl -XDELETE 'http://xxxx:9200/a_index'
创建a_index_copy索引
curl -XPUT ‘http://xxxx:9200/a_index_copy/‘ -d ‘{
“settings”:{
“index”:{
“number_of_shards”:3,
“number_of_replicas”:2
}
}
}
通过reindex api将a_index数据copy到a_index_copy。
POST _reindex
{
"source": {
"index": "a_index"
},
"dest": {
"index": "a_index_copy",
"op_type": "create"
}
}
删除a_index索引,这个必须要先做,否则别名无法添加
curl -XDELETE 'http://xxxx:9200/a_index'
给a_index_copy添加别名a_index
curl -XPOST 'http://xxxx:9200/_aliases' -d '
{
"actions": [
{"add": {"index": "a_index_copy", "alias": "a_index"}}
]
}'
四、translog总结
- translog在节点有问题时,能够帮助阻止数据的丢失
设计目的:
1、帮助节点从失败从快速恢复。
2、辅助flush。避免在flush过程中数据丢失。
以上就是这篇笔记的所有内容,希望能帮助到你。
欢迎来公众号【侠梦的开发笔记】 一起交流进步