maximum shards open什么原因导致的

elk每天一个index 今天kibana刷不出东西看logstash报错内容是:Validation Failed: 1: this action would add [2] total shards, but this cluster currently has [1001]/[1000] maximum shards open

可能是什么原因导致的?

阅读 22.6k
3 个回答

你用的7版本以上的elasticsearch吧,默认只允许1000个分片,问题是因为集群分片数不足引起的。
现在在elasticsearch.yml中定义

> cluster.max_shards_per_node: 10000

貌似也不生效,默认就允许创建1000个分片,我是在kibana的tools中改变临时设置

PUT /_cluster/settings
{
  "transient": {
    "cluster": {
      "max_shards_per_node":10000
    }
  }
}

这样就生效了

新手上路,请多包涵

curl -XPUT -H "Content-Type: application/json" -d '{"transient":{"cluster":{"max_shards_per_node":10000}}}' 'http://localhost:9200/_cluster/settings'

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
宣传栏