美文网首页
ElasticSearch优化

ElasticSearch优化

作者: hyfeis | 来源:发表于2018-01-05 11:53 被阅读0次

    搜索优化方案

    最小节点数

    ​ minimum_master_nodes设定对你的集群的稳定 极其 重要。 当你的集群中有两个 masters的时候,这个配置有助于防止 脑裂 ,一种两个主节点同时存在于一个集群的现象。

    如果你的集群发生了脑裂,那么你的集群就会处在丢失数据的危险中,因为主节点被认为是这个集群的最高统治者,它决定了什么时候新的索引可以创建,分片是如何移动的等等。如果你有 两个 masters 节点, 你的数据的完整性将得不到保证,因为你有两个节点认为他们有集群的控制权。

    这个配置就是告诉 Elasticsearch 当没有足够 master 候选节点的时候,就不要进行 master 节点选举,等 master 候选节点足够了才进行选举。

    此设置应该始终被配置为 master 候选节点的法定个数(大多数个)。法定个数就是 ( master 候选节点个数 / 2) + 1 。 这里有几个例子:

    如果你有 10 个节点(能保存数据,同时能成为 master),法定数就是 6 。

    如果你有 3 个候选 master 节点,和 100 个 data 节点,法定数就是 2 ,你只要数数那些可以做 master 的节点数就可以了。

    如果你有两个节点,你遇到难题了。法定数当然是 2 ,但是这意味着如果有一个节点挂掉,你整个集群就不可用了。 设置成 1 可以保证集群的功能,但是就无法保证集群脑裂了,像这样的情况,你最好至少保证有 3 个节点。

    你可以在你的 elasticsearch.yml 文件中这样配置:

    discovery.zen.minimum_master_nodes: 2

    但是由于 ELasticsearch 是动态的,你可以很容易的添加和删除节点, 但是这会改变这个法定个数。 你不得不修改每一个索引节点的配置并且重启你的整个集群只是为了让配置生效,这将是非常痛苦的一件事情。

    基于这个原因, minimum_master_nodes (还有一些其它配置)允许通过 API 调用的方式动态进行配置。 当你的集群在线运行的时候,你可以这样修改配置:

    PUT /_cluster/settings

    {

       "persistent" : {

           "discovery.zen.minimum_master_nodes" : 2

       }

    }

    这将成为一个永久的配置,并且无论你配置项里配置的如何,这个将优先生效。当你添加和删除 master 节点的时候,你需要更改这个配置。

    集群恢复方面配置

    ​ 当你集群重启时,几个配置项影响你的分片恢复的表现。 首先,我们需要明白如果什么也没配置将会发生什么。

    想象一下假设你有 10 个节点,每个节点只保存一个分片,这个分片是一个主分片或者是一个副本分片,或者说有一个有 5 个主分片/1 个副本分片的索引。有时你需要为整个集群做离线维护(比如,为了安装一个新的驱动程序), 当你重启你的集群,恰巧出现了 5 个节点已经启动,还有 5 个还没启动的场景。

    假设其它 5 个节点出问题,或者他们根本没有收到立即重启的命令。不管什么原因,你有 5 个节点在线上,这五个节点会相互通信,选出一个 master,从而形成一个集群。 他们注意到数据不再均匀分布,因为有 5 个节点在集群中丢失了,所以他们之间会立即启动分片复制。

    最后,你的其它 5 个节点打开加入了集群。这些节点会发现 它们 的数据正在被复制到其他节点,所以他们删除本地数据(因为这份数据要么是多余的,要么是过时的)。 然后整个集群重新进行平衡,因为集群的大小已经从 5 变成了 10。

    在整个过程中,你的节点会消耗磁盘和网络带宽,来回移动数据,因为没有更好的办法。对于有 TB 数据的大集群, 这种无用的数据传输需要 很长时间 。如果等待所有的节点重启好了,整个集群再上线,所有的本地的数据都不需要移动。

    现在我们知道问题的所在了,我们可以修改一些设置来缓解它。 首先我们要给 ELasticsearch 一个严格的限制:

    gateway.recover_after_nodes: 8

    这将阻止 Elasticsearch 在存在至少 8 个节点(数据节点或者 master 节点)之前进行数据恢复。 这个值的设定取决于个人喜好:整个集群提供服务之前你希望有多少个节点在线?这种情况下,我们设置为 8,这意味着至少要有 8 个节点,该集群才可用。

    现在我们要告诉 Elasticsearch 集群中 应该 有多少个节点,以及我们愿意为这些节点等待多长时间:

    gateway.expected_nodes: 10

    gateway.recover_after_time: 5m

    这意味着 Elasticsearch 会采取如下操作:

    等待集群至少存在 8 个节点

    等待 5 分钟,或者10 个节点上线后,才进行数据恢复,这取决于哪个条件先达到。

    这三个设置可以在集群重启的时候避免过多的分片交换。这可能会让数据恢复从数个小时缩短为几秒钟。

    注意:这些配置只能设置在 config/elasticsearch.yml 文件中或者是在命令行里(它们不能动态更新)它们只在整个集群重启的时候有实质性作用。

    垃圾回收机制

    ​ Elasticsearch 默认的垃圾回收器( GC )是 CMS。 这个垃圾回收器可以和应用并行处理,以便它可以最小化停顿。 然而,它有两个 stop-the-world 阶段,处理大内存也有点吃力。

    ​ G1 垃圾回收器( G1GC ): 这款新的 GC 被设计,旨在比 CMS 更小的暂停时间,以及对大内存的处理能力。 它的原理是把内存分成许多区域,并且预测哪些区域最有可能需要回收内存。通过优先收集这些区域( garbage first ),产生更小的暂停时间,从而能应对更大的内存。必要时可以使用G1GC代替CMS

    线程池

    ​ Elasticsearch 默认的线程设置已经是很合理的了。对于所有的线程池(除了 搜索 ),线程个数是根据 CPU 核心数设置的。 如果你有 8 个核,你可以同时运行的只有 8 个线程,只分配 8 个线程给任何特定的线程池是有道理的。

    搜索线程池设置的大一点,配置为 int(( 核心数 * 3 )/ 2 )+ 1 。

    如果认为某些线程可能会阻塞(如磁盘上的 I/O 操作),想加大线程,对于 Elasticsearch 来说这并不是一个问题:因为大多数 I/O 的操作是由 Lucene 线程管理的,而不是 Elasticsearch。

    此外,线程池通过传递彼此之间的工作配合。你不必再因为它正在等待磁盘写操作而担心网络线程阻塞, 因为网络线程早已把这个工作交给另外的线程池,并且网络进行了响应。

    最后,你的处理器的计算能力是有限的,拥有更多的线程会导致你的处理器频繁切换线程上下文。 一个处理器同时只能运行一个线程。所以当它需要切换到其它不同的线程的时候,它会存储当前的状态(寄存器等等),然后加载另外一个线程。 如果幸运的话,这个切换发生在同一个核心,如果不幸的话,这个切换可能发生在不同的核心,这就需要在内核间总线上进行传输。

    这个上下文的切换,会给 CPU 时钟周期带来管理调度的开销;在现代的 CPUs 上,开销估计高达 30 μs。也就是说线程会被堵塞超过 30 μs,如果这个时间用于线程的运行,极有可能早就结束了。

    所以,如果在调整线程数之前, 首先要关注CPU 核心数,最多设置成核心数的两倍,再多了都是浪费。

    堆内存:大小和交换

    ​ Elasticsearch 默认安装后设置的堆内存是 1 GB。 对于任何一个业务部署来说, 这个设置都太小了。如果你正在使用这些默认堆内存配置,您的集群可能会出现问题。

    这里有两种方式修改 Elasticsearch 的堆内存。最简单的一个方法就是指定 ES_HEAP_SIZE 环境变量。服务进程在启动时候会读取这个变量,并相应的设置堆的大小。 比如,你可以用下面的命令设置它:

    export ES_HEAP_SIZE=10g

    此外,你也可以通过命令行参数的形式,在程序启动的时候把内存大小传递给它,如果你觉得这样更简单的话:

    ./bin/elasticsearch -Xmx10g -Xms10g

    确保堆内存最小值( Xms )与最大值( Xmx )的大小是相同的,防止程序在运行时改变堆内存大小, 这是一个很耗系统资源的过程。

    通常来说,设置 ES_HEAP_SIZE 环境变量,比直接写 -Xmx -Xms 更好一点。

    Swapping

    ​ 内存交换 到磁盘对服务器性能来说是 致命 的。一个内存操作必须能够被快速执行,如果内存交换到磁盘上,一个 100 微秒的操作可能变成 10 毫秒。 那么多 10 微秒的操作时延累加起来可想而知 swapping 对于性能是多么可怕。最好的办法就是在你的操作系统中完全禁用 swap。这样可以暂时禁用:

    sudo swapoff -a

    如果需要永久禁用,你可能需要修改 /etc/fstab 文件,这要参考你的操作系统相关文档。

    如果你并不打算完全禁用 swap,也可以选择降低 swappiness 的值。 这个值决定操作系统交换内存的频率。 这可以预防正常情况下发生交换,但仍允许操作系统在紧急情况下发生交换。

    对于大部分Linux操作系统,可以在 sysctl 中这样配置:

    vm.swappiness = 1

    swappiness设置为1比设置为0要好,因为在一些内核版本swappiness设置为0会触发系统 OOM-killer(注:Linux 内核的 Out of Memory(OOM)killer 机制)。

    最后,如果上面的方法都不合适,你需要打开配置文件中的 mlockall 开关。 它的作用就是允许 JVM 锁住内存,禁止操作系统交换出去。在你的 elasticsearch.yml 文件中,设置如下:

    bootstrap.mlockall: true

    滚动重启

    ​ 如遇到Elasticsearch 版本升级,或者服务器自身的一些维护操作等需要保持集群在线和可操作,但是逐一把节点下线的场景,就需要有一种特别的方法来完成一次滚动重启。

    正常情况下,Elasticsearch 希望你的数据被完全的复制和均衡的分布。如果你手动关闭了一个节点,集群会立刻发现节点的丢失并开始再平衡。如果节点的维护是短期工作的话,这一点就很烦人了,因为大型分片的再平衡需要花费相当的时间(想想尝试复制 1TB 的数据——即便在高速网络上也是不一般的事情了)。

    我们需要的是,告诉 Elasticsearch 推迟再平衡,因为对外部因子影响下的集群状态,我们自己更了解。操作流程如下:

    可能的话,停止索引新的数据。虽然不是每次都能真的做到,但是这一步可以帮助提高恢复速度。

    禁止分片分配。这一步阻止 Elasticsearch 再平衡缺失的分片,直到你告诉它可以进行了。如果你知道维护窗口会很短,这个主意棒极了。你可以像下面这样禁止分配:

    PUT /_cluster/settings

    {

       "transient" : {

           "cluster.routing.allocation.enable" : "none"

       }

    }

    关闭单个节点。

    执行维护/升级。

    重启节点,然后确认它加入到集群了。

    用如下命令重启分片分配:

    PUT /_cluster/settings

    {

       "transient" : {

           "cluster.routing.allocation.enable" : "all"

       }

    }

    分片再平衡会花一些时间。一直等到集群变成 绿色 状态后再继续。

    重复第 2 到 6 步操作剩余节点。

    到这步你可以安全的恢复索引了(如果你之前停止了的话),不过等待集群完全均衡后再恢复索引,也会有助于提高处理速度。

    存储

    ​ 磁盘在现代服务器上通常都是瓶颈。Elasticsearch 重度使用磁盘,磁盘能处理的吞吐量越大,节点就越稳定。这里有一些优化磁盘 I/O 的技巧:

    使用 SSD。

    使用 RAID 0。条带化 RAID 会提高磁盘 I/O,代价显然就是当一块硬盘故障时整个就故障了。不要使用镜像或者奇偶校验 RAID 因为副本已经提供了这个功能。

    使用多块硬盘,并允许 Elasticsearch 通过多个 path.data 目录配置把数据条带化分配到它们上面。

    使用批量请求

    ​ 批量的大小则取决于数据、分析和集群配置,建议每次批量数据 5–15 MB大小。同时可以增加批量写入的并发度(多线程等等办法)。

    动态变更设置

    ​ Elasticsearch 里很多设置都是动态的,可以通过 API 修改。需要强制重启节点(或者集群)的配置修改都要极力避免。

    集群更新 API 有两种工作模式:

    临时(Transient)

    这些变更在集群重启之前一直会生效。一旦整个集群重启,这些配置就被清除。

    永久(Persistent)

    这些变更会永久存在直到被显式修改。即使全集群重启它们也会存活下来并覆盖掉静态配置文件里的选项。

    临时或永久配置需要在 JSON 体里分别指定:

    PUT /_cluster/settings

    {

       "persistent" : {

           "discovery.zen.minimum_master_nodes" : 2

       },

       "transient" : {

           "indices.store.throttle.max_bytes_per_sec" : "50mb"

       }

    }

    相关文章

      网友评论

          本文标题:ElasticSearch优化

          本文链接:https://www.haomeiwen.com/subject/gvwjnxtx.html