美文网首页
ELK&H3c监控篇

ELK&H3c监控篇

作者: 白小黑66黑 | 来源:发表于2019-06-19 16:41 被阅读0次

ELK 更多的是用于做系统和应用层的监控, 网工用ELK的较少,最近把几百台交换机的syslog,通过python脚本,全部指向了elk,这里整理一下ELK相关的配置。

一: 功能描述

ELK的功能这里简单描述一下, 具体的描述请参考google 或百度描述。

L:  logstash  :ELK的最后端工具, 用来收集日志, 然后根据自定义的规则对收集到的日志信息进行切片之类的操作,使信息统一化标准化。 

       在实际工作中, 比如你可以将apache的日志发送给ELK服务器的logstash,也可以将交换机的syslog发送给logstash,也可以将其他应用的log日志发送给logstash. 很明显,交换机的syslog和apache的log 的格式和关键字是不相同的, logstash在这里的功能就是将这些风格迥异的日志统一收集汇总起来,然后按照某些规则进行分类,进行适当的标准化和统一化,在这一基础上, Elasticsearch才能完成下一步工作。

2: elasticsearch  ELK的夹心层, 本质就是用来提供搜索功能。 试想当海量的服务器和交换机,以及大量应用的日志全部吐到ELK服务器上, 由logstash统一存储了, 现在你想 根据某一个关键字, 比如error,  你想看到所有  包含  “error” .这一关键字的所有日志,这个时候需要的就是E  来完成自已的功能了。

3: K: kibana, ELK 的最前台, 前台展示工具。 L 完成了日志功能存储分类, E负责搜索日志, 那在哪里执行搜索呢? 这就需要Kibanan来提供一个人性化的web前台了。 通过web来对日志进行展示和分析。

本次安装ELK只为了收集交换机日志, 几百台交换机的日志对于服务器的要求并不高,所以本次部署,ELK全部基于一台服务器完成。

二: 安装

CentOS Linux release 7.6.1810 (Core)

准备工作:

1:基础软件安装:

yum install wget lrzsz unzip

cd /etc/yum.repos.d/

wgethttp://mirrors.163.com/.help/CentOS7-Base-163.repo

mv CentOS-Base.repo CentOS-Base.repo.bak

mv CentOS7-Base-163.repo CentOS-Base.repo

yum clean all && yum makecache  && yum update

yum install vim net-tools bash-completion wget unzip ntp bzip2 lrzsz -y

2:时区设置,kibana前台展示的日志时间, 会有本机时间,这样解决了 所有客户端时间不准的问题。

timedatectl set-timezone Asia/Shanghai

ntpdate pool.ntp.org

3: 关闭Selinx . 必须不解释。

sed -i "s#SELINUX=enforcing#SELINUX=disabled#g" /etc/selinux/config

4:关闭FW, 这个因人而异。

systemctl stop firewalld.service

systemctl disable firewalld.service

5:改主机名。

vi /etc/hostname

6、修改系统文件描述符大小,必须改。

vim /etc/security/limits.conf

7、修改 vm.max_map_count值

vim /etc/sysctl.conf

最后添加:

vm.max_map_count = 655360

8:

安装java支持:

unzip jdk-11.0.2_linux-x64_bin.rar

rpm -ivh  jdk-11.0.2_linux-x64_bin.rpm

reboot

本次安装不使用yum安装, 原因在于后续的可复制性,如采用yum 安装, 假设当前通过yum安装的版本为7,半年后,通过yum安装的版本为7.6,相关配置可能就会产生变化, 出现了问题又要重新排查, 本次部署了两台服务器, 分别在两地,因此采用tar包安装。

另外, ELK 之间必须有版本匹配关系, 比如说E你用的是version7, 但logstash用版本6,则无法完成安装对接。

安装ELA:

groupadd elasticsearch

useradd elasticsearch -g elasticsearch

tar -zxf elasticsearch-7.1.1-linux-x86_64.tar.gz

mv elasticsearch-7.1.1 elasticsearch

4、将elasticsearch目录授权给elasticsearch用户

chown -R elasticsearch:elasticsearch /opt/elasticsearch

5、修改elasticsearch配置文件

vim /opt/elasticsearch/config/elasticsearch.yml

修改配置文件有一点比较重要,你修改的内容的每行,前面必须有一个空格, 否则会报错。

改的内容如下:

cluster.name: elk-master

node.name: node-1

path.data: /opt/elasticsearch/data

path.logs: /opt/elasticsearch/data

network.host: 192.168.1.165

其它网站改的内容参考如下:

bootstrap.memory_lock: true                                     # 是否允许内存swapping

discovery.zen.ping.unicast.hosts: ["IP", "IP", "IP"]            # 服务发现,集群中的主机

discovery.zen.minimum_master_nodes: 2                          # 决定了有资格作为master的节点的最小数量,官方推荐N/2 + 1

gateway.recover_after_nodes: 3                                  # 少于三台的时候,recovery

6、切换到elasticsearch用户启动elasticsearch

 su - elasticsearch

/opt/elasticsearch/bin/elasticsearch -d

可以先 /opt/elasticsearch/bin/elasticsearch 看启动报错

安装logstash:

tar -zxf logstash-7.1.1.tar.gz

mv logstash-7.1.1 logstash

启动logstash:

看一下logstash有没有正确安装启动:

bin/logstash -e 'input { stdin {} } output { stdout{} }'

挂载sw.conf文件, 并启动logstash,收集syslog日志:

/opt/logstash/bin/logstash -f /opt/logstash/config/sw.conf &

sw.conf如下:

input{

    tcp {port =>

                                5002 type =>

                                "Cisco"}

    udp {port =>

                                514 type =>

                                "HUAWEI"}

    udp {port =>

                                5002 type =>

                                "Cisco"}

    udp {port =>

                                5003 type =>

                                "H3C"}

}

filter {

    if [type] ==

                                "Cisco"{

    grok{

    match => { "message"

                                =>

                                "<%{BASE10NUM:syslog_pri}>%{NUMBER:log_sequence}: .%{SYSLOGTIMESTAMP:timestamp}: %%{DATA:

facility}-%{POSINT:severity}-%{CISCO_REASON:mnemonic}: %{GREEDYDATA:message}" }

    match => { "message"

                                =>

                                "<%{BASE10NUM:syslog_pri}>%{NUMBER:log_sequence}: %{SYSLOGTIMESTAMP:timestamp}: %%{DATA:f

acility}-%{POSINT:severity}-%{CISCO_REASON:mnemonic}: %{GREEDYDATA:message}" }

    add_field => {"severity_code"

                                =>

                                "%{severity}"}

    overwrite => ["message"]

    }   

}

    else

                                if [type] ==

                                "H3C"{

    grok {

    match => { "message"

                                =>

                                "<%{BASE10NUM:syslog_pri}>%{SYSLOGTIMESTAMP:timestamp} %{YEAR:year} %{DATA:hostname} %%%{

DATA:vvmodule}/%{POSINT:severity}/%{DATA:digest}: %{GREEDYDATA:message}" }

    remove_field => [ "year" ]

    add_field => {"severity_code"

                                =>

                                "%{severity}"}

    overwrite => ["message"]

    }

}

                                else

                                if [type] ==

                                "HUAWEI"{

    grok {

      match => { "message"

                                =>

                                "<%{BASE10NUM:syslog_pri}>%{SYSLOGTIMESTAMP:timestamp} %{DATA:hostname} %%%{DATA:ddModule

Name}/%{POSINT:severity}/%{DATA:Brief}:%{GREEDYDATA:message}"}

      match => { "message"

                                =>

                                "<%{BASE10NUM:syslog_pri}>%{SYSLOGTIMESTAMP:timestamp} %{DATA:hostname} %{DATA:ddModuleNa

me}/%{POSINT:severity}/%{DATA:Brief}:%{GREEDYDATA:message}"}

      remove_field => [ "timestamp" ]

    add_field => {"severity_code"

                                =>

                                "%{severity}"}

    overwrite => ["message"]

    }

}

mutate {

        gsub => [

        "severity", "0", "Emergency",

        "severity", "1", "Alert",

        "severity", "2", "Critical",

        "severity", "3", "Error",

        "severity", "4", "Warning",

        "severity", "5", "Notice",

        "severity", "6", "Informational",

        "severity", "7", "Debug"

        ]

    }

}

output{

    elasticsearch {

        index =>

                                "syslog-%{+YYYY.MM.dd}"

        hosts => ["192.168.1.165:9200"]

    }

}

安装kibana:

tar -xzf kibana-7.1.1-linux-x86_64.tar.gz

版本号需要和Elasticsearch 相同

mv kibana-7.1.1-linux-x86_64 kibana

2.  修改配置文件 kibana.yml

server.port: 5601                                                      # Kibana端口号

server.host: "IP"                                                      # KibanaIP

elasticsearch.url: "http://esIP:port"                                  # es的IP地址及端口号

server.port: 5601

server.host: "192.168.1.165"

server.name: "elk-master"

elasticsearch.hosts: ["http://192.168.1.165:9200"]

elasticsearch.username: "root"

elasticsearch.password: "passsssworddddd"

i18n.locale: "zh-CN"   最后一行改一下, kibana即可支持中文,无需汉化。

./bin/kibana -l /apps/product/kibana-6.2.2-linux-x86_64/logs/kibana.log &                    # 自己创建一个logs目录用来记录日志

logs/kibana.log   这个目录及文件默认是没有, 需要手动创建。

用http:xxxx:5601即可打开。

在交换机上,配置log info-center之类的, 把交换机的日志打过来,略。

配置kiabana:

第一步

搞一个索引出来:

只要你交换机或其他syslog正常吐到elk上, 则可以看到类似下图:

index 输入 sysl*   , 下一步即可。

日志量排序:

相关文章

网友评论

      本文标题:ELK&H3c监控篇

      本文链接:https://www.haomeiwen.com/subject/xuwkqctx.html