美文网首页
Elastic Stack -- 日志管理

Elastic Stack -- 日志管理

作者: saoraozhe3hao | 来源:发表于2018-11-12 13:24 被阅读0次

    官网:https://www.elastic.co/

    日志大数据系统的组成
    日志记录工具:Log4j 2、Apache Commons Logging等
    日志采集器:部署在每台服务器上,采集数据到缓冲队列,例如 Elastic Beats、Elastic Logstash、Fluentd、Apache Flume
    日志缓冲队列(可选):RocketMQ,Kafka,Redis等
    日志解析器(可选):从缓冲队列里读取日志,转成JSON,存到日志存储系统。例如Elastic Logstash、Fluentd
    日志存储系统:Elasticsearch、MongoDB等NoSQL
    日志检索系统:Elasticsearch、Apache Solr等
    日志展示系统:Elastic Kibana等

    概念
    Elastic Stack:elastic.co发布的一序列产品
    ELK:Elasticsearch、Logstash、Kibana
    ELK Stack:Elastic Stack的曾用名

    Beats

    功能:轻量级 采集、发送数据
    产品序列:Filebeat(日志采取)、Metricbeat(操作系统和应用软件 指标数据的采集)、Packetbeat(网络数据采集)、Heartbeat(健康数据采集)

    Filebeat

    文档:https://www.elastic.co/guide/en/beats/filebeat/current/index.html
    配置参考:https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-reference-yml.html

    安装
    1、下载tar.gz 到 /usr,解压tar -zxvf
    2、运行Filebeat:./filebeat -e -C filebeat.yml

    模块
    prospector:勘探者,即input,监控文件变化
    harvester:收割者,即output,读取文件,发送给目标。发送的数据格式为json,字段包含采集时间、采集源、message,message即所采集的日志
    filter:过滤器,在input和output时,过滤掉部分行和filebeat自己加上的字段

    配置
    filebeat.yml

    filebeat.inputs:                        # 是个数组
    - type: log                                # 还可以是标准输入stdin
       paths:                                    # 是个数组
       - /var/log/*.log
       exclude_lines: ['^DBG']         # 排除行
       include_lines: ['^ERR', '^WARN']  # 包含行
       exclude_files: ['.gz$']  # 排除文件
    
    output.elasticsearch:                 # 输出到elasticsearch,还可以输出到console、file、Logstash、Kafka、Redis
      hosts: ["localhost:9200"]
    
    processors:  # 输出处理
    - drop_event:  # 在某情况下丢弃本条日志
        when:
           equals:
               http.code: 200
    - drop_fields:           # 丢弃字段
        fields: ["source", "type"]
    - include_fields:   # 只取部分字段
        fields: ["message"]
    
    filebeat.modules:  # 启用通用模块
    - module: nginx
    - module: mysql
    - module: system
    
    Packetbeat

    文档:https://www.elastic.co/guide/en/beats/packetbeat/current/index.html
    配置参考:https://www.elastic.co/guide/en/beats/packetbeat/current/packetbeat-reference-yml.html

    安装
    1、下载tar.gz 到 /usr,解压tar -zxvf
    2、运行Packetbeat:./packetbeat -e -C packetbeat.yml

    配置
    packetbeat.yml

    packetbeat.interfaces.device: any   # 网卡
    packetbeat.protocols:      # 抓包目标
    - type: http
      ports: [80, 8080, 8000, 5000, 8002]
    
    send_request: true  # 是否抓取请求体
    include_body_for: ["application/json"]  # 抓取json请求的body
    
    # output 和 processors 配置,与Filebeat类似
    

    Logstash

    功能:采集、转换、发送数据
    文档:https://www.elastic.co/guide/en/logstash/current/index.html
    历史:Jordan Sissel 于 2009年发布Logstash,2013年被Elasticsearch公司收购

    安装
    1、下载tar.gz 到 /usr,解压tar -zxvf
    2、运行logstash:bin/logstash -f config/logstash.sample.conf

    模块
    input:输入
    filter:过滤与转换
    output:输出

    配置
    config/logstash.sample.conf

    input { 
        stdin { }    # 标准输入
        file {         # 文件输入
            path => "/tmp/access_log"
            start_position => "beginning"
        }
        tcp {     # 网络输入
          port => 5000
          type => syslog
        }
    } 
    
    filter {         
      if [path] =~ "access" {    # 过滤
          mutate { replace => { "type" => "apache_access" } }   # 设置字段的值
          grok {
            # 设置message的格式,COMBINEDAPACHELOG 会被展开成 多个%{pettern:key}
            match => { "message" => "%{COMBINEDAPACHELOG}" }
          }
      } 
      else if "error" in [request]  {
        mutate { replace => { type => "apache_error" } }
      }     
      if [type] == "syslog" {
        grok {
          # %{字段值的来源:字段名}
          match => { "message" => "%{SYSLOGTIMESTAMP:syslog_timestamp} %{SYSLOGHOST:syslog_hostname} %{DATA:syslog_program} %{GREEDYDATA:syslog_message}" }
          add_field => [ "received_at", "%{@timestamp}" ]    # 添加字段
          add_field => [ "received_from", "%{host}" ]
        }
      }
    
      grok {                        # 结构化
        match => { "message" => "%{COMBINEDAPACHELOG}" }
      }
      date {                        # 时间处理
        match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]
      }
    }
    
    output {
      elasticsearch { hosts => ["localhost:9200"] }   # 输出到elasticsearch
      stdout { codec => rubydebug }   # 标准输出,格式为rubydebug
    }
    

    grok模式的定义:https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns

    Elasticsearch

    功能:存储和检索
    详见:https://www.jianshu.com/p/09fdd85d3613

    Kibana

    功能:web界面展示
    文档:https://www.elastic.co/guide/cn/kibana/current/index.html

    安装:
    1、下载tar.gz,放到/usr,解压tar -zxvf
    2、配置 config/kibana.yml

    elasticsearch.url: "http://localhost:9200"  # ES的位置
    server.host: 绑定的IP
    server.port: 端口
    

    3、运行kibana:bin/kibana
    4、访问 IP:5601

    板块
    Dev Tools:编辑和发送请求
    Discover:数据查看,数量统计
    Dashboard:总览
    Visualize:配置图表,显示图表
    Management:设置 与 管理

    Elastic Stack 实践

    1、Packetbeat部署在业务集群
    2、Logstash、Elasticsearch 和 Kibana部署在日志监控集群
    3、Packetbeat 抓取业务包,发给Logstash,处理后存到Elasticsearch

    Packetbeat配置

    packetbeat.protocols:      # 输入
    - type: http
      ports: [80, 8080, 8000, 5000, 8002]
    output.logstash:              # 输出
      hosts: ["localhost:5044"]
    

    Logstash配置

    input {                  # 输入
        beats {  
          port => 5044  
        }    
    } 
    output {          # 输出
      elasticsearch { hosts => ["localhost:9200"] }   # 输出
    }
    

    阿里云

    开放搜索:搜索引擎
    日志服务
    阿里云 · Elasticsearch

    相关文章

      网友评论

          本文标题:Elastic Stack -- 日志管理

          本文链接:https://www.haomeiwen.com/subject/pdoqfqtx.html