美文网首页
关于apache 日志的搜集

关于apache 日志的搜集

作者: 云飘月 | 来源:发表于2016-09-09 14:09 被阅读0次

    主要解决生产上越来越多的平台应用访问的可数据化显示


    一、logstash 的 client

    就是从 /data/logs/access.log 进行写入到 kafka 里面

    logstash配置


    input{

    file {

    type => "apachelogs"

    path => "/data/logs/access.log"

    start_position => "beginning"

    }

    }

    filter {

    if [type] == "apachelogs" {

    grok {

    match => {"message" => "%{COMBINEDAPACHELOG}"}

    }

    geoip {

    source => 'cilentip'

    }

    date {

    match => ["timestamp","dd/MMM/yyyy:HH:mm:ss Z"]

    }

    }

    }

    output{

    kafka {

    bootstrap_servers => "192.168.158.129:9092,192.168.158.130:9092,192.168.158.132:9092"

    topic_id => "apachelogs"

    compression_type => "snappy"

    }

    }



    二、logstash 配置server


    input {

    kafka {

    zk_connect => "192.168.158.130:2181,192.168.158.129:2181,192.168.132:2181"

    topic_id => "apachelogs"

    codec =>  json

    reset_beginning => false

    consumer_threads => 5

    decorate_events => true

    }

    }

    output {

    elasticsearch {

    hosts => ["192.168.158.128:9200","192.168.158.131:9200"]

    index => "apachelogs-%{+YYYY-MM-dd}"

    }

    }



    三、查看信息

    1、登 录elk

    http://192.168.158.128:9200/_plugin/head/

      如上图所示:可以看到很多个字段内容  

    2、在kafka监控查看到

    可以看到 apachelogs的在kafka里创建了

    3、登 录kibana

    http://192.168.158.128:5601/

    可以通过id 查对应的错误信息:

    选择饼图

    能进行统计信息

    这里值得提醒的是: /data/logs/access.log的文件必须是今天的日期, logstash 估计会认为是旧的日志文件而不进行提交操作,导致我kafka一直没有数据。因为我是从服务器拿的数据,比较旧的数据,所以要改变一下文件的时间。

    相关文章

      网友评论

          本文标题:关于apache 日志的搜集

          本文链接:https://www.haomeiwen.com/subject/zameettx.html