Docker——ELK

作者: 我已不是少年郎 | 来源:发表于2020-03-26 11:53 被阅读0次

如果把日志存储文件的话,每次查问题要登录云服务器去下载日志,特别是有多台主机时,还要去多个主机上下载。而ELK则是把所有的日志都集中写入,通过浏览器的方式集中查看,相对来说很方便快捷。

Elasticsearch:日志检索和分析
Logstash:日志的收集,处理和储存
Kibana:日志的可视化

本文采用logback配置IP的方式来写入日志。

业务代码 —> logback —> Tcp/IP —> logstash —> elasticsearch

1、准备

1.1、镜像

docker hub 上没有latest这个tag,所以要像下面这样带上必须带上版本号。

docker pull elasticsearch:7.6.1
docker pull logstash:7.6.1
docker pull kibana:7.6.1

1.2、挂载文件

elasticsearch需要配置一个文件目录。
logstash需要配置一个conf文件。
kibana需要配置一个yml文件。

1.2.1、logstash.conf

input配置一个tcp接收,相当于logstash自己是服务器,监听了9250端口接收这个端口发过来的日志。
output 配置elasticsearch的地址,并创建一个索引,索引供kibana搜索使用。
注意:index 后面的字母不能有大写必须全部小写

input {
  tcp {
    host => "0.0.0.0"
    port => 9250
    mode => "server"
    tags => ["tags"]
    codec => json_lines #可能需要更新logstash插件
  }
}

output {
 #stdout{codec =>rubydebug}
  elasticsearch {
    hosts => ["localhost:9200"]  #这块配置需要带端口号
    index => "anfasmart-%{+YYYY.MM.dd}"
  }
}

1.2.2、kibana.yml

主要修改elasticsearch.hosts,改为elasticsearch所在的IP地址和端口。

#
# ** THIS IS AN AUTO-GENERATED FILE **
#

# Default Kibana configuration for docker target
server.name: kibana
server.host: "0"
elasticsearch.hosts: [ "http://127.0.0.1:9200" ]
xpack.monitoring.ui.container.elasticsearch.enabled: true
i18n.locale: zh-CN

2、启动ELK

2.1、编写docker-compose的yml文件

elk.yml

version: "3"
services:

  elasticsearch:
    image: elasticsearch:7.6.1
    #environment参数配置不一定有用
    environment:  
      - discovery.type=single-node  
      - "ES_JAVA_OPTS=-Xms256m -Xmx256m"
    volumes:
      - "/home/mgr/volumes/elasticsearch/data:/usr/share/elasticsearch/data"
    restart: always
    network_mode: "host"
    container_name: elasticsearch

  logstash:
    image: logstash:7.6.1
    volumes:
      - "./logstash.conf:/usr/share/logstash/pipeline/logstash.conf:ro"
    restart: always
    network_mode: "host"
    container_name: logstash
    depends_on:
      - elasticsearch

  kibana:
    image: kibana:7.6.1
    volumes:
      - "./kibana.yml:/usr/share/kibana/config/kibana.yml:rw"
    restart: always
    network_mode: "host"
    container_name: kibana
    depends_on:
      - elasticsearch

2.2、编写脚本方便使用

elk.sh

#!/bin/bash

mkdir -p /home/mgr/volumes/elasticsearch/data
chmod a+rwx /home/mgr/volumes/elasticsearch/data

#docker-compose 已经添加到系统环境变量里了这里直接调用即可
docker-compose -f elk.yml up -d

执行脚本启动。

3、logback写入日志

3.1、配置logback.xml

logstash的IP引用maven配置文件pom.xml里的值,<logstashIP>192.168.1.81:9250</logstashIP>

logback.xml
<!-- 级别从高到低 OFF 、 FATAL 、 ERROR 、 WARN 、 INFO 、 DEBUG 、 TRACE 、 ALL -->
<!-- 日志输出规则 根据当前ROOT 级别,日志输出时,级别高于root默认的级别时 会输出 -->
<!-- 以下 每个配置的 filter 是过滤掉输出文件里面,会出现高级别文件,依然出现低级别的日志信息,通过filter 过滤只记录本级别的日志 -->
<!-- scan 当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true。 -->
<!-- scanPeriod 设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒。当scan为true时,此属性生效。默认的时间间隔为1分钟。 -->
<!-- debug 当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。 -->
<configuration scan="false" scanPeriod="60 seconds" debug="false">
    <!-- 动态日志级别 -->
    <jmxConfigurator />
    <!-- 定义日志文件 输出位置,引用maven配置文件pom.xml里的值 -->
    <property name="log_dir" value="${logPath}" />
    <!-- 日志最大的历史 30天 -->
    <property name="maxHistory" value="30" />
    <!-- Logstash的IP地址,引用maven配置文件pom.xml里的值 -->
    <property name="logstash_ip" value="${logstashIP}" />

    <!-- ConsoleAppender 控制台输出日志 -->
    <appender name="console" class="ch.qos.logback.core.ConsoleAppender">
        <encoder>
            <pattern>
                <!-- 设置日志输出格式 -->
                %d{yyyy-MM-dd HH:mm:ss.SSS} %-5level %logger - %msg%n
            </pattern>
        </encoder>
    </appender>

    <!-- ERROR级别日志 -->
    <!-- 滚动记录文件,先将日志记录到指定文件,当符合某个条件时,将日志记录到其他文件 RollingFileAppender -->
    <appender name="ERROR" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <!-- 过滤器,只记录WARN级别的日志 -->
        <!-- 果日志级别等于配置级别,过滤器会根据onMath 和 onMismatch接收或拒绝日志。 -->
        <filter class="ch.qos.logback.classic.filter.LevelFilter">
            <!-- 设置过滤级别 -->
            <level>ERROR</level>
            <!-- 用于配置符合过滤条件的操作 -->
            <onMatch>ACCEPT</onMatch>
            <!-- 用于配置不符合过滤条件的操作 -->
            <onMismatch>DENY</onMismatch>
        </filter>
        <!-- 最常用的滚动策略,它根据时间来制定滚动策略.既负责滚动也负责出发滚动 -->
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!--日志输出位置 可相对、和绝对路径 -->
            <fileNamePattern>
                ${log_dir}/error/error_%d{yyyy-MM-dd}.txt
            </fileNamePattern>
            <!-- 可选节点,控制保留的归档文件的最大数量,超出数量就删除旧文件假设设置每个月滚动,且<maxHistory>是6, 则只保存最近6个月的文件,删除之前的旧文件。注意,删除旧文件是,那些为了归档而创建的目录也会被删除 -->
            <maxHistory>${maxHistory}</maxHistory>
        </rollingPolicy>
        <encoder>
            <pattern>
                <!-- 设置日志输出格式 -->
                %d{yyyy-MM-dd HH:mm:ss.SSS} %-5level %logger - %msg%n
            </pattern>
        </encoder>
    </appender>

    <!-- WARN级别日志 appender -->
    <appender name="WARN" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <!-- 过滤器,只记录WARN级别的日志 -->
        <!-- 果日志级别等于配置级别,过滤器会根据onMath 和 onMismatch接收或拒绝日志。 -->
        <filter class="ch.qos.logback.classic.filter.LevelFilter">
            <!-- 设置过滤级别 -->
            <level>WARN</level>
            <!-- 用于配置符合过滤条件的操作 -->
            <onMatch>ACCEPT</onMatch>
            <!-- 用于配置不符合过滤条件的操作 -->
            <onMismatch>DENY</onMismatch>
        </filter>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!--日志输出位置 可相对、和绝对路径 -->
            <fileNamePattern>${log_dir}/warn/warn_%d{yyyy-MM-dd}.txt</fileNamePattern>
            <maxHistory>${maxHistory}</maxHistory>
        </rollingPolicy>
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} %-5level %logger - %msg%n</pattern>
        </encoder>
    </appender>

    <!-- INFO级别日志 appender -->
    <appender name="INFO" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <filter class="ch.qos.logback.classic.filter.LevelFilter">
            <level>INFO</level>
            <onMatch>ACCEPT</onMatch>
            <onMismatch>DENY</onMismatch>
        </filter>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <fileNamePattern>${log_dir}/info/info_%d{yyyy-MM-dd}.txt</fileNamePattern>
            <maxHistory>${maxHistory}</maxHistory>
        </rollingPolicy>
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} %-5level %logger - %msg%n</pattern>
        </encoder>
    </appender>

    <!-- DEBUG级别日志 appender -->
    <appender name="DEBUG" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <filter class="ch.qos.logback.classic.filter.LevelFilter">
            <level>DEBUG</level>
            <onMatch>ACCEPT</onMatch>
            <onMismatch>DENY</onMismatch>
        </filter>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <fileNamePattern>${log_dir}/debug/debug_%d{yyyy-MM-dd}.txt</fileNamePattern>
            <maxHistory>${maxHistory}</maxHistory>
        </rollingPolicy>
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} %-5level %logger - %msg%n</pattern>
        </encoder>
    </appender>

    <!-- TRACE级别日志 appender -->
    <appender name="TRACE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <filter class="ch.qos.logback.classic.filter.LevelFilter">
            <level>TRACE</level>
            <onMatch>ACCEPT</onMatch>
            <onMismatch>DENY</onMismatch>
        </filter>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <fileNamePattern>${log_dir}/trace/trace_%d{yyyy-MM-dd}.txt</fileNamePattern>
            <maxHistory>${maxHistory}</maxHistory>
        </rollingPolicy>
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} %-5level %logger - %msg%n</pattern>
        </encoder>
    </appender>

    <appender name="LOGSTASH" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
        <destination>${logstash_ip}</destination>
        <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder" >
            <pattern>
                <pattern>
                    {
                    "logLevel": "%level",
                    "serviceName": "${springAppName:-}",
                    "pid": "${PID:-}",
                    "thread": "%thread",
                    "class": "%logger{40}",
                    "rest": "%message"
                    }
                </pattern>
            </pattern>
        </encoder>
    </appender>

    <!-- root级别 DEBUG -->
    <root>
        <!-- 打印debug级别日志及以上级别日志 -->
        <level value="info" />
        <!-- 控制台输出 -->
        <appender-ref ref="console" />
        <!-- 文件输出 -->
<!--        <appender-ref ref="ERROR" />
        <appender-ref ref="INFO" />
        <appender-ref ref="WARN" />
        <appender-ref ref="DEBUG" />
        <appender-ref ref="TRACE" />-->
        <!-- LOGSTASH -->
        <appender-ref ref="LOGSTASH" />
    </root>
</configuration>

3.2、添加maven依赖

<!-- logback日志配置开始 -->
        <!-- slf4j -->
        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-api</artifactId>
            <version>${slf4j.version}</version>
        </dependency>

        <!-- logback -->
        <dependency>
            <groupId>net.logstash.logback</groupId>
            <artifactId>logstash-logback-encoder</artifactId>
            <version>6.3</version>
        </dependency>

        <dependency>
            <groupId>ch.qos.logback</groupId>
            <artifactId>logback-core</artifactId>
            <version>${logback.version}</version>
        </dependency>

        <dependency>
            <groupId>ch.qos.logback</groupId>
            <artifactId>logback-classic</artifactId>
            <version>${logback.version}</version>
        </dependency>

        <dependency>
            <groupId>ch.qos.logback</groupId>
            <artifactId>logback-access</artifactId>
            <version>${logback.version}</version>
        </dependency>
        <!-- logback日志配置结束 -->

最后业务逻辑代码不需要任何改变,像正常使用log一样就OK。

浏览器输入:192.168.1.81:5601 ,就能看到kibana的管理界面,然后创建索引之后就能查看日志了。

相关文章

网友评论

    本文标题:Docker——ELK

    本文链接:https://www.haomeiwen.com/subject/esxoyhtx.html