案例

作者: kar_joe | 来源:发表于2020-02-05 21:15 被阅读0次

    案例1

    1. top查看系统整体情况
    # 按1切换到每个CPU的使用情况 
    $ top 
    top - 14:43:43 up 1 day,  1:39,  2 users,  load average: 2.48, 1.09, 0.63 
    Tasks: 130 total,   2 running,  74 sleeping,   0 stopped,   0 zombie 
    %Cpu0  :  0.7 us,  6.0 sy,  0.0 ni,  0.7 id, 92.7 wa,  0.0 hi,  0.0 si,  0.0 st 
    %Cpu1  :  0.0 us,  0.3 sy,  0.0 ni, 92.3 id,  7.3 wa,  0.0 hi,  0.0 si,  0.0 st 
    KiB Mem :  8169308 total,   747684 free,   741336 used,  6680288 buff/cache 
    KiB Swap:        0 total,        0 free,        0 used.  7113124 avail Mem 
    
      PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND 
    18940 root      20   0  656108 355740   5236 R   6.3  4.4   0:12.56 python 
    1312 root      20   0  236532  24116   9648 S   0.3  0.3   9:29.80 python3 
    

    CPU0 的使用率非常高,它的系统 CPU 使用率(sys%)为 6%,而 iowait 超过了 90%。这说明 CPU0 上,可能正在运行 I/O 密集型的进程。
    python 进程的 CPU 使用率已经达到了 6%,而其余进程的 CPU 使用率都比较低,不超过 0.3%。看起来 python 是个可疑进程。
    最后再看内存的使用情况,总内存 8G,剩余内存只有 730 MB,而 Buffer/Cache 占用内存高达 6GB 之多,这说明内存主要被缓存占用。

    1. iostat查看系统IO
    # -d表示显示I/O性能指标,-x表示显示扩展统计(即所有I/O指标) 
    $ iostat -x -d 1 
    Device            r/s     w/s     rkB/s     wkB/s   rrqm/s   wrqm/s  %rrqm  %wrqm r_await w_await aqu-sz rareq-sz wareq-sz  svctm  %util 
    loop0            0.00    0.00      0.00      0.00     0.00     0.00   0.00   0.00    0.00    0.00   0.00     0.00     0.00   0.00   0.00 
    sdb              0.00    0.00      0.00      0.00     0.00     0.00   0.00   0.00    0.00    0.00   0.00     0.00     0.00   0.00   0.00 
    sda              0.00   64.00      0.00  32768.00     0.00     0.00   0.00   0.00    0.00 7270.44 1102.18     0.00   512.00  15.50  99.20
    

    观察 iostat 的最后一列,你会看到,磁盘 sda 的 I/O 使用率已经高达 99%,很可能已经接近 I/O 饱和。再看前面的各个指标,每秒写磁盘请求数是 64 ,写大小是 32 MB,写请求的响应时间为 7 秒,而请求队列长度则达到了 1100。超慢的响应时间和特长的请求队列长度,进一步验证了 I/O 已经饱和的猜想。此时,sda 磁盘已经遇到了严重的性能瓶颈。

    1. pidstat查看进程
    $ pidstat -d 1 
    
    15:08:35      UID       PID   kB_rd/s   kB_wr/s kB_ccwr/s iodelay  Command 
    15:08:36        0     18940      0.00  45816.00      0.00      96  python 
    
    15:08:36      UID       PID   kB_rd/s   kB_wr/s kB_ccwr/s iodelay  Command 
    15:08:37        0       354      0.00      0.00      0.00     350  jbd2/sda1-8 
    15:08:37        0     18940      0.00  46000.00      0.00      96  python 
    15:08:37        0     20065      0.00      0.00      0.00    1503  kworker/u4:2 
    

    python 进程的写比较大,而且每秒写的数据超过 45 MB,比上面 iostat 发现的 32MB 的结果还要大。ython 进程的 PID 号, 18940,正是top查看时 CPU 使用率最高的进程。

    1. strace查看系统调用
    $ strace -p 18940 
    strace: Process 18940 attached 
    ...
    mmap(NULL, 314576896, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x7f0f7aee9000 
    mmap(NULL, 314576896, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0x7f0f682e8000 
    write(3, "2018-12-05 15:23:01,709 - __main"..., 314572844 
    ) = 314572844 
    munmap(0x7f0f682e8000, 314576896)       = 0 
    write(3, "\n", 1)                       = 1 
    munmap(0x7f0f7aee9000, 314576896)       = 0 
    close(3)                                = 0 
    stat("/tmp/logtest.txt.1", {st_mode=S_IFREG|0644, st_size=943718535, ...}) = 0 
    

    strace -p PID后加上-f,多进程和多线程都可以跟踪
    从 write() 系统调用上,进程向文件描述符编号为 3 的文件中,写入了 300MB 的数据。

    1. lsof确定读写文件名
    $ lsof -p 18940 
    COMMAND   PID USER   FD   TYPE DEVICE  SIZE/OFF    NODE NAME 
    python  18940 root  cwd    DIR   0,50      4096 1549389 / 
    python  18940 root  rtd    DIR   0,50      4096 1549389 / 
    … 
    python  18940 root    2u   CHR  136,0       0t0       3 /dev/pts/0 
    python  18940 root    3w   REG    8,1 117944320     303 /tmp/logtest.txt 
    

    lsof专门用来查看进程打开文件列表

    1. 回溯代码
      找到操作/tmp/logtest.txt 文件的代码片段

    2. 总结
      磁盘IO较大时,不仅会使CPU消耗在iowait上,还有可能耗费大量内存在buff/cache上。

    案例2

    redis读写导致系统相应慢

    1. top查看系统整体情况
    $ top
    top - 12:46:18 up 11 days,  8:49,  1 user,  load average: 1.36, 1.36, 1.04
    Tasks: 137 total,   1 running,  79 sleeping,   0 stopped,   0 zombie
    %Cpu0  :  6.0 us,  2.7 sy,  0.0 ni,  5.7 id, 84.7 wa,  0.0 hi,  1.0 si,  0.0 st
    %Cpu1  :  1.0 us,  3.0 sy,  0.0 ni, 94.7 id,  0.0 wa,  0.0 hi,  1.3 si,  0.0 st
    KiB Mem :  8169300 total,  7342244 free,   432912 used,   394144 buff/cache
    KiB Swap:        0 total,        0 free,        0 used.  7478748 avail Mem
    
      PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND
     9181 root      20   0  193004  27304   8716 S   8.6  0.3   0:07.15 python
     9085 systemd+  20   0   28352   9760   1860 D   5.0  0.1   0:04.34 redis-server
      368 root      20   0       0      0      0 D   1.0  0.0   0:33.88 jbd2/sda1-8
      149 root       0 -20       0      0      0 I   0.3  0.0   0:10.63 kworker/0:1H
     1549 root      20   0  236716  24576   9864 S   0.3  0.3  91:37.30 python3
    

    CPU0 的 iowait 比较高,已经达到了 84%;而各个进程的 CPU 使用率都不太高。

    1. iostat查看系统IO
    $ iostat -d -x 1
    Device            r/s     w/s     rkB/s     wkB/s   rrqm/s   wrqm/s  %rrqm  %wrqm r_await w_await aqu-sz rareq-sz wareq-sz  svctm  %util
    ...
    sda              0.00  492.00      0.00   2672.00     0.00   176.00   0.00  26.35    0.00    1.76   0.00     0.00     5.43   0.00   0.00
    

    磁盘 sda 每秒的写数据(wkB/s)为 2.5MB,I/O 使用率(%util)是 0,虽然有些 I/O 操作,但并没导致磁盘的 I/O 瓶颈。

    1. pidstat查看进程IO状态
    $ pidstat -d 1
    12:49:35      UID       PID   kB_rd/s   kB_wr/s kB_ccwr/s iodelay  Command
    12:49:36        0       368      0.00     16.00      0.00      86  jbd2/sda1-8
    12:49:36      100      9085      0.00    636.00      0.00       1  redis-server
    

    I/O 最多的进程是 PID 为 9085 的 redis-server,并且它也刚好是在写磁盘。

    1. strace查看进程系统调用
    # -f表示跟踪子进程和子线程,-T表示显示系统调用的时长,-tt表示显示跟踪时间
    $ strace -f -T -tt -p 9085
    [pid  9085] 14:20:16.826131 epoll_pwait(5, [{EPOLLIN, {u32=8, u64=8}}], 10128, 65, NULL, 8) = 1 <0.000055>
    [pid  9085] 14:20:16.826301 read(8, "*2\r\n$3\r\nGET\r\n$41\r\nuuid:5b2e76cc-"..., 16384) = 61 <0.000071>
    [pid  9085] 14:20:16.826477 read(3, 0x7fff366a5747, 1) = -1 EAGAIN (Resource temporarily unavailable) <0.000063>
    [pid  9085] 14:20:16.826645 write(8, "$3\r\nbad\r\n", 9) = 9 <0.000173>
    [pid  9085] 14:20:16.826907 epoll_pwait(5, [{EPOLLIN, {u32=8, u64=8}}], 10128, 65, NULL, 8) = 1 <0.000032>
    [pid  9085] 14:20:16.827030 read(8, "*2\r\n$3\r\nGET\r\n$41\r\nuuid:55862ada-"..., 16384) = 61 <0.000044>
    [pid  9085] 14:20:16.827149 read(3, 0x7fff366a5747, 1) = -1 EAGAIN (Resource temporarily unavailable) <0.000043>
    [pid  9085] 14:20:16.827285 write(8, "$3\r\nbad\r\n", 9) = 9 <0.000141>
    [pid  9085] 14:20:16.827514 epoll_pwait(5, [{EPOLLIN, {u32=8, u64=8}}], 10128, 64, NULL, 8) = 1 <0.000049>
    [pid  9085] 14:20:16.827641 read(8, "*2\r\n$3\r\nGET\r\n$41\r\nuuid:53522908-"..., 16384) = 61 <0.000043>
    [pid  9085] 14:20:16.827784 read(3, 0x7fff366a5747, 1) = -1 EAGAIN (Resource temporarily unavailable) <0.000034>
    [pid  9085] 14:20:16.827945 write(8, "$4\r\ngood\r\n", 10) = 10 <0.000288>
    [pid  9085] 14:20:16.828339 epoll_pwait(5, [{EPOLLIN, {u32=8, u64=8}}], 10128, 63, NULL, 8) = 1 <0.000057>
    [pid  9085] 14:20:16.828486 read(8, "*3\r\n$4\r\nSADD\r\n$4\r\ngood\r\n$36\r\n535"..., 16384) = 67 <0.000040>
    [pid  9085] 14:20:16.828623 read(3, 0x7fff366a5747, 1) = -1 EAGAIN (Resource temporarily unavailable) <0.000052>
    [pid  9085] 14:20:16.828760 write(7, "*3\r\n$4\r\nSADD\r\n$4\r\ngood\r\n$36\r\n535"..., 67) = 67 <0.000060>
    [pid  9085] 14:20:16.828970 fdatasync(7) = 0 <0.005415>
    [pid  9085] 14:20:16.834493 write(8, ":1\r\n", 4) = 4 <0.000250>
    

    系统调用来看, epoll_pwait、read、write、fdatasync 这些系统调用都比较频繁。刚才观察到的写磁盘,应该是 write 或者 fdatasync 导致。

    1. lsof确定进程操作的文件句柄
    $ lsof -p 9085
    redis-ser 9085 systemd-network    3r     FIFO   0,12      0t0 15447970 pipe
    redis-ser 9085 systemd-network    4w     FIFO   0,12      0t0 15447970 pipe
    redis-ser 9085 systemd-network    5u  a_inode   0,13        0    10179 [eventpoll]
    redis-ser 9085 systemd-network    6u     sock    0,9      0t0 15447972 protocol: TCP
    redis-ser 9085 systemd-network    7w      REG    8,1  8830146  2838532 /data/appendonly.aof
    redis-ser 9085 systemd-network    8u     sock    0,9      0t0 15448709 protocol: TCP
    

    描述符编号为 3 的是一个 pipe 管道,5 号是 eventpoll,7 号是一个普通文件,而 8 号是一个 TCP socket,读写对应标准的“请求 - 响应”格式。
    只有 7 号普通文件才会产生磁盘写,而它操作的文件路径是 /data/appendonly.aof,相应的系统调用包括 write 和 fdatasync。这个文件路径以及 fdatasync 的系统调用都与redis持久化有关。

    5. 确认瓶颈
    $ strace -f -p 9085 -T -tt -e fdatasync
    strace: Process 9085 attached with 4 threads
    [pid  9085] 14:22:52.013547 fdatasync(7) = 0 <0.007112>
    [pid  9085] 14:22:52.022467 fdatasync(7) = 0 <0.008572>
    [pid  9085] 14:22:52.032223 fdatasync(7) = 0 <0.006769>
    ...
    [pid  9085] 14:22:52.139629 fdatasync(7) = 0 <0.008183>
    

    每隔 10ms 左右,就会有一次 fdatasync 调用,并且每次调用本身也要消耗 7~8ms。当前IO写较多,是由于redis配置为总是持久化(appendfsync为always )导致的。

    相关文章

      网友评论

          本文标题:案例

          本文链接:https://www.haomeiwen.com/subject/exisxhtx.html