美文网首页
RAID各级别特性

RAID各级别特性

作者: 像飞翔一样去飞翔 | 来源:发表于2017-01-05 15:22 被阅读0次

    RAID 全称为独立磁盘冗余阵列(Rdeundant Array of Independent Disks),基本思想就是把 多个相对便宜的硬盘组合起来,成为一个硬盘阵列组,使性能达到甚至超过一个价格昂贵、 容量巨大的硬盘。RAID通常被用在服务器电脑上,使用完全相同的硬盘组成一个逻辑扇区, 因此操作系统只会把它当做一个硬盘。

    • 提高IO能力:磁盘的并行读写

    • 提高耐用性:磁盘的冗余来实现

    标准的RAID

    RAID 分为不同的等级,各个不同的等级均在数据可靠性及读写性能上做了不同的权衡。 在实际应用中,可以依据自己的实际需求选择不同的RAID方案。

    • RAID0

    RAID0 称为条带化(Striping)存储,将数据分段存储于 各个磁盘中,读写均可以并行处理。因此其读写速率为单个磁盘的N倍(N为组成RAID0的磁盘个数),但是却没有数 据冗余,单个磁盘的损坏会导致数据的不可修复。
    大多数striping的实现允许管理者通过调节两个关键的参数来定义数据分段及写入磁盘的 方式,这两个参数对RAID0的性能有很重要的影响。
    优点:极高的磁盘读写效率,不存在校验,不会占用太多CPU资源,设计、使用和配置比较简单
    缺点:无冗余,不能用于对数据安全性要求高的环境
    适用领域:视频生成和编辑、图像编辑。其他需要大的传输带宽的操作

    Paste_Image.png
    • RAID1

    镜像存储(mirroring),没有数据校验。数据被同等地写入两个或多个磁盘中,可想而知,写入速度会比较 慢,但读取速度会比较快。读取速度可以接近所有磁盘吞吐量的总和,写入速度受限于最慢 的磁盘。RAID1 也是磁盘利用率最低的一个。如果用两个不同大小的磁盘建立RAID1,可以用空间较小 的那一个,较大的磁盘多出来的部分可以作他用,不会浪费。
    优点:具有100%数据冗余,提供最高的数据安全保障,理论上可以实现2倍的读取效率,设计和使用比较简单
    缺点:开销大,空间利用率只有50%。在写性能方面提升不大
    适用领域:财务、金融等高可用、高安全的数据存储环境

    Paste_Image.png
    • RAID2

    采用校验冗余,把数据分散为位或块,加入汉明码,间隔写入到磁盘阵列的每个磁盘中。采用了并行存取方式,花费大,成本昂贵。所 以RAID2适合于连续IO,大块IO(比如视频流服务)的情况。

    • RAID3

    数据块被分为更小的块并行传输到各个成员磁盘上,同时计算XOR校验数据存放到专用的校验磁盘上
    优点:读写性能都比较好。当有磁盘损坏时,对整体吞吐量影响较小,减少了开销
    缺点:控制器设计复杂。采用并行存取方式,主轴同步时吞吐量没有提高,校验磁盘的写性能有瓶颈
    适用领域:视频生成和图像、视频编辑等.需要高吞吐量的应用环境

    Paste_Image.png
    • RAID5

    采用独立存取的阵列方式,校验信息被均匀的分散到阵列的各个磁盘上
    RAID5 把数据和相对应的奇偶校验信息存储到组成RAID5的各个磁盘上,并且奇偶校验信息和 相对应的数据分别存储于不同的磁盘上,其中任意N-1块磁盘上都存储完整的数据,也就是 说有相当于一块磁盘容量的空间用于存储奇偶校验信息。因此当RAID5的一个磁盘发生损坏 后,不会影响数据的完整性,从而保证了数据安全。当损坏的磁盘被替换后,RAID还会自动 利用剩下奇偶校验信息去重建此磁盘上的数据,来保持RAID5的高可靠性。
    优点:读性能比较高,中等的写性能,校验信息的分布式存取,避免出现写操作的瓶颈
    缺点:控制器设计复杂,磁盘重建的过程比较复杂
    适用范围:文件服务器、Email服务器、Web服务器等环境、数据库应用

    Paste_Image.png

    混合RAID

    组合不同级别的RAID,目的是扬长避短,产生具有优势特性的混合RAID级别

    • RAID01

    顾名思义,是RAID0和RAID1的结合。先做条带(0),再做镜像(1)。即先分两堆做成raid0,而后将他们做成raid1

    • RAID10

    顾名思义,是RAID1和RAID0的结合。先做镜像,在做条带。即先两两一组做成raid1,而后将这一堆做成raid0
    优点:读性能很高,写性能比较好,数据安全性好,允许同时有N个磁盘失效
    缺点:空间利用率只有50%,开销大
    适用领域:多用于要求高可用性和高安全性的数据库应用

    Paste_Image.png
    • RAID50

    RAID50是RAID5和RAID0的结合,先实现RAID5,再条带化.
    优点:比RAID5有更好的读性能,比相同容量的RAID5重建时间更短,可以容许N个磁盘同时失效
    缺点:设计复杂,比较难实现,同一个RAID5组内的两个磁盘失效会导致整个阵列的失效
    适用范围:大型数据库服务器、应用服务器、文件服务器等应用

    Paste_Image.png

    RAID的实现方式

    • 外接式磁盘阵列:通过扩展卡提供适配能力
    • 内接式RAID:主板集成RAID控制器
    • Software RAID:需要结合内核中的md(multi devices)来实现模拟RAID,生产中不会用

    mdadm命令介绍

    mdadm是linux下用于管理软RAID设备的一个模式化的工具

      语法格式:mdadm [mode] <raiddevice> [options] <component-devices>
      支持的RAID级别:LINEAR, RAID0, RAID1, RAID4, RAID5, RAID6, RAID10; 
    

    它具备四种模式:创建、装配、监控、和管理四种模式

    • -C: 创建模式
    -n #: 使用#个块设备来创建此RAID;
    -l #:指明要创建的RAID的级别;
    -a {yes|no}:自动创建目标RAID设备的设备文件;
    -c CHUNK_SIZE: 指明块大小;
    -x #: 指明空闲盘的个数;
    
    • -D:显示raid的详细信息
    mdadm -D /dev/md#
    
    • 管理模式
    -f: 标记指定磁盘为损坏;
    -a: 添加磁盘
    -r: 移除磁盘
    
    • 观察md的状态
    cat /proc/mdstat
    
    • 停止md设备
    mdadm -S /dev/md#
    

    实战:创建一个10G可用空间的RAID5

    1.准备分区fdisk /dev/sda

    Command (m for help): n
    All primary partitions are in use
    Adding logical partition 7
    First sector (131033088-251658239, default 131033088): 
    Using default value 131033088
    Last sector, +sectors or +size{K,M,G} (131033088-251658239, default 251658239): +5G
    Partition 7 of type Linux and of size 5 GiB is set
    Command (m for help): N
    All primary partitions are in use
    Adding logical partition 8
    First sector (141520896-251658239, default 141520896): 
    Using default value 141520896
    Last sector, +sectors or +size{K,M,G} (141520896-251658239, default 251658239): +5G
    Partition 8 of type Linux and of size 5 GiB is set
    Command (m for help): N
    All primary partitions are in use
    Adding logical partition 9
    First sector (152008704-251658239, default 152008704): +5G
    Value out of range.
    First sector (152008704-251658239, default 152008704):    
    Using default value 152008704
    Last sector, +sectors or +size{K,M,G} (152008704-251658239, default 251658239): +5G
    Partition 9 of type Linux and of size 5 GiB is set
    Command (m for help): N
    All primary partitions are in use
    Adding logical partition 10
    First sector (162496512-251658239, default 162496512): 
    Using default value 162496512
    Last sector, +sectors or +size{K,M,G} (162496512-251658239, default 251658239): +5G
    Partition 10 of type Linux and of size 5 GiB is set
    

    2.调整磁盘id号(fd)

    Command (m for help): T
    Partition number (1-10, default 10): 7
    Hex code (type L to list all codes): fd
    Changed type of partition 'Linux' to 'Linux raid autodetect'
    Command (m for help): t
    Partition number (1-10, default 10): 8
    Hex code (type L to list all codes): fd
    Changed type of partition 'Linux' to 'Linux raid autodetect'
    Command (m for help): t
    Partition number (1-10, default 10): 9
    Hex code (type L to list all codes): fd
    Changed type of partition 'Linux' to 'Linux raid autodetect'
    Command (m for help): t
    Partition number (1-10, default 10): 10
    Hex code (type L to list all codes): fd
    Changed type of partition 'Linux' to 'Linux raid autodetect'
    Command (m for help): p
    Disk /dev/sda: 128.8 GB, 128849018880 bytes, 251658240 sectors
    Units = sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 512 bytes
    I/O size (minimum/optimal): 512 bytes / 512 bytes
    Disk label type: dos
    Disk identifier: 0x00054abe
       Device Boot      Start         End      Blocks   Id  System
    /dev/sda1   *        2048     1001471      499712   83  Linux
    /dev/sda2         1001472    84887551    41943040   83  Linux
    /dev/sda3        84887552   126830591    20971520   83  Linux
    /dev/sda4       126830592   251658239    62413824    5  Extended
    /dev/sda5       126834688   131031039     2098176   82  Linux swap / Solaris
    /dev/sda6       126832640   126834687        1024   83  Linux
    /dev/sda7       131033088   141518847     5242880   fd  Linux raid autodetect
    /dev/sda8       141520896   152006655     5242880   fd  Linux raid autodetect
    /dev/sda9       152008704   162494463     5242880   fd  Linux raid autodetect
    /dev/sda10      162496512   172982271     5242880   fd  Linux raid autodetect
    

    3.强制内核重读分区

    [root@master-01 ~]# partx -a /dev/sda
    partx: /dev/sda: error adding partitions 1-10
    [root@master-01 ~]# cat /proc/partitions 
    major minor  #blocks  name
       8        0  125829120 sda
       8        1     499712 sda1
       8        2   41943040 sda2
       8        3   20971520 sda3
       8        4          1 sda4
       8        5    2098176 sda5
       8        6       1024 sda6
       8        7    5242880 sda7
       8        8    5242880 sda8
       8        9    5242880 sda9
       8       10    5242880 sda10
      11        0    1048575 sr0
    

    4.创建RAID5

    [root@master-01 ~]# mdadm -C /dev/md0 -a yes -n 3 -x 1 -l 5 /dev/sda{7,8,9,10}
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    

    查看raid的信息

    [root@master-01 ~]# cat /proc/mdstat 
    Personalities : [raid6] [raid5] [raid4] 
    md0 : active raid5 sda9[4] sda10[3](S) sda8[1] sda7[0]
          10477568 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
          [=======>.............]  recovery = 37.1% (1947524/5238784) finish=1.7min speed=31789K/sec
          
    unused devices: <none>】
    [root@master-01 ~]# cat /proc/mdstat 
    Personalities : [raid6] [raid5] [raid4] 
    md0 : active raid5 sda9[4] sda10[3](S) sda8[1] sda7[0]
          10477568 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
          
    unused devices: <none>
    

    格式化我们的raid盘

    [root@master-01 ~]# mke2fs -t ext4 /dev/md0 
    mke2fs 1.42.9 (28-Dec-2013)
    Filesystem label=
    OS type: Linux
    Block size=4096 (log=2)
    Fragment size=4096 (log=2)
    Stride=128 blocks, Stripe width=256 blocks
    655360 inodes, 2619392 blocks
    130969 blocks (5.00%) reserved for the super user
    First data block=0
    Maximum filesystem blocks=2151677952
    80 block groups
    32768 blocks per group, 32768 fragments per group
    8192 inodes per group
    Superblock backups stored on blocks: 
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632
    Allocating group tables: done                            
    Writing inode tables: done                            
    Creating journal (32768 blocks): done
    Writing superblocks and filesystem accounting information: done 
    

    查看RAID详细信息-D

    [root@master-01 ~]# mdadm -D /dev/md0
    /dev/md0:
            Version : 1.2
      Creation Time : Thu Jan  5 02:14:18 2017
         Raid Level : raid5
         Array Size : 10477568 (9.99 GiB 10.73 GB)
      Used Dev Size : 5238784 (5.00 GiB 5.36 GB)  #校验盘
       Raid Devices : 3
      Total Devices : 4
        Persistence : Superblock is persistent
        Update Time : Thu Jan  5 02:22:19 2017
              State : clean 
     Active Devices : 3
    Working Devices : 4
     Failed Devices : 0
      Spare Devices : 1
             Layout : left-symmetric
         Chunk Size : 512K
               Name : master-01:0  (local to host master-01)
               UUID : 8b64de29:07a5eb6d:4cbfdad8:81bfd5c9
             Events : 18
        Number   Major   Minor   RaidDevice State
           0       8        7        0      active sync   /dev/sda7
           1       8        8        1      active sync   /dev/sda8
           4       8        9        2      active sync   /dev/sda9
           3       8       10        -      spare   /dev/sda10  #空闲盘
    

    挂载使用

    [root@master-01 ~]# mkdir /mydata
    [root@master-01 ~]# mount /dev/md0 /mydata/
    [root@master-01 ~]# df -lh /dev/md0
    Filesystem      Size  Used Avail Use% Mounted on
    /dev/md0        9.8G   37M  9.2G   1% /mydata
    [root@master-01 ~]# blkid /dev/md0
    /dev/md0: UUID="83b83c5f-ddfd-4e90-8095-0a7495d85cd5" TYPE="ext4" 
    

    模拟损坏

    将一个盘标记为损坏-f,此时会重新进行校验

    [root@master-01 ~]# mdadm /dev/md0 -f /dev/sda7
    mdadm: set /dev/sda7 faulty in /dev/md0
    [root@master-01 ~]# watch -n1 'cat /proc/mdstat'
    [root@master-01 ~]# cat /proc/mdstat 
    Personalities : [raid6] [raid5] [raid4] 
    md0 : active raid5 sda9[4] sda10[3] sda8[1] sda7[0](F)
          10477568 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
          [===================>.]  recovery = 96.6% (5061948/5238784) finish=0.1min speed=21402K/sec
          
    unused devices: <none>
    

    再次查看,我们可以发现原来的备用盘顶上去,以保证raid设备还能继续运行

    [root@master-01 ~]# mdadm  -D /dev/md0
    /dev/md0:
            Version : 1.2
      Creation Time : Thu Jan  5 02:14:18 2017
         Raid Level : raid5
         Array Size : 10477568 (9.99 GiB 10.73 GB)
      Used Dev Size : 5238784 (5.00 GiB 5.36 GB)
       Raid Devices : 3
      Total Devices : 4
        Persistence : Superblock is persistent
        Update Time : Thu Jan  5 03:19:44 2017
              State : clean 
     Active Devices : 3
    Working Devices : 3
     Failed Devices : 1
      Spare Devices : 0
             Layout : left-symmetric
         Chunk Size : 512K
               Name : master-01:0  (local to host master-01)
               UUID : 8b64de29:07a5eb6d:4cbfdad8:81bfd5c9
             Events : 37
        Number   Major   Minor   RaidDevice State
           3       8       10        0      active sync   /dev/sda10
           1       8        8        1      active sync   /dev/sda8
           4       8        9        2      active sync   /dev/sda9
           0       8        7        -      faulty   /dev/sda7
    

    再损坏一块盘,并查看raid5的信息

    [root@master-01 ~]# mdadm  /dev/md0  -f /dev/sda8
    mdadm: set /dev/sda8 faulty in /dev/md0
    [root@master-01 ~]# mdadm  -D /dev/md0 
    /dev/md0:
            Version : 1.2
      Creation Time : Thu Jan  5 02:14:18 2017
         Raid Level : raid5
         Array Size : 10477568 (9.99 GiB 10.73 GB)
      Used Dev Size : 5238784 (5.00 GiB 5.36 GB)
       Raid Devices : 3
      Total Devices : 4
        Persistence : Superblock is persistent
        Update Time : Thu Jan  5 03:24:47 2017
              State : clean, degraded  #降级工作
     Active Devices : 2
    Working Devices : 2
     Failed Devices : 2
      Spare Devices : 0
             Layout : left-symmetric
         Chunk Size : 512K
               Name : master-01:0  (local to host master-01)
               UUID : 8b64de29:07a5eb6d:4cbfdad8:81bfd5c9
             Events : 39
        Number   Major   Minor   RaidDevice State
           3       8       10        0      active sync   /dev/sda10
           2       0        0        2      removed
           4       8        9        2      active sync   /dev/sda9
           0       8        7        -      faulty   /dev/sda7
           1       8        8        -      faulty   /dev/sda8
    

    通过下面的操作,我们发现raid5仍然可以继续工作

    [root@master-01 ~]# cp /etc/fstab  /mydata/
    [root@master-01 ~]# ls /mydata/
    fstab  lost+found
    

    将坏了的盘移除-r

    [root@master-01 ~]# mdadm  /dev/md0  -r /dev/sda7
    mdadm: hot removed /dev/sda7 from /dev/md0
    [root@master-01 ~]# mdadm  /dev/md0  -r /dev/sda8
    mdadm: hot removed /dev/sda8 from /dev/md0
    [root@master-01 ~]# cat /proc/mdstat 
    Personalities : [raid6] [raid5] [raid4] 
    md0 : active raid5 sda9[4] sda10[3]
          10477568 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [U_U]
          
    unused devices: <none>
    [root@master-01 ~]# mdadm -D  /dev/md0
    /dev/md0:
            Version : 1.2
      Creation Time : Thu Jan  5 02:14:18 2017
         Raid Level : raid5
         Array Size : 10477568 (9.99 GiB 10.73 GB)
      Used Dev Size : 5238784 (5.00 GiB 5.36 GB)
       Raid Devices : 3
      Total Devices : 2
        Persistence : Superblock is persistent
        Update Time : Thu Jan  5 03:29:57 2017
              State : clean, degraded 
     Active Devices : 2
    Working Devices : 2
     Failed Devices : 0
      Spare Devices : 0
             Layout : left-symmetric      #左对称
         Chunk Size : 512K
               Name : master-01:0  (local to host master-01)
               UUID : 8b64de29:07a5eb6d:4cbfdad8:81bfd5c9
             Events : 49
        Number   Major   Minor   RaidDevice State
           3       8       10        0      active sync   /dev/sda10
           2       0        0        2      removed
           4       8        9        2      active sync   /dev/sda9
    

    将磁盘重新加到raid设备中-a,此时raid5又会回到clean状态

    [root@master-01 ~]# mdadm /dev/md0  -a /dev/sda7
    mdadm: added /dev/sda7
    

    相关文章

      网友评论

          本文标题:RAID各级别特性

          本文链接:https://www.haomeiwen.com/subject/qcrzvttx.html