数据文本导入MySQL总结

作者: Justlearn | 来源:发表于2017-06-06 19:28 被阅读319次

    场景描述

    最近工作中遇到需要导一批数据到mysql中。数据以txt文件形式给出,大概有80G大小,统计后有三千多万行,也即会往表里导入三千多万条数据。具体该怎么办呢?写程序一行一行读文本,然后拼接SQL语句往数据库里插入(批量插入),太耗时了也太麻烦了,否定了这种想法。有没有工具能够直接从文本到数据到mysql呢?经查询,mysql客户端自带了导入工具mysqlimport同时mysql本身就支持LOAD DATA SQL语句。最终我选用了mysql的LOAD DATA命令来导入这些数据。下面我们就通过这个场景,一起了解一下mysql文本导入的使用方法。

    文本预处理

    数据文本是由以'\01'分隔的一行行字符串构成的。我们必须把这里的'\01'替换成mysql文本导入中支持的分隔符,我们这里选择替换成'\t\t',在文本目录下执行命令:

    sed -i 's/\x01/\t\t/g' ./*
    

    sed的执行速度还是很快的,一千六百万行文本五分钟左右就替换好了。替换后的文本如下所示:
    现在我们的数据经过预处理,已经可以用来导入了。

    数据导入

    前面也说过,我们选择mysql的命令来导入文本数据。所以我们先一起来看一下mysql的数据导入语法:

    LOAD DATA [LOW_PRIORITY | CONCURRENT] [LOCAL] INFILE 'file_name'
        [REPLACE | IGNORE]
        INTO TABLE tbl_name
        [PARTITION (partition_name,...)]
        [CHARACTER SET charset_name]
        [{FIELDS | COLUMNS}
            [TERMINATED BY 'string']
            [[OPTIONALLY] ENCLOSED BY 'char']
            [ESCAPED BY 'char']
        ]
        [LINES
            [STARTING BY 'string']
            [TERMINATED BY 'string']
        ]
        [IGNORE number {LINES | ROWS}]
        [(col_name_or_user_var,...)]
        [SET col_name = expr,...]
    

    我们一个个参数具体解释一下:

    • file_name
      file_name必须是本地的要导入的文本数据
    • CHARACTER SET
      CHARACTER SET指定导入的文件的字符格式
    • FIELDS | COLUMNS
      如果需要在导入数据时对导入的文本进行分割,我们需要添加FIELDS TERMINATED BY ','语法,LINES TERMINATED BY 语句是以指定字符分隔文本为行,默认是以换行符进行行分隔。
    • IGNORE number [LINES | ROWS]
      IGNORE 后面加数字表示导入数据时忽略文本的前多少行.
    • (col_name1,col_name2...)字段列表
      每一行文本被分隔为一个个字段,但是我们导入这些数据的时候,每个字段对应到表中哪一个字段,是在此处指定的。数据文本中的字段按顺序导入到该字段列表指定的字段中。如果出现文本中的字段比我们mysql表中的字段要多,或者是我们只希望导入每一行数据的某一些字段,我们可以在字段列表中按照导入文本的字段顺序加入一些用户变量,如下所示:
    LOAD DATA INFILE 'file.txt'
      INTO TABLE t1
      (column1, @dummy, column2, @dummy, column3);
    

    这样做就相当于我们直接丢弃了导入文本中的某些字段值。

    • SET col_name = expr
      如果表中某些字段我们希望是一个特定值,我们可以在这里直接设置。

    我们的具体导入sql语句如下:

    LOAD DATA  INFILE '/opt/data/backup/xx_01_xx  
    INTO TABLE db_abc.t_info_xxx CHARACTER SET utf8  FIELDS TERMINATED BY '\t\t'  IGNORE 1  LINES
    (@dummycola,col1,col2,col3,col4,col5,col6,col7,col8,col9,col10,col11,
    @dummycolb,@dummycolc,col12,col13,@dummycold,col14,col15,
    @dummycole,col16,col17,col18,col19,@dummycolf,col19,col20,
    col21,col22,col23,col24,col25,col26,col27);
    

    先拿一部分数据测试,一百六十万行数据,导入大概花了2min左右,速度还是可以接受的。
    执行结束后,我们可以通过sql命令SHOW WARNINGS查看数据导入中的一些告警,我的导入中就发现了一些字段的宽度不够的情况,通过调整、测试,保证表结构无误,就可以正式来导入这些数据了。

    由于我们的这些数据是由十多个文本组成的,一条一条语句的在mysql客户端命令行去执行每个文件的导入太麻烦了,写个脚本来执行方便多了,我们的脚本如下:

    #!/bin/bash
    
    mysql=/usr/bin/mysql
    host="192.168.0.1"
    port=1234
    username=xxx
    passwd="xxx"
    dbname=db_abc
    tbname=t_info_xxx
    
    time0=`date +%s`
    echo "------------------start to import data into mysql...-----------------------"
    echo -e "\n"
    for i in `seq 1 12`
    do
        num=`printf "%.2d" $i`
        filename="xxx_${num}_xxx"
        echo "import file:${filename}..."
        time1=`date +%s`
        mysql -h${host} -P${port} -u${username} -p${passwd} -e "
    use ${dbname};
    LOAD DATA LOCAL INFILE '/opt/data/backup/${filename}'  INTO TABLE ${dbname}.${tbname} CHARACTER SET utf8 
    FIELDS TERMINATED BY '\t\t'  IGNORE 1 LINES
    (@dummycola,col1,col2,col3,col4,col5,col6,col7,col8,col9,col10,col11,@dummycolb,
    @dummycolc,col12,col13,@dummycold,col14,col15,@dummycole,col16,col17,col18,col19,@dummycolf,col19,col20,col21,col22,col23,col24,col25,col26,col27);
    quit
    "
        echo "import file:${filename} success!"
        time2=`date +%s`
        comp1=`expr $time2 - $time1`
        echo "import file:${filename} has cost ${comp1} seconds!"
        echo -e "\n"
    done
    timen=`date +%s`
    comp2=`expr $timen - $time0`
    echo "The whole data import cost ${comp2} seconds!"
    echo -e "\n"
    echo "-----------------import data into mysql end!-----------------------"
    

    注:

    • 因为是公司内部数据,所以具体的字段名称、数据库名称等都做了处理,但是这个脚本的整体结构是一样的。
    • 最后sql语句中的字段列表中有一些@dummycolx列,这些用户变量是为了解决文本中多出来的一些字段,而我们数据库表中没有对应字段,或者我们不需要一些文本中的字段,把这些@dummycolx列放在这里就相当于丢弃了这些字段,只导入我们需要的那些字段。
    • 最终我们一共导入了2000万条数据,总共耗时10多分钟。

    另外

    mysqlimport工具使用起来也是十分方便,实际上mysqlimport工具内部就是包装了LOAD DATA INFILE语句。如果使用的话,具体可以参考这里:mysqlimport

    参考

    相关文章

      网友评论

        本文标题:数据文本导入MySQL总结

        本文链接:https://www.haomeiwen.com/subject/rpsifxtx.html