美文网首页
Sqoop数据迁移

Sqoop数据迁移

作者: hipeer | 来源:发表于2018-09-28 18:23 被阅读0次

  1. 从RDB导入到HDFS
// 把表数据全部导出
sqoop import 
--connect jdbc:mysql://localhost/test_db 
--dirver com.mysql.jdbc.Driver 
--table users 
--usernsme root 
--password 123456 
--target-dir /temp/datahouse/test_db/users
-m 3

// 导出符符合where条件的数据
sqoop import 
--connect jdbc:mysql://localhost/test_db
--driver com.mysql.jdbc.Driver
--table users
--where "user_age < 18"
--username root
--password 123456
--target-dir /temp/datahouse/test_db/users
-m 3

// 导出指定列的数据
sqoop import 
--connect jdbc:mysql://localhost/test_db
--driver com.mysql.jdbc.Driver
--table users
--columns "user_id, user_name"
--username root
--password 123456
--target-dir /temp/datahouse/test_db/users
-m 3

// 导出查询出的数据
sqoop import
--connect jdbc:mysql://localhost/test_db
--driver com.mysql.jdbc.Driver
--query "select user_id, user_name from users where user_age < 18 \$CONDITIONS"
--split-by user_id
--username root
--password 123456
--target-dir /temp/datahouse/test_db/users
-m 3

// 增量导入
sqoop import 
--connect jdbc:mysql://localhost/test_db
--driver com.mysql.jdbc.Driver
--table users
--incermental append
--check-column "user_join_data"
--last-value "2018-09-20"
--username root
--password 123456
--target-dir /temp/datahouse/test_db/users
-m 3
  1. 从RDB导入到Hive
sqoop import 
--connect jdbc:mysql://localhost/test_db
--driver com.mysql.jdbc.Driver
--query "select user_id, user_name, user_gender
              from users where user_age >= 18 and user_age <= 25 
              and \$CONDITIONS"
--spilt-by user_id
--username root 
--password 123456
--hive-import 
--create-hive-table
--hive-table test_db.users
--hive-partition-key "user_city"
--hive-partition-value "beijing"
--hive-overwrite
--target-dir /temp/datahouse/test_db/users
--delete-target-dir
-m 1

注:
往hive导入数据之前需要创建好database
--delete-target-dir 如果目标文件已存在就把它删除
--hive-partition-key 的值不能是sql中查询的字段
--target-dir 指定的目录下面并没有数据文件,数据文件被放在了hive的默认/apps/hive/warehouse下面

  1. 从RDB导入到HBase
sqoop import 
--connect jdbc:mysql://localhost/test_db
--username root 
--password 123456
--table users
--columns "user_id, user_name, user_city" 
--hbase-table users
--column-family personInfo
--hbase-row-key user_id
-m 1

相关文章

  • 数据迁移的工具Sqoop实践

    数据迁移的工具Sqoop实践 sqoop : 数据迁入迁出的工具 RDBMS -- import -> Ha...

  • sqoop的整体架构

    sqoop1与sqoop2的区别 sqoop1提供用户命令行的方式使用数据迁移功能对数据进行迁移。目前提供的功能由...

  • (十)大数据学习之sqoop

    Sqoop 1.架构: (1)flume数据采集 采集日志数据(2)sqoop数据迁移 hdfs->mysql(3...

  • sqoop1和sqoop2对比

    疑问sqoop作为数据迁移工具合适吗?sqoop1没有提供api接口,sqoop2似乎不能导入数据到hbase S...

  • Sqoop数据迁移

    从RDB导入到HDFS 从RDB导入到Hive 注:往hive导入数据之前需要创建好database--delet...

  • sqoop2安装以及使用demo.md

    Sqoop2的安装 简介 sqoop用于关系型数据库和分布式文件系统之间进行数据迁移。sqoop1.4.x也被称为...

  • Sqoop最佳实践

    一、什么是Sqoop Sqoop是一个在结构化数据和Hadoop之间进行批量数据迁移的工具,结构化数据可以是Mys...

  • sqoop增量数据迁移

    背景 业务系统库数据包含了大量历史数据,核心的表超过千万级甚至亿级后,传统在业务库上做数据分析已不合时宜,需要迁移...

  • hadoop(十九)—Sqoop数据清洗

    上节课学习了Hadoop集群测试,这节课我们一起学习一下Sqoop,Sqoop是专门用来迁移数据的,它可以把数据库...

  • 数据集的划分

    数据集的划分 因为sqoop是将数据的迁移任务转化为相应的Haoop任务的,Hadoop任务是数据集划分的,即每个...

网友评论

      本文标题:Sqoop数据迁移

      本文链接:https://www.haomeiwen.com/subject/oxupoftx.html