查看Mysql表
sqoop list-databases --connect jdbc:mysql://172.16.98.36:3306/erp_test4 --username admin --password 123456
sqoop list-tables --connect jdbc:mysql://172.16.98.36:3306/erp_test4 --username admin --password 123456
1.mysql to hdfs
sqoop import --connect jdbc:mysql://172.16.98.36:3306/erp_test4 --username admin --password 123456 --table t_s_user --target-dir /user/hadoop/sqoop -delete-target-dir -m 1
hdfs dfs -cat /user/hadoop/sqoop/part-m-00000
hdfs dfs -rm -R /user/hadoop/mysqluser2
2.把MySQL数据库中的表数据导入到Hive中
2.1 导入关系型数据到hive的过程是先导入到hdfs,后再 load 进入 hive(普通导入:数据存储在默认的default hive库中,表名就是对应的mysql的表名:)
sqoop import \
--connect jdbc:mysql://172.16.98.36:3306/erp_test4 --username admin --password 123456 --table t_s_base_user \
-m 1
#1.2 查看文件
hadoop fs -cat /user/hive/warehouse/t_s_base_user/part-m-00000
把MySQL数据库中的表数据导入到Hive中
#t_s_base_user表导入
sqoop import \
--connect jdbc:mysql://172.16.98.36:3306/erp_test4 --username admin --password 123456 --table t_s_base_user \
--fields-terminated-by "\t" \
--lines-terminated-by "\n" \
--hive-import \
--map-column-hive signature=string \
-m 1
--hive-overwrite \
--hive-table \
--delete-target-dir \
--hive-database myhive \
--map-column-hive <signature> =String \
--create-hive-table t_s_base_user \
hdfs dfs -rm -R /user/hadoop/t_s_base_user
hdfs dfs -rm -R /user/hadoop/t_s_log
#t_s_log表导入
sqoop import \
--connect jdbc:mysql://172.16.98.36:3306/erp_test4 --username admin --password 123456 --table t_s_log \
--fields-terminated-by "\t" \
--lines-terminated-by "\n" \
--hive-import \
--map-column-hive note=string \
--map-column-hive logcontent=string \
-m 1
--hive-overwrite \
--create-hive-table \
--delete-target-dir \
--create-hive-table t_s_log \
--map-column-hive <note> =String \
--map-column-hive <logcontent> =String \
/*指定栏位 signature为String*/
--map-column-hive signature=string
--hive-table \
--create-hive-table \
网友评论