第一步,在集群中创建自己的数据库`(create database if not exists zhaozb;)`
进入自己的数据库(use zhaozb;)
第二步,创建一张外表(drop table if exists log_tmp;
create external table log_tmp(
addr string
'''') )
row format delimited fields terminated by '|' /已文本中的|为分隔符
location '/user/hive/warehouse/zhaozb.db/log_tmp'; /指定外表所建位置
第三步,利用远程将windows下的文件上传到linux系统下,再在linux下运用命令(hadoop fs -put / /)将linux中的文件传到集群上
查看表log_tmp
select * from log_tmp;
第四步,创建一张orc表,(create table if not exists log_orc(
addr string comment '地址',
'''
) stored as orc;
查看表结构 desc log_orc
插入表内容 insert into table log_orc select * from log_tmp;
查看表内容 select * from log_orc;
网友评论