3.2 实时读取本地文件到HDFS案例
1)案例需求:实时监控Hive日志,并上传到HDFS中
2)需求分析:
![](https://img.haomeiwen.com/i10390889/74c5a19e35b69997.png)
3)实现步骤:
1.Flume要想将数据输出到HDFS,必须持有Hadoop相关jar包
将commons-configuration-1.6.jar、
hadoop-auth-2.7.2.jar、
hadoop-common-2.7.2.jar、
hadoop-hdfs-2.7.2.jar、
commons-io-2.4.jar、
htrace-core-3.1.0-incubating.jar
拷贝到/opt/module/flume/lib文件夹下。
2.创建flume-file-hdfs.conf文件
创建文件
[atguigu@hadoop102 job]
![](https://img.haomeiwen.com/i10390889/64318a04443aa2aa.png)
本教程由尚硅谷教育大数据研究院出品,如需转载请注明来源,欢迎大家关注尚硅谷公众号(atguigu)了解更多。
网友评论