SAP Data Hub Developer Editor有一个默认的Apache Hadoop安装。
使用如下的命令行启动Hadoop:
docker run -ti --publish 127.0.0.1:50070:50070 --name hdfs --hostname hdfs --net dev-net datahub run-hdfs

浏览器里访问控制台:

新建一个Graph,将data Generator生成的数据写入Kafka Producer;
数据再从Kafka Consumer读取出来,输出到Write File operator里,进行持久化操作。

Write File的path指向Hadoop文件夹:

指定Hadoop的连接信息:

运行Graph之后,在Hadoop该文件夹下看到通过Write File Operator写入的文件。


要获取更多Jerry的原创文章,请关注公众号"汪子熙":

网友评论