美文网首页
Spark和HDFS的整合

Spark和HDFS的整合

作者: 扣篮的左手 | 来源:发表于2018-07-06 00:39 被阅读0次

    在spark-env.sh ,添加HADOOP_CONF_DIR配置,指明了hadoop的配置文件后,默认它就是使用的hdfs上的文件


    将配置好的spark-env.sh发送到node-2和node-3上,$PWD指代和node-1相同的当前目录

    相关文章

      网友评论

          本文标题:Spark和HDFS的整合

          本文链接:https://www.haomeiwen.com/subject/cvvmuftx.html