美文网首页
Spark 访问HA模式下的HDFS

Spark 访问HA模式下的HDFS

作者: 麦子星星 | 来源:发表于2019-05-27 16:47 被阅读0次

    sc.hadoopConfiguration.set("fs.defaultFS", "hdfs://nameservice1")

    sc.hadoopConfiguration.set("dfs.nameservices", "nameservice1")

    sc.hadoopConfiguration.set("dfs.ha.namenodes.nameservice1", "nn1,nn2")

    sc.hadoopConfiguration.set("dfs.namenode.rpc-address.nameservice1.nn1", "master:8020")

    sc.hadoopConfiguration.set("dfs.namenode.rpc-address.nameservice1.nn2", "slave1:8020")

    sc.hadoopConfiguration.set("dfs.client.failover.proxy.provider.nameservice1",

      "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider")

    相关文章

      网友评论

          本文标题:Spark 访问HA模式下的HDFS

          本文链接:https://www.haomeiwen.com/subject/peohtctx.html