美文网首页
spark read file from hdfs

spark read file from hdfs

作者: heyikan | 来源:发表于2019-11-04 20:05 被阅读0次

方案

方案一:直接使用文件的全路径:

sc.textFile("hdfs://nn1home:8020/input/war-and-peace.txt")

方案二:对spark session进行配置

val spark = SparkSession.build()
  .master("local")
  .appName("demo for read file")
  .config("spark.hadoop.fs.defaultFS", "hdfs://nn1home:8020")
  .getOrCreate()

spark.read.textFile("hdfs://nn1home:8020/input/war-and-peace.txt")

前提

获取hadoop defaultFS配置:

从HDFS的配置文件core-site.xml中获取。根据实际情况,可能需要在本地的hosts文件中添加对应的主机地址映射。

参考

相关文章

网友评论

      本文标题:spark read file from hdfs

      本文链接:https://www.haomeiwen.com/subject/fyxjbctx.html