美文网首页
SparkConf 配置的用法

SparkConf 配置的用法

作者: 泽泽馥泽泽 | 来源:发表于2018-07-24 14:45 被阅读0次

    SparkConf 配置的用法

    Spark应用程序的配置,用于将各种Spark参数设置为键值对。

    大多数情况下,将使用新的SparkConf(),创建一个SparkConf对象,该对象将从您的应用程序中设置的任何spark.*的Java系统属性加载值。 在这种情况下,** 直接在SparkConf对象上设置的参数优先于系统属性 **。

    对于单元测试,您还可以调用新的SparkConf(false)来跳过加载外部设置,并获得相同的配置,无论系统属性如何。

    此类中的所有setter方法都支持链式调用。

    new SparkConf().setMaster("local").setAppName("My app")
    
    SparkConf() //load defaults from system properties and classpath
    
    def getAll: Array[(String, String)] //Get all parameters as a list of pairs
    
    def setAppName(name: String) //Set a name for your application
    
    val conf = new SparkConf().setAppName("PRM Training Process").setAll(Configuration.sparkProps)
    
    Configuration.sparkProps //?
    

    使用Dataset和DataFrame API编程Spark的入口点。

    在预先创建此环境的环境中,使用构建器获取现有会话

    构建器(builder)还可用于创建新会话

    SparkSession.builder()
      .master("local")
      .appName("My app")
      .config("spark.some.config.option", "some-value")
      .getOrCreate()
    
    val spark = SparkSession.builder.config(conf).enableHiveSupport.getOrCreate
    

    相关文章

      网友评论

          本文标题:SparkConf 配置的用法

          本文链接:https://www.haomeiwen.com/subject/bzoemftx.html