Spark 无法找到JDBC Driver

作者: zhouhaolong1 | 来源:发表于2017-09-22 14:56 被阅读489次

    集群方式运行

    运行spark程序报如下错:

        Did not find registered driver with class com.mysql.jdbc.Driver
    

    解决办法:

    1. 首先创建默认配置文件
        cp $SPARK_HOME/conf/spark-defaults.conf.template  $SPARK_HOME/conf/spark-defaults.conf
    
    1. 在$SPARK_HOME/conf/spark-default.conf 中添加 spark.driver.extraClassPathspark.executor.extraClassPath 这两个属性, 后面的值是jar的路径. 如果有多个路径使用":"分隔.例如:

       # Example:
       # spark.master                     spark://master:7077
       # spark.eventLog.enabled           true
       # spark.eventLog.dir               hdfs://namenode:8021/directory
       # spark.serializer                 org.apache.spark.serializer.KryoSerializer
       # spark.driver.memory              5g
       # spark.executor.extraJavaOptions  -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"
       spark.driver.extraClassPath /usr/share/java/mysql-connector-java-5.1.28.jar
       spark.executor.extraClassPath /usr/share/java/mysql-connector-java-5.1.28.jar
      
    2. 复制spark-defaults.conf文件到其他节点的$SPARK_HOME/conf目录下

       scp $SPARK_HOME/conf/spark-defaults.conf hadoop@mini1:$SPARK_HOME/conf/spark-defaults.conf
      
    3. 重启集群

      stop-all.sh

      start-all.sh

    本地方式运行

    在Program arguments中添加参数

    --jar E:\java\常用jar包\mysql-connector-java-5.0.8-bin.jar --driver-class-path E:\java\常用jar包\mysql-connector-java-5.0.8-bin.jar
    

    如下图:

    image.png

    相关文章

      网友评论

        本文标题:Spark 无法找到JDBC Driver

        本文链接:https://www.haomeiwen.com/subject/qwdfextx.html