美文网首页
pyspark(Python环境下搭建spark)出现的问题及解

pyspark(Python环境下搭建spark)出现的问题及解

作者: 昵称得改 | 来源:发表于2018-12-25 13:56 被阅读0次

    一、pyspark(Python环境下搭建spark)

    1、https://blog.csdn.net/zhongjunlang/article/details/80816711

    #    注意一:

    下载完解压包之后对解压包进行解压,注意存放的路径一定不能带空格,否则添加环境变量path的时候会找不到路径。

    #注意二:

    pycharm中运行代码的时候记得添加

    #环境变量否则还是会报错:错误如下

    Exception in thread "main" java.util.NoSuchElementException: key not found: _PYSPARK_DRIVER_CONN_INFO_PATH

    #添加俩个环境变量就ok

    os.environ['SPARK_HOME']="G:\spark\spark_2.3.1_bin_hadoop2.7"

    sys.path.append("G:\spark\spark_2.3.1_bin_hadoop2.7\python")

    #注意三    no module name resource   的错误

    这个错误纠结了很久其实是没导入本地资源导致(自己猜想也有可能版本不对)

    解决办法(亲测有效)

    注意四: 在调用mysql数据库的时候

     java.sql.SQLException: No suitable driver  的错误

    解决办法:

    https://blog.csdn.net/helloxiaozhe/article/details/81027196

    ~~~下载mysql-connector-java-5.1.44.jar

    下载地址:https://dev.mysql.com/downloads/connector/j/

    按照网址操作亲测问题解决

    相关文章

      网友评论

          本文标题:pyspark(Python环境下搭建spark)出现的问题及解

          本文链接:https://www.haomeiwen.com/subject/tuhflqtx.html