一、pyspark(Python环境下搭建spark)
1、https://blog.csdn.net/zhongjunlang/article/details/80816711
# 注意一:
下载完解压包之后对解压包进行解压,注意存放的路径一定不能带空格,否则添加环境变量path的时候会找不到路径。
#注意二:
pycharm中运行代码的时候记得添加
#环境变量否则还是会报错:错误如下
Exception in thread "main" java.util.NoSuchElementException: key not found: _PYSPARK_DRIVER_CONN_INFO_PATH
#添加俩个环境变量就ok
os.environ['SPARK_HOME']="G:\spark\spark_2.3.1_bin_hadoop2.7"
sys.path.append("G:\spark\spark_2.3.1_bin_hadoop2.7\python")
#注意三 no module name resource 的错误
这个错误纠结了很久其实是没导入本地资源导致(自己猜想也有可能版本不对)
解决办法(亲测有效)
注意四: 在调用mysql数据库的时候
java.sql.SQLException: No suitable driver 的错误
解决办法:
https://blog.csdn.net/helloxiaozhe/article/details/81027196
~~~下载mysql-connector-java-5.1.44.jar
下载地址:https://dev.mysql.com/downloads/connector/j/
按照网址操作亲测问题解决
网友评论