美文网首页
利用jupyter notebook 运行pyspark读取or

利用jupyter notebook 运行pyspark读取or

作者: Jasmine晴天和我 | 来源:发表于2019-04-11 16:03 被阅读0次
from pyspark import SparkContext, SparkConf
from pyspark.sql import SQLContext
import numpy as np
import pandas as pd 
conf = SparkConf()
conf.setAppName("appname")
conf.set("spark.jars","E:\\ojdbc6.jar") #开始没有配置这个,一直报错。
conf.setMaster("local[1]")
sc = SparkContext(conf=conf)
sqlContext = SQLContext(sc)
empDF = spark.read \
    .format("jdbc") \
    .option("url", "jdbc:oracle:thin:@//hostname:portnumber/SID") \
    .option("dbtable", "hr.emp") \
    .option("user", "db_user_name") \
    .option("password", "password") \
    .option("driver", "oracle.jdbc.driver.OracleDriver") \
    .load()

后来设置conf.set("spark.jars","E:\ojdbc6.jar") 这句话时,一开始用的E:/ojdbc.jar,然后报错,后来竟然把/改成\就行了,,,不知道这是怎么回事,是java的问题还是spark的问题,之前我用jupyter都是用/的,,大神指点。

相关文章

网友评论

      本文标题:利用jupyter notebook 运行pyspark读取or

      本文链接:https://www.haomeiwen.com/subject/jsztwqtx.html