from pyspark import SparkContext, SparkConf
from pyspark.sql import SQLContext
import numpy as np
import pandas as pd
conf = SparkConf()
conf.setAppName("appname")
conf.set("spark.jars","E:\\ojdbc6.jar") #开始没有配置这个,一直报错。
conf.setMaster("local[1]")
sc = SparkContext(conf=conf)
sqlContext = SQLContext(sc)
empDF = spark.read \
.format("jdbc") \
.option("url", "jdbc:oracle:thin:@//hostname:portnumber/SID") \
.option("dbtable", "hr.emp") \
.option("user", "db_user_name") \
.option("password", "password") \
.option("driver", "oracle.jdbc.driver.OracleDriver") \
.load()
后来设置conf.set("spark.jars","E:\ojdbc6.jar") 这句话时,一开始用的E:/ojdbc.jar,然后报错,后来竟然把/改成\就行了,,,不知道这是怎么回事,是java的问题还是spark的问题,之前我用jupyter都是用/的,,大神指点。
网友评论