美文网首页
Spark SQL的JDBC读写

Spark SQL的JDBC读写

作者: LZhan | 来源:发表于2019-11-11 10:17 被阅读0次
    1.读取/写入属性配置

    Spark SQL支持以JDBC的方式读取或写入数据。用户可以使用Data Sources API将来自远程数据库的表作为 DataFrame 或 Spark SQL 临时视图进行加载。
    也可以在数据源选项中指定JDBC连接属性,user(用户)和password(密码)通常作为登录数据源的连接属性提供。除了连接属性外,还支持的属性配置有:
    <1> url:要连接的JDBC URL。源特定的连接属性可以在URL中指定,即在url后加上user和password
    <2> dbtable:应该读取或者写入的JDBC表,可以使用SQL查询的FROM子句中有效的任何内容,比如,你可以使用括号中的子查询代替完整表,但是“dbtable”和“query”不可以同时使用。
    <3> query:可以使用查询语句用来代替完整表,作为读取数据。
    例如

    spark.read.format("jdbc")
    .option("url",jdbcUrl)
    .option("query","select c1,c2 from t1")
    .load()
    

    使用query属性时,有一些限制
    a、“dbtable”和“query”不可以同时使用
    b、“query”和“partitionColumn”不可以同时使用

    <4> driver:用于连接到此URL的JDBC driver程序的类名。
    例如 MYSQL:com.mysql.jdbc.Driver
    ORACLE:oracle.jdbc.OracleDriver
    HIVE2:org.apache.hive.jdbc.HiveDriver

    其他属性:


    image.png
    2.写入时的SaveMode

    写入数据时可以配置SaveMode,它指定如果存在的话如何处理现有数据。
    重要的是要认识到这些保存模式不使用任何锁定,也不是原子的。
    此外,当执行覆盖时,数据将在写入新数据之前被删除。

    <1> SaveMode.ErrorExists
    如果目标位置已经存在数据,那么抛出一个异常
    <2> SaveMode.Append
    如果目标位置已经存在数据,那么将数据追加进去
    <3> SaveMode.Overwrite
    如果目标位置已经存在数据,那么就将已经存在的数据删除,用新数据进行覆盖
    <4> SaveMode.Ignore
    如果目标位置已经存在数据,那么就忽略,不做任何操作

    3.实际案例

    我们在构建数仓时,通常会有几种模式,其中全量模式通常是每天删除全部旧数据,接着再插入新数据。
    一般来说

     df.write
            .format("jdbc")
            .mode(SaveMode.Overwrite)
            .option("url", conf.url)
            .option("driver", conf.sinkVendor.getDriverClassName)
            .option("dbtable", s"${conf.sinkDB}.${conf.sinkTable}")
            .option("user", conf.username)
            .option("password", conf.password)
            .option("truncate", true)
            .save()
    

    这里配置了option("truncate",ture)
    在使用SaveMode.Overwrite时,一般是先DELETE来删除数据,这里的删除是一条条删除,而配置了truncate之后,那么是整体清除。

    问题:在truncate清除数据之后,新数据还没有插入进来,那么这时候查询数据会出现问题,即查询不到数据

    优化:对于一些旧数据较少的表,可以进行事务性删除添加操作

    val confB = spark.sparkContext.broadcast((conf.url, conf.username, conf.password, conf.sinkDB, conf.sinkTable))
    
          df.repartition(1).foreachPartition(iterator => {
            val (url, username, password, sinkDB, sinkTable) = confB.value
    
            JDBCUtil.withAutoClose(url, username, password, new WithConnection {
    
              override def withConnection(conn: Connection): Unit = {
                val sinkColumns = JDBCUtil.getColumns(conn, sinkDB, sinkTable).toSeq
    
                JDBCUtil.withTransaction(conn, new WithConnection {
    
                  override def withConnection(conn: Connection): Unit = {
                    /* *****
                     * 删除
                     * *****/
                    val del = conn.createStatement()
                    del.execute(s"DELETE FROM $sinkDB.$sinkTable")
    
                    /* *********
                     * 批量插入
                     * *********/
                    var batchInsertStat: PreparedStatement = null
                    while (iterator.hasNext) { // 主循环,遍历分区
                      val row = iterator.next()
    
                      val inserts = new mutable.ListBuffer[(Int, String, Int, Any)] // 索引、字段名、类型、值
    
                      for (idx <- row.schema.indices) {
                        val field = row.schema(idx)
                        breakable {
                          for (c <- sinkColumns) {
                            if (c.getName.equalsIgnoreCase(field.name)) {
                              val i = (idx, c.getName, c.getType.toInt, row.get(idx))
                              inserts += i
                              break
                            }
                          }
                        }
                      }
    
                      if (batchInsertStat == null) {
                        val sql = s"""
                                     |INSERT INTO $sinkDB.$sinkTable
                                     |(${inserts.map(_._2).mkString(",")})
                                     |VALUES
                                     |(${Array.fill(inserts.size)("?").mkString(",")})
                                  """.stripMargin
                        batchInsertStat = conn.prepareStatement(sql)
                      }
    
                      for (i <- inserts.indices) {
                        val insert = inserts(i)
                        batchInsertStat.setObject(i + 1, insert._4, insert._3)
                      }
    
                      batchInsertStat.addBatch()
                    }
    
                    batchInsertStat.executeBatch()
                  }
    
                })
              }
    
            })
          })
    

    相关文章

      网友评论

          本文标题:Spark SQL的JDBC读写

          本文链接:https://www.haomeiwen.com/subject/oxbzbctx.html