Spark-SQL连接JDBC的方式及代码写法
提示:文章内容仅供参考!
一、数据加载与保存
通用方式:
SparkSQL 提供了通用的保存数据和数据加载的方式。这里的通用指的是使用相同的API,根据不同的参数读取和保存不同格式的数据,SparkSQL 默认读取和保存的文件格式为parquet
加载数据:
spark.read.load 是加载数据的通用方法。如果读取不同格式的数据,可以对不同的数据格式进行设定。
spark.read.format("…")[.option("…")].load("…")
➢ format("…"):指定加载的数据类型,包括"csv"、"jdbc"、"json"、"orc"、"parquet"和
"textFile"。
➢ load("…"):在"csv"、"jdbc"、"json"、"orc"、"parquet"和"textFile"格式下需要传入加载
数据的路径。
➢ option("…"):在"jdbc"格式下需要传入 JDBC 相应参数,url、user、password 和 dbtable
我们前面都是使用 read API 先把文件加载到 DataFrame 然后再查询,其实,我们也可以直接在文件上进行查询: 文件格式.`文件路径`
spark.sql("select * from json.’/opt/module/data/user.json’").show
保存数据:
df.write.save 是保存数据的通用方法。如果保存不同格式的数据,可以对不同的数据格式进行设定。
df.write.format("…")[.option("…")].save("…")
➢ format("…"):指定保存的数据类型,包括"csv"、"jdbc"、"json"、"orc"、"parquet"和
"textFile"。
➢ save ("…"):在"csv"、"orc"、"parquet"和"textFile"格式下需要传入保存数据的路径。
➢ option("…"):在"jdbc"格式下需要传入 JDBC 相应参数,url、user、password 和 dbtable
保存操作可以使用 SaveMode, 用来指明如何处理数据,使用 mode()方法来设置。

例如:df.write.mode("append").json("/opt/module/data/output")
二、Parquet
Spark SQL 的默认数据源为 Parquet 格式。Parquet 是一种能够有效存储嵌套数据的列式
存储格式。数据源为 Parquet 文件时,Spark SQL 可以方便的执行所有的操作,不需要使用 format。修改配置项 spark.sql.sources.default,可修改默认数据源格式。
加载数据:
val df = spark.read.load("examples/src/main/resources/users.parquet")保存数据:
var df = spark.read.json("/opt/module/data/input/people.json")
df.write.mode("append").save("/opt/module/data/output")三、JSON
Spark SQL 能够自动推测 JSON 数据集的结构,并将它加载为一个 Dataset[Row]. 可以
通过 SparkSession.read.json()去加载 JSON 文件。注意:Spark 读取的 JSON 文件不是传统的 JSON 文件,每一行都应该是一个 JSON 串
加载json文件
val path = "/opt/module/spark-local/people.json"
val peopleDF = spark.read.json(path)
创建临时表
peopleDF.createOrReplaceTempView("people")
数据查询
val resDF = spark.sql("SELECT name FROM people WHERE age BETWEEN 13 AND 19")
四、CSV
Spark SQL 可以配置 CSV 文件的列表信息,读取 CSV 文件,CSV 文件的第一行设置为
数据列。
spark.read.format("csv").option("sep",";").option("inferSchema","true")
.option("header", "true").load("data/user.csv")
- 数据准备:user.csv

2.读取 CSV 文件
import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
object JDBCTest {
  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SQL")
    val spark:SparkSession = SparkSession.builder().config(sparkConf).getOrCreate()
    
    spark.read.format("csv").option("sep",";").option("inferSchema","true")
      .option("header", "true").load("data/user.csv").show()
    spark.stop()
  }
}执行结果:

五、MySQL
Spark SQL 可以通过 JDBC 从关系型数据库中读取数据的方式创建 DataFrame,通过对
DataFrame 一系列的计算后,还可以将数据再写回关系型数据库中。
IDEA通过JDBC对MySQL进行操作:
- 导入依赖
<dependency>
     <groupId>mysql</groupId>
     <artifactId>mysql-connector-java</artifactId>
     <version>5.1.27</version>
</dependency>
2)mysql中user表:

3)读取数据
1.通用的load方法:
mport org.apache.spark.SparkConf
import org.apache.spark.sql.{DataFrame, SparkSession}
import java.util.Properties
object JDBCTest {
  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SQL")
    val spark: SparkSession = SparkSession.builder().config(sparkConf).getOrCreate()
    import spark.implicits._
    //通用的load方式读取
    spark.read.format("jdbc")
      .option("url", "jdbc:mysql://node01:3306/system")
      .option("driver", "com.mysql.jdbc.Driver")
      .option("user", "root")
      .option("password", "123456")
      .option("dbtable", "user")
      .load().show()
    spark.stop()
  }
}执行结果:

2. 通用的load方法的另一种形式:
mport org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
object JDBCTest {
  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SQL")
    val spark: SparkSession = SparkSession.builder().config(sparkConf).getOrCreate()
    import spark.implicits._
    //通用的load方法的另一种形式
    spark.read.format("jdbc")
      .options(
     Map("url"->"jdbc:mysql://node01:3306/system?user=root&password=123456","dbtable"->"user","driver"->"com.mysql.jdbc.Driver"))
      .load().show()
    spark.stop()
  }
}执行结果:

3.通过JDBC:
import org.apache.spark.SparkConf
import org.apache.spark.sql.{DataFrame, SparkSession}
import java.util.Properties
object JDBCTest {
  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SQL")
    val spark: SparkSession = SparkSession.builder().config(sparkConf).getOrCreate()
    import spark.implicits._
    //通过JDBC
    val pros :Properties = new Properties()
    pros.setProperty("user","root")
    pros.setProperty("password","123456")
    val df :DataFrame = spark.read.jdbc("jdbc:mysql://node01:3306/system","user",pros)
    df.show()
  }
}执行结果:

4.写入数据
注:写入数据时保存数据的表由程序自动创建,不可以提前创建
方法一:
mport org.apache.spark.SparkConf
import org.apache.spark.sql.{ SaveMode, SparkSession}
case class Stu(name:String,age:Int)
object JDBCTest {
  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SQL")
    val spark:SparkSession = SparkSession.builder().config(sparkConf).getOrCreate()
    import spark.implicits._
    val rdd = spark.sparkContext.makeRDD(
      List((Stu("zhangsan",20)),Stu("lisi",23))
    )
    val ds = rdd.toDS()
    ds.write.format("jdbc")
      .option("url","jdbc:mysql://node01:3306/system")
      .option("driver","com.mysql.jdbc.Driver")
      .option("user","root")
      .option("password","123456")
      .option("dbtable","user2")
      .mode(SaveMode.Append)
      .save()
    spark.stop()
  }
}执行结果:

进入MySQL数据库查看结果:

方法二:
import org.apache.spark.SparkConf
import org.apache.spark.sql.{SaveMode, SparkSession}
case class Stu(name:String,age:Int)
object JDBCTest {
  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("SQL")
    val spark:SparkSession = SparkSession.builder().config(sparkConf).getOrCreate()
    import spark.implicits._
    val rdd = spark.sparkContext.makeRDD(
      List((Stu("zhangsan",20)),Stu("lisi",23))
    )
    val ds = rdd.toDS()
    ds.write.format("jdbc")
      .options(  Map("url"->"jdbc:mysql://node01:3306/system?user=root&password=123456","dbtable"->"user3","driver"->"com.mysql.jdbc.Driver"))
      .mode(SaveMode.Append)
      .save()
    spark.stop()
  }
}执行结果:

进入MySQL数据库查看结果:
