idea写sparksql程序local[*]模式可以运行,提交到spark yarn运行出现ClassNotFoundException

报错信息
Exception in thread "main" java.lang.ClassNotFoundException: com.mysql.cj.jdbc.Driver

问题相关代码,请勿粘贴截图

object SparkSql {

def main(args: Array[String]): Unit = {

val sparkConf = new SparkConf().setAppName("SparkSql")//.setMaster("local[4]")
val spark = SparkSession.builder().config(sparkConf).getOrCreate()

val connect = spark.read
  .format("jdbc")
  .option("url", "jdbc:mysql://192.168.1.41:3306/weblog?useSSL=false")
  .option("driver", "com.mysql.cj.jdbc.Driver")
  .option("user", "root")
  .option("password", "rrrr")

println(connect.getClass)

val df1 = connect.option("dbtable", "base_province")
  .load()
  .createOrReplaceTempView("base_province")

System.out.println("============error1==============")

val df2 = connect.option("dbtable", "order_info")
  .load()
  .createOrReplaceTempView("order_info")
运行结果及报错内容

img

应该是运行到
println(connect.getClass)

System.out.println("============error1==============")
之间的语句时出错了,但是不知道哪错了。

jdbc driver没有传到服务器