spark使用sql语句时$报错

实在时找不到相同的报错,
感觉是依赖的问题,但没找到问题所在地
有没有人帮忙解决一下,谢谢

img

正常测试需要的依赖,不知道你的是不是

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.11</artifactId>
    <version>2.4.3</version>
</dependency>

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-sql_2.11</artifactId>
    <version>2.4.3</version>
</dependency>

试下加入import spark.implicits._
注意spark是根据你的命名来的, 比如我这里是这样写的

val spark = SparkSession.builder().appName("SparkStatCleanJob")
      .config("spark.sql.parquet.compression.codec", "gzip")
      .master("local[2]").getOrCreate()
    import spark.implicits._