SparkSql 加载配置文件后 无法读取本地数据

SparkSql 加载配置文件后, 无法读取本地数据, 总是将数据仓库的路径和本地路径拼起来识别. 这是什么原因? 把配置文件移除后就可以读取本地文件. 操作和代码都是跟学习的视频里一样. 为什么我的不行?
23/06/15 15:23:29 INFO SharedState: spark.sql.warehouse.dir is not set, but hive.metastore.warehouse.dir is set. Setting spark.sql.warehouse.dir to the value of hive.metastore.warehouse.dir.
23/06/15 15:23:30 INFO SharedState: Warehouse path is 'hdfs://linux01:8020/user/hive/warehouse'.
Exception in thread "main" org.apache.spark.sql.AnalysisException: Path does not exist: hdfs://linux01:8020/user/Lenovo/data/exersize/tm1_input/data1.txt

img

决解办法: 该问题由core-site.xml文件里的参数fs.defaultFS配置导致, 代码中写的路径会被默认认为是该参数配置的路径(hdfs)里的. 将该配置文件删除,或者将路径改为绝对路径,并在路径前加上 file:/// 协议