我在使用sparksql时,发现一旦使用分区功能,就会出错,查询结果只有表头没有数据。各位大神知不知道怎么解决。没有分区的spark-sql和普通方法有啥区别啊。 String[] predicates = new...
要不你就添加.option("header","true"),就能把你第一行的数据当作表头了,要不就是用_c数字 默认列名来做分区