为什么我在使用geotrellis来对hdfs中的栅格数据切片并上传accumulo数据库时,spark任务总是会跳过某几个特定的阶段job,如下图
这会不会是导致在accumuloUI界面报警告的原因啊
虽然有数据存储进去了,但是与我原始tif按照我的切片方式键值对应该更多才对,这远远小于瓦片数量
并且存储在数据库中的数据是样子的
这样的格式我看都看不懂,跟存储在postgresql中的形式完全不同,看着也不是很正确,我并没有对数据进行压缩存储,除非是geotrellis框架中自带了这样的功能,求解惑