Spark Streaming 处理数据以后要提交offset的时候出现故障造成offset提交失败,不做处理的话可能会导致数据重复,这种极限情况下该怎么保证Spark Streaming 实现精准一次性消费Kafka的数据呢?
https://blog.csdn.net/weixin_45399233/article/details/100538439