优化 Spark group-by 时 key【过多】有什么办法?
key太多从来不是问题,有几个key后面数据太多才是问题。
https://blog.csdn.net/guotong1988/article/details/118996129
别用group by啊 是reduceBykey 自定义Partition