Spark新技术学习,迷茫不知道怎么入手

为啥遇到一个不懂的技术spark,查了百度,
img
给了答案,感觉还是啥也不知道,明明工作中用到的技术就是这个,工作中就是直接登陆到对应服务上使用spark命令,parquetFile.take(150).foreach(println),但是还是感觉啥也没学到,都会用命令了,这是为什么?而且查了百度,看了解释也感觉一无所获,感觉对我使用没有太大帮助。我到底该怎么简单了入手看懂一个技术就行,不一定要精通

从零开始认识 Spark Spark的知识点很多,决定分多P来慢慢讲🤣,比较关键的RDD算子其实已经写了大半,奈何内容还是太多了就不和这篇扯皮的放一起了。 spark是在Hadoop基础上的改进,是 UC Berkeley AMP lab 所开源的类 Hadoop MapReduce 的通用的并行计算… https://juejin.cn/post/6844904058612875277

spark现在是全面支持sql,大部分业务都可以在spark中用sql来实现,来更高效率地完成更复杂的需求,
spark(离线)和flink(实时)是现在离线和实时方面两个效率最高使用最广的计算框架,
可以多从项目入手来掌握这两个框架
如有帮助,望及时采纳