hadoop和大数据、spark的关系该怎么理解?

hadoop、大数据、spark之间的关系该如何理解?
对于基础入门的小伙伴很多概念之间的关系可能很难快速理解清楚,那么如果能用简单通俗的语言说清楚这三者之间的关系?

Hadoop和Spark都是处理大数据的框架。
就象你说关系型数据库,这只是一个概念,但是代表了一系列的含意,比如数据是结构化的,基于关系模型存储的。
而MySQL、Oracle、SqlServer这些就是具体的数据库软件,有一个通用的共性,都是基于SQL标准,但是各自又有各自的特点和应用场景。

大数据也是一个概念,并且可以上升到一个领域,指的是大量数据处理的场景,并且这些数据很有可能格式是各种各样的。
那用哪些软件来处理这一场景下的问题,有很多很多,主流使用的就是Hadoop,Spark以及相关的组件。
如果你想再了解具体的关系可以再追问,一般Hadoop会做为数据管理和调度的底层,Spark可以从中直接读取数据进行计算,相互之间也存在关系。
有帮助点个采纳,谢谢~