以现在的趋势,hadoop,spark,storm,哪个更适合未来的大数据架构,尽量详细,再次感谢!
从网上还有的是学习hadoop+spark,不知道这三个究竟怎么学
我的方向是大数据架构,就单论大数据架构怎么学习最好呢?
当前大数据已经是一个庞大的生态系统,很难用一种技术(或组件)将所有的场景通吃。作为计算框架,Spark是一种较为通用且高效的计算框架,是大多数场景下的较好折中。例如,如果要实现秒级的实时流处理,则Spark Streaming可以胜任,但如果需要实现亚秒级的实时流处理,则需要使用Storm。就如同瑞士军刀,可以做很多事情,但是在特定严苛的场景下,还是需要使用更为专业的工具才能胜任。