如果系统上没做数据可视化大屏 那是不是不用去写spark了? spark和hadoop的用处就是大屏幕统计吗?
spark:主要用于海量数据的统计计算,跟做不做大屏没关系,比如进行机器学习。hadoop:主要用到的就是数据的分布式存储,海量的数据和日志,如果想留存,就用它来存储吧。做大屏统计是比较直观的数据结果的展示而已。