spark hadoop 怎么多人协作开发?

最近有个大数据mession,豆瓣读书分析什么的。需要小组合作开发,想问下怎么能使用同一个hdfs或者hadoop 自己有个云服务器 能用上吗
或者需要怎么搭建环境,小组成员能一起用得上

这取决于你需要解决什么问题,如果只是临时跑一下批处理任务用到spark大可local模式跑跑完了,真要构建完整的hadoop生态你这一台云服务器够呛,内存低了甚至跑不起来全部组件

可以参考博客,搭建hadoop环境:

搭建完之后,启动hdfs,小组成员可以共同使用hdfs了!

无非不就是拉取数据,共享资源吗,学习得话建个单机版都行,我之前写过,可以借鉴一下