安装spark时依照老师所录制的视频一步一步走的,但是不知道为啥么第五行以后的内容跟视频里的不一样
进入spark的安装目录才能启动spark集群,如果实在hadoop下启动,只是启动了hadoop的hdfs和yarn