spark-shell出错

问题遇到的现象和发生背景
最近在学习pyspark,需要安装spark,但是按照详细的教程,在命令提示符页面,不能能用spark-shell打开,反而可以用spark-shell2打开,同时,在使用时,也出现了错误

img


问题相关代码

img

运行结果及报错内容

img

img

我的解答思路和尝试过的方法
试过添加import os,但是没有作用,依旧报错,而且安装的路径里也没有空格