为什么spark执行spark-shell就可以启动成功, 执行pyspark就会出现这个问题? 有

为什么spark执行spark-shell就可以启动成功, 执行pyspark就会出现这个问题? 有小伙伴知道吗? 我是按教程python版本安装的啊 有没有大佬告诉我这个菜鸟啊[face]monkey2:019.png[/face]