初次运行pyspark为什么会存在有sparkcontext已在执行?

img

img

初次安装spark执行脚本为什么会出现已有在执行的SparkConText已经执行,需要sc.stop()kill进程再次执行才可以

img

但报错明显就是说已经存在相关。
那,机器是否真的初次安装?安装过程是否有多执行一些运行的脚本?
KILL掉之后,能否顺利安装呢?