初次安装spark执行脚本为什么会出现已有在执行的SparkConText已经执行,需要sc.stop()kill进程再次执行才可以
但报错明显就是说已经存在相关。那,机器是否真的初次安装?安装过程是否有多执行一些运行的脚本?KILL掉之后,能否顺利安装呢?