Traceback (most recent call last):
File "D:\Python-learn\pyspark基础准备.py", line 13, in
sc = SparkContext(conf=conf)
^^^^^^^^^^^^^^^^^^^^^^^
File "D:\Python-learn\venv\Lib\site-packages\pyspark\context.py", line 195, in init
SparkContext._ensure_initialized(self, gateway=gateway, conf=conf)
File "D:\Python-learn\venv\Lib\site-packages\pyspark\context.py", line 417, in _ensure_initialized
SparkContext._gateway = gateway or launch_gateway(conf)
^^^^^^^^^^^^^^^^^^^^
File "D:\Python-learn\venv\Lib\site-packages\pyspark\java_gateway.py", line 99, in launch_gateway
proc = Popen(command, **popen_kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\Programs\Python\Lib\subprocess.py", line 1024, in init
self._execute_child(args, executable, preexec_fn, close_fds,
File "C:\Programs\Python\Lib\subprocess.py", line 1493, in _execute_child
hp, ht, pid, tid = _winapi.CreateProcess(executable, args,
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
FileNotFoundError: [WinError 2] 系统找不到指定的文件。
pip install pyspark
java -version
spark-shell
一般这种情况都是缺少依赖
从你提供的错误信息来看,是说找不到文件,检查下第13行,sc = SparkContext(conf=conf)那里的conf传入的路径是否正确,一般这个错误就是文件路径的问题导致的,修改即可。
你为什么要用中文命名?
以下答案由GPT-3.5大模型与博主波罗歌共同编写:
这个错误可能是由于缺少Java环境变量或者Java未正确安装导致的。你可以尝试执行以下步骤:
确认你的Python和Java均为64位版本,如果不匹配则安装匹配的版本。
确认Java环境变量是否已正确配置,可以在命令行中输入java -version
查看Java版本。如果未配置,可以参考以下步骤配置:
打开计算机属性,点击高级系统设置。
在系统属性中点击“环境变量”。
在系统变量中点击新建,添加变量名为“JAVA_HOME”,变量值为Java安装路径。
在系统变量中找到“Path”,编辑变量值,在最后添加“;%JAVA_HOME%\bin;%JAVA_HOME%\jre\bin;”。
如果以上步骤未解决问题,可以尝试重新安装Java和PySpark。
以下是一个简单的PySpark程序示例,你可以根据自己的情况适当修改。
from pyspark import SparkContext, SparkConf
conf = SparkConf().setAppName("myAppName")
sc = SparkContext(conf=conf)
rdd = sc.parallelize([1, 2, 3, 4, 5])
print(rdd.collect())
sc.stop()
如果我的回答解决了您的问题,请采纳!
pyspark遇到问题已经解决问题的全过程
可以借鉴下,
https://blog.csdn.net/weixin_56786688/article/details/127261007