Windows 打开pyspark报错

pyspark 编写独立应用程序 Windows10

img


查询Java -version 和 javacv -version ,版本一致

fsdatainputstream没有这个类

参考GPT和自己的思路:

您好,根据您的问题描述,可能是系统缺少或者环境变量设置不正确导致无法调用Java运行spark。您可以尝试以下步骤解决该问题:

  1. 确认Java是否正确安装并设置环境变量。您可以在命令行窗口中运行“java -version”和“javac -version”命令,确保输出与您所安装的Java版本一致。

  2. 确认您的电脑上是否安装了Spark,并将Spark的bin文件夹的路径添加到系统的环境变量中。

  3. 在您的应用程序的代码中,添加以下几行代码以在程序运行时指定Spark的路径:

import os
import sys

os.environ['SPARK_HOME'] = "C:/spark-2.4.5-bin-hadoop2.7" # Spark的安装路径
sys.path.append("C:/spark-2.4.5-bin-hadoop2.7/bin")

以上是我对您问题的初步回答,如有需要可以联系我,我会尽力提供最好的帮助。

不知道你这个问题是否已经解决, 如果还没有解决的话:

如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^