Spark-2.3.0环境搭建安装 在启动spark时出现错误,如图:
这里提示的是你的spark里边的配置文件spark-env.sh 里边的hadoop路径写错了 这里应该是在hadop-2.7.5/etc/hadoop还有就是你的scala的路径也写错了,你在检查一下,