如题,我用官网下载的预编译版本,每次运行client模式都会报错
ERROR SparkContext: Error initializing SparkContext.
org.apache.spark.SparkException: Yarn application has already ended! It might have been killed or unable to launch application master.
但是用cluster模式就能正常运行。网上看了一些~请问有这个说法吗?
采用的是java1.8,hadoop2.7.3,spark2.1.0。
请指导一下,谢谢!
http://www.aboutyun.com/thread-12294-1-1.html
你这个问题解决了么?
该博客可以解决你的问题:
http://blog.csdn.net/pucao_cug/article/details/72453382
你要检查你的Hadoop的yarm-site.xml中的配置。具体你看博文的3.1章节。