关于#spark#的问题,如何解决?

关于bin/下的spark脚本说法正确的是()
A bin/spark-shell打开spark的Scala解释
器环境
B bin/pyspark打开spark的python解释器
环境
C bin/spark-submit脚本支持代码提交到
spark运行
D 以上全部正确