Spark部署的问题,求生产环境下Spark工作模式的最佳实践

我目前搭建的Spark是Spark Standalone模式的,有1台Master服务器,2台Worker服务器。
我用java写好程序之后,我的程序要怎么样部署到Spark上。因为Spark的example运行的时候,只能通过命令运行,但是如果用在生产上,有什么好的办法吗?

http://download.csdn.net/detail/turingbooks/9524885