随着Spark的应用越来越广泛,对支持多资源管理器应用程序部署工具的需求也越来越迫切。Spark1.0.0的出现,这个问题得到了逐步改善。从Spark1.0.0开始,Spark提供了一个容易上手的应用程序部署工具bin/spark-submit,可以完成Spark应用程序在local、Standalone、YARN、Mesos上的快捷部署。1:使用说明 进入$SPARK_HOME目录,输入bin/spark-submit --help可以得到该命令的使用帮助。hadoop@wyy:/app/hadoop/spark100$ bin/spark-submit --helpUsage: spark-submit [options] <app jar | python file> [app options]Options: --master MASTER_URL spark://host:port, mesos://host:port, yarn, or local. --deploy-mode DEPLOY_MODE driver运行之处,client运行在本机,cluster运行在集群
...
继续阅读
(12)