提交Spark应用
spark-submit脚本在Spark的bin目录下,可以利用此脚本向集群提交Spark应用。该脚本为所有Spark所支持的集群管理器( cluster managers)提供了统一的接口,因此,你基本上可以用同样的配置和脚本,向不同类型的集群管理器提交你的应用。
打包应用程序依赖
如果你的代码依赖于其他工程,那么你需要把依赖项也打包进来,并发布给Spark集群。这需要创建一个程序集jar包(或者uber jar),包含你自己的代码,同时也包含其依赖项。sbt and Maven 都有assembly插件。创建程序集jar包时,注意,要把Spark和Hadoop的jar包都可设为provided;这些jar包在Spark集群上已经存在,不需要再打包进来。完成jar包后,你就可以使用bin/spark-submit来提交你的jar包了。
对于Python,你可以使用spark-submit的–py-files参数,将你的程序以.py、.zip 或.egg文件格式提交给集群。如果你需要依赖很多Python文件,我们推荐你使用.zip或者.egg来打包。
利用spark-submit启动应用
一旦打包好一个应用程序,你就可以用bin/spark-submit来提交之。这个脚本会自动设置Spark及其依赖的classpath,同时可以支持多种不同类型的集群管理器、以及不同的部署模式:
./bin/spark-submit /
--class <main-class>
--master <master-url> /
--deploy-mode <deploy-mode> /
--conf <key>=<value> /
... # 其他选项
<application-jar> /
[application-arguments]
一些常用的选项如下:
--class
: 应用入口类(例如:org.apache.spark.examples.SparkPi
))--master
: 集群的master URL (如:spark://23.195.26.187:7077)--deploy-mode
: 驱动器进程是在集群上工作节点运行(cluster),还是在集群之外客户端运行(client)(默认:client)--conf
: 可以设置任意的Spark配置属性,键值对(key=value)格式。如果值中包含空白字符,可以用双引号括起来(”key=value“)。application-jar
: 应用程序jar包路径,该jar包必须包括你自己的代码及其所有的依赖项。如果是URL,那么该路径URL必须是对整个集群可见且一致的,如:hdfs://path 或者 file://path (要求对所有节点都一致)application-arguments
: 传给入口类main函数的启动参数,如果有的话。
一种常见的部署策略是,在一台网关机器上提交你的应用,这样距离工作节点的物理距离比较近。这种情况下,client模式会比较适合。client模式下,驱动器直接运行在spark-submit的进程中,同时驱动器对于集群来说就像是一个客户端。应用程序的输入输出也被绑定到控制台上。因此,这种模式特别适用于交互式执行(REPL),spark-shell就是这种模式。
当然,你也可以从距离工作节点很远的机器(如:你的笔记本)上提交应用,这种情况下,通常适用cluster模式,以减少网络驱动器和执行器之间的网络通信延迟。注意:对于Mesos集群管理器,Spark还不支持cluster模式。目前,只有YARN上Python应用支持cluster模式。
对于Python应用,只要把<application-jar>换成一个.py文件,再把.zip、.egg或者.py文件传给–py-files参数即可。
有一些参数是专门用于设置集群管理器的(cluster manager)。例如,在独立部署( Spark standalone cluster )时,并且使用cluster模式,你可以用–supervise参数来确保驱动器在异常退出情况下(退出并返回非0值)自动重启。spark-submit –help可查看完整的选项列表。这里有几个常见的示例:
# 本地运行,占用8个core
./bin/spark-submit /
--class org.apache.spark.examples.SparkPi /
--master local[8] /
/path/to/examples.jar /
100
# 独立部署,client模式
./bin/spark-submit /
--class org.apache.spark.examples.SparkPi /
--master spark://207.184.161.138:7077 /
--executor-memory 20G /
--total-executor-cores 100 /
/path/to/examples.jar /
1000
# 独立部署,cluster模式,异常退出时自动重启
./bin/spark-submit /
--class org.apache.spark.examples.SparkPi /
--master spark://207.184.161.138:7077 /
--deploy-mode cluster
--supervise
--executor-memory 20G /
--total-executor-cores 100 /
/path/to/examples.jar /
1000
# YARN上运行,cluster模式
export HADOOP_CONF_DIR=XXX
./bin/spark-submit /
--class org.apache.spark.examples.SparkPi /
--master yarn /
--deploy-mode cluster / # 要client模式就把这个设为client
--executor-memory 20G /
--num-executors 50 /
/path/to/examples.jar /
1000
# 独立部署,运行python
./bin/spark-submit /
--master spark://207.184.161.138:7077 /
examples/src/main/python/pi.py /
1000
# Mesos集群上运行,cluster模式,异常时自动重启
./bin/spark-submit /
--class org.apache.spark.examples.SparkPi /
--master mesos://207.184.161.138:7077 /
--deploy-mode cluster
--supervise
--executor-memory 20G /
--total-executor-cores 100 /
http://path/to/examples.jar /
1000
Master URLs
传给Spark的master URL可以是以下几种格式:
Master URL | 含义 |
---|---|
local | 本地运行Spark,只用1个worker线程(没有并行计算) |
local[K] | 本地运行Spark,使用K个worker线程(理论上,最好将这个值设为你机器上CPU core的个数) |
local[*] | 本地运行Spark,使用worker线程数同你机器上逻辑CPU core个数 |
spark://HOST:PORT | 连接到指定的Spark独立部署的集群管理器(Spark standalone cluster)。端口是可以配置的,默认7077。 |
mesos://HOST:PORT | 连接到指定的Mesos集群。端口号可以配置,默认5050。如果Mesos集群依赖于ZooKeeper,可以使用 mesos://zk://… 来提交,注意 –deploy-mode需要设置为cluster,同时,HOST:PORT应指向 MesosClusterDispatcher. |
yarn | 连接到指定的 YARN 集群,使用–deploy-mode来指定 client模式 或是 cluster 模式。YARN集群位置需要通过 $HADOOP_CONF_DIR 或者 $YARN_CONF_DIR 变量来查找。 |
yarn-client | YARN client模式的简写,等价于 –master yarn –deploy-mode client |
yarn-cluster | YARN cluster模式的简写,等价于 –master yarn –deploy-mode cluster |
从文件加载配置
spark-submit脚本可以从一个属性文件加载默认的Spark属性配置值(Spark configuration values ),并将这些属性传给你的应用程序。默认Spark会从 conf/spark-defaults.conf读取这些属性配置。更详细信息,请参考 loading default configurations.
用这种方式加载默认Spark属性配置,可以在调用spark-submit脚本时省略一些参数标志。例如:如果属性文件中设置了spark.master属性,那么你就以忽略spark-submit的–master参数。通常,在代码里用SparkConf中设置的参数具有最高的优先级,其次是spark-submit中传的参数,再次才是spark-defaults.conf文件中的配置值。
如果你总是搞不清楚最终生效的配置值是从哪里来的,你可以通过spark-submit的–verbose选项来打印细粒度的调试信息。
高级依赖管理
通过spark-submit提交应用时,application jar和–jars选项中的jar包都会被自动传到集群上。Spark支持以下URL协议,并采用不同的分发策略:
- file: – 文件绝对路径,并且file:/URI是通过驱动器的HTTP文件服务器来下载的,每个执行器都从驱动器的HTTP server拉取这些文件。
- hdfs:, http:, https:, ftp: – 设置这些参数后,Spark将会从指定的URI位置下载所需的文件和jar包。
- local: – local:/ 打头的URI用于指定在每个工作节点上都能访问到的本地或共享文件。这意味着,不会占用网络IO,特别是对一些大文件或jar包,最好使用这种方式,当然,你需要把文件推送到每个工作节点上,或者通过NFS和GlusterFS共享文件。
注意,每个SparkContext对应的jar包和文件都需要拷贝到所对应执行器的工作目录下。一段时间之后,这些文件可能会占用相当多的磁盘。在YARN上,这些清理工作是自动完成的;而在Spark独立部署时,这种自动清理需要配置 spark.worker.cleanup.appDataTtl 属性。
用户还可以用–packages参数,通过给定一个逗号分隔的maven坐标,来指定其他依赖项。这个命令会自动处理依赖树。额外的maven库(或者SBT resolver)可以通过–repositories参数来指定。Spark命令(pyspark,spark-shell,spark-submit)都支持这些参数。
对于Python,也可以使用等价的–py-files选项来分发.egg、.zip以及.py文件到执行器上。
更多信息
部署完了你的应用程序后, cluster mode overview 描述了分布式执行中所涉及的各个组件,以及如何监控和调试应用程序。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/117409.html