Spark工作流程是怎样的呢

本篇文章给大家分享的是有关Spark工作流程是怎样的呢,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。

一、Spark架构组成图:

Spark工作流程是怎样的呢

Glossary

The following table summarizes terms you’ll see used to refer to cluster concepts:

TermMeaning
Application基于Spark的用户程序(创建了一个SparkContext).由一个driver 进程和N个executor 进程 on the cluster模式下.
Application jarSpark包含的jar包
Driver program一个Driver进程运行 main()方法,创建一个SparkContext
Cluster manager

提交集群(–master local/standalone/on yarn)模式下的资源管理(提交设置code memory….)

Deploy mode区分Driver进程在什么地方cluster or client,主要区别是Driver在本地还是集群的Container里
Worker node运行Spark代码的应用程序的节点(standalone模式概念),在(on yarn)模式下是NodeManager
Executor一个Executor进程,运行在Container里,能够运行我们Task,保存数据到内存里或者磁盘上,每一个应用程序有自己独立的Executor
Task最小的工作单元,Driver发送代码到Executor然后Task执行
Job

每一个Action就会产生job(map,conllect)

Stage每个Job被拆成Task集合,遇到shuffle会stage+1

以上就是Spark工作流程是怎样的呢,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注亿速云行业资讯频道。

原创文章,作者:奋斗,如若转载,请注明出处:https://blog.ytso.com/220506.html

(0)
上一篇 2022年1月2日
下一篇 2022年1月2日

相关推荐

发表回复

登录后才能评论