今天就跟大家聊聊有关Spark提交作业的示例分析,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。
初尝试
cd software/spark-3.0.1-bin-hadoop2.7
-
启动 master
./sbin/start-master.sh
访问 http://localhost:8080 得到 spark://MacBook-Pro-2.local:7077
-
启动 Worker
./bin/spark-class org.apache.spark.deploy.worker.Worker spark://MacBook-Pro-2.local:7077
访问 http://localhost:8081 可查看提交的作业
-
提交作业
./bin/spark-submit –master spark://MacBook-Pro-2.local:7077 –class morning.cat.SparkTest /Users/morningcat/Documents/java-project/spark-demo/out/artifacts/spark_demo_jar/spark-demo.jar
package morning.cat; import org.apache.spark.SparkConf; import org.apache.spark.SparkContext; import org.apache.spark.rdd.RDD; public class SparkTest { public static void main(String[] args) { SparkConf sparkConf = new SparkConf().setAppName("SparkTest").setMaster("spark://MacBook-Pro-2.local:7077"); SparkContext sparkContext = new SparkContext(sparkConf); RDD<String> rdd = sparkContext.textFile("/Users/morningcat/Documents/settings.xml", 1); long lineCount = rdd.count(); System.out.println(lineCount); } }
看完上述内容,你们对Spark提交作业的示例分析有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注亿速云行业资讯频道,感谢大家的支持。
原创文章,作者:kirin,如若转载,请注明出处:https://blog.ytso.com/tech/opensource/223200.html