windows下跑spark程序的注意点有哪些

小编给大家分享一下windows下跑spark程序的注意点有哪些,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

windows下也可以跑spark程序,如果没有集群则用本地模式[local],然后用跑jar包的方式就可以了。

大致步骤如下:

(1)创建maven工程,支持scala,可以用scala写spark程序,注意spark.setMaster("local")这样。

(2)生成jar包。用mvn clean scala:compile package命令。

(3)将hadoop.dll(从网上搜索)放到c:/windows/system32/目录下,不然windows下创建文件会报错。

(4)执行java -classpath  yourSparkApp.jar yourMainClass

注意,如果没有spark环境,则maven里不要添加<scope>provided</scope>之类的字样,这样jar包同目录下会生成lib目录,里面是spark需要的所有的jar包。

执行jar包的时候默认会找到.jar文件下的lib目录里的jar包作为依赖的。

这样,一个完整的windows下开发并且调试spark程序的过程就完成了!

以上是“windows下跑spark程序的注意点有哪些”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!

原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/225702.html

(0)
上一篇 2022年1月8日
下一篇 2022年1月8日

相关推荐

发表回复

登录后才能评论