小编给大家分享一下windows下跑spark程序的注意点有哪些,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
windows下也可以跑spark程序,如果没有集群则用本地模式[local],然后用跑jar包的方式就可以了。
大致步骤如下:
(1)创建maven工程,支持scala,可以用scala写spark程序,注意spark.setMaster("local")这样。
(2)生成jar包。用mvn clean scala:compile package命令。
(3)将hadoop.dll(从网上搜索)放到c:/windows/system32/目录下,不然windows下创建文件会报错。
(4)执行java -classpath yourSparkApp.jar yourMainClass
注意,如果没有spark环境,则maven里不要添加<scope>provided</scope>之类的字样,这样jar包同目录下会生成lib目录,里面是spark需要的所有的jar包。
执行jar包的时候默认会找到.jar文件下的lib目录里的jar包作为依赖的。
这样,一个完整的windows下开发并且调试spark程序的过程就完成了!
以上是“windows下跑spark程序的注意点有哪些”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/225702.html