1.在官网下载1.3.0源码后执行如下命令:
./make-distribution.sh --tgz --skip-java-test --with-tachyon -Dhadoop.version=2.4.0 -Djava.version=1.7 -Dprotobuf.version=2.5.0 -Pyarn -Phive -Phive-thriftserver
2.参数说明:
-
–tgz 生成部署包;
-
–skip-java-test 滤过测试阶段;
-
–with-tachyon 感觉tachyon是趋势,所以加上tachyon的支持;
-
-Dhadoop.version 指定hadoop的版本,默认为1.0.4;
-
-Djava.version 指定java版本,默认是1.6;
-
-Dprotobuf.version 指定protobuf的版本,默认是2.4.1;这里指定是因为hadoop使用的2.5.0,不修改的话搭配的时候会出问题;
-
-Pyarn -Phive -Pthriftserver 分别加入yarn、hive的支持。
3.一个多小时后出现BUILD SUCCESS,即编译成功,可在spark-1.3.0文件夹中找到编译的文件。
原创文章,作者:Maggie-Hunter,如若转载,请注明出处:https://blog.ytso.com/185646.html