如何学好spark大数据-从入门到上手

Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。

至于如何学习,当然就是看书学习了,纸质书或者电子书都可以。如果有钱,也可以选择去培训机构学习。

然后呢,学习这块切记不能闭门造车,要多交流多沟通,多上相关的社区论坛看看,多跟大神们请教请教。

还有就是要多动手,自己完完整整地做一个项目胜过看10本书。

我会陆陆续续给大家讲解这方面的知识,敬请期待!

原创文章,作者:3628473679,如若转载,请注明出处:https://blog.ytso.com/194106.html

(0)
上一篇 2021年11月15日
下一篇 2021年11月15日

相关推荐

发表回复

登录后才能评论