数据挖掘要学spark吗

2024-05-10 20:57:51
数据挖掘要学spark吗希望能解答下
写回答

最佳答案

Spark是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于map reduce算法实现的分布式计算,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的map reduce的算法。

优势应该在于分布式架构比较相似能快速上手。

2024-05-10 20:57:51
赞 5676踩 0

全部回答(1)