课程
/云计算&大数据
/Hadoop
/Hadoop进阶
现在MapReduce是不是已经被Spark替代了?
2018-05-10
源自:Hadoop进阶 5-1
正在回答
没有,两个的侧重点不一样,mapReduce适合对实时性要求不高的计算(计算时中间结果溢写到磁盘),io消耗大,spark是基于内存的计算框架,计算速度是很快的。一个是 时间换空间 另一个是 空间换时间。
TimWaha 提问者
举报
MapReduce原理,并实现简单的推荐
4 回答MR1 run的时候报错了,查看fs上该input文件已经存在
1 回答有些地方的代码还是有点不懂
1 回答2-2章节的图示是不是有问题
1 回答计算相似度时是不是应该就是加个分母判0啊?
1 回答原问题已解决..