课程
/云计算&大数据
/大数据
/Spark从零开始
视频讲spark扩充了流行的mapreduce计算模型。谁怎么扩充的?求解释
2017-06-01
源自:Spark从零开始 1-1
正在回答
相比与MapReduce编程模型,Spark提供了更加灵活的DAG(Directed Acyclic Graph) 编程模型, 不仅包含传统的map、reduce接口, 还增加了filter、flatMap、union等操作接口,使得编写Spark程序更加灵活方便。
举报
本课程旨在让同学们了解Spark基础知识,掌握Spark基础开发.
2 回答怎么没有java版的spark课程
2 回答到Spark的官网后遇到这种情况要怎么办?要怎么下载?
1 回答IDEA中无build.sut怎么办?
1 回答这个是在什么环境下运行的?虚拟环境怎么配置?
1 回答运行sparl-shell,怎么运行不起来?