最新回答 / 慕标1442511
hadoop也可以进行计算,它是通过mapreduce计算引擎来计算的。它们的区别是hadoop的mapreduce框架的九三是基于磁盘的,而spark的计算是基于内存的。这也是为什么spark计算比hadoop更快的原因。
2020-07-25
最新回答 / 慕的地1117626
使用standalone mode启动spark:命令行输入<...code...>参考https://uohzoaix.github.io/studies//2014/09/13/sparkRunning/
2019-08-01