关于启动Spark的worker部分,master地址是用户可配置的,修改./conf/spark-env.sh文件中,SPARK_MASTER_HOST 和SPARK_MASTER_PORT 变量即可
2021-04-26
最新回答 / 慕标1442511
hadoop也可以进行计算,它是通过mapreduce计算引擎来计算的。它们的区别是hadoop的mapreduce框架的九三是基于磁盘的,而spark的计算是基于内存的。这也是为什么spark计算比hadoop更快的原因。
2020-07-25