为了账号安全,请及时绑定邮箱和手机立即绑定

SparkSQL对于重复的计算怎么优化

SparkSQL对于重复的计算怎么优化

智慧大石 2018-11-27 17:00:47
SparkSQL对于重复的计算怎么优化
查看完整描述

1 回答

?
斯蒂芬大帝

TA贡献1827条经验 获得超8个赞

  1. Spark sql是为了处理结构化数据的一个spark 模块。

  2. 不同于spark rdd的基本API,spark sql接口更多关于数据结构本身与执行计划等更多信息。

  3. 在spark内部,sql sql利用这些信息去更好地进行优化。

  4. 有如下几种方式执行spark sql:SQL,DataFramesAPI与Datasets API。当相同的计算引擎被用来执行一个计算时,有不同的API和语言种类可供选择。

  5. 这种统一性意味着开发人员可以来回轻松切换各种最熟悉的API来完成同一个计算工作。


查看完整回答
反对 回复 2018-12-16
  • 1 回答
  • 0 关注
  • 1017 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信