为了账号安全,请及时绑定邮箱和手机立即绑定

SparkSQL 调优

标签:
Spark

对一些SparkSQL任务,可以通过缓存数据、调优参数、增加并行度提升性能

缓存数据
sqlContext.cacheTable("tableName")或dataFrame.cache()构建一个内存中的列格式缓存
使用sqlContext.uncacheTable("tableName")移除缓存

缓存设置
可以通过sqlContext.setConf或在SQL中运行SET key=value
setConf("spark.sql.inMemoryColumnarStorage.compressed","true") ,为每列自动选择压缩码
setConf("spark.sql.inMemoryColumnarStorage.batchSize","1000") ,列式缓存的批处理大小,大批量可以提升内存使用率和压缩了,但是缓存是会有溢出风险

调优参数

参数默认值解释
spark.sql.autoBroadcastJoinThreshold10485760(10M)Join操作时,要被广播的表的最大字节数,-1为禁止广播
spark.sql.tungsten.enabledtrue开启tungsten优化
spark.sql.shuffle.partitions200shuffle数据时,可用分区数
spark.sql.planner.externalSorttrue根据需要执行Sort溢出到磁盘上,否则在每个分区内存中

增加并行度
Spark采用内存列式存储,实际执行查询效率很高,相对而言数据加载阶段耗时较长,合理设置并行度提升文件加载效率

Spark的并行度指的是什么?
spark作业中,各个stage的task的数量,也就代表了spark作业在各个阶段stage的并行度

如何提高并行度?



作者:Alex90
链接:https://www.jianshu.com/p/048aa1cac43c


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
移动开发工程师
手记
粉丝
46
获赞与收藏
144

关注作者,订阅最新文章

阅读免费教程

  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消