为了账号安全,请及时绑定邮箱和手机立即绑定

高容错分布式计算系统是什么样的?

标签:
大数据

高容错分布式计算系统,就是要让系统高可用。您的问题可以理解为如何设计高可用的分布式计算系统。

高可用的分布式计算系统的设计通常需要做到:冗余,故障自动转移,状态同步,资源调度,系统自检,故障恢复,伸缩方便等。。。

我们可以参考当下比较流行的分布式计算框架,看看别人如何设计的。例如:MapReduce,Spark,Storm等。

MapReduce:分布式离线计算框架。在运行的时候根据文件块自动分配计算节点,和线程,在运行的过程中如果某个节点失败,则会尝试在别的节点去执行。
适合数据复杂度运算 不适合算法复杂度的运算 不适合实时计算、流式计算、DAG有向图计算 综上,要求算法足够简单,数据可以足够大!
MapReduce包含四个组成部分 Client, JobTracker, TaskTracker ,Task。

webp

hadoop-MapReduce模型实现图

Map流程:

1,Inputformat:首先将 HDFS 中的数据以 Split 方式作为 MapReduce 的输入。Mapper:每个Mapper 将输入(key,value)数据解析成输出(key,value)。
2,Partition:根据key或value及reduce的数量来决定当前的这对输出数据最终应该交由哪个reduce task处理( Partitioner接口,默认自动完成,可定制)。
3,Combine:缓存溢写时完成,如果有很多个相同key/value对需要发送到某个reduce端去,那么需要将这些key/value值拼接到一块,减少与partition相关的索引记录(reducer接口,默认自动完成,可定制) 。
4,Merge:溢写文件合并,同时再次执行Combiner(默认自动完成)。

webp

Map 流程

Reduce流程

1,Copy:简单地拉取数据 Merge:同map
2,Merge,文件合并
3,Reducer:每个Reducer将输入(key,value)数据解析成输出(key,value) 把结果放到HDFS上

webp

Reduce流程

spark:分布式在线批量计算框架。可以实时执行批量计算命令。依赖内存资源。将RDD存放于内存,方面后续计算能够持续复用。

webp

spark工作示意图

Storm是实时流式计算框架。主要是无法忍受MapReduce的高延迟。Storm的核心组件有Nimbus、Supervisor、Worker、Task、Topology、Stream、Spout、Bolt、Stream grouping、Reliability。

webp

Storm

在我的日常工作,还没有自己去设计一套高可用的分布式计算框架。大多也只是研究目前市场主流的计算框架,理解其中的设计思想和框架中体现的架构思路,最终灵活应用与工作中的其它场景。



作者:数据僧
链接:https://www.jianshu.com/p/22a64467a793


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消