首页  ·  知识 ·  大数据
Hadoop运行流程分析
网友  CSDN博客  Hadoop  编辑:Hubery   图片来源:网络
HadoopMapReduce基于“分而治之”的思想,将计算任务抽象成map和reduce两个计算过程

1. 概述
Hadoop MapReduce基于“分而治之”的思想,将计算任务抽象成map和reduce两个计算过程,计算流程如下:


map过程包括:
1). 从磁盘读入数据
2). 运行map任务
3). 写结果到磁盘
reduce过程包括:
1). shuffle&sort
2). 运行reduce任务
3). 写结果到磁盘

2. 分析
在map的第三个阶段,map任务的输出会被Partitioner类以指定的方式区分地写出到输出文件里,如果提供了Combiner,在Mapper输出键值时,键值对不会被马上写到输出里,他们会被缓冲在内存中,当达到一定的数据量时,这部分数据会在Combiner中进行合并,然后再输出到Partitioner中。这个阶段通过将数据写入磁盘提高了系统的可靠性,但降低了性能。
在reduce的第一个阶段,Hadoop框架会根据Map结果中的key,将相关的结果传输到某一个Reducer上,这个步骤中的远程传输使用了HTTP协议。

3. 优化
对于map的第三个阶段,HOP(Hadoop Online Prototype)在保留Hadoop的容错性前提下,使数据在各个任务间以管道的方式交互,可增加任务的并发性,缩短响应时间。sphere使用流处理计算模型,在数据由一个SPE流向另一个SPE的过程中,没有写入磁盘。
在reduce的shuffle阶段,数据传输采用HTTP协议,这样降低了系统的传输系统,可以考虑采用UDT协议(sector/sphere采用)。


本文作者:网友 来源:CSDN博客
CIO之家 www.ciozj.com 微信公众号:imciow
    >>频道首页  >>网站首页   纠错  >>投诉
版权声明:CIO之家尊重行业规范,每篇文章都注明有明确的作者和来源;CIO之家的原创文章,请转载时务必注明文章作者和来源;
延伸阅读
也许感兴趣的
我们推荐的
主题最新
看看其它的