专业只做数据库实训和认证的品牌机构

微信公众号新浪微博
免费咨询电话:400-0909-964
当前位置: 网站首页 > Hadoop > Hadoop课程 > Hadoop培训认证:HDFS文件存取机制

Hadoop培训认证:HDFS文件存取机制

文章来源: 更新时间:2016/7/14 11:44:45

在线老师点击咨询:

最新学讯:近期OCP认证正在报名中,因考试人员较多请尽快报名获取最近考试时间,报名费用请联系在线老师,甲骨文官方认证,报名从速!

我要咨询

Hadoop培训认证:HDFS文件存取机制,一个分布式文件系统最基本的功能就是读和写,本节将描述HDFS的文件存取机制。

1.HDFS读文件数据流

在读取HDFS的文件时,首先客户端调用FileSystem的open( )函数打开文件,DistributedFileSystem用RPC调用元数据节点,得到文件的数据块信息。对于每一个数据块,元数据节点返回保存数据块的数据节点的地址。DistributedFileSystem返回FSDataInputStream给客户端,用来读取数据。客户端调用stream的read()函数开始读取数据。DFSInputStream连接保存此文件第一个数据块的最近的数据节点。Data从数据节点读到客户端,当此数据块读取完毕时,DFSInputStream关闭和此数据节点的连接,然后连接此文件下一个数据块的最近的数据节点。当客户端读取完数据的时候,调用FSDataInputStream的close函数。客户端读取HDFS中的文件访问数据流的整个过程如图3-3所示。

图3-3中的操作序号1、2、3、4、5表示执行顺序,读取文件的数据流步骤如下:

1)调用FileSystem的open()打开文件,见序号1:open。

2)DistributedFileSystem使用RPC调用NameNode,得到文件的数据块元数据信息,并返回FSDataInputStream给客户端,见序号2:get block locations。

3)HDFS客户端调用stream的read()函数开始读取数据,见序号3:read。

4)调用FSDataInputStream直接从DataNode获取文件数据块,见序号4、5:read。

5)读完文件时,调用FSDataInputStream的close函数,见序号6:close。

2.HDFS写文件数据流

HDFS的写文件数据操作,比读文件数据复杂一些。读文件数据的时候,只需要在多个数据块文件中选一个读就可以了,但是,写文件数据需要同时写到多个数据块文件中,这就相对比较复杂了。HDFS的写机制可以通过图3-4进行简单描述。

如图3-4所描述,数据流从客户端开始,流经一系列的数据节点,到达最后一个DataNode。图3-4中的所有DataNode只需要写一次硬盘,DataNode1和DataNode2会从socket上接收到数据,将它直接写到下个节点的socket上。需要注意的是,如果当前DataNode处于数据流的中间,那么该数据包会被发送到下一个节点。接下来就是处理数据和校验,并分别将数据包写到数据块文件和数据块元数据文件中。如果出错,抛出的异常会导致receiveBlock关闭相关的输出流,并终止传输。同时,数据校验出错还会上报到NameNode上。

最后一个DataNode由于没有后续节点,PacketResponder的ackQueue每收到一项,表明对应的数据块已经处理完毕,那么就可以发送成功应答。如果该应答是最后一个包的,PacketResponder会关闭相关的输出流并提交。如果DataNode有后续节点,那么,它必须等到后续节点成功应答才可以发送应答。

上面描述了HDFS在写文件数据时的基本处理机制,从客户端开始,直到在HDFS上完成写一个文件的整体数据流程图如图3-5所示。

正如图3-5所示,首先客户端调用create()来创建文件,然后DistributedFileSystem同样使用RPC调用NameNode元数据节点,在文件系统的命名空间中创建一个新的文件。NameNode首先确定文件原来不存在,以及客户端有创建文件的权限,然后创建新文件。

DistributedFileSystem返回DFSOutputStream,客户端用于写数据。客户端开始写入数据,DFSOutputStream将数据分成块,写入Data Queue。Data Queue由Data Streamer读取,并通知元数据节点分配数据节点,用来存储数据块(每块默认复制3块)。分配的数据节点放在一个pipeline里。Data Streamer将数据块写入pipeline中的第一个数据节点。第一个数据节点将数据块发送给第二个数据节点,第二个数据节点将数据发送给第三个数据节点。DFSOutputStream为发出去的数据块保存了Ack Queue,等待pipeline中的数据节点告知数据已经写入成功。如果数据节点在写入的过程中失败,则关闭pipeline,同时将Ack Queue中的数据块放入Data Queue的开始位置。

本文地址:http://www.cuug.com.cn/hadoop/kecheng/12471749912.html 转载请注明!


在线预约 抢先报名 获取课程排期

Oracle培训机构

金牌讲师<>

冉乃纲-老师CUUG金牌讲师
冉老师 CUUG金牌讲师 Oracle及RedHat高级讲师、Unix/Linux 资深专家...[详细了解老师]

免费咨询上课流程 客服在线中

陈卫星-老师CUUG金牌讲师
陈老师 CUUG金牌讲师 精通Oracle管理、备份恢复、性能优化 11年Ora...[详细了解老师]

免费咨询上课流程 客服在线中

选学校如何选择适合自己的学校

CUUG -CHINA UNIX USER GROUP,是国际UNIX组织UNIFORUM的中国代表,是国内悠久的专业UNIX培训机构,被誉为中国UNIX 的摇篮。多年来,以提高教学质量为本,强调素质教育,积极引进、消化国外的新技术,有效的结合中国....[详情]

一站式服务(从入学到就业一帮到底)

入学

学习

就业

实操

食宿
地址:北京市海淀区田村山南路35号院17号楼
课程咨询:010-59426307 010-59426319 400-0909-964
企业服务:137 1818 8639(陈经理)
部分信息来源于网络,如有错误请联系指正!
版权所有@北京神脑资讯技术有限公司 (CUUG,中国UNIX用户协会) Copyright 2016 ALL Rights Reserved 京ICP备11008061号-1