美文网首页大数据学习大数据玩转大数据
HDFS如何读取文件以及写入文件-加米谷大数据

HDFS如何读取文件以及写入文件-加米谷大数据

作者: f46294cfe85d | 来源:发表于2018-04-08 11:47 被阅读30次

HDFS的文件读取原理,主要包括以下几个步骤:

首先调用FileSystem对象的open方法,其实获取的是一个DistributedFileSystem的实例。

DistributedFileSystem通过RPC(远程过程调用)获得文件的第一批block的locations,同一block按照重复数会返回多个locations,这些locations按照hadoop拓扑结构排序,距离客户端近的排在前面。

前两步会返回一个FSDataInputStream对象,该对象会被封装成 DFSInputStream对象,DFSInputStream可以方便的管理datanode和namenode数据流。客户端调用read方法,DFSInputStream就会找出离客户端最近的datanode并连接datanode。

数据从datanode源源不断的流向客户端。

如果第一个block块的数据读完了,就会关闭指向第一个block块的datanode连接,接着读取下一个block块。这些操作对客户端来说是透明的,从客户端的角度来看只是读一个持续不断的流。

如果第一批block都读完了,DFSInputStream就会去namenode拿下一批blocks的location,然后继续读,如果所有的block块都读完,这时就会关闭掉所有的流。

HDFS的文件写入原理,主要包括以下几个步骤:

客户端通过调用 DistributedFileSystem 的create方法,创建一个新的文件。

DistributedFileSystem 通过 RPC(远程过程调用)调用 NameNode,去创建一个没有blocks关联的新文件。创建前,NameNode 会做各种校验,比如文件是否存在,客户端有无权限去创建等。如果校验通过,NameNode 就会记录下新文件,否则就会抛出IO异常。

前两步结束后会返回 FSDataOutputStream 的对象,和读文件的时候相似,FSDataOutputStream 被封装成 DFSOutputStream,DFSOutputStream 可以协调 NameNode和 DataNode。客户端开始写数据到DFSOutputStream,DFSOutputStream会把数据切成一个个小packet,然后排成队列 data queue。

DataStreamer 会去处理接受 data queue,它先问询 NameNode 这个新的 block 最适合存储的在哪几个DataNode里,比如重复数是3,那么就找到3个最适合的 DataNode,把它们排成一个 pipeline。DataStreamer 把 packet 按队列输出到管道的第一个 DataNode 中,第一个 DataNode又把 packet 输出到第二个 DataNode 中,以此类推。

DFSOutputStream 还有一个队列叫 ack queue,也是由 packet 组成,等待DataNode的收到响应,当pipeline中的所有DataNode都表示已经收到的时候,这时akc queue才会把对应的packet包移除掉。

客户端完成写数据后,调用close方法关闭写入流。

DataStreamer 把剩余的包都刷到 pipeline 里,然后等待 ack 信息,收到最后一个 ack 后,通知 DataNode 把文件标示为已完成。

加米谷大数据专业的大数据培训机构!了解更多请进官网http://www.dtinone.com

相关文章

  • HDFS如何读取文件以及写入文件-加米谷大数据

    HDFS的文件读取原理,主要包括以下几个步骤: 首先调用FileSystem对象的open方法,其实获取的是一个D...

  • javaAPI操作HDFS文件

    javaAPI写入HDFS文件。 javaAPI读取HDFS javaAPI删除HDFS

  • Hadoop 基础(二)

    HDFS 读写流程 我们知道在HDFS中我们的文件按数据块进行存储,那么当我们写入或者读取一个文件的时候HDFS到...

  • fs模块基础(二)

    createReadStream(从文件流中读取数据,文件大的时候使用) createWriteStream(写入...

  • 利用Python处理Excel数据

    读取数据 读取x.xlsx文件 读取文件夹 读取txt文件 读取csv格式Excel表 写入excel 显示数据 ...

  • 文件的操作

    文件的输出操作 读取文件中的数据 如何读取空格和空格后面的字符 用getline()函数 读取 写入

  • fs文件系统操作

    基础写入文件 简单写入文件 流式文件写入 简单文件读取 流式文件读取 流式文件拷贝(读取 + 写入) 复制文件 f...

  • spark 2.4 操作

    sc.textfile()一读取 本地文件系统目录要加 file:读取hdfs 的要加 hdfs: 二 遇到 这个...

  • Hadoop HDFS 的 I/O 流操作

    HDFS 文件上传 HDFS 文件下载 定位文件读取 文件合并

  • python 文件操作

    fp=open("文件路径","方式") 文件读取 文件写入 文件关闭 文件读取写入方式

网友评论

    本文标题:HDFS如何读取文件以及写入文件-加米谷大数据

    本文链接:https://www.haomeiwen.com/subject/vduphftx.html