HDSF 简介

news/2024/5/20 2:31:38 标签: hadoop, hdfs, 大数据

目录

一、HDFS 的设计特点是

二、什么零拷贝

        2.1 传统情况:

        2.2 零拷贝技术:

三、什么是DMA 

四、HDFS 的关键元素

五、HDFS 运行原理

六、HDFS 数据合并原理

七、HDFS 写的原理

八、HDFS 读的原理

九、分块存储

十、 安全模式

十一、 MapReduce 核心思想

  11.1  MapReduce 进程

十二、 Namenode 故障后,如何恢复

        12.1 方法一:

        12.2 方法二:

        12.3 防止namenode挂掉的办法


一、HDFS 的设计特点是

1、大数据文件

2、文件分块存储

3、流式数据访问,一次写入可以多次访问

4、不支持动态改变文件内容,而是要求让文件一次写入就不做改变,要变化也只能在文件末添加内容

5、廉价硬件

6、硬件故障

7、利用DMA引擎的零拷贝计数进行文件的传输和同步

二、什么零拷贝

        2.1 传统情况:

没有任何优化技术使用的背景下,操作系统为此会进行4次数据拷贝和4次上下文切换,如下图所示

        拷贝步骤如下:       

步骤一:Datanode会首先将数据块从磁盘存储(也可能是SSD、内存等异构存储)读入操作系统的内核缓冲区

步骤二:将数据跨内核推到Datanode进行

步骤三:Datanode会再次跨内核将数据推回内核中的套接字缓冲区

步骤四:最后将数据写入网卡缓冲区

 Datanode对数据进行了两次多余的数据拷贝操作(步骤二和步骤三),Datanode只是起到缓存数据并将其传回套接字的作用而以,别无他用。这里需要注意的是,步骤一盒步骤四的拷贝发生在外设(列如磁盘和网卡)和内存之间,由DMA(Direct MemoryAccess,直接内存存取)引擎执行,而步骤二和步骤三的拷贝则发生在内存中,由CPU执行。

上述读取方式除了会造成多次数据拷贝操作外, 还会增加内核态与用户态之间的上下文切换

        上下文切换:

切换一:Datanode通过read()系统调用将数据块从磁盘(或者其他异构存储)读取到内核缓冲区时,会造成第一次用户态到内核态的上下文

切换二:在系统调用read()返回时,会触发内核态到用户态的上下文切换

切换三:Datanode成功读入数据后,会调用系统调用write()发送数据到socket,也就是在数据块第三次拷贝时,会再次触发用户态到内核的上下文切换

切换四:当系统调用write()返回时,内核态又会重新切换回用户态

         2.2 零拷贝技术:

一次系统调用代替两次系统调用

 拷贝步骤如下:   

步骤一:Datanode调用transferTo()方法引用DMA引擎文件内容拷贝到内核缓冲区

步骤二:DMA引擎直接把数据从内核缓冲区传输到网卡缓冲区

使用零拷贝模式的数据块读取, 数据拷贝的次数从4次降低到了2次.

transferTo()方法读取文件通道(FileChannel) 中position参数指定位置处开始的count个字节的数据, 然后将这些数据直接写入目标通道target中。 HDFS的SocketOutputStream对象的transferToFully()方法封装了FileChannel.transferTo()方法, 对Datanode提供支持零拷贝的数据读取功能。

 使用零拷贝模式除了降低数据拷贝的次数外, 上下文切换次数也从4次降低到了2次。

当Datanode调用transferTo()方法时会发生用户态到内核态的切换,transferTo()方法执行完毕返回时内核态又会切换回用户态。

三、什么是DMA 

         DMA将一个内存区从一个设备复制到另外一个。当中央处理器初始化这个传输动作,传输动作本身是由DMA控制器来实行和完成。

四、HDFS 的关键元素

Block: 将一个文件进行分块,通常是64M

NameNo: 保存整个文件系统的目录信息、文件信息及分块信息,这是由唯一 一台主机专门保存,如果主NameNode 失效,启动备用主机运行NameNode

DataNode: 分布的廉价的计算器上,用于存储Block块文件

五、HDFS 运行原理

 1、NameNode和DataNode节点初始化完成后,采用RPC进行信息交换,采用的机制是心跳机制,即DataNode节点定时向NameNode反馈状态信息,反馈信息如:是否正常、磁盘空间大小、资源消耗情况等信息,以确保NameNode知道DataNode的情况;

2、NameNode会将子节点的相关元数据信息缓存在内存中,对于文件与Block块的信息会通过fsImageedits文件方式持久化在磁盘上,以确保NameNode知道文件各个块的相关信息;

3、NameNode负责存储fsImage和edits元数据信息,但fsImage和edits元数据文件需要定期进行合并,这时则由SecondNameNode进程对fsImage和edits文件进行定期合并,合并好的文件再交给NameNode存储。

六、HDFS 数据合并原理

 

1、NameNode初始化时会产生一个edits文件和一个fsimage文件,edits文件用于记录操作日志,比如文件的删除或添加等操作信息,fsImage用于存储文件与目录对应的信息以及edits合并进来的信息,即相当于fsimage文件在这里是一个总的元数据文件,记录着所有的信息;

2、随着edits文件不断增大,当达到设定的一个阀值的时候,这时SecondaryNameNode会将edits文件和fsImage文件通过采用http的方式进行复制到SecondaryNameNode下(在这里考虑到网络传输,所以一般将NameNode和SecondaryNameNode放在相同的节点上,这样就无需走网络带宽了,以提高运行效率),同时NameNode会产生一个新的edits文件替换掉旧的edits文件,这样以保证数据不会出现冗余;

3、SecondaryNameNode拿到这两个文件后,会在内存中进行合并成一个fsImage.ckpt的文件,合并完成后,再通过http的方式将合并后的文件fsImage.ckpt复制到NameNode下,NameNode文件拿到fsImage.ckpt文件后,会将旧的fsimage文件替换掉,并且改名成fsimage文件。 

 

 

七、HDFS 写的原理

1、HDFS客户端提交写操作到NameNode上,NameNode收到客户端提交的请求后,会先判断此客户端在此目录下是否有写权限,如果有,然后进行查看,看哪几个DataNode适合存放,再给客户端返回存放数据块的节点信息,即告诉客户端可以把文件存放到相关的DataNode节点下;

2、客户端拿到数据存放节点位置信息后,会和对应的DataNode节点进行直接交互,进行数据写入,由于数据块具有副本replication,在数据写入时采用的方式是先写第一个副本,写完后再从第一个副本的节点将数据拷贝到其它节点,依次类推,直到所有副本都写完了,才算数据成功写入到HDFS上,副本写入采用的是串行,每个副本写的过程中都会逐级向上反馈写进度,以保证实时知道副本的写入情况;

3、随着所有副本写完后,客户端会收到数据节点反馈回来的一个成功状态,成功结束后,关闭与数据节点交互的通道,并反馈状态给NameNode,告诉NameNode文件已成功写入到对应的DataNode。

 

 

八、HDFS 读的原理

 

1、HDFS客户端提交读操作到NameNode上,NameNode收到客户端提交的请求后,会先判断此客户端在此目录下是否有读权限,如果有,则给客户端返回存放数据块的节点信息,即告诉客户端可以到相关的DataNode节点下去读取数据块;

2、客户端拿到块位置信息后,会去和相关的DataNode直接构建读取通道,读取数据块,当所有数据块都读取完成后关闭通道,并给NameNode返回状态信息,告诉NameNode已经读取完毕。

九、分块存储

 

HDFS中文件在物理上是分块存储,通过dfs.blocksize配置,2.x之后的版本默认128M

  • HDFS中文件在逻辑上是连续的,提供一个文件目录树
  • block块大小计算
  1. 理想寻址时间为10ms
  2. 理想读取文件时间为寻址时间的10%
  3. 市面上磁盘的存储速率为100M/s

因此block块大小:10ms/10% *100M/s = 100M -> 128M

十、 安全模式

 

安全模式是HDFS所处的一种特殊状态,在这种状态下,文件系统只接受读数据请求,而不接受创建、删除、修改等变更请求。同时会对数据块进行大量校验,导致资源的分配和申请耗时远超预期。

在NameNode主节点启动时,HDFS首先进入安全模式,DataNode在启动的时候会向namenode汇报可用的block等状态,当整个系统达到安全标准时,HDFS自动离开安全模式。如果HDFS处于安全模式下,则文件block不能进行任何的副本复制操作,hdfs集群刚启动的时候,默认30S钟的时间是出于安全期的,只有过了30S之后,集群脱离了安全期,然后才可以对集群进行操作

十一、 MapReduce 核心思想

MapReduce实现分布式计算分成2个阶段

第一个阶段MapTask并发实例,完全并行运行,互不干扰

第二个阶段ReduceTask并发实例,完全并行运行,数据依赖上一个阶段所有MapTask并发实例输出

MapReduce编程模型只能包含一个Map阶段一个Reduce阶段,但可以实现多个MapReduce串行运行

  11.1  MapReduce 进程

MrAppMaster:负责整个程序的过程调度及状态协调

MapTask:负责Map阶段整个数据处理流程

ReduceTask:负责Reduce阶段整个数据处理流程

十二、 Namenode 故障后,如何恢复

可以采用如下两种方法恢复数据:

        12.1 方法一: 

将 SecondaryNameNode 中数据拷贝到 namenode 存储数据的目录;

 

1、删除namenode存储的数据(/home/hadoop/hadoop_tmp/dfs/name/*)

rm -rf /home/hadoop/hadoop_tmp/dfs/name/*

2、把secondarynamenode中的数据拷到原namenode存储数据目录

scp -r hadoop@hadoop102:/home/hadoop/hadoop_tmp/dfs/namesecondary/* /home/hadoop/hadoop_tmp/dfs/name/*

3、重新启动namenode (在启动之前可以删除目录下的锁文件)

hadoop-daemon.sh start namenode

        12.2 方法二:

使用 -importCheckpoint 选项 启动 namenode 守 护 进 程 , 从 而 将SecondaryNameNode 中数据拷贝到 namenode 目录中。 

 

  1. 修改hdfs-site.xml文件:
<property>

    <name>dfs.namenode.checkpoint.period</name>

    <value>120</value>

</property>


<property>

    <name>dfs.namenode.name.dir</name>

    <value>/home/hadoop/hadoop_tmp/dfs/name</value>

</property>

        2.删除namenode存储的数据(/home/hadoop/hadoop_tmp/dfs/name/*)

rm -rf /home/hadoop/hadoop_tmp/dfs/name/*

        3.将secondarybamenode  存储数据的目录拷贝到 namenode 存储数据的平级目录,并删除锁文件in_use.lock文件  

scp -r hadoop@hadoop102:/home/hadoop/hadoop_tmp/dfs/namesecondary/* /home/hadoop/hadoop_tmp/dfs/name/*

rm -rf in_use.lock

        4.导入检查点数据

hdfs namenode -importCheckpoint

        5.启动namenode

hadoop-daemon.sh start namenode

        12.3 防止namenode挂掉的办法

集群高可用。

hdfs-site.xml 文件中

 


http://www.niftyadmin.cn/n/211892.html

相关文章

设计模式之迭代器模式(C++)

作者&#xff1a;翟天保Steven 版权声明&#xff1a;著作权归作者所有&#xff0c;商业转载请联系作者获得授权&#xff0c;非商业转载请注明出处 一、迭代器模式是什么&#xff1f; 迭代器模式是一种行为型的软件设计模式&#xff0c;提供一种方法能顺序访问聚合对象中的各个元…

跟着TI学画PCB【直流输入 · BLDC驱动器 · 48V-500W三相逆变器】

跟着TI学画PCB【直流输入 BLDC驱动器 48V-500W三相逆变器】 目录跟着TI学画PCB【直流输入 BLDC驱动器 48V-500W三相逆变器】1. Overview1.1 实物图1.2 系统框架1.3 系统性能2. 硬件方案及原理图2.1 驱动芯片&#xff08;DRV8350R&#xff09;2.2 功率管&#xff08;CSD1953…

Flink处理大型离线任务稳定性与性能调优探索

Apache Flink作为分布式处理引擎&#xff0c;用于对无界和有界数据流进行状态计算。其中实时任务用于处理无界数据流&#xff0c;离线任务用于处理有界数据。通过本文你将掌握让大型离线任务运行稳定的能力&#xff0c;同时能够通过分析离线任务运行特点&#xff0c;降低任务运…

最长公共子序列长度问题的原理与实现

最长公共子序列&#xff08;LCS&#xff09;是一个在计算机科学和生物信息学中常见的问题&#xff0c;它指的是给定两个或多个序列&#xff0c;找出它们共同拥有的最长的子序列。子序列是指从原序列中删除一些元素&#xff08;也可以不删除&#xff09;后得到的新序列&#xff…

如何使用Python连接Oracle、MySql和PostgreSQL数据库?

步骤1&#xff1a;安装必要的库 要连接数据库和查询数据&#xff0c;您需要安装以下两个库&#xff1a; pandas&#xff1a;一个用于数据分析的Python库&#xff0c;包括读取和写入数据的功能。sqlalchemy&#xff1a;一个用于操作关系型数据库的Python库&#xff0c;可以让您…

Python机器学习:适合新手的8个项

再多的理论也不能代替动手实践。教科书和课程会让你误以为精通&#xff0c;因为材料就在你面前。但当你尝试去应用它时&#xff0c;可能会发现它比看起来更难。而「项目」可帮助你快速提高应用的 ML 技能&#xff0c;同时让你有机会探索有趣的主题。此外&#xff0c;你可以将项…

题目 2572: 蓝桥杯2020年第十一届省赛真题-子串分值

时间限制: 1s 内存限制: 128MB 提交: 1387 解决: 396 题目描述 对于一个字符串S&#xff0c;我们定义S 的分值 f(S) 为S中恰好出现一次的字符个数。例如f (”aba”) 1&#xff0c;f (”abc”) 3, f (”aaa”) 0。 现在给定一个字符串S[0…n-1]&#xff08;长度为n&#xf…

优先级队列的模拟实现(仿函数)

目录&#xff1a; 1.priority_queue接口的实现&#xff08;先建大堆&#xff09; 1.push 加 向上调整的实现 2.pop 3.迭代器区间的构造 2.仿函数 3.仿函数优化我们的优先级队列 -------------------------------------------------------------------------------------------…