Hadoop - HDFS概述
Hadoop文件系统是使用分布式文件系统设计开发的。它运行在商品硬件上。与其他分布式系统不同,HDFS具有高度的容错能力,并采用低成本硬件设计。
HDFS拥有非常大量的数据,并提供更容易的访问。要存储这么大的数据,这些文件存储在多台机器上。这些文件以冗余的方式存储,以在发生故障的情况下挽救系统免受可能的数据丢失。HDFS还使应用程序可以并行处理。
原文链接:http://blogxinxiucan.sh1.newtouch.com/2017/07/17/Hadoop-HDFS概述/
HDFS的特点
适用于分布式存储和处理。
Hadoop提供了与HDFS交互的命令界面。
namenode和datanode的内置服务器可以帮助用户轻松检查集群的状态。
流式访问文件系统数据。
HDFS提供文件权限和身份验证。
HDFS架构
以下是Hadoop文件系统的体系结构。
HDFS架构
HDFS遵循主 - 从架构,它具有以下元素。
Namenode
namenode是包含GNU / Linux操作系统和namenode软件的商品硬件。它是可以在商品硬件上运行的软件。具有namenode的系统充当主服务器,它执行以下任务:
管理文件系统命名空间。
规范客户对文件的访问。
它还执行文件系统操作,如重命名,关闭和打开文件和目录。
Datanode
数据库是具有GNU / Linux操作系统和数据库软件的商品硬件。对于集群中的每个节点(商品硬件/系统),将有一个数据库。这些节点管理其系统的数据存储。
Datanodes根据客户端请求对文件系统执行读写操作。
他们还根据namenode的说明执行块创建,删除和复制等操作。
Block
通常,用户数据存储在HDFS的文件中。文件系统中的文件将被分成一个或多个片段和/或存储在各个数据节点中。这些文件段被称为块。换句话说,HDFS可以读取或写入的最小数据量称为块。默认块大小为64MB,但可根据需要在HDFS配置中更改。
HDFS目标
故障检测和恢复:由于HDFS包含大量商品硬件,组件故障频繁。因此,HDFS应具有快速自动故障检测和恢复的机制。
巨大的数据集:HDFS应该每个群集有数百个节点来管理具有巨大数据集的应用程序。
数据硬件:当数据附近进行计算时,可以有效地完成所请求的任务。特别是在涉及巨大的数据集的情况下,它可以减少网络流量并提高吞吐量。
作者:全能程序猿
链接:https://www.jianshu.com/p/d1a07556cd10
共同学习,写下你的评论
评论加载中...
作者其他优质文章