您的位置:首页 > 运维架构

Hadoop学习资料整理收集----阿冬专栏

2015-09-01 15:48 477 查看


hadoop----hdfs简介


两本不错的书《Hadoop权威指南》《Hadoop实战》




参考:http://articles.e-works.net.cn/It_overview/Article103875_1.htm

hadoop安装成功后,对hadoop的很多概念还是一知半解,通过在线文档及《hadoop权威指南》可以有个初步的了解。

1. hadoop解决了什么问题?

对大量的数据进行存储与分析。

方案:hdfs进行存储,而mapreduce进行分析,辅以其他的功能。

设计中需要考虑的问题:

大数据的读写问题,磁盘的IO的能力限制,促成了并行处理方式。

硬件故障的可能性,也需要多个硬件的备份,需要保证可靠性。

数据传输,也需要保证可靠性。

并形成即时查询或处理ad hoc的能力。

2. 与关系数据库的比较

关系型数据库: 善于处理结构化数据;其一般使用B树的结构,利于小部分数据的更新,或持续性的更新,但对大量数据更新时,效率比mapreduce低,原因:“排序/合并”来重建数据库;利于点查询,提供低延迟的索引和少量数据的更新。

mapreduce:善于处理半结构化、非结构化数据,大量数据分析,强调数据的大量获取能力及批处理的方式分析整个数据集,而不是低延迟的数据访问。一次写入,多次查询的特征(简单连续的模型)。横向线性扩展的方式

关系型数据库一次性无法读入PB级的数据时,源于磁盘速度的限制:

磁盘的寻址能力,取决于硬件磁头对磁盘的定位能力;

传输的速率,取决于磁盘的带宽。

并且寻址能力的发展,是远远慢于传输速率。

结构化数据:拥有既定格式的实体数据

半结构化数据:类似表格,但每个表格可以有自己的格式

非结构化数据:文本或图像

关系数据库,更利于处理结构化数据,完整,且无冗余

mapreduce,更利于处理半结构化和非结构化数据

3. map/reduce相关术语

键/值对:一般键是 偏移量,而值是文本。

CLASS_PATH: 环境变量:添加的应用程序的路径。

map函数:map任务的实现

reduce函数:reduce任务的实现

main函数:程序入口

jobtracker:调度tasktracker上运行的任务,来协调所有运行在系统上的作业。

tasktracker:运行任务的同时,将运行的结果和状态发送给jobtracker

分片input split:将数据划分为等长的数据块,然后每个分片构建一个map任务

数据本地化优化:在hdfs的本地节点的数据上运行map任务,可以获取最优性能

分区partition:多个reduce任务,每个reduce任务需建立一个分区

混洗shuffle:map与reduce任务之间的数据流相互混杂,多对多的关系

combiner 合并函数:其输出作为reduce的输入, 节省带宽,减少输出的数据量

4. 一次写入,多次读取的含义?

每个磁盘或机器从数据源复制数据到本地,即一次写入,然后,长时间地,只须分析时读取本地数据,即多次读取。

5. HDFS不适用的场景是什么?

1)低延迟的场景

HDFS具有很高的数据吞吐量的性能,代价是可能有较高的时间延迟。

而当要求,只有几十毫秒的延迟时,HBase表现会更好些。

2)大量的小文件

hdfs适用较大的数据块。当有大量小文件时,如过亿的小文件,namenode的管理能力就不够了。

3)多用户写入,任意修改文件

当有多个用户进行修改文件时,或者任意修改文件时,容易造成冲突,而比较低效。

6. 普通NFS与HDFS各自的特点有哪些?

1. 优点:透明性, 编程方便、容易,只须open,close,fread一些库的操作。

2. 缺点:无数据冗余性,所有数据在一台机器上,数据复制时,可能有带宽限制。

HDFS就是为克服NFS的缺点,进行设计。 存储可靠,读取方便,且与mapreduce整合到一起。可伸缩性强。高度可配置(一堆的配置文件)。支持web接口: http://namenode-name:50070/ 流量文件系统。支持shell界面操作。

数据块: 默认64MB。有哪些优点?最小化寻址开销,简化系统设计

namenode: 管理者

datanode:工作者

client: 与namenode、datanode相交互。对用户而言,隐藏namenode、datanode的运作。

namenode的容错机制有哪些? 永久写入磁盘,或镜像namenode(辅助的namenode)

HDFS 架构



命令行接口如何运作的?

HDFS守护进程 根据“fs.default.name” (hdfs URI) 来确定 namenode的主机及端口,这样client端就能得知namenode在哪里运行,并链接到它

shell界面操作:

详细介绍:http://hadoop.apache.org/docs/r1.0.4/file_system_shell.html

举例

hadoop fs -command parameterlist

command:

-ls

-copyFromLocal

-mkdir

r, w, x三种权限。

Hadoop文件系统的分类:

File, hdfs, hftp, hsftp, har, hfs(云存储), ftp s3, s3

--------------

7. checkpoint node

从namenode上周期性备份namespace的checkpoint: fsimage, 和edit(checkpoint之后的log)。

其接口由 dfs.backup.address 和 dfs.backup.http.address
来配置。

另外,可以配置备份周期和数据块大小:

fs.checkpoint.period, set to 1 hour by default

fs.checkpoint.size,
set to 64MB by default,edit log的最大值,当达到这个时,即使period时间未定,仍需checkpoint备份

checkpoint node的checkpoint路径一直是与 namenode的checkpoint路径相同。

8. Backup node

与checkpoint node相同的功能,只不过,无需下载fsimage和edit。因为其内存的内容与namenode相同(同步)。

导入checkpoint有专门的命令,流程。

9. 负载平衡器rebalancer
http://hadoop.apache.org/docs/r1.0.4/commands_manual.html#balancer
--------------

hdfs提供了一系列的接口来支持以下功能:

数据的读取、写入、查询、删除、存档,并保证一致性

如何保持hadoop的集群的均衡?

利用均衡器balancer来改善集群中块的均匀分布程度。

10. Hadoop I / O

数据完整性: 数据校验和 checksum,采用CRC-32,即4个字节,开销低于1%。datanode在复制时,检测数据的完整性。并具备修复能力,即从新复制数据。

压缩:减少文件存储空间,加速数据在网络和磁盘上的传输。压缩的工具有bzip2 gzip LZO ,bzip2在空间上有优势,而LZO在时间上有优势,gzip居中

空间 bzip2 gzip LZO 时间

序列化: 将结构化对象转换为 字节流,便于网络传输或磁盘永久存储。

反序列化:将字节流转换为 结构化对象的逆过程。

RPC: remote procedure call 远程过程调用,hadoop上多节点间的通信方式。采用序列化和反序列化的方式进行。

11. avro

是一个独立于编程语言的数据序列化系统。avro.apache.org中有详尽的描述。旨在解决hadoop中语言可移植性的缺乏。

avro有丰富的数据模式解析data schema resolution.

HDFS是什么?

HADOOP DISTRIBUTED FILE SYSTEM,简称HDFS,是一个分布式文件系统。它是谷歌的GFS提出之后出现的另外一种文件系统。它有一定高度的容错性,而且提供了高吞吐量的数据访问,非常适合大规模数据集上的应用。HDFS 提供了一个高度容错性和高吞吐量的海量数据存储解决方案。



在最初,HADOOP是作为Apache Nutch搜索引擎项目的基础架构而开发的,后来由于它独有的特性,让它成为HADOOP CORE项目的一部分。



HDFS的设计思路?

是什么提供它高吞吐量的数据访问和适合大规模数据集的应用的特性呢,这就要说一下它的设计思路。

首先HDFS的设计之初就是针对超大文件的存储的,小文件不会提高访问和存储速度,反而会降低;其次它采用了最高效的访问模式,也就是经常所说的流式数据访问,特点就是一次写入多次读取;再有就是它运行在普通的硬件之上的,即使硬件故障,也就通过容错来保证数据的高可用。



HDFS的一些概念:

Block:大文件的存储会被分割为多个block进行存储。默认为64MB,每一个blok会在多个datanode上存储多份副本,默认为3份。[这些设置都能够通过配置文件进行更改]

Namenode:主要负责存储一些metadata信息,主要包括文件目录、block和文件对应关系,以及block和datanote的对应关系

Datanode:负责存储数据,上面我们所说的高度的容错性大部分在datanode上实现的[还有一部分容错性是体现在namenode和secondname,还有jobtracker的容错等]。



HDFS的基础架构图:



解析HDFS带来的好处:

高吞吐量访问:HDFS的每个block分布在不同的rack上,在用户访问时,HDFS会计算使用最近和访问量最小的服务器给用户提供。由于block在不同的rack上都有备份,所以不再是单数据访问,所以速度和效率是非常快的。另外HDFS可以并行从服务器集群中读写,增加了文件读写的访问带宽。

高容错性:上面简单的介绍了一下高度容错。系统故障是不可避免的,如何做到故障之后的数据恢复和容错处理是至关重要的。HDFS通过多方面保证数据的可靠性,多分复制并且分布到物理位置的不同服务器上,数据校验功能、后台的连续自检数据一致性功能,都为高容错提供了可能。

容量扩充:因为HDFS的block信息存放到namenode上,文件的block分布到datanode上,当扩充的时候,仅仅添加datanode数量,系统可以在不停止服务的情况下做扩充,不需要人工干预。

引申阅读:


8种Nosql数据库系统对比

虽然SQL数据库是非常有用的工具,但经历了15年的一支独秀之后垄断即将被打破。这只是时间问题:被迫使用关系数据库,但最终发现不能适应需求的情况不胜枚举。

但是NoSQL数据库之间的不同,远超过两
SQL数据库之间的差别。这意味着软件架构师更应该在项目开始时就选择好一个适合的 NoSQL数据库。针对这种情况,这里对 CassandraMongodbCouchDBRedisRiakMembaseNeo4jHBase进行了比较:

(编注1:NoSQL:是一项全新的数据库革命性运动,NoSQL的拥护者们提倡运用非关系型的数据存储。现今的计算机体系结构在数据存储方面要求具 备庞大的水平扩 展性,而NoSQL致力于改变这一现状。目前Google的 BigTable 和Amazon 的Dynamo使用的就是NoSQL型数据库。 参见NoSQL词条。)



1. CouchDB

所用语言: Erlang
特点:DB一致性,易于使用
使用许可: Apache
协议: HTTP/REST
双向数据复制,
持续进行或临时处理,
处理时带冲突检查,
因此,采用的是master-master复制(见编注2)
MVCC – 写操作不阻塞读操作
可保存文件之前的版本
Crash-only(可靠的)设计
需要不时地进行数据压缩
视图:嵌入式 映射/减少
格式化视图:列表显示
支持进行服务器端文档验证
支持认证
根据变化实时更新
支持附件处理
因此, CouchApps(独立的 js应用程序)
需要 jQuery程序库



最佳应用场景:适用于数据变化较少,执行预定义查询,进行数据统计的应用程序。适用于需要提供数据版本支持的应用程序。

例如: CRM、CMS系统。 master-master复制对于多站点部署是非常有用的。

(编注2:master-master复制:是一种数据库同步方法,允许数据在一组计算机之间共享数据,并且可以通过小组中任意成员在组内进行数据更新。)



2. Redis

所用语言:C/C++
特点:运行异常快
使用许可: BSD
协议:类 Telnet
有硬盘存储支持的内存数据库,
但自2.0版本以后可以将数据交换到硬盘(注意, 2.4以后版本不支持该特性!)
Master-slave复制(见编注3)
虽然采用简单数据或以键值索引的哈希表,但也支持复杂操作,例如 ZREVRANGEBYSCORE。
INCR & co (适合计算极限值或统计数据)
支持 sets(同时也支持 union/diff/inter)
支持列表(同时也支持队列;阻塞式 pop操作)
支持哈希表(带有多个域的对象)
支持排序 sets(高得分表,适用于范围查询)
Redis支持事务
支持将数据设置成过期数据(类似快速缓冲区设计)
Pub/Sub允许用户实现消息机制



最佳应用场景:适用于数据变化快且数据库大小可遇见(适合内存容量)的应用程序。

例如:股票价格、数据分析、实时数据搜集、实时通讯。

(编注3:Master-slave复制:如果同一时刻只有一台服务器处理所有的复制请求,这被称为 Master-slave复制,通常应用在需要提供高可用性的服务器集群。)



3. MongoDB

所用语言:C++
特点:保留了SQL一些友好的特性(查询,索引)。
使用许可: AGPL(发起者: Apache)
协议: Custom, binary( BSON)
Master/slave复制(支持自动错误恢复,使用 sets 复制)
内建分片机制
支持 javascript表达式查询
可在服务器端执行任意的 javascript函数
update-in-place支持比CouchDB更好
在数据存储时采用内存到文件映射
对性能的关注超过对功能的要求
建议最好打开日志功能(参数 –journal)
在32位操作系统上,数据库大小限制在约2.5Gb
空数据库大约占 192Mb
采用 GridFS存储大数据或元数据(不是真正的文件系统)



最佳应用场景:适用于需要动态查询支持;需要使用索引而不是 map/reduce功能;需要对大数据库有性能要求;需要使用 CouchDB但因为数据改变太频繁而占满内存的应用程序。

例如:你本打算采用 MySQL或 PostgreSQL,但因为它们本身自带的预定义栏让你望而却步。



4. Riak

所用语言:Erlang和C,以及一些Javascript
特点:具备容错能力
使用许可: Apache
协议: HTTP/REST或者 custom binary
可调节的分发及复制(N, R, W)
用 JavaScript or Erlang在操作前或操作后进行验证和安全支持。
使用JavaScript或Erlang进行 Map/reduce
连接及连接遍历:可作为图形数据库使用
索引:输入元数据进行搜索(1.0版本即将支持)
大数据对象支持( Luwak)
提供“开源”和“企业”两个版本
全文本搜索,索引,通过 Riak搜索服务器查询( beta版)
支持Masterless多站点复制及商业许可的 SNMP监控



最佳应用场景:适用于想使用类似 Cassandra(类似Dynamo)数据库但无法处理 bloat及复杂性的情况。适用于你打算做多站点复制,但又需要对单个站点的扩展性,可用性及出错处理有要求的情况。

例如:销售数据搜集,工厂控制系统;对宕机时间有严格要求;可以作为易于更新的 web服务器使用。

5. Membase

所用语言: Erlang和C
特点:兼容 Memcache,但同时兼具持久化和支持集群
使用许可: Apache 2.0
协议:分布式缓存及扩展
非常快速(200k+/秒),通过键值索引数据
可持久化存储到硬盘
所有节点都是唯一的( master-master复制)
在内存中同样支持类似分布式缓存的缓存单元
写数据时通过去除重复数据来减少 IO
提供非常好的集群管理 web界面
更新软件时软无需停止数据库服务
支持连接池和多路复用的连接代理



最佳应用场景:适用于需要低延迟数据访问,高并发支持以及高可用性的应用程序

例如:低延迟数据访问比如以广告为目标的应用,高并发的 web 应用比如网络游戏(例如 Zynga)



6. Neo4j

所用语言: Java
特点:基于关系的图形数据库
使用许可: GPL,其中一些特性使用 AGPL/商业许可
协议: HTTP/REST(或嵌入在 Java中)
可独立使用或嵌入到 Java应用程序
图形的节点和边都可以带有元数据
很好的自带web管理功能
使用多种算法支持路径搜索
使用键值和关系进行索引
为读操作进行优化
支持事务(用 Java api)
使用 Gremlin图形遍历语言
支持 Groovy脚本
支持在线备份,高级监控及高可靠性支持使用 AGPL/商业许可



最佳应用场景:适用于图形一类数据。这是 Neo4j与其他nosql数据库的最显著区别

例如:社会关系,公共交通网络,地图及网络拓谱



7. Cassandra

所用语言: Java
特点:对大型表格和 Dynamo支持得最好
使用许可: Apache
协议: Custom, binary (节约型)
可调节的分发及复制(N, R, W)
支持以某个范围的键值通过列查询
类似大表格的功能:列,某个特性的列集合
写操作比读操作更快
基于 Apache分布式平台尽可能地 Map/reduce
我承认对 Cassandra有偏见,一部分是因为它本身的臃肿和复杂性,也因为 Java的问题(配置,出现异常,等等)



最佳应用场景:当使用写操作多过读操作(记录日志)如果每个系统组建都必须用 Java编写(没有人因为选用 Apache的软件被解雇)

例如:银行业,金融业(虽然对于金融交易不是必须的,但这些产业对数据库的要求会比它们更大)写比读更快,所以一个自然的特性就是实时数据分析



8. HBase

(配合 ghshephard使用)

所用语言: Java
特点:支持数十亿行X上百万列
使用许可: Apache
协议:HTTP/REST (支持 Thrift,见编注4)
在 BigTable之后建模
采用分布式架构 Map/reduce
对实时查询进行优化
高性能 Thrift网关
通过在server端扫描及过滤实现对查询操作预判
支持 XML, Protobuf, 和binary的HTTP
Cascading, hive, and pig source and sink modules
基于 Jruby( JIRB)的shell
对配置改变和较小的升级都会重新回滚
不会出现单点故障
堪比MySQL的随机访问性能



最佳应用场景:适用于偏好BigTable:)并且需要对大数据进行随机、实时访问的场合。

例如: Facebook消息数据库(更多通用的用例即将出现)

编注4:Thrift 是一种接口定义语言,为多种其他语言提供定义和创建服务,由Facebook开发并开源

当然,所有的系统都不只具有上面列出的这些特性。这里我仅仅根据自己的观点列出一些我认为的重要特性。与此同时,技术进步是飞速的,所以上述的内容肯定需要不断更新。我会尽我所能地更新这个列表。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: