hadoop学习笔记(1)
2016-04-15 17:26
239 查看
1.HDFS架构:
![](http://img.blog.csdn.net/20160415173127668?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
NameNode保存元数据信息,包括文件的owner,permission,block存储信息等。存储在内存。
2.HDFS设计思想
![](http://img.blog.csdn.net/20160415173151965?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
文件以块的形式存贮,即block,大小为64M,大于64的文件分块,小于64则为1块。文件在上传的时候会产生副本,副本与原文件在不同的节点上,这样当一个节点挂掉后不至于丢失文件。节点挂掉后会在空闲节点生成损失的文件,保证副本不会少。(容错性)
写文件前需要先创建文件,NameNode先获得文件信息,再告诉DistributedFileSystem上传的文件需要分为多少个block。写文件时NameNode告诉FSDataOutputStream写在哪。DataNode通过心跳包告诉NameNode自己是否空闲。
客户端写入数据到DataNode,客户端不产生副本,副本由DataNode根据副本分配策略,将文件复制到其他DataNode。
![](http://img.blog.csdn.net/20160415175110298?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
MapReducehe
每一个分片(split)都有一个线程去执行,并发地。
MR执行分为split(分片),map,shuffling,reduce四个步骤。最后生成的part保存在HDFS中。整个过程把HDFS的原始数据经过处理再存放。
MR执行过程如图:
![](http://img.blog.csdn.net/20160415174102107?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
杂乱的数据线split分片,通过mapping(程序员实现)计算输出和合并排序(shuffling)再依次传给reduce线程计算。
![](http://img.blog.csdn.net/20160415174123900?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
map的结果储存在内存,然后将内存中的数据partition(分区,按照程序partition中写的规则或者默认的分区规则),并排序,易写到磁盘。这部分操作都是属于一个Map Task,即在一个节点上的。reduce如何解决数据倾斜问题?通过partition的分配策略
![](http://img.blog.csdn.net/20160415174702673?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
Hadoop1与Hadoop2区别:
![](http://img.blog.csdn.net/20160415174836281?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
![](http://img.blog.csdn.net/20160415174943708?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
HA:主/备模式的NameNode,避免了Hadoop1中NameNode单点故障问题。
Federation:相当于NameNode的集群,针对数据量巨大的公司。
![](http://img.blog.csdn.net/20160415174518280?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
yarn:Hadoop的统一一资源管理系统,Hadoop2.X新增,个人理解是为了解耦,增加的一层
ZK即Zookeeper:管理NameNode,通过信条连接监控NameNode的情况,active的NameNode挂掉后投票选举产生新的active NameNode。Zookeeper为基数个。
NameNode保存元数据信息,包括文件的owner,permission,block存储信息等。存储在内存。
2.HDFS设计思想
文件以块的形式存贮,即block,大小为64M,大于64的文件分块,小于64则为1块。文件在上传的时候会产生副本,副本与原文件在不同的节点上,这样当一个节点挂掉后不至于丢失文件。节点挂掉后会在空闲节点生成损失的文件,保证副本不会少。(容错性)
写文件前需要先创建文件,NameNode先获得文件信息,再告诉DistributedFileSystem上传的文件需要分为多少个block。写文件时NameNode告诉FSDataOutputStream写在哪。DataNode通过心跳包告诉NameNode自己是否空闲。
客户端写入数据到DataNode,客户端不产生副本,副本由DataNode根据副本分配策略,将文件复制到其他DataNode。
MapReducehe
每一个分片(split)都有一个线程去执行,并发地。
MR执行分为split(分片),map,shuffling,reduce四个步骤。最后生成的part保存在HDFS中。整个过程把HDFS的原始数据经过处理再存放。
MR执行过程如图:
杂乱的数据线split分片,通过mapping(程序员实现)计算输出和合并排序(shuffling)再依次传给reduce线程计算。
map的结果储存在内存,然后将内存中的数据partition(分区,按照程序partition中写的规则或者默认的分区规则),并排序,易写到磁盘。这部分操作都是属于一个Map Task,即在一个节点上的。reduce如何解决数据倾斜问题?通过partition的分配策略
Hadoop1与Hadoop2区别:
HA:主/备模式的NameNode,避免了Hadoop1中NameNode单点故障问题。
Federation:相当于NameNode的集群,针对数据量巨大的公司。
yarn:Hadoop的统一一资源管理系统,Hadoop2.X新增,个人理解是为了解耦,增加的一层
ZK即Zookeeper:管理NameNode,通过信条连接监控NameNode的情况,active的NameNode挂掉后投票选举产生新的active NameNode。Zookeeper为基数个。
相关文章推荐
- Linux下如何查看CPU、内存占用率
- centos7 install 安装mysql
- Linux下Mysql的配置
- JFinal上传文件报Posted content type isn't multipart/form-data错误解决办法。
- CentOS中mysql的安装与配置
- linux上jdk管理
- nginx配置文件【转载】
- ASM磁盘组状态和使用率的监控
- 实现一个栈,要求实现Push(入栈)、Pop(出栈)、Min(返回最小值的操作)的时间复杂度为O(1)
- 如何在Docker容器内外互相拷贝数据
- openresty 阻塞函数
- 嵌入式 如何手动释放Linux内存的方法
- Docker 有关的批量shell命令
- linux 个性化
- 消息队列系列(二):.Rabbitmq的使用及Web监控工具使用
- centOS安装与配置minicom(串口转USB)
- Linux上安装nodejs
- bat脚本调用Android中bash脚本,关闭bat后如何保持bash继续运行
- Linux下 RabbitMQ的安装与配置
- Linux下删除非空文件夹代码