hadoop——hdfs多硬盘挂载
2012-05-17 15:07
246 查看
首先说一下服务器环境:
1,ubuntu server 10.04.2;
2.hadoop-0.20.2;
3,4块2TB硬盘;
一、先将硬盘格式化。如何格式化看:/article/5192820.html
二、刚开始尝试将4块硬盘挂载到同一个点(/var/hdfs_folder),发现hadoop不能识别。
因此为每个硬盘建一个文件夹如(/home/hadoop/data0),并在其下新建一个hdfs目录。(如果dfs.data.dir是data0,则会遇到如下问题:
lostfound是root权限,hadoop报错。因此在data0下建立一个hdfs目录,将dfs.data.dir挂载到hdfs下问题解决)下图是挂载:
三、设置hdfs-site.xml:
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/data0/hdfs,/home/hadoop/data1/hdfs,/home/hadoop/data2/hdfs,/home/hadoop/data3/hdfs,/home/hadoop/data4/hdfs</value>
</property>
至此,多硬盘挂载到hadoop完成!!
1,ubuntu server 10.04.2;
2.hadoop-0.20.2;
3,4块2TB硬盘;
一、先将硬盘格式化。如何格式化看:/article/5192820.html
二、刚开始尝试将4块硬盘挂载到同一个点(/var/hdfs_folder),发现hadoop不能识别。
因此为每个硬盘建一个文件夹如(/home/hadoop/data0),并在其下新建一个hdfs目录。(如果dfs.data.dir是data0,则会遇到如下问题:
lostfound是root权限,hadoop报错。因此在data0下建立一个hdfs目录,将dfs.data.dir挂载到hdfs下问题解决)下图是挂载:
三、设置hdfs-site.xml:
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/data0/hdfs,/home/hadoop/data1/hdfs,/home/hadoop/data2/hdfs,/home/hadoop/data3/hdfs,/home/hadoop/data4/hdfs</value>
</property>
至此,多硬盘挂载到hadoop完成!!
相关文章推荐
- 利用cloudera hadoop 中的libhdfs和fuse-dfs将hdfs中的文件挂载到本地硬盘
- 用FUSE挂载hadoop的hdfs文件系统
- Hadoop学习笔记(二)--添加data节点和实现远程挂载HDFS
- Hadoop Hdfs 配置 挂载hdfs文件系统
- fuse挂载hadoop2.0.0文件系统hdfs到本地
- hadoop新特性通过NFSv3挂载HDFS到本地目录
- hadoop fuse挂载问题 (fuse-dfs didn't recognize /tmp/hdfs, -2)
- hadoop新特性通过NFSv3挂载HDFS到本地目录
- Hadoop在CentOS下挂载多块数据硬盘
- hadoop通过NFS3挂载hdfs
- hadoop-hdfs-fuse本地挂载hdfs-nginx发布
- fuse挂载hadoop2.0.0文件系统hdfs到本地(关于libhdfs和fuse-dfs的编译)
- HDFS挂载到本地硬盘
- 【Hadoop】如何将虚拟机上的hdfs挂载为主机操作系统的一个分区
- hadoop工作日志-安装,挂载HDFS
- hadoop多硬盘挂载
- Hadoop Hdfs 配置 挂载hdfs文件系统(二)
- HDFS多硬盘挂载
- 【hadoop】python通过hdfs模块读hdfs数据
- java 从hadoop hdfs读取文件 进行groupby并显示为条形图