HDFS存储容量扩充
2016-04-29 11:12
766 查看
本文涉及到Linux磁盘挂载,首先先扩充Linux 系统磁盘容量:
我采用的是viutualbox虚拟机上安装的centos系统。
1. 添加新硬盘
设置 -> Storage -> SATA控制器->右击,选择“添加虚拟硬盘”
然后,根据需求创建合适的硬盘
2. 重启虚拟机
查看现有的磁盘空间
sudo fdisk -l
可看到新加的虚拟硬盘,一般名为:Disk /dev/sdb
3. 给新加的硬盘
fdisk /dev/sdb
键入m,可看到帮助信息
command (m for help):m
增加新分区
command (m for help):n
选择基本分区,输入:p
建一个分区
Partition number(1-4):1
回车
First cylinder (1-15908,default 1):Enter
写入并退出
command (m for help):w
4. 格式化磁盘分区
用ext4格式对/dev/sdb1进入格式化
sudo mkfs.ext4 /dev/sdb1
5. 挂载分区
创建新的挂载点
sudo mkdir /work
将新磁盘分区挂载到/work目录下
sudo mount -t ext4 /dev/sdb1 /work
查看挂载
df -h
可以看到新加的硬盘:/dev/sdb1
6. 开机自动挂载
修改文件
sudo vim /etc/fstab
在最后一行加入:
/dev/sdb1 /work ext4 errors=remount-ro 0 1
至此系统挂载硬盘完成,下面进行HDFS的容量扩充:
首先我们先查看一下HDFS集群节点扩充前的容量,使用命令hadoop dfsadmin -report,如下:
我们需要查看hadoop的hdfs-site.xml配置文件,其中的dfs.data.dir属性所设定的目录,如/opt/modules/dfs/data
同上,将磁盘挂载到该目录下:sudo mount -t ext4 /dev/sdb1 /opt/modules/dfs/data
修改文件
sudo vim /etc/fstab
在最后一行加入:
/dev/sdb1 /opt/modules/dfs/data ext4 errors=remount-ro 0 1 (实现开机自动挂载)
再查看DFS信息,如下:
说明该节点容量已经扩充成功了!
我采用的是viutualbox虚拟机上安装的centos系统。
1. 添加新硬盘
设置 -> Storage -> SATA控制器->右击,选择“添加虚拟硬盘”
然后,根据需求创建合适的硬盘
2. 重启虚拟机
查看现有的磁盘空间
sudo fdisk -l
可看到新加的虚拟硬盘,一般名为:Disk /dev/sdb
3. 给新加的硬盘
fdisk /dev/sdb
键入m,可看到帮助信息
command (m for help):m
增加新分区
command (m for help):n
选择基本分区,输入:p
建一个分区
Partition number(1-4):1
回车
First cylinder (1-15908,default 1):Enter
写入并退出
command (m for help):w
4. 格式化磁盘分区
用ext4格式对/dev/sdb1进入格式化
sudo mkfs.ext4 /dev/sdb1
5. 挂载分区
创建新的挂载点
sudo mkdir /work
将新磁盘分区挂载到/work目录下
sudo mount -t ext4 /dev/sdb1 /work
查看挂载
df -h
可以看到新加的硬盘:/dev/sdb1
6. 开机自动挂载
修改文件
sudo vim /etc/fstab
在最后一行加入:
/dev/sdb1 /work ext4 errors=remount-ro 0 1
至此系统挂载硬盘完成,下面进行HDFS的容量扩充:
首先我们先查看一下HDFS集群节点扩充前的容量,使用命令hadoop dfsadmin -report,如下:
Name: (slave2) Hostname: slave2 Decommission Status : Normal Configured Capacity: 6958276608 (6.48 GB) DFS Used: 5230592 (4.99 MB) Non DFS Used: 5752651776 (5.36 GB) DFS Remaining: 1200394240 (1.12 GB) DFS Used%: 0.08% DFS Remaining%: 17.25% Last contact: Thu Apr 28 23:08:01 EDT 2016可以看到DFS可用还有1.12GB。
我们需要查看hadoop的hdfs-site.xml配置文件,其中的dfs.data.dir属性所设定的目录,如/opt/modules/dfs/data
同上,将磁盘挂载到该目录下:sudo mount -t ext4 /dev/sdb1 /opt/modules/dfs/data
修改文件
sudo vim /etc/fstab
在最后一行加入:
/dev/sdb1 /opt/modules/dfs/data ext4 errors=remount-ro 0 1 (实现开机自动挂载)
再查看DFS信息,如下:
Name: (slave2) Hostname: slave2 Decommission Status : Normal Configured Capacity: 33683628032 (31.37 GB) DFS Used: 5230592 (4.99 MB) Non DFS Used: 1762873344 (1.64 GB) DFS Remaining: 31915524096 (29.72 GB) DFS Used%: 0.02% DFS Remaining%: 94.75% Last contact: Thu Apr 28 23:24:22 EDT 2016
说明该节点容量已经扩充成功了!
相关文章推荐
- HDFS多用户管理ACL机制other权限访问控制的理解
- HDFS源码分析之FSImage文件内容(一)总体格式
- 设计和实现一个简单的hdfs的备份恢复与容灾系统(1)
- hadoop入门--虚拟机伪分布式搭建
- HDFS基本的读写文件
- hadoop命令 job相关
- Storm整合HDFS
- 第85课:基于HDFS的SparkStreaming案例实战和内幕源码解密
- HDFS源码分析数据块校验之DataBlockScanner
- RPC和HDFS文件读写(下载上传)过程
- HDFS 副本放置策略的研究和优化
- Spark组件之Spark Streaming学习4--HdfsWordCount 学习
- 使用Spark分析日志,使用关联算法分析结果,保存到hdfs
- 第85讲:基于HDFS的SparkStreaming案例实战和内幕源码解密
- Hadoop 系列 - (1) - 学习随笔 - 起源、构成
- HDFS的读写限流方案
- HDFS命令
- Ubuntu16.04创建HDFS-NFS文件共享
- hive启动出现权限错误 /tmp/hive on HDFS should be writable.
- 第85课:基于HDFS的SparkStreaming案例实战和内幕源码解密