您的位置:首页 > 大数据 > 人工智能

RIAD的实现,以及mdadm命令的基本用法

2017-03-26 17:15 239 查看
注 :这个博文是软RAID的实现过程,在实际生产中主要是硬来实现磁盘冗余。本博文仅供学习,和硬RAID不能实现中使用。
(1)常用RAID级别的介绍(只介绍级别,原理及raid历史自行学习)
1,RAID0:条带化,没有冗余功能,磁盘的磁盘的读写速率为n倍 利用率为100%。实现条件最少2块盘

2, RAID1:镜像技术,有冗余功能,磁盘的写速率变慢,读的速率变快,利用率为1/2。实现条件最少2块盘
3, RAID4:校验码技术,有冗余功能,磁盘的利用率为n-1倍 ,利用率为n-1/n。实现条件最少3块盘.
有个巨大的缺点,校验盘成为速度评定标准

4,RAID5和RAID4不同一处 :RAID5校验码不放在固定一个盘。实现条件最少3块盘.
5,RAID10 先做镜像,再做条带。有钱的企业,会选择这种方式。利用率为1/2。实现条件最少4块盘.
6,RAID5先做RAID5.再做RAID0
介绍一个特殊的jbod:实现多个小盘合并成一个大空间磁盘,多用于hadoop.
准备过程,vmware虚拟机,redhat6 ,两块磁盘(准备好3块磁盘,为2G,2G ,2G)在虚拟机中添加好,开机。如果开机添加的,需要重启。#:reboot

(2)RAID的实现过程
1,RAID0实现过程

1):用命令fdisk -l 可以查看到我们添加的/dev/sdb ,/dev/sdc ,/dev/sdd 三块磁盘
[root@localhost ~]# fdisk -l

Disk /dev/sda: 21.5 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0002980c

Device Boot Start End Blocks Id System
/dev/sda1 * 1 64 512000 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 64 2611 20458496 8e Linux LVM

Disk /dev/sdb: 2147 MB, 2147483648 bytes
Disk /dev/sdc: 2147 MB, 2147483648 bytes
Disk /dev/sdd: 8589 MB, 8589934592 bytes
2)用fdisk /dev/sdb 对sdb进行分区
[root@localhost ~]# fdisk /dev/sdb------>对/dev/sdb分区命令
Device contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabel
Building a new DOS disklabel with disk identifier 0x21b0103d.
Changes will remain in memory only, until you decide to write them.
After that, of course, the previous content won't be recoverable.

Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite)

WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
switch off the mode (command 'c') and change display units to
sectors (command 'u').

Command (m for help): n ----->命令n新建一个分区
Command action
e extended ----->选项e为扩展分区

p primary partition (1-4) ----->选项p为主分区
p ----->这里我选择主分区(实际操作中根据实际情况而定)
Partition number (1-4): 1 ----->分区编号选择范围1-4
First cylinder (1-261, default 1): ----->起始柱面 默认为1
Using default value 1
Last cylinder, +cylinders or +size{K,M,G} (1-261, default 261): ----->结束柱面 可以用+#G定义分区大小
Using default value 261

Command (m for help): t------>命令t改变分区类型
Selected partition 1----->我们这里只有一个分区,只能选择1,如果你们有很多分区可用根据需要选择
Hex code (type L to list codes): fd----->RAID支持的fd类型(注意下面一条信息)
Changed system type of partition 1 to fd (Linux raid autodetect)

Command (m for help): w--------->命令w 保存退出

The partition table has been altered!

Calling ioctl() to re-read partition table.
这样,我们就把/dev/sdb磁盘分好区了,以同样的方法,我们对/dev/sdc和/dev/sdd分区,我这里就不演示了
#现在我们再来fdisk -l 看一下

Device Boot Start End Blocks Id System
/dev/sdb1 1 261 2096451 fd Linux raid autodetect
Device Boot Start End Blocks Id System
/dev/sdc1 1 261 2096451 fd Linux raid autodetect
可以看到这两个分区类型没有问题。
2)命令partprobe /dev/sdb 和partprobe /dev/sdc重新读取分区表(或者命令partx /dev/sdb 和 part /dev/sdc)
3)查看系统有没有读取分区表 cat /proc/partitions
[root@localhost ~]# cat /proc/partitions
major minor #blocks name

8 0 20971520 sda
8 1 512000 sda1
8 2 20458496 sda2
8 16 2097152 sdb
8 17 2096451 sdb1
8 32 2097152 sdc
8 33 2096451 sdc1
8 48 8388608 sdd
253 0 18358272 dm-0
253 1 2097152 dm-1
确定,都读取了
4)创建RAID0

mdadm raid 管理器 mdadm 可以将任何两个块设备做成raid
-C 创建模式

专用选项
-l : 级别
-n#: 设备个数
-a{yes|no} : 是否 自动为其创建设备文件
-c --chunk 条带大小redhat5默认为64k redhat7默认512k
-x #指定空白盘 (-n#+ -x#)要等于后面的设备数
mdadm -C /dev/md0 -l 0 -a yes -n 2 /dev/sdb1 /dev/sdc1 注:/dev/md0 为RAID设备名。
-l 0 为条带。
-a yes ;自动为其创建设备文件
-n 2 : 为两个设备组成RAID
[root@localhost ~]# mdadm -C /dev/md0 -l 0 -a yes -n 2 /dev/sdb1 /dev/sdc1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started。
现在我们已经成功创建RAID0了
现在我们就可以格式化RAID0 :mke2fs j /dev/md0
格式化完成后,就可以挂载使用:mount /dev/md0 /mnt
---------------------------------------------------------------------------------------------------------
现在我们删了RAID0创建RAID1:
1先卸载/dev/md0 :umount /dev/md0
2停用md0 : mdadm -S /dev/md0
3删除/dev/md0 :rm -f /dev/md0
4--创建RAID1
mdadm -C /dev/md1 -a yes -l 1 -n 2 /dev/sdb1 /dev/sdc1
unused devices: <none>
[root@localhost ~]# mdadm -C /dev/md1 -a yes -l 1 -n 2 /dev/sdb1 /dev/sdc1
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid0 devices=2 ctime=Sun Mar 26 23:31:54 2017
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid0 devices=2 ctime=Sun Mar 26 23:31:54 2017
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.

5)查看RAID1

[root@localhost ~]# cat /proc/mdstat
Personalities : [raid0] [raid1]
md1 : active raid1 sdc1[1] sdb1[0]
2095360 blocks super 1.2 [2/2] [UU]
6)RIAD管理模式
mdadm

-a /--add 添加磁盘
-r /--remove 删除磁盘
-f /--fail 模拟一块磁盘损坏 如:mdadm -f /dev/md# /dev/sd#

例如 ## 模拟一块磁盘损坏:如,我们让RAID1中/dev/sdb1损坏
(mdadm -f /dev/md1 /dev/sdb1)
[root@localhost ~]# mdadm -f /dev/md1 /dev/sdb1
mdadm: set /dev/sdb1 faulty in /dev/md1
##RAID的查看mdadm -D /dev/md1
[root@localhost ~]# mdadm -D /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Mon Mar 27 00:12:42 2017
Raid Level : raid1
Array Size : 2095360 (2046.59 MiB 2145.65 MB)
Used Dev Size : 2095360 (2046.59 MiB 2145.65 MB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Update Time : Mon Mar 27 00:33:48 2017
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0

Name : localhost:1 (local to host localhost)
UUID : 5e187c59:ab9f8970:a941e8f4:3f5f0feb
Events : 19

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 33 1 active sync /dev/sdc1

0 8 17 - faulty /dev/sdb1
##现在 0 8 17 - faulty /dev/sdb1可以看出/dev/sdb1损坏了,我们移除,换块新的
##移除/dev/sdb1
(mdadm -r /dev/md1 /dev/sdb1)
[root@localhost ~]# mdadm -r /dev/md1 /dev/sdb1
mdadm: hot removed /dev/sdb1 from /dev/md1
##添加新磁盘/dev/sdd1
(mdadm -a /dev /md1 /dev/sdd1)
[root@localhost ~]# mdadm -a /dev/md1 /dev/sdd1
mdadm: added /dev/sdd1
##在添加空闲磁盘把/dev/sdb1添加上
[root@localhost ~]# mdadm -a /dev/md1 /dev/sdb1
mdadm: added /dev/sdb1

##查看一下md1详细情况

[root@localhost ~]#mdadm -d /dev/md1

Number Major Minor RaidDevice State
2 8 49 0 active sync /dev/sdd1
1 8 33 1 active sync /dev/sdc1

3 8 17 - spare /dev/sdb1
##这种属于后面添加空闲磁盘。创建md的时候,可以一起创建空闲磁盘如

mdadm -C /dev/md1 -a yes -l 1 -n 2 /dev/sdc1 /dev/sdd1 -x 1 /dev/sdb1
这样就可以把/dev/sdb1添加为空闲磁盘
-----------------------------------------------------------
7)RAID的停用和重新装配
1,RAID的停用
mdadm -S /dev/md#
[root@localhost ~]# mdadm -S /dev/md1
mdadm: stopped /dev/md1
2,RAID重新装配 (本来有几块就要装配几块)

mdadm -A /dev/md1 /dev/sdb1 /dev/sdd1 /dev/sdc1
[root@localhost ~]# mdadm -A /dev/md1 /dev/sdb1 /dev/sdd1 /dev/sdc1
mdadm: /dev/md1 has been started with 2 drives and 1 spare.
8)RAID 的扫描系统上raid
mdadm -D -scan

[root@localhost ~]# mdadm -D -scan
ARRAY /dev/md1 metadata=1.2 spares=1 name=localhost:1 UUID=5e187c59:ab9f8970:a941e8f4:3f5f0feb
###mdadm -D -scan > /etc/mdadm.conf
把扫描的保存到mdadm配置文件中,重新装置就不要添加那些磁盘设备

##如:mdadm -S /dev/md1 停止md1
重新装配:mdadm -A /dev/md1
9)格式化,挂载使用
格式化:mke2fs /dev/md1
挂载:mount /dev/md1 /mnt
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  命令 RAID mdadm