前言:
现在看官们对“centos6删除raid分区”大约比较关怀,我们都需要学习一些“centos6删除raid分区”的相关文章。那么小编同时在网上搜集了一些对于“centos6删除raid分区””的相关内容,希望各位老铁们能喜欢,你们一起来了解一下吧!前言RAID是英文Redundant Array of Independent Disks的缩写,中文简称为独立冗余磁盘阵列。简单的说,RAID是一种把多块独立的硬盘(物理硬盘)按不一样的方式组合起来造成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据备份技术。css组成磁盘阵列的不一样方式称为RAID级别(RAID Levels)。在用户看起来,组成的磁盘组就像是一个硬盘,用户能够对它进行分区,格式化等等。总之,对磁盘阵列的操做与单个硬盘如出一辙。不一样的是,磁盘阵列的存储速度要比单个硬盘高不少,并且能够提供自动数据备份。数据备份的功能是在用户数据一旦发生损坏后,利用备份信息可使损坏数据得以恢复,从而保障了用户数据的安全性。web一:RAID磁盘阵列详解RAID分为不一样的等级,不一样等级的RAID均在数据可靠性及读写性能上作了不一样的权衡。算法经常使用的RAID级别有如下几种:缓存RAID 0安全RAID 1服务器RAID 5domRAID 6异步RAID 1+0svg1.1:RAID 0磁盘阵列介绍RAID 0称为条带化存储(Striping)(至关于Windows中是带区卷)RAID 0以连续位或字节为单位进行数据分割,将数据分段存储于各个硬盘中并进行读/写数据,所以有很高的数据传输率,但它没有数据冗余,所以不能算真正的RAID结构RAID 0有很高的数据传输率,可达到单个硬盘的N倍(N为组成RAID 0硬盘的个数)RAID 0指示单纯的提升性能,并无为数据的可靠性提供保证,并且其中的一个磁盘失效将影响到全部数据RAID 0不能应用于数据安全性要求高的场合1.2:RAID 1磁盘阵列介绍RAID 1称为镜像存储(mirroring)(至关于Windows中的镜像卷)经过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据当原始数据繁忙时,可直接从镜像拷贝中读取数据,所以RAID 1 能够提升读取性能由于数据被同等的写入成对的磁盘中,因此写性能比较慢,主要受限于最慢的那块磁盘RAID 1时磁盘阵列中单位成本最高的,可是提供了很高的数据安全性和可用性。当一个磁盘失效时,系统能够自动切换到镜像磁盘上读写,而不须要重组失效的数据RAID 1是磁盘利用率最低的一个,若是N(偶数)块硬盘组合成一组镜像,只能利用其中N/2的容量1.3:RAID 5磁盘阵列介绍RAID 5是一种存储性能,数据安全与存储成本兼顾的存储解决方案,能够理解为是RAID 0和 RAID 1 的这种方案N(N>=3)块盘组成阵列,一份数据产生N-1个条带,同时还有一份校验数据,共N份数据在N块盘上循环均衡存储N块盘同时读写,读性能很高,但因为有校验机制的问题,写性能相对不高磁盘利用率为(N-1)/N容量,至关于一块磁盘的容量空间用于存储奇偶校验信息可靠性高,容许坏1块盘,不影响全部数据1.4:RAID 6磁盘阵列介绍RAID 6采用双重校验技术,在RAID 5的技术上增长了第二个独立的奇偶校验信息块,两个独立的奇偶系统使用不一样的算法,即便两块磁盘同时失效也不会影响数据的使用,进一步增强了对数据的保护。N(N>=4)块盘组成阵列,(N-2)/N容量 (至关于2块磁盘的容量空间用于存储奇偶校验信息)RAID 6须要分配给奇偶校验信息更大的磁盘空间,相对于RAID 5有更大的“写损失”,所以写性能较差1.5:RAID容错对比表RAID 1 , RAID 5, RAID 6都具备容错性,咱们作个对比
RAID 1
RAID 5
RAID 6
是否有校验
无
有
有
保护能力
容许一个设备故障
容许一个设备故障
容许两个设备故障
写性能
需写两个存储设备
需写计算校验
需双重写计算校验
磁盘利用率
50%
N-1/N(N>=3)
N-2/N(N>=4)
相对于其余几种RAID来讲,当N>2时,RAID 6的磁盘利用率获得了提升。又由于容许同时两块存储设备故障,显然提供了更好的可用性1.6:RAID 1+0磁盘阵列介绍RAID 1+0是RAID 1和RAID 0的结合,先作镜像,再作条带兼顾了RAID 1的容错能力与RAID 0的条带化读写数据的优势,性能好,可靠性高。属于混合型RAIDN(偶数,N>=4)块盘两两镜像后,在组合成一个RAID 0,最多容许全部磁盘基组中的磁盘各损坏一个,可是不容许同一基组中的磁盘同时有坏的。磁盘的利用率为N/2,N/2块盘同时写入数据,N快盘同时读取数据相似的混合RAID还有RAID 0+1,两者在读写性能上差异不大,可是在安全性上 RAID 1+0 要好于 RAID 0+1二:阵列卡介绍2.1:阵列卡介绍阵列卡全称为磁盘阵列卡,是用来实现RAID 功能的板卡RAID卡通常分为硬RAID卡和软RAID卡两种经过硬件来实现RAID功能的就是硬RAID,一般是哟I/O处理器,硬盘控制器,硬盘链接器和缓存等一些列组件构成经过软件并使用CPU的RAID卡咱们成为软RAID,由于软RAID占用CUP资源比较高,因此绝大部分的服务器设备都使用的硬RAID不一样的RAID卡支持的RAID功能不一样,例如支持RAID 0,RAID 1,RAID 5,RAID1+0等RAID卡的第一个重要功能就是他能够达到单个磁盘驱动器的几倍,几十倍甚至上百倍的速率,这也是RAID最初想要解决的问题RAID卡的第二个重要功能就是提供容错能力,如今服务器基本上集成了RAID卡2.2:RAID卡的接口类型RAID卡的接口指的是支持的接口,目前有IDE 接口,SCSI接口,SATA接口和SAS接口2.2.1:IDE接口IDE的英文全称为“Integrated Drive Electronics”,即“电子集成驱动器”,属于并行接口。它是把“硬盘控制器”与“盘体”集成在一块儿的硬盘驱动器,这样使得硬盘接口的电缆数目与长度有所减小,从而数据传输的可靠性获得加强IDE接口价格低廉,兼容性强在实际的应用中,这种类型的接口随着接口技术的不断发展已经不多用了,逐渐被后续发展分支出更多类型的硬盘接口所取代。2.2.2:SCSI接口SCSI 的英文全称为“Small Computer System Interface”(小型计算机系统接口),是和IDE彻底不一样的接口,IDE接口是普通PC的标准接口,而SCSI是一种通用的接口标准,具有与不一样类型外部设备进行通讯的能力,是一种普遍应用于小型机上的高速数据传输技术SCSI是个多任务接口,设有母线仲裁功能,挂在一个SCSI母线上的多个外部设备能够同时工做,并平等占有总线SCSI接口能够同步或异步传输数据,同步传输数据能够达到10M/s,异步传输速率能够达到1.5M/sSCSI接口的CPU占用率低,支持热插热拔,但价格较高,所以SCSI硬盘主要用于中,高端工做站中2.2.3:SATA接口SATA是“Serial ATA”的缩写,主要用在主板和大量存储设备之间传输数据。拥有这种接口的硬盘又叫串口硬盘,以采用串行方式传输数据工具SATA总线使用了嵌入式时钟信号,使得其具有更强的纠错能力。若是发现数据传输中的错误会自动进行矫正,很大程度上提升了数据传输的可靠性,也是一种支持热拔热插的接口2.2.4:SAS接口SAS的英文全称为“Serial Attached SCSI”是新一代的SCSI技术,称为序列式SCSISAS能够看作是SATA与SCSI的结合体,是同时发挥二者的优点产生的,主要用在周边零件的数据传输上和SATA硬盘相同,都是采用串行技术以得到更高的传输速度SAS的接口技术能够向下兼容SATA设备2.3:阵列卡的缓存缓存(Cache)是RAID卡与外部总线交换数据的场所,是RAID卡电路板上的一块存储芯片,与硬盘盘片相比,具备极快的存取速度。RAID卡现将数据传送到缓存,再经由缓存和外边数据总线交换数据缓存的大小与速度是直接关系到RAID卡的实际传输速度的重要因素,大缓存可以大幅度的提升数据命中率从而提升RAID卡总体性能不一样的RAID卡出厂时配备的内存容量不一样,通常为几兆到数百兆容量不等,主要取决于磁盘阵列产品所应用的范围三:构建软RAID磁盘阵列实验
咱们须要用到mdadm工具建立RAID磁盘
由于咱们作的是RAID,因此文件系统格式须要改成fd
mdadm工具指令基本格式
[root@localhost ~]# mdadm -C -v 目录 -l级别 -n磁盘数量 设备
经常使用选项
l 指定级别
C 建立
v 指定目录
n 磁盘数量
查看RAID级别的两个方法
第一个方法
cat /proc/mdstat '//查看状态'
第二个方法
mdadm -D 目录 '//查看更详细信息'
3.1:RAID 0 实验
须要两块磁盘
磁盘分区格式须要改成fd(raid格式)
1.建立好两个磁盘分区
设备 Boot Start End Blocks Id System
/dev/sdb1 2048 41943039 20970496 fd Linux raid autodetect
设备 Boot Start End Blocks Id System
/dev/sdc1 2048 41943039 20970496 fd Linux raid autodetect
2.建立RAID0
[root@localhost ~]# mdadm -C -v /dev/md0 -l0 -n2 /dev/sd[b-c]1 '//在/dev/md0目录下建立RAID 0'
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# cat /proc/mdstat '//查看raid 第一种方法'
Personalities : [raid0]
md0 : active raid0 sdc1[1] sdb1[0]
41908224 blocks super 1.2 512k chunks
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md0 '//查看raid 第二种方法'
/dev/md0:
Version : 1.2
Creation Time : Mon Nov 4 23:13:21 2019
Raid Level : raid0
Array Size : 41908224 (39.97 GiB 42.91 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Mon Nov 4 23:13:21 2019
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Consistency Policy : none
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : e6803bdd:e42b94df:8a0475cd:a1ef6f04
Events : 0
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
3.格式化分区
[root@localhost ~]# mkfs.xfs /dev/md0
meta-data=/dev/md0 isize=512 agcount=16, agsize=654720 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=10475520, imaxpct=25
= sunit=128 swidth=256 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=5120, version=2
= sectsz=512 sunit=8 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
4.格式化后并挂载
[root@localhost ~]# mkdir /raid0 '//建立raid0挂载目录'
[root@localhost ~]# mount /dev/md0 /raid0/ '//将/dev/md0 挂载到/raid0'
[root@localhost ~]# df -hT '//查看挂载是否成功'
文件系统 类型 容量 已用 可用 已用% 挂载点
/dev/sda2 xfs 20G 3.1G 17G 16% /
devtmpfs devtmpfs 898M 0 898M 0% /dev
tmpfs tmpfs 912M 0 912M 0% /dev/shm
tmpfs tmpfs 912M 9.0M 903M 1% /run
tmpfs tmpfs 912M 0 912M 0% /sys/fs/cgroup
/dev/sda5 xfs 10G 37M 10G 1% /home
/dev/sda1 xfs 6.0G 174M 5.9G 3% /boot
tmpfs tmpfs 183M 12K 183M 1% /run/user/42
tmpfs tmpfs 183M 0 183M 0% /run/user/0
/dev/md0 xfs 40G 33M 40G 1% /raid0
3.2:RAID 1实验
-x:备用磁盘
1.建立raid1
[root@localhost ~]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[d-e]1 -x1 /dev/sdf1 '//建立将sdd1,sde1建立raid1,并将sdf1做为备用磁盘'
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
2.查看状态信息
[root@localhost ~]# cat /proc/mdstat '//查看状态信息'
Personalities : [raid0] [raid1]
md1 : active raid1 sdf1[2](S) sde1[1] sdd1[0]
20954112 blocks super 1.2 [2/2] [UU]
[===========>.........] resync = 59.1% (12402304/20954112) finish=0.6min speed=206292K/sec
md0 : active raid0 sdc1[1] sdb1[0]
41908224 blocks super 1.2 512k chunks
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md1 '//查看详细信息'
/dev/md1:
Version : 1.2
Creation Time : Mon Nov 4 23:41:52 2019
Raid Level : raid1
Array Size : 20954112 (19.98 GiB 21.46 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Mon Nov 4 23:43:18 2019
State : clean, resyncing
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
Consistency Policy : resync
Resync Status : 82% complete
Name : localhost.localdomain:1 (local to host localhost.localdomain)
UUID : cbd878ef:8ad679a4:2ee73455:99f429de
Events : 13
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
2 8 81 - spare /dev/sdf1
3.格式化并挂载
[root@localhost ~]# mkfs.xfs /dev/md1 '//格式化分区'
meta-data=/dev/md1 isize=512 agcount=4, agsize=1309632 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=5238528, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=2560, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@localhost ~]# mkdir /raid1 '//建立raid1挂载目录'
[root@localhost ~]# mount /dev/md1 /raid1 '//挂载'
[root@localhost ~]# df -hT
文件系统 类型 容量 已用 可用 已用% 挂载点
/dev/sda2 xfs 20G 3.1G 17G 16% /
devtmpfs devtmpfs 898M 0 898M 0% /dev
tmpfs tmpfs 912M 0 912M 0% /dev/shm
tmpfs tmpfs 912M 9.1M 903M 1% /run
tmpfs tmpfs 912M 0 912M 0% /sys/fs/cgroup
/dev/sda5 xfs 10G 37M 10G 1% /home
/dev/sda1 xfs 6.0G 174M 5.9G 3% /boot
tmpfs tmpfs 183M 12K 183M 1% /run/user/42
tmpfs tmpfs 183M 0 183M 0% /run/user/0
/dev/md0 xfs 40G 33M 40G 1% /raid0
/dev/md1 xfs 20G 33M 20G 1% /raid1
3.3:RAID 5实验
1.建立raid5
[root@localhost ~]# mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[g-j]1 -x1 /dev/sdk1 '//用sdg1,sdh1,sdj1建立raid5,将sdk1做为备用磁盘'
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 20954112K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
2.查看磁盘信息
[root@localhost ~]# cat /proc/mdstat '//查看状态信息'
Personalities : [raid0] [raid1] [raid6] [raid5] [raid4]
md5 : active raid5 sdj1[4] sdk1[3](S) sdh1[1] sdg1[0]
41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
md1 : active raid1 sdf1[2](S) sde1[1] sdd1[0]
20954112 blocks super 1.2 [2/2] [UU]
md0 : active raid0 sdc1[1] sdb1[0]
41908224 blocks super 1.2 512k chunks
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md5 '//查看详细信息'
/dev/md5:
Version : 1.2
Creation Time : Mon Nov 4 23:53:59 2019
Raid Level : raid5
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Mon Nov 4 23:55:43 2019
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : localhost.localdomain:5 (local to host localhost.localdomain)
UUID : e473255b:68d70fc5:3e26dce3:9a98f13e
Events : 18
Number Major Minor RaidDevice State
0 8 97 0 active sync /dev/sdg1
1 8 113 1 active sync /dev/sdh1
4 8 145 2 active sync /dev/sdj1
3 8 161 - spare /dev/sdk1
3.删除一块磁盘,看备用磁盘是否自动顶替掉坏掉的磁盘
[root@localhost ~]# mdadm -f /dev/md5 /dev/sdg1 '//删除sdg1'
mdadm: set /dev/sdg1 faulty in /dev/md5 '//提示sdg1已经损坏'
[root@localhost ~]# mdadm -D /dev/md5 '//查看详细信息'
/dev/md5:
Version : 1.2
Creation Time : Mon Nov 4 23:53:59 2019
Raid Level : raid5
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Tue Nov 5 00:00:54 2019
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Rebuild Status : 22% complete
Name : localhost.localdomain:5 (local to host localhost.localdomain)
UUID : e473255b:68d70fc5:3e26dce3:9a98f13e
Events : 23
Number Major Minor RaidDevice State
3 8 161 0 spare rebuilding /dev/sdk1 '//发现备用sdk1已经顶替上来'
1 8 113 1 active sync /dev/sdh1
4 8 145 2 active sync /dev/sdj1
0 8 97 - faulty /dev/sdg1
4.格式化并挂载
[root@localhost ~]# mkdir /raid5 '//建立挂载点目录'
[root@localhost ~]# mkfs.xfs /dev/md5 '//格式化'
meta-data=/dev/md5 isize=512 agcount=16, agsize=654720 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=10475520, imaxpct=25
= sunit=128 swidth=256 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=5120, version=2
= sectsz=512 sunit=8 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@localhost ~]# mount /dev/md5 /raid5 '//挂载'
3.4:RAID 6实验
同RAID 5实验
3.5:RAID 1+0 实验
RAID 1+0是用两个RAID1来建立的
1.连续建立两个raid1
[root@localhost ~]# mdadm -C -v /dev/md0 -l1 -n2 /dev/sd[b-c]1 '//建立第一个raid1'
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[d-e]1 '//建立第二个raid1'
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
2.查看详细信息
[root@localhost ~]# mdadm -D /dev/md0
[root@localhost ~]# mdadm -D /dev/md1
3.建立raid1+0
[root@localhost ~]# mdadm -C -v /dev/md10 -l0 -n2 /dev/md0 /dev/md1
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md10 started.
4.查看详细信息
[root@localhost ~]# mdadm -D /dev/md10
/dev/md10:
Version : 1.2
Creation Time : Tue Nov 5 00:19:07 2019
Raid Level : raid0
Array Size : 41875456 (39.94 GiB 42.88 GB) '//建立成功'
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Tue Nov 5 00:19:07 2019
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Consistency Policy : none
Name : localhost.localdomain:10 (local to host localhost.localdomain)
UUID : 6c3209a3:71bece7a:9b3129be:05a436e0
Events : 0
Number Major Minor RaidDevice State
0 9 0 0 active sync /dev/md0
1 9 1 1 active sync /dev/md1
标签: #centos6删除raid分区 #linux查看磁盘raid