当前位置:   article > 正文

【Linux】服务器硬件及RAID配置实战

【Linux】服务器硬件及RAID配置实战

目录

一、服务器

1.服务器

 2.查看服务器信息

二、RAID 磁盘阵列

三、软RAID的创建和使用

1.添加硬盘,fdisk分区,分区类型ID设置为 fd

2.使用mdadm创建软raid

3.格式化      

4.挂载使用    

5.mdadm


一、服务器

1.服务器

分类机架式居多   塔式   刀片式   机柜式   
架构 X86  ARM
品牌戴尔  AMD  英特尔  惠普   华为   华三H3C   联想   浪潮   长城
规格1C1G   2C4G   4C8G   32C128G   64C256G 等

 2.查看服务器信息

查看服务器CPU信息:cat /proc/cpuinfo            lscpu
                     model name        #CPU型号
                     physical id       #物理CPU的ID
                     cpu cores         #每个物理CPU中的核心数
                     processor         #逻辑CPU的ID

查看服务器内存的信息:cat /proc/meminfo          free [-m]


二、RAID 磁盘阵列

RAID级别  读写性能硬盘数量要求利用率 有无冗余能力
RAID0(条带化存储) 读写速度快NN 无
RAID1(镜像化存储)读快,写没有改变偶数N/2有,可允许一个硬盘故障
RAID5读快,写会因为要多写一份纠删码数据而会影响写的性能>=3 (N-1)/N有,可允许一个硬盘故障
RAID6读快,写会因为要多写两份纠删码数据而会更影响写的性能>=4 (N-2)/N有,可允许两个硬盘故障
RAID10同时具备RAID0和RAID1的性能,读写都快>=4,偶数N/2 有,可允许不同RAID1组中各坏一个硬盘

RAID 0(条带化存储)

●RAID 0连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率,但它没有数据冗余

●RAID 0只是单纯地提高性能,并没有为数据的可靠性提供保证,而且其中的一个磁盘失效将影响到所有数据

●RAID 0不能应用于数据安全性要求高的场合

RAID 1(镜像存储)
●通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据

●当原始数据繁忙时,可直接从镜像拷贝中读取数据,因此RAID 1可以提高读取性能

●RAID 1是磁盘阵列中单位成本最高的,但提供了很高的数据安全性和可用性。当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要重组失效的数据

RAID 5
●N(N>=3)块盘组成阵列,一份数据产生N-1个条带,同时还有1份校验数据,共N份数据在N块盘上循环均衡存储

●N块盘同时读写,读性能很高,但由于有校验机制的问题,写性能相对不高

●(N-1)/N磁盘利用率

●可靠性高,允许坏1块盘,不影响所有数据

 RAID 6
●N(N>=4)块盘组成阵列(N-2)/N磁盘利用率

●与RAID 5相比,RAID 6增加了第二个独立的奇偶校验信息块

●两个独立的奇偶系统使用不同的算法,即使两块磁盘同时失效也不会影响数据的使用

●相对于RAID 5有更大的“写损失”,因此写性能较差

RAID 1+0(先做镜象,再做条带)

●N(偶数,N>=4)块盘两两镜像后,再组合成一个RAID0

●N/2磁盘利用率

●N/2块盘同时写入,N块盘同时读取

●性能高,可靠性高

三、软RAID的创建和使用

1.添加硬盘,fdisk分区,分区类型ID设置为 fd

  1. [root@bogon ~]# yum install -y mdadm
  2. 已加载插件:fastestmirror, langpacks
  3. Loading mirror speeds from cached hostfile
  4. 软件包 mdadm-4.1-9.el7_9.x86_64 已安装并且是最新版本
  5. 无须任何处理
  6. [root@bogon ~]# fdisk /dev/sdb
  7. 欢迎使用 fdisk (util-linux 2.23.2)。
  8. 更改将停留在内存中,直到您决定将更改写入磁盘。
  9. 使用写入命令前请三思。
  10. Device does not contain a recognized partition table
  11. 使用磁盘标识符 0xe7a9083e 创建新的 DOS 磁盘标签。
  12. 命令(输入 m 获取帮助):n
  13. Partition type:
  14. p primary (0 primary, 0 extended, 4 free)
  15. e extended
  16. Select (default p):
  17. Using default response p
  18. 分区号 (1-4,默认 1):
  19. 起始 扇区 (2048-41943039,默认为 2048):
  20. 将使用默认值 2048
  21. Last 扇区, +扇区 or +size{K,M,G} (2048-41943039,默认为 41943039):
  22. 将使用默认值 41943039
  23. 分区 1 已设置为 Linux 类型,大小设为 20 GiB
  24. 命令(输入 m 获取帮助):t
  25. 已选择分区 1
  26. Hex 代码(输入 L 列出所有代码):fd
  27. 已将分区“Linux”的类型更改为“Linux raid autodetect”
  28. 命令(输入 m 获取帮助):w
  29. The partition table has been altered!
  30. Calling ioctl() to re-read partition table.
  31. 正在同步磁盘。
  32. [root@bogon ~]#
  33. [root@bogon ~]# fdisk -l #查看是否创建好分区
  34. 磁盘 /dev/sda:42.9 GB, 42949672960 字节,83886080 个扇区
  35. Units = 扇区 of 1 * 512 = 512 bytes
  36. 扇区大小(逻辑/物理):512 字节 / 512 字节
  37. I/O 大小(最小/最佳):512 字节 / 512 字节
  38. 磁盘标签类型:dos
  39. 磁盘标识符:0x0009f560
  40. 设备 Boot Start End Blocks Id System
  41. /dev/sda1 * 2048 2099199 1048576 83 Linux
  42. /dev/sda2 2099200 83886079 40893440 8e Linux LVM
  43. 磁盘 /dev/sdb:21.5 GB, 21474836480 字节,41943040 个扇区
  44. Units = 扇区 of 1 * 512 = 512 bytes
  45. 扇区大小(逻辑/物理):512 字节 / 512 字节
  46. I/O 大小(最小/最佳):512 字节 / 512 字节
  47. 磁盘标签类型:dos
  48. 磁盘标识符:0xe7a9083e
  49. 设备 Boot Start End Blocks Id System
  50. /dev/sdb1 2048 41943039 20970496 fd Linux raid autodetect
  51. 磁盘 /dev/sdc:21.5 GB, 21474836480 字节,41943040 个扇区
  52. Units = 扇区 of 1 * 512 = 512 bytes
  53. 扇区大小(逻辑/物理):512 字节 / 512 字节
  54. I/O 大小(最小/最佳):512 字节 / 512 字节
  55. 磁盘标签类型:dos
  56. 磁盘标识符:0xdff5b102
  57. 设备 Boot Start End Blocks Id System
  58. /dev/sdc1 2048 41943039 20970496 fd Linux raid autodetect
  59. 磁盘 /dev/sdd:21.5 GB, 21474836480 字节,41943040 个扇区
  60. Units = 扇区 of 1 * 512 = 512 bytes
  61. 扇区大小(逻辑/物理):512 字节 / 512 字节
  62. I/O 大小(最小/最佳):512 字节 / 512 字节
  63. 磁盘标签类型:dos
  64. 磁盘标识符:0x2205b8c4
  65. 设备 Boot Start End Blocks Id System
  66. /dev/sdd1 2048 41943039 20970496 fd Linux raid autodetect
  67. 磁盘 /dev/sde:21.5 GB, 21474836480 字节,41943040 个扇区
  68. Units = 扇区 of 1 * 512 = 512 bytes
  69. 扇区大小(逻辑/物理):512 字节 / 512 字节
  70. I/O 大小(最小/最佳):512 字节 / 512 字节
  71. 磁盘标签类型:dos
  72. 磁盘标识符:0x19fb02af
  73. 设备 Boot Start End Blocks Id System
  74. /dev/sde1 2048 41943039 20970496 fd Linux raid autodetect
  75. 磁盘 /dev/mapper/centos-root:37.7 GB, 37706792960 字节,73646080 个扇区
  76. Units = 扇区 of 1 * 512 = 512 bytes
  77. 扇区大小(逻辑/物理):512 字节 / 512 字节
  78. I/O 大小(最小/最佳):512 字节 / 512 字节
  79. 磁盘 /dev/mapper/centos-swap:4160 MB, 4160749568 字节,8126464 个扇区
  80. Units = 扇区 of 1 * 512 = 512 bytes
  81. 扇区大小(逻辑/物理):512 字节 / 512 字节
  82. I/O 大小(最小/最佳):512 字节 / 512 字节
  83. [root@bogon ~]#


2.使用mdadm创建软raid

创建raid5: mdadm -Cv /dev/mdX -l5 -n3 /dev/sdXX [-x1 /dev/sdXX]

创建过程中需要一段时间,可以使用watch -n 5 'cat /proc/mdstat'进行查看

  1. [root@bogon ~]# mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1 #-C新建raid,-v表示显示详细信息,指定md5的名称,-l5表示raid5,-n3表示使用3块硬盘,-x1表示使用1块硬盘做热备份,是sde1
  2. mdadm: layout defaults to left-symmetric
  3. mdadm: layout defaults to left-symmetric
  4. mdadm: chunk size defaults to 512K
  5. mdadm: size set to 20953088K
  6. mdadm: Defaulting to version 1.2 metadata
  7. mdadm: array /dev/md5 started.
  8. [root@bogon ~]# cat /proc/mdstat #查看
  9. Personalities : [raid6] [raid5] [raid4]
  10. md5 : active raid5 sdd1[4] sde1[3](S) sdc1[1] sdb1[0]
  11. 41906176 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
  12. unused devices: <none>
  13. [root@bogon ~]#

补充:创建raid10:(先做镜像,再做条带)   mdadm -Cv /dev/md0 -l1 -n2 /dev/sdXX
                                                                  mdadm -Cv /dev/md1 -l1 -n2 /dev/sdXX
                                                                  mdadm -Cv /dev/md10 -l0 -n2 /dev/md0 /dev/md1 


3.格式化      

mkfs -t xfs/ext4 /dev/mdX

  1. [root@bogon ~]# mkfs -t xfs /dev/md5
  2. meta-data=/dev/md5 isize=512 agcount=16, agsize=654720 blks
  3. = sectsz=512 attr=2, projid32bit=1
  4. = crc=1 finobt=0, sparse=0
  5. data = bsize=4096 blocks=10475520, imaxpct=25
  6. = sunit=128 swidth=256 blks
  7. naming =version 2 bsize=4096 ascii-ci=0 ftype=1
  8. log =internal log bsize=4096 blocks=5120, version=2
  9. = sectsz=512 sunit=8 blks, lazy-count=1
  10. realtime =none extsz=4096 blocks=0, rtextents=0
  11. [root@bogon ~]#
  12. [root@bogon ~]# mkdir /opt/xy101
  13. [root@bogon ~]# ls /opt
  14. rh xy101
  15. [root@bogon ~]#


4.挂载使用    

mount    /etc/fstab   

  1. [root@bogon ~]# mount /dev/md5 /opt/xy101
  2. [root@bogon ~]# df -Th
  3. 文件系统 类型 容量 已用 可用 已用% 挂载点
  4. devtmpfs devtmpfs 1.9G 0 1.9G 0% /dev
  5. tmpfs tmpfs 1.9G 0 1.9G 0% /dev/shm
  6. tmpfs tmpfs 1.9G 13M 1.9G 1% /run
  7. tmpfs tmpfs 1.9G 0 1.9G 0% /sys/fs/cgroup
  8. /dev/mapper/centos-root xfs 36G 4.7G 31G 14% /
  9. /dev/sda1 xfs 1014M 187M 828M 19% /boot
  10. tmpfs tmpfs 378M 12K 378M 1% /run/user/42
  11. tmpfs tmpfs 378M 0 378M 0% /run/user/0
  12. /dev/md5 xfs 40G 33M 40G 1% /opt/xy101
  13. [root@bogon ~]#

5.mdadm

查看软raid的状态信息      cat /proc/mdstat         mdadm -D /dev/mdX
       
mdadm的其它选项

-f模拟指定磁盘设备故障  
 -r移除磁盘设备
-a添加磁盘设备
-S停止软raid
-As启动软raid,事先准备好 /etc/mdadm.conf 配置

创建配置文件,生成一些详细信息,追加到/etc/mdadm.conf中,包含raid5的配置文件信息,方便后面进行启动和停止的管理

  1. [root@bogon ~]# echo 'DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1' > /etc/mdadm.conf
  2. [root@bogon ~]# mdadm --detail --scan >> /etc/mdadm.conf
  3. [root@bogon ~]# cat /etc/mdadm.conf
  4. DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
  5. ARRAY /dev/md5 metadata=1.2 spares=1 name=bogon:5 UUID=930d2b47:f89bb6be:1f7862a2:c2c933a0
  6. [root@bogon ~]#

 当一块硬盘发生故障,另一块热备份硬盘会取代故障硬盘,恢复数据

  1. [root@bogon ~]# cd /opt/xy101
  2. [root@bogon xy101]# touch file{1..100}
  3. [root@bogon xy101]# mkdir dir{101..200}
  4. [root@bogon xy101]# ls
  5. dir101 dir112 dir123 dir134 dir145 dir156 dir167 dir178 dir189 dir200 file18 file28 file38 file48 file58 file68 file78 file88 file98
  6. dir102 dir113 dir124 dir135 dir146 dir157 dir168 dir179 dir190 file1 file19 file29 file39 file49 file59 file69 file79 file89 file99
  7. dir103 dir114 dir125 dir136 dir147 dir158 dir169 dir180 dir191 file10 file2 file3 file4 file5 file6 file7 file8 file9
  8. dir104 dir115 dir126 dir137 dir148 dir159 dir170 dir181 dir192 file100 file20 file30 file40 file50 file60 file70 file80 file90
  9. dir105 dir116 dir127 dir138 dir149 dir160 dir171 dir182 dir193 file11 file21 file31 file41 file51 file61 file71 file81 file91
  10. dir106 dir117 dir128 dir139 dir150 dir161 dir172 dir183 dir194 file12 file22 file32 file42 file52 file62 file72 file82 file92
  11. dir107 dir118 dir129 dir140 dir151 dir162 dir173 dir184 dir195 file13 file23 file33 file43 file53 file63 file73 file83 file93
  12. dir108 dir119 dir130 dir141 dir152 dir163 dir174 dir185 dir196 file14 file24 file34 file44 file54 file64 file74 file84 file94
  13. dir109 dir120 dir131 dir142 dir153 dir164 dir175 dir186 dir197 file15 file25 file35 file45 file55 file65 file75 file85 file95
  14. dir110 dir121 dir132 dir143 dir154 dir165 dir176 dir187 dir198 file16 file26 file36 file46 file56 file66 file76 file86 file96
  15. dir111 dir122 dir133 dir144 dir155 dir166 dir177 dir188 dir199 file17 file27 file37 file47 file57 file67 file77 file87 file97
  16. [root@bogon xy101]# mdadm /dev/md5 -f /dev/sdc1 #停止sdc1
  17. mdadm: set /dev/sdc1 faulty in /dev/md5
  18. [root@bogon xy101]# mdadm -D /dev/md5 #查看硬盘状态,sde1会取代sdc1
  19. /dev/md5:
  20. Version : 1.2
  21. Creation Time : Tue Apr 16 21:49:39 2024
  22. Raid Level : raid5
  23. Array Size : 41906176 (39.96 GiB 42.91 GB)
  24. Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
  25. Raid Devices : 3
  26. Total Devices : 4
  27. Persistence : Superblock is persistent
  28. Update Time : Tue Apr 16 22:11:06 2024
  29. State : clean, degraded, recovering
  30. Active Devices : 2
  31. Working Devices : 3
  32. Failed Devices : 1
  33. Spare Devices : 1
  34. Layout : left-symmetric
  35. Chunk Size : 512K
  36. Consistency Policy : resync
  37. Rebuild Status : 22% complete
  38. Name : bogon:5 (local to host bogon)
  39. UUID : 930d2b47:f89bb6be:1f7862a2:c2c933a0
  40. Events : 25
  41. Number Major Minor RaidDevice State
  42. 0 8 17 0 active sync /dev/sdb1
  43. 3 8 65 1 spare rebuilding /dev/sde1
  44. 4 8 49 2 active sync /dev/sdd1
  45. 1 8 33 - faulty /dev/sdc1
  46. [root@bogon xy101]#
  47. [root@bogon xy101]# cat /proc/mdstat #查看取代的过程,有进度条,需要等待一会
  48. Personalities : [raid6] [raid5] [raid4]
  49. md5 : active raid5 sdd1[4] sde1[3] sdc1[1](F) sdb1[0]
  50. 41906176 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [U_U]
  51. [=============>.......] recovery = 69.6% (14600576/20953088) finish=0.5min speed=205888K/sec
  52. unused devices: <none>
  53. [root@bogon xy101]# cat /proc/mdstat
  54. Personalities : [raid6] [raid5] [raid4]
  55. md5 : active raid5 sdd1[4] sde1[3] sdc1[1](F) sdb1[0]
  56. 41906176 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
  57. unused devices: <none>
  58. [root@bogon xy101]# mdadm -D /dev/md5
  59. /dev/md5:
  60. Version : 1.2
  61. Creation Time : Tue Apr 16 21:49:39 2024
  62. Raid Level : raid5
  63. Array Size : 41906176 (39.96 GiB 42.91 GB)
  64. Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
  65. Raid Devices : 3
  66. Total Devices : 4
  67. Persistence : Superblock is persistent
  68. Update Time : Tue Apr 16 22:12:32 2024
  69. State : clean
  70. Active Devices : 3
  71. Working Devices : 3
  72. Failed Devices : 1
  73. Spare Devices : 0
  74. Layout : left-symmetric
  75. Chunk Size : 512K
  76. Consistency Policy : resync
  77. Name : bogon:5 (local to host bogon)
  78. UUID : 930d2b47:f89bb6be:1f7862a2:c2c933a0
  79. Events : 43
  80. Number Major Minor RaidDevice State
  81. 0 8 17 0 active sync /dev/sdb1
  82. 3 8 65 1 active sync /dev/sde1
  83. 4 8 49 2 active sync /dev/sdd1
  84. 1 8 33 - faulty /dev/sdc1
  85. [root@bogon xy101]# cd /opt/xy101 #查看sde1取代sdc1之后,xy101里文件是否丢失
  86. [root@bogon xy101]# ls
  87. dir101 dir112 dir123 dir134 dir145 dir156 dir167 dir178 dir189 dir200 file18 file28 file38 file48 file58 file68 file78 file88 file98
  88. dir102 dir113 dir124 dir135 dir146 dir157 dir168 dir179 dir190 file1 file19 file29 file39 file49 file59 file69 file79 file89 file99
  89. dir103 dir114 dir125 dir136 dir147 dir158 dir169 dir180 dir191 file10 file2 file3 file4 file5 file6 file7 file8 file9
  90. dir104 dir115 dir126 dir137 dir148 dir159 dir170 dir181 dir192 file100 file20 file30 file40 file50 file60 file70 file80 file90
  91. dir105 dir116 dir127 dir138 dir149 dir160 dir171 dir182 dir193 file11 file21 file31 file41 file51 file61 file71 file81 file91
  92. dir106 dir117 dir128 dir139 dir150 dir161 dir172 dir183 dir194 file12 file22 file32 file42 file52 file62 file72 file82 file92
  93. dir107 dir118 dir129 dir140 dir151 dir162 dir173 dir184 dir195 file13 file23 file33 file43 file53 file63 file73 file83 file93
  94. dir108 dir119 dir130 dir141 dir152 dir163 dir174 dir185 dir196 file14 file24 file34 file44 file54 file64 file74 file84 file94
  95. dir109 dir120 dir131 dir142 dir153 dir164 dir175 dir186 dir197 file15 file25 file35 file45 file55 file65 file75 file85 file95
  96. dir110 dir121 dir132 dir143 dir154 dir165 dir176 dir187 dir198 file16 file26 file36 file46 file56 file66 file76 file86 file96
  97. dir111 dir122 dir133 dir144 dir155 dir166 dir177 dir188 dir199 file17 file27 file37 file47 file57 file67 file77 file87 file97
  98. [root@bogon xy101]#
  99. [root@bogon opt]# mdadm /dev/md5 -r /dev/sdc1 #移除硬盘
  100. mdadm: hot removed /dev/sdc1 from /dev/md5
  101. [root@bogon opt]# mdadm /dev/md5 -a /dev/sdc1 #重新添加新硬盘
  102. mdadm: added /dev/sdc1
  103. [root@bogon opt]# mdadm -D /dev/md5
  104. /dev/md5:
  105. Version : 1.2
  106. Creation Time : Tue Apr 16 21:49:39 2024
  107. Raid Level : raid5
  108. Array Size : 41906176 (39.96 GiB 42.91 GB)
  109. Used Dev Size : 20953088 (19.98 GiB 21.46 GB)
  110. Raid Devices : 3
  111. Total Devices : 4
  112. Persistence : Superblock is persistent
  113. Update Time : Tue Apr 16 22:29:00 2024
  114. State : clean
  115. Active Devices : 3
  116. Working Devices : 4
  117. Failed Devices : 0
  118. Spare Devices : 1
  119. Layout : left-symmetric
  120. Chunk Size : 512K
  121. Consistency Policy : resync
  122. Name : bogon:5 (local to host bogon)
  123. UUID : 930d2b47:f89bb6be:1f7862a2:c2c933a0
  124. Events : 45
  125. Number Major Minor RaidDevice State
  126. 0 8 17 0 active sync /dev/sdb1
  127. 3 8 65 1 active sync /dev/sde1
  128. 4 8 49 2 active sync /dev/sdd1
  129. 5 8 33 - spare /dev/sdc1
  130. [root@bogon opt]#

停止和启动RAID(需要保证配置文件存在,且需要解挂载后才能停止)

  1. [root@bogon opt]# ls /etc/mdadm.conf
  2. /etc/mdadm.conf
  3. [root@bogon opt]# cat /etc/mdadm.conf
  4. DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
  5. ARRAY /dev/md5 metadata=1.2 spares=1 name=bogon:5 UUID=930d2b47:f89bb6be:1f7862a2:c2c933a0
  6. [root@bogon opt]# mdadm -S /dev/md5 #需要进行解挂载才能停止RAID
  7. mdadm: Cannot get exclusive access to /dev/md5:Perhaps a running process, mounted filesystem or active volume group?
  8. [root@bogon opt]# df
  9. 文件系统 1K-块 已用 可用 已用% 挂载点
  10. devtmpfs 1913500 0 1913500 0% /dev
  11. tmpfs 1930624 0 1930624 0% /dev/shm
  12. tmpfs 1930624 12564 1918060 1% /run
  13. tmpfs 1930624 0 1930624 0% /sys/fs/cgroup
  14. /dev/mapper/centos-root 36805060 4848536 31956524 14% /
  15. /dev/sda1 1038336 191284 847052 19% /boot
  16. tmpfs 386128 12 386116 1% /run/user/42
  17. tmpfs 386128 0 386128 0% /run/user/0
  18. /dev/md5 41881600 34092 41847508 1% /opt/xy101
  19. [root@bogon opt]# umount /opt/xy101
  20. [root@bogon opt]# df
  21. 文件系统 1K-块 已用 可用 已用% 挂载点
  22. devtmpfs 1913500 0 1913500 0% /dev
  23. tmpfs 1930624 0 1930624 0% /dev/shm
  24. tmpfs 1930624 12564 1918060 1% /run
  25. tmpfs 1930624 0 1930624 0% /sys/fs/cgroup
  26. /dev/mapper/centos-root 36805060 4848536 31956524 14% /
  27. /dev/sda1 1038336 191284 847052 19% /boot
  28. tmpfs 386128 12 386116 1% /run/user/42
  29. tmpfs 386128 0 386128 0% /run/user/0
  30. [root@bogon opt]# mdadm -S /dev/md5 #停止RAID
  31. mdadm: stopped /dev/md5
  32. [root@bogon opt]# ls /etc/md5
  33. ls: 无法访问/etc/md5: 没有那个文件或目录
  34. [root@bogon opt]#
  35. [root@bogon opt]# mdadm -As /dev/md5 #重新启动RAID
  36. mdadm: /dev/md5 has been started with 3 drives and 1 spare.
  37. [root@bogon opt]# ls /dev/md5
  38. /dev/md5
  39. [root@bogon opt]# cat /etc/mdadm.conf
  40. DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
  41. ARRAY /dev/md5 metadata=1.2 spares=1 name=bogon:5 UUID=930d2b47:f89bb6be:1f7862a2:c2c933a0
  42. [root@bogon opt]#
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/439500?site
推荐阅读
相关标签
  

闽ICP备14008679号