mdadm (raid5): entfernte Platte wieder einfügen
EvilGohan 09.02.2010 - 15:13 4808 18
COLOSSUS
AdministratorGNUltra
|
Boote den Rechner mal, ohne dass die Platte am Controller haengt, und steck sie im Betrieb an. Probier's dann nochmal.
Achte auch darauf, dass du wirklich das richtige Device adden willst. Kernel-Namen sind nicht unbedingt stabil.
|
semteX
begehrt die rostschaufel
|
that... wenns busy ist, stehen die chancen gut, dass es die flasche platte ist... ev mal cat /proc/mdstat hier posten
|
EG
thinking with portals
|
Reboot hat nix gebracht... ABER mdstat liefert eine interessante Ausgabe: root@filer:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md_d0 : inactive sdf[0](S)
1465138496 blocks
md0 : active raid5 sde1[4] sdb1[2] sdd1[3] sdc1[1]
5860543488 blocks level 5, 256k chunk, algorithm 2 [5/4] [_UUUU]
unused devices: <none>
Scheinbar hat mdadm ein neues Raid Device erstellt!? root@filer:~# mdadm --stop /dev/md_d0
mdadm: stopped /dev/md_d0
root@filer:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sde1[4] sdb1[2] sdd1[3] sdc1[1]
5860543488 blocks level 5, 256k chunk, algorithm 2 [5/4] [_UUUU]
unused devices: <none>
root@filer:~# mdadm --manage /dev/md0 --add /dev/sdf1
mdadm: re-added /dev/sdf1
Danach siehts wieder so aus wies sein soll: root@filer:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sdf1[5] sde1[4] sdb1[2] sdd1[3] sdc1[1]
5860543488 blocks level 5, 256k chunk, algorithm 2 [5/4] [_UUUU]
[>....................] recovery = 0.3% (5472224/1465135872) finish=249.5min speed=97499K/sec
unused devices: <none>
root@filer:~# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90
Creation Time : Fri Jan 15 01:13:23 2010
Raid Level : raid5
Array Size : 5860543488 (5589.05 GiB 6001.20 GB)
Used Dev Size : 1465135872 (1397.26 GiB 1500.30 GB)
Raid Devices : 5
Total Devices : 5
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Sun Jul 4 13:48:01 2010
State : clean, degraded, recovering
Active Devices : 4
Working Devices : 5
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 256K
Rebuild Status : 0% complete
UUID : aa6fd5f5:fdbfaba3:7cc4f564:e0529720 (local to host filer)
Events : 0.3779316
Number Major Minor RaidDevice State
5 8 81 0 spare rebuilding /dev/sdf1
1 8 33 1 active sync /dev/sdc1
2 8 17 2 active sync /dev/sdb1
3 8 49 3 active sync /dev/sdd1
4 8 65 4 active sync /dev/sde1
Woher kommt dieses neue Raid Device md_d0?
|
semteX
begehrt die rostschaufel
|
bitte NED festnageln aber ich denke mich zu erinnern, dass die d0, ... devices automatisch erstellt werden wenn er ne raid signatur auf der platte findet und versucht die selbst zu mappen (was aber auch gut schiefgehen kann)
|