"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

mdadm (raid5): entfernte Platte wieder einfügen

EvilGohan 09.02.2010 - 15:13 4813 18
Posts

COLOSSUS

Administrator
GNUltra
Avatar
Registered: Dec 2000
Location: ~
Posts: 12071
Boote den Rechner mal, ohne dass die Platte am Controller haengt, und steck sie im Betrieb an. Probier's dann nochmal.

Achte auch darauf, dass du wirklich das richtige Device adden willst. Kernel-Namen sind nicht unbedingt stabil.

semteX

begehrt die rostschaufel
Avatar
Registered: Oct 2002
Location: Pre
Posts: 14595
that... wenns busy ist, stehen die chancen gut, dass es die flasche platte ist... ev mal cat /proc/mdstat hier posten :)

EG

thinking with portals
Avatar
Registered: May 2004
Location: 11**
Posts: 3918
Reboot hat nix gebracht...

ABER mdstat liefert eine interessante Ausgabe:

Code:
root@filer:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md_d0 : inactive sdf[0](S)
      1465138496 blocks

md0 : active raid5 sde1[4] sdb1[2] sdd1[3] sdc1[1]
      5860543488 blocks level 5, 256k chunk, algorithm 2 [5/4] [_UUUU]

unused devices: <none>

Scheinbar hat mdadm ein neues Raid Device erstellt!?

Code:
root@filer:~# mdadm --stop /dev/md_d0
mdadm: stopped /dev/md_d0

root@filer:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sde1[4] sdb1[2] sdd1[3] sdc1[1]
      5860543488 blocks level 5, 256k chunk, algorithm 2 [5/4] [_UUUU]

unused devices: <none>
root@filer:~# mdadm --manage /dev/md0 --add /dev/sdf1
mdadm: re-added /dev/sdf1

Danach siehts wieder so aus wies sein soll:

Code:
root@filer:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sdf1[5] sde1[4] sdb1[2] sdd1[3] sdc1[1]
      5860543488 blocks level 5, 256k chunk, algorithm 2 [5/4] [_UUUU]
      [>....................]  recovery =  0.3% (5472224/1465135872) finish=249.5min speed=97499K/sec

unused devices: <none>
root@filer:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90
  Creation Time : Fri Jan 15 01:13:23 2010
     Raid Level : raid5
     Array Size : 5860543488 (5589.05 GiB 6001.20 GB)
  Used Dev Size : 1465135872 (1397.26 GiB 1500.30 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sun Jul  4 13:48:01 2010
          State : clean, degraded, recovering
 Active Devices : 4
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 256K

 Rebuild Status : 0% complete

           UUID : aa6fd5f5:fdbfaba3:7cc4f564:e0529720 (local to host filer)
         Events : 0.3779316

    Number   Major   Minor   RaidDevice State
       5       8       81        0      spare rebuilding   /dev/sdf1
       1       8       33        1      active sync   /dev/sdc1
       2       8       17        2      active sync   /dev/sdb1
       3       8       49        3      active sync   /dev/sdd1
       4       8       65        4      active sync   /dev/sde1

Woher kommt dieses neue Raid Device md_d0?

semteX

begehrt die rostschaufel
Avatar
Registered: Oct 2002
Location: Pre
Posts: 14595
bitte NED festnageln aber ich denke mich zu erinnern, dass die d0, ... devices automatisch erstellt werden wenn er ne raid signatur auf der platte findet und versucht die selbst zu mappen (was aber auch gut schiefgehen kann)
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz