Nieuws:

Welkom, Gast. Alsjeblieft inloggen of registreren.
Heb je de activerings-mail niet ontvangen?

Auteur Topic: RAID5 reassemble nachtmerrie.  (gelezen 1297 keer)

RAID5 reassemble nachtmerrie.
« Gepost op: 2016/11/07, 17:01:07 »
Hallo jongens,

Ik zit met een gigantische probleem.

Mijn situatie:

RAID5 array

5x 2 TB

- WD20EZRX-00D - Disk 1 - 2 TB = Power on hours = 15917 hours ~ 1.8 jaar oud
- WD20EARS-00M - Disk 2 - 2 TB = Power on hours = 44839 hours ~ 5,1 jaar oud
- WD20EARS-00M - Disk 3 - 2 TB = Power on hours = 44784 hours ~ 5.1 jaar oud
- WD20EARS-00M - Disk 4 - 2 TB = Power on hours = 44786 hours ~ 5.1 jaar oud
- WD20EFRX-68E - Disk 5 - 2 TB = Power on hours = 515 hours ~ 21 dagen

Disk 5 faalde zo 2-3 maanden geleden. Die heb ik dus 21 dagen geleden toen ook vervangen. Dus al die tijd draaide hij op 4 schijven, wat prima werkte, alleen vond ik uiteraard heel link.

Vandaag keek ik even naar mijn RAID en opeens was Disk 5 in failure geƫindigd. Ik had bij deze disk GEEN partitie gemaakt, maar had hem direct in de RAID5 gegooid. Dus ik dacht misschien daarom dat hij dus faalde. Ik had hem toen eruit gehaald en probeerde een partitie aan toe te wijzen dan vervolgens terug in de RAID te doen. Uiteraard moet hij dan opnieuw assemblen, maar dat maakte mij niet uit, ik had het geduld.

HOWEVER..(begin van de nachtmerrie), bleek opeens dat Disk 1 ook faalde. Dus basis van RAID5 opeens niet. Ik heb toen opeens alle Disks een long S.M.A.R.T. test laten doen. Disk 2, 3, 4, 5 bleken goed te werken geen bad sectors hoe dan ook. Disk 1 bleek 28 bad sectors te hebben. Hij kon de self test niet eens afmaken.

Ik wil dus RAID5 opnieuw assemblen dat OP Z'n MINST Disk 5 het over kan nemen van Disk 1 voor basis RAID5. Dan kan ik gerust die disk vervangen. 3 maanden geleden kwam ik dus ook PAS achter dat vibraties voor veel ellende zorgen in een RAID, al helemaal met meerdere harde schijven op elkaar. Ik heb een Lian Li PC 25 behuizing. Dus vandaar dat mijn Disk 5 die ik had vervangen een WD Red is dat speciaal voor NAS is tegen vibraties.

Toen ik een assemble --scan deed was dit de output.

shinger@K-NAS:~$ sudo mdadm --assemble --scan
mdadm: /dev/md/0 assembled from 3 drives - not enough to start the array.

Ik heb overigens toen wel de RAID stop gezet en disk 1 + 5 eruit gehaald. Dus nu hebben zij beide andere disk name.  Disk 5 had ik geformatteerd, maar disk 1 niet.

Iemand die mij misschien hiermee kan helpen aub. Ik heb zoveel spullen opstaan dat ik niet kwijt wil.

Alvast bedankt voor de moeite.

Re: RAID5 reassemble nachtmerrie.
« Reactie #1 Gepost op: 2016/11/07, 17:04:02 »
Nu zie ik opeens..bij de WD RED,,(disk 5)...


Errors logged 50091 errors detected
PANIEK!!!.. :'(

Offline Bloom

  • Lid
Re: RAID5 reassemble nachtmerrie.
« Reactie #2 Gepost op: 2016/11/07, 22:14:20 »
Een harde schijf zonder partitionering toevoegen in een soft-RAID mag probleemloos. Er zijn dan gewoon wat meer logische blocks beschikbaar op de schijf omdat er geen partitioneringsoverhead is.
Ik heb dat zelf ook al eens gedaan toen ik een schijf moest vervangen door een ander model omdat dat wat stuk was niet meer verkrijgbaar was en het nieuwe model minder blocks bleek te hebben, waardoor het niet toegevoegd kon worden aan het RAID-systeem. Het weghalen van de partitie en de schijf 'naakt' toevoegen loste het probleem op.

Een tip voor wie een RAID-5 zelf aanmaakt: gebruik wel een RAID-partitie en maak die een paar procent kleiner dan de eigenlijke omvang van de harde schijf. Dan heb je die paar procent reserve en slaag je er altijd in om een schijf van een ander merk en model met dezelfde omvang van RAID-partitie toe te voegen. Als je een schijf altijd volledig door een RAID-partitie in beslag laat nemen, lukt dat wellicht niet.

Schijf 5 lijkt me vol fouten te zitten als hij ruim 50.000 laat zien. Steek die eventueel eens in een USB-dock en kijk op een andere Linux machine eens met smartctl of de gui-versie daarvan wat het smart-systeem rapporteert. Is de schijf nog bruikbaar? Dan zou je data nog te lezen moeten zijn.
Idem voor Schijf 1. Als beide schijven teveel leesfouten opleveren is het mogelijk dat de data op die schijven gecorrumpeerd is. Je kunt ze eventueel bit per bit kopiƫren met dd naar nieuwe harde schijven en die dan opnieuw toevoegen aan het RAID-systeem. Als je geen back-up hebt van de inhoud, lijkt me dat de beste aanpak.