/ Forside / Teknologi / Operativsystemer / Linux / Nyhedsindlæg
Login
Glemt dit kodeord?
Brugernavn

Kodeord


Reklame
Top 10 brugere
Linux
#NavnPoint
o.v.n. 11177
peque 7911
dk 4814
e.c 2359
Uranus 1334
emesen 1334
stone47 1307
linuxrules 1214
Octon 1100
10  BjarneD 875
Kan ikke starte RAID-array
Fra : Mads Lie Jensen


Dato : 13-05-05 22:32

Hej

Efter en strømafbrydelse kan jeg nu ikke få gang i mit software
RAID5-array.

Når jeg forsøger at starte med
raidstart /dev/md0

får jeg følgende i min log:

May 13 23:16:06 server kernel: md: raidstart(pid 15889) used deprecated
START_ARRAY ioctl. This will not be supported beyond 2.6
May 13 23:16:06 server kernel: md: autorun ...
May 13 23:16:06 server kernel: md: considering hdg1 ...
May 13 23:16:06 server kernel: md: adding hdg1 ...
May 13 23:16:06 server kernel: md: adding hdf1 ...
May 13 23:16:06 server kernel: md: adding hde1 ...
May 13 23:16:06 server kernel: md: created md0
May 13 23:16:06 server kernel: md: bind<hde1>
May 13 23:16:06 server kernel: md: bind<hdf1>
May 13 23:16:06 server kernel: md: bind<hdg1>
May 13 23:16:06 server kernel: md: running: <hdg1><hdf1><hde1>
May 13 23:16:06 server kernel: md: kicking non-fresh hde1 from array!
May 13 23:16:06 server kernel: md: unbind<hde1>
May 13 23:16:06 server kernel: md: export_rdev(hde1)
May 13 23:16:06 server kernel: md: md0: raid array is not clean --
starting background reconstruction
May 13 23:16:06 server kernel: raid5: device hdg1 operational as raid
disk 2
May 13 23:16:06 server kernel: raid5: device hdf1 operational as raid
disk 1
May 13 23:16:06 server kernel: raid5: cannot start dirty degraded array
for md0
May 13 23:16:06 server kernel: RAID5 conf printout:
May 13 23:16:06 server kernel: --- rd:3 wd:2 fd:1
May 13 23:16:06 server kernel: disk 1, o:1, dev:hdf1
May 13 23:16:06 server kernel: disk 2, o:1, dev:hdg1
May 13 23:16:06 server kernel: raid5: failed to run raid set md0
May 13 23:16:06 server kernel: md: pers->run() failed ...
May 13 23:16:06 server kernel: md :do_md_run() returned -22
May 13 23:16:06 server kernel: md: md0 stopped.
May 13 23:16:06 server kernel: md: unbind<hdg1>
May 13 23:16:06 server kernel: md: export_rdev(hdg1)
May 13 23:16:06 server kernel: md: unbind<hdf1>
May 13 23:16:06 server kernel: md: export_rdev(hdf1)
May 13 23:16:06 server kernel: md: ... autorun DONE.

Jeg kan ikke finde ud af hvad der nøjagtigt er galt - eller hvad jeg
skal gøre for at få liv i det igen. Nogen hints?


--
Mads Lie Jensen - mads@gartneriet.dk - ICQ #25478403
Gartneriet - snart i ny indpakning: http://ny.gartneriet.dk

 
 
Rander (13-05-2005)
Kommentar
Fra : Rander


Dato : 13-05-05 23:47

Fri, 13 May 2005 23:32:04 +0200 brugte Mads Lie Jensen 54 linier på at
fortælle dette til dk.edb.system.unix:

>May 13 23:16:06 server kernel: md: kicking non-fresh hde1 from array!

>Jeg kan ikke finde ud af hvad der nøjagtigt er galt - eller hvad jeg
>skal gøre for at få liv i det igen. Nogen hints?

Well, ikke fordi at jeg er ekspert i den slags, men hvis jeg så ovenstående
linie i min log ville jeg gætte på at disk hde var død...

--
Lars Rander ** Pil ikke ved min adresse ** :(){ :&:& };:
http://rander.dk (temporarily down!)

1. bud lyder: Du må ikke have andre guder. Men det er altså først i morgen kl. 8.05. (DR)


Mads Lie Jensen (14-05-2005)
Kommentar
Fra : Mads Lie Jensen


Dato : 14-05-05 07:48

On Sat, 14 May 2005 00:46:32 +0200, Rander <ldNOSPAM@rander.dk> wrote:

>>May 13 23:16:06 server kernel: md: kicking non-fresh hde1 from array!
>
>>Jeg kan ikke finde ud af hvad der nøjagtigt er galt - eller hvad jeg
>>skal gøre for at få liv i det igen. Nogen hints?
>
>Well, ikke fordi at jeg er ekspert i den slags, men hvis jeg så ovenstående
>linie i min log ville jeg gætte på at disk hde var død...

Det var jo også det første jeg troede ...... men så vidt jeg har
forstået RAID5, så skulle den jo stadig køre videre, selv om en enkelt
disk går hen og dør.

Nå, jeg fik det løst ved en:

mdadm -Af /dev/mdo /dev/hdf1 /dev/hdg1

som fik mit raid-array i luften uden /dev/hde1. Herefter kørte jeg en

mdadm -a /dev/md0 /dev/hde1

og nu begyndte den at rebuilde på disk hde1. Og her til morgen kører det
hele lystigt igen, tilsyneladende uden fejl eller problemer.

Min UPS fik i samme omgang skiftet batterier, så en strømafbrydelse ikke
igen bør tage hele maskineriet ned.

--
Mads Lie Jensen - mads@gartneriet.dk - ICQ #25478403
Gartneriet - snart i ny indpakning: http://ny.gartneriet.dk

Simon Lyngshede (14-05-2005)
Kommentar
Fra : Simon Lyngshede


Dato : 14-05-05 12:38

On Sat, 14 May 2005 00:32:04 +0200, Mads Lie Jensen wrote:
> Jeg kan ikke finde ud af hvad der nøjagtigt er galt - eller hvad jeg
> skal gøre for at få liv i det igen. Nogen hints?

Nu lyder det som om du fandt ud af det, men eller er mdadm -D <md-device>
og 'cat /proc/mdstat' somregel rimelig hjælpsomt.


--
Simon

Kasper Dupont (17-05-2005)
Kommentar
Fra : Kasper Dupont


Dato : 17-05-05 08:01

Mads Lie Jensen wrote:
>
> May 13 23:16:06 server kernel: raid5: cannot start dirty degraded array for md0

Det lyder for mig som en uheldig kombination af
fejl som betyder risiko for, at nogle data er
beskadiget. Der er to forskellige måder at forsøge
at rekonstruere raidet. En recovery udfra de to
friske diske vil give det rigtige resultat i de
fleste stripes, men der kan være nogle enkelte
stripes som var ved at blive opdateret da systemet
blev afbrudt og derfor giver et forkert resultat.
For disse få stripes kan du være heldig at data på
den ikke friske disk stadigt kan bruges, de kan
bruges såfremt de kan læses og ikke i mellemtiden
er blevet overskrevet på det logiske medie.

Da der ikke er nogen automatisk måde at afgøre,
hvilke stripes der skal læses fra hde1 og hvilke
der skal rekonstrueres, kan jeg godt forstå at den
ikke vil prøve at gøre det automatisk.

Hvis du kan forklare, hvordan du er havnet i den
her situation har jeg en større chance for at give
et fornuftigt råd om, hvordan du kommer videre
herfra. Har du efterladt raidet degradet gennem
længere tid? Den burde udskrive nogle event
counters til loggen.

--
Kasper Dupont -- der bruger for meget tid på usenet.
Note to self: Don't try to allocate 256000 pages
with GFP_KERNEL on x86.

Mads Lie Jensen (17-05-2005)
Kommentar
Fra : Mads Lie Jensen


Dato : 17-05-05 15:17

On Tue, 17 May 2005 09:00:44 +0200, Kasper Dupont <kasperd@daimi.au.dk>
wrote:

>> May 13 23:16:06 server kernel: raid5: cannot start dirty degraded array for md0
>
>Det lyder for mig som en uheldig kombination af
>fejl som betyder risiko for, at nogle data er
>beskadiget. Der er to forskellige måder at forsøge
>at rekonstruere raidet. En recovery udfra de to
>friske diske vil give det rigtige resultat i de
>fleste stripes, men der kan være nogle enkelte
>stripes som var ved at blive opdateret da systemet
>blev afbrudt og derfor giver et forkert resultat.
>For disse få stripes kan du være heldig at data på
>den ikke friske disk stadigt kan bruges, de kan
>bruges såfremt de kan læses og ikke i mellemtiden
>er blevet overskrevet på det logiske medie.
>
>Da der ikke er nogen automatisk måde at afgøre,
>hvilke stripes der skal læses fra hde1 og hvilke
>der skal rekonstrueres, kan jeg godt forstå at den
>ikke vil prøve at gøre det automatisk.
>
>Hvis du kan forklare, hvordan du er havnet i den
>her situation har jeg en større chance for at give

Strømmen til min UPS røg sig en tur, og min UPS var samtidig
tilsyneladende i stykker, så den _ikke_ slog over på batteridrift, men
bare lukkede ned
Der var formentlig ikke gang i noget skrivning til array'et da den gik
ned.

Og som skrevet for et par dage siden, så har jeg fået den i gang igen.
Ved at starte med de to friske diske og derefter føje den "dårlige" disk
til det kørende array, så blev den regenereret. Tilsyneladende uden
problemer.

>et fornuftigt råd om, hvordan du kommer videre
>herfra. Har du efterladt raidet degradet gennem
>længere tid? Den burde udskrive nogle event
>counters til loggen.

Næh, det var sundt kørende indtil strømmen røg - og diskene er også kun
nogle få måneder gamle, selv om der selvfølgelig kan have været fejl ved
dem alligevel.

--
Mads Lie Jensen - mads@gartneriet.dk - ICQ #25478403
Gartneriet - snart i ny indpakning: http://ny.gartneriet.dk

Kasper Dupont (18-05-2005)
Kommentar
Fra : Kasper Dupont


Dato : 18-05-05 06:53

Mads Lie Jensen wrote:
>
> Der var formentlig ikke gang i noget skrivning til array'et da den gik
> ned.

I så fald burde det virke at bare tilføje en ny disk
så den kan regenerere udfra de to tilbageværende.

>
> Og som skrevet for et par dage siden, så har jeg fået den i gang igen.
> Ved at starte med de to friske diske og derefter føje den "dårlige" disk
> til det kørende array, så blev den regenereret. Tilsyneladende uden
> problemer.

Hvis ikke den har været i gang med at skrive burde
det også virke på den måde.

>
> >et fornuftigt råd om, hvordan du kommer videre
> >herfra. Har du efterladt raidet degradet gennem
> >længere tid? Den burde udskrive nogle event
> >counters til loggen.
>
> Næh, det var sundt kørende indtil strømmen røg

Underligt for de symptomer du beskrev kan ikke være
opstået hvis der kun har været tale om et strømsvigt.
Der må være sket noget andet - måske for lang tid
siden. Hvornår blev maskinen sidst bootet? Jeg ville
prøve at finde forklaringen i loggen. Du kan evt.
starte med:
zcat -f /var/log/messages*|grep -i kick

--
Kasper Dupont -- der bruger for meget tid på usenet.
Note to self: Don't try to allocate 256000 pages
with GFP_KERNEL on x86.

Søg
Reklame
Statistik
Spørgsmål : 177501
Tips : 31968
Nyheder : 719565
Indlæg : 6408527
Brugere : 218887

Månedens bedste
Årets bedste
Sidste års bedste