[erledigt] raid5 degraded

Hast Du Probleme mit Hardware, die durch die anderen Foren nicht abgedeckt werden? Schau auch in den "Tipps und Tricks"-Bereich.
Antworten
Benutzeravatar
Lord_Carlos
Beiträge: 5578
Registriert: 30.04.2006 17:58:52
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Dänemark

[erledigt] raid5 degraded

Beitrag von Lord_Carlos » 22.11.2010 14:13:17

Moin

Ich habe jetzt seid ca. einem Monat ein raid5 mit mdadm und schon 2 mal ist es passiert das eine festplatte als removed gekennzeichnet ist.
Merken tue ich das meistens immer erst nach ein paar tagen. Sie laesst sich dann auch ohne weiteres hinzufuegen. Aber dann dauert es wieder 400stunden bis es sich wiederhergestellt hat.

Wie kann ich jetzt herausfinden wodran es liegt?

Bei jedem start bekomme ich folgende mail:

Code: Alles auswählen

This is an automatically generated mail message from mdadm
running on sauerkraut
A SparesMissing event had been detected on md device /dev/md0. 
Faithfully yours, etc. 
P.S. The /proc/mdstat file currently contains the following:  
                                                                                                                                                              
Personalities : [raid6] [raid5] [raid4]                                                                                                                                                                                                            
md0 : active raid5 sda1[0] sdf1[4] sdb1[5] sde1[3] sdd1[1]                                                                                                                                                                                         
      5860540416 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU] 
                                                                                                                                                                                                                                                  
unused devices: <none>
Aber wenn man dann nachguckt ist alles clean.

Die DegradedArray mail sieht so aus:

Code: Alles auswählen

Personalities : [raid6] [raid5] [raid4]                                                                                                                                                                                                            
md0 : active raid5 sdf1[1] sdb1[4] sdd1[5] sda1[3]                                                                                                                                                                                                 
      5860540416 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/4] [_UUUU]
Ein tag spaeter als ich den computer wieder gestartet habe ohne was am raid zu machen (weil es mir ja nicht aufgefallen ist)

Code: Alles auswählen

md0 : active raid5 sdd1[1] sdf1[4] sdb1[5] sde1[3]                                                                                                                                                                                                 
      5860540416 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/4] [_UUUU]
Man sieht das auf einmal sda1 weg ist und sde1 wieder da ist.

Meine config sieht so aus:
DEVICE /dev/sd[abdef]1
Kann es sein das beim booten die namen machnmal durcheinander geworfen werden?
Sehe ich das richtig das mdadm nicht mit UUID umgehen kann?
Zuletzt geändert von Lord_Carlos am 28.11.2010 18:43:01, insgesamt 1-mal geändert.

Code: Alles auswählen

╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!

Benutzeravatar
minimike
Beiträge: 5594
Registriert: 26.03.2003 02:21:19
Lizenz eigener Beiträge: neue BSD Lizenz
Wohnort: Köln
Kontaktdaten:

Re: raid5 degraded

Beitrag von minimike » 23.11.2010 11:28:13

Das ist normal, darum habe ich Softwareraid an den Nagel gehängt. Meiner Meinung nach ist nur Raid1 bedingt brauchbar. Für 80,- € bekommt man schon LSI 1064E Controller. Und das ist echter Hardwareraid.
"Lennart Poettering is one of those typical IT leaders..." "like Linus Torvalds and Theo de Raadt?" "more like Bozo the Clown" After all, now a good employee of Microsoft

Benutzeravatar
Lord_Carlos
Beiträge: 5578
Registriert: 30.04.2006 17:58:52
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Dänemark

Re: raid5 degraded

Beitrag von Lord_Carlos » 24.11.2010 14:20:25

minimike hat geschrieben:Das ist normal, darum habe ich Softwareraid an den Nagel gehängt. Meiner Meinung nach ist nur Raid1 bedingt brauchbar. Für 80,- € bekommt man schon LSI 1064E Controller. Und das ist echter Hardwareraid.
Hat jeder hier die Erfahrung gemacht?
Gibt es noch mehr meinungen?
Vielleicht sogar ne loesung fuer mein Problem :D

Code: Alles auswählen

╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!

Benutzeravatar
Saxman
Beiträge: 4215
Registriert: 02.05.2005 21:53:52
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: localhost

Re: raid5 degraded

Beitrag von Saxman » 24.11.2010 14:25:09

Manchmal fliegen Consumer Platten wegen der Fehlerkorrektur aus dem Raid. Ansonsten ist mir auch schon eine Platte wegen eines Suspends aus dem Raid geflogen. Allerdings habe ich hier ein Raid1.
"Unix is simple. It just takes a genius to understand its simplicity." - Dennis Ritchie

Debian GNU/Linux Anwenderhandbuch | df.de Verhaltensregeln | Anleitungen zum Review und zum Verfassen von Wiki Artikeln.

Benutzeravatar
Lord_Carlos
Beiträge: 5578
Registriert: 30.04.2006 17:58:52
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Dänemark

Re: raid5 degraded

Beitrag von Lord_Carlos » 24.11.2010 15:18:08

MAAAAAN WAS FUER EINE SCHEISSE!
schon wieder.
So wie ich das sehe kommt das nur beim starten und nicht mittendrinne beim lesen/schreiben.

Hier ist mal ein dmesg: NoPaste-Eintrag35123
Ein paar auszuege:

Code: Alles auswählen

[    2.377547] sd 4:0:0:0: [sdc] 2930277168 512-byte logical blocks: (1.50 TB/1.36 TiB)
[    2.377581] sd 4:0:0:0: [sdc] Write Protect is off
[    2.377583] sd 4:0:0:0: [sdc] Mode Sense: 00 3a 00 00

[    2.377732] sd 4:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
So sieht das bei allen platten aus

Code: Alles auswählen

[   18.559161] md: md0 stopped.
[   18.561054] md: bind<sda1>
[   18.561182] md: bind<sdd1>
[   18.561373] md: bind<sdb1>
[   18.561534] md: bind<sdf1>
[   18.598008] async_tx: api initialized (async)
[   18.625409] xor: automatically using best checksumming function: generic_sse
[   18.644003]    generic_sse: 10604.000 MB/sec
[   18.644005] xor: using function: generic_sse (10604.000 MB/sec)
[   18.744022] raid6: int64x1   2551 MB/s
[   18.812018] raid6: int64x2   2600 MB/s
[   18.880016] raid6: int64x4   2109 MB/s
[   18.948006] raid6: int64x8   1915 MB/s
[   19.016012] raid6: sse2x1    3556 MB/s
[   19.084004] raid6: sse2x2    5738 MB/s
[   19.152012] raid6: sse2x4    6778 MB/s
[   19.152014] raid6: using algorithm sse2x4 (6778 MB/s)
[   19.171440] md: raid6 personality registered for level 6
[   19.171443] md: raid5 personality registered for level 5
[   19.171444] md: raid4 personality registered for level 4
[   19.171567] md/raid:md0: device sdf1 operational as raid disk 1
[   19.171571] md/raid:md0: device sdb1 operational as raid disk 4
[   19.171573] md/raid:md0: device sdd1 operational as raid disk 3
[   19.171575] md/raid:md0: device sda1 operational as raid disk 2
[   19.172079] md/raid:md0: allocated 5334kB
[   19.172107] md/raid:md0: raid level 5 active with 4 out of 5 devices, algorithm 2
[   19.172179] RAID conf printout:
[   19.172180]  --- level:5 rd:5 wd:4
[   19.172182]  disk 1, o:1, dev:sdf1
[   19.172184]  disk 2, o:1, dev:sda1
[   19.172185]  disk 3, o:1, dev:sdd1
[   19.172186]  disk 4, o:1, dev:sdb1
Warum steht da oben nicht bind sdc? Hat er es garnicht versucht oder konnte er es nicht?

Was kann ich jetzt machen das sich das raid nicht immer fuer 300 - 600 minuten recovern muss?

Code: Alles auswählen

╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!

Benutzeravatar
Saxman
Beiträge: 4215
Registriert: 02.05.2005 21:53:52
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: localhost

Re: raid5 degraded

Beitrag von Saxman » 24.11.2010 15:21:08

Hast du denn mal die smart Werte der Platte überprüft ob die nicht vielleicht aus gutem Grund raus fliegt?
"Unix is simple. It just takes a genius to understand its simplicity." - Dennis Ritchie

Debian GNU/Linux Anwenderhandbuch | df.de Verhaltensregeln | Anleitungen zum Review und zum Verfassen von Wiki Artikeln.

rendegast
Beiträge: 15041
Registriert: 27.02.2006 16:50:33
Lizenz eigener Beiträge: MIT Lizenz

Re: raid5 degraded

Beitrag von rendegast » 24.11.2010 15:43:34

Im BIOS den Platten mehr Zeit zum Initialisieren geben (existiert manchmal als Option)?
2-3 Sekunden?

BIOS-Upgrade?

Andere / neue Kabel? Mit Abzugsicherung?
Stromverbinder "wackelig", passiert manchmal bei zuvielen Y-Weichen?
mfg rendegast
-----------------------
Viel Eifer, viel Irrtum; weniger Eifer, weniger Irrtum; kein Eifer, kein Irrtum.
(Lin Yutang "Moment in Peking")

Benutzeravatar
Lord_Carlos
Beiträge: 5578
Registriert: 30.04.2006 17:58:52
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Dänemark

Re: raid5 degraded

Beitrag von Lord_Carlos » 24.11.2010 16:34:26

Saxman hat geschrieben:Hast du denn mal die smart Werte der Platte überprüft ob die nicht vielleicht aus gutem Grund raus fliegt?
NoPaste-Eintrag35126
Smart sieht gut aus. Habe auch einen kurzen selbsttest gemacht. Die Platte ist auch relativ neu.
rendegast hat geschrieben:Im BIOS den Platten mehr Zeit zum Initialisieren geben (existiert manchmal als Option)?
Mhh, wenn ich mein dmesg richtig lese wird das Raid ja erst bei sekunde 18 zusammen gesetzt.
Und ich glaube auch das dass system erst startet wenn alles platten vom Bios erkannt werden (bin mir aber nicht sicher)
rendegast hat geschrieben:BIOS-Upgrade?
Ich moechte lieber erstmal nach anderen Loesungen suchen.
rendegast hat geschrieben:Andere / neue Kabel? Mit Abzugsicherung?
Stromverbinder "wackelig", passiert manchmal bei zuvielen Y-Weichen?
Ich bin mir nicht sicher ob es immer die selbe Platte ist.
Jedenfals schein die bezeichnung nicht immer die gleiche zu sein. Sie mein erster post, da war es sde, jetzt war es sdc. Ich werde die kabel aber nochmal festdruecken.
Ich habe 3 Stromkabel, die jeweils immer 2 platten versorgen, die direkt vom Netzteil kommen.

Ich werde ab jetzt taeglich vorm mounten den mdadm status ueberpruefen.
Achja, warum bekomme ich bei jedem start die mail SparesMissing?

Code: Alles auswählen

╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!

Benutzeravatar
Saxman
Beiträge: 4215
Registriert: 02.05.2005 21:53:52
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: localhost

Re: raid5 degraded

Beitrag von Saxman » 24.11.2010 16:39:53

Lord_Carlos hat geschrieben: Smart sieht gut aus. Habe auch einen kurzen selbsttest gemacht. Die Platte ist auch relativ neu.

Code: Alles auswählen

 UDMA_CRC_Error_Count    0x0036   100   100   000    Old_age   Always       -       1
So etwas kommt öfter mal von kaputten Kabeln oder Wackelkontakten. Überprüfe mal ob das bei den anderen Platten auch vorkommt. Dann könnte auch der Controller einen hau haben.
"Unix is simple. It just takes a genius to understand its simplicity." - Dennis Ritchie

Debian GNU/Linux Anwenderhandbuch | df.de Verhaltensregeln | Anleitungen zum Review und zum Verfassen von Wiki Artikeln.

Benutzeravatar
Lord_Carlos
Beiträge: 5578
Registriert: 30.04.2006 17:58:52
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Dänemark

Re: raid5 degraded

Beitrag von Lord_Carlos » 24.11.2010 16:57:04

Code: Alles auswählen

root@sauerkraut:/home/carlos# smartctl -a /dev/sdc |grep UDMA_CRC_Error_Count
199 UDMA_CRC_Error_Count    0x0036   100   100   000    Old_age   Always       -       1
root@sauerkraut:/home/carlos# smartctl -a /dev/sda |grep UDMA_CRC_Error_Count
199 UDMA_CRC_Error_Count    0x0036   200   200   000    Old_age   Always       -       0
root@sauerkraut:/home/carlos# smartctl -a /dev/sdd |grep UDMA_CRC_Error_Count
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
root@sauerkraut:/home/carlos# smartctl -a /dev/sde |grep UDMA_CRC_Error_Count
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       3 <-- Meine aelteste 
root@sauerkraut:/home/carlos# smartctl -a /dev/sdf |grep UDMA_CRC_Error_Count
199 UDMA_CRC_Error_Count    0x0036   100   100   000    Old_age   Always       -       1 <-- eine der neueren
root@sauerkraut:/home/carlos# smartctl -a /dev/sdb |grep UDMA_CRC_Error_Count
199 UDMA_CRC_Error_Count    0x003e   100   100   000    Old_age   Always       -       0
Die HDD anschluesse gehen zur seite, also haben etwas wenig platz:
Bild
Aber da wird nichts das geruckelt oder aehnliches.

Code: Alles auswählen

╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!

Benutzeravatar
Saxman
Beiträge: 4215
Registriert: 02.05.2005 21:53:52
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: localhost

Re: raid5 degraded

Beitrag von Saxman » 24.11.2010 17:04:28

Wenn du jetzt nicht gleich Kabel wechseln willst könntest du versuchen das von dir beschriebene Verhalten zu reproduzieren und schauen ob sich der UDMA_CRC_Error_Count einer Platte erhöht. Dann weißt du ob es daran liegt.
"Unix is simple. It just takes a genius to understand its simplicity." - Dennis Ritchie

Debian GNU/Linux Anwenderhandbuch | df.de Verhaltensregeln | Anleitungen zum Review und zum Verfassen von Wiki Artikeln.

Benutzeravatar
Lord_Carlos
Beiträge: 5578
Registriert: 30.04.2006 17:58:52
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Dänemark

Re: raid5 degraded

Beitrag von Lord_Carlos » 24.11.2010 17:10:03

Mhh, die alte ist nicht mit im Raid. Also bleiben noch 2 UDMA_CRC_Error_Count ueber. Ich hatte das Problem jetzt aber schon 3 mal.
Aber ich werde versuchen vorsichtiger zu sein und gucken ob es beim naechsten mal die platte wieder beim abspriengt.

Hat jemand noch ein tipp warum ich beim starten immer eine SparesMissing mail bekomme?

Code: Alles auswählen

╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!

rendegast
Beiträge: 15041
Registriert: 27.02.2006 16:50:33
Lizenz eigener Beiträge: MIT Lizenz

Re: raid5 degraded

Beitrag von rendegast » 24.11.2010 18:07:48

Code: Alles auswählen

  3 Spin_Up_Time            0x0023   061   060   025    Pre-fail  Always       -       12092
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       52
....
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       532
Die Spin-Ups würden mich stören (~ alle 3 Minuten).
Eventuell kommen die manchmal nicht schnell genug?

Stromverbrauch 1Jahr Dauerbetrieb ~ 17 Eu,
hier schließe ich auf ~ 10h / Tag, damit nur noch ~ 8Eu / Jahr.
Ob das die Belastung der Mechanik rechtfertigt?
Eventuell 'hdparm -S0 -B255 ...' ?
(Wobei das bei zBsp. WD GreenLine nicht funktionieren muß, siehe Threads im www.)

Vielleicht empfiehlt 'hdparm -iI ...' auch einen "weichen" Acoustic-Wert?
mfg rendegast
-----------------------
Viel Eifer, viel Irrtum; weniger Eifer, weniger Irrtum; kein Eifer, kein Irrtum.
(Lin Yutang "Moment in Peking")

Benutzeravatar
Lord_Carlos
Beiträge: 5578
Registriert: 30.04.2006 17:58:52
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Dänemark

Re: raid5 degraded

Beitrag von Lord_Carlos » 24.11.2010 18:37:24

Code: Alles auswählen

hdparm -iI /dev/sd[abcdef] |grep Recommended
        Recommended acoustic management value: 254, current value: 0  <-- SAMSUNG HD153WI   curennt value laest sich nicht aendern
        Recommended acoustic management value: 254, current value: 254 <-- SAMSUNG HD154UI SpinPoint F2 EG series  
        Recommended acoustic management value: 254, current value: 254 <-- SAMSUNG HD153WI
        Recommended acoustic management value: 128, current value: 254 <-- WDC WD15EARS-00Z5B1
        Recommended acoustic management value: 254, current value: 0 <-- ST31000340AS Seagate Barracuda 7200.11 family (Die "alte")
        Recommended acoustic management value: 254, current value: 254 <-- SAMSUNG HD153WI
Komisch finde ich auch das das sich bei den HD153WI (Spinpoint F3) acoustic wunderbar setzen laest, auser bei sda.
Vielleicht laest es sich setzten, aber jedenfalls steht beim auslesen immer 0.
Soll ich die acoustic der WD auf 128 stellen?

Code: Alles auswählen

╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!

rendegast
Beiträge: 15041
Registriert: 27.02.2006 16:50:33
Lizenz eigener Beiträge: MIT Lizenz

Re: raid5 degraded

Beitrag von rendegast » 24.11.2010 19:02:14

Soll ich die acoustic der WD auf 128 stellen?
Ohne Beweis versuche ich mich da an "Recommended" zu halten (wenn es akzeptiert wird).

Code: Alles auswählen

        Recommended acoustic management value: 254, current value: 0  <-- SAMSUNG HD153WI   curennt value 
...
        Recommended acoustic management value: 254, current value: 254 <-- SAMSUNG HD153WI
        Recommended acoustic management value: 254, current value: 254 <-- SAMSUNG HD153WI
Vergleiche mal die firmware-Revision der HD153WI.
Und ich greife nochmal darauf zurück, im BIOS mehr Zeit zur Initialisierung zu geben (falls möglich).
mfg rendegast
-----------------------
Viel Eifer, viel Irrtum; weniger Eifer, weniger Irrtum; kein Eifer, kein Irrtum.
(Lin Yutang "Moment in Peking")

Benutzeravatar
Lord_Carlos
Beiträge: 5578
Registriert: 30.04.2006 17:58:52
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Dänemark

Re: raid5 degraded

Beitrag von Lord_Carlos » 24.11.2010 23:06:36

Die firmwares sind alle gleich.

Was mir gerade in dmesg aufgefallen ist:

Code: Alles auswählen

[10739.840053] ata8.00: exception Emask 0x40 SAct 0x7ffff SErr 0x800 action 0x6 frozen
[10739.840062] ata8: SError: { HostInt }
[10739.840068] ata8.00: failed command: READ FPDMA QUEUED
[10739.840079] ata8.00: cmd 60/80:00:08:66:58/00:00:30:00:00/40 tag 0 ncq 65536 in
[10739.840081]          res 40/00:00:00:4f:c2/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840085] ata8.00: status: { DRDY }
[10739.840089] ata8.00: failed command: READ FPDMA QUEUED
[10739.840098] ata8.00: cmd 60/78:08:88:66:58/00:00:30:00:00/40 tag 1 ncq 61440 in
[10739.840100]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840104] ata8.00: status: { DRDY }
[10739.840108] ata8.00: failed command: READ FPDMA QUEUED
[10739.840117] ata8.00: cmd 60/08:10:00:67:58/00:00:30:00:00/40 tag 2 ncq 4096 in
[10739.840119]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840123] ata8.00: status: { DRDY }
[10739.840126] ata8.00: failed command: READ FPDMA QUEUED
[10739.840135] ata8.00: cmd 60/b0:18:00:68:58/00:00:30:00:00/40 tag 3 ncq 90112 in
[10739.840137]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840141] ata8.00: status: { DRDY }
[10739.840145] ata8.00: failed command: READ FPDMA QUEUED
[10739.840154] ata8.00: cmd 60/10:20:b0:68:58/00:00:30:00:00/40 tag 4 ncq 8192 in
[10739.840156]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840160] ata8.00: status: { DRDY }
[10739.840164] ata8.00: failed command: READ FPDMA QUEUED
[10739.840173] ata8.00: cmd 60/f8:28:00:6a:58/00:00:30:00:00/40 tag 5 ncq 126976 in
[10739.840175]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840179] ata8.00: status: { DRDY }
[10739.840182] ata8.00: failed command: READ FPDMA QUEUED
[10739.840191] ata8.00: cmd 60/f8:30:00:6b:58/00:00:30:00:00/40 tag 6 ncq 126976 in
[10739.840193]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840197] ata8.00: status: { DRDY }
[10739.840201] ata8.00: failed command: READ FPDMA QUEUED
[10739.840210] ata8.00: cmd 60/d8:38:08:67:58/00:00:30:00:00/40 tag 7 ncq 110592 in
[10739.840212]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840216] ata8.00: status: { DRDY }
[10739.840219] ata8.00: failed command: READ FPDMA QUEUED
[10739.840228] ata8.00: cmd 60/20:40:e0:67:58/00:00:30:00:00/40 tag 8 ncq 16384 in
[10739.840230]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840234] ata8.00: status: { DRDY }
[10739.840238] ata8.00: failed command: READ FPDMA QUEUED
[10739.840247] ata8.00: cmd 60/40:48:c0:68:58/00:00:30:00:00/40 tag 9 ncq 32768 in
[10739.840249]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840253] ata8.00: status: { DRDY }
[10739.840256] ata8.00: failed command: READ FPDMA QUEUED
[10739.840266] ata8.00: cmd 60/f8:50:00:69:58/00:00:30:00:00/40 tag 10 ncq 126976 in
[10739.840268]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840272] ata8.00: status: { DRDY }
[10739.840275] ata8.00: failed command: READ FPDMA QUEUED
[10739.840284] ata8.00: cmd 60/08:58:f8:69:58/00:00:30:00:00/40 tag 11 ncq 4096 in
[10739.840286]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840290] ata8.00: status: { DRDY }
[10739.840294] ata8.00: failed command: READ FPDMA QUEUED
[10739.840303] ata8.00: cmd 60/08:60:f8:6a:58/00:00:30:00:00/40 tag 12 ncq 4096 in
[10739.840305]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840309] ata8.00: status: { DRDY }
[10739.840313] ata8.00: failed command: READ FPDMA QUEUED
[10739.840322] ata8.00: cmd 60/08:68:f8:6b:58/00:00:30:00:00/40 tag 13 ncq 4096 in
[10739.840324]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840328] ata8.00: status: { DRDY }
[10739.840331] ata8.00: failed command: READ FPDMA QUEUED
[10739.840340] ata8.00: cmd 60/f8:70:00:6c:58/00:00:30:00:00/40 tag 14 ncq 126976 in
[10739.840342]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840346] ata8.00: status: { DRDY }
[10739.840350] ata8.00: failed command: READ FPDMA QUEUED
[10739.840359] ata8.00: cmd 60/08:78:f8:6c:58/00:00:30:00:00/40 tag 15 ncq 4096 in
[10739.840361]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840365] ata8.00: status: { DRDY }
[10739.840368] ata8.00: failed command: READ FPDMA QUEUED
[10739.840377] ata8.00: cmd 60/08:80:00:6d:58/00:00:30:00:00/40 tag 16 ncq 4096 in
[10739.840379]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840383] ata8.00: status: { DRDY }
[10739.840387] ata8.00: failed command: READ FPDMA QUEUED
[10739.840396] ata8.00: cmd 60/f8:88:08:6d:58/00:00:30:00:00/40 tag 17 ncq 126976 in
[10739.840398]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840402] ata8.00: status: { DRDY }
[10739.840405] ata8.00: failed command: READ FPDMA QUEUED
[10739.840414] ata8.00: cmd 60/08:90:00:6e:58/00:00:30:00:00/40 tag 18 ncq 4096 in
[10739.840416]          res 40/00:00:00:00:00/00:00:00:00:00/00 Emask 0x44 (timeout)
[10739.840421] ata8.00: status: { DRDY }
[10739.840427] ata8: hard resetting link
[10740.332018] ata8: softreset failed (device not ready)
[10740.332026] ata8: applying SB600 PMP SRST workaround and retrying
[10740.504031] ata8: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
[10740.509824] ata8.00: SB600 AHCI: limiting to 255 sectors per cmd
[10740.515638] ata8.00: SB600 AHCI: limiting to 255 sectors per cmd
[10740.515643] ata8.00: configured for UDMA/133
[10740.515654] ata8.00: device reported invalid CHS sector 0
[10740.515663] ata8.00: device reported invalid CHS sector 0
[10740.515667] ata8.00: device reported invalid CHS sector 0
[10740.515676] ata8.00: device reported invalid CHS sector 0
[10740.515681] ata8.00: device reported invalid CHS sector 0
[10740.515692] ata8.00: device reported invalid CHS sector 0
[10740.515704] ata8.00: device reported invalid CHS sector 0
[10740.515715] ata8.00: device reported invalid CHS sector 0
[10740.515719] ata8.00: device reported invalid CHS sector 0
[10740.515725] ata8.00: device reported invalid CHS sector 0
[10740.515736] ata8.00: device reported invalid CHS sector 0
[10740.515740] ata8.00: device reported invalid CHS sector 0
[10740.515743] ata8.00: device reported invalid CHS sector 0
[10740.515747] ata8.00: device reported invalid CHS sector 0
[10740.515759] ata8.00: device reported invalid CHS sector 0
[10740.515763] ata8.00: device reported invalid CHS sector 0
[10740.515766] ata8.00: device reported invalid CHS sector 0
[10740.515778] ata8.00: device reported invalid CHS sector 0
[10740.515781] ata8.00: device reported invalid CHS sector 0
[10740.515812] ata8: EH complete
Was hat das zu bedeuten?
Ist mir bis jetzt noch nie aufgefallen. Mit dem raid ist nicht weiter passiert?

Code: Alles auswählen

╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!

Benutzeravatar
Lord_Carlos
Beiträge: 5578
Registriert: 30.04.2006 17:58:52
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Dänemark

Re: raid5 degraded

Beitrag von Lord_Carlos » 28.11.2010 18:14:29

Und taeglich gruesst das Murmeltier.
Mhh, ich glaube das kommt wirklich weil linux die bezeichnungen durcheinander wirft.

Loesung a.) Machen das Linux immer die gleichen device namen Benutzt
b.) mdadm dazu bringen uuid zu benutzten
c.) Kann ich in der config nicht einfach folgendes angeben?

Code: Alles auswählen

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE /dev/sd*1
Also wuerde er sich dann da nicht einfach die richtigen raussuchen?

Code: Alles auswählen

╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!

Benutzeravatar
Saxman
Beiträge: 4215
Registriert: 02.05.2005 21:53:52
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: localhost

Re: raid5 degraded

Beitrag von Saxman » 28.11.2010 18:26:40

Lauf config file werden wildcards unterstützt.

Bei mir steht im übrigen auch so etwas hier.

Code: Alles auswählen

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=a7133828:37b4134a:adf68a41:9b6dbccd
Offensichtlich kann mdadm grundsätzlich also mit uuid. Ich würde es mal an deiner Stelle mit der DEVICE Angabe als uuid versuchen

/Edit
man mdadm.conf hat geschrieben:DEVICE A device line lists the devices (whole devices or partitions) that might contain a component of an MD array. When looking for the components of an
array, mdadm will scan these devices (or any devices listed on the command line).

The device line may contain a number of different devices (separated by spaces) and each device name can contain wild cards as defined by glob(7).

Also, there may be several device lines present in the file.

Alternatively, a device line can contain either of both of the words containers and partitions. The word containers will cause mdadm to look for assem‐
bled CONTAINER arrays and included them as a source for assembling further arrays.

The word partitions will cause mdadm to read /proc/partitions and include all devices and partitions found therein. mdadm does not use the names from
/proc/partitions but only the major and minor device numbers. It scans /dev to find the name that matches the numbers.

If no DEVICE line is present, then "DEVICE partitions containers" is assumed.

For example:

DEVICE /dev/hda* /dev/hdc*
DEV /dev/sd*
DEVICE /dev/disk/by-path/pci*
DEVICE partitions
"Unix is simple. It just takes a genius to understand its simplicity." - Dennis Ritchie

Debian GNU/Linux Anwenderhandbuch | df.de Verhaltensregeln | Anleitungen zum Review und zum Verfassen von Wiki Artikeln.

Benutzeravatar
Lord_Carlos
Beiträge: 5578
Registriert: 30.04.2006 17:58:52
Lizenz eigener Beiträge: GNU Free Documentation License
Wohnort: Dänemark

Re: raid5 degraded

Beitrag von Lord_Carlos » 28.11.2010 18:37:55

ha, das mit dem wildcard geht.
Ich glaube das Problem hat sich damit also erledigt.

Code: Alles auswählen

╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!

Antworten