#RettetMeineAusNichtPornografischenInhaltenBestehndeSammlung

Probleme mit Samba, NFS, FTP und Co.
juergentrings
Beiträge: 16
Registriert: 04.03.2017 11:01:08

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von juergentrings » 06.03.2017 07:09:13

rendegast hat geschrieben:
juergentrings hat geschrieben: und habe das hier vorgefunden.
Das wünscht sich der System-Admin,
Systemcrash beim Rebuild.

Kernel- oder Hardwarefehler? wer weiß.

Du könntest die Platten erstmal an einem anderen System laufen lassen.

Nach dem Rebuild stünde dann eine Prüfung des Datenbestands an.
Kann ich davor versuchen die Platte (sdb) wieder raus zu nehmen und dann erstmal sehen ob ich das Array wieder zum Laufen bringe? Zwischen Ausfall der Platte und meiner Frage sind eine Woche und ca. 100Gb vergangen, die Ganze Sache ist also nicht mehr in Sync! Wenn ich die Platten an einen Anderen Computer anschließen soll muss ich sicher Konfigurationsdatein mit nehmen liege ich da richtig? Und wenn ja welche? Außerdem welches Betriebssystem würdet ihr mir für diese Aufgabe empfehlen?

Grüße Jürgen

Benutzeravatar
weshalb
Beiträge: 1265
Registriert: 16.05.2012 14:19:49

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von weshalb » 06.03.2017 08:15:38

Ich hatte es hier ja schonmal geschrieben, aber ich frage mich immer, warum so viele Leute zu Hause ein Raid aufsetzen. Nicht nur, dass es Plattenkapazität kostet, geht was schief, kann das ganz schön haarig werden, zumal das Groß den Status seiner Raids noch nicht mal mehr checkt. Da dümpeln dann jahrelang irgendwelche NAS Systeme mit 4 Festplatten vor sich hin und wenn dann das Software-XYZ-Raid schrottet, hat man noch nicht mal mehr ein Backup.

Ich fahre deshalb lieber eine gute Backupstrategie und setze das Ding eben neu auf, wenn es sein muss. Wenn man dazu noch virtualisiert, kann man sich auch das sparen.

Es mag auch zu Hause Szenarien geben, wo ein Raid benötigt wird, aber meistens sehe ich das Gegenteil.

Nimm Debian mit Samba und Rsnapshot für die Backups auf die freien Platten und gut ist.

rendegast
Beiträge: 15041
Registriert: 27.02.2006 16:50:33
Lizenz eigener Beiträge: MIT Lizenz

Re: Raid 5 problem

Beitrag von rendegast » 06.03.2017 09:08:25

ARRAY /dev/md0 level=raid5 num-devices=4 metadata=1.2 name=Parkplatz:Daten UUID=cbb0c15c:5402f3f1:04b3c106:f9e3153c
devices=/dev/sdc,/dev/sdd,/dev/sde
Dann 'fail/remove/add' + Crash-Reboot ->
ARRAY /dev/md0 level=raid5 num-devices=4 metadata=1.2 spares=1 name=Parkplatz:Daten UUID=cbb0c15c:5402f3f1:04b3c106:f9e3153c
devices=/dev/sdb,/dev/sdc,/dev/sdd,/dev/sde
+ mdstat "inactive"

Das hinzugefügte device ist erstmal eine spare
(wohl insbesonders, wenn auf ihm ein raid-Header gefunden wurde (= war ehemals raid-Member)
(oder hast Du den Anfang der Platte nochmal aus /dev/zero überschrieben?)),
das raid5 ist damit immer noch degraded, beim Neustart wird es daher nicht aktiviert.
Paßt alles noch zur Beschreibung in der man-page.

Gibt es keine Log-Meldungen über den Assemble-Versuch beim Start des Systems?

Vielleicht ein händisches
--assemble --run
(--assemble --run --force)
?
man-page deute ich dann so, daß sofort der rebuild einsetzen soll,
soll zu beobachten sein in mdstat.

Sollte dabei wieder ein Crash eintreten, so könnte das wegen eines Fehlers der Platte sein
(der wegen eines kernel-Bug zum Crash des Systems führt).




--------------------------------------------------------
niemand hat geschrieben: Tapatalk-Signatur,
Könnte mir denken, daß die smartphone-App das automatisch hinzufügt.

Den deppert geänderten Threadtitel wäre TO jedoch vorzuwerfen.
Kann als walkaround jeder Poster für sein Post aber selber beliebig setzen / nachträglich ändern.
mfg rendegast
-----------------------
Viel Eifer, viel Irrtum; weniger Eifer, weniger Irrtum; kein Eifer, kein Irrtum.
(Lin Yutang "Moment in Peking")

juergentrings
Beiträge: 16
Registriert: 04.03.2017 11:01:08

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von juergentrings » 06.03.2017 15:55:45

Ok habe

Code: Alles auswählen

--assemble --run
ausgeführt undichts ist passiert. Also habe ich noch

Code: Alles auswählen

--force
ran gehauen und immer noch nichts zumindest wenn ich mdstat mache...
Aber wenn ich

Code: Alles auswählen

mdadm -D /dev/md0
mache behauptet er folgendes:

Code: Alles auswählen

root@Parkplatz:~# mdadm -D /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Dec 14 19:13:01 2016
     Raid Level : raid5
  Used Dev Size : -1
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Sat Mar  4 23:40:35 2017
          State : active, degraded, Not Started 
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

           Name : Parkplatz:Daten  (local to host Parkplatz)
           UUID : cbb0c15c:5402f3f1:04b3c106:f9e3153c
         Events : 197714

    Number   Major   Minor   RaidDevice State
       4       8       16        0      spare rebuilding   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       3       8       64        3      active sync   /dev/sde
ist er jetzt am Rebuilden oder ist die Platte Spare?

Danke Rendegast :THX:

rendegast
Beiträge: 15041
Registriert: 27.02.2006 16:50:33
Lizenz eigener Beiträge: MIT Lizenz

Re: Raid 5 problem

Beitrag von rendegast » 06.03.2017 16:01:14

Code: Alles auswählen

# mdadm -D /dev/md0
...
       4       8       16        0      spare rebuilding   /dev/sdb
Das sieht doch nach dem Gewünschten aus.
Jetzt wäre noch herauszubekommen,
ob es doch irgendwie eine explizite Fortschrittsanzeige gibt.

Nach Funden im www soll das in mdstat sein,
Bsp. https://linhost.info/2013/03/monitor-md ... -progress/

Code: Alles auswählen

watch cat /proc/mdstat

Every 2.0s: cat /proc/mdstat                            Tue Mar  5 00:34:35 2013

Personalities : [raid1]
md1 : active raid1 sdc1[1] sdb1[0]
      262011712 blocks super 1.2 [2/2] [UU]
      [>....................]  resync =  3.1% (8126080/262011712) finish=20.7min
 speed=204065K/sec

unused devices: 
Wenn dem nicht so wäre, wäre die obige Ausgabe 'mdadm -D' doch irritierend.
Zuletzt geändert von rendegast am 06.03.2017 22:39:02, insgesamt 2-mal geändert.
mfg rendegast
-----------------------
Viel Eifer, viel Irrtum; weniger Eifer, weniger Irrtum; kein Eifer, kein Irrtum.
(Lin Yutang "Moment in Peking")

juergentrings
Beiträge: 16
Registriert: 04.03.2017 11:01:08

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von juergentrings » 06.03.2017 16:07:45

Ja also entweder lügt das www oder die Sache ist nicht am rebuilden...

Code: Alles auswählen

root@Parkplatz:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : inactive sdc[1] sde[3] sdd[2] sdb[4]
      11720542048 blocks super 1.2
       
unused devices: <none>
Vielleicht muss ich es erst noch irgendwie anstoßen ?

rendegast
Beiträge: 15041
Registriert: 27.02.2006 16:50:33
Lizenz eigener Beiträge: MIT Lizenz

Re: Raid 5 problem

Beitrag von rendegast » 06.03.2017 16:58:53

juergentrings hat geschrieben: Ok habe
--assemble --run
ausgeführt undichts ist passiert. Also habe ich noch
--force
ran gehauen und immer noch nichts
Mache diese nicht weiter hilfreiche Angabe mit Ausgaben / Logs doch etwas gehaltvoller.

mdadm -v ...
mdadm -vv ...
wirkt wohl nur auf '--detail --scan', '--examine --scan',
also Logs!
Zuletzt geändert von rendegast am 06.03.2017 22:39:28, insgesamt 1-mal geändert.
mfg rendegast
-----------------------
Viel Eifer, viel Irrtum; weniger Eifer, weniger Irrtum; kein Eifer, kein Irrtum.
(Lin Yutang "Moment in Peking")

albundy
Beiträge: 83
Registriert: 26.08.2009 19:49:12

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von albundy » 06.03.2017 17:26:46

Hi,

ich hatte mal ein ähnliches Problem bei meinem RAID-1. Da hat trotz, dass es "inactive" war, ein --stop des Raids geholfen und anschließend das assemble mit run. So wie vorher beschrieben.

juergentrings
Beiträge: 16
Registriert: 04.03.2017 11:01:08

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von juergentrings » 06.03.2017 17:40:39

Ok wie empfohlen durchgeführt folgendes wurde empfohlen:

Code: Alles auswählen

root@Parkplatz:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
root@Parkplatz:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
unused devices: <none>
root@Parkplatz:~# mdadm /dev/md0 --assemble --run
mdadm: failed to RUN_ARRAY /dev/md0: Input/output error
mdadm: Not enough devices to start the array while not clean - consider --force.
habe Force gemacht aber jetzt ist es wie zuvor:

Code: Alles auswählen

root@Parkplatz:~# mdadm /dev/md0 --assemble --run --force
root@Parkplatz:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : inactive sdc[1] sde[3] sdd[2] sdb[4]
      11720542048 blocks super 1.2
       
unused devices: <none>
Kann ich irgendwie mit mdcdm das ganze ohne sdb starten und dann sdb einfach rebuilden?
Wo finde ich die Logs? Das einzigste was ich finde ist das hier:

Code: Alles auswählen

root@Parkplatz:~# mdadm --detail --scan
ARRAY /dev/md0 metadata=1.2 spares=1 name=Parkplatz:Daten UUID=cbb0c15c:5402f3f1:04b3c106:f9e3153c

DeletedUserReAsG

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von DeletedUserReAsG » 06.03.2017 18:04:55

Könnte mir denken, daß die smartphone-App das automatisch hinzufügt.
Lässt sich abschalten.


Gesendet von T400 mit Firefox

rendegast
Beiträge: 15041
Registriert: 27.02.2006 16:50:33
Lizenz eigener Beiträge: MIT Lizenz

Re: Raid 5 problem

Beitrag von rendegast » 06.03.2017 22:51:57

juergentrings hat geschrieben: # mdadm --stop /dev/md0
mdadm: stopped /dev/md0
...
# mdadm /dev/md0 --assemble --run
mdadm: failed to RUN_ARRAY /dev/md0: Input/output error
mdadm: Not enough devices to start the array while not clean - consider --force.

Was hier klappt,
/dev/md127 resp. /dev/md/m100 aus 4 devices:

Code: Alles auswählen

# mdadm --stop /dev/md127
... capacity change ...
... stopped
... unbind ...
... unbind ...
...
# cat /dev/zero > /dev/sdb
# mdadm -A m100
...
(nun ist ein fehlendes device erzeugt, das raid ist laufend 'State: clean, degraded')

# mdadm --add /dev/md127 /dev/sdb
(rebuild/recovery wird direkt vollzogen, alle 4 devices sind danach 'active sync', 'State: clean')
mfg rendegast
-----------------------
Viel Eifer, viel Irrtum; weniger Eifer, weniger Irrtum; kein Eifer, kein Irrtum.
(Lin Yutang "Moment in Peking")

BenutzerGa4gooPh

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von BenutzerGa4gooPh » 07.03.2017 07:29:35

:suche:
Die Suche ergab 67 Treffer: Porno
Nennt man wohl Diversifikation (des Forums). Bildersuchfunktion?! :mrgreen:
MeineAusNichtPornografischenInhaltenBestehndeSamm[lung]
Behauptet jeder ...

juergentrings
Beiträge: 16
Registriert: 04.03.2017 11:01:08

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von juergentrings » 07.03.2017 09:09:51

Jana66 hat geschrieben::suche:
Die Suche ergab 67 Treffer: Porno
Nennt man wohl Diversifikation (des Forums). Bildersuchfunktion?! :mrgreen:
MeineAusNichtPornografischenInhaltenBestehndeSamm[lung]
Behauptet jeder ...
Vielen Dank für deine Antwort. Ich behaupte nicht das meine Sammlung "Jugendfrei" ist aber der Moderator Zensiert den Spaß sofort.
Ich wäre aber erfreut wenn diese Grundsatzdiskussion jetzt endlich beendet wird und nur noch zum Thema relevante Antworten gepostet werden.
@rendegast Ich werde das sobald ich Feierabend habe ausführen vielen Dank

juergentrings
Beiträge: 16
Registriert: 04.03.2017 11:01:08

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von juergentrings » 07.03.2017 21:02:05

Ok Ausgangslage ist jetzt das md0 Inaktiv ist.

Code: Alles auswählen

cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : inactive sdc[1](S) sde[3](S) sdd[2](S)
      8790406536 blocks super 1.2
       
unused devices: <none>
Wenn ich versuche sdb wieder hinzuzufügen:

Code: Alles auswählen

root@Parkplatz:~# mdadm --add /dev/md0 /dev/sdb
mdadm: cannot get array info for /dev/md0
Es muss doch irgendwie einen Weg geben das Raid mit nur drei Platten zu starten oder wenigstens das Rebuilden zu starten oder habe ich da das Prinzip von Raid 5 nicht verstanden?

rendegast
Beiträge: 15041
Registriert: 27.02.2006 16:50:33
Lizenz eigener Beiträge: MIT Lizenz

Re: Raid 5 problem

Beitrag von rendegast » 07.03.2017 22:46:25

... sdc[1](S) sde[3](S) sdd[2](S)
nach www sind die drei verbliebenen Platten jetzt spare, Aua.
Zuletzt geändert von rendegast am 08.03.2017 02:23:15, insgesamt 1-mal geändert.
mfg rendegast
-----------------------
Viel Eifer, viel Irrtum; weniger Eifer, weniger Irrtum; kein Eifer, kein Irrtum.
(Lin Yutang "Moment in Peking")

juergentrings
Beiträge: 16
Registriert: 04.03.2017 11:01:08

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von juergentrings » 07.03.2017 22:48:05

rendegast hat geschrieben:
... sdc[1](S) sde[3](S) sdd[2](S)
nach www sind die drei Platten jetzt spare, Aua.
Ich weiß auch nicht habe jetzt erbot und jetzt sieht es so aus:

Code: Alles auswählen

root@Parkplatz:~# mdadm -D /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Dec 14 19:13:01 2016
     Raid Level : raid5
  Used Dev Size : -1
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Tue Mar  7 22:30:38 2017
          State : active, degraded, Not Started 
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

           Name : Parkplatz:Daten  (local to host Parkplatz)
           UUID : cbb0c15c:5402f3f1:04b3c106:f9e3153c
         Events : 197716

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       3       8       64        3      active sync   /dev/sde

       4       8       16        -      spare   /dev/sdb
wenn ich bloß wüsste wie ich dem mdcdm erkläre das sdb die Platte 0 ist und nicht spare!

inne
Beiträge: 3273
Registriert: 29.06.2013 17:32:10
Lizenz eigener Beiträge: GNU General Public License
Kontaktdaten:

[entfernt]

Beitrag von inne » 07.03.2017 23:33:28

Was sagt den jetzt aktuell /proc/mdstat?

Auf eigene Gefahr!

mdadm --assemble /dev/mdX --update=resync

The resync option will cause the array to be marked dirty meaning that any redundancy in the array (e.g. parity for RAID5, copies for RAID1) may be incorrect. This will cause the RAID system to perform a "resync" pass to make sure that all redundant information is correct.

Vorher würde ich aber als letzten Versuch das RAID starten/mounten und mal schauen ob da noch Daten sind und diese dann auf eine andere Platte als Backup sichern. Ein RAID ist eh kein Backup für Datensicherheit, sondern höstens ein Schutz gegen Hardwareausfälle. Also wenn man mehr Performace oder Dauerberieb/keinen Ausfall in der Erreichbarkeit/Verfügbarkeit haben will ;-) Muss man manchmal schmerzhaft feststellen.

Aber warte noch was andere Raten (rendegast) ich kenne RAID5 nicht wirklich und was passiert wenn eine du das im jetzigen Zustand startest, musst du selbst eruieren.

Just my ¢
Zuletzt geändert von Anonymous am 08.03.2017 00:23:38, insgesamt 4-mal geändert.

juergentrings
Beiträge: 16
Registriert: 04.03.2017 11:01:08

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von juergentrings » 07.03.2017 23:38:33

inne hat geschrieben:Was sagt den jetzt aktuell /proc/mdstat?

Auf einen Gefahr!

mdadm --assemble /dev/mdX --update=resync

The resync option will cause the array to be marked dirty meaning that any redundancy in the array (e.g. parity for RAID5, copies for RAID1) may be incorrect. This will cause the RAID system to perform a "resync" pass to make sure that all redundant information is correct.

Vorher würde ich aber als letzten Versuch das RAID starten/mounten und mal schauen ob da noch Daten sind und diese dann auf eine andere Platte als Backup sichern. Ein RAID ist eh kein Backup für Datensicherheit, sondern nur ein Schutz gegen Hardwareausfälle. Also wenn man mehr Performace oder Dauerberieb/keinen Ausfall in der Erreichbarkeit/Verfügbarkeit haben will ;-) Muss man manchmal schmerzhaft feststellen.

Aber warte noch was andere Raten (rendegast) ich kenne RAID5 nicht wirklich und was passiert wenn eine du das im jetzigen Zustand startest, musst du selbst eruieren.

Just my ¢
Danke für die Hilfe!
Wenn ich es jetzt starten würde müsste es eigentlich funktionieren! Es hat ja schließlich auch funktioniert bevor ich die Frage gestellt hatte (also am Freitag) Ich habe nur keine Ahnung wie ich es Starten soll!

inne
Beiträge: 3273
Registriert: 29.06.2013 17:32:10
Lizenz eigener Beiträge: GNU General Public License
Kontaktdaten:

[entfernt]

Beitrag von inne » 08.03.2017 00:01:36

Genaugenommen ist das RAID gestartet, denn das Device ist doch vorhanden? Du musst es nur mounten (Auf eigene Gefahr). Wenn das, wie du sagst, in diesem Zustand nicht schädlich ist.

Benutzeravatar
TRex
Moderator
Beiträge: 8040
Registriert: 23.11.2006 12:23:54
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: KA

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von TRex » 08.03.2017 08:40:15

An der Stelle, wo das Raid eigentlich funktionsfähig aussieht (3/4 sind ja eigentlich genug), würde ich mich um ein Backup kümmern. Falls einer meint, dass Raid kein Backup ist: das ist einer der Gründe ;)

Wenn deine 9TB noch nicht voll sind, tuts vermutlich ne 8TB Archive HDD. So eine hab ich für den Zweck auch.
Jesus saves. Buddha does incremental backups.
Windows ist doof, Linux funktioniert nichtDon't break debian!Wie man widerspricht

rendegast
Beiträge: 15041
Registriert: 27.02.2006 16:50:33
Lizenz eigener Beiträge: MIT Lizenz

Re: Raid 5 problem

Beitrag von rendegast » 08.03.2017 11:28:44

Ein weiterer Test, raid5 /dev/md127, 4 devices sd[bcde], kein Eintrag mdadm.conf.
Darauf ein ext4 mit Testdatei über das ganze raid.

Alle devices per --fail auf (F) gesetzt.

Code: Alles auswählen

mdadm --fail /dev/md127 /dev/sdX
Nach Neustart sind alle (S), das raid ist ein raid0 und 'inactive'.

Herumprobiert mit '--add' + Co., aber nicht mehr von diesem Status "alle (S) / inactive" weggekommen.
Das Raid gestoppt.

Code: Alles auswählen

mdadm -S /dev/md127
Ein neues degraded raid5 erstellt

Code: Alles auswählen

mdadm -C /dev/md128 -n 4 -l 5 /dev/sdb /dev/sdc missing /dev/sde
, die Nachfrage "raid-Data gefunden. Überschreiben?" mit 'y' bestätigt.
-> 3 'active sync', eines 'removed'.

Mount des raid5 /dev/md128 und Test der Testdatei okay. (!!!!)

Leeren der sdd und Hinzufügen

Code: Alles auswählen

cat /dev/zero > /dev/sdd
mdadm --add /dev/md128 /dev/sdd
Resync läuft durch und alle 4 'active sync', das raid5 'clean'.

Das neu erstellte raid hat natürlich eine neue UUID.
Eine Beobachtung: Nach Neustart ist das raid nicht mehr md128, sondern wieder md127(?)



-------------------------------------------------------------
EDIT Ups, nicht ausprobiert habe ich das "Verwürfeln" beim Zusammenstellen derart
'... /dev/sde missing /dev/sdb /dev/sdc'
EDIT "Verwürfeln" ist gar nicht gut, es existiert wohl kein Automatismus, das gefundene passend zu übernehmen,
ein ext4 wird zwar noch erkannt, Mounten schlägt aber fehl.
Das "verwürfelte" kann aber nach obigem Muster wieder aufgelöst und in korrekter Reihenfolge neu angelegt werden.



Anmerkung---------------------------------------------
Bei meinen Versuchen in der VM haben gelegentlich die devices sdX gewechselt,
'mdadm -D' und mdstat waren also zu interpretieren ('blkid').
Die Benutzung auf dem unpartionierten Datenträger sdX trägt da zur Verwirrung bei.
Hilfreich wäre allein hieraus also die Benutzung von Partitionen sdXY
(bei klassischen logischen kommt eine Numerierung leider nur durch Anlage vorheriger,
dagegen unter gpt als Partitionierungsschema kann in fdisk direkt Numer 1-128 angegeben werden), derart
/dev/sdX10
/dev/sdY11
/dev/sdZ12
...
mfg rendegast
-----------------------
Viel Eifer, viel Irrtum; weniger Eifer, weniger Irrtum; kein Eifer, kein Irrtum.
(Lin Yutang "Moment in Peking")

juergentrings
Beiträge: 16
Registriert: 04.03.2017 11:01:08

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von juergentrings » 08.03.2017 14:40:43

Vielen Dank @rendegast Habe ein Neues Array erstellt und gemounted alle Daten noch da und auch als ich die Platte wieder ge-added habe sagt er das er resynct!

Code: Alles auswählen

root@Parkplatz:/media/save# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md133 : active raid5 sdb[4](F) sde[3] sdd[2] sdc[1]
      8790405120 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [_UUU]
      [>....................]  recovery =  0.0% (7304/2930135040) finish=2003643.1min speed=24K/sec
      
unused devices: <none>
Einzigstes Problem: Er kommt nicht voran! er setzt bloß die Geschwindigkeit immer tiefer!
EDIT:
habe mal in /log/messages geguckt:

Code: Alles auswählen

Mar  8 14:36:27 Parkplatz kernel: [ 2224.375249] sd 2:0:0:0: [sdb] CDB: Write(10): 2a 00 00 05 0a c0 00 04 00 00
Mar  8 14:36:27 Parkplatz kernel: [ 2224.375465] sd 2:0:0:0: [sdb] Unhandled error code
Mar  8 14:36:27 Parkplatz kernel: [ 2224.375472] sd 2:0:0:0: [sdb]  Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
Mar  8 14:36:27 Parkplatz kernel: [ 2224.375482] sd 2:0:0:0: [sdb] CDB: Write(10): 2a 00 00 05 0e c0 00 01 28 00
Teste jetzt erstmal ob die Platte überhaupt noch geht.
Zuletzt geändert von juergentrings am 08.03.2017 15:03:14, insgesamt 1-mal geändert.

Radfahrer

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von Radfahrer » 08.03.2017 15:01:32

juergentrings hat geschrieben:Ich wäre aber erfreut wenn diese Grundsatzdiskussion jetzt endlich beendet wird und nur noch zum Thema relevante Antworten gepostet werden.
Dann würde ich dir raten, endlich diesen albernen Titel durch einen aussagekräftigen zu ersetzen.
Dann hätten vielleicht auch Leute, die ein ähnliches Problem haben die Chance, diesen Thread durch eine Suche im Forum oder mittels einer Suchmaschine zu finden. :wink:

Benutzeravatar
TRex
Moderator
Beiträge: 8040
Registriert: 23.11.2006 12:23:54
Lizenz eigener Beiträge: MIT Lizenz
Wohnort: KA

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von TRex » 08.03.2017 15:16:25

Im worst case shredderst du dir deine Daten (wenn du die falsche Parität schreibst, hast du nachher zwei Wahrheiten).
Never continue remedial actions after it becomes known that more than one disk drive has a fault; if this is the case you must seek professional data recovery help
http://www.recover-raid.com/failed-RAID-help.html
Jesus saves. Buddha does incremental backups.
Windows ist doof, Linux funktioniert nichtDon't break debian!Wie man widerspricht

juergentrings
Beiträge: 16
Registriert: 04.03.2017 11:01:08

Re: #RettetMeineAusNichtPornografischenInhaltenBestehndeSamm

Beitrag von juergentrings » 08.03.2017 15:18:44

Das Array ist gemounted und Ich Sichere gerade Die Daten (sind nur 2,5 TB)! Die eine Platte scheint aber wirklich irgendwie ne Macke zu haben...

Antworten