"irritiertes" RAID1-Array auf DEBIAN12-Server

Probleme mit Samba, NFS, FTP und Co.
Antworten
Pontus
Beiträge: 21
Registriert: 17.12.2019 23:18:27

"irritiertes" RAID1-Array auf DEBIAN12-Server

Beitrag von Pontus » 26.08.2023 22:42:39

Hallo, zusammen.

In der /var/log/syslog meines heimischen DEBIAN-Servers (bookworm) sehe ich seit
einigen Wochen diese Meldungen:

Code: Alles auswählen

2023-08-26T13:34:15.211001+02:00 srv1 systemd[1]: Started mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
2023-08-26T13:34:15.211024+02:00 srv1 systemd[1]: mdadm-last-resort@md0.timer: Deactivated successfully.
2023-08-26T13:34:15.211030+02:00 srv1 systemd[1]: Stopped mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
2023-08-26T13:34:15.211359+02:00 srv1 systemd[1]: Starting mdadm-shutdown.service - Prepare mdadm shutdown initramfs...
2023-08-26T13:34:15.211544+02:00 srv1 systemd[1]: Finished mdadm-shutdown.service - Prepare mdadm shutdown initramfs.
Irritierend für mich ist die Meldung
Stopped mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0.
Das Array md0 ist ein RAID1 mit zwei SATA SSD. Und allem Anschein nach ist mit diesem Array alles in Ordnung.
Schauen wir hier:

Code: Alles auswählen

mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Mar 23 19:08:09 2023
        Raid Level : raid1
        Array Size : 4000653312 (3.73 TiB 4.10 TB)
     Used Dev Size : 4000653312 (3.73 TiB 4.10 TB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sat Aug 26 19:21:33 2023
             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : srv1:0  (local to host srv1)
              UUID : 8bc4083f:89a4d247:fcd65b61:78e8ce92
            Events : 5030

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
Dies wird auch hierdurch bestätigt:

Code: Alles auswählen

mdadm --examine /dev/sda1
/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 8bc4083f:89a4d247:fcd65b61:78e8ce92
           Name : srv1:0  (local to host srv1)
  Creation Time : Thu Mar 23 19:08:09 2023
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 8001306624 sectors (3.73 TiB 4.10 TB)
     Array Size : 4000653312 KiB (3.73 TiB 4.10 TB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
   Unused Space : before=264112 sectors, after=0 sectors
          State : clean
    Device UUID : 74d760f7:fbd1f6e0:d5f32642:e1169b78

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Aug 26 19:21:33 2023
  Bad Block Log : 512 entries available at offset 24 sectors
       Checksum : dd49ab65 - correct
         Events : 5030


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

mdadm --examine /dev/sdb1
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 8bc4083f:89a4d247:fcd65b61:78e8ce92
           Name : srv1:0  (local to host srv1)
  Creation Time : Thu Mar 23 19:08:09 2023
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 8001306624 sectors (3.73 TiB 4.10 TB)
     Array Size : 4000653312 KiB (3.73 TiB 4.10 TB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
   Unused Space : before=264112 sectors, after=0 sectors
          State : clean
    Device UUID : bba543f9:54da186f:8047aedb:bb4ac4e4

Internal Bitmap : 8 sectors from superblock
    Update Time : Sat Aug 26 19:21:33 2023
  Bad Block Log : 512 entries available at offset 24 sectors
       Checksum : 72ff098c - correct
         Events : 5030


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)


Wie man sehen kann, ist dies der Stand von heute, 26.08.2023, 19:21:33h.

Nach einem Neustart um 21:27:48h tauchen in /var/log/syslog diese Meldungen auf:

Code: Alles auswählen

2023-08-26T21:27:48.260356+02:00 srv1 systemd[1]: Started mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
2023-08-26T21:27:48.260548+02:00 srv1 systemd[1]: Starting mdadm-shutdown.service - Prepare mdadm shutdown initramfs...
2023-08-26T21:27:48.260586+02:00 srv1 systemd[1]: Finished mdadm-shutdown.service - Prepare mdadm shutdown initramfs.
2023-08-26T21:27:54.815573+02:00 srv1 systemd[1]: Created slice system-mdadm\x2dlast\x2dresort.slice - Slice /system/mdadm-last-resort.
2023-08-26T21:27:54.815742+02:00 srv1 systemd[1]: mdadm-last-resort@md0.service - Activate md array md0 even though degraded was skipped because of an unmet condition check (ConditionPathExists=!/sys/devices/virtual/block/md0/md/sync_action).

Code: Alles auswählen

root@srv1:~# mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Mar 23 19:08:09 2023
        Raid Level : raid1
        Array Size : 4000653312 (3.73 TiB 4.10 TB)
     Used Dev Size : 4000653312 (3.73 TiB 4.10 TB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sat Aug 26 21:33:46 2023
             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : srv1:0  (local to host srv1)
              UUID : 8bc4083f:89a4d247:fcd65b61:78e8ce92
            Events : 5032

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1

Die weiter oben stehende Meldung
Stopped mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
verstehe ich auch nicht so ganz. Das Array bestand vom Zeitpunkt seiner Erstellung an stets aus zwei HDDs
/dev/sda1 und /dev/sdb1. Laut Meldungstext wartet das system auf das aktiv werden von weiteren Laufwerken -
dies natürlich stets vergeblich.

Beim Filtern mit Grep aud "md0" gibt es diese Meldungen:

Code: Alles auswählen

2023-08-26T21:27:48.260356+02:00 srv1 systemd[1]: Started mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
2023-08-26T21:27:48.267470+02:00 srv1 kernel: [    5.441957] md/raid1:md0: active with 2 out of 2 mirrors
2023-08-26T21:27:48.267474+02:00 srv1 kernel: [    5.454637] md0: detected capacity change from 0 to 8001306624
2023-08-26T21:27:48.267482+02:00 srv1 kernel: [   28.707181] EXT4-fs (md0): mounted filesystem with ordered data mode. Quota mode: none.
2023-08-26T21:27:54.815742+02:00 srv1 systemd[1]: mdadm-last-resort@md0.service - Activate md array md0 even though degraded was skipped because of an unmet condition check (ConditionPathExists=!/sys/devices/virtual/block/md0/md/sync_action).
Bemerkenswert für mich ist diese Meldung:
md0: detected capacity change from 0 to 8001306624
Beim Systemstart wird demnach jedesmal aufs Neue die Laufwerkskapazität auf den neuen (= richtigen) Wert hinaufgesetzt. Warum auch immer?

Die Meldungen von 21:27:xx könnten verleiten daran zu glauben, dass die dort beschriebene Aktion nachhaltig ist. Das ist sie jedoch nicht.
Siehe hier:

Code: Alles auswählen

2023-08-26T22:13:53.976358+02:00 srv1 kernel: [    5.970968] md/raid1:md0: active with 2 out of 2 mirrors
2023-08-26T22:13:53.976363+02:00 srv1 kernel: [    5.981287] md0: detected capacity change from 0 to 8001306624
2023-08-26T22:13:53.976400+02:00 srv1 kernel: [    6.348060] EXT4-fs (md0): mounted filesystem with ordered data mode. Quota mode: none.
2023-08-26T22:13:53.978664+02:00 srv1 systemd[1]: Started mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
2023-08-26T22:13:53.979781+02:00 srv1 systemd[1]: mdadm-last-resort@md0.timer: Deactivated successfully.
2023-08-26T22:13:53.979789+02:00 srv1 systemd[1]: Stopped mdadm-last-resort@md0.timer - Timer to wait for more drives before activating degraded array md0..
Vielleicht kann jemand der hier Mitlesenden mehr damit anfangen als ich? Im optimalen Fall sogar sagen,
in welcher Form ich hier aktiv werden sollte. Das würde einen DEBIAN-User auf diesem Planeten sehr freuen.

Vielen Dank an alle, die bis hierher mitgelesen haben.

Viele Grüße
Uwe

Benutzeravatar
whisper
Beiträge: 3193
Registriert: 23.09.2002 14:32:21
Lizenz eigener Beiträge: GNU Free Documentation License
Kontaktdaten:

Re: "irritiertes" RAID1-Array auf DEBIAN12-Server

Beitrag von whisper » 12.11.2023 21:21:49

Sehr viel Informationen.
Was sagt denn cat /proc/mdstat ?
Das mache ich immer zuerst,

ups, sorry, das ist ja schon lange her, der post

Antworten