[Tip] BackupPC beschleunigen

Einrichten des lokalen Netzes, Verbindung zu anderen Computern und Diensten.
Antworten
Benutzeravatar
heisenberg
Beiträge: 3542
Registriert: 04.06.2015 01:17:27
Lizenz eigener Beiträge: MIT Lizenz

[Tip] BackupPC beschleunigen

Beitrag von heisenberg » 29.11.2017 09:58:53

Hallo zusammen,

ein paar Tips für alle, die zur Sicherung im Netzwerk BackupPC einsetzen:

Reduktion von vielen kleinen Dateien

Es kostet bei BackupPC vor allem sehr viel Performance, wenn eine grosse Zahl von Dateien gesichert wird. Ich habe hier z. B. mehrere Systeme die ca. 4 Mio kleinste Dateien haben. Die Sicherung dauert aufgrund dieser Eigenschaft und zusätzlicher anderer Faktoren bis zu 30 Stunden.

BackupPC(rsync) schaut bei der Sicherung jede Datei an das braucht bei mehreren Millionen Dateien seine Zeit. Zusätzlich belastet es den BackupPC-Server, der bei der Rotation und Löschung von Backupsätzen auch wieder prüfen muss, welch Dateien denn nun alle zu löschen sind. Umso mehr Dateien es insgesamt sind, umso aufwändiger ist dieses Bereinigen.

Die eigene Lösung war hier, die Verzeichnisse lokal auf den Systemen zu sichern(tar+bzip2), die Originaldaten von der BackupPC-Sicherung auszuschliessen und nur die gepackten + komprimierten Dateien dann zu sichern. BZIP2 deswegen, weil das auch bei maximaler Kompression recht wenig RAM benötigt im Vergleich zu xz. Zur Verminderung der Backup-I/O auf den Servern wird alle 2 Monate ein Vollbackup durchgeführt und sonst wöchentlich(wöchentliches Backup reicht bei den vorliegenden Daten) ein Differenzbackup, das jeweils überschrieben wird.

Damit wird die Arbeit vom BackupPC-Server auf den zu sichernenden Server verlagert und der Sicherungsdurchsatz steigt so enorm.

Zwischenspeicherung der Prüfsummen

BackupPC wendet bei der Sicherung auch Deduplizierung an. D. h. es werden bei der Sicherung Dateien, die mehrfach und identisch im Backup-Pool vorhanden sind nur einmal gespeichert. Die Ersparnis hierbei ist enorm. Hier ein Beispiel, bei dem der Speicherplatzverbrauch der Dateien und des Platzes mit Duplikaten mal gezählt wurde:

Code: Alles auswählen

Processed files:                       231,071,765
Files with duplicates:                  21,824,018
Duplicate files:                       230,981,091
Saved Space due to hardlinking: 12,826,217,232,475
Used Space on disk:              4,321,123,213,244
D. h. bei einem tatsächlichen Speicherverbrauch(komprimiert) von ca. 4 TB wären ohne Deduplikation ca. 16 TB fällig gewesen. Die Daten sind hier Serversicherungen.

Doch diese Deduplizierung kostet. Im Fall von BackupPC 3 werden dabei immer wieder die Prüfsummen im Backup-Pool neu berechnet und bei den Backups mit dem gegen geprüft, was vom zu sichernden Server kommt. D. h. das erzeugt eine grosse Menge I/O-Operationen zusätzlich.

Man kann jedoch BackupPC auch anweisen die Prüfsummen zu cachen. Lt. diversen Fundstellen wird diese Einstellung dann bei der übernächsten Vollsicherung wirksam.

Dazu muss in der allgemeinen Konfiguration bei RsyncRestoreArgs und RsyncArgs die Option --checksum-seed=32761 hinzugefügt werden. Diese Option soll aber auch viel RAM zusätzlich benötigen. In welcher Grössenordnung, kann ich selbst nicht sagen. Ich würde mal unqualifiziert ins Blaue raten, dass es bei mindestens 1 GB pro 50 Mio Dateien liegt.

Umstieg auf BackupPC 4

Bei BackupPC 4, was wohl um einiges performanter ist, aber noch nicht in den offiziellen Debian-Paketquellen verfügbar, gibt es die Einstellung --checksum-seed=32761 nicht mehr. Hier werden die Checksummen wohl grundsätzlich nur von den zu sichernden Servern erstellt und nicht mehr auf dem Server. Insofern ist BackupPC 4 auch grundsätzlich ein Tip, wenn man mehr aus dem Server rausholen möchte.

Im Übrigen ist BackupPC in vielerlei Hinsicht ähnlich, wenn auch unter der Haube viel verändert wurde. Das Webinterface ist mal grundsätzlich gleich hässlich und funktional im CGI-Modus geblieben, was aber im Betrieb die Basisbedürfnisse durchaus gut befriedigt. Dass da jetzt ein hübscheres CSS dahinter ist, ist nur eine kleine visuelle Änderung. Insofern erfordert der Umstieg auf die neue Version kaum die intensive Beschäftigung mit der Software.
Jede Rohheit hat ihren Ursprung in einer Schwäche.

Colttt
Beiträge: 2986
Registriert: 16.10.2008 23:25:34
Wohnort: Brandenburg
Kontaktdaten:

Re: [Tip] BackupPC beschleunigen

Beitrag von Colttt » 29.11.2017 14:51:33

ab ins Wiki damit ;)

bei der Datenmenge denke ich, dass es nicht im Home-office bereich ist?! Warum zum geier nimmst du da BackupPC und nicht beispielsweise Bares? Gibts dafür eine guten Grund?
Debian-Nutzer :D

ZABBIX Certified Specialist

Benutzeravatar
heisenberg
Beiträge: 3542
Registriert: 04.06.2015 01:17:27
Lizenz eigener Beiträge: MIT Lizenz

Re: [Tip] BackupPC beschleunigen

Beitrag von heisenberg » 29.11.2017 15:02:53

Nein, dass ist nicht mehr Homeoffice.
Warum zum geier nimmst du da BackupPC und nicht beispielsweise Bares? Gibts dafür eine guten Grund?
"Bares?" Du meinst BareOS? Na ganz einfach: Wegen der Deduplizierung. BareOS dedupliziert nicht global sondern afaik nur pro Server. Wie Du oben siehst, macht das eine Menge aus.
Jede Rohheit hat ihren Ursprung in einer Schwäche.

Benutzeravatar
heisenberg
Beiträge: 3542
Registriert: 04.06.2015 01:17:27
Lizenz eigener Beiträge: MIT Lizenz

Re: [Tip] BackupPC beschleunigen

Beitrag von heisenberg » 14.12.2017 11:40:16

Ich wollte eigentlich mal die Platzsparstatistiken für andere Server nachliefern. Aber der find über die riesige Menge an Dateien dauert noch an. Bzw. musste wegen Server reboots mal unterbrochen werden. :) Kommt noch. Die Liste(inum,size,link-count) der doppelten Dateien auf dem einen System ist schon 16 GB gross...
Jede Rohheit hat ihren Ursprung in einer Schwäche.

slu
Beiträge: 2145
Registriert: 23.02.2005 23:58:47

Re: [Tip] BackupPC beschleunigen

Beitrag von slu » 14.12.2017 14:56:24

@ heisenberg,

wie hast Du BackupPC 4 installiert, aus dem Git?
So schade das es keine Debian Packete gibt.
Gruß
slu

Das Server Reinheitsgebot:
Debian Bookworm, sonst nichts.

Stolzer Gewinner der Jessie Release Wette:
https://wiki.debianforum.de/Jessie_Release_Wette#SIEGER

Benutzeravatar
heisenberg
Beiträge: 3542
Registriert: 04.06.2015 01:17:27
Lizenz eigener Beiträge: MIT Lizenz

Re: [Tip] BackupPC beschleunigen

Beitrag von heisenberg » 14.12.2017 17:52:45

Ich verwende noch BackupPC 3.

für BackupPC4 gibt's irgendwo im Netz oder auch bei BackupPC selbst eine Anleitung.
Jede Rohheit hat ihren Ursprung in einer Schwäche.

slu
Beiträge: 2145
Registriert: 23.02.2005 23:58:47

Re: [Tip] BackupPC beschleunigen

Beitrag von slu » 14.12.2017 17:55:37

Ah ok, das hätte mich interessiert.
Hatte auch lange Zeit BackupPC im Einsatz, arbeite aber gerade mit Debianrsbackup.
Gruß
slu

Das Server Reinheitsgebot:
Debian Bookworm, sonst nichts.

Stolzer Gewinner der Jessie Release Wette:
https://wiki.debianforum.de/Jessie_Release_Wette#SIEGER

Colttt
Beiträge: 2986
Registriert: 16.10.2008 23:25:34
Wohnort: Brandenburg
Kontaktdaten:

Re: [Tip] BackupPC beschleunigen

Beitrag von Colttt » 14.12.2017 20:01:21


heisenberg hat geschrieben:Nein, dass ist nicht mehr Homeoffice.

"Bares?" Du meinst BareOS? Na ganz einfach: Wegen der Deduplizierung. BareOS dedupliziert nicht global sondern afaik nur pro Server. Wie Du oben siehst, macht das eine Menge aus.
Ja genau Bareos ;)
Ok das dedublizieren ist natürlich ein guter Grund, aber Platten kosten doch heutzutage nichts mehr und mit dem passendem Dateisystem da drunter kann man auch so dedublizieren.
Aber davon ab ist BackupPC schnarch langsam was das Sichern angeht (war zumindest früher so).
Debian-Nutzer :D

ZABBIX Certified Specialist

Benutzeravatar
heisenberg
Beiträge: 3542
Registriert: 04.06.2015 01:17:27
Lizenz eigener Beiträge: MIT Lizenz

Re: [Tip] BackupPC beschleunigen

Beitrag von heisenberg » 14.12.2017 23:38:20

Colttt hat geschrieben: ↑ zum Beitrag ↑
14.12.2017 20:01:21
...und mit dem passendem Dateisystem da drunter kann man auch so deduplizieren.
Du redest von ZFS Dedup? Hast Du da Erfahrungen? Wieviel RAM braucht das denn wirklich? Wieviel Performance frisst das?

In der Doku wird das seeehr kritisch betrachtet.

BackupPC skaliert genau wegen Dedup nur bis zu einer gewissen Poolgrösse gut. Könnte mir vorstellen, dass das hier ähnliche Probleme geben könnte, obwohl das natürlich etwas ganz anderes ist.
Aber davon ab ist BackupPC schnarch langsam was das Sichern angeht (war zumindest früher so).
Bin eigentlich ganz zufrieden. Nur wenn sehr viele(ab 1 Mio aufwärts) kleine Dateien zu sichern sind, bricht die Geschwindigkeit sehr ein. Habe das so gelöst - hässlich weil Zusatzaufwand - das ich lokale tars erstellt habe, und dann die Verzeichnisse aus der Sicherung ausgeschlossen habe.

Praktischerweise nutzt aber sowohl das lokale tar-Script als auch BackupPC die gleiche Konfigdatei auf dem zu sichernden Server für die Sicherung bzw den Ausschluss.
Jede Rohheit hat ihren Ursprung in einer Schwäche.

Antworten