borgbackup
- Kommandozeile
- Deduplikation
- Verschlüsselung
- hohe Geschwindigkeit
- Backups kann man mounten
- Einfach zu benutzen
rdiff-backupheisenberg hat geschrieben:14.12.2017 21:03:04Was habt Ihr für Programme zur Datensicherung im Einsatz?
/home, /etc und spezielle Partitionen (z.B. Fotosammlung)
Es ist einfach und dennoch mächtig
Es ist einfach und man muss trotzdem die man pages genau lesen wenn man was ganz bestimmtes erreichen will.
Hallo Jens,JensArch hat geschrieben:02.03.2020 17:22:01Für ein lokal angeschlossenes Backup-Medium (zweite Festplatte, bzw. ein USB-Stick) empfehle ich https://github.com/Fitus/Zaloha.sh. Es ist einfach zu benutzen, und man hat Kontrolle über was gemacht wird.
Das hast du aber sehr diplomatisch ausgedrückt.heisenberg hat geschrieben:03.03.2020 02:07:34Aus persönlicher Schmerzvermeidungstrategie gehe ich Shellscripten ab 200 Zeilen lieber aus dem Weg
Nicht gerade gerecht wird.Zaloha is a small and simple directory synchronizer
Code: Alles auswählen
f000="${metaDir}${f000Base}"
f100="${metaDir}${f100Base}"
f102="${metaDir}${f102Base}"
f104="${metaDir}${f104Base}"
f106="${metaDir}${f106Base}"
f110="${metaDir}${f110Base}"
f130="${metaDir}${f130Base}"
f150="${metaDir}${f150Base}"
f170="${metaDir}${f170Base}"
f190="${metaDir}${f190Base}"
f200="${metaDir}${f200Base}"
f210="${metaDir}${f210Base}"
f220="${metaDir}${f220Base}"
f300="${metaDir}${f300Base}"
f310="${metaDir}${f310Base}"
f320="${metaDir}${f320Base}"
f330="${metaDir}${f330Base}"
f340="${metaDir}${f340Base}"
f350="${metaDir}${f350Base}"
f360="${metaDir}${f360Base}"
f370="${metaDir}${f370Base}"
f380="${metaDir}${f380Base}"
f390="${metaDir}${f390Base}"
f405="${metaDir}${f405Base}"
f410="${metaDir}${f410Base}"
f420="${metaDir}${f420Base}"
f430="${metaDir}${f430Base}"
f490="${metaDir}${f490Base}"
f500="${metaDir}${f500Base}"
f505="${metaDir}${f505Base}"
f510="${metaDir}${f510Base}"
f520="${metaDir}${f520Base}"
f530="${metaDir}${f530Base}"
f540="${metaDir}${f540Base}"
f550="${metaDir}${f550Base}"
f555="${metaDir}${f555Base}"
f610="${metaDir}${f610Base}"
f620="${metaDir}${f620Base}"
f630="${metaDir}${f630Base}"
f640="${metaDir}${f640Base}"
f650="${metaDir}${f650Base}"
f690="${metaDir}${f690Base}"
f700="${metaDir}${f700Base}"
f800="${metaDir}${f800Base}"
f810="${metaDir}${f810Base}"
f820="${metaDir}${f820Base}"
f830="${metaDir}${f830Base}"
f840="${metaDir}${f840Base}"
f850="${metaDir}${f850Base}"
f860="${metaDir}${f860Base}"
f999="${metaDir}${f999Base}"
Code: Alles auswählen
${awk} '{ print }' << PARAMFILE > "${f000}"
${TRIPLET}${FSTAB}sourceDir${FSTAB}${sourceDir}${FSTAB}${TRIPLET}
${TRIPLET}${FSTAB}sourceDirAwk${FSTAB}${sourceDirAwk}${FSTAB}${TRIPLET}
${TRIPLET}${FSTAB}sourceDirPattAwk${FSTAB}${sourceDirPattAwk}${FSTAB}${TRIPLET}
${TRIPLET}${FSTAB}sourceDirEsc${FSTAB}${sourceDirEsc}${FSTAB}${TRIPLET}
${TRIPLET}${FSTAB}sourceDirTerm${FSTAB}${sourceDirTerm}${FSTAB}${TRIPLET}
${TRIPLET}${FSTAB}backupDir${FSTAB}${backupDir}${FSTAB}${TRIPLET}
${TRIPLET}${FSTAB}backupDirAwk${FSTAB}${backupDirAwk}${FSTAB}${TRIPLET}
...
...(insgesamt 70 solcher zeilen mit langem awk code)...
...
PARAMFILE
Ich mag bei Dingen, die mir besonders wichtig sind, grundsätzlich keine „Fremdprogramme“. Daher habe ich mir mein Backup-Script selbst geschrieben und dabei darauf geachtet, nur „alte und voraussichtlich langlebige 08/15-Tools“ wie rsync zu verwenden. So etwas anzustellen, macht zwar einmal viel Arbeit, aber wenn man es halbwegs schlau anstellt, hat man hinterher den absolut vollständigen Durchblick und ist im Notfall nicht auf andere(s) angewiesen.
Wenn es um daten von Kunden geht (also backup einens Kunden), dann würde ich auf jedenfall verschklüseln,wenn du das Backup in der Cloud speicherst. Wenn du das lokal vorhälst,würde ich es eher nicht machen.Wo ich gerade am umdenken bin, ist die Verschlüsselung von Backups. Das mochte ich die ganze Zeit eher nicht. Aber ich denke im Cloud-Zeitalter ist es eigentlich angemessen grundsätzlich alles an sensiblen Daten, die irgendwo anders als im eigenen RZ oder dem heimischen Rechner liegen zu verschlüsseln.
Diese Strategie scheint wohl für Dich die passende gewesen zu sein. Was speziell hast Du da an Erfahrungen gemacht? Also negative Erfahrungen, bevor Du Dir diese Strategie angeeignet hast, als auch positive Erfahrungen, nachdem Du nach dieser Strategie verfährst?GregorS hat geschrieben:27.07.2023 01:49:42Mach' sowas am besten selbst „zu Fuß“. Nur wenn Du es selbst machst, ist es wirklich so, wie Du es haben möchtest.
Das geht mir da nicht anders. Ich habe Backupverschlüsselung bisher gemieden wie der Teufel das Weihwasser, weil mir ein funktionierendes Backup sehr wichtig ist und da möchte ich gerne alle unnötige Komplexität vermeiden. Aber Verschlüsselung ist - so wie ich das jetzt sehe - manchmal notwendig.schwedenmann hat geschrieben:Ich weiß ich bin ambivalent ...
Bei uns nicht. Die VMs müssen komplett gesichert werden, ohne Wenn und Aber. Das Vollbackup wird 1x monatlich gemacht, ansonsten nur inkrementelle Sicherungen.MSfree hat geschrieben:27.07.2023 15:02:43Auch die Frage, was alles gesichert werden soltle, stellt sich.
Wieso ich mir das angewöhnt habe, weiß ich gar nicht mehr. Vermutlich war es ein ganzes Bündel an Dingen. Ein Grund dafür, nicht zu packen oder gar zu verschlüsseln ist, dass ich so jederzeit ohne jedes Hilfsmittel auf die Daten zugreifen kann. „cp“ oder Drag-n-drop genügen. Und was den Platz angeht: Macht das denn wirklich noch irgendwo Probleme? So eine TB-HD koscht doch so gut wie nichts mehr.heisenberg hat geschrieben:27.07.2023 13:07:42Diese Strategie scheint wohl für Dich die passende gewesen zu sein. Was speziell hast Du da an Erfahrungen gemacht? Also negative Erfahrungen, bevor Du Dir diese Strategie angeeignet hast, als auch positive Erfahrungen, nachdem Du nach dieser Strategie verfährst?GregorS hat geschrieben:27.07.2023 01:49:42Mach' sowas am besten selbst „zu Fuß“. Nur wenn Du es selbst machst, ist es wirklich so, wie Du es haben möchtest.
Bei mir traten nur wenige Fehler auf. Und jeder Fehler immer nur ein einziges Mal. Die ersten paar Wochen habe ich hier und da ein bisschen gefixt. Das letzte Mal ist viele Jahre her. Änderungen wie zusätzliche Rechner ausgenommen.... und dementsprechend fehlerbehaftet wären meine Scripte dann.
Das Blöde ist nur, dass die Fehler immer da auftreten, wo man sie nicht erwartet. Shit happens nunmal. Ich stehe auf einfache Sachen, die mit Zuverlässigkeit und Langlebigkeit glänzen. Und ich stehe überhaupt nicht darauf, wenn mir irgendeine blöde Sache den Zugriff auf meine Daten erschwert oder gar Geld haben will.Mir ist es wichtig, dass Backups absolut zuverlässig sind. Da hatte ich mit meiner Strategie bisher noch keine Reinfälle.
heisenberg hat geschrieben:27.07.2023 20:50:28Der Dienstleister hatte die Daten unter /tmp abgelegt
Da /tmp bei nächsten reboot ja eh weg ist, bind ich es immer als ramdisk ein.
Ja. Für den Privatbereich ist mit Sicherheit sehr angenehm so. Dass die Dateien/Verzeichnisse einfach so da lagen, dass habe ich an rsnapshot auch sehr geschätzt.GregorS hat geschrieben:27.07.2023 21:05:50Wieso ich mir das angewöhnt habe, weiß ich gar nicht mehr. Vermutlich war es ein ganzes Bündel an Dingen. Ein Grund dafür, nicht zu packen oder gar zu verschlüsseln ist, dass ich so jederzeit ohne jedes Hilfsmittel auf die Daten zugreifen kann. „cp“ oder Drag-n-drop genügen. Und was den Platz angeht: Macht das denn wirklich noch irgendwo Probleme? So eine TB-HD koscht doch so gut wie nichts mehr.
Ja. Da kann recht wenig kaputt gehen, wenn man's so einfach hält. Das ist prinzipiell eine sehr sichere Methode, mit der man sich wenig Probleme einhandeln kann, weil je einfacher desto weniger mögliche Fehler. Geld muss man dank ausreichend vieler und hochqualitativer OSS-Möglichkeiten auch gar nicht ausgeben.Das Blöde ist nur, dass die Fehler immer da auftreten, wo man sie nicht erwartet. Shit happens nun mal. Ich stehe auf einfache Sachen, die mit Zuverlässigkeit und Langlebigkeit glänzen. Und ich stehe überhaupt nicht darauf, wenn mir irgendeine blöde Sache den Zugriff auf meine Daten erschwert oder gar Geld haben will.Mir ist es wichtig, dass Backups absolut zuverlässig sind. Da hatte ich mit meiner Strategie bisher noch keine Reinfälle.
Da kann ich inzwischen nicht mehr so richtig mitreden. Im Umfeld einer Firma und wenn es um Geld geht (womöglich um irgendeinen juristischen Dünnsinn) hat man andere Prioritäten.heisenberg hat geschrieben:27.07.2023 22:22:13...
Der grosse Unterschied zwischen Privatumfeld und Firmenumfeld ist dann halt das Geld und die Arbeitszeit von einem Admin kostet sehr viel davon. Bzw. die Resource Arbeitszeit des Admins ist auch irgendwo endlich. Und weiterhin: Wenn eine Software dort entsprechende Ersparnisse bzw. Vorteile bringt, dann darf die meiner Meinung nach auch das entsprechende Geld kosten.
An für sich macht die Backupsoftware ja die Tests. Zumindest ob alles fehlerfrei kopiert/gesichert werden konnte. Dann müssen aber eigentlich noch regelmäßige Wiederherstellungstest gefahren werden.GregorS hat geschrieben:27.07.2023 22:47:03wenn man die Wiederherstellung auch hinbekommen kann, ohne sich tage- oder wochenlang mit Doku beschäftigen zu müssen. Doku kann wirklich schlecht sein, v.A. Übersetzungen.
Bei mir lungern 2.5TB auf dem Server, da kommt man mit einer 1TB-Platte nicht weit.GregorS hat geschrieben:27.07.2023 21:05:50Und was den Platz angeht: Macht das denn wirklich noch irgendwo Probleme? So eine TB-HD koscht doch so gut wie nichts mehr.
Siehe oben "Zielsetzung". Die 6 Punkte lassen sich nicht gleichzeitig erfüllen. Im Privatbereich ist es egal, ob das Restore 30 Minuten oder 3 Tage dauert. Haupsache, man kann den Datenbestand wiederherstellen. Im professionellen Umfeld muß die abgekachelte VM eines Kunden in 10 Minuten wiederhergestellt und hochgefahren sein. Entsprechend andere Strategien müssen gewählt werden, da muß dann schonmal die Backuphistory kurz gehalten werden, wenn man nicht 700 Vollkopien einer VM vorhalten kann und will.cosinus hat geschrieben:27.07.2023 23:27:58Ein Nofallkonzept sollte aber aber so gestrickt sein, dass man nicht Wochen mit dem Studieren dieser Doku verplempert, das Wiederherstellen an sich kann ja ja schon sehr lange dauern.
Das funktioniert aber nicht immer. Wenn die gesamte VM kaputt ist und man sie komplett wiederherstellen muss, dauert es so lange, bis alle Daten aus dem Backup aufs SAN zurücktransferiert sind. Wenn das mehrere TB sind kann das deutlich länger dauern als 10 Minuten.MSfree hat geschrieben:28.07.2023 08:23:53Im professionellen Umfeld muß die abgekachelte VM eines Kunden in 10 Minuten wiederhergestellt und hochgefahren sein.
Dafür gibt es inkrementelle oder differentielle Backups. Selbstverständlich muss das Backup-NAS auch für inkrementelle Backups mit ausreichend großen Platten bestückt sein.MSfree hat geschrieben:28.07.2023 08:23:53Entsprechend andere Strategien müssen gewählt werden, da muß dann schonmal die Backuphistory kurz gehalten werden, wenn man nicht 700 Vollkopien einer VM vorhalten kann und will.
Dann muss man öfter Backups machen oder weitere Features nutzen wie zB bei einem Windows-Fileserver Schattenkopien aktivieren.MSfree hat geschrieben:28.07.2023 08:23:53Mit nur einer täglichen Kopie ist man also längst nicht abgesichert.
Mit guter Backupsoftware ist das kein Problem. Da kann man per Dateibrowser sehen, was wiederhergestellt werden kann. Und dann stellt man selektiv einzelne Dateien oder Ordner wieder her. Oder man stellt eben die gesamte VM bzw. alle virtuellen Disks wieder her. Einzelne Dateien und Ordner auch per Schattenkopie wenn man wie oben schon erwähnt.MSfree hat geschrieben:28.07.2023 08:23:53Wie einfach kommt man an eine versehentlich gelöschte Datei wieder ran? Bei einem rsync-Backup ist das ganz einfach, bei BTRFS/ZFS-Snapshots möglicherweise auch, bei ZIP/TGZ-Dateien schon wesentlich schwerer, von Bandlaufwerken eine Katastrophe, wenn man ein 18TB fassendes LTO9-Band komplett durchsuchen muß.