Allgemeiner ZFS unter Debian Faden.
- Lord_Carlos
- Beiträge: 5578
- Registriert: 30.04.2006 17:58:52
- Lizenz eigener Beiträge: GNU Free Documentation License
- Wohnort: Dänemark
Re: Was ist eure Erfahrung mit ZFS unter Debian?
Man kan mit einem Kommando eine Reihe von Snapshops loeschen.
zfs destroy zpool1/dataset@20160918%20161107
Damit wird alles von zpool1/dataset@20160918 bis zpool1/dataset@20161107 geloescht. Ganz nett wenn man sehr viele Snapshots hat die man loswerden will.
zfs destroy zpool1/dataset@20160918%20161107
Damit wird alles von zpool1/dataset@20160918 bis zpool1/dataset@20161107 geloescht. Ganz nett wenn man sehr viele Snapshots hat die man loswerden will.
Code: Alles auswählen
╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!
- heisenberg
- Beiträge: 3567
- Registriert: 04.06.2015 01:17:27
- Lizenz eigener Beiträge: MIT Lizenz
Re: Was ist eure Erfahrung mit ZFS unter Debian?
Ich verwende jetzt seit einigen Monaten auch ZFS auf VMHosts. Dabei sind auch regelmässig länger gebrauchte und noch für gut befundene Platten im Einsatz.
Mit ZFS - monatliche scrubs sind aktiv - fallen da durchaus öfters auch einzelne Datenfehler auf, die es bestimmt vorher schon auch gegeben hat, aber aufgrund von mangelnder Fähigkeit von HW-RAID-Controllern das online zu erkennen nicht bemerkt worden sind. (Also auch nicht bei den RAID-Überprüfungen der HW-RAID-Controller)
Also einzelne Datenfehler, die dann durch ein Repair direkt behoben werden könne. Aber das ganze doch in einer Häufigkeit, die mich da durchaus nachdenklich macht, ob ich nicht vielleicht einfach mal besser ein paar mehr Platten wegwerfe oder lieber doch mehr als nur 1 Platte Redundanz konfiguriere.
Insgesamt also eine gute Sache, dass hier schleichende Datenfehler durch ZFS entdeckt wurden, bevor Datenverlust entsteht.
Nachtrag:
Es passiert auch schon mal recht schnell, dass eine Platte komplett rausfliegt. Also nach ca. 20-40 Lesefehlern. Das ist recht unangenehm. Denn wenn die falsche 2. Platte auch noch rausfliegt, dann ist der Server tot.
Mit ZFS - monatliche scrubs sind aktiv - fallen da durchaus öfters auch einzelne Datenfehler auf, die es bestimmt vorher schon auch gegeben hat, aber aufgrund von mangelnder Fähigkeit von HW-RAID-Controllern das online zu erkennen nicht bemerkt worden sind. (Also auch nicht bei den RAID-Überprüfungen der HW-RAID-Controller)
Also einzelne Datenfehler, die dann durch ein Repair direkt behoben werden könne. Aber das ganze doch in einer Häufigkeit, die mich da durchaus nachdenklich macht, ob ich nicht vielleicht einfach mal besser ein paar mehr Platten wegwerfe oder lieber doch mehr als nur 1 Platte Redundanz konfiguriere.
Insgesamt also eine gute Sache, dass hier schleichende Datenfehler durch ZFS entdeckt wurden, bevor Datenverlust entsteht.
Nachtrag:
Es passiert auch schon mal recht schnell, dass eine Platte komplett rausfliegt. Also nach ca. 20-40 Lesefehlern. Das ist recht unangenehm. Denn wenn die falsche 2. Platte auch noch rausfliegt, dann ist der Server tot.
Zuletzt geändert von heisenberg am 21.08.2020 14:54:33, insgesamt 1-mal geändert.
Jede Rohheit hat ihren Ursprung in einer Schwäche.
- Lord_Carlos
- Beiträge: 5578
- Registriert: 30.04.2006 17:58:52
- Lizenz eigener Beiträge: GNU Free Documentation License
- Wohnort: Dänemark
Re: Was ist eure Erfahrung mit ZFS unter Debian?
zstd kompression hat es endlich in OpenZFS geschafft: https://github.com/openzfs/zfs/commit/1 ... 66e64ec0a0
Es war schon vorher in der BSD version von ZFS und in BTRFS.
zstd wurde von facebook entwickelt https://github.com/facebook/zstd
Hier gibt es ein paar Grafen ab wann sich was lohnt: https://github.com/openzfs/zfs/pull/973 ... -570082078
lz4 ist weiterhin verwendbar.
Es war schon vorher in der BSD version von ZFS und in BTRFS.
zstd wurde von facebook entwickelt https://github.com/facebook/zstd
Hier gibt es ein paar Grafen ab wann sich was lohnt: https://github.com/openzfs/zfs/pull/973 ... -570082078
lz4 ist weiterhin verwendbar.
Code: Alles auswählen
╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!
Re: Was ist eure Erfahrung mit ZFS unter Debian?
lz4 ist bei denen immer deutlich schneller als gzip. gefühlt habe ich das auch schon bemerkt. Das ist interessant.
rot: Moderator wanne spricht, default: User wanne spricht.
- Lord_Carlos
- Beiträge: 5578
- Registriert: 30.04.2006 17:58:52
- Lizenz eigener Beiträge: GNU Free Documentation License
- Wohnort: Dänemark
Re: Was ist eure Erfahrung mit ZFS unter Debian?
FreeBSD wechselt jetzt zu OpenZFS code, damit wird der code unter Linux und BSD geteilt und nicht jeder kocht seine eigene Suppe.
Gemeinsam ist man stark \o/ ZFS ist die Zukunft.
https://www.golem.de/news/dateisystem-f ... 50449.html
EN Primaer quelle: https://svnweb.freebsd.org/base?view=re ... ion=364746
_____________________
Noch was zu ZSDT
Compression: https://user-images.githubusercontent.c ... 91ffee.png
Decompression: https://user-images.githubusercontent.c ... c71909.png
Gemeinsam ist man stark \o/ ZFS ist die Zukunft.
https://www.golem.de/news/dateisystem-f ... 50449.html
EN Primaer quelle: https://svnweb.freebsd.org/base?view=re ... ion=364746
_____________________
Noch was zu ZSDT
PR: https://github.com/openzfs/zfs/pull/10278As the person who made those graphs and the testscript behind it, there are some important noted about the tests and graphs that might be lost in translation:
- Those are primarily meant to give a basic understanding of performance, not to represent actual performance
- Those are somewhat outdated, I expect a little more performance in the version thats actually merged.
Those tests are done in a VM, with other software running on the host... That certainly influenced the outcome.
But, I agree LZ4 still has it's place, but ZSTD-FAST-3 is pretty close...
Also, look at the general graphs in the PR description... those are little more clear than those detail graphs
Compression: https://user-images.githubusercontent.c ... 91ffee.png
Decompression: https://user-images.githubusercontent.c ... c71909.png
Code: Alles auswählen
╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!
- Lord_Carlos
- Beiträge: 5578
- Registriert: 30.04.2006 17:58:52
- Lizenz eigener Beiträge: GNU Free Documentation License
- Wohnort: Dänemark
Re: Was ist eure Erfahrung mit ZFS unter Debian?
ZFS 2.0 rc1 ist da \o/
https://github.com/openzfs/zfs/releases ... -2.0.0-rc1
Supported Platforms:
https://github.com/openzfs/zfs/releases ... -2.0.0-rc1
Supported Platforms:
- Linux: compatible with 3.10 - 5.8 kernels
- FreeBSD 12.1 (release), stable/12, and HEAD (13)
- Unified code base for Linux and FreeBSD
- Redacted zfs send/recv
- Persistent L2ARC
- Sequential resilvering
- zstd compression
- Log spacemaps
- Fast clone deletion
- Sectional zfs/zpool man pages
- Added zpool wait subcommand
- Improved zfs share scalability
Code: Alles auswählen
╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!
- heisenberg
- Beiträge: 3567
- Registriert: 04.06.2015 01:17:27
- Lizenz eigener Beiträge: MIT Lizenz
Re: Was ist eure Erfahrung mit ZFS unter Debian?
Nachtrag zu den Plattenfehlernheisenberg hat geschrieben:10.08.2020 10:37:16Ich verwende jetzt seit einigen Monaten auch ZFS auf VMHosts. Dabei sind auch regelmässig länger gebrauchte und noch für gut befundene Platten im Einsatz.
Nachdem in der Anfangszeit der ZFS-Nutzung recht häufig Datenfehler gemeldet wurden, war dann irgendwann Ruhe. Das interpretiere ich so, dass da am Anfang jede Menge unerkannte, defekte Sektoren auf einzelnen Platten waren, die dann irgendwann die durch die Scrubs alle entdeckt wurden. Und aktuell sind die genutzten Plattenbereiche in Ordnung.
Abstürze
Im Zusammenhang mit Proxmox habe ich VMHOST/VM-Abstürze erlebt, wenn der Scrub auf einem bestimmten Host angelaufen(mit alten, langsamen Platten) ist, auf dem die VM-Daten liegen. Lösung war, dass ich die Intensitität des Scrubs verringert habe durch diese Einstellung in /etc/modprobe.d/zfs.conf
Code: Alles auswählen
options zfs zfs_vdev_scrub_max_active=1
Jede Rohheit hat ihren Ursprung in einer Schwäche.
- Lord_Carlos
- Beiträge: 5578
- Registriert: 30.04.2006 17:58:52
- Lizenz eigener Beiträge: GNU Free Documentation License
- Wohnort: Dänemark
Re: Was ist eure Erfahrung mit ZFS unter Debian?
ZFS 0.8.5 ist da mit ein paar bug fixes: https://github.com/openzfs/zfs/releases/tag/zfs-0.8.5
Und ZFS 2.0.0 RC3 https://github.com/openzfs/zfs/releases ... -2.0.0-rc3
Und ZFS 2.0.0 RC3 https://github.com/openzfs/zfs/releases ... -2.0.0-rc3
Code: Alles auswählen
╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!
- Lord_Carlos
- Beiträge: 5578
- Registriert: 30.04.2006 17:58:52
- Lizenz eigener Beiträge: GNU Free Documentation License
- Wohnort: Dänemark
Re: Allgemeiner ZFS unter Debian Faden.
Betreff geändert von "Was ist eure Erfahrung mit ZFS unter Debian?" zu "Allgemeiner ZFS unter Debian Faden."
_________________________________
Es gibt ein "Geruecht" das l2arc sehr viel ram verbraucht. l2arc ist der second level lese cache den man oft auf eine SSD packt.
Das kann man aber schnell selber berechnen.
Also wenn man ein 512 GiB NVMe SSD hat, und die meisten Daten in dem Pool haben ein recordsize von 1M sieht es so aus:
Dann brauch der l2arc nur 35 MiB an ram. Das ist ja garnichts.
Wenn man aber ein recordsize von 16KiB hat:
2.2 GiB, was bei 16 oder 32GiB ram nicht wenig ist.
Einzelheiten gibt es hier: https://klarasystems.com/articles/openz ... out-l2arc/
_________________________________
Es gibt ein "Geruecht" das l2arc sehr viel ram verbraucht. l2arc ist der second level lese cache den man oft auf eine SSD packt.
Das kann man aber schnell selber berechnen.
Code: Alles auswählen
(L2ARC size in kilobytes) / (typical recordsize -- or volblocksize -- in kilobytes) * 70 bytes = ARC header size in RAM
Code: Alles auswählen
512GiB * 1024MiB/GiB * 1024 KiB/MiB / 1024 KiB/record * 70 header bytes/record == 36700160 L2ARC header bytes == 35MiB L2ARC headers
Wenn man aber ein recordsize von 16KiB hat:
Code: Alles auswählen
512GiB * 1024MiB/GiB * 1024 KiB/MiB / 16KiB/record * 70 header bytes/record == 2348810240 L2ARC header bytes == 2.2GiB L2ARC headers
Einzelheiten gibt es hier: https://klarasystems.com/articles/openz ... out-l2arc/
Code: Alles auswählen
╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!
- Lord_Carlos
- Beiträge: 5578
- Registriert: 30.04.2006 17:58:52
- Lizenz eigener Beiträge: GNU Free Documentation License
- Wohnort: Dänemark
Re: Allgemeiner ZFS unter Debian Faden.
OpenZFS 2.0.0-rc6
https://github.com/openzfs/zfs/releases ... -2.0.0-rc6 Mehrere kleien bug fixes. Da fuehlt man doch den release naeher kommen.
https://github.com/openzfs/zfs/releases ... -2.0.0-rc6 Mehrere kleien bug fixes. Da fuehlt man doch den release naeher kommen.
Code: Alles auswählen
╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!
- Routerdilettantin
- Beiträge: 35
- Registriert: 09.11.2020 12:44:45
- Lizenz eigener Beiträge: GNU General Public License
Re: Allgemeiner ZFS unter Debian Faden.
Hallo @all,
ist für (m)ein Embedded System (Firewall m. pfSense/FreeBSD, 32 GB SSD mit 4 TBW, 24 GB für / (root), ohne Swap, Rest unpartitioniert wg. Overprovisioning/Haltbarkeit SSD, 8 GB RAM, davon ab geht 2 GB RAMDisk) ZFS wegen COW (hoffentlich problemloser Stromausfall ohne UPS) ratsam? Ansonsten nehme ich UFS, Linuxer wohl extX, was für Flash bewährt war. Danke übrigens für den interessanten Thread!
ist für (m)ein Embedded System (Firewall m. pfSense/FreeBSD, 32 GB SSD mit 4 TBW, 24 GB für / (root), ohne Swap, Rest unpartitioniert wg. Overprovisioning/Haltbarkeit SSD, 8 GB RAM, davon ab geht 2 GB RAMDisk) ZFS wegen COW (hoffentlich problemloser Stromausfall ohne UPS) ratsam? Ansonsten nehme ich UFS, Linuxer wohl extX, was für Flash bewährt war. Danke übrigens für den interessanten Thread!
- Lord_Carlos
- Beiträge: 5578
- Registriert: 30.04.2006 17:58:52
- Lizenz eigener Beiträge: GNU Free Documentation License
- Wohnort: Dänemark
Re: Allgemeiner ZFS unter Debian Faden.
@Routerdilettantin
Was hat FreeBSD denn by default?
_______________________
Yay OpenZFS 2.0.0 ist fertig \o/ ❤
https://github.com/openzfs/zfs/releases/tag/zfs-2.0.0
Was hat FreeBSD denn by default?
_______________________
Yay OpenZFS 2.0.0 ist fertig \o/ ❤
https://github.com/openzfs/zfs/releases/tag/zfs-2.0.0
Code: Alles auswählen
╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!
- Routerdilettantin
- Beiträge: 35
- Registriert: 09.11.2020 12:44:45
- Lizenz eigener Beiträge: GNU General Public License
Re: Allgemeiner ZFS unter Debian Faden.
Wenn ich das zu erklären wüsste, würde ich nicht fragen. Ich suche gern Unterschiede - aber wonach ich suchen soll, musst du schon etwas eingrenzen. Ein Posting von empfohlenen Kommandoein- und ausgaben traue ich mir noch zu.
- heisenberg
- Beiträge: 3567
- Registriert: 04.06.2015 01:17:27
- Lizenz eigener Beiträge: MIT Lizenz
Re: Allgemeiner ZFS unter Debian Faden.
Das ist eine konkrete Frage zu einem spezifischen Problem bzgl. ZFS und FreeBSD. Ich schlage vor, dafür einen neuen eigenen Thread aufzumachen und dies nicht im allgemeinen ZFS-Thread anzuhängen.
Jede Rohheit hat ihren Ursprung in einer Schwäche.
- Lord_Carlos
- Beiträge: 5578
- Registriert: 30.04.2006 17:58:52
- Lizenz eigener Beiträge: GNU Free Documentation License
- Wohnort: Dänemark
Re: Allgemeiner ZFS unter Debian Faden.
Ob ZFS gut mit stromausfall klar kommt kan man hier ja Fragen. Ich weis nur leider die Antwort nicht.
Ich wuerde einfach nehmen was bei pfSense default ist
_______________
Edit: Das hier kann sich lohnen zu lesen:
* https://www.reddit.com/r/PFSENSE/commen ... dvantages/
* https://www.reddit.com/r/PFSENSE/commen ... le_system/
ZFS scheint eine besser zu sein als UFS wenn es um powerloss geht.
Ich wuerde einfach nehmen was bei pfSense default ist
_______________
Edit: Das hier kann sich lohnen zu lesen:
* https://www.reddit.com/r/PFSENSE/commen ... dvantages/
* https://www.reddit.com/r/PFSENSE/commen ... le_system/
ZFS scheint eine besser zu sein als UFS wenn es um powerloss geht.
Code: Alles auswählen
╔═╗┬ ┬┌─┐┌┬┐┌─┐┌┬┐╔╦╗
╚═╗└┬┘└─┐ │ ├┤ │││ ║║
╚═╝ ┴ └─┘ ┴ └─┘┴ ┴═╩╝ rockt das Forum!
Re: Allgemeiner ZFS unter Debian Faden.
Ich hab meine pfSensen mit ufs aufgesetzt. Die config wird regelmäßig per ssh abgeholt und wenn eine Platte abschmiert, wird flux neu installiert und die config auf nem usb stick bereitgestellt. Das ist so schnell gemacht, dass ich mir keine Gedanken über ZFS gemacht habe, bisher.
-
- Beiträge: 11
- Registriert: 05.12.2004 13:44:01
-
Kontaktdaten:
Re: Allgemeiner ZFS unter Debian Faden.
Hola Männer,
ich habe da so ein kleines administratives Problem mit meinem Debian Server - betrifft die Zugriffsrechte von Usern auf ZFS Datensätze.
Mit dem Befehl lässt sich ja "normalerweise" einstellen, dass auch ohne root-Rechte diese Befehle für definierte Pools und Datensätze ausgeführt werden dürfen.
Auf meinem Ubuntu Server (RP4B) lies sich dies auch anstandslos umsetzen, mein Standarduser darf dort snapshots senden und empfangen, ohne sudo.
Auf meinem eigentlichen Server (debian stable) zeigt er zwar per angeblich die selben Rechte an wie auf der Ubuntu-Maschine, weigert sich jedoch standhaft, diese Befehle ohne sudo auszuführen.
Irgendjemand eine Idee, wo der Haken ist?!
EDIT:
wayne, es liegt an der wie üblich alten Version von zfsutils unter debian stable. Diese ist < 6.8.x und kann somit mit zfs allow noch nicht vollständig umgehen.
ich habe da so ein kleines administratives Problem mit meinem Debian Server - betrifft die Zugriffsrechte von Usern auf ZFS Datensätze.
Mit dem Befehl
Code: Alles auswählen
zfs allow (user) send,receive,snapshot,hold,mount /pool/data
Auf meinem Ubuntu Server (RP4B) lies sich dies auch anstandslos umsetzen, mein Standarduser darf dort snapshots senden und empfangen, ohne sudo.
Auf meinem eigentlichen Server (debian stable) zeigt er zwar per
Code: Alles auswählen
zfs allow pool/data
Irgendjemand eine Idee, wo der Haken ist?!
EDIT:
wayne, es liegt an der wie üblich alten Version von zfsutils unter debian stable. Diese ist < 6.8.x und kann somit mit zfs allow noch nicht vollständig umgehen.
■
Re: Allgemeiner ZFS unter Debian Faden.
Hey Freunde. Ich habe nun unter viel Aufwand, und ca. 1 Woche Probiererei, mein Sytem von 4x1TB mdadm RAID 0 auf ein RAID0 mit ZFS und native Encryption migriert, was echt schrecklich war bis das funktioniert hat.
Das ganze scheint aber nun echt prima zu funktionieren, ich habe nämlich einen Testing Daily, und daher kommt mir die Snapshot Funktion sehr zuvor.
Gerne hätte ich natürlich noch sowas, wenn das ohne schrecklich viel Aufwand realisierbar wäre. https://arstechnica.com/gadgets/2020/03 ... anagement/
Undzwar einen Abschnitt im GRUB Menü, mit dem man dann die Snapshots zurückrollen kann. Das wäre prima. Vielleicht weiß da ja einer was
Das ganze scheint aber nun echt prima zu funktionieren, ich habe nämlich einen Testing Daily, und daher kommt mir die Snapshot Funktion sehr zuvor.
Gerne hätte ich natürlich noch sowas, wenn das ohne schrecklich viel Aufwand realisierbar wäre. https://arstechnica.com/gadgets/2020/03 ... anagement/
Undzwar einen Abschnitt im GRUB Menü, mit dem man dann die Snapshots zurückrollen kann. Das wäre prima. Vielleicht weiß da ja einer was
Re: Allgemeiner ZFS unter Debian Faden.
Manche Leute packen sich dafür ein angepasstes System auf die Platte, gerne auch ein Image eines Livesystems, das sie in dem Fall starten, um die gewünschten Änderungen von dort aus vorzunehmen.Knogle hat geschrieben:10.10.2021 21:39:26Gerne hätte ich natürlich noch […] einen Abschnitt im GRUB Menü, mit dem man dann die Snapshots zurückrollen kann.
Bei BTRFS konnte man im Grub den gewünschten Snapshot angeben, wenn ich mich nicht falsch erinnere.
Re: Allgemeiner ZFS unter Debian Faden.
Jup. rootflags=subvol=... muss man dann aber aus der fstab schmeißen und systemctl daemon-reload machn sonst nimmt er doch wieder das root-Device.niemand hat geschrieben:10.10.2021 21:58:57Bei BTRFS konnte man im Grub den gewünschten Snapshot angeben, wenn ich mich nicht falsch erinnere.
rot: Moderator wanne spricht, default: User wanne spricht.
Re: Allgemeiner ZFS unter Debian Faden.
Irgendwie habe ich manchmal das Problem dass ich in der initramfs Konsole lande beim Start, mit der Ausgabe "no such pools available". Dann muss ich mit zpool import -f den bpool und rpoo importen, und dann gehts, weil die angeblich auf einem anderen System gemountet waren.
Gibt es die Möglichkeit standardmäßig mit -f zu Importen um sowas zu vermeiden?
BTRFS werde ich auch mal in einer VM testen, sowas wird ja immerhin "standardmäßig" unterstützt
Gibt es die Möglichkeit standardmäßig mit -f zu Importen um sowas zu vermeiden?
BTRFS werde ich auch mal in einer VM testen, sowas wird ja immerhin "standardmäßig" unterstützt
Re: Allgemeiner ZFS unter Debian Faden.
Du kannst in /etc/initramfs-tools/conf.d/zfs folgenden Eintrag setzen ZFS_INITRD_POST_MODPROBE_SLEEP=10 damit sollte das Problem nicht mehr auftreten.Knogle hat geschrieben:11.10.2021 09:09:34Irgendwie habe ich manchmal das Problem dass ich in der initramfs Konsole lande beim Start, mit der Ausgabe "no such pools available". Dann muss ich mit zpool import -f den bpool und rpoo importen, und dann gehts, weil die angeblich auf einem anderen System gemountet waren.
Gibt es die Möglichkeit standardmäßig mit -f zu Importen um sowas zu vermeiden?
Re: Allgemeiner ZFS unter Debian Faden.
Werde ich mal probieren.
Bei der Verschlüsselung hätte ich ehrlich gesagt auch lieber LUKS benutzt statt ZFS Encryption. Aber ich denke dennoch, dass das ganze "Einbrechersicher" ist.
Bei LUKS hat mich genervt, dass ich 4x mein Passwort eingeben musste, da ich halt 4x 1TB SSDs habe, und die Volumes daher verteilt sind.
Was sind eigentlich so die großen Vor- und Nachteile von BTRFS gegenüber einem ZFS Setup als Daily?
Also die Snapshotfunktion musste ich direkt mal ausprobiere da ich nach einem Upgrade auf sid mein System zerschossen habe.
Bei der Verschlüsselung hätte ich ehrlich gesagt auch lieber LUKS benutzt statt ZFS Encryption. Aber ich denke dennoch, dass das ganze "Einbrechersicher" ist.
Bei LUKS hat mich genervt, dass ich 4x mein Passwort eingeben musste, da ich halt 4x 1TB SSDs habe, und die Volumes daher verteilt sind.
Was sind eigentlich so die großen Vor- und Nachteile von BTRFS gegenüber einem ZFS Setup als Daily?
Also die Snapshotfunktion musste ich direkt mal ausprobiere da ich nach einem Upgrade auf sid mein System zerschossen habe.
Re: Allgemeiner ZFS unter Debian Faden.
Das ist so nicht ganz richtig: SystemV konnte das. Mit nem akutellen grub2 und nem verschlüsselten boot gehts auch.Knogle hat geschrieben:11.10.2021 19:56:33Bei LUKS hat mich genervt, dass ich 4x mein Passwort eingeben musste, da ich halt 4x 1TB SSDs habe, und die Volumes daher verteilt sind.
* ZFS ist halt GPL-Inkompatibel und darf deswegen nicht zusammen ausliefern, was das recht umständlich zum einrichten macht.Knogle hat geschrieben:11.10.2021 19:56:33Was sind eigentlich so die großen Vor- und Nachteile von BTRFS gegenüber einem ZFS Setup als Daily?
* ZFS kann deduplication
* Die ZFS Kommandos sind aus dem Solaris Umfeld und haben ihre eigene Syntax und fühlen bestenfalls so wie die von LVM an. Die btrfs ähneln viel mehr denen der klassischen Linux Dateisysteme.
Kurz die ZFS Kommandos sind untereinander einheitlicher. Die btrfs-Kommandos einheitlicher mit dem Rest.
* ZFS kann RAID. Bei Btrfs ist nur RAID0 und RAID1 stabil.
* ZFS komprimiert nur auf Blockebene hat dafür den etwas besseren Kompressionsalgorithmus.
* ZFS nutzt ein anderes Caching. – Sehr vereinfach ist ZFS aggressiver und hält Dinge selbst dann im RAM, wenn andere Programme den RAM benutzen wollen, sodass die swappen müssen.
* ZFS kann nicht verkleinert werden
* Red Hat liefert Kernel ohne btrfs und will das auch nicht supporten.
* ZFS gibt es auch für Solaris BSD und OS X. btrfs nur für Linux und Windows.
* Btrfs kann Subvolumes.
rot: Moderator wanne spricht, default: User wanne spricht.
Re: Allgemeiner ZFS unter Debian Faden.
Hey danke dir!
Hat eigentlich jemand mal Benchmarks auf ZFS gemacht?
Meinen Pool auf meinem RAID Verbund möchte ich auflösen, habe dort ZFS Native Encryption aktiv, würde aber gerne den Pool auf meinen neuen ZFS Pool im LUKS Container "clonen".
Leider gestaltet sich das als maximal schwierig, von einem encrypted ZFS Pool, die Daten irgendwie auf den unverschlüsselten Pool zu kriegen.
Hat jemand dazu eine Idee? mit und scheint das nicht ohne weiteres möglich zu sein.
Oder muss ich die Dateien manuell bspw. mit Rsync rüberziehen?
Hat eigentlich jemand mal Benchmarks auf ZFS gemacht?
Meinen Pool auf meinem RAID Verbund möchte ich auflösen, habe dort ZFS Native Encryption aktiv, würde aber gerne den Pool auf meinen neuen ZFS Pool im LUKS Container "clonen".
Leider gestaltet sich das als maximal schwierig, von einem encrypted ZFS Pool, die Daten irgendwie auf den unverschlüsselten Pool zu kriegen.
Hat jemand dazu eine Idee? mit
Code: Alles auswählen
zfs send
Code: Alles auswählen
zfs recv
Oder muss ich die Dateien manuell bspw. mit Rsync rüberziehen?