Lord_Carlos hat geschrieben: Intel Pentium angeguckt das auch HDMI/DP
Pentium und HDMI hat nix mit Server am hut
Die neuen Xeon D von Supermicro fangen bei <400 eur für die 2-kern Varianten an (1508). Da hat man dann sogar bereits 2x 10GBit onboard im SoC bei 25W TDP und ein vollwertiges IPMI. ASRock kommt mit noch günstigeren Varianten, ohne IPMI und ASRock-typisch eben mit billigkomponenten und vermutlich auch kaputtem UEFI
Sobald die neuen Atom C3000 kommen dürften die preislich noch etwas drunter liegen, bzw die C2xxx werden noch weiter im preis fallen (sind aber auch ziemliche krücken...).
8GB regECC DDR4-2133 RAM gibts für ~75EUR (Kingston Value), vergleichbarer non-ECC kostet gerade mal 10EUR weniger.
Für <500 EUR (exkl. platten) kann man also schon ne anständige plattform bekommen die wirklich für serverbetrieb konzipiert und geeignet ist. Da braucht man nicht lange mit Desktophardware rumbasteln. Hab das selber leider lange genug für meine Heimserver gemacht und unterm strich meistens mehr draufgezahlt. Bei Gehäusen für storagesysteme kann ich auch nur noch empfehlen nach gebrauchten servergehäusen ausschau zu halten - das ist immer noch zuverlässiger und günstiger als irgendwelche 5.25" Wechselgehäuse. Zudem ist es einfacher ein Servergehäuse, das schon einen sehr optimierten Luftstrom hat, leise zu bekommen als ein umfunktioniertes Desktopgehäuse das plötzlich die Abwärme von 8...14...20... Platten wegschaffen muss... (Bei mir läuft auch noch so eine "jugendsünde"
)
Durch lesen von anderen Diskussionen habe ich mir sagen lassen das es wahrscheinlicher ist das man selber was loescht, als das ein bit flip eine Datei komplett unleserlich macht.
Wie siehst du das? Wie oft passiert es dir?
Festplatten sterben und geben auch falsche daten zurück, speziell wenn daten sehr lange nicht gelesen/geschrieben wurden - da hat ZFS schon mehrfach angeschlagen bevor z.b. bei SATA irgend ein SMART-Wert auffällig gewesen wäre. Meistens reicht es dann die platte mit random i/o zu "thrashen" um fehler zu frovozieren oder sogar endgültig ins jenseits zu befördern.
Mit ZFS lasse ich von entsprechenden datasets (z.b. /usr/home) 10-minütig snapshots erstellen mit Vorhaltezeiten um ~3h (+ längere/long-term snapshots für backup / replication). Dadurch konnte ich schon oft daten die durch dicke user-finger gelöscht oder überschrieben wurden wiederherstellen (über verstecktes .zfs-verzeichniss, da brauchts nichtmal nen rollback). Auch ein cryptlocker-verseuchter client der nen netzwerkshare verschlüsseln wollte konnte aufgehalten werden bzw der letzte snapshot wurde zurückgeholt. Seitdem lasse ich überwachen ob das delta zwischen zwei snapshots einen zu großen anteil der gesamtgröße ausmacht. Dann wird der vorherige snapshot geklont, readonly gemountet und der vermeintlich kompromittierte snapshot bleibt zur analyse erhalten, den kann ich ggf zurückholen oder einfach löschen...