[gelöst] mit NFS große Dateien kopieren sehr langsam

Einrichten des lokalen Netzes, Verbindung zu anderen Computern und Diensten.
DeletedUserReAsG

Re: [gelöst] mit NFS große Dateien kopieren sehr langsam

Beitrag von DeletedUserReAsG » 26.05.2017 13:04:48

Bei smb oder nfs-mount von HOME passiert es in der Sekunde des Speicherns.
Dass ~ übers Netz gemountet werden sollte, ist für mich aus dem bisherigen Threadverlauf nicht ersichtlich. Das wäre zudem so ziemlich das Gegenteil eines Backups. Was habe ich übersehen?

TomL

Re: [gelöst] mit NFS große Dateien kopieren sehr langsam

Beitrag von TomL » 26.05.2017 15:03:34

Ich kapier das im Moment auch nicht. Mein Pi hat eine zweite Platte angeschlossenen, aber die ist nicht gemountet. Mein Backupscript mountet die Platte, macht ein partielles Backup der Arbeitsplatte und rsync't die SSD unselektiert, also vollständig. Dann wird die platte wieder getrennt. Das passiert morgens zwischen 5 und 6 Uhr, wenn alle noch pennen

scientific
Beiträge: 3020
Registriert: 03.11.2009 13:45:23
Lizenz eigener Beiträge: Artistic Lizenz
Kontaktdaten:

Re: [gelöst] mit NFS große Dateien kopieren sehr langsam

Beitrag von scientific » 27.05.2017 11:44:55

Also TomL, so wie ich dein Setup verstanden habe, Mounten die Rechner im Netz ihre Homes per nfs. Oder hab ich das falsch verstanden?

Wenn ich als User auf meinem Laptop mit per nfs gemounteten Home einen Film mit 2 GB downloade, in mein Download-Verzeichnis in Home, so geht das in dem Moment über das Netz auf den Server, der das Home zur Verfügung stellt.
Wenn das ein Raspi ist, dann hat der den Flaschenhals, dass Ethernet und USB für die Platte am selben USB-Port hängen. Also hab ich da offenbar massive Verzögerungen.

Wenn ich jetzt meine Daten lokal speichere und mit einem Backupskript zu bestimmten Zeiten das Backup übers Netz zum Backupserver schiebe, ist halt in dem Moment der Flaschenhals des Raspi ein Problem.

Egal wie, ein Raspi der größere Datenmengen übers Netz empfangen und auf eine angesteckte USB-Platte schieben soll, dürfte ein Kapazitätsproblem haben. So hab ich das verstanden.

Aber ich klinke mich aus dem Thread wieder aus. Meine Kommunikation verläuft offenbar ein wenig anders, als eure (TomL und niemand). Und die führt oft zu Missverständnissen.

lg scientific
dann putze ich hier mal nur...

Eine Auswahl meiner Skripte und systemd-units.
https://github.com/xundeenergie

auch als Debian-Repo für Testing einbindbar:
deb http://debian.xundeenergie.at/xundeenergie testing main

DeletedUserReAsG

Re: [gelöst] mit NFS große Dateien kopieren sehr langsam

Beitrag von DeletedUserReAsG » 27.05.2017 13:05:00

Wenn ich jetzt meine Daten lokal speichere und mit einem Backupskript zu bestimmten Zeiten das Backup übers Netz zum Backupserver schiebe, ist halt in dem Moment der Flaschenhals des Raspi ein Problem.
Wenn die bestimmten Zeiten so gelegt werden, dass man zu diesen nicht weiter auf den Pi zugreifen muss und das Ganze zudem so gestaltet wird, dass der Prozess nicht alles andere blockiert, ist das einzige Problem, dass es halt etwas länger dauert, wenn größere Veränderungen gesichert werden müssen. Wenn man sein ~ auf den Pi legt und via NFS mountet, dauert’s u.U. häufiger mal länger, und das beim normalen Arbeiten. Das würden erheblich mehr Leute als Problem wahrnehmen, und deswegen wird’s wohl eher keiner so machen.

TomL

Re: [gelöst] mit NFS große Dateien kopieren sehr langsam

Beitrag von TomL » 27.05.2017 15:27:53

scientific hat geschrieben:Also TomL, so wie ich dein Setup verstanden habe, Mounten die Rechner im Netz ihre Homes per nfs.
Nicht NFS, sondern Samba. Und nein, auch keine servergespeicherten homedirs, sondern lokale homedirs.

Bei uns gibts nur die Ansage, dass alle user ihre persönlichen Daten in den Ordner "Daten" ihres lokalen client- homedirs speichern. Dieser lokale Ordner ist jeweils ein usereigener mountpoint in sein entsprechendes homedir-verzeichnis "Daten" des Servers, welcher wiederum nur ein 'bind' für einen zentralen Ordner ist, in dem jeder User unter seinem Namen sein eigenes Verzeichnis hat. Dieses zentrale Serververzeichnis heißt /media/SSD/Home und in einer rutsche sind täglich alle geänderten Dateien auf die HD gespiegelt. Wie gesagt, das ist nie viel.
In libreoffice auf den clients zum Beispiel ist dieser lokale Ordner ~/Daten als standard-arbeitsverzeichnis hinterlegt. Firefox und Thunderbird werden via Scripts gestartet und bei Programmende werden prefs.js und places.sqlite zum Server kopiert. Der Rest an lokalen Einstellungen ist standard und interessiert mich nicht. Wenn jemand einen Film gucken will, guckt er den einfach mit dem smplayer via samba vom Server ohne vorher zu kopieren.

Ich sichere nur was notwendig ist und wirklich nur das, dessen Wiederherstellung bei Verlust unmöglich ist oder nur mit unvertretbarem Aufwand. Alles andere schert mich nicht. Manchmal schaue ich noch mal nach, aber wirklich auf keinem client finde ich wichtige oder schützenswerte Daten in lokalen Ordnern. Die Verwendung des Ordners "Daten" im eigenen homedir ist bei uns zur absoluten Selbstverständlichkeit geworden.

Und weil ich auf all unseren Clients meinen standard-custom-desktop installiert habe, ohne Gui-Dialogs für diverse settings, mit denen die Anwender das System strubbelig machen können, kann ich diese Sicherung auch abhaken. Lokale settings interessieren mich also auch nicht weiter.

Wie gesagt, alles ein Sache von Anpassungsreaktionen, und zwar an die Anforderungen , organisatorisch an die Prozesse und letztendlich an die technisch limitierten Möglichkeiten. Man kann das alles wunderbar und tatsächlich konfliktfrei zusammen bringen.... und am Ende minimiert das meinen Arbeitsaufwand.

Antworten