Seite 1 von 1

Webseiten archivieren

Verfasst: 13.08.2017 11:35:34
von Ozelot
Hier ist mein Problem: Ich speichere relativ regelmäßig Webseiten lokal. Bisher mache ich das schlicht mit der Save-As funktion des Browsers, und ordne die dann mühselig von Hand. Das ist aus vielen Gründen ungeschickt: 1. html-Datei und zugehöriger Ordner mit weiteren Dateien sind immer getrennt und müssen einzeln verschoben werden. 2. Das ganze JavaScript und anderer bloat kommt mit, während irgendwelche Bilder oder Stylesheets u.U. fehlen, sodaß man dann offline dann nur Kraut und Rüben sieht oder sich gar der Browser aufgrund irgendwelcher vergeblicher Netzanfragen gemütlich bei 100% CPU Leistung einrichtet - Am Ende les ich die Seite dann manchmal im html-Quelltext: auch kein Spaß.

Kennt ihr komfortable Lösungen für das Problem? Irgendein Plugin o.ä., mit dem ich eine Seite platzsparend in einer einzigen Datei abspeichern kann? Ich brauche nie die interaktiven Teile der Webseite, wirklich nur das momentane Aussehen. Ich bräuchte sozusagen eine Art Screenshotfunktion, die aber halt die ganze Seite erfaßt, nicht nur den am Bildschirm sichtbaren Teil.

P.S. Bevor jemand fragt: Bookmarks erfüllen den Zweck nicht. Ich muß in der Lage sein, offline zu lesen, und bin oft darauf angewiesen, genau einen bestimmten Zustand einer Seite zu sichern, ohne die Gefahr, daß die vom Betreiber offline genommen oder verändert wird.

Re: Webseiten archivieren

Verfasst: 13.08.2017 11:39:07
von DeletedUserReAsG
Ich bräuchte sozusagen eine Art Screenshotfunktion, die aber halt die ganze Seite erfaßt, nicht nur den am Bildschirm sichtbaren Teil.
Wenn’s tatsächlich nur zum Lesen sein soll, sollte doch „Drucken in Datei“ den Job tun? Dann ist die ganze Seite handlich in einer PDF-Datei untergebracht.

Re: Webseiten archivieren

Verfasst: 13.08.2017 11:50:55
von smutbert
als PDF habe ich auch schon so manche Seite gespeichert, aber mir wäre eine andere Lösung lieber. In Debian habe ich auf Anhieb Debianxul-ext-scrapbook gefunden, aber das habe ich mir noch nicht näher angesehen...

Re: Webseiten archivieren

Verfasst: 13.08.2017 12:23:04
von maroc
Ozelot hat geschrieben: ↑ zum Beitrag ↑
13.08.2017 11:35:34
Ich bräuchte sozusagen eine Art Screenshotfunktion, die aber halt die ganze Seite erfaßt, nicht nur den am Bildschirm sichtbaren Teil.
Falls Dir tatsächlich ein Screenshot genügt und Du als Browser Firefox nutzt: Der verfügt in neueren Versionen über eine recht geheimnisvolle :wink: eingebaute Screenshot-Funktion zum Erfassen ganzer Seiten als PNG-Dateien.

So geht's: Mit Tastenkombination Shift+F2 öffnet sich am unteren Browser-Rand eine Kommandozeile, in die Du den Befehl

Code: Alles auswählen

screenshot --fullpage Dateiname.png
einträgst und mit Enter bestätigst (Dateiname kannst Du auch weglassen, wird dann von Firefox automatisch festgelegt).

Re: Webseiten archivieren

Verfasst: 13.08.2017 17:05:50
von Korodny
Ozelot hat geschrieben: ↑ zum Beitrag ↑
13.08.2017 11:35:34
Hier ist mein Problem: Ich speichere relativ regelmäßig Webseiten lokal. Bisher mache ich das schlicht mit der Save-As funktion des Browsers, und ordne die dann mühselig von Hand.
Was meinst du mit "mühselig von Hand ordnen"?

Ich benutze zwei Ansätze:

Für Notizen, Brainstorming, ToDo-Listen etc. benutze ich Zim, ein Desktop-Wiki/Notizbuch. Es gibt eine Firefox-Erweiterung, mit deren Hilfe markierter Text direkt in Zim als neue Unterseite gespeichert werden kann - dabei bleibt die Struktur des kopierten Texts (Überschriften, Listen u.ä.) erhalten, aber graphischer Schnickschnack, Javascript etc. wird entfernt. Ein Link auf das Originaldokument im Netz wird unten an die Zim-Seite angehängt.
Das ist aus vielen Gründen ungeschickt: 1. html-Datei und zugehöriger Ordner mit weiteren Dateien sind immer getrennt und müssen einzeln verschoben werden. 2. Das ganze JavaScript und anderer bloat kommt mit, während irgendwelche Bilder oder Stylesheets u.U. fehlen
Das Problem, dass eine Webseite aus ganz vielen kleinen Elementen besteht, lässt sich lösen. CSS-Stylesheets und Javascript kann man direkt in das Dokument einbinden, und auch Grafiken kann man base64-kodieren und direkt im HTML-Dokument abspeichern. Dafür gibt es auch eine fertige Lösung: Das Python-Program webpage2html lädt eine Webseite mit allen Grafiken etc. herunter und speichert sie als einzelne Datei. webpage2html kann auch bereits (bspw. mit Firefox) abgespeicherte Seiten nachträglich in ein einzelnes Dokument packen.

Ich nutze webpage2html bzw. "Seite speichern unter..." in Firefox für komplexere Seiten, bspw. mit Grafiken und Diagrammen - oder eben für Dinge, die nicht in mein Notizbuch müssen sondern in meine eBook-"Bibliothek". Die genannten Probleme mit fehlenden Bildern oder Stylesheets habe ich damit ganz selten bis gar nicht. Ich bin aber auch eher auf traditionellen Webseiten und in Foren unterwegs als auf Sozialen Netzwerken o.ä. Im Zweifelsfall ist eben etwas Handarbeit erforderlich, geringe HTML-Kenntnisse reichen da aus. Muss aber so gut wie nie eingreifen.

Re: Webseiten archivieren

Verfasst: 13.08.2017 20:59:33
von Ozelot
Danke Euch allen - das sind allesamt ganz brauchbare Vorschläge, die ich alle mal ausprobieren werde - -

Re: Webseiten archivieren

Verfasst: 13.08.2017 21:14:20
von Tintom
Ist Debianhttrack eine Option?

Re: Webseiten archivieren

Verfasst: 13.08.2017 21:27:48
von geier22
Versuche mal das Addon scrapbook plus
https://addons.mozilla.org/de/firefox/a ... book-plus/ das benutze ich seit Jahren.
Äußerst komfortabel. Ein Klick und fertig ist. Suchfunktion, aufrufen der Original Seite, Export, Archivierungs-Tiefe und vieles mehr.

Edit;
Hab das von meinem Phone gesendet und mit ist ein Fehler unterlaufen.
Habe vor einige Zeit auf ScrapBook X umgestellt, da das scrapbook plus nicht mehr entwickelt wird. Allerdings ist noch nicht klar, ob das AddOn ab FF 57 zu Verfügung steht. Als Alternative wird Pale Moon empfohlen.
Diskussion:
https://github.com/danny0838/firefox-sc ... issues/162
Wiki:
https://github.com/danny0838/firefox-sc ... wiki/Intro