ich versuche eine Webseite komplett offline zu speichern inkl. aller auf der Seite verlinkten Bildern, aber ohne den ganzen Links zu folgen (die Bilder sind ja auch Links, evtl. kann man da unterscheiden). Im Grunde will ich die Seite genau so sehen wie sie im Browser dargestellt wird, wenn ich sie normal aufrufe. Habe das hier versucht:
Code: Alles auswählen
wget -r -l 1 -np -p --user-agent="Mozilla/5.0 (X11; U; Linux i686; de; rv:1.9b5) Gecko/2008050509 Firefox/3.0b5" url
Code: Alles auswählen
wget -r -l 1 -k -np -E -p -e robots=off --user-agent="Mozilla/5.0 (X11; U; Linux i686; de; rv:1.9b5) Gecko/2008050509 Firefox/3.0b5" url
Anderes Problem, da ich die Seiten für das spätere Offline lesen auf das (wifi-only) Tablet speichere: Ich erhalte einen Ordner mit vielen HTMLs. Hatte es aber auch schon so gesehen, dass ein Ordner erstellt wurde, in diesem gab es dann eine index.html (das war die entsprechende SEite) und einen Unterordner wo ALLE für die Darstellung der Seite nötigen Inhalte abgespeichert waren (verlinkte Seiten, Bilder, usw.).
Hab da jetzt verschiedene Seiten (u.a. eine kurze Wikipedia-Seite) versucht. Immer das gleiche Ergebnis.