Ich habe ein kleines Skript am Laufen, welches mir die Youtube-Videos meiner abonierten Kanäle lokal speichert. Im Wesentlichen hole ich mir eine Kopie der Website, durchsuche sie nach den Video-URLs und lasse das Programm youtube-dl darauf los. Das klappte bislang auch recht gut.
Vor einiger Zeit hat Youtube mal wieder seine Infrastruktur verändert. Jetzt laden sich die Webseiten ständig neu, wenn man nach unten scrollt.
Mein Problem ist folgendes: Mit dem Befehl
Code: Alles auswählen
curl -o videofile http://www.youtube.com/<Video-URL>
Kennt jemand von Euch eine Möglichkeit, mittels curl, wget oder ähnlichem, die ganze Website oder zumindest bis zu einem Zeilen- oder Größenlimit zu speichern?