Möglichkeit alle PDF-Dateien einer Seite zu downloaden
Hallo zusammen
ich habe eine INternetseite mit mehreren Folgeseiten, welche pro Seite ca. 40 Links enthalten. Ich hätte gerne alle Links, aber das ist viel zu umständlich auf jeden Link zu drücken und dann über die Katgorie "Rezept drucken" die PDF-Datei, welche sich dadurch öffnet zu speichern und dass vllt 500x. Kennt jemand ein gutes Tool, oder einen guten Trick, wie man sowas machen kann? Bei der Seite handelt es sich um WWW.OETKER.DE. Als Brower benutze ich IE und Opera.
Danke ;-)
5 Antworten
Alle Varianten duerften nicht legal sein. Die Seitenbetreiber haben kein Interesse daran, dass Du das automatisiert betreibst.
Moeglich waere es aber wahrscheinlich mit httrack (wenn ich den Namen richtig im Kopf habe)
Gute Alternative: FilePanther http://filepanther.softonic.de/
Die Software lädt alle Dateien zu einer Website inkl. aller Unterseiten und Downloads auf anderen verlinkten Seiten - wenn gewünscht - und zeigt sie übersichtlich an.
Über eine Filterfunktion, kann man die Dateien dann nach PDF filtern, um auch nur PDF Dokumente zu bekommen.
Mit dem integrierten Download Manager lassen sich diese dann alle herunterladen.
Bei Firefox könnte man das vielleicht mit einem Macro erledigen. Dafür gibt's die Extension "iMacros".
Gruß wiele
Wenn Du schon den neuen IE 8 hast bist Du gut dran.
Dort ist "WinHTTrack" integriert.
Das ist für download von Webseiten sehr gut geeignet.
Ansonsten einfach unter http://winhttrack-website-copier.softonic.de/ runterladen.
Gruß aus Hagen
Ein Add-On kenne ich nur für Firefox: DownThemAll.
Leider bringt mir das Programm relativ wenig. Auf der Seite sind zig Links, und jeder Link führt zu einem Rezept, bei welchem wiederrum ein Link ist, bei dem man in den Druckdialog zum Speichern einer PDF-Datei kommt. Also praktisch 2 Hürden zu überprücken
Von "nicht legal" kann keine Rede sein. Davon, dass sie kein Interesse daran haben, schon.