Statt nun hundert Seiten/Bilder aufzurufen und abzuspeichern suche ich ein Programm, bei dem ich angeben kann www.seite.de/bilder/1*.jpg oder noch besser #.jpg und dann einen Bereich bennenen.
Was nicht geht: sogenannte Webspider oder Leecher. Es existiert zu den Bildern keine Index-Seite, so dass sie irgendwo verlinkt sind.
Ich habe bis jetzt immer ein Batch-File mit einer Download-Software (von iopus) gehabt. Das ist aber schwer zu aendern und ausserdem hat die Download-Software manchmal ne Macke.
Gibt es soetwas fertig?
Achja: bitte fuer ein Windows-Betriebssystem (2000, XP) und bitte kein Firefox-Plugin
danke erstmal fuer den Vorschlag, aber anscheinend kann wget Wildcards nur verwenden, wenn man per FTP herunterlaedt. Bei http kann man sie nicht verwenden.
danke erstmal fuer den Vorschlag, aber anscheinend kann wget
Wildcards nur verwenden, wenn man per FTP herunterlaedt. Bei
http kann man sie nicht verwenden.
Die meisten Leute verwenden eine Shell (Microsofts powershell sollte das können, ansonsten das bash aus der cygwin) und schreiben sowas:
Die meisten Leute verwenden eine Shell (Microsofts powershell
sollte das können, ansonsten das bash aus der cygwin) und
schreiben sowas:
Das ist so aehnlich wie das was wir jetzt haben. Ausserdem ist mir beim Testen noch eine Besonderheit aufgefallen. Das Skript, das wir jetzt nutzen ruft zum Download eine Instanz des InternetExplorers auf. Somit stehen einem auch Anmeldungen bei den Seiten, die per Cookie gespeichert wurden, zur Verfuegung. Das passiert bei wget nicht.
Es wird wohl wieder mal auf eine Eigenentwicklung rauslaufen. Hat jemand Interesse an einem solchen Programm =:wink:
Statt nun hundert Seiten/Bilder aufzurufen und abzuspeichern
suche ich ein Programm, bei dem ich angeben kann www.seite.de/bilder/1*.jpg oder noch besser #.jpg und dann
einen Bereich bennenen.