Unterseiten einer Hauptdomain ausgeben ?

Hallo Leute,

hier schreibt ein absoluter No-Checker auf dem Gebiet
Skriptsprachen.

Ich würde gern ein Programm schreiben, dass nach Übergabe
eines Domainnamens (bspw. www.wer-weiss-was.de) alle
Unterseiten dieser Domain (bspw. www.wer-weiss-was/cgi/formu…)
ausgibt. Ist soetwas überhaupt möglich. Auf ASP-Seiten
muß dabei keine Rücksicht genommen werden.

Vielen Dank für jeden noch so kleinen Hinweis.

Gruß

Tom

Ich würde gern ein Programm schreiben, dass nach Übergabe
eines Domainnamens (bspw. www.wer-weiss-was.de) alle
Unterseiten dieser Domain (bspw.
www.wer-weiss-was/cgi/formu…)
ausgibt. Ist soetwas überhaupt möglich. Auf ASP-Seiten
muß dabei keine Rücksicht genommen werden.

Grundsätzlich gibt es dafür schon Utensilien, z.B. wget, mirror
oder was weiß ich was. Zumindest wenn ich „ausgeben“ richtig als
kopieren verstehe und nicht als „Namen schreiben“.

Gerade mit „/cgi/dynamisch“ wirst du aber in jedem Fall Probleme
haben, da diese eben dynamisch generiert sind und sich somit
nicht so einfach in eine lokale Verzeichnisstruktur einfügen.
Dann funktionieren plötzlich die ganzen Verweise nicht mehr und
die Seiten sind dann ja statisch, also meistens auch ihres
Zweckes beraubt. Hat also nicht so viel Sinn.

Von rein statischen Seiten kannst du aber natürlich problemlos
eine Kopie ziehen. Ist z.B. ganz praktisch, wenn es irgendwelche
Dokus nicht zum Saugen gibt, sondern nur über mehrere Web-Seiten
verteilt. Das hat aber dann mit Skriptsprachen nicht mehr viel zu
tun…

Übrigens freundlich, dass du gerade ASP erwähnst. Ist allerdings
bei Weitem nicht die meistbenutzte Einfügesprache für dynamische
Inhalte…

Gruß,
Stefan :smile:

Hallo Stefan,

merci für die Antwort. Ich möchte jedoch keine Inhalte
bzw. HTML-Code runterziehen, sondern mich interessiert nur
die Verzeichnisstruktur einer Web-Adresse die ich gern in
einem Textfile ausgeben lassen möchte.

Also welche Seiten einer Domain könnte ich theoretisch
aufrufen.

Kann man so etwas mit einer Skriptsprache realisieren ?

Gruß

Tom

Die einzige Chance die du hast, ist aus der Seite Links rauszuziehen auf andere Unterseiten und von denen auch wieder Links auf andere… wenn eine Seite nicht verlinkt ist, wirst du sie normalerweise auch nicht finden

Die einzige Chance die du hast, ist aus der Seite Links
rauszuziehen auf andere Unterseiten und von denen auch wieder
Links auf andere… wenn eine Seite nicht verlinkt ist, wirst
du sie normalerweise auch nicht finden

Was im Endeffekt das ist, was die Webspinnen der Suchmaschinen
auch machen.

In jedem Fall musst du ja ohnehin alle Seiten holen, um die
Verknüpfungen dazwischen zu finden. Allso machst du am Besten
eine Kopie der Seite und schaust was kommt. Vielleicht bietet
eines der dafür vorgesehenen Programme ja die Möglichkeit, die
Dateien nach /dev/null zu speichern (also eben nicht zu
speichern). Dann lässt du mitprotokollieren, was an Dateien
geholt wurde und erstellst daraus eine Liste.

Letzteres sollte in jedem Fall gehen. Im Notfall musst du eben
ein bisschen mehr Speicherplatz frei haben…

Gruß,
Stefan :smile: