Websiten speichern und archivieren

Hi,

mit welchem Tool lassen sich am besten Webseiten speichern und archivieren? Wünschenswert wäre dabei noch eine Kommentar- und suchfunktion integriert zu haben.

Spiderzilla, eine Firefox-Anwendung, sollte das Abspeichern von Webseiten ermögichen, doch offenbar ist die Software nicht mir für aktuellere Firefox-Browser nutzbar.

Wer kann helfen?

Ciao,
Romana

Hallo,

und linux ist wget die erste wahl.

hth

und linux ist wget die erste wahl.

Dem kann ich nur zustimmen. wget gibt es meines Erachtens auch für Windows, habe es aber unter der Plattform noch nicht getestet.

Andreas

Httrack Webseiten-Kopierer würde ich vorschlagen.

Hi.

als Windows-Nutzerin kenne ich mich nicht mit Linux aus. Website-Ripper hat ein paar Seiten gespeichert. Doch HTTrack speicherte da gar nichts ab, da mehr als 500 Seiten. Und die sind beim Testen Maximum je kopierte Seite.

Ciao,
Romana

Ich hab den auch unter Windows laufen und keinerlei Einschränkungen festgestellt… Was heisst „Testen“?

Hi,

las nochmal nach. Hier ist zwar die Rede von „Freeware“, doch bei mir war definitiv eine Seitenlimitierung von 500 Seiten je kopierbares Projekt angezeigt.

Ciao,
Romana
http://www.chip.de/downloads/WinHTTrack_13008895.html

also mit github kann man auch codes und statische webseiten speichern. auf meiner arbeit hier benutze ich das auch immer

Hi Myriell,

konnte auf Anhieb keine Software zum Seiten kopieren finden. Ist das Schleichwerbung? Google meint „Seiten kopieren geht nicht · Issue #4 · felixpfeiffer/Subcolumns · GitHub
https://github.com/felixpfeiffer/Subcolumns/issues/4
2. Juli 2012 – Kopiert man eine Seite, die einen Artikel mit Spaltenset beinhaltet erreicht man einen PHP-Error in tl_subcolumnsCallback.php Z 112.“ Doch das hilft mir nicht wirklich weiter.

Ciao,
Romana