mit welchem Tool lassen sich am besten Webseiten speichern und archivieren? Wünschenswert wäre dabei noch eine Kommentar- und suchfunktion integriert zu haben.
Spiderzilla, eine Firefox-Anwendung, sollte das Abspeichern von Webseiten ermögichen, doch offenbar ist die Software nicht mir für aktuellere Firefox-Browser nutzbar.
als Windows-Nutzerin kenne ich mich nicht mit Linux aus. Website-Ripper hat ein paar Seiten gespeichert. Doch HTTrack speicherte da gar nichts ab, da mehr als 500 Seiten. Und die sind beim Testen Maximum je kopierte Seite.
las nochmal nach. Hier ist zwar die Rede von „Freeware“, doch bei mir war definitiv eine Seitenlimitierung von 500 Seiten je kopierbares Projekt angezeigt.
konnte auf Anhieb keine Software zum Seiten kopieren finden. Ist das Schleichwerbung? Google meint „Seiten kopieren geht nicht · Issue #4 · felixpfeiffer/Subcolumns · GitHub https://github.com/felixpfeiffer/Subcolumns/issues/4
2. Juli 2012 – Kopiert man eine Seite, die einen Artikel mit Spaltenset beinhaltet erreicht man einen PHP-Error in tl_subcolumnsCallback.php Z 112.“ Doch das hilft mir nicht wirklich weiter.