ich bin auf der Suche nach einem Werkzeug (Win95/98), mit dem ich HTML-Dokumente komprimieren kann.
Es ist ja so, daß Dateien, in denen der Code hintereinaderweggeschrieben wird, ohne Leer-Räume kleiner und damit schneller zu laden ist, als strukturierte Dateien.
Das Tool sollte auf der einen Seite den Code zusammenfügen, also überflüssie Leerzeilen/Leerschritte rausnehmen, auf der anderen Seite aber auch in der Lage sein, den O-Zustand wieder herzustellen.
wen ich es richtig sehe, hat das aber nichts damit zu tun, dass es um html-Dateien geht.
Beim Komprimieren werden auch nicht einfach alle Leerzeichen geloescht (wie sollte daraus auch das Original-File wieder erstellt werden?), sondern eher haeufig auftretende Zeichenfolgen (etwa ver, was als Vorsilbe oft auftritt) als besonders kurze Zeichenfolgen gespeichert (z.B. als 0). Soviel zum Prinzip.
Unter UNIX wuerde ich gzip empfehlen. Was man unter Windows verwendet weiss ich nicht genau, vielleicht versuchst Du es mal mit compress oder aehnlichem.
Anabel
[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]
daß hast Du leider falsch verstanden.
Probiere einfach mal aus, die HTML-Dateien ohne Leerzeichen abzuspeichern. So daß der Code fast nur in einer Zeile liegt. Eine solche Datei ist kleiner als eine Datei, in welcher der Code übersichtlich strukturiert wird.
Das meine ich mit Leerzeilen. Ich rede also nicht von binären Bits, sondern ganz klar von Leerschritten innerhalb einer Textdatei.
Und ich könnte mir vorstellen, daß es ein Tool gibt, welches diese Leerschritte entfernt, sich aber in einer externen Datei (welche dann nicht auf dem Webserver kopiert wird, sondern nur zum Verarbeiten auf dem Client) merkt bei welcher HTML-Datei wo/wieviele Leerschritte entfernt wurden.
Dadurch wäre es möglich Dateien noch mehr für den Download zu optimieren und eine weitere Überarbeitung der Dateien wäre damit auch gesichert, weil das Tool anhand der gespeicherten Daten die HTML-Textdatei wieder in den O-Zustand bringen könnte.
Soweit die Theorie. In der Praxis fehlt mir so ein Tool.
ich glaube wirklich nicht, dass eine solche Methode eine wesentliche Uebertragungs-Verbesserung bringt. Selbst wenn das File dann 10 % kleiner waere, sollte es sich kaum auswirken. Was fuer eine Verbindung und was fuer Files hast Du, damit diese Einsparung interessant wird.
Ausserdem wird Dir jeder dankbar sein, wenn er mal Deinen derart komprimierten Quellcode lesen will; soll ja vorkommen.
Hast schon recht, aber wenn ich 100 Dateien habe die ich nur um 10% reduzieren kann, dann habe ich eine enorme Gesamtersparnis.
Und darauf kommt es mir an.
Davon abgesehen, wenn die Leute sollen sich für die Inhalte der Seiten interessieren (zumal die Seiten nicht für Internet und Web-Profis gestaltet werden) und nicht für den Code. Wer sich für Code interessiert wird wohl eher auf anderen Seiten Ausschau halten…
sicher, wenn im gesamten Internet 10 % an Platz gespart wuerden, haette man insgesamt viel gespart. Aber was nuetzt es Dir, wenn Du in 100 Files jeweils 10 % sparst? Fuer den Benutzer kommt es auf jedes einzelne geladene File an. Wenn er jeweils 10 % der Uebertragungszeit spart, merkt er das kaum.
Andererseits, wenn das ganze nicht fuers Internet bestimmt ist, wie Du andeutest, dann also fuer ein Intranet? Hm, da sehe ich das aber auch nicht ein, denn da sollten die 10 % wirklich keine Rolle spielen.
Anabel
[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]