Auf meinem Ubuntu-Laptop machen Scriptsprachen im Browser mehr und mehr Probleme. Hier bei w-w-w wird das Nachladen von Seiten-Inhalten zur Geduldsprobe. Oft sind Seiten nicht erreichbar und zwei-, dreimal am Tag muss ich den Rechner per Knopfdruck neu starten.
Dieses Phänomen gibt es auch bei youtube.
Aber nicht bei meinen eigenen Seiten. Umfangreiche Listen (1300 Adressen) übermittelt der Server als CSV-Dateien an den Browser, der baut daraus per Javascript sehr zügig ein table.
Auf meinen Seiten gibt es keinen Fremdzugriff, kann es daran liegen?
w-w-w scheint ja hunderten von Fremdfirmen die Möglichkeit zu bieten, Cookies zu verwalten. Bei youtube ähnlich.
Ich habe mir gestern in Chrome/ Android die Cookie-Informationen angeschaut; 30 Cookies belegen 3,4GB. Daraufhin Cookies gelöscht, jetzt wieder derselbe Zustand. Normal erscheint mir das nicht
Wie alt ist der Laptop und wie aktuell sind die verwendeten Browser ? Und wie stark ist die Internetverbindung ? Aber selbst ältere Geräte mit o2-free Verbindung (~420 MB Download / Stunde) schaffen w-w-w… (Datenschlucker mit insg. 3,4 GB -nicht Cookies- würden da schnell auffallen)
Nach RFC 6265 soll ein Browser die folgenden Mindestgrößen unterstützen:
Ein Cookie soll mindestens 4096 Bytes enthalten können.
Es sollen pro Domain mindestens 50 Cookies gespeichert werden können.
Es sollen insgesamt mindestens 3000 Cookies gespeichert werden können.
Die Mindestgrößen müssen von allen beteiligten Browsern und Servern garantiert werden. Größere Cookies oder eine größere Cookieanzahl lässt die Spezifikation aber durchaus zu. “
Das Hochladen dieses Bildes mit dem FF - offenbar per Skriptsprache - wollte nicht enden. Bei Klick auf Abbruch wurde nicht nur der FF, sondern das ganze Betriebssystem lahmgelegt.