Hi …
sortieren wir die Dinge, und bleiben beim Thema. Den Rest werde ich deshalb nicht kommentieren.
Es geht im OP von O.Varon nicht um Defragmentierung. Das Thems ist, ob eine fast volle Festplatte auf die NTFS Performance schlägt. Defragmentierung ändert nichts am freien Platz, die Daten werden nur anders verteilt. Also Defragmentierung raus aus der Diskussion. Ich habs aber unabsichtlich selber mit reingebracht - es ging damals in erster Linie darum, die Fragmentieranfälligkeit und den Einfluss sehr großer Anzahlen von Dateien abzuschätzen. Dass der Füllungsgrad der Platte einen Einfluss hat, war ein für mich (sehr überraschendes) Nebenergebnis.
Du könntest aber genau deshalb durchaus recht haben. Es ging nicht um die Untersuchung, ob NTFS bei fast voller Platte schneller oder langsamer ist, es gibg darum ob man sehr große Anzahlen von Dateien (gefordert war: mehr als 40.000) in ein Verzeichnis schreiben kann, ohne Performance- und Stabilitätsprobleme fürchten zu müssen.
Aber wie gesagt, das Testprogramm müsste sich eigentlich noch in meinen alten Archiven finden lassen.
Ich habe dazu…
Eine etwas fragwürdige Messmethode und von mir nicht
nachvollziehbar. Zudem offensichtlich auf einer sehr alten
Hard- und Software durchgeführt.
Alle Benchmarks sind irgendwo fragwürdig. Und natürlich war das Programm schnell selber zusammengestrickt um eine akute Frage zu beantworten. Angenommen, wenn meine Theorie doch stimmt, und es um eine Eigenschaft von NTFS geht, dann ist es herzlich egal, wie alt die (damals übrigens durchaus moderne) Hardware war, man kann lediglich darüber streiten, ob modernere Hardware den Effekt so kaschieren würde dass er nicht mehr zu bemerken ist.
Es mag sein, dass sich das bei Deinem Individualtest in Deiner
individuellen Umgebung so gezeigt hat. Ich habe dutzende
Windows Installationen, häufig Server, erlebt, bei denen die
Platten irgendwann bis zum Anschlag voll liefen (so dass gar
nichts mehr ging), wo aber bis zu diesem Zeitpunkt keinerlei
Performance Einbrüche auffielen. Und darunter waren Exchange-,
Terminal- und SQL Server, wo man einbrechende Performance
schnell bemerkt.
Wir sprechen über ein Enduser-System mit Einzelplatte, und nicht um ein RAID mit mehreren Spindeln, eigenem Controller und Cache Speicher.
Nicht ganz. NTFS belegt die Cluster nicht sequenziell, sondern
schreibt die Dateien ziemlich verstreut über die Platte. Ziel
…
sie werden also wie ein Schrotflintenschuss quer über die
ganze Platte verstreut.
Der Unterschied in der gesamten Performance eines PC im
Allgemeinen und der Plattengeschwindigkeit bei NTFS Systemen
ist bei stark fragmentierten Platten und frisch
defragmentierten marginal und können niemals zu den hier
beschriebenen Einbrüchen führen.
Hier gehen unsere Meinungen auseinander. Meine Interpretation war: der User hat „gefühlte“ Werte angegeben, ich denke nicht, dass das Öffnen jeder etwas komplexeren Webseite tatsächlich mit der Stoppuhr gemessen eine Minute dauert, es könnte aber eine „gefühlte“ Minute sein. Ich höre solche Aussagen in der Praxis sehr oft. Was auf der Stoppuhr 20 Sekunden sind, sind nach User-Aussage Minuten.
Ich habe auch nie behauptet, die fast volle Festplatte *müsse* die Ursache des Problems sein, aber ich halte es für möglich, Du hältst es nicht für möglich. Es spricht aber natürlich viel dafür, dass es noch andere EInflüsse gibt. Man könnte zum Beispiel vermuten, dass bei dem was die Festplatte voll macht auch einige der einschlägigen Performancefresser zu finden sein dürften, dass alles zusammen einfach zu viel für die Platte ist, und dass man das bei plattenintensiven Anwendungen wie einem Browser, der ständig Dateifitzelchen durch seinen Cache schieben muss, eben ganz besonders arg durchschlägt.
Zweitens tendieren alle magnetischen Festplatten dazu, beim
Beschreiben der inneren Sektoren deutlich langsamer zu werden.
angelegt werden, tendenziell immer weiter nach hinten/innen zu
liegen und geraten dadurch in den langsamen Bereich,
Auch hier reden wir eher über theoretische Dinge als über
Wahrnehmbares. Die Unterschiede dürften, selbst wenn Dein
Modell zutreffen würde, bestenfalls im messbaren Bereich
liegen.
Der Bereich ist allerdings sehr messbar, man kann sich lediglich darüber streiten, wie stark der Effekt in der Praxis bis zum User durchschlägt. Vergleiche z.B. hier:
http://www.hdtune.com/
auf der Startseite ist ein Screenshot einer Messung einer 3TB Platte abgebildet. Ein Performance-Unterschied von 30% zwischen außen und innen … Du bist allen Ernstes der Meinung, dass das unwesentlich ist? Und die abgebildete Platte ist meiner Meinung nach noch recht gut … wie gesagt, EInbrüche um 40-50% sind keine seltene Ausnahme (außer Du unterstellst, ich hätte bei der Auswahl meiner Platten ein genz besonderes Händchen besonders schlappe Exemplare zu wählen).
All das hier beschriebene wird in keinem Fall zu „1 min.
warten um im Browser einen neuen Tab aufmachen zu können“
führen.
Außer jemand hat bessere Infos, dann streue ich mir sofort
Asche aufs Haupt und behaupte künftig das Gegenteil.
Meine berufliche Erfahrungen mit NTFS Dateisystemen (Ab Win NT
3.1, also über 20 Jahre) können Deine Theorien in keiner Weise
bestätigen. Ganz im Gegenteil. Ich bleibe dabei: Solange noch
Speicherplatz frei ist, interessiert die Menge der auf der
Festplatte befindlichen Daten exakt Null.
Exakt Null ist eine klare Aussage. Lass uns das doch einfach überprüfen. Welche Testmethode würdest Du akzeptieren? Ich könnte z.B. mein damaliges Testprogramm wieder ausbuddeln, es müsste mit geringen Änderungen auch auf Windows 7 compilier- und lauffähig sein. PM an mich mit einer EMail Adresse, und Du bekommst Source + Programm zur Begutachtung.
In dem hier konkreten Fall, wäre, würde man die Festplatte als
Ursache in Erwägung ziehen, eher ein physikalischer oder
logischer Defekt oder aber zu geringer Speicher und damit
ständiges Auslagern denkbar.
Ein Blick in die Ereignisanzeige
bzw. die Systemauslastung bringt einen da schon weiter. Das
wäre bei Deinem damals durchgeführten Test sicher auch eine
sinnvolle begleitende Maßnahme gewesen.
Da sind wir wieder beisammen. Einfach nur aus dem Symptom „langsam“ und „Platte fast voll“ eine Ursache abzuleiten ist keine gute Idee, und eigentlich auch unnötig, der Performance-Monitor ist auch für einen nicht-Admins kein Hexenwerk, und warum soll man raten wenn man nachsehen kann. Es ist ja nicht einmal bewiesen, dass hohe Festplattenaktivität vorliegt, wenn der User sein Geschwindigkeitsproblem hat - er selbst hat das nämlich nicht gesagt.
Ich bin lediglich der Meinung, dass man die fast volle Festplatte nicht einfach so als völlig unwesentlich (Zitat: exakt null) abtun kann. Meiner Meinung nach (die nicht richtig sein muss!) gibt es diesen Einfluss nämlich.
Wollen wir nachsehen, oder die Diskussion als „ungelöst“ zu den Akten legen?
Gruss Armin.-