Netbook wahnsinnig langsam

HAllo wwwler!

Habe seit ca. 5 Jahren ein Samsung N130 Netbook mit Windows 7. Am Anfang lief alles prima inzwischen ist es aber unglaublich lahm. Teilweise muss ich 1 min. warten um im Browser einen neuen Tab aufmachen zu können. Oft bekomme ich auch eine Nachricht wie diese: „Ein Skript auf dieser Seite ist eventuell beschäftigt oder es antwortet nicht mehr. Sie können das Skript jetzt stoppen oder fortsetzen, um zu sehen, ob das Skript fertig wird.“
Aber auch ein neues Programm zu öffnen dauert ewig; eigentlich alles!

Habe Spybot installiert und auch darüberlaufen lassen, ebenso wie antivir. Beides ohne Befund.

Ich dachte eigentlich, dass Windows 7 nicht mehr so zugemüllt wird, dass mit der Zeit gar nichts mehr geht…

Weiß jemand Rat?

Vielen Dank schon mal!
LAdyDi

Wie groß ist die Platte C: bzw. die C:stuck_out_tongue:artition und wie viel freier Platz ist da noch drauf?

Gruß
O.Varon

…Gesamtgröße 93 GB, freier Speicher ca. 5GB

Grüße,
LadyDi

Hallo!
Da wundert mich nichts mehr!
Mach eine Festplattenbereinigung und dann komprimiere die Festplatte.
Zusätzlich könntest Du Dateien, die Du selten brauchst, auf eine externe Festplatte
oder einen Stick auslagern, damit Du wieder Speicherplatz auf der Festplatte gewinnst,
dann wird Dein Rechner auch wieder schneller sein.
MfG
airblue21

1 Like

Das erkläre mal bitte

Da wundert mich nichts mehr!

Aha. Die Tatsache, dass nur wenig Speicher auf der Festplatte verfügbar ist, macht den PC Deiner Meinung nach also langsam? Bis gespannt auf die technische Erklärung

Mach eine Festplattenbereinigung und dann komprimiere die
Festplatte.

Komprimieren? Wer macht denn so was? Macht den PC nur langsam. War unter Win98 vielleicht noch angesagt, als Plattenplatz ein Vermögen gekostet hat.

Zusätzlich könntest Du Dateien, die Du selten brauchst, auf
eine externe Festplatte
oder einen Stick auslagern, damit Du wieder Speicherplatz auf
der Festplatte gewinnst,
dann wird Dein Rechner auch wieder schneller sein.

Nochmals: Solange noch Speicherplatz frei ist, interessiert die Menge der auf der Festplatte befindlichen Daten exakt Null. Auf der anderen Seite fallen mir hundertausend andere Gründe ein, die für ein Verlangsamung verantwortlich sein könnten…

Hi …

Da wundert mich nichts mehr!

Aha. Die Tatsache, dass nur wenig Speicher auf der Festplatte
verfügbar ist, macht den PC Deiner Meinung nach also langsam?
Bis gespannt auf die technische Erklärung

Ich muss ihm recht geben. Ich habs unter WIndows 2000 nachgemessen weil ich wissen wollte, was Defragmentierung bringt, da NTFS je eingentlich wenig fragmentierempfindlich sein müsste. Ich wollte es genauer wissen. Da sich an NTFS meines WIssens seither grundlegend nichts geändert hat halte ich die Ergebnisse immer noch für anwendbar,

Ich habe dazu mehrere Programme parallel laufen lassen die kleinere und größere Mülldateien mit verschiedenen Größen angelegt und blockweise vergrößert haben und die die Zeit mitgestoppt, sowohl für das Anlegen der neuen Datei als auch für das Anhängen weiterer Blöcke.

Mein Resultat: bis etwa 80% Füllung der Festplatte (damals: 80GB) war der Einfluss der Fragmentierung gleich null. Ergo hätte eine Defragmentierung auch null gebracht. Danach wurde er immer deutlicher, die Schreibzeiten stiegen erst langsam und dann immer deutlicher. Ab etwa 95% Füllung war die Platte dann auf dem Leistungsniveau eines USB Sticks. Das ANlegen einer neuen Datei dauerte bereits Sekunden. Vor allem das Anlegen neuer Dateien dauerte lähmend lange.

Nochmals: Solange noch Speicherplatz frei ist, interessiert
die Menge der auf der Festplatte befindlichen Daten exakt
Null.

Nicht ganz. NTFS belegt die Cluster nicht sequenziell, sondern schreibt die Dateien ziemlich verstreut über die Platte. Ziel ist, dass hinter jeder Datei noch Platz ist damit sie ohne sofortige Fragmentierung noch etwas wachsen kann. Diese Taktik reduziert die Anzahl der Fragmente. Den genauen Algorithmus hält MS leider - wie immer - geheim. Das „verteilen“ der Daten hat aber zur Folge, dass die letzten Dateien sich die noch freien Blöcke zwischen den bestehenden Dateien zusammensuchen, sie werden also wie ein Schrotflintenschuss quer über die ganze Platte verstreut.

Zweitens tendieren alle magnetischen Festplatten dazu, beim Beschreiben der inneren Sektoren deutlich langsamer zu werden. Der Effekt ist sehr deutlich mit Benchmarks zu sehen, ein Geschwindigkeitsverlust von 50% oder noch mehr ist für magnetische Platten völlig normal. Da die Clusterliste von außen nach innen organisiert wird kommen Dateien, die später angelegt werden, tendenziell immer weiter nach hinten/innen zu liegen und geraten dadurch in den langsamen Bereich,

Das war zumindest mein Erklärungsmodell. Leider konnte ich weder damals noch heute eine offizielle Microsoft Doku zu diesem Thema finden … es ist also vieles lückenhaft, aber ich meine dass der Effekt der langsamen Platte bei fast voll bewiesen ist.

Außer jemand hat bessere Infos, dann streue ich mir sofort Asche aufs Haupt und behaupte künftig das Gegenteil.

Gruss Armin.

2 Like

Ich muss ihm recht geben. Ich habs unter WIndows 2000
nachgemessen weil ich wissen wollte, was Defragmentierung
bringt, da NTFS je eingentlich wenig fragmentierempfindlich
sein müsste. Ich wollte es genauer wissen. Da sich an NTFS
meines WIssens seither grundlegend nichts geändert hat halte
ich die Ergebnisse immer noch für anwendbar,

Nun ja. Als allererstes sollte man bedenken, dass Windows 7, sobald es sich im Leerlauf befindet, die Platten regelmäßig selbstständig defragmentiert.

Ich habe dazu…

Eine etwas fragwürdige Messmethode und von mir nicht nachvollziehbar. Zudem offensichtlich auf einer sehr alten Hard- und Software durchgeführt.

Mein Resultat: bis etwa 80% Füllung der Festplatte (damals:
80GB) war der Einfluss der Fragmentierung gleich null. Ergo
hätte eine Defragmentierung auch null gebracht. Danach wurde
er immer deutlicher, die Schreibzeiten stiegen erst langsam
und dann immer deutlicher. Ab etwa 95% Füllung war die Platte
dann auf dem Leistungsniveau eines USB Sticks. Das ANlegen
einer neuen Datei dauerte bereits Sekunden. Vor allem das
Anlegen neuer Dateien dauerte lähmend lange.

Es mag sein, dass sich das bei Deinem Individualtest in Deiner individuellen Umgebung so gezeigt hat. Ich habe dutzende Windows Installationen, häufig Server, erlebt, bei denen die Platten irgendwann bis zum Anschlag voll liefen (so dass gar nichts mehr ging), wo aber bis zu diesem Zeitpunkt keinerlei Performance Einbrüche auffielen. Und darunter waren Exchange-, Terminal- und SQL Server, wo man einbrechende Performance schnell bemerkt.

Nicht ganz. NTFS belegt die Cluster nicht sequenziell, sondern
schreibt die Dateien ziemlich verstreut über die Platte. Ziel
ist, dass hinter jeder Datei noch Platz ist damit sie ohne
sofortige Fragmentierung noch etwas wachsen kann. Diese Taktik
reduziert die Anzahl der Fragmente. Den genauen Algorithmus
hält MS leider - wie immer - geheim. Das „verteilen“ der Daten
hat aber zur Folge, dass die letzten Dateien sich die noch
freien Blöcke zwischen den bestehenden Dateien zusammensuchen,
sie werden also wie ein Schrotflintenschuss quer über die
ganze Platte verstreut.

Der Unterschied in der gesamten Performance eines PC im Allgemeinen und der Plattengeschwindigkeit bei NTFS Systemen ist bei stark fragmentierten Platten und frisch defragmentierten marginal und können niemals zu den hier beschriebenen Einbrüchen führen.

Zweitens tendieren alle magnetischen Festplatten dazu, beim
Beschreiben der inneren Sektoren deutlich langsamer zu werden.
Der Effekt ist sehr deutlich mit Benchmarks zu sehen, ein
Geschwindigkeitsverlust von 50% oder noch mehr ist für
magnetische Platten völlig normal. Da die Clusterliste von
außen nach innen organisiert wird kommen Dateien, die später
angelegt werden, tendenziell immer weiter nach hinten/innen zu
liegen und geraten dadurch in den langsamen Bereich,

Auch hier reden wir eher über theoretische Dinge als über Wahrnehmbares. Die Unterschiede dürften, selbst wenn Dein Modell zutreffen würde, bestenfalls im messbaren Bereich liegen.

All das hier beschriebene wird in keinem Fall zu „1 min. warten um im Browser einen neuen Tab aufmachen zu können“ führen.

Außer jemand hat bessere Infos, dann streue ich mir sofort
Asche aufs Haupt und behaupte künftig das Gegenteil.

Meine berufliche Erfahrungen mit NTFS Dateisystemen (Ab Win NT 3.1, also über 20 Jahre) können Deine Theorien in keiner Weise bestätigen. Ganz im Gegenteil. Ich bleibe dabei: Solange noch Speicherplatz frei ist, interessiert die Menge der auf der Festplatte befindlichen Daten exakt Null. Und auch heftige Fragmentierung und auch wo genau die Daten auf die Platte geschrieben werden, macht sich in der Regel nicht wirklich bemerkbar, schon gar nicht in der hier beschriebenen Form.

Ungeachtet dessen, ist eine Defragmentierung von Zeit zu Zeit sinnvoll, aber in der Regel wird diese völlig überbewertet. Diese Überbewertung scheint noch aus Zeiten der FAT Dateisysteme zu stammen.

In dem hier konkreten Fall, wäre, würde man die Festplatte als Ursache in Erwägung ziehen, eher ein physikalischer oder logischer Defekt oder aber zu geringer Speicher und damit ständiges Auslagern denkbar. Ein Blick in die Ereignisanzeige bzw. die Systemauslastung bringt einen da schon weiter. Das wäre bei Deinem damals durchgeführten Test sicher auch eine sinnvolle begleitende Maßnahme gewesen.

Hallo,

Ich dachte eigentlich, dass Windows 7 nicht mehr so zugemüllt
wird, dass mit der Zeit gar nichts mehr geht…

neu gekaufte Laptops sind in der Regel schon mit Bloatware vermüllt.
Viele User potenzieren das noch, indem sie unsinnige Tools installieren und sind nicht darum kümmern, dass jede installierte Software irgend welche Hintergrundprogramme mitbringt, die ständig Ressourcen verbraten.
Wie sieht es also in der Config.sys im Menü Systemstart aus?
Ist da ein ellenlange Latte mit aktiven Einträgen?

So allg. empfehle ich auch, mal systematisch zu entmüllen.
Alle nicht benutzten Tools und Programme ordentlich deinstallieren.
Temp-Ordner löschen. Browser-Caches leeren usw.

Das ganze ist keine Garantie dafür, dass das Gerät dann wieder fix läuft.
Evtl. gibt es auch andere Gründe dafür, dass es lagt.
Dann Prozessmanager benutzen um zu ergründen, welche Task evtl. klemmt.

Wenn alles nix bringt, dann wäre mal eine Neiinstallation angesagt.
Gruß Uwi

Hi …

sortieren wir die Dinge, und bleiben beim Thema. Den Rest werde ich deshalb nicht kommentieren.

Es geht im OP von O.Varon nicht um Defragmentierung. Das Thems ist, ob eine fast volle Festplatte auf die NTFS Performance schlägt. Defragmentierung ändert nichts am freien Platz, die Daten werden nur anders verteilt. Also Defragmentierung raus aus der Diskussion. Ich habs aber unabsichtlich selber mit reingebracht - es ging damals in erster Linie darum, die Fragmentieranfälligkeit und den Einfluss sehr großer Anzahlen von Dateien abzuschätzen. Dass der Füllungsgrad der Platte einen Einfluss hat, war ein für mich (sehr überraschendes) Nebenergebnis.

Du könntest aber genau deshalb durchaus recht haben. Es ging nicht um die Untersuchung, ob NTFS bei fast voller Platte schneller oder langsamer ist, es gibg darum ob man sehr große Anzahlen von Dateien (gefordert war: mehr als 40.000) in ein Verzeichnis schreiben kann, ohne Performance- und Stabilitätsprobleme fürchten zu müssen.

Aber wie gesagt, das Testprogramm müsste sich eigentlich noch in meinen alten Archiven finden lassen.

Ich habe dazu…

Eine etwas fragwürdige Messmethode und von mir nicht
nachvollziehbar. Zudem offensichtlich auf einer sehr alten
Hard- und Software durchgeführt.

Alle Benchmarks sind irgendwo fragwürdig. Und natürlich war das Programm schnell selber zusammengestrickt um eine akute Frage zu beantworten. Angenommen, wenn meine Theorie doch stimmt, und es um eine Eigenschaft von NTFS geht, dann ist es herzlich egal, wie alt die (damals übrigens durchaus moderne) Hardware war, man kann lediglich darüber streiten, ob modernere Hardware den Effekt so kaschieren würde dass er nicht mehr zu bemerken ist.

Es mag sein, dass sich das bei Deinem Individualtest in Deiner
individuellen Umgebung so gezeigt hat. Ich habe dutzende
Windows Installationen, häufig Server, erlebt, bei denen die
Platten irgendwann bis zum Anschlag voll liefen (so dass gar
nichts mehr ging), wo aber bis zu diesem Zeitpunkt keinerlei
Performance Einbrüche auffielen. Und darunter waren Exchange-,
Terminal- und SQL Server, wo man einbrechende Performance
schnell bemerkt.

Wir sprechen über ein Enduser-System mit Einzelplatte, und nicht um ein RAID mit mehreren Spindeln, eigenem Controller und Cache Speicher.

Nicht ganz. NTFS belegt die Cluster nicht sequenziell, sondern
schreibt die Dateien ziemlich verstreut über die Platte. Ziel

sie werden also wie ein Schrotflintenschuss quer über die
ganze Platte verstreut.

Der Unterschied in der gesamten Performance eines PC im
Allgemeinen und der Plattengeschwindigkeit bei NTFS Systemen
ist bei stark fragmentierten Platten und frisch
defragmentierten marginal und können niemals zu den hier
beschriebenen Einbrüchen führen.

Hier gehen unsere Meinungen auseinander. Meine Interpretation war: der User hat „gefühlte“ Werte angegeben, ich denke nicht, dass das Öffnen jeder etwas komplexeren Webseite tatsächlich mit der Stoppuhr gemessen eine Minute dauert, es könnte aber eine „gefühlte“ Minute sein. Ich höre solche Aussagen in der Praxis sehr oft. Was auf der Stoppuhr 20 Sekunden sind, sind nach User-Aussage Minuten.

Ich habe auch nie behauptet, die fast volle Festplatte *müsse* die Ursache des Problems sein, aber ich halte es für möglich, Du hältst es nicht für möglich. Es spricht aber natürlich viel dafür, dass es noch andere EInflüsse gibt. Man könnte zum Beispiel vermuten, dass bei dem was die Festplatte voll macht auch einige der einschlägigen Performancefresser zu finden sein dürften, dass alles zusammen einfach zu viel für die Platte ist, und dass man das bei plattenintensiven Anwendungen wie einem Browser, der ständig Dateifitzelchen durch seinen Cache schieben muss, eben ganz besonders arg durchschlägt.

Zweitens tendieren alle magnetischen Festplatten dazu, beim
Beschreiben der inneren Sektoren deutlich langsamer zu werden.
angelegt werden, tendenziell immer weiter nach hinten/innen zu
liegen und geraten dadurch in den langsamen Bereich,

Auch hier reden wir eher über theoretische Dinge als über
Wahrnehmbares. Die Unterschiede dürften, selbst wenn Dein
Modell zutreffen würde, bestenfalls im messbaren Bereich
liegen.

Der Bereich ist allerdings sehr messbar, man kann sich lediglich darüber streiten, wie stark der Effekt in der Praxis bis zum User durchschlägt. Vergleiche z.B. hier:

http://www.hdtune.com/

auf der Startseite ist ein Screenshot einer Messung einer 3TB Platte abgebildet. Ein Performance-Unterschied von 30% zwischen außen und innen … Du bist allen Ernstes der Meinung, dass das unwesentlich ist? Und die abgebildete Platte ist meiner Meinung nach noch recht gut … wie gesagt, EInbrüche um 40-50% sind keine seltene Ausnahme (außer Du unterstellst, ich hätte bei der Auswahl meiner Platten ein genz besonderes Händchen besonders schlappe Exemplare zu wählen).

All das hier beschriebene wird in keinem Fall zu „1 min.
warten um im Browser einen neuen Tab aufmachen zu können“
führen.

Außer jemand hat bessere Infos, dann streue ich mir sofort
Asche aufs Haupt und behaupte künftig das Gegenteil.

Meine berufliche Erfahrungen mit NTFS Dateisystemen (Ab Win NT
3.1, also über 20 Jahre) können Deine Theorien in keiner Weise
bestätigen. Ganz im Gegenteil. Ich bleibe dabei: Solange noch
Speicherplatz frei ist, interessiert die Menge der auf der
Festplatte befindlichen Daten exakt Null.

Exakt Null ist eine klare Aussage. Lass uns das doch einfach überprüfen. Welche Testmethode würdest Du akzeptieren? Ich könnte z.B. mein damaliges Testprogramm wieder ausbuddeln, es müsste mit geringen Änderungen auch auf Windows 7 compilier- und lauffähig sein. PM an mich mit einer EMail Adresse, und Du bekommst Source + Programm zur Begutachtung.

In dem hier konkreten Fall, wäre, würde man die Festplatte als
Ursache in Erwägung ziehen, eher ein physikalischer oder
logischer Defekt oder aber zu geringer Speicher und damit
ständiges Auslagern denkbar.

Ein Blick in die Ereignisanzeige
bzw. die Systemauslastung bringt einen da schon weiter. Das
wäre bei Deinem damals durchgeführten Test sicher auch eine
sinnvolle begleitende Maßnahme gewesen.

Da sind wir wieder beisammen. Einfach nur aus dem Symptom „langsam“ und „Platte fast voll“ eine Ursache abzuleiten ist keine gute Idee, und eigentlich auch unnötig, der Performance-Monitor ist auch für einen nicht-Admins kein Hexenwerk, und warum soll man raten wenn man nachsehen kann. Es ist ja nicht einmal bewiesen, dass hohe Festplattenaktivität vorliegt, wenn der User sein Geschwindigkeitsproblem hat - er selbst hat das nämlich nicht gesagt.

Ich bin lediglich der Meinung, dass man die fast volle Festplatte nicht einfach so als völlig unwesentlich (Zitat: exakt null) abtun kann. Meiner Meinung nach (die nicht richtig sein muss!) gibt es diesen Einfluss nämlich.

Wollen wir nachsehen, oder die Diskussion als „ungelöst“ zu den Akten legen?

Gruss Armin.-

Wollen wir nachsehen, oder die Diskussion als „ungelöst“ zu
den Akten legen?

Da wir zu sehr vom Thema abschweifen:

http://aktenzeichenxy.zdf.de/ZDF/zdfportal/blob/3283…

Hallo,
habe inzwischen 30GB auf der Festplatte frei gemacht; daran lag es also wohl nicht.

Viele User potenzieren das noch, indem sie unsinnige Tools
installieren und sind nicht darum kümmern, dass jede
installierte Software irgend welche Hintergrundprogramme
mitbringt, die ständig Ressourcen verbraten.
Wie sieht es also in der Config.sys im Menü Systemstart aus?
Ist da ein ellenlange Latte mit aktiven Einträgen?

au weia, wo bekomme ich denn das her?
Habe im Taskmanager geschaut, wie viele Prozesse laufen: ca. 30; weiß nicht ob das viel ist. Das meiste sagt mir aber leider gra nichts…
Den Taskmanager zu öffnen hat übrigens 1,30 min gedauert.

So allg. empfehle ich auch, mal systematisch zu entmüllen.
Alle nicht benutzten Tools und Programme ordentlich
deinstallieren.
Temp-Ordner löschen. Browser-Caches leeren usw.

Hab ich alles gemacht:
Bei den Autostart-Einträgen, weiß ich leider zu wenig bescheid und traue mich nicht, einfach welche abzuschießen…

Wenn alles nix bringt, dann wäre mal eine Neiinstallation
angesagt.

DA hätte ich dann ein ordentliches Problem: der Code für mein MS Office-Paket steht unten auf meinem Netbook…und der ist inwzischen völlig unleserlich (haben die echt clever gamcht - und ich auch, den Code nicht zu notieren…)
Und eine System-CD/DVD gabs auch nicht mit dazu…
LadyDi

…ich vergaß: Arbeitsspeicher ist laut task-manager zu 80% ausgelastet - da liegt wohl das Problem, oder? Aber außer Mozilla hab ich nix laufen (der braucht laut TAskmanager 250.000k)…???

Hallo,

Wie sieht es also in der Config.sys im Menü Systemstart aus?
Ist da ein ellenlange Latte mit aktiven Einträgen?

au weia, wo bekomme ich denn das her?

In der Eingabeaufforderung einfach eingeben „msconfig“ + [ENTER]
Dann unter Menü „Systemstart“ schauen.

Habe im Taskmanager geschaut, wie viele Prozesse laufen: ca.
30; weiß nicht ob das viel ist. Das meiste sagt mir aber
leider gra nichts…

Ist eine ganze Menge.
In einem schlanken System (das sollte auf einem Netbook so sein) würde ich mal 10…15 Prozesse als normal ansehen

Den Taskmanager zu öffnen hat übrigens 1,30 min gedauert.

Hast du irgend so eine sinnlose personal Firewall installiert?
Ist ein Virenprogramm so eingestellt, dass es ständig alles überprüfen will?

Hab ich alles gemacht:
Bei den Autostart-Einträgen, weiß ich leider zu wenig bescheid
und traue mich nicht, einfach welche abzuschießen…

Stelle sie hier ein.
Das meiste braucht man nicht.
Mit Google kann man meist raus bekommen, was die machen.
Gruß Uwi

Guten Morgen!

Heute morgen waren es 75 (!) Prozesse. habe inzwischen Chrome installiert - ist allerdings auch nicht wesentlich schneller.

Habe mal screenshots vom Task-Manager und den Autostarteinträgen gemacht, falls das was hilft:
http://abload.de/image.php?img=autostart1ynk51.jpg
http://abload.de/image.php?img=autostart2jxje5.jpg
http://abload.de/image.php?img=taskmanager2ocj8n.jpg
http://abload.de/image.php?img=taskmanagernvjlo.jpg

Grüße,
LadyDi … mehr auf http://w-w-w.ms/a5e3p8

hallo,

ich seh da den teatimer prozess leistung fressen wie blöd und den spybot in der autostart. deinstallier den mal und teste erneut, ich vermute mal das ist schon die ursache.

hth

Hallo,

Heute morgen waren es 75 (!) Prozesse. habe inzwischen Chrome
installiert - ist allerdings auch nicht wesentlich schneller.
Habe mal screenshots vom Task-Manager und den
Autostarteinträgen gemacht, falls das was hilft:
http://abload.de/image.php?img=autostart1ynk51.jpg
http://abload.de/image.php?img=autostart2jxje5.jpg
http://abload.de/image.php?img=taskmanager2ocj8n.jpg
http://abload.de/image.php?img=taskmanagernvjlo.jpg

Ja, da ist einiges an überflüssigem Zeugs drin.
Aber wenn du hier schon was einstellst, frage ich mich, warum du statt einer Grundlast anzuzeigen, einen Haufen Programme vorher startest???
Soll das zur allg, Verwirrung dienen?

Das wäre so, wie wenn du zur Reparatur deiner Maschmaschine, vorher extra noch 8kg Wäsche in die Trommel steckst und dann vor die Maschine Staubsauger, Nähmaschine und sonstige Geräte davor stellst und oben drauf hoch Töpfe und Pfannen ???
Wenn das Gerät also schon langsam ist, warum sind da jetzt 8 Chrome-Task offen, dazu AcroReader, 2x Windows-Inslaller??? , Paint,

Dann ist es auch nicht gerade hilfreich, dass du es nicht schaffst, mal oben die Breite der Anzeigen so einzustellen, dass die Programmnamen besser sichtbar sind.

Ich würde diverse Win-Dienste und in Autostart alles deaktivieren, was man zur täglichen Benutzung nicht braucht und was nicht zur Sicherheit nötig ist.
-GroveMonitor http://www.file.net/prozess/groovemonitor.exe.html
-igfxsrvc http://file.info/datei/igfxsrvc_exe.html

Wenn du das mal aufgeräumt hast, dann zeige evtl. noch mal den Rest.
Gruß Uwi

1 Like