Wer bremst? Server, Netzwerk oder eigener Rechner?

Hallo!

wir haben hier ein recht grosses Netzwerk mit Rechnern unter Windows XP und einen Server im Hause sowie Vernetzungen mit anderen Servern…

nach dem Einloggen ist der Arbeitsplatzrechner oft 10-15 Minuten praktisch nicht nutzbar, weil - ja warum eigentlich nicht???

mit dem Taskmanager sehe ich zwar zwischendurch mal den Virenscanner für sein update alles an Rechenleistung verbraten, aber das dauert nur 1-2 Minuten oder so - so what…

auch mit dem Taskmanager kann man die Auslagerungsdatei anzeigen lassen, die scheint mir aber auch nicht das Problem zu sein…

rein auf dem Rechner laufende Dinge (Notepad mit Datei auf C:smile: scheinen auch in der „Bremsphase“ gut zu laufen…

Frage: (wie) kann ich mit Win-XP-Bordmitteln die Bremse weiter eingrenzen:

  • kann ich irgendwie erkennen, wie unser Netzwerkserver (Netzlaufwerke, Webzugang) überlastet ist?
  • kann ich irgendwie die Netzwerkleistung sehen?
  • kann ich irgendwie erkennen ob der Virenscanner oder sonst eine Routine den Netzwerkzugang irgendwie blockiert?

[downloads und Admin/Registryzugänge sind beschränkt bei uns…]

DANKE cu kai

Hallo

mal einen Schuss ins Blaue: je nachdem welches Antivrenprogi benutzt wird und welche Einstellungen es hat, kann das verdammt ausbremsen.
Wir haben hier ein gutes Dutzend PCs am Server hängen, die vorher jeder sein eigenes A-Vir-Progi hatten. Jetzt wurde Serverseitig G-Data aufgespielt und obwohl jeder PC wiederum seinen eigenen Scanner hat, der aber vom Server eingerichtet und upgedated wird, brauchen die 4 XP-PCs mittlerweile auch bis zu 10 Minuten zum Booten, während die Win 7-Rechner keine Geschwindigkeiteinbussen haben.
Ursachenforschung haben wir allerdings kaum betrieben, da in Kürze diese 4 PCs eh ausgemustert werden

lg
Seni

Es hängt eindeutig am Server bzw daran wieviel Daten vom Server jedesmal beim Booten vom Arbeitsplatzrechner aufgenommen werden müssen, aus diesem Grunde werden in vielen Unternehmen die Rechner entweder abends erst garnicht abgeschaltet oder 30 minuten vor Arbeitsbeginn automatisch gestartet. Du kannst ja mal euren ADMIN fragen ob er dir einen Automatischen Start an deinem und an den Rechnern deiner Kollegen einrichtet, da ja ansonsten Arbeitszeit und damit bares Geld für den Betrieb verloren geht.

Wie bitte?
Hallo,

Es hängt eindeutig am Server bzw daran wieviel Daten vom
Server jedesmal beim Booten vom Arbeitsplatzrechner
aufgenommen werden müssen, aus diesem Grunde werden in vielen
Unternehmen die Rechner entweder abends erst garnicht
abgeschaltet oder 30 minuten vor Arbeitsbeginn automatisch
gestartet.

was ist denn das für ein Unfug? Kannst Du diese gewagte These mal näher erläutern?

1.) Woher erkennst Du, dass das eindeutig sei?
2.) Was für Daten werden beim Booten "vom Arbeitsplatzrechner aufgenommen?
3.) Seit wann belastet Datentransfer über das Netz eine Workstation derartig, dass ein Arbeiten nicht möglich ist?

Mir ist zudem kein Unternehmen bekannt, was „aus diesem Grunde“ die PCs nachts durchlaufen lässt oder am Morgen remote startet.

Ein durchgängiges Laufen lassen führt im übrigen früher oder später dazu, dass Windows gnadenlos abschmiert, weil insbesondere MS Office Programme die Eigenschaft haben, beim beenden den Speicher nicht vollständig wieder frei zu geben.

Gruß

S.J.

1.) Woher erkennst Du, dass das eindeutig sei?
2.) Was für Daten werden beim Booten "vom Arbeitsplatzrechner
aufgenommen?
3.) Seit wann belastet Datentransfer über das Netz eine
Workstation derartig, dass ein Arbeiten nicht möglich ist?

Den Fragen möchte ich mich anschließen.

Mir ist zudem kein Unternehmen bekannt, was „aus diesem
Grunde“ die PCs nachts durchlaufen lässt oder am Morgen remote
startet.

Nicht? Macht man beim Auto doch auch so. Wenns manchmal nicht direkt anspringen will: Über Nacht laufen lassen. Wozu in die Werkstatt fahren.

Gruß

osmodius

Hallo!

och Leute - nid rumprücheln hier!! :smile:

also den Verdacht Server hab ich schon auch, wobei bei uns an die 100 Mitarbeiter zum „Verein“ gehören, wobei sicher nie alle geichzeitig am Rechner hängen , aber 50 oder 60 können es locker sein…

ausserdem - wie ich geschrieben habe - werden reine lokale Anwendungen (notpad c:\test.txt oder sowas) deutlich weniger beeinträchtigt - was aber ja sein müsste, wenn die Arbeitsstation kniet…

Fast alle unsere Anwendungen greifen auf Daten zu, die auf dem Server abgelegt werden (Netzlaufwerke, und nur die Daten dort werden gesichert) oder es sind Internet-Browser-Basierte Anwendungen was auch über den Server und via an eine Zentrale in Müchen geht…

Mein Frage war aber, ob/wie ich mir da mal ein Bild der Aus/Belastung von Server u/o Netzwerk machen kann - weiss da jemand was?

(und wenn nur rauskommt, dass es doch nicht der Server ist…)

cu kai

Hallo,

Mein Frage war aber, ob/wie ich mir da mal ein Bild der
Aus/Belastung von Server u/o Netzwerk machen kann - weiss da
jemand was?

als User ohne besondere Rechte wird nur die Netzwerkauslastung des PC im Taskmanager ermittelbar sein.

(und wenn nur rauskommt, dass es doch nicht der Server ist…)

Ich vermute, dass das dabei durchaus rauskommen wird. Wenn es die Probleme immer nur unmittelbar nach dem Starten des Clients ist, wird es kaum am Server liegen.

Eine weitergehende Diagnose, was der PC so tut und lässt, erfordert Programme wie z.B. Wireshark und dem Process Monitor der Sysinternals. Ohne Admin Rechte wird man da aber nicht weit kommen. Ich frage mich aber, warum man das Problem nicht von demjenigen prüfen und beheben lässt, der dafür zuständig ist.

Gruß

S.J.

Mir dafür einige, sogar sehr bekannte (zb HP, Fujitzu-Siemens, in den Entwicklungs und Programmierabteilungen). Der Grund ist einfach das das Netz bzw der Server an dem die Workstations hängen beim Hochfahren der Workstations stark belastet wird. Je nach Auslegung des Servers und der Anzahl der Clients (Workstations), sowie der Größe der Datenmenge kommt es dann sehr schnell zur Überlastung des Gesamtnetzwerkes, was dann zu diesen Schwierigkeiten führt.

Möglich wären natürlich noch andere Hardwarebasierte Lösungen (zb Stärkerer Server, Anhebung der Kapazitaet) , oder eben die beschriebene Softwarebasierte Lösung, die außer ein paar Einstellungen (Arbeitszeit des ADMINS) an den Rechnern / Workstations,sowie leicht erhöhten Stromkosten nichts kostet.

Hallo,

Mir dafür einige, sogar sehr bekannte (zb HP, Fujitzu-Siemens,
in den Entwicklungs und Programmierabteilungen). Der Grund ist
einfach das das Netz bzw der Server an dem die Workstations
hängen beim Hochfahren der Workstations stark belastet wird.
Je nach Auslegung des Servers und der Anzahl der Clients
(Workstations), sowie der Größe der Datenmenge kommt es dann
sehr schnell zur Überlastung des Gesamtnetzwerkes, was dann zu
diesen Schwierigkeiten führt.

was genau belastet denn das Netz bzw. beim Server beim hochfahren so besonders?

Mir fällt nichts ein. Zumindest nichts in Netzen, die auf Windows oder Netware basieren…

Gruß

S.J.

Hallo Steve!

zu Deiner letzten Frage: weil es den entweder nicht juckt (wenn andere auf Ihren Rechner warten) oder grundsätzlich alles mit „des ghöööört so“ beantworten - glaub mir, es gibt so Leut… (und hier ist es ja auch nihct nur einer…)

cu kai

Die verschiedenen Datenanfragen und Weiterverarbeitung sowie das Senden dieser Daten wiederum an die Workstations, je nach Stärke des Servers bzw des Prozessors kann dieser bei gleichzeitiger Anfrage von einer Menge Clients in die Knie gehen. Wenn große Mengen an Daten geladen, versendet und bearbeitet werden zur gleichen Zeit dann ist das keine Überraschung. Stell dir einfach mal vor Morgens um 8 beginnt die Arbeit der Leute, alle sitzen an Ihren Rechnern und schalten diesen ein, nur das BS inkl. Zusatzprogrammen sind auf den Clients (Arbeitsplatzrechnern) gespeichert, alle weiteren Daten (Officedokumente, Programme und Arbeitsmappen) befinden sich auf dem Server, dieser bekommt nun von jedem Client anfragen zu Dateien die geladen werden sollen, der Prozessor des Servers sucht nun die passenden Dateien heraus und versendet Sie, dies kann für eine gewisse Menge an Daten gleichzeitig geschehen, sind es mehr Daten, so werden sie nacheinander abgearbeitet, also je mehr Daten verarbeitet werden müssen desto länger müssen die Clients darauf warten. Dies führt dann bei riesigen Datenmengen zu langen Ladezeiten von Programmen bzw Dateien die auf dem Server liegen. Auch das Netzwerk selbst bzw die Anbindung der Rechner daran ist begrenzt bei der Datenmenge die zur gleichen Zeit befördert werden kann. Es ist dabei vollkommen egal ob das Netzwerk Windows, Linux oder Netstatbasiert ist.

Deine ganzen Aussagen treffen ausschließlich auf ein extrem schlecht designtes Netzwerk zu. Wenn man 200 User über 10 MBit an einem 486er PC mit Windows NT und 512 MB Ram betreibt, kann das passieren.

Dann aber, würden die Probleme nicht nur innerhalb von 15 Minuten nach dem starten, sondern eigentlich immer auftreten, denn das Starten und Anmelden erzeugt unwesentlich mehr Last als der normale Betrieb.

Insofern ist es mir schleierhaft, wieso das alles für Dich so eindeutig ist. Hier wird versucht aus einer absoluten Ausnahme Situation eine Grundsätzlichkeit zu konstruieren.

Erfahrungsgemäß sind solche Probleme zunächst am Client zu suchen und für gewöhnlich auch dort zu finden.

Sorry aber deine Aussage ist Quatsch, ich gebe dir ein Beispiel: Vor einiger Zeit habe ich noch einen Kurs in einer privaten Lehranstalt gemacht. Circa 260 Rechner hangen dort an einem Server mit neuestem Opteron-Prozessor(8 Kerne, 32 GB Arbeitsspeicher) und circa 4 TB an Festplattenspeicher, sämtliche Software (Ausnahme BS) war auf dem Server, auf den einzelnen Rechnern waren nur Verknüpfungen zu den Programmen (LEXWARE, Win Office ecetera). Wenn der Unterricht bzw das Selbstlernprogramm Morgens um 8:00 Uhr begann dauerte alleine das Laden von Word bis zu 5 Minuten,_ Warum: Mit Word arbeiten Gruppen von bis zu 40 Personen an verschiedenen Dateien als Gruppe gleichzeitig zusammen, also sämtliche Altdateien, Neudateien, Veränderungen mußten auf jedem der 40 Rechner geladen werden vom Server, zusätzlich mußte der Server das Gleiche für eine andere Gruppe in Exel erledigen, eine weitere Großgruppe arbeitete gleichzeitig mit Lexware und die Letzte Gruppe machte Selbstlehrnunterricht mit Videos von SAP die auch auf die Rechner vom Server gestreamt werden mußten. Die gesamte Datenflut mußte nacheinander vom Server verarbeitet werden und das benötigt nun mal Zeit.

Das ist also absolut normal, das die Rechner Zeit zum Starten der Programme benötigen und nur so schnell sein können beim Laden wie die Daten vom Server geliefert werden.

Sorry aber deine Aussage ist Quatsch, ich gebe dir ein
Beispiel…

Zitat meines Postings:

Deine ganzen Aussagen treffen ausschließlich auf ein extrem schlecht designtes Netzwerk zu.

Wer so etwas hinrissiges designed ohne entsprechende Ressourcen zur Verfügung zu stellen, ist selbst schuld.

Mir ist aber immer noch nicht klar, wie Du auf Grund eines solchen extremen Einzelfalls, eine Grundsätzlichkeit konstruierst und damit eindeutige Rückschlüsse auf die Ausgangsfrage, die ja, was die Informationslage angeht außerordentlich dürftig ist, ziehst.

Als mein PC kürzlich nicht angehen wollte, habe ich dagegen getreten und dann ging er. Du würdest daraus schlussfolgern, dass PCs, die nicht starten wollen, grundsätzlich mit Fußtritten zu traktieren sind.

Lass uns die Diskussion beenden.

S.J.

man muss faierweise sagen, das ich wirklich firmen kenne, wo die mitarbeiter (aber gegen die Anweisung der it) die rechner lieber sperren und durchlaufen lassen. Warum, ganz einfach, programme wie empirum installieren software beim zeitweise login und scannen auch nach dem akuellen stand, da kann ein rechner schon ein bissl brauchen, bis man arbeiten kann. vor allem wenn sich morgens alle anmelden, die profile übertragen werden und am besten noch jeder client 100mb updates bekommt.

das die struktur schrott ist brauch ich nicht zu erwähnen, aber leider gibt es solche fälle wirklich

Hallo,

wie Steve bereits geschrieben hat scheint es bei DIR an einem äusserst schlecht designten/administrierten Netzwerk zu liegen.

Sorry aber deine Aussage ist Quatsch, ich gebe dir ein
Beispiel: Vor einiger Zeit habe ich noch einen Kurs in einer
privaten Lehranstalt gemacht. Circa 260 Rechner hangen dort an
einem Server mit neuestem Opteron-Prozessor(8 Kerne, 32 GB
Arbeitsspeicher) und circa 4 TB an Festplattenspeicher,
sämtliche Software (Ausnahme BS) war auf dem Server, auf den
einzelnen Rechnern waren nur Verknüpfungen zu den Programmen
(LEXWARE, Win Office ecetera). Wenn der Unterricht bzw das
Selbstlernprogramm Morgens um 8:00 Uhr begann dauerte alleine
das Laden von Word bis zu 5 Minuten,_ Warum:

Dies weisst darauf hin, das es sich hier um entweder eine Terminalserver oder Thinclient Installation handelt. Da ist es zwar richtig, das die Daten auf die Clients geschoben werden, aber bei einem gut eingerichteten System dauert das selbst bei knapp 200 sich gleichzeitig anmeldenden Usern auch nicht länger.
Ob das beim OP der Fall ist steht garnicht fest. Ebenso ist nicht klar ob hier ien Domainmodel oder lokale Profile geladen werden, usw.

Mit Word arbeiten

Gruppen von bis zu 40 Personen an verschiedenen Dateien als
Gruppe gleichzeitig zusammen, also sämtliche Altdateien,
Neudateien, Veränderungen mußten auf jedem der 40 Rechner
geladen werden vom Server, zusätzlich mußte der Server das
Gleiche für eine andere Gruppe in Exel erledigen, eine weitere
Großgruppe arbeitete gleichzeitig mit Lexware und die Letzte
Gruppe machte Selbstlehrnunterricht mit Videos von SAP die
auch auf die Rechner vom Server gestreamt werden mußten. Die
gesamte Datenflut mußte nacheinander vom Server verarbeitet
werden und das benötigt nun mal Zeit.

Das eine sind Daten, die über das Netzwerk geschickt werden müssen, das andere sind Daten, die der Server verarbeiten muss. Dies ist zu trennen und entsprechend zu managen.

Das ist also absolut normal, das die Rechner Zeit zum Starten
der Programme benötigen und nur so schnell sein können beim
Laden wie die Daten vom Server geliefert werden.

Bitte wie?! Es ist normal, das der Rechner word, excel oder Lexware laden muss. Ja. Das ist aber eine Frage von Millisekunden bis wenige Sekunden im Normalfall. In einer Lehrinstitution sind darüberhinaus nochmal ganz andere Anforderungen als in einer kleinen, mittleren oder grossen Firma.
Wenn der Server nun schlecht konfiguriert ist und versucht z.B. Alle Fragen gleichgewichtet abzusetzen ist er natürlich überfordert. Dazu gibts aber eben je nach Server und Betriebssystem diverse Management Tools um das zu verbessern. Globalgalaktisch kann man das so eben nicht beantworten.

Gruß
h.

Hi,

wir haben hier ein recht grosses Netzwerk mit Rechnern unter
Windows XP und einen Server im Hause sowie Vernetzungen mit
anderen Servern…

Wie gross? 200 oder 20000 User? Domainenmodell? Windows Server oder Linux? Was läuft alles drauf?

nach dem Einloggen ist der Arbeitsplatzrechner oft 10-15
Minuten praktisch nicht nutzbar, weil - ja warum eigentlich
nicht???

Tausend Möglichkeiten. Dies sollte eigentlich der Administrator wissen bzw. abschalten!
Woher „zieht“ der Rechner z.B. sein Profil? liegt das lokal oder auf dem Server? wie sind die Netzwerklaufwerke eingebunden? Wie sieht das Domainenkonzept aus (Benutzerechte, Group Policys, etc.)?

mit dem Taskmanager sehe ich zwar zwischendurch mal den
Virenscanner für sein update alles an Rechenleistung
verbraten, aber das dauert nur 1-2 Minuten oder so - so
what…

Der Taskmanager ist eine Sache. Das zweite ist was in/über das Netz läuft (Daten auf dem Server speichern, surfen über Proxy oder ähnliches) und welche Dienste der oder die Server zur Verfügung stellen.

rein auf dem Rechner laufende Dinge (Notepad mit Datei auf C:smile:
scheinen auch in der „Bremsphase“ gut zu laufen…

Was bremst denn dann genau? Programmstart oder Datei laden oder Internetseitenaufbau oder…?

Frage: (wie) kann ich mit Win-XP-Bordmitteln die Bremse weiter
eingrenzen:

  • kann ich irgendwie erkennen, wie unser Netzwerkserver
    (Netzlaufwerke, Webzugang) überlastet ist?

Ja, im Taskmanager die entsprechenden Reiter anschauen. Ggf. die Admintools von dem ggf. verwendeten (angenommenen) Server installieren. Dazu den Administrator fragen bzw. einschalten. In einem grossen Netzwerk wird es den geben. Wenn nicht ist dies grob fahrlässig.

  • kann ich irgendwie die Netzwerkleistung sehen?

Ja, s.o.

  • kann ich irgendwie erkennen ob der Virenscanner oder sonst
    eine Routine den Netzwerkzugang irgendwie blockiert?

Ja, auch im taskmanager unter Prozesse.

[downloads und Admin/Registryzugänge sind beschränkt bei
uns…]

DAS hört sich schonmal nicht sooo schlecht an. Für alle anderen Fragen ist euer Admin zuständig.

Gruß
h.

Hallo H!
Danke erst mal für den konkreteren Beitrag (nix für ungut, Steve und Germany, aber bitte nicht weiter streiten, ok?)

zurück zu H: etwa 100 Nutzer oder so - hab ich das nicht geschrieben?

Server: ich meine Windows Server (wir hatten Netware vorher, aber ich melde mich jetzt ned ab nur um das Anmeldefensterchen anzusehen, ok? :smile:)

die Software selbst (MS-Office) und latürnich das BS (WinXP) ist auf den Clients installiert, aber alles andere (weil nur am Server band-gesichert) kommt vom Server (alle Office-Text/Tabellen, das ganze automatische updategedöns, wobei ich bezweifle, dass davon auch nur die 1/2 nötig ist…) und natürlich kommt alles was von aussen kommt (Internet, Mails, Intranet…) über das Nadelöhr…

übrigens Mail: outlook mit Exchangeserver und der ist nich unserer vor Ort sondern für die ganze Verwaltung zentral…

Admin: wir haben schon welche, aber das ist eigentlich vor Ort nur ein „Notfalldienst“, die ganze „echte“ Adminnerei wird zentral von extern (via Intranet) betrieben - ist ne andere Geschichte…

ich wollte eigentlich nur wissen, wie ich einfach ein paar Anhaltspunkte bekommen kann, wo es eigentlich hakt…

der Taskmanager sagt mir - wenn ich nicht irre - dass (ausser ein paar Spitzen) es an den Programmen auf MEINEM client nicht liegen kann (irgendwas zwischen 0 und 15% CPU-Last)…

die Anzeige „Netzwerkauslastung“ kannste knicken, weil die immer nur 0% anzeigt (das ist ja auch nur das, was MEIN Rechner an Leistung zieht bzw. ziehen kann - das sagt ja nicht, wie das Netzwerk an sich belastet ist = aber genau DAS wüsst ich gern…)

übrigens Netz: 100MBit sollte nicht wirklich das Problem sein…

was mich stutzig macht: manchmal - trotz 0% CPU-Last - geht GARNIX (kannst nix anklicken, nix aufrufen, kein Programm kommt in die Gänge - alles wie tot…) - AUSSER der bereits offenen Notepad-Editor („Notizzettel“) is dicke da…

daher mein Verdacht, dass die Programme entweder auf - vom Programmierer angenommen - (normalerweise) immer verfügbare Resourcen (Netz) zugreifen und daher sich totschleifen (ohne CPU-Last-Anzeige)
ODER dass der Virensucher oder Updater oder so die Netzwerkverbindung „absichtlich“ blocken (und damit alle anderen Zugriffe auch) bis irgendwelche Erbsenzählereien rum sind…

aber wie kann ich im Taskmanager erkennen WAS der Virensucher treibt (was er blockt) - nicht nur DASS er was treibt bzw. DASS er aktiv ist = soweit war ich auch schon…

wer also dafür noch Tips hat: her damit! :smile:

übrigens Admin fragen: von „keine Ahnung“ über „ihr habt eh schon den größten Server“ bis „des ghört so“ war alles ebenso schon da wie „hilffrei“ :smile:

mit nem konkreten Ansatzpunkt käme ich da aber evtl. weiter… (???)

DANKE cu kai