Guten Morgen Wiz,
Vielen Dank für deine Hinweise.
Office und Office können schon mal zwei verschiedene Paar
Schuhe sein, da darf man sich nicht vertun. Es macht schon
einen Unterschied, ob da nur einseitige Briefe geschrieben
werden, und mal eine Tabelle mit ein oder zwei Blättern
bearbeitet wird, oder ob da ständig 100-Seiten Dokumenten mit
Macro-Automatisation, Bildern und Grafiken, … in Bearbeitung
sind.
Hm, ist halt schwer einzuschätzen, das Leben ist halt bunt. Ich würde aber Doktor0arbeiten in Word mit 1000 Seiten, 500 Abbildungen und Macro-Spielereien ausschließen.
Im Prinzip sind es geringe Anforderungen.
Gerade auch Groupware-Lösungen können von ganz einfach
mit wenig Last bis hin zu den absoluten Last-Verursachern
reichen.
Ist wahr, aber ich vermute mal, dass Groupwarelösungen á la PHProjekt ohne eigenen Mailserver eher zu den geringeren Lasten zählen. Auf dem öffentlichen Webserver (normales Webhosting mit 300 - 500 Domains auf einem Server), worauf es jetzt probehalber läuft, ist es hinreichend performant.
Auch ein Webserver hat
eigentlich auf einem TS nichts verloren.
Da soll auch nur die Groupware drauf laufen, nicht anderes.
Es gibt zwei spezielle Windows-Versionen für den
Cluster-Betrieb, in die Du dich bei Bedarf einlesen solltest.
Laut M$-Infos kann die 2003er Standard-Version das schon. Also brauche ich zwei kleinere Maschinen, die zusammen ein Cluster bilden und dieser zeigt sich dann als ein einziger virtueller Server, ist das richtig? Und wenn irgendwann mal die Systemleistung nicht ausreicht, kaufe ich einfach einen dritten kleinen Server dazu und schon ist die Sache erledigt? Müssen die kleinen Server halbwegs gleich performant sein oder spielt das keine Rolle?
Clustert man mehrere TS
gibt es da keinen SPOF, hat man tatsächlich nur genau einen
TS, kann man schnell auf die Schnauze fliegen, und daher würde
ich in dieser Größenordnung dann entweder weiter klassisch mit
Fatclients arbeiten oder aber wenigstens zwei geclusterte
kleine Server statt einer dicken Kiste einsetzen.
Okay, das überzeugt mich.
OK, da müssen wir dann wohl mal ganz klein und unten anfangen
Ahäm, Sorry 
Der Rest sollte dann
aber über ein zentrales System erfolgen, sonst kämpfst Du
immer mit inkonsistenten Serverplatten.
Also werden die Daten auf den Serverclustern nicht automatisch gespiegelt? Erziele ich da nicht auch einen SPOF im zentralen Storage-System?
Es geht bei der Trennung der Aufgaben nicht nur um die Last.
Um genauer zu sagen, um die geht es eher selten. Das Problem
an solchen „Gemischtwarenläden“ ist einfach die grundsätzliche
Geschichte mit komplexer werdender IT. Hast Du nur zwei
Produkte auf einem Server laufen, können nur die beiden in
problematische Wechselwirkungen treten. Hast Du 10, gute
Nacht, wenn bei einem Update dann plötzlich mal eine
Komponente nicht mehr läuft. Im fabrikmäßigen Betrieb
definiert man daher sehr genau die einzelnen Servertypen
(bzgl. der Softwarebestückung) und packt immer nur zusammen,
was unbedingt auf einer Maschine zusammen laufen muss.
Das ist mir bekannt, aber ich kann es eben der Geschäftsführung schlecht verkaufen, dass ich vier neue Server oder zwei Server mit vier Betriebssystemen anschaffen muss.
Hat die
Maschine Leistung im Überfluss, setzt man eben
Virtualisierungstechniken ein, und lässt parallel mehrere
virtuelle Maschinen laufen. Wenn davon dann mal eine z.B. bei
einem Update abraucht, macht man sich nicht gleich den ganzen
Laden tot, sondern es fallen dann eben mal kurz einige
Funktionen aus.
Die Idee hatte ich auch schon, aber da habe ich zwei Probleme mit. Das erste sind die Kosten für noch zwei Betriebssystemlizenzen (XP sollte da ja dann reichen für SQL und Linux für den Webserver) und das zweite ist die technische Realisierbarkeit. Also laufen dann die beiden zusätzlichen Server auf beiden Rechnern des Clusters, also auf dem einen virtuellen Server? Wie wird das gewartet?
Es kommt ganz auf die Anwendungen an. Teilweise skalieren sie
besser über dickere Maschinen, teilweise über mehr Maschinen,
das ist aber eine Wissenschaft für sich. Ausfallsicherheit
bekommt man auf jeden Fall mit mehr Maschinen besser hin. Und
25 User sind grundsätzlich auch auf kleineren Maschinen nicht
das Problem.
Okay, also fasse ich das mal zusammen, dass man damit ordentlich arbeiten kann. Besonders die Response-Zeiten auf Benutzereingaben und dergleichen sind da für mich interessant.
Ganz im Gegenteil. Die unterstützte Hardware ist
üblicherweise eher bescheiden. Da muss man schon mal
aufpassen, was über USB angeschlossen werden muss. Da gibt es
übrigens dann auch Unterschiede zwischen WTS und Citrix.
Sorgt also der Terminalserver für die Hardwareunterstützung? Ich hätte jetzt gedacht, das macht das OS des Thin-Clients. Wieder was gelernt.
Ich brauche auch keine aufregende Hardwareunterstützung. Mal ein externes Speichermedium oder ein Headset wären aber schon wünschenswert. Gibt es da eine Dokumentation der Einschränkungen?
Ich bin nicht so der Lizenzexperte, aber AFAIR brauchst Du
zusätzliche TS-Lizenzen. Bei CITRIX sowieso. D.h. durch CITRIX
wird es ganz sicher nicht billiger (aber ggf. besser).
Was wird denn mit Citrix besser, mal abgesehen von der Hardwareunterstützung?
Wie funktioniert dann die
Lizensierung?
Das ist ein ganz heikles Thema. Da ist jeder Jeck anders, und
es hilft nur die Befassung mit den Lizenzmodellen der
einzelnen beteiligten Hersteller. In meinem letzten Projekt
gab es dafür eine eigene Arbeitsgruppe.
Au Weija. Kannst du mir denn eine Lektüre empfehlen, um die Zusammenhänge (nicht nur Lizenzseitig) zu verstehen? Gern auch ein richtiges Buch, es muss nicht immer nur ein Link sein 
Ich habe mal Beispielhaft einen Server zusammengestellt, der für den Clusterbetrieb bezahlbar wäre (http://rapidshare.com/files/30484629/Dell_Clusterser…). Problematisch finde ich die zentrale Storage-Lösung. Zumindest die SAN-Lösungen von Dell sprengen auf jeden Fall das Budget. Daher nochmal die Frage, ob eine automatische Spiegelung der Daten über eine Gigabitleitung möglich und sinnvoll ist, eventuell durch eine exklusive Interserver-Leitung.
Auf der anderen Seite wäre natürlich interessant, ob man einfach einen älteren Server zum zentralen Fileserver machen könnte. Also ne neue RAID-Karte, neue Platten rein, Linux drauf und gut? Aber was ist dann, wenn dieser Server ausfällt? Verschieben wir damit nicht den SPOF eins nach hinten?
Aber auf jeden Fall vielen Dank, das hilft mir echt weiter.
Günther