Vergleich Quad-Core / Dual COre?

Hallo Leute,

Ich habe mal ne generelle Frage. Wie ist denn das ungefähre Leistungsverhältnis von Quadcore zu Dualcore-Prozessor, wenn man mal alle Randbedingungen wie Cache und Takt gleich lässt?

Kann man denn prinzipiell davon sprechen, dass ein Quad-Core in etwa gleich leistungsfähig ist, wie zwei vergleichbare Dual-Cores?

Also mal ganz konkret:

Dual Core Intel Xeon 5110, 4 MB Cache, 1,6 GHz, 1066 MHz FSB gegen den Quad Core Intel Xeon L5310 LV, 2x4MB Cache, 1.6GHz, 1066MHZ FSB.

Ich weiß, das ist alles von einem Haufen Dingen abhängig, aber vielleicht kann jemand mal einen Schuss ins Blaue wagen.

Danke,

Günther

Hallo Günther,

Läst sich die aufgabe Parallisieren? oder nicht?
das ist die kern frage ob es dir etwas bringt.

wenn du eine aufgabe hast.

wo jeder schrift auf dem vorherigem aufbaut. bringen mehrer core’s nix. wenn du viele parallele aufgaben hast. oder aufgaben die sich gut parallelisieren lassen. bringen mehrere prozessor-kerne etwas.

natürlich gibt es noch andere „engpässe“ daten auf festplatte schreiben / lesen.

generell kann man wohl sagen das zwei zwei core core rechner schneller sein werden als ein 4 core prozessor rechner. einfach schon deswegen weil man nie eine 100% paralelisierung der aufgaben erreichen wird.

da stellt sich dan die preis leistungs frage.

soll es eine Power-arbeitstation für einen mitarbeiter werden?
dann bringt es nix zwei rechner hinzustellen. weil ein mitarbeiter sowiso nur an einem sitzen kann.

ist es für den servereinsatz. und die überlegung ob ein oder zwei server… hängt wieder von den zu erledigenden aufgaben ab.
macht es aufwand die last zwischen den rechnern zu verteilen oder gibt es ein bestehendes system das die last verteilt z.B wenn man eine rendering farm aufbaut. bietet die rendering software ja in der regel eine art work-que aus der sich die einzelnen rechner ihre arbeit holen.

zwei rechner bieten natürlich redundanz - wenn einer kaputt geht läuft der andere weiter. also kein single point of failure. dafür kosten zwei rechner mehr weil man ja festplatte mainboard gehäuse etc. doppelt braucht.

hier nun noch zum abschluss ein bericht von tecchannel:
http://www.tecchannel.de/pc_mobile/prozessoren/448908/

deren fazit ist:
Der Performance-Gewinn vom Dual-Core zum Quad-Core erreicht bei den von Intel installierten Anwendungen bis zu 82 Prozent. […]

gruss chris

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

einfach mal meine Meinung?
Hallo Günther,

Ich habe mal ne generelle Frage. Wie ist denn das ungefähre
Leistungsverhältnis von Quadcore zu Dualcore-Prozessor, wenn
man mal alle Randbedingungen wie Cache und Takt gleich lässt?

Der QuadCore hat theoretisch fast die Doppelte Leistungsfähigkeit wie ein DualCore. In der Realität müsste man dieses fast aber als FAST kenntlichmachen. :wink:

Kann man denn prinzipiell davon sprechen, dass ein Quad-Core
in etwa gleich leistungsfähig ist, wie zwei vergleichbare
Dual-Cores?

Wenn man das in etwa betrachtet, ja. Allerdings bezieht sich meine Vermutung nur auf die Leistungsfähigkeit der CPU, NICHT des gesamten Rechners.

Die Gesamtperformance des Rechners hängt ja, wie du selbst ja schon bemerkt hat, noch von vielen anderen Faktoren ab.
Ein Rechner mit einem QuadCore Prozessor wird in der Realität vermutlich nicht die zweifache Power von von einem Rechner mit zwei DualCore Prozessoren erreichen. (schon gar nicht von zwei Rechner mit je einem DualCore Prozessor)

Ich weiß, das ist alles von einem Haufen Dingen abhängig, aber
vielleicht kann jemand mal einen Schuss ins Blaue wagen.

Hab’ ich getan. :smile:

Wenn ich konkret Server bauen müsste, würde ich zwei Server mit jeweils einem DualCore Prozessor wählen - Die Ausfallsicherheit wäre damit nämlich größer als bei einem Server mit einem QuadCore Prozessor.
Alternativ gäbe es ja dann auch noch die Möglichkeit, 2 DualCore Prozessoren auf einem Mainboard (und folglich in einen Server) zu packen. Das wäre nach meiner Vorstellung aber nicht verlockend, preislich allerdings vermutlich interessanter, als zwei Server.

… Wie wäre es denn dann mit ein Mainboard mit zwei QuadCore Prozessoren?! (Beispiel, Maximalkonfiguration des Apple Mac Pro)
Und davon dann am liebsten auch ne Hand voll … *träum und lach*

LG Yorick

Hallo Yorick,

Danke erstmal für deine Informationen, und auch noch ein Danke an deinen Vorredner.

Wenn ich konkret Server bauen müsste, würde ich zwei Server
mit jeweils einem DualCore Prozessor wählen - Die
Ausfallsicherheit wäre damit nämlich größer als bei einem
Server mit einem QuadCore Prozessor.

Es geht sehr konkret um einen (oder zwei) Server, auf denen per VMware GSX mehrere virtuelle Maschinen laufen, die neben File/ und Druckdiensten auch Datenbank- und Terminalserver bereitstellen. Gerade für die Terminalservergeschichte wäre ein verkleinerter SPOF prima.

Hm, stellt sich dann die Frage, ob und wie man dann aus den zwei physischen Rechnern einen virtuellen macht, inklusive Plattenspiegelung usw. Das mit der Abschaffung des SPOF finde ich verlockend, aber das ist mir noch nicht klar.

Danke,

Günther

Nochmals hallo. :smile:

Es geht sehr konkret um einen (oder zwei) Server, auf denen
per VMware GSX mehrere virtuelle Maschinen laufen, die neben
File/ und Druckdiensten auch Datenbank- und Terminalserver
bereitstellen.
Gerade für die Terminalservergeschichte wäre
ein verkleinerter SPOF prima.

Natürlich. Je nach Firma sogar sehr wichtig.

Hm, stellt sich dann die Frage, ob und wie man dann aus den
zwei physischen Rechnern einen virtuellen macht, inklusive
Plattenspiegelung usw.

Und da stellt sich die Frage, ob man das überhaupt will.
Die Redundanz vergrößert sich ja, wenn man File und Druckdienste ausgliedert.

Ein Fileserver braucht überdies auch nicht viel Power. Unerlässlich ist aber ein
professioneller RAID Controller mit guten Festplatten und eine ausgereifte Backup Strategie (tägliche Bänder etc.). Denn eine Plattenspiegelung sorgt zwar dafür, dass nicht alle Daten weg sind, wenn eine Platte kaputt geht, aber wenn Daten manipuliert, oder verfälscht werden, wird auch dieser Fehler gespiegelt.

Einen, oder - je nach angestrebter Redundanz oder der Power (wie viele Clients?)- mehrere Terminalserver. (auf denen läuft das Betriebssystem)
Zusätzlich einen Fileserver (mit Druckdiensten) zum zentralen Abspeichern von Daten.
Wenn es finanzierbar ist, dann am einfachsten noch einen seperaten Datenbankserver. (es gibt Systeme, die Zugriff auf die Hardware wollen, ohne von anderen Softwares gestört oder behindert zu werden)

Denn je komplexer die Servertechnik ist (also je mehr diese verwaltet), desto schlanker kann theoretisch der Thin Client Arbeitsplatz werden.

Da ich mich allerdings auch nur oberflächlich mit diesen Themen auskenne, musst du entweder einen richtigen Experten ausfindig machen, oder noch besser eine Agentur (externe Firma) mit der Aufgabe beschäftigen - am einfachsten natürlich die EDV-Abteilung selbst.

Viel Erfolg!
LG Yorick

Hm, stellt sich dann die Frage, ob und wie man dann aus den
zwei physischen Rechnern einen virtuellen macht, inklusive
Plattenspiegelung usw.

Und da stellt sich die Frage, ob man das überhaupt will.
Die Redundanz vergrößert sich ja, wenn man File und
Druckdienste ausgliedert.

Naja, wie sonst bekommt man eine tatsächliche und vollständige Hardware-Redundanz für den Terminalserver hin? Ich verstehe das doch so, dass der Thin-Client sich mit einem Server verbindet und eben nicht automatisch auf einen anderen ausweichen kann. Also sollte das am besten so laufen, dass zwei Server nebeneinander laufen und sich deren Kapazitäten addieren. Fällt einer aus, bleiben zwar weniger Systemressource übrig, aber man kann unterbrechungsfrei weiterarbeiten.

Alles Andere widerspricht doch deinem Ursprungsposting, dass es besser wäre, zwei redundante Rechner mit Dual-Cores auszustatten, als einen mit nem Quad-Core.

Günther

Moien

Es geht sehr konkret um einen (oder zwei) Server, auf denen
per VMware GSX mehrere virtuelle Maschinen laufen, die neben
File/ und Druckdiensten auch Datenbank- und Terminalserver
bereitstellen.

Du bekommst Ärger mit der Netzwerkbandbreite (Terminal + Fileserver) und der Grösse des RAM (Terminal + Datenbanken). Dann könnte, ja nach Nutzungsmuster der Massenspeicher zum Problem werden. Erst danach droht ernsthaft Ärger durch die CPUs.

Gerade für die Terminalservergeschichte wäre
ein verkleinerter SPOF prima.

Aus dem Grund (und nur aus dem Grund) würde ich 2 kleinere Server nehmen. Die virtuellen Boxen kann man später immernoch live (also ohne Clients zu verlieren) von einer Box zur anderen schieben. Dabei wird das Netzwerk zum SPOF. Dagegen was tun wird dann richtig teuer…

cu

Hallo,

Hm, stellt sich dann die Frage, ob und wie man dann aus den
zwei physischen Rechnern einen virtuellen macht, inklusive
Plattenspiegelung usw.

Und da stellt sich die Frage, ob man das überhaupt will.
Die Redundanz vergrößert sich ja, wenn man File und
Druckdienste ausgliedert.

Naja, wie sonst bekommt man eine tatsächliche und vollständige
Hardware-Redundanz für den Terminalserver hin?

Was du mit der „Frage“ meinst, verstehe ich nicht.

Ich verstehe
das doch so, dass der Thin-Client sich mit einem Server
verbindet…

joa

… und eben nicht automatisch auf einen anderen
ausweichen kann.

Nach Möglichkeit sollte das Netz so gestaltet werden, dass
Server A und B gemeinsam arbeiten
wenn Server A ausfällt, Server B alleine weiterarbeitet
wenn Server B ausfällt, Server A alleine weiterarbeitet

Die Thin Clients sind in dem Sinne gar keine Rechner die sich verbinden, oder von sich aus irgendwas „intelligentes“ tun. Sie sind eher die Schnittstelle zwischen dem Anwender (in den allermeisten Fällen Menschen. :wink: ) und dem Betriebssystem auf dem Server. Die Thin Clients selbst haben meist gar kein richtiges Betriebssystem. Sie verfügen über eine -sehr- schnelle Verbindung zu den Servern (Plural).
Über den Terminalserver, den sie ausgeben, greift man von den Clients aus (über die Terminalserver/deren Betriebssystem mit deren Standartanwendungen) auf die Daten (auf den Fileservern) zu, gibt Druckbefehle (Printserver (meist eine Einheit mit dem/den Fileservern)) und bearbeitt Datenbanken (auf den Datenbankservern)

=> Mein sehr knapper Überblick auf das „Thin Client - Terminalserver“ Funktionsprinzip.

Genauer wird es in der Wikipedia erklärt
http://de.wikipedia.org/wiki/Thin_client
http://de.wikipedia.org/wiki/Terminalserver

Also sollte das am besten so laufen, dass
zwei Server nebeneinander laufen und sich deren Kapazitäten
addieren. Fällt einer aus, bleiben zwar weniger
Systemressource übrig, aber man kann unterbrechungsfrei
weiterarbeiten.

Ganz genau so sollte es für die Terminalserver gemacht werden.

Alles Andere widerspricht doch deinem Ursprungsposting, dass
es besser wäre, zwei redundante Rechner mit Dual-Cores
auszustatten, als einen mit nem Quad-Core.

Genau, zwei Rechner als Terminalserver, aber ZUSÄTZLICH einen File/Druckserver. (in meinen Beispielen „C“ genannt)
Bei den Datenbanken muss man überlegen, ob man die in die Terminalserver reinkriegt (evtl. als Anwendung, oder auch in einer Virtual Maschine) oder ob sie gar einen extra Server brauchen. Letzteres hängt von der Datenbank an sich ab, und wie schnell sie Arbeiten muss (unter Anderem auch, wie viele Clients darauf zugreifen)

In meinem Beispiel hätte man jetzt 2 vollständige Terminalserver (A und B arbeiten normalerweise mit addierten Kapazitäten) und einem seperaten File/Druckserver C.
Die Datenbanken (damit kenne ich mich mal gar nicht aus) können manchmal als „Anwendung“ laufen (Beispiel: MySQL unter Windows), oder in einer Virtual Maschine (die hardwaremäßig auf den beiden Terminalservern liegt), oder die einen eigenen (richtigen) Server bekommen, der dann NUR für diese eine Datenbank arbeitet.

Je mehr Server man hat (Annähernd nach dem Motto „für jede Aufgabe ein Gerät“), desto weniger kann passieren, wenn ein Bauteil im großen Puzzle ausfällt, oder gar kaputt geht.

Immer noch Unklarheiten?
LG Yorick

Guten Morgen Yorick,

=> Mein sehr knapper Überblick auf das „Thin Client -
Terminalserver“ Funktionsprinzip.

Ich glaube, du hast mich missverstanden. Das Funktionsprinzip von Thin-Clients ist mir klar. Was mir nicht klar ist ist, wie aus zweimal Serverhardware ein Terminalserver wird.

Klar, da fällt mir sofort ein Servercluster ein, aber wie werden da die Platteninhalte synchron gehalten? Ein SAN ist zu teuer.

Genau, zwei Rechner als Terminalserver, aber ZUSÄTZLICH einen
File/Druckserver. (in meinen Beispielen „C“ genannt)

Die Frage ist dann, wofür? Wenn ich zwei leistungsfähige geclusterte Rechner habe, kann das bisschen File- und Druckserverzeug doch sicher in ner virtuellen Maschine nebenbei gemacht werden.

Je mehr Server man hat (Annähernd nach dem Motto „für jede
Aufgabe ein Gerät“), desto weniger kann passieren, wenn ein
Bauteil im großen Puzzle ausfällt, oder gar kaputt geht.

Klar, das wäre echt wünschenswert, aber wer soll das bezahlen? Mal abgesehen, dass die Kisten initial Geld kosten, jeder Rechner mehr hat auch Betriebskosten, ob der nun ausgelastet ist oder nicht. Dann erzeugt jeder Rechner Wärme, die ich dann rausklimatisieren muss.

Ich habe einfach ein schlechtes Gefühl dabei, wenn fünf Rechner gekauft werden, fleißig Strom brauchen und sich zu 95% langweilen. Dann doch lieber zwei leistungsfähige Server, worauf in ner VM die einzelnen Aufgaben getrennt voneinander liegen.

Danke,

Günther

Hallo,

Danke für deine Antwort.

Du bekommst Ärger mit der Netzwerkbandbreite (Terminal +
Fileserver)

Aha. Der Server soll 2x1Gbit/s Netzwerkanschluss haben. Wieviel Bandbreite braucht denn ein einzelner Client?

und der Grösse des RAM (Terminal + Datenbanken).

Hm, die Datenbank ist noch schlecht abzuschätzen. Aber vielleicht kannst du ja mal ne Richtgröße geben, wieviel RAM man pro Thin-Client-Sitzung einplanen muss. Es sind ganz normale Büroanwendungen, mit mäßigen Datenmengen. Eben das, was in einem Durchschnittsbüro so anfällt.

Aus dem Grund (und nur aus dem Grund) würde ich 2 kleinere
Server nehmen. Die virtuellen Boxen kann man später immernoch
live (also ohne Clients zu verlieren) von einer Box zur
anderen schieben.

Hm, hatte ich auch schon überlegt. Der 2003er Windows-Server kann das ja sogar, aber wie werden dann die Platten der beiden Rechner synchron gehalten? Geht das automatisch?

Dabei wird das Netzwerk zum SPOF. Dagegen
was tun wird dann richtig teuer…

Hm, ich sag jetzt mal, einen Switch austauschen geht im Zweifelsfall wesentlich schneller, als einen kompletten Terminalserver. Ich denke, damit könnte man leben.

Günther

Guten Morgen Günther,

Ich glaube, du hast mich missverstanden.

Oh, ist ja nicht so schlimm, oder? Kost ja nichts… :wink:

Das Funktionsprinzip
von Thin-Clients ist mir klar.

Um so besser. :smile:

Was mir nicht klar ist ist, wie
aus zweimal Serverhardware ein Terminalserver wird.

Klar, da fällt mir sofort ein Servercluster ein, aber wie
werden da die Platteninhalte synchron gehalten? Ein SAN ist zu
teuer.

Tja, ich hätte jetzt auch gesagt, SAN für den Cluster.

So langsam habe ich das Gefühl, dass dein Projekt nicht gerade ein ein paar Hundert Arbeitsplätze verwalten soll…

Genau, zwei Rechner als Terminalserver, aber ZUSÄTZLICH einen
File/Druckserver.

Die Frage ist dann, wofür? Wenn ich zwei leistungsfähige
geclusterte Rechner habe, kann das bisschen File- und
Druckserverzeug doch sicher in ner virtuellen Maschine
nebenbei gemacht werden.

Klar würde das der Cluster mit übernehmen können, die Frage ist halt nur, wie die Daten abgeglichen werden sollen.
Ist ein SAN wirklich nicht realisierbar?
http://de.wikipedia.org/wiki/Storage_Area_Network
Du brauchst ja nur 2 Fibre Channel Anschlüsse an den beiden Servern aus den Clustern und als Gegenstück die SAN.
Die einzelnen Clients greifen ja dann über das Hauseigene Netz (vermutlich als Gigabit LAN) durch die Server auf die SAN zu.

Je mehr Server man hat (Annähernd nach dem Motto „für jede
Aufgabe ein Gerät“), desto weniger kann passieren, wenn ein
Bauteil im großen Puzzle ausfällt, oder gar kaputt geht.

Klar, das wäre echt wünschenswert, aber wer soll das bezahlen?

Alternativ zur professionellen SAN mit Fibre Channel Anbindung könnte man ja immer noch einen kleinen File/Printserver nehmen. Da tuts dann auch ein altes Ding - gescheiten RAID Controller rein, ein paar gute Platten und fertig.

Ich habe einfach ein schlechtes Gefühl dabei, wenn fünf
Rechner gekauft werden, fleißig Strom brauchen und sich zu 95%
langweilen. Dann doch lieber zwei leistungsfähige Server,
worauf in ner VM die einzelnen Aufgaben getrennt voneinander
liegen.

Kein Problem, wenn du das so möchtest. Ich kann dich auch wirklich verstehen.
Aber wenn wir die zusätzlichen Datenbankserver einsparen, und in eine VM auf den beiden Servern packen, ist dann keine zentrale Speicherstation mehr drin?
Ich hab’ sonst echt keine Ahnung, wie wir Massenspeicher innerhalb der beiden Clusterknoten (deinen zwei großen Servern) abgleichen und gleich halten sollen.
Vielleicht hat da aber noch jemand anders eine Idee?

Übrigens, wie viele Arbeitsplätze sollen eigentlich verwaltet werden? Scheinbar habe ich bis heute Morgen noch in einem viel größeren Rahmen gedacht als du.

LG Yorick

Moien

Du bekommst Ärger mit der Netzwerkbandbreite (Terminal +
Fileserver)

Aha. Der Server soll 2x1Gbit/s Netzwerkanschluss haben.
Wieviel Bandbreite braucht denn ein einzelner Client?

Hängt von den Anwendungen ab. Eine Webseite mit Flashanimation als grossflächige Werbung verbraucht erstaunlich viel, arbeiten in Word erstaunlich wenig Bandbreite.

Bei den Dateien hast du den gleichen Effekt. Hier schaffen Leute an Videos und verbraten zeitweise 80MB/s pro Nase. Mehr als 10-15 können nicht an einem Fileserver arbeiten. 500KB grosse Worddateien hingegen sind Peanuts.

und der Grösse des RAM (Terminal + Datenbanken).

Hm, die Datenbank ist noch schlecht abzuschätzen. Aber
vielleicht kannst du ja mal ne Richtgröße geben, wieviel RAM
man pro Thin-Client-Sitzung einplanen muss.

Wenns richtig flüssig werden soll 128MB, 64MB reichen zur Not auch. Plus 512 MB für das OS. Und dann kommt noch die DB.

Es sind ganz
normale Büroanwendungen, mit mäßigen Datenmengen. Eben das,
was in einem Durchschnittsbüro so anfällt.

Für mich ist Surfen auf der Suche nach Informationen normaler Büroalltag. Die Flash-Werbung leider auch.

Wenn du die 2GBit sauber durch den Switch bekommst müsste es für 20-30 Büroplätze reichen.

Aus dem Grund (und nur aus dem Grund) würde ich 2 kleinere
Server nehmen. Die virtuellen Boxen kann man später immernoch
live (also ohne Clients zu verlieren) von einer Box zur
anderen schieben.

Hm, hatte ich auch schon überlegt. Der 2003er Windows-Server
kann das ja sogar, aber wie werden dann die Platten der beiden
Rechner synchron gehalten? Geht das automatisch?

Bei den richtigen, reinen virtuellen werden die virtuellen Platten mit verschoben.

cu

Bladeserver
Hallo Günther,
leider meldest du dich ja nicht mehr…
Aber vielleicht liest du ja trotzdem noch mit…

Ich war gestern in Düsseldorf bei einer Infoveranstaltung von IBM. Dabei ging es um IBM Bladeserver.

Für uns hat IBM klar die Vorteile zur Konkurenz (hauptsächlich HP) herausstellen können, und wir werden demnächst mit an Sicherheit grenzender Wahrscheinlichkeit neue Bladecenter (mit Bladeservern) kaufen. (um sie u. A. auch als Terminalserver zu nutzen)

Informier dich mal dazu.
Eventuell ist die Liga aber auch schon wieder zu groß für dich, aber wenn du dich nicht meldest…

LG Yorick