Performanceverlust 2xPCI-E 8x zu 2xPCI-E 16x

HI, weiß jemand wie hoch der Performanceverlust ist, wenn man zwei Grafikkarten in ein System steckt mit einem Chipsatz der nur 1 mal PCI-E 16x unterstützt?

Also die zwei Grakas teilen sich ja dann die 16 Lanes, im Gegensatz zu einem Chipsatz der 2x 16x unterstützt.
Wie hoch ist da maximal der Performanceverlust?

Ich rede von den Schnellsten Grakas die die Geschwindigkeit auch wirklich nutzen z.B. (2xGF 8800 GTX, 2xRadeon HD3870 X2)

MfG Julian

Gute Frage,
da würde ich evtl. mal bei deinem Mainboardhersteller anrufen und nachfragen, die Karten müssen ja irgenwie synchronisiert werden, also denke ich mal das beide auf 8xPCIE laufen.
Das würde den Leistungszuwachs minimieren.
Ja, den Bus teilen die sich dann, deswegen is es ja ein Bus :smile:

Andere Frage,
wenn man genug kohle hat um sich zwei so teure Grafikkarten zu kaufen, warum kann man sich dann für 90€ kein neues Mainboard kaufen

Moien

weiß jemand wie hoch der Performanceverlust ist, wenn man
zwei Grafikkarten in ein System steckt mit einem Chipsatz der
nur 1 mal PCI-E 16x unterstützt?

Minimal.

Ich rede von den Schnellsten Grakas die die Geschwindigkeit
auch wirklich nutzen z.B. (2xGF 8800 GTX, 2xRadeon HD3870 X2)

8x PCIe hat 2GB/s Bandbreite. Bei 60 fps sind das 33MB Informationen pro Frame. Übertragen werden nur Renderwünsche und Positionsänderungen (und Veränderungen an Geometrien wenn man Objekte ohne Shader morphed). Alles andere (Geometrie, Texturen, Shader,…) übertragen die Treiber 1x (falls die Programmier wissen was sie tun).

Ein Objekt einmal bewegen kostet 128 Byte, Renderwünsche (Aufrufe von DLs, offscreen Sachen für Spiegeleffekte & Co) kosten nochmal grob 64Byte pro Nase. Insgesamt also ~170.000 (ändern + rendern) Objekte pro Frame bei 60 fps. So viele Objekte stellt kein Spiel dar, das schafft derzeit keine Karte.

Und die Performance von SLI/Crossfire wird überschätzt. Für den doppelten Preis bekommt man 15-20% mehr Leistung. Tendenz fallend weil jeder aufwendige optische Effekt SLI stark bremst und die Latenz erhöht (Man verliert auf der GPU schon mehr Zeit als die Zockermonitore jemals mit ihren angeblichen 3 ms Latenz reinholen könnten).

cu

Gute Frage,
da würde ich evtl. mal bei deinem Mainboardhersteller anrufen
und nachfragen, die Karten müssen ja irgenwie synchronisiert
werden, also denke ich mal das beide auf 8xPCIE laufen.
Das würde den Leistungszuwachs minimieren.
Ja, den Bus teilen die sich dann, deswegen is es ja ein Bus

-)

Es kommt auf den Chipsatz an ob beide auf 8x laufen oder beide auf 16x.Das war ja nicht meine Frage, sondern halt was das ausmacht wenn sie beide nur auf 8x laufen.

Andere Frage,
wenn man genug kohle hat um sich zwei so teure Grafikkarten zu
kaufen, warum kann man sich dann für 90€ kein neues Mainboard
kaufen

Das ist berechtigt, ich wollte aber mit den 2 mal 8800GTX nur ein Extrembeispiel darstellen dass ich weiß ob es überhaupt was ausmacht. Wenn ich z.B. weiß bei 2 mal 8800GTX sinds 5% verlust dann weiß ich auch gleichzeitig dass es bei allen schlechteren Grakas nicht mehr Verlust sein wird.

Außerdem bekommst du für 90 € eben kein Board welches 2 x 16x PCI-E unterstützt.

Da gehts ab 140 € los.

Andersrum:

Warum 50 € mehr bezahlen, wenn es eh keine Mehrleistung bringt?

:wink:

@pumpkin

Ein Objekt einmal bewegen kostet 128 Byte, Renderwünsche
(Aufrufe von DLs, offscreen Sachen für Spiegeleffekte & Co)
kosten nochmal grob 64Byte pro Nase. Insgesamt also ~170.000
(ändern + rendern) Objekte pro Frame bei 60 fps. So viele
Objekte stellt kein Spiel dar, das schafft derzeit keine Karte.

Kann ich daraus entnehmen, dass es so gut wie gar keinen Performanceverlust gibt? :smile:

Und die Performance von SLI/Crossfire wird überschätzt. Für den
doppelten Preis bekommt man 15-20% mehr Leistung.

Hast du da ne Quelle?

Ein Bisschen Off Topic aber darum geht es mir eigentlich:

2x 8800 GT vs 1 x 8800GTX

Hab gelesen die 2 GT´s sind schneller sofern das Spiel SLI unterstützt.

Seh aber grad dass die 8800GTX gar nicht mehr so teuer sind (284€)
2x 8800 GT wären aber zsm ca 348€.

Die Frage is brauch man überhaupt soviel Leistung?

Eine GTX reicht doch im Prinzip locker aus oder?

Ich will damit Spiele wie Crysis auf 1280*1024 spielen mit KONSTANTEN 60 FPS mindestens.Also nicht dass wenn ne Rechenintensive Stelle kommt, das auf einmal auf 40 oder so runter geht.

Packt eine GTX das?

Moien

Kann ich daraus entnehmen, dass es so gut wie gar keinen
Performanceverlust gibt? :smile:

Richtig.

Und die Performance von SLI/Crossfire wird überschätzt. Für den
doppelten Preis bekommt man 15-20% mehr Leistung.

Hast du da ne Quelle?

Als extremes Beispiel der World in Conflict Test hier (und als Beispiel für ein SLI-freundliches Game der Test eins drunter): http://www.elitebastards.com/cms/index.php?option=co…

Crossfire scaliert noch schlechter, auch bei einfachen Sachen.

2x 8800 GT vs 1 x 8800GTX

Hab gelesen die 2 GT´s sind schneller sofern das Spiel SLI
unterstützt.

Hängt vom Spiel ab. Bei einfachen, SLI-freundlichen ist das eine recht klare Sache, bei neueren Spielen würde ich nicht wetten.

Seh aber grad dass die 8800GTX gar nicht mehr so teuer sind
(284€)
2x 8800 GT wären aber zsm ca 348€.

Der GT-Preis wird fallen wenn der Nachschub endlich besser wird. War ja Monate lange gar keine zu bekommen und inzwischen gehts es wieder vorran. Aber die Preise sind noch auf Grund der Nachfrage erhöht.

Die Frage is brauch man überhaupt soviel Leistung?

Falsche Frage: für welche Auflösung und Einstellungen ?

Eine GTX reicht doch im Prinzip locker aus oder?

WiC, 1920x1200 (also 24" Widescreen) bei vollen Details und die GTX kommt auf 31-35 fps … locker ist was anderes.

Ich will damit Spiele wie Crysis auf 1280*1024 spielen mit
KONSTANTEN 60 FPS mindestens.

Dafür sollte bei nicht ganz maximalen Details sogar eine GT reichen. Bei maximalen Details dann eher die GTX.

cu

Als extremes Beispiel der World in Conflict Test hier (und als
Beispiel für ein SLI-freundliches Game der Test eins drunter):
http://www.elitebastards.com/cms/index.php?option=co…

Ist dir aufgefallen, das die da nur mit Auflösungen getestet haben, womit man ne Kinoleinwand befeuern könnte? :wink: Nein, Scherz, ich hab nen 17", du kannst dir vorstellen dass der die Auflösung gar nicht her gibt :wink:

Außerdem ist es bei manchen Spielen schon ein enormer Unterschied finde ich.

Die Frage is brauch man überhaupt soviel Leistung?

Falsche Frage: für welche Auflösung und Einstellungen ?

Hatte ich doch unten geschrieben…1280*1024 und Details möglichst auf Max. denn wer will das nicht?

2x 8800 GT vs 1 x 8800GTX

Hab gelesen die 2 GT´s sind schneller sofern das Spiel SLI
unterstützt.

Hängt vom Spiel ab. Bei einfachen, SLI-freundlichen ist das
eine recht klare Sache, bei neueren Spielen würde ich nicht
wetten.

Seh aber grad dass die 8800GTX gar nicht mehr so teuer sind
(284€)
2x 8800 GT wären aber zsm ca 348€.

Der GT-Preis wird fallen wenn der Nachschub endlich besser
wird. War ja Monate lange gar keine zu bekommen und inzwischen
gehts es wieder vorran. Aber die Preise sind noch auf Grund
der Nachfrage erhöht.

Ich denke 2x 8800 Gts wäre auch nicht schlecht.Natürlich welche von den neuen mit 512 Mb jeweils und dem G92 Chip.

Was hältst du von den Gts´s? Die sind doch sogar noch besser als die GTs oder irre ich mich?

Moien

Ist dir aufgefallen, das die da nur mit Auflösungen getestet
haben, womit man ne Kinoleinwand befeuern könnte? :wink:

Akutelles digitales Kino läuft mit 2K (2048x1080) oder 4K (4096x2160). Ja, ich weiss …

Bei deinen Auflösungen reicht die GT in 95% der Fälle aus. GTS macht die 100% voll, alles weitere ist Deko.

cu

Danke!

Akutelles digitales Kino läuft mit 2K (2048x1080) oder 4K
(4096x2160). Ja, ich weiss …

-)

Bei deinen Auflösungen reicht die GT in 95% der Fälle aus. GTS
macht die 100% voll, alles weitere ist Deko.

cu

THX!!!

Dann weiß ich jetzt was ich nehme :wink: