Grafikkarte 1024MB oder nicht?

Hallo
Als ich vor etwa einem Jahr eine neue Mittelklasse Grafikkarte geholt habe, wollte ich eigentlich eine mit 1024MB, habe dann aber doch eine mit 512MB genommen. Bei manchen Spielen werden mir aber daraufhin die „Hochauflösenden Texturen“ verweigert. Das ärgert mich nun wieder.

Bei Vergleichslisten (z.B. Chip-Heft) fallen aber Grafikkarten mit mehr Speicher zumeist schlechter aus, als die mit weniger Speicher.
Aber was soll man nun tun? Wieder eine Grafikkarte mit 512 oder eine mit 1024 MB??

Gruß
Andreas

Hi ho,

die Spiele, die 1024MB Speicher in der Grafikkarte unterstützen, wollen in der Regel auch eine High End Karte. Also keine Mittelklasse.
Wenn Du also aufrüstest, dann gleich richtig :wink:

Gruss,
Herb

Hallo
Naja gut… Jetzt mal ehrlich. Ich habe eine GEforce 9600GT mit 512 MB. Und bei mir laufen Spiele wie z.B. Farcry 2, Fallout 3, Flatout Ultimate Carnage, World in Conflict und Tomb Raider Underworld mit voller 22" Auflösung und sämtlich Details absolut flüssig (wie gesagt, lediglich bei manchen Spielen wird mir die höchste Detailstufe verwehrt - auch wenn es die Grafikkarte vermutlich schaffen würde… War bei „Ghost Recon 2“ damals auch… Das konnte man dort aber per .ini-Edit umgehen und lief trotzdem weiter flüssig).
Will sagen: Was kann eine High-End-Grafikkarte für 500 Euro nun besser als meine „Mittelklasse“ für 150? Lediglich „Grafikbomben“ wie GTA 4 und vielleicht Crysis können nicht auf volle Wucht geschaltet werden. .Wobei ich GTA vorwerfe einfach nur schlampig programmiert worden zu sein :wink:

Gruß
Andreas

Hallo,

  1. wenn Grafikkarten mit 1 GB RAM langsamer getestet werden, als baugleiche Karten mit 512 MB, kann das daran liegen, das zwar mehr, aber langsamerer Speicher verbaut ist.
    In Bildauflösungen, wo 512 MB ausreichen bzw. 1024 MB nicht benötigt werden, zählt dann der Geschwindigkeitsvorteil des kleineren, aber schnelleren RAM.

Und bei mir laufen Spiele wie z.B. Farcry 2, Fallout
3, Flatout Ultimate Carnage, World in Conflict und Tomb Raider
Underworld mit voller 22" Auflösung und sämtlich Details
absolut flüssig

Das klingt doch gut. Du spielst sicher unter Windows XP/ DirectX 9, oder? Ich kann mir fast nicht vorstellen, dass diese Spiele unter DirectX10 auf deiner Hardware im 1680x1050er Auflösung und höchster Detailstufe flüssig laufen…

Will sagen: Was kann eine High-End-Grafikkarte für 500 Euro
nun besser als meine „Mittelklasse“ für 150?

Sie haben teilweise die 5fache Anzahl an Shaderprozessoren und damit eine wesentlich höhere Rechenleistung unter DirectX10. Damit können bei aktuellen Spielen teilweise sehr nette Effekte errechnet werden. Unter DirectX9 kommst du mit der Geforce 9600GT locker hin, wenn du keine hohen AA/AF-Einstellungen verwendest. Es ist eine gute Karte und vor Allem verbraucht sie nicht so viel Strom.

Lediglich
„Grafikbomben“ wie GTA 4 und vielleicht Crysis können nicht
auf volle Wucht geschaltet werden. .Wobei ich GTA vorwerfe
einfach nur schlampig programmiert worden zu sein :wink:

Bei GTA4 hast du mit deiner CPU keine Chance. Dieses Spiel ist nicht so grafikkartenlastig, skaliert aber als bisher einziges Game nahezu linear mit der Anzahl der Prozessorkerne. D.h. auf einem Quadcore würde es wirklich fast so schnell laufen, wie auf deinem DualCore. Und es fordert diese Leistung auch ein. Ist somit eins der wenigen Spiele, bei dem du vom Wechsel auf einen Phenom wirklich stark profitieren würdest.

LG, Jesse

Korrektur

D.h. auf einem Quadcore würde es wirklich fast so schnell laufen, wie
auf deinem DualCore.

Ich meinte natürlich: …fast doppelt so schnell… (!!!) :smiley:

(mangels Editierfunktion hiermit korrigiert)

Gruß Jesse

Hallo nochmal
Doch, ist ein Vista 32 Rechner mit DX10.
Allerdings weiß ich jetzt nicht, ob man DX10 da noch irgendwie „aktivieren“ muß… Bei manchen Spielen steht da ja noch mal extra „DX10 aktivieren“ oder so…
Der Flightsimulator X läuft unter Vista und DX10 aktivierung sogar noch flüssiger als unter Windows XP und DX9.
Bei Far Cry 2 habe ich das AA auf 2fach „heruntergestellt“, damit es in „hitzigen Situationen“ nicht zu einbrechern im Spielfluss kommt.
Aber Tomb Raider Underworld ist alles auf voll… Gestern habe ich die Demo zu „Grand Ages Rome“ gespielt und auch alles auf voll.
Deswegen weiß ich nicht, was da eine teurere Karte Sinn macht (höchstens mal eine aktuellere Mittelklasse wie eine 9800GTX oder 4850)
Aber nötig wäre es im Moment noch nicht… Und GTA 4… Naja… Kann ich auch noch später spielen :smiley:

Aber „mehr Grafik“ macht doch eine teurere nicht, oder?
Ich weiß ganz früher war es mal so, das z.B. eine Geforce 1 Grafikkarte kein Shader-Modell hatte und eine Geforce 2 dann das Shader 1.0 (ist jetzt nur ein Beispiel, ich weiß nicht mehr wann das eingeführt wurde). Jedenfalls war das Spiel unter der 1 viel Schneller, weil die 2er einfach noch die Shader mitberechnen mußte… Dafür sah es dann aber auch besser aus…
Daher weiß ich nicht, ob ich mit einer „High End“ GraKa auch irgendwas optisches „mehr“ hätte :smile:

Auch weiß ich nicht ob Geforce oder mal eine ATI… Bei den Vergleichsliste von Chip sehe ich z.B. bei Nvidia einen angegebenen „Shadertakt“… Bei ATI nicht, wo ich mich dann gleich frage, ob die NVidias vielleicht was mehr können :smile:

Vor einiger Zeit (ca. 2 Jahre her) hatte ich mal ein Austauschmodell von ATI. Da hatte ich das Gefühl, das die Grafik irgendwie „klarer“ aussah. Als ich dann aber die Nvidia wieder hatte, sah die Grafik aber doch irgendwie genauso aus :smile:

Gruß
Andreas

Aber „mehr Grafik“ macht doch eine teurere nicht, oder?

Es kommt drauf an, welche APIs sie unterstützt. Wenn sowohl die teure als auch die billige Grafikkarte DirectX10/ SM 4.0 unterstützen, beherrschen sie grundsätzlich dieselben Effekte. Nur dass du bei der schwächeren Karte evtl. daraus keinen Nutzen ziehen kannst, weil sie nur noch 1 fps rausschmeißen kann, wenn die API tätsächlich von einem Spiel genutzt wird. So hast du auf der schwächeren Karte eine DIA-Show und auf der teuren kannst du flüssig spielen. Dann muss das Spiel auf der schwächeren Karte einen alternativen Renderpfad (z.B. DirectX9/ SM 3.0) benutzen, damit es überhaupt läuft und du kommst nicht in den Genuss der schöneren Effekte.

Ich weiß ganz früher war es mal so, das z.B. eine Geforce 1
Grafikkarte kein Shader-Modell hatte und eine Geforce 2 dann
das Shader 1.0 (ist jetzt nur ein Beispiel, ich weiß nicht
mehr wann das eingeführt wurde). Jedenfalls war das Spiel
unter der 1 viel Schneller, weil die 2er einfach noch die
Shader mitberechnen mußte…

Das ist das, was ich oben gesagt habe. Wenn eine Grafikkarte nicht über die Hardware verfügt, um ein bestimmtes Shader Modell zu nutzen, erlauben Spiele oft, dass ein alternativer Renderpfad verwendet wird. Dann berechnet die Grafikkarte das Bild auf die ‚klassische Weise‘, bei der du auf Bildqualität und/ oder Grafikeffekte verzichten musst.

In deinem Beispiel hättest du die Geforce 2 aber auch zwingen können, den DirectX 7 - Renderpfad mit T&L zu nutzen und die Shaderprozessoren zu ignorieren, dann wäre sie sicher schneller gewesen als die Geforce 1 bei gleicher Bildqualität. Prinzip erkannt? :smile:

Daher weiß ich nicht, ob ich mit einer „High End“ GraKa auch
irgendwas optisches „mehr“ hätte :smile:

Immer dann, wenn deiner Karte von einem Spiel per sé nicht erlaubt wird, Shader Modell 4 zu nutzen, weil das Spiel schon vorher weiß, dass die das nicht spielbar packt, hast du von der HighEnd-Graka mehr ‚Optisches‘. Das dürfte in Crysis und FarCry2 definitiv der Fall sein.

Auch weiß ich nicht ob Geforce oder mal eine ATI… Bei den
Vergleichsliste von Chip sehe ich z.B. bei Nvidia einen
angegebenen „Shadertakt“… Bei ATI nicht, wo ich mich dann
gleich frage, ob die NVidias vielleicht was mehr können :smile:

Daran darfst du dich ned aufhängen. Die Grafikkarten von AMD/ATi und NVidia sind technisch recht unterschiedlich aufgebaut und kommen mit anderen Strategien zum Ziel. Deshalb sind auch die Marketing-Angaben zur Leistung der Karten recht unterschiedlich und die werden dann halt ungeprüft in solche Tabellen übernommen. So steht bei den ATi-Karten der HD48-Baureihe oft, dass sie 800 Shaderprozessoren hätten, während bei der Geforce GTX 280 ‚nur‘ 240 Shaderprozessoren angegeben werden. Trotzdem ist die GTX 280 deutlich schneller, aufgrund des völlig unterschiedlichen Designs lassen sich solche Angaben nicht vergleichen.

Vor einiger Zeit (ca. 2 Jahre her) hatte ich mal ein
Austauschmodell von ATI. Da hatte ich das Gefühl, das die
Grafik irgendwie „klarer“ aussah. Als ich dann aber die Nvidia
wieder hatte, sah die Grafik aber doch irgendwie genauso aus

)

Es gab mal eine lange Zeit, da hatte ATi unter 2D die deutlich bessere Bildqualität. Die 2. Geforce-Generation war da z.B. nicht so der Hammer. Unter 3D wechselten sich NVidia und ATi lange Zeit mit fast jeder kartengeneration ab, was die bessere Qualität betraf. Oftmals hatte ATi zwar die bessere anisotrope Filterung und die theoretisch bessere Bildqualität, NVidia hatte aber die bessere Treiberunterstützung und sah in Spielen dann trotzdem besser aus, weil es mit den ATi-Karten in der Realität Fehler und Probleme gab.

Seit einigen Jahren sind beide Hersteller in Sachen Bildqualität etwa gleichwertig. Ich würde keinen bevorzugen, sondern immer da kaufen, wo ich mehr für mein Geld bekomme. Im mittleren Leistungsbereich ist das momentan klar AMD/ATi, welche insbesondere sehr günstige und stromsparende Karten anbieten. Momentan wäre für mich z.B. die Radeon HD4670 eine sehr interessante Karte, die ist leistungstechnisch etwa auf dem Niveau deiner Geforce 9600 GT, braucht aber gerade im 2D-Betrieb 75% weniger Strom und kostet nur ca. 80 EUR!
Der HighEnd-Bereich interessiert mich als HTPC-Besitzer ohnehin nicht so. Eine Grafikkarte mit 200 Watt Stromverbrauch kann ich mir nicht leisten, da sie nicht passiv kühlbar ist und außerdem meine Hardware grillt.

LG, Jesse