Aber „mehr Grafik“ macht doch eine teurere nicht, oder?
Es kommt drauf an, welche APIs sie unterstützt. Wenn sowohl die teure als auch die billige Grafikkarte DirectX10/ SM 4.0 unterstützen, beherrschen sie grundsätzlich dieselben Effekte. Nur dass du bei der schwächeren Karte evtl. daraus keinen Nutzen ziehen kannst, weil sie nur noch 1 fps rausschmeißen kann, wenn die API tätsächlich von einem Spiel genutzt wird. So hast du auf der schwächeren Karte eine DIA-Show und auf der teuren kannst du flüssig spielen. Dann muss das Spiel auf der schwächeren Karte einen alternativen Renderpfad (z.B. DirectX9/ SM 3.0) benutzen, damit es überhaupt läuft und du kommst nicht in den Genuss der schöneren Effekte.
Ich weiß ganz früher war es mal so, das z.B. eine Geforce 1
Grafikkarte kein Shader-Modell hatte und eine Geforce 2 dann
das Shader 1.0 (ist jetzt nur ein Beispiel, ich weiß nicht
mehr wann das eingeführt wurde). Jedenfalls war das Spiel
unter der 1 viel Schneller, weil die 2er einfach noch die
Shader mitberechnen mußte…
Das ist das, was ich oben gesagt habe. Wenn eine Grafikkarte nicht über die Hardware verfügt, um ein bestimmtes Shader Modell zu nutzen, erlauben Spiele oft, dass ein alternativer Renderpfad verwendet wird. Dann berechnet die Grafikkarte das Bild auf die ‚klassische Weise‘, bei der du auf Bildqualität und/ oder Grafikeffekte verzichten musst.
In deinem Beispiel hättest du die Geforce 2 aber auch zwingen können, den DirectX 7 - Renderpfad mit T&L zu nutzen und die Shaderprozessoren zu ignorieren, dann wäre sie sicher schneller gewesen als die Geforce 1 bei gleicher Bildqualität. Prinzip erkannt? 
Daher weiß ich nicht, ob ich mit einer „High End“ GraKa auch
irgendwas optisches „mehr“ hätte 
Immer dann, wenn deiner Karte von einem Spiel per sé nicht erlaubt wird, Shader Modell 4 zu nutzen, weil das Spiel schon vorher weiß, dass die das nicht spielbar packt, hast du von der HighEnd-Graka mehr ‚Optisches‘. Das dürfte in Crysis und FarCry2 definitiv der Fall sein.
Auch weiß ich nicht ob Geforce oder mal eine ATI… Bei den
Vergleichsliste von Chip sehe ich z.B. bei Nvidia einen
angegebenen „Shadertakt“… Bei ATI nicht, wo ich mich dann
gleich frage, ob die NVidias vielleicht was mehr können 
Daran darfst du dich ned aufhängen. Die Grafikkarten von AMD/ATi und NVidia sind technisch recht unterschiedlich aufgebaut und kommen mit anderen Strategien zum Ziel. Deshalb sind auch die Marketing-Angaben zur Leistung der Karten recht unterschiedlich und die werden dann halt ungeprüft in solche Tabellen übernommen. So steht bei den ATi-Karten der HD48-Baureihe oft, dass sie 800 Shaderprozessoren hätten, während bei der Geforce GTX 280 ‚nur‘ 240 Shaderprozessoren angegeben werden. Trotzdem ist die GTX 280 deutlich schneller, aufgrund des völlig unterschiedlichen Designs lassen sich solche Angaben nicht vergleichen.
Vor einiger Zeit (ca. 2 Jahre her) hatte ich mal ein
Austauschmodell von ATI. Da hatte ich das Gefühl, das die
Grafik irgendwie „klarer“ aussah. Als ich dann aber die Nvidia
wieder hatte, sah die Grafik aber doch irgendwie genauso aus
)
Es gab mal eine lange Zeit, da hatte ATi unter 2D die deutlich bessere Bildqualität. Die 2. Geforce-Generation war da z.B. nicht so der Hammer. Unter 3D wechselten sich NVidia und ATi lange Zeit mit fast jeder kartengeneration ab, was die bessere Qualität betraf. Oftmals hatte ATi zwar die bessere anisotrope Filterung und die theoretisch bessere Bildqualität, NVidia hatte aber die bessere Treiberunterstützung und sah in Spielen dann trotzdem besser aus, weil es mit den ATi-Karten in der Realität Fehler und Probleme gab.
Seit einigen Jahren sind beide Hersteller in Sachen Bildqualität etwa gleichwertig. Ich würde keinen bevorzugen, sondern immer da kaufen, wo ich mehr für mein Geld bekomme. Im mittleren Leistungsbereich ist das momentan klar AMD/ATi, welche insbesondere sehr günstige und stromsparende Karten anbieten. Momentan wäre für mich z.B. die Radeon HD4670 eine sehr interessante Karte, die ist leistungstechnisch etwa auf dem Niveau deiner Geforce 9600 GT, braucht aber gerade im 2D-Betrieb 75% weniger Strom und kostet nur ca. 80 EUR!
Der HighEnd-Bereich interessiert mich als HTPC-Besitzer ohnehin nicht so. Eine Grafikkarte mit 200 Watt Stromverbrauch kann ich mir nicht leisten, da sie nicht passiv kühlbar ist und außerdem meine Hardware grillt.
LG, Jesse