Hallo Christoph,
bei deinen Ausführungen hättest du vielleicht bedenken sollen,
dass das Shuttle SN95V20 nur einen AGP Port hat
Ja, da war ich wohl voreilig.
Kann ja mal passieren! 
und somit deine Informationen bezüglich Displayport & Co.
hinfällig sind, da mir keine Grafikkarte mit AGP bekannt ist
die so was schon besitzt.
Mir ehrlich gesagt auch nur eine CAD-Optimierte FireMV und ein
Prototyp.
http://www.idealo.de/preisvergleich/OffersOfProduct/…
http://www.guru3d.com/article/computex-2008-day-3–t…
Wo du die Informationen her Hast, dass der
Displayport sich in Zukunft durchsetzen wird ist mir auch
unerschlüsslich.
War vor wenigen Tagen in den Schlagzeilen der Fachpresse.
Natürlich ist DVI dank aufwärtskompatibilität zu HDMI auch
gut, aber irgendwann werden die Kabel dafür wieder teurer
werden.
Leider irrt sich in solchen Prognosen auch gerne mal die „Fachpresse“. Ich erinnre nur an die Diskussion Bluray oder HD-DVD. Ich hab schon damals gesagt es wird sich das durchsetzten, was Sony in seine PS3 einbaut, bevor das Teil aufm Markt war. Einfach weil Sony auch schon mit der PS2 damals gewisse „Standards“ durchgesetzt hat.
Ich würde durchaus einräumen, dass der DP vielleicht irgendwann mal den HDMI ablöst, einfach weil der HDMI mit seiner 1.4a Version jetzt in der letzten Spezifikation steckt. Aber nach Aktuellem Stand, wenn man sich die Geräte die auf dem Markt sind anschaut, wird das noch eine weile dauern. Sicher gibt es Monitore mit DP, aber das sind im Vergleich zu denen die keine DP haben sehr wenig. Ich rede ja nicht nur von Monitoren, sondern auch beispielsweise von Beamern. Und letztere Kommen jetzt erst mal alle mit HDMI 1.4a, damit sie endlich Full-HD-3D bringen können.
Denn gerade erst werden die neuen Audio- &
Videogeräte alle mit HDMI 1.4a eingeführt. Von Displayport ist
hier nirgendwo die Spur.
DispayPort ist der offizielle Nachfolger von DVI und es gibt
schon einige Monitore mit DP. Ich finde die ständige Wechselei
auch nicht so gut, aber dank mehrerer unterschiedlicher
Eingänge an Monitoren ist eigentlich immer ein passender
dabei.
Aktuell gibt es „schon“ >50 Monitore mit DP.
http://www.idealo.de/preisvergleich/ProductCategory/…
Also ein DP ist nun wirklich das letzte KO-Kriterium was ich aktuell an einen guten Monitor stelle. Da sind wohl andere Dinge um ein vielfaches wichtiger.
Von daher ist der Displayport der von
ATI aktuell mit ihren Karten beworben wird in meine Augen mal
wieder nur etwas um den Leuten das Geld aus der Tasche zu
ziehen.
Beworben wird das meines Wissens nach nicht, außer in meiner
vorhergehenden Antwort von mir vielleicht 
Doch wird er (leider). Habs schon seit längerem bei mir in der Firma gesehen wo ATI das dick fett auf ihre Kartons druckt um damit die Kunden zu locken.
Und das mit dem GadTz trifft eher auf den allgemeinen HD-Hype
vor ein paar Jahren zu, oder auf die glücklicherweise etwas
abgeflaute 3D-Hysterie. Die war ja absolut nervig, das zieht
sich schon seit 50 Jahren hin. Nur werden die angepriesenen
Geräte immer teurer…
3D ist an sich schon ne schöne Sache, aber wie mit allen (neuen) Techniken wird es jetzt erst mal wahnsinnig doll als was neues und revolutionäres beworben um wieder mal schön den Leuten das Geld aus der Tasche zu ziehen. Das schlimme ist an der aktuellen Hysterie, dass es immer noch keinen Standard für 3D gibt und Momentan schwer abzuschätzen ist, was sich durchsetzen wird. Alle die jetzt zugreifen laufen große Gefahr in der Zukunft nicht mehr unterstützt zu werden. (Um noch mal an HD-DVD zu erinnern).
Allerdings denke ich wird sich die 3D-Technik von Sony durchsetzen. Aus zweierlei gründen: 1. Weil’s mal wieder in die Playstation mit einfließen wird (Ich hab da von nem Update in naher Zukunft für die PS3 gehört!?) und 2. weil die aktuell im Kino verwendete Technik von Sony gestellt wird. Wobei Panasonic ja aktuell auch ordentlich die Werbetrommel rührt. Immerhin bieten sie den aktuell „einzigen“ Film auf Bluray der in 3D ist nur als Beigabe für ihre 3D-TV’s an.
Letztendlich kann man nur warten, wenn man unbedingt 3D haben möchte.
Auch die Information dass ATI das bessere
Preis-Leistungs-Verhältnis bietet ist stark Subjektiv.
Das ist definitiv objektiv, auch wenn ich meine objektive
Meinung manchmal subjektiv rüberbringe.
Schau dir och mal etwa diese Tabelle an und sortiere sie nach
Preis/Leistung.
http://www.chip.de/bestenlisten/Bestenliste-Grafikka…
Vorne weg: ich hab viele viele Jahre bei Chip mir die Informationen geholt, die ich brauche. Ich mag die Seite. Aber in letzter Zeit lese ich auch hier immer wieder Artikel die teils schlecht recherchiert und manchmal schlicht weg falsch sind. Allein am aktuellen Seitenlayout ist deutlich zu sehen, dass sich Chip immer mehr zu einem Klatsch Blatt wie die Computer-Bild entwickelt. Die Tests zu den einzelnen Artikeln sind für meinen Geschmack in letzter Zeit einfach zu oberflächlich. Da gibt es ganz andere Fachmagazine denen denen ich einfach mehr vertraue. Mal ganz zu schweigen von meinen eigenen Tests in der Firma. 
Nvidia hat zwar mit dem Fermi aufgeholt, aber in der für
Normalsterbliche attraktiven Preisklasse bis 160€ sind die in
dieser Liste enthaltenen Modelle auf den beiden letzten
Plätzen im P/L-Ranking.
http://www.chip.de/bestenlisten/Bestenliste-Grafikka…
Mit der 400er Serie hat sich nVidia wahrlich nicht mit Ruhm bekleckert…
Ich würde bei der Auswahl einer neuen Grafikkarte eher da
ansetzen, dass er bereits eine nVidia im System hat. Dignam
kennt sich sicherlich mit dem Treiber von nVidia aus und
außerdem brauch er diesen dann auch nicht auf den von ATI
umstellen. (was mitunter sehr gewöhnungsbedürftig sein kann)
Deinstallieren muss er ihn sowieso.
Als ATI-Nutzer ist man es vielleicht gewöhnt bei jedem Grafikkarten-Wechsel den Treiber erst deinstallieren und neu installieren zu müssen. 
Und die wenigsten
Standard-Nutzer wollen etwas an den Einstellungen des Treibers
verändern und verirren sich so tief 
Wobei Dignam mir nicht mehr wie ein Standard-Nutzer klingt, was aber sicherlich eine Subjektive Einschätzung von mir ist! 
Die Wahl des Treibers aufgrund der Installation/Bedienung
halte ich für unrelevant, da die Schritte sowieso nötig sind.
Der Treiber und die Softwareunterstützung Seitens ATI ist für mich die größte Abschreckung eine ATI-Karte zu kaufen.
An dieser Stelle würde ich eher auf die vereinfachte
Treiberisntallation bei AMD hinweisen, da dort bei vorhandenem
AMD-Chipsatz dieser mit im Treiberpaket enthalten ist.
Im teilweise subjekiven Bereich liegt die (empfundene)
Qualität/Stabilität der Treiber.
Hier erinnern sich manche an alte ATI-Treiber, die
verbesserungsfähig waren.
Das sind sie Heute immer noch. Es vergeht kein Tag in der Firma wo ich nicht über den Treiber von ATI fluche. Und damit stehe ich lange nicht alleine in meiner Abteilung da. Zugegeben, wir arbeiten mit der Hardware in bisschen anders als der Normalsterbliche, aber bei nVidia haben wir solche Probleme nicht.
Ferner geht es bei der Softwareentwicklung von Grafikkarten nicht nur um den Treiber selber. Die Softwareentwickler von nVidia arbeiten schon seit langen intensiv mit der restlichen Softwareindustrie, speziell mit der Gaming-Industrie zusammen. Hier hat ATI/AMD auf jeden Fall einiges an Nachholbedarf.
Ich darf an dieser Stelle mal an GTA4 erinnern. Mal davon ab dass das Spiel generell aus Programmiertechnischer Sicht totale Grütze war, lief es am Release-Tag auf 50% der ATI-Karte überhaupt nicht.
Weiterhin sollte man mal überlegen warum bei jedem 2. Spiel das nVidia-Logo im Intro eingespielt wird!
Nämlich aus oben genannten Grund. Dieser Grund ist übrigens neben schlechter Waver-Ausbeute & Co. einer der Hauptgründe warum sich nVidia seine Karten mit mehr Geld bezahlen lässt als ATI/AMD. Ob einem das wert ist muss jeder für sich selbst entscheiden.
Seit ich selbst 2007 bei der HD
Serie eingestiegen bin, lief bei mir alles einwandfrei.
Und aktuell gibt es bei Nvidia immer mal wieder
verbesserungsfähige Details, etwa wenn die Notebook-GPUs
aufgrund des Treibers überhitzen.
http://winfuture.de/suche/?cx=001589123709424097799%…
http://winfuture.de/suche/?cx=001589123709424097799%…
Diese Geschichte wurde Künstlich so hoch gepusht das ich langsam das kotzen kriege. Diese Treiber-Version um die es hier geht gab es nicht mal 1 Woche bevor nVidia drauf reagiert und und den Fehler behoben hatte. In dem Zeitraum habe ich nicht ein einziges Gerät in der Firma in der Hand gehabt, welche durch besagten Treiber zerstört wurde. Das war eine Hetz-Kampagne die pünktlich zum Release der GF100 nicht besser hätte kommen können. Schade wer sich durch so was blenden lässt.
Was hier eher als Problem ins Haus steht ist, dass Dignam in
seinem Shuttle nur AGP-Karten verbauen kann. Da AGP schon
längst überholt ist ist die Auswahl hier sehr rar. Und in der
Tat ist die beste Wahl im AGP-Bereich die ATI 3850, welche die
schnellste AGP-Grafikkarte ist die es gibt.
Ja, damals war die ein Segen für alle AGP-Nutzer. Mittlerweise
gibt es schon die HD 4670, welche dank modernerer Architektur
geringfügig schneller ist und auch deutlich günstiger zu haben
ist als die HD 3850.
http://www.idealo.de/preisvergleich/ProductCategory/…
Oh, da war ich dann nicht ganz auf dem aktuellsten Stand, dachte wirklich die 3850 sei die letzte AGP gewesen, aber gut zu wissen dass es noch mal was neueres gab! 
Wobei ich doch gerne noch mal hervorheben möchte dass seine
6600GT schon gut ein paar Jahre durchgehalten hat, und ich an
seiner Stelle sehr zufrieden wäre damit. Vielleicht sollte man
sogar überlegen noch mal eine günstige gebrauchte Karte die
sich in dem Bereich der 6600GT ansiedelt bei der eBucht zu
ersteigern.
Deren Architektur ist nicht mehr für die heutigen
Anforderungen ausgelegt. Selbst die zwei Generationen neuere
8600GT war 2007 nicht mal annähernd dazu fähig, HD-Material
wiederzugeben.
Das ist seine CPU und der Rest von seinem Computer auch nicht! 
Meine Aussage betraf ja auch nur den Fall, dass ihm sein aktueller PC reicht. Wenn er sich einen neuen holen möchte sollte er natürlich unbedingt auch zu einer moderneren Grafikkarte greifen! 
Habs damals mit dem Kollegen des Teufel-Systems (damals
Logitech) erlebt, ich hatte mir zeitglich eine HD 2600 XT
angeschafft. Bei 1080p war die CPU bei meinem PC nur zu 15-20%
ausgelastet, das hat die GPU komplett übernommen. Bei ihm war
die Framerate visuell messbar - ohne Übertreibung jede Sekunde
ein Bild.
Für den gleichen Preis lagen meiner Grafikkarte drei
Vollversionen damals neuer Spiele bei (TF2, HL2:E2, Portal).
Und mit meiner jetzigen OnBoard HD 3200 habe ich in der Praxis
die gleiche Leistung wie mit der 2600 XT.
Wäre ja auch schlimm, wenn sich in dem Zeitraum nichts getan hätte! 
Die meisten Onboard-Chips, vorausgesetzt der Player unterstützt die Hardwareencodierung von H.264, können heute beim Abspielen von HD-Filmen die CPU fast vollständig entlasten. Einzig mein Liebling der VLC hat an der Stelle noch Nachholbedarf, da er atm keine Hardwarebeschleunigung durch Chipsatz oder GPU zulässt. 
(was mich persönlich nicht so stört da meine CPU über einen 1080p Film nur müde lächelt) 
Dem Rest schließe ich mich an, Aufrüsten lohnt sich
wirtschaftlich nicht.
Ja, da sind wir ja endlich mal einer Meinung! 
LG
Chris
Ebenfalls liebe Grüße
Christoph