Shader 1.0, Shader 3.0 & Shader 3.0

Hi

Meine Radeon X800 XT Platinum Edition hat „Shader 2.0“.
Ich habe im Internet ein bischen darüber gelesen. Allerdings muß ich gestehen, das ich kaum etwas verstanden habe. Deswegen frage ich lieber hier noch mal nach.
Kann man „Shader Versionen“ mit einem Update oder neuen Treiber auf 3.0 oder höher bringen ?

Wozu „Shader“ verwendet wird, ist mir soweit klar. Allerdings ist mir unklar, was das genau ist. Eine Hardware, Software, Treiber, Chip usw.? Unklar ist auch, ob man „Shader“ austauschen kann.

Gruß Nino

Hallo!

Meiner Meinung nach kann man eine Shadereinheit nicht durch ein Update verbessern, da es ein fest verbautes Modul auf der Grafikkarte ist.
(ähnlich wie beim Arbeitsspeicher-es kann nur das leisten was verbaut worden ist------------ist nur ein bildliches Beispiel)
Zum Austauschen kann ich nur sagen, das das sehr unwahrschenlch ist, da Du erstens; mit einem Lötkolben an deiner Grafikkarte arbeiten müßtest und zweitens; es solche Module, meiner Meinung nach, in keinster Weise käuflich zu erwerben gibt.
Um nun eine Grafikkarte mit einem höheren Shaderwert zu erhalten hat man nur die Möglichkeit sich eine aktuellere Grafikkarte zu kaufen und beim Kauf darauf achten das diese dann auch die neueste Version besitzt.

Hi,

Zum Austauschen kann ich nur sagen, das das sehr
unwahrschenlch ist, da Du erstens; mit einem Lötkolben an
deiner Grafikkarte arbeiten müßtest und zweitens; es solche
Module, meiner Meinung nach, in keinster Weise käuflich zu
erwerben gibt.

das löten würde auch nichts nützen, die Shaderprozessoren sind Struktureinheiten des Grafikprozessors (GPU) und nicht irgendwelche zusätzlichen Module auf der Grafikkarte. Richtig ist, dass man sie genauso wenig durch ein Softwareupdate aufbohren lassen, wie man seine CPU per Software von einem SingleCore zu Quadcore oder von einem 32bit-Prozessor zu einem 64bit-Prozessor machen könnte.

LG, Jesse

Hallo

… die Shaderprozessoren sind
Struktureinheiten des Grafikprozessors (GPU) und nicht
irgendwelche zusätzlichen Module auf der Grafikkarte. Richtig
ist, dass man sie genauso wenig durch ein Softwareupdate
aufbohren lassen, wie man seine CPU per Software von einem
SingleCore zu Quadcore oder von einem 32bit-Prozessor zu einem
64bit-Prozessor machen könnte.

Das wollte ich wissen, Danke.
Sind jetzt neue Karten standartmässig mit „Shader 3 oder 4“ ausgerüstet oder muß man immer noch darauf achten?

Gruß Nino

Sind jetzt neue Karten standartmässig mit „Shader 3 oder 4“
ausgerüstet oder muß man immer noch darauf achten?

Alle neuen Grafikkarten von NVidia und AMD/ATi (Geforce 8xxxer und 9xxxer Serie und Radeon HD3xxx und HD4xxx) besitzen Shaderprozessoren, die Berechnungen nach SM 4.0 ausführen können und damit DirectX 10 - fähig sind. DirectX 10 ist die neue Grafik-API von Windows Vista und erfordert sehr viel Rechenleistung von der Grafikkarte.
Die meisten aktuellen Spiele besitzen aber einen Fallbackpfad zu DirectX 9.0c, damit laufen sie auch unter Windows XP bzw. unter Vista auf schwächeren Grafikkarten. Allerdings werden dann einige Effekte nicht so schön dargestellt. DirectX 9.0c - Spiele benötigen Berechnungen nach Shadermodell 3.0.
Mit älteren Grafikkarten, die nur DircetX 7 (keine programmierbaren Shaderprozessoren), DirectX 8 (Shadermodel 1.0) und DirectX 9.0b (Shadermodell 2.0) laufen die meisten aktuellen Spiele nicht mehr.

LG, Jesse

Die Karten von ATI haben SM4.1 und DirectX10.1, was Nvidia nicht hat.

Alle neuen Grafikkarten von NVidia und AMD/ATi (Geforce 8xxxer
und 9xxxer Serie und Radeon HD3xxx und HD4xxx) besitzen
Shaderprozessoren, die Berechnungen nach SM 4.0 ausführen
können und damit DirectX 10 - fähig sind.

Die Karten von ATI haben SM4.1 und DirectX10.1, was Nvidia
nicht hat.

Ich wollt keine Krümel kacken. Wem bringt denn die 0.1 in der Realität was? Von den Spieleprogrammierern genutzt wird doch eh bloß, was alle Karten haben und außerdem besteht durch die Nutzung der Möglichkeiten von DirectX10.1 im Gegensatz zu DirectX 10 AFAIK kein Qualitätsvorteil. Wenn die NVidia-Karten schneller rechnen, isses also Wurscht, welche API sie nutzen (können).

LG, Jesse

P.S.: Bin ATi-Fan :smiley: