Neue Physikkarte für PC - Ist das die Zukunft?

Hallo zusammen

Ich habe in verschiedenen Forums gelesen das eine neue Physikkarte auf den Markt kommen soll welche die Grafikkarte unterstützen und Spiele aber auch Filme unglaublich realistisch machen soll. Gleichzeitig steht jedoch das diese Technologie nur erfolg hat wenn sie von der Spieleindustrie benutzt wird. Nun wenn diese Technik so atemberaubend ist wird sie doch sicher genutzt? Oder gibt es noch bessere Lösungsansätze die eine solche karte überflüssig machen würde?

Vielen Dank schon im voraus

Gruss Markus

Moin

Ich habe in verschiedenen Forums gelesen das eine neue
Physikkarte auf den Markt kommen soll welche die Grafikkarte
unterstützen und Spiele aber auch Filme unglaublich
realistisch machen soll.

Genau die gleichen Sprüche hab ich bei der Einführung von OpenGL, 3Dfx, DirectX, MMX, 3Dnow, SSE, VertexShadern, PixelShadern, HT und 64Bit gehört. So langsam könnte man sich was neues einfallen lassen…

Gleichzeitig steht jedoch das diese
Technologie nur erfolg hat wenn sie von der Spieleindustrie
benutzt wird.

Das ist klar. Hardware ohne Software ist nur ein unnötiger Stromverbraucher der kaputt gehen kann.

Nun wenn diese Technik so atemberaubend ist wird
sie doch sicher genutzt?

Falls die Technik was bringt
UND M$ nix dagegen hat
UND die Hardware nicht zu teuer ist
UND einfach in Software einzubauen ist
UND die Technik gegen kein Patent verstösst *
UND viele Rechner sie ab Werk enthalten
UND die Lizenzgebühren nicht zu hoch sind
UND die Treiber stabil sind
wird man anfangen sie zu benutzen. Also bestenfalls in 4 Jahren.

Oder gibt es noch bessere
Lösungsansätze die eine solche karte überflüssig machen würde?

Dutzende. Aber bei den meisten spielt M$ nicht mit, die anderen sind die Lizenzen zu teuer.

Man könnte alleine mit kleveren Algorithmen, RISC-CPUs, OpenGL und PixelShadern wunderbare 3D-Welten erschaffen und Filme im Kinoqualität auf den Monitor bringen. Diese Techniken sind alle verfügbar, aber aus irgendeinem Grund nicht durchsetzbar. Daraus entsteht eine schwache Nachfrage, also läst man’s gleich ganz bleiben.

cu

* Die EU hat ja jetzt auf dem Gebiet wiedermal grosses geleistet. Das Thema wird in naher Zukunft den IT-Mittelstand in der EU zusammenbrechen lassen.

Man könnte alleine mit kleveren Algorithmen, RISC-CPUs, OpenGL
und PixelShadern wunderbare 3D-Welten erschaffen und Filme im
Kinoqualität auf den Monitor bringen.

Radiosity.

Man könnte alleine mit kleveren Algorithmen, RISC-CPUs, OpenGL
und PixelShadern wunderbare 3D-Welten erschaffen und Filme im
Kinoqualität auf den Monitor bringen.

Radiosity.

Cell wird’s richten. (Ist auch nur ein komischer Name für „viele RISCs in einem Rechner“)

cu

Hallo nochmal

Ich möchte wirklich nicht einfach dumme fragen stellen und alles was ich weiss hab ich irgendwo gelesen und hab keine ahnung ob das fakten oder irgendwelche zahlen sind.

Es heisst zB das heute etwa 40 Objekte gleichzeitig und mit dieser Karte 40000 objekte gleichzeitig verändert werden können… Bis jetzt wurden ja objekte wenn sie zB von einem Schuss getroffen wurden einfach durch eine filmsequenz und ein neues Bild ersetzt (sehr Grob gesagt)!

Wenn geschickte Allgorythmen die Lösung sind fehlt dann bloss noch die PC-Leistung? Ich meine es sind ja nicht gerade die dümmsten Personen Spieleentwickler!?!

Also eigentlich hab ich viel positives erwartet und nur negative antworten erhalten…

Moin

Es heisst zB das heute etwa 40 Objekte gleichzeitig und mit
dieser Karte 40000 objekte gleichzeitig verändert werden
können…

Das hängt davon hab was die Jungs mit „verändern“ meinen. Wenn es nur um die Physik geht sind 40 zu tief gegriffen. Da schaffen die normalen PCs heute schon weit mehr (±500 - 2000 je nach Definition von Physik). RISC’s im Cell-styl düften die 40000 locker sprengen.

Bis jetzt wurden ja objekte wenn sie zB von einem
Schuss getroffen wurden einfach durch eine filmsequenz und ein
neues Bild ersetzt (sehr Grob gesagt)!

… ja, schon. Das macht man wenn ein Spiel auf möglichst vielen PCs laufen soll und die Engine dahinter nicht mehr Möglichkeiten liefert. Ein Dampfhammer wie der AMD64 könnte sowas aber auch für 2-4 Figuren gleichzeitig in Echtzeit machen. Mehr ist wegen der Cache und Speicherarchitektur des x86 derzeit nicht drin.

Wenn geschickte Allgorythmen die Lösung sind fehlt dann bloss
noch die PC-Leistung?

Es fehlt an einer Platform die auch bei grossen Datensätzen richtig viel Leistung bringt (und 3-5 Patenten). Die Leistung der x86’er (=PC) fällt ab 50-150 KB Datensatz radikal ab. Was man braucht wäre also eine RISC-CPU mit 20-40 MB Cache. Sowas gibt es durchaus (nicht ganz RISC, aber näher dran als AMD und Intel zusammen: http://www.theinquirer.net/?article=12145), nur sind die Chips wegen ihrer geringen Produktionszahlen sauteuer. Also kauft keiner die Chips zum spielen. Also werden keine Spiele drauf entwickelt, also kauft keiner … usw.

cu

1 „Gefällt mir“

Radiosity.

Cell wird’s richten. (Ist auch nur ein komischer Name für
„viele RISCs in einem Rechner“)

Du meinst einen Komplexitätssprung von grob O(n) auf O(c^n) für kaum kalkulierbare c? Das glaube ich nicht, Tim… Es gibt mittlerweile ganz gut funktionierende Ansätze, um eine in sehr weicher Echtzeit berechnete Szene visuell sehr überzeugend aussehen zu lassen, aber viel mehr als überaus intelligente Hacks sind das nicht.

Was die Physik angeht, wird der Desktopmarkt tatsächlich durch endlich mal schneller werdenden Speicher und dickere Anbindungen langsam reif für schöne Coprozessorlösungen, bei denen die Daten nicht nur wie für die Grafik überwiegend in eine Richtung geschickt werden müssen. Der Cell-Prozessor könnte z.B. eine recht brauchbare Lösung sein, da der schonmal eine ganz brauchbare Vektorarchitektur hat. Jetzt fehlen nur noch Mainboards, bei denen die wenigen PCIe-Slots nicht durch die Grafikkarte blockiert werden (Asus, der war für euch…).

Der tatsächliche Sinn wäre allerdings, damit auch Anwendungen zu bauen, die diese Möglichkeiten tatsächlich nutzen. Wenn die Coprozessoren frei verwendbar sind, also einen möglichst allgemeinen Befehlssatz haben, könnte man sicherlich viele interessante Anwendungen darauf aufsetzen. Wenn sich ein solches Produkt allerdings alleine auf Spiele ausrichtet wird das meiner Meinung nach (zur Zeit) ein fürchterlicher Flop. Die meisten Spiele haben schon ein Problem damit, dem Spieler eine offene Welt mit fixen Objekten glaubwürdig und sinnvoll zu präsentieren (positives Beispiel: Morrowind), einige haben eine extrem stark eingeschränkt manipulierbare Spielwelt (HL2), und die meisten kommen über den Einsatz von Stoff- und Partikelsimulationen für visuelle Effekte nicht hinaus. Das ganze ist schließlich noch eine Frage des Designs, wobei jeder „Freiheitsgrad“ des Spielers das Design potentiell exponentiell erschwert. Was passiert z.B. in Red Faction, wenn ein Spieler das Level soweit wegballert, dass er nicht mehr weiterkommt?

Es gibt da natürlich noch den Markt für Flugsimulationen, der einen echten Nutzen aus präzisen und schnellen physikalischen Berechnungen ziehen, aber der Markt ist ja sehr geschrumpft zugunsten der hirnlosen Baller- und RTT-Spiele sowie Pseudosimulationen (NFSU), bei denen solche Rechenleistung reine Verschwendung ist. Die bräuchten eher leistungsfähigere Vertex- und Pixelshader, um noch besser verspiegelte Straßen und hunderte von fizzeligen Zerg-Abkömmlingen darzustellen.