PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was kommt nach den Shadern?


][immy
2004-04-19, 13:06:56
nun, Shader sind zwar noch recht jung, aber irgendwie scheint sich alle-welt nur noch darauf zu konzentrieren

aber eine frage die mich beschäftigt, was denn die nächste technologische errungenschaft im markt sein wird?

klar mit den shadern wird zwar schon fast alles in hardware unterstützt, doch da muss doch noch was sein, was grafikkarten in zukunft übernehmen können.

DrumDub
2004-04-19, 13:13:02
mit shadern sind wir noch längst nicht am ende. das shadermodel 4.0 wird noch ne ganze menge bringen, von dem wir heute noch nicht mal träumen. für die nächsten drei jahre wirds da nix neues geben, ausser das die grafikkarten immer mehr aufgaben übernehmen, die heute noch von der cpu berechnet werden.

StefanV
2004-04-19, 14:44:04
Was nach den Shadern kommt??

Vermutlich ein SIMD CoPro oder sowas in der Art...

ow
2004-04-19, 15:51:19
.

deekey777
2004-04-19, 15:54:13
Original geschrieben von ow
Also Shadermodel 4.0 ist ein etwas aufgebohrter 3.0 soweit das im Moment bekannt ist.

In der (vor-)letzten PCGH Ausgabe stand, dass die VS und PS ineinander "verschmelzen" würden oder so ähnlich.

ow
2004-04-19, 16:05:43
.

Ailuros
2004-04-19, 16:08:19
Original geschrieben von Stefan Payne
Was nach den Shadern kommt??

Vermutlich ein SIMD CoPro oder sowas in der Art...

Ich wuerde eher sagen dass es irgendwann soweit kommt, dass man von SIMD basierenden Loesungen wieder abweicht.

Asmodeus
2004-04-19, 16:27:51
Meiner Meinung nach gehört die Zukunft ganz neuen Ansätzen im Bereich des Renderings allgemein. Heutige Grafikkarten sind noch viel zu viel damit beschäftigt "Dinge wieder zu entfernen" die man beim fertigen Bild nicht mehr sieht, anstatt nur die Dinge zu zeichnen, die man wirklich sieht.
Die 6800 Ultra kann theoretisch an die 600 Millionen Vertices zeichnen. Selbst bei einer Auflösung von 1600 x 1200 gibt es nur knapp 2 Millionen Pixel auf dem Bildschirm. Selbst wenn die 6800 Ultra real nur etwa 30 bis 50 Millionen Dreiecke pro Sekunde zeichnen kann, könnte man mit dieser Leistung schon für jedes Pixel ein eigenes Dreieck zeichnen und würde eine halbwegs akzeptable Framerate erreichen. Um diese Sache praktisch nutzen zu können, braucht es aber eben ganz neue Ansätze beim Renderingprozess.

Carsten.

Gast
2004-04-19, 16:35:24
hab mal gelesen dass john carmack schon seit jahren versucht, die gpu indistrie dahingehend zu bewegen, die entwicklung weg von polygon basierter grafik hin zur hardware seitigen voxel beschleuigung zu verlagern...

StefanV
2004-04-19, 16:58:55
Original geschrieben von Ailuros
Ich wuerde eher sagen dass es irgendwann soweit kommt, dass man von SIMD basierenden Loesungen wieder abweicht.

Naja, das ist eigentlich ziemlich klar, denke ich.

Früher war CISC billiger als RISC, heute gibts CISC Prozessoren mit RISC Kern, was ein RISC und ein CISC Prozessor ist, ist heute auch nicht mehr so ganz klar wie es früher einmal war ;)


Die einzige Frage ist eigentlich, wodurch SIMD ersetzt werden wird...

Asmodeus
2004-04-19, 17:01:12
Original geschrieben von Stefan Payne
Naja, das ist eigentlich ziemlich klar, denke ich.

Früher war CISC billiger als RISC, heute gibts CISC Prozessoren mit RISC Kern, was ein RISC und ein CISC Prozessor ist, ist heute auch nicht mehr so ganz klar wie es früher einmal war ;)


Die einzige Frage ist eigentlich, wodurch SIMD ersetzt werden wird...

Natürlich durch DataFlow. ;) Daten selbst werden andere Daten beeinflussen und modifizieren, ohne, dass sie dabei auf Instruktionen angewiesen wären.

Carsten.

Demirug
2004-04-19, 17:01:44
Original geschrieben von Stefan Payne
Naja, das ist eigentlich ziemlich klar, denke ich.

Früher war CISC billiger als RISC, heute gibts CISC Prozessoren mit RISC Kern, was ein RISC und ein CISC Prozessor ist, ist heute auch nicht mehr so ganz klar wie es früher einmal war ;)


Die einzige Frage ist eigentlich, wodurch SIMD ersetzt werden wird...

ILDP :D

StefanV
2004-04-19, 17:05:14
Original geschrieben von Demirug
ILDP :D

Es werden auch irgendwelche uralten Ansätze auch wieder ausgegraben, z.B. mit dem Cell Chip, an dem u.A. So Nie arbeitet...

Anstatt einer dicken CPU pakct man lieber viele kleine CPUs auf ein DIE.

Vielleicht gräbt ja einer 'ne uralte Leiche aus und bastelt daraus einen sau schnellen Chip *eg*

PS: die ersten Rechner arbeiteten ja nicht mit dem Binärsystem, das kamm erst später :)

Demirug
2004-04-19, 17:10:37
Original geschrieben von Stefan Payne
Es werden auch irgendwelche uralten Ansätze auch wieder ausgegraben, z.B. mit dem Cell Chip, an dem u.A. So Nie arbeitet...

Cell ist aber AFAIK immer noch eine Art Vektorrechner.

Anstatt einer dicken CPU pakct man lieber viele kleine CPUs auf ein DIE.

Ja, in die Richtung geht ILDP ja.

Gast
2004-04-19, 21:39:30
Original geschrieben von Asmodeus
Meiner Meinung nach gehört die Zukunft ganz neuen Ansätzen im Bereich des Renderings allgemein. Heutige Grafikkarten sind noch viel zu viel damit beschäftigt "Dinge wieder zu entfernen" die man beim fertigen Bild nicht mehr sieht, anstatt nur die Dinge zu zeichnen, die man wirklich sieht.
Die 6800 Ultra kann theoretisch an die 600 Millionen Vertices zeichnen. Selbst bei einer Auflösung von 1600 x 1200 gibt es nur knapp 2 Millionen Pixel auf dem Bildschirm. Selbst wenn die 6800 Ultra real nur etwa 30 bis 50 Millionen Dreiecke pro Sekunde zeichnen kann, könnte man mit dieser Leistung schon für jedes Pixel ein eigenes Dreieck zeichnen und würde eine halbwegs akzeptable Framerate erreichen. Um diese Sache praktisch nutzen zu können, braucht es aber eben ganz neue Ansätze beim Renderingprozess.

Das klappt bei Rasterizer aber nur wenn man ein perfektes LOD hat, keine dynamischen Lichtquellen und keine Transparenz-/Reflektionseffekte verwendet. Der Overdraw für die Shader lässt sich für die Shader durch einen eigenen Z-Buffer-Durchgang ja schonmal stark vermindern, aber es geht auch sehr viel Geometrieleistung drauf. Dazu kommt dass man das Spielchen bei jeder Lichtquelle, Reflektion und Refraktion wiederholen muss. Von einem Dreieck pro Pixel kann man da wohl nur träumen.
Raytracer müssen auch immer die Schnittpunkte mit mehreren Dreiecken berechnen, was aber schneller geht als eine Rasterisierung. Ein imo schönes Shadermodell hat man dort auch. Allerdings treten dort atm dafür noch andere Probleme auf....
Wegen der immer flexibleren Shadern wird man wohl auf massiven Einsatz von vielen kleinen parallelarbeitenden und nicht spezialisierten Einheiten setzen müssen. Wie man das am Besten realisiert wird sich wohl noch zeigen ;)

@Demi: IDLP = Instruction Level Distributed Processing ?

Demirug
2004-04-19, 21:43:17
Original geschrieben von Gast
@Demi: IDLP = Instruction Level Distributed Processing ?

Ja, wobei man sich da beim Umsetzten des ganzen auf eine GPU nicht 100% an die Schriften von Smith halten wird.