PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die Entwicklung der Shader zu "4.0" (WGF)


Leonidas
2004-09-28, 21:23:34
Link:
http://www.3dcenter.org/artikel/2004/09-28.php

StefanV
2004-09-28, 21:31:21
LOL, keine News, dafür aber einen Artikel nach dem anderen *scnr*

Ansonsten guter Artikel :up:

Exxtreme
2004-09-28, 21:32:19
LOL, keine News, dafür aber einen Artikel nach dem anderen *scnr*
Tja, keine News WEIL ein Artikel nach dem anderen. X-D

hofmetzger
2004-09-28, 23:31:06
Verstehe ich den letzten Satz des Artikels richtig, dass nach WGF, wegen der Flexibilität der Shader, nachfolgende Grafikkartengenerationen sich dann (vorerst) nur noch in der Geschwindigkeit unterscheiden werden?

aths
2004-09-28, 23:55:41
Verstehe ich den letzten Satz des Artikels richtig, dass nach WGF, wegen der Flexibilität der Shader, nachfolgende Grafikkartengenerationen sich dann (vorerst) nur noch in der Geschwindigkeit unterscheiden werden?Es gibt bei Grafikkarte mehr als nur den Shader-Teil.

Demirug
2004-09-29, 12:31:35
aths, aus welcher Spezifikation hast du diese Beschreibungen der D3D-Pipeline her? Aus dem SDK kann sie eigentlich nicht kommen den dort stehen teilweise andere Sachen drin.

Ich mag zwar insofern mitverantwortlich sein das ich es im Vorfeld aus akutem Zeitmangel bestenfalls oberflächlich überfolgen haben. Da ich allerdings nicht den Fachlektor gegeben habe werde ich mir diesen Schuh wohl doch nicht anziehen müssen.

Nichts für ungut aber einfach so stehen lassen wollte ich das ganze nun auch nicht.

Phoenix03
2004-09-29, 12:48:21
Schöner Artikel gut geschrieben,
wann werden Karten mit 4.0 raus kommen in 1 Jahr?

mfG

mapel110
2004-09-29, 13:02:27
Schöner Artikel gut geschrieben,
wann werden Karten mit 4.0 raus kommen in 1 Jahr?

mfG

jo, so ungefähr ende 2005/anfang2006 ist damit zu rechnen.

MadManniMan
2004-09-29, 22:58:03
aths, aus welcher Spezifikation hast du diese Beschreibungen der D3D-Pipeline her? Aus dem SDK kann sie eigentlich nicht kommen den dort stehen teilweise andere Sachen drin.

Hört hört! :O Kritik! BOAAAAAH!

OK, mal ganz leger: wo Haken? Was falsch? Wie richtig?

MadManniMan
2004-09-30, 00:41:19
Achja: schweinegeil geschrieben :up:

Gast
2004-10-04, 14:08:37
Kann das mal jemand mit den entwicklungen im Open GL Bereich in Zusammenhang bringen?

Ich habe 0 Ahnung davon. Nur klingt der Artikel so, als wären Open Gl Shader"standards" dann noch mal was anderes und es dann Karten geben könnte die zwar WGF können aber bei Open Gl 3.4.5.3 ein Feature vermissen und deshalb dann doom 4 und quake 5 Scheiße nicht laufen oder sowas in der Art.

Hier gilt ja fast:
Das schöne an Standards, es ist für jeden einer da :(

Demirug
2004-10-04, 14:11:16
Hört hört! :O Kritik! BOAAAAAH!

OK, mal ganz leger: wo Haken? Was falsch? Wie richtig?

Ich habe dich nicht vergessen oder das hier überlesen. Ich bin nur einfach noch nicht dazu gekommen das ganze entsprechend auszuarbeiten.

aths
2004-10-04, 15:18:28
Ich habe dich nicht vergessen oder das hier überlesen. Das ist fein :)

ollix
2004-10-05, 08:47:20
Danke für den Artikel! :)

Ich habe noch eine Frage: sind die Pixelshader Versionen auch eine Sache, die von Microsoft DirectX kommt bzw. festgelegt wird oder ist das irgendeine andere s Konsortiums bzw. Standardisierung (bzw. wie hängt OGL mit welchen PixelShader Versionen zusammen)?

danke

aths
2004-10-05, 09:29:45
Danke für den Artikel! :)

Ich habe noch eine Frage: sind die Pixelshader Versionen auch eine Sache, die von Microsoft DirectX kommt bzw. festgelegt wird oder ist das irgendeine andere s Konsortiums bzw. Standardisierung (bzw. wie hängt OGL mit welchen PixelShader Versionen zusammen)?

dankeDie Interna sind mir im Detail nicht bekannt. Letztlich liegt die Entscheidung über den Standard bei Microsoft. MS richtet sich aber sichtlich auch danach was die IHVs bringen oder eben nicht bringen. Ob da auch schon mal Leute von ATI und NV in Redmond an einem Tisch sitzen, weiß ich allerdings nicht.

MadManniMan
2004-10-09, 13:08:26
Danke Demi! Aber laß dir ruhig Zeit, ich krame den Thread auch noch raus, wenn der schon Wochen alt ist :)

Gast
2004-10-19, 21:18:51
ein übler Fehler im Artikel
Abschnitt "Ziel"

heutige Audioplugins werden mit 64 bzw. 128 bit gefahren!!!!!
Das 24bit ist nur der DA-Wandler und hat nichts mit dem eigentlich Renderprozess für Ausiodaten zu tun.

Bitte um Korrektur!

cya
michi

aths
2004-10-20, 15:51:16
ein übler Fehler im Artikel
Abschnitt "Ziel"

heutige Audioplugins werden mit 64 bzw. 128 bit gefahren!!!!!Welche CPU unterstützt 128 Bit?

Gast
2005-07-03, 18:44:26
ich sehe den nächsten großen Sprung erst wenn die Graka's OpenRT unterstützen.

http://www.openrt.de/

deekey777
2005-07-03, 19:02:28
Konnte die Ur-Radeon auch nicht so etwas wie PS 1.0 bzw. was fehlte ihr?

Demirug
2005-07-03, 22:06:42
ich sehe den nächsten großen Sprung erst wenn die Graka's OpenRT unterstützen.

http://www.openrt.de/

Wie sollen sie etwas unterstützen was noch nicht mal ausdefiniert ist?

aths
2005-07-03, 22:24:07
Konnte die Ur-Radeon auch nicht so etwas wie PS 1.0 bzw. was fehlte ihr?Mindestens die Möglichkeit, 4 Texturen zu samplen.

RLZ
2005-07-03, 22:40:50
Wie sollen sie etwas unterstützen was noch nicht mal ausdefiniert ist?
:confused:
Wie kommst du dazu?

ollix
2005-07-03, 23:08:19
Evtl. ist der Übergang auch teilweise fließend. Also z.B. Shader die für bestimmte Aufgaben verkapptes sortof Raytracing benutzen, oder ähnliches. Würde ich zumindest eher erwarten, als das von einer auf der anderen Generation plötzlich Raytracing gemacht wird.

Demirug
2005-07-03, 23:10:13
:confused:
Wie kommst du dazu?

Wo ist die offiziellen OpenRT Spec zum runterladen? Noch nicht einmal einen Draft habe ich bis heute gefunden.

Unter diesen Umständen kann man wohl kaum erwarten das die großen IHVs es unterstützen werden.

RLZ
2005-07-04, 00:01:24
Wo ist die offiziellen OpenRT Spec zum runterladen? Noch nicht einmal einen Draft habe ich bis heute gefunden.

Unter diesen Umständen kann man wohl kaum erwarten das die großen IHVs es unterstützen werden.
Was aber nicht daran liegt, dass sie nicht existiert.

Das diese Informationspolitik nicht grade optimal ist sollte eigentlich jedem klar sein.
Soll sich aber noch ändern...

3dzocker
2005-07-04, 00:11:46
Die GeForce4 Ti hatte nicht nur Vorteile: Die Video-Eigenschaften des jetzt GeForce4 MX genannten GeForce2-MX-Upgrades wurden nicht geboten, die Geschwindigkeit bilinearer anisotroper Filterung war beschnitten. Dennoch verkaufte sie sich – im Gegensatz zur GeForce3 – wie geschnitten Brot. Die GeForceFX 5900 ging zumindest in der etwas niedriger getakteten, aber preiswerten XT-Version ganz gut, was man vom Vorgänger GeForceFX 5800 nicht behaupten kann.

nach GeForce 3, muss das nicht geschnittenes Brot heißen?

tschau

mapel110
2005-07-04, 00:14:49
Die GeForce4 Ti hatte nicht nur Vorteile: Die Video-Eigenschaften des jetzt GeForce4 MX genannten GeForce2-MX-Upgrades wurden nicht geboten, die Geschwindigkeit bilinearer anisotroper Filterung war beschnitten. Dennoch verkaufte sie sich – im Gegensatz zur GeForce3 – wie geschnitten Brot. Die GeForceFX 5900 ging zumindest in der etwas niedriger getakteten, aber preiswerten XT-Version ganz gut, was man vom Vorgänger GeForceFX 5800 nicht behaupten kann.

nach GeForce 3, muss das nicht geschnittenes Brot heißen?

tschau
Nö, das ist eine Redensart.