PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia SLI@[H]ardOCP


Seiten : 1 [2] 3

Tigerchen
2004-10-31, 08:06:04
Na ja, es wird immer PC Freaks und fps Verrückte geben, die sich Sachen kaufen, die sie nicht wirklich brauchen. Aber Recht hast du schon. Der Markt dürfte verschwindend gering sein.
Hier geht es mehr ums Prestige. :rolleyes:

Nvidia sollte sich mal besser um die breite Masse kümmern und den VP auf die Sprünge helfen, und nicht sauteure, leistungsfressende Monster auf den Markt zu werfen, die kaum jemanden interessieren.

:)
Einer versteht mich!

Gast
2004-10-31, 11:14:44
Na ja, es wird immer PC Freaks und fps Verrückte geben, die sich Sachen kaufen, die sie nicht wirklich brauchen. Aber Recht hast du schon. Der Markt dürfte verschwindend gering sein.
Hier geht es mehr ums Prestige. :rolleyes:

Nvidia sollte sich mal besser um die breite Masse kümmern und den VP auf die Sprünge helfen, und nicht sauteure, leistungsfressende Monster auf den Markt zu werfen, die kaum jemanden interessieren.

ich frage mich woher du wissen willst, ob das SLI Setup keinen interessiert.
Ich verrat Dir was. Neben den üblichen Hardware Enthusiasten, die das beste haben wollen und dafür auch zahlen werden, interessiert das auch Den DAU. Denn plötzlich sieht er, dass der größte Balken in jedem Test ein grüner mit Nvidia Logo ist.
Demnach müssen auch die restlichen Produkte (Mainstream und Low End) dieses jeweiligen Herstellers die besten sein und verkaufen sich damit dann auch eben besser.

aths
2004-10-31, 12:52:20
ich frage mich woher du wissen willst, ob das SLI Setup keinen interessiert.
Ich verrat Dir was.Ich verrate auch mal was :) Nachdem die Fans der roten Seite genussvoll zugesehen haben, wie sich NV mit der FX blamierte, konnte sich NV jetzt zwar technisch vorlegen, aber leistungsmäßig insgesamt nur gleichziehen*. Also wird SLI kleingeredet.

Dazu sollte ich mal eine Kolumne schreiben.

* In der Mittelklasse würde ich, stünde die Wahl zwischen X700 und 6600, wahrscheinlich zur X700 tendieren: Mehr Vertexshader, mehr ROPs, besseres FSAA. Die absehbaren SM3-Games interessieren mich noch nicht, da müsste schon was vom Kaliber Max Payne kommen ...

MikBach
2004-10-31, 14:34:39
Ich verrat Dir was. Neben den üblichen Hardware Enthusiasten, die das beste haben wollen und dafür auch zahlen werden, interessiert das auch Den DAU. Denn plötzlich sieht er, dass der größte Balken in jedem Test ein grüner mit Nvidia Logo ist.
Demnach müssen auch die restlichen Produkte (Mainstream und Low End) dieses jeweiligen Herstellers die besten sein und verkaufen sich damit dann auch eben besser.
:lol:
Ach so, wenn du einen Kleinwagen kaufen willst, dann schaust du dir die Tests für die Luxusklasse an?

Ja nee, is klar...

Ich glaube so doof wird keiner sein. Du meinst also wenn es einen Grakatest mit vielen Grakas gäbe, und jemand sich in seiner Preisklasse zwischen einer 9800PRO und FX5900 entscheiden müsste, wo die 9800PRO schneller wäre, dass er die FX nehmen würde weil das SLI-System von Nvidia alles schlägt?

Ich glaube kaum.

Also wird SLI kleingeredet.
Nö, ich möchte nichts kleinreden. :)

Aber ich sehe den Markt für sowas als wirklich extrem klein an.

ironMonkey
2004-10-31, 14:41:58
:lol:
Ach so, wenn du einen Kleinwagen kaufen willst, dann schaust du dir die Tests für die Luxusklasse an?

Ja nee, is klar...

Ich glaube so doof wird keiner sein. Du meinst also wenn es einen Grakatest mit vielen Grakas gäbe, und jemand sich in seiner Preisklasse zwischen einer 9800PRO und FX5900 entscheiden müsste, wo die 9800PRO schneller wäre, dass er die FX nehmen würde weil das SLI-System von Nvidia alles schlägt?

Ich glaube kaum.

Nö, ich möchte nichts kleinreden. :)

Aber ich sehe den Markt für sowas als wirklich extrem klein an.


mach mal einen Umfrage wieviel Mercedes kennen und wieviele Nvidia oder ATI...............es nutzen ja nichtmal 50% (35%)in DE nen PC, die wenigsten nutzen den Kasten wirklich, oder wissen besser gesagt welche Hardware sie wiklich brauchen, die meisten die das wissen sind zB. in Foren wie hier Unterwegs, wenn das 500 000 aktive User sind, dann ists schon viel

Der Gast hat schon recht mit dem was er sagt.

Gruß

MikBach
2004-10-31, 15:06:46
mach mal einen Umfrage wieviel Mercedes kennen und wieviele Nvidia oder ATI...............es nutzen ja nichtmal 50% (35%)in DE nen PC, die wenigsten nutzen den Kasten wirklich, oder wissen besser gesagt welche Hardware sie wiklich brauchen, die meisten die das wissen sind zB. in Foren wie hier Unterwegs, wenn das 500 000 aktive User sind, dann ists schon viel

Der Gast hat schon recht mit dem was er sagt.

Gruß
Na ja, ich weiss nicht ob der Gast da so Recht hat.
Wenn jemand weder ATI noch Nvidia kennt, der wird auch mit SLI nichts anfangen können.
Ausserdem informieren sich viele Gamer, denn für die sind ja die Karten, die mehr als 100€ kosten, in Zeitschriften oder bei Leuten, die Ahnung haben.
Randgruppen mal ausgenommen.

Tigerchen
2004-10-31, 15:15:15
mach mal einen Umfrage wieviel Mercedes kennen und wieviele Nvidia oder ATI...............es nutzen ja nichtmal 50% (35%)in DE nen PC, die wenigsten nutzen den Kasten wirklich, oder wissen besser gesagt welche Hardware sie wiklich brauchen, die meisten die das wissen sind zB. in Foren wie hier Unterwegs, wenn das 500 000 aktive User sind, dann ists schon viel

Der Gast hat schon recht mit dem was er sagt.

Gruß

Daran kannst du schon sehen wie klein der Markt für SLI ist. Und nachdem 6600 SLI sicher bereits als sinnfrei erwiesen hat ist der Markt noch kleiner geworden.

dildo4u
2004-10-31, 15:19:04
Wer geglaubt hat mit SLI sparen zu können is für mich nich mher ganz klar im kopf SLI ist und war zu allem aber garantiert nicht zum sparen gedacht.

Imprrr
2004-10-31, 15:56:32
Wer geglaubt hat mit SLI sparen zu können is für mich nich mehr ganz klar im kopf SLI ist und war zu allem aber garantiert nicht zum sparen gedacht.

Tja,das liegt an der Roten Brillllllleeeeeee!

aths hat da vollkommen recht.

Xmas
2004-10-31, 17:48:29
Nvidia sollte sich mal besser um die breite Masse kümmern und den VP auf die Sprünge helfen, und nicht sauteure, leistungsfressende Monster auf den Markt zu werfen, die kaum jemanden interessieren.
:)
Einer versteht mich!
Das ist aber doch keine Entweder-Oder-Sache. NVidia kümmert sich doch schon um den VP, die Hardware ist ja schon gefixt, und die Software kommt auch. Nur ist es ein Irrglaube, dass etwas schneller ginge wenn man nur mehr Ressourcen darauf verwendet. Die SLI-Entwicklung hat darauf keinen negativen Einfluss, dafür ist NVidia groß genug.

Tigerchen
2004-10-31, 18:10:59
Das ist aber doch keine Entweder-Oder-Sache. NVidia kümmert sich doch schon um den VP, die Hardware ist ja schon gefixt, und die Software kommt auch. Nur ist es ein Irrglaube, dass etwas schneller ginge wenn man nur mehr Ressourcen darauf verwendet. Die SLI-Entwicklung hat darauf keinen negativen Einfluss, dafür ist NVidia groß genug.

Zitat von MikBach
Na ja, es wird immer PC Freaks und fps Verrückte geben, die sich Sachen kaufen, die sie nicht wirklich brauchen. Aber Recht hast du schon. Der Markt dürfte verschwindend gering sein.
Hier geht es mehr ums Prestige

Dieser Teil von Mike Bach fehlte. "Zufälligerweise" der entscheidendere Teil dem ich meine uneingeschränkte Zustimmung erteilt habe.

MikBach
2004-10-31, 18:19:29
Das ist aber doch keine Entweder-Oder-Sache. NVidia kümmert sich doch schon um den VP, die Hardware ist ja schon gefixt, und die Software kommt auch. Nur ist es ein Irrglaube, dass etwas schneller ginge wenn man nur mehr Ressourcen darauf verwendet. Die SLI-Entwicklung hat darauf keinen negativen Einfluss, dafür ist NVidia groß genug.
Mit den Ressourcen stimme ich zu. Zumindest beim SLI.
Was meinst du mit gefixt?
Doch nicht beim NV40. Oder bringen sie ein neues Stepping?
Sorry für OT.

Gast
2004-10-31, 18:49:50
Mit den Ressourcen stimme ich zu. Zumindest beim SLI.
Was meinst du mit gefixt?
Doch nicht beim NV40. Oder bringen sie ein neues Stepping?
Sorry für OT.

ne aber wohl einen Refresh. Die betroffene Kundschaft ist doch verschwindend klein. Eventuell dürfen die dann später umtauschen. Es ist ja nicht der ganze VP kaputt. Es geht eben ein Teil nicht.
Beim NV43 isses ja ok - insofern denke ich wirds beim NV48, NV41 und NV44 auch ok sein und dann passt doch alles.

Gast
2004-10-31, 19:02:02
Ich verrate auch mal was :) Nachdem die Fans der roten Seite genussvoll zugesehen haben, wie sich NV mit der FX blamierte, konnte sich NV jetzt zwar technisch vorlegen, aber leistungsmäßig insgesamt nur gleichziehen*. Also wird SLI kleingeredet.

Dazu sollte ich mal eine Kolumne schreiben.

* In der Mittelklasse würde ich, stünde die Wahl zwischen X700 und 6600, wahrscheinlich zur X700 tendieren: Mehr Vertexshader, mehr ROPs, besseres FSAA. Die absehbaren SM3-Games interessieren mich noch nicht, da müsste schon was vom Kaliber Max Payne kommen ...

dazu muss die X700 aber erstmal lieferbar sein und dann hat das auch zur Voraussetzung, dass Nvidia hier nichts ändert und alles beim alten lässt. Die Erfahrung mit der FX5600 lässt mich dazu neigen, dass man erstmal abwarten wird bis ATI liefern kann. Sollte sich dann abzeichnen, dass die X700 gut dasteht wird man die 6600 normal upgraden oder etwas dazwischen bringen.
Die schlagkräftigste Waffe im Mainstream ist aber die 6600GT und die hat man sehr gut vor der Konkurenz plaziert.

Anyway, was ich oben sagen wollte ist, dass 1. zu sein in Technik und Leistung schon immer einen positiven Effekt auf das Kaufverhalten der übrigen Kundschaft hatte. Deshalb ist SLI nicht nur wichtig um im HIgh End die Käufer von der Gegenseite abzuhalten sondern auch um eben für die restliche Kundschaft zu glänzen. Das hat noch nie geschadet und in der Vergangenheit immer zu einem Aufschwung in den eigenen Verkaufszahlen geführt. Das wird auch in Zukunft nicht anders sein. Das ist eben das typische Lemming Verhalten der allgemeinen Masse der potentiellen Käufer. Deswegen geben sich ja auch alle immer so reichlich Mühe am Ende vorn zu bleiben. Ansonsten hätte ATI ja auch sagen können: ach scheiss druff geben wir uns geschlagen und plazieren über einen günstigeren Preis unsere X800pro und das wars. So war ja der ursprüngliche Plan aber der Druck hat eben dazu geführt das die Emgerency Fake Platinum Edition her musste. Zwar nicht lieferbar aber egal - hauptsache mit 1% vorn.

Aus dem selben Grund gibts eben SLI nur hat SLI natürlich langfristig den Vorteil, dass man um sich die Benchmarkkrone zu sichern nicht unbedingt ans äußerste mit einer Platine bzw. einer GPU gehen muss. Man kann sozusagen die Lieferfähigkeit aufbessern, da eine Karte für sich recht moderat ist.
SLI steht erst am Anfang. Ich glaube Nvidia wird diese Methode langfristig beibehalten und ATI wird ähnliche Wege gehen müssen.
Wäre SLI schon seit sagen wir mal einem Jahr erprobt, hätte für Nvidia bereits die moderate 6800GT gereicht. Man könnte besser liefern und würde die Krone einfahren.
Deshalb denke ich führt an derartigen Wegen egal wie die finale Lösung nun aussieht kein Weg vorbei. Es kann Dual GPU pro Board sein oder mehrere Karten oder irgendwas anderes. Die ungeheurere Konkurenzdruck und das Problem der Herstellungsprozesse zwingt die GPU Hersteller ungewöhnliche Lösungswege zu gehen. SLI ist einer davon aber seinen Zweck erfüllt es eben. Ob das nun den Fanboys aus den jeweils betroffenen Lagern gefällt oder nicht ist dabei sowas von egal. Das wird an der Entwicklung und am Verhalten der Massenkundschaft nichts ändern.

Letztlich wird doch derzeit nur auf SLI und SM3 geschimpft, weil es die eine Seite eben nicht hat. Wenn die auch mal soweit ist, dann ist es doch die größte Errungenschaft seit Brot und Butter. Andersrum wärs auch nicht anders. Das Verhaltensmuster in den Foren kennt man ja schon.

Fürs erste jedenfalls setzt SLI Maßstäbe an denen die Konkurenz zu knabbern haben wird und zwar mindestens mal bis ins 2. Halbjahr 2005.

Black-Scorpion
2004-10-31, 19:25:55
dazu muss die X700 aber erstmal lieferbar sein und dann hat das auch zur Voraussetzung, dass Nvidia hier nichts ändert und alles beim alten lässt. Die Erfahrung mit der FX5600 lässt mich dazu neigen, dass man erstmal abwarten wird bis ATI liefern kann. Sollte sich dann abzeichnen, dass die X700 gut dasteht wird man die 6600 normal upgraden oder etwas dazwischen bringen.
Die schlagkräftigste Waffe im Mainstream ist aber die 6600GT und die hat man sehr gut vor der Konkurenz plaziert.

Anyway, was ich oben sagen wollte ist, dass 1. zu sein in Technik und Leistung schon immer einen positiven Effekt auf das Kaufverhalten der übrigen Kundschaft hatte. Deshalb ist SLI nicht nur wichtig um im HIgh End die Käufer von der Gegenseite abzuhalten sondern auch um eben für die restliche Kundschaft zu glänzen. Das hat noch nie geschadet und in der Vergangenheit immer zu einem Aufschwung in den eigenen Verkaufszahlen geführt. Das wird auch in Zukunft nicht anders sein. Das ist eben das typische Lemming Verhalten der allgemeinen Masse der potentiellen Käufer. Deswegen geben sich ja auch alle immer so reichlich Mühe am Ende vorn zu bleiben. Ansonsten hätte ATI ja auch sagen können: ach scheiss druff geben wir uns geschlagen und plazieren über einen günstigeren Preis unsere X800pro und das wars. So war ja der ursprüngliche Plan aber der Druck hat eben dazu geführt das die Emgerency Fake Platinum Edition her musste. Zwar nicht lieferbar aber egal - hauptsache mit 1% vorn.


Aus dem selben Grund gibts eben SLI nur hat SLI natürlich langfristig den Vorteil, dass man um sich die Benchmarkkrone zu sichern nicht unbedingt ans äußerste mit einer Platine bzw. einer GPU gehen muss. Man kann sozusagen die Lieferfähigkeit aufbessern, da eine Karte für sich recht moderat ist.
SLI steht erst am Anfang. Ich glaube Nvidia wird diese Methode langfristig beibehalten und ATI wird ähnliche Wege gehen müssen.
Wäre SLI schon seit sagen wir mal einem Jahr erprobt, hätte für Nvidia bereits die moderate 6800GT gereicht. Man könnte besser liefern und würde die Krone einfahren.
Deshalb denke ich führt an derartigen Wegen egal wie die finale Lösung nun aussieht kein Weg vorbei. Es kann Dual GPU pro Board sein oder mehrere Karten oder irgendwas anderes. Die ungeheurere Konkurenzdruck und das Problem der Herstellungsprozesse zwingt die GPU Hersteller ungewöhnliche Lösungswege zu gehen. SLI ist einer davon aber seinen Zweck erfüllt es eben. Ob das nun den Fanboys aus den jeweils betroffenen Lagern gefällt oder nicht ist dabei sowas von egal. Das wird an der Entwicklung und am Verhalten der Massenkundschaft nichts ändern.

Letztlich wird doch derzeit nur auf SLI und SM3 geschimpft, weil es die eine Seite eben nicht hat. Wenn die auch mal soweit ist, dann ist es doch die größte Errungenschaft seit Brot und Butter. Andersrum wärs auch nicht anders. Das Verhaltensmuster in den Foren kennt man ja schon.

Fürs erste jedenfalls setzt SLI Maßstäbe an denen die Konkurenz zu knabbern haben wird und zwar mindestens mal bis ins 2. Halbjahr 2005.
Und die nicht geringen Nebenkosten von SLI lassen wir mal ganz geschickt unter den Tisch fallen.
Wer so ein System plant sollte auch nicht die Kosten für das passende Board und NT vergessen.
Ein 600W NT (was den Namen auch verdient) ist nicht preiswert.
Das Board mit Sicherheit auch nicht.
Dann kaufst du noch die Karte dazu und bezahlst soviel wie andere für einen ganzen Rechner.
Afaik sind die GPUs von ATI schon für Multichip Lösungen ausgelegt.
Und wer hier nur für Benchmarks eine Karte erfunden hat war ja wohl nVidia und nicht ATI.

Tigerchen
2004-10-31, 19:35:37
dazu muss die X700 aber erstmal lieferbar sein und dann hat das auch zur Voraussetzung, dass Nvidia hier nichts ändert und alles beim alten lässt. Die Erfahrung mit der FX5600 lässt mich dazu neigen, dass man erstmal abwarten wird bis ATI liefern kann. Sollte sich dann abzeichnen, dass die X700 gut dasteht wird man die 6600 normal upgraden oder etwas dazwischen bringen.
Die schlagkräftigste Waffe im Mainstream ist aber die 6600GT und die hat man sehr gut vor der Konkurenz plaziert.

Anyway, was ich oben sagen wollte ist, dass 1. zu sein in Technik und Leistung schon immer einen positiven Effekt auf das Kaufverhalten der übrigen Kundschaft hatte. Deshalb ist SLI nicht nur wichtig um im HIgh End die Käufer von der Gegenseite abzuhalten sondern auch um eben für die restliche Kundschaft zu glänzen. Das hat noch nie geschadet und in der Vergangenheit immer zu einem Aufschwung in den eigenen Verkaufszahlen geführt. Das wird auch in Zukunft nicht anders sein. Das ist eben das typische Lemming Verhalten der allgemeinen Masse der potentiellen Käufer. Deswegen geben sich ja auch alle immer so reichlich Mühe am Ende vorn zu bleiben. Ansonsten hätte ATI ja auch sagen können: ach scheiss druff geben wir uns geschlagen und plazieren über einen günstigeren Preis unsere X800pro und das wars. So war ja der ursprüngliche Plan aber der Druck hat eben dazu geführt das die Emgerency Fake Platinum Edition her musste. Zwar nicht lieferbar aber egal - hauptsache mit 1% vorn.

Aus dem selben Grund gibts eben SLI nur hat SLI natürlich langfristig den Vorteil, dass man um sich die Benchmarkkrone zu sichern nicht unbedingt ans äußerste mit einer Platine bzw. einer GPU gehen muss. Man kann sozusagen die Lieferfähigkeit aufbessern, da eine Karte für sich recht moderat ist.
SLI steht erst am Anfang. Ich glaube Nvidia wird diese Methode langfristig beibehalten und ATI wird ähnliche Wege gehen müssen.
Wäre SLI schon seit sagen wir mal einem Jahr erprobt, hätte für Nvidia bereits die moderate 6800GT gereicht. Man könnte besser liefern und würde die Krone einfahren.
Deshalb denke ich führt an derartigen Wegen egal wie die finale Lösung nun aussieht kein Weg vorbei. Es kann Dual GPU pro Board sein oder mehrere Karten oder irgendwas anderes. Die ungeheurere Konkurenzdruck und das Problem der Herstellungsprozesse zwingt die GPU Hersteller ungewöhnliche Lösungswege zu gehen. SLI ist einer davon aber seinen Zweck erfüllt es eben. Ob das nun den Fanboys aus den jeweils betroffenen Lagern gefällt oder nicht ist dabei sowas von egal. Das wird an der Entwicklung und am Verhalten der Massenkundschaft nichts ändern.

Letztlich wird doch derzeit nur auf SLI und SM3 geschimpft, weil es die eine Seite eben nicht hat. Wenn die auch mal soweit ist, dann ist es doch die größte Errungenschaft seit Brot und Butter. Andersrum wärs auch nicht anders. Das Verhaltensmuster in den Foren kennt man ja schon.

Fürs erste jedenfalls setzt SLI Maßstäbe an denen die Konkurenz zu knabbern haben wird und zwar mindestens mal bis ins 2. Halbjahr 2005.

Das siehst du völllig falsch. Multichip, egal in welcher Form hat im Markt keine Chance. Nur im professionellen Bereich ist es natürlich gang und gäbe für spezielle Zwecke entsprechende Hardware einzusetzen. Es wundert mich ein bißchen daß du hier die Kosten anführst. SLI wird wohl kaum Kosten bei der Entwicklung des nV50 sparen. Gerade für den User aber ist eine SLI-Lösung ein ziemlicher Kostenverursacher. Um dich zu beruhigen. Ich stehe so Papiertigern wie der X800XT PE genauso ablehnend gegenüber. Alles nur Mache um zu glänzen. Lieferbarkeit zählt scheinbar nicht.

Zu SM 3.0. Kein ATI-Fan stellt SM 3.0 als Unfug dar. Nur brauche ich dies heute? Wohl kaum. Der Nutzen beschränkt sich darauf mal den einen oder anderen Shader etwas schneller abarbeiten zu können. Das reicht mir nicht.
Von HighEnd erwarte ich schnelles 32 FP-Rendering und "echte" SM 3.0 Fähigkeit. Solange das nicht geboten wird bleib ich bei meiner R9700 Pro.

aths
2004-10-31, 20:32:29
[COLOR="#000088"]Von HighEnd erwarte ich schnelles 32 FP-Rendering und "echte" SM 3.0 Fähigkeit. Solange das nicht geboten wird bleib ich bei meiner R9700 Pro.:up: NV40 hat full-speed-FP32-Rechenwerke und echten SM3-Support.

Gast
2004-10-31, 20:36:43
:up: NV40 hat full-speed-FP32-Rechenwerke und echten SM3-Support.

Fanboy...

der NV40 braucht genausoviele Takte für FP32 Berechnungen wie ein R3xx... nur zur info (FP16 ebenfalls)

mapel110
2004-10-31, 20:40:45
Fanboy...

der NV40 braucht genausoviele Takte für FP32 Berechnungen wie ein R3xx... nur zur info (FP16 ebenfalls)

Seit wann kann R3xx FP32?

LovesuckZ
2004-10-31, 20:41:00
Zu SM 3.0. Kein ATI-Fan stellt SM 3.0 als Unfug dar. Nur brauche ich dies heute? Wohl kaum. Der Nutzen beschränkt sich darauf mal den einen oder anderen Shader etwas schneller abarbeiten zu können. Das reicht mir nicht.

Inwieweit aendert sich dies in Zukunft?
Wieso sollte der Nutzen beim Erscheinen des R520 anders sein als jetzt?
Somit deklarierst du das SM3.0 "als Unfug".

Von HighEnd erwarte ich schnelles 32 FP-Rendering und "echte" SM 3.0 Fähigkeit. Solange das nicht geboten wird bleib ich bei meiner R9700 Pro.


NV40.

LovesuckZ
2004-10-31, 20:41:29
Seit wann kann R3xx FP32?

In den Vertexshadern.

mapel110
2004-10-31, 20:42:52
In den Vertexshadern.

Jo, aber da ist die Power ja seit Urzeiten ausreichend bzw überdiemensioniert, also gehts hier ja wohl um Pixelshader, die der Gast meint.

aths
2004-10-31, 20:44:06
Fanboy...

der NV40 braucht genausoviele Takte für FP32 Berechnungen wie ein R3xx... nur zur info (FP16 ebenfalls)Abgesehen vom SRQ (wo R300 schneller ist) braucht der NV40 im Schnitt weniger Takte, um Arithmetik in FP32-Genauigkeit* auszuführen als R420 in FP24-Genauigkeit.

* Mathematische Funktionen sind dann schon mal um Faktor 100 genauer.

An FP16-Werken hat der NV40 noch das NRM_PP, ansonsten wird intern alles mit FP32 gerechnet.

Gast
2004-10-31, 21:01:24
NV40 and R300/R420 seem to process FP texture the same way (without FP16 filtering with ATI gpu of course) -> more cycles for higher precision formats.

NV40
8bit textures : 1 cycle (with or without filtering)
FP16 textures : 2 cycles (with or without filtering)
FP32 textures : 4 cycles (without filtering)

If the driver detects that not all components are used then it's faster.

FP16 textures with 2 components used in the shader : 1 cycle
FP32 textures with 3 components used in the shader : 3 cycles
etc...

I presume that's the same with R300/R420.

Damien Triolet - HardWare.fr

LovesuckZ
2004-10-31, 21:15:30
Du verstehst auch das, was du gerade zitiert hast?

Gast
2004-10-31, 21:23:25
Du verstehst auch das, was du gerade zitiert hast?

im Gegensatz zu dir ja. Es geht um FP texturing, das u.a. für HDR benutzt wird. Und die Kernaussage lautet dass es dem NV40 genausoviel kostet wie dem r3xx/r4xx.

LovesuckZ
2004-10-31, 21:28:35
im Gegensatz zu dir ja. Es geht um FP texturing, das u.a. für HDR benutzt wird. Und die Kernaussage lautet dass es dem NV40 genausoviel kostet wie dem r3xx/r4xx.

Und was hat das mit "FP32 Rendering" zu tun?

Demirug
2004-10-31, 21:38:09
im Gegensatz zu dir ja. Es geht um FP texturing, das u.a. für HDR benutzt wird. Und die Kernaussage lautet dass es dem NV40 genausoviel kostet wie dem r3xx/r4xx.

Das ist so leider nur die halbe Wahrheit.

Im Falle von Farcry sind die ganzen Texturen identisch im normalen und HDR Modus. Farcry braucht für HDR lediglich ein FP16 Rendertarget mit Alphablend Unterstützung. Ist das Bild vollständig in diesem Buffer muss dieser aber noch bearbeitet werden damit das entgültige Bild mit der gewünschten Beleuchtung entsteht. Hierbei kommen dann die oben aufgeführten Zahlen zu geltung weil man den Inhalt des Buffers ja wieder einlesen muss.

Ein Teil dieser Bearbeitung besteht darin den Buffer auf kleinere Formate herunter zu rechnen. Der NV40 kann diese Aufgabe zum Teil in den TMUs übernehmen beim R3XX/4XX muss man das in den Pixelshadern machen. Das bedeutet das man beim R3xx/4XX vier mal so viele Takte braucht um aleine die Daten von der TMU in den PS zu bekommen. Dort muss dann noch zusätzlich gerrechnet werden.

aths
2004-10-31, 21:58:01
NV40 and R300/R420 seem to process FP texture the same way (without FP16 filtering with ATI gpu of course) -> more cycles for higher precision formats.

NV40
8bit textures : 1 cycle (with or without filtering)
FP16 textures : 2 cycles (with or without filtering)
FP32 textures : 4 cycles (without filtering)

If the driver detects that not all components are used then it's faster.

FP16 textures with 2 components used in the shader : 1 cycle
FP32 textures with 3 components used in the shader : 3 cycles
etc...

I presume that's the same with R300/R420.

Damien Triolet - HardWare.frHabe mir erlaubt, das wichtige fett zu markieren. NV40 bietet bei nur 2 Takten pro FP16-Textur Filterung, R420 nicht, da muss man "von Hand" filtern. FP32-Texturen muss auch NV40 "von Hand" filtern, allerdings reicht FP16 für die meisten Zwecke aus, FX8 jedoch nicht.

Gast
2004-11-01, 00:53:55
Und die nicht geringen Nebenkosten von SLI lassen wir mal ganz geschickt unter den Tisch fallen.
Wer so ein System plant sollte auch nicht die Kosten für das passende Board und NT vergessen.
Ein 600W NT (was den Namen auch verdient) ist nicht preiswert.
Das Board mit Sicherheit auch nicht.
Dann kaufst du noch die Karte dazu und bezahlst soviel wie andere für einen ganzen Rechner.


Für die Nebenkosten interessiert sich der N00b überhaupt nicht. Der lässt sich davon beeinflussen, dass ein Hersteller die ungefährdete Krone für sich geparkt hat und zwar in Technologie UND Performance. Bei letzterem sehen ja aktuelle Single Lösungen gegen SLI in den Qualitätsmodi aus wie Mainstream.

Das beeinflusst den Käufer in den niedrigeren Preisklassen. Dort kosten die Karten alle ungefähr gleich viel, fressen gleich wenig Strom und sind ansonsten auch nicht so unterschiedlich bis auf vielleicht die modernere Technologie bei Nvidia. Den Ausschlag gibt dann dass einer die Leistungskrone hat. Das ist das normale Lemming Verhalten. Preise sind da total egal, da der Lemming sich das teure Zeug nicht kauft und die HIgh End Kundschaft die das beste haben will, wird sich auch noch das lächerliche Netzteil leisten. Das Board musst sowieso kaufen. Soviel macht das dann zwischen nForce4SLI und Ultra nicht mehr aus.


Afaik sind die GPUs von ATI schon für Multichip Lösungen ausgelegt.
Und wer hier nur für Benchmarks eine Karte erfunden hat war ja wohl nVidia und nicht ATI.
Wie ich bereits erwähnte. ATI wird um so eine oder ähnliche Lösung nicht herumkommen und wird sie auch bringen. Nvidia wird SLI fortführen, somit ist ATI automatisch gezwungen nachzuziehen. Bis dahin dauert es aber noch. Im 1. Halbjahr 2005 wird das nix mehr. Die Refreshrunde wird an Nvidia gehen. Bei den neuen Chips würde ich abwarten wollen, da zu wenig bekannt ist ausser dass Nvidia immer noch SLI bieten wird.
Inwieweit ATI hier beim R5xx vorgesorgt hat ist nicht bekannt. Eine GPU mag auf SLI augelegt sein, der Treiber ist es aber häufig nicht. Ich warne davor zu glauben, dass SLI eine Sache von wenigen Monaten ist. Nvidia dürfte reichlich mehr als 1 Jahr daran gearbeitet haben - wahrscheinlich sogar 2.

Tigerchen
2004-11-01, 07:16:14
Inwieweit aendert sich dies in Zukunft?
Wieso sollte der Nutzen beim Erscheinen des R520 anders sein als jetzt?
Somit deklarierst du das SM3.0 "als Unfug".
NV40.
:up: NV40 hat full-speed-FP32-Rechenwerke und echten SM3-Support.


Ich finde es gut daß du und dein Alter Ego aths sich immer treu bleiben.
Nur ernst nehmen kann ich so ein polemisches Geschreibsel nicht.

tombman
2004-11-01, 09:43:38
natürlich gibt es einen Markt für SLI- jeder freak den ich kenne is geil drauf... logo.

Außerdem hat SLI auch die Wirkung unentschlossene zu Nvidia 6er Reihe zu bewegen und nicht x800 zu kaufen, denn man kann ja später,. wenn die 6800gt billiger ist, noch eine 2te dazukaufen und hätte die performance eines next.gen chips!

Die Mehrkosten für ein SLI mobo werden nicht so hoch sein. Ich schätze deutlich unter 300€ für ein mobo (eher 250€).

Und die Netzteil-Hysterie find ich auch witzig, da düften nämlich 90% aller 6800 Besitzer ihre Karten nicht zum laufen kriegen, weil sie ja keine 500+ watt Netzteile haben... rofl.

Wer ein gutes 400+ Markennetzteil hat (Stichwort: AMPERE!!) wird mit 6800 SLI keine Probleme haben.

Weiters darf man den Profibereich nicht vergessen, der 2 fx4000 quadros in SLI nur lieben KANN :D

Btw, wie viele user hatten damals V2 SLI? Eben, SAUVIELE, obwohl die Karten anfangs damals weit jesenits von 1000DM kosteten. Ich selbst hab damals umgerechnet 1200DM für V2SLI ausgegeben...

Also bitte hörts auf zu WHINEN es gäbe keinen Markt, Unsinn etc..bla.

Sogar für Maibach Mercedes gibts einen Markt .... :cool:

aths
2004-11-01, 10:29:22
[COLOR="#000088"]Ich finde es gut daß du und dein Alter Ego aths sich immer treu bleiben.
Nur ernst nehmen kann ich so ein polemisches Geschreibsel nicht.Polemik ist was anderes.

Gast
2004-11-01, 10:34:37
natürlich gibt es einen Markt für SLI- jeder freak den ich kenne is geil drauf... logo.

Außerdem hat SLI auch die Wirkung unentschlossene zu Nvidia 6er Reihe zu bewegen und nicht x800 zu kaufen, denn man kann ja später,. wenn die 6800gt billiger ist, noch eine 2te dazukaufen und hätte die performance eines next.gen chips!


Genau das ist es, was die ganzen Nein Sager nicht sehen und anerkennen wollen. Warum hat ATI in einer Hastaktion die X800XT-PE gelauncht?
Etwa weil der Markt dafür so unheimlich groß ist und davon ausgehen rieseige Mengen abzusetzen?

NEIN, sondern weil das eine Imagewirkung auf die Kunden hat , die so im Bereich der GF6600/X700 bis X700XT/GF6600GT/GF6800LE unterwegs sind und nach einem Produkt suchen. Dort tendiert man dann einfach gern zu dem Hersteller, der einfach von der Wahrnehmung her den besten Kracher bietet - also SLI.
Und die, die es sich kaufen möchten im HIgh End, die haben das Geld dafür. Wer sich einen FX55, eine teure Wasserkühlung und eine GF6800Ultra leisten kann, der wird auch noch die 2. Karte hinzukaufen können. Es gibt Leute die haben das Geld. Und diese wiederum fördern die Technologie per Mundpropaganda in Foren, auf LANs, in den Benchmarkhitlisten bei Futuremark und unter Freunden. Die sehen alle wie geil das abgeht, können sich das zwar nicht leisten aber träumen davon und sehen alle wie Nvidia rulen wird. Da kauft es sich dann eine GF6600 einfach leichter.

Tigerchen
2004-11-01, 10:40:30
natürlich gibt es einen Markt für SLI- jeder freak den ich kenne is geil drauf... logo.

Außerdem hat SLI auch die Wirkung unentschlossene zu Nvidia 6er Reihe zu bewegen und nicht x800 zu kaufen, denn man kann ja später,. wenn die 6800gt billiger ist, noch eine 2te dazukaufen und hätte die performance eines next.gen chips!

Die Mehrkosten für ein SLI mobo werden nicht so hoch sein. Ich schätze deutlich unter 300€ für ein mobo (eher 250€).

Und die Netzteil-Hysterie find ich auch witzig, da düften nämlich 90% aller 6800 Besitzer ihre Karten nicht zum laufen kriegen, weil sie ja keine 500+ watt Netzteile haben... rofl.

Wer ein gutes 400+ Markennetzteil hat (Stichwort: AMPERE!!) wird mit 6800 SLI keine Probleme haben.

Weiters darf man den Profibereich nicht vergessen, der 2 fx4000 quadros in SLI nur lieben KANN :D

Btw, wie viele user hatten damals V2 SLI? Eben, SAUVIELE, obwohl die Karten anfangs damals weit jesenits von 1000DM kosteten. Ich selbst hab damals umgerechnet 1200DM für V2SLI ausgegeben...

Also bitte hörts auf zu WHINEN es gäbe keinen Markt, Unsinn etc..bla.

Sogar für Maibach Mercedes gibts einen Markt .... :cool:

2 x 6800 GT erreichen in den Punkten die als nächstes auf der Tagesordnung stehen niemals die Leistung der NextGeneration.

Niemand streitet den Nutzen von SLI, MMS oder Multichip in bestimmten professionellen Bereichen ab.

V2 SLI war überhaupt nur Freakbereich bekannt.

deekey777
2004-11-01, 11:31:55
2 x 6800 GT erreichen in den Punkten die als nächstes auf der Tagesordnung stehen niemals die Leistung der NextGeneration.

Niemand streitet den Nutzen von SLI, MMS oder Multichip in bestimmten professionellen Bereichen ab.

V2 SLI war überhaupt nur Freakbereich bekannt.



Und? Niemand streitet auch den Nutzen von SLI ausserhalb des professionellen Bereich (was immer das auch sein soll) ab. Oder liegt es nur daran, weil es grün ist und nicht rot? Ich finde SLI cool: Es ist etwas, was man eigentlich nicht braucht, aber haben möchte. Es ist eine Prestigetechnologie. Man hätte sich schon mit AGP8x einführen sollen.

Jesus
2004-11-01, 11:43:45
Und? Niemand streitet auch den Nutzen von SLI ausserhalb des professionellen Bereich (was immer das auch sein soll) ab. Oder liegt es nur daran, weil es grün ist und nicht rot? Ich finde SLI cool: Es ist etwas, was man eigentlich nicht braucht, aber haben möchte. Es ist eine Prestigetechnologie. Man hätte sich schon mit AGP8x einführen sollen.

haben möchte ich es eigentlich auch nicht, denn ich mag eher leise PCs die nicht so warm werden... ;) (obwohl ich absoluter 3dfx fan war ;) )

Crushinator
2004-11-01, 12:02:58
(...) Von HighEnd erwarte ich schnelles 32 FP-Rendering und "echte" SM 3.0 Fähigkeit. Solange das nicht geboten wird bleib ich bei meiner R9700 Pro. Ich tu' genau dasselbe, wobei ich eingestehen muß, daß es sich nur um eine Entscheidung handelt, aus der sich für mich z.Z. kein nennenswerter Nachteil ergibt. Ich erwarte beim nächsten Grafikkartenkauf SM3-Support, was FP32 freilich impliziert. Eben so erwarte ich, daß die nächste Generation noch besseren SM3-Support bietet.

aths
2004-11-01, 13:04:53
Ich tu' genau dasselbe, wobei ich eingestehen muß, daß es sich nur um eine Entscheidung handelt, aus der sich für mich z.Z. kein nennenswerter Nachteil ergibt. Ich erwarte beim nächsten Grafikkartenkauf SM3-Support, was FP32 freilich impliziert. Eben so erwarte ich, daß die nächste Generation noch besseren SM3-Support bietet.Was verstehst du in diesem Zusammenhang unter "besser"?

Jesus
2004-11-01, 13:07:38
Was verstehst du in diesem Zusammenhang unter "besser"?

schneller ? "HDR" + AA möglich (ich weiss hat nicht direkt was mit SM3 zu tun), ...

reunion
2004-11-01, 13:08:31
Btw, wie viele user hatten damals V2 SLI? Eben, SAUVIELE, obwohl die Karten anfangs damals weit jesenits von 1000DM kosteten. Ich selbst hab damals umgerechnet 1200DM für V2SLI ausgegeben...


Schlechter vergleich, erstens hatte damals praktisch jedes Mainboard mindestens zwei PCI-Steckplätze sodass kein Spezialmainboard nötig war und zweitens war den nutzten um ein vielfaches höher. Man konnte mit einer V2 SLI eine Auflösung von damals atemberaubenden 1024x768 fahren was mit nur einer karten nicht möglich war, diesen unterschied sah selbst der größte Vollid***. Den unterschied zwischen 1600x1200 mit 4xAA/8xAF oder mit SLi vielleicht 2048x1536 mit 8xAA/16xAF sieht man allerdings meistens nur mit der Lupe. Außerdem gab es damals noch keine bedenken bezüglich Stromverbrauch oder Wärmeentwicklung.

Btw. 3dfx gab an das sich gleich zu beginn ca. 40% der Käufer das V2 SLi Gespann gönnten, von dieser Zahl wird NV nur träumen können.

Dancer
2004-11-01, 13:14:15
Btw. 3dfx gab an das sich [b]gleich zu beginn[b] ca. 40% der Käufer das V2 SLi Gespann gönnten, von dieser Zahl wird NV nur träumen können.

Dazu musst Du aber sagen, dass 3dfx damals eine Randgruppe als Kundschaft hatte. Von heutiger Millionenkundschaft weltweit ist das weit weg.
Da ist es natürlich leicht 2-stellige % Marken zu erreichen.
Wenn du SLI fairer Weise gegen die Käufer der Top Produkte von Nvidia rechnest, wird mit recht hoher Wahrscheinlichkeit ebenfalls ein 2-stelliger Wert herauskommen.
Du kannst schlecht damalige Marken mit denen heute vergleichen, da 3D heute allgegenwärtig ist. Damals jedoch war nur ein kleiner Teil betroffen. Die meissten PCs wurden mit ganz normalen 2D Karten gekauft.
Das dürfte sich erst mit dem RIVA TNT geändert haben.

aths
2004-11-01, 13:34:27
schneller ? "HDR" + AA möglich (ich weiss hat nicht direkt was mit SM3 zu tun), ...Das ist das, worauf ich hinaus will: Das "schneller" kann ja alleine durch gesteigerte Rohleistung kommen, ohne dass die SM3-Implementierung irgendwie verbessert wurde.

HDR-Lighting inkl. 64-Bit-Framebuffer und Antialiasing überfordert jedes Speicherinterface. Man muss beim Alphablending, statt 32 Bit zu lesen und wieder zu schreiben, jeweils 64 Bit lesen und schreiben, daher braucht die Operation zwei Takte ohne dass das ein echter Nachteil ist (der Speicher limitiert sowieso.) Bei 4x MSAA müssen nicht ingesamt 128 Bit, sondern 256 Bit pro Pixel geschrieben werden. 16 Pipes erzeugen ohne AA bereits 512 Bit RGBA-Informationen und noch mal so viele Bits an Z-Werten. Mit 4x MSAA hat man die vierfache Menge an Rohdaten (die allerdings durch verlustfreie Komprimierung wieder reduziert werden kann.) Mit dem 64-Bit-Framebuffer verdoppelt sich die Größe der Farbinformationen – die zudem strukturbedingt schlechter komprimierbar sind.

Jesus
2004-11-01, 13:38:00
Das ist das, worauf ich hinaus will: Das "schneller" kann ja alleine durch gesteigerte Rohleistung kommen, ohne dass die SM3-Implementierung irgendwie verbessert wurde.

HDR-Lighting inkl. 64-Bit-Framebuffer und Antialiasing überfordert jedes Speicherinterface. Man muss beim Alphablending, statt 32 Bit zu lesen und wieder zu schreiben, jeweils 64 Bit lesen und schreiben, daher braucht die Operation zwei Takte ohne dass das ein echter Nachteil ist (der Speicher limitiert sowieso.) Bei 4x MSAA müssen nicht ingesamt 128 Bit, sondern 256 Bit pro Pixel geschrieben werden. 16 Pipes erzeugen ohne AA bereits 512 Bit RGBA-Informationen und noch mal so viele Bits an Z-Werten. Mit 4x MSAA hat man die vierfache Menge an Rohdaten (die allerdings durch verlustfreie Komprimierung wieder reduziert werden kann.) Mit dem 64-Bit-Framebuffer verdoppelt sich die Größe der Farbinformationen – die zudem strukturbedingt schlechter komprimierbar sind.

man muss ja HDR nicht auf die NV Art machen. Es gibt ja bereits andere Methoden die schneller sind und AA erlauben... ohne gross spezialisierte HW zu benötigen.

Crushinator
2004-11-01, 13:43:58
Was verstehst du in diesem Zusammenhang unter "besser"? Ganz einfach: Schneller und kompromissloser, z.B. durchgängiges kompromissloses FP32-Format ohne daß man als Entwickler per Hand optimieren muß. Das Branching könnte auch ruhig noch mehr bringen als jetzt. Die durch den Wegfall von nativer FP16/FX8-Unterstützung ersparten Transistoren könnte man meiner Meinung nach in kompromislosere Texturfilter oder noch schönere AA-Verfahren stecken.

aths
2004-11-01, 13:53:12
man muss ja HDR nicht auf die NV Art machen. Es gibt ja bereits andere Methoden die schneller sind und AA erlauben... ohne gross spezialisierte HW zu benötigen.HDR mit MRT ist eine Verlegenheitslösung. FP-Alphablending, erforderlich für HDR à la Far Cry, ist ohne spezialisierte Hardware nur sehr umständlich zu "emulieren".

aths
2004-11-01, 13:53:35
Ganz einfach: Schneller und kompromissloser, z.B. durchgängiges kompromissloses FP32-Format ohne daß man als Entwickler per Hand optimieren muß. Das Branching könnte auch ruhig noch mehr bringen als jetzt. Die durch den Wegfall von nativer FP16/FX8-Unterstützung ersparten Transistoren könnte man meiner Meinung nach in kompromislosere Texturfilter oder noch schönere AA-Verfahren stecken.Was hat das alles mit SM3 zu tun? (Abgesehen davon, dass FX8 und FP16-Support aus Kompatibilitäts- und Bandbreiten-Gründen zwingend notwendig ist.)

Crushinator
2004-11-01, 14:04:14
Was hat das alles mit SM3 zu tun? (Abgesehen davon, dass FX8 und FP16-Support aus Kompatibilitäts- und Bandbreiten-Gründen zwingend notwendig ist.) Entschuldige bitte, daß ich scheinbar nicht in der Lage bin einzuschätzen, daß Du mich nicht verstehen möchtest. Es ist mir auch scheinbar entgangen, daß dynamisches Branching nichts mit SM3 zu tun hätte. Eben so ist es mir neu, daß man die Speicherbandbreite nicht durch Erweiterung des Speicherinterface drastisch erhöhen könnte.

aths
2004-11-01, 14:20:33
Entschuldige bitte, daß ich scheinbar nicht in der Lage bin einzuschätzen, daß Du mich nicht verstehen möchtest. Es ist mir auch scheinbar entgangen, daß dynamisches Branching nichts mit SM3 zu tun hätte. Eben so ist es mir neu, daß man die Speicherbandbreite nicht durch Erweiterung des Speicherinterface drastisch erhöhen könnte.Branching hat was damit zu tun, der Rest allerdings nicht. SM3 schreibt kein Interface vor, eine Verbreiterung des Interface verbessert SM3 nicht, sondern ggf. die Rohleistung. NV40 rechnet intern bereits alles mit FP32, eine TMU die FP32-Werte filtern kann, wird eines Tages kommen, allerdings braucht heute diese Präzision kaum einer. Ein 128-Bit-Framebuffer (RGBA mit je FP32) wird eines Tages vielleicht auch kommen, ist jedoch für heutige Anwendungen Overkill (FP16 reicht für vieles voll aus.)

Was möchtest du denn Branching anders haben? Dass ein if-elseif-endif-Befehl jeweils nur einen Takt statt zwei Takte kostet, oder dass mit kleineren Quadbatches gearbeitet wird? Wie möchtest du bei einer vermuteten Pipeline-Tiefe von 256 Stufen die Quadbatches verkleinern?

Crushinator
2004-11-01, 14:35:06
Branching hat was damit zu tun, der Rest allerdings nicht. SM3 schreibt kein Interface vor, eine Verbreiterung des Interface verbessert SM3 nicht, sondern ggf. die Rohleistung. Wenn ich schreibe, daß ich eine bessere SM3-Unterstützung wünsche, dann sollte es IMHO ersichtlich sein, daß eine Verbesserung der Rohleistung impliziert sei. Daß man die Definition von SM3 dafür nicht anzufassen braucht, ergibt sich durch die bereits festgelegten Standards.
NV40 rechnet intern bereits alles mit FP32, eine TMU die FP32-Werte filtern kann, wird eines Tages kommen, allerdings braucht heute diese Präzision kaum einer. Ein 128-Bit-Framebuffer (RGBA mit je FP32) wird eines Tages vielleicht auch kommen, ist jedoch für heutige Anwendungen Overkill (FP16 reicht für vieles voll aus.) Die Argumentation, daß FP16 für vieles ausreichend sei, beißt sich IMHO zu sehr mit gleichzeitiger Beharrung darauf, daß FP32 und 64-Bit Framebuffer wünschenswert seien.
Was möchtest du denn Branching anders haben? Dass ein if-elseif-endif-Befehl jeweils nur einen Takt statt zwei Takte kostet, oder dass mit kleineren Quadbatches gearbeitet wird? Wie möchtest du bei einer vermuteten Pipeline-Tiefe von 256 Stufen die Quadbatches verkleinern? Ich weiß nicht, wie man es genau realisieren könnte, daß dynamisches Branching auf so einer parallelen Architektur noch weniger Takte verbraucht. Aber, ich bin mir sicher, daß es verbessert werden kann, und daß wir es in naher Zukunft erleben werden.

[edit]
Rächtschreipfehl0r soweit wie möglich korrigi0rt. ;D

RLZ
2004-11-01, 15:06:30
Wie möchtest du bei einer vermuteten Pipeline-Tiefe von 256 Stufen die Quadbatches verkleinern?
Von wo bis wo rechnest du da mit der Pipeline?
Gibts ne ungefähre Vorstellung welche Pipelineteile wie lang sind?

Blacksoul
2004-11-01, 15:09:17
Inwiefern ist SLi bei der 6600GT eigentlich sinnvoll?

Damit SLi nicht zu stark CPU-Limitierend ist, sollte man 4x AA dazu schalten.
Doch limitiert hier nicht der Speicher (128MB) und das Interface (128Bit) der 6600GT?
Oder wird es durch SLi verdoppelt?

Entschuldigt, wenn es schon besprochen wurde, nur hab ich jetzt nicht die Zeit, mir alle 16 Seiten durchzulesen.


t.blacksoul.d

Jesus
2004-11-01, 15:19:51
Was möchtest du denn Branching anders haben? Dass ein if-elseif-endif-Befehl jeweils nur einen Takt statt zwei Takte kostet, oder dass mit kleineren Quadbatches gearbeitet wird? Wie möchtest du bei einer vermuteten Pipeline-Tiefe von 256 Stufen die Quadbatches verkleinern?

Ist zwar OT, aber dyn. branching geht auch mit SM2.0... angeblich sogar manchmal etwas schneller:

http://www.humus.ca/3D/DynamicBranching.zip


One of the main features of pixel shader 3.0 is that is supports dynamic branching (also called data dependent branching), something that nVidia of course makes a big deal about. This demo however shows a way to implement dynamic branching without pixel shader 3.0, using basic graphics functionality such as alpha testing and stencil testing. Not only is it doable, but also gives every bit of the performance of real dynamic branching.
One scenario where dynamic branching comes in handy is when you have range-limited lights. Whenever a fragment is outside the range of the light, you can skip all the lighting math and just return zero immediately. With pixel shader 3.0 you'd simply implement this with an if-statement. Without pixel shader 3.0, you just move this check to another shader. This shader returns a truth value to alpha. The alpha test then kills all unlit fragments. Surviving fragments will write 1 to stencil. In the next pass you simply draw lighting as usual. The stencil test will remove any fragments that aren't tagged as lit. If the hardware performs the stencil test prior to shading you will save a lot of shading power. In fact, the shading workload is reduced to the same level of pixel shader 3.0, or in some cases even slightly below since the alpha test can do a compare that otherwise would have to be performed in the shader.
The result is that early-out speeds things up considerably. In this demo the speed-up is generally in the range of two to four times as fast than without early-out. And with more complex lighting, the gain would have been even larger.

This demo should run on Radeon 9500 and up, and GeForce FX 5200 and up

aths
2004-11-01, 15:22:28
Wenn ich schreibe, daß ich eine bessere SM3-Unterstützung wünsche, dann sollte es IMHO ersichtlich sein, daß eine Verbesserung der Rohleistung impliziert sei. Daß man die Definition von SM3 dafür nicht anzufassen braucht, ergibt sich durch die bereits festgelegten Standards.Dann schreib doch, dass du dir bei einem SM3-Chip vor allem mehr Rohleistung wünschst :)

Die Argumentation, daß FP16 für vieles ausreichend sei, beißt sich IMHO zu sehr mit gleichzeitiger Beharrung darauf, daß FP32 und 64-Bit Framebuffer wünschenswert seien.Nah. Ein 64-Bit-Framebuffer umfasst pro Pixel 4 FP16-Werte. Einen Framebuffer für 4 FP32-Werte halte ich, wie schon geschrieben, auf absehbare Zeit für Overkill.

Ich weiß nicht, wie man es genau realisieren könnte, daß dynamisches Branching auf so einer parallelen Architektur noch weniger Takte verbraucht. Aber, ich bin mir sicher, daß es verbessert werden kann, und daß wir es in naher Zukunft erleben werden.Wie nahe ist die nahe Zukunft deiner Definition nach?

aths
2004-11-01, 15:24:35
Von wo bis wo rechnest du da mit der Pipeline?
Gibts ne ungefähre Vorstellung welche Pipelineteile wie lang sind?Texturen zu sampeln ist soweit ich weiß beim NV30 bereits 170 Takte tief, und NV30 hat "nur" 8x AF.

aths
2004-11-01, 15:26:13
Inwiefern ist SLi bei der 6600GT eigentlich sinnvoll?

Damit SLi nicht zu stark CPU-Limitierend ist, sollte man 4x AA dazu schalten.
Doch limitiert hier nicht der Speicher (128MB) und das Interface (128Bit) der 6600GT?
Oder wird es durch SLi verdoppelt?

Entschuldigt, wenn es schon besprochen wurde, nur hab ich jetzt nicht die Zeit, mir alle 16 Seiten durchzulesen.Je nach SLI-Modus steigt die Geometrie-Leistung oder auch nicht. Die effektive Füllrate wird im besten Fall bis zu doppelt so hoch sein. Praktisch erreicht man eine Steigerung von ca. 60% (statt 100%), jedenfalls sofern keine CPU-Limitierung vorliegt.

aths
2004-11-01, 15:29:11
Ist zwar OT, aber dyn. branching geht auch mit SM2.0... angeblich sogar manchmal etwas schneller:

http://www.humus.ca/3D/DynamicBranching.zipDas geht eben nicht mit einem SM2-Shader. Natürlich kann man auch mit SM2 (auch mit anderen Verfahren) nur jeweils bestimmte Teile einer komplexen Effektberechnung rendern, aber dazu muss eben jeder Teil als extra Shader vorliegen. Komplexe Shader in kürzere aufzusplitten und situationsabhängig bestimmte Dinge wegzulassen ist ein alter Hut. In einem SM3-Shader gehts aber direkt im Shader selbst. Und man spart ggü. Humus' Methode den Lese-Zugriff auf den Framebuffer.

Crushinator
2004-11-01, 15:34:27
Dann schreib doch, dass du dir bei einem SM3-Chip vor allem mehr Rohleistung wünschst :) Ich schrieb ausdrücklich "schneller und kompromissloser". Es freut mich, daß Du jetzt für alle anderen erklärt hast, daß man diese Beschleunigung durch Steigerung der Rohleistung erzielen kann. :)
Ein 64-Bit-Framebuffer umfasst pro Pixel 4 FP16-Werte. Einen Framebuffer für 4 FP32-Werte halte ich, wie schon geschrieben, auf absehbare Zeit für Overkill. Wenn dadurch sonst kein nennenswerter Nachteil entsteht als Overkill, akzeptiere ich das Overkill. Die Frage ob das realisiert werden kann ohne das Transistorbudget oder die Bandbreitenkapazität zu sprengen, ist selbstverständlich eine andere.
Wie nahe ist die nahe Zukunft deiner Definition nach?Die angesprochene Zukunft spielt sich für mich noch im Jahre 2005 ab. :)

Jesus
2004-11-01, 15:37:54
In einem SM3-Shader gehts aber direkt im Shader selbst. Und man spart ggü. Humus' Methode den Lese-Zugriff auf den Framebuffer.

Aber dazu schreibt er ja dass genau das mit aufgesplittetem Shader und Alphatest manchmal schneller sei:

In fact, the shading workload is reduced to the same level of pixel shader 3.0, or in some cases even slightly below since the alpha test can do a compare that otherwise would have to be performed in the shader.

sorry für OT ;)

aths
2004-11-01, 15:46:51
Ich schrieb ausdrücklich "schneller und kompromissloser". Es freut mich, daß Du jetzt für alle anderen erklärt hast, daß man diese Beschleunigung durch Steigerung der Rohleistung erzielen kann. :)Nah, ich bin mal ein kleinkarierter Krümelkacker und reite auf deinem Originalposting herum:
Ganz einfach: Schneller und kompromissloser, z.B. durchgängiges kompromissloses FP32-Format ohne daß man als Entwickler per Hand optimieren muß. Das Branching könnte auch ruhig noch mehr bringen als jetzt. Die durch den Wegfall von nativer FP16/FX8-Unterstützung ersparten Transistoren könnte man meiner Meinung nach in kompromislosere Texturfilter oder noch schönere AA-Verfahren stecken.- Wo SM3 FP32 erfordert, hat NV40 FP32-Rechnungen "full speeded".

- Von Hand optimieren muss man immer bisschen, der Shader Optimizer macht auch was. GPUs haben (siehe NV40 Artikel Teil 2) keine Instruction Reorder Units oder was in der Richtung. Kostet viel zu viele Transistoren.

- Wegfall von FX8 und FP16-Support ist Unsinn, sry. FX8-Texturen werden noch lange genutzt, der FX8-Framebuffer wird für das meiste noch auf Jahre ausreichen. FP16 für HDR oder bestimmte andere Effekte zu verwenden spart massig Bandbreite und liefert für die Erfordernisse der nächsten Jahre genug Auflösung und Dynamik.

- Ehe man über besseres AA nachdenkt, sind erst mal die aktuellen Bandbreitenprobleme die aus FP16 resultieren in den Griff zu kriegen. Da ist es mit +200 MHz mehr Speichertakt leider nicht getan.

Wenn dadurch sonst kein nennenswerter Nachteil entsteht als Overkill, akzeptiere ich das Overkill. Die Frage ob das realisiert werden kann ohne das Transistorbudget oder die Bandbreitenkapazität zu sprengen, ist selbstverständlich eine andere.Einerseits willst du schöneres AA, andererseits fragst du nach FP32 in Bereichen, in denen man es noch lange nicht braucht, wo der erste Schritt dorthin (nämlich FP16, was natürlich nur ein Zwischenschritt ist) schon viele Probleme aufwirft.

Die angesprochene Zukunft spielt sich für mich noch im Jahre 2005 ab. :)"Nahe Zukunft" wäre für mich nicht mehr Ende 2005. Zunächst werden wir wohl NV45, später NV48 sehen, und von ATI vielleicht R480. Da wird es kaum dazu kommen, "daß dynamisches Branching auf so einer parallelen Architektur noch weniger Takte verbraucht." Ende 2005 könnte es vielleicht mit dem R500 oder NV50 so weit sein. Andererseits stellt gerade die parallele Architektur das Branching im Pixelshader vor die bekannten Probleme. NV43 mit nur 2 Quadpipes hat beim Branchen weniger Verschnitt als NV40 mit 3 oder 4 Quadpipes. Die Vertexshader arbeiten seit NV40 ja nach dem MIMD-Prinzip, können also sehr effektiv dynamic branching nutzen. (Gibts als Feature seit NV30, beherrscht der R420 leider nicht.)

aths
2004-11-01, 15:49:20
Aber dazu schreibt er ja dass genau das mit aufgesplittetem Shader und Alphatest manchmal schneller seiDafür kostet der Alphatest Bandbreite. In konstruierten Spezialsituationen mögen solche "emulierten" Sprünge schneller sein.

RLZ
2004-11-01, 15:51:10
Schonmal sorry für das Offtopic :tongue:

Texturen zu sampeln ist soweit ich weiß beim NV30 bereits 170 Takte tief, und NV30 hat "nur" 8x AF.
Also sind die ~256 Takte nur das Textursampeln?
Ich erinner mich bei der GF3 an angebliche 700-800 Takte gesamte Pipelinetiefe.
Würde mich mal interessieren wie es inzwischen aussieht.
Allerdings hab ich bei keinem der netten Hersteller irgendwas dazu gefunden.

aths
2004-11-01, 15:55:44
Schonmal sorry für das Offtopic :tongue:

Also sind die ~256 Takte nur das Textursampeln?
Ich erinner mich bei der GF3 an angebliche 700-800 Takte gesamte Pipelinetiefe.
Würde mich mal interessieren wie es inzwischen aussieht.
Allerdings hab ich bei keinem der netten Hersteller irgendwas dazu gefunden.Konkrete Zahlen habe ich nicht. Unter "Pipeline-Tiefe" verstehe ich in diesem Zusammenhang nur die rechnende und sampelnde Pixelpipe, ohne Triangle Setup, ohne ROP. Tridam von Hardware.fr hatte mal einige Tests gefahren, deren Resultat nicht eindeutig ist, aber zu einer Tiefe von ca. 256 Befehlen passen würde. Im NV40-Artikel wird diese Zahl genannt, aber nur als Schätzung. Vielleicht liege ich damit auch eine halbe Größenordnung daneben.

Die TMU sampelt ja parallel zu den Berechnungen. Damit die Pipe nicht leer läuft, müssen mehrere Quads drin sein, denn das Sampling-Ergebnis liegt erst viele Takte später vor.

Crushinator
2004-11-01, 16:09:28
Nah, ich bin mal ein kleinkarierter Krümelkacker und reite auf deinem Originalposting herum:

- Wo SM3 FP32 erfordert, hat NV40 FP32-Rechnungen "full speeded".

- Von Hand optimieren muss man immer bisschen, der Shader Optimizer macht auch was. GPUs haben (siehe NV40 Artikel Teil 2) keine interne Instruction Reorder Units oder was in der Richtung. Kostet viel zu viele Transistoren.

- Wegfall von FX8 und FP16-Support ist Unsinn, sry. FX8-Texturen werden noch lange genutzt, der FX8-Framebuffer wird für das meiste noch auf Jahre ausreichen. FP16 zu verwenden spart massig Bandbreite und liefert für die Erfordernisse der nächsten Jahre genug Auflösung und Dynamik.

- Ehe man über besseres AA nachdenkt, sind erst mal die aktuellen Bandbreitenprobleme die aus FP16 resultieren in den Griff zu kriegen. Da ist es mit +200 MHz mehr Speichertakt leider nicht getan.
Das hättest Du Dir auch alles sparen können, denn Du könntest bis morgen früh für NV40 trommeln, und es würde nicht im geringsten etwas am Zustand ändern, daß die aktuelle - Deiner Meinung nach technologisch vollkommen veraltetete - SM2x Hardware auch ganz ohne dedizierte FX8 und FP16 Unterstützung konkurrenzfähig ist. Abgesehen davon, daß Du mich damit weiterhin nicht davon überzeugst, daß ich im Momment einen gravierenden Nachteil in Kauf nehmen muß, weil meine Hardware intern alles mit FP24-Registern berechnet. Letzteres war nämlich das, was ich in meinem Ursprungsbeitrag hauptsächlich zum Ausdruck bringen wollte.
Einerseits willst du schöneres AA, andererseits fragst du nach FP32 in Bereichen, in denen man es noch lange nicht braucht, wo der erste Schritt dorthin (nämlich FP16, was natürlich nur ein Zwischenschritt ist) schon viele Probleme aufwirft. Das liegt daran, daß ich bisher kein Nutzen von FP16 sehen kann, außer im Falle eines 64-Bit Framebuffer. Einen Tod muß man ja letztendlich sterben. Selbstverständlich wäre es wünschenswert, daß man alle aufgezählten Vorteile von FP16 mit brachialer Rohleistung verbinden könnte. Wenn ich die Wahl habe, nehme ich letztendlich eine außerordentlich gesteigerte Rohleistung notfalls mit einem 32-Bit Framebuffer, ob es Dir gefällt oder nicht. ;)
"Nahe Zukunft" wäre für mich nicht mehr Ende 2005. Zunächst werden wir wohl NV45, später NV48 sehen, und von ATI vielleicht R480. Da wird es kaum dazu kommen, "daß dynamisches Branching auf so einer parallelen Architektur noch weniger Takte verbraucht." Ende 2005 könnte es vielleicht mit dem R500 oder NV50 so weit sein. Andererseits stellt gerade die parallele Architektur das Branching im Pixelshader vor die bekannten Probleme. NV43 mit nur 2 Quadpipes hat beim Branchen weniger Verschnitt als NV40 mit 3 oder 4 Quadpipes. Die Vertexshader arbeiten seit NV40 ja nach dem MIMD-Prinzip, können also sehr effektiv dynamic branching nutzen. (Gibts als Feature seit NV30, beherrscht der R420 leider nicht.) Um es kurz zu machen: Bis nächstes Jahr wird noch viel Wasser den Berg runterfließen, und es wird sich bis dato auch zeigen, welche Architektur sich in der Praxis als die bessere erweisen wird. Bis dahin werden sich viele - wie ich beispielsweise - mit dem zufrieden geben müssen, was sie bereits haben.

aths
2004-11-01, 16:42:57
Das hättest Du Dir auch alles sparen können, denn Du könntest bis morgen früh für NV40 trommeln, und es würde nicht im geringsten etwas am Zustand ändern, daß die aktuelle - Deiner Meinung nach technologisch vollkommen veraltetete - SM2x Hardware auch ganz ohne dedizierte FX8 und FP16 Unterstützung konkurrenzfähig ist. Weder trommle ich für den NV40, noch sehe ich einen allgemeinen Hinderungsgrund, heute eine Radeon X800 oder X700 zu kaufen.

Abgesehen davon, daß Du mich damit weiterhin nicht davon überzeugst, daß ich im Momment einen gravierenden Nachteil in Kauf nehmen muß, weil meine Hardware intern alles mit FP24-Registern berechnet.Davon wollte ich dich auch gar nicht überzeugen.

Letzteres war nämlich das, was ich in meinem Ursprungsbeitrag hauptsächlich zum Ausdruck bringen wollte.Hrm, verstehe ich jetzt nicht. Erst verlangst du FP32, dann bist du mit FP24 zufrieden?

Das liegt daran, daß ich bisher kein Nutzen von FP16 sehen kann, außer im Falle eines 64-Bit Framebuffer. Einen Tod muß man ja letztendlich sterben. Selbstverständlich wäre es wünschenswert, daß man alle aufgezählten Vorteile von FP16 mit brachialer Rohleistung verbinden könnte. Wenn ich die Wahl habe, nehme ich letztendlich eine außerordentlich gesteigerte Rohleistung notfalls mit einem 32-Bit Framebuffer, ob es Dir gefällt oder nicht. ;) Deine Kaufentscheidung oder auch nur deine Meinung über eine mögliche Kaufentscheidung liegt außerhalb von den Dingen, die mir gefallen oder nicht gefallen.

FP16-Texturfilterung kann auch dann Vorteile bringen, wenn man weiterhin mit einem FX8-Framebuffer arbeitet. Der Schritt vom 16-Bit-Framebuffer zum 32-Bit-Framebuffer brachte ja "nur" erhöhte Farbauflösung, sprich reduziertes Colorbanding bzw. Vermeidung von Ditherartefakten. FP16 bringt neben weiterhin gestiegerter Auflösung vor allem einen viel höheren Kontrastumfang. Das ist ein bedeutender Sprung. Der erste Versuch jetzt im NV40 ist natürlich keine ultimative Lösung. Da ist es verständlich, wenn du als Kunde noch warten willst.

Der eigentliche Gedanke meines Einwurfs, wo du dich dann reingehängt hast (obwohl ich dich damit gar nicht meinte) war, dass es Leute gibt, die warten bis ein Feature von ihrer Lieblingsfirma geboten wird, bevor sie es für sinnvoll oder sinnvoll nutzbar erachten. Diese Einstellung sollten diese Leute imo zugeben, oder sich andernfalls verkneifen, ohne echte Argumente meine Glaubwürdigkeit in Frage zu stellen.

Ein einfaches "Ich mag NV nicht" oder "Ich hab ATI lieber" wäre doch mal was. Ich freue mich schon auf die Zeit, von der grünen Fraktion unseres Forums angefeindet zu werden, sobald ATI die Rolle der Technologieführerschaft erneut übernimmt, und meine Postings entsprechend ausfallen.

Um es kurz zu machen: Bis nächstes Jahr wird noch viel Wasser den Berg runterfließen, und es wird sich bis dato auch zeigen, welche Architektur sich in der Praxis als die bessere erweisen wird. Bis dahin werden sich viele - wie ich beispielsweise - mit dem zufrieden geben müssen, was sie bereits haben. Die R420-Architektur ist auf dem absteigenden Ast. Natürlich wird auch die NV40-Architektur eines Tages überholt sein. Hier gehts nicht um eine Philosophie à la Intel vs. AMD, wo beide überleben können. Die R420-Architektur wird absehbar nicht mehr zeitgemäß sein, da schlecht für SM3 oder gar WGF geeignet. Auch die NV40-Architektur wird sich nicht dauerhaft durchsetzen, da für WGF zu inflexibel.

Dr Hake
2004-11-01, 17:02:12
Die R420-Architektur ist auf dem absteigenden Ast. Natürlich wird auch die NV40-Architektur eines Tages überholt sein. Hier gehts nicht um eine Philosophie à la Intel vs. AMD, wo beide überleben können. Die R420-Architektur wird absehbar nicht mehr zeitgemäß sein, da schlecht für SM3 oder gar WGF geeignet. Auch die NV40-Architektur wird sich nicht dauerhaft durchsetzen, da für WGF zu inflexibel.

Den Features sollte schon die nV3x ein laengeres Leben als die R3x/4x0 Architektur haben, was ihe trotz einer GMOPF nicht gelungen ist. Also erst mal abwarten ob nV4x R4x0 ueberlebt. Allerdings wird es sich nV auf Dauer nicht leisten koennen so oft eine neue Architektur zu bringen

Crushinator
2004-11-01, 17:16:35
(...) Hrm, verstehe ich jetzt nicht. Erst verlangst du FP32, dann bist du mit FP24 zufrieden? Vielleicht rede ich ja wirklich Chinesisch, deshalb noch mal auf Deutsch: Ich kann mir nicht vorstellen, daß durchgängiges FP32 (wie jetzt FP24 bei ATi) ein Nachteil darstellen sollte. Weil SM3 zwingend FP32 voraussetzt, hätte ich somit auch gar kein Problem, wenn eine zukünftige Hardware intern nur noch mit FP32-Registern arbeiten würde. Weil durch Vernachläßigung der kleineren Formate mehr Transistoren abfallen würden, erhoffe ich mir dadurch, daß sie für sinnvollere Dinge benutzt würden.
Deine Kaufentscheidung oder auch nur deine Meinung über eine mögliche Kaufentscheidung liegt außerhalb von den Dingen, die mir gefallen oder nicht gefallen. Ich weiß ja nicht worauf Du mich mit dieser mehrdeutigen Aussage aufmerksam machen möchtest, aber ich meine, daß Du in meine Beiträge einwenig zu viel hineininterpretierst. ;)
Der eigentliche Gedanke meines Einwurfs, wo du dich dann reingehängt hast (obwohl ich dich damit gar nicht meinte) war, dass es Leute gibt, die warten bis ein Feature von ihrer Lieblingsfirma geboten wird, bevor sie es für sinnvoll oder sinnvoll nutzbar erachten. Diese Einstellung sollten diese Leute imo zugeben, oder sich andernfalls verkneifen, ohne echte Argumente meine Glaubwürdigkeit in Frage zu stellen.Wenn ich ganz ehrlich sein dürfte: Deine Glaubwürdigkeit würde nicht darunter leiden, daß solche Leute so argumentieren wie sie es tun, sondern nur darunter, daß Du Dich Argumenten verschließen würdest, die nicht von Dir selbst kommen bzw. in der Praxis gegen Deine sprechen bzw. diese relativieren würden.
(...) Die R420-Architektur ist auf dem absteigenden Ast. Natürlich wird auch die NV40-Architektur eines Tages überholt sein. Hier gehts nicht um eine Philosophie à la Intel vs. AMD, wo beide überleben können. Die R420-Architektur wird absehbar nicht mehr zeitgemäß sein, da schlecht für SM3 oder gar WGF geeignet. Auch die NV40-Architektur wird sich nicht dauerhaft durchsetzen, da für WGF zu inflexibel. Auch das ist nichts Neues, aths. Das schöne ist, daß sich fast alle darüber bewußt sind, daß SM3 bzw. SM4 zwangsläufig kommen wird, viele sehen aber nicht ein, was diese Tatsache mit der aktuellen Situation hier und jetzt unter Realworldbedingungen zu tun hätte, wofür beide IHV konurrenzfähige Hardware liefern.

aths
2004-11-01, 17:18:09
Den Features sollte schon die nV3x ein laengeres Leben als die R3x/4x0 Architektur haben, was ihe trotz einer GMOPF nicht gelungen ist. Also erst mal abwarten ob nV4x R4x0 ueberlebt. Allerdings wird es sich nV auf Dauer nicht leisten koennen so oft eine neue Architektur zu bringenNaja, wir werden sehen, wie lange sich NV34 halten kann. Wegen der hohen Entwicklungskosten für den NV40 nehme ich auch an, dass mindestens noch NV50 erkennbar auf dem NV40 basiert, inkl. etlicher Architekturschwächen.

Grestorn
2004-11-01, 17:29:38
Ich finde es gut daß du und dein Alter Ego aths sich immer treu bleiben.
Nur ernst nehmen kann ich so ein polemisches Geschreibsel nicht.
Look who's talking!

aths
2004-11-01, 17:44:56
Vielleicht rede ich ja wirklich Chinesisch, deshalb noch mal auf Deutsch: Ich kann mir nicht vorstellen, daß durchgängiges FP32 (wie jetzt FP24 bei ATi) ein Nachteil darstellen sollte. Weil SM3 zwingend FP32 voraussetzt, hätte ich somit auch gar kein Problem, wenn eine zukünftige Hardware intern nur noch mit FP32-Registern arbeiten würde. Weil durch Vernachläßigung der kleineren Formate mehr Transistoren abfallen würden, erhoffe ich mir dadurch, daß sie für sinnvollere Dinge benutzt würden.ATI rechnet auch in der Pixelpipe nicht durchgehend mit FP24, Texturoperationen werden mit FP32 ausgeführt. TMU-mäßig bietet ATI, sofern gefiltert werden soll, leider nur die Filterung von FX8-Texturen, an Framebuffern gibt es RGBA 8888 und RGBA 10 10 10 2, letztere Version afaik aber ohne Antialiasing. "Durchgängig FP32" hieße für mich, FP32-Texturfilterung, 128-Bit-Framebuffer.

NV40 kann FP16-Formate nach FP32 konvertieren und andersrum, unterstützt wird an einigen Stellen auch FX8 und FX12. R420 kann auch FX8, FP16, FP24 und FP32-Werte ineinander umwandeln. Da zu sparen kann man sich nicht leisten, da diese Formate aus Kompatibilitätsgründen gebraucht werden. Außerdem reicht FP16, auch FX8 für viele Zwecke aus. "Durchgehend" FP32 brauchen wir noch lange nicht.

Wenn man beim NV40 das NRM_PP vernachlässigen würde, würde man mit den dann freien Transistoren noch lange kein Full Precision NRM realisieren können.

Ich weiß ja nicht worauf Du mich mit dieser mehrdeutigen Aussage aufmerksam machen möchtest, aber ich meine, daß Du in meine Beiträge einwenig zu viel hineininterpretierst. ;)Du warst doch damit auch nicht angesprochen.

Wenn ich ganz ehrlich sein dürfte: Deine Glaubwürdigkeit würde nicht darunter leiden, daß solche Leute so argumentieren wie sie es tun, sondern nur darunter, daß Du Dich Argumenten verschließen würdest, die nicht von Dir selbst kommen bzw. in der Praxis gegen Deine sprechen bzw. diese relativieren würden.Ich akzeptiere Betrachtungsweisen, die dann als "Praxis" gesehen werden, z. B. dass 6x sparsed MSAA im Moment wichtiger sei als SM3-Support. Was ist nicht akzeptiere ist, herstellerorientierte Feature-Bewertung. Plötzlich werden bei den einen Wärmeabgabe und Lautstärke des Lüfterkonzeptes besonders wichtig. Das sollen plötzlich die schlagenden Features sein. Die anderen sind hingegen blind wenn es um Unterfilterung beim AF geht.

Auch das ist nichts Neues, aths. Das schöne ist, daß sich fast alle darüber bewußt sind, daß SM3 bzw. SM4 zwangsläufig kommen wird, viele sehen aber nicht ein, was diese Tatsache mit der aktuellen Situation hier und jetzt unter Realworldbedingungen zu tun hätte, wofür beide IHV konurrenzfähige Hardware liefern.SM4 wird soweit ich informiert bin nicht kommen. Dass R420 nicht konkurrenzfähig sei, würde meine Postings überinterpretieren. Dass die NV40-Features "zu früh" kämen streite ich allerdings ab.

Coda
2004-11-01, 17:48:55
Ist zwar OT, aber dyn. branching geht auch mit SM2.0... angeblich sogar manchmal etwas schneller:
Das geht aber nur mit 2 Branch-Zweigen. Ein SM 3.0 kann 100 haben, wenn man es denn braucht.

mapel110
2004-11-01, 17:51:18
Dass R420 nicht konkurrenzfähig sei, würde meine Postings überinterpretieren.


Kommt aber manchmal so rüber.


Dass die NV40-Features "zu früh" kämen streite ich allerdings ab.

und das mit Recht. :uup:

aths
2004-11-01, 18:00:53
Kommt aber manchmal so rüber.Ja in der Hitze des Gefechtes mag die eine oder andere Formulierung zu absolut klingen.

In der Praxis ist es so, dass für meine Games selbst das stark winkelabhängige ATI-AF noch gute Erlebnisse liefert, und die 6x Kantenglättung einfach unverschämt gut ist* – hätte ich das Geld für einen extra Spiele-PC käme da mindestens eine X700 Pro rein. Da ich mit dem PC hier aber auch arbeiten muss, bleibt die GeForce FX drin.

* Derzeit spiele ich praktisch alles mit 4xS-Antialiasing, was natürlich viel Leistung frisst.

Crushinator
2004-11-01, 18:34:50
ATI rechnet auch in der Pixelpipe nicht durchgehend mit FP24, Texturoperationen werden mit FP32 ausgeführt. TMU-mäßig bietet ATI, sofern gefiltert werden soll, leider nur die Filterung von FX8-Texturen, an Framebuffern gibt es RGBA 8888 und RGBA 10 10 10 2, letztere Version afaik aber ohne Antialiasing. "Durchgängig FP32" hieße für mich, FP32-Texturfilterung, 128-Bit-Framebuffer. (...) Du hast vollkommen recht. Warum werde ich nur nicht das Gefühl los, daß ATi bei der nächsten Generation ihrer Hardware es tunlichst unterlassen wird die Konkurrenz freiwillig zu unterbieten bzw. nur mit ihr gleichzuziehen?
SM4 wird soweit ich informiert bin nicht kommen. Dass R420 nicht konkurrenzfähig sei, würde meine Postings überinterpretieren. Dass die NV40-Features "zu früh" kämen streite ich allerdings ab. Daß (http://www.computerbase.de/news/software/betriebssysteme/windows/2004/september/next-generation-directx/) SM4 in WGF definiert werden soll, stellt für mich kein Grund dar, nur noch eine Windows-spezifische Bezeichnung zu verwenden. Ich ordnete SM4 i.Ü. nicht der unmittelbar folgenden Chipgeneration zu, sondern der darauf Folgenden und habe damit nur noch weiter in die Zukunft geschaut. ;)

Puncto "herstellerorientierte Feature-Bewertung" muß ich zustimmen, wobei ich mir gut vorstellen kann, daß dieses Verhalten hauptsächlich ein Henne-Ei Problem ist, sprich auf Gegenseitigkeit beruht und damit nicht völlig grundlos zustande kommt.

tombman
2004-11-02, 10:46:36
Schlechter vergleich, erstens hatte damals praktisch jedes Mainboard mindestens zwei PCI-Steckplätze sodass kein Spezialmainboard nötig war und zweitens war den nutzten um ein vielfaches höher. Man konnte mit einer V2 SLI eine Auflösung von damals atemberaubenden 1024x768 fahren was mit nur einer karten nicht möglich war, diesen unterschied sah selbst der größte Vollid***. Den unterschied zwischen 1600x1200 mit 4xAA/8xAF oder mit SLi vielleicht 2048x1536 mit 8xAA/16xAF sieht man allerdings meistens nur mit der Lupe. Außerdem gab es damals noch keine bedenken bezüglich Stromverbrauch oder Wärmeentwicklung.

Btw. 3dfx gab an das sich gleich zu beginn ca. 40% der Käufer das V2 SLi Gespann gönnten, von dieser Zahl wird NV nur träumen können.

du machst da einen schlechten Vergleich. Denn mit SLi wird JETZT 1600x1200 MIT 4xAA spielbar, was es ohne SLI nicht wirklich ist. Und den Unterschied zwischen 1024 und 1600 sieht man noch viel deutlicher als zwischen 800 und 1024. Brauchst dir nur mal die Doom3 Werte mit SLI ansehen und alle Zweifel ob es was bringt sind dahin :cool:

Dein "Beispiel" mit 2048 und 8xAA zeigt nur, daß du ned wirklich Ahnung von den Leistungen heutiger high end chips in der Praxis hast, denn sowas wäre sogar für SLI bei weitem zuviel.

Die Hindernisse SLi heutzutage zu erreichen sind vielleicht etwas größer, aber ned wirklich ein Problem für die Zielgruppe. (+ 50€ mobo)

Und mit Strom und Wärme brauchst gar ned anfangen... völlig irrelevant. Wenn SLI externe Netzteile brauchen würde wie v5 6000 wäre es den Leuten ebenfalls egal... :cool:

Ich behhaupte sogar SLi hat jetzt sogar noch mehr Sinn als früher, weil es auch viel mehr games gibt die davon profitieren können- damals gabs ja außer quake2 ned viel :D

Die Diskussion über die Sinnhaftkeit von SLi hat sich doch eh längst erübrigt.

tombman
2004-11-02, 10:53:35
2 x 6800 GT erreichen in den Punkten die als nächstes auf der Tagesordnung stehen niemals die Leistung der NextGeneration.

Niemand streitet den Nutzen von SLI, MMS oder Multichip in bestimmten professionellen Bereichen ab.

V2 SLI war überhaupt nur Freakbereich bekannt.


wtf?? Du hast keine Ahnung was die nächsten chips alles können werden und was ned und auch ned wie schnell sie werden IN GAMES (Tagesordnungspunkte sind keine FPS-Disziplin, genausowenig wie features)

Und da SLi bis zu 100% mehr speed bringt (falls nicht schon vorher cpu limitiert, dh unter 1600x1200 is testen völlig sinnlos) werden die nextgen chips auch ned viel schneller sein. Denn Sprünge größer als 100% kommen praktisch ned vor, da wären ATi und Nvidia schön blöd. (dann würden die Karten ja viel zu lange "halten" :cool:)

SM 3.0 können die 6800er chips ja schon, also was sollen die next gen chips in Zukunft soooo viel schneller können als jetzige SLi Systeme? Vorallem was sollen die können was zu ihrer Lebzeit IN GAMES auch vorkommen wird? Eben- nix.

reunion
2004-11-02, 11:09:12
Die R420-Architektur ist auf dem absteigenden Ast. Natürlich wird auch die NV40-Architektur eines Tages überholt sein. Hier gehts nicht um eine Philosophie à la Intel vs. AMD, wo beide überleben können. Die R420-Architektur wird absehbar nicht mehr zeitgemäß sein, da schlecht für SM3 oder gar WGF geeignet. Auch die NV40-Architektur wird sich nicht dauerhaft durchsetzen, da für WGF zu inflexibel.

Jetzt geht das schon wieder los, soetwas ähnliches hörte man von dir auch ständig zu Nv3x Zeiten, das diese ach so tollen Features in der Realität dann kaum bzw. gar nicht einsetzbar sind mangels Geschwindigkeit scheint dich ja nicht weiter zu stören. Man sieht es ja jetzt schon wieder bei FarCry, der NV40, das Flagschiff, bricht bei den paar mikrigen HDR Effekten um ca. 50% ein, außerdem ist dann kein AA mehr nutzbar. Wie wird es dann wohl Geforce 6600 oder gar 6200 ergehen? Ich seh es jetzt schon kommen, wenn dann die nächste generation mit R520/NV50 veröffentlicht wurde und erste Spiele auf SM3.0 basis erscheinen wird die NV4x-Serie in den PS2.0 Pfad gezwungen mangels Geschwindigkeit. Und man wird damit vermutlich kein bisschen zukunftssicherer als mit einem R420 sein.

Sphinx
2004-11-02, 12:04:22
Jetzt geht das schon wieder los, soetwas ähnliches hörte man von dir auch ständig zu Nv3x Zeiten, das diese ach so tollen Features in der Realität dann kaum bzw. gar nicht einsetzbar sind mangels Geschwindigkeit scheint dich ja nicht weiter zu stören. Man sieht es ja jetzt schon wieder bei FarCry, der NV40, das Flagschiff, bricht bei den paar mikrigen HDR Effekten um ca. 50% ein, außerdem ist dann kein AA mehr nutzbar. Wie wird es dann wohl Geforce 6600 oder gar 6200 ergehen? Ich seh es jetzt schon kommen, wenn dann die nächste generation mit R520/NV50 veröffentlicht wurde und erste Spiele auf SM3.0 basis erscheinen wird die NV4x-Serie in den PS2.0 Pfad gezwungen mangels Geschwindigkeit. Und man wird damit vermutlich kein bisschen zukunftssicherer als mit einem R420 sein.

;)

Mein reden...

aths
2004-11-02, 12:25:25
Du hast vollkommen recht. Warum werde ich nur nicht das Gefühl los, daß ATi bei der nächsten Generation ihrer Hardware es tunlichst unterlassen wird die Konkurrenz freiwillig zu unterbieten bzw. nur mit ihr gleichzuziehen?Allerdings kann es an SM3-Features nur unwesentlich mehr geben. Vielleicht Texturfilterung im Vertexshader.
Daß (http://www.computerbase.de/news/software/betriebssysteme/windows/2004/september/next-generation-directx/) SM4 in WGF definiert werden soll, stellt für mich kein Grund dar, nur noch eine Windows-spezifische Bezeichnung zu verwenden. Ich ordnete SM4 i.Ü. nicht der unmittelbar folgenden Chipgeneration zu, sondern der darauf Folgenden und habe damit nur noch weiter in die Zukunft geschaut. ;)Lies lieber Artikel auf 3dc (http://www.3dcenter.org/artikel/2004/09-28.php).

Wenn man es so sehen will, ist sehr gute DX8-Performance erst auf DX9-Karten gegeben (dann auch auf NV30), Nvidia lieferte sehr gute DX9 SM2-Performance erst mit ihrer DX9 SM3-Hardware, und so könnte es bis WGF dauern, ehe Nvidia-seitig sehr gute SM3-Performance geboten wird.

Puncto "herstellerorientierte Feature-Bewertung" muß ich zustimmen, wobei ich mir gut vorstellen kann, daß dieses Verhalten hauptsächlich ein Henne-Ei Problem ist, sprich auf Gegenseitigkeit beruht und damit nicht völlig grundlos zustande kommt. Natürlich ist es genauso falsch, ein Feature herstellerorientiert hochzuloben.

deekey777
2004-11-02, 12:29:32
ATI to copy Nvidia's SLI idea (http://www.theinq.com/?article=19403)

WE HAVE hard information that ATI will move to its own version of SLI next year, in the second quarter.
Unlike Nvidia, ATI won't call it SLI, of course. It will however let you use twin graphic cards in two PCIe graphic slots, proffering the promise of performance.

ATI is in a beta stage of development, according to sources close to the company. It had the choice for going for dual graphics processors on one card, but now it appears it will copy Nvidia's idea instead.

The Canadian firm will also introduce a chipset expected to be released around the same time.This chipset won't differ much the soon to be announced RX480 chipset.

ATI will have a "Pentium 4" version of its SLI so it won't be for the AMD club alone. Nor will it need a small "daughter board" to connect the two cards, it appears.

Nvidia will be first out of the gate with this kind of stuff, however. In Q4. µ


Ich liebe den Inquirer. :ulove:

aths
2004-11-02, 12:34:16
Jetzt geht das schon wieder los, soetwas ähnliches hörte man von dir auch ständig zu Nv3x Zeiten, das diese ach so tollen Features in der Realität dann kaum bzw. gar nicht einsetzbar sind mangels Geschwindigkeit scheint dich ja nicht weiter zu stören. Viele CineFX-Features werden (zur Geschwindigkeitsteigerung) eingesetzt, allerdings bleibt die Endgeschwindigkeit trotzdem unterhalb des Radeon-Niveaus. Erst mit dem NV40 ist das alte CineFX (bzw. featuremäßig exakt gleiche CineFX2) "full speeded" implementiert.

Man sieht es ja jetzt schon wieder bei FarCry, der NV40, das Flagschiff, bricht bei den paar mikrigen HDR Effekten um ca. 50% ein, außerdem ist dann kein AA mehr nutzbar.Mit der Radeon X800 XT PE ist es offenbar gleich gar nicht mehr in Echtzeit möglich.

Wie wird es dann wohl Geforce 6600 oder gar 6200 ergehen?6600 und 6200 sind wohl zu rohleistungsschwach dafür, aber können dennoch dank SM3 effizienter arbeiten als ohne SM3.

Ich seh es jetzt schon kommen, wenn dann die nächste generation mit R520/NV50 veröffentlicht wurde und erste Spiele auf SM3.0 basis erscheinen wird die NV4x-Serie in den PS2.0 Pfad gezwungen mangels Geschwindigkeit. Und man wird damit vermutlich kein bisschen zukunftssicherer als mit einem R420 sein.Ähm ... durch SM3 können viele "SM2-Effekte" beschleunigt werden, es wäre der Performance hinderlich, NV40 zum SM2-Pfad zu zwingen.

tombman
2004-11-02, 12:36:59
ATI to copy Nvidia's SLI idea (http://www.theinq.com/?article=19403)


Ich liebe den Inquirer. :ulove:
wer nicht :D

Aber daß ATi nachziehen MUSS war wohl klar.... ansonsten wären die Balkenlängen für alle Zeit verloren gewesen :D

Wobei eine multi-gpu card noch um einiges cooler wäre :) Wäre auch mehr "ati like", schließlich habens sowas ja schon lang rennen in der ES simfusion Serie...

aths
2004-11-02, 12:41:59
Ja verdammt, wenn meine Kolumne am Wochenende erscheint, wird die veraltet wirken.

reunion
2004-11-02, 12:43:35
Viele CineFX-Features werden (zur Geschwindigkeitsteigerung) eingesetzt, allerdings bleibt die Geschwindigkeit trotzdem unterhalb des Radeon-Niveaus.


Wo denn?
Bis jetzt müssten die FX-Karten mangels speed in den meisten Spielen mit dem DX8-Pfad vorlieb nehmen und ich wage zu bezweifeln das dass in Zukunft anders sein wird.

Mit der Radeon X800 XT PE ist es offenbar gleich gar nicht mehr in Echtzeit möglich.


Stimmt, und wo ist das Problem?
Ob zu langsam und deshalb nicht spielbar oder ob schlicht nicht verfügbar kommt aufs gleiche hinaus.

6600 und 6200 sind wohl zu rohleistungsschwach dafür, aber können dennoch dank SM3 effizienter arbeiten als ohne SM3.


Ja, genauso wie zB eine Fx5600 dank PS2.0a effizienter arbeitet als eine Radeon 9600 :ugly:

Ähm ... durch SM3 können viele "SM2-Effekte" beschleunigt werden, es wäre der Performance hinderlich, NV40 zum SM2-Pfad zu zwingen.

Nicht wenn man sich im SM2.0 Pfad ein paar Effekte ersparen kann/muss.

robbitop
2004-11-02, 12:50:28
wer nicht :D

Aber daß ATi nachziehen MUSS war wohl klar.... ansonsten wären die Balkenlängen für alle Zeit verloren gewesen :D

Wobei eine multi-gpu card noch um einiges cooler wäre :) Wäre auch mehr "ati like", schließlich habens sowas ja schon lang rennen in der ES simfusion Serie...

gibts von NV auch -> Quantum3D ;-)

aths
2004-11-02, 12:54:08
Wo denn?
Bis jetzt müssten die FX-Karten mangels speed in den meisten Spielen mit dem DX8-Pfad vorlieb nehmen und ich wage zu bezweifeln das dass in Zukunft anders sein wird.Wenn DX9-Shader zum Einsatz kommen, dann inzwischen meistens CineFX-optimierte.

Du kannst die Situation vom NV30 nicht einfach auf den NV40 übertragen. NV30 hat, bisschen vereinfacht gesagt, spezielle DX8-Hardware und zusätzlich (langsame) DX9-Hardware. Beim NV40 gibt es diese Trennung nicht, ob nun Shader 1.x, 2.x oder 3.0, das macht alles die gleiche Hardware mit gleicher Geschwindigkeit.

Stimmt, und wo ist das Problem?
Ob zu langsam und deshalb nicht spielbar oder ob schlicht nicht verfügbar kommt aufs gleiche hinaus.Unspielbar ist es, soweit ich das gesehen habe, nicht.

Ja, genauso wie zB eine Fx5600 dank PS2.0a effizienter arbeitet als eine Radeon 9600 :ugly: Die FX-Serie muss bei DX9-Pixelshaderprogrammen für Datenrangierung und zum Warten damit wieder Platz im Tempfile frei wird, zusätzliche Takte einlegen, was die Ausführungsgeschwindigkeit senkt. Die Radeon 9600 muss das (etwas verkürzt gesagt) nicht. (NV40 muss das ebenfalls nicht, im Gegenteil kann eine NV40-Pipe im Takt mehr berechnen als eine Radeon-Pipe.)

Würde der NV31 nun einen PS_2_0-Shader abarbeiten müssen, wäre er auf das Featureset von der Radeon begrenzt, während er mit 2_X besondere CineFX-Features nutzen kann, die die Ausführungsgeschwindigkeit verbessern. (Der Recompiler im Treiber kann allerdings in Grenzen auch einen 2_0-Shader für CineFX optimieren.)

Nicht wenn man sich im SM2.0 Pfad ein paar Effekte ersparen kann/muss. SM3 ist ja gerade auch darauf ausgelegt, dass die Komplexititä der Effekte dynamisch angepasst werden kann. Selbst wenn der NV40 applikationsseitig nicht alle "SM3-Effekte" zu sehen bekommt wie der NV55, wird er mit dem SM3-Pfad effektiver genutzt als mit einem SM2-Fallback.

reunion
2004-11-02, 13:13:05
Wenn DX9-Shader zum Einsatz kommen, dann inzwischen meistens CineFX-optimierte.


Was allerdings trozdem zu einer inakzeptablen Performace führt.

Du kannst die Situation vom NV30 nicht einfach auf den NV40 übertragen. NV30 hat, bisschen vereinfacht gesagt, spezielle DX8-Hardware und zusätzlich (langsame) DX9-Hardware. Beim NV40 gibt es diese Trennung nicht, ob nun Shader 1.x, 2.x oder 3.0, das macht alles die gleiche Hardware mit gleicher Geschwindigkeit.


Warum nicht?
Die Situation scheint ziemlich gleich zu sein, sobald SM3.0 auch nur geringfügig eingesetzt wird geht die Leistung in den Keller, genau wie damals zu Nv30 Zeiten. Ob der Nv40 jetzt irgendeine Trennung hat oder nicht ist dabei völlig irrelevant.

Unspielbar ist es, soweit ich das gesehen habe, nicht.


Minus 50% Performance plus verzicht auf AA ist für mich inakzeptabel.

SM3 ist ja gerade auch darauf ausgelegt, dass die Komplexititä der Effekte dynamisch angepasst werden kann. Selbst wenn der NV40 applikationsseitig nicht alle "SM3-Effekte" zu sehen bekommt wie der NV55, wird er mit dem SM3-Pfad effektiver genutzt als mit einem SM2-Fallback.

Effektiver vielleicht, aber auch schneller als ein R420?

Jesus
2004-11-02, 13:55:26
ATI to copy Nvidia's SLI idea (http://www.theinq.com/?article=19403)


Ich liebe den Inquirer. :ulove:

LOL ROFL omg... :biggrin:

naja vielleicht einigen sich ATI und NV ja jetzt darauf dass es reicht nur alle 5 Jahre ne neue Graka-Generation rauszubringen. Schliesslich kann man bis zu 4 einfach per SLI zusammenschalten, notfalls mit externem Dieselgenerator.

Sorry aber ich find das einfach nur blöd, da viel zu viel Leistung bei sowas einfach verbraten wird (und ich spreche nicht von elektrischer Leistung), im Gegensatz zu den Kosten und zum Aufwand den man dabei betreibt.

Eigentlich schneidet man sich damit ja ins eigene Fleisch, denn damit muss die neue Generation auf jeden Fall schneller sein als die alte mit SLI, sonst würden sie ganz schön dumm dastehen.

aths
2004-11-02, 14:34:40
Was allerdings trozdem zu einer inakzeptablen Performace führt. Für viele scheint die Performance akzeptabel zu sein.

Warum nicht?
Die Situation scheint ziemlich gleich zu sein, sobald SM3.0 auch nur geringfügig eingesetzt wird geht die Leistung in den Keller, genau wie damals zu Nv30 Zeiten. Ob der Nv40 jetzt irgendeine Trennung hat oder nicht ist dabei völlig irrelevant. Ist es nicht. NV30 (und NV35) bekommen deshalb oft DX8-Shader, weil sie dort erheblich schneller sind. NV40 wird durch SM3-Shader aber beschleunigt (sofern die Shader nicht "falsch" programmiert wurden.) Wenn im SM3-Shader zusätzliche Rechnungen verlangt werden die im SM2-Pfad nicht vorhanden sind, wird das den NV40 natürlich bremsen. Das ist aber eher ein Problem der Rohleistung. SM3 ansich erhöht, sinnvoll eingesetzt, die Performance. Und zwar tendenziell je besser, desto komplexer der Effekt. Bei den vergleichsweise anspruchslosen Shadern die wir heute haben ist der Gewinn durch SM3-Features überschaubar.

Minus 50% Performance plus verzicht auf AA ist für mich inakzeptabel.Für dich, ok. Für mich ist nicht der 50%-Verlust per se inakzeptabel, ich gucke auf die Endleistung, die scheint mir akzeptabel. Das Fehlen von FSAA würde schmerzen, ja. Allerdings werden durch den Glow-Effekt viele ansonsten kontrastreiche Kanten eh überstrahlt.

Übrigens ist HDR Lighting à la Far Cry kein "SM3-Effekt".

Effektiver vielleicht, aber auch schneller als ein R420? Das hängt davon ab. Wenn die Effekte sehr oft und sehr viele Texturen brauchen, sollte R420 aufgrund seiner durch den Takt höheren Texturfüllrate gewinnen. Wenn die Effekte überwiegend rechnen, sollte NV40 aufgrund seiner durch die Architektur höheren Rechenleistung gewinnen. Außerdem hat NV40 besondere Effizienzvorteile wie Arbitrary Swizzling, und er kann sehr schnell in Partial Precision drei-komponentige Vektoren normalisieren. Datenrangierung, beliebig tiefe dependent reads, Normalisierung, Division, Sincos – wo der R420 seine Probleme hat, kann der NV40 glänzen.

Jesus
2004-11-02, 14:44:06
Für dich, ok. Für mich ist nicht der 50%-Verlust per se inakzeptabel, ich gucke auf die Endleistung, die scheint mir akzeptabel. Das Fehlen von FSAA würde schmerzen, ja. Allerdings werden durch den Glow-Effekt viele ansonsten kontrastreiche Kanten eh überstrahlt.

wow, das hätte ich jetzt nicht erwartet. Für dich als alten AF Nörgler ;) sollte sowas doch in wenigen Sekunden zu sofortigem Augenkrebs füren.
Btw. AF wird dabei bei den meisten afaik ebenso wenig verwendet, weil es die Performance noch weiter in den Keller treibt. :rolleyes:

aths
2004-11-02, 14:52:45
wow, das hätte ich jetzt nicht erwartet. Für dich als alten AF Nörgler ;) sollte sowas doch in wenigen Sekunden zu sofortigem Augenkrebs füren.
Btw. AF wird dabei bei den meisten afaik ebenso wenig verwendet, weil es die Performance noch weiter in den Keller treibt. :rolleyes:Hätte ich einen NV40 und würde ich Far Cry spielen (was beides nicht der Fall ist, FC habe ich zwar original und sogar installiert, aber keine Lust aufs Spielen) würde ich gucken ob HDR-Lighting die Nachteile wettmacht oder nicht, und ggf. darauf verzichten. Aber nur weil ich darauf vielleicht verzichten würde ist es damit noch nicht "zu langsam", es wäre nur "für mich zu langsam".

Tigerchen
2004-11-02, 15:59:37
Jetzt geht das schon wieder los, soetwas ähnliches hörte man von dir auch ständig zu Nv3x Zeiten, das diese ach so tollen Features in der Realität dann kaum bzw. gar nicht einsetzbar sind mangels Geschwindigkeit scheint dich ja nicht weiter zu stören. Man sieht es ja jetzt schon wieder bei FarCry, der NV40, das Flagschiff, bricht bei den paar mikrigen HDR Effekten um ca. 50% ein, außerdem ist dann kein AA mehr nutzbar. Wie wird es dann wohl Geforce 6600 oder gar 6200 ergehen? Ich seh es jetzt schon kommen, wenn dann die nächste generation mit R520/NV50 veröffentlicht wurde und erste Spiele auf SM3.0 basis erscheinen wird die NV4x-Serie in den PS2.0 Pfad gezwungen mangels Geschwindigkeit. Und man wird damit vermutlich kein bisschen zukunftssicherer als mit einem R420 sein.

Genau so seh ichs auch.:up:

LovesuckZ
2004-11-02, 16:24:08
Ich seh es jetzt schon kommen, wenn dann die nächste generation mit R520/NV50 veröffentlicht wurde und erste Spiele auf SM3.0 basis erscheinen wird die NV4x-Serie in den PS2.0 Pfad gezwungen mangels Geschwindigkeit. Und man wird damit vermutlich kein bisschen zukunftssicherer als mit einem R420 sein.

Vorallen wenn der Entwickler von der roten Seite der Ma... aeh Kartenhersteller "überredet" wurde.
Wie man aber an Farcry und Pacific Fighter sieht, ist die Zukunftssicherheit des NV40 doch, jedenfalls gegenueber des geneigten R420 user, erheblich gesteigert worden, da selbst der Wert der Karte aufgrund der Moeglichkeit bessere Effekte in akzeptablem Speed darzustellen steigt.
Achja, auch zukuenftige Hardware wird an diesen "mikrigen" HDR Effekten Federn lassen, nur eben von 200 fps auf 100 statt von 100 auf 50.

mapel110
2004-11-02, 16:37:01
Vorallen wenn der Entwickler von der roten Seite der Ma... aeh Kartenhersteller "überredet" wurde.


Merkwüdig, dass sogar TWIMTBP-Games(Mohpa) die 5200er und 5600er in den DX8-Mode forcen.
Zahlt nvidia etwa dafür, sich selbst zu schaden?! :O

robbitop
2004-11-02, 16:50:34
Merkwüdig, dass sogar TWIMTBP-Games(Mohpa) die 5200er und 5600er in den DX8-Mode forcen.
Zahlt nvidia etwa dafür, sich selbst zu schaden?! :O

wie oft noch: kein IHV zahlt einem ISV irgendetwas.
Sie bekommen Support das ist alles. So heisst es zumindist offiziell vom Dev Rel von NV. Solange es da keine Gegenteiligen Belege gibt, ist sowas allerhöchstens eine Unterstellung.

mapel110
2004-11-02, 17:02:58
wie oft noch: kein IHV zahlt einem ISV irgendetwas.
Sie bekommen Support das ist alles. So heisst es zumindist offiziell vom Dev Rel von NV. Solange es da keine Gegenteiligen Belege gibt, ist sowas allerhöchstens eine Unterstellung.

hab ich gesagt, wen nvidia bezahlt? Nein, hab ich nicht.
Ich hab gesagt "Zahlt nvidia etwa dafür, sich selbst zu schaden?!"
Ich kann damit also "rein theoretisch" die Lohnkosten des Developersupport gemeint haben. :)

robbitop
2004-11-02, 17:05:52
hab ich gesagt, wen nvidia bezahlt? Nein, hab ich nicht.
Ich hab gesagt "Zahlt nvidia etwa dafür, sich selbst zu schaden?!"
Ich kann damit also "rein theoretisch" die Lohnkosten des Developersupport gemeint haben. :)

im Rausreden hast du Übung ;)

mapel110
2004-11-02, 17:07:41
im Rausreden hast du Übung ;)

und du im Hineininterpretieren. ;)

betasilie
2004-11-02, 17:13:00
wie oft noch: kein IHV zahlt einem ISV irgendetwas.
Sie bekommen Support das ist alles. So heisst es zumindist offiziell vom Dev Rel von NV. Solange es da keine Gegenteiligen Belege gibt, ist sowas allerhöchstens eine Unterstellung.
Sag mal, wie naiv bist Du? Glaubst Du irgendjemand aus der branche würde solche Deals öffentlich machen? ... :crazy:

Es geht doch genau darum, dass es so aussieht, als ob alles von der überlgenen Hardware kommt und nicht durch irgendwelche Deals mit den ISVs. Wenn das alles öffentlich ausgeplaudert werden würde, wäre es ja witzlos für die IHVs. :rolleyes:

Du magst ja auf dem technolgischen Sektor ganz informiert sein, aber deine Einblicke in die Geschäftswelt sind doch imo sehr beschränkt.

dildo4u
2004-11-02, 17:17:56
Sag mal, wie naiv bist Du? Glaubst Du irgendjemand aus der branche würde solche Deals öffentlich machen? ... :crazy:

Es geht doch genau darum, dass es so aussieht, als ob alles von der überlgenen Hardware kommt und nicht durch irgendwelche Deals mit den ISVs. Wenn das alles öffentlich ausgeplaudert werden würde, wäre es ja witzlos für die IHVs. :rolleyes:

Du magst ja auf dem technolgischen Sektor ganz informiert sein, aber deine Einblicke in die Geschäftswelt sind doch imo sehr beschränkt.
Hat Valve nicht öffentlich zugegeben 8Mio von ATI als Support kassiert zu haben?

robbitop
2004-11-02, 17:19:13
Sag mal, wie naiv bist Du? Glaubst Du irgendjemand aus der branche würde solche Deals öffentlich machen? ... :crazy:

Es geht doch genau darum, dass es so aussieht, als ob alles von der überlgenen Hardware kommt und nicht durch irgendwelche Deals mit den ISVs. Wenn das alles öffentlich ausgeplaudert werden würde, wäre es ja witzlos für die IHVs. :rolleyes:

Du magst ja auf dem technolgischen Sektor ganz informiert sein, aber deine Einblicke in die Geschäftswelt sind doch imo sehr beschränkt.

Deine Meinung Herr Wirtschaftsexperte. Ein wenig anmaßend von dir darüber anhand sowas zu urteilen.

(Etwas zu behaupten ohne Beleg ist nicht mehr als eine Annahme, solange es nichts Gegenteiliges gibt.)

robbitop
2004-11-02, 17:22:16
und du im Hineininterpretieren. ;)

Du streitest ab, es so gemeint zu haben? Gut, mein Fehler. :)

aths
2004-11-02, 17:24:34
Du magst ja auf dem technolgischen Sektor ganz informiert sein, aber deine Einblicke in die Geschäftswelt sind doch imo sehr beschränkt.Dann lass uns doch an deiner Weisheit teilhaben.

betasilie
2004-11-02, 17:27:58
Deine Meinung Herr Wirtschaftsexperte. Ein wenig anmaßend von dir darüber anhand sowas zu urteilen.

(Etwas zu behaupten ohne Beleg ist nicht mehr als eine Annahme, solange es nichts Gegenteiliges gibt.)
Ein sehr unfreundlicher Ton. Ich dachte Du würdest soviel Wert auf freundliche Umgangsformen legen?

Tja, und scheinbar habe ich mehr Ahnung als Du, was wohl auch mit meiner beruflichen Erfahrung zu tun hat. ;)

Und demjenigen, der irgendwelchen Interviews von Marketingsfuzzies glaubt, ist sowieso schlecht zu helfen. Auf ein Interview mit einem IHV-Marketingfuzzie, wo er zugibt geheime Deals mit ISVs zu haben, kannste jedenfalls lange warten. :rolleyes: ...

betasilie
2004-11-02, 17:28:44
Dann lass uns doch an deiner Weisheit teilhaben.
Habe ich doch schon.

betasilie
2004-11-02, 17:31:04
Hat Valve nicht öffentlich zugegeben 8Mio von ATI als Support kassiert zu haben?
Jo, aber für die Gutscheinaktion. Sicherlich würde ATI oder Valve niemals öffentlich zugeben NV zu benachteiligen. So nach dem Motto: "Wir machen keinen SM3.0 Renderpfad, weil ATI dafür bezahlt hat." ;)

robbitop
2004-11-02, 17:31:48
Ein sehr unfreundlicher Ton. Ich dachte Du würdest soviel Wert auf freundliche Umgangsformen legen?

Tja, und scheinbar habe ich mehr Ahnung als Du, was wohl auch mit meiner beruflichen Erfahrung zu tun hat. ;)

Und demjenigen, der irgendwelchen Interviews von Marketingsfuzzies glaubt, ist sowieso schlecht zu helfen. Auf ein Interview mit einem IHV-Marketingfuzzie, wo er zugibt geheime Deals mit ISVs zu haben, kannste jedenfalls lange warten. :rolleyes: ...
actio - reactio ;) Ich kann Anmaßung nunmal nicht leiden, da gibts dann eine Gegenreaktion.

Ich sehe das ganze einfach aus einem anderen Sichtwinkel. Klar ist es möglich, dass NV/ATi ISVs mal eben ein paar Millionen auf den Tisch legt. Die Möglichkeit habe ich nie bestritten. Doch das ohne Belege auch öffentlich so zu äußern als wäre es ein Fakt, ist inakurat.

Ein solcher Beleg muss keine offizielle Aussage sein (ist mir schon klar, dass sowas niemand zugibt).

robbitop
2004-11-02, 17:35:30
Habe ich doch schon.
sorry aber ich kann nirgendwo etwas konsistentes dazu sehen.

dildo4u
2004-11-02, 17:39:09
Jo, aber für die Gutscheinaktion. Sicherlich würde ATI oder Valve niemals öffentlich zugeben NV zu benachteiligen. So nach dem Motto: "Wir machen keinen SM3.0 Renderpfad, weil ATI dafür bezahlt hat." ;)
Jo richtig gebracht hat es so oder so nicht in der neusten PCGH ist ein Source Engine entwickler von valve im interview und sagt das HL2 kein 3DC nutzt das es hösten später hinzugefügt wird als weder SM3.0 noch 3DC support.

betasilie
2004-11-02, 17:41:59
actio - reaktio ;) Ich kann Anmaßung nunmal nicht leiden, da gibts dann eine Gegenreaktion.
Achso. Dan werfe doch bitte demnächst anderen Leuten nicht ihren Ton vor, wenn Du selber nicht immun gegen diverse Reizthemen bist. ;)

Ich sehe das ganze einfach aus einem anderen Sichtwinkel. Klar ist es möglich, dass NV/ATi ISVs mal eben ein paar Millionen auf den Tisch legt. Die Möglichkeit habe ich nie bestritten. Doch das ohne Belege auch öffentlich so zu äußern als wäre es ein Fakt, ist inakurat.
Es geht ja nicht nur um Geld. Bei kleineren Projekten wird NV sicherlich nicht mit den Talern um sich schmeißen. Aber alleine über Developinghardware ist ne Menge zu machen, etc.

Ich kenne die Deals natürlich auch nicht im Detail, aber sicher ist, dass solche Verträge absolutes Betriebsgeheimniss sind, gerade bei Toptiteln wie Doom³, HL² oder auch STALKER. Wieviel Geld genau fließt und wofür wissen nur wenige Leute. Aber dass es bei solchen großen Projekten Entwicklungszuschüsse der IHVs gibt, ist sicher.

Wenn ein Spiel auf Karte X besser läuft, soll dem Kunden und dem Testleser suggeriert werden, dass es an der Überlegenheit der eigenen Hardware liegt und nicht an irgendwelchen gekauften Optimierungen, die auch für Karte y hätten gemacht werden können, und somit nicht repräsentativ sind.

Daher versuchen ATI und NV solche Deals natürlich hinter den Kulissen ablaufen zu lassen, um dann alles der eigenen Hardware zusprechen zu können.

robbitop
2004-11-02, 17:46:56
Achso. Dan werfe doch bitte demnächst anderen Leuten nicht ihren Ton vor, wenn Du selber nicht immun gegen diverse Reizthemen bist. ;)
Niemand ist dagegen immun und sowas braucht auch niemand verlangen.
Wenn du deinen Ton freundlich hällst, bleibt meiner auch freundlich :)



Es geht ja nicht nur um Geld. Bei kleineren Projekten wird NV sicherlich nicht mit den Talern um sich schmeißen. Aber alleine über Developinghardware ist ne Menge zu machen, etc.

Ich kenne die Deals natürlich auch nicht im Detail, aber sicher ist, dass solche Verträge absolutes Betriebsgeheimniss sind, gerade bei Toptiteln wie Doom³, HL² oder auch STALKER. Wieviel Geld genau fließt und wofür wissen nur wenige Leute. Aber dass es bei solchen großen Projekten Entwicklungszuschüsse der IHVs gibt, ist sicher.

Wenn ein Spiel auf Karte X besser läuft, soll dem Kunden und dem Testleser suggeriert werden, dass es an der Überlegenheit der eigenen Hardware liegt und nicht an irgendwelchen gekauften Optimierungen, die auch für Karte y hätten gemacht werden können, und somit nicht repräsentativ sind.

Daher versuchen ATI und NV solche Deals natürlich hinter den Kullissen ablaufen zu lassen, um dann alles der eigenen Hardware zusprechen zu können.

Aber NV und ATi sind beides AGs. Somit ist die Buchführung bis zu einem gewissen Grad doch öffentlich. Und somit müsste es doch irgendwie ersichtlich sein, wo wieviele Mio hin sind, oder etwa nicht?

betasilie
2004-11-02, 17:57:23
Aber NV und ATi sind beides AGs. Somit ist die Buchführung bis zu einem gewissen Grad doch öffentlich. Und somit müsste es doch irgendwie ersichtlich sein, wo wieviele Mio hin sind, oder etwa nicht?
Natürlich müssen die ihre Ausgaben ausweisen. Aber erstens mal müssen nicht Millionen fließen, ich weiß garnicht wie Du darauf kommst, und zweitens werden solche Ausgaben sicherlich geschickt verpackt, so dass es nicht allzu transparent wird.

"- 1.mill. $ für SM3.0 Implemtierung in STALKER", würde da bestimmt nirgendswo stehen in der Quartalsabrechnung. ;)

robbitop
2004-11-02, 18:08:16
Natürlich müssen die ihre Ausgaben ausweisen. Aber erstens mal müssen nicht Millionen fließen, ich weiß garnicht wie Du darauf kommst, und zweitens werden solche Ausgaben sicherlich geschickt verpackt, so dass es nicht allzu transparent wird.

"- 1.mill. $ für SM3.0 Implemtierung in STALKER", würde da bestimmt nirgendswo stehen in der Quartalsabrechnung. ;)

Millionen war jetzt einfach aus der Luft gegriffen.

Nein aber es wäre doch auffällig, wenn 1 Mio (ok mit irgendeinem netten Eintrag) auf das Konto von Crytek fliesst oder?

betasilie
2004-11-02, 18:17:48
Millionen war jetzt einfach aus der Luft gegriffen.

Nein aber es wäre doch auffällig, wenn 1 Mio (ok mit irgendeinem netten Eintrag) auf das Konto von Crytek fliesst oder?
Darauf habe ich schon geantwortet. Niemand sagt, dass NV 1mill. an CryTek bezahlt halt und schon garnicht in einem Betrag. Werbe und Entwicklungshilfe für ISVs sind tortzdem Tagesgeschäfft bei den IHVs.

Ehrlich gesagt ist hier EOD für mich. Mit jemanden zu diskutieren, der auf biegen und brechen Recht haben will, offensichtlich ohne irgendwelche Erfahrungen was das Geschäftliche angeht, ist irgendwie fruchtlos. Du solltest lieber bei den technischen Details von GPUs bleiben, da kennst Du dich scheinbar besser aus, als in der Geschäftswelt.

Peinlich, peinlich.

robbitop
2004-11-02, 18:21:58
Darauf habe ich schon geantwortet. Niemand sagt, dass NV 1mill. an CryTek bezahlt halt und schon garnicht in einem Betrag. Werbe und Entwicklungshilfe für ISVs sind tortzdem Tagesgeschäfft bei den IHVs.

Ehrlich gesagt ist hier EOD für mich. Mit jemanden zu diskutieren, der auf biegen und brechen Recht haben will, offensichtlich ohne irgendwelche Erfahrungen was das Geschäftliche angeht, ist irgendwie fruchtlos. Du solltest lieber bei den technischen Details von GPUs bleiben, da kennst Du dich scheinbar besser aus, als in der Geschäftswelt.

Peinlich, peinlich.

Tut mir leid, wenns so rüberkaum. Ich war halt neugierig wie das genau abläuft und hoffte du könntest es mir erläutern. Man lernt ja nie aus.

Schade, dass du so agressiv bist. (peinlich sollte einem Unwissenheit nicht sein, denn irgendwann ist immer das erste Mal)

betasilie
2004-11-02, 18:24:40
Tut mir leid, wenns so rüberkaum. Ich war halt neugierig wie das genau abläuft und hoffte du könntest es mir erläutern. Man lernt ja nie aus.

Schade, dass du so agressiv bist. (peinlich sollte einem Unwissenheit nicht sein, denn irgendwann ist immer das erste Mal)
Nett gesäuselt. :)

robbitop
2004-11-02, 18:27:56
Nett gesäuselt. :)

nein das ist mein voller Ernst. Häuchelei ist nicht mein Gebiet ;)
also willst du es mir nun erklären oder nicht?
Ich finde das trägt sehr zum Thema bei und es könnte einigen zeigen wie es in der Praxis abläuft. Ich kann mir vorstellen, dass ich nicht der Einzige bin, der nicht viel von sowas versteht.

Xmas
2004-11-02, 18:42:54
Die Situation scheint ziemlich gleich zu sein, sobald SM3.0 auch nur geringfügig eingesetzt wird geht die Leistung in den Keller, genau wie damals zu Nv30 Zeiten. Ob der Nv40 jetzt irgendeine Trennung hat oder nicht ist dabei völlig irrelevant.
Seltsam, bei den Fällen die ich kenne bringt SM3 meist einen Leistungsgewinn.

Tigerchen
2004-11-02, 18:45:42
Aber NV und ATi sind beides AGs. Somit ist die Buchführung bis zu einem gewissen Grad doch öffentlich. Und somit müsste es doch irgendwie ersichtlich sein, wo wieviele Mio hin sind, oder etwa nicht?

Also dies ist nun wirklich ein wenig naiv. Buchhaltung muß kreativ sein. Zu kreative Buchhaltung ist allerdings auch wieder gefährlich. (Donald Trump, Phenomedia)

robbitop
2004-11-02, 18:57:55
Also dies ist nun wirklich ein wenig naiv. Buchhaltung muß kreativ sein. Zu kreative Buchhaltung ist allerdings auch wieder gefährlich. (Donald Trump, Phenomedia)


interessant. Bitte um mehr Infos :)
sorry aber Buchführung erstes Semeseter lernt man so gut wie nichts Brauchbares. (natürlich im Zusammenhang mit TWIMTBP und GITG)

Demirug
2004-11-02, 19:15:52
So kreative muss die Buchführung dafür nicht sein. Zuwendungen der IHV in Richtung ISV können sehr gut in Form von Sachwerten oder Dienstleistungen erfolgen. In beiden Fällen kann das ganz regulär als Entwicklerunterstützung ohne angabe des ISVs verbucht werden.

id hat zum Beispiel während des gesamten D3 Projekts ständig einen Mann von nVidia abgestellt bekommen. Dieser konnte dann noch weitere Resourcen bei nVidia nutzen.

Tigerchen
2004-11-02, 19:17:30
interessant. Bitte um mehr Infos :)
sorry aber Buchführung erstes Semeseter lernt man so gut wie nichts Brauchbares. (natürlich im Zusammenhang mit TWIMTBP und GITG)

Die Jungs von Phenomedia stehen doch gerade vor Gericht weil sie Millionen aus dem Nichts erschaffen haben.
Willst du wirklich eine theoretische Abhandlung darüber wie man Millionen irgendwie verschwinden und diese dann bei guten Freunden wieder auftauchen läßt?

Jesus
2004-11-02, 19:52:09
Vorallen wenn der Entwickler von der roten Seite der Ma... aeh Kartenhersteller "überredet" wurde.
Wie man aber an Farcry und Pacific Fighter sieht, ist die Zukunftssicherheit des NV40 doch, jedenfalls gegenueber des geneigten R420 user, erheblich gesteigert worden, da selbst der Wert der Karte aufgrund der Moeglichkeit bessere Effekte in akzeptablem Speed darzustellen steigt.
Achja, auch zukuenftige Hardware wird an diesen "mikrigen" HDR Effekten Federn lassen, nur eben von 200 fps auf 100 statt von 100 auf 50.

Naja akzeptabel ist für mich was anderes. Man beachte die krasse Auflösung (1024x768) und die Vielzahl an Flugobjekten die gleichzeitig auf diesem Screenshot dargestellt werden und dann noch die gelbe Zahl rechts oben - da scheint wohl eine Null vergessen worden zu sein :rolleyes:

http://img92.exs.cx/img92/1184/pf3.jpg

Aber wenigstens 4xAA ist an ;)

dildo4u
2004-11-02, 19:57:25
Hey da postet einer mein screenshot *g* jo mit aa kann man nich mher wirklich flüssig zocken is aber bei vielen modernen games wegen Fullscreen effekte so und das ist auf meiner 9700 auch nicht anders gewesen.Siehe auch Medal of Honor Pacific Assault.Höhere auflösung ohne AA konnte ich nicht ausprobieren da die auflösung sich nicht auf 1280*1024 eintellen ließ.

Jesus
2004-11-02, 20:05:49
Hey da postet einer mein screenshot *g* jo mit aa kann man nich mher wirklich flüssig zocken is aber bei vielen modernen games wegen Fullscreen effekte so und das ist auf meiner 9700 auch nicht anders gewesen.Siehe auch Medal of Honor Pacific Assault.Höhere auflösung ohne AA konnte ich nicht ausprobieren da die auflösung sich nicht auf 1280*1024 eintellen ließ.

allerdings liegt es hier nicht an den Fullscreen effekten, sondern an einem SM 3 "Effekt"...

Quasar
2004-11-02, 20:12:29
Wie schnell ist denn dieselbe Stelle ohne 4xAA, ohne VTF-Wasser und wahlweise mit all diesen Effekten, aber gleichzeitig viel "Action"? ;)

Ohne diese Dinge läßt sich schwerliche beurteilen, was da genau wieviel kostet. Bsw. sollen VTF (Vertex Texture Fetches) elendig lange Latenzen haben, so daß hier viel zusätzliche Action auf dem Schirm nicht viel kosten dürfte....

Bitte, findet es heraus.

LovesuckZ
2004-11-02, 20:17:14
Merkwüdig, dass sogar TWIMTBP-Games(Mohpa) die 5200er und 5600er in den DX8-Mode forcen.
Zahlt nvidia etwa dafür, sich selbst zu schaden?! :O

Auch die X300SE?
Kann man es im Spiel umstellen (so wie in farcry)?
Valve ist bis jetzt der erste, der FX User (alle!) vom technisch moeglichen Ausschließt. Und sie geben dies auch oeffentlicht zu, was ihnen Dank 6 Millionen von ATi anscheinend sehr leicht faellt...

mapel110
2004-11-02, 20:25:58
Auch die X300SE?
Kann man es im Spiel umstellen (so wie in farcry)?


Bezüglich der x300SE weiss ich nix. Umschalten kann mans wohl per Konfigurationsdatei, so schauts zumindest in der Demo aus.

Jesus
2004-11-02, 20:33:25
Auch die X300SE?
Kann man es im Spiel umstellen (so wie in farcry)?
Valve ist bis jetzt der erste, der FX User (alle!) vom technisch moeglichen Ausschließt. Und sie geben dies auch oeffentlicht zu, was ihnen Dank 6 Millionen von ATi anscheinend sehr leicht faellt...

öh, was machte dann Crytek bei FC im Patch 1.1 ? Oder woher stammte der extreme Speedgewinn bei bescheidener Shaderqualität (verglichen mit 1.0)? (das liess sich auch nicht deaktivieren, ausser durch R300 Emulation mit TB´s patch).

auch TWIMTBP

HL2 würde ich jetzt noch nicht beurteilen, ist noch nichtmal draussen (und SM3 support bereits angekündigt ), dann schon eher D3 mit sagen wir mal nicht gerade auf ATI HW angepasster Engine...

LovesuckZ
2004-11-02, 20:38:08
öh, was machte dann Crytek bei FC im Patch 1.1 ? Oder woher stammte der extreme Speedgewinn bei bescheidener Shaderqualität (verglichen mit 1.0)? (das liess sich auch nicht deaktivieren, ausser durch R300 Emulation mit TB´s patch).

Nun, du hast mich, typisch wie sollte es anders sein, wieder mal, wahrscheinlich noch absichtlich (auch typisch), missverstanden.
Achja, wurde in diesem Patch kein SM2.0 für FX Karten verwendet oder führen die FX Karten nur die übergebenen Shader aus?
Doch, was sollte dann dieser, wirklich raffinierte und mal wieder absolut falsche, Einwand?

HL2 würde ich jetzt noch nicht beurteilen, ist noch nichtmal draussen (und SM3 support bereits angekündigt )

Reicht der VST Test nicht?

dann schon eher D3 mit sagen wir mal nicht gerade auf ATI HW angepasster Engine...

Dies würde bedeuten, Nvidia betreibe keinen Shaderreplacement.
Hm, wenn ich so überlege: Nein, wieder absolut falsch, deine These.

aths
2004-11-02, 20:40:35
Aber dass es bei solchen großen Projekten Entwicklungszuschüsse der IHVs gibt, ist sicher.Ist das sicher (dann hätte ich das gerne aus einer unabhängigen Quelle) oder bist du dir da nur sicher?

Jesus
2004-11-02, 20:42:09
Nun, du hast mich, typisch wie sollte es anders sein, wieder mal, wahrscheinlich noch absichtlich (auch typisch), missverstanden.
Achja, wurde in diesem Patch kein SM2.0 für FX Karten verwendet?
Doch, was sollte dann dieser, wirklich raffinierte und mal wieder absolut falsche, Einwand?



Reicht der VST Test nicht?

deine dummen Anspielungen kannst du dir sparen.

Valve ist bis jetzt der erste, der FX User (alle!) vom technisch moeglichen Ausschließt

Genau das machte Crytek, sie haben nicht das technisch mögliche für die FXen gebracht, sondern bewusst (wohl von NV gefordert, TWIMTBP) etwas schlechter aussehendes das aber dafür besser läuft (Stichwort: Balkenlänge). Ob das jetzt PS8.1 ist (wie bei HL2) oder sonst was ist völlig egal, kommt aufs selbe raus (schlechtere BQ, mehr Speed).

betasilie
2004-11-02, 20:42:33
öh, was machte dann Crytek bei FC im Patch 1.1 ? Oder woher stammte der extreme Speedgewinn bei bescheidener Shaderqualität (verglichen mit 1.0)? (das liess sich auch nicht deaktivieren, ausser durch R300 Emulation mit TB´s patch).
Full Ack. Da wurde sogar bei den Topkarten zugunsten der Performance die Genauigkeit runtergeschraubt auf ein unerträglichers Niveau. Sowas nenne ich eine Sauerei.

Udn von dem TWIMTBP-Game Tombraider:AD wollen wir mal garnicht sprechen.

Der FX5200-User kann froh sein, wenn sie im DX7 Mode ausreichend schnell läuft. :rolleyes:

Quasar
2004-11-02, 20:48:14
Reicht der VST Test nicht?

Nein, angesichts von Gabe 'Technology Partner' Newells Umfall-Mentalität würde ich bei HL2 nichtmal auf einen Release wetten, bevor es wirklich zu kaufen ist.

Quasar
2004-11-02, 20:49:33
öh, was machte dann Crytek bei FC im Patch 1.1 ? Oder woher stammte der extreme Speedgewinn bei bescheidener Shaderqualität (verglichen mit 1.0)?

Aus CryTeks Unfähigkeit vermutlich.

LovesuckZ
2004-11-02, 20:51:46
deine dummen Anspielungen kannst du dir sparen.

Beantworte doch einfach die Frage, danke.

Genau das machte Crytek, sie haben nicht das technisch mögliche für die FXen gebracht, sondern bewusst (wohl von NV gefordert, TWIMTBP) etwas schlechter aussehendes das aber dafür besser läuft (Stichwort: Balkenlänge).

Von nvidia "gefordet" *hust*.
Deswegen auch die bessere Qualitaet im 1.0, 1.2 und wahrscheinlich auch wieder im 1.3 Patch.
Valve schließt FX user vom SM2.0 Pfad aus. Sie bekommen nur einen "DX8" Pfad trotz der technisch dafür ausgelegten Hardware. Den FX Usern wird kein einziger SM2.0 Shader zur Hardware geleitet. Im Gegensatz zu Crytek, die im Patch 1.0 es geschafft haben, keine Karte bildmaeßig zu benachteiligen, ist es in HL2 der Fall. Gibt es eigentlich CS:S einzeln zu kaufen?
Und den "5mal solange optimierten" DX8.2 Pfad gibt es erst recht nicht mehr...

Jesus
2004-11-02, 20:57:58
Beantworte doch einfach die Frage, danke.
Von nvidia "gefordet" *hust*.
Deswegen auch die bessere Qualitaet im 1.0, 1.2 und wahrscheinlich auch wieder im 1.3 Patch.


oh, entschuldige. Sie haben es aus unfähigkeit getan, kurz nach dem Release von FC, zu einer Zeit als das Game in aller Munde und der absolute Nonplusultra Benchmark war, natürlich. Ein Patch der die BQ verschlechtert, und zwar da wo man nicht so oft hinsieht und was genau die Schwachstelle der FXen war/ist, und gleichzeitig einen grossen Speedgewinn darstellt. Völlig unabsichtlich...ok.

Genauso wurde dann die Qualität im 1.2er Patch wieder besser und die Performance auf FXen wieder schlechter, da dann die NV40er schon auf dem Markt waren, die dass ganze in besserer Qualität schnell darstellen konnten (und mussten, sonst hätten sie sich wieder hinter ATI stellen müssen und von allen anhören lassen dass sie ja nicht dasselbe rendern) war es wohl nicht mehr notwendig die BQ zu drosseln für den dicken Balken.

aber OT ;)

Demirug
2004-11-02, 21:01:17
Dies würde bedeuten, Nvidia betreibe keinen Shaderreplacement.

Das nVidia bei D3 Shaderreplacements betreibt habe ich schriftlich. Man muss sowas nur bei den richtigen Leuten (Nick Triantos) nachfragen.

LovesuckZ
2004-11-02, 21:05:51
viel blah

Und nun nochmal: Wo schließt Crytek die FX User vom SM2.0 Pfad aus?
Und warum eigentlich immer vom Patch 1.1 reden? Nehmen wir doch die Ausgangsversion, die jeder kaeuflich erworben kann (/konnte).
Achja, der NV40 kann erst mit dem jetzt erschienen Patch 1.3 die gleichwertige Bildqualitaet erreichen. Soviel dazu, dass man karten nicht nach deren Technik sondern nach der Device id kategorisieren solle...

robbitop
2004-11-02, 21:09:41
Das nVidia bei D3 Shaderreplacements betreibt habe ich schriftlich. Man muss sowas nur bei den richtigen Leuten (Nick Triantos) nachfragen.

ist das die Hauptursache für den großen Speedvorteil ggü ATi pendants?

Eigentlich sollte doch auch ein wenig Vorteil durch das besser für D3 geeignete EarlyZ und die für CineFX relativ günstigen dependant reads auch so ein wenig Performancevorteile bringen oder?

btw: wie siehts mit ATi aus? Haben die es nun geschafft, ebenfalls die Shader zu replacen in Doom3?

Ich finde das für den Spieler nicht schlecht, wenn er davon so profitieren kann.

Demirug
2004-11-02, 21:12:45
ist das die Hauptursache für den großen Speedvorteil ggü ATi pendants?

Eigentlich sollte doch auch ein wenig Vorteil durch das besser für D3 geeignete EarlyZ und die für CineFX relativ günstigen dependant reads auch so ein wenig Performancevorteile bringen oder?

btw: wie siehts mit ATi aus? Haben die es nun geschafft, ebenfalls die Shader zu replacen in Doom3?

Ich finde das für den Spieler nicht schlecht, wenn er davon so profitieren kann.

*schleichwerbung*

In der neuen PCGH sind Interviews mit ATI und nVidia von Thilo und mir zum Thema Treiberoptimierungen drin.

Quasar
2004-11-02, 21:13:36
Ich finde Shaderreplacement und sonstige Treiberschummeleien schlecht. Noch schlechter finde ich es, wenn sowas hinter dem Rücken des Users geschieht.

robbitop
2004-11-02, 21:32:27
ich freue mich wennwenn es die BQ nicht beeinflusst und im ganzen Spiel funktioniert. Somit kann ich 4free ein besseres Setting spielen und habe damit sogar noch mehr BQ. Für lau.

Sphinx
2004-11-02, 21:35:03
Ich finde Shaderreplacement und sonstige Treiberschummeleien schlecht. Noch schlechter finde ich es, wenn sowas hinter dem Rücken des Users geschieht.

Und den meisten Usern interressiert es nicht - Hauptsache mit vorhanden mitteln spielen / siegen können darum geht es den Usern - nicht um machbare Techniken...

*OT: Manchmal habe ich das Gefühl das hier einige in diesem Forum ihr Gedankengut auf die allgemeinheit schließen wollen.

Oder weswegen besitzen wir 3d Beschleuniger...= Um Spiele flüssiger spielen zu können. Ein freund von mir nutzt immer noch den ältesten Ati Treiber der mit der CD angeliefert wurde und? das Spiel läuft... mehr interressiert ihn nicht...

Quasar
2004-11-02, 21:50:37
*OT: Manchmal habe ich das Gefühl das hier einige in diesem Forum ihr Gedankengut auf die allgemeinheit schließen wollen.

Und ich habe manchmal das Gefühl, dass hier im Forum einige es nicht verknusen können, daß andere eine andere Meinung haben, als sie selbst. ;)

Jesus
2004-11-02, 22:14:36
Und nun nochmal: Wo schließt Crytek die FX User vom SM2.0 Pfad aus?

habe ich nie behauptet... aber das willst du wohl nicht kapieren.


Und warum eigentlich immer vom Patch 1.1 reden? Nehmen wir doch die Ausgangsversion, die jeder kaeuflich erworben kann (/konnte)

warum nicht? schliesslich war das der Patch der NV wieder ein Stückchen näher an die ATI Balken rangebracht hat ( für die FXen).
+ er ist kurz nach dem release erschienen.


Achja, der NV40 kann erst mit dem jetzt erschienen Patch 1.3 die gleichwertige Bildqualitaet erreichen. Soviel dazu, dass man karten nicht nach deren Technik sondern nach der Device id kategorisieren solle...

auch falsch, war schon bei 1.2 so. (mal abgesehen vom kleineren TL radius und den "flacheren" glanzeffekten... )

Crushinator
2004-11-03, 10:57:52
Ich finde Shaderreplacement und sonstige Treiberschummeleien schlecht. Noch schlechter finde ich es, wenn sowas hinter dem Rücken des Users geschieht. Ich stimme dem, was das Grundsätzliche angeht uneingeschränkt zu. Es wäre sinnvoller, dem Hersteller des jeweiligen Titels Tips zu geben, wie er die Shader selbst umschreiben bzw. auf bestimmte Architekturen optimieren könnte. In synthetischen Benchmarks haben herstellerspezifische Optimierungen jedoch nichts zu suchen, die Shader dort sollten nur im Bezug auf eine allgemeingültige Spezifikation (SM2x oder 3) optimiert werden, denn sie sollen ja nur Indizien dafür liefern, wie sich die jeweilige Hardware verhalten würde, wenn man nicht explizit dafür optimiert.

Ansonsten gilt auch meinerseits, solange man Treibertricks egal wie sinnvoll sie seien abschalten kann, sollen die Kinder - auch IHV genannt - doch soviel mit Ideen spielen dürfen, bis sie vor Müdigkeit umfallen.

Grestorn
2004-11-03, 11:08:06
Ich stimme dem, was das Grundsätzliche angeht uneingeschränkt zu. Es wäre sinnvoller, dem Hersteller des jeweiligen Titels Tips zu geben, wie er die Shader selbst umschreiben bzw. auf bestimmte Architekturen optimieren könnte.Und was, wenn der Hersteller nicht für jede Hardware einen eigenen Pfad implementieren WILL, sondern einen generischen Pfad, der auf allen Plattformen den größt möglichen gemeinsamen Nenner bildet?

Wenn ein Treiber diesen Shader dann noch für sich optimiert, ist das nichts als eine für einen ganz bestimmten Algorithmus konzepierte Optimierung. Schließlich macht das jeder Compiler:

aus
erg = 0;
for(i = 0; i < 50; i++)
erg += a * b;
wird jeder vernünftig optimierende Compiler schließlich auch
erg = (a*b) * 50;
machen.

So was ist wohl sicher erlaubt, oder? Wenn aber das nun zu optimierende Muster genau auf einen speziellen Fall in einem Shader passt, ist es auf einmal nicht mehr legal? Wieso denn?

Jede Optimierung muss einzig gewährleisten, dass sie zu jedem Zeitpunkt die selben Ergebnisse liefert, wie der Originalcode. Dann ist sie immer legal.
In synthetischen Benchmarks haben herstellerspezifische Optimierungen jedoch nichts zu suchen, die Shader dort sollten nur im Bezug auf eine allgemeingültige Spezifikation (SM2x oder 3) optimiert werden, denn sie sollen ja nur Indizien dafür liefern, wie sich die jeweilige Hardware verhalten würde, wenn man nicht explizit dafür optimiert.Das stimmt doch nicht. Es hängt doch absolut davon ab, wie die Shader programmiert sind. Man kann jeden Shader so programmieren, dass er eher der einen oder der andere Hardware "liegt".

Und deswegen ist es natürlich auch bei Benchmarks völlig legitim, wenn der Treiber das Shaderprogramm optimiert, so lange das Ergebnis (für jeden Shaderdurchlaufs und für jeden einzelnen Pixel!!!!) völlig gleich bleibt.

Die Qualität des Treibers (oder seiner Optimierungsalgorithmen) ist doch ganz selbstverständlich mit Teil des Systems, das gebencht werden soll.

Crushinator
2004-11-03, 11:21:10
Ich habe den Eindruck, daß hier versucht wird Situationen zu konstruieren, um harte Shaderreplacements zu rechtfertigen. Wenn das Ergebnis absolut gleich wäre oder die Shader vom Treiber völlig App-unabhängig auf das absolut gleiche Ergebnis optimiert würden, führten wir diese Diskussionen ja gar nicht. ;)

Grestorn
2004-11-03, 11:53:30
Ich habe den Eindruck, daß hier versucht wird Situationen zu konstruieren, um harte Shaderreplacements zu rechtfertigen. Wenn das Ergebnis absolut gleich wäre oder die Shader vom Treiber völlig App-unabhängig auf das absolut gleiche Ergebnis optimiert würden, führten wir diese Diskussionen ja gar nicht. ;)Wie kommst Du darauf, dass ich irgendwas konstruiere? Ich habe nur geschrieben, in welchen Fällen ich Shader-Optimierungen ok finde (also immer dann, wenn sie das selbe Ergebnis liefern).

App-unabhängig ist sehr relativ. Wenn das Kommando-Muster, das der Optimierer erkennt und in eine auf der Zielhardware schnellere Reihenfolge bringt, so komplex ist, dass sie mit nahezu 100%iger Wahrscheinlichkeit so nur in einem bestimmten Shader vorkommt, ist es dann eine App-abhängige Optimierung? Und wenn ja, was unterscheidet diese Optimierung denn von einer allgemeineren?

Ich bin überzeugt, dass es Optmierungen gibt, für die eine allgemeine Vorschrift gar nicht, oder zumindest nicht mit vertretbarem Aufwand zu formulieren ist. Eine solche Optimierung kann man dann meinetwegen auch Shaderreplacement nennen, ist aber letztlich nur ein Extremfall des allgemeinen "Shaderoptimierung".

Und über "Optimierungen", die nicht das selbe Ergebnis haben, brauchen wir hier nicht zu reden, darum geht's auch nicht. Abgesehen von der Reduzierung der Auflösung von Datenworten (was m.E. nur dann ok ist, wenn sie der Shaderprogrammierer erlaubt), glaube ich nicht, dass in der Praxis tatsächlich das Ergebnis durch das Optimieren verfälscht wird (aber das ist nur eine Annahme). Du scheinst aber genau das Gegenteil vorauszusetzen: Das Optimieren des Shaders immer auch einher geht mit einer Verfälschung des Ergebnisses. Wenn ich mir die Artikel über Shader so durchlese finde ich aber einen riesigen Berg an potentiell möglichen Optimierungen, die einen Shader auf der Hardware schneller laufen lassen, ohne das Ergebnis auch nur im Geringsten zu beeinflussen.

Wieso gehst Du davon aus, dass Shaderreplacement = anderes Ergebnis?

Und wenn Du das nicht tust, was hast Du dann gegen Shaderoptimierung oder -replacement?

Crushinator
2004-11-03, 12:06:37
(...) App-unabhängig ist sehr relativ. Wenn das Kommando-Muster, dass der Optimierer erkennt und in eine auf der Zielhardware schnellere Reihenfolge bringt, so komplex ist, dass sie mit nahezu 100%iger Wahrscheinlichkeit so nur in einem bestimmten Shader vorkommt, ist es dann eine App-abhängige Optimierung? Und wenn ja, was unterscheidet diese Optimierung denn von einer allgemeineren? Das ist dann kein Shaderreplacement, sondern ein schlauer Shadercompiler, der die nativen Kommandos bei jedem erkannten Muster besser sortiert und zwar völlig unabhängig davon, wo solche Shader - auch in der Zukunft - zum Einsatz kämen.
Ich bin überzeugt, dass es Optmierungen gibt, für die eine allgemeine Vorschrift gar nicht, oder zumindest nicht mit vertretbarem Aufwand zu formulieren ist. Eine solche Optimierung kann man dann meinetwegen auch Shaderreplacement nennen, ist aber letztlich nur ein Extremfall des allgemeinen "Shaderoptimierung". Ich habe nicht von Optimierungen gesprochen, sondern wie Quasar auch von harten Replacements. Allgemeinen Optimierungen innerhalb des Shadercompilers, welche allen Anwendungen zu gute kämen stehe ich äußerst positiv gegenüber, was somit das quoten des restlichen Teils Deines Beitrages diesbezüglich erübrigt.
Wieso gehst Du davon aus, dass Shaderreplacement = anderes Ergebnis? Weil es dann keines Replacements im Sinne von Austausch ganzer Shader bedarf.
Und wenn Du das nicht tust, was hast Du dann gegen Shaderoptimierung oder -replacement? s.o.

aths
2004-11-03, 12:12:53
Und was, wenn der Hersteller nicht für jede Hardware einen eigenen Pfad implementieren WILL, sondern einen generischen Pfad, der auf allen Plattformen den größt möglichen gemeinsamen Nenner bildet?

Wenn ein Treiber diesen Shader dann noch für sich optimiert, ist das nichts als eine für einen ganz bestimmten Algorithmus konzepierte Optimierung. Schließlich macht das jeder Compiler:

aus
erg = 0;
for(i = 0; i < 50; i++)
erg += a * b;
wird jeder vernünftig optimierende Compiler schließlich auch
erg = (a*b) * 50;
machen.

So was ist wohl sicher erlaubt, oder? Wenn aber das nun zu optimierende Muster genau auf einen speziellen Fall in einem Shader passt, ist es auf einmal nicht mehr legal? Wieso denn?Frei nach zeckensack: Angenommen, ein CPU-Benchmark berechnet Pi. Ein "Treiber" erkennt nun im Code diese Befehlsfolge, und ersetzt sie mit einer anderen, die im Treiber vorgespeicherte Daten zurück gibt, in diesem Falle Pi. Das ist Beschiss.

Ich habe den Eindruck, daß hier versucht wird Situationen zu konstruieren, um harte Shaderreplacements zu rechtfertigen. Wenn das Ergebnis absolut gleich wäre Gute Shaderreplacement können auch ein exakt gleiches Ergebnis (vielleicht innerhalb des Bitrauschens) liefern und meinerr Meinung nach trotzdem Cheat sein – wenn durch handoptimierte Shader ersetzt wird.

Grestorn
2004-11-03, 12:16:27
Ich habe nicht von Optimierungen gesprochen, sondern wie Quasar auch von harten Replacements. Allgemeinen Optimierungen innerhalb des Shadercompilers, welche allen Anwendungen zu gute kämen stehe ich äußerst positiv gegenüber, was somit das quoten des restlichen Teils Deines Beitrages diesbezüglich erübrigt.Was ist der Unterschied zwischen einem "harten Shaderreplacement" und einer "Allgemeinen Optimierung", die so speziell ist, dass sie aller Wahrscheinlichkeit nach nur einen einzigen vorkommenden Shader optimiert?

Du meinst offensichtlich, dass z.B. für Doom3 eine Erkennungsroutine vorhanden ist, die das Spiel erkennt, und dann die Shader ersetzt ohne sie überhaupt anzusehen.

Aber wie sogar Carmack festgestellt hat: Es reicht einige Statements im Shader umzustellen, und schon läuft Doom3 auf NV Hardware deutlich langsamer. Was sagt uns das?

Der Treiber erkennt offensichtlich die Kommando-Reihenfolge des Shaders und optimiert sie. Ändert man die Reihenfolge, kann die Optimierung das Muster nicht mehr erkennen und schlägt fehl.

Nach Deiner Definition ist das also kein Shaderreplacement sondern eine Optimierung. Damit sind wir ja wieder beieinander. Ich behaupte nur, dass es derzeit ausschließlich Optimierungen nach dieser Definition gibt, und "Shaderreplacements", nach Deiner Definition, schon seit einiger Zeit Vergangenheit sind.

Jesus
2004-11-03, 12:21:00
Was ist der Unterschied zwischen einem "harten Shaderreplacement" und einer "Allgemeinen Optimierung", die so speziell ist, dass sie aller Wahrscheinlichkeit nach nur einen einzigen vorkommenden Shader optimiert?

Du meinst offensichtlich, dass z.B. für Doom3 eine Erkennungsroutine vorhanden ist, die das Spiel erkennt, und dann die Shader ersetzt ohne sie überhaupt anzusehen.

Aber wie sogar Carmack festgestellt hat: Es reicht einige Statements im Shader umzustellen, und schon läuft Doom3 auf NV Hardware deutlich langsamer. Was sagt uns das?

Der Treiber erkennt offensichtlich die Kommando-Reihenfolge des Shaders und optimiert sie. Ändert man die Reihenfolge, kann die Optimierung das Muster nicht mehr erkennen und schlägt fehl.

Nach Deiner Definition ist das also kein Shaderreplacement sondern eine Optimierung. Damit sind wir ja wieder beieinander. Ich behaupte nur, dass es derzeit ausschließlich Optimierungen nach dieser Definition gibt, und "Shaderreplacements", nach Deiner Definition, schon seit einiger Zeit Vergangenheit sind.


Der Treiber erkennt die Reihenfolge eines "Kommandos" weil NV dieses im Vorfeld App.spezifisch untersucht hat und diese Reihenfolge von Hand ersetzt mit etwas "anderem".Wenn das der Shaderkompiler könnte dann müssten wir kein Shaderreplacement machen.

Solange es um logische Vereinfachungen geht, ist alles ok - das ist der Job des Compilers. Wenn allerdings ganze Codesegmente erkannt, ausgetauscht und durch von hand modifizierte ersetzt werden sieht die Sache schon wieder ganz anders aus.

Grestorn
2004-11-03, 12:26:17
Frei nach zeckensack: Angenommen, ein CPU-Benchmark berechnet Pi. Ein "Treiber" erkennt nun im Code diese Befehlsfolge, und ersetzt sie mit einer anderen, die im Treiber vorgespeicherte Daten zurück gibt, in diesem Falle Pi. Das ist Beschiss.Der Vergleich hinkt - wie so viele Vergleiche.

Eine konstante Zahl PI ist nicht das selbe Ergebnis, wie eine berechnete Zahl PI, da der Algorithmus ja jederzeit in der Lage ist, weitere Stellen zu berechnen, was die konstante Zahl, die immer durch den Speicher begrenzt ist, niemals leisten kann.
Gute Shaderreplacement können auch ein exakt gleiches Ergebnis (vielleicht innerhalb des Bitrauschens) liefern und meinerr Meinung nach trotzdem Cheat sein – wenn durch handoptimierte Shader ersetzt wird.Begründung?

Du selbst schreibst doch die Artikel, in denen Du darlegst, wie leicht es möglich ist, ein und den selben Algorithmus entweder sehr effizient oder sehr ineffizient auf einer gegebenen Hardware zu formulieren.

Wenn man jetzt z.B. Futuremark Böwilligkeit unterstellen würde, was hält sie denn davon ab, ihre Shader auf eine bestimmte Hardware zu optimieren, bzw. so zu schreiben, dass eine andere Hardware massive Nachteile hat? Ist das dann noch ein fairer Vergleich?

Man will bei einem Grafikkarten-Benchmark doch nicht vergleichen, wie gut die Hardware eine bestimmte Implementierung eines Algorithmus abarbeiten kann, sondern wie schnell sie den Algorithmus an sich abarbeiten kann. Denn das ist, was den Anwender am Ende interessiert.

Bei CPU-Benchmarks sieht das ein wenig anders aus, da es so etwas wie eine ständig vorhandene Treiberschicht zwischen ausführbaren Programm und Hardware nicht gibt. Deswegen haben Benchmarks hier auch ganz andere Anforderungen.

Grestorn
2004-11-03, 12:36:20
Der Treiber erkennt die Reihenfolge eines "Kommandos" weil NV dieses im Vorfeld App.spezifisch untersucht hat und diese Reihenfolge von Hand ersetzt mit etwas "anderem".Grunsätzlich: ja

Wenn das der Shaderkompiler könnte dann müssten wir kein Shaderreplacement machen.Ein Compiler hat Grenzen. Insbesondere wenn man sich die Komplexität der möglichen Performance-Fallen sieht. Er kann ja nur in einfachen Fällen den "Sinn" des Programms erfassen und umstellen.

Oft können Optimierungen nicht automatisch durchgeführt werden, weil Umgebungsbedingungen nicht bekannt sind. Mal wieder ein Beispiel aus der Hochsprache:
for(i=0, res=0; i < 50; i++)
res += AFunction();Dies wird der Compiler niemals in
res = 50 * AFunction();umsetzen können, da er (im allgemeinen) nicht weiß, ob AFunction() immer den selben Wert zurückliefert, oder nicht.

Der Programmierer weiß das, und kann den Code selbst dadurch optimieren. Prinzipiell gibt es ganz ähnliche Probleme auch bei Shadern, was zur Folge hat, dass es sicher Fälle gibt, in denen nur komplette Shader-Programme ersetzt werden können, da bei einem kompletten Programm die Semantik wieder eindeutig ist.

Übrigens halte ich eine Optimierung a la Humus (Lookup-Textur durch Berechnung ersetzen) nicht für eine legale Optimierung, da sie nicht immer das selbe Ergebnis hat. Das Ergebnis hängt im einen Fall von der Lookup-Textur ab, im anderen nicht. Da ein Shadercompiler nichts über den Inhalt der Lookup-Textur weiß, darf er das auch niemals ersetzen!

Solange es um logische Vereinfachungen geht, ist alles ok - das ist der Job des Compilers. Wenn allerdings ganze Codesegmente erkannt, ausgetauscht und durch von hand modifizierte ersetzt werden sieht die Sache schon wieder ganz anders aus.Da bin ich, wie gesagt, anderer Ansicht. Und wenn Du mit mir nicht übereinstimmst, Jesus, dann schreib mir bitte auch einen stichhaltigen Grund dafür, der über "ich mag es nicht" hinausgeht.

Jesus
2004-11-03, 12:39:18
Man will bei einem Grafikkarten-Benchmark doch nicht vergleichen, wie gut die Hardware eine bestimmte Implementierung eines Algorithmus abarbeiten kann, sondern wie schnell sie den Algorithmus an sich abarbeiten kann. Denn das ist, was den Anwender am Ende interessiert.

Leider kann nur niemand sehen was genau replaced wird. Dann könnten wir auch gleich wieder auf "allgemeine" Benchamarks verzichten und auf die Graka Hersteller und ihren Benchmarks vertrauen, läuft aufs selbe raus. Bei Benchmarks geht es um die Vergleichbarkeit verschiedener HW indem sie dasselbe berechnen. Das ist der Sinn darin. Wenn jeder was anderes berechnet dann ist die Vergleichbarkeit nicht mehr gegeben (und auch das Ergebnis vermutlich anders).

Grestorn
2004-11-03, 12:48:49
Leider kann nur niemand sehen was genau replaced wird. Dann könnten wir auch gleich wieder auf "allgemeine" Benchamarks verzichten und auf die Graka Hersteller und ihren Benchmarks vertrauen, läuft aufs selbe raus. Bei Benchmarks geht es um die Vergleichbarkeit verschiedener HW indem sie dasselbe berechnen. Das ist der Sinn darin. Wenn jeder was anderes berechnet dann ist die Vergleichbarkeit nicht mehr gegeben (und auch das Ergebnis vermutlich anders)."dasselbe berechnen" - habe ich nicht immer geschrieben, dass die Algorithmen und damit automatisch auch die Ergebnisse identisch bleiben müssen?

Oder meintest Du "dieselben Berechnungen in der genau selben Reihenfolge durchführen"? Was sagt denn ein solcher Benchmark für den Anwender aus? Eigentlich nur, wie gut die konkrete Implementierung auf der untersuchten Hardware läuft. Aber überhaupt nichts über die Leistungsfähigkeit der Hardware selbst.

Ich will doch nicht die Leistung der Benchmark-Autoren Benchen, sondern die Leistung der Grafikkarte!

Quasar
2004-11-03, 12:51:57
Bei Benchmarks geht es um die Vergleichbarkeit verschiedener HW indem sie dasselbe berechnen.
Das ist deutlich zu ungenau formuliert, IMO.
Demnach müsstest du Chips mit unterschiedlichen Early-Z Verfahren, unterschiedlichen Rendergenauigkeiten etc.pp. schonmal prinzipiell von "Vergleichbarkeit" freisprechen.

Jesus
2004-11-03, 12:54:07
"dasselbe berechnen" - habe ich nicht immer geschrieben, dass die Algorithmen und damit automatisch auch die Ergebnisse identisch bleiben müssen?

Oder meintest Du "dieselben Berechnungen in der genau selben Reihenfolge durchführen"? Was sagt denn ein solcher Benchmark für den Anwender aus? Eigentlich nur, wie gut die konkrete Implementierung auf der untersuchten Hardware läuft. Aber überhaupt nichts über die Leistungsfähigkeit der Hardware selbst.

Ich will doch nicht die Leistung der Benchmark-Autoren Benchen, sondern die Leistung der Grafikkarte!

Andererseits wäre ein solcher Benchmark wie du ihn beschreibst, also mit alle Replaced und völlig auf die jeweilige HW spezialisiert ungefähr so aussagekräftig als würde man Doom3 gegen UT2004 benchen...

Und ja ich möchte wissen wie gut die HW genau ein fest definiertes Stück Code abarbeiten kann und nicht wie gut NV(oder ATI;) ) darauf hin optimieren können, indem sie einfach das ganze Stück entfernen und mit etwas anderem ersetzen, möglicherweise sogar mit vodefinierten Eregebnissen. Denn das Problem bei der ganzen Optimierungsgeschichte ist dass es nicht allgemeingültig ist, wie z.b. der Shadercompiler. Es kann alsoi passieren das man z.b. ein Spiel hat für das NV (oder ATI ;)) noch nicht optimiert hat und dass dann entsprechend grottig läuft (ist ja schon des öfteren so gewesen bei NV (nicht ATI ;)).

Jesus
2004-11-03, 13:03:21
Das ist deutlich zu ungenau formuliert, IMO.
Demnach müsstest du Chips mit unterschiedlichen Early-Z Verfahren, unterschiedlichen Rendergenauigkeiten etc.pp. schonmal prinzipiell von "Vergleichbarkeit" freisprechen.

Nein, wieso? Wenn diese in der HW integrieten Verfahren dazu beitragen dass der Benchmark schneller oder besser durchlaufen wird dann ist das genau ein Kriterium durch welches man eine HW der anderen vorziehen kann.

Quasar
2004-11-03, 13:04:22
Weil sie dann ja nicht mehr dasselbe berechnen.

Grestorn
2004-11-03, 13:20:02
Andererseits wäre ein solcher Benchmark wie du ihn beschreibst, also mit alle Replaced und völlig auf die jeweilige HW spezialisiert ungefähr so aussagekräftig als würde man Doom3 gegen UT2004 benchen...Nein, denn Doom3 und UT2004 verwenden nicht nur völlig Unterschiedliche Daten, sondern auch grundsätzlich unterschiedliche Algorithmen, selbst in Detaillösungen, die einem vergleichbaren Zweck dienen.

Meine Meinung ist, zum wiederholten Male, der Algorithmus muss unangetastet bleiben und damit auch das Ergebnis. Wie der Algorithmus von der Hardware umgesetzt wird, bleibt Sache des Treiber-Programmierers.

Der Ansatz von 3DMark 2005, die Shader bei jedem Durchlauf neu kompilieren zu lassen, geht genau in diese Richtung. Das Shaderprogramm beschreibt nur den gewünschen Algorithmus, wie der Compiler den dann in Instruktionen umsetzt, bleibt seine Sache. Und wie der Treiber wiederum die Instruktionen in Hardware-Statements umsetzt, ist wiederum dessen Angelegengeit. So lange der Algorithmus unangetastet bleibt, ist hier überhaupt nichts einzuwenden.

Und ja ich möchte wissen wie gut die HW genau ein fest definiertes Stück Code abarbeiten kann und nicht wie gut NV(oder ATI;) ) darauf hin optimieren können, indem sie einfach das ganze Stück entfernen und mit etwas anderem ersetzen, möglicherweise sogar mit vodefinierten Eregebnissen.Du unterstellst immer, das "Shaderreplacement" = "Cheaten", in der Form dass der Algorithmus eben verändert wird (vordefinierte Ergebnisse). Wenn das passiert, ist das natürlich Müll und muss verurteilt werden. Das lässt sich aber sehr einfach nachweisen (andere Szenen berechnen, andere Texturen... irgendwann muss man Unterschiede sehen). Wenn dagegen der Algorithmus erhalten bleibt, wird das Ergebnis immer korrekt aussehen, ganz egal welche Ausgangsdaten man verwendet.
Denn das Problem bei der ganzen Optimierungsgeschichte ist dass es nicht allgemeingültig ist, wie z.b. der Shadercompiler. Es kann alsoi passieren das man z.b. ein Spiel hat für das NV (oder ATI ;)) noch nicht optimiert hat und dass dann entsprechend grottig läuft (ist ja schon des öfteren so gewesen bei NV (nicht ATI ;)).Man kann es gerne als Schwachpunkt der NV-Architektur ansehen, dass sie empfindlicher auf Shader-Programme reagiert, die einen Algorithmus ungünstig implementieren.

Wäre Shaderoptimierung nicht erlaubt, würde das aber nur dazu führen, dass alle GraKa-Hersteller sich an die konkrete Architektur des Marktführeres halten müssten, da jede Innovation oder Abweichung die Gefahr bedeutet, in bestimmten Situationen schlechter dazustehen, und nichts dagegen tun zu können.
Die Spielehersteller orientieren sich, um den Aufwand in Grenzen zu halten, meist an der Architektur des Marktführeres, d.h. sie werden dessen Schwächen umgehen und dessen Stärken nutzen.

Crushinator
2004-11-03, 13:38:57
(...) Wäre Shaderoptimierung nicht erlaubt, würde das aber nur dazu führen, dass alle GraKa-Hersteller sich an die konkrete Architektur des Marktführeres halten müssten, da jede Innovation oder Abweichung die Gefahr bedeutet, in bestimmten Situationen schlechter dazustehen, und nichts dagegen tun zu können. Dieser Argumentation würde ich zustimmen können, wenn es keine höhere Spezifikation in From eines verabschiedeten Shadermodel vorläge, die mittlererweile seit mehr als einem Jahr feststeht. Wozu sind denn solche Spezifikationen da? Damit eben jedem IHV die selben Chancen zur Verfügung stehen. Die Probleme, die sich ein IHV damit einfängt sind IMHO spätestens hier heute und jetzt hauptsächlich selbstgemacht.
Die Spielehersteller orientieren sich, um den Aufwand in Grenzen zu halten, meist an der Architektur des Marktführeres, d.h. sie werden dessen Schwächen umgehen und dessen Stärken nutzen. Die Spieleentwickler halten sich IMHO hauptsächlich daran, daß das Spiel auf möglichst allen Plattformen gut aussieht und möglichst schnell läuft. Wenn man rein nach dem Marktanteil entscheiden würde, hätten wir heute nur noch Spiele, welche maximal PS 1.x verlangten.

Grestorn
2004-11-03, 13:43:51
Dieser Argumentation würde ich zustimmen können, wenn es keine höhere Spezifikation in From eines verabschiedeten Shadermodel vorläge, die mittlererweile seit mehr als einem Jahr feststeht. Wozu sind denn solche Spezifikationen da? Damit eben jedem IHV die selben Chancen zur Verfügung stehen. Die Probleme, die sich ein IHV damit einfängt sind IMHO spätestens hier heute und jetzt hauptsächlich selbstgemacht.Was hat das Shadermodell damit zu tun, wie es realisiert wird?

Ist es denn schlecht, häufig vorkommende Befehlsfolgen nach möglichkeit zu parallelisieren? Wie genau was parallelisiert werden kann/soll ist im Shadermodell ja nicht festgeschrieben...

Crushinator
2004-11-03, 13:55:16
Was hat das Shadermodell damit zu tun, wie es realisiert wird? Ganz einfach, wenn man die Hardware nach dem Shadermodell entwirft, was man ja tut, kann man kaum mehr davon sprechen, daß die eigene Architektur benachteiligt werden könnte.
Ist es denn schlecht, häufig vorkommende Befehlsfolgen nach möglichkeit zu parallelisieren? Wie genau was parallelisiert werden kann/soll ist im Shadermodell ja nicht festgeschrieben... Es ist nicht schlecht. Daß es aber erst nach Veröffentlichung von Titeln geschieht und oft nur diesen Titeln zu gute kommt vermittelt das Gefühl, daß entweder der Shadercompiler oder die Architektur den eigenen Empfehlungen, wie man Shader schreiben soll, von Haus aus nicht optimal gerecht würde, was mir ehrlich gesagt sehr suspekt vorkäme.

Quasar
2004-11-03, 13:58:05
Ganz einfach, wenn man die Hardware nach dem Shadermodell entwirft, was man ja tut, kann man kaum mehr davon sprechen, daß die eigene Architektur benachteiligt werden könnte.
Das ist teilweise aber wohl etwas anders abgelaufen. Zeitlich "nach" wäre auch etwas knapp, um mit dem Design zu beginnen.

Grestorn
2004-11-03, 14:02:04
Ganz einfach, wenn man die Hardware nach dem Shadermodell entwirft, was man ja tut, kann man kaum mehr davon sprechen, daß die eigene Architektur benachteiligt werden könnte.Entschuldige, die Architektur eine Grafikkarte wird sich zwar sícherlich daran orientieren, die Anforderungen des Shadermodells umsetzen zu können.

Das Shadermodell gibt aber in keinster Weise vor, wie die Architektur im Detail auszusehen hat, oder gar wie man bestimmte Dinge parallelisieren kann. Das Shadermodell gibt doch lediglich vor, welche Funktionen die Hardware zu erfüllen hat, aber nicht wie sie das realisiert.

Crushinator
2004-11-03, 14:11:38
(...) Das Shadermodell gibt aber in keinster Weise vor, wie die Architektur im Detail auszusehen hat, oder gar wie man bestimmte Dinge parallelisieren kann. Das Shadermodell gibt doch lediglich vor, welche Funktionen die Hardware zu erfüllen hat, aber nicht wie sie das realisiert. Entschuldige bitte, aber wenn das SM vorgibt, welche Funktionen eine Hardware zu erfüllen hat, sollte es selbstverständlich sein, daß man sich beim HW-Design darum bemühen muß diese Funktionen im Detail außerordentlich schnell ausführen zu können, denn diese relativ abstrakten Funktionen sind genau dafür da, um von Entwicklern benutzt zu werden, und diese tun in Zeiten von HLSL nichts anderes.

Grestorn
2004-11-03, 14:22:25
Entschuldige bitte, aber wenn das SM vorgibt, welche Funktionen eine Hardware zu erfüllen hat, sollte es selbstverständlich sein, daß man sich beim HW-Design darum bemühen muß diese Funktionen im Detail außerordentlich schnell ausführen zu können, denn diese relativ abstrakten Funktionen sind genau dafür da, um von Entwicklern benutzt zu werden, und diese tun in Zeiten von HLSL nichts anderes.Ich denke, HLSL war auch nie das Problem der NV Hardware.

Low-Level Shader-Instruktionen sind alles andere als abstrakt und müssen richtig angewendet werden, damit die auf der Hardware optimal laufen. Und wenn ich richtig informiert bin, treten die NV3x Probleme bei Spielen / Benchmarks auf, die eben nicht HLSL verwenden (also derzeit praktisch alles außer 3DM2k5).

HLSL ist derart abstrakt, dass es doch ohnehin völlig widersinnig ist, überhaupt von Shaderreplacement zu sprechen, da nie irgendjemand festlegen kann, wie der Shader, der an den Treiber geliefert wird, eigentlich auzusehen hat, geschweige denn, was der Treiber daraus für Hardware-Statements erzeugt.

Erneut: Es kommt auf den Algorithmus an (der in HLSL relativ abstrakt beschrieben ist) und nicht auf dessen exakte Umsetzung in eine bestimmte Reihenfolge von Hardware-Primitiven.

Demirug
2004-11-03, 14:23:40
Entschuldige bitte, aber wenn das SM vorgibt, welche Funktionen eine Hardware zu erfüllen hat, sollte es selbstverständlich sein, daß man sich beim HW-Design darum bemühen muß diese Funktionen im Detail außerordentlich schnell ausführen zu können, denn diese relativ abstrakten Funktionen sind genau dafür da, um von Entwicklern benutzt zu werden, und diese tun in Zeiten von HLSL nichts anderes.

Nur dumm das die Shadermodele bisher immer erst festgelegt wurden (SM 3.0 ist da ein Grenzfall) nachdem die IHVs ihre Designs schon fertig hatten. Oder glaubst du ernsthaft das nVidia beim NV30 dermassen an den Anforderungen von SM2.0 vorbeientwickelt hätte wenn sie von Anfang an gewusst hätten wie SM 2.0 aussehen wird?

reunion
2004-11-03, 14:24:59
Unspielbar ist es, soweit ich das gesehen habe, nicht.


Nicht?

http://www.xbitlabs.com/images/video/farcry13/research_hdr.gif

http://www.xbitlabs.com/articles/video/display/farcry13_7.html

Grestorn
2004-11-03, 14:29:48
Nicht?
In 1280x1024 und 8xAF kann man es "brauchbar" mit HDR spielen. Ist nicht perfekt und in bestimmten Situationen bricht die Framerate merkbar ein, aber unspielbar ist anders.

Einen MP Shooter würde ich so freilich nicht spielen. FarCry wohl auch nicht, aber ein Rollenspiel allemal. EQ2 ist oft nicht viel schneller... :)

Crushinator
2004-11-03, 14:30:10
Nur dumm das die Shadermodele bisher immer erst festgelegt wurden (SM 3.0 ist da ein Grenzfall) nachdem die IHVs ihre Designs schon fertig hatten. Oder glaubst du ernsthaft das nVidia beim NV30 dermassen an den Anforderungen von SM2.0 vorbeientwickelt hätte wenn sie von Anfang an gewusst hätten wie SM 2.0 aussehen wird?
Wir sprechen über Fakten. Diese sagen uns, daß es nunmal so gelaufen ist wie es gelaufen ist, woran das auch immer gelegen hat. Daß die Architektur eines IHV in der Entwurfphase des SM auf etwas anderes festgelegt war kann zwar als Pech für diesen angesehen werden, die Argumentation aber, daß der damalige Marktführer hätte zwingend beim Entwurf eines Shadermodells bevorzugt werden müssen, halte ich für eben so problematisch.

Grestorn
2004-11-03, 14:38:38
...die Argumentation aber, daß der damalige Marktführer hätte zwingend beim Entwurf eines Shadermodells bevorzugt werden müssen, halte ich für eben so problematisch.Das hat auch niemand geschrieben.

Ich habe nicht vom Entwurf von Shadermodellen geschrieben sondern davon, dass ein Hardwarehersteller eine neues Modell entwickelt. Dieser wäre dann, um in keine Performance-Fallen zu laufen, gezwungen, die Architektur des derzeitigen Marktführers nachzubauen, wenn man zugleich unterstellt, dass es nicht möglich oder erlaubt ist, die existierenden Shaderprogramme durch Umstellungen mit Hilfe des Compilers & Treibers an seine neue Architektur anzupassen.

Quasar
2004-11-03, 14:41:24
Wir sprechen über Fakten. Diese sagen uns, daß es nunmal so gelaufen ist wie es gelaufen ist, woran das auch immer gelegen hat. Daß die Architektur eines IHV in der Entwurfphase des SM auf etwas anderes festgelegt war kann zwar als Pech für diesen angesehen werden, die Argumentation aber, daß der damalige Marktführer hätte zwingend beim Entwurf eines Shadermodells bevorzugt werden müssen, halte ich für eben so problematisch.

Dieses Faktum, was du auf der letzten Seite schriebst, ist aber falsch. Es steht nicht das SM festgemauert in der Erden wie einst Schillers Glocke und die IHVs beginnen dann erst, ihre GPUs drumherum zu designen. Um 'rechtzeitig' am Markt zu sein geht das wohl nicht mehr anders. :(

Demirug
2004-11-03, 14:43:20
Wir sprechen über Fakten. Diese sagen uns, daß es nunmal so gelaufen ist wie es gelaufen ist, woran das auch immer gelegen hat. Daß die Architektur eines IHV in der Entwurfphase des SM auf etwas anderes festgelegt war kann zwar als Pech für diesen angesehen werden, die Argumentation aber, daß der damalige Marktführer hätte zwingend beim Entwurf eines Shadermodells bevorzugt werden müssen, halte ich für eben so problematisch.

Wo behaupte ich den das MS hätte nVidia bevorzugen müssen? Hätte MS das nVidia Model 1 zu 1 übernommen hätte ATI ja gar keine DX9/SM2 Hardware gehabt.

Mir ging es lediglich darum das zum Zeitpunkt des Hardwaredesigns der ersten DX9 Generation kein verbindliches DX Shadermodel vorhanden war an dem man sich hätte orientieren können.

Aber lassen wir das mal aussen vor. Das Shadermodel beschreibt ja nur was gehen muss ohne jede Aussage über die Leistung. Wenn nun ein IHV beim Design bestimmten Shader Operationen leistungstechnisch bevorzugt dann hat das entsprechenden auswirkungen bei Shader welche eben vermehrt solche Anweisungen nutzen. nVidia hat zum Beispiel schon immer einen Hang dazu mehr Multiplikations als Additions Leistung zu verbauen.

Das alles soll jetzt allerdings keine Shaderreplacements rechtfertigen. Im Bezug auf die Leistung gibt nVidia inzwischen sowieso an das Shaderreplacements in den meisten Fällen keine signifikante Mehrleistung gegenüber den Shadercompiler mehr erreichen (Aussnahme D3 weil die Optimierung zu komplex für den Compiler sei). Sonstige Replacements die noch vorhanden sind sollen im wesentlichen Bugfixes für kaputte Shader sein.

Crushinator
2004-11-03, 14:49:38
Wie ich bereits oft geschrieben habe, spricht nichts dagegen den Compiler für alle Anwendungen zu optimieren. Auch gegen Bugfixes spräche meinerseits nichts. Daß es aber einem IHV nicht möglich gewesen sein soll, spätestens im September des Jahres 2002 anhand der SM-Spezifikationen zu erkennen, daß für 2004 ein völlig anderes HW-Design erforderlich sei, halte ich für eine sehr gewagte Aussage.

Demirug
2004-11-03, 15:00:41
Wie ich bereits oft geschrieben habe, spricht nichts dagegen den Compiler für alle Anwendungen zu optimieren. Auch gegen Bugfixes spräche meinerseits nichts. Daß es aber einem IHV nicht möglich gewesen sein soll, spätestens im September des Jahres 2002 anhand der SM-Spezifikationen zu erkennen, daß für 2004 ein völlig anderes HW-Design erforderlich sei, halte ich für eine sehr gewagte Aussage.

nVidia braucht mindestens 18 Monate von ersten Gedanken bis zum Chip (bei ATI liegt es ähnlich wobei die keine genauen Zahlen rausrücken wollten). Der NV40 wurde dabei ja entsprechend den DX9 Anforderungen angepasst. Aus der Spec kann man aber trotzdem nicht entnehmen welche der spezifizierten Shaderfunktionen in welchen Kombinationen besonders häufig in Spielen genutzt werden. Genau dafür macht es jedoch Sinn die Hardware besonders dafür auszulegen. Man muss also weiterhin als IHV raten wie das Anforderungsprofil an die Hardware aussehen wird. Gute Beziehungen zu den Entwicklern können dieses Ratespiel natürlich vereinfachen bzw kann man diese dann leichter davon überzeugen die Shader so zu schreiben das die Funktionskombinationen nutzen welche der eigenen Hardware gefallen.

aths
2004-11-03, 15:10:03
Der Vergleich hinkt - wie so viele Vergleiche.

Eine konstante Zahl PI ist nicht das selbe Ergebnis, wie eine berechnete Zahl PI, da der Algorithmus ja jederzeit in der Lage ist, weitere Stellen zu berechnen, was die konstante Zahl, die immer durch den Speicher begrenzt ist, niemals leisten kann.Wenn es einen Benchmark gibt, von dem bekannt ist, was genau er berechnet, kann man das Ergebnis hinterlegen. Handoptimiertes Shaderreplacement ersetzt einen Shader durch einen anderen, der mit weniger Rechenoperationen zum Ziel kommt. Diese Optimierung ist bei Doom nicht auf die allgemeine treiberseitige Shaderoptiimerung zurückzuführen, sondern darauf, dass ein paar Experten den Shader untersucht und exakt für diesen Shader eine handoptimierte bessere Variante im Treiber hinterlegen. Das Problem besteht darin, dass das nicht der Intention des Programmierers entspricht und der Kunde über die wahre Leistungsfähigkeit des Produktes (Hardware mit den Treibern) getäuscht wird.

Das angesprochene problematische Shaderreplacement nutzt vorberechnete Daten aus dem Treiber, um Benchmarks zu verfälschen. Solches Gebaren ist inakzeptabel.


Der Treiber erkennt die Reihenfolge eines "Kommandos" weil NV dieses im Vorfeld App.spezifisch untersucht hat und diese Reihenfolge von Hand ersetzt mit etwas "anderem".Wenn das der Shaderkompiler könnte dann müssten wir kein Shaderreplacement machen.

Solange es um logische Vereinfachungen geht, ist alles ok - das ist der Job des Compilers. Wenn allerdings ganze Codesegmente erkannt, ausgetauscht und durch von hand modifizierte ersetzt werden sieht die Sache schon wieder ganz anders aus.Auch ATI nutzt Shader Replacement.

Crushinator
2004-11-03, 15:13:26
Dieses Faktum, was du auf der letzten Seite schriebst, ist aber falsch. Es steht nicht das SM festgemauert in der Erden wie einst Schillers Glocke und die IHVs beginnen dann erst, ihre GPUs drumherum zu designen. Um 'rechtzeitig' am Markt zu sein geht das wohl nicht mehr anders. :(Ich freue mich als Endverbraucher ehrlich gesagt über das, was passiert ist und würde es zum K... finden, wenn ich nächstes Jahr beim GraKa-Kauf nur noch die Hardware eines einzigen IHV zur Wahl hätte, weil der andere entweder technologisch oder Speedmäßig nicht hinterher käme. Von mir aus dürften es noch ein paar mehr IHVs werden.
(...) Gute Beziehungen zu den Entwicklern können dieses Ratespiel natürlich vereinfachen bzw kann man diese dann leichter davon überzeugen die Shader so zu schreiben das die Funktionskombinationen nutzen welche der eigenen Hardware gefallen. Amen, das würde ich deutlich besser finden als Shaderreplacements, aber auch das schrieb ich bereits. :)
Auch ATI nutzt Shader Replacement. Dafür sollte man sie zwölfteilen. ;(

aths
2004-11-03, 15:19:24
Nicht?Senk den AF-Grad und die Frameraten steigen auf ein für mich spielbares Maß.

Demirug
2004-11-03, 15:21:55
Amen, das würde ich deutlich besser finden als Shaderreplacements, aber auch das schrieb ich bereits. :)

Sicher ist das besser. Es soll nun aber auch mal vorkommen das ein ISV der Meinung ist das sie keine Zeit/Lust mehr haben ein Problem zu lösen und dann zu den IHV sagen das sie das im Treiber fixen sollen.

Erschwerend kommt dann natürlich noch hinzu das ein ISV am liebsten natürlich nur einen Shader für alle Karten haben will. Da profitiert dann häufig eher die primäre Entwicklungshardware davon.

Aber ich denke wir sind uns einig das wir beide keine Freunde von Replacementshadern sind.

reunion
2004-11-03, 15:25:53
Senk den AF-Grad und die Frameraten steigen auf ein für mich spielbares Maß.

Toll, oder man verzichtet auf HDR und kann dafür vermutlich sogar mit 8xS AA spielen.

Coda
2004-11-03, 15:33:54
Es wird eh die Zeit kommen in der Spiele soviele unterschiedliche Shaderkombinationen haben, das ein Shaderreplacement einfach nicht mehr machbar ist, vor allem wenn die Shader dann auch noch von den Artists dynamisch bestimmt werden.

Bei den CPUs geht es doch auch, und die haben viel weniger Zeit den Code für sich anzupassen.

Demirug
2004-11-03, 15:37:06
Es wird eh die Zeit kommen in der Spiele soviele unterschiedliche Shaderkombinationen haben, das ein Shaderreplacement einfach nicht mehr machbar ist, vor allem wenn die Shader dann auch noch von den Artists dynamisch bestimmt werden.

Soweit sind wir eigentlich ja schon. Bei Farcry und Source Engine Spielen ist die Anzahl schon so hoch das man mit Replacements da nicht mehr wirklich weiterkommt.

Bei den CPUs geht es doch auch, und die haben viel weniger Zeit den Code für sich anzupassen.

Ist IMHO nicht ganz vergleichbar weil eben das gleiche kurze Programm nicht sehr häufig angewendet wird. Da fällt ein Unterschied von einem Takt mehr oder weniger nicht so sehr auf.

Quasar
2004-11-03, 15:45:30
Ich freue mich als Endverbraucher ehrlich gesagt über das, was passiert ist und würde es zum K... finden, wenn ich nächstes Jahr beim GraKa-Kauf nur noch die Hardware eines einzigen IHV zur Wahl hätte, weil der andere entweder technologisch oder Speedmäßig nicht hinterher käme. Von mir aus dürften es noch ein paar mehr IHVs werden.

Von mir aus auch - es sind ja schon "ein paar mehr", aber leider eben so klein, daß sie sich eine "FX" nicht leisten könnten und damit zur Verspätung verdammt sind, weil sie evtl. wirklich erst mit dem Designen anfangen, wenn die Spec fest ist.

Ich persönlich fände es besser, wenn 'das, was passiert ist' ohne den Einfluss von Big M zustande gekommen wäre - so hat das einen äußerst faden Beigeschmack (nicht zu Lasten ATis, sondern betreffs meiner Paranoia bezgl. Big M).

ironMonkey
2004-11-03, 16:00:43
Toll, oder man verzichtet auf HDR und kann dafür vermutlich sogar mit 8xS AA spielen.


Wenn ich mir die Bilder so anschaue, würde ich da ohne probleme auf AF und AA verzichten können und dann sollte es in 1024er oder 1280er Auflösung durchaus gut Spielbbar sein.

Crushinator
2004-11-03, 16:04:57
(...) Ich persönlich fände es besser, wenn 'das, was passiert ist' ohne den Einfluss von Big M zustande gekommen wäre - so hat das einen äußerst faden Beigeschmack (nicht zu Lasten ATis, sondern betreffs meiner Paranoia bezgl. Big M). Mir auch. Aber seien wir ehrlich, die beiden großen IHV sind im OpenGL-Gremium offiziell vertreten und schaffen es trotzdem nicht, diese Schnittstelle schneller voranzutreiben als Big M es mit d3d tut. Sie sind selbst an der Situation schuld, was man ihnen auch nicht vorwerfen kann, denn es sind HW-Hersteller die sich natürlicherweise immer als Konkurrenten sehen und sich deshalb nicht wirklich schnell über herstellerunabhängige Modelle/Funktionen/Ziele einig werden.

Jesus
2004-11-03, 16:13:02
Nur dumm das die Shadermodele bisher immer erst festgelegt wurden (SM 3.0 ist da ein Grenzfall) nachdem die IHVs ihre Designs schon fertig hatten. Oder glaubst du ernsthaft das nVidia beim NV30 dermassen an den Anforderungen von SM2.0 vorbeientwickelt hätte wenn sie von Anfang an gewusst hätten wie SM 2.0 aussehen wird?

Lag das nicht daran das NV teilw. aus dem DX Developerprogram ausgestiegen waren aufgrund von verschiedenen Diffferenzen mit MS ? Und dass sie stattdessen ihre HW von Anfang an eher nach den Vorstellungen von JC entworfen haben ( FP32 ...etc ) ?

aths
2004-11-03, 16:47:27
Toll, oder man verzichtet auf HDR und kann dafür vermutlich sogar mit 8xS AA spielen.Toll, oder man verzichtet aufs AA und kann sogar mit HDR-Lighting spielen, einem Grafikeffekt, den es in Spielen noch nie echtzeitberechnet gab.

Demirug
2004-11-03, 16:51:01
Lag das nicht daran das NV teilw. aus dem DX Developerprogram ausgestiegen waren aufgrund von verschiedenen Diffferenzen mit MS ? Und dass sie stattdessen ihre HW von Anfang an eher nach den Vorstellungen von JC entworfen haben ( FP32 ...etc ) ?

Ja es gab differenzen zwischen MS und nVidia aus dem DX Programm ist nV deswegen aber nicht ausgestiegen. Sie haben sich nur einmal geweigert eine NDA zu unterschreiben was aber letzten Endes keine Grossartigen auswirkungen hatte.

nVidia hat den NV30 so gebaut wie sie sich die nächste Generation eben vorgestellt haben. Vom NV20 kommend war der NV30 auch der nächste logische Schritt. Von FP32 konnten sie ja nicht weg nachdem schon der NV20 damit gerechnet hat. Aber das hatten wir ja alles schon mal. MS hat das Konzept eben nicht gefallen und nVidia das nachsehen.

aths
2004-11-03, 16:53:45
Lag das nicht daran das NV teilw. aus dem DX Developerprogram ausgestiegen waren aufgrund von verschiedenen Diffferenzen mit MS ? Und dass sie stattdessen ihre HW von Anfang an eher nach den Vorstellungen von JC entworfen haben ( FP32 ...etc ) ?In seiner berühmten Kolumne hat er nur 16 Bit gefordert, iirc inkl. RGBA 10-10-10-2 Framebuffer.

Jesus
2004-11-03, 17:12:52
Toll, oder man verzichtet aufs AA und kann sogar mit HDR-Lighting spielen, einem Grafikeffekt, den es in Spielen noch nie echtzeitberechnet gab.

Also nochmal, man verzichtet auf AA, schraubt die Auflösung runter und das AF damit man gerade noch so spielen kann und einen tollen Effekt sieht - hört sich nach ner 100 Euro billig Graka an, aber nicht nach dem 500 Euro Flagschiff von NV.

betasilie
2004-11-03, 17:35:20
Also nochmal, man verzichtet auf AA, schraubt die Auflösung runter und das AF damit man gerade noch so spielen kann und einen tollen Effekt sieht - hört sich nach ner 100 Euro billig Graka an, aber nicht nach dem 500 Euro Flagschiff von NV.
Ack. Wer einen NV40 hyped, um dann in 1024*768 ohne AA und AF zu zocken, fährt imho den falschen Film.

aths
2004-11-03, 17:37:49
Also nochmal, man verzichtet auf AA, schraubt die Auflösung runter und das AF damit man gerade noch so spielen kann und einen tollen Effekt sieht - hört sich nach ner 100 Euro billig Graka an, aber nicht nach dem 500 Euro Flagschiff von NV.Nee, anbetrachts der Situation dass die Konkurrenz den Effekt gleich gar nicht mehr in Echtzeit rendern kann, muss eine Karte die das überhaupt kann, ziemlich modern sein.

Ack. Wer einen NV40 hyped, um dann in 1024*768 ohne AA und AF zu zocken, fährt imho den falschen Film.... und mit HDR-Lighting, wofür R420 zu schwach ist, ...

LovesuckZ
2004-11-03, 17:40:02
Also nochmal, man verzichtet auf AA, schraubt die Auflösung runter und das AF damit man gerade noch so spielen kann und einen tollen Effekt sieht - hört sich nach ner 100 Euro billig Graka an, aber nicht nach dem 500 Euro Flagschiff von NV.

Nun, im gegensatz zu dem freidenken NV40 User, muss der eingeengte R420 Kaeufer ohne HDR leben.
Ist natuerlich kein Poblem, da er sowieso auf Qualitaet keinen Wert legt.
Aber es gibt Leute, die wollen die Wahl haben und da ist die 100€ "billig Graka" eben besser als eine 500€ Steinzeitkarte.
Aber warum wundert es mich nicht, dass Leute, die HDR noch nicht in farcry 1.3 benutzen konnten, diesen effekt schon im vornerein abstempeln.
Toleranz? Ja, solange wie mein geliebter IHV bevorzugt wird...

Jesus
2004-11-03, 17:40:17
Nee, anbetrachts der Situation dass die Konkurrenz den Effekt gleich gar nicht mehr in Echtzeit rendern kann, muss eine Karte die das überhaupt kann, ziemlich modern sein.

sorry, aber selbst wenn ich jetzt einen NV40 hätte würde ich diesen Effekt viellicht einmal zum anschauen aktivieren, mehr aber nicht, weils einfach zu lahm ist und ich lieber in höherer Auflösung mit AA und AF spielen möchte (und mit mehr FPS).


Toleranz? Ja, solange wie mein geliebter IHV bevorzugt wird...

Da sprichst du mir aus der Seele. :rolleyes:

... und mit HDR-Lighting, wofür R420 zu schwach ist, ...

Nein weil er gar kein OpenEXR kann. Zu schwach dafür ist der NV40 allerdings ebenfalls wie man unschwer erkennen kann.

betasilie
2004-11-03, 17:52:04
... und mit HDR-Lighting, wofür R420 zu schwach ist, ...
Der NV40 kann HDR? Seit wann das? Irgendjemand propagiert hier immer was von MDR.

Und dass der NV40 für die in FarCry verwendete HDR-Methode zu schwach ist, kann wohl jeder sehen. ;D ...

Aber schon klar aths; den Leuten sind Auflösung, Filter und fps total schnuppe. :uclap:

LovesuckZ
2004-11-03, 17:54:00
Da sprichst du mir aus der Seele. :rolleyes:


Nun, im gegensatz zu einigen kann ich wenigsten auch ohne meine Brille Dinge erkennen (gell 3dc Verteidiger...).
Aber vielleicht gehe ich das auch vollkommen falsch an, und versuche nur noch pro nvidia zu argumentieren (gell ATi Verteidiger...).
Eine richtige Diskussion (so schoen mit Argumenten und Beispiele) ist in diesem Forum sowieso nicht mehr moeglich (oder es liegt nur an meinem Leistungskurs Deutsch und des Lernen vom Diskutieren ...).

Es ist schade, dass Leute so dermaßen auf Nvidia rumhacken muessen, weil sie in einigen bereichen besser sind, dass es schon keinen Spass mehr macht. Dann kommen vollkommen widerspruechliche Argumentationsketten, Luegen und das Verteidigen des eigenen geliebten IHV.
Ob es wegen dem Sm3.0 oder HDR Lighting: Für einige scheint der Sinn nur darin zu bestehen, diese Features schlecht zu reden, zu diskriminieren. Richtige Argumente, die wirklich stichhaltig sind, kommen nicht. Mein Deutschlehrer würde sich im grabe umdrehen, wenn er schon tot waere...
Achja, bevor nun einer kommt: Euch steht es frei mir Zitate an den kopf zu werfen, wo ich ATi's einzigen Featurevorteil "3dc" so dermaßen in den Dreck ziehe, wie es gewissen Leute bei Nvidia tun.

DanMan
2004-11-03, 18:00:49
Also nochmal, man verzichtet auf AA, schraubt die Auflösung runter und das AF damit man gerade noch so spielen kann und einen tollen Effekt sieht - hört sich nach ner 100 Euro billig Graka an, aber nicht nach dem 500 Euro Flagschiff von NV.
Die gleiche Situation hatten wir vor ein paar Jahren schonmal, als man ebenfalls die Auflösung heruntersetzte, um hohe AA und AF Modi nutzen zu können. Just a little bit of history repeating... Wer das jetzt anprangert ist extrem kurzsichtig, und hat den Blick für das große Ganze verloren IMO. Alles nix ausergewöhnliches.

Und ausserdem: alles Off-topic (wo is der Smilie dafür hin?).

LovesuckZ
2004-11-03, 18:27:29
Und ausserdem: alles Off-topic (wo is der Smilie dafür hin?).

Wo sollte dies sonst ausdiskutiert werden?
Da die Moderation es ja für noetig haelt, Kriegsschauplaetze einfach zu schließen, verlagern sich diese.
Selbst im Teamseminar wurde uns vermitteln, dass man eine Diskussion nicht einfach "abbrechen" sollte, da der Bedarf danach noch weiter besteht.
Es ist asuserdem absolut daneben, Thread aus eigenem Inetresse ("och, dass Thema langweilt mich") zu schließen.
Ein Schließen von Threads sollte sowieso nur im aeußerten Fall vorgenommen werden und nicht nur deswegen, weil ein moderator seine Macht ausueben will ("guck an, was ich alles kann")...

Gast
2004-11-03, 18:28:34
Aber schon klar aths; den Leuten sind Auflösung, Filter ...

ja das ist ati usern schnuppe, schlieslich ging hier die pfuscherrei mit gecheateten filtereinstellungen los *g

Tigerchen
2004-11-03, 18:40:20
Nun, im gegensatz zu einigen kann ich wenigsten auch ohne meine Brille Dinge erkennen (gell 3dc Verteidiger...).
Aber vielleicht gehe ich das auch vollkommen falsch an, und versuche nur noch pro nvidia zu argumentieren (gell ATi Verteidiger...).
Eine richtige Diskussion (so schoen mit Argumenten und Beispiele) ist in diesem Forum sowieso nicht mehr moeglich (oder es liegt nur an meinem Leistungskurs Deutsch und des Lernen vom Diskutieren ...).

Es ist schade, dass Leute so dermaßen auf Nvidia rumhacken muessen, weil sie in einigen bereichen besser sind, dass es schon keinen Spass mehr macht. Dann kommen vollkommen widerspruechliche Argumentationsketten, Luegen und das Verteidigen des eigenen geliebten IHV.
Ob es wegen dem Sm3.0 oder HDR Lighting: Für einige scheint der Sinn nur darin zu bestehen, diese Features schlecht zu reden, zu diskriminieren. Richtige Argumente, die wirklich stichhaltig sind, kommen nicht. Mein Deutschlehrer würde sich im grabe umdrehen, wenn er schon tot waere...
Achja, bevor nun einer kommt: Euch steht es frei mir Zitate an den kopf zu werfen, wo ich ATi's einzigen Featurevorteil "3dc" so dermaßen in den Dreck ziehe, wie es gewissen Leute bei Nvidia tun.

Ich finde es ziemlich frech das du andere Leute als Lügner bezeichnest. Lernt man daß im Leistungskurs Deutsch? Was können wir dafür daß der nV40 noch nicht genug Power hat um diese Effekte schnell darstellen zu können. Das Problem bei SM 3.0/HDR ist, dass es als Erstimplementierung eines Features noch suboptimal und im Anwendungsbereich stark eingeschränkt ist.

Crushinator
2004-11-03, 19:15:31
Wo sollte dies sonst ausdiskutiert werden?
Da die Moderation es ja für noetig haelt, Kriegsschauplaetze einfach zu schließen, verlagern sich diese. Darf man das so verstehen, daß Du einen Kriegsschauplatz suchst?
Selbst im Teamseminar wurde uns vermitteln, dass man eine Diskussion nicht einfach "abbrechen" sollte, da der Bedarf danach noch weiter besteht. Der Bedarf an Kriegsschauplätzen ist in diesem Forum aber gar nicht gegeben.
Es ist asuserdem absolut daneben, Thread aus eigenem Inetresse ("och, dass Thema langweilt mich") zu schließen. Ein Schließen von Threads sollte sowieso nur im aeußerten Fall vorgenommen werden und nicht nur deswegen, weil ein moderator seine Macht ausueben will ("guck an, was ich alles kann")... Völlig richtig, wenn man sich aber anschaut, wessen Beiträge von Membern gemeldet werden, weil sie nicht nur als diskussionsuntauglich eingestuft werden, muß man irgendwie handeln. Der eine bestraft den einzelnen User mit Punkten, und der andere hält den Thread oder die Gesamtsituation innerhalb des Thread für die Ursache und macht deshalb den Thread dicht. Im übrigen schreibe ich diesen Text in Modschrift, weil Deine letzten Beiträge nicht nur von mir als hauptsächlich provozierend eingestuft wurden sondern laut "Meldungen" auch von anderen.

Ich erspare uns allen den ellenlangen Text mit Verweis auf das geeignetere Forum, wo man die Moderation ggf. kritisieren kann.

mapel110
2004-11-03, 19:38:49
Ack. Wer einen NV40 hyped, um dann in 1024*768 ohne AA und AF zu zocken, fährt imho den falschen Film.

in Farcry haben nv40 user aber die Wahl, hohe Auflösung, AA und AF zu nutzen, oder eben HDR.

Wer einen R420 hyped, um dann in 1600x1200 mit 16AF und 6AA zu zocken, ohne aber die Möglichkeit zu haben(mit seiner 500 € karte), die Leistung in HDR zu stecken, fährt imo im falschen Film. :)

betasilie
2004-11-03, 20:11:27
in Farcry haben nv40 user aber die Wahl, hohe Auflösung, AA und AF zu nutzen, oder eben HDR.

Wer einen R420 hyped, um dann in 1600x1200 mit 16AF und 6AA zu zocken, ohne aber die Möglichkeit zu haben(mit seiner 500 € karte), die Leistung in HDR zu stecken, fährt imo im falschen Film. :)
Nun, ATI kann ja HDR, halt nur nicht die derzeit völlig langsame Methode aus FarCry. :)

Demirug
2004-11-03, 20:12:59
Ich würde die HDR Implementierung von Farcry jetzt auch nicht als Beispiel für alle HDR Implementierungen heranziehen. Das ganze scheint mir soweit ich es mir bisher angeschaut habe doch etwas mit der heisen Nadel gestrickt worden zu sein. So werden da massenhaft "DrawPrimitiveUP" Anweisungen benutzt die als sehr CPU lastig bekannt sind. Ich werde am Wochenende mal der Performancemonitor ansetzten um zu schauen wo es primär am meisten hängt.

aths
2004-11-03, 20:16:26
Der NV40 kann HDR? Seit wann das? Irgendjemand propagiert hier immer was von MDR.

Und dass der NV40 für die in FarCry verwendete HDR-Methode zu schwach ist, kann wohl jeder sehen. ;D ...

Aber schon klar aths; den Leuten sind Auflösung, Filter und fps total schnuppe. :uclap:Dir sind neue Effekte bei spielbarer Performance, solange sie auf ATI-Hardware nicht zu sehen sind, total schnuppe :uclap:

HDR "nach meiner Definition" kann schon NV30, allerdings nicht der R420. NV40 kann MDR mit dedizierten Einheiten erheblich beschleunigen.


Nein weil er gar kein OpenEXR kann. Zu schwach dafür ist der NV40 allerdings ebenfalls wie man unschwer erkennen kann.OpenEXR "können"? OpenEXR definiert bestimmte Datenformate, und ich glaube schon, dass R420 (wie R300) OpenEXR-kompatible FP16-Texturen lesen kann.

aths
2004-11-03, 20:19:10
Nun, ATI kann ja HDR, halt nur nicht die derzeit völlig langsame Methode aus FarCry. :)Mit anderen Methoden wäre der NV40 noch langsamer, und der R420 nicht schneller :)

Demirug
2004-11-03, 20:22:41
Nun, ATI kann ja HDR, halt nur nicht die derzeit völlig langsame Methode aus FarCry. :)

Stimmt, wenn man bei ATI Alphablendig im FP Buffer braucht (im Falle von Farcry für das Wasser, für die Details auf Boden und Wänden, Schatten) müsste man das noch langsamere Ping-Pong Verfahren benutzen.

Alternativ braucht man generische Killershader welche alles in einem Pass rendern können. Der R300 wäre da gleich KO mit dem R420 sollte es besser gehen. Wobei die Cryengine für sowas IMHO gar nicht ausgelegt ist.

Demirug
2004-11-03, 20:27:50
OpenEXR "können"? OpenEXR definiert bestimmte Datenformate, und ich glaube schon, dass R420 (wie R300) OpenEXR-kompatible FP16-Texturen lesen kann.

Wobei das für das "HDR" von Farcry völlig irrlevant ist. Es werden ja lediglich FP16 Rendertargets benutzt und dann verrechnet. "Richtige" FP16 Texturen im EXR Format kommen ja gar nicht zum Einsatz.

Quasar
2004-11-03, 20:30:19
Nichtmal ein 64Bit FB?

betasilie
2004-11-03, 20:30:24
Dir sind neue Effekte bei spielbarer Performance, solange sie auf ATI-Hardware nicht zu sehen sind, total schnuppe :uclap:
Nein. Ich bin total heiß darauf FarCry mit HDR mal anzugucken bei einem Freund mit 6800Ultra. Aber schnuppe sind mir neue Effekte, wenn ich dadurch nur noch in 800*600 oder 1024*786 ohne AA und AF zocken kann.

So sehr ich neue Technologien mag, aber sie müssen in moderaten Auflösungen und Filterstufen spielbar sein.

HDR "nach meiner Definition" kann schon NV30, allerdings nicht der R420.
Tja, aber zum Glück ist deine Welt der Definitionen nicht allgemein gültig. Aber irgendwie war mir klar, dass Du nur das NV-HDR mit 64bit Framebuffer als HDR definierst.

Schreib doch mal den ganzen Leuten aus der 3D-Branche, dass die jetzt nur noch NVs HDR HDR nenen dürfen. Die werden sich freuen den aths´schen Sprach-Standards zu lauschen. :rolleyes:

Man sieht ja wie förmlich wie Du dich auf dieses crappy und inoffizielle HDR in FarCry wirfst, nur um den Leuten zu sagen: Schaut hier, dass kann ATI nicht. - So einen Tunnelblick habe ich von dir nicht erwartet. Das enttäuscht mich sehr.

Wir werden noch genug Spiele mit HDR sehen, wo ggf. sogar die ATIs weit vor den NVs liegen. http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTgmdXJsX3BhZ2U9MTY=

betasilie
2004-11-03, 20:31:42
OpenEXR "können"? OpenEXR definiert bestimmte Datenformate, und ich glaube schon, dass R420 (wie R300) OpenEXR-kompatible FP16-Texturen lesen kann.
Glaubst Du oder weißt Du? Demirug hat afair geschrieben, dass das HDR in FarCry auf den ATI-Karten nicht läuft, weil diese OpenEXR-kompatible FP16-Texturen nicht mit HDR verarbeiten können.

betasilie
2004-11-03, 20:35:14
Stimmt, wenn man bei ATI Alphablendig im FP Buffer braucht (im Falle von Farcry für das Wasser, für die Details auf Boden und Wänden, Schatten) müsste man das noch langsamere Ping-Pong Verfahren benutzen.

Alternativ braucht man generische Killershader welche alles in einem Pass rendern können. Der R300 wäre da gleich KO mit dem R420 sollte es besser gehen. Wobei die Cryengine für sowas IMHO gar nicht ausgelegt ist.
Interessant. Also beim R300 wäre somit nicht daran zu denken ein entsprechendes Spiel mit HDR zu rendern.

Aber was sind generische Killershader?

Edit: Die Frage hat sich erledigt. Du meintest wohl irrsinnig lange Shader, die generisch erzeugt werden müssen, um alles entsprechend in einem Pass zu rendern.

Quasar
2004-11-03, 20:36:16
Wir werden noch genug Spiele mit HDR sehen, wo ggf. sogar die ATIs weit vor den NVs liegen. http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTgmdXJsX3BhZ2U9MTY=
640x480. ;)

Demirug
2004-11-03, 20:37:48
Nichtmal ein 64Bit FB?

Der NV40 kann keinen 64Bit Framebuffer. (Die einzige Karte die das vielleicht kann ist eine der neuen Wildcats aber da bin ich nicht sicher weil ich an sowas nicht so einfach rankomme)

Es werden 64Bit (4*FP16) Rendertargets benutzt welche dann am Ende in den normalen 32 Bit Framebuffer umgerechnet werden.

betasilie
2004-11-03, 20:38:52
640x480. ;)
Jo, und nur 66fps für den NV40 im Vergleich zu 144 beim R420. Man kann das ja mal interpolieren. Und nciht vergessen, es war immerhin 4*AA an, was dieser Methode ja immerhin geht. :)

LovesuckZ
2004-11-03, 20:40:24
Und nciht vergessen, es war immerhin 4*AA an, was dieser Methode ja immerhin geht. :)

Ist kein AA.

LovesuckZ
2004-11-03, 20:41:35
Der NV40 kann keinen 64Bit Framebuffer. (Die einzige Karte die das vielleicht kann ist eine der neuen Wildcats aber da bin ich nicht sicher weil ich an sowas nicht so einfach rankomme)

Hat der NV40 ebenfalls nur 8-bit für jeden Kanal zur Verfuegung?

Demirug
2004-11-03, 20:41:45
Glaubst Du oder weißt Du? Demirug hat afair geschrieben, dass das HDR in FarCry auf den ATI-Karten nicht läuft, weil diese OpenEXR-kompatible FP16-Texturen nicht mit HDR verarbeiten können.

ATI kann die entsprechenden Texturen verarbeiten. Allerdings fehlt den Chips die Fähigkeit einen Texturefilter ausser Pointsampling dafür zu benutzen. Das wäre bei Farcry nicht so schlimm weil der benötigte Filter hier über die Pixelshader emuliert werden könnte. Zudem fehlt aber auch die möglichkeit zum FP16 Alphablendig (alos FP16 ROPs) und darauf kann Farcry nicht verzichten weil die Engine massiv auf Alphablendig aufbaut.

betasilie
2004-11-03, 20:44:32
ATI kann die entsprechenden Texturen verarbeiten. Allerdings fehlt den Chips die Fähigkeit einen Texturefilter ausser Pointsampling dafür zu benutzen. Das wäre bei Farcry nicht so schlimm weil der benötigte Filter hier über die Pixelshader emuliert werden könnte. Zudem fehlt aber auch die möglichkeit zum FP16 Alphablendig (alos FP16 ROPs) und darauf kann Farcry nicht verzichten weil die Engine massiv auf Alphablendig aufbaut.
Genau. Das hattest Du irgendwann schonmal erklärt. ... Habe mir das jetzt aber gemerkt

Demirug
2004-11-03, 20:46:25
Interessant. Also beim R300 wäre somit nicht daran zu denken ein entsprechendes Spiel mit HDR zu rendern.

Aber was sind generische Killershader?

Edit: Die Frage hat sich erledigt. Du meintest wohl irrsinnig lange Shader, die generisch erzeugt werden müssen, um alles entsprechend in einem Pass zu rendern.

"Lang" müssen die nicht unbedingt immer sein aber man braucht eine Engine welche Shader dynamsich aus Teilen zusammen setzt. Wasser ist da besonders lustig weil man das ganzlich anders rendern muss. In Summe wäre das eine massive verschärfte Form dessen was crytek in den neuen Pfaden mit den Lichtquellen gemacht hat.

Quasar
2004-11-03, 20:46:25
Jo, und nur 66fps für den NV40 im Vergleich zu 144 beim R420. Man kann das ja mal interpolieren. Und nciht vergessen, es war immerhin 4*AA an, was dieser Methode ja immerhin geht. :)
Ja, das wären etwa 55fps in 1024x768 (reine Pixelzahl...).

Und das für ein paar umeinander rotierende Kugeln. Nett. ;)

robbitop
2004-11-03, 20:46:36
RTHDRIBL ist kein Maßstab für MDR Leistung. Ist auf/für einen R300 entwickelt worden.
Bei Nutzung der HDR HW des NV40 (das benötigt natürlich eine gute Implementierung) sollte es deutlich anders stehen.

Quasar
2004-11-03, 20:49:08
Der NV40 kann keinen 64Bit Framebuffer.
Dann ist es also falsch, was hier steht:
http://www.3dcenter.org/artikel/nv40_technik/index4.php

M@g
2004-11-03, 20:59:22
Err, HDR definiert sich doch über die Benutzung von 32bits pro Farbkanal, während 16bit nur als Medium Dynamic Range bezeichnet werden. Deswegen ist z.b. JPEG ein Low Dynamic Range Format, weils nur 8bit pro Farbkanal zulässt (auch 24bit Farbtiefe genannt).

Demirug
2004-11-03, 21:19:13
Dann ist es also falsch, was hier steht:
http://www.3dcenter.org/artikel/nv40_technik/index4.php

Es kann ja durchaus sein das der Chip das kann nur ist mir derzeit keine Methode bekannt einen FP16 Framebuffer zu bekommen. Unter OpenGL habe ich es allerdings nicht wirklich ausprobiert. Es macht allerdings auch nur begrenzt Sinn einen FP16 FB zu haben wenn man über die API das Tonemapping nicht kontrolieren kann. Derzeit geht das nur über einen Pixel/Fragmentshader.

deekey777
2004-11-03, 22:08:10
Wurde eigentlich dieser Test schon in die Diskussion miteinbezogen: FarCry 1.3: Crytek’s Last Play Brings HDR and 3Dc for the First Time (http://www.xbitlabs.com/articles/video/display/farcry13.html) ?

HDR kostet in Far Cry extrem viel Leistung - na und? Nachdem ich die Bilder sah, kamen mir die Trännen, denn meine 9800 Pro kann das nicht. ;(

3Dc ist sinnlos! Nur ein Scherz, denn 3Dc bringt je nach Map ein Paar Frames mehr (nicht jede Map ist ja nur Grafikkartenabhängig).

robbitop
2004-11-03, 22:14:27
und warum funktioniert dann MSAA nicht, wenn gar kein 64bit Framebuffer zum Einsatz kommt?

Demirug
2004-11-03, 22:19:16
und warum funktioniert dann MSAA nicht, wenn gar kein 64bit Framebuffer zum Einsatz kommt?

Weil MSAA mit Rendertargets sowieso nicht funktioniert. Deswegen muss man für Fullscreeneffekte mit MSAA auch ein etwas komplexeres Verfahren nutzen das auch erst seit DX9.0b funktioniert.

Coda
2004-11-03, 22:34:16
Weil MSAA mit Rendertargets sowieso nicht funktioniert.
Du meinst sicher mit render to texture, der normale Framebuffer ist schließlich auch ein Rendertarget. Wobei ich eigentlich meine, dass man ab ner bestimmten DX 9 Revision auch MSAA dort anwenden kann.

Demirug
2004-11-03, 22:49:35
Du meinst sicher mit render to texture, der normale Framebuffer ist schließlich auch ein Rendertarget. Wobei ich eigentlich meine, dass man ab ner bestimmten DX 9 Revision auch MSAA dort anwenden kann.

Ja, ich meinte Texturen welche mit Rendertarget Flags erzeugt wurden. Die API erlaubt es schon mit DX8 auch für Rendertarget Texturen MSAA zu aktivieren. Nur ist mir bis heute kein Treiber untergekommen der das mitgemacht hätte.

aths
2004-11-03, 23:16:13
Es kann ja durchaus sein das der Chip das kann nur ist mir derzeit keine Methode bekannt einen FP16 Framebuffer zu bekommen. Unter OpenGL habe ich es allerdings nicht wirklich ausprobiert. Es macht allerdings auch nur begrenzt Sinn einen FP16 FB zu haben wenn man über die API das Tonemapping nicht kontrolieren kann. Derzeit geht das nur über einen Pixel/Fragmentshader.... das GPU-seitige Tonemapping zu steuern, oder Tonemapping via Shader von Hand zu machen?

aths
2004-11-03, 23:17:30
Glaubst Du oder weißt Du? Demirug hat afair geschrieben, dass das HDR in FarCry auf den ATI-Karten nicht läuft, weil diese OpenEXR-kompatible FP16-Texturen nicht mit HDR verarbeiten können.Natürlich können sie das, wie sollte sonst wohl HDRIBL funktionieren? (Auch IEEE-FP32 ist OpenEXR-konform, doch ATI kann auch FP16-Texturen nutzen.)

aths
2004-11-03, 23:28:20
Nein. Ich bin total heiß darauf FarCry mit HDR mal anzugucken bei einem Freund mit 6800Ultra. Aber schnuppe sind mir neue Effekte, wenn ich dadurch nur noch in 800*600 oder 1024*786 ohne AA und AF zocken kann.

So sehr ich neue Technologien mag, aber sie müssen in moderaten Auflösungen und Filterstufen spielbar sein.Jetzt wird eine neue Bedingung nach der anderen aufgestellt, nur um HDR-Lighting auf dem NV40 als nicht nutzbaren Effekt hinzustellen. Halten wir fest, dass man viele Kompromisse eingehen muss, will man HDR-Lighting in Far Cry nutzen. Das wird vermutlich beim NV48 schon ein wenig anders aussehen, einfach weil die Rohleistung steigen wird, vielleicht werden auch Verbesserungen in der Programmierung beim Patch 1.4 noch einige Speedups bringen. Vielleicht wird es aber auch keine Beschleunigung bei Far Cry mehr geben.

R420 kann, trotz ATIs Getöse à la "High Definition VPU", "Ultra High End" etc. den Effekt aber nicht mehr in Echtzeit rendern. Dazu fehlen ihm bestimmte Hardwareeinheiten, die den Pixelshader (und die Bandbreite) entlasten. Da der NV40 fast 40% mehr Transistoren als der R420 hat, und der R420 kaum mehr kann als R300 (und in erster Linie nur schneller als sein Vorgänger ist), ist doch auch irgendwo einsichtig dass es früher oder später Effekte geben wird die dem R420 verwehrt bleiben.

Die Schere könnte in näherer Zukunft noch weiter auseinander gehen, wenn R480 gegen einen NV48 antreten sollte. Nehmen wir an, dass beide Architekturen durch höhere Taktung und interne Tweaks jeweils 40% schneller sind, wird der R480 damit noch lange nicht zur "HDR-Karte".

Tja, aber zum Glück ist deine Welt der Definitionen nicht allgemein gültig. Aber irgendwie war mir klar, dass Du nur das NV-HDR mit 64bit Framebuffer als HDR definierst.Nein.

Schon NV30 kann HDR, da er FP32-Texturen lesen, in FP32 rechnen, und in eine FP32-Textur schreiben kann. NV40 kann mit einem 64-Bit-Framebuffer nur FP16-Werte schreiben, was lt. denen von mir verwendeten Begrifflichkeiten nur MDR ist. Für HDR müsste auch NV40 in FP32-Texturen schreiben. R420 rechnet intern nur mit FP24 und kann daher kein HDR, wenn man wie ich für HDR 32 Bit pro Komponente verlangt. (FP24 hat eine viel höherer Dynamik als FX32, allerdings in bestimmten Bereichen eine deutlich geringere Auflösung. NV nennt die FP16-Rechnungen ja HPDR, also High Precision Dynamic Range, was ich nicht minder kritisch sehe. Nur weil FP16 besser auflöst und eine höhere Dynamik als FX8 hat, braucht man noch lange nicht mit solchen starken Worten zu protzen.)

Schreib doch mal den ganzen Leuten aus der 3D-Branche, dass die jetzt nur noch NVs HDR HDR nenen dürfen. Die werden sich freuen den aths´schen Sprach-Standards zu lauschen. :rolleyes:Ich orientiere mich an der digitalen Fotografie, wo erst ab 32 Bit pro Komponente (allerdings Fixpoint) von HDR gesprochen wird.

Man sieht ja wie förmlich wie Du dich auf dieses crappy und inoffizielle HDR in FarCry wirfst, nur um den Leuten zu sagen: Schaut hier, dass kann ATI nicht. - So einen Tunnelblick habe ich von dir nicht erwartet. Das enttäuscht mich sehr.

Wir werden noch genug Spiele mit HDR sehen, wo ggf. sogar die ATIs weit vor den NVs liegen. http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTgmdXJsX3BhZ2U9MTY=Man sieht ja förmlich wie du ein neues Argument nach dem anderen aus dem Hut zauberst, nur um den Leuten zu sagen: Schaut hier, NVs Techniksprung bringt dem NV40 gar nichts. So einen Tunnelblick habe ich von dir nicht erwartet. Das enttäuscht mich doch etwas.

Sofern anspruchsvolle MDR-Effekte genutzt werden, wird R420 hinter dem NV40 liegen müssen, da dem R420 wichtige Einheiten zur Beschleunigung fehlen. Und zwar FP16-Texturfilterung und FP16-Alphablending. Außerdem soll NV40 auch für Tonemapping dedizierte Hardware haben, das sollte noch mal was bringen, wäre aber nicht zwingend erforderlich um den R420 deutlich abzuhängen.

Gibt es schon Benches von FC mit HDR bei GF 6600 GT SLI?

betasilie
2004-11-04, 00:14:00
Jetzt wird eine neue Bedingung nach der anderen aufgestellt, nur um HDR-Lighting auf dem NV40 als nicht nutzbaren Effekt hinzustellen. Halten wir fest, dass man viele Kompromisse eingehen muss, will man HDR-Lighting in Far Cry nutzen. Das wird vermutlich beim NV48 schon ein wenig anders aussehen, einfach weil die Rohleistung steigen wird, vielleicht werden auch Verbesserungen in der Programmierung beim Patch 1.4 noch einige Speedups bringen. Vielleicht wird es aber auch keine Beschleunigung bei Far Cry mehr geben.
Einen Patch 1.4 soll es geben?

Und genau das ist der Punkt. Der NV40 ist wahrscheinlich zu langsam für einen HDR Einsatz, wie in FarCry. Was Folgeprodukte leisten können, werden wir sehen.



Schon NV30 kann HDR, da er FP32-Texturen lesen, in FP32 rechnen, und in eine FP32-Textur schreiben kann. NV40 kann mit einem 64-Bit-Framebuffer nur FP16-Werte schreiben, was lt. denen von mir verwendeten Begrifflichkeiten nur MDR ist. Für HDR müsste auch NV40 in FP32-Texturen schreiben. R420 rechnet intern nur mit FP24 und kann daher kein HDR, wenn man wie ich für HDR 32 Bit pro Komponente verlangt. (FP24 hat eine viel höherer Dynamik als FX32, allerdings in bestimmten Bereichen eine deutlich geringere Auflösung. NV nennt die FP16-Rechnungen ja HPDR, also High Precision Dynamic Range, was ich nicht minder kritisch sehe. Nur weil FP16 besser auflöst und eine höhere Dynamik als FX8 hat, braucht man noch lange nicht mit solchen starken Worten zu protzen.)
Würden die FP-24 Berechungen bei ATI negativ auffallen? Wenn ja, in welchen Situationen?


Man sieht ja förmlich wie du ein neues Argument nach dem anderen aus dem Hut zauberst, nur um den Leuten zu sagen: Schaut hier, NVs Techniksprung bringt dem NV40 gar nichts. So einen Tunnelblick habe ich von dir nicht erwartet. Das enttäuscht mich doch etwas.

Sofern anspruchsvolle MDR-Effekte genutzt werden, wird R420 hinter dem NV40 liegen müssen, da dem R420 wichtige Einheiten zur Beschleunigung fehlen. Und zwar FP16-Texturfilterung und FP16-Alphablending. Außerdem soll NV40 auch für Tonemapping dedizierte Hardware haben, das sollte noch mal was bringen, wäre aber nicht zwingend erforderlich um den R420 deutlich abzuhängen.

Gibt es schon Benches von FC mit HDR bei GF 6600 GT SLI?
Ich sagte nie, dass der Technolgievorsprung nichts bringt, jedenfalls für die Entwicklung des Marktes. Und wenn HDR und SM3.0 bei Spielen ordentlich eingesetzt wird, dann hat NV mit ihrem NV50 vielleicht einen Vorteil durch die Erfahrung mit dem NV40, gegenüber dem R520.

Nun, ich sehe wohl ein, dass der R420 wahrscheinlich keine Vorzeigechip in Sachen MDR ist. ;) Jetzt kommt aber für mich wieder die Frage auf, ob es der NV40 ist, nur weil er es kann, aber scheinbar trotzdem noch zu langsam ist, Spiele mit MDR in ausreichend hohen Auflösungen und Fitlerstufen darzustellen.

Mal abwarten was künftige Spiele mit offiziellem HDR Support so für Framraten auspuscken beim NV40 und beim R420.

Welche Titel in 2005 sollen eigentlich MDR/HDR implementiert bekommen? Mir ist da leider noch keiner bekannt.

mapel110
2004-11-04, 00:20:10
Einen Patch 1.4 soll es geben?

Welche Titel in 2005 sollen eigentlich MDR/HDR implementiert bekommen? Mir ist da leider noch keiner bekannt.

1. Patch 1.4 wirds nicht geben. Farcry 1 ist "fertig", laut entwicklern im offiziellen Forum.

2. Mich würde interessieren, warum Valve HDR/MDR aus HL2 rausgeschmissen hat. Würde für die Theorie von aths sprechen, dass ATI-Karten dann nicht gut aussehen würden.

deekey777
2004-11-04, 00:29:04
Ob es einen Patch 1.4 geben wird, steht nicht fest. Ich glaub nicht, dass jeder das (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2352424&postcount=20) kennen muss - FC 1337 ist für mich immer noch nicht fertig.

deekey777
2004-11-04, 00:31:08
1. Patch 1.4 wirds nicht geben. Farcry 1 ist "fertig", laut entwicklern im offiziellen Forum.

2. Mich würde interessieren, warum Valve HDR/MDR aus HL2 rausgeschmissen hat. Würde für die Theorie von aths sprechen, dass ATI-Karten dann nicht gut aussehen würden.

Zu 1: "Most likely" ist nicht definitiv. Hoffentlich nicht.

betasilie
2004-11-04, 00:34:43
1. Patch 1.4 wirds nicht geben. Farcry 1 ist "fertig", laut entwicklern im offiziellen Forum.

2. Mich würde interessieren, warum Valve HDR/MDR aus HL2 rausgeschmissen hat. Würde für die Theorie von aths sprechen, dass ATI-Karten dann nicht gut aussehen würden.
1. Meinte ich auch auch so gelsen zu haben.

2. Ja, könnte wirklich gut sein, dass Hl² kein HDR hat, weil die NVs sonst von dannen gezogen wären. ;(

mapel110
2004-11-04, 00:47:45
Zu 1: "Most likely" ist nicht definitiv. Hoffentlich nicht.

Does FarCry have a future?

* Currently we are working on a new version of the CryEngine and a new game project.

hört sich nicht so an, als würden sie sich auf die aktuellen Bugreports des patches stürzen ;) neue Features kommen auf jedenfall nicht hinzu.

deekey777
2004-11-04, 00:52:01
Does FarCry have a future?

* Currently we are working on a new version of the CryEngine and a new game project.

hört sich nicht so an, als würden sie sich auf die aktuellen Bugreports des patches stürzen ;) neue Features kommen auf jedenfall nicht hinzu.


http://messenger.msn.com/MMM2004-08-11_11.52/Resource/emoticons/cry_smile.gif

Ach Mist.

Demirug
2004-11-04, 07:43:08
... das GPU-seitige Tonemapping zu steuern, oder Tonemapping via Shader von Hand zu machen?

Ich kenne keine Möglichkeit ein GPU seitiges Tonemapping zu nutzen. Iich kenne auch kein Dokument wo explizit erwähnt wird das es dafür extra Schaltkreise gibt. Ergo muss man sich einen Shader dafür schreiben.

aths
2004-11-04, 11:54:41
Ich kenne keine Möglichkeit ein GPU seitiges Tonemapping zu nutzen. Iich kenne auch kein Dokument wo explizit erwähnt wird das es dafür extra Schaltkreise gibt. Ergo muss man sich einen Shader dafür schreiben.Habe gerade das aktuelle Paper durchgesehen, da wird in der Tat nicht mehr davon gesprochen. Beim Meeting wurde aber davon gesprochen, und irgendwo las ich auch mal was von 'bis zu 10x schneller' als würde man Tonemapping im Pixelshader machen. Schon bisschen komisch. Imo wäre Extra-Hardware dafür sinnvoll. Doch so wie sich das Paper jetzt ausdrückt, kann man wohl kaum noch damit beim NV40 rechnen.

aths
2004-11-04, 12:19:02
Einen Patch 1.4 soll es geben?Wie ich hier an den Antworten sehe, offenbar nicht ;( nur schade, dass es das "SM3"-Offset-Mapping dann auch nicht geben wird (das was beim GF6800-Launch von NV verbreitet wurde, dieser Fake-Vergleich SM2 und SM3.)

Und genau das ist der Punkt. Der NV40 ist wahrscheinlich zu langsam für einen HDR Einsatz, wie in FarCry. Was Folgeprodukte leisten können, werden wir sehen.FC nutzt nicht nur einfach HDR-Lighting, sondern auch noch diese Strahler-Effekt. Das wird zwar einerseits auf dem NV40 im Gegensatz zum R420 dank FP16-Alphablendern erheblich beschleunigt, drückt aber trotzdem die Performance. Solche Strahler-Effekte gibt es nur bei bestimmten Linsen oder bestimmt geformten Objektiv-Öffnungen, nicht beim menschlichen Auge. (Dort gibt es einen ähnlichen Effekt durch die durch Muskeln gespannte Augenlinse, aber der ist nicht so gleichmäßig und auch nicht so stark.) Effektiver (und realistischer) wäre imo ein herkömmlicher Corona-Effekt inkl. auf FP16-Rechnungen basierendem Glow.

Dazu müsste, das halte ich für extrem wichtig, AF von der Applikation eingestellt werden, und zwar je nach Textur. FP16-Texturen dürfen nur dann AF bekommen, wenn sie es unbedingt brauchen. Auch ansonsten sollte man mit AF nicht um sich schmeißen.

Würden die FP-24 Berechungen bei ATI negativ auffallen? Wenn ja, in welchen Situationen?Für die Komplexität von Effekten für die der R420 genügend Leistung hat, reicht auch FP24 in fast allen Fällen aus. In den nächsten Jahren sollte für viele Operationen sogar FP16 genügen. Bestimmte andere Operationen werden von FP32 aber profitieren.

Ich sagte nie, dass der Technolgievorsprung nichts bringt, jedenfalls für die Entwicklung des Marktes. Und wenn HDR und SM3.0 bei Spielen ordentlich eingesetzt wird, dann hat NV mit ihrem NV50 vielleicht einen Vorteil durch die Erfahrung mit dem NV40, gegenüber dem R520.

Nun, ich sehe wohl ein, dass der R420 wahrscheinlich keine Vorzeigechip in Sachen MDR ist. ;) Jetzt kommt aber für mich wieder die Frage auf, ob es der NV40 ist, nur weil er es kann, aber scheinbar trotzdem noch zu langsam ist, Spiele mit MDR in ausreichend hohen Auflösungen und Fitlerstufen darzustellen.Das hängt vom Spiel ab. Ein Spiel was speziell für den NV40 designt wird, könnte da sicher deutlich mehr rausholen. Doch die Entwickler entwickeln natürlich eher für die kommende Generation, weil auch andere Anforderungen an die GPU steigen. Der NV40 kann nicht gleichzeitig neue komplexere Effekte, FP16-HDR (so nenne ich das mal, da MDR wohl eher mit einem Fernsehsender statt Medium Dynamic Range assoziiert wird) und auch noch hohe AF-Stufen bieten.

Aber das muss er ja auch gar nicht.

Mal abwarten was künftige Spiele mit offiziellem HDR Support so für Framraten auspuscken beim NV40 und beim R420.

Welche Titel in 2005 sollen eigentlich MDR/HDR implementiert bekommen? Mir ist da leider noch keiner bekannt. Mir auch nicht. Da ATI 2004 noch keinen "HDR-Chip" vorweisen kann, wird das in Rücksicht auf den Markt wohl noch etwas dauern.

Ich halte das FP16-Format für Texturen und als Rendertarget, inkl. Filter- und Blending-Support für einen Befreiungsschlag. Lightmapping ist ein sehr kruder Fake, um die Beleuchtung darzustellen. Pixelshader ab 2.0 fordern endlich, dass es brauchbares internes Overbright Lighting gibt. Doch erst mit Filtering und Blending wird die HW schnell genug, um die interessanten Sachen machen zu können. Man neigt dazu, die aktuelle Zeit als vorläufigen Endpunkt der Entwicklung zu sehen. Das halte ich für falsch. Der 32-Bit-Framebuffer, und 32-Bit-Texturen werden uns eines Tages fürchterlich begrenzt vorkommen, brauchbar nur für besonders anspruchslose Fälle.

Mein Traum ist, eines Tages Detective Payne in einer realistisch beleuchteten Umgebung ermitteln zu lassen.

deekey777
2005-06-21, 01:21:59
Sorry für das ausgraben einer Leiche, aber:
Man sagt ja, der NV45 wäre nur ein NV40+PCIe-Brücke. Heißt das, daß der NV40 als AGP-Version auch SLI-Transistoren mit sich rumträgt?

Xmas
2005-06-21, 01:24:40
Das heißt es.

mapel110
2005-06-21, 01:34:51
Aber offenbar lohnt es nicht, diese extra für eine AGP-Version rauszumscheißen. Also können es nicht allzuviele Transistoren sein.
:)

Hm, mit Patch 1.4 lag ich nicht so ganz richtig. ;(
(siehe 64bit Patch)