PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ist Shader 2.0 wirklich schon überholt?


Omega2
2004-10-04, 12:51:17
Hiho zusammen,

als Laie, der eine Graka nur nutzt ohne wirklich zu verstehen, was da im Hintergrund abläuft stell ich mir die Frage, ob die Diskussionen über die Vorteile eines 3.0`er Shaders gegenüber 2.0 wirklich sinn macht, oder eigentlich vollkommen überflüssig ist.

Folgende Überlegung hab ich mal angestellt:

1. 3DMark05 nutzt die Shaderfähigkeiten der neuesten Grafikchips aus, also 2.0 bei ATI und 3.0 bei NV

2. Beide Karten "scheinen" in etwa gleich schnell zu sein.

3. Die Qualität der Grafik (soweit sie vom Shader abhängt) ist wohl auch vergleichbar

Fazit:

Der Anwender merkt keinerlei Unterschied. Die Vorteile die 3.0 bietet sind wohl in erster Linie im Bereich der Programmierung zu sehen. Die Performance und Qualität ist jedenfalls bei beiden Shadern vergleichbar. (stimmt das auch für reale Spiele?)

Was hält also "Otto Normaluser" davon ab, einfach die Karte, deren Preis/Schnelligkeits Verhältnis am besten ist zu wählen ?

Bitte sagt mal Eure Meinung dazu aber macht keinen ATI vs NV Thread draus. Da gibt es ja schon genug :)

Cu

Omega2

Coda
2004-10-04, 12:54:09
Shader 3.0 ist deutlich besser als Shader 2.0, nur nutzt auch 3DMark 05 die Vorteile nicht aus:

- dynamic branching
- deutlich höherer instruction count
- FP32

Weil die meisten nichts damit anfangen können wir es aber systematisch heruntergespielt und ATi's X800 Shader von vielen als "fast gleichwertig" betrachtet, obwohl selbst eine FX 5200 mehr Fähigkeiten hat.

Holundermann
2004-10-04, 12:58:47
shader 2.0 ist derzeit sicher nicht überholt, eher aktuell würd ich sagen. nur ist halt sm3 moderner, auch wenn es heute nicht "gebraucht" wird - morgen bestimmt :) sm 3 wird kommen, und warum nicht schon heute technik von morgen nutzen - wenn dies möglich ist. zwar gibt es derzeit keine titel die davon ordentlich gebrauch machen, doch im laufe des nächsten jahres wird wohl das eine oder andere spiel davon gebrauch machen und evtl. nicht nur geschwindigkeitsvorteil sondern auch bildqualitätsvorteil bringen.

Omega2
2004-10-04, 13:03:47
shader 2.0 ist derzeit sicher nicht überholt, eher aktuell würd ich sagen. nur ist halt sm3 moderner, auch wenn es heute nicht "gebraucht" wird - morgen bestimmt :) sm 3 wird kommen, und warum nicht schon heute technik von morgen nutzen - wenn dies möglich ist. zwar gibt es derzeit keine titel die davon ordentlich gebrauch machen, doch im laufe des nächsten jahres wird wohl das eine oder andere spiel davon gebrauch machen und evtl. nicht nur geschwindigkeitsvorteil sondern auch bildqualitätsvorteil bringen.


hiho,

in diesem zusammenhang fällt mir ein, daß die Geforce256 die erste Graka mit T+L war. Dieses zukunftsweisende Feature wurde aber kaum genutzt, weil die Performance der T+L Einheit so schlecht war, daß die damals aktuellen CPU`s das besser konnten.

Beim Shader 3.0 stell ich mir halt die Frage, ob bei einer exessiven Ausnutzung der Fähigkeiten die der 3.0 bietet, nicht auch die NV40 überfordert wäre.

Der 3DMark zeigt das ja irgendwie, da die Framerate bei diesem Bench ja nun wirklich nicht berauschend ist.

Wäre meine Annahme richtig, dann investiere ich Geld in eine Technik, die ich in Zukunft nur theoretisch nutzen kann, aber praktisch nicht, da meine dann alte Graka in der Performance einbricht.

Cu Omega

P.S.

Ist schon beeindruckend, wie schnell hier geantwortet wird :)

Jesus
2004-10-04, 13:04:49
naja bisher gibt es jedenfalls nichts was dem Post des Threadstartes widerspricht, im Gegenteil:

- FarCry mit SM3.0 nicht schneller / besser als das SM2.0b, eher immer noch langsamer ( aber wohl auf Takt zurückzuführen)
- Shadermark 2.1: Keine signifikanten unterschiede, quasi gleicchstand trotz SM3.0 bei NV ( zu SM2.0b)
-3dmark05 - selbes Bild

Man kann jetzt natürlich argumentieren dass das SM3.0 nicht richtig oder gut implementiert wurde (oder mit dem Takt argumentieren), aber dann frag ich mich wers dann noch machen soll? Bisher fehlt imho einfach der (kaufentscheidende) Nachweiss das es spürbar was bringt, nämlich einen Vorteil ggü. der "veralteten" ATI Hardware.

Mit den unterschiedlichen Taktraten oder gar "taktbereinigt" zu argumentiern halte ich für Unsinn, denn es ist absolut nicht realistisch. Bisher siehts jedenfalls so aus als ob das was SM3.0 bringt ( und das tut es ja) schlicht und einfach durch ATI´s mehr an Takt wieder (mehr als) ausgeglichen wird.

Exxtreme
2004-10-04, 13:08:56
Naja, um aus SM3 Vorteile zu ziehen, müssen die Anforderungen an die Shader entsprechend sein. SM3.0 bringt eher bei langen Shadern Vorteile. Nur kaum ein Spiel nutzt bisher sehr lange Shader. Denn diese killen die Performance.

l0rd m0rd
2004-10-04, 13:16:36
.. womit die Entscheidung von ATi, beim R420 auf Shader 3.0 zu verzichten immer mehr an Beudeutung verlieren würde. Warscheinlich war es einfach die schnellere und sinnvollere Variante von 2en. Sollte das der Fall sein, würde ich gerne ein Lob an ATi aussprechen, denn dann hätten sie gegen die Gesetze der Marktwirtschaft gehandelt. Neue Features verkaufen sich nämlich i.d.R. ganz gut. ;)

Holundermann
2004-10-04, 13:51:12
wenn ich mir die benchmarks von fc anschaue sehe ich sehrwohl einen realen vorteil von sm3. genauso wie 3 oder wie 4 threads weiter unten über "tnl, das eingelöste versprechen" diskutiert...

neue features sind immer streitfragen. wenn man ne graka für 1 jahr kauft kanns einem wohl egal sein, wenn man seine graka 2+ jahre nutzen möchte entscheid ich mich fürs aktuellere packet...

Crushinator
2004-10-04, 14:01:33
(...) als Laie, der eine Graka nur nutzt ohne wirklich zu verstehen, was da im Hintergrund abläuft stell ich mir die Frage, ob die Diskussionen über die Vorteile eines 3.0`er Shaders gegenüber 2.0 wirklich sinn macht, oder eigentlich vollkommen überflüssig ist. (...) Es läßt sich zur Zeit für einen (nur) Spieler meiner Meinung nach nicht eindeutig hervorheben, ob das eine oder das andere besser ist. Auf gar keinen Fall jedoch würde ich Shader 3.0 als vollkommen überflüssig bezeichnen, denn sie werden irgendendwann - ob bald oder erst in einem bis 2 Jahren sei nun hingestellt - mehr und mehr den Einzug in Realworld-Titeln erhalten. Ich denke, man sollte entscheiden wie lange man gedenkt eine Grafikkarte im Rechner zu behalten, zusätzlich zu dem, ob Einem Bildqualitätsverbesserungen alá FP32 überhaupt auffielen. Schwieriger wird's allerdings wenn es um Texturfilter geht, denn diese sind bei den Produkten der großen IHV nunmal nicht gleichwertig, auch wenn die Unterschiede nur einem speziell in diesen Dingen geübten Auge auffielen.

Grundsätzlich sollte man das Preis-/Leistungsverhältnis im Bezug auf die eigenen Anforderungen in einem bestimmten Zeitraum bewerten.

Demirug
2004-10-04, 14:24:50
Der 3dmark ist hier ein weniger guter Massstab weil alle Shader so geschrieben wurden das sie mit dem 2.0 profil compiliert werden können.

Exxtreme, das lange Shader die Performance killen ist ja inzwischen sowas wie eine düstere Legende geworden. Was nützen kurze Shader wenn man dann mehrer davon braucht um den Pixel komplett zu berechnen? Wenn man genügend Leistung hat um pro Pixel 2 oder 3 kürzere Shader auszuführen dann hat man auch die Leistung für einen langen. Da durch das Zusammenfassen auch in der Regel doppelte arbeiten entfernt werden können bringen die langen Shader dann sogar bessere Leistung.

Coda, der 3dmark benutzt dynamic Branching nur ist die Menge der Pixel welche den kurzen Pfad nehmen können bestenfalls gerade ausreichend um den Overhead zu kompensieren. Bei einem Test mit einer GT erreichte ich sogar durch das entfernen des Branchs eine bessere Leistung.

Jesus
2004-10-04, 14:37:33
wenn ich mir die benchmarks von fc anschaue sehe ich sehrwohl einen realen vorteil von sm3. genauso wie 3 oder wie 4 threads weiter unten über "tnl, das eingelöste versprechen" diskutiert...

jo man hat mehrere Lichtquellen zusammengefasst um sie in einem Pass berechnen zu können. Allerdings hat man genau das selbe auch mit dem 2.0b Profil gemacht ( allerdings mit nur max. 3, im Gegensatz zu SM3 wo´s 4 sind, wobei wohl auch mehr drin gewesen wären).
So gesehen also wieder kein Vorteil allein für das SM3.0.

r@w
2004-10-04, 15:07:56
in diesem zusammenhang fällt mir ein, daß die Geforce256 die erste Graka mit T+L war. Dieses zukunftsweisende Feature wurde aber kaum genutzt, weil die Performance der T+L Einheit so schlecht war, daß die damals aktuellen CPU`s das besser konnten.Falsch.
Bei den damals aktuellen CPU's brachte es sehr wohl so einiges, die HW-Einheiten der gf256ddr zu nutzen (bei der sdr limitierte der Speicher). Erst als die CPU's die 1GHz-Grenze durchbrachen, stellte sich langsam die Situation ein, dass in künstlichen Scenarien (CPU hatte nicht viel zu tun) eine CPU tatsächlich schneller sein konnte.

Ist aber reichlich OT hier...

Razor

Exxtreme
2004-10-04, 15:14:10
Exxtreme, das lange Shader die Performance killen ist ja inzwischen sowas wie eine düstere Legende geworden. Was nützen kurze Shader wenn man dann mehrer davon braucht um den Pixel komplett zu berechnen? Wenn man genügend Leistung hat um pro Pixel 2 oder 3 kürzere Shader auszuführen dann hat man auch die Leistung für einen langen. Da durch das Zusammenfassen auch in der Regel doppelte arbeiten entfernt werden können bringen die langen Shader dann sogar bessere Leistung.
Das stimmt wenn man komplizierte Shader überhaupt plannt. :) Das wird IMHO z.Zt. aber nicht gemacht. Mehr als einfache Wasser- und Hitzelflimmern-Effekte gab es nicht wirklich viel in Spielen.

MikBach
2004-10-04, 15:43:58
.
Exxtreme, das lange Shader die Performance killen ist ja inzwischen sowas wie eine düstere Legende geworden. Was nützen kurze Shader wenn man dann mehrer davon braucht um den Pixel komplett zu berechnen? Wenn man genügend Leistung hat um pro Pixel 2 oder 3 kürzere Shader auszuführen dann hat man auch die Leistung für einen langen. Da durch das Zusammenfassen auch in der Regel doppelte arbeiten entfernt werden können bringen die langen Shader dann sogar bessere Leistung.

Wo genau soll jetzt in deiner Beschreibung der Vorteil für SM3.0 gegenüber SM2.b liegen. Die mögliche Shaderlänge der R420 Architektur ist mehr als ausreichend.

Holundermann
2004-10-04, 16:03:27
das shader 2 derzeit ausreichend sind hat hoffentlich niemand bestritten :) das jedoch shader 3 auch ein sinnvolles feature ist sollte auch niemand bestreiten, ob zu lebzeiten des nv40 oder nicht wird sich zeigen...

Gortha
2004-10-04, 16:08:59
Da SM3.0 auch keine bessere BQ als SM2.0b bietet, sozusagen unterm Strich
nur die FPS der Produkte zählen, sollte man seine Grafikkarte
rein nach Preis-/Leistungsverhältnis oder Leistung kaufen.

SM3.0 mag ein minimaler Vorteil sein, ist aber meine Meinung kein
Kaufgrund/Musshaben... wie schon gesagt: Unterm Strich steht das Ergebnis!

Grüsse
Gortha

MikBach
2004-10-04, 16:15:16
das shader 2 derzeit ausreichend sind hat hoffentlich niemand bestritten :) das jedoch shader 3 auch ein sinnvolles feature ist sollte auch niemand bestreiten, ob zu lebzeiten des nv40 oder nicht wird sich zeigen...Klar ist SM3 kein unnützes Feature, es wird jedoch noch ein Weilchen dauern.
Wenn ich Mark Reign von Epic richtig verstanden habe, will er die Unreal3 Engine für SM3 proggen. SM2 soll dann ein sogenanntes Fallback werden. Mit welchen Einbussen das verbunden ist(BQ und Performance) lässt sich zur Zeit schwer abschätzen.

LovesuckZ
2004-10-04, 16:50:32
Wo genau soll jetzt in deiner Beschreibung der Vorteil für SM3.0 gegenüber SM2.b liegen. Die mögliche Shaderlänge der R420 Architektur ist mehr als ausreichend.

Der Unterschied zwischen dem PS3.0 und PS2.b (es gibt kein SM2.b!) liegen weitaus hoeher als nur in der Shaderlaenge.

tRpii
2004-10-04, 16:59:20
Der Unterschied zwischen dem PS3.0 und PS2.b (es gibt kein SM2.b!) liegen weitaus hoeher als nur in der Shaderlaenge.

Solange es wenig bis keine Verwendung dafür gibt ists egal wielang die Shader sein können.

LovesuckZ
2004-10-04, 17:07:26
Solange es wenig bis keine Verwendung dafür gibt ists egal wielang die Shader sein können.

Natuerlich profitiert nicht jeder Shader vom SM3.0 (SM2.a). Aber genauso muss ein Porsche auch nicht immer schneller sein als ein Suzuki Swift.
Der Unterschied zwischen den PS2.a/3.0 und PS2.b liegt darin begruendet, dass dieses auch bei Shadern unterhalb der Limitierung von den PS2.0 etwas bringen. Shadermark2.1 und 3DMark2003 zeigen dies im bezug auf dem R420 doch deutlich.

LordDeath
2004-10-04, 18:49:53
wichtig ist auf jedenfall, dass man keine karte von heute für morgen kaufen sollte! niemand verspricht euch, dass der heutige high end überhaupt in der lage sein wird, spiele flüssig darzustellen, die PS2.0 voll ausnutzten! bisher ist kein spiel dieser art da! derzeit sind wir ungefähr dort, vo PS1.1 shader massig verwendet werden und nur in einigen seltenen fällen PS2.0 oder PS3.0 benötigt werden! und dennoch sind die alten karten für PS1.1 einfach zu lahm!
allerdings werden die games von morgen die heutigen karten nur wegen den massigen shadereinsatz überfordern. die texturgröße und der polygoncount wird da hoffentlich nicht mit vergessen und sollte meiner meinung auch weiter steigen, was ja in letzter zeit nicht mehr so besonders der fall war!

aths
2004-10-04, 19:05:32
naja bisher gibt es jedenfalls nichts was dem Post des Threadstartes widerspricht, im Gegenteil:

- FarCry mit SM3.0 nicht schneller / besser als das SM2.0b, eher immer noch langsamer ( aber wohl auf Takt zurückzuführen)
- Shadermark 2.1: Keine signifikanten unterschiede, quasi gleicchstand trotz SM3.0 bei NV ( zu SM2.0b)
-3dmark05 - selbes Bild

Man kann jetzt natürlich argumentieren dass das SM3.0 nicht richtig oder gut implementiert wurde (oder mit dem Takt argumentieren), aber dann frag ich mich wers dann noch machen soll? Bisher fehlt imho einfach der (kaufentscheidende) Nachweiss das es spürbar was bringt, nämlich einen Vorteil ggü. der "veralteten" ATI Hardware.

Mit den unterschiedlichen Taktraten oder gar "taktbereinigt" zu argumentiern halte ich für Unsinn, denn es ist absolut nicht realistisch. Bisher siehts jedenfalls so aus als ob das was SM3.0 bringt ( und das tut es ja) schlicht und einfach durch ATI´s mehr an Takt wieder (mehr als) ausgeglichen wird.Nah.

Will man das Shader-Modell beurteilen, sollte weder Takt noch Pipeline-Power pro Takt inbetracht gezogen werden, sondern "was man damit machen kann." Dann schlägt SM 3.0 das 2.0-SM um Längen.

Nun hat R420 den höheren Takt und NV40 mehr Rechenunits pro Pipe. Damit gibt es ungefähr Gleichstand.

Allerdings nach wie vor auf einem Niveau, dass der Shader prinzipiell auch mit 2.0 gut umsetzbar ist. Das wäre etwa der Versuch, den Nicht-Nutzen von T&L mit einer Applikation nachzuweisen, die HW T&L vielleicht irgendwie nutzen kann, aber dafür gar nicht designt wurde. Wenn es dereinst "richtige" SM 3.0-Spiele (oder Anwendungssoftware) gibt, wird diese in einem möglichen Fallback-Modus auf der RadeonX800 entweder arschlahm sein oder das Bild nur mit geringerer Qualität rendern können. Auf dem NV40 würde es in jedem Fall laufen, aber natürlich nicht mit der Performance eines NV55. Man kann wohl davon ausgehen, dass der R520 den NV40 ebenfalls deutlich überflügeln wird.

aths
2004-10-04, 19:07:15
Da SM3.0 auch keine bessere BQ als SM2.0b bietet, sozusagen unterm StrichDas stimmt nur für Shader die entweder recht anspruchslos sind oder auf die Radeon besondere Rücksicht nehmen. Im Moment trifft immer mindestens einer der beiden genannten Fälle zu.

aths
2004-10-04, 19:18:14
wichtig ist auf jedenfall, dass man keine karte von heute für morgen kaufen sollte! niemand verspricht euch, dass der heutige high end überhaupt in der lage sein wird, spiele flüssig darzustellen, die PS2.0 voll ausnutzten!Bei SM 3.0 ist die Sache ja so, dass man Dinge die PS 2.0 nicht voll ausnutzen effizienter rendern kann als mit SM 2.0. Das betrifft nicht nur das dynamic branching. Deshalb halte ich es persönlich für sehr sinnvoll, wenn auch die Einsteiger- und Mittelklasse SM 3.0 unterstützt. Natürlich, darauf wolltest du wohl hinaus, garantiert niemand dass eine heute gekaufte Karte mit SM 3.0 in ihrer Lebenszeit je sinnvoll davon profitieren wird. Beispielsweise bietet die Radeon besseres Multisampling-Antialiasing als die GeForce, und davon profitiert man sofort (sofern man es nutzen möchte.)

Quasar
2004-10-04, 19:21:06
shader 20 ( Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_2_b): 42 fps (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2256802&postcount=93)
shader 20 ( Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_3_0): 43 fps
shader 21 ( Dual Layer 8x8 PCF Shadow Mapping with Flow Control - ps_3_0): 70 fps (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2236226&postcount=22)

Überholt würde ich nicht sagen, aber mit dem einen oder anderen Feature, welches darüber hinaus geht, kann man schon gewinnbringend etwas anfangen.

Nun muss und wird das passieren, was schon bei HTnL passierte: Die Marktsättigung für einen verbreiteten Einsatz in Games muss erreicht werden, aber da sollte man keine Probleme sehen, da über kurz oder lang alle IHVs über HW verfügen werden, die die Fähigkeiten von SM3.0 beherrschen.

Tigerchen
2004-10-04, 19:24:47
das shader 2 derzeit ausreichend sind hat hoffentlich niemand bestritten :) das jedoch shader 3 auch ein sinnvolles feature ist sollte auch niemand bestreiten, ob zu lebzeiten des nv40 oder nicht wird sich zeigen...

Für den nV40 wohl kaum. Der ist einfach zu lahm dafür. Von den Midrangekarten ganz zu schweigen. Die Nachfolgergeneration wird es wohl packen. Wenn ATI dann nichts Gescheites bringt können sie wohl erst mal zurück ins zweite Glied.

hmx
2004-10-04, 20:03:08
????

Quasar hat doch weiter oben gezeigt, dass SM3 Geschwindigkeit bringen kann. Warum Meinst du dann dass SM3 zu Lahm sei, wenn es duch eher dazu da ist Rechenaufwand gezielter einzusetzen (für mehr Geschwindigkeit z.B.). Das sorgt doch eher dafür, dass die Lebzeit der Graka eher verlängert wird.

Edit:
Ausserdem sehe ich hier oft, dass ein neues Feature sei es nun PS1.4 bei Ati oder Tnl bei NV schnell mit dem Argumenent "bis sich dass durchegsetzt hat, ist die Karte eh zu langsam für Games" abgestraft wird. Ich bin kein NV-Fanboy oder so. Ich sehe einfach nur neue Technologie positiv (auch ATi PS1.4 damals oder Tnl). Aber es ist zu einfach stumpf dieses obengenannte Argument zu benutzen.
Einerseits sorgt TnL heute dafür, dass man mit einer Geforce256 doch noch halbwegs spielen kann (wie das mit PS1.4 auf einer 8500aussieht, weiss ich leider nicht), andererseits ist die Situation mit SM3.0 eine andere als damals mit DX z.B.. Mit DX8 konnte man Effekte darstellen die andere Karten nicht konnten, aber als DX8 wirklich verbreitet war waren die Games zwar nicht unspielbar aber zumindest nur eingeschränkt spielbar. Mit SM3.0 kann ein Spieleentwickler die das was er eh für das Spiel vorgesehen hatte noch schneller machen (wenn auch nur für SM3.0 HW). Er braucht nicht zu befürchten, dass wie bei DX8 z.B. das Spiel auf den meisten Karten nicht läuft die kein DX8 können. Deshalb glaube ich, dass sich SM3.0 schneller als DX8 und wahrscheinlich schneller als DX9 durchsetzen wird, auch wenn nur NV dies bietet. Jemand der eine Karte länger behalten wird hat von SM3.0 wahrscheinlich ein Vorteil, da bei intensieveren Shadereinsatz in ein paar Jahren mit einem NV40 wahrscheinlich am am ehesten noch spielen kann.
Ich hoffe mal das es für die leute mit "Standartargument" klar geworden ist, dass man hier auch mal differenzieren muss.

Mad-Marty
2004-10-04, 21:57:49
Ein wirklicher dauerbrenner dieses SM2 vs SM3 gebashe ;D


Nee, aber mal im ernst, zur Zeit schlägt ATi einfach brachial mit dem Speed einer erprobten, optimierten Technik zurück, nvidia auf der anderen Seite ist in der Einführungsphase neuer Technologien, in der diese meist nicht so optimiert sind.

Dazu zählt auch der hohe Aufwand einen Branch zu verwerfen und andere nicht optimale sachen. Wären diese wirklich optimal, die shader entsprechend komplex ( und damit vereinfachbar durch SM3) würde sich auch ein ordentlicher Gewinn herauskristallisieren.

Mein Fazit dazu : Ati gewinnt zur Zeit, also werde ich auch ATi karten kaufen, allerdings ist es falsch SM3 komplett niederzumachen. Das eine NV40 keine chance haben wird den 3dmark06 brauchbar zu rendern und die ersten SM3 Spiele optimal wiederzugeben, sollte jedem klar sein. Aber irgendwann muss ja mal der Grundstein gelegt werden.

In 2 Jahren haben alle was davon - garantiert !

So ;-)
Byebye

LordDeath
2004-10-04, 22:13:04
...Das eine NV40 keine chance haben wird den 3dmark06 brauchbar zu rendern und die ersten SM3 Spiele optimal wiederzugeben, sollte jedem klar sein...

bitte seh den wert eine karte nicht mit denen der 3dmurks punkte gleich! 3dmark ist seit der vorletzten version nur noch ein benchmark für ein spiel geworden, dass es nicht gibt!

Mad-Marty
2004-10-04, 22:23:26
bitte seh den wert eine karte nicht mit denen der 3dmurks punkte gleich! 3dmark ist seit der vorletzten version nur noch ein benchmark für ein spiel geworden, dass es nicht gibt!

Wer sagt denn das ichs gleich sehe, wieder so ein 3dmark ist böse fanat, omg.

Dieser erlaubt einen blick in die zukunft, wie sich karten unter umständen in bestimmten szenarien verhalten könnten.

Auch wenn immer gern darauf herumgehackt wird, wie er ist, er liefert zum einen Richtungsweisende grafik kombiniert mit MÖGLICHEN performance aussichten.

Das gebashe um die PS2 ... nur mal so zum Anstoss, zeigt sich mittlerweile die schwache PS2.0 Performance immer verheerender für FX 5xxx - damals wurde es nur auf schlechte programmierung geschoben.

Aber schluss an dem punkt, ich werde mich an keiner 3dmark/murks diskussion beteiligen.

Und abgesehen vom 3dM05 gibt es auch ne menge spielebenchmarks die leichte vorteile für x800XT PE vs GF6800 U aufzeigen - von gigantischen unterschieden war nie die rede.

aths
2004-10-05, 00:21:09
[COLOR="#000088"]
Für den nV40 wohl kaum. Der ist einfach zu lahm dafür.Warum?

hmx
2004-10-05, 00:28:19
Ja eben nur ein Möglichkeit. Aber das reicht imo nicht aus um zu beurteilen was in Zukunft passieren wird. Im 3DMark03 haben R3xx und NV3x auch gleichauf gelegen, obwohl dem heute in modernen Engines nicht so ist. Man hätte aus den Resultaten damals wenn man so will auch den Schluss ziehen können, die Shaderschwäche des NV3x würde sich auch in Zukunft nicht auswirkungen. Es hat sich aber heute schon gezeigt, dass diese Annahme falsch gewesen wäre. ;)

mapel110
2004-10-05, 00:34:29
Ja eben nur ein Möglichkeit. Aber das reicht imo nicht aus um zu beurteilen was in Zukunft passieren wird. Im 3DMark03 haben R3xx und NV3x auch gleichauf gelegen, obwohl dem heute in modernen Engines nicht so ist. Man hätte aus den Resultaten damals wenn man so will auch den Schluss ziehen können, die Shaderschwäche des NV3x würde sich auch in Zukunft nicht auswirkungen. Es hat sich aber heute schon gezeigt, dass diese Annahme falsch gewesen wäre. ;)

hö? gleichauf? also mit Futuremark-approved treibern sieht mir das nicht nach gleichauf aus.
http://www.legitreviews.com/Reviews/editorial12604_3.shtml

aths
2004-10-05, 00:38:34
Ja eben nur ein Möglichkeit. Aber das reicht imo nicht aus um zu beurteilen was in Zukunft passieren wird. Im 3DMark03 haben R3xx und NV3x auch gleichauf gelegen,Wenn ich mich recht entsinne, liegt im 03-er der R3xx deutlich vor NV3x.

Ailuros
2004-10-05, 01:26:20
Ich hab die Diskussion nicht von Anfang an verfolgt, aber selbst der SM2.0 path in Far Cry wurde um einiges schneller bei NV40 und >65.xx Treibern (Filterungs-Optimierungen fuer Vergleiche abgeschaltet). Leistung wuchs je nach demo zwischen 15 und 80%.

Auf jeden Fall wuerde ich von Leistungs-Optimierungen in Far Cry auf keinen Fall SM3.0 oder SM2.0_b beurteilen. Haette CryTek den einfachen SM2.0 path von Anfang an besser optimiert, haette es viel weniger Grund gegeben extra paths einzusetzen.

Für den nV40 wohl kaum. Der ist einfach zu lahm dafür. Von den Midrangekarten ganz zu schweigen. Die Nachfolgergeneration wird es wohl packen. Wenn ATI dann nichts Gescheites bringt können sie wohl erst mal zurück ins zweite Glied.

Ohne vergleichbare HW ist das wohl zu stark aus der Luft gegriffen. Das zukuenftige HW effizienter und schneller sein wird habe ich keinen Zweifel, aber in dem Fall ist es R520 vs. NV50 und heute NV40 gegen gar nichts.

Demirug
2004-10-05, 01:39:30
Wo genau soll jetzt in deiner Beschreibung der Vorteil für SM3.0 gegenüber SM2.b liegen. Die mögliche Shaderlänge der R420 Architektur ist mehr als ausreichend.

Die Frage war doch ob 2.0 schon überholt ist, oder? Das Hauptproblem bei 2.0 ist nun mal die Shaderlänge. Dies wird ja von den beiden 2.X Profilen gelöst. Wenn du jetzt noch unbedingt einen Vorteil von 3.0 gegenüber 2.A und 2.B haben möchtest führe ich die 2 zusätzlichen FP-Interpolatoren Vektoren ins Feld. Das sind immerhin 25% mehr und da die Interpolatoren aufgrund der längeren Programme als nächstest eng werde auch sehr sinnvoll. Um genau zu sein hätte ich gerne noch ein paar mehr.

hmx
2004-10-05, 01:43:38
Oh stimmt, da hab ich wohl irgendwo alte Benchmarks mit den optimierten treibern gesehen. sry. Aber irgendwie hatte ich doch das Gefühl, dass R3xx und Nv3x teilweise weiter auseinander liegen als die 3Dm03 Resultate.

Monger
2004-10-05, 02:28:28
Das ist jetzt schon die Xte Diskussion hier über das Thema, und jedes Mal hab ich das Gefühl dass aneinander vorbei geredet wird...

Im Grunde geht es doch um zwei Themen:

1) Was bringt mir SM3.0 heute im Vergleich zur Konkurrenz?

2) Welche Bedeutung hat SM3.0 als Vorreiter für künftige Entwicklungen (=Spiele)?


Ersteres scheint mir relativ eindeutig zu sein, den Gleichstand kann man ja an diversen Benchmarks demonstrieren. Es ist auch sinnlos zu argumentieren, dass ja die Spiele eigentlich viel besser könnten wenn doch entsprechend programmiert würde...
Die Entwickler tun's nicht, wenigstens im Moment. Jede Technologie ist nur so gut wie ihre Anwendungen.

Der zweite Fall scheint mir schwierig, weil ich grade meine Kristallkugel verlegt habe. Im Nachhinein wird das wohl ziemlich eindeutig sein, aber momentan kann ich mir alle möglichen Fälle vorstellen. Möglicherweise ist SM3.0 so leicht zu implementieren, dass man es noch zu Lebzeiten des NV40 hier und da sehen wird, und es tatsächlich spürbare Leistungssteigerungen ergibt. Möglicherweise kommen die ersten echten Anwendungen auch Ende 2005. Da die Spezifikationen für SM3.0 ja offensichtlich schon länger feststehen und auch schon abzusehen war dass die IHVs allerspätestens 2005 entsprechende Karten auf den Markt schmeißen würden, halte ich das Argument "je früher ein Feature, desto schneller der Fortschritt" schlicht für falsch.

Naja, die Zeit wird es wie üblich zeigen...

Ailuros
2004-10-05, 04:44:21
Ersteres scheint mir relativ eindeutig zu sein, den Gleichstand kann man ja an diversen Benchmarks demonstrieren. Es ist auch sinnlos zu argumentieren, dass ja die Spiele eigentlich viel besser könnten wenn doch entsprechend programmiert würde...

Ausser Far Cry gibt es kein anderes Spiel momentan mit einem SM3.0 path. Wie sinnlos das Argument ueber Far Cry generell ist, kann man hier sehen:

Show me the island

We probably all agree that Far Cry's Cry Engine can render some very complex environments. We won't try to dispute that fact. However, unfortunately, Cry Tek doesn't deserve much praise regarding efficiency in using gamers' PC's scarce computing resources. You're in for some unpleasant surprises if you capture and analyze Far Cry's communication and the graphics API, using the proper tools.

The concerns start with the crosshair. It's composed of five small lines and the engine renders these lines separately, one by one. In terms of CPU load it doesn't make much difference how much geometry is rendered per API call but it sure does matter how many API calls are made in total**. This is but the first sign of CPU time being spent carelessly. More of the same - with more significant performance implications - can be observed in the engine's terrain rendering. Terrain is split in tiles, which isn't a bad idea actually. However, each of those tiles is split again, into strips, which get rendered individually. Thus the CPU has to do a lot of unnecessary work to render each tile, even though one call per tile would have been perfectly sufficient.

This isn't a big deal as long as the CPU is much more powerful than the GPU. But then GPU performance isn't used carefully either. Naturally lighting calculations are quite complex and it’s crucial to minimize these calculations. Far Cry has the tendency at this point to constantly conduct a large number of lighting calculations, for objects that end up being overdrawn. The lighting calculations themselves aren't optimal either. Each light source gets rendered individually. Consequently the workload for reading out textures is repeated for every light source. The maximum allowed instruction count for 2.0 class shaders is an obvious problem here. But these shader length limitations aren't as bad as to require rendering every light one by one. Far Cry does exactly this, all the time, even though a (small) number of lights could be rendered in a single pass in many instances with PS2.0. With chips that allow longer shaders such as the GeForce FX line, or the new Radeon X800, all lights could always be rendered in one single pass.

Each one of my concerns is only a minor offense against optimisation rules when reviewed in isolation, but they pile up. With the new patch some of these problems get addressed, but unfortunately only for users with SM3.0 capable cards. Everyone else is left only with the currently unoptimized SM2.0 path.

Von Demirug.

http://www.mitrax.de/?cont=artikel&aid=24&page=10

Seither ist die Leistung selbst mit dem SM2.0 path um einiges gestiegen mit neueren Treibern, wie schon erwaehnt, was mir persoenlich zeigt dass selbst der default 2.0 path tatsaechlich verdammt verkorkst ist.

Die Entwickler tun's nicht, wenigstens im Moment. Jede Technologie ist nur so gut wie ihre Anwendungen.

Was tun die Entwickler nicht? Die SM2.0_b und SM3.0 Pfade von CryTek selber, sorgen eigentlich dafuer die Macken des eigentliches Spiels teilweise zu optimieren.

Zukuenftige patches fuer FarCry werden auch Qualitaets-Verbesserungen enthalten die nur auf NV40 momentan moeglich sind.

Der zweite Fall scheint mir schwierig, weil ich grade meine Kristallkugel verlegt habe. Im Nachhinein wird das wohl ziemlich eindeutig sein, aber momentan kann ich mir alle möglichen Fälle vorstellen. Möglicherweise ist SM3.0 so leicht zu implementieren, dass man es noch zu Lebzeiten des NV40 hier und da sehen wird, und es tatsächlich spürbare Leistungssteigerungen ergibt. Möglicherweise kommen die ersten echten Anwendungen auch Ende 2005. Da die Spezifikationen für SM3.0 ja offensichtlich schon länger feststehen und auch schon abzusehen war dass die IHVs allerspätestens 2005 entsprechende Karten auf den Markt schmeißen würden, halte ich das Argument "je früher ein Feature, desto schneller der Fortschritt" schlicht für falsch.

Naja, die Zeit wird es wie üblich zeigen...

SM3.0 ist nicht NUR ueber Leistungssteigerungen. Natuerlich ist deren Brauchbarkeit eher von Interesse was Entwickler betrifft, aber ich werde auf keinen Fall ATI´s oede Marketing-Entschuldigungen (weil sie durch Consolen-Vertraege ueberfoerdert waren und sind momentan) dazu benutzen interessantere und effizientere Technologie zu degradieren und ueberhaupt schon gar nicht wenn ATI selber innerhalb den naechsten 6 Monaten eine SM3.0 Architektur schon vorstellen will.

tombman
2004-10-05, 06:10:32
6 Uhr früh, 3dcenter.de -- die Signatur stimmt :D

sm 3.0 bringt derzeit nur einen Vorteil: den psychologischen.

Zu Hauptlebzeiten des Nv40 wird 3.0 keinen Vorteil gegenüber 2.0b bringen in GAMES.
(und alles andere ist eigentlich irrelevant)

Wenn die Zeit kommt, wo 3.0 wirklich ein MUST ist, wird ATI ganz sicher einen sauschnellen 3.0 part am Markt haben.

Zu Gute rechen muß man Nvidia allerdings die Rolle des "Technologiepushers", die sie ja schon sehr lange innehalten. (siehe GF 1 mit T&L).

Damit bringen sie den Markt nach vorne und machen ATI Feuer unterm- in früheren Zeiten eher lahmen- Arsch.

Es ist gut, daß es die beiden gibt, denn ohne die Konkurrenz würde ATi alle 2 Jahre was rausbringen was keinen wirklich fasziniert und Nvidia würde versuchen mit Grakas die Welt zu beherrschen und diese für 1000€ das Stück verkaufen :D

Omega2
2004-10-05, 08:00:11
Hiho,

um nochmal zu meiner Frage zurückzukommen :)

Ist es für Otto Normaluser sinnvoll oder gar unbedingt nötig heute eine SM3 Karte zu kaufen, obwohl es bis dato kaum/keine Spiele gibt, die das Feature unterstützen und wird es nicht eher so sein, daß dann, wenn SM3 unterstützt wird, die NV40 zu langsam ist ?
----> ergo: Macht es nicht mehr Sinn (für den Normaluser) eine Karte ausschließlich nach Preis/Leistung zu kaufen ?

Der Rest der Diskussion ist sicher auch interessant, aber geht nicht wirklich auf meine Frage ein :)

Cu Omega2

Mantikor
2004-10-05, 08:38:33
Wenn du deine Karte länger behalten willst macht es auf jeden Fall Sinn.

Gast
2004-10-05, 08:47:52
Omega,

1. es ist doch aber durchgeschienen, das Shader 2.0abcdefeghijklm^^... noch lange genug aktuell sein werden.
2. Die Shader 3.0 aber sich nicht mehr zu Lebzeiten des NV40 in großem Maße
genutzt werden.
3. Wenn sie(3NUller Shader) in den meißten Spielen integriert sind, wird der
NV40 zu lahm für diese Spiele sein.... siehe z.B. Aussagen der Entwickler
über Unreal3 Engine & NV40 bei der damaligen Präsentation...
4. Im Moment für den Kauf einer Karte das Ergebnis zählen sollte, also Leistung oder Preis-/Leistung entscheidend sein sollte.

Grüsse
Gortha

Quasar
2004-10-05, 08:50:36
@gast:
Es reichen schon, sagen wir, 10. Wenn es welche sind, die die veralteten Implementationen von SM2.0 nicht ausführen können. (Und ja, da sind welche bei, die nur bis zu einer bestimmten Anzahl benutzt werden dürfen - danach hast du die Freude eines neuen Shaders, inkl. des damit verbundenen Verwaltungsaufwandes).

@Mantikor:
Das würde ich auch so sehen. Wer keine Unterschiede bei der Bildqualität sieht/sehen will und seine Karte eh bei Erscheinen der nächsten Generation wieder abstößt, der ist sicherlich mit SM2 nicht wesentlich schlechter bedient. Wer seine Karte aber so lange behalten will, bis neuere Spiele kaum noch ordentlich laufen, also zwei oder drei Jahre, der sollte sich schon darüber im Klaren sein, daß er ohne SM3.0 evtl. Bildqualität und/oder Speedgewinne verpassen kann.

Insbesondere zwischen ansonsten gleichauf liegenden Karten wie X800 Pro und 6800GT macht es IMO kaum Sinn, jetzt noch zusätzlich zum nicht vorhandenen Speedvortei, den eine XTPE ggü. einer 6k8u ja zumindest hat, auch noch die Chance zu verschenken (im wahrsten Sinne, sind die beiden doch ähnlich teuer), demnächst von ein paar netten Features zu profitieren.

Gortha
2004-10-05, 08:54:51
Ich würde sagen der Shader ist noch nicht überholt und wird noch so lange
von den Entwicklern gut genutzt werden müssen, bis die Masse der am Markt
befindlichen Karten das Shader Model 3.0 unterstützt und somit der USER
den Shader 2.0 ablöst...

Spieleprogrammierer richten sich immer in erster Linie nach dem Markt,
nicht nach einer Technologie.

Grüsse
Gortha

Jesus
2004-10-05, 09:17:42
@gurus:

Wie lange sind eigentlich die Shader die bei dem Zusammenfassen der Lichtquellen bei FC entstehen (beim 2.0b Modell) .

Greift da ATI´s verbesserter F-Buffer schon? Wenn ja dann würde das ja bedeuten dass es keine Probleme gibt mit sehr langen Shadern beim 2.0b Profil, zumindest auf ATI Seite.


Insbesondere zwischen ansonsten gleichauf liegenden Karten wie X800 Pro und 6800GT macht es IMO kaum Sinn, jetzt noch zusätzlich zum nicht vorhandenen Speedvortei, den eine XTPE ggü. einer 6k8u ja zumindest hat, auch noch die Chance zu verschenken (im wahrsten Sinne, sind die beiden doch ähnlich teuer), demnächst von ein paar netten Features zu profitieren.

Stimmt, allerdings sehe ich bei der Pro weniger das nichtvorhandene SM3 als Nachteil, sondern das beschnittene Design dem die 12 Pipes einfach gar nicht gut schmecken zu scheinen (allerdings wir haben ja auch noch 3dc das von solchen Nextgen Engines wie Unreal 3 auch genutzt werden wird und zwar nicht zu knapp, das könnte imho in 2-3 Jahren den Vorteil den SM3 dann wohl haben wird wieder ziemlich ausgleichen, bei den heutigen Karten).

MikBach
2004-10-05, 09:19:33
Der Unterschied zwischen dem PS3.0 und PS2.b (es gibt kein SM2.b!) liegen weitaus hoeher als nur in der Shaderlaenge.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2308682&postcount=14
Erst lesen, dann posten.
Ich bezog mich hier auf die Aussage von Demi, und da geht es um die Shaderlänge.

Wenn es dereinst "richtige" SM 3.0-Spiele (oder Anwendungssoftware) gibt, wird diese in einem möglichen Fallback-Modus auf der RadeonX800 entweder arschlahm sein oder das Bild nur mit geringerer Qualität rendern können.
Warum sollte der R420 arschlahm(im Vergleich zum NV40) sein?
Du hast schon vieles behauptet, was so nicht eingetreten ist, also gehe ich mal davon aus, dass du falsch liegst. Sollte ein R420 arschlahm sein, wird das der NV40 auch.
shader 20 ( Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_2_b): 42 fps (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2256802&postcount=93)
shader 20 ( Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_3_0): 43 fps
shader 21 ( Dual Layer 8x8 PCF Shadow Mapping with Flow Control - ps_3_0): 70 fps (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2236226&postcount=22).
Und?
Jetzt hast du einen Shader gefunden, wo die 6800Ultra schneller als die X800XT ist. Toll. Bei allen anderen Shadern ist die X800XT schneller. so what?
BTW
6800Ultra:
shader 23 ( High Dynamic Range Shader - high quality with fp filtering - ps_2_0):; 131;fps; 7;mspf; 657;rendered frames
shader 24 ( High Dynamic Range Shader - high quality without fp filtering - ps_3_0):; 77;fps; 12;mspf; 388;rendered frames
X800XT PE:
shader 24 ( High Dynamic Range Shader - high quality without fp filtering - ps_2_b): 155 fps 6.4425 mspf 777 rendered frames
Obwohl die 6800 das SM3 Feature fp filtering nutzt, was beim NV40 auch was bringt, ist die X800 ohne schneller
Die Frage war doch ob 2.0 schon überholt ist, oder? Das Hauptproblem bei 2.0 ist nun mal die Shaderlänge. Dies wird ja von den beiden 2.X Profilen gelöst.
Ja, die Frage des Threadstellers ist zwar so gestellt, jedoch denke ich, dass es ihm um einen Vergleich NV40/R420 geht.
Also muss man 3.0 gegen 2.B vergleichen.
Das 2.0 jetzt schon an die Grenzen stösst ist bekannt(FC).

2.a-3.0 birgt wie gesagt die Möglichkeit, deutlich längere Shader zu Proggen...
Mit 2.B von ATI ist das auch möglich. Also kein Argument für SM3.0.

Spieleprogrammierer richten sich immer in erster Linie nach dem Markt,
nicht nach einer Technologie.

Grüsse
Gortha
Ack.
SM3 muss sich erstmal am Markt etablieren, und das wird dauern. Keiner proggt für 5% Marktanteil. ;)

Omega2
2004-10-05, 09:36:36
@Mikbach

Du hast recht, ich meine natürlich den Shader 2.b sry für meine Unkenntnis :)

Cu Omega2

aths
2004-10-05, 09:38:15
Warum sollte der R420 arschlahm(im Vergleich zum NV40) sein?Weil der NV40 z. B. TMUs hat, die FP-Texturen filtern können, der R420 leider nicht. Weil HDR (eigentlich ja MDR)-Lighting absehbar auf uns zukommt, was sich zeitlich mit der SM 3.0-Einführung (wohl nicht ganz zufällig) überschneidet. Auch Offset-Mapping kommt auf uns zu. R420 bietet 3Dc, was dafür leider nicht tauglich ist (da man dann noch eine weitere Textur bräuchte), NV40 bietet das "kostenlose" NRM_PP. Das kommt ins Spiel wenn man z. B. Normal/Heightmaps mit DXT5 komprimiert. Das arbitrary swizzling ist ebenfalls günstig, wenn man mit Texturkanälen rumhantiert.

Du hast schon vieles behauptet, was so nicht eingetreten ist, also gehe ich mal davon aus, dass du falsch liegst. Sollte ein R420 arschlahm sein, wird das der NV40 auch.Ich habe auch schon vieles behauptet, was richtig ist :)

Allerdings möchte die vulgäre Bezeichnung "arschlahm" zurücknehmen und mit "sehr langsam" ersetzen.

betasilie
2004-10-05, 09:41:05
Weil der NV40 z. B. TMUs hat, die FP-Texturen filtern können, der R420 leider nicht. Weil HDR (eigentlich ja MDR)-Lighting absehbar auf uns zukommt, was sich zeitlich mit der SM 3.0-Einführung (wohl nicht ganz zufällig) überschneidet.
Wann, deiner Schätzung nach? *athsfestanagelnwill*

Quasar
2004-10-05, 09:45:45
Stimmt, allerdings sehe ich bei der Pro weniger das nichtvorhandene SM3 als Nachteil, sondern das beschnittene Design dem die 12 Pipes einfach gar nicht gut schmecken zu scheinen (allerdings wir haben ja auch noch 3dc das von solchen Nextgen Engines wie Unreal 3 auch genutzt werden wird und zwar nicht zu knapp, das könnte imho in 2-3 Jahren den Vorteil den SM3 dann wohl haben wird wieder ziemlich ausgleichen, bei den heutigen Karten).
3DC läßt sich durch einfach mehr RAM auf der Karte mehr als kompensieren - unkomprimierte normals sehen nicht nur besser aus, sondern ersparen auch ein bissel Pixelshader-Arbeit.

Quasar
2004-10-05, 09:47:47
Und?
Jetzt hast du einen Shader gefunden, wo die 6800Ultra schneller als die X800XT ist. Toll. Bei allen anderen Shadern ist die X800XT schneller. so what?
Dein Posting zeigt nur, daß du nichts verstanden hast. Es hat einen Grund, warum ich diesen Shader ausgewählt habe, es ist nicht XPTE vs. Ultra, sondern GT vs. Pro und ich hätte, um meinen Punkt zu machen, auch das P"s.B-Resultat weglassen können, es sollte lediglich verdeutlichen, das auch bei heute gleicher Ausgangsleistung gewisse Features von SM3 deutlich mehr Geschwindigkeit bringen können.

Jesus
2004-10-05, 09:52:51
3DC läßt sich durch einfach mehr RAM auf der Karte mehr als kompensieren - unkomprimierte normals sehen nicht nur besser aus, sondern ersparen auch ein bissel Pixelshader-Arbeit.

Ich meinte eigentlich auf heutige Karten wie Nv40 und R420 in 2-3 Jahren gesehen. Was der nv40 dann bspw. bei Unreal 3 durch SM3 an Speed womöglich gewinnt, wird durch die Texturfülle wohl wieder zunichte gemacht werden ("nur" 256MB ;) ). Beim R420 sehe ich es umgekehrt. Aber mal sehen ;)

btw lt. ATI ist ihr 3dc ( was ja nur 4:1 komprimiert) verlustfrei und so gut wie umsonst afaik.

Dein Posting zeigt nur, daß du nichts verstanden hast. Es hat einen Grund, warum ich diesen Shader ausgewählt habe, es ist nicht XPTE vs. Ultra, sondern GT vs. Pro und ich hätte, um meinen Punkt zu machen, auch das P"s.B-Resultat weglassen können, es sollte lediglich verdeutlichen, das auch bei heute gleicher Ausgangsleistung gewisse Features von SM3 deutlich mehr Geschwindigkeit bringen können.

Ist die Ausgangsleistung (füllrate )wirklich gleich ? Beim 3dmark05 singletexturing ist doch die GT weit vor der Pro. Warum eigentlich ?

Quasar
2004-10-05, 09:59:15
Ich meinte eigentlich auf heutige Karten wie Nv40 und R420 in 2-3 Jahren gesehen. Was der nv40 dann bspw. bei Unreal 3 durch SM3 an Speed womöglich gewinnt, wird durch die Texturfülle wohl wieder zunichte gemacht werden ("nur" 256MB ;) ). Beim R420 sehe ich es umgekehrt. Aber mal sehen ;)
Ok. :)

btw lt. ATI ist ihr 3dc ( was ja nur 4:1 komprimiert) verlustfrei und so gut wie umsonst afaik.



Ist die Ausgangsleistung (füllrate )wirklich gleich ? Beim 3dmark05 singletexturing ist doch die GT weit vor der Pro. Warum eigentlich ?
12x475 vs. 16x350 - ist 'nahezu' Gleichstand. (~1,7% Abweichung)

Demirug
2004-10-05, 10:02:31
btw lt. ATI ist ihr 3dc ( was ja nur 4:1 komprimiert) verlustfrei und so gut wie umsonst afaik.

Nicht mal ATI spricht von verlustfrei. Der Verlust kann im Vergleich zu den normalen DXT Formaten geringer sein. Das ist dann aber auch schon alles.

Ist die Ausgangsleistung (füllrate )wirklich gleich ? Beim 3dmark05 singletexturing ist doch die GT weit vor der Pro. Warum eigentlich ?

Weil der X800 (und der X700 auch) grosse Probleme beim Umsetzten der theoretischen Fillrate In einfachen Shadingsituationen hat. Irgendwas klemmt da.

Holundermann
2004-10-05, 10:26:57
ausserdem verbraucht das komprimieren auch rechenleistung, for free ist und wird komprimieren nie sein...

ka wie gut 3dc wirklich ist, aber glaub das es bei einer 256mb karte noch eine zeit lang keine relevanz haben wird :)

und natürlich sollte man immer nach p/l die karten kaufen, aber da hat ati nur im obersten preissegment die nase vorn.

Jesus
2004-10-05, 10:27:20
Nicht mal ATI spricht von verlustfrei. Der Verlust kann im Vergleich zu den normalen DXT Formaten geringer sein. Das ist dann aber auch schon alles.

aber fast :)


In fact, the problem is much worse because DXTC & S3TC are ineffective at compressing normal
maps. They tend to have trouble capturing the small edges and subtle curvature that normal maps
are designed to capture, and they also introduce unsightly block artifacts. Because normal maps are
used to capture light reflections and realistic surface highlights, these problems are amplified relative
to their impact on color textures. The results are sufficiently poor that game artists and developers
would rather not use normal maps at all on most surfaces, and instead limit themselves to lower
resolution maps on selected parts of the rendered scene.
3Dc provides an ideal solution to the normal map compression problem. It provides up to 4:1
compression of normal maps, with image quality that is virtually indistinguishable from the
uncompressed version. The technique is hardware accelerated, so the performance impact is
minimal. Thus, developers are freed to use higher resolution, more detailed normal maps, and/or use
them on all of the objects in a scene rather than just a select few.


ausserdem verbraucht das komprimieren auch rechenleistung, for free ist und wird komprimieren nie sein...


ja, 2 zusätzliche PS Instruktionen

Allerdings würd ichs auch gerne mal in Aktion sehen ;)

Radeonator
2004-10-05, 10:38:42
http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx

So, das ist mal eine Gegenüberstellung von Feature Sets

Ailuros
2004-10-05, 10:38:55
@gurus:

Wie lange sind eigentlich die Shader die bei dem Zusammenfassen der Lichtquellen bei FC entstehen (beim 2.0b Modell) .

Greift da ATI´s verbesserter F-Buffer schon? Wenn ja dann würde das ja bedeuten dass es keine Probleme gibt mit sehr langen Shadern beim 2.0b Profil, zumindest auf ATI Seite.


Bin zwar kein Guru, aber Far Cry sieht mir eher nach einem SM2.0 Spiel aus. Wenn ich es nicht falsch verstanden habe, werden SM2.0 Karten bei Belichtungen zu multipass gezwungen, obwohl es theoretisch in der Mehrzahl keinen Grund dazu geben wuerde. Im Gegenfall waeren alle Karten schneller gewesen in Far Cry.

SM2.0_b/SM3.0 erlauben eben u.a. dass die Belichtungen in einem pass durchgefuehrt werden.

Quasar
2004-10-05, 10:45:49
http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx

So, das ist mal eine Gegenüberstellung von Feature Sets
Ist leider von einem nV-Mitarbeiter. Das läßt die Objektivität der Kommentare schon wieder etwas fraglich erscheinen.

MikBach
2004-10-05, 10:51:54
Ist leider von einem nV-Mitarbeiter. Das läßt die Objektivität der Kommentare schon wieder etwas fraglich erscheinen.
Ja, ausserdem 2.0 gegen 3.0. Wir sprechen hier aber von 2.B gegen 3.0.

Radeonator
2004-10-05, 10:53:24
Ist leider von einem nV-Mitarbeiter. Das läßt die Objektivität der Kommentare schon wieder etwas fraglich erscheinen.


Die Kommentare einfach übersehen ;)
Die ersten Spalten ohne description anschauen, dann ists interessanter ;)

Ailuros
2004-10-05, 10:53:29
6 Uhr früh, 3dcenter.de -- die Signatur stimmt :D

Von dem eher albernen Scherz abgesehen, sehr wenige werden bezahlt um bei der Arbeit u.a. auch zu surfen :P

Radeonator
2004-10-05, 11:01:47
Von dem eher albernen Scherz abgesehen, sehr wenige werden bezahlt um bei der Arbeit u.a. auch zu surfen :P

Aha? Neidisch :tongue: ;D

Ailuros
2004-10-05, 11:07:33
Aha? Neidisch :tongue: ;D

7 PC und 2 TV Monitore; Satellite-TV, DVD usw usw. Wird das das Raetsel des Tages? *grins*

deekey777
2004-10-05, 11:07:40
Bin zwar kein Guru, aber Far Cry sieht mir eher nach einem SM2.0 Spiel aus. Wenn ich es nicht falsch verstanden habe, werden SM2.0 Karten bei Belichtungen zu multipass gezwungen, obwohl es theoretisch in der Mehrzahl keinen Grund dazu geben wuerde. Im Gegenfall waeren alle Karten schneller gewesen in Far Cry.

SM2.0_b/SM3.0 erlauben eben u.a. dass die Belichtungen in einem pass durchgefuehrt werden.


Darf ich etwas hinzufügen?
Bestimmt. Die Infos zu 2.0b bzw. 3.0 findet man, wenn der Patch 1.2 installiert ist, unter: X:\programme\Ubisoft\Crytek\Far Cry\Support .

MikBach
2004-10-05, 11:09:58
Weil der NV40 z. B. TMUs hat, die FP-Texturen filtern können, der R420 leider nicht.
Solange der X800 ohne genauso schnell ist wie 6800 mit, sehe ich da kein Problem.

Ich habe auch schon vieles behauptet, was richtig ist :)
Das stimmt. :)

MikBach
2004-10-05, 11:12:47
Dein Posting zeigt nur, daß du nichts verstanden hast. Es hat einen Grund, warum ich diesen Shader ausgewählt habe, es ist nicht XPTE vs. Ultra, sondern GT vs. Pro und ich hätte, um meinen Punkt zu machen, auch das P"s.B-Resultat weglassen können, es sollte lediglich verdeutlichen, das auch bei heute gleicher Ausgangsleistung gewisse Features von SM3 deutlich mehr Geschwindigkeit bringen können.
Du hast mein Anliegen auch nicht verstanden. Ich wollte damit zum Ausdruck bringen, dass der NV40 einige der SM3 Features braucht um auf ATI-Speed zu kommen. Ohne wäre der NV40 deutlich unterlegen.

Ailuros
2004-10-05, 11:29:57
Du hast mein Anliegen auch nicht verstanden. Ich wollte damit zum Ausdruck bringen, dass der NV40 einige der SM3 Features braucht um auf ATI-Speed zu kommen. Ohne wäre der NV40 deutlich unterlegen.

In Far Cry? Das Zeug in FC waere IMHO theoretisch auch mit einem SM2.0_a Pfad moeglich gewesen und davon haetten sogar NV3x profitiert.

Durch einen Pfad Umstaende zu ersparen und ergo dadurch auch Leistung zu erhoehen, heisst nicht dass die vollen Features benutzt werden.

Von reinen SM3.0 features werden wir wohl erst reden koennen die auch Bildqualitaet betreffen werden und fuer diese siehe patch 1.3. Was besonderes erwarte ich zwar nicht unbedingt, aber in dem Fall geht es dann tatsaechlich um Effekte die auf der einen Karte moeglich und auf der anderen nicht moeglich sind.

Quasar
2004-10-05, 11:34:48
Du hast mein Anliegen auch nicht verstanden. Ich wollte damit zum Ausdruck bringen, dass der NV40 einige der SM3 Features braucht um auf ATI-Speed zu kommen. Ohne wäre der NV40 deutlich unterlegen.
Unter welchen Umständen?

edit: Vergiß' das. Ist ja sowieso völlig OT.
edit2: ...da es nicht um nVidia vs. ATi geht, sondern um Shadermodelle - die kann jeder IHV implementieren, wann er will.

MikBach
2004-10-05, 11:36:38
In Far Cry?
Nein, ich meinte den Shadermark2.1

Von reinen SM3.0 features werden wir wohl erst reden koennen die auch Bildqualitaet betreffen werden und fuer diese siehe patch 1.3. Was besonderes erwarte ich zwar nicht unbedingt, aber in dem Fall geht es dann tatsaechlich um Effekte die auf der einen Karte moeglich und auf der anderen nicht moeglich sind.
Wüsste gerne welche Effekte das sein sollten, und ob diese Effekte tatsächlich nicht mit 2.B darstellbar sind.

Ailuros
2004-10-05, 11:55:48
Nein, ich meinte den Shadermark2.1

Und was genau ueberzeugt Dich dass es sich nicht auch in diesem Fall um eine SM2.0 Applikation handelt, die SM3.0 basierende Leistung-Optimierungen in einer neuen Version hinzugefuegt hat?

As we've seen from previous testing with the 6800's, the performance difference in going from the Shader compiled under PS2.0 to PS3.0 aren't great in these tests, but then these are Shaders that are designed to run under PS2.0 in the first place. In some cases the variance to 6800 GT's performance is larger than the pure shader rate differences would suggest, indicating that there are some pixel fill-rate or bandwidth limitations occurring.

http://www.beyond3d.com/previews/nvidia/nv43/index.php?p=11

aths
2004-10-05, 12:33:36
Wann, deiner Schätzung nach? *athsfestanagelnwill*Spätestens mit der U3-Engine :) Wobei MDR-Lighting nicht besonders schwierig zu implementieren ist.

Quake3 z. B. nutzt bereits 1 Bit für Overbright Lighting – die "Nachfrage" nach MDR ist da. NV40 vereinfacht (und beschleunigt) die Nutzung von "vernünftigem" MDR-Rendering erheblich.

aths
2004-10-05, 12:36:20
btw lt. ATI ist ihr 3dc ( was ja nur 4:1 komprimiert) verlustfrei und so gut wie umsonst afaik.3Dc komprimiert 2:1, ist nicht verlustfrei, und nur dann "for free" wenn die arithmetische Pixelshaderleistung nicht der Flaschenhals ist (sprich, die Leistung an CPU, Bandbreite oder Texturfüllrate hängt.)

Man kann Normalmaps auch mit DXT komprimieren, die ja bis zu 4 Kanäle umfassen können (3Dc: Nur 2 Kanäle.)

Gast
2004-10-05, 12:59:15
Ausserdem steht bei ATI (ACHTUNG!!) UP TO 4:1 und nicht ALWAYS. Wird anscheinend gerne überlesen sowas. Weiterhin haben aths und andere 3dc schon mehr oder weniger entzaubert.

Exxtreme
2004-10-05, 13:03:18
3DC läßt sich durch einfach mehr RAM auf der Karte mehr als kompensieren - unkomprimierte normals sehen nicht nur besser aus, sondern ersparen auch ein bissel Pixelshader-Arbeit.
Nebenbei sparen die Kompressionsmechanismen neben RAM auch noch Bandbreite. Um fehlendes 3Dc auszugleichen müsste man zusätzlich zu mehr RAM, den Speicher auch noch höher takten oder den Bus breiter machen.

Gast
2004-10-05, 13:17:00
Nebenbei sparen die Kompressionsmechanismen neben RAM auch noch Bandbreite. Um fehlendes 3Dc auszugleichen müsste man zusätzlich zu mehr RAM, den Speicher auch noch höher takten oder den Bus breiter machen.

Und wann soll 3dc kommen? Bei sofortiger Nutzung ist es bestimmt sinnvoll, wobei da noch die benötigte PS-Power zu berücksichtigen wäre. Kommt es in 1 oder 2 Jahren dann...

Holundermann
2004-10-05, 13:23:27
spätestens mit serious sam 2 :)

Exxtreme
2004-10-05, 13:25:56
Und wann soll 3dc kommen? Bei sofortiger Nutzung ist es bestimmt sinnvoll, wobei da noch die benötigte PS-Power zu berücksichtigen wäre. Kommt es in 1 oder 2 Jahren dann...
Das macht nichts. Kompression ist eigentlich immer gut. :) Man kann damit entweder Resourcen sparen, die man dann in Antialiasing etc. stecken kann. Oder die Programmierer packen mehr Effekte rein, ohne daß die Karten in die Knie gehen. War bei S3TC genauso.

Quasar
2004-10-05, 13:28:38
Und wieviel Bandbreite wird da effektiv gespart? Wieviel fangen Texturcaches ab und wieviel wird durch bessere Ausnutzung der pro Transaktion zur Verfügung stehenden Bits gemildert/verschlimmert?

aths
2004-10-05, 13:36:12
Papalapapp,

zeig mir einen Programmierer der mehr als 200 Befehle in einem Shader reinpackt!

Mich würde mal interessieren wie der NV40 wohl reagiert wenn er tatsächlich auf einen solchen vollgepackten Shader trifft. 100-derte wohl möglich, ich bin mir 100% sicher der NV40 würde völlig einbrechen.

Alles nur Marketing!In Spielen, die auf möglichst vielen Systemen möglichst gut laufen sollen wird man hunderte Instruktionen pro Shader vergeblich suchen.

"Nur Marketing" ist es trotzdem nicht. Man kann, wenn erforderlich, so lange Shader Singlepass rendern. Beim SM 3.0 ist das in der Regel sogar sehr gut, einen sehr langen Shader zu nehmen anstatt viele kleine. Dank Dynamic Branching müssen ja nicht unbedingt alle Befehle wirklich abgearbeitet werden. Außerdem bietet der NV40 eine recht hohe "Packdichte", pro Takt kann er durchschnittlich mehr Instruktionen ausführen als R420 (und das ohne "SM 3.0-Befehle" zu verwenden.)

Coda
2004-10-05, 13:39:50
Ausserdem steht bei ATI (ACHTUNG!!) UP TO 4:1 und nicht ALWAYS. Wird anscheinend gerne überlesen sowas. Weiterhin haben aths und andere 3dc schon mehr oder weniger entzaubert.
Texturkompression bietet bei gleich großen Texturen immer den gleichen Faktor an Kompression, es ist nicht so das es besser oder schlechter komprimierbare Texturen gibt bei DXT oder 3Dc

aths
2004-10-05, 13:46:32
Nebenbei sparen die Kompressionsmechanismen neben RAM auch noch Bandbreite. Um fehlendes 3Dc auszugleichen müsste man zusätzlich zu mehr RAM, den Speicher auch noch höher takten oder den Bus breiter machen.Stimmt.

Allerdings kann man auch mit DXT5 ganz passabel komprimieren. DXT5 kann praktisch jede Karte, jedenfalls kenne ich keine DX7-Karte die das nicht beherrscht. Nutzt man DXT5, muss man in jedem Fall renormalisieren (da die Zwischenwerte durch lineare Interpolation wiederhergestellt werden, wodurch die Vektoren "in der Mitte" zu kurz werden.) Bei 3Dc muss man dafür Z rekonstruieren. Der Rechenaufwand ist vergleichbar.

Da man bei DXT5 ohnehin renormalisieren muss, kann man aber auch denormalisierte Normal Maps speichern, weil ja Z mitgespeichert wird. Der Vorteil ist, dass man bestimmte Winkel somit viel feiner abstufen kann, als wenn man mit normalisierten Normalmaps arbeitet. Da 3Dc die Z-Rekonstruktion beinhaltet, muss man zwangsläufig mit normalisierten Maps arbeiten. Außerdem kann man im DXT5 Alphakanal noch eine Heightmap speichern (benötigt für Offset-Mapping.)

Die Renormalisierung kostet auf der Radeon iirc effekiv 2 Takte, auf dem NV40 ist es "for free".

Exxtreme
2004-10-05, 13:51:09
Und wieviel Bandbreite wird da effektiv gespart? Wieviel fangen Texturcaches ab und wieviel wird durch bessere Ausnutzung der pro Transaktion zur Verfügung stehenden Bits gemildert/verschlimmert?
Man nicht genau sagen wieviel da gespart wird. Es hängt von den Texturen, der Polygonsortierung, den Gebrauch von 3Dc, der Texturcachegrösse ab etc.

aths
2004-10-05, 13:55:00
Es ist gut, daß es die beiden gibt, denn ohne die Konkurrenz würde ATi alle 2 Jahre was rausbringen was keinen wirklich fasziniert und Nvidia würde versuchen mit Grakas die Welt zu beherrschen und diese für 1000€ das Stück verkaufen :DSo krass würde es wohl nicht kommen (1000 €.) Allerdings würde wohl die Innovationsrate deutlich verlangsamt und es damit deutlich länger dauern, ehe Highend-Produkte in den erschwinglichen Midrange-Bereich wandern. "Geheimtipps" wie GF3 Ti200, GF4 Ti 4200 oder FX 5900 XT wären wohl rar gesät.

Mit nur zwei Konkurrenten sehe ich allerdings auch noch keinen funktionierenden Markt. Ich wäre froh, wenn es eine dritte ernstzunehmende Kraft gäbe.

Quasar
2004-10-05, 13:56:19
@aths:
Es heisst "Heightmap".

@exxtreme:
Ja, das dachte ich mir. ;)

aths
2004-10-05, 13:57:04
Solange der X800 ohne genauso schnell ist wie 6800 mit, sehe ich da kein Problem.Das ist solange der Fall, wie sich die Macher daran orientieren womit die Radeon der aktuellen Generation noch gut zurecht kommt.

Xmas
2004-10-05, 15:18:01
Jetzt hast du einen Shader gefunden, wo die 6800Ultra schneller als die X800XT ist. Toll. Bei allen anderen Shadern ist die X800XT schneller. so what?
Die Benches würde ich gerne mal sehen.

Tigerchen
2004-10-05, 15:26:33
Warum?

Hast du wirklich einen anderen Eindruck oder bist du nur aus Prinzip anderer Meinung?
Meinst du der nV40 wird ein Spiel daß wirklich mal branching einsetzt ausreichend beschleunigen?

aths
2004-10-05, 15:57:17
[COLOR="#000088"]
Hast du wirklich einen anderen Eindruck oder bist du nur aus Prinzip anderer Meinung?
Meinst du der nV40 wird ein Spiel daß wirklich mal branching einsetzt ausreichend beschleunigen?SM 3.0 beinhaltet gegenüber 2.0 Profil 2_B deutlich mehr als nur Branching. Dazu gehören Befehle, die mehrere Befehle vom 2_B-Profil ersetzen. Oder neue Texturoperationen die gewisse Effekte vereinfachen. Oder static Branching.

Sinnvoll eingesetzt entlastet dynamisches Branching die CPU wie auch die NV40-GPU. Relativ gesehen ist die Wahrscheinlichkeit, dass NV43 davon profitiert, sogar höher als beim NV40. SM 3.0 kann nicht nur Highend-Modellen nützen. "Die Karte ist zu langsam für SM 3.0" ist imo kein Grund, da ein möglicher Einsatz der SM3-Technik die Verbesserung der Leistung ist.

LordDeath
2004-10-05, 16:12:52
@aths:
ist also deine aussagen, dass der nv40 besser als atis r420 ist, weil dieser die geringere rohleistung mit dem sm3.0 mehr als ausgleicht?

die neuen mid-range karten sind ja leistungstechnisch ähnlich weshalb doch die 6600er karten mit zunehmenden alter sich immer mehr von den x700er karten absetzten werden. und dazu kommt noch, dass nur nvidia die neue karte auch für agp anbieten will!

lieg ich jetzt mit diesen behauptungen richtig oder doch falsch?

aths
2004-10-05, 16:17:46
@aths:
ist also deine aussagen, dass der nv40 besser als atis r420 ist, weil dieser die geringere rohleistung mit dem sm3.0 mehr als ausgleicht?Nein. SM3 kommt ja nicht automatisch zur Wirkung. NV40 profitiert derzeit eher davon, dass seine Pixelpipes pro Takt mehr Befehle ausführen als R420. Der NV40 bietet ggü. R420 deutlich mehr zusätzliche Features als nur SM3. SM3 ist gegenüber CineFX eine nette Zugabe. Der Hauptnutzen liegt imo in der gestiegerten Effizienz der Pipelines, und der OpenEXR-kompatiblen durchgehenden FP16-Unterstützung. Normale Computerspieler brauchen sich heute und morgen um OpenEXR allerdings keinen Kopf zu machen.

die neuen mid-range karten sind ja leistungstechnisch ähnlich weshalb doch die 6600er karten mit zunehmenden alter sich immer mehr von den x700er karten absetzten werden. und dazu kommt noch, dass nur nvidia die neue karte auch für agp anbieten will!ATI bietet beim R410 zwar die ältere Technik, praktisch ohne neue Features, dafür allerdings 6 Vertexshader, und mindestens 1 ROP pro Pipe (u. u. sogar 2, das frage ich noch nach. Für 2 wäre die Bandbreite nicht da.) Das mit den ROPs kann bei anspruchlosen Spielen Vorteile haben, gerade wenn man Antialiasing nutzt. Das mit dem Vertexshader bringt in bestimmten Szenarien bei anspruchsvollen Spielen was.

deekey777
2004-10-05, 16:18:28
Wie wird denn diese Diskussion aussehen, wenn beide Hersteller SM 3.0 Hardware haben...

So lange SM 2.0 ausreicht, wird es auch nicht überholt sein. Auch die NV40 weiss etwas mit SM 2.0 anzufangen, ob es auch umgekehrt geht, bezweifle ich.

betasilie
2004-10-05, 16:31:57
Spätestens mit der U3-Engine :) Wobei MDR-Lighting nicht besonders schwierig zu implementieren ist.

Quake3 z. B. nutzt bereits 1 Bit für Overbright Lighting – die "Nachfrage" nach MDR ist da. NV40 vereinfacht (und beschleunigt) die Nutzung von "vernünftigem" MDR-Rendering erheblich.
Ok, die U3 Engine ist so eine Sache. Deren Einführungsdatum ist halt nur sehr fraglich. Ich würde auf 2007 tippen, was halt schon noch ne Weile Weg ist.

Aber da Du sagts, dass MDR-Lighting gut zu implementieren ist, würde es mich nicht wundern, wenn das nächste CryTek Spiel MDR-Lighting nutzen würde. Die Jungs waren mit FarCry technologische Vorreiter und imho werden sie versuchen die Pace wieder vorzugeben in ihrem nächsten Spiel. MDR-Lighting könnte eins der Features sein.

Jesus
2004-10-05, 16:36:16
3Dc komprimiert 2:1, ist nicht verlustfrei, und nur dann "for free" wenn die arithmetische Pixelshaderleistung nicht der Flaschenhals ist (sprich, die Leistung an CPU, Bandbreite oder Texturfüllrate hängt.)

lt. dem ATI 3dc pdf komprimiert 3dc "minimal" 2:1 und ist annähernd verlustfrei (Es kommt auch immer drauf an was man macht, entweder mehr Detail, oder mehr Texturen).


Man kann Normalmaps auch mit DXT komprimieren, die ja bis zu 4 Kanäle umfassen können (3Dc: Nur 2 Kanäle.)

3dc schliesst 3 Kanäle mit ein so wie ich es verstanden habe ( die 3. Koordinate wird einfach in die anderen beiden reingerechnet, was im Pixelshader mit 2 Instruktionen gemacht wird).

Auch lt. ATI soll die Qualität mit DXTc sehr schlecht sein.. naja leider gibt es noch nichts was 3dc benutzt ( ausser die ATI demos und da siehts ja recht gut aus ;) )


Btw:
Welche Art Lightning wird eigentlich für Return to Proxycon verwendet? Sieht mir ja verdammt nach HDR aus...

r@w
2004-10-05, 16:40:32
Aber da Du sagts, dass MDR-Lighting gut zu implementieren ist, würde es mich nicht wundern, wenn das nächste CryTek Spiel MDR-Lighting nutzen würde. Die Jungs waren mit FarCry technologische Vorreiter und imho werden sie versuchen die Pace wieder vorzugeben in ihrem nächsten Spiel. MDR-Lighting könnte eins der Features sein.Und das, obwohl sie es nicht mal schaffen, einen vernünftigen Patch zustande zu bringen?
Echt 'ne Leistung: mit 1.1 die BQ versauen und den 1.2 sofort nach Release wieder zurück ziehen.
Und seither... Schweigen im Walde.

Also wenn sie nicht einmal das hinbekommen...
:D

Razor

betasilie
2004-10-05, 16:43:31
Und wieviel Bandbreite wird da effektiv gespart? Wieviel fangen Texturcaches ab und wieviel wird durch bessere Ausnutzung der pro Transaktion zur Verfügung stehenden Bits gemildert/verschlimmert?
Sry, aber wieso musst Du 3dc nieder machen? Das Feature kostet den Kunden nichts und wird mit Sicherheit erfolgreich (Leistung und/oder schönere Texturen) eingesetzt werden. Ich versteh echt nicht, dass Du 3Dc einfach runtermachen willst.

Und wie Extrem schon sagte, ist deine Aussage mit "etwas mehr RAM" Quatsch. Erstmal kostet eine Karte mit mehr RAM den Kunden erheblich mehr und zweitens braucht man mehr Datendurchsatz, was auch nochmal mal mehr kostet.

Daher ist 3Dc doch ideal für den Kunden, da es ohne Aufpreis mit einer R420-Karte den Speed und die Optik einer viel teureren Karte, die schnelleren und größeren RAM braucht, darstellen kann.

Und diese Gerüchte, dass 3Dc nicht funktioniert wegen der PS-Last sind doch mal ganz weit hergeholt. Sowas sollte man nicht ohne Beweis propagieren. HL² wird schon zeigen, dass 3Dc alltagstauglich ist, und die RubyDemo, die auch ordentlich mit Shadern hantiert, zeigt schonmal, dass 3Dc auch in PS fordernden Anwendungen eingesetzt werden kann.

r@w
2004-10-05, 16:45:57
Welche Art Lightning wird eigentlich für Return to Proxycon verwendet? Sieht mir ja verdammt nach HDR aus...Ich glaube nicht, dass bei RtP auch nur irgend eine Art von "Entzündung", Blitzen oder Gewittern benutzt wird!
:D

Razor

Jesus
2004-10-05, 16:46:43
Ich glaube nicht, dass bei RtP auch nur irgend eine Art von "Entzündung", Blitzen oder Gewittern benutzt wird!
:D

Razor

was hat das mit HDR zu tun ?

EDIT ok habs kapier... lach :uexplode:

LordDeath
2004-10-05, 16:47:48
Es kommt auch immer drauf an was man macht, entweder mehr Detail, oder mehr Texturen.

ich zweifle aber stark dran, dass irgendein entwickler, der nicht von ati kräftig gesponsort wird sich dazu durchdringen wird, extra wegen einer bestimmten grakamarke extra noch höher auflösende texturen zu pinseln!

r@w
2004-10-05, 16:48:36
was hat das mit HDR zu tun ?Laß das "n" einfach weg und Du wirst verstehen!
Hoffentlich...
:D

Razor

Jesus
2004-10-05, 16:49:20
ich zweifle aber stark dran, dass irgendein entwickler, der nicht von ati kräftig gesponsort wird sich dazu durchdringen wird, extra wegen einer bestimmten grakamarke extra noch höher auflösende texturen zu pinseln!

U3 wird es wohl benutzen. Fc soll es auch noch bekommen, oder HL2.

War doch bei S3TC ( btw. DXTc für D3d) genauso.

betasilie
2004-10-05, 16:49:41
Und das, obwohl sie es nicht mal schaffen, einen vernünftigen Patch zustande zu bringen?
Echt 'ne Leistung: mit 1.1 die BQ versauen und den 1.2 sofort nach Release wieder zurück ziehen.
Und seither... Schweigen im Walde.

Also wenn sie nicht einmal das hinbekommen...
:D

Razor
Nichts weiter als ein netter Flame von dir. Aber was will man auch von dir erwarten?

CryTek hat immerhin mit ihrem Erstlingswerk die technolgische Führerschafft in der Branche übernommen haben und ein Spiel entwickelt was quasi in jedem Magazin Höchstwertungen kassiert hat. Jetzt zu behaupten, dass die Sache mit dem Patch unvermögen ist, kann man also nur als billigen Flame werten.

Auch an deine Ohren sollte gedrungen sein, dass CryTek und Ubi-Soft im Clinch liegen, weil CryTek nach EA gegangen ist. Somit sollte wohl klar sein, dass firmenpolitische Gründe für die Verzögerungen verantwortlich sind.

aths
2004-10-05, 16:49:42
lt. dem ATI 3dc pdf komprimiert 3dc "minimal" 2:1 und ist annähernd verlustfrei (Es kommt auch immer drauf an was man macht, entweder mehr Detail, oder mehr Texturen).Die Daten werden verlustbehaftet mit fixer Komprimierungsrate 2:1 gepackt.

3dc schliesst 3 Kanäle mit ein so wie ich es verstanden habe ( die 3. Koordinate wird einfach in die anderen beiden reingerechnet, was im Pixelshader mit 2 Instruktionen gemacht wird).Ja. Das geht aber nur für normalisierte Maps. Das heißt, die XYZ-Vektorlänge muss = 1 sein. Das ist die dritte Information, mit der man anhand von X und Y dann Z rekonstruiert. (Man geht davon aus: Länge = 1, und da man X und Y hat lässt sich Z ausrechnen.)

Mit nicht normalisierten Normalmaps kann man bestimmte Winkel feiner abstufen als mit normalisierten. 3Dc bringt also zwar wenig Verluste rein (da nur 2:1 komprimiert wird) aber verlangt das qualitätsmäßig schlechtere Verfahren, nur normalisierte Werte zu speichern.

Auch lt. ATI soll die Qualität mit DXTc sehr schlecht sein.. naja leider gibt es noch nichts was 3dc benutzt ( ausser die ATI demos und da siehts ja recht gut aus ;) )Das behauptet ATI erst seit es 3Dc gibt. In einem älteren Paper schlagen sie selbst DXT5 vor. Der Vergleichs-Screenshot im 3Dc-Whitepaper zeigt DXT5 ohne Renormalisierung. Damit wird DXT künstlich schlechter gemacht als es ist.


Btw:
Welche Art Lightning wird eigentlich für Return to Proxycon verwendet? Sieht mir ja verdammt nach HDR aus... Lighting, nicht Lightning! Ist HDR- (eigentlich MDR) Lighting, ja.

r@w
2004-10-05, 16:50:36
ich zweifle aber stark dran, dass irgendein entwickler, der nicht von ati kräftig gesponsort wird sich dazu durchdringen wird, extra wegen einer bestimmten grakamarke extra noch höher auflösende texturen zu pinseln!Und das Wort "extra" ist hier entscheidend.
Schließlich entwickelt man ja wohl eher für den Mainstream...

Razor

P.S.: Aber es geht hier doch wohl nicht wirklich um 3dc, oder?

Jesus
2004-10-05, 16:51:55
Das behauptet ATI erst, seit es 3Dc gibt. In einem älteren Paper schlagen sie selbst DXT5 vor. Der Vergleichs-Screenshot im 3Dc-Whitepaper zeigt DXT5 ohne Renormalisierung. Damit wird DXT künstlich schlechter gemacht, als es ist.

Ehm, allerdings sehen die Komprimierten Normals( Oder Bumps ?) bei D3 nicht gerade berauschend aus, und da dürfte ja S3TC ( OpenGL pendant) verwendet werden

r@w
2004-10-05, 16:54:05
Jetzt zu behaupten, dass die Sache mit dem Patch unvermögen ist, kann man also nur als billigen Flame werten.Klar...
DAS erklärt natürlich die geniale Qualität vom 1.1 und die (soweit ich mich erinnere) wohl kürzeste Halbwertszeit eines Patches im Fall von 1.2.

Oh mann...

Razor

Jesus
2004-10-05, 16:55:50
Klar...
DAS erklärt natürlich die geniale Qualität vom 1.1 und die (soweit ich mich erinnere) wohl kürzeste Halbwertszeit eines Patches im Fall von 1.2.

Oh mann...

Razor

Glaubst du Crytek hat freiwillig die Qualität beim 1.1er Patch gesenkt? Es musste wohl eine schnelle Lösung her um die Balkenlänge bei den FXen künstlich auf Kosten der Qualität zu erhöhen um NV zufriedenzustellen.

aths
2004-10-05, 16:55:54
Ehm, allerdings sehen die Komprimierten Normals( Oder Bumps ?) bei D3 nicht gerade berauschend aus, und da dürfte ja S3TC ( OpenGL pendant) verwendet werdenJa, mit mir teilweise unverständlicher Belegung der Kanäle. Jede Komprimierung bringt bestimmte Schwächen. S3TC hat an bestimmten Stellen seine Schwächen, 3Dc (an anderen Stellen) ebenfalls. 3Dc ist nichts weiter, als die Alphakanal-Komprimierung von DXT5 2x ausgeführt (für X und Y) während man mit DXT5 selbst nur einen Kanal so genau speichern kann.

Gegenüber DXT5 mag 3Dc am Ende in der Regel vielleicht ein bisschen im Vorteil sein, von der Qualität her. Imo bringt es "kostenloses" NRM_PP aber mehr als 3Dc. Ein weiterer Kritikpunkt ist wie gesagt die Beschränkung auf 2 Kanäle, das heißt für vernünftiges Offset-Mapping wäre noch eine zweite Textur (die Heightmap) zu sampeln. Das kostet Füllrate.

Eine spezielle Normalkomprimierung ist durchaus erstrebenswert. Imo sollte 3Dc um zusätzliche Modi erweitert werden (3Dc1, 3Dc2 etc.)

r@w
2004-10-05, 16:57:32
Glaubst du Crytek hat freiwillig die Qualität beim 1.1er Patch gesenkt? Es musste wohl eine schnelle Lösung her um die Balkenlänge bei den FXen künstlich auf Kosten der Qualität zu erhöhen um NV zufriedenzustellen.Das ist Deine Meinung... von der ich Dich gar nicht abbringen will.
Aber es nicht meine...

Und versuche hier bitte nicht Vermutungen als Wahrheit zu 'verkaufen'.

Razor

Quasar
2004-10-05, 16:59:28
Sry, aber wieso musst Du 3dc nieder machen?
[rest erledigt sich damit]
Sorry, aber das tue ich nicht. Ich bin nur Realist genug, nicht überall nur die Vorteile zu sehen (die ich auch nicht weiter betone, das tun andere ja schon zur Genüge), sondern eben auch die Nachteile. Speziell, wenn die Vorteile allesamt aus PDFs der Marketingabteilungen vorgebetet werden. :)

Jesus
2004-10-05, 16:59:50
Das ist Deine Meinung... von der ich Dich gar nicht abbringen will.
Aber es nicht meine...

Und versuche hier bitte nicht Vermutungen als Wahrheit zu 'verkaufen'.

Razor

Das ist nicht nur meine Meinung, das ist absolut offensichtlich. Aber genug OT... :rolleyes:

Quasar
2004-10-05, 17:02:41
ich zweifle aber stark dran, dass irgendein entwickler, der nicht von ati kräftig gesponsort wird sich dazu durchdringen wird, extra wegen einer bestimmten grakamarke extra noch höher auflösende texturen zu pinseln!
Das braucht auch keiner - die Normal-Maps werden aus Hi-Poly Modellen, die sowieso vorliegen, automatisch generiert und ATi stellt Tools bereit, hier direkt auch 3dc-komprimierte normal-maps mitzuerstellen. Im Zweifelsfall braucht der Compiler dann etwas länger für den Durchlauf und man muss die Daten etwas stärker auf der CD/DVD packen - sonst nix.

LovesuckZ
2004-10-05, 17:03:57
Das ist nicht nur meine Meinung, das ist absolut offensichtlich.

OH, gut. Dann kannst du es auch mit AUssagen von nvidia und Crytek belegen.
Ich freu mich schon drauf.

Demirug
2004-10-05, 17:05:24
Lighting, nicht Lightning! Ist HDR- (eigentlich MDR) Lighting, ja.

Ob man das bischen Blur Glow auf RGBA32 Basis schon als HDR/MDR bezeichnen will ist Ansichtsache.

mapel110
2004-10-05, 17:06:37
OH, gut. Dann kannst du es auch mit AUssagen von nvidia und Crytek belegen.
Ich freu mich schon drauf.

warum sollten sie sowas offiziell zugeben?

Tatsache ist, dass es mit 1.0 funzte, mit 1.1 nicht. und sowas unabsichtlich zu ändern (gar als Bug zu bezeichnen) , ist wohl mehr als weit hergeholt.

Jesus
2004-10-05, 17:08:53
OH, gut. Dann kannst du es auch mit AUssagen von nvidia und Crytek belegen.
Ich freu mich schon drauf.

Ok einigen wir uns darauf das Crytek im Patch 1.1 leider versehentlich (oder aus unfähigkeit) einen Bug eingebaut hat der nur bei Geforce Karten zu schlechterer Bildqualität führt und zufälligerweise und völlig unbeabsichtigt auch die Performance gewaltig erhöht... :|

EoOT.

LovesuckZ
2004-10-05, 17:09:39
warum sollten sie sowas offiziell zugeben?

Jesus meint, dies waere oeffentlich und nicht seine subjektive Auffassung.
Also kann er es mit Zitaten beweisen.
Und dies muss man ja in einer Diskussion (oder ich lernte dies von meinem Deutsch Prof falsch. Hm, eher nicht).

/edit: Es geht hier um Druck durch Nvidia. Dies soll er beweisen.
Das es Crytek gemacht hat, ist doch klar.

betasilie
2004-10-05, 17:09:58
Sorry, aber das tue ich nicht. Ich bin nur Realist genug, nicht überall nur die Vorteile zu sehen (die ich auch nicht weiter betone, das tun andere ja schon zur Genüge), sondern eben auch die Nachteile. Speziell, wenn die Vorteile allesamt aus PDFs der Marketingabteilungen vorgebetet werden. :)
Nun, deine Postings hören sich immer so an, als ob Du meinst, das 3Dc nicht funktioniert und es somit unnütz ist. Damit lehnst Du dich sehr weit aus dem Fenter, imho. :spock:

Jesus
2004-10-05, 17:11:48
Jesus meint, dies waere oeffentlich und nicht seine [b9subjektive[/b] Auffassung.

ich sagte offensichtlich :biggrin:

betasilie
2004-10-05, 17:13:29
Klar...
DAS erklärt natürlich die geniale Qualität vom 1.1 und die (soweit ich mich erinnere) wohl kürzeste Halbwertszeit eines Patches im Fall von 1.2.

Oh mann...

Razor
Schon klar, die Yerlis können FarCry entwickeln, aber sind zu blöd und unvermögend das Spiel zu patchen. ... Du bist echt ein Knaller. :ulol3:

Und btw hat dir der Patch V1.1 (oder eher NV-Hotfix) doch sehr gut gefallen. Da konnstest Du doch mal zeigen, wie toll die FX mit niedriger Präzision arbeiten. :uclap:

aths
2004-10-05, 17:15:38
Nun, deine Postings hören sich immer so an, als ob Du meinst, das 3Dc nicht funktioniert und es somit unnütz ist. Damit lehnst Du dich sehr weit aus dem Fenter, imho. :spock:Ich würde es so formulieren: 3Dc ist lange nicht der große Wurf, wie ATI glauben machen will. Die Unterstützung erfordert zudem eine Änderung der Shader. 3Dc ist in der derzeitigen Form sehr eingeschränkt. Als Performancebringer kann ein "freies" NRM_PP (bzw. Fog-Blending) öfter eingesetzt werden als 3Dc. Ob 3Dc wirklich zum Performancebringer wird, bezweifle ich im Moment.

aths
2004-10-05, 17:17:23
Glaubst du Crytek hat freiwillig die Qualität beim 1.1er Patch gesenkt? Es musste wohl eine schnelle Lösung her um die Balkenlänge bei den FXen künstlich auf Kosten der Qualität zu erhöhen um NV zufriedenzustellen.Das wäre auch anders gegangen:

- mit Passreduktion (à la SM 3.0-Pfad)
- mit verstärktem _PP-Einsatz (der Radeon-Pfad mit _PP scheint ja ganz gut zu laufen und dabei vernünftig auszusehen.)

Quasar
2004-10-05, 17:17:28
Nun, deine Postings hören sich immer so an, als ob Du meinst, das 3Dc nicht funktioniert und es somit unnütz ist. Damit lehnst Du dich sehr weit aus dem Fenter, imho. :spock:

"immer"? Na, wenn du meinst. Ich sehe nur, das 3dc genausowenig das ist, wie uns das ATi-Marketing verklickern will, wie SM3 an sich uns von nVidia aufgetischt wird.

SM3 hat bisher allerdings noch einen Vorteil: Es ist in DX spezifiziert. Keine Ahnung, inwieweit das Devs davon eher überzeugen kann, es vorauszusetzen, als eine Lizenzfreie Technologie.

Quasar
2004-10-05, 17:19:44
ich sagte offensichtlich :biggrin:

Da hat er recht. Offensichtlich ist das nicht nur deine Meinung - und? :biggrin:

Ich glaube, nvidia kann Cheats etwas besser verstecken, als diese offensichtlichen Artefakte in Far Cry v1.1.

mapel110
2004-10-05, 17:22:33
SM3 hat bisher allerdings noch einen Vorteil: Es ist in DX spezifiziert. Keine Ahnung, inwieweit das Devs davon eher überzeugen kann, es vorauszusetzen, als eine Lizenzfreie Technologie.

3DC wird auch noch in die m$-API einfliessen, laut Demirug.

betasilie
2004-10-05, 17:23:25
Ich würde es so formulieren: 3Dc ist lange nicht der große Wurf, wie ATI glauben machen will. Die Unterstützung erfordert zudem eine Änderung der Shader. 3Dc ist in der derzeitigen Form sehr eingeschränkt. Als Performancebringer kann ein "freies" NRM_PP (bzw. Fog-Blending) öfter eingesetzt werden als 3Dc.
Klar wir 3Dc von ATI völlig übertrieben angepriesen, aber das steht doch hier nicht zur Diskussion und macht 3Dc deswegen nicht schlechter und anwendbarer, als es ist.

Und klar ist auch, dass 3Dc primär die Details erhöhen soll, weil einfach mehr Platz für andere Dinge als Normalmaps geschaffen wird, oder halt für mehr Normalmaps. Doom³ hat ja gezeigt wieviel Speicher Normalmaps fressen, und dass es dann an anderer Stelle fehlt.

Wenn 3Dc ohne oder mit wenig Performceverluste funktioniert, was HL2 zeigen wird, dann ist dieses Feature zwar aus technophiler Sicht immer noch lahm, aber der praktischen bei entsprechenden Apllikationen genial.

LovesuckZ
2004-10-05, 17:24:07
3DC wird auch noch in die m$-API einfliessen, laut Demirug.

Ist dank FOURCC schon vorhanden. Und diesmal sogar legal :)

Quasar
2004-10-05, 17:27:04
3DC wird auch noch in die m$-API einfliessen, laut Demirug.

Wann soll Windows Longhaul err.... longhorn noch gleich auf den Markt kommen? Und wieviele WGF-Chips sind bisher auch nur angekündigt? ;)

betasilie
2004-10-05, 17:28:36
"immer"? Na, wenn du meinst. Ich sehe nur, das 3dc genausowenig das ist, wie uns das ATi-Marketing verklickern will, wie SM3 an sich uns von nVidia aufgetischt wird.

SM3 hat bisher allerdings noch einen Vorteil: Es ist in DX spezifiziert. Keine Ahnung, inwieweit das Devs davon eher überzeugen kann, es vorauszusetzen, als eine Lizenzfreie Technologie.
Siehst Du, genau das ist das Problem. Hier wird leider, ja auch von dir, wieder das Thema "NV vs. ATI" thematisiert, denn sowas wie SM3.0 und 3Dc miteinander vergleichen, was überhaupt nichts miteinander zu tun hat, kann nur en schlechter Witz sein.

Das ist einfach nur... :down:

Edit: Ich lese gerade, dass Du das auch schon kritisiert hast. Von daher schonmal gut, dass ich das nicht alleine so sehe. ;)

aths
2004-10-05, 17:49:12
Klar wir 3Dc von ATI völlig übertrieben angepriesen, aber das steht doch hier nicht zur Diskussion und macht 3Dc deswegen nicht schlechter und anwendbarer, als es ist.

Und klar ist auch, dass 3Dc primär die Details erhöhen soll, weil einfach mehr Platz für andere Dinge als Normalmaps geschaffen wird, oder halt für mehr Normalmaps. Doom³ hat ja gezeigt wieviel Speicher Normalmaps fressen, und dass es dann an anderer Stelle fehlt.

Wenn 3Dc ohne oder mit wenig Performceverluste funktioniert, was HL2 zeigen wird, dann ist dieses Feature zwar aus technophiler Sicht immer noch lahm, aber der praktischen bei entsprechenden Apllikationen genial.Bei Texturfüllratenlimitierung, die ich bei HL2 erwarte, kostet 3Dc natürlich keine Performance, ist aber auch nicht der einzige Weg, Normalmaps zu komprimieren. Bumpmapping wird hoffentlich bald um Offsetmapping erweitert, wofür 3Dc allerdings nicht ausreicht.

Detailliertere Normalmaps müssten schon auf beiden Achsen die doppelte Auflösung haben, das entspricht 2:1 gepackt weiterhin der zweifachen Datenmenge.

betasilie
2004-10-05, 18:14:20
Bei Texturfüllratenlimitierung, die ich bei HL2 erwarte, kostet 3Dc natürlich keine Performance, ist aber auch nicht der einzige Weg, Normalmaps zu komprimieren. Bumpmapping wird hoffentlich bald um Offsetmapping erweitert, wofür 3Dc allerdings nicht ausreicht.

Detailliertere Normalmaps müssten schon auf beiden Achsen die doppelte Auflösung haben, das entspricht 2:1 gepackt weiterhin der zweifachen Datenmenge.
Ack. Dadurch, dass 3Dc nicht beim Offsetmapping packt, ist es auf etwas eingeschränkt. Aber ich bin schon froh, wenn Bumpmapping massiver eingesetzt wird, wobei ich offsetmapping natürlich gerne sehen würde. Ich hoffe für FC kommt da bald ein Contentpatch, damit ich das Game mit offsetmapping spielen darf. :)

Und ja, HL² scheint von der Art wirklich für 3Dc prädestiniert zu sein. Bei anderen Titeln, und insbesondere zukünftigen Titeln, mag das anders aussehen.

Ich sehe 3Dc auch nicht als das Powerfeature für die Zukunft, sondern eher als nette Sache für aktuell anstehende Games, die halt primär auf Bumpmapping setzen.

Omega2b
2004-10-05, 18:32:04
Ich fasse mal zusammen:

Neben vielem unsinnigen Beleidigungen, vielem Fachchinesisch, daß otto Normaluser wie ich sowieso nicht verstehe und Dingen, die gar nichts mit dem Thema zu tun haben, hat sich folgendes herauskristallisiert:

Shader 2.0B ist up to date
Shader 3.0 bietet mehr Möglichkeiten, deren Umsetzung noch auf sich warten lassen wird.

Wer heute eine Graka kauft und sie nicht >2 Jahre behalten will, kann getrost auf S3.0 verzichten, wenn er dadurch einen Preis/Leistungs Vorteil hat.
Wer die Karte länge halten will, sollte über eine S3.0 Karte nachdenken, da eine kleine Chance besteht, daß er diese Karte auch nach so langer Zeit mit mehr Performance betreiben kann.

Für mich heißt das im Klartext:

GF6800GT wenn ich bereit bin >400,-€ hinzublättern.

ansonsten isses für mich egal. Haupsache dat Ding ist schnell und günstig :D

Danke für die Info.

Und jetzt könnt ihr weiter fachsimpeln :)

Cu Omega2

Sphinx
2004-10-05, 18:49:05
Shader 2.0B ist up to date
Shader 3.0 bietet mehr Möglichkeiten, deren Umsetzung noch auf sich warten lassen wird.


Eigentlich Latte... solange die Spiele die ich als OTTONORMAL Verbraucher bei mir zuhause installiert sind laufen...

Programmierer und Hobbyprogrammierer - die die neuen Funktionen einer Grafikkartengenerationen anwenden/erforschen wollen werden da wohl sich up2date PS3.0 Karten nutzen...

Wer heute eine Graka kauft und sie nicht >2 Jahre behalten will, kann getrost auf S3.0 verzichten, wenn er dadurch einen Preis/Leistungs Vorteil hat.

Nja - sagen wir es so - Ich kauf mir lieber das High END (Das Schnellste) damit ich die Karte so lange wie möglich in meinem Rechner seine Daseinsberechtigung hat. Bsp. jetzige Generation ( GF68Ultra bzw. X800XT-PE) Bsp. Bin einer der ersten R9700Pro Benutzer -> werkelt immer noch in meinem Rechner... da vollkommen ausreichend. Hat die Zeit der R98xx Überstanden und nun muß sie noch etwas länger ausharren bis ich die Teile für PCI-Express Aufrüstung zusammen habe.

Für mich heißt das im Klartext:
GF6800GT wenn ich bereit bin >400,-€ hinzublättern.

Für mich im Klartext heist es :

Wenn ich eine neue AGP Grafikkarte benötige dann -> Das schnellste Damit ich noch länger von GUT habe...

ansonsten...

Wenn ich sobald ready bin die schnellste PCI-Express Karte die zum Zeitpunkt des Kaufes sofort Verfügbar ist.

So unterschiedlich sind die Kaufeigenschaften.

Ailuros
2004-10-05, 19:13:56
Nja - sagen wir es so - Ich kauf mir lieber das High END (Das Schnellste) damit ich die Karte so lange wie möglich in meinem Rechner seine Daseinsberechtigung hat. Bsp. jetzige Generation ( GF68Ultra bzw. X800XT-PE) Bsp. Bin einer der ersten R9700Pro Benutzer -> werkelt immer noch in meinem Rechner... da vollkommen ausreichend. Hat die Zeit der R98xx Überstanden und nun muß sie noch etwas länger ausharren bis ich die Teile für PCI-Express Aufrüstung zusammen habe.

Nur sind die Chancen eben groesser dass jemand 6800GT oder X800PROs findet als die grossen Boliden, und die beiden liegen ja mehr oder weniger auf Gleichstand was Leistung betrifft.

Refreshes vor Ausgang dieses Jahres oder Anfang 2005, werden eigentlich nur breiter verfuegbare quasi 6800Ultra Extreme/X800XT PE sein.

Die 9700PRO war breit verfuegbar nach ihrer Vorstellung und kostete auch nicht 600 Euros.

hmx
2004-10-05, 20:22:37
Und die 9700PRO war auch deutlich schneller als ihr damaliger Konkurrent die die GF4Ti. Ausserdem war ich einer der ersten 9700np user und die hätte dir bis heute wahrscheinlich auch gereicht, obwohl nicht das allerschnellste. Die war nämlich nur max 10% langsamer aber ca 100 Euro billiger...

Sphinx
2004-10-05, 20:30:37
Und die 9700PRO war auch deutlich schneller als ihr damaliger Konkurrent die die GF4Ti. Ausserdem war ich einer der ersten 9700np user und die hätte dir bis heute wahrscheinlich auch gereicht, obwohl nicht das allerschnellste. Die war nämlich nur max 10% langsamer aber ca 100 Euro billiger...

Die R9700Pro war als erstes auf dem Markt.

hmx
2004-10-05, 22:25:25
Stimmt, aber vom Zeitpunkt an wo es die 9700np gab hätte es dann nicht mehr das allerschnellste sein müssen. :)

Ailuros
2004-10-06, 04:53:20
Und die 9700PRO war auch deutlich schneller als ihr damaliger Konkurrent die die GF4Ti. Ausserdem war ich einer der ersten 9700np user und die hätte dir bis heute wahrscheinlich auch gereicht, obwohl nicht das allerschnellste. Die war nämlich nur max 10% langsamer aber ca 100 Euro billiger...

R300 war um mehr als ein Halbjahr konkurrenzlos. Die Verzoegerung seitens NV zeitig im Markt mit einer dx9.0 Loesung aufzutauchen, ist aber trotzdem irrelevant zur Verfuegbarkeit und Launch MSRP der R300 im Vergleich zu R420.

MSRP fuer R300 war 399$ und Karten waren innerhalb kurzer Zeit nach der Vorstellung in genuegender Menge verfuegbar. Weder das eine noch das andere gilt fuer X800XT PE.

6800Ultra oder Ultra Extreme/X800XT PE sind seltene Voegel um Benchmarks in Reviews hauptsaechlich zu schlagen. Wenn die jeweiligen Refreshes dann erscheinen, wird die Ganze Sache dann deutlicher werden.

Gast
2004-10-06, 06:21:04
Ich fasse mal zusammen:
...
Wer die Karte länge halten will, sollte über eine S3.0 Karte nachdenken, da eine kleine Chance besteht, daß er diese Karte auch nach so langer Zeit mit mehr Performance betreiben kann...


SM3.0 bietet doch nicht nur die Möglichkeit "mehr" Performance zu gewinnen, man kann damit auch Grafikeffekte darstellen die sich SM2.x nicht/nicht ausreichend schnell darstellen lassen. D.h. in 1-2 Jahren wirds vieleicht Spiele geben in der eine X800Pro genauso schnell wie eine 6800GT sein wird, die GT aber zusätzlich ein paar Effekte "mehr" darstellen kann.

tRpii
2004-10-06, 08:37:31
SM3.0 bietet doch nicht nur die Möglichkeit "mehr" Performance zu gewinnen, man kann damit auch Grafikeffekte darstellen die sich SM2.x nicht/nicht ausreichend schnell darstellen lassen. D.h. in 1-2 Jahren wirds vieleicht Spiele geben in der eine X800Pro genauso schnell wie eine 6800GT sein wird, die GT aber zusätzlich ein paar Effekte "mehr" darstellen kann.

Da es momentan noch nicht einmal Spiele auf SM3.0-Basis gibt die auf einer 6800'er-Karte bessere/andere Effekte "zaubert" ist diese Aussage sehr gewagt. SM3.0 ermöglicht zwar längere Shader aber erstmal muss von ihnen Gebrauch gemacht werden und wie performant diese sind liegt nicht zwingend vom verwendeten Shader-Model ab. In vielleicht 2 Jahren wird es Games geben die mehr oder weniger exzessiv (wie heute Farcry -> SM2.0) SM3.0 verwenden werden. Derweilen wird aber kein vernüntiger Spiele-Hersteller sich erlauben ein Game optisch an verschiedene Shader-Modelle anzupassen. Es wird der kleinste gemeinsame Nenner gesucht und genau aus diesem Grund gibt es auch nur wenige Games die heute auf SM2.0 setzen. Der größte Teil der Käufer hat keine 6800Ultra/X800XT wo SM2.0b/SM3.0 mit guter Performance läuft. Was der Markt verlangt bekommt er. Und das wird für längere Zeit kein SM3.0 vorraussetzen.

jm2c

tb
2004-10-09, 02:32:36
Nebenbei sparen die Kompressionsmechanismen neben RAM auch noch Bandbreite. Um fehlendes 3Dc auszugleichen müsste man zusätzlich zu mehr RAM, den Speicher auch noch höher takten oder den Bus breiter machen.

Das 3DC Sinn macht, steht für mich ausser Frage. Nicht ohne Grund wird es etwas ähnliches in WGF geben. Sinnvoll wäre sicher auch verlustfreie Komprimierung von fp16 / fp32 Texturen. Dabei geht es wohl nicht so sehr um Bandbreiteneinsparungen, allein der Platzbedarf rechtfertigt solche Features.

Thomas

aths
2004-10-09, 02:45:10
Das 3DC Sinn macht, steht für mich ausser Frage. Nicht ohne Grund wird es etwas ähnliches in WGF geben. Sinnvoll wäre sicher auch verlustfreie Komprimierung von fp16 / fp32 Texturen.Wie soll eine verlustfreie Komprimierung von FP-Texturen funktionieren?

tb
2004-10-09, 02:48:05
Papalapapp,

zeig mir einen Programmierer der mehr als 200 Befehle in einem Shader reinpackt!

Mich würde mal interessieren wie der NV40 wohl reagiert wenn er tatsächlich auf einen solchen vollgepackten Shader trifft. 100-derte wohl möglich, ich bin mir 100% sicher der NV40 würde völlig einbrechen.

Alles nur Marketing!

Also ShaderMark v2.1 hat schon Shader, die z.B. 339 (2_b) bzw. 274 (3_0) Befehle verwenden....

Thomas

aths
2004-10-09, 02:53:11
Also ShaderMark v2.1 hat schon Shader, die z.B. 339 (2_b) bzw. 274 (3_0) Befehle verwenden....20% Ersparnis durch 3.0? Ist der Wert einigermaßen repräsentativ, oder ist das eher die Ausnahme dass das 3.0-Programm so viel kürzer ist?

tb
2004-10-09, 03:00:00
20% Ersparnis durch 3.0? Ist der Wert einigermaßen repräsentativ, oder ist das eher die Ausnahme dass das 3.0-Programm so viel kürzer ist?

Der Wert stammt von dem ShadowMapping Shader.
Beim ShaderMark v2.1 hab ich bei 3_0 bzw. 2_a Shadern bis zu 25% weniger "Instruction Slots", einfach, weil das 2_0 bzw. 2_b Profil kein freies "swizzeln" kann und dies durch "mov" o.ä. Befehle gelöst werden muss. Was die GPU im Treiber aus diesem DX9 ASM Code macht, kann ich nicht beurteilen.

Thomas

tb
2004-10-09, 03:07:30
Wie soll eine verlustfreie Komprimierung von FP-Texturen funktionieren?

Verlustfreie Komprimierungen sind doch meines Wissens nach nicht Datentyp abhängig:

http://iscte.pt/~mag/adip_fp.pdf

http://www.vectorsite.net/ttdcmp1.html

Thomas

zeckensack
2004-10-09, 12:11:53
Verlustfreie Komprimierungen sind doch meines Wissens nach nicht Datentyp abhängig:

http://iscte.pt/~mag/adip_fp.pdf

http://www.vectorsite.net/ttdcmp1.html

ThomasVerlustfreie Komprimierungen haben aber leider keine konstanten Kompressionsraten, wodurch das ganze schwierig zu handhaben ist. Preisfrage: wo ist Texel (x;y) einer komprimierten Textur? Mit blockbasierter Kompression und konstanter Kompressionsrate ist diese Frage einfach zu beantworten. Mit klassischen Kompressoren ala LZ{W|H} wird's schwierig.

Exxtreme
2004-10-09, 12:28:47
Verlustfreie Komprimierungen haben aber leider keine konstanten Kompressionsraten, wodurch das ganze schwierig zu handhaben ist. Preisfrage: wo ist Texel (x;y) einer komprimierten Textur? Mit blockbasierter Kompression und konstanter Kompressionsrate ist diese Frage einfach zu beantworten. Mit klassischen Kompressoren ala LZ{W|H} wird's schwierig.
Bei blockorientierter Komprimierung hat man aber wiederum keine definierte Qualität. Es kann sein, daß eine derart komprimierte Textur gut aussieht, oder aber umgekehrt. Also einen Tod muss man sterben. :D

+man

Coda
2004-10-09, 13:14:17
Man kann nur den einen Tod sterben, beim anderen müsste man jede Textur komplett in einen GPU-internen Cache dekomprimieren bevor man sie benützt. Dann wär der Bandbreitenvorteil auch dahin, bzw. die Sache würde ziemlich lahm werden. Außerdem müsste bei einer maximalen Texturgröße von 4096x4096 ein Cache von 64MB vorhanden sein :rolleyes:

aths
2004-10-09, 13:24:51
Bei blockorientierter Komprimierung hat man aber wiederum keine definierte Qualität. Es kann sein, daß eine derart komprimierte Textur gut aussieht, oder aber umgekehrt. Also einen Tod muss man sterben. :DDeshalb wählt man ja eine Komprimierungsrate, die (meistens) unkritisch ist. Bei 4:1-Texturkomprimierung holt man in der Regel durch die Auflösung die Qualitätsnachteile durch S3TC wieder raus.

aths
2004-10-09, 13:27:04
Verlustfreie Komprimierungen sind doch meines Wissens nach nicht Datentyp abhängig: Verlustfreie Komprimierung ist imo impraktikabel, da man vorher nicht weiß, wie lang das Ergebnis bzw. ein Block sein wird. Dürfte für den Chip nur sehr umständlich zu handhaben sein. "Komprimierte" Z-Buffer sparen auch keinen Speicher, nur Bandbreite. Verlustbehaftete 2:1-Komprimierung würde bei FP-Texturen auch schon helfen. Würde imo aber so oder so schwierig, wenn man im Tile starke Dynamik hat. Das Verfahren sollte keine festen Bitlängen für Delta-Exponent und -Mantisse verwenden.

Hm, das (Entwicklung von FP16/FP32-Textur-Komprimierung) wäre auch eine Idee fürs Diplom :)

Tigerchen
2004-10-09, 15:39:23
SM3.0 bietet doch nicht nur die Möglichkeit "mehr" Performance zu gewinnen, man kann damit auch Grafikeffekte darstellen die sich SM2.x nicht/nicht ausreichend schnell darstellen lassen. D.h. in 1-2 Jahren wirds vieleicht Spiele geben in der eine X800Pro genauso schnell wie eine 6800GT sein wird, die GT aber zusätzlich ein paar Effekte "mehr" darstellen kann.

Nein. Auch wenn aths immer mit einem Wust technischer Daten solche Dinge unterstellt. Wenn die Games kommen reicht die Leistung der aktuellen Grafikkartengeneration einfach nicht aus für die Extraeffekte. 2 Jahre sind eine lange Zeit in dieser sich äußerst schnell entwickelnden Sparte.

Quasar
2004-10-09, 15:43:58
Für Spiele, die SM3.0 in dem Umfang nutzen, wie UT2003 DX7 ausgenutzt hat, hast du sicherlich Recht. Aber das wird eher so 2008 der Fall sein.

Auf Spiele jedoch, die ein paar nette SM3-Spassigkeiten eingebaut haben, wird man höchstwahrscheinlich nicht mehr zwei Jahre lang warten müssen. Und da heisst's dann sich in Verzicht zu üben ohne SM3 - aber halt - wenn wir das wollten, könnten wir ja Far Cry und Doom3 auch mit einem P3 mit nV30 spielen.... X-D

*zockengeht*

Ailuros
2004-10-09, 16:24:37
Nein. Auch wenn aths immer mit einem Wust technischer Daten solche Dinge unterstellt. Wenn die Games kommen reicht die Leistung der aktuellen Grafikkartengeneration einfach nicht aus für die Extraeffekte. 2 Jahre sind eine lange Zeit in dieser sich äußerst schnell entwickelnden Sparte.


Haette man locker auch in 2002 fuer den R300 und die ersten PS2.0 Spiele behaupten koennen. Leistung wird auch nicht ueberragend sein mit >50 Instruktionen langen Shadern.

Nichtdestominder kam es aber so weit dass wir mehr SM2.0 Effekte in Spielen sahen, als viele erwartet haetten.

Was genau ist so schlecht daran wenn man Fortschritt noch einen Schritt weiterdrueckt? SM3.0 wird bis zur Erscheinung von WGF bleiben und das fuer beide IHVs. Es gibt viele Vorteile fuer einen IHV so frueh wie moeglich den Balken hoeher zu setzen und bei ATI war der eigentliche Grund nur dass man keine Zeit und Resourcen fuer solchen Luxus hatte.

Es gibt eine sehr hohe Wahrscheinlichkeit dass wir so manche SM3.0 Effekte vor oder zur Zeit der Vorstellung des R520 sehen werden, nur haben eben in dem Fall jegliche Entwickler dann eben nicht ein ATI board zur Entwicklung benutzt.

Die ganze oede Geigerei mit dem SM2.0 vs SM3.0 Zeug ist mir persoenlich zu viel auf die Bevorzugungen der Verbraucher hier konzentriert. Waere die Sache genau anders rum und ATI haette SM3.0 und NV SM2.0/2.0_b, dann waere wohl fuer so manche SM3.0 die tollste Sache seit der Erfindung des Rads.

Ja SM3.0 ist im Grund nur die obere Spalte von dx9.0 und man kann schwer von fundamentalen Aenderungen sprechen; nutzlos ist es bei weitem aber trotzdem nicht. Nur zwei IHVs mit verschiedenen Zielen und Strategien.

Gast
2004-10-09, 16:39:12
Für Spiele, die SM3.0 in dem Umfang nutzen, wie UT2003 DX7 ausgenutzt hat, hast du sicherlich Recht. Aber das wird eher so 2008 der Fall sein.

Auf Spiele jedoch, die ein paar nette SM3-Spassigkeiten eingebaut haben, wird man höchstwahrscheinlich nicht mehr zwei Jahre lang warten müssen. Und da heisst's dann sich in Verzicht zu üben ohne SM3 - aber halt - wenn wir das wollten, könnten wir ja Far Cry und Doom3 auch mit einem P3 mit nV30 spielen.... X-D

*zockengeht*
Und welches Spiel zu welchem Zeitpunkt wird SM3.0 Spaßigkeiten bieten, die auf einer X800 nicht laufen? :stareup:

Tigerchen
2004-10-09, 16:49:46
Haette man locker auch in 2002 fuer den R300 und die ersten PS2.0 Spiele behaupten koennen. Leistung wird auch nicht ueberragend sein mit >50 Instruktionen langen Shadern.

Nichtdestominder kam es aber so weit dass wir mehr SM2.0 Effekte in Spielen sahen, als viele erwartet haetten.

Was genau ist so schlecht daran wenn man Fortschritt noch einen Schritt weiterdrueckt? SM3.0 wird bis zur Erscheinung von WGF bleiben und das fuer beide IHVs. Es gibt viele Vorteile fuer einen IHV so frueh wie moeglich den Balken hoeher zu setzen und bei ATI war der eigentliche Grund nur dass man keine Zeit und Resourcen fuer solchen Luxus hatte.

Es gibt eine sehr hohe Wahrscheinlichkeit dass wir so manche SM3.0 Effekte vor oder zur Zeit der Vorstellung des R520 sehen werden, nur haben eben in dem Fall jegliche Entwickler dann eben nicht ein ATI board zur Entwicklung benutzt.

Die ganze oede Geigerei mit dem SM2.0 vs SM3.0 Zeug ist mir persoenlich zu viel auf die Bevorzugungen der Verbraucher hier konzentriert. Waere die Sache genau anders rum und ATI haette SM3.0 und NV SM2.0/2.0_b, dann waere wohl fuer so manche SM3.0 die tollste Sache seit der Erfindung des Rads.

Ja SM3.0 ist im Grund nur die obere Spalte von dx9.0 und man kann schwer von fundamentalen Aenderungen sprechen; nutzlos ist es bei weitem aber trotzdem nicht. Nur zwei IHVs mit verschiedenen Zielen und Strategien.

Du führst den R300 als Beispiel an?
Warum nicht die FX5800/5900?
Die erschienen später und tun sich richtig schwer mit Shader 2.0.

Nochmal für alle die mich nicht richtig verstehen wollen:
Shader 3.0 sind wichtig. Und wir werden SM 3.0 Spiele sehen. Genau wie viele andere Dinge. Ich zweifel nur daran daß bereits die erste Generation in der Lage ist aus die SM 3.0 Technik in realen Spielen großen Nutzen zu ziehen. Viielleicht kommt es ja anders. Ich bitte aber zu bedenken daß meine Skepsis bei der FX-Serie zu 100% berechtigt war.

Quasar
2004-10-09, 16:51:36
Und welches Spiel zu welchem Zeitpunkt wird SM3.0 Spaßigkeiten bieten, die auf einer X800 nicht laufen? :stareup:

Angeblich wohl Pacific Fighters, welches vorgestern angeblich Gold-Status erreichte. Klar, das muss nichts heissen - HL2 wurde schließlich auch schon seit über einem Jahr der Gold-Status zugesprochen.

Quasar
2004-10-09, 16:58:32
[COLOR="#000088"]
Du führst den R300 als Beispiel an?
Warum nicht die FX5800/5900?
Die erschienen später und tun sich richtig schwer mit Shader 2.0.
Du führst die FX5800/5900 als Beispiel an?
Warum nicht den R300?

Schließlich ist das ein First-Generation DX9-Produkt und tut sich nicht ganz so schwer mit ein bißchen DX9, wie man glaubte.

Mit 'ein bißchen mehr' DX9 - nuja, ein Blick auf die Frameraten der Gametests anstelle der 3DMurkse sollte einem die Augen öffnen - R300 ist zwar gut und gern doppelt so schnell wie nV30, aber von 'spielbar' weit entfernt.

Insofern sollte man nicht auf die echte SM3-Games (also solche, die darunter gar nichts mehr anbieten...) nicht warten, aber auf DX9-Games mit ein paar netten SM3-Spielereien.

aths
2004-10-09, 17:03:22
[COLOR="#000088"]
Nein. Auch wenn aths immer mit einem Wust technischer Daten solche Dinge unterstellt. Wenn die Games kommen reicht die Leistung der aktuellen Grafikkartengeneration einfach nicht aus für die Extraeffekte. 2 Jahre sind eine lange Zeit in dieser sich äußerst schnell entwickelnden Sparte.TBs Shadermark zeigt, dass man ca. 20% an PS-Instruktionen einsparen kann, wenn man das 3.0-er Modell nutzt. Dazu kommt beim NV40 die gegenüber R420 höhere arithmetische Grundleistung. Wenn der Punkt erreicht wird, an dem arithmetische Leistung im Verhältnis zur Texturfüllrate deutlich wichtiger ist, als heute noch, zahlt sich die NV40-Architektur (im Vergleich zur R420-Leistung) aus.

Auch wenn tigerchen es mit Dauerposting mit untechnischer Argumentation immer wieder unter den Tisch kehrt: Für zukünftige Spiele ist der NV40 sehr viel besser gerüstet als R420. Aus dieser Tatsache folgt natürlich nicht zwingend, dass man schon jetzt unbedingt einen 3.0-kompatiblen Chip kaufen muss.

Mr. Still redet im Interview nicht von supertollen neuen Effekten die man nur mit SM 3.0 sehen könne, sondern weist eigentlich nur auf die Performance hin. Wenn ich mich nicht irre, kann eine NV40-Pipe pro Takt zwei freie MUL4-Operationen ausführen, R420 nur eine. NV40 bietet die zusätzliche NRM_PP-Einheit, in vielen Fällen schnellere Berechnungen von Special Functions, und halt nette Dinge wie freies Swizzling (seit NV30). Als Sahnehäubchen gibt es Fälle, in denen dynamisches Branching mehr Leistung bringt als es zunächst kostet.

Ich hab Futuremark gefragt, warum 3DM05 kein HDR testet. Patric Ojala meinte, es gäbe heutzutage kaum HW, die FP-Blending etc. könne. Ich meine, wenn sich HDR einst durchsetzt, kann NV40 das noch "echt hardwarebeschleunigt" rendern, während man die Filterung beim R420 im Pixelshader nachstellen muss. Es sollte nicht erstaunen, dass eine Architektur mit "dedizierten HDR-Einheiten" deutlich besser performt als ein Chip, welcher zwar HDR Rendering ebenfalls bietet, jedoch nur über Umwege.

Natürlich wird es zum Zeitpunkt von Spielen, die durchgehend Gebrauch von HDR Lighting machen deutlich stärkere Chips geben als den NV40. Ob der NV40 dann noch spielbare Frameraten bringt oder nicht, ist aus meiner Sicht abzuwarten und kann nicht schon heute mit "nein" beantwortet werden.

Gast
2004-10-09, 17:12:34
Angeblich wohl Pacific Fighters, welches vorgestern angeblich Gold-Status erreichte. Klar, das muss nichts heissen - HL2 wurde schließlich auch schon seit über einem Jahr der Gold-Status zugesprochen.
Da bin ich aber mal gespannt. Aber wenn es denn so sein sollte, würde mich das noch lange nicht überzeugen, dass diese Effekte nicht auch auf einer X800 darstellbar wären. Weißt Du welche techniken zum Einatz kommen, die der R420 nicht kann?

FarCry soll ja offsetmapping auch nur für die nVidia Karten anbieten im nächsten Patch, sofern dieser noch kommt. Viele werden das dann so interpretieren, als ob das ein SM3.0 Feature ist, obwohl nVidia schlicht bezahlt, damit es (vorläufig) ein nV-only-Feature ist.

Komisch in dem Zusammenhang ist dann auch das Interview mit Darryl Still, denn dieser widerspricht nicht der Vermutung, dass SM3.0 lediglich zum beschleunigen eingesetzt. Mr. Still hätte garantiert drauf hingewiesen, wenn Spiele in der Mache wären, die SM3.0 für besondere Effekte nutzen, die mit ATIs Shadern nicht möglich wären. Siehst Du das anders?

Quasar
2004-10-09, 17:18:47
Da bin ich aber mal gespannt. Aber wenn es denn so sein sollte, würde mich das noch lange nicht überzeugen, dass diese Effekte nicht auch auf einer X800 darstellbar wären. Weißt Du welche techniken zum Einatz kommen, die der R420 nicht kann?
Ich weiß nur, was Maddox so vorgehabt hat - da ich die goldgegangene Version nicht habe, weiß ich nicht, ob das darin auch enthalten ist. Es sollte sich um Vertex Texture Fetches handeln.


Komisch in dem Zusammenhang ist dann auch das Interview mit Darryl Still, denn dieser widerspricht nicht der Vermutung, dass SM3.0 lediglich zum beschleunigen eingesetzt. Mr. Still hätte garantiert drauf hingewiesen, wenn Spiele in der Mache wären, die SM3.0 für besondere Effekte nutzen, die mit ATIs Shadern nicht möglich wären. Siehst Du das anders?
Vielleicht spricht Mr. Still nicht über zukünftige Spiele - so wie der Rest der grünen Truppe nicht über 'unannounced products' spricht?
IIRC wurde er ja auch nur nach den 10 letzen Titeln gefragt - insofern sehe ich das vielleicht nicht unbedingt entgegengesetzt, aber anders, ja.

Gast
2004-10-09, 17:36:40
Vielleicht spricht Mr. Still nicht über zukünftige Spiele - so wie der Rest der grünen Truppe nicht über 'unannounced products' spricht?
IIRC wurde er ja auch nur nach den 10 letzen Titeln gefragt - insofern sehe ich das vielleicht nicht unbedingt entgegengesetzt, aber anders, ja.
Nein, die Frage bzgl. SM3.0, und dass es nur zur Beschleunigung eingesetzt wird, wurde allgemein gestellt.

Und er spricht übrigens auch von STALKER, was ja auch ein zukünftiges Spiel ist. Von daher werden wohl in absehbarer zeit keine Spiele erscheinen, die aus der NV40 Technik einen sichtbaren Nutzen ziehen werden. Das würde ich jetzt jedenfalls vermuten. ;-)

Quasar
2004-10-09, 17:46:12
Nein, die Frage bzgl. SM3.0, und dass es nur zur Beschleunigung eingesetzt wird, wurde allgemein gestellt.

Und er spricht übrigens auch von STALKER, was ja auch ein zukünftiges Spiel ist. Von daher werden wohl in absehbarer zeit keine Spiele erscheinen, die aus der NV40 Technik einen sichtbaren Nutzen ziehen werden. Das würde ich jetzt jedenfalls vermuten. ;-)

Stimmt, er spricht von STALKER, aber in einem komplett anderen Zusammenhang. :)
Überhaupt - die Bezüge zwischen Frage und Antwort in diesem sog. Interview scheinen ja nicht immer wirklich nachvollziehbar.

Ebenso finde ich deinen Schluss nicht nachvollziehbar - aber jeder kann ja ruhig seine eigenen Schlüsse ziehen. *gg*

betasilie
2004-10-09, 18:11:04
Stimmt, er spricht von STALKER, aber in einem komplett anderen Zusammenhang. :)
Überhaupt - die Bezüge zwischen Frage und Antwort in diesem sog. Interview scheinen ja nicht immer wirklich nachvollziehbar.

Ebenso finde ich deinen Schluss nicht nachvollziehbar - aber jeder kann ja ruhig seine eigenen Schlüsse ziehen. *gg*
Sorry, aber wenn ich als Mr. Still auf den Verdacht angesprochen werde, dass SM3.0 garnichts bringt außer ggf. ein bissl mehr Speed, trotz TWIMTBP, dann würde ich das aufklären, wenn Titel mit SM3.0 Eyecandy in der Mache wären.

NV, wie auch ATI, geben immer mit damit an, was zukünftige Titel so alles tolles mit ihrer Hardware können. Denk doch nur mal dran, wie NV die tollen SM3.0 FarCry Bilder präsentiert hat und suggerieren wollte, dass irgendwas anders aussieht, obwohl das alles nix mit SM3.0 zu tun hat. ... Und SM3.0-Support gibt es btw immer noch nicht.

Demirug
2004-10-09, 18:11:34
Das Pacific Fighters SM3 Features für optische Verbesserungen nutzt ist doch schon länger bekannt:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=165616

Quasar
2004-10-09, 18:13:04
:nono: Bestimmt alles nur Photojobs vom Marketing. :lol:

Quasar
2004-10-09, 18:19:03
Sorry, aber wenn ich als Mr. Still auf den Verdacht angesprochen werde, dass SM3.0 garnichts bringt außer ggf. ein bissl mehr Speed, trotz TWIMTBP, dann würde ich das aufklären, wenn Titel mit SM3.0 Eyecandy in der Mache wären.
Sorry, aber nach dem, was Mr. Still so von sich gab, hätte man das Frage-und-Antwort-Spiel auch gleich sein lassen können, das steht auch alles hier:
http://www.nzone.com/object/nzone_twimtbp_gameslist.html

Tut mir leid, daß das jetzt gar nichts mehr mit dem Thema zu tun hat, aber je nach "Glaubensrichtung" sagen auf einmal Marketing-Heinis die Wahrheit und sind Bilder von kommenden Games nur Fakes, wie man sie schon öfter gesehen hat (u.a. als Marketing-Heinis noch zu 100% gelogen haben... :|).

Für mich EOD - wir sehen dann ja, ob PF nun Vertex-Wellen hat oder nicht und ob die dann besser/schneller sind, als CPU-Wellen. :ugly:

Gast
2004-10-09, 18:22:41
Das Pacific Fighters SM3 Features für optische Verbesserungen nutzt ist doch schon länger bekannt:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=165616
Das ist doch mal was konkretes. :)

Gast
2004-10-09, 18:33:15
Das ist doch mal was konkretes. :)

Allerdings! Genauso konkret wie NV´s FarCry Folien damals, die wunderschönes Photoshop HDR und einen traumhaften Offsetmapping Strand zeigten und damit die überlegen Qualität des SM3.0 unter beweis stellten ...

Quasar
2004-10-09, 18:40:02
Tut mir leid, daß das jetzt gar nichts mehr mit dem Thema zu tun hat, aber je nach "Glaubensrichtung" sagen auf einmal Marketing-Heinis die Wahrheit und sind Bilder von kommenden Games nur Fakes, wie man sie schon öfter gesehen hat (u.a. als Marketing-Heinis noch zu 100% gelogen haben... :|).

:lolaway: Ihr seid so vorhersehbar....

LordDeath
2004-10-09, 18:47:13
Du führst den R300 als Beispiel an?
Warum nicht die FX5800/5900?
Die erschienen später und tun sich richtig schwer mit Shader 2.0.

Nochmal für alle die mich nicht richtig verstehen wollen:
Shader 3.0 sind wichtig. Und wir werden SM 3.0 Spiele sehen. Genau wie viele andere Dinge. Ich zweifel nur daran daß bereits die erste Generation in der Lage ist aus die SM 3.0 Technik in realen Spielen großen Nutzen zu ziehen. Viielleicht kommt es ja anders. Ich bitte aber zu bedenken daß meine Skepsis bei der FX-Serie zu 100% berechtigt war.



man sollte auch bedenken, dass spiele, die die SM 3.0 technik voll ausnutzten nicht nur aufwändigere shader haben werden. was ist mit der texturgröße und dem polygoncount? der geht auch immer höher und in sachen rohleistung wird eine nv40 schon früher schlappmachen als ne r420! daher erstmal warten, wann sich die ersten flaschenhälse für diese karten ergeben und welche es dann sind!

Gast
2004-10-09, 18:55:16
:lolaway: Ihr seid so vorhersehbar....
Du auch.

Wenn nV so tolle SM3.0 Games in der Mache hat, dann ist es schon komisch, dass sie stattdessen nur Techniken zeigen, die SM2.0 auch kann, aber suggerieren, sie es wäre ein SM3.0 Feature.

Wieso machen sie das? Weil scheinbar keine Spiele mit SM3.0 only-effekten in der Mache sind. :biggrin:

LordDeath
2004-10-09, 19:00:19
das ist auch irgendwie nicht möglich! spieleentwickler sind keine fanboys und müssen dafür sorgen, dass spiele immer so gut wie möglich auf allen grakas laufen.
was würde denn der publisher sagen, wenn ein spiel mit sm3.0 2 generationen besser aussieht als auf einer radeon? *übertreib*
ati user würden das spiel nicht mehr kaufen wollen und der publisher würde das nur durchgehen lassen, wenn nvidia das game (oder eher den publisher) dafür sponsort!

Tigerchen
2004-10-09, 19:07:25
TBs Shadermark zeigt, dass man ca. 20% an PS-Instruktionen einsparen kann, wenn man das 3.0-er Modell nutzt. Dazu kommt beim NV40 die gegenüber R420 höhere arithmetische Grundleistung. Wenn der Punkt erreicht wird, an dem arithmetische Leistung im Verhältnis zur Texturfüllrate deutlich wichtiger ist, als heute noch, zahlt sich die NV40-Architektur (im Vergleich zur R420-Leistung) aus.

Auch wenn tigerchen es mit Dauerposting mit untechnischer Argumentation immer wieder unter den Tisch kehrt: Für zukünftige Spiele ist der NV40 sehr viel besser gerüstet als R420. Aus dieser Tatsache folgt natürlich nicht zwingend, dass man schon jetzt unbedingt einen 3.0-kompatiblen Chip kaufen muss.

.

Ja natürlich. Ähnlich Erbauliches hab ich schon bei Threads zum Thema FX 5800/5900 gelesen. Die Wirklichkeit sah dann "etwas" anders aus.

Gast
2004-10-09, 19:13:53
das ist auch irgendwie nicht möglich! spieleentwickler sind keine fanboys und müssen dafür sorgen, dass spiele immer so gut wie möglich auf allen grakas laufen.
was würde denn der publisher sagen, wenn ein spiel mit sm3.0 2 generationen besser aussieht als auf einer radeon? *übertreib*
ati user würden das spiel nicht mehr kaufen wollen und der publisher würde das nur durchgehen lassen, wenn nvidia das game (oder eher den publisher) dafür sponsort!
Das glaubst Du. Die Realität sieht anders aus. ATI und NV haben Verträge mit Publishern und Entwicklerstudios und erkaufen sich, ob nun mit Geld oder gewissen Dienstleitungen, einen Performancevorteil. Dieser wird dann immer so hingestellt, als ob es schlicht an der schnelleren Hardware liegt. Teilweise werden sogar kleine Bugs stehen gelassen, um Kartenhersteller XY einen auszuwischen. Sogar aths ist NV und id auf den Leim gegangen, wie man an seinem Artikel schön sehen konnte, wo er meinte der Performancevorteil in Doom wäre mit der tollen NV40 Architektur zu bergünden.

Doom³ und Hl² sind sicherlich extreme Beispiele, aber man sieht das immer wieder in abgeschwächter Form.

Wieso z.B. ging der AF in BF:Vietnam bei den ATIs nicht? Weil eine Codezeile fehlte, die den Treiber sagte, dass er alle Texturstages voll filtern soll. Das wurde dann im 2. Patch nachgreicht. Sowas ist schlicht Absicht.

Und solche Beispiele sind sicherlich auf beiden Seiten zu finden.

LordDeath
2004-10-09, 19:20:38
das problem deiner aussagen ist aber leider, dass die irgendwie zusammengereimt wurden, und keine offentlichen beweise darüber vorliegen!
zeigt mir kontoauszüge, wo nvidia geld an id überweißt!
zeig mir den sourcecode von BF:Vietnam, wo die entsprechende zeile fehlte und nachgereicht wurde!

man darf nicht einfach irgendwelche behauptungen von anderen sammeln und diese als fakten vorlegen!

Gast
2004-10-09, 19:27:16
das problem deiner aussagen ist aber leider, dass die irgendwie zusammengereimt wurden, und keine offentlichen beweise darüber vorliegen!
zeigt mir kontoauszüge, wo nvidia geld an id überweißt!
zeig mir den sourcecode von BF:Vietnam, wo die entsprechende zeile fehlte und nachgereicht wurde!

man darf nicht einfach irgendwelche behauptungen von anderen sammeln und diese als fakten vorlegen!
Soll ich lachen!? Vieles ist offensichtlich, aber halt nicht beweisbar. Darum geht es ja. Kein Developer wird sagen: Ja, das Spiel läuft nur besser auf Karte XY, weil wir mit Firma ZX einen Marketingdeal haben und das so gedreht haben. Es sollte wohl klar sein, dass es draum geht, dass man keine Absicht nachweisen kann! Man kann ja immer sagen, dass leider zuwenig Zeit war, die eine Anweisung integrieren.

Wenn Du das nicht glaubst, weil Du es keiner zugibt, dann muss ich mich echt fragen wie naiv Du bist. O_o

LordDeath
2004-10-09, 19:40:01
ok, hast mich überzeugt ;)

Gast
2004-10-09, 20:01:53
man sollte auch bedenken, dass spiele, die die SM 3.0 technik voll ausnutzten nicht nur aufwändigere shader haben werden. was ist mit der texturgröße und dem polygoncount? der geht auch immer höher und in sachen rohleistung wird eine nv40 schon früher schlappmachen als ne r420! daher erstmal warten, wann sich die ersten flaschenhälse für diese karten ergeben und welche es dann sind!

? bin mal gespannt ob einer 6800GT vor einer X800Pro die Puste ausgeht... selbe Rohleistung, da könnte man bei entsprechenden Spielen "messen" was SM3.0 im konkreten Anwendungsfall (Effekt der nicht mit 2.0b dargestellt werden kann, cpu muss einspringen) bringt.

Coda
2004-10-09, 20:17:36
der geht auch immer höher und in sachen rohleistung wird eine nv40 schon früher schlappmachen als ne r420!
Eben nicht. Bei langen Shadern ist die NV40 klar schneller.

LordDeath
2004-10-09, 20:33:47
naja, das war auf die beiden bisherigen topmodelle bezogen! da hat ati auf dem papier mehr füllrate und speicherbandbreite...

Gast
2004-10-09, 20:34:46
Eben nicht. Bei langen Shadern ist die NV40 klar schneller.
Welche sinnvollen Shader haben denn bitte in absehbarer Zeit eine Länge, die mit SM2.0b nicht ordentlich Performen würden?

Synthetische Benchmarks mit ultralangen Shadern kann jeder basteln. Das hat aber nix realen Applikationen zu tun, die in nächster Zeit erscheinen.

aths
2004-10-09, 22:27:42
[COLOR="#000088"]
Ja natürlich. Ähnlich Erbauliches hab ich schon bei Threads zum Thema FX 5800/5900 gelesen.Kannst du das mit Zitaten belegen? (Die natürlich nicht aus dem Kontext gerissen sein sollten.)


Die Wirklichkeit sah dann "etwas" anders aus.Warum führst du keine Gründe an, die der Wirklichkeit deiner Meinung nach eher entsprechen?

aths
2004-10-09, 22:34:47
man sollte auch bedenken, dass spiele, die die SM 3.0 technik voll ausnutzten nicht nur aufwändigere shader haben werden. was ist mit der texturgröße und dem polygoncount? der geht auch immer höher und in sachen rohleistung wird eine nv40 schon früher schlappmachen als ne r420! Woher weißt du das? NV40 kann afaik Texturen bis 8192² nutzen, R420 iirc 2048². Soweit ich weiß, unterstützt NV40 auch "non power of 2" Texturdimensionen "full speeded", beim R420 habe ich davon bislang nichts gelesen.

Was den Polycount angeht kann NV40 dank Geometry Instancing CPU-Power sparen und dank MIMD-Technologie recht effizient dynamic branching im VS nutzen.

aths
2004-10-09, 22:40:29
naja, das war auf die beiden bisherigen topmodelle bezogen! da hat ati auf dem papier mehr füllrate und speicherbandbreite...... aber weniger arithmetischer Rechenleistung, die jedoch in Zukunft immer wichtiger wird. NV40 kann Texturfüllrate etc. effizienter (GPU- und/oder CPU-schonender) nutzen als R420. Schon heute, ohne großartige NV40-Optimierungen (aber nach 2 Jahren auf R300-Optimierung) reißt der NV40 den Taktnachteil in der Regel raus.

aths
2004-10-09, 22:43:45
Sogar aths ist NV und id auf den Leim gegangen, wie man an seinem Artikel schön sehen konnte, wo er meinte der Performancevorteil in Doom wäre mit der tollen NV40 Architektur zu bergünden.Dass der NV40 für Doom3 geeigneter ist als R420 ist imo – trotz Taktnachteil – noch immer eine wahre Aussage. Allerdings ist der beim [H] gebenchte Vorteil lange nicht so stark auf die NV40-Architektur zurückzuführen, wie mein Artikel in der originalen Form behauptet. Nachdem mehr Informationen auf dem Tisch lagen, wurde die Ergänzung gemacht, und Leonidas machte das auch in der News publik.

LordDeath
2004-10-09, 22:46:08
@aths: wow, aus dem blickpunkt hab ich das echt nicht betrachtet! sind all diese vorteile auf sm3.0 zurückzufuhren oder sind die unabhängig davon?

aths
2004-10-09, 22:54:17
@aths: wow, aus dem blickpunkt hab ich das echt nicht betrachtet! sind all diese vorteile auf sm3.0 zurückzufuhren oder sind die unabhängig davon?Teils teils. Auch beim NV40 musste ja auf den Transistorcount geachtet werden. Die jetzige Lösung hat bestimmte Vor- und Nachteile.

Beispiel Early-Z (verwerfen von Pixeln die garantiert unsichtbar sind.) R420 kann Pixel vier mal so schnell verwerfen wie der NV40. Allerdings gibt es diese Situationen nur selten. NV40 arbeitet mit feinerer Granularität, und kann vor allem genauere Entscheidungen treffen. (Auf die feine Granularität bezogen ist der NV40 dann vier mal so schnell wie der R420.) Lange Rede, kurzer Sinn: NV40 ist hier für kleinere Dreiecke optimiert, während R420 nur bei großen Dreiecken volle EarlyZ-Effizienz nutzen kann.

Was den Speichercontroller angeht so scheint NV40 aus der Bandbreite mehr sichtbare Füllrate machen zu können als R420. Das kann viele Ursachen haben. Über Details zur Farbkomprimierung (die manchmal auch ohne AA funktionieren soll) schweigt sich NV leider aus.

Dass die ROPs von den Pipes entkoppelt sind, spart den einen oder anderen Leertakt. Übrigens können die ROPs nicht, wie NV behauptet, pro Takt 32 Z-Werte testen. Diese Angabe berücksichtigt, dass aus dem EarlyZ schon einige fertige Ergebnisse kommen, und einige ROP-Teile fungieren lediglich als Weiterleitung. (Der Chip kann pro Takt 32 Z/Stencil-Werte testen und in den Framebuffer schreiben, nur nicht an der Stelle, wo NV das in den Unterlagen eingezeichnet hat.)

Nutzt man SM 3-Features, kann der NV40 daraus manchmal Leistungsvorteile gewinnen, manchmal wird er aber auch langsamer. Wenn man eine Situation hat, in derm man weder GPU-Leistung gewinnt noch verliert, kann man im der Regel dafür auf jeden Fall etwas CPU-Leistung sparen.


Das alles heißt natürlich nicht, dass der NV40 jetzt der endgeile Chip wäre. Es ist sehr gut möglich dass ATIs nächste Generation technisch wie leistungsmäßig deutlich überlegen ist und den NV40 damit zur Krücke degradiert. Ebenso könnte es sein, dass NV mit dem NV50 aufzeigt, dass der NV40 noch viele Flaschenhälse hat. Es könnte natürlich auch sein, dass der NV50 gerade mal so mit dem R520 mithalten kann ... wenn ATI allerdings mit dem R480 der SM2-Technik das Leben nochmals verlängern möchte, sehe ich das als nicht wahrlich nicht begrüßenswert. Dass ATI aktuell mal bisschen hinterherhinkt, ist imo kein Beinbruch. Dafür haben sie ja die letzte Zeit zurecht (da auf eigene Leistung zurückzuführen) dominiert – und für heutige Spiele ist die X800 XT zweifellos eine sehr gute Wahl.

Gast
2004-10-09, 23:11:21
Dass der NV40 für Doom3 geeigneter ist als R420 ist imo – trotz Taktnachteil – noch immer eine wahre Aussage. Allerdings ist der beim [H] gebenchte Vorteil lange nicht so stark auf die NV40-Architektur zurückzuführen, wie mein Artikel in der originalen Form behauptet. Nachdem mehr Informationen auf dem Tisch lagen, wurde die Ergänzung gemacht, und Leonidas machte das auch in der News publik.
Ich weiß. Und Fehler sind menschlich, von daher will ich auch nicht meckern. Außerdem will ich auch nicht widersprechen, dass der NV40 leichte Vorteile bei Doom3 genüber der Konkurrenz hat. Trotzdem hast auch Du dich durch diverses Marketing imho zu einem Schnellschuss verleiten lassen, der in dieser Form unrichtig war.

my 2 cents.

Gast
2004-10-10, 00:15:45
Shader 3.0 ist deutlich besser als Shader 2.0, nur nutzt auch 3DMark 05 die Vorteile nicht aus:

- dynamic branching
- deutlich höherer instruction count
- FP32

Weil die meisten nichts damit anfangen können wir es aber systematisch heruntergespielt und ATi's X800 Shader von vielen als "fast gleichwertig" betrachtet, obwohl selbst eine FX 5200 mehr Fähigkeiten hat.


Da wird doch ganz klar verlangt keinen ANTI Thread daraus zu machen!!!

..und du ...... behauptest mal eben; eine FX5200 kann mehr als eine X800!!!

/und du ..... hast keine Mittel, dich gewählt auszudrücken.

Gast
2004-10-10, 00:17:24
Teils teils. Auch beim NV40 musste ja auf den Transistorcount geachtet werden. Die jetzige Lösung hat bestimmte Vor- und Nachteile.

Beispiel Early-Z (verwerfen von Pixeln die garantiert unsichtbar sind.) R420 kann Pixel vier mal so schnell verwerfen wie der NV40. Allerdings gibt es diese Situationen nur selten. NV40 arbeitet mit feinerer Granularität, und kann vor allem genauere Entscheidungen treffen. (Auf die feine Granularität bezogen ist der NV40 dann vier mal so schnell wie der R420.) Lange Rede, kurzer Sinn: NV40 ist hier für kleinere Dreiecke optimiert, während R420 nur bei großen Dreiecken volle EarlyZ-Effizienz nutzen kann.

Was den Speichercontroller angeht so scheint NV40 aus der Bandbreite mehr sichtbare Füllrate machen zu können als R420. Das kann viele Ursachen haben. Über Details zur Farbkomprimierung (die manchmal auch ohne AA funktionieren soll) schweigt sich NV leider aus.

Dass die ROPs von den Pipes entkoppelt sind, spart den einen oder anderen Leertakt. Übrigens können die ROPs nicht, wie NV behauptet, pro Takt 32 Z-Werte testen. Diese Angabe berücksichtigt, dass aus dem EarlyZ schon einige fertige Ergebnisse kommen, und einige ROP-Teile fungieren lediglich als Weiterleitung. (Der Chip kann pro Takt 32 Z/Stencil-Werte testen und in den Framebuffer schreiben, nur nicht an der Stelle, wo NV das in den Unterlagen eingezeichnet hat.)

Nutzt man SM 3-Features, kann der NV40 daraus manchmal Leistungsvorteile gewinnen, manchmal wird er aber auch langsamer. Wenn man eine Situation hat, in derm man weder GPU-Leistung gewinnt noch verliert, kann man im der Regel dafür auf jeden Fall etwas CPU-Leistung sparen.


Das alles heißt natürlich nicht, dass der NV40 jetzt der endgeile Chip wäre. Es ist sehr gut möglich dass ATIs nächste Generation technisch wie leistungsmäßig deutlich überlegen ist und den NV40 damit zur Krücke degradiert. Ebenso könnte es sein, dass NV mit dem NV50 aufzeigt, dass der NV40 noch viele Flaschenhälse hat. Es könnte natürlich auch sein, dass der NV50 gerade mal so mit dem R520 mithalten kann ... wenn ATI allerdings mit dem R480 der SM2-Technik das Leben nochmals verlängern möchte, sehe ich das als nicht wahrlich nicht begrüßenswert. Dass ATI aktuell mal bisschen hinterherhinkt, ist imo kein Beinbruch. Dafür haben sie ja die letzte Zeit zurecht (da auf eigene Leistung zurückzuführen) dominiert – und für heutige Spiele ist die X800 XT zweifellos eine sehr gute Wahl.

Jetzt sind schon Mods Fanboys!

Echt peinlich dein Gelaber das NV40 besser wäre als eine R420!

Du meinst wohl auch das ein Trabi mehr Wersteigerung hat als ein Porsche*g*

deekey777
2004-10-10, 00:23:11
Angeblich wohl Pacific Fighters, welches vorgestern angeblich Gold-Status erreichte. Klar, das muss nichts heissen - HL2 wurde schließlich auch schon seit über einem Jahr der Gold-Status zugesprochen.


Das ging voll unter die Gürtellinie mit HL2.
Zum Thema: Also was jetzt - nutzt 3D 2005 Dynamic Branching oder nicht? Ich dachte, der Performancevorsprung SM2.0->SM3.0 der NV40er liegt in DB?

aths
2004-10-10, 01:12:25
Ich weiß. Und Fehler sind menschlich, von daher will ich auch nicht meckern. Außerdem will ich auch nicht widersprechen, dass der NV40 leichte Vorteile bei Doom3 genüber der Konkurrenz hat. Trotzdem hast auch Du dich durch diverses Marketing imho zu einem Schnellschuss verleiten lassen, der in dieser Form unrichtig war.Das Marketing hat daran weniger Schuld. Das Marketing nennt NV40 einfach "the DOOM3 GPU". Der Artikel geht ins Detail, was ohne Demirugs Hilfe allerdings nicht möglich gewesen wäre. Jetzt kommen zwei Effekte zusammen: Demirug korrigierte später seine These, was die Aussage des Artikels abschwächt (der angenommene Flaschenhals ist weniger eng, als gedacht), und eben die NV-seitigen "Optimierungen", die wahrscheinlich über Shaderreplacement hinausgehen, für die es damals keine Indizien gab. (Das hätte man höchstens spekulieren können.)

aths
2004-10-10, 01:14:38
Jetzt sind schon Mods Fanboys!Faktisch bin ich kein Mod, auch wenn noch bei "3DCenter Tools" eingetragen. Welcher Chip besser sei, wurde von mir nie 'festgelegt'. Denn das "bessere" lässt sich hier nur subjektiv erkennen. Dass der NV40 gegenüber dem R420 fortschrittlicher (und pro Takt effizienter) ist, ist eine nachprüfbare Tatsache.

aths
2004-10-10, 01:20:40
..und du ...... behauptest mal eben; eine FX5200 kann mehr als eine X800!!! Da hat er aber recht. Die FX 5200 kann mehr, die X800 ist allerdings bei dem, was sie kann, deutlich schneller.

mapel110
2004-10-10, 01:21:23
Dass der NV40 gegenüber dem R420 fortschrittlicher ist, ist eine nachprüfbare Tatsache.

Mehr Speed ist auch Fortschritt. Da sollte man schon differenzieren. Und dann kommts drauf an, wie man gewichtet. Features <-> Speed

aths
2004-10-10, 01:46:49
Mehr Speed ist auch Fortschritt. Da sollte man schon differenzieren. Und dann kommts drauf an, wie man gewichtet. Features <-> SpeedVom "Gewicht" her ist der NV40 mit 222 Mio Transistoren spürbar schwerer :) "Fortschrittlich" bezieht sich in meinem Posting auf die Entwicklung. ATI bäckt den R300 (R360) neu auf, NV bringt etliche neue Features in das featuremäßig (dafür FP-pixelshadermäßig leistungsschwache) ohnehin überlegene CineFX–Design (wobei die alten Leistunggschwächen ausgemerzt wurden.)

Welche Karte für jetzige Spiele besser ist, bzw. ob es falsch wäre noch eine SM2-Karte zu kaufen, wird damit ja noch nicht gesagt.

Dass R420 mehr "Speed" hätte würde ich btw nicht so pauschal sagen, da das nur bei "herkömmlichen Szenarien" stimmt (wo Texturfüllrate den Flaschenhals darstellt.)

Quasar
2004-10-10, 07:27:08
Vom "Gewicht" her ist der NV40 mit 222 Mio Transistoren spürbar schwerer :)
Und dabei nichtmal in gleicher Relation schneller (getaktet) - Fortschritt läßt sich auf viele Arten definieren. =)

(dafür FP-pixelshadermäßig leistungsschwache) ohnehin überlegene CineFX–Design[...]
Ist CineFX PS-Leistungsmäßg überhaupt so schwach wie man landläufig vermutet?
IMO sind eher die GeForceFX-Karten schwach, aber pro Pipeline wird CineFX von Smartshader 2.0 nicht so deutlich geschlagen (und CineFX-II je nach Situation noch weniger) wie man bei den landläufigen Vergleichen "R9800 vs. nV35" denkt.

stav0815
2004-10-10, 09:01:28
Da hat er aber recht. Die FX 5200 kann mehr, die X800 ist allerdings bei dem, was sie kann, deutlich schneller.

die FX5200 is meistens so langsam dass sie das was sie kann ned nutzbar macht.

Ailuros
2004-10-10, 11:35:54
Du führst den R300 als Beispiel an?
Warum nicht die FX5800/5900?
Die erschienen später und tun sich richtig schwer mit Shader 2.0.

Wo NV3x genau kraenkelt wissen die meisten schon seit langem und diese negativen Aspekte sind nicht auf NV4x vorhanden. Zwar ein netter Versuch dem Punkt elegant auszuweichen, aber es bleibt bei der Tatsache dass man auch auf R300 auch nicht die vollen Faehigkeiten ausnutzen kann.

NV3x ist um einiges langsamer mit SM2.0 als R3xx, was sich aber bei Vergleichen zwischen NV4x und R420 nicht wiederholt.

Nochmal für alle die mich nicht richtig verstehen wollen:
Shader 3.0 sind wichtig. Und wir werden SM 3.0 Spiele sehen. Genau wie viele andere Dinge. Ich zweifel nur daran daß bereits die erste Generation in der Lage ist aus die SM 3.0 Technik in realen Spielen großen Nutzen zu ziehen. Viielleicht kommt es ja anders. Ich bitte aber zu bedenken daß meine Skepsis bei der FX-Serie zu 100% berechtigt war.


Dann schreib mal Epic und frag nach wie sich R420 in U3 genau schlaegt. Sehr lang sind die Shader gerade nicht; sie liegen zwischen 50-200 Instruktionen. U3 ist kein SM3.0 Spiel, im Sinn wo Du Dir es mit hoechstwahrscheinlichkeit vorstellst.

Zu stark in die Zukunft gegriffen? Ja. Wird es eine bessere Idee sein fuer das Spiel eine R520 oder NV50 zu benutzen? Zweimal=ja. Werden alle heutige und zukuenftige SM3.0 chips von Epic's SM3.0 Optimierungen profitieren? Dreimal=ja.

Die Frage ist hier eigentlich nur ob NVIDIA Transistoren verschwendet hat oder nicht, genauso vielleicht in dem Sinn wie HW "verschwendet" wurde fuer stencil-spezifische Optimierungen.

naja, das war auf die beiden bisherigen topmodelle bezogen! da hat ati auf dem papier mehr füllrate und speicherbandbreite...

Genau eben auf Papier.

hmx
2004-10-11, 18:47:50
Ich versteh irgendwie nicht warum die 5-10% die die xtpe schneller ist unbedingt mehr Wert sein soll als SM3. Deutlich schneller ist anders. Da stellt sich die Frage ob 5-10% Mehrleistung (die mit mehr Shadereinsatz noch schrumpfen könnten) oder SM3 für die Zukunftsicherheit besser sind. SM3 mag zwar hier und jetzt nix bringen, aber auf 5-10% Mehrleistung bei einer Karte, die eh schnell genug ist kann ich persönlich verzichten. Wenns dann hart auf hart kommt machen 5-10% den Braten garantiert nicht fett. Alle meckern rum dass Ati und NV Cheaten nur um ein paar Prozente mehr rauszubekommen, die eh keiner spürt aber eine solche Mentalität wie das herumreiten auf der geringen Mehrleistung der xtpe fördert sowas ja.

Gortha
2004-10-12, 15:06:21
@hmx

Sie sind nicht mehr Wert als SM3 aber SM3 ist kein Kaufgrund für NVidia
oder gegen ATi....
Wenn denn irgendwann mal SM3 der Stadard sein wird, sagen wir mal 2006 oder 2007, werde ich nicht mehr mit einer NV40 oder einem R420 spielen,
da sie einfach beide zu lahm sind.

Grüsse
Gortha

tRpii
2004-10-12, 15:45:22
@hmx

Sie sind nicht mehr Wert als SM3 aber SM3 ist kein Kaufgrund für NVidia
oder gegen ATi....
Wenn denn irgendwann mal SM3 der Stadard sein wird, sagen wir mal 2006 oder 2007, werde ich nicht mehr mit einer NV40 oder einem R420 spielen,
da sie einfach beide zu lahm sind.

Grüsse
Gortha

sehe ich ähnlich..

Das was nVIDIA mit ihrem Marketing suggeriert ist ja, dass der potentielle Käufer unbedingt SM3.0 benötigt um in Zukunft alle Games mit noch mehr Detailreichtum bestaunen kann. Dies ist aber mehr oder weniger "nur" Marketing-"Geblubber". In der nächsten Zeit wird es sicher kein Spiel geben was SM3.0 voraussetzt bzw. mit SM3.0 andere Effekte liefert als z.B. eine Grafikkarte mit SM2.0/SM2.0b. Das dieses Feature nicht Blödsinn ist, ist sicher vielen klar nur hat der Endanwender keinen Nutzen davon.

Die eigentliche Zielgruppe für dieses Feature sind doch die Entwickler, die sich jetzt schon einmal mit dieser Version vertraut machen können.

Nur gibt es eben genug Käufer/Fanboys die auf nVIDIA's Masche reinfallen und fast alles Blind glauben.

ATi und nVIDIA sind zwei unterschiedliche Wege gegangen, was ich garnicht so Schlimm halte. Dennoch finde ich (meine subjektive Meinung), dass es ATi etwas besser gemacht hat und eben die Hardware (recycling hin oder her) bietet die HEUTE gebraucht wird.

jm2c

LordDeath
2004-10-12, 15:59:48
also zu lebzeiten der nv40 werden wir bestimmt spiele sehen, die sm3.0 nutzten werden, um mehr speed zu erreichen! erst später werden die entwickler auch mehr qualität damit erzeugen, da die sm2.0 und r3xx r4xx karten noch zu verbreitet sind!
ich denke mal, ne genaue aussage zum sm3.0 der nv40 werden wir irgendwann so januar 2005 geben können. da sollten schon die jetzt erwarteten neuen spiele kracher ne zeit lang raus sein und vielleicht sind da auch sm3.0 auch in den nicht-mainstream games vertreten!

Gortha
2004-10-12, 16:28:48
Ja silizium lebt lange, aber ist nicht lange schnell genug...(für anspruchsvolle Spiele)
so habe ich es bisher immer erlebt und ich bin nicht nur ein Theoretiker,
sondern ich zocke seit ewig auf dem PC, mit neuer Hardware und neuen Games.

ich wüßte nicht, warum sich daran etwas ändern sollte...
Das will der Markt auch gar nicht, da kannst du hoffen wie du willst.

NATÜRLICH, gibt es auch Leute, die gerne mit schlechten Qualitätseinstellungen
die neuen Spiele spielen, denen lasse ich gerne ihre lahmen Karten, jedem das
was ihm gefällt.

Soll heissen, wenn du noch mit NV40 zockst und dich an SM3.0 erfreust,
spiele ich mit R5XX/R6XX oder NV5X/6X.

Grüsse
Gortha

Gast
2004-10-12, 17:00:05
...
ATi und nVIDIA sind zwei unterschiedliche Wege gegangen, was ich garnicht so Schlimm halte. Dennoch finde ich (meine subjektive Meinung), dass es ATi etwas besser gemacht hat und eben die Hardware (recycling hin oder her) bietet die HEUTE gebraucht wird.

jm2c

? Vergleich der X800Pro gegen die 6800GT, Speedmäßig nehmen die sich nix, Preismäßig ebenfalls kein Unterschied, da nehm ich doch SM3 mit, das SICHER in Zukunft genutzt wird, 3DC will keiner schlecht machen, aber es ist (noch) nicht in DX (WGF) eingebaut, von daher "nur" eine sicher sinnvolle Extension, die aber womöglich in Zukunft wieder verschwindet.

Lustig das alle wieder auf die Top Modelle schaun, die keiner kaufen kann und daraus schlussfolgerungen ziehen anstatt das zu betrachten was man kaufen kann und nicht in nebulöser Zukunft mal kommt.

LovesuckZ
2004-10-12, 17:57:18
In der nächsten Zeit wird es sicher kein Spiel geben was SM3.0 voraussetzt bzw. mit SM3.0 andere Effekte liefert als z.B. eine Grafikkarte mit SM2.0/SM2.0b. Das dieses Feature nicht Blödsinn ist, ist sicher vielen klar nur hat der Endanwender keinen Nutzen davon.

Hm, eine XTPE liefert auch keine andere Effekte als eine 6800Ultra, also ist sie ueberfluessig?
Ja, nach dir...

Die eigentliche Zielgruppe für dieses Feature sind doch die Entwickler, die sich jetzt schon einmal mit dieser Version vertraut machen können.

Und der Spieler, der von seiner veralterten Hardware (X800) naechstes Jahr nicht aufruesten muss.

Nur gibt es eben genug Käufer/Fanboys die auf nVIDIA's Masche reinfallen und fast alles Blind glauben.

Die gibt es auch bei ATi, die glauben, mit PS2.b lasse sich das SM2.a/3.0 emulieren.
Nicht wahr?

ATi und nVIDIA sind zwei unterschiedliche Wege gegangen, was ich garnicht so Schlimm halte. Dennoch finde ich (meine subjektive Meinung), dass es ATi etwas besser gemacht hat und eben die Hardware (recycling hin oder her) bietet die HEUTE gebraucht wird.


:???:
Was bietet ATi bitte an, was "heute" gebraucht werde und Nvidia nicht.
Vaporware? Ja, da hast du recht :ugly:

Jesus
2004-10-12, 18:24:09
Hm, eine XTPE liefert auch keine andere Effekte als eine 6800Ultra, also ist sie ueberfluessig?
Ja, nach dir...

wo steht überflüssig?



Und der Spieler, der von seiner veralterten Hardware (X800) naechstes Jahr nicht aufruesten muss.

ATI bashing



Die gibt es auch bei ATi, die glauben, mit PS2.b lasse sich das SM2.a/3.0 emulieren.
Nicht wahr?

bisher gibts aber nichts das das Gegenteil beweisen würde, im Gegenteil (FC;))

:wink:

RLZ
2004-10-12, 18:57:44
bisher gibts aber nichts das das Gegenteil beweisen würde, im Gegenteil (FC;))



Nun mal langsam zum Mitschreiben :D
SM3.0 setzt Dynamic Branches voraus.
Nu hab ich den Eindruck manche wissen nicht was sich dahinter versteckt. ;D
Einfach ausgedrückt sinds von den aktuellen Daten abhängige Entscheidungen.
Jeder der schonmal mit irgendeiner Programmiersprache was zu tun hatte kennt ja if-Anweisungen. Und genau die werden mit dem Begriff beschrieben (statische Fallunterscheidungen sind nur ein Sonderfall, sind aber glaub ich schon mit 2.0 möglich?).
Nun könnte man ja einwenden, man kann alle Möglichkeiten berechnen und mit Vorfaktoren wegfallen lassen. Geht aber nicht, weil
Kapitel 2: Schleifen
Jeder hier hat wohl schon was von for/while Schleifen gehört.
Nun wie funktionieren die?
Ein bestimmter Codeabschnitt wird solange wiederholt, bis eine Abbruchbedingung eintritt. Das heisst am Anfang/Ende der Schleife wird per Fallunterscheidung entschieden ob abgebrochen wird und das ist ein *trommelwirbel* dynamic branch/jump.
Nur schleifen die man auseinanderdröseln kann, können ansonsten dargestellt werden. Z.B. feste 4 Schleifendurchläufe. Die kann man halt einfach hintereinander schreiben (unrolling). Allerdings unter der Voraussetzung, dass der Shader dadurch nicht zu lang wird. *lach*

Geht mal zu nem Programmierer und erklärt ihm, dass er ohne Fallunterscheidungen und Schleifen proggen soll.
Entweder er lacht euch aus und tötet euch auf eine nicht jugendfreie Art und Weise. :devil:

Texturzugriff im VertexShader ist auch noch eine Funktion die jede Menge Effekte ermöglicht. Ist aber emulierbar, wenn die CPU jedes mal die Vertexdaten neu berechnet und an die Graka schickt. Wird nur dann leicht ineffektiv, da die CPU wieder den VertexShader emuliert. ;)

Sobald genug Leute entsprechende Grafikkarten haben, werden die Entwickler umschwenken und neue Features damit einbauen. Die Entscheidung fällt ihnen bestimmt nicht schwer.

tRpii
2004-10-12, 18:58:59
Hm, eine XTPE liefert auch keine andere Effekte als eine 6800Ultra, also ist sie ueberfluessig?
Ja, nach dir...

Wirbt ATi mit extra Effekten etc.? Ich denke nicht, nVIDIA dagegen schon. Und etwas von überflüssig habe ich nicht gesagt sondern dass man es als ENDANWENDER momentan nicht braucht.


Und der Spieler, der von seiner veralterten Hardware (X800) naechstes Jahr nicht aufruesten muss.

Schau dir an wielange es dauert bis die Entwickler exzessiv auf SM2.0 gesetzt haben. Zähle mir doch bitte 10 Titel auf die fast ausschliesslich davon gebrauch machen.


Die gibt es auch bei ATi, die glauben, mit PS2.b lasse sich das SM2.a/3.0 emulieren.
Nicht wahr?

Nichts mit Emulieren - Was wollte denn nVIDIA bei FarCry und den aus dem damaligen 1.2'er Patch veröffentlichten Bildern weissmachen? Richtig! Dass die 6800 bessere Effekte/Qualität bei einer super Performance liefert und was war? 2.0b stand dem in nichts nach.



:???:
Was bietet ATi bitte an, was "heute" gebraucht werde und Nvidia nicht.
Vaporware? Ja, da hast du recht :ugly:

Willst du mich jetzt auf den Arm nehmen oder willst du den Sinn meiner Posts nicht verstehen? Ich habe fast ausschliesslich von SM3.0 und dessen Nutzen geredet. Mal anders, was bietet denn nVIDIA "heute" was den kauf einer 6800 begründen würde?

*snipp*
Schaut doch mal zurück, letztes Jahr war die 9800XT State of the Art und was ist sie heute? Wenn nächstes Jahr die "next Generation" kommt, glaubt ihr wirklich dass sie sich so wenig von der letzten Unterscheiden wird?

Wenn man die X800 mit der 9800 vom letzten Jahr vergleicht dann sind das Welten. Schaut euch dazu die neuen Games an ala Doom3 und wie sie auf den jetzigen Karten laufen und wie auf den "alten".

Das Argument mit dem: "nächstes Jahr schauen die X800 User in die Röhre" zieht absolut nicht. Kein Publisher kann es sich leisten ihre Games auf einer Karte auszulegen und die meisten haben nunmal keine X800 oder 6800.

Jesus
2004-10-12, 19:19:10
Nun mal langsam zum Mitschreiben :D
SM3.0 setzt Dynamic Branches voraus.
Nu hab ich den Eindruck manche wissen nicht was sich dahinter versteckt. ;D
Einfach ausgedrückt sinds von den aktuellen Daten abhängige Entscheidungen.
Jeder der schonmal mit irgendeiner Programmiersprache was zu tun hatte kennt ja if-Anweisungen. Und genau die werden mit dem Begriff beschrieben (statische Fallunterscheidungen sind nur ein Sonderfall, sind aber glaub ich schon mit 2.0 möglich?).
Nun könnte man ja einwenden, man kann alle Möglichkeiten berechnen und mit Vorfaktoren wegfallen lassen. Geht aber nicht, weil
Kapitel 2: Schleifen
Jeder hier hat wohl schon was von for/while Schleifen gehört.
Nun wie funktionieren die?.

... du weisst aber auch das Crytek wissentlich auf Dyn. branching verzichtet hat und stattdessen nur statisches in ihrer implementierung verwendet hat weil das besser performt hat ?

Geht mal zu nem Programmierer und erklärt ihm, dass er ohne Fallunterscheidungen und Schleifen proggen soll.
Entweder er lacht euch aus und tötet euch auf eine nicht jugendfreie Art und Weise. :devil:


Oder er macht es einfach weil er was seeeehr schnelles machen will. Schonmal in Assembler was extrem zeitkritisches programmiert ? ;)

Ailuros
2004-10-12, 19:29:45
... du weisst aber auch das Crytek wissentlich auf Dyn. branching verzichtet hat und stattdessen nur statisches in ihrer implementierung verwendet hat weil das besser performt hat ?


Genau aus dem gleichen Grund weil sie z.B. kein single pass lighting mit SM2.0 zustande bringen konnten; schlecht optimierte engine.

Dynamisches branching ist sowieso nicht fuer die eher kurzen paar Shader die FC benutzt gedacht. Uhmmm hallo? :|

Ailuros
2004-10-12, 19:38:07
*snipp*
Schaut doch mal zurück, letztes Jahr war die 9800XT State of the Art und was ist sie heute? Wenn nächstes Jahr die "next Generation" kommt, glaubt ihr wirklich dass sie sich so wenig von der letzten Unterscheiden wird?

Wenn ich tatsaechlich zurueckschaue, dann sehe ich vergleichsmaessig eine NV3x konstant schlechter abschneiden als eine R3xx. Im Vergleich aber zu einer einfachen 6800nonU waechst der Unterschied der letzteren auch konstant in letzter Zeit.

Es gibt manche die auf arithmetische Effizienz bestanden fuer ATI im letzten Jahr und fuer NVIDIA dieses Jahr. Der erste Teil spielte sich voll aus; bleicht also noch die zweite Episode abzuwarten.

Ailuros
2004-10-12, 19:38:53
***edit: verfluchte Doppelposts.... :mad:

RLZ
2004-10-12, 19:42:18
... du weisst aber auch das Crytek wissentlich auf Dyn. branching verzichtet hat und stattdessen nur statisches in ihrer implementierung verwendet hat weil das besser performt hat ?


Ist ja auch klar, dass statisches bessere Performance bringt. :|
Solange man es verwenden kann.
Ich kann auch keine Aussagen über die Performance machen, da ich noch keine SM3 Karte habe. Allerdings hätte ich mir in Shadern doch schon öfters gewünscht mal ein if einbauen zu können, weil mir das viel viel unnötiges drum herum gespart hätte...
Wie schön Fallunterscheidungen da sind merke ich immer bei Raytracingshadern.


Oder er macht es einfach weil er was seeeehr schnelles machen will. Schonmal in Assembler was extrem zeitkritisches programmiert ? ;)

Schon viel.
Man minimiert zwar, aber dank SSE lassen sich Fallunterscheidungen mit Bitmasken immer noch recht gut handeln. Da gibts vieles anderes was genausoviel/mehr Performance kostet...

LovesuckZ
2004-10-12, 20:16:50
ATI bashing


Wenn das die Wahrheit für dich ist. Okay.


bisher gibts aber nichts das das Gegenteil beweisen würde, im Gegenteil (FC;))

Doch gibt es, da du aber nicht in der Lage bist, dies zu sehen, lohnt es sich auch nicht, es dir naeher zu bringen.


Wirbt ATi mit extra Effekten etc.? Ich denke nicht, nVIDIA dagegen schon. Und etwas von überflüssig habe ich nicht gesagt sondern dass man es als ENDANWENDER momentan nicht braucht.

*cough* 3dc *cough*
Wie viele andere (ATI-) User forderst du gerade technischen Stillstand. :respekt:
Würdest du auch bei einem Sprittpreis von 50cent förern, dass Autohersteller keine sritsparenden Autos entwickeln sollen, weil der er Anwender es ja nicht benoetige?
Wahrscheinlich ja, schade...

Schau dir an wielange es dauert bis die Entwickler exzessiv auf SM2.0 gesetzt haben. Zähle mir doch bitte 10 Titel auf die fast ausschliesslich davon gebrauch machen.

Zaehle mir doch mal bitte 10 Titel auf, die gekommen waeren, wenn niemand eine FX oder r300 Karte gekaeuft haetten.
Oder anders: Empfehlst du eine FX Karte gegenüber einer r300, weil es heutzutage keine 10 DX9 Titel gibt?
Das ganze schließt sich aber mit dem oberen punkt zusammen. Technischer Stillstand!


Nichts mit Emulieren - Was wollte denn nVIDIA bei FarCry und den aus dem damaligen 1.2'er Patch veröffentlichten Bildern weissmachen? Richtig! Dass die 6800 bessere Effekte/Qualität bei einer super Performance liefert und was war? 2.0b stand dem in nichts nach.

Was will ATi mit 3dc weißmachen? Genau, es bringe einen deutlichen Qualitaetsgewinn gegenüber nicht komprimierten Texturen. Dass dies falsch ist, ist genauso bewiesen, wie das Farcry Fake.
Und? Als denkender Mensch lasse ich mich nicht von PR beeinflussen.
Ansonsten ist farcry ein sehr schlechtes Beispiel, weil alles schon in der Finalversion so haette sein müssen, dank SM2.a (das die veralterte X800 Hrdware ironischer Weise nicht ausführen kann).

Willst du mich jetzt auf den Arm nehmen oder willst du den Sinn meiner Posts nicht verstehen? Ich habe fast ausschliesslich von SM3.0 und dessen Nutzen geredet.

[...] finde ich (meine subjektive Meinung), dass es ATi etwas besser gemacht hat und eben die Hardware (recycling hin oder her) bietet die HEUTE gebraucht wird.

Was bietet ATi im Gegensatz zu Nvidia, was "HEUTE gebraucht wird"?
Nichts, stimmt.
Oder anders: Was bringt dir naechstes jahr deine leistungsstarke SM3.0 hardware, wenn es keine Spiele gibt, die das Shadermodel nicht unterstuetzen?
Nichts, stimmt.

tRpii
2004-10-12, 21:11:18
...

Bringt nichts mit dir zu Diskutieren. Scheuklappen olé

ironMonkey
2004-10-12, 22:51:48
@LS, keine Frage Das was NV derzeit bietet ist sehr gut und der teschniche Stillstand den ATI vollbringt ist alles andere als gut aus der sicht eines Programmierer, allerdings werden die tollen Sachen derzeit SM2/3 fast nur dafür benutzt das man auf der Packung DX9 stehen hat, von einem Spiel das alles andere als gut programmiert ist.

Die Spiele die Derzeit so erhaltlich sind kann man mit einem Auto vergleichen das 100PS hat, aber im Schnitt 15Liter SuperPlus braucht, also alles andere als Effizient/gut, aber Hauptsache es läuft mit SuperPlus( SM2/3).

Coda
2004-10-12, 23:50:04
... du weisst aber auch das Crytek wissentlich auf Dyn. branching verzichtet hat und stattdessen nur statisches in ihrer implementierung verwendet hat weil das besser performt hat ?
Jo, nur gibt's eben auch Sachen die sich nicht ohne dynamisches Branching machen lassen, wie z.B. tiefenabhängiges LOD oder spezielle Schattenberechnungen.

DSX-CLASS
2004-10-13, 00:46:35
Wenn ich mal bemerken darf, is mir mal aufgefallen, dass Far Cry das einzige Spiel ist, welches DX 9 wirklich nutzt, all die anderen Spiele sind eher DX 8 Spiele mit DX 9 Effekten, die eher als bessere Beilagen herhalten müssen. Und das schlimme ist, das es immer noch recht viele Spiele kommen die noch DX 8 unterstützen zumindest was Rollenspiele angeht. Da kann man nur hoffen, dass Stalker Half Live usw. da nicht mehr so auf den alten Standard setzten.

RLZ
2004-10-13, 01:22:02
Wenn ich mal bemerken darf, is mir mal aufgefallen, dass Far Cry das einzige Spiel ist, welches DX 9 wirklich nutzt, all die anderen Spiele sind eher DX 8 Spiele mit DX 9 Effekten, die eher als bessere Beilagen herhalten müssen. Und das schlimme ist, das es immer noch recht viele Spiele kommen die noch DX 8 unterstützen zumindest was Rollenspiele angeht. Da kann man nur hoffen, dass Stalker Half Live usw. da nicht mehr so auf den alten Standard setzten.

Das liegt halt an:
a) der Basis von installierten Grafikkarten. DX9 Funktionen können nur als Zusatz eingebaut werden, weil man sich sonst die Verkaufszahlen ruinierten. Deswegen wären auch bei der x800 die neuen Shader sinnvoll gewesen.
b) der Entwicklungszeit von Engines/Spielen. Man hatte ja am Anfang keine Karte um eine solche Engine zu entwickeln.
c) der übertriebenen Erwartungshaltung. Woran seht ihr denn welchen Befehlssatz eine Engine verwendet ausser an den Spezialeffekten? Dreiecke sind vorher und nachher gleich, Texturen ändern sich auch nicht. Eine durchschnittliche DX9 Karte ist schon mit relativ kleinen Shadern in Spielen eigentlich überfordert. In Techdemos kann man einzelne Effekte immer schon zeigen. Wenn in einem Spiel dann alles zusammenkommt wäre jede Karte überfordert...

betasilie
2004-10-13, 02:22:47
Wenn ich mal bemerken darf, is mir mal aufgefallen, dass Far Cry das einzige Spiel ist, welches DX 9 wirklich nutzt, all die anderen Spiele sind eher DX 8 Spiele mit DX 9 Effekten, die eher als bessere Beilagen herhalten müssen. Und das schlimme ist, das es immer noch recht viele Spiele kommen die noch DX 8 unterstützen zumindest was Rollenspiele angeht. Da kann man nur hoffen, dass Stalker Half Live usw. da nicht mehr so auf den alten Standard setzten.
Schau dir mal Joint Operations an. Da kannst Du ja mal auf die DX8-Shader stellen in den Videosettings und gucken wie DX8 gegen DX9 aussieht. Das Spiel hat DX-9 Effekte vom feinsten! :up:

Aber generell hast Du natürlich recht, dass FarCry, JOTR (Joint ops), und HL² erstmal der Anfang sind und wir froh sien können, wenn PS2.0 in 2005 zur Regel werden.

Ailuros
2004-10-13, 14:47:41
Wenn ich mal bemerken darf, is mir mal aufgefallen, dass Far Cry das einzige Spiel ist, welches DX 9 wirklich nutzt, all die anderen Spiele sind eher DX 8 Spiele mit DX 9 Effekten, die eher als bessere Beilagen herhalten müssen. Und das schlimme ist, das es immer noch recht viele Spiele kommen die noch DX 8 unterstützen zumindest was Rollenspiele angeht. Da kann man nur hoffen, dass Stalker Half Live usw. da nicht mehr so auf den alten Standard setzten.

Selbst Far Cry ist ein hybride zwischen dx7.0/9.0. Es gibt bis jetzt keine reinen dx9.0 Spiele und es wird auch eine sehr lange Zeit dauern bis wir zu diesen kommen.

UE3 hat als minimale Vorraussetzung SM2.0 Karten AFAIK, aber vor 2006 wuerde ich von dem Ding nichts erwarten.

LordDeath
2004-10-13, 15:00:03
Selbst Far Cry ist ein hybride zwischen dx7.0/9.0. Es gibt bis jetzt keine reinen dx9.0 Spiele und es wird auch eine sehr lange Zeit dauern bis wir zu diesen kommen.

UE3 hat als minimale Vorraussetzung SM2.0 Karten AFAIK, aber vor 2006 wuerde ich von dem Ding nichts erwarten.


also vollwertige direct x 9 spiele gibs schon seit langem! sind einfach all die, die eine installierte direct x9 runtime vorraussetzten :D

also in den letzten pc games hardware hab ich immer öfters gelesen, dass spiele angekündigt werden, die keinen fallback für karten, die nur direct 3d aus dx7 unterstützten.
wir sind also ungefähr dort, wo grad das minimun auf shader der version 1.1 angehoben wird. bis das minimun auf shader 2.0 und höher angehoben wird, wird wohl, auch wie du sagst, ne menge zeit vergehen! vielleicht sogar solange, wie bis jetzt seit der einführung der ersten graka mit programmierbaren shader einheiten vergangen ist :ucrazy:

Wishnu
2004-10-13, 15:08:16
Ist ja auch klar, dass statisches bessere Performance bringt. :|
Solange man es verwenden kann.
Ich kann auch keine Aussagen über die Performance machen, da ich noch keine SM3 Karte habe. Allerdings hätte ich mir in Shadern doch schon öfters gewünscht mal ein if einbauen zu können, weil mir das viel viel unnötiges drum herum gespart hätte...
Wie schön Fallunterscheidungen da sind merke ich immer bei Raytracingshadern.


Gabs dabei nicht das Problem, dass so ein Sprung auf dem NV40 6 Taktzyklen kostet?

Ailuros
2004-10-13, 15:20:48
also vollwertige direct x 9 spiele gibs schon seit langem! sind einfach all die, die eine installierte direct x9 runtime vorraussetzten :D

also in den letzten pc games hardware hab ich immer öfters gelesen, dass spiele angekündigt werden, die keinen fallback für karten, die nur direct 3d aus dx7 unterstützten.
wir sind also ungefähr dort, wo grad das minimun auf shader der version 1.1 angehoben wird. bis das minimun auf shader 2.0 und höher angehoben wird, wird wohl, auch wie du sagst, ne menge zeit vergehen! vielleicht sogar solange, wie bis jetzt seit der einführung der ersten graka mit programmierbaren shader einheiten vergangen ist :ucrazy:

Compatible =! compliant.

Was jeder ISV als minimale Vorraussetzungen einstellt, ist ein ganz anderes Bier.

Jedoch nur aus Neugierde: die Liste mit den zeitlich verfuegbaren Spielen mit denen die Benutzung von dx7 Karten nicht moeglich ist, wuerde ich gerne mal sehen.

Wenn es sich um zukuenftige Spiele handelt dann gute Nacht. Zu der Kategorie gehoert auch wohl UE3 u.a.

RLZ
2004-10-13, 16:13:09
Gabs dabei nicht das Problem, dass so ein Sprung auf dem NV40 6 Taktzyklen kostet?
Wieviele Taktzyklen genau weiss ich nicht. Hab zwar den ganzen NV Kram, da ich aber atm mit einer ATi arbeite weiss ich nur, wo ich bei denen wo ich die Liste finde ;).
6 Taktzyklen wären aber jetzt nicht die Welt. Es ist ja immer abhängig davon was man damit mit einsparen kann. Zum Beispiel könnte man Offset+Bumpmapping in der Entfernung wegfallen lassen. Die Zusammhänge sind ja teilweise doch noch komplizierter, da man zb bei ATI pro Takt eine arithmetische, eine Textur und eine Blendoperator zur Verfügung hat (wenn ich mich da falsch erinnere bitte schlagen ;) ). Wenn ich ausserdem zum Beispiel eine Textur komplett sparen kann spare ich eine vielleicht dadurch noch eine Menge mehr wegen irgendwelchen Synergieeffekten. Die genaue Taktangabe pro Befehl ist daher nur theoretischer Natur.
Eine saubere Engine kann für Entfernungs-LOD je nach Entfernung auch statt mit dynamic Branching zu arbeiten die Shader wechseln. Allerdings bringt das wieder andere Nachteile mit sich, da ua ein Shaderwechsel recht lahm ist.
Dazu kommen dann noch die notwendigen API-Zugriffe, die dank dynamischem Linken fast immer einen CacheMiss im CPU verursachen usw. ...
Also Taktangabe vergessen und in jedem Shader kurz testen was schneller ist.
Shader sind im Moment ja noch keine hochkomplexen Gebilde, sondern recht primitiv.

Gast
2004-10-13, 16:27:10
Eine saubere Engine kann für Entfernungs-LOD je nach Entfernung auch statt mit dynamic Branching zu arbeiten die Shader wechseln. Allerdings bringt das wieder andere Nachteile mit sich, da ua ein Shaderwechsel recht lahm ist.
Vor allem funktioniert das auch nicht, weil es nicht per-pixel wäre. Stell dir vor du siehst entlang einer langen Wand, da hast du beide Fälle in einem Surface.

Wishnu
2004-10-13, 17:25:13
Wieviele Taktzyklen genau weiss ich nicht. Hab zwar den ganzen NV Kram, da ich aber atm mit einer ATi arbeite weiss ich nur, wo ich bei denen wo ich die Liste finde ;).


Für die 6 würde ich meine Hand jetzt auch nicht ins Feuer legen... ;)
Hatte noch irgendwo im Hinterkopf, dass Demirug mal davon gesprochen hatte...kann mich natürlich aber auch irren. ;)

Demirug
2004-10-13, 17:43:17
Es sind 2 Takte pro Branchanweisung (if, else, endif). Bei einem Branch mit 2 zweigen also 6 Takte. Jetzt muss man aber noch berücksichtigen das der Chip nicht wirklich auf Pixelebene branchen kann. Sondern nur auf Pixelblockeben (wie gross diese Blöcke sind will nVidia nicht genau sagen). Sobald nicht alle Pixel in dem Block den gleichen Pfad nehmen können müssen für alle Pixel beide ausgeführt werden. Ebenfalls berücksichtigen muss man das jede Branchanweisung den Shader in zusätzliche Blöcke teilt. Das optimieren (mehrer Anweisungen in einem Takt zusammenfassen) kann aber nur auf Blocklevel erfolgen. Es kann also passieren das dadurch weitere Takte verloren gehen.

Bei den VS ist das alles aufgrund von MIMD unproblematischer. Dafür muss man dort die Latenz von Textureops kompensieren.

RLZ
2004-10-13, 18:34:54
Vor allem funktioniert das auch nicht, weil es nicht per-pixel wäre. Stell dir vor du siehst entlang einer langen Wand, da hast du beide Fälle in einem Surface.

Warum meint jeder heutzutage alles muss PerPixel sein?
Es wird wohl kein neueres Spiel geben, dass eine so lange Wand aus einem einzigen Objekt besitzt. Umschaltet tut man einfach in einer Entfernung bei der man keinen Unterschied sieht.
Sobald ein Objekt näher kommt schaltet man einfach wieder den komplexeren Shader bevor ein Unterschied erkennbar wird. Wenn in der Entfernung auf einfache Shader wechselt, lassen sich viele Objekte mit dem gleichen Shader beglücken und der Shaderwechsel fällt nicht mehr negativ auf + man kriegt Geschwindigkeit raus.