PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie ist die PS 2.0-Leistung der GF6800GT


Riker72
2004-09-09, 19:48:29
...im Vergleich zur X800pro. Ich möchte keinen Flamewar starten, bin aber wirklich unsicher. Wenn man schon wieder Gerüchte liest, dass Carmack gesagt haben soll, wenn NV nicht cheaten würde (er nur einige Shader austauschen würde), dann würden die Frames der 6800 einbrechen bei Doom 3. Das macht doch unsicher. (Kann natürlich sein, dass dieses angebliche zitat von JC gar nicht stimmt) Also: Wer weiss genaueres, wie gut ist die PS2.0 Leistung der 6800er Serie gegenüber den entsprechenden Radeons?

Vielen Dank.

Gast
2004-09-09, 19:52:17
Doom3 = OpenGL, also nix mit PS2.0.
Die PS2.0 Leistung der 6800 ist aber dennoch sehr gut.

StefanV
2004-09-09, 19:55:08
Die PS2.0 Leistung der 6800LE dürfte etwa auf dem Niveau der Radeon 9800 liegen, wie es zu erwarten ist.

Ist also alles In Ordnung, mit den Pixelshadern der nV40 Serie, ganz im Gegensatz zur nV3x Serie :)

NV hat also soweit die gröbsten Fehler ausgetrieben...

VooDoo7mx
2004-09-09, 20:02:48
An Shaderpower ist der Nv40 dem R420 überlegen. Siehe auch diverse 3dcenter Artikel.

Was noch fehlt ist ein sehr guter Shaercompileer im Treiber, der die Leistung maximiert.

MadMan2k
2004-09-09, 20:15:06
Doom3 = OpenGL, also nix mit PS2.0.
Die PS2.0 Leistung der 6800 ist aber dennoch sehr gut.
du kanns tauch unter OpenGL Shader programmieren...

StefanV
2004-09-09, 20:20:06
Doom3 = OpenGL, also nix mit PS2.0.
Die PS2.0 Leistung der 6800 ist aber dennoch sehr gut.
OGl hat zwar keine 'PS2.0', aber sowas ähnliches.

Die werden zwar (etwas) anders angesprochen, die Funktionseinheiten sind aber die gleichen, die Leistung die am anderen Ende rauskommt, ist auch ähnlich.

Das OGL keine Pixelshander hat, mag stimmen, die heißen schließlich unter OGL auch Fragment Shader ;)

Von daher kann ich deinem Posting nur energisch widersprechen, da es so

Gast
2004-09-09, 20:25:23
Taktbereinigt dürfte der NV40 den R420 in die Tasche stecken, aber da die Chips unterschiedlich getaktet sind, ist die Leistung quasi gleich.
Problem ist halt die Messung an sich, wie will man das messen theoretisch in nem Benchmark oder praktisch an Spielen.
Interessant ist ja nur was hinten rauskommt und da müsste man mal die Shader (PS 2.0) aus nem Spiel extrahieren und die einfach auf die Graka loslassen, oder?
Dann hat man doch die "reine" Leistung, die unterschiedlichen Profile A,B & 3.0 sollte man erstmal auser acht lassen, da nicht jedes Spiel die "erweiterten" Profile nutzt, also is mit reiner 2.0 Messung eigentlich was vergleichbares gegeben.

Gast
2004-09-09, 20:27:56
Doom3 = OpenGL, also nix mit PS2.0.
Die PS2.0 Leistung der 6800 ist aber dennoch sehr gut.

gugst du hier (zeckensack's post): http://www.forum-3dcenter.org/vbulletin/showthread.php?t=161802

Quasar
2004-09-09, 20:29:00
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/6/#shader_fuellrate

Bitte sehr. (In neuen Treibern sind auch die kleineren Bugs, wie in der PS1.1-Leistung zu sehen, behoben).

Also: Gleichauf bei kurzen 2.0-Shadern.

Gast
2004-09-09, 20:34:22
du kanns tauch unter OpenGL Shader programmieren...

Natürlich, aber die sind funktionell mächtiger als PS2.0 für D3D.

Riker72
2004-09-09, 20:37:39
Danke für die Infos. Also scheint die PS2.0 Schwäche der FX Reihe ausgebügelt. Das von mir erwähnte Gerücht (siehe Ausgangsposting) dürfte dann aber eigentlich auch nicht stimmen, oder?

Danke nochmal für die Antworten

betasilie
2004-09-09, 20:45:59
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/6/#shader_fuellrate

Bitte sehr. (In neuen Treibern sind auch die kleineren Bugs, wie in der PS1.1-Leistung zu sehen, behoben).

Also: Gleichauf bei kurzen 2.0-Shadern.
Wofür steht das "PP"? :???:

Quasar
2004-09-09, 20:50:56
Partial Precision

Gast
2004-09-09, 20:50:58
Ich glaub nicht so recht an das Gerücht, kannst jeden Shader so umbauen das er "schlecht" auf einer bestimmten Karte läuft, der Compiler kann ja auch nicht alles retten. Sicher kann man auch für den NV40 noch ein bisschen rausholen wenn man sich hinsetzt und damit rumspielt.
Und nochwas:
Theoretisch ist der NV40 sogar deutlich stärker als der R420, da der NV40 ja "genauer" rechnet (32Bit vs 24Bit). pp_hints mal ausen vorgelassen.

stav0815
2004-09-09, 20:54:14
Auch fällt auf, dass die GeForce 6-Karten keinerlei Vorteile durch reduzierte Genauigkeit, gekennzeichnet durch „PP” in den Diagrammen, erfahren

Frage beantwortet? :biggrin:

betasilie
2004-09-09, 20:58:26
Partial Precision
THX

Die GT scheint dann ja mit der Pro auf einer Wellenlänge zu seine, aber die XT ist der Ultra dann ja doch um einiges überlegen. ;(

Quasar
2004-09-09, 21:20:38
Klar, sie hat ja auch 30% mehr Takt und bei so kurzen Shadern wie in MDolencs Füllratentester schlägt sich das, wenn nicht die Architektur ein grundlegendes (oder heisst es grundlegenes?) Problem damit hat, ziemlich direkt auf die Füllrate nieder.

Interessanter wären da mal längere Shader, so um 50-90 Instruktionen, die wohl in Zukunft häufiger genutzt werden.

Diese sollten dann idealerweise auch in mehreren Zielprofilen vorliegen - aber man nimmt, was man kriegen kann.

betasilie
2004-09-09, 21:27:05
Klar, sie hat ja auch 30% mehr Takt und bei so kurzen Shadern wie in MDolencs Füllratentester schlägt sich das, wenn nicht die Architektur ein grundlegendes (oder heisst es grundlegenes?) Problem damit hat, ziemlich direkt auf die Füllrate nieder.

Interessanter wären da mal längere Shader, so um 50-90 Instruktionen, die wohl in Zukunft häufiger genutzt werden.

Diese sollten dann idealerweise auch in mehreren Zielprofilen vorliegen - aber man nimmt, was man kriegen kann.
Meinst Du wirklich , dass sich Shader mit so einer Länge bald etablieren werden?

Quasar
2004-09-09, 21:39:18
Jein. Kommt drauf an, was du unter "etablieren" verstehst. Ich denke, für lokal begrenzte Special-Effects, mit denen i.d.R. nur wenige Pixel gerendert werden, dürfte das schon drin sein.

Für bildfüllende Shader dagegen eher weniger.

egdusp
2004-09-09, 21:45:29
Meinst Du wirklich , dass sich Shader mit so einer Länge bald etablieren werden?

Demi hat mal vorgerechnert, dass sogar schon bei der 9700Pro unter Realbedingungen (Overdraw von 3-4, Auflösung 1024x768, 60fps) jeder Shader 64 Instruktionen lang sein könnte. Da die jetzigen High End Chips so ca. die 3 fache Shaderpower haben, dürften solche Werte locker erreichbar sein.

Weiß eigentlich wie tief die Shaderpipeline der NV4x ist? M.a.W. wie viele Shaderinstruktionen können pro und Pipeline bearbeitet werden (bei NV40 = 16 Pipelines, auch wenn diese Sichtweise stark vereinfacht ist).
Ein NV Typ hat mal was von über 1000 gleichzeitig bearbeitenden Dreiecken gesagt.

M.a.W. (wieder): Wie lang darf ein Shader (falls optimal sortiert) maximal sein, damit eine Pipeline jeden Takt ein Ergebnis rausgibt? (so, jetzt sollte es verständlich sein).

mfg
egdusp

Demirug
2004-09-09, 21:53:14
Meinst Du wirklich , dass sich Shader mit so einer Länge bald etablieren werden?

Far Cry hat schon solche Shader im Programm (Patch 1.2 2.B bzw 3.0 Pfad). Mit 2-3 pixelgenauen Lichtquellen ist man schnell in dem bereich.

Demirug
2004-09-09, 21:59:32
Weiß eigentlich wie tief die Shaderpipeline der NV4x ist? M.a.W. wie viele Shaderinstruktionen können pro und Pipeline bearbeitet werden (bei NV40 = 16 Pipelines, auch wenn diese Sichtweise stark vereinfacht ist).
Ein NV Typ hat mal was von über 1000 gleichzeitig bearbeitenden Dreiecken gesagt.

M.a.W. (wieder): Wie lang darf ein Shader (falls optimal sortiert) maximal sein, damit eine Pipeline jeden Takt ein Ergebnis rausgibt? (so, jetzt sollte es verständlich sein).

mfg
egdusp

Eher über tausend Pixel (ich würde aber von mehr als 4000 ausgehen). Die Pipe ist sehr tief. Genaue Zahlenangaben bekommt man da aber nicht.

Das Maximum an Anweisungen die in einem Takt ausgeführt werden können ist bei einem NV40 eine sehr theoretische Angelegenheit. Das hängt sehr stark von den Anweisungen und der Komplexität ab. Deswegen fragt man sich auch eher wie viele Takte ein Shader pro Pixel braucht.

betasilie
2004-09-10, 00:03:47
Dann wären Benchmarks auf Basis von Shadern mit >50 Instruktionen wirklich mal interessant.

arcon
2004-09-11, 14:07:00
lo

ich grübel momentan auch, ob ich ne nv 6800GT oder ne X800 Pro kaufen soll. Also eigentlich würde ich gerne bei nv bleiben .... aber da doom III ja im endeffekt keinerlei aussagen in sachen geschwindigkeit in bezug auf die neuen games wie hl 2 oder stalker geben kann, die ja massiv auf ps 2.0 zurückgreifen werden, zulässt (man vergleiche ma die 3 schicken artikel zu diesem thema in der c't) .... und der einzige aufschlußreiche benchmark mit far cry möglich ist.... *raufdiehaare* .... werd ich meine entscheidung echt nicht nur von einem game abhängig machen, denn wer weiss wie sauber far cry gestrickt ist?! Kennt eigentlich wer von euch benchmarkergebnisse von far cry mim 1.2er patch? hat sich da viel getan? Oder was is mim shadermark?
bzw. was haltet ihr von der 6800er ... reicht nicht auch die aus um damit z.b. far cry, hl2 und stalker mit 1280er auflösung samt ner 4* AF zu zocken?! Denn die kriegt man ja scho ab 275 € :)


cu
ps: Is eigentlich total nervig, dass keine neuen aussagen von valve zur performance der neusten grakas mit hl2 kommen ....

Coda
2004-09-11, 14:10:58
Half-Life 2 benützt nicht massiv PS 2.0, deshalb ist die X800 dort auch schneller, weil es vor allem auf Füllrate ankommt.

MechWOLLIer
2004-09-11, 15:13:32
Half-Life 2 benützt nicht massiv PS 2.0, deshalb ist die X800 dort auch schneller, weil es vor allem auf Füllrate ankommt.
mhm, imo benutzt HL2 schon sehr viele PS2.0 Shader, allerdings halt sehr kleine.
Nur die meisten sollen überflüssig sein.

Jesus
2004-09-11, 16:03:39
Etwas OT ich weiss, aber ich hab mir mal die Mühe gemacht und Mechwolli´s übertaktete 6800U mit SM3.0 gegen Voodoo7MX und seine x800XT PE auf Standardtakt und mit SM2.0b mit dem neuesten Shadermark verglichen ( falls Fehler drin sind bitte melden, btw. 1fps Unterschiede werte ich nicht als Punkt sondern eher Messtoleranz ;) ):

http://nemesis.rushers.net/shader.png

arcon
2004-09-11, 16:17:15
THX für deine mühen!!!


und wieviel büßt die 6800 mit ihren 12 pps an punkten ein bzw. wie schauen denn die punktezahlen bei der x800 pro so aus?!

Quasar
2004-09-11, 16:37:34
Basierend auf der default-ultra des Threadstarters im ShaderMark v2.1-Thread und Voodoo7MXs X800 XTPE habe ich mal die taktbereinigte Leistung der R420 bei FP24 und der nV40 bei FP32 errechnet.

Eventuelle Verrechner möge man mir nachsehen und Bescheid sagen, ich korrigiere es dann. :)


R420 nV40
Shader #2 1003 1073
Shader #3 738 804
Shader #4 737 715
Shader #5 610 512
Shader #6 738 747
Shader #7 677 715
Shader #8 373 474
Shader #9 1271 1459
Shader #10 820 1149
Shader #11 700 748
Shader #12 250 466
Shader #13 333 438
Shader #14 402 535
Shader #15 288 310
Shader #16 345 362
Shader #17 445 431
Shader #18 40 52
Shader #19 139 179
Shader #20 46 69
Shader #21 DNR 114
Shader #22 205 155
Shader #23 DNR 170
Shader #24 143 100
Shader #25 118 117
Shader #26 116 113

Das Ergebnis bezieht sich auf Chips, die bei 16 aktiven Pipelines dieselbe Füllrate von 8320MPix/s haben, also taktnormiert sind.

Da sowohl die X800 Pro als auch die 6800GT, um die es hier in diesem Thread geht, quasi dieselbe Füllrate besitzen (bei der GT auf 16 Pipes, bei der Pro auf 12 Pipes verteilt), dürfte diese Einstufung eher hinkommen, als einfach nur zwei wahllos übertaktete Modelle gegeneinander zu stellen. ;)

Jesus
2004-09-11, 16:46:17
Basierend auf der default-ultra des Threadstarters im ShaderMark v2.1-Thread und Voodoo7MXs X800 XTPE habe ich mal die taktbereinigte Leistung der R420 bei FP24 und der nV40 bei FP32 errechnet.

Eventuelle Verrechner möge man mir nachsehen und Bescheid sagen, ich korrigiere es dann. :)


...
Das Ergebnis bezieht sich auf Chips, die bei 16 aktiven Pipelines dieselbe Füllrate von 8320MPix/s haben, also taktnormiert sind.

Da sowohl die X800 Pro als auch die 6800GT, um die es hier in diesem Thread geht, quasi dieselbe Füllrate besitzen (bei der GT auf 16 Pipes, bei der Pro auf 12 Pipes verteilt), dürfte diese Einstufung eher hinkommen, als einfach nur zwei wahllos übertaktete Modelle gegeneinander zu stellen. ;)

es wurden nicht zwei wahllos übertaktete Modelle gegeneinander gestellt, sonder nur eine übertaktete 6800u gegen eine nicht übertaktete x800xt :wink:

btw voodoo7mx benutzt SM2.0b, du hättest eher einen mit 2.0 nehmen sollen wegen besserer Vergleichbarkeit.

Quasar
2004-09-11, 16:53:06
2.B ist _das_ Shadermodell der Wahl (in diesem Falle ATis) - warum sollte man das nicht gegen nVs SM3.0 mit FP32 Genauigkeit stellen?

Es geht doch in diesem Thread um X800 Pro und 6800GT - und damit quasi um Pro-MHz Leistung, die im Zweifelsfalle bei der "Pro" eher noch niedriger liegen könnte, da erstens niedrigerer Speichertakt und zweitens müssen die anstehenden Aufgaben von nur drei anstelle von vier Quadpipes übernommen werden. ;D

'Tschuldige die Unterstellung, _zweier_ wahllos übertakteter Modelle - mein Fehler. ;)

Jesus
2004-09-11, 16:55:40
2.B ist _das_ Shadermodell der Wahl (in diesem Falle ATis) - warum sollte man das nicht gegen nVs SM3.0 mit FP32 Genauigkeit stellen?


weil Threadstarter Gast SM2.0 verwendet ?

Xmas
2004-09-11, 16:58:48
Etwas OT ich weiss, aber ich hab mir mal die Mühe gemacht und Mechwolli´s übertaktete 6800U mit SM3.0 gegen Voodoo7MX und seine x800XT PE auf Standardtakt und mit SM2.0b mit dem neuesten Shadermark verglichen ( falls Fehler drin sind bitte melden, btw. 1fps Unterschiede werte ich nicht als Punkt sondern eher Messtoleranz ;) ):

Scheinbar wäre dieser Takt für den NV40 genau der "Sweet Spot", um im Durchschnitt dieselbe Shaderleistung wie die X800XT-PE zu erreichen.

Lässt man die 3.0-Shader außen vor, kommen beide auf ein "Performance Rating" von 92,9%.

Quasar
2004-09-11, 16:59:06
OMG :)

Umso schlimmer - also der absolute Worst-Case für den nV40: SM2.0 und FP32.
Und trotzdem steckt er taktbereinigt ATis Flaggschiff in die Tasche.

Jesus
2004-09-11, 17:05:36
OMG :)

Umso schlimmer - also der absolute Worst-Case für den nV40: SM2.0 und FP32.
Und trotzdem steckt er taktbereinigt ATis Flaggschiff in die Tasche.

so pauschal würd ich das auch nicht sagen ;) in deinem Post gewinnt die x800 immer noch 6 Tests ;) ( vorher 11 )
Ausserdem kannst du auch nicht davon ausgehen dass eine NV40 linear skaliert ;)
Und FP32 tut dem NV40 ja nichts mehr, oder doch ? :cool:

Alledings find ich meinen dennoch intressanter, denn schliesslich ist der Speicher der Ultra schon etwas höher angesetzt als der der XT ( 625 zu 560 bzw. 1250 zu 1120), aber dennoch verliert sie.

Gast
2004-09-11, 17:43:34
So hier meine Ergebnisse
GF6800GT Standart
FW66.30

SM3.0

shader 2 850 fps
shader 3 680 fps
shader 4 680 fps
shader 5 595 fps
shader 6 651 fps
shader 7 595 fps
shader 8 340 fps
shader 9 917 fps
shader 10 765 fps
shader 11 669 fps
shader 12 461 fps
shader 13 377 fps
shader 14 425 fps
shader 15 298 fps
shader 16 301 fps
shader 17 408 fps
shader 18 55 fps
shader 19 168 fps
shader 20 46 fps
shader 21 73 fps
shader 22 106 fps
shader 23 118 fps
shader 24 71 fps
shader 25 81 fps
shader 26 76 fps

Wie erzwinge ich denn SM2.0 zum Benchmarken?
und wenn jmd so nett wäre mit einer X800PRO mal dagegen zu benchen (SM2.B und 2.0) wären wir etwas schlauer.

Gast 1337 ;)
2004-09-11, 17:44:12
also ich seh's so... ne normale x800pro mit 12 pipes is eine 6800GT efinitiv nicht vorzuziehen.. andre si es wenn man sich ne VIVO kauft u nd 16 pipes freischaltet... dann sind die beiden karten gleich auf bzw. sogar ist die x800 schneller asl eine normale 6800GT.. deshalbv habe ich mri auch eine x800pro VIVO gekauft... und bei meinem glück machte diese sogar 520/560 ohne urren mit und ich hab nun eine x800XT Platinum Edition in meinem PC stecken >)

LovesuckZ
2004-09-11, 17:46:48
Und FP32 tut dem NV40 ja nichts mehr, oder doch ? :cool:

Was bedeutet "tut"?
FP16 kann ich einigen Situationen deutlich schneller sein.
Das heißt, dass der NV40 mit FP32 gleichschnell, mit FP16 bis zu 50% schneller als ein R420 ist.

Quasar
2004-09-11, 17:47:51
so pauschal würd ich das auch nicht sagen ;) in deinem Post gewinnt die x800 immer noch 6 Tests ;) ( vorher 11 )
Ausserdem kannst du auch nicht davon ausgehen dass eine NV40 linear skaliert ;)
Und FP32 tut dem NV40 ja nichts mehr, oder doch ? :cool:

Tja, so schnell kann's gehen mit Pauschalisierungen, gelle? ;)

FP32 tut dem nV40 zwar nichts mehr im selben Sinne, wie es noch dem nV3x getan hat, aber es gibt noch ein paar kleinere Dinge, die mit reduzierter Genauigkeit noch ein bissel schneller laufen.

So kriegt man ab und an noch einen netten SpeedBoost für lau dazu - bei der Radeon, die alles stur mit FP24 ohne Spezialfunktionen usw. rechnet, ist das eher selten der Fall. :cool:


Alledings find ich meinen dennoch intressanter, denn schliesslich ist der Speicher der Ultra schon etwas höher angesetzt als der der XT ( 625 zu 560 bzw. 1250 zu 1120), aber dennoch verliert sie.

Stimmt, ein arithmetischer ShaderMark hängt natürlich maßgeblich von der Speicherbandbreite ab. :freak:

Wishnu
2004-09-11, 18:25:19
Basierend auf der default-ultra des Threadstarters im ShaderMark v2.1-Thread und Voodoo7MXs X800 XTPE habe ich mal die taktbereinigte Leistung der R420 bei FP24 und der nV40 bei FP32 errechnet.


Eine transistorbereinigte Leistung würde mich mehr interessieren... ;)

Quasar
2004-09-11, 18:34:16
Eine transistorbereinigte Leistung würde mich mehr interessieren... ;)

Rechne sie dir aus - die Informationen stehen im Benchmarkforum. ;)

Ice =A=
2004-09-11, 18:41:54
@Quasar:
Sei mir nicht böse, aber das is doch das alte sinnlose Gerede. Dann nehm doch einen einzigen Transistor und takte den wahnsinnig hoch. Der hat dann wohl die beste "transistorbereinigte Leistung"!
Allerdings muß ich zugeben, daß die "taktratenbereinigte Leistung" auch nicht um Welten sinnvoller ist. Es sei denn, die Karten sind von verschiedenen Herstellern gefertigt und es besteht die Möglichkeit, daß das prinzipielle Design diegleichen Taktraten hergibt. Und soweit ich weiß, wird die ATI-Karte bei Transmeta und die nVidia-Karte bei IBM gefertigt...

Edit:
Ein Großteil der zusätzlichen Transistoren der 6800er Serie geht auch für zusätzliche Features (nicht zusätzliche Leistung) drauf! Angeblich hat ATI die geforderten Standards für PS3.0 nicht mit vertretbaren Transistorzahlen umsetzen können und deshalb auf selbiges verzichtet...

Jesus
2004-09-11, 18:47:12
Naja in dem Fall wars aber durchaus legitim so zu Vergleichen, da muss ich quasar rechtgeben ( Premiere ! :biggrin: )

Es ging ja in erster Linie um GT vs Pro, und da kann man von der Füllrate her schonmal so rechnen wie ers gemacht hat.

Allerdings glaube ich dass insbesondere die Pro zwar die nötige Füllrate hat, aber dennoch aufgrund ihres 3 Quad Designs nicht gerade gut dasteht in manchen Situationen ( im Vgl. zur GT ), aus welchem Grund auch immer.

Gast
2004-09-11, 19:48:22
Edit:
Ein Großteil der zusätzlichen Transistoren der 6800er Serie geht auch für zusätzliche Features (nicht zusätzliche Leistung) drauf! Angeblich hat ATI die geforderten Standards für PS3.0 nicht mit vertretbaren Transistorzahlen umsetzen können und deshalb auf selbiges verzichtet...
Nö, ATI hat bewusst auf SM3 verzichtet, da man erkannt hat, dass SM3 auf den Chips der jetzigen Generation nicht schnell genug laufen würde bzw. nichts für Spieler bringen würde.
Ausserdem hat man erkannt, dass so viele Transistoren nicht bei der heutigen Porduktiontechnik gut zu realisiern sind.
Kluger Schachzug. ;)

aths
2004-09-11, 19:56:23
so pauschal würd ich das auch nicht sagen ;) in deinem Post gewinnt die x800 immer noch 6 Tests ;) ( vorher 11 )
Ausserdem kannst du auch nicht davon ausgehen dass eine NV40 linear skaliert ;)
Und FP32 tut dem NV40 ja nichts mehr, oder doch ? :cool: NV40 gewinnt mit FP16 in der Regel mehr als NV35, welcher wiederum mehr Vorteil aus FP16 zieht, als NV30. Allerdings ist die Grundleistung jeweils mehr höher, als der zusätzliche Vorteil mit _PP.

Xmas
2004-09-11, 19:58:53
Und soweit ich weiß, wird die ATI-Karte bei Transmeta und die nVidia-Karte bei IBM gefertigt...
Der Chip R420 wird, ebenso wie RV410 und NV43, von TSMC hergestellt, Transmeta hat damit überhaupt nichts zu tun. IBM fertigt den NV40, Karten stellen die aber auch nicht her.

Gast
2004-09-11, 20:00:56
Nö, ATI hat bewusst auf SM3 verzichtet, da man erkannt hat, dass SM3 auf den Chips der jetzigen Generation nicht schnell genug laufen würde bzw. nichts für Spieler bringen würde.
Ausserdem hat man erkannt, dass so viele Transistoren nicht bei der heutigen Porduktiontechnik gut zu realisiern sind.
Kluger Schachzug. ;)

wieso kluger Schachzug das versteh ich jetzt nicht.
Also irgendwie kommt es mir so vor, als könnte man Nvidias Flagschiff eher kaufen als das von ATI.
Du hättest es anders ausdrücken sollen. Man hat nicht erkannt, dass so viele Transistoren nicht bei der heutigen Produktionstechnik gut zu realisieren sind sondern man hat erkannt das man selber ( also ATI ) nicht in der Lage ist das zu realisieren. Die Konkurenz hats geschafft und bietet eine absolut runde Produktpalette an die demnächst nochmal deutlich aufgebohrt wird wenn NV41 und NV44 den Weg zum Tester und in den Laden finden.

Desweiteren hört sich dein Post so an als müsste ich jetzt ATI noch dafür gratulieren, dass sie Transistoren, R&D und ähnliches sich sparen mir aber ihre Produkte für das gleiche Geld verkaufen wollen wie die Konkurenz die ja eindeutig mehr bietet und mehr investiert.
Schon eine arg schräge Ansicht aus Kunden und damit unserer Sicht.
Also ich belohne das nicht. ATI bekommt von mir in dieser Runde keinen einzigen Cent.
Ich belohn grundsätzlich den der sich am meissten ins Zeug gelegt hat. In der letzten Runde war das zweifelsohne ATI. In dieser Runde ist es zweifelsohne Nvidia. Vor allem mit der und X600 und X300 Reihe steht ATI bei mir momentan auf der Abschussliste. So eine Kundenverarsche finde ich dreist und das bejubel und belohne ich nicht.
Diese Runde ist Nvidia ganz klar vorn.

aths
2004-09-11, 20:01:51
Nö, ATI hat bewusst auf SM3 verzichtet, da man erkannt hat, dass SM3 auf den Chips der jetzigen Generation nicht schnell genug laufen würde bzw. nichts für Spieler bringen würde. ATI hat auf SM3.0 verzichtet, weil sie nicht die Entwicklungsressourcen hatten, und ihnen noch die Tools fehlten, ein solches Transistormonster zur Produktionsreife zu bringen. Auch NV hätte es nicht gepackt, von 2.0 direkt auf 3.0 zu gehen. Mit "CineFX" wurde aber bereits viel Vorarbeit geleistet.

Mit Radeon 8500 hat ATI bewusst Pixelshader 1.4 gebracht, mit dem Wissen, dass der Spieler daraus keinen wesentlichen Nutzen ziehen würde. Doch mit dieser Vorarbeit konnten sie dann hochperformante 2.0-Shader entwickeln die wir in der Radeon 9700 sehen.

MikBach
2004-09-11, 20:16:55
wieso kluger Schachzug das versteh ich jetzt nicht.
Das habe ich mir schon fast gedacht. ;)


Du hättest es anders ausdrücken sollen. Man hat nicht erkannt, dass so viele Transistoren nicht bei der heutigen Produktionstechnik gut zu realisieren sind sondern man hat erkannt das man selber ( also ATI ) nicht in der Lage ist das zu realisieren.
Falsch. Siehe die Ausbeute von GT und Ultra von Nvidia und die Massenverfügbarkeit an. ;)
ATI kann den Gegner der GT, die X800PRO in Massen ausliefern.

Desweiteren hört sich dein Post so an als müsste ich jetzt ATI noch dafür gratulieren, dass sie Transistoren, R&D und ähnliches sich sparen mir aber ihre Produkte für das gleiche Geld verkaufen wollen wie die Konkurenz die ja eindeutig mehr bietet und mehr investiert.
Wer mehr investiert hat ist letztendlich egal. Was rauskommt(leistung) ist entscheidend. ;)

Schon eine arg schräge Ansicht aus Kunden und damit unserer Sicht.
Also ich belohne das nicht. ATI bekommt von mir in dieser Runde keinen einzigen Cent.
Warum?
Sie sind stromsparender, leiser und leistungsfähig genug um mit Nvidia mitzuhalten.

Ich belohn grundsätzlich den der sich am meissten ins Zeug gelegt hat. In der letzten Runde war das zweifelsohne ATI. In dieser Runde ist es zweifelsohne Nvidia. Vor allem mit der und X600 und X300 Reihe steht ATI bei mir momentan auf der Abschussliste. So eine Kundenverarsche finde ich dreist und das bejubel und belohne ich nicht.
Diese Runde ist Nvidia ganz klar vorn.
Siehe Argumentation oben.
Zur X300/600:
Mit welchen Nvidia-Karten darf man die vergleichen?
Die X600 sicherlich mit der 6600. Beide sind in etwa gleich schnell.

PS Der Gast weiter oben, das war ich. ;)

MikBach
2004-09-11, 20:19:34
ATI hat auf SM3.0 verzichtet, weil sie nicht die Entwicklungsressourcen hatten, und ihnen noch die Tools fehlten, ein solches Transistormonster zur Produktionsreife zu bringen. Auch NV hätte es nicht gepackt, von 2.0 direkt auf 3.0 zu gehen. Mit "CineFX" wurde aber bereits viel Vorarbeit geleistet.

Mit Radeon 8500 hat ATI bewusst Pixelshader 1.4 gebracht, mit dem Wissen, dass der Spieler daraus keinen wesentlichen Nutzen ziehen würde. Doch mit dieser Vorarbeit konnten sie dann hochperformante 2.0-Shader entwickeln die wir in der Radeon 9700 sehen.
Und?
Bei ATI hat es was gebracht, siehe die überlegene Pixelshaderleistung des R300.
Beim NV40 scheint SM3 nicht wirklich der Bringer zu sein.
Wie tokugawa schon sagte, für Entwickler top, für Gamer irrelevant.

aths
2004-09-11, 20:23:31
Und?
Bei ATI hat es was gebracht, siehe die überlegene Pixelshaderleistung des R300.Gegenüber der FX-Reihe, ja. Die Stärken der FX liegen in anderen Bereichen, z. B. Texturfilterung. Wer wie ich gerne Max Payne oder ähnliche, ältere Spiele spielt, hat von brachialer Pixelshaderleistung nicht viel. Pixelshaderleistung ist nicht per se das Argument pro oder kontra einer Karte, gilt gleichermaßen für R420 vs NV40. Wir reden hier im Thread aber über 2.0-Leistung. Hier sollte man imo eher "Effekte, die sich mit 2.0 realisieren lassen" sagen. Denn solche Effekte lassen sich mit 2.X, oder als 3.0-Shader compiliert, oftmals effizienter rendern.

Beim NV40 scheint SM3 nicht wirklich der Bringer zu sein.
Wie tokugawa schon sagte, für Entwickler top, für Gamer irrelevant. Nicht immer so in groben Kategorien denken :nono: SM3.0 umfasst ja auch die ganzen CineFX-Features. Das, was nach CineFX noch dazu kam zu CineFX III, performt noch nicht dolle. Aber das was CineFX ggü. Smartshader 2.1 mehr bietet (und das ist mehr als der Abstand von CineFX zu CineFX III) erlaubt effizientere Berechnung von Effekten. So lange ein Spiel Textursampling-limitiert ist, bringt das natürlich wenig, dann ist R420 im Vorteil. Aber es geht eindeutig in die andere Richtung, also dass arithmetische Leistung wichtiger wird. Jedenfalls bringt SM3 gegenüber Smartshader so oder so effizientere Berechnungsmöglichkeiten, egal, ob die gegenüber CineFX neuen Features gut oder schlecht performen.

LovesuckZ
2004-09-11, 20:36:54
Beim NV40 scheint SM3 nicht wirklich der Bringer zu sein.


Beweise das doch bitte.
Oder faengst du wieder mit "Glauben" an?
Denn dann sollte die Moderation dies endlich mal verhindern, denn diskutieren ist dies nicht.

MikBach
2004-09-11, 20:36:56
Nicht immer so in groben Kategorien denken :nono: SM3.0 umfasst ja auch die ganzen CineFX-Features. Das, was nach CineFX noch dazu kam, zu CineFX III, performt noch nicht dolle. Aber das was CineFX ggü. Smartshader 2.1 mehr bietet (und das ist mehr als der Abstand von CineFX zu CineFX III) bringt effizienteres Rendering von Effekten. So lange ein Spiel Textursampling-limitiert ist, bringt das natürlich wenig, dann ist R420 im Vorteil. Aber es geht eindeutig in die andere Richtung, also dass arithmetische Leistung wichtiger wird.
Ack.
Siehe FC und HL2.
Wenn viele Shader zum Einsatz kommen, kann der NV40 mit dem R420 aufgrund der besseren arithmetischen Leistung gleichziehen, wenn auch nicht ganz, wenn für die ATIs der SM2.b-Pfad verwendet wird.
Ob es in nächster Zeit so viele shaderintensive Spiele geben wird wie FC und HL2 wage ich mal zu bezweifeln. Ausserdem hat der NV40 bei wirklich langen Shadern einen Vorteil gegenüber dem R420. Das sollte in der nächsten Zeit nicht so oft vorkommen.

MikBach
2004-09-11, 20:38:15
Beweise das doch bitte.

Bewise das Gegenteil und gut ist. Ich habe immer ein Ohr offen. Also leg los mit den Beispielen. ;)

LovesuckZ
2004-09-11, 20:40:41
Bewise das Gegenteil und gut ist. Ich habe immer ein Ohr offen. Also leg los mit den Beispielen. ;)

Ich haben diesen Post gemeldet, aus dem Grund, weil dies laecherlich ist.
Denn dies ist schon der dritte Versuch, hier mit Luegen zu protzen. :down:
Schon die Ergebnisse vom Shadermark 2.1 gesehen? Dort ist das "nutzlose" SM3.0 deutlich schneller als das "nutzvolle" SM2.0 durch das "nutzlose" Banching ;)

aths
2004-09-11, 20:40:47
Ack.
Siehe FC und HL2.
Wenn viele Shader zum Einsatz kommen, kann der NV40 mit dem R420 aufgrund der besseren arithmetischen Leistung gleichziehen, wenn auch nicht ganz, wenn für die ATIs der SM2.b-Pfad verwendet wird.
Ob es in nächster Zeit so viele shaderintensive Spiele geben wird wie FC und HL2 wage ich mal zu bezweifeln. Ausserdem hat der NV40 bei wirklich langen Shadern einen Vorteil gegenüber dem R420. Das sollte in der nächsten Zeit nicht so oft vorkommen.Bei langen, arithmetischen Shadern müsste NV40 deutlich davonziehen. Wir haben die CineFX-Flexibilität, wir haben die höhere Grundleistung, wir haben das dedizierte NRM_PP. ATIs "Glück" ist die gute Taktbarkeit vom R420. Damit reißen sie ein gutes Stück raus. Die interessante Frage ist, was im Mittelsegment los sein wird. Kann ATI dort ebenfalls 30% Mehrtakt anbieten?

MikBach
2004-09-11, 20:47:36
Bei langen, arithmetischen Shadern müsste NV40 deutlich davonziehen. Wir haben die CineFX-Flexibilität, wir haben die höhere Grundleistung, wir haben das dedizierte NRM_PP. ATIs "Glück" ist die gute Taktbarkeit vom R420. Damit reißen sie ein gutes Stück raus. Die interessante Frage ist, was im Mittelsegment los sein wird. Kann ATI dort ebenfalls 30% Mehrtakt anbieten?
Was ist, wenn PP nicht ausreichend ist bzw. die Progger in FP proggen wollen?
Dass PP beim NV40 was bingen kann, ist mir bewusst.
Ja, bei den Midrange-Karten bin ich auch schon gespannt.
Die Benchmarks von XbitLabs sollten aufschluss geben. ;)
Warten wir mal ab.

Quasar
2004-09-11, 20:48:54
Zur X300/600:
Mit welchen Nvidia-Karten darf man die vergleichen?
Die X600 sicherlich mit der 6600. Beide sind in etwa gleich schnell.

Und die X600 XT dann mit der 6600GT? ;)

aths
2004-09-11, 20:49:16
BTW,

Wenn es um Techniken geht, die gefilterte FP-Texturen brauchen, ist der NV40 gegenüber R420 um Größenordnungen schneller, da helfen ATI auch keine 30% Mehrtakt. Würde R420 das, wie NV40, mit dedizierten Units beschleunigen, und würde ATI entsprechende Chip in den Midrange-Bereich bringen, könnten wir eher mit entsprechenden Anwendungen (und Spielen) rechnen, als das unter den gegebenen Umständen der Fall ist.

Das bitte ich zu berücksichtigen, wenn davon gesprochen wird, wann man welche Features "braucht".

Was ist, wenn PP nicht ausreichend ist bzw. die Progger in FP proggen wollen?
Dass PP beim NV40 was bingen kann, ist mir bewusst.
Ja, bei den Midrange-Karten bin ich auch schon gespannt.
Die Benchmarks von XbitLabs sollten aufschluss geben. ;)
Warten wir mal ab.Für Bumpmapping ist FP16 sehr gut. (Bislang wird vor allem FX8 genutzt.)

Und was ist, wenn FP24 nicht mehr ausreicht? :) Dann schrauben die Entwickler die Effekte so zurück, dass es auch mit FP24 noch klappt. Entsprechende Kompromisse werden sicher auch gemacht, um an kritischen Stellen nach Möglichkeit noch FP16 nutzen zu können.

Quasar
2004-09-11, 20:53:15
Kann ATI dort ebenfalls 30% Mehrtakt anbieten?

Ich vermute mal einfach, daß sie es dort zumindest schwerer haben. Indizien dafür sind zum einen die noch schlechtere Verfügbarkeit der XTPE ggü. der 6800 ultra. Im Gegensatz dazu sieht's bei der X800 Pro wieder recht gut aus - also können komplett kaputte Dies nicht das Problem sein.
Zweites Indiz ist die geringere Komplexität von ATis High-End Design im Vergleich zum nV40. In der Mittelklasse wird ein Teil des Vorsprunges, den ATi durch Verzicht auf Zusatzfeatures erreicht, ja wieder durch die doppelt so hohe Anzahl an 3DMark-Punktebringern, err, Vertexshadern aufgefressen.

Hier dürften die Taktdifferenzen zumindest geringer ausfallen.

MikBach
2004-09-11, 20:54:00
Ich haben diesen Post gemeldet, aus dem Grund, weil dies laecherlich ist.
Denn dies ist schon der dritte Versuch, hier mit Luegen zu protzen. :down:
:confused:
Wieso das denn?
Vielleicht bin ich ja nicht so "schlau" wie du, aber Lügen kann ich hier keine erkennen. Ist nur meine(und nicht nur) Meinung.

Schon die Ergebnisse vom Shadermark 2.1 gesehen? Dort ist das "nutzlose" SM3.0 deutlich schneller als das "nutzvolle" SM2.0 durch das "nutzlose" Banching ;)
Und, was sieht man da?
Als der R300 in Shadermark 3-mal so schnell war wie die FX hat man das runtergespielt. Jetzt rockt Shadermark, oder wie? :hammer:
Warten wir auf die Spiele, alles andere hat keinen Sinn. :D

Xmas
2004-09-11, 21:03:11
LovesuckZ und Mikbach, könntet ihr euren Kleinkrieg bitte beenden? Und ich meine wirklich beenden. Alle Beiträge nach diesem, die sich nicht oder nur teilweise um sachlich vorgetragene Meinungen zum Thema handeln, fliegen raus.

Tesseract
2004-09-11, 21:04:12
wieso das denn?

weil bei einer behautung die beweislast auf seiten des behauptenden liegt und nicht auf der, der anderen.

Ice =A=
2004-09-11, 21:10:43
@ Xmas:
Ups, danke für die Berichtigung! Transmeta designt ja nur CPUs, sorry... :)

Es gibt übrigens noch einen Punkt, warum nVida bei Shadern in Zukunft eher Vorteile haben wird:
Wenn ein Entwickler heute ein Spiel entwickelt, und er das mit den aktuellsten Features tun will, so MUSS er momentan die nVidia-Karten nehmen, es bleibt ihm garnichts anderes übrig (selbst, wenn sie langsamer sein sollten). Es werden also zwangsläufig neue, shaderintensive Spiele eher auf nVida-Karten optimiert sein, auch was Shader 2.0 angeht (weil der Entwickler halt 'was von nVida im Rechner hat)...
So war das damals auch mit ATI und DirectX9.

Zitat von MikBach:
Wie tokugawa schon sagte, für Entwickler top, für Gamer irrelevant.
Also, der Satz is ja wirklich der Bringer! Wie gut, daß Entwickler nichts mit Gamern zu tun haben...

Zitat von MikBach:
Falsch. Siehe die Ausbeute von GT und Ultra von Nvidia und die Massenverfügbarkeit an.
ATI kann den Gegner der GT, die X800PRO in Massen ausliefern.

Nur soviel: Ich habe mir asl ATI-Fan ursprünglich nur eine nVidia-Karte geholt, weil ich keine neue X800XT von ATI kriegen konnte (und die Pro-Variante kann man ja Vergessen)... Das mag lokal anders gewesen sein...
Was die GeForce ULTRAs angeht, hast Du allerdings zugegebenermaßen Recht...


Zitat von MikBach:
Sie sind stromsparender, leiser und leistungsfähig genug um mit Nvidia mitzuhalten.
Nur eine ATI-Karte ist ohne Modding wesentlich leiser als die von nVidia, und das ist die IceQ-Karte von HIS. Und die X800XT-Version gibt es BIS HEUTE nicht! Auf nVidias Seite gibt es inzwischen auch eine mit Arctic-Silencer, und die ist auch sehr leise! :wave2:
Nebenbei bemerkt: Selbst die 6800Ultra verbraucht etwa soviel Energie wie eine 9800XT, die GT-Version deutlich weniger! (Die X800er allerdings sogar noch etwas weniger.)


Zitat von LovesuckZ:
Ich haben diesen Post gemeldet, aus dem Grund, weil dies laecherlich ist.
Kein Kommentar... :popcorn: (Ups, das war eine Art von Kommentar...)

MikBach
2004-09-11, 21:16:27
BTW,

Wenn es um Techniken geht, die gefilterte FP-Texturen brauchen, ist der NV40 gegenüber R420 um Größenordnungen schneller, da helfen ATI auch keine 30% Mehrtakt. Würde R420 das, wie NV40, mit dedizierten Units beschleunigen, und würde ATI entsprechende Chip in den Midrange-Bereich bringen, könnten wir eher mit entsprechenden Anwendungen (und Spielen) rechnen, als das unter den gegebenen Umständen der Fall ist.

Das bitte ich zu berücksichtigen, wenn davon gesprochen wird, wann man welche Features "braucht".
Ack.
Welche praktischen Vorteile soll das bringen?
Bzw. wie viel BQ bringt das? Ist es sinnvoll?

Und was ist, wenn FP24 nicht mehr ausreicht? :) Dann schrauben die Entwickler die Effekte so zurück, dass es auch mit FP24 noch klappt. Entsprechende Kompromisse werden sicher auch gemacht, um an kritischen Stellen nach Möglichkeit noch FP16 nutzen zu können.
Richtig, sehe ich keinen Nachteil. Wenn das jedoch gemacht wird um einen IHV besser performen zu lassen, obwohl man eigentlich "einheitlich" programmieren will....

@LS
Schau dir mal die Statements(in der PCGH 10/04) von den 3dmark05-Leuten an.
Patric ojala: "Wenn man 2.0-Shader ausreizt, sind selbst diese herausfordernd für die aktuelle Hardware" ;)
So viel zum Thema SM3 auf der jetzigen Hardware. ;)

Ice =A=
2004-09-11, 21:21:01
@ MikBach:
Ok, wenn die 3DMark-Typen Recht haben, warum benutzt dann die neue Unreal3-Engine PS3.0? Da würde ich mehr Wert drauf legen! Die sagen sogar, daß Unreal3 (geplant für Ende 2005) auf einer jetztigen (!) 6800Ultra zufriednstellend in niedrigen Auflösungen läuft! Das is übrigens ein Gutes Beispiel, daß die Hersteller für zukünftige Spiele heute schon auf nVidia-Hardware entwickeln...
Allerdings muß ich zugeben, daß mich die Möglichkeit von FP16 immer an schlechtere Grafikqualität erinnert... Da is mir ATIs Zwischenlösung lieber, wenn sie schneller als FP32 ist...

Noch 'ne Frage:
Wurde inzwischen eigentlich 'ne Einigung erzielt, ob FP16 bei der 6800er Serie noch Geschwindigkeitsvorteile gegen FP32 bringt? Wurde das vielleicht schonmal in 'nem andern Thread diskutiert? Danke!

LovesuckZ
2004-09-11, 21:23:03
So viel zum Thema SM3 auf der jetzigen Hardware. ;)

Und muss es stimmen?
Wenn ja, wieso laeuft Farcry mit dem Patch 1.2 auf dem NV40/R420 schneller? Immerhin wird hier über die Grenzen von SM2.0 hinaus gegangen.

Und, was sieht man da?


Das auch die Branchunit zur Leistungssteigerung eingesetzt werden kann. Und somit SM3.0 nicht nutzlos ist beim NV40.
Daher steht deine beweislast immer noch aus und ich waere dankbar, wenn du Zahlen oder Dokumente vorzeigen koenntest, inwieweit das SM3.0 beim NV40 unbrauchbar waere.

LovesuckZ
2004-09-11, 21:24:56
Noch 'ne Frage:
Wurde inzwischen eigentlich 'ne Einigung erzielt, ob FP16 bei der 6800er Serie noch Geschwindigkeitsvorteile gegen FP32 bringt? Wurde das vielleicht schonmal in 'nem andern Thread diskutiert? Danke!

Mcdonalsfillratetester (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/6/#shader_fuellrate) und Farcry (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/10/#far_cry_v1_1)

Demirug
2004-09-11, 21:28:00
Ack.
Welche praktischen Vorteile soll das bringen?
Bzw. wie viel BQ bringt das? Ist es sinnvoll?

Ja im Bereich der HDR (ja aths ich bleibe dabei) Techniken ist das sehr sinnvoll. Da muss man öfter mal FP-Texturen schnell filtern.

Richtig, sehe ich keinen Nachteil. Wenn das jedoch gemacht wird um einen IHV besser performen zu lassen, obwohl man eigentlich "einheitlich" programmieren will....

Es gibt schon jemanden der auf FP24 keine Rücksicht mehr nimmt. Details darf ich aber leider noch nicht nennen.

@LS
Schau dir mal die Statements(in der PCGH 10/04) von den 3dmark05-Leuten an.
Patric ojala: "Wenn man 2.0-Shader ausreizt, sind selbst diese herausfordernd für die aktuelle Hardware" ;)
So viel zum Thema SM3 auf der jetzigen Hardware. ;)

Bitte aus den Antworten auf meine Fangfrage nicht nur die Teile rausnehmen die dir gefallen.

MikBach
2004-09-11, 21:29:04
@ MikBach:
Ok, wenn die 3DMark-Typen Recht haben, warum benutzt dann die neue Unreal3-Engine PS3.0? Da würde ich mehr Wert drauf legen! Die sagen sogar, daß Unreal3 (geplant für Ende 2005) auf einer jetztigen (!) 6800Ultra zufriednstellend in niedrigen Auflösungen läuft!
Das ist DER Punkt. SM3 wird schon was bringen, kein Zweifel. 2006, dann soll die Unreal3-Engine fertig sein. Nur leider wird der NV40 dann zu langsam sein, um es vernünftig darzustellen. Deswegen wird man Details abschalten müssen um auf vertetbare Werte zu kommen. Somit wird die BQ so sein wie beim R420. Ist zwar eine Spekulation, aber ich glaube schon dass ich richtig liegen werde(wie so oft). ;)

Noch 'ne Frage:
Wurde inzwischen eigentlich 'ne Einigung erzielt, ob FP16 bei der 6800er Serie noch Geschwindigkeitsvorteile gegen FP32 bringt? Wurde das vielleicht schonmal in 'nem andern Thread diskutiert? Danke!
Darüber braucht man nicht zu disutieren, die Cine-FX-Architektur ist so ausgelegt, dass es sicherlich eine Menge Speed bringt.

MikBach
2004-09-11, 21:33:18
Und muss es stimmen?
Wenn ja, wieso laeuft Farcry mit dem Patch 1.2 auf dem NV40/R420 schneller? Immerhin wird hier über die Grenzen von SM2.0 hinaus gegangen.
Informiere dich bitte bevor du postest. Der R420 ist mit dem SM2.b-Pfad immer noch schneller als der NV40 mit SM3. ;)

Das auch die Branchunit zur Leistungssteigerung eingesetzt werden kann. Und somit SM3.0 nicht nutzlos ist beim NV40.
Daher steht deine beweislast immer noch aus und ich waere dankbar, wenn du Zahlen oder Dokumente vorzeigen koenntest, inwieweit das SM3.0 beim NV40 unbrauchbar waere.
Ich wäre die dankbar, wenn du Benchmarks bringen würdest, die deine These belegen, die übrengens falsch ist. Siehe FarCry. ;)

LovesuckZ
2004-09-11, 21:37:18
Informiere dich bitte bevor du postest. Der R420 ist mit dem SM2.b-Pfad immer noch schneller als der NV40 mit SM3. ;)

:conf2:
Wie passt das zu dem, was ich geschrieben habe?

Ich wäre die dankbar, wenn du Benchmarks bringen würdest, die deine These belegen, die übrengens falsch ist. Siehe FarCry. ;)

performance impact of dynamic flow control
shader 20 ( Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_3_0):; 53;fps; 18;mspf; 264;rendered frames
shader 21 ( Dual Layer 8x8 PCF Shadow Mapping with Flow Control - ps_3_0):; 88;fps; 11;mspf; 441;rendered frames

Gast (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2235040&postcount=1)

Was hat Farcry mit der Branchingunit zu tun?

MikBach
2004-09-11, 21:38:18
Ja im Bereich der HDR (ja aths ich bleibe dabei) Techniken ist das sehr sinnvoll. Da muss man öfter mal FP-Texturen schnell filtern.
Die Frage ist nur, ob das auch in der Praxis eingestetzt wird. Techniken interessieren mich zwar auch, aber am meisten der praktische Nutzen.

Es gibt schon jemanden der auf FP24 keine Rücksicht mehr nimmt. Details darf ich aber leider noch nicht nennen.
Erstaunlich. Da will der liebe aths was von FP16 erzählen, und auf ein mal reicht FP24 nicht aus. Könntet ihr euch irgendwie einigen, was jetzt nun der Praxis entspricht?

MikBach
2004-09-11, 21:44:42
performance impact of dynamic flow control
shader 20 ( Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_3_0):; 53;fps; 18;mspf; 264;rendered frames
shader 21 ( Dual Layer 8x8 PCF Shadow Mapping with Flow Control - ps_3_0):; 88;fps; 11;mspf; 441;rendered frames

Gast (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2235040&postcount=1)

Was hat Farcry mit der Branchingunit zu tun?
Oh man, ich rede von Spiele-Benchmarks, nicht von synthetischen. Wenn man nach Shadermark gehen würde müsste der R350 3-mal so schnell sein wie der NV35. Ist er aber nicht. Deswegen abwarten. Spiele benchen, und staunen, dass SM3 beim NV40 nicht wirklich was bringt. ;)

Demirug
2004-09-11, 21:45:19
Die Frage ist nur, ob das auch in der Praxis eingestetzt wird. Techniken interessieren mich zwar auch, aber am meisten der praktische Nutzen.

Da es bisher keine Hardware mit diesem Feature gab nutzt es eben noch kein aktuelles Spiel. Diese eumlieren das FP-Filtern mit dem Pixelshader. Das dürfte sich aber ändern vorallem weil ATI ja indirekt auch schon bestätigt hat das sie FP-Texturen mit Filterfunktionen in Zukunft auch unterstützen werden.

Erstaunlich. Da will der liebe aths was von FP16 erzählen, und auf ein mal reicht FP24 nicht aus. Könntet ihr euch irgendwie einigen, was jetzt nun der Praxis entspricht?

Es hängt von der Situation ab.

Wenn man im Farbraum rechnet ist FP16 meist völlig ausreichend. Kommen aber Vektoren zum Einsatz braucht man schnell mal mehr. Ganz schlimm wird es bei Vektoren im Wolrdspace. Da können lustige Sache mit FP24 passieren.

EDIT: Da du scheinbar auf meinen letzten Punkt nicht eingehen willst werde ich eben auch etwas aus der PCGH zitieren

Auf die gleiche Frage antwortet Nick Renqvist noch:

Karten, die längere Pixelshader untersstützen (Pixel Shader 2.A, 2.B und 3.0) könnten in machen Situationen davon profitieren

Scheinbar haben sich da Patric und Nick nicht abgesprochen. ;)

Quasar
2004-09-11, 21:48:03
Patric ojala: "Wenn man 2.0-Shader ausreizt, sind selbst diese herausfordernd für die aktuelle Hardware" ;)
So viel zum Thema SM3 auf der jetzigen Hardware. ;)
Das Statement ist in dieser Hinsicht wertlos - du kannst auch mit einem DX7-MT-Setup jede aktuelle Hardware aus- und überreizen.

Sollte man also auf DX-Next Chips warten, bevor man sich an DX7-Games heranwagt?

LovesuckZ
2004-09-11, 21:48:42
Oh man, ich rede von Spiele-Benchmarks, nicht von synthetischen.
[...]Deswegen abwarten. Spiele benchen, und staunen, dass SM3 beim NV40 nicht wirklich was bringt. ;)

Ich weiß, ich werde dafuer ein Punkt bekommen, da es keine sachliche Meinung ist, aber:
Dann muesste es ein leichtes fuer dich sein mir ein heutiges Spiel darzulegen, welches Branching in den Pixelshadern verwendet und auf dem NV40 langsam ist.

M@g
2004-09-11, 21:51:06
Kann ein Mod denn nicht diesen Thread splitten? Ihr redet nur noch über Features&Technik, hat aber nix mit der 2.0 Leistung einer GF6800GT gegenüber einer X800Pro zu tun, und das ist soweit ich lesen kann das Thema.

Zum Topic, um zu sehen wie die beiden Karten bei reiner 2.0 Verwendung abschneiden müssen wir wohl auf Half-Life2 warten, das scheint ja excessiv davon gebrauch zu machen, farcry lasse ich ausenvor, hat ja bewiesen das es buggy auf NV Karten läuft und der Patch der es richten kann, wurde zurück gezogen.

€: Der neue 3DMark kann natürlich auch etwas Aufschluss darüber bringen, da wird man ja alle DX9 Profile auswählen dürfen.

LovesuckZ
2004-09-11, 21:54:51
Kann ein Mod denn nicht diesen Thread splitten? Ihr redet nur noch über Features&Technik, hat aber nix mit der 2.0 Leistung einer GF6800GT gegenüber einer X800Pro zu tun, und das ist soweit ich lesen kann das Thema.


Doch hat es. Da die Leistung ueber die Moeglichkeiten der Profile beeinflusst wird, siehe auch Farcry.
So kann es sein, dass ein NV40 dank besseren Shaderfeatures eine bessere Leitung erhaelt als ein R420.
Dafuer muesste man aber auch ueber die Technik reden ;).

MikBach
2004-09-11, 21:55:31
Das Statement ist in dieser Hinsicht wertlos - du kannst auch mit einem DX7-MT-Setup jede aktuelle Hardware aus- und überreizen.

Richtig, aber sinnvoll ist es nicht. Mit DX9 sieht es besser mit der BQ bzw. der Darstellung aus, und kostet weniger Performance(wenn der Chip das konsequent umsetzen kann). ;)

arcon
2004-09-11, 21:56:28
An dieser Stelle will ich denn noch n Kommentar meinerseits einstreuen ...

Also ob nun ATI nicht die Möglichkeiten oder eben keinen Sinn in der jetzigen Einführung von sm 3.0 hatte ist eigentlich völlig egal! oder?! tatsache ist, sie habens nicht gemacht..... hierdurch ist die Aubeute besser und der Entwicklungsaufwand geringer, ergo auch die Kosten .... sie erhöhen sozusagen den Gewinn .... aber warum geben sie dann der x800 Pro keinen entsprechenden Preis?! die 6800er is n neues produkt ... die x800er sehe ich eher als refresh an ... der n paar funktionen verpasst bekam und dafür find ich die Karten einfach viel zu teuer ... die x800 pro 50 @ billiger und ich bin dabei! mir is doch egal ob da nv oder ati draufsteht .... ich nehm das produkt mit dem besten Preis-/Leistungsverhältnis und des is momentan in meinen Augen die Geforce 6800 ... für 280 €!

cu

MikBach
2004-09-11, 21:59:52
Auf die gleiche Frage antwortet Nick Renqvist noch:

Scheinbar haben sich da Patric und Nick nicht abgesprochen. ;)
:confused:
Was willst du mir jetzt damit sagen?
"könnten" heisst nicht "werden"!
Also, abwarten.

LovesuckZ
2004-09-11, 22:01:29
tatsache ist, sie habens nicht gemacht..... hierdurch ist die Aubeute besser und der Entwicklungsaufwand geringer, ergo auch die Kosten .... sie erhöhen sozusagen den Gewinn .... aber warum geben sie dann der x800 Pro keinen entsprechenden Preis?!

Der unbekannte Kostenfaktor ist LowK. Nvidia meint, dass dieser die fertigung (stark) verteure, so dass die Kosten nicht geringerer waeren als beim NV40.
Dazu kommt, dass sie auch die x800pro bis vor einigen Wochen nicht in wirklich massenhaften Mengen liefern konnten und die Nachfrage ueber dem Angebot lag. Dadurch zogen einige Haendler die Preise an, sie konnten es dank den wenigen Karten auch und siebten die Kaeuferschicht.

MikBach
2004-09-11, 22:05:01
ich nehm das produkt mit dem besten Preis-/Leistungsverhältnis und des is momentan in meinen Augen die Geforce 6800 ... für 280 €!

cu
Dann solltest du auch mitgekriegt haben, dass die 6800 nicht besser ist als die 9800XT ist.
Oder liesst du die News nicht?
Da eine 9800PRO nicht viel langsamer ist, aber deutlich preiswerter hat diese das beste P/L-Vehältniss. ;)

Quasar
2004-09-11, 22:07:00
Richtig, aber sinnvoll ist es nicht. Mit DX9 sieht es besser mit der BQ bzw. der Darstellung aus, und kostet weniger Performance(wenn der Chip das konsequent umsetzen kann). ;)
Wieso ist es nicht sinnvoll?
Immerhin sinnvoll genug, daß UT2003 bei vielen als CPU-limitiert gilt...

Andererseits kannst du auch mit DX9 "konsequent" Performance verschleudern, wenn du bsw. mit 2.0-Shadern Sachen rechnest, die du entweder gar nicht rechnen brauchst, oder die du genausogut mit kleineren 1.x-Shadern oder noch weniger hinkriegst.

"SM2.0" ausreizen - was ist das nun? Einfach nur jeden Pixel auf dem Schirm per 2.0-Shader errechnen? Oder muss der jeweilige Shader dazu auch eine bestimmte Länge haben? Ein bestimmtes Tex/Arithmetik-Verhältnis? ;)

Demirug
2004-09-11, 22:08:56
:confused:
Was willst du mir jetzt damit sagen?
"könnten" heisst nicht "werden"!
Also, abwarten.

Es dürfte dir aufgefallen sein das die beiden Jungs von Futuremark es vermeiden irgend etwas über die Leistung der Karten im nächsten 3dmark zu sagen.

Wenn man Patrics Aussage genau liest sagt er auch nicht genau ob man nun längere Shader nutzt oder nicht. Er sagt lediglich das man keine absichtlich eingebaut hat um einen IHV Vorteile zu verschaffen. Er sagt allerdings nicht das man definitive keine längeren benutzt.

Aber du kannst ja mal zitieren was Patric auf die nächste Frage geantwortet hat. Denn dort geht es dann ja wirklich direkt um SM3.

DeadMeat
2004-09-11, 22:13:31
Dann solltest du auch mitgekriegt haben, dass die 6800 nicht besser ist als die 9800XT ist.
Oder liesst du die News nicht?
Da eine 9800PRO nicht viel langsamer ist, aber deutlich preiswerter hat diese das beste P/L-Vehältniss. ;)

Die 6800nu ist besser als eine XT, und die höhere Performance ist deutlich spürbar.... minimal schlechteres AA minimal besseres AF... die 256MB der XT verkürzen zwar den abstand etwas aber es reicht eben nicht immer....
Und der meiner Meinung nach bessere Treiber bei...... :)

Selbst getestet und empfehle bei der Auswahl die 68nu .....

Quasar
2004-09-11, 22:15:25
Dann solltest du auch mitgekriegt haben, dass die 6800 nicht besser ist als die 9800XT ist.
Oder liesst du die News nicht?
Da eine 9800PRO nicht viel langsamer ist, aber deutlich preiswerter hat diese das beste P/L-Vehältniss. ;)

Die News habe ich in der Tat nicht gelesen. Link?
BTW, wenn, wie ich vermute, die 9800XT bei 1280 und 4xAA ein wenig besser dasteht, dann liegt das womöglich an den zusätzlichen 128MB der Karte - die dann bei deinem Tip R9800p für 200EUR leider wieder wegfallen.

DeadMeat
2004-09-11, 22:19:41
Die News habe ich in der Tat nicht gelesen. Link?
BTW, wenn, wie ich vermute, die 9800XT bei 1280 und 4xAA ein wenig besser dasteht, dann liegt das womöglich an den zusätzlichen 128MB der Karte - die dann bei deinem Tip R9800p für 200EUR leider wieder wegfallen.

Hm hast du ein Bench zu einem Spiel zur hand wo das der Fall ist xt vor NU?
Bei dem CB Artikel ist bei der Auflösung und AA meistens sogar die 6600gt vor der XT ....

aths
2004-09-11, 22:23:17
Ack.
Welche praktischen Vorteile soll das bringen?
Bzw. wie viel BQ bringt das? Ist es sinnvoll? Nein, NV hatte noch ein paar Transistoren über und dachte sich, he, bauen wir halt FP16-Texturfilterung ein.

Richtig, sehe ich keinen Nachteil. Wenn das jedoch gemacht wird um einen IHV besser performen zu lassen, obwohl man eigentlich "einheitlich" programmieren will....Programmiert werden soll ja auch einheitlich. Mit HLSL. Das _PP-Flag zu setzen kann man auch automatisieren. Ist nur die Frage, wie scharf man da rangehen will. Und ob man sich die Mühe macht, den Shader in "Extremsituationen" (soweit diese sich herstellen lassen) zu testen, ob die Qualität noch ok ist. Letzteres werden wohl nur wenige Entwickler tun. Doch wichtig ist erst mal, dass _PP überhaupt eingesetzt wird, wo es sinnvoll (und "ungefährlich") ist.

Patric ojala: "Wenn man 2.0-Shader ausreizt, sind selbst diese herausfordernd für die aktuelle Hardware" ;)
So viel zum Thema SM3 auf der jetzigen Hardware. ;) :rolleyes: Bitte nicht immer so in groben Kategorien denken :nono: Mit CineFX lässt sich vieles effizienter rendern, als mit 2.0. Gleiches gilt für 3.0. Eine Karte, die mit 2.0 ausgereizt wäre, könnte, wenn der Effekt für 3.0 erstellt wurde, mit dem 3.0-Shader durchaus schneller sein. Das war übrigens eine wesentliche Motivation für SM 3.0: Rechenkraft gezielter einzusetzen.

Man könnte auch DX7-Spiele programmieren, die jede aktuelle Highend-Karte in die Knie zwingen. Sollte man deshalb erst mal weiterhin in DX7 proggen, und auf Shader nicht verzichten, oder wie?

edit: Auf das Argument, in DX9 sähe es besser aus. Mit SM 3.0 ist es (ggü. Smartshader 2.1) ebenfalls möglich, dass die Grafik besser aussieht.

aths
2004-09-11, 22:27:07
Wurde inzwischen eigentlich 'ne Einigung erzielt, ob FP16 bei der 6800er Serie noch Geschwindigkeitsvorteile gegen FP32 bringt? Wurde das vielleicht schonmal in 'nem andern Thread diskutiert? Danke!FP16 auf NV40 bringt relativ gesehen mehr Zusatzleistung als auf dem NV35. NV40 ist für volle Leistungsentfaltung darauf angewiesen, dass FP16 genutzt wird, wo möglich. Da FP16 für vieles auch reicht, ist das kein Nachteil. Erst recht, wo das übliche Rendertarget RGBA 8888 ist.

Gast
2004-09-11, 22:29:18
@ Quasar und DeadMeat:
Die x-bit Labs haben einen herausragenden Artikel online gebracht, welche alle derzeitigen Mainstream- und HighEnd-Grafikkarten von ATi und nVidia durch 35 verschiedene Benchmarks scheucht und dann je nach Preislage beurteilt. Im Feld der 300-Dollar-Grafikkarten bewerben sich mit GeForce 6800, Radeon 9800XT und GeForceFX 5950 Ultra gleich drei Kandidaten, wobei der letztere ziemlich deutlich hinten liegt. Zwischen der neuen GeForce 6800 und der "alten" Radeon 9800XT entspannt sich jedoch ein hochinteressanter Zweikampf, bei welchem mal die eine und mal die andere Karte deutlich vorn liegt, generell jedoch kein eindeutiger Sieger auszumachen ist ...
News vom 3. August 2004.

@aths
auf dein Anliegen werde ich erst morgen eingehen. :)
Gibt ja noch andere Sachen als PC. ;)

aths
2004-09-11, 22:29:21
Das ist DER Punkt. SM3 wird schon was bringen, kein Zweifel. 2006, dann soll die Unreal3-Engine fertig sein. Nur leider wird der NV40 dann zu langsam sein, um es vernünftig darzustellen. Deswegen wird man Details abschalten müssen um auf vertetbare Werte zu kommen. Somit wird die BQ so sein wie beim R420. Ist zwar eine Spekulation, aber ich glaube schon dass ich richtig liegen werde(wie so oft). ;)NV40 kann Unreal3 mit MDR-Lighting etc. pp. flüssig rendern. Hab ich mit eigenen Augen gesehen.

MikBach
2004-09-11, 22:30:45
@ Quasar und DeadMeat:
Die x-bit Labs haben einen herausragenden Artikel online gebracht, welche alle derzeitigen Mainstream- und HighEnd-Grafikkarten von ATi und nVidia durch 35 verschiedene Benchmarks scheucht und dann je nach Preislage beurteilt. Im Feld der 300-Dollar-Grafikkarten bewerben sich mit GeForce 6800, Radeon 9800XT und GeForceFX 5950 Ultra gleich drei Kandidaten, wobei der letztere ziemlich deutlich hinten liegt. Zwischen der neuen GeForce 6800 und der "alten" Radeon 9800XT entspannt sich jedoch ein hochinteressanter Zweikampf, bei welchem mal die eine und mal die andere Karte deutlich vorn liegt, generell jedoch kein eindeutiger Sieger auszumachen ist ...
News vom 3. August 2004.

@aths
auf dein Anliegen werde ich erst morgen eingehen. :)
Gibt ja noch andere Sachen als PC. ;)
Das war ich.

aths
2004-09-11, 22:31:26
Die Frage ist nur, ob das auch in der Praxis eingestetzt wird. Techniken interessieren mich zwar auch, aber am meisten der praktische Nutzen.Natürlich wird es eingesetzt werden.

Erstaunlich. Da will der liebe aths was von FP16 erzählen, und auf ein mal reicht FP24 nicht aus. Könntet ihr euch irgendwie einigen, was jetzt nun der Praxis entspricht? :rolleyes: Das hängt natürlich immer davon ab. Manchmal zweifle ich an deinem Willen zur Ernsthaftigkeit. Es gibt natürlich nicht "die" Praxis. Mit etwas mehr Theorie-Wissen würdest du auch die Hintergründe verstehen.

Beim SM 3.0 zählt FP24 nur als Partial Precision. Die Anforderung an volle Präzision wurde nicht zum Spaß hochgeschraubt.

DeadMeat
2004-09-11, 22:36:26
@ Quasar und DeadMeat:
Die x-bit Labs haben einen herausragenden Artikel online gebracht, welche alle derzeitigen Mainstream- und HighEnd-Grafikkarten von ATi und nVidia durch 35 verschiedene Benchmarks scheucht und dann je nach Preislage beurteilt. Im Feld der 300-Dollar-Grafikkarten bewerben sich mit GeForce 6800, Radeon 9800XT und GeForceFX 5950 Ultra gleich drei Kandidaten, wobei der letztere ziemlich deutlich hinten liegt. Zwischen der neuen GeForce 6800 und der "alten" Radeon 9800XT entspannt sich jedoch ein hochinteressanter Zweikampf, bei welchem mal die eine und mal die andere Karte deutlich vorn liegt, generell jedoch kein eindeutiger Sieger auszumachen ist ...
News vom 3. August 2004.

@aths
auf dein Anliegen werde ich erst morgen eingehen. :)
Gibt ja noch andere Sachen als PC. ;)

Alles klar mal anschauen...

Quasar
2004-09-11, 22:39:48
Hm hast du ein Bench zu einem Spiel zur hand wo das der Fall ist xt vor NU?
Bei dem CB Artikel ist bei der Auflösung und AA meistens sogar die 6600gt vor der XT ....

Nein, dazu fehlen mir aktuelle 9800XT-Benchmarks auf meinem System, aber wenn's nicht schon in 1280 passiert, dann spätestens in 1600 - weil da bei nur 128MB VRAM allein ~120MB davon für Frame-, Z-, Multisample- und Front-/Back-Buffer inkl. Filter@Scanout verbraucht werden.

<20fps in DeltaForce BHD dürften allerdings nicht schwer für eine R9800XT zu übertreffen sein, ebenso das momentan unter Bugs leidende CoD mit um 30fps, jeweils bei 4xAA und maxAF.

edit:
Ja, xBit Labs haben da noch ein paar andere Beispiele. Es gibt auf jedenfall Situationen, wo die 256MB den Ausschlag geben - glücklicherweise haben die Russen auch eine R9800p mitgetestet.... ;)

Gast
2004-09-11, 22:41:40
[QUOTE=Gast]@ Quasar und DeadMeat:
Die x-bit Labs haben einen herausragenden Artikel online gebracht, welche alle derzeitigen Mainstream- und HighEnd-Grafikkarten von ATi und nVidia durch 35 verschiedene Benchmarks scheucht und dann je nach Preislage beurteilt. Im Feld der 300-Dollar-Grafikkarten bewerben sich mit GeForce 6800, Radeon 9800XT und GeForceFX 5950 Ultra gleich drei Kandidaten, wobei der letztere ziemlich deutlich hinten liegt. Zwischen der neuen GeForce 6800 und der "alten" Radeon 9800XT entspannt sich jedoch ein hochinteressanter Zweikampf, bei welchem mal die eine und mal die andere Karte deutlich vorn liegt, generell jedoch kein eindeutiger Sieger auszumachen ist ...
News vom 3. August 2004.

super nur hatte er die 9800pro auf ein level mit der 6800 stellen wollen :)

die 9800xt kann nen paar benchmarks gewinn0rn (dank der 256 RAm)

Ice =A=
2004-09-11, 23:08:22
Um mal direkter zur SHader-Thematik zurückzukommen, können wir uns vielleciht auf Folgendes einigen:

1.Wenn ein Entwickler heute ein Spiel entwickelt, und er das mit den aktuellsten Features (wie PS3.0) tun will, so MUSS er momentan die nVidia-Karten nehmen (selbst, wenn sie langsamer sein sollten). Es werden also zwangsläufig neue, shaderintensive Spiele eher auf nVida-Karten optimiert sein, auch was Shader 2.0 angeht (weil der Entwickler halt 'was von nVida im Rechner hat)...
So war das damals auch mit ATI und DirectX9.
Deshalb könnte nVida auch bei künftigen PS2.0-Spielen deutlich aufholen.

2. nVidia's 6800GT/Ultra ist bei aktuellen PS2.0-Spielen nicht dramatisch aber eindeutig langsamer als ATI's neue X800XT, aber immernoch schneller als alle Karten der letzten Generation.

3. Taktbereinigt ist der Unterschied praktisch nicht existent, was interessant ist, da nVida kein Low-K benutzt (was hoffen läßt, daß nVida's Chipdesign eigentlich ähnliche Taktraten wie das von ATI verkraftet, was für die Zukunft mehr erwarten läßt).

4. Würde man konsequent (!) PS3.0 unterstützen, könnten nVidias Karten auch bei den aktuell viel niedrigereen Taktraten ein klein wenig aufholen.

aths
2004-09-11, 23:24:47
4. Würde man konsequent (!) PS3.0 unterstützen, könnten nVidias Karten auch bei den aktuell viel niedrigereen Taktraten spürbar aufholen.So einfach ist das nicht. Viele Effekte, die man heute gerne einsetzen würde, würden mit PS 3.0 und VS 3.0 prinzipiell nicht oder nur wenig profitieren.

Ice =A=
2004-09-11, 23:28:49
@aths:
Hast recht, ich habe mir erlaubt das oben etwas zurückzunehmen... Man sollte nciht übertreiben! :smile:

Gast
2004-09-12, 00:13:45
X-D

arcon
2004-09-12, 06:02:17
kurze frage am rande in bezug auf die 128 vs 256 MB der grakas ... bringen 256 mb bei ner auflösung von 1280*1024 mit 4* AF / no AA lohnenswert mehr (Z.B bei Spielen wie Doom III, Stalker, HL2)?!
Gibt ja auch die geforce 6800 mit 256 MB bzw. die geforce 6800 GT mit 128 MB ... ?!

arcon
2004-09-12, 06:11:42
doppelposting....

robbitop
2004-09-12, 20:16:25
NVIDIA hat Transistoren in die Zukunft gesteckt.
Die Shader werden länger, HDR ist im Kommen und man ist ideal für Z-First Rendering ausgelegt.
Wenn man bedenkt dass die D3 Engine sich sicher schnell verbreitet, ist ein NV4x nicht schlecht.

Ergo: für Leute die den NV4x 2-3 Jahre behalten möchten, ist NV4x die verdammt richtige Wahl. Bei HDR, Z-First, static Branching, längeren Shadern, vielen Interpolatoren gehen R3xx/4xx sicher in dieser Zeit die Puste aus.
Und das sind alles keine SM3 Dinge. SM3 mag suboptimal sein beim NV4x, aber es funktioniert und es ist nur das i Tüpfelchen (wenn man mal FP Texturfilterung und die dedizierten Einheiten für HDR und den modularen Aufbau bedenkt).

Leute, die eh zur nächsten Generation aufrüsten, bringen die Features des NV4x sicher nicht direkt Vorteile.
Aber dann war der NV3x gar nicht so schlecht, da er hauptsächlich in Punkto Pixelshaderoutput mit FP Genauigkeit Defizite hatte. Davon gab es zu seiner Zeit nicht viele Spiele. Hätte man zu dem Zeitpunkt aber eine Grafikkarte haben wollen, die Jahre hällt, wäre R300 das Richtige gewesen.

Man muss also immer sehen, was man vorhat und kann erst dann bestimmen ob irgendetwas Sinn macht oder eben nicht ;)

Quasar
2004-09-12, 20:51:41
kurze frage am rande in bezug auf die 128 vs 256 MB der grakas ... bringen 256 mb bei ner auflösung von 1280*1024 mit 4* AF / no AA lohnenswert mehr (Z.B bei Spielen wie Doom III, Stalker, HL2)?!
Gibt ja auch die geforce 6800 mit 256 MB bzw. die geforce 6800 GT mit 128 MB ... ?!

Ohne AA kommt man mit 128MB IMO noch gut hin - zumindest Doom3 genügen die auch noch für HQ.

M@g
2004-09-12, 22:55:56
kurze frage am rande in bezug auf die 128 vs 256 MB der grakas ... bringen 256 mb bei ner auflösung von 1280*1024 mit 4* AF / no AA lohnenswert mehr (Z.B bei Spielen wie Doom III, Stalker, HL2)?!
Gibt ja auch die geforce 6800 mit 256 MB bzw. die geforce 6800 GT mit 128 MB ... ?!
Ich denke es wird in Zukunft immer mehr Spiele geben die bei MAX Details sehr viel Texture Ram brauchen werden, mehrere Schichten und eine irrwitzige Anzahl von Texturen und Effekten, das kann man nicht alles Komprimieren oder gar über AGP/PCI-E auslagern.
Mit ordentlich RAM unter der Haube darf man dann sich 2xAA gönnen ;)
(Natürlich muss der verwendete Chip das auch ausnützen können, ne GT mit nur 128MB halte ich für ne krücke, wirds nie geben, andererseits is ne X600 mit 256MB etwas oversized, aber verkauft sich dadurch besser bei den "nicht informierten Interessenten" viel RAM=viel Gut)

MikBach
2004-09-13, 07:42:41
:rolleyes: Bitte nicht immer so in groben Kategorien denken :nono: Mit CineFX lässt sich vieles effizienter rendern, als mit 2.0. Gleiches gilt für 3.0. Eine Karte, die mit 2.0 ausgereizt wäre, könnte, wenn der Effekt für 3.0 erstellt wurde, mit dem 3.0-Shader durchaus schneller sein. Das war übrigens eine wesentliche Motivation für SM 3.0: Rechenkraft gezielter einzusetzen.
2.B kann auch mehr als 2.0, und den R420 effizienter machen. Was du da oben beschrieben hast trifft auf 2.B wie auf 3.0 zu.

Man könnte auch DX7-Spiele programmieren, die jede aktuelle Highend-Karte in die Knie zwingen. Sollte man deshalb erst mal weiterhin in DX7 proggen, und auf Shader nicht verzichten, oder wie?

edit: Auf das Argument, in DX9 sähe es besser aus. Mit SM 3.0 ist es (ggü. Smartshader 2.1) ebenfalls möglich, dass die Grafik besser aussieht.
Die Situation ist bei 2.B und 3.0 gaaanz anders als der Unterschied zwischen DX7 und DX9. Zwischen 2.B und 3.0(wenn wir NV40 und R420 vergleichen) ist der Unterschied kaum vorhanden. Der r420 kann auch Shader mit einer Länge darstellen, dass wenn man solche Shader umfangreich in ein Spiel einbauen würde, NV40 und R420 mit unspielbaren Frameraten in 800x600 "glänzen" würden. Beide Chips können Material Shader darstellen, und das ist zur Zeit das aufwendigste, was es in Sachen Shader gibt/geben wird.

Klar kann man ein DX7 so programmieren, dass es die Highend-Karten in die Knie zwingt, ob das dann besser als DX9 ausshieht, zweifle ich jedoch stark an, da die Shader in heutigen Spielen hauptsächlich für die tolle(reale) Optik zuständig sind.

DrumDub
2004-09-13, 12:16:53
Zwischen 2.B und 3.0(wenn wir NV40 und R420 vergleichen) ist der Unterschied kaum vorhanden.

hättest du 2.A geschrieben und das "wenn" weglassen, würde der satz tatsächlich stimmen.

MikBach
2004-09-13, 12:37:57
hättest du 2.A geschrieben und das "wenn" weglassen, würde der satz tatsächlich stimmen.
Ja. Allerdings wollte ich auf etwas anderes hinaus. Von der technischen Seite gesehen hast du natürlich recht. Ich meinte dass so, dass es bei zukünftigen Spielen kaum einen Unterschied bei der Performance und der Optik geben sollte, ob man jetzt 2.B aufm R420 oder SM3.0 auf NV verwendet. Beide Modelle haben genug "Spielraum" um gute Resultate bei den zuküntigen Spielen zu liefern.
BTW Jetzt wird doch erstmal die HL2-,FarCry- und Doom3Engine "ausgeschlachtet". Wirklich neue Engines, die von SM3 gegeüber 2.B profitieren sollten erst in einigen Jahren kommen. Sehe ich zumindest so. Es könnte dann aber sein, dass es bei einigen Effekten mit FP24 eng wird.

betasilie
2004-09-13, 12:44:54
Ja. Allerdings wollte ich auf etwas anderes hinaus. Von der technischen Seite gesehen hast du natürlich recht. Ich meinte dass so, dass es bei zukünftigen Spielen kaum einen Unterschied bei der Performance und der Optik geben sollte, ob man jetzt 2.B aufm R420 oder SM3.0 auf NV verwendet. Beide Modelle haben genug "Spielraum" um gute Resultate bei den zuküntigen Spielen zu liefern.
BTW Jetzt wird doch erstmal die HL2-,FarCry- und Doom3Engine "ausgeschlachtet". Wirklich neue Engines, die von SM3 gegeüber 2.B profitieren sollten erst in einigen Jahren kommen. Sehe ich zumindest so. Es könnte dann aber sein, dass es bei einigen Effekten mit FP24 eng wird.
Sehen ich genau so, aber es wird mit Sicherheit ein paar Spiele geben, die von NV technologisch und finanziell gesponsert werden, die auch ein paar Handfeste Vorteile für SM3.0 Karten leifern werden. Die Frage ist was diese Spiele kommen und wieviele. STALKER ist für mich der erste Kandidat, der SM3.0 klar bevorteilen wird.

DrumDub
2004-09-13, 13:02:18
Ja. Allerdings wollte ich auf etwas anderes hinaus. Von der technischen Seite gesehen hast du natürlich recht. Ich meinte dass so, dass es bei zukünftigen Spielen kaum einen Unterschied bei der Performance und der Optik geben sollte, ob man jetzt 2.B aufm R420 oder SM3.0 auf NV verwendet. Beide Modelle haben genug "Spielraum" um gute Resultate bei den zuküntigen Spielen zu liefern.
BTW Jetzt wird doch erstmal die HL2-,FarCry- und Doom3Engine "ausgeschlachtet". Wirklich neue Engines, die von SM3 gegeüber 2.B profitieren sollten erst in einigen Jahren kommen. Sehe ich zumindest so. Es könnte dann aber sein, dass es bei einigen Effekten mit FP24 eng wird.

so gesehen haste schon recht. dann spielt aber 3.0 eigentlich gar keine rolle, das sich diese dinge auch alle mit 2.A realisieren lassen, da man mit 2.A immer mehr machen kann als mit 2.B anderes gesagt: es gibt nichts was man mit 2.B machen kann, was nicht auch 2.A kann.

tb
2004-09-13, 13:17:51
Nö, ATI hat bewusst auf SM3 verzichtet, da man erkannt hat, dass SM3 auf den Chips der jetzigen Generation nicht schnell genug laufen würde bzw. nichts für Spieler bringen würde.
Ausserdem hat man erkannt, dass so viele Transistoren nicht bei der heutigen Porduktiontechnik gut zu realisiern sind.
Kluger Schachzug. ;)

Naja, wenn man sich ansieht, was Pixel Shader Flow Control im 3_0er Shadermodell bringen kann, halte ich es schon für sinnvoll.

shader 20 (Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_3_0): 47 fps
shader 21 (Dual Layer 8x8 PCF Shadow Mapping with Flow Control - ps_3_0): 75 fps

Thomas

tb
2004-09-13, 13:29:29
Ack.
Welche praktischen Vorteile soll das bringen?
Bzw. wie viel BQ bringt das? Ist es sinnvoll?


Einfaches Beispiel zum Thema floating point Filterung - man kann damit z.B. Pixel Shader Operation einsparen und trotzdem das gleiche mathematische Resultat erziehlen:

shader 23 (High Dynamic Range Shader - high quality with fp filtering - ps_3_0): 119 fps
shader 24 (High Dynamic Range Shader - high quality without fp filtering - ps_3_0): 71 fps

Thomas

Ice =A=
2004-09-13, 13:39:13
Bei den Vergleichen zwischen PS2.0B und PS3.0 fehlt bisher ein ganz wesentlicher Gesichtspunkt:
2.0B mag rein technisch fast so schnell und gut sein wie 3.0, allerdings: Es existiert genaugenommen nicht!
Die Spezifikationen und Standards legt Microsoft fest, und da hat man eben 2,0B nicht festgelegt und es sieht auch nicht danach aus, als würde das jemals der Fall sein. Daher ist die Unterstützung von 2.0B eine seltene, von wenigen Spielen extra und aufwändig verwendete Variante; PS3.0 dagegen ist ein fester, einheitlicher, genau beschriebener und standartisierter und von allen großen Playern (selbst ATI) getragener Standard...

aths
2004-09-13, 13:50:00
Bei den Vergleichen zwischen PS2.0B und PS3.0 fehlt bisher ein ganz wesentlicher Gesichtspunkt:
2.0B mag rein technisch fast so schnell und gut sein wie 3.0, allerdings: Es existiert genaugenommen nicht! Version 2.X existiert, Profil 2_B ist ein Profil für eine bestimmte 2.X-Implementierung.

DrumDub
2004-09-13, 14:00:09
Bei den Vergleichen zwischen PS2.0B und PS3.0 fehlt bisher ein ganz wesentlicher Gesichtspunkt:
2.0B mag rein technisch fast so schnell und gut sein wie 3.0, allerdings: Es existiert genaugenommen nicht!
Die Spezifikationen und Standards legt Microsoft fest, und da hat man eben 2,0B nicht festgelegt und es sieht auch nicht danach aus, als würde das jemals der Fall sein. Daher ist die Unterstützung von 2.0B eine seltene, von wenigen Spielen extra und aufwändig verwendete Variante; PS3.0 dagegen ist ein fester, einheitlicher, genau beschriebener und standartisierter und von allen großen Playern (selbst ATI) getragener Standard...

das stimmt nicht. 2.b ist genauso ein compilerprofil (und damit ein standard) für hlsl, wie 2.0, 2.a und 3.0. nach deiner argumentation gibts nämlich auch keinen standard 2.a für die fxen.

There's a Shader Model 2 and a Shader Model 3 that are part of DirectX 9. There's also a 2.x kind of generic shader model which allows you to specify through caps bits, one by one, you can support a set of instructions that your particular hardware supports that are in between the 2.0 and 3.0 feature sets. Now the issue is that when you do this, you're going to have a different feature set, potentially, for every piece of hardware. So the 2.a and 2.b are basically shader profiles that you can use when you're compiling HLSL shader code, and those profiles will ensure that you're able to take full advantage of the hardware base that you're compiling for. So 2.b was designed to reflect the hardware capabilities, specifically, of the X800 series.
http://tech-report.com/etc/2004q2/nalasco/index.x?pg=3

natürlich legen sm 2.0 und sm 3.0 die features fest, die erfüllt werden müssen. alles andere was darüber hinausgeht ist aber deshalb nicht "kein standard", wie du behauptest. die reihenfolge nach features der einzelnen profile sieht ja ganz genau so aus: 2.0<2.b<2.a<3.0

edit: aths hats ja formal korrekt noch mal in einem kurzen satz zusammengefasst.

LovesuckZ
2004-09-13, 15:52:39
Zwischen 2.B und 3.0(wenn wir NV40 und R420 vergleichen) ist der Unterschied kaum vorhanden.

Dann müsste der R420 in der Lage sein, das 2.a Profil auszufuehren. Ist er aber nicht, da die Hardware über einige Eigenschaften (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2237212&postcount=42) nicht verfuegt.
Daher, wie kommst du auf diese Aussage?
Da du da bist, kannst du eventuell diese Frage noch beantworten:

Ich weiß, ich werde dafuer ein Punkt bekommen, da es keine sachliche Meinung ist, aber:
Dann muesste es ein leichtes fuer dich sein mir ein heutiges Spiel darzulegen, welches Branching in den Pixelshadern verwendet und auf dem NV40 langsam ist.

LovesuckZ
2004-09-13, 15:55:11
Einfaches Beispiel zum Thema floating point Filterung - man kann damit z.B. Pixel Shader Operation einsparen und trotzdem das gleiche mathematische Resultat erziehlen:
shader 23 (High Dynamic Range Shader - high quality with fp filtering - ps_3_0): 119 fps
shader 24 (High Dynamic Range Shader - high quality without fp filtering - ps_3_0): 71 fps


Gibt es eine Erklaerung, warum die Radeonkarte so schneller im Shader 24 sind (gleiches Ergebnis wie der NV40 mit FP Filtering)?

Gast
2004-09-13, 19:19:28
Ich denke es war ein Fehler Atis neue Generation mit 2.B mit einen Profil zu beehren, B größer A, also besser, so denken doch die Leute. Das A in diesem Zusammenhang mächtiger ist, versteht somit keiner, is ja gegen die Natur der Sache.
Hoffentlich gibts nicht noch ein SM3.0a oder sowas, wäre ein grauß diese Profil(neurose) nochmal eine ganze Generation durchzumachen.

MikBach
2004-09-14, 08:05:55
Naja, wenn man sich ansieht, was Pixel Shader Flow Control im 3_0er Shadermodell bringen kann, halte ich es schon für sinnvoll.

shader 20 (Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_3_0): 47 fps
shader 21 (Dual Layer 8x8 PCF Shadow Mapping with Flow Control - ps_3_0): 75 fps

Thomas
Bei Shadow Mapping hat Nvidia wegen Flow Control tatsächlich Vorteile beim Speed.

Einfaches Beispiel zum Thema floating point Filterung - man kann damit z.B. Pixel Shader Operation einsparen und trotzdem das gleiche mathematische Resultat erziehlen:

shader 23 (High Dynamic Range Shader - high quality with fp filtering - ps_3_0): 119 fps
shader 24 (High Dynamic Range Shader - high quality without fp filtering - ps_3_0): 71 fps

Thomas
Trotz fp filtering beim NV40 ist bei diesem Shader der R420 schneller. ;)

MikBach
2004-09-14, 08:12:32
Dann müsste der R420 in der Lage sein, das 2.a Profil auszufuehren. Ist er aber nicht, da die Hardware über einige Eigenschaften (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2237212&postcount=42) nicht verfuegt.
Daher, wie kommst du auf diese Aussage?
Ähm, wie kommst du denn jetzt da drauf? Und was hat das mit meiner Aussage zu tun? Wo habe ich behauptet, dass der R420 das 2.a-Profil beherrscht.

Da du da bist, kannst du eventuell diese Frage noch beantworten:

Ich weiß, ich werde dafuer ein Punkt bekommen, da es keine sachliche Meinung ist, aber:
Dann muesste es ein leichtes fuer dich sein mir ein heutiges Spiel darzulegen, welches Branching in den Pixelshadern verwendet und auf dem NV40 langsam ist.
Ich habe nie behauptet, das Branching auf dem NV40 langsam ist, sondern, dass es keine/kaum Vorteile beim NV40 bringt. Deswegen habe ich dich gebeten das Gegenteil zu beweisen.

PS lassen wir diese Spekulationen, ok?
Wenn ein Spiel kommt, welches durch das Branching deutlich an Leistung gewinnt hast du gewonnen, wenn nicht, dann ich. :)

MikBach
2004-09-14, 08:14:50
Ich denke es war ein Fehler Atis neue Generation mit 2.B mit einen Profil zu beehren, B größer A, also besser, so denken doch die Leute. Das A in diesem Zusammenhang mächtiger ist, versteht somit keiner, is ja gegen die Natur der Sache.
Hoffentlich gibts nicht noch ein SM3.0a oder sowas, wäre ein grauß diese Profil(neurose) nochmal eine ganze Generation durchzumachen.
2.a war ja schon besetzt. Und da a der erste Buchstabe im Alphabet ist hat man B genommen. Wie sollte man es sonst anders machen? a/halbe ;D

Gast
2004-09-14, 09:56:16
Bei Shadow Mapping hat Nvidia wegen Flow Control tatsächlich Vorteile beim Speed.

Trotz fp filtering beim NV40 ist bei diesem Shader der R420 schneller. ;)

Ist damit Ultra vs XTPE oder GT vs PRO gemeint?

robbitop
2004-09-14, 10:25:21
@Mikbach

welche Art von Branching meinst du?

Und wie genau verbessert FlowControll Offset Mapping/Shaddow Mapping/Virtual Displacement mapping? Gibt es Wissen hinter all diesen Behauptungen oder plapperst du nur nach?

sorry ;(

MikBach
2004-09-14, 10:26:15
Ist damit Ultra vs XTPE oder GT vs PRO gemeint?
Ultra vs XTPE.
Ultra: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2235040&postcount=1
XTPE: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2235040&postcount=1

MikBach
2004-09-14, 11:16:16
@Mikbach

welche Art von Branching meinst du?

Und wie genau verbessert FlowControll Offset Mapping/Shaddow Mapping/Virtual Displacement mapping? Gibt es Wissen hinter all diesen Behauptungen oder plapperst du nur nach?

:D
1. Dynamisches Branching im Pixelshader.
Siehe auch: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2049808&postcount=62

2. Durch die dynamische Flusskontrolle wird ineffizienter Code (so weit wie möglich)erkannt und in effizienteren Code umgewandelt(Shader). Das bringt Performancevorteile.

robbitop
2004-09-14, 11:28:00
1. dynamisches Branching wird im NV40 wie du schon sagtest kaum nutzbar sein, da es zu viele Takte braucht. Vor allem das statisches Branching ist jedoch im NV40 extrem schnell.

2. Eine mehr als vage Umschreibung. ..naja


Du siehst viele Sachen vermutlich so, weil du zum R5xx/NV5xx wieder aufrüsten wirst. Und dann wieder. (ist bei mir genauso ;)) Dann kommen deine Argumente auch einigermaßen hin.
Aber für jemanden der sich 2-3 Jahre keine neue Grafikkarte kauft (ist bei den meisten PC Besitzern so ...habe ich mal gehört ;)), sind die mächtigen Pixelshaderunits schon sehr sinnvoll. Denn wenn dieser Jemand in 2-3 Jahren damit die derzeitigen Spiele spielen will (5EUR ins Phrasenschwein), ist mit einem NV4x deutlich besser bedient als mit einem R3xx/4xx.
Schnelles HDR, lange Shader, First -Z Engines all dies kann NV4x besser. Davon merkt man z.Z aber noch nichts aber es kommt mit Sicherheit, wie Demirug desöfteren angedeutet hat.
Shader waren zu der Zeit des NV3x noch nicht so stark im Einsatz, dass es ein größeres Performanceproblem geworden wäre. Somit wäre für jemanden der sich nach dem NV3x einen NV4x kauft auch kein Problem da. R3xx im August 2002 hingegen läuft bis heute mit vielen (kurzen) aritmetischen Shadern noch immer mehr als gut. So ähnlich sehe ich auch den NV4x. Eine Architektur, die in der Zukunft auch noch zeigen kann, dass die Luft nicht ausgeht.
Ich hoffe, diese Analogie (die zugegebenermaßen sehr überspitzt ist) kann die Sichtweise von eineigen hier vermitteln.

MikBach
2004-09-14, 11:53:38
Du siehst viele Sachen vermutlich so, weil du zum R5xx/NV5xx wieder aufrüsten wirst. Und dann wieder. (ist bei mir genauso ;)) Dann kommen deine Argumente auch einigermaßen hin.
Ich rüste aber nicht wieder auf, sondern erst. ;) Die Generation NV4X/R4x0 will ich überspringen.
Meine 9800PRO reicht mir noch. FarCry kann ich gut spielen, Doom3 ebenso und wie es aussieht wird HL2 auch vernünftig auf dieser Karte laufen. Spiele auch nicht wirklich viel.
Da diese Engines "recycelt" werden, hoffe ich noch bis Mitte/Ende nächsten Jahres noch mit dem R350 auszukommen.

Aber für jemanden der sich 2-3 Jahre keine neue Grafikkarte kauft (ist bei den meisten PC Besitzern so ...habe ich mal gehört ;)), sind die mächtigen Pixelshaderunits schon sehr sinnvoll. Denn wenn dieser Jemand in 2-3 Jahren damit die derzeitigen Spiele spielen will (5EUR ins Phrasenschwein), ist mit einem NV4x deutlich besser bedient als mit einem R3xx/4xx.
Schnelles HDR, lange Shader, First -Z Engines all dies kann NV4x besser. Davon merkt man z.Z aber noch nichts aber es kommt mit Sicherheit, wie Demirug desöfteren angedeutet hat.
Shader waren zu der Zeit des NV3x noch nicht so stark im Einsatz, dass es ein größeres Performanceproblem geworden wäre. Somit wäre für jemanden der sich nach dem NV3x einen NV4x kauft auch kein Problem da. R3xx im August 2002 hingegen läuft bis heute mit vielen (kurzen) aritmetischen Shadern noch immer mehr als gut. So ähnlich sehe ich auch den NV4x. Eine Architektur, die in der Zukunft auch noch zeigen kann, dass die Luft nicht ausgeht.
Ich glaube nicht, dass sich jemand in bestimmten Zeitanständen eine neue Graka holt. Man holt sich eine Graka, wenn das "neue" Lieblingsspiel nicht mehr akzeptabel läuft(Perofmance, BQ oder Beides ;D )
Sonst hast du sicherlich Recht. Nur sehe ich den Unterschied in der Performance zwischen NV40 und R420 als nicht so gross in 2 Jahren an, als das zwischen NV35 und R350 der Fall ist.
Und die Aussagen, dass der NV35 mit R350 in der Performance vergleichbar wäre liegen auch noch nicht so weit zurück, nämlich ein knappes Jahr. Die Gegenwart beweist das gegenteil. ;)

robbitop
2004-09-14, 12:04:08
ich sagte ja: ich meine es überspitzt ;)

Egal ob nun 2-3 Jahre, oder bis das Spiel nicht mehr Läuft.
Das sind lange Zeiträume. Architekturbedingt wird NV4x dann sehr viel besser dastehen als R4xx es tun wird. Das ist der Preis den ATi für XBOX2/Nintendo6 zahlen muss. Momentan fällt es nicht auf, zu Unreal3 und vieleicht auch schon vorher wird es auffallen. Und dann denk mal an alle Games die First-Z Engines haben werden. Doom 3 ist eine id Engine und die verkaufen sich ganz gut. In 6-12 Monaten wird es so einige Games mit D3 Engine geben in denen ich architektonisch bedingt NV4x in front sehe.
NV4x ist bis zum NV50 nicht besser als eine SM2 ATi Karte, aber danach ganz sicher.

Und gerade wo du doch gern mal 1 oder 2 Generationen überspringst müsstest das doch sehen oder? :) [ich kann mich meist nicht so lang zusammenreissen aber mit dem Kauf eines NV4x versuche ich das].

SM3 ist nun nicht so ein extremer Vorteil per se. Zumindist was dynamische Sprünge und Verzweigungnen angeht, da gebe ich dir Recht. Aber CineFX (bis einschliesslich Version 3) kann so viel mehr und so viel mehr auch schneller als ATi's Smartshader, dass man von Argumenten bzgl Verbrauch eigentlich angewidert ist. Das sind nur ein paar W Differenz die man mit einer Karte für die Zukunft einkauft.

Ein verdoppelter NV25 (Geometrie, Pixelprozessoren und Speichercontroller) als NV30 hätte dem R300 die Hölle heiss gemacht und wäre zu dem deutlich inkomplexer (~90Mio Transistoren) und somit evl sparsamer als ein R300 gewesen. Aber für die Zukunft (=heute) wäre SM1.3 wirklich zu wenig gewesen. Beide IHVs haben es mit dem Schritt zu SM2 richtig gemacht. Denn kaum jemand kauft eine Grafikkarte für nur ein paar Monate ;)

seahawk
2004-09-14, 12:14:29
Exakt der NV40/45 hat heute die Vorteile, die zu seiner Zeit für den R300/350 sprachen.

SamLombardo
2004-09-14, 14:45:28
Ein verdoppelter NV25 (Geometrie, Pixelprozessoren und Speichercontroller) als NV30 hätte dem R300 die Hölle heiss gemacht und wäre zu dem deutlich inkomplexer (~90Mio Transistoren) und somit evl sparsamer als ein R300 gewesen. Aber für die Zukunft (=heute) wäre SM1.3 wirklich zu wenig gewesen.

Sehr guter Vergleich! Das trifft es meiner Meinung nach genau. Die Analogie zur heutigen Situation finde ich treffend.

betasilie
2004-09-14, 16:02:30
Exakt der NV40/45 hat heute die Vorteile, die zu seiner Zeit für den R300/350 sprachen.
Die Vorteile der R3xx Serie waren ein ordentlicher Geschwindigkeitsvorsprung gegenüber der FX Serie. Außerdem enorm gure AA-Modi, die bis heute ungeschlagen sind. Keinen dieser Vorteile bietet der NV40, daher frage ich mich was Du genau meinst.

LovesuckZ
2004-09-14, 16:37:15
Ähm, wie kommst du denn jetzt da drauf? Und was hat das mit meiner Aussage zu tun? Wo habe ich behauptet, dass der R420 das 2.a-Profil beherrscht.

Zwischen 2.B und 3.0(wenn wir NV40 und R420 vergleichen) ist der Unterschied kaum vorhanden

Wenn es kaum Unterschied gaebe, muesste der R420 in der Lage sein, das 2.a Profil auszufuehren.
Bitte zeige mir Dokumente, dass die Pixelshader des NV40 gegenuber dem 2.b Dingern vom R420 kaum mehr koennen.

Ich habe nie behauptet, das Branching auf dem NV40 langsam ist, sondern, dass es keine/kaum Vorteile beim NV40 bringt. Deswegen habe ich dich gebeten das Gegenteil zu beweisen.

Habe ich, mit dem Shadermark.
Du kamst dann mit diesem hier:

Spiele benchen, und staunen, dass SM3 beim NV40 nicht wirklich was bringt.

Nun bist du dran. Ich will ein Spiel sehen, was dynamisches Branching verwendet und auf dem NV40 langsam waere.

PS lassen wir diese Spekulationen, ok?
Wenn ein Spiel kommt, welches durch das Branching deutlich an Leistung gewinnt hast du gewonnen, wenn nicht, dann ich. :)

Nein, du belegst schoen deine Behauptungen, deswegen sind wir doch hier.
Spekulieren, koennen wir in einem anderen Teil des Forums. Hier muss man das gerede auch beweisen koennen.

Jesus
2004-09-14, 17:34:59
Nun bist du dran. Ich will ein Spiel sehen, was dynamisches Branching verwendet und auf dem NV40 langsam waere.


FarCry. Lt. Crytek hat das Dynamische Branching eher geschadet als genutzt, daher haben sies gleich komplett weggelassen (iirc).

LovesuckZ
2004-09-14, 18:13:10
FarCry. Lt. Crytek hat das Dynamische Branching eher geschadet als genutzt, daher haben sies gleich komplett weggelassen (iirc).

Meinst du das?
FiringSquad: Are you using dynamic branching for the lighting or static branching?

Cevat Yerli: We’re using static branching. We’re using static because [with dynamic] there were a few performance problems there so we decided to use static branching ultimately to utilize the best features of 3.0. I was telling people previously at the launch event that the 3.0 shader model itself is great and all that but you have to use it [dynamic branching] wisely because it’s a very powerful subset and you can very easily get into a situation where branching is great but it will slow down your technology, and since that’s the case we’re using static branching to still get the performance up with our technology
Firingsquad (http://www.firingsquad.com/print_article.asp?current_section=Features&fs_article_id=1506)

Dann bedeutet dies nur, dass dynamisches Branching nicht in jeder Situatzion angewendet werden kann/muss/soll/brauch auf dem NV40.
Das ist aber kein Argument dafuer, dass "das SM3 beim NV40 nicht wirklich was bringt", da statisches Branching ueber die GPU eben auch ein "SM3.0" Feature ist, wenn es denn unterstuetzt werde ;)

tb
2004-09-14, 19:24:29
:D
2. Durch die dynamische Flusskontrolle wird ineffizienter Code (so weit wie möglich)erkannt und in effizienteren Code umgewandelt(Shader). Das bringt Performancevorteile.

Bei dem Shadow Mapping Shader wird per dyn. Flusssteuerung unnötige Arbeit vermieden. Hier geht es im speziellen um die weiche Schattenkannte. Dort ist viel Arbeit nötig, welche im inneren des Schattens (da alles schwarz ist) nicht nötig ist. Deshalb variiren die FPS auch, wenn der Shader mit beweglicher Lichtquelle läuft.

Thomas

aths
2004-09-14, 21:37:34
FarCry. Lt. Crytek hat das Dynamische Branching eher geschadet als genutzt, daher haben sies gleich komplett weggelassen (iirc).Ein dynamischer Branch kostet mindestens 4 Takte. Das muss mindestens rausgeholt werden, ehe man Vorteile hat, ansonsten kann man auch Nachteile haben. In 4 Takten kann der NV40 (je nach Shader) durchaus 10 Instruktionen abarbeiten.