PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HL2 Performance R420 vs. NV40


Coda
2004-07-26, 22:33:03
Gibt es eigentlich irgend einen bestimmten Grund warum alle Annehmen das R420 in dem Spiel schneller sein sollte? (Im Gegensatz zu D3)

Die Shaderleistung von NV40 ist eigentlich doch höher...

Ich weiß, dass es noch andere Randbedingungen gibt, aber man kann es auch mit Gewalt auf einen Vendor hinbiegen.
Finde ich bissel zu politisch das Ganze, wenn es sich als Wahr herausstellen sollte.

x-dragon
2004-07-26, 22:42:26
Der einzige Grund der mir spontan einfällt ist das ATI schon länger mit Valve an HL2 arbeitet, ähnlich wie es Nvidia bei Doom3 gemacht hat. Welche Features das Game nun genau von den neueren Karten nutzt und welche wieviel Performance bringen muss man halt einfach mal abwarten.

Coda
2004-07-26, 23:03:09
Ich wüsste nicht welche speziellen Optimierungen auf ATi möglich sind.
HL2 verwendet AFAIK eh DX9, da gibt's eigentlich keine Vendorspezifischen Features und selbst bei OpenGL setzt ATi eigentlich komplett auf ARB.

Keel
2004-07-26, 23:14:02
Original geschrieben von Coda
Ich wüsste nicht welche speziellen Optimierungen auf ATi möglich sind.
Sofern man es denn als solche wirklich ansehen möchte, so könnte man die Implementierung von 3dc-Texturen als Optimierung auf ATI ansehen - das wird afaik ja auch so gemacht werden.

Coda
2004-07-26, 23:38:42
Ich bin mir nicht sicher, aber ich denke dass das bei D3 auch sehr schnell per Patch der Fall sein wird, wenn's nicht schon in der ausgelieferten Version drin ist.

Grestorn
2004-07-27, 07:36:24
Es steht zwar außer Zweifel, dass 3dc etwas Speed bringen kann, aber ich bin mir ziemlich sicher, dass der Vorteil durch 3dc alleine sich bestenfalls im einstelligem Prozenzbereich bewegen wird.

Der gewaltige Vorsprung, der immer wieder von GN zitiert wird, lässt sich alleine damit sicher nicht erklären. Wenn nicht extra eine NV40 Bremse eingebaut wird, was ich mir wirklich nicht vorstellen kann, erscheint mir das ganze doch als ziemlich offensichtliches Marketinggeblubber.

Das HL2 auf NV3x Karten nicht sonderlich zufriedenstellend laufen wird, dürfte aber wohl zu erwarten sein.

Demirug
2004-07-27, 07:51:38
Ja es gibt einen Grund:

Höhere Fillrate bei gleichzeitig geringerem Einsatz dieser pro Sample bei Default Treiber Einstellungen.

Wenn sich am Shading von HL2 nicht allzu viel geändert hat sind die meisten der eingesetzten Shader eher Fillrate den Rechenleistung limitiert.

Ailuros
2004-07-27, 08:09:13
Höhere Fillrate bei gleichzeitig geringerem Einsatz dieser pro Sample bei Default Treiber Einstellungen.

Sehr diplomatisch formuliert :D

Spass beiseite: andere Spiele sind davon genauso betroffen und ich warte auf Reviews die Doom3 unter diesem Aspekt fuer beide Seiten genauer unter die Lupe nehmen werden.

Wuerde iD bzw. Activision pre-release demos genehmigen, waeren wir heute schon um ein Stueck weiter.

Xbit-labs benutzt ja schon seit einiger ein paar HL2 demos in Reviews; ob diese nun wirklich Aussagekraeftig sein koennten fuer das finale Spiel steht wohl noch offen.

Frage: arbeitet Valve an einem SM2.0b bzw. SM3.0 path?

Demirug
2004-07-27, 08:19:33
Original geschrieben von Ailuros
Frage: arbeitet Valve an einem SM2.0b bzw. SM3.0 path?

Das ist eine gute Frage. Da sie ja 2.A schon haben wäre 2.B eine leichte Sache. Genauso könnte sie alles einfach als 3.0 compilieren. Wäre aber wohl nur ein Marketingsache.

Im Prinzip könnte man mit 3.0 statische Branchen einsetzten.

Ailuros
2004-07-27, 08:24:23
Hmmmm soll ich also annehmen dass HL2 keine so ausragenden Verstoesse gegen generelle "Optimierungs-Regeln" im code hat?

Denn Marketingsache deutet darauf hin, dass man gar keine oder fast keinen besonderen Leistungsschub mit anderen Paths theoretisch bekommen wuerde.

seahawk
2004-07-27, 08:27:47
HL2 soll einen SM3.0 Path bekommen. Nur sagt Valve nicht wann. :D

Demirug
2004-07-27, 09:13:03
Original geschrieben von Ailuros
Hmmmm soll ich also annehmen dass HL2 keine so ausragenden Verstoesse gegen generelle "Optimierungs-Regeln" im code hat?

Denn Marketingsache deutet darauf hin, dass man gar keine oder fast keinen besonderen Leistungsschub mit anderen Paths theoretisch bekommen wuerde.

Ohne finales Produkt kann man natürlich nicht auf Optimierungsverstösse prüfen. Allerdings hat Valve ja recht früh den Weg eingeschlagen das man jeden Pixel mit so wenigen Passes wie möglich rendern möchte.

Allerdings ist dabei wohl auch ein System herausgekommen das etwas komplizierter ist. Man braucht immer ein HLSL Script bzw Shader-Asm Files und eine C++ Klasse für die Steuerung. Es könnte allerdings sein das man für die C++ Klassen Wizards hat.

DanMan
2004-07-27, 12:03:47
Nun, ATi wird wohl schon dafür sorgen, dass der 3.0 "Pfad" so spät wie möglich dazu kommt, damit nV keinen Nutzen daraus ziehen kann.
Wenn man dann in Betracht zieht, dass ATI die höheren Taktraten hat werden ATI Karten zumindest anfangs wohl einen Tick schneller sein.

ow
2004-07-27, 12:09:19
Original geschrieben von DanMan
Nun, ATi wird wohl schon dafür sorgen, dass der 3.0 "Pfad" so spät wie möglich dazu kommt, damit nV keinen Nutzen daraus ziehen kann.
Wenn man dann in Betracht zieht, dass ATI die höheren Taktraten hat werden ATI Karten zumindest anfangs wohl einen Tick schneller sein.


Wenn man in Betracht zieht, dass bei NVidia die Leistung pro Takt hoeher ist kann das auch wieder anders aussehen.

reunion
2004-07-27, 12:12:46
Original geschrieben von DanMan
Nun, ATi wird wohl schon dafür sorgen, dass der 3.0 "Pfad" so spät wie möglich dazu kommt, damit nV keinen Nutzen daraus ziehen kann.


ACK, bevor ATi keinen SM3.0 fähigen Chip hat wird es sicherlich auch kein HL2 mit PS3.0 geben.

TheCounter
2004-07-27, 12:20:04
Also ich verwette meine Oma ( :freak: ) darauf das es einen PS2b Pfad geben wird.

Der PS30 Pfad soll ja irgendwann (2005, sprich R500?) per Patch nachgeliefert werden.

Demi, wenn es in HL2 solch einen PS2b Pfad geben würde, würde dein DXTweaker dann auch dort funktionieren? Wäre natürlich toll :)

LovesuckZ
2004-07-27, 12:35:39
Original geschrieben von reunion
ACK, bevor ATi keinen SM3.0 fähigen Chip hat wird es sicherlich auch kein HL2 mit PS3.0 geben.

PS3.0 brauch man auch nur, wenn man das ganze SM3.0 nennen moechte :)
Solange wie es einen richtigen PS2.a Pfad gibt, brauchen sich auch NV40 user nicht benachteiligt vorkommen.

Demirug
2004-07-27, 12:40:16
Original geschrieben von TheCounter
Also ich verwette meine Oma (:freak:) darauf das es einen PS2b Pfad geben wird.

Der PS30 Pfad soll ja irgendwann (2005, sprich R500?) per Patch nachgeliefert werden.

Demi, wenn es in HL2 solch einen PS2b Pfad geben würde, würde dein DXTweaker dann auch dort funktionieren? Wäre natürlich toll :)

Der Tweak ist auf Farcry abgestimmt so einfach geht das nicht. Zudem macht das bei HL2 sowieso keinen Sinn dort hat man doch schon einen optimierten SM2 Pfad.

Peavey
2004-07-27, 12:53:56
Wie sieht es dann mit Centroid Sampling bei Nvidia aus?
Die brauchen dafür doch SM3 (indirekt), oder?
Gibt es da schon Erfolgsmeldungen generell, also geht es sicher mit NV40 und wann und wo?

Demirug
2004-07-27, 12:54:43
Original geschrieben von LovesuckZ
PS3.0 brauch man auch nur, wenn man das ganze SM3.0 nennen moechte :)
Solange wie es einen richtigen PS2.a Pfad gibt, brauchen sich auch NV40 user nicht benachteiligt vorkommen.

Einem NV40 ist es egal ob nun 2.A oder 2.B er nimmt beides. Wobei 2.A natürlich dichter an die Möglichkeiten des NV40 rankommt. Aber auch hier müsste die zusätzlichen Features von 2.A gegenüber 2.B erst mal genutzt werden.

Wobei man sich IMHO von der überlegung trennen sollte das man jetzt unbedingt ein bestimmtes Shadermodel benutzten sollte. Wenn ein 2.0 Shader ausreicht und ein 2.A/2.B/3.0 Shader keinen Vorteil mehr bringt kann man sich das auch sparen. Hat man das ganze aber sowieso als HLSL Code kann man es auch entsprechend in das vom Chip bevorzugte Model compilieren. Die NV3X Chips sind da etwas blöd weil er mehr als ein bevorzugtes Model hat aber mit einem entsprechenden Algo der alle Modele durchprobiert geht das schon.

seahawk
2004-07-27, 12:55:41
Original geschrieben von ow
Wenn man in Betracht zieht, dass bei NVidia die Leistung pro Takt hoeher ist kann das auch wieder anders aussehen.

AFAIK sind auch die Shader von HL2 Füllraten limitiert, also ist die höhere Fillrate der XT800PE wahrscheinlich ausreichend um einen soliden Vorsprung vor der GeFroce 6800U zu haben.

Demirug
2004-07-27, 12:56:19
Original geschrieben von Peavey
Wie sieht es dann mit Centroid Sampling bei Nvidia aus?
Die brauchen dafür doch SM3 (indirekt), oder?
Gibt es da schon Erfolgsmeldungen generell, also geht es sicher mit NV40 und wann und wo?

Mit DX9.0c ist Centroid Sampling jetzt ab 2.0 als Option möglich bei 3.0 aber weiterhin Plicht. Ausprobiert hat es noch keiner aber ich würde mal davon ausgehen das es funktioniert.

Ailuros
2004-07-27, 12:57:15
Original geschrieben von reunion
ACK, bevor ATi keinen SM3.0 fähigen Chip hat wird es sicherlich auch kein HL2 mit PS3.0 geben.

Tja aber wie Demirug schon andeutete muss es sich nicht um eine Leistungs-Optimierung unbedingt handeln. Wenn der code so verkorkst wie in Far Cry waere, dann gibt es natuerlich eine absolute Notwendigkeit fuer einen SM2.0b und/oder SM3.0 Pfad. Hat aber eine shader-lastige Applikation einen sehr gut optimierten SM2.0 Pfad, sollten theoretisch die anderen beide ueberfluessig sein.

Reden wir aber theoretisch ueber einen SM3.0 Pfad der Bildqualitaet erhoehen wuerde, dann ist es natuerlich eine ganz andere Geschichte. Was so tolles erwarte ich in Faellen wo Spiele zuerst fuer SM2.0 ausgelegt wurden nun auch wieder nicht; und das gilt wohl fuer alle Spiele die in absehbarer Zeit veroeffentlicht werden. Wahre >SM2.0+ Spiele werden wohl noch einige Zeit auf sich warten lassen.

Ailuros
2004-07-27, 12:58:49
Original geschrieben von seahawk
AFAIK sind auch die Shader von HL2 Füllraten limitiert, also ist die höhere Fillrate der XT800PE wahrscheinlich ausreichend um einen soliden Vorsprung vor der GeFroce 6800U zu haben.

*hust* Fuell-rate zu Bandbreiten-Effizienz.

q@e
2004-07-27, 13:00:59
Original geschrieben von Demirug
Mit DX9.0c ist Centroid Sampling jetzt ab 2.0 als Option möglich bei 3.0 aber weiterhin Plicht. Ausprobiert hat es noch keiner aber ich würde mal davon ausgehen das es funktioniert.

Ich gehe davon aus, daß es funktioniert, alldieweil nV eine OpenGL-Extension gleichen Namens gebastelt hat.

ow
2004-07-27, 13:01:03
Original geschrieben von seahawk
AFAIK sind auch die Shader von HL2 Füllraten limitiert, also ist die höhere Fillrate der XT800PE wahrscheinlich ausreichend um einen soliden Vorsprung vor der GeFroce 6800U zu haben.

Die Fuellrate der X800 ist aber nicht zwangsweise hoeher als die einer 6800. Weil eben die 6800 Shader schneller berechnen kann als die X800.

Peavey
2004-07-27, 13:02:18
Original geschrieben von Demirug
Mit DX9.0c ist Centroid Sampling jetzt ab 2.0 als Option möglich bei 3.0 aber weiterhin Plicht. Ausprobiert hat es noch keiner aber ich würde mal davon ausgehen das es funktioniert.

Danke dir!!!

Dann wird es wohl auf einen recht gut optimierten 2.0-Pfad hinauslaufen, ohne große Benachteiligungen.

tombman
2004-07-27, 13:11:07
Original geschrieben von ow
Die Fuellrate der X800 ist aber nicht zwangsweise hoeher als die einer 6800. Weil eben die 6800 Shader schneller berechnen kann als die X800.

hmm, des schreit wohl nach einem umfangreichen shaderspeed-Vergleichstest meinerseits. shadermark, rightmark und noch ein paar andere sachen sollten reichen um des zu klären :naughty:

Corrail
2004-07-27, 13:37:59
Original geschrieben von q@e
Ich gehe davon aus, daß es funktioniert, alldieweil nV eine OpenGL-Extension gleichen Namens gebastelt hat.

Wie heißt diese Extension? *nichtgefundenhab*

q@e
2004-07-27, 13:44:55
GL_nV_Centroid_Sample

Wird zumindest auf einer 6800 mit FW61.34 und 61.76 entblößt.

seahawk
2004-07-27, 13:45:25
Original geschrieben von tombman
hmm, des schreit wohl nach einem umfangreichen shaderspeed-Vergleichstest meinerseits. shadermark, rightmark und noch ein paar andere sachen sollten reichen um des zu klären :naughty:

Bitte nicht. Darauf hat hier niemand gewartet.

Corrail
2004-07-27, 13:51:05
Original geschrieben von q@e
GL_nV_Centroid_Sample

Wird zumindest auf einer 6800 mit FW61.34 und 61.76 entblößt.

Oh, ist anscheinend noch nicht gelistet... Danke dir.

aths
2004-07-27, 17:26:25
Original geschrieben von Ailuros
*hust* Fuell-rate zu Bandbreiten-Effizienz. Genau. Gerade wenn etwas füllratenlimitiert ist, sind X800 und 6800 auch bandbreitenlimiert, die Frage ist, wer aus der Speicherbandbreite mehr macht.

][immy
2004-07-27, 18:26:00
Original geschrieben von aths
Genau. Gerade wenn etwas füllratenlimitiert ist, sind X800 und 6800 auch bandbreitenlimiert, die Frage ist, wer aus der Speicherbandbreite mehr macht.

nun, rein vom gefühl her, würde ich auf die ati-karte setzen

das liegt daran das ich letzte tage ein paar benchmarks mit radeon 9600xt und geforce 5700 ultra gemacht habe.. sind zwar die älteren generationen aber trotzdem ^^

trotzdem die 9600 xt nur 300 MHz speichertakt und die geforce 5700 ultra satte 475 mhz (beide GPUs mit 500 MHz takt) liegt diese in UT2003 bei 1024 mit 4xAA nur 3 fps zurück (link (http://www.worldofff.com/index.php?pfad=hardware/mroundup2004&head=no&inhalt=spiele2.woff) review is aber noch nich offiziel verfügbar da noch fehler enthalten sein könnten ^^)
das ist meiner meinung nach ein deutliches zeichen dafür, das die geforce karte mehr bandbreite benötigt um das gleiche darzustellen als die radeon. und ich denke mal, das sich an der situation nicht sehr viel geändert hat
...

aber abgesehen davon frage ich mich, warum die geforce karte ohne AA nicht so stark cpu limitiert ist wie die radeon....

q@e
2004-07-27, 19:15:49
Original geschrieben von ][immy
nun, rein vom gefühl her, würde ich auf die ati-karte setzen
das liegt daran das ich letzte tage ein paar benchmarks mit radeon 9600xt und geforce 5700 ultra gemacht habe.. sind zwar die älteren generationen aber trotzdem ^^


Das hat sich kürzliche ziemlich geändert. ;) Solange das VRAM nicht ausgeht, ist nV da mehr als nur Konkurrenzfähig.

"Dummerweise" (für nV ;) ) wird AA-Performance meist nur in Verbindung mit AF (hier kommen dann oft unterschiedliche Optimierungseinstellungen in den Treibern zum Zuge) und in sehr hohen Auflösungen gezeigt - dort geht nV dann eben früher als ATi das VRAM wegen F@S aus.

][immy
2004-07-27, 19:43:29
Original geschrieben von q@e
Das hat sich kürzliche ziemlich geändert. ;) Solange das VRAM nicht ausgeht, ist nV da mehr als nur Konkurrenzfähig.

"Dummerweise" (für nV ;) ) wird AA-Performance meist nur in Verbindung mit AF (hier kommen dann oft unterschiedliche Optimierungseinstellungen in den Treibern zum Zuge) und in sehr hohen Auflösungen gezeigt - dort geht nV dann eben früher als ATi das VRAM wegen F@S aus.

nun.. um ehrlich zu sein teste ich AF in reviews schon nicht mehr. AF ist schon zu stark bei beiden chips optimiert um dieses bewerten zu können. fest steht es geht und fest steht bei beiden steigt die bildquali. aber wie will man die bildquali gegenüber der geschwindigkeit bewerten?.. ähnliches Problem gibt es zwar auch bei AA aber da wird ja glücklicherweise noch nicht so viel optimiert wie beim AF
übrigends sind die verlinkten tests ohne AF gemacht worden ;) (und inzwischen sind auch die meisten tippfehler korrigiert :D )


generell, um zum thema zurück zu kommen, ich aber mal das bei HL2 die ATi karten einen vorsprung gegenüber nvidia haben werden. einerseits liegt das wohl an den millionen die geflossen sind, andererseits weil ich nicht glaube, das die Shader 3.0 direkt integriert sein werden. höchstens später mit einem patch nachgeliefert

deekey777
2004-07-27, 23:19:59
Original geschrieben von reunion
ACK, bevor ATi keinen SM3.0 fähigen Chip hat wird es sicherlich auch kein HL2 mit PS3.0 geben.

Oder auch später; dieser SM 3.0 Patch wird aber auch "richtige" SM 3.0 HW voraussetzen, die heutigen SM 3.0 Chips etwas überlegen sein werden.


Original geschrieben von Ailuros
Tja aber wie Demirug schon andeutete muss es sich nicht um eine Leistungs-Optimierung unbedingt handeln. Wenn der code so verkorkst wie in Far Cry waere, dann gibt es natuerlich eine absolute Notwendigkeit fuer einen SM2.0b und/oder SM3.0 Pfad. Hat aber eine shader-lastige Applikation einen sehr gut optimierten SM2.0 Pfad, sollten theoretisch die anderen beide ueberfluessig sein.



Die HL2 Community (=eigentlich alle, die sich auf HL2 freuen) erwarten eine vergleichbare Performance, wie sie Max Payne 2 letztes Jahr geliefert hat. Leute, die die exklusiv CS: Source beta gespielt haben, sollen richtig begeistert gewesen sein, was geboten wurde und dazu noch schnell.
Die CS: Source Betatester werden ab 10. August dies entweder bestätigen oder widerlegen (kein NDA oder ähnliches). Auch am 31. Juli wird auf einer Messe (oder so) spielbares Material (HL2+CS: Source) zum Anfassen sein.

Original geschrieben von Ailuros Reden wir aber theoretisch ueber einen SM3.0 Pfad der Bildqualitaet erhoehen wuerde, dann ist es natuerlich eine ganz andere Geschichte.

Ich glaub, dass wurde von VALVe in einer Email (Antwort auf die Frage, ob HL2 auch [irgendwann] SM 3.0 nutzen wird) auch angedeutet, dass das Spiel visuell und von der Technologie her immer up todate sein wird.

Ailuros
2004-07-28, 00:58:09
Ich glaub, dass wurde von VALVe in einer Email (Antwort auf die Frage, ob HL2 auch [irgendwann] SM 3.0 nutzen wird) auch angedeutet, dass das Spiel visuell und von der Technologie her immer up todate sein wird.

Ein Nachtrag ist eben immer nur ein Nachtrag. Hier besteht stets die Frage ob es sich wirklich um nennenswerte Unterschiede handelt oder ob jeglicher Effekt auch mit SM2.0 oder SM2.0+ moeglich gewesen waere.

Oder auch später; dieser SM 3.0 Patch wird aber auch "richtige" SM 3.0 HW voraussetzen, die heutigen SM 3.0 Chips etwas überlegen sein werden.

Sooooo anspruchsvoll ist HL2 nun auch wieder nicht; es wird zwar mit shadern herumgeschmissen wie verrueckt aber ich lass irgendwo dass der laengste Shader momentan nicht die ~45 Instruktionen uebertrifft.

Richtige SM3.0 HW so wie Du sie wohl meinst, wuerde auch wirklich ein richtiges SM3.0 Spiel vorraussetzen und ich hab ernsthafte Zweifel dass HL2 so was je behaupten kann.

Ein paar Effekte hier und da machen nicht den Unterschied.

Ailuros
2004-07-28, 01:02:49
Original geschrieben von ][immy
nun, rein vom gefühl her, würde ich auf die ati-karte setzen

das liegt daran das ich letzte tage ein paar benchmarks mit radeon 9600xt und geforce 5700 ultra gemacht habe.. sind zwar die älteren generationen aber trotzdem ^^

trotzdem die 9600 xt nur 300 MHz speichertakt und die geforce 5700 ultra satte 475 mhz (beide GPUs mit 500 MHz takt) liegt diese in UT2003 bei 1024 mit 4xAA nur 3 fps zurück (link (http://www.worldofff.com/index.php?pfad=hardware/mroundup2004&head=no&inhalt=spiele2.woff) review is aber noch nich offiziel verfügbar da noch fehler enthalten sein könnten ^^)
das ist meiner meinung nach ein deutliches zeichen dafür, das die geforce karte mehr bandbreite benötigt um das gleiche darzustellen als die radeon. und ich denke mal, das sich an der situation nicht sehr viel geändert hat
...

aber abgesehen davon frage ich mich, warum die geforce karte ohne AA nicht so stark cpu limitiert ist wie die radeon....

Nur besteht der fundamentale Unterschied darin, dass sich der Takt-fuer-Takt Vorsprung um 180 Grad gedreht hat. Bei R3xx/NV3x war dieser bei ATI und momentan bei R4xx/NV4x ist genau anders rum.

Es gibt genug Reviews die sich vergleichsmaessig mit der Fuellraten zu Bandbreiten-Effizienz zwischen NV4x/R4xx beschaeftigt haben und man kann diese sehr leicht nachschlagen.

Gast
2004-07-28, 07:49:13
Original geschrieben von ow
Die Fuellrate der X800 ist aber nicht zwangsweise hoeher als die einer 6800. Weil eben die 6800 Shader schneller berechnen kann als die X800.

jaklar

:)

Das belegen auch die ganzen Benchmakrs der letzten 3 Monate mit Farcry.

Ich schiess mich gleich wech vor lachen

seahawk
2004-07-28, 07:54:43
Ich denke auch, dass der Unterschied eher gering ausfallen wird. Trotzdem sehe ich die ATI-Karten vorne. Für jedes andere Ergebnis haben sich Valve und ATI längst zu weit aus dem Fenster gelegt.

Gast
2004-07-28, 08:08:01
Original geschrieben von seahawk
Ich denke auch, dass der Unterschied eher gering ausfallen wird. Trotzdem sehe ich die ATI-Karten vorne. Für jedes andere Ergebnis haben sich Valve und ATI längst zu weit aus dem Fenster gelegt.

Stimmt!

Was mich im Bezug auf doom3 nur wundert ist, das niemand anderes dieses Tool (Timedemo) hat.

Nvidia schickt gerade an alle Kunden das angesprochene PDF (Starteseite) und sonnt sich aufgrund nur einen reviews ????? Sehr merkwürzig*g*

Jesus
2004-07-28, 15:11:43
Original geschrieben von Gast
Stimmt!

Was mich im Bezug auf doom3 nur wundert ist, das niemand anderes dieses Tool (Timedemo) hat.

Nvidia schickt gerade an alle Kunden das angesprochene PDF (Starteseite) und sonnt sich aufgrund nur einen reviews ????? Sehr merkwürzig*g*

ich denke was nv im moment macht ist reine PR . Es begann mit der 6800UEE die kurz darauf zurückgezogen bzw nie offiziell erscheinen wird, ging weiter mit dem FC 1.2 patch bevor es offizelle released wurde ( SM3.0 performanceschub nv only ) und jetzt doom3 wieder ein super benchmark für nv mit toller nv performance, ohne irgendeinen bezug zur realität.

Ich denke wenn d3 offiziell draussen ist ( und ATI einen neuen Treiber hat ) wird sich wieder ein ähnliches bild einstellen wie mit dem offiziellen FC patch 1.2.

Demirug
2004-07-28, 15:31:22
Original geschrieben von Jesus
ich denke was nv im moment macht ist reine PR . Es begann mit der 6800UEE die kurz darauf zurückgezogen bzw nie offiziell erscheinen wird, ging weiter mit dem FC 1.2 patch bevor es offizelle released wurde ( SM3.0 performanceschub nv only ) und jetzt doom3 wieder ein super benchmark für nv mit toller nv performance, ohne irgendeinen bezug zur realität.

Ich denke wenn d3 offiziell draussen ist ( und ATI einen neuen Treiber hat ) wird sich wieder ein ähnliches bild einstellen wie mit dem offiziellen FC patch 1.2.

Das glaube ich eher nicht. Bei Farcry wurde dem R420 ja ursprünglich ein weniger aufwendiges Renderverfahren vorenthalten.

Bei D3 nutzen sowohl der NV40 wie auch der R420 die gleichen Vorgehensweise. Vo dieser Seite hat also keiner einen Vorteil.

Der R420 hat bei D3 eher mit systembedingten Schwächen zu kämpfen. Hir-Z funktioniert nicht mehr immer. Stencil-Culls sind ROP-Operationen. Bei D3 kommt es nicht nur darauf an schnell zu rendern es spielt such eine grosse Rolle wie schnell man Pixel verwerfen kann.

Ailuros
2004-07-28, 15:32:16
Konspirations-Theorien-Orgie :D

...ging weiter mit dem FC 1.2 patch bevor es offizelle released wurde ( SM3.0 performanceschub nv only )...

Cry Tek hat wohl den SM2.0b path fuer den 1.2 patch ueber Nacht entwickelt und er bringt ueberhaupt keinen Leistungsgewinn auf R420 oder?


...und jetzt doom3 wieder ein super benchmark für nv mit toller nv performance, ohne irgendeinen bezug zur realität.

Der Benchmark wurde von den Entwicklern ausgefuehrt ohne dass die Vertreter der IHVs ihre Haende an das demo ueberhaupt bekommen konnten; nur Treiber wurden geliefert.

Welche Realitaet ueberhaupt? Dass R420 einen gesunden Vorsprung mit stenciling gegenueber der Konkurrenz hat, der sich aber nicht an einer einzigen Stelle zeigen laesst?

Ich denke wenn d3 offiziell draussen ist ( und ATI einen neuen Treiber hat ) wird sich wieder ein ähnliches bild einstellen wie mit dem offiziellen FC patch 1.2.

Ich warte auf die "magischen" Treiber die stencil-Leistung auf Radeons erhoehen soll seit der Veroeffentlichung des uralten Alpha demos.

Was jetzt D3 mit FC gemeinsam haben koennte ist jedermans Raetsel; das erste kalkuliert lighting mit dem ARB2 path stets in einem Takt, wobei man fuer FC fuer single pass entweder den SM2b or SM3.0 path braucht, genau eben weil Cry Tek zu bloed war das Spiel von Anfang an richtig zu optimieren.

Natuerlich nuetzt jeder IHV seine Vorspruenge oder positiven Seiten voll aus wenn es zu PR/marketing kommt, aber wer genau sagte je dass ATI oder irgend ein anderer IHV es nicht genauso macht momentan oder machen wuerde?

Ginge es nicht um das laecherliche Wettrennen von beiden Seiten die bloede Leistungskrone zu gewinnen, wuerden wir keine ueberteuerte Grafik-Monster sehen, keine endlosen Optimierungen was Filterung betrifft oder weiss der Geier was noch. Hier benutzen beide Konkurrenten was immer auch moeglich ist um existierende Marktanteile zu behalten wenn nicht noch mehr dazuzugewinnen im optimalen Fall; nur "business as usual".

Grafikkarten-fans aehneln des oefteren politischen Fanatikern. Nur das dumme Volk bricht den Kopf seines "Gegners" sinnlos ein, waehrend die Politiker sich doch oefters zum Kaffeklatsch treffen und sich im geheimen ueber das bloede Volk kaputtlachen. Etwas extrem illustriert, aber es liegt schon wahres daran ;)

Ailuros
2004-07-28, 15:36:15
Bei D3 kommt es nicht nur darauf an schnell zu rendern es spielt such eine grosse Rolle wie schnell man Pixel verwerfen kann.

Dumme Frage wahrscheinlich: aber waere es moeglich die Pixel- von der Stencil-Fuellrate total zu entkoppeln?

Demirug
2004-07-28, 15:40:05
Original geschrieben von Ailuros
Dumme Frage wahrscheinlich: aber waere es moeglich die Pixel- von der Stencil-Fuellrate total zu entkoppeln?

Das wird schwer da es ja in der Pipeline bestimmte stellen gibt an denen sich die Daten aus den einzelen Buffern überschneiden müssen.

Wir können aber ansonsten gerne über D3 und Serie5 Chips reden. ;)

Demirug
2004-07-28, 15:41:41
Original geschrieben von Ailuros
Cry Tek hat wohl den SM2.0b path fuer den 1.2 patch ueber Nacht entwickelt und er bringt ueberhaupt keinen Leistungsgewinn auf R420 oder?

Das mit über Nacht könnte durchaus stimmen. *scnr*

deekey777
2004-07-28, 15:42:43
Jesus, der richtige Nick für dich wäre wohl Fox Mulder.
Schon ATi's Shader Days vergessen?

Ailuros
2004-07-28, 15:49:12
Nein (zum zweiten Vorschlag) :D

Irrelevant war mein Gedanke jetzt gerade nicht um ehrlich zu sein; early Z Optimierungen werden ja oefters im englischen als "application driven deferred rendering" beschrieben, was wohl nicht gerade falsch ist wenn man bedenkt dass der Renderungsprozess tatsaechlich durch den ersten Z-only-pass verzoegert wird.

Es gibt guten Grund warum early Z mit stencil OPs benutzt wird; ich hab jetzt nur ein Stueckchen weitergedacht; anstatt sich staendig um Pixel-Verwerfungs-Raten oder die Schwaechen von gewissen Methoden wie HierZ mit stenciling den Kopf zu zerbrechen, waere der Versuch beide Fuellraten zu entkoppeln wohl keine schlechte Idee gewesen, wenn dieses ueberhaupt moeglich gewesen waere.

Wenigstens hab ich mal wieder was dazugelernt.

Ailuros
2004-07-28, 15:50:37
Original geschrieben von Demirug
Das mit über Nacht könnte durchaus stimmen. *scnr*

Das war gemein. :D

Demirug
2004-07-28, 16:41:15
Original geschrieben von Ailuros
Nein (zum zweiten Vorschlag) :D

Irrelevant war mein Gedanke jetzt gerade nicht um ehrlich zu sein; early Z Optimierungen werden ja oefters im englischen als "application driven deferred rendering" beschrieben, was wohl nicht gerade falsch ist wenn man bedenkt dass der Renderungsprozess tatsaechlich durch den ersten Z-only-pass verzoegert wird.

Es gibt guten Grund warum early Z mit stencil OPs benutzt wird; ich hab jetzt nur ein Stueckchen weitergedacht; anstatt sich staendig um Pixel-Verwerfungs-Raten oder die Schwaechen von gewissen Methoden wie HierZ mit stenciling den Kopf zu zerbrechen, waere der Versuch beide Fuellraten zu entkoppeln wohl keine schlechte Idee gewesen, wenn dieses ueberhaupt moeglich gewesen waere.

Wenigstens hab ich mal wieder was dazugelernt.

So falsch gedacht ist das gar nicht.

Early-Z entkoppelt ja die Z-Fillrate in dem Fall wen Pixel verworfen werden von der durch die Pipelines eigentlich erreichbaren Füllrate. Das gleiche kann man nun im Prinzip auch mit den Stenciltest machen. Diesen vor die Pixelpipelines legen und wenn das resultat des Tests nichts ändern ergibt brauchen die entsprechenden Pixel gar nicht erst in die Pixelpipeline. Da man für den vorgezogenen Z-Test sowieso schon im Rasterisirer grössere Tiles pro Takt erzeugen muss kann man auf diese Tiles auch den Stenciltest anwenden. Der NV40 macht genau dies. Soll heisen das er Pixel die im Schatten liegen genau so schnell verwerfen kann wie Pixel die verdeckt sind.

Jesus
2004-07-28, 16:53:00
Original geschrieben von Ailuros
Konspirations-Theorien-Orgie :D

Cry Tek hat wohl den SM2.0b path fuer den 1.2 patch ueber Nacht entwickelt und er bringt ueberhaupt keinen Leistungsgewinn auf R420 oder?


das meine ich doch garnicht ;) mag durchaus sein dass der sm2.0b pfad schon vorher drin war. Was ich meine ist wieso hat man ihn nicht gleich getestet anstatt die superleistung der nv40 mit sm3.0 2 wochen vor release des patches in den vordergrund zu stellen, das war garantiert nv gesteuert, und genau dasselbe passiert jetzt mit d3 wieder imo.

LovesuckZ
2004-07-28, 20:33:12
Original geschrieben von Jesus
Was ich meine ist wieso hat man ihn nicht gleich getestet anstatt die superleistung der nv40 mit sm3.0 2 wochen vor release des patches in den vordergrund zu stellen, das war garantiert nv gesteuert, und genau dasselbe passiert jetzt mit d3 wieder imo.

Hm, warum hat Crytek nicht von Anfang an einen optimierten SM2.a Pfad eingebaut, den haetten dann sogar R420 karten ausfuehren koennen (eigentlich muessen, da PS2.b hoeher als PS2.a ist)?
"das war garantiert [ati] gesteuert", weil der NV40 dann deutlich schneller gewesen waere als mit den unoptimierten.

Demirug
2004-07-28, 20:39:56
Original geschrieben von LovesuckZ
Hm, warum hat Crytek nicht von Anfang an einen optimierten SM2.a Pfad eingebaut, den haetten dann sogar R420 karten ausfuehren koennen (eigentlich muessen, da PS2.b hoeher als PS2.a ist)?
"das war garantiert [ati] gesteuert", weil der NV40 dann deutlich schneller gewesen waere als mit den unoptimierten.

2.B kann weniger als 2.A aber das spielt hier keine Rolle. Den entsprechenden HLSL Shader hätte man als 2.B und 2.A kompilieren können.

deekey777
2004-07-28, 22:28:28
Original geschrieben von LovesuckZ
...
"das war garantiert [ati] gesteuert", weil der NV40 dann deutlich schneller gewesen waere als mit den unoptimierten.

ATi ist bestimmt daran schuld, dass es keinen optimierten SM 2.0 Path für ihre R3x0/RV3x0 Grafikkarten gibt, von dem eigentlich alle DX9 Grafikkarten profitiert hätten: Zum Beispiel hat ATi die Crytek GmbH dazu genötigt, dass ja nicht zuviel in einem Pass gemacht wird.

LovesuckZ
2004-07-28, 22:34:42
Original geschrieben von deekey777
ATi ist bestimmt daran schuld, dass es keinen optimierten SM 2.0 Path für ihre R3x0/RV3x0 Grafikkarten gibt, von dem eigentlich alle DX9 Grafikkarten profitiert hätten: Zum Beispiel hat ATi die Crytek GmbH dazu genötigt, dass ja nicht zuviel in einem Pass gemacht wird.

Bitte richtig lesen. Sollte machbar sein, ansonsten unterlasse es mich, mich zu zitieren!

deekey777
2004-07-28, 23:03:33
Original geschrieben von LovesuckZ
Bitte richtig lesen. Sollte machbar sein, ansonsten unterlasse es mich, mich zu zitieren!

Was soll ich im zitierten Satz richtiger lesen?

Die eckigen Klammern und die Anführungszeichen verstecken/entschärfen den Inhalt dieses Satzes nicht! Wenn du keine Absicht hast/hattest, irgendetwas einer Firma (hier: ATi) zu unterstellen, dann hättest du auch locker auf diesen Satz verzichten können.

LovesuckZ
2004-07-28, 23:11:01
Original geschrieben von deekey777
Was soll ich im zitierten Satz richtiger lesen?


Dass ich auf das, was Jesus sagt, eingehe?
Er unterstellt doch Nvidia, dass es keinen PS2.b Pfad im Preview des Patches durch sie gaebe.
Somit darf ich ATi unterstellen, dass sie einen optimierten PS2.a Pfad in der retailversion unterbunden haben.
Und ja, ich traue es ATi zu, dass sie einen optmierten PS2.0 Pfad nicht wollten, wuerde ja bei zukuenftigen GPU's keinen Vorteil mehr sein, wenn er optmiert waere.

Jesus
2004-07-28, 23:15:25
Original geschrieben von LovesuckZ
Dass ich auf das, was Jesus sagt, eingehe?
Er unterstellt doch Nvidia, dass es keinen PS2.b Pfad im Preview des Patches durch sie gaebe.
Somit darf ich ATi unterstellen, dass sie einen optimierten PS2.a Pfad in der retailversion unterbunden haben.
Und ja, ich traue es ATi zu, dass sie einen optmierten PS2.0 Pfad nicht wollten, wuerde ja bei zukuenftigen GPU's keinen Vorteil mehr sein, wenn er optmiert waere.

auf meinen satz eingehen nennst du das ? das nennt man einem das wort im halse umdrehen, ohne auch nur in geringster weise zu dem was ich geschrieben habe stellung zu nehmen, das kannst du besonders gut ;)

sorry aber das FC NV´s grosses eisen im feuer war hast du wohl vergessen oder ? ( nv40 präsentation,geiles bump mapping , SM3.0, NV logo auf der verpackung ;) etc. )

LovesuckZ
2004-07-28, 23:21:41
Mein letzter Posting in diesem offtopic und bald bepunkteten Bereich:

Original geschrieben von Jesus
auf meinen satz eingehen nennst du das ? das nennt man einem das wort im halse umdrehen, ohne auch nur in geringster weise zu dem was ich geschrieben habe stellung zu nehmen, das kannst du besonders gut ;)


Du unterstellst Nvidia, dass sie es nicht wollten, dass der PS2.b getestet wurde.
Ich unterstelle ATi, dass sie einen optimierten PS2.a. ja auch einen optimierten PS2.0, unterbunden haben, weil der Zugewinn durch den PS2.b Pfad dann negiert waere.
Du siehst, auch mit einen indirekten Argument kann ich deine These widerlegen.
Easy, nicht?

Jesus
2004-07-28, 23:29:02
aso. dann hat ATI wohl auch Crytek dazu gedrängt das Patch 1.1 rauszubringen mit dem die performance NUR für FX Karten stark anstieg ? um was zu tun ... ;) ?

und ATI wusste monate vor dem Release des R420 dass es besser ist das FC langsam läuft auf R300 Karten ( btw der performance gewinn durch demi´s proggy beträgt ca. 0-5% auf r300 ) damit es dann später auf ihren neuen Karten umso schneller läuft ?

naja wenn du meinst ;)


/Edit:
nochwas, wozu bringt ein Spielehersteller einen Benchmark eines Spiels / Patches Wochen vor dem eigentlich releasten Spiel / Patch raus, indem jeweils die Überlegenheit einer ganz bestimmten Grafikkarte hervorgehoben wird ?

Ailuros
2004-07-29, 06:36:00
Liegt alles im ueblichen Marketing-gewarkel dass ich in einem vorigen Post erwaehnte.

Leistung wird ja nur stellenweise besser und das gilt genauso fuer den Sm2.0b oder SM3.0 path.

Far Cry hat einen ziemlich unoptimierten SM2.0 path von Grund auf; selbst wenn es nicht um Marketing direkt gehen wuerde, sollte es verstaendlich sein dass jeder IHV fuer einen patch druecken wuerde, weil genau das Spiel eben so einigen Optimierungen bedarf.

Cry Tek hat IMO sowieso nicht lang genug weder an dem einen oder anderen path gearbeitet; der 1.2 patch ist noch viel zu viel verbuggt, deshalb wurde er auch zurueckgezogen.

Alles in allem (und um auf das Thema zurueckzukommen) erwarte ich solche Fehler oder bis zu diesem Grad weder von Doom3 noch von HL2. Ergo sehe ich weniger Chancen fuer sehenswerte Leistungs-verbesserungen in beiden a la FC.

Falls es helfen sollte je mehr CPU limitiert ein System ist, desto hoeher waechst die Leistung mit den neuen Paths in Far Cry.