PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DOOM III am schnellsten auf ATi R420?


nagus
2004-06-06, 12:25:09
http://www.beyond3d.com/forum/viewtopic.php?t=12293

sehr interessant zu lesen.
... interessant finde ichs auch, dass es bis heute keine geleakten benchmarks von doom3 mit r420 und nv40 gibt. vielleicht will nvidia da noch was "optimieren" ;)

Winter[Raven]
2004-06-06, 12:29:47
Kompletter BS, der Posting von dem Guten bei B3D hat weder eine Hand noch Fuss!

Wenn schon eine NV3x schneller war als die besten R3xx wird es sich beim R420vsNV40 nicht anders sein.

LovesuckZ
2004-06-06, 12:34:32
/edit: Sry, verlesen...
Ohne AA (ATi: 16 zu 32 z/stencil operations) ist die Nvidiakarte schneller, mit AA (32 (16?) zu 32 (16?) z/stencil operations) ATi, weil sie dank hoeherem Coretakt einen Vorteil haben, genauso wie bei NV3x gegen r3xx.

deekey777
2004-06-06, 12:50:19
Original geschrieben von Winter[Raven]
...

Wenn schon eine NV3x schneller war als die besten R3xx wird es sich beim R420vsNV40 nicht anders sein.

Kann es sein, dass du schneller tippen kannst als nachdenken?

Quasar
2004-06-06, 12:56:52
Original geschrieben von nagus
http://www.beyond3d.com/forum/viewtopic.php?t=12293

sehr interessant zu lesen.
... interessant finde ichs auch, dass es bis heute keine geleakten benchmarks von doom3 mit r420 und nv40 gibt. vielleicht will nvidia da was noch was "optimieren" ;)

Wieso meinst du, daß Doom3 bisher am schnellsten auf dem R420 laufen wird?

edit:
Ähm.... der Thread auf B3D ist seit drei Wochen tot.... ;)

Winter[Raven]
2004-06-06, 13:16:57
Original geschrieben von deekey777
Kann es sein, dass du schneller tippen kannst als nachdenken?

Nö? Wieso? Also auf meinem ASUS F5900 Ultra Karton sind paar Benches wo eine NV35 ~10 FPS schneller ist als ne R9800Pro, die aber auf der Höhe einer NV30 liegt .

Mit AF könnte der R420 schneller sein aufgrunf von 120 mhz mehr Takt und der Fillrate, ob sie es wird bleibt abzuwarten.

Exxtreme
2004-06-06, 13:21:13
Original geschrieben von Winter[Raven]
Nö? Wieso? Also auf meinem ASUS F5900 Ultra Karton sind paar Benches wo eine NV35 ~10 FPS schneller ist als ne R9800Pro, die aber auf der Höhe einer NV30 liegt .

R3x0 != R420
Wenn AA aktiv ist, dann schafft der R420 bis zu 32 Zixel pro Takt. Und der R420 hat einen höheren Takt als der NV40.

deekey777
2004-06-06, 13:29:40
Original geschrieben von Winter[Raven]
Nö? Wieso? Also auf meinem ASUS F5900 Ultra Karton sind paar Benches wo eine NV35 ~10 FPS schneller ist als ne R9800Pro, die aber auf der Höhe einer NV30 liegt .

Mit AF könnte der R420 schneller sein aufgrunf von 120 mhz mehr Takt und der Fillrate, ob sie es wird bleibt abzuwarten.

Und jetzt gibst du einen Link für einen Vergleichstest einer NV35 vs. R350 an, wo steht, dass eine NV35 in Doom 3 unter ARB2-Pfad schneller ist als eine R350 - das wäre echt nett.

Zum Release bzw. Launch der NV35 aka 5900 Ultra wurden auch Benchmarks mit Doom 3 (0.02) mit Hilfe von nVidia durchgeführt - die 5900 Ultra lag (oft deutlich) vor, auch die 5800 Ultra konnte sehr gut mithalten, wegen des sehr schnellen DDRII-Speichers, da Doom 3 auch von einem hohen Speichertakt profitieren soll. Die 9800 Pro lag abgeschlagen hinter der Konkurrenz - besonders, wenn mit cat. 3.4 getestet wurde.
Warum lag aber die NV35 vor der R350? Weil die Tests auf der NV35 unter NV30-Pfad liefen, da es angeblich - wegen eines Treiberbugs - nicht möglich war unter ARB2 zu testen.
Einfach so zu sagen, dass Doom 3 auf einer nVidia Grafikkarte schneller als auf einer Radeon läuft oder auch umgekehrt, ist etwas zu spekulativ, da es bis jetzt keinen einzigen neutralen/objektiven Test gab. Da kann ich auch sagen, dass HL2 auf der R420 schneller als auf einer NV40 laufen wird, da schon eine 9600 Pro schneller in HL2(ATi's Shader Days) als eine 5900 Ultra war.

nagus
2004-06-06, 13:47:43
soweit ich das erinnere wars damals ziemlich knapp zwischen nv30 und r300... bei HighQuality settings und 4xAA+8xAF war r300 schneller.

aths
2004-06-06, 14:28:01
Original geschrieben von nagus
soweit ich das erinnere wars damals ziemlich knapp zwischen nv30 und r300... bei HighQuality settings und 4xAA+8xAF war r300 schneller. Bei dem AF kein Wunder.

aths
2004-06-06, 14:28:45
Original geschrieben von Exxtreme
R3x0 != R420
Wenn AA aktiv ist, dann schafft der R420 bis zu 32 Zixel pro Takt. Und der R420 hat einen höheren Takt als der NV40. Und er kann pro Takt bis zu 64 Quads cullen (NV40: Bis zu 16 Quads.)

Der NV40 kann aber die 32 Subzixel unter AA-Bedingungen ebenfalls bringen. Geht es um ROPs während des normalen Renderns, hat NV40 nur 16, während R420 bei aktiviertem AA 32 hat.

deekey777
2004-06-06, 14:53:26
Original geschrieben von nagus
soweit ich das erinnere wars damals ziemlich knapp zwischen nv30 und r300... bei HighQuality settings und 4xAA+8xAF war r300 schneller.

Je nach Auflösung&HQ war die 9800 Pro schneller als die 5900 Ultra, bei dem4xAA/4xAA&AF8x war die 5900 Ultra immer vorne.

Ailuros
2004-06-06, 15:26:56
Synthetische Applikationen die stencil Leistung messen zeigen bis jetzt keinen Trend der darauf deuten koennte.

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=18

Falls es jetzt noch Moeglichkeiten gibt durch die Treiber MSAA+stencil Leistung zu verbessern, muessen wir wohl erst noch abwarten.

Bei R3xx/NV3x waren die ersten in diesen mit gleicher Taktrate entweder leicht schneller als NV3x oder auf Gleichstand (je nach Situation). Dieser Trend hat sich aber nicht anscheinend bei R420/NV40 wiederholt, da der letztere mit um einiges niedrigere Taktrate sich bis jetzt zweifellos schneller zeigt und das mit oder ohne MSAA.

Axel
2004-06-06, 15:37:15
Original geschrieben von aths
Bei dem AF kein Wunder.

Beim R300 gibt es doch nur die Winkelabhängigkeit des AF zu bemängeln, oder habe ich was verpasst?

-error-
2004-06-06, 15:46:03
Original geschrieben von Axel
Beim R300 gibt es doch nur die Winkelabhängigkeit des AF zu bemängeln, oder habe ich was verpasst?

Glaub schon, bei Nvidia ist das jetzt auch der Fall.

Ailuros
2004-06-06, 15:57:08
Original geschrieben von Axel
Beim R300 gibt es doch nur die Winkelabhängigkeit des AF zu bemängeln, oder habe ich was verpasst?

Texturing stage Optimierungen. Man kann sie natuerlich abschalten.

Wie dem auch sei war R300 in den vorzeitigen alpha demos nicht schneller als NV30 (es gab ja auch den 325 vs 500MHz Unterschied).

Quasar
2004-06-06, 16:36:54
Ich habe den FableMark auch mit AA (und AF, was aber kaum was ausmacht) durch: NV40U ist auch in 1600x1200x32 mit 4xAA und max.AF rund 20% schneller als R420 XT PE.

edit:
BTW, nagus, willst du nicht antworten, oder kannst du nicht antworten?

Ailuros
2004-06-06, 16:44:45
Original geschrieben von Quasar
Ich habe den FableMark auch mit AA (und AF, was aber kaum was ausmacht) durch: NV40U ist auch in 1600x1200x32 mit 4xAA und max.AF rund 20% schneller als R420 XT PE.

edit:
BTW, nagus, willst du nicht antworten, oder kannst du nicht antworten?

Ehrlich gesagt bin ich selber durch die ATI whitepapers fuer R420 reingefallen und dachte hoeherer Takt=hoehere Leistung (wenn man dem 32Z mit MSAA fuer beide nachgeht).

Wie gesagt es kann sein dass irgendetwas mit den Treibern nicht stimmt, aber momentan sieht es nicht nach einem Vorsprung fuer ATI in dieser Abteilung aus.

del_4901
2004-06-06, 17:01:33
Da frag ich mich mal, womit die das gebenched haben? Carmack hat bestimmt nicht sein liebstes Stück so einfach den Dudes zum benchen überlassen. Und das eine auf R3x0 optimierte Alpha auf einem R420 schneller läuft (die Architektur ist dem R3x0 sehr ähnlich) als auf einem NV40, den die Engine noch NIE zu fressen gekriegt hat, und wo sie schon gar nicht optimiert ist. Das ist ja selbst bei meinem NV35 so, das ich den Emulationsmodus reinhauen muss, weil Carmack damals noch keine Karte zur Hand hatte, sondern nur NVEmulate.
AlphaTests sind ansich schon der absolute Schwachsinn.

Ah ich seh schon vergleiche zu 3dmark game2 gezogen, das kann man ja auch nehmen, weil's fast wie Doom3 aussieht, lol. Oh mann die Leute kommen auf Ideen.

seahawk
2004-06-06, 17:11:02
Original geschrieben von Winter[Raven]
Nö? Wieso? Also auf meinem ASUS F5900 Ultra Karton sind paar Benches wo eine NV35 ~10 FPS schneller ist als ne R9800Pro, die aber auf der Höhe einer NV30 liegt .

Mit AF könnte der R420 schneller sein aufgrunf von 120 mhz mehr Takt und der Fillrate, ob sie es wird bleibt abzuwarten.

Da jetzt wohl beide den ARB2 Pfad nutzen und da die ATI Karten immer dominiert haben, würde ich keine vorschnellen Vermutungen treffen.

Ailuros
2004-06-06, 17:13:42
Nirgends werden Doom3 Leistungsraten von R420 angegeben; es handelt sich nur um basislose Spekulationen in diesem und im B3D Thread.

Ah ich seh schon vergleiche zu 3dmark game2 gezogen, das kann man ja auch nehmen, weil's fast wie Doom3 aussieht, lol. Oh mann die Leute kommen auf Ideen.

Ja und FableMark. Beide synthetische Tests benutzen eine hohe Anzahl von stencil OPs, wobei der letztere das Schattierungsmodell von D3 zu emulieren versucht und ist rein Fuell-raten limitiert.

Ausschlaggebend fuer Doom3 muessen im absoluten Sinn die Resultate nicht sein, aber von den Anzeichen aus diesen kann man ueberhaupt keinen Vorsprung fuer R420 mit stencil ops oder stencil + MSAA sehen, eher das Gegenteil.

Wenn eine Architektur in zwei anderen Faellen mit dynamischen Schatten nicht so gut fertig wird wie die Konkurrenz, dann wird es mit hoechster Wahrscheinlichkeit auch nicht in Doom3 um vieles anders aussehen, da dieses ja mit stenciling vollgestopft ist.

Demirug
2004-06-06, 17:14:33
Original geschrieben von seahawk
Da jetzt wohl beide den ARB2 Pfad nutzen und da die ATI Karten immer dominiert haben, würde ich keine vorschnellen Vermutungen treffen.

Laut JC ist der ARB2 Pfad auf einer FX ínzwischen genau so schnell wie der alte NV3X Pfad. Deswegen hat er den NV3X Pfad auch entfernt.

seahawk
2004-06-06, 17:17:39
Ich glaube JC in solchen Sachen ungefähr soviel wie Gabe N., wenn er über die Vorzüge von ATI Karten spricht.

Ailuros
2004-06-06, 17:23:08
Original geschrieben von seahawk
Ich glaube JC in solchen Sachen ungefähr soviel wie Gabe N., wenn er über die Vorzüge von ATI Karten spricht.

Tja glauben wuerde ich es schon in dem Fall. Der feine Text darunter koennte aber trotzdem bedeuten, dass wenn man ARB2 sagt, dass es nicht unbedingt FP32 fuer alle Situationen bedeuten muss und das muss auch nicht unbedingt die Angelegenheit des Spiels sein.

del_4901
2004-06-06, 17:24:09
Original geschrieben von Ailuros
Nirgends werden Doom3 Leistungsraten von R420 angegeben; es handelt sich nur um basislose Spekulationen in diesem und im B3D Thread.



Ja und FableMark. Beide synthetische Tests benutzen eine hohe Anzahl von stencil OPs, wobei der letztere das Schattierungsmodell von D3 zu emulieren versucht und ist rein Fuell-raten limitiert.

Ausschlaggebend fuer Doom3 muessen im absoluten Sinn die Resultate nicht sein, aber von den Anzeichen aus diesen kann man ueberhaupt keinen Vorsprung fuer R420 mit stencil ops oder stencil + MSAA sehen, eher das Gegenteil.

Wenn eine Architektur in zwei anderen Faellen mit dynamischen Schatten nicht so gut fertig wird wie die Konkurrenz, dann wird es mit hoechster Wahrscheinlichkeit auch nicht in Doom3 um vieles anders aussehen, da dieses ja mit stenciling vollgestopft ist.

Verwenden denn auch beide UltraShadow? ich glaube nicht, deswegen hinkt der Vergleich auch. Domm3 nutzt es, ich kann also von der Rohleistung nicht auf die echte Leistung schließen, weil die Ati, "vielleicht" die hälfte ihrer stencil fillrate sinnlos verpufftern.

(del676)
2004-06-06, 17:35:34
hat jemand ne 6800u?
hat jemand ne x800?
hat jemand DOOM3?

aber weiterhin viel spass beim grossen "meine Kristallkugel sagt genauer vorraus Spiel"

Ailuros
2004-06-06, 17:36:04
Ultra Shadow ist eine Hardware spezifische Optimierung fuer stencil Leistung und in dem Fall sieht man davon Unterschiede in allen Applikationen mit stencil ops und NICHT nur Doom3.

NV40 ROPs:

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=11

Theoretische Stencil Leistung NV40:

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=22


R420 ROPs:

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=9

Theoretische Stencil Leistung R420:

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=18

Resultate kann man vergleichen da sie auf dem gleichen System ausgefuehrt wurden.

deekey777
2004-06-06, 18:55:50
Original geschrieben von Ulukay
hat jemand ne 6800u?
hat jemand ne x800?
hat jemand DOOM3?

aber weiterhin viel spass beim grossen "meine Kristallkugel sagt genauer vorraus Spiel"

Darum ist es auch ein Spekulationsforum...

Gast
2004-06-06, 22:56:09
Original geschrieben von Ailuros
Ultra Shadow ist eine Hardware spezifische Optimierung fuer stencil Leistung und in dem Fall sieht man davon Unterschiede in allen Applikationen mit stencil ops und NICHT nur Doom3.

NV40 ROPs:

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=11

Theoretische Stencil Leistung NV40:

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=22


R420 ROPs:

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=9

Theoretische Stencil Leistung R420:

http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=18

Resultate kann man vergleichen da sie auf dem gleichen System ausgefuehrt wurden.

Hat jemand diese Benches auch mit aktiviertem AA mal gemacht ? Es wird ja noch darüber gerätselt/gestritten ob der NV40 da wirklich 32 Z/Ops bei AA-Nutzung kann...

Demirug
2004-06-06, 23:09:00
Original geschrieben von Gast
Hat jemand diese Benches auch mit aktiviertem AA mal gemacht ? Es wird ja noch darüber gerätselt/gestritten ob der NV40 da wirklich 32 Z/Ops bei AA-Nutzung kann...

Er kann immer 32 Z/Stencil-Ops pro Takt unabhänig vom verwendeten AA. Aber hierbei bitte nicht vergessen das man bei aktiviertem AA natürlich mehr Z/Stencil-Ops Pro Pixel braucht.

Also bei 2xAA braucht man auch 2 Z/Stencil Ops pro Pixel und bei 4xAA entsprechend 4 Ops pro Pixel.

del_4901
2004-06-07, 00:18:42
Original geschrieben von Ailuros
Ultra Shadow ist eine Hardware spezifische Optimierung fuer stencil Leistung und in dem Fall sieht man davon Unterschiede in allen Applikationen mit stencil ops und NICHT nur Doom3.


Da hab ich anderes gelesen, laut dem was ich gelesen hab muss der Programmierer (ganz einfach ausgedrückt) 2 Grenzen(Ebenen) für jedes Licht festlegen. Über diese Grenzen hinaus wird kein Schattenwurf berrechnet. Naja lass mich gern eines besseren belehren, was sagt denn Demi dazu?

Ailuros
2004-06-07, 00:41:54
Original geschrieben von Demirug
Er kann immer 32 Z/Stencil-Ops pro Takt unabhänig vom verwendeten AA. Aber hierbei bitte nicht vergessen das man bei aktiviertem AA natürlich mehr Z/Stencil-Ops Pro Pixel braucht.

Also bei 2xAA braucht man auch 2 Z/Stencil Ops pro Pixel und bei 4xAA entsprechend 4 Ops pro Pixel.

Wenn die Bandbreite nicht limitiert kommt anscheinend 2xAA in relativem Sinn "for free" auf NV40:

http://www.beyond3d.com/forum/viewtopic.php?t=13063

aths
2004-06-07, 15:32:28
Original geschrieben von Axel
Beim R300 gibt es doch nur die Winkelabhängigkeit des AF zu bemängeln, oder habe ich was verpasst? ATI hat weitaus mehr Tricks auf Lager, die zu Lasten der BQ gehen.

aths
2004-06-07, 15:35:57
Original geschrieben von Ailuros
Wenn die Bandbreite nicht limitiert kommt anscheinend 2xAA in relativem Sinn "for free" auf NV40:Das dürfte beim R300/R360/R420 nicht anders sein.

Axel
2004-06-07, 17:23:11
Original geschrieben von aths
ATI hat weitaus mehr Tricks auf Lager, die zu Lasten der BQ gehen.

...die sich allerdings beim R300 abschalten lassen. Somit ist und bleibt die Winkelabhängigkeit der einzigste Kritikpunkt beim R300.

DrumDub
2004-06-07, 17:26:33
Original geschrieben von Axel
...die sich allerdings beim R300 abschalten lassen. Somit ist und bleibt die Winkelabhängigkeit der einzigste Kritikpunkt beim R300.

nein. auch wenns imho akademischer natur ist: http://www.3dcenter.org/artikel/2003/11-21_a.php

Corrail
2004-06-07, 18:04:11
Original geschrieben von AlphaTier
Da hab ich anderes gelesen, laut dem was ich gelesen hab muss der Programmierer (ganz einfach ausgedrückt) 2 Grenzen(Ebenen) für jedes Licht festlegen. Über diese Grenzen hinaus wird kein Schattenwurf berrechnet. Naja lass mich gern eines besseren belehren, was sagt denn Demi dazu?

Also in OpenGL muss man UltraShadow durch eine Extension (GL_NV_depth_clamp) aktiviert werden. Wie es in DX ausschaut weiß ich nicht.
Aber laut der OpenGL Extensions muss man keine Grenzen angeben, siehe http://oss.sgi.com/projects/ogl-sample/registry/NV/depth_clamp.txt

aths
2004-06-07, 18:27:58
Original geschrieben von Axel
...die sich allerdings beim R300 abschalten lassen. Somit ist und bleibt die Winkelabhängigkeit der einzigste Kritikpunkt beim R300. Wer nichts anderes kennt, mag damit leben können :schleich:

Original geschrieben von DrumDub
nein. auch wenns imho akademischer natur ist: http://www.3dcenter.org/artikel/2003/11-21_a.php Naja. Sofern man sich in Bereichen bewegt, die Spiele üblicherweise nutzen, reicht die Präzision der Radeon. Geht es um allgemeine Verwendbarkeit, halte ich Radeon-Texturfilterung für ungenügend.

Axel
2004-06-07, 19:51:29
Original geschrieben von DrumDub
nein. auch wenns imho akademischer natur ist: http://www.3dcenter.org/artikel/2003/11-21_a.php

Original geschrieben von aths
Wer nichts anderes kennt, mag damit leben können :schleich:

Naja. Sofern man sich in Bereichen bewegt, die Spiele üblicherweise nutzen, reicht die Präzision der Radeon. Geht es um allgemeine Verwendbarkeit, halte ich Radeon-Texturfilterung für ungenügend.

Verstehe ich das jetzt richtig, daß der R300 trotz Aktivierung aller Qualitätsoptionen im rtool (oder atuner) nicht das qualitativ mögliche AF bietet (unabhängig von der Winkelabhängigkeit)?

Quasar
2004-06-07, 19:58:04
aths genügt bsw. die 5Bit LOD-Fraction nicht, die nur 32 Zwischenstufen beim Ein- und Ausblenden von Mip-Leveln erlaubt. Im Gegensatz dazu bietet bsw. die GeForce3 hier 8Bit, mit denen 256 Abstufungen möglich sind.

Dazu werden Texture nur mit FP24-Genauigkeit adressiert, so daß bei wirklich großen Texturen Probleme auftreten können.

Dazu eben Winkelabhängigkeit und bei RV350/360 und R420/ (423?) auch noch weitere Reduzierung des trilinearen Filters, sowie des LOD beim AF.

aths
2004-06-07, 22:43:43
Original geschrieben von Axel
Verstehe ich das jetzt richtig, daß der R300 trotz Aktivierung aller Qualitätsoptionen im rtool (oder atuner) nicht das qualitativ mögliche AF bietet (unabhängig von der Winkelabhängigkeit)? Das auf R300 maximal mögliche AF ist mir nicht gut genug, wenn man auch das auf einer GeForce FX maximal mögliche AF haben kann.

Ich halte es für hinrissig, 8x AF vs. 8x AF zu benchen, wenn Radeon gegen GF FX antritt.


Original geschrieben von Quasar
aths genügt bsw. die 5Bit LOD-Fraction nicht, die nur 32 Zwischenstufen beim Ein- und Ausblenden von Mip-Leveln erlaubt. Ausgerechnet das halte ich für praktisch ausreichend. Sagen wir so, schlimmer finde ich die Artefakte bei bilinearer Filterung, den ungenauen LOD-Übergang und die gelegentliche Neigung zum Texturaliasing.

Gast
2004-06-08, 11:28:01
Original geschrieben von aths
Ausgerechnet das halte ich für praktisch ausreichend. Sagen wir so, schlimmer finde ich die Artefakte bei bilinearer Filterung, den ungenauen LOD-Übergang und die gelegentliche Neigung zum Texturaliasing.


Dafür kann mans auch bei Farcry aktivieren, ohne dass es gleich ne Diashow wird :freak:

DrumDub
2004-06-08, 12:21:28
Original geschrieben von aths
Naja. Sofern man sich in Bereichen bewegt, die Spiele üblicherweise nutzen, reicht die Präzision der Radeon. Geht es um allgemeine Verwendbarkeit, halte ich Radeon-Texturfilterung für ungenügend.

daher auch mein imho, was sich auf meine spielernatur bezog. andererseits ist gerade dieser artikel für mich als laie gut verständlich und hat mich auch in dieser hinsicht überzeugt, dass es da probleme mit dem af gibt, was ich dann sogar in spielen bei sehr genauem hinsehen an wenigen stellen sehen konnte -> texturflimmern.

aths
2004-06-08, 13:27:34
Original geschrieben von Gast
Dafür kann mans auch bei Farcry aktivieren, ohne dass es gleich ne Diashow wird :freak: Toll.

Von einem BQ-Feature erwarte ich BQ-Verbesserung, keine Gefahr zusätzlicher Nachteile.


Original geschrieben von DrumDub
daher auch mein imho, was sich auf meine spielernatur bezog. andererseits ist gerade dieser artikel für mich als laie gut verständlich und hat mich auch in dieser hinsicht überzeugt, dass es da probleme mit dem af gibt, was ich dann sogar in spielen bei sehr genauem hinsehen an wenigen stellen sehen konnte -> texturflimmern. Gerade bei HW, die einige 100 € kostet, sollte man auch genauer hinsehen dürfen. Für die nachgerüsteten AF-Verschlechterungen beim R420 fehlt mir jedes Verständnis.

Beim R300 könnte man noch sagen: Gut, die Karte ist nicht mehr taufrisch, und hat viel geleistet.

Gast
2004-06-08, 13:33:04
Original geschrieben von aths

Gerade bei HW, die einige 100 € kostet, sollte man auch genauer hinsehen dürfen. Für die nachgerüsteten AF-Verschlechterungen beim R420 fehlt mir jedes Verständnis.



Keiner der auf Bildqualitaet Wert legt duerfte dafuer Verstaendnis aufbringen.

Ailuros
2004-06-08, 18:18:48
Original geschrieben von Gast
Keiner der auf Bildqualitaet Wert legt duerfte dafuer Verstaendnis aufbringen.

Zustimm. R3xx war gerade noch am etwas gezwungenen Rand (um andere Bevorzugungen zu decken) Toleranz was die diversen Optimierungen betrifft. Ich will mal grosszuegig sein und auf neuere Treiber fuer R420 warten, aber im guten Ganzen ist es schon zu viel des Guten. Ueberhaupt die LOD Fummelei gefaellt mir erstmal gar nicht.

tokugawa
2004-06-09, 00:53:55
Original geschrieben von seahawk
Ich glaube JC in solchen Sachen ungefähr soviel wie Gabe N., wenn er über die Vorzüge von ATI Karten spricht.

Mit dem Unterschied, dass JC Engines und Grafikalgorithmen bzw Techniken (Stichwort Carmack's Reverse aka ZFail Technique) entwickelt, während Gabe Newell einfach nur Microsoft-trainierter Manager/CEO Typ ist.

Insofern traue ich JC doch etwas mehr Kompetenz zu, was Grafiktechnologie und Grafikprogrammierung und -algorithmen in Echtzeit angeht...

EDIT: aber nur ein kleines bisschen mehr :)

robbitop
2004-06-09, 16:23:45
JC hat nicht umsonst NV40 als Basis für seine neue Engine genommen. Er sprach dem Design brachiale Performance zu.
Was NV40 fehlt, ist einfach der Takt.

Corrail
2004-06-09, 16:29:26
Original geschrieben von tokugawa
Mit dem Unterschied, dass JC Engines und Grafikalgorithmen bzw Techniken (Stichwort Carmack's Reverse aka ZFail Technique) entwickelt, während Gabe Newell einfach nur Microsoft-trainierter Manager/CEO Typ ist.

Insofern traue ich JC doch etwas mehr Kompetenz zu, was Grafiktechnologie und Grafikprogrammierung und -algorithmen in Echtzeit angeht...

EDIT: aber nur ein kleines bisschen mehr :)

Die Frage ist nur was JC meint und was er sagen "muss" bzw. sollte (Stichwort nVidia und id Software). Ich glaube nicht, dass JC alles wirklich meint was er auch so von sich gibt. Ich kann mich erinnern da hat JC ATIs R300 hoch gepriesen und gemeint dass das DER Chip für die D3 Engine ist. Und wie schauts jetzt aus? Es weiß zwar keiner wie welcher Chip bei der D3 Engine abschneidet, aber zur Zeit tendiert JC zu nVidia.
Ich persönliche halte JC für ein Genie in Sachen 3D Engine Entwicklung, würde ihm aber nicht alles glauben was er so über die Grafikchips meint...

reunion
2004-06-09, 16:32:01
Original geschrieben von robbitop
JC hat nicht umsonst NV40 als Basis für seine neue Engine genommen. Er sprach dem Design brachiale Performance zu.


Wen wunderts?
Wetten das Gabe Newell für sein nächstes Projekt nen R420 nimmt? ;)
(Was geld nicht alles bewirken kann ;D)


Was NV40 fehlt, ist einfach der Takt.

Naja, durch die gute pro mhz Leistung muss man eben auf höhe taktfrequenzen verzichten. Mhz kann man eben nie genug haben...

Gast
2004-06-09, 16:57:51
Irgend wann hat man von den MHz aber genug, siehe Intel, wens heiß wird...

CPU´s gehen auf Dualprozessor Core, das wird bei Grafikchips sicher nicht passieren, die sind intern ja schon heavy "Multiple", aber auch da machts nicht die Taktrate, sondern die Effektivität...

Aquaschaf
2004-06-09, 17:07:31
Irgendwann kommt man auch bei GPUs an den Punkt wo man das Teil auf mehrere Cores effizienter verteilen kann.

robbitop
2004-06-09, 17:32:06
@reunion
Gabe N mit JC zuvergleichen ist unpassend.
-NV3x war der Doom3 Chip. NV35 hat afair den R3xx in Doom3 weggepustet. Das liegt daran, dass NVIDIA den NV3x und NV4x z.T. nach den Wünschen von J.C baut. Das sieht man besonders in der NV40 Architektur. Somit muss er das nicht sagen. Er hat seine Wünsche erfüllt bekommen und man sieht, es wirkt hervoragend auf seiner Engine.

Der Takt ist eine Sache des Designs, ja. Aber auch eine Sache der Fertigung.450MHz wären mit 130nm FSG noch problemlos drin. 500MHz oder mehr wären drin, wenn man wie ATi ebenfalls lowk hätte.
ATi's R3xx konnte damals trotz rückständiger 150nm Fertigung und einen für diese Zeit komplexen Core verdammt hoch getaktet werden. Damals haben sie einfach Schritt für Schritt die Fertigung verbessert.

Ailuros
2004-06-09, 18:21:57
-NV3x war der Doom3 Chip

Mal etwas OT, aber wenn sich das Spiel nochmal verspaeten sollte, werden wir bald das Gleiche fuer NV4x sagen.

Vor etwa 2+ Jahren erfuhren wir dass man zumindest eine NV20 fuer D3 braucht; seither haben wir jetzt schon zwei Generationen von Grafikchips erlebt und es ist wohl verstaendlich dass jeder neue Generations-chip idealer wird fuer das Spiel.

Von dem abgesehen wenn iD nicht endlich D3 dieses Jahr auf die Regale bringt, wird es ziemlich veraltet aussehen ausser man arbeitet an noch einem revamp der Engine. Wir hoeren von dem oeden Ding schon wie lange genau?

aths
2004-06-09, 18:46:36
Original geschrieben von Ailuros
Wir hoeren von dem oeden Ding schon wie lange genau? Als R200 kam, dachte ich noch, Doom3 sei zu kaufen bevor Nvidia kontern könne ;(

Mr. Lolman
2004-06-09, 19:01:14
Original geschrieben von robbitop
@reunion
Gabe N mit JC zuvergleichen ist unpassend.
-NV3x war der Doom3 Chip. NV35 hat afair den R3xx in Doom3 weggepustet.

Aber nur mit komprimierten Texturen. Bei voller Qualität waren die ATis wieder schneller, aber das liegt ja bestimmt einzig und allein an deren AF Optimierungen :weg:


Das liegt daran, dass NVIDIA den NV3x und NV4x z.T. nach den Wünschen von J.C baut. Das sieht man besonders in der NV40 Architektur. Somit muss er das nicht sagen. Er hat seine Wünsche erfüllt bekommen und man sieht, es wirkt hervoragend auf seiner Engine.


Das hat NV imo schon mindestes seit der GF1 gemacht. Damals bekamen auch die Voodoos von JC ordentlich ihr Fett weg.

Doch was gerne vergessen wird: JC ist Developer, und Developer freuen sich immer, wenn man mit den HW Technologien möglichst viel herumspielen kann. Da muss man noch nichteinmal Geld von einer Firma bekommen, um sich zu solchen Aussagen hinreissen zu lassen.

Trotzdem war damals z.B. eine V5 bei 1280x1024 in Q3a kaum langsamer als eine GF2 GTS (was aber sicher auch an den unterschiedlichen Texturfileringsverfahren gelegen hat).

Demirug z.B. war/ist vom NV3x auch viel mehr angetan als von den R3x0, was aus Entwicklersicht durchaus verständlich ist. Trotzdem relativierten div. Treiberprobleme und unerklärliche Performancerückstände bei div. Spielen die Eignung einer NV3x für den Spieler. (AF Fetischisten mal ausgenommen;))




Was ich sagen will: Nur weil eine HW den Entwicklern gefällt, ist das nicht gleichbedeutend mit einer Kaufempfehlung für den gemeinen Spieler. Erst mit der Zeit, wenn nur mehr auf die eine HW optimiert wird, könnten die Spieler, die zur Konkurrenz gegriffen haben durch die Röhre schauen. Da hat der IHV dann alle Hände voll zu tun, Codeanpassungen vozunehmen, was ja in der Vergangenheit schon zu hitzigen Cheatdiskussionen geführt hat.




Also kauft euch die HW, die euch persönlich am meisten zusagt, und nicht die, die 'irgendein' Developer in den Himmel lobt.

Gast
2004-06-09, 19:04:58
Original geschrieben von aths
Als R200 kam, dachte ich noch, Doom3 sei zu kaufen bevor Nvidia kontern könne ;(

V.a war ja die landläufige Meinung, die E3 Version von Doom sei auf einem R200 vorgestellt worden.

Tatsächlich hatte der R200 eine äusserst üble Performance, was an wohl auf der Z/Stencil Schwäche zurückzuführen ist..

Ailuros
2004-06-09, 19:05:10
Original geschrieben von aths
Als R200 kam, dachte ich noch, Doom3 sei zu kaufen bevor Nvidia kontern könne ;(


Eigentlich nur die Schuld von iD. Wir erwarteten alle (auch die IHVs) das Ding schon vor Jahren.

Alter Scherz:

http://www.3dcenter.de/images/2001/04-06b-pic3.gif

:lolaway:

aths
2004-06-09, 19:10:21
Original geschrieben von Mr. Lolman
Aber nur mit komprimierten Texturen. Bei voller Qualität waren die ATis wieder schneller, aber das liegt ja bestimmt einzig und allein an deren AF Optimierungen :weg:Was heißt "volle Qualität"? 8x/16x AF? Solche Vergleiche sind wertlos :eyes:

Gast
2004-06-09, 19:12:38
Original geschrieben von aths
Was heißt "volle Qualität"? 8x/16x AF? Solche Vergleiche sind wertlos :eyes:

AFAIR verwendet die Doom III Alpha bei hoher Qualität max. 4xAF und unkomprimierte Texturen, und bei Medium Qualität kein AF, und komprimierte Texturen...

deekey777
2004-06-09, 19:22:38
Original geschrieben von robbitop
@reunion
Gabe N mit JC zuvergleichen ist unpassend.
-NV3x war der Doom3 Chip. NV35 hat afair den R3xx in Doom3 weggepustet....
...

Der NV35 hat den R350 unter MEDIUM bzw. bei HQ+AA/AF (4x bzw. 4x/8x) "weggepustet", bei High Quality war der R350 fast immer vorne... Applaus-Applaus...
Erstens wurden die Doom 3 auf nVidias Wunsch bzw. mit deren Hilfe durchfürbar, dh ATi hatte da nichts zu sagen, zB der zu dem Zeitpunkt aktuelle Catalyst liefert ganze 10 FPS.
Das wichtigste ist:"ARB2 ist auf NVIDIAs DX9 Karten mit der Vorabversion des Detonator FX Treibers wegen eines Bugs noch nicht lauffähig. Nach Aussagen von NVIDIA soll die ARB2 Performance mit der NV30 Leistung im endgültigen Treiber aber identisch sein."(THG)
Es wurd also mit NV30-Pfad gegen ARB2 vergliechen - null Vergleichbarkeit.

(Der gleiche Mist von mir steht auch auf der ersten Seite dieses Threads.)

Und: Die Doom 3 Engine wurde auf einem G3&NV20 präsentiert.

Vergleich Newell <-> Carmack: Na, ja... Ich sag nur ATi's Shader Days im letzten September...

reunion
2004-06-09, 19:24:25
Original geschrieben von robbitop
@reunion
Gabe N mit JC zuvergleichen ist unpassend.


Seh ich nicht so, JC bekommt sicherlich auch einige Miliönchen für seine schon ziemlich offensichtliche bevorzugung von NV. =)


-NV3x war der Doom3 Chip.

Warum?
JC benutzt sowieso nur NV Karten, selbst den nun wirklich nicht perfekten NV30 hat er dem R300 vorgezogen. Grund?

NV35 hat afair den R3xx in Doom3 weggepustet.


Ja, aber auch nur wegen dem extra programmierten Rederingpfad für die NV3x Serie. (Und selbst dann nur bei medium Quality :bäh: )

Zum restlichen ACK

aths
2004-06-09, 19:36:35
Original geschrieben von reunion
Warum?
JC benutzt sowieso nur NV Karten, selbst den nun wirklich nicht perfekten NV30 hat er dem R300 vorgezogen. Grund?Vielleicht, weil der NV30 besser geeignet ist für Doom3? Nicht vergessen, dass für Doom3 die FX12-Genauigkeit für viele Effekte ausreicht. Und da hat der NV30 ziemlich viel Power.

deekey777
2004-06-09, 19:39:09
Original geschrieben von aths
Vielleicht, weil der NV30 besser geeignet ist für Doom3? Nicht vergessen, dass für Doom3 die FX12-Genauigkeit für viele Effekte ausreicht. Und da hat der NV30 ziemlich viel Power.

Darum: Der NV30-Pfad rulez!!! Leider wurde er abgeschafft. ;(

(Böse Unterstellung: Er kommt doch - zumindest die NV30 sollte von ihm mehr profitieren als von ARB2&50er Detos.)

reunion
2004-06-09, 19:46:24
Original geschrieben von aths
Vielleicht, weil der NV30 besser geeignet ist für Doom3? Nicht vergessen, dass für Doom3 die FX12-Genauigkeit für viele Effekte ausreicht. Und da hat der NV30 ziemlich viel Power.

Deswegen stell ich mir aber keinen Staubsauger in mein Zimmer :D

aths
2004-06-09, 19:52:31
Original geschrieben von reunion
Deswegen stell ich mir aber keinen Staubsauger in mein Zimmer :D JC wird die Karte nehmen, die am besten ist. Die 5800 ist soweit ich weiß nicht sehr laut, selbst die Ultra gab es mit erträglicher Kühlung.

Außerdem – bitte nicht ablenken :)

deekey777
2004-06-09, 20:45:23
Original geschrieben von aths
JC wird die Karte nehmen, die am besten ist. Die 5800 ist soweit ich weiß nicht sehr laut, selbst die Ultra gab es mit erträglicher Kühlung.

Außerdem – bitte nicht ablenken :)

Wäre id mit Doom 3 schon im Frühjahr letzten Jahres fertig geworden, dann hätte JC sein neues Projekt auf einer NV30 programmiert.

robbitop
2004-06-09, 20:52:11
errr ich glaube es ist andersrum. Nicht NV stopft ihn mit geld zu. NV realisiert einfach nur das in Hardware, was er sich wünscht. Siehe die Z-Stencil Besondernheit beim NV3x/4x und Ultrashadow. Hinzukommt wie aths bereits sagte, dass oftmals FX12 Genauigkeit ausreicht und NV30 kann 48 aritmetische FX12 Ops ausführen. Auch ein Grund für NV30.

reunion
2004-06-09, 21:08:02
Original geschrieben von aths
JC wird die Karte nehmen, die am besten ist. Die 5800 ist soweit ich weiß nicht sehr laut, selbst die Ultra gab es mit erträglicher Kühlung.

Außerdem – bitte nicht ablenken :)


Jaja, war ja nur ein Scherz, tatsache ist JC verwendet schon seit ewigkeiten NV-Karten und deshalb finde ich ist es jetzt auch kein Wunder das er auch den NV40 verwendet und ihm "brachiale Performance" zuspricht.

robbitop
2004-06-09, 21:09:17
das liegt wie schon 2x gesagt daran, dass NV die Chips auf wunsch von JC zuschneidet.

reunion
2004-06-09, 21:18:02
Original geschrieben von aths
Vielleicht, weil der NV30 besser geeignet ist für Doom3? Nicht vergessen, dass für Doom3 die FX12-Genauigkeit für viele Effekte ausreicht. Und da hat der NV30 ziemlich viel Power.


Und warum nicht einen R3xx nehmen und sich die ganzen Genauigkeitseinstllungen sparen?

reunion
2004-06-09, 21:18:59
Original geschrieben von robbitop
das liegt wie schon 2x gesagt daran, dass NV die Chips auf wunsch von JC zuschneidet.

Was scheidert bzw. hat Nv auf JC zugescheidert?

robbitop
2004-06-09, 21:22:44
hmm ist es kein bisschen auffällig, dass NV3x und NV4x immer doppelt so viele Stencil Ops/Takt können, wie Pipelines vorhanden sind? Sehr selten bei IMRs, zumal die Z-Stencil Leistung (fast) nie von Interesse ist. Für JC aber seit der Entwicklung von D3 schon.
Ultrashaddow wäre ein anderer Aspekt. Oder das neue Hirarchial Z Culling im NV40 ist wie zugeschnitten auf Doom3.

Beim NV30 war es das FX12 Fallback (wobei das auch sonst recht gut war)

ShadowXX
2004-06-09, 22:23:27
Ist JC nicht sogar im Technischen-Beraterforum (oder wie das auch immer genau heisst) von nV...

Bin der Meinung mal sowas gelesen zu haben...

robbitop
2004-06-09, 22:25:22
jepp
afair ist das so

aths
2004-06-09, 22:57:06
Original geschrieben von reunion
Jaja, war ja nur ein Scherz, tatsache ist JC verwendet schon seit ewigkeiten NV-Karten
Hm .... warum wohl? Vielleicht, weil GeForce256 schon Register Combiner hatte? Ist GF256 nicht die erste Karte die Dot3-Bumpmapping beherrscht?
Original geschrieben von reunion und deshalb finde ich ist es jetzt auch kein Wunder das er auch den NV40 verwendet und ihm "brachiale Performance" zuspricht. NV40 hat mehr Shader-Power als R420. Und andere Features, die den Pixelshader entlasten (weil man die Effekte sonst umständlich und Performance raubend über den Pixelshader realisieren müsste.)
Original geschrieben von reunion
Und warum nicht einen R3xx nehmen und sich die ganzen Genauigkeitseinstllungen sparen? In bestimmten Situationen ist NV30 mit FX12 deutlich schneller als R300 (der immer mir FP24 arbeitet.) Dabei kann NV30 mit CineFX auch deutlich mehr Features anbieten, als R300 mit Smartshader 2.

Polemisch gesagt, nur weil Far Cry auf R300 besser läuft und HL2 auf R300 besser laufen wird als auf NV30 heißt das nicht, dass R300 für alles der bessere Chip wäre.

Mr. Lolman
2004-06-09, 23:19:05
Original geschrieben von aths
Polemisch gesagt, nur weil Far Cry auf R300 besser läuft und HL2 auf R300 besser laufen wird als auf NV30 heißt das nicht, dass R300 für alles der bessere Chip wäre.


...obwohl sich einem der Eindruck aufdrängen könnte :naughty:

Gast
2004-06-10, 00:52:11
Original geschrieben von deekey777
Wäre id mit Doom 3 schon im Frühjahr letzten Jahres fertig geworden, dann hätte JC sein neues Projekt auf einer NV30 programmiert.

Das ist Falsch, kein Programmierer der Welt programmiert ausschließlich für einen Chipanbieter.

Irgendwo ist immer noch ein Pfad verfügbar, Ein Bugfix, ein was auch immer!

Immerhin wollen die Game-Hersteller an alle Käuferschichten, Rote & Grüne, Ihre SW verkaufen!

by the way :)

Letztendlich

Quasar
2004-06-10, 01:42:56
Original geschrieben von reunion
Naja, durch die gute pro mhz Leistung muss man eben auf höhe taktfrequenzen verzichten. Mhz kann man eben nie genug haben...

Ist es nicht wurscht, ob man gute Leistungen durch hohen Takt oder hohe pro-MHz-Leistung erreicht?

Original geschrieben von Ailuros
Mal etwas OT, aber wenn sich das Spiel nochmal verspaeten sollte, werden wir bald das Gleiche fuer NV4x sagen.
Er war aber der erste Chip, der den DoppelZ-Trick konnte.

Original geschrieben von Mr. Lolman
[...]voller Qualität [...] ATis

Oxymoron?

Original geschrieben von deekey777
Es wurd also mit NV30-Pfad gegen ARB2 vergliechen - null Vergleichbarkeit.

Jawoll, zumal es eine Alpha/Beta/wasauchimmer war.

Original geschrieben von reunion
JC benutzt sowieso nur NV Karten, selbst den nun wirklich nicht perfekten NV30 hat er dem R300 vorgezogen. Grund?


Wenn ich mich recht entsinne, liegt das an Treiber und Dev-Support. Für einen Entwickler ist es weniger zeitraubend, wenn eine Karte statt 10 nur 5 fps rendert, er aber Tage um Tage mit Bug-Chasing verbringen muss und der Support des jeweiligen IHV nicht auf Zack ist. :)

Original geschrieben von reunion
Deswegen stell ich mir aber keinen Staubsauger in mein Zimmer :D

Aber von Zeit zu Zeit benutzt du schon einen (oder läßt deine Mum einen benutzen), gelle?

Original geschrieben von reunion
Und warum nicht einen R3xx nehmen und sich die ganzen Genauigkeitseinstllungen sparen?

Weil er dann zukünftig zuviele Multipass-Shader bräuchte? Sowas in der Art hat er jedenfalls mal gesagt. Ging aber nicht mehr um D3, da ist die Engine ja schon längst durch.

Original geschrieben von aths
In bestimmten Situationen ist NV30 mit FX12 deutlich schneller als R300 (der immer mir FP24 arbeitet.) Dabei kann NV30 mit CineFX auch deutlich mehr Features anbieten, als R300 mit Smartshader 2.

Konkreter Bitte: In welchen Situationen genau? Wie kann ich diese nachvollziehen?


Original geschrieben von Mr. Lolman
...obwohl sich einem der Eindruck aufdrängen könnte :naughty:

Ja, wenn man nur Far Cry und HL2 spielt und das noch mit average Quality. (ebenso-):naughty:

Ailuros
2004-06-10, 02:01:38
Original geschrieben von ShadowXX
Ist JC nicht sogar im Technischen-Beraterforum (oder wie das auch immer genau heisst) von nV...

Bin der Meinung mal sowas gelesen zu haben...

Eine noch wichtigere Rolle spielte John vor Jahren bei 3dfx. Er hatte so manche Ideen fuer die ersten Rampage Desings zugefuegt; irgendwann nach der V2 hat er es aufgegeben.

Ist kann es auch verstehen. Der originale Rampage core Desing war als V2 Nachfolger geplant; es gab wohl 4 re-designs da der rasterizer fuer Spectre den Codenamen "R4" trug.

Er wollte schon damals 64bit interne Praezision, war zwar nicht besonders begeistert ueber das 52bit Overbright des Rampage, aber es war zumindest ein Schritt weiter als niedrigere Praezision.
-------------------------------------

Zum stencil rendering hab ich wohl meine Meinung schon oefters gepostet; es ist nicht Carmack´s Fehler wenn ein IHV zu wenig stencil throughput liefert. Doom3 liegt schon seit einer Ewigkeit unter Entwicklung, IHVs wissen genau wo der groesste Stress herkommt und sollten auch einsehen dass die engine hoechstwahrscheinlich eine gesunde Anzahl von Lizenzen gewinnen wird (was wohl auch das eigentliche Ziel von iD ist IMO).

robbitop
2004-06-10, 10:51:51
@AiL

1. das heisst "id" und nicht iD oder ID.
(kommt aus der Welt der Philosophie..irgendeine Theorie von Nietsche beinhaltete das "id", was sich die Firma zum Namen gemacht hatte...afair)

2. ausser in der Doom3-Engine gibt es niemanden der soviel Stencil Leistung braucht, dass es ein limitierender Faktor werden könnte.

ich habe nichts gegen JC aber wenn ich mir D3 anschaue, glaube ich nicht, dass diese Engine eine Zukunft haben wird.
Scheinbar sieht diese nur in dunklen Räumen schick aus, wenn man mit Licht und Schatten rumspielt. Ist echt schonmal aufgefallen, was für gräßlich schlechte Texturen verwandt werden (gehört nicht zu engine)?
Wenn man ausgeleuchtete Landschaften will, ist Doom3 wohl nicht geeignet. Wäre wohl auch zu langsam.
Für solche Gruselshooter ja, aber ansonsten wohl nicht.
Korrigiert mich bitte, wenn ich falsch liege.

Ich würde jedenfalls nicht mehr Ressourcen als nötig in einen Chipteil investieren, wenn es eh nur ein Spiel mit mittelmäßigem Potential betrifft.

Aquaschaf
2004-06-10, 11:02:47
Die Doom3-Engine wird sicherlich noch andere Vorzüge haben, als Stencil-Schatten und Bumpmapping.
Für Spiele, die nicht in Innenräumen spielen verzichtet man dann eben auf die übermäßige Anwendung
solcher Performance-Fresser.
Bevor ich nicht andere Spiele mit dieser Engine gesehen habe würde ich nicht über sie urteilen.

robbitop
2004-06-10, 11:08:49
ist kein urteil sondern eine spekulation.
ausserdem spekuliere ja ich darüber nicht du

reunion
2004-06-10, 11:38:33
Original geschrieben von aths
NV40 hat mehr Shader-Power als R420. Und andere Features, die den Pixelshader entlasten (weil man die Effekte sonst umständlich und Performance raubend über den Pixelshader realisieren müsste.)


Klar, der NV40 ist wohl insgesamt ein bessere Chip als der R420, das will ich auch gar nicht abstreiten, ich wollte damit nur zum ausdruck bringen das man die Aussagen von JC nicht als eine art Bibel sehen sollte.

reunion
2004-06-10, 11:40:44
Original geschrieben von Quasar
Ist es nicht wurscht, ob man gute Leistungen durch hohen Takt oder hohe pro-MHz-Leistung erreicht?


Natürlich ist es egal. =)


Aber von Zeit zu Zeit benutzt du schon einen (oder läßt deine Mum einen benutzen), gelle?


Ja, aber nicht während ich vorm PC sitzte :D

ShadowXX
2004-06-10, 11:42:13
Original geschrieben von robbitop
2. ausser in der Doom3-Engine gibt es niemanden der soviel Stencil Leistung braucht, dass es ein limitierender Faktor werden könnte.

ich habe nichts gegen JC aber wenn ich mir D3 anschaue, glaube ich nicht, dass diese Engine eine Zukunft haben wird.
Scheinbar sieht diese nur in dunklen Räumen schick aus, wenn man mit Licht und Schatten rumspielt. Ist echt schonmal aufgefallen, was für gräßlich schlechte Texturen verwandt werden (gehört nicht zu engine)?
Wenn man ausgeleuchtete Landschaften will, ist Doom3 wohl nicht geeignet. Wäre wohl auch zu langsam.
Für solche Gruselshooter ja, aber ansonsten wohl nicht.
Korrigiert mich bitte, wenn ich falsch liege.

Ich würde jedenfalls nicht mehr Ressourcen als nötig in einen Chipteil investieren, wenn es eh nur ein Spiel mit mittelmäßigem Potential betrifft.

Ehhmmm...du lässt dabei ausser acht, das viele Firmen die Doom3 Engine lizensieren werden, um ebenfalls Games damit zu erstellen...

Es wird also mehr als nur dieses eine Game mit dieser Engine geben...

robbitop
2004-06-10, 11:56:30
@shaddow
das ist mir wohl bekannt, jedoch glaube ich persönlich, dass man aus der D3 Engine einfach nicht soviel machen kann wie aus Q3A damals. Ich hoffe es zwar, aber wenn ich mir D3 anschaue, dann zweifle ich doch stark.
Wenig polygone, das ganze ist nur flüssig in engen Gängen usw...aber ich lasse mich gern eines Besseren belehren.

Wenn in aussenwelten alles ausgeleuchtet ist, brauchts nicht mehr so viel Steniclschatten.

aths
2004-06-10, 11:56:34
Original geschrieben von reunion
Klar, der NV40 ist wohl insgesamt ein bessere Chip als der R420, das will ich auch gar nicht abstreiten, ich wollte damit nur zum ausdruck bringen das man die Aussagen von JC nicht als eine art Bibel sehen sollte. Bisher ist dir das imo noch nicht gelungen.

ShadowXX
2004-06-10, 12:02:37
Original geschrieben von robbitop
@shaddow
das ist mir wohl bekannt, jedoch glaube ich persönlich, dass man aus der D3 Engine einfach nicht soviel machen kann wie aus Q3A damals. Ich hoffe es zwar, aber wenn ich mir D3 anschaue, dann zweifle ich doch stark.
Wenig polygone, das ganze ist nur flüssig in engen Gängen usw...aber ich lasse mich gern eines Besseren belehren.

Wenn in aussenwelten alles ausgeleuchtet ist, brauchts nicht mehr so viel Steniclschatten.

Klar...man wird sehen, wie es sich entwickelt...

Aber zum Beispiel "Thief 4 - Even Deadlier Shadows" (;D ) könnte ich mir z.B. ganz gut mit der D3-Engine vorstellen...

"GTA 5 - Gotham City" dagegen weniger...

robbitop
2004-06-10, 12:18:22
@shaddow
genau DAS meine ich ;)

Aquaschaf
2004-06-10, 12:24:39
Was aber noch zu beweisen wäre ;)

Xmas
2004-06-10, 12:54:00
Original geschrieben von Corrail
Also in OpenGL muss man UltraShadow durch eine Extension (GL_NV_depth_clamp) aktiviert werden. Wie es in DX ausschaut weiß ich nicht.
Aber laut der OpenGL Extensions muss man keine Grenzen angeben, siehe http://oss.sgi.com/projects/ogl-sample/registry/NV/depth_clamp.txt
Falsche Extension. UltraShadow ist GL_EXT_depth_bounds_test (http://oss.sgi.com/projects/ogl-sample/registry/EXT/depth_bounds_test.txt). Aber GL_NV_depth_clamp ist auch vorteilhaft bei Shadow Volumes.


robbitop,
Freud, und Psychologie.

seahawk
2004-06-10, 15:32:36
Original geschrieben von reunion
Klar, der NV40 ist wohl insgesamt ein bessere Chip als der R420, das will ich auch gar nicht abstreiten, ich wollte damit nur zum ausdruck bringen das man die Aussagen von JC nicht als eine art Bibel sehen sollte.

Oder eben genauso viel Bedeutung wie die AUssagen eines gewissen Gabe N. über ATI-Karten.

Allerdings bin ich in keinster Weise überzeugt, dass der NV40 für die heutigen Bedürfnisse der bessere Chip ist.

reunion
2004-06-10, 15:36:57
Original geschrieben von seahawk
Oder eben genauso viel Bedeutung wie die AUssagen eines gewissen Gabe N. über ATI-Karten.


Jap, genau das gleiche...


Allerdings bin ich in keinster Weise überzeugt, dass der NV40 für die heutigen Bedürfnisse der bessere Chip ist.

Die U vielleicht nicht mit ihren hohen Stromverbrauch, den 2 Stromanschlüssen sowie der Monsterkühlung, die GT scheint mir allerdings der perfekte Chip zu sein...

robbitop
2004-06-10, 15:51:40
ah danke Xmas.
ist auch schon ein bisschen her, als ich das mal gelesen hab.

seahawk
2004-06-10, 16:16:52
Ja die 6800Gt ist auch meine wahrscheiniche, nächste Grafikkarte (oder na Ultra mit Wakü, wenn ich zuviel Geld habe :D )

del_4901
2004-06-10, 21:51:23
Original geschrieben von Xmas
Falsche Extension. UltraShadow ist GL_EXT_depth_bounds_test (http://oss.sgi.com/projects/ogl-sample/registry/EXT/depth_bounds_test.txt). Aber GL_NV_depth_clamp ist auch vorteilhaft bei Shadow Volumes.


robbitop,
Freud, und Psychologie.
Ha, ich hatte doch recht, da stehts schwarz auf Weiß: "The depth bounds
test compares the depth value stored at the location given by the
incoming fragment's (xw,yw) coordinates to a user-defined minimum
and maximum depth value. If the stored depth value is outside the
user-defined range (exclusive), the incoming fragment is discarded.
"

Corrail
2004-06-11, 00:24:32
Original geschrieben von Xmas
Falsche Extension. UltraShadow ist GL_EXT_depth_bounds_test (http://oss.sgi.com/projects/ogl-sample/registry/EXT/depth_bounds_test.txt). Aber GL_NV_depth_clamp ist auch vorteilhaft bei Shadow Volumes.


Oh, danke! Hab mich schon gewundert das auf den ganzen NV Shadow Volume Power Point Presentations immer Skizzen dabei sind wo man 2 Tiefenwerte angeben muss...

Ailuros
2004-06-11, 01:07:03
Original geschrieben von robbitop
@AiL

1. das heisst "id" und nicht iD oder ID.
(kommt aus der Welt der Philosophie..irgendeine Theorie von Nietsche beinhaltete das "id", was sich die Firma zum Namen gemacht hatte...afair)

2. ausser in der Doom3-Engine gibt es niemanden der soviel Stencil Leistung braucht, dass es ein limitierender Faktor werden könnte.

ich habe nichts gegen JC aber wenn ich mir D3 anschaue, glaube ich nicht, dass diese Engine eine Zukunft haben wird.
Scheinbar sieht diese nur in dunklen Räumen schick aus, wenn man mit Licht und Schatten rumspielt. Ist echt schonmal aufgefallen, was für gräßlich schlechte Texturen verwandt werden (gehört nicht zu engine)?
Wenn man ausgeleuchtete Landschaften will, ist Doom3 wohl nicht geeignet. Wäre wohl auch zu langsam.
Für solche Gruselshooter ja, aber ansonsten wohl nicht.
Korrigiert mich bitte, wenn ich falsch liege.

Ich würde jedenfalls nicht mehr Ressourcen als nötig in einen Chipteil investieren, wenn es eh nur ein Spiel mit mittelmäßigem Potential betrifft.

Freudian slip LOL :D

Wie schon gesagt wurde, Doom3 ist nicht das einzige Spiel. Wenn man geschichtlich nur an Quake3a denkt, dann sind es mehr als nur eine handvoll von Lizenzen und auch eine gesunde Anzahl von meistens erfolgreichen Spielen.

Ich hab zwar keine Ahnung was CroTeam genau anstellt aber AFAIK wird deren naechste engine noch mehr dynamische Schatten verwenden als zuvor.

Spiele die die D3 engine in der Zukunft verwenden werden koennten einfach CPU limitiert werden, wie es auch bei Q3A der Fall war.

Uebrigens ist der Aufwand fuer Z/stencil Einheiten auch wieder nicht so gross; wenn es so ein Riesen-Problem waere, was muesste dann IMG sagen hm? ;)

Stencil Schatten sind tatsaechlich nicht die beste denkbare Loesung um ehrlich zu sein, aber ausser ich hab etwas verpasst sehe ich bis jetzt auch keine besondere alternative Loesung in heutiger HW fuer dynamische Schatten.

JC hat seinen Vorschlag gemacht, was genau machen die IHVs in der Zwischenzeit?

Und nein zukuenftige Spiele ohne sehr fortschrittliche Schatten - egal welches genre - kann man gleich vergessen; oder man vergisst gleich den angeblichen Photorealismus...

Coda
2004-06-11, 02:22:41
Stencil Schatten sind tatsaechlich nicht die beste denkbare Loesung um ehrlich zu sein, aber ausser ich hab etwas verpasst sehe ich bis jetzt auch keine besondere alternative Loesung in heutiger HW fuer dynamische Schatten.
Öh. Shadow Maps? Siehe Splinter Cell.

Zauberer
2004-06-11, 03:05:57
Original geschrieben von aths
Vielleicht, weil GeForce256 schon Register Combiner hatte? Ist GF256 nicht die erste Karte die Dot3-Bumpmapping beherrscht?Oh aths!
Wie kommt den das?
Als "3D-Guru" solltest Du doch wissen, dass eine VideoLogic Neon 250 (PowerVR2) schon Dot3-Bumpmapping beherrscht.
Und die Karte war vor der GeForce 256 da.
Bei der Erhältlichkeit seht es, glaube ich, Anfang Oktober 1999 gegen Ende November 1999.
Die ersten Previews der VideoLogic Neon 250 gab es im September 1999.
Die ersten Previews der GeForce 256, gab es im Oktober 1999.
Also trennen die Karten gut einen Monat.
Ergo war der Vorgänger des "KYRO" schneller als NVidia.

Hier mal ein paar THG Links. (Lang Lebe das Archiv! :D)
http://www.de.tomshardware.com/graphic/19991005/index.html
http://www.de.tomshardware.com/graphic/19991012/index.html
http://www.de.tomshardware.com/graphic/19991129/index.html

PS.: Nimm mein Posting nicht so ernst, ich hätte das auch nicht ohne nachschauen gewusst.
Ich wusste aber, dass Matrox mit dem G400 und seinem "echten" Bump Mapping (Embossed zähle ich nicht mit), als erstes da war.
Doch das war ja "Enviroment Bump Mapping", Du sprachst ja von Dot3-Bumpmapping, dass unterstützt die G400 ja nicht, darum musste ich (schon wieder) mal das Internet um 3 Uhr durchforsten. ;)
Du hast ja ein "Fragezeichen" hinter dem Satz gemacht, aber da Du bei beiden Sätzen ein "Fragezeichen" gemacht hast, gehe ich davon aus, dass dies rhetorische Fragen sein müssen.
Also im Prinzip ne verstärkte Aussage (Feststellung), denn Du bist dir doch "sicher", dass die GeForce256 schon Register Combiner hatte, oder?

http://people.freenet.de/ballzauberer/GeForce_vs._G400.jpg
Erstaunlich welche Wassereffekte man schon "1999" in "Spielen" (Expandable) bewundern konnte. Leider galt das nicht für die breite Masse.
Jetzt immer hin "5 Jahre" später, nach Far Cry, kann endlich davon ausgehen, dass man in vielen neuen Games coole Effekte zu Gesicht bekommen wird. Oder was meint Ihr?

Ailuros
2004-06-11, 05:16:33
Original geschrieben von Coda
Öh. Shadow Maps? Siehe Splinter Cell.

...should have said viable alternative....*sigh* ;)

aths
2004-06-11, 08:56:37
Original geschrieben von Zauberer
Oh aths!
Wie kommt den das?
Als "3D-Guru" solltest Du doch wissen, dass eine VideoLogic Neon 250 (PowerVR2) schon Dot3-Bumpmapping beherrscht.Ups. Sorry.

Original geschrieben von Zauberer
Doch das war ja "Enviroment Bump Mapping", Du sprachst ja von Dot3-Bumpmapping, dass unterstützt die G400 ja nicht, darum musste ich (schon wieder) mal das Internet um 3 Uhr durchforsten. ;)Einige Effekte die sich mit Dot3 machen lassen, kann man so ähnlich auch mit EMBM hinkriegen. Mit EMBM kann man vor allem Effekte gestalten, die mit Dot3 gar nicht möglich sind. JC setzt bei Doom3 aber auf Dot3.

Original geschrieben von Zauberer
Also im Prinzip ne verstärkte Aussage (Feststellung), denn Du bist dir doch "sicher", dass die GeForce256 schon Register Combiner hatte, oder?Japp. Bei GF2 GTS hieß dass dann NSR. Beim Neon wäre interessant, ob Dot3-BM als fester Effekt drin war, oder ob die Combiner auch schon "programmierbar" waren.

Original geschrieben von Zauberer
Jetzt immer hin "5 Jahre" später, nach Far Cry, kann endlich davon ausgehen, dass man in vielen neuen Games coole Effekte zu Gesicht bekommen wird. Oder was meint Ihr? Mit DirectX7 waren die einzelnen Combiner alle noch optional. Seit DirectX8 wird für DX8-compliant HW ja Pixelshader 1.0 vorausgesetzt (seit DX9 1.1, da es keine 1.0-HW gibt und keine geben wird.) Damit besteht endlich Sicherheit, dass solche Effekte auf allen Karten laufen, die ein bestimmtes Techlevel vorzuweisen haben.

Quasar
2004-06-11, 09:06:09
Nochmal, da schon einige Zeit vergangen ist:

Original geschrieben von aths
In bestimmten Situationen ist NV30 mit FX12 deutlich schneller als R300 (der immer mir FP24 arbeitet.) Dabei kann NV30 mit CineFX auch deutlich mehr Features anbieten, als R300 mit Smartshader 2.

Konkreter Bitte: In welchen Situationen genau? Wie kann ich diese nachvollziehen?

aths
2004-06-11, 12:08:24
Original geschrieben von Quasar
Nochmal, da schon einige Zeit vergangen ist:



Konkreter Bitte: In welchen Situationen genau? Wie kann ich diese nachvollziehen? R300: 8 Pipes, pro Takt bis zu 2 Instruktionen = 16 Output-Werte pro Takt.

NV30: 4 Pipes á 2 Register Combiner. Pro Combiner und Takt bis zu 3 Output-Werte, je für Color und Alpha, daher 6 Output-Werte (Extremfall). Macht bis zu 48 Outputs pro Takt insgesamt. Um das nachzuvollziehen, schreibst du am besten einen entsprechenden Register Combiner :)

Quasar
2004-06-11, 16:15:01
Klingt seeeehr theoretisch. In den meisten meisten Szenarien, auch denen, die nur 1.1-1.3-Shader nutzen, kommt meine FX5800U, die demnach etwa 24000000000 Outputs pro Sekunde erreicht, kaum mit einer R9800p mit, die nur 6080000000 Outputs schafft.

Mal sehen, vielleicht schustere ich mir nachm Kaffee ein paar kleinere Programme zurecht um dem mal auf den Grund zu gehen.
Wer die Übertreibung findet, darf sie behalten ;-)

aths
2004-06-11, 16:45:23
Original geschrieben von Quasar
Klingt seeeehr theoretisch. Allerdings.

Die 3 Outputs sind, einfach gesagt, A*B, C*D, sowie die Summe aus beiden. Immerhin, wenn man zwei Multiplikationen braucht, und das je für Vec3 und für Skalare, lässt sich das nutzen. Meistens kann man nur 1 Output zur Weiterverarbeitung nutzen (bzw. 2, Color + Alpha.)

gnomi
2004-06-12, 15:42:16
Original geschrieben von Zauberer
Erstaunlich welche Wassereffekte man schon "1999" in "Spielen" (Expandable) bewundern konnte. Leider galt das nicht für die breite Masse.
Jetzt immer hin "5 Jahre" später, nach Far Cry, kann endlich davon ausgehen, dass man in vielen neuen Games coole Effekte zu Gesicht bekommen wird. Oder was meint Ihr?

Schönes Wasser gab es auch schon in Wave Race 64, und das mit vergleichsweise schwacher Technik... (N64, 1996 Release; Environment Mapping)
Far Cry benutzt momentan auch "nur" PS 1.1 hinsichtlich der Wasserdarstellung. ( http://www.firingsquad.com/hardware/far_cry_nvidia/ )
Das Wasser sieht also auf einer 2001 erschienenden Geforce 3 schon genauso beeindruckend aus, und ab einer Geforce 4 TI stimmt dann auch die GPU Geschwindigkeit bezogen auf das gesamten Spiel bei ansprechender Grafikqualität restlos.
Auch hier kommen damit sehr viele Gamer mit verbreiteter Hardware in den Genuß der aktuell besten Wasserdarstellung.
Gerade aus diesem Grund eine in diesem Punkt phänomenale Leistung der Crytek Jungs...

Edit:
Letztendlich entscheidet hinsichtlich der Grafikqualität (des Eindrucks beim Spieler) nicht die Technikstufe allein.
Beim PC besteht die wahre Kunst imo auch eher darin, die Technikstufe der verbreiteten Hardware gegenüber bestmöglich anzupassen, wohingegen es bei Konsolen darum geht, aus einer Zielplattform mit bestehendem - allerdings halt nicht mehr erweiterbaren Featureset - am meisten herauszuholen.

robbitop
2004-06-12, 15:49:54
"JC setzt bei Doom3 aber auf Dot3."
Ich bin sicher, es kommt auch EMBM zum Einsatz.
Das habe ich durch einen Zufall herausgefunden.

Demirug
2004-06-12, 15:55:15
Original geschrieben von robbitop
"JC setzt bei Doom3 aber auf Dot3."
Ich bin sicher, es kommt auch EMBM zum Einsatz.
Das habe ich durch einen Zufall herausgefunden.

Bist du wirklich sicher das es EMBM ist und nicht nur EM?

IIRC hat JC in einen experimentellen ARB2 Pfad auch noch EMBM eingebaut war allerdings mit der Performance nicht zufrieden so das er es wieder deaktiviert hat. Es könnte natürlich sein das es auf den neuen Chips (NV40/R420) jetzt ausreichend schnell genug ist.

robbitop
2004-06-12, 16:17:11
sicher bin ich nicht.
Ich habe so eine zwielichtige Geschichte hinter mir in der ich aus Spass an der Freude eine Radeon 9500 gemoddet habe. (2 Quads statt einem).
Alles schien generell zu gehen, nur EMBM ging im 3DMark nicht,es gab ein festes Artefaktmuster über dem EMBM Effekt. Also habe ich mir ein paar Techdemos für EMBM geladen und für alle möglichen anderen Effekte. Herraus kam, dass EMBM als einziges dieses feste Artefaktmuster behielt.

Dann habe ich besagte alpha eines nichtreleasten Spiels ausprobiert. Fakt war dass ich besonders auf dem Fussboden und an den Wänden dieses Muster wiedererkannt habe. Die Gegner konnten problemlos dargestellt werden.
Gegner: Dot3
Wände/Fussbodenoberfläche EMBM??

(Bei Halo übrigens das Gleiche)

Demirug
2004-06-12, 16:28:19
OK, das ist sicherlich ein Indiz würde mich aber denoch wundern weil D3 auf einer R9500 ja entweder den ARB2 oder den R200 Pfad benutzt und dort gibt es ja gar kein EMBM im klasischen Sinn. Es könnte also immer noch ein dummer Zufall sein das der "Shader" den D3 für die Wände einsetzt den gleichen Schaltkreis benötigt wie das klasische EMBM ohne selbst EMBM zu nutzen. Die R3XX Chips emulieren ja EMBM indem sie die dafür notwendigen Rechnungen auf der normalen FPU ausführen.

robbitop
2004-06-12, 16:52:01
genau wie die GeFORCE Karten afaik

Sunrise
2004-06-12, 18:08:42
Original geschrieben von robbitop
sicher bin ich nicht.
Ich habe so eine zwielichtige Geschichte hinter mir in der ich aus Spass an der Freude eine Radeon 9500 gemoddet habe. (2 Quads statt einem).
Alles schien generell zu gehen, nur EMBM ging im 3DMark nicht,es gab ein festes Artefaktmuster über dem EMBM Effekt. Also habe ich mir ein paar Techdemos für EMBM geladen und für alle möglichen anderen Effekte. Herraus kam, dass EMBM als einziges dieses feste Artefaktmuster behielt.

Dann habe ich besagte alpha eines nichtreleasten Spiels ausprobiert. Fakt war dass ich besonders auf dem Fussboden und an den Wänden dieses Muster wiedererkannt habe. Die Gegner konnten problemlos dargestellt werden.
Gegner: Dot3
Wände/Fussbodenoberfläche EMBM??

(Bei Halo übrigens das Gleiche)
Dieses Phänomen kann ich übrigens direkt bestätigen. Ich habe ca. 20 9500er im alten L-Layout gemodded, und bei 2 Karten davon hatte ich diese Artefakte. Es war allerdings wirklich nur unter 3dMark und unter genannter Alpha zu bewundern, alle anderen Andwendungen die ich getestet hatte liefen absolut ohne Fehler/Artefakte.

robbitop
2004-06-12, 18:58:07
bei mir traten ähnliche Artefakte auch bei Star Trek Bridge Commander und Sim City 4 auf. Und zwar war dort ein grünes Schachbrettmuster auf einigen Texturen ganz leicht zu erkennen.

Gast
2004-06-15, 22:09:52
Ich will mir Doom III kaufen (wenns denn endlich mal raus kommt. Und ich will es mit allen möglichen Details bei einer Auflösung von 1280 mal irgendwas spielen. Welche Frafikkarte nehm ich da nun am besten

GeForce 6800 Ultra, wobei ich hier bisher nur Karten mit 2 DVI anschlüssen gesehen habe. Da ich jedoch noch einen Analogen Monitor habe müsste ich mir also auch noch einen Adapter kaufen.
Oder nehme ich ne Radeon X800 Pro?
Oder warte ich noch und kaufe mir ne Geforce 6800 Ultra Extreme Edition bzw. ne Radeon X800 XT?

robbitop
2004-06-15, 22:46:23
wenns dir primär um die D3 Leistung geht: ne 6800.
Oder wart noch ein paar Monate, wenn Serie5 tatsächlich kommt, könnte sie bei D3 für Überaschungen sorgen.

deekey777
2004-06-15, 23:18:05
Original geschrieben von robbitop
wenns dir primär um die D3 Leistung geht: ne 6800.
Oder wart noch ein paar Monate, wenn Serie5 tatsächlich kommt, könnte sie bei D3 für Überaschungen sorgen.

Hellseher?

robbitop
2004-06-15, 23:33:24
ich sagte "könnte" ;)
Spekuforum

es ist allgemein bekannt, dass TBDRs eine überdurchschnittliche Z/Stencil Performance haben. Das könnte hier schon ordentlich was bringen.

Spake
2004-06-16, 00:43:56
welchen pfad die series 5 dann benutzen würde würde mich auch interressieren (vielleicht hat JC ja noch einen Shader3.0 pfad in petto wie z.B. Crytek)

im übrigen da die alpha schon oft erwähnt wurde:
--> es war nicht zufällig jemand verrückt genug eine G2 gegen einen kyro2 zu benchen???

robbitop
2004-06-16, 00:45:31
ich vermute mal den ARB2 Pfad.

Coda
2004-06-16, 01:22:21
Auch hier kommen damit sehr viele Gamer mit verbreiteter Hardware in den Genuß der aktuell besten Wasserdarstellung.
Gerade aus diesem Grund eine in diesem Punkt phänomenale Leistung der Crytek Jungs...
Das ist nur render-to-texture. Die schönsten Effekte sind nicht immer die schwierigsten zu implementieren.
Oder anders gesagt: Es gibt weitaus kompliziertere Aspekte bei einer 3D-Engine.

Ailuros
2004-06-16, 04:40:43
Original geschrieben von Spake
welchen pfad die series 5 dann benutzen würde würde mich auch interressieren (vielleicht hat JC ja noch einen Shader3.0 pfad in petto wie z.B. Crytek)

im übrigen da die alpha schon oft erwähnt wurde:
--> es war nicht zufällig jemand verrückt genug eine G2 gegen einen kyro2 zu benchen???

K2 laeuft nicht bei Doom3.

Gast
2004-06-16, 10:16:19
Original geschrieben von Ailuros
K2 laeuft nicht bei Doom3.

Wer sagt das?

Also die D3 alpha hab ich auf meinem Kyro zum Laufen bekommen. Wenn auch die Darstellung nicht ganz fehlerfrei war.

*ow*

Demirug
2004-06-16, 10:25:54
Original geschrieben von Gast
Wer sagt das?

Also die D3 alpha hab ich auf meinem Kyro zum Laufen bekommen. Wenn auch die Darstellung nicht ganz fehlerfrei war.

*ow*

Weil sie nicht Fehlerfrei sein kann. D3 braucht Hardware die Cubemaps und/oder Fliesspunkt Pixelshader hat.

aths
2004-06-16, 10:34:20
Original geschrieben von Demirug
Weil sie nicht Fehlerfrei sein kann. D3 braucht Hardware die Cubemaps und/oder Fliesspunkt Pixelshader hat. "Nur" zur Renormalisierung oder auch für andere Effekte?

Gast
2004-06-16, 11:01:43
Original geschrieben von Demirug
Weil sie nicht Fehlerfrei sein kann. D3 braucht Hardware die Cubemaps und/oder Fliesspunkt Pixelshader hat.

Kann man auf die Cubemaps nicht notfalls verzichten? Wieso sollten die eine "Muss"-Feature sein?

*ow*

aths
2004-06-16, 12:21:44
Original geschrieben von Gast
Kann man auf die Cubemaps nicht notfalls verzichten? Wieso sollten die eine "Muss"-Feature sein?Will man Renormalisieren und hat kein RSQ bzw. keinen Wertebereich der Zahlen deutlich >1 zulässt, geht das nur mittels vorberechneter Werte aus einer Cubemap. Ohne Renormalisierung läuft man Gefahr, Block-Artefakte in die "gebumpmappten" Oberflächen zu bekommen.

Gast
2004-06-16, 12:30:15
Dann stelllt sich die Frage, ob man denn unbedingt renormalisieren muss. Es gibt doch jede Menge Software die Bumpmaps nutzt ohne zu renormalisieren, oder nicht?

*ow*

Ailuros
2004-06-16, 12:52:58
Theoretisch koennte JC einen Pfad mit reduzierter Qualitaet entwickeln fuer aeltere Karten (Rage/TNT/Kyro/V5 etc.) aber erstens sind diese ziemlich selten in PCs zu finden und zweitens wird die Leistung ja sowieso nicht gerade gut sein (generell).

Also die D3 alpha hab ich auf meinem Kyro zum Laufen bekommen. Wenn auch die Darstellung nicht ganz fehlerfrei war.

Von den Darstellungsfehlern abgesehen, welche Aufloesung und wie sah's mit der Leistung aus?

***edit: mein voriger Kommentar basierte uebrigens auf diese Aussage hier:

http://www.beyond3d.com/interviews/carmackdoom3/index.php?page=page2.inc

(wurde ja von aths/demi erlaeutert).

Gast
2004-06-16, 12:59:25
Original geschrieben von Ailuros

Von den Darstellungsfehlern abgesehen, welche Aufloesung und wie sah's mit der Leistung aus?

Leistungsmaessig sah es nicht so gut aus, das tat es aber auf der Gf2MX oder Radeon1 auch nicht (~10fps bei 800x600). Erst auf der GF4ti oder R8500 kommt man ueber 25fps IIRC. Auf meinem XP1700 mit SDRAM gemessen.

Aber auf die Alpha wuerde ich ohnein nicht viel geben. Ich denke schon, das JC einen Pfad fuer aeltere HW einbaut, man kann D3 sicher auch ohne Bumpmapping und Cubemaps spielen.

*ow*

Gast
2004-06-16, 13:03:20
Original geschrieben von Gast
Leistungsmaessig sah es nicht so gut aus, das tat es aber auf der Gf2MX oder Radeon1 auch nicht (~10fps bei 800x600). Erst auf der GF4ti oder R8500 kommt man ueber 25fps IIRC. Auf meinem XP1700 mit SDRAM gemessen.

Aber auf die Alpha wuerde ich ohnein nicht viel geben. Ich denke schon, das JC einen Pfad fuer aeltere HW einbaut, man kann D3 sicher auch ohne Bumpmapping und Cubemaps spielen.

*ow*

Schon allein aus Leistungsgründen. D3 soll ja auf ner Geforce2 bequem spielbar sein, Cubemaps aber ziehen eine solche Karte sehr schnell auf den Boden.
Ich frag mich sowieso, was sich hier Leute fürn Kopf machen, was D3 für horrende Hardwareanforderungen, vor allem an die Grafik haben soll.
Sicher, es gibt BM und Stencieleffekte, aber ich denke, dass bei der Engine eher bei CPU/Speicher als Flaschenhals zu suchen ist.

aths
2004-06-16, 13:31:39
Original geschrieben von Gast
Dann stelllt sich die Frage, ob man denn unbedingt renormalisieren muss. Es gibt doch jede Menge Software die Bumpmaps nutzt ohne zu renormalisieren, oder nicht?

*ow* Den Unterschied zwischen pixelgenauer Beleuchtung mit und ohne Renormalisierung kannst du dir hier ansehen: http://www.forum-3dcenter.org/vbulletin/showthread.php?&threadid=116750

eXistence
2004-06-16, 13:35:07
Original geschrieben von Gast
Schon allein aus Leistungsgründen. D3 soll ja auf ner Geforce2 bequem spielbar sein, Cubemaps aber ziehen eine solche Karte sehr schnell auf den Boden.
Ich frag mich sowieso, was sich hier Leute fürn Kopf machen, was D3 für horrende Hardwareanforderungen, vor allem an die Grafik haben soll.
Sicher, es gibt BM und Stencieleffekte, aber ich denke, dass bei der Engine eher bei CPU/Speicher als Flaschenhals zu suchen ist.

das mit der Geforce2 meinst du hoffentlich nicht ernst...
Ist zwar reine SPekulation, aber ne Geforce4 wird es nach meinen Erwartungen schwer haben, man wird viel runterregeln müssen.
Erst ab Radeon9700pro dürfte an flüssiges Spielen mit allen details zu denken sein, und auch dann nur bei max 1024x768.
Ich bin kein 3d-pro, aber ich denke die Stencil-Schatten werden ne Menge fressen. Wenn man nen etwas größeren polycount und ne höhere Anzahl an Lichtquellen hat, dann dürfte das auch aktuelle GraKas hübsch ins schitzen bringen.
Die Schatten wird man vielleicht abstellen können, aber das bumpmapping wohl kaum.

Gast
2004-06-16, 13:52:52
"Ganz anders jedoch sieht es aus, sobald durch FSAA die spezielle Stenciloptimierung der GeForces ausgehebelt wird"

Zitat aus Grafikkartenvergleich bei Computerbase (vom 14.06.2004) Seite "Synthetische Benchmarks - Z/Stencil Füllrate" http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/8/#z_stencil_fuellrate

Gibt es Tests mit der Alpha von D3 dazu? Oder wurde es mal erwähnt das das einer getestet hat mit D3?
Ohne AA möchte sicher keiner D3 spielen, nicht jeder hat nen 1600er fähigen 19"+ Monitor.

Ailuros
2004-06-17, 00:18:21
Original geschrieben von Gast
Leistungsmaessig sah es nicht so gut aus, das tat es aber auf der Gf2MX oder Radeon1 auch nicht (~10fps bei 800x600). Erst auf der GF4ti oder R8500 kommt man ueber 25fps IIRC. Auf meinem XP1700 mit SDRAM gemessen.

Aber auf die Alpha wuerde ich ohnein nicht viel geben. Ich denke schon, das JC einen Pfad fuer aeltere HW einbaut, man kann D3 sicher auch ohne Bumpmapping und Cubemaps spielen.

*ow*

Mir ist es lieber wenn er sich NICHT mit Antiken beschaeftigt ;)

Ailuros
2004-06-17, 00:22:07
....dass bei der Engine eher bei CPU/Speicher als Flaschenhals zu suchen ist.

Nicht schlecht. Die CPU spielt ja eine sehr wichtige Rolle bei den Berechnungen im ersten Z-only pass.

Gast
2004-06-17, 11:57:34
Original geschrieben von eXistence
das mit der Geforce2 meinst du hoffentlich nicht ernst...
Ist zwar reine SPekulation, aber ne Geforce4 wird es nach meinen Erwartungen schwer haben, man wird viel runterregeln müssen.
Erst ab Radeon9700pro dürfte an flüssiges Spielen mit allen details zu denken sein, und auch dann nur bei max 1024x768.


Das widerspricht sich, da GF4 und 9700Pro etwa gleich schnell sind in ihrer Rohleistung.

robbitop
2004-06-17, 12:21:55
Original geschrieben von Gast
Das widerspricht sich, da GF4 und 9700Pro etwa gleich schnell sind in ihrer Rohleistung.
wie kommst du darauf?

Gast
2004-06-17, 12:23:07
Original geschrieben von Gast
Das widerspricht sich, da GF4 und 9700Pro etwa gleich schnell sind in ihrer Rohleistung.

aehh von was traeumst du nachts? wie der zufaell so spielt hat mein bruder eine 9700pro .. und meine frau eine geforce 4ti 4400.

mir ist keine anwendung bekannt (direcx8) bei der die ati 9700pro den kuerzeren zieht. ganz im gegenteil. die 9700pro ist viel viel viel viel viel viel schneller ;-).

robbitop
2004-06-17, 12:25:46
ich denke er spielt auf die MT Füllrate von 8 Texeln/Takt an. Aber das ist nur ein Faktor unter vielen.

Die R300 hat deutlich mehr FPUs als NV25, eine Colorcompression, deutlich besseres Culling, winkelabhängiges AF, eine breitere Speicheranbindgun usw

Quasar
2004-06-17, 12:32:46
Original geschrieben von Gast
Das widerspricht sich, da GF4 und 9700Pro etwa gleich schnell sind in ihrer Rohleistung.

FableMark, 1024x768x32:

Ti4800: 30,9
R9700p: 65,3

:|

Gast
2004-06-17, 12:36:03
Original geschrieben von Quasar
FableMark, 1024x768x32:

Ti4800: 30,9
R9700p: 65,3

:|


Geht es hier um Fablemark?

Gast
2004-06-17, 12:38:06
Original geschrieben von robbitop
ich denke er spielt auf die MT Füllrate von 8 Texeln/Takt an. Aber das ist nur ein Faktor unter vielen.

Die R300 hat deutlich mehr FPUs als NV25, eine Colorcompression, deutlich besseres Culling, winkelabhängiges AF, eine breitere Speicheranbindgun usw


Wie sind die Texelfillrates von GF4 und 9700Pro?
Imo sind die ganz aehnlich.

Ich sprach uebrigens von Rohleistung, nicht von AA und/oder AF.;)

robbitop
2004-06-17, 12:38:52
es geht um die Rohleistung, Templemark zeigt diese wunderbar auf.

Dort gehts um Pixelshader, Vertexshader, Culling, FPUs, Füllrate. Alles zusammen ist die Rohleistung.
Wer Rohleistung nur an der Füllrate festmacht, hat die letzten Jahre verpennt :)

Gast
2004-06-17, 12:41:28
Original geschrieben von robbitop
es geht um die Rohleistung, Templemark zeigt diese wunderbar auf.

Dort gehts um Pixelshader, Vertexshader, Culling, FPUs, Füllrate. Alles zusammen ist die Rohleistung.
Wer Rohleistung nur an der Füllrate festmacht, hat die letzten Jahre verpennt :)

Es geht hier um D3 und OpenGL.
Btw., VS haben in Games noch nie eine Rolle gespielt.

Quasar
2004-06-17, 12:44:48
Original geschrieben von Gast
Geht es hier um Fablemark?

Um Doom3, oder?

Und was haben Doom3 und FableMark gemeinsam?
Richtig, massenhaft Stencilschatten, die sogar, AFAIK, ähnlich erzeugt werden.

Aber du hast recht, in Doom3 kommt zusätzlich noch die bedeutend höhere Shaderleistung der R9700p zum Tragen.

Ti4800, PS1.1: 574 MPix/s
R9700p, PS2.0: 1279 MPix/s.

Das hätte ich doch fast übersehen.

Wollen wir auch noch die Bandbreiten ausrechnen?

sry
;(

robbitop
2004-06-17, 12:55:00
Doom3 nutzt Z-First pass und für den vorgezogenen Z Test braucht es die VS und zwar intensiv.

Ich empfehle dir ein paar Artikel bei 3DC, die sind wirklich sehr gut geschrieben, ansonsten b3d und 3dconcept.net

aths
2004-06-17, 13:01:32
Original geschrieben von Gast
Das widerspricht sich, da GF4 und 9700Pro etwa gleich schnell sind in ihrer Rohleistung. Nur in speziellen Situationen, die für heutige Spiele praktisch ohne Relevanz sind.

Gast
2004-06-17, 17:40:16
Original geschrieben von aths
Nur in speziellen Situationen, die für heutige Spiele praktisch ohne Relevanz sind.

danke aths ...

genau so ist es. wollt ihr synthetischen tests nachgehen oder der realitaet bei spielen?

manchmal glaube ich der k[r]ampf nvidia - ati wird niemals enden!

... die geforce 4 hat die gleiche rohleistung wie die ait 9700pro .. einfach nur laecherlich.

robbitop
2004-06-17, 17:44:02
manchmal kann man synthies verwenden um gewisse Grenzbereiche aufzuzeigen. In Realworld benches geht das nicht so wirklich.
In beidem ist die NV25 allerdings weit hinter der R300 bis auf die pure Texelfüllrate

Ailuros
2004-06-17, 19:52:13
Original geschrieben von Gast
danke aths ...

genau so ist es. wollt ihr synthetischen tests nachgehen oder der realitaet bei spielen?

manchmal glaube ich der k[r]ampf nvidia - ati wird niemals enden!

... die geforce 4 hat die gleiche rohleistung wie die ait 9700pro .. einfach nur laecherlich.

In CPU limitierten Anwendungen und natuerlich nicht in sehr hohen Aufloesungen und auch natuerlich nicht mit AA/AF.

Wir koennen ja Reviewern raten von jetzt ab nur CPU limitierte Anwendungen stets nur in 1024*768*32 ohne AA/AF zu testen, so dass in der Mehrzahl der Situationen GPUs von stets etwa zwei Generationen lineare Resultate zeigen koennen, nur damit Du Deinen Punkt unterstuetzen kannst.

Normales Beispiel eines CPU limitierten Spiels:

http://www.3dcenter.de/artikel/r420_benchmarks/index16.php

Ob jetzt kein AA/AF oder 2xAA/4xAF in 1024*768*32 aendert an den vergleichbaren Resultaten nicht viel. Im gegebenen Fall konzentriert man sich eben nur auf diese Resultate und kommt zur Schlussvolgerung dass wenn man heute eine R3xx/NV3x besitzt, keinen einzigen Grund hat sich eine R420/NV40 zu besorgen da angeblich Leistung bei allen eigentlich gleich sein soll.

Gegenbeispiel:

http://www.3dcenter.de/artikel/r420_benchmarks/index17.php

In dem Fall zeigt sich eine NV40 in 1600*1200*32 und 4xAA/16xAF mehr als 2x mal so schnell als eine NV38. Eine X800PRO mehr als 3x so schnell als diese.

Es geht um realistische Spiele und Echtzeit-Situationen und ja das spielen Shader-througput, Bandbreite und vieles anderes eine sehr wichtige Rolle und spiegelt sich auch in diesen wieder.

Gast
2004-07-20, 15:30:31
Inhaltslose Aussagen gelöscht.

Gast
2004-07-20, 18:11:55
http://www.theinquirer.net/?article=16782

6800 Ultra bis zu 50% schneller bei Doom3 ...

deekey777
2004-07-20, 19:25:20
Original geschrieben von Gast
http://www.theinquirer.net/?article=16782

6800 Ultra bis zu 50% schneller bei Doom3 ...

Na-na, da steht doch nur:".... We heard as much as 50 per cent faster but we'll have to wait for the official release and do our own tests to verify that."

Selbst der Inquirerglaubt nicht ganz daran will es selbst prüfen.

Gast
2004-07-20, 19:47:12
Glaube aber schon das die NV40 schneller rendert als die R420 dank Ultra Shadow II

deekey777
2004-07-20, 20:01:06
Original geschrieben von Gast
Glaube aber schon das die NV40 schneller rendert als die R420 dank Ultra Shadow II

Wenn ich mich nicht täusche, steht das auf den Seiten 1-7 in diesem Thread.

Und im FM Forum stand:
1. 6800 is a tad faster than X800 cards. Both run it in full glory

OT: Langsam verliere ich die Nerven - id sollte endlich mit dem Benchmark alle Klarheiten beseitigen.

Gast
2004-07-20, 22:03:02
Original geschrieben von Gast
Glaube aber schon das die NV40 schneller rendert als die R420 dank Ultra Shadow II

Wer an Ultra Shadow glaubt sollte sich mal die Situation mit Farcry in Erinnerung holen.

Da ging die grüne Marketingmaschiene auch von 40% mehr Leistungs bei einer FX5960 aus. Die Fakten heute sprechen für sich.

Meine Meinung ist, das ID die maximalen Effekte mit VS &co. rausholen wird und 3DC auch relativ schnell implementieren wird.

Ob dann die R420 schneller ist oder nicht spielt nur für DAUSIs eine Rolle.

Es kommt auf die Qualität an und nichts anderes, wie sie erreicht wird spielt für mich keine Rolle.

Pauschal aber allem zu glauben war bisher immer falsch!

tokugawa
2004-07-20, 23:13:06
Original geschrieben von Gast
Wer an Ultra Shadow glaubt sollte sich mal die Situation mit Farcry in Erinnerung holen.

Da ging die grüne Marketingmaschiene auch von 40% mehr Leistungs bei einer FX5960 aus. Die Fakten heute sprechen für sich.

Meine Meinung ist, das ID die maximalen Effekte mit VS &co. rausholen wird und 3DC auch relativ schnell implementieren wird.

Ob dann die R420 schneller ist oder nicht spielt nur für DAUSIs eine Rolle.

Es kommt auf die Qualität an und nichts anderes, wie sie erreicht wird spielt für mich keine Rolle.

Pauschal aber allem zu glauben war bisher immer falsch!

Ist Ultra Shadow nicht der "Marketingname" dafür, dass die NV Karten eben bei Z-Writes besonders schnell sind, sowie für 2-sided Stencil? Also speziell einige Dinge, von denen Stencil Shadow Volume Algorithmen besonders profitieren?

Von da her kann man technisch ruhig daran "glauben" denk ich. Die Frage ist halt, inwiefern dieser UltraShadow-Vorteil in der Gesamtgewichtung (Shadow Volume Schatten sind ja nicht das einzige, was gerendert wird, auch wenn die bei Shadow Volumes sehr viel Leistung verbrauchen) was ausmacht.

Corrail
2004-07-21, 00:14:06
Original geschrieben von tokugawa
Ist Ultra Shadow nicht der "Marketingname" dafür, dass die NV Karten eben bei Z-Writes besonders schnell sind, sowie für 2-sided Stencil? Also speziell einige Dinge, von denen Stencil Shadow Volume Algorithmen besonders profitieren?

Von da her kann man technisch ruhig daran "glauben" denk ich. Die Frage ist halt, inwiefern dieser UltraShadow-Vorteil in der Gesamtgewichtung (Shadow Volume Schatten sind ja nicht das einzige, was gerendert wird, auch wenn die bei Shadow Volumes sehr viel Leistung verbrauchen) was ausmacht.

Ultra-Shadow ist nicht nur einfach eine Beschleunigung, sondern eine Technologie, die das ganze beschleunigt. d.h. man muss sie explizit nutzen (unter OpenGL durch EXT_depth_bound_test). siehe http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1896654#post1896654

Blutgrätsche
2004-07-21, 19:36:11
Hätte man Ultra-Shadow bzw. depth-bound-test nicht auch mit 2 Clipping-Planes erschlagen können?

Xmas
2004-07-22, 01:02:46
Original geschrieben von Blutgrätsche
Hätte man Ultra-Shadow bzw. depth-bound-test nicht auch mit 2 Clipping-Planes erschlagen können?
Nein, weil es um den Tiefenwert geht der Bereits an aktueller Stelle im Z-Buffer steht, nicht um jenen des aktuellen Fragments.

Winter[Raven]
2004-07-22, 01:26:55
Hmmm ... ob der R420 schneller sein wird? Ich glaube nicht ...

http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_1_l.gif

http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_2.gif

http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif

Gast
2004-07-22, 02:44:33
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_4_1.gif

http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_4_2.gif

Ailuros
2004-07-22, 02:48:31
Hmmm ... ob der R420 schneller sein wird? Ich glaube nicht ...

Nichts das ich nicht erwartet haette.

Gast
2004-07-22, 02:54:23
This Dell machine featured an Intel Pentium 4 3.2GHz processor and 2GB of DDR400 Ram all on an i875 motherboard. DOOM 3’s AI and physics engine are not being used as they would in a real-world gaming experience.

Das sind ausserdem durchschnittliche fps. Alles unterhalb von 50 fps sollte wenig Freude machen, da mit Einbrüchen unter 20 fps zu rechnen ist.

Ailuros
2004-07-22, 03:43:40
Original geschrieben von Gast
This Dell machine featured an Intel Pentium 4 3.2GHz processor and 2GB of DDR400 Ram all on an i875 motherboard. DOOM 3’s AI and physics engine are not being used as they would in a real-world gaming experience.

Das sind ausserdem durchschnittliche fps. Alles unterhalb von 50 fps sollte wenig Freude machen, da mit Einbrüchen unter 20 fps zu rechnen ist.


Schon; aber eine 6800U liefert auch nur magere ~34fps in 1600*1200*32 4xAA/8xAF (Volcano indoor demo) und im Pier demo dass von 3DCenter benutzt wurde, noch magere 22 (!) fps in FarCry. Dass FC nicht spielbar ist in dieser Aufloesung duerfte wohl kein Geheimnis sein, ausser man reduziert radikal die settings.

Alle timedemos von Far Cry die ich bis jetzt gesehen habe, zeigen ueberhaupt keine Schiesserei, was wohl heisst dass nur die "tolle" Landschaft bewundert wird.

Dahingegen sind 40+ fps in der gleichen Aufloesung mit gleichen settings eigentlich ziemlich gut.

http://www.3dcenter.de/artikel/r420_benchmarks/index17.php

***edit: uebrigens sind Einbrueche <10fps sowieso oefters normal in sehr heftigen Situationen in ONS maps UT2k4 oder Far Cry.

seahawk
2004-07-22, 07:55:54
Hmm, da bricht die X800PRO aber heftig ein. Naja erstmal abwarten, ob das alles so stimmt.

reunion
2004-07-22, 09:46:42
Original geschrieben von Ailuros
Nichts das ich nicht erwartet haette.


ACK, das war nicht anders zu erwarten...

Ailuros
2004-07-22, 10:56:44
Original geschrieben von seahawk
Hmm, da bricht die X800PRO aber heftig ein. Naja erstmal abwarten, ob das alles so stimmt.

Ich weiss zwar nicht wie JC und co. genau getestet haben, aber es koennte sein dass sich das Bild noch zum schlechteren aendern koennte wenn Filterungs-Optimierungen mal in irgend einem Review abgestellt werden.

deekey777
2004-07-22, 11:50:49
Original geschrieben von robbitop
@reunion
Gabe N mit JC zuvergleichen ist unpassend.
-NV3x war der Doom3 Chip. NV35 hat afair den R3xx in Doom3 weggepustet. Das liegt daran, dass NVIDIA den NV3x und NV4x z.T. nach den Wünschen von J.C baut. Das sieht man besonders in der NV40 Architektur. Somit muss er das nicht sagen. Er hat seine Wünsche erfüllt bekommen und man sieht, es wirkt hervoragend auf seiner Engine.

...
Aus dem HardOCP Test:
NVIDIA has told us more than once that the 6800 series was “designed to play DOOM 3,” and the truth of that statement is now glaringly obvious.

Any questions?

q@e
2004-07-22, 12:05:05
Original geschrieben von deekey777
Aus dem HardOCP Test:
NVIDIA has told us more than once that the 6800 series was “designed to play DOOM 3,” and the truth of that statement is now glaringly obvious.

Any questions?
*meld*
Ja, hier!

Warum ist die X800-Serie das nicht auch?

deekey777
2004-07-22, 12:15:42
Original geschrieben von q@e
*meld*
Ja, hier!

Warum ist die X800-Serie das nicht auch?

Sie ist für alle Spiele gebaut und nicht auf ein bestimmtes optimiert.*







*Ach ja, das liebe HL2. Nein, die R420 wurde nicht für HL2 gebaut, sondern ATi wurde wegen der ausgezeichneten PS 2.0 Performance der R300 als Partner ausgewählt, was mit $6 Mio belohnt wurde.

q@e
2004-07-22, 12:24:30
Du meinst Sachen, wie Tomb Raider, 3DMark03, Far Cry usw..? ;)
Diese Dinge laufen auch auf einer 6800...

robbitop
2004-07-22, 12:25:46
HL2 sollte auf NV40 Karten auch recht gut laufen.
Bei Doom3 liegt es ja an den Z/Stencil Ops und Ultra Shaddow aber HL2 scheint keine ähnlichen Besonderheiten aufzuweisen. Sprich: ein Spiel mit DX9 Effekten. Wäre doch recht auffällig, wenn ein IHV enormen Vorsprung hätte...

Corrail
2004-07-22, 12:32:59
Original geschrieben von robbitop
HL2 sollte auf NV40 Karten auch recht gut laufen.
Bei Doom3 liegt es ja an den Z/Stencil Ops und Ultra Shaddow aber HL2 scheint keine ähnlichen Besonderheiten aufzuweisen. Sprich: ein Spiel mit DX9 Effekten. Wäre doch recht auffällig, wenn ein IHV enormen Vorsprung hätte...

Kurze Frage...
Hat es nicht geheißen, dass die DX9 Karten von NV und ATI jetzt den ARB2 Rendering Pfad verwenden? Wie will JC da Ultra-Shadow einbauen?

deekey777
2004-07-22, 12:43:03
Original geschrieben von Corrail
Kurze Frage...
Hat es nicht geheißen, dass die DX9 Karten von NV und ATI jetzt den ARB2 Rendering Pfad verwenden? Wie will JC da Ultra-Shadow einbauen?

Es hiess, dass der NV30-Pfad abgeschafft wurde, da die NV3x aka FXen durch die Verbesserungen im Treiber den NV30-Pfad nicht mehr brauchen und mit dem ARB2 genau so schnell sind. Die zweite Frage ist sehr unteressant.

@Quasar:

Du bist ein advocat diaboli. Die NV40 ist für D3 gebaut, darum auch sehr, sehr gut in Dumm 3.
(Der Rest war doch ironisch gemeint.)

robbitop
2004-07-22, 12:44:25
ich nehme an, dass das keine spezifische Extension bei OGL benötigt. Early Z benötigt ja auch keine. Das ist AFAIR einfach ein Chiptinternes spezifisches Culling. Da sollte die API nicht mit hineinspielen.

@DK
ack
siehe Ultra Shaddow, die ROPs, das HSR, die enorme Vertexleistung usw. (wobei das nicht alles NV40 exklusive Dinge sind).

ATi hätte Ähnliches verbauen können, haben sie jedoch nicht gemacht.

Gast
2004-07-22, 12:45:03
Original geschrieben von deekey777
Sie ist für alle Spiele gebaut und nicht auf ein bestimmtes optimiert.*







*Ach ja, das liebe HL2. Nein, die R420 wurde nicht für HL2 gebaut, sondern ATi wurde wegen der ausgezeichneten PS 2.0 Performance der R300 als Partner ausgewählt, was mit $6 Mio belohnt wurde.


Völlig deiner Meinung!

Ich sehe schon die Zukunft!

Doom4 wird direkt mit einer NV50 gebundelt.

Ich sehe diesen Benchmark, der übrings völlig okay ist als erste Bestätigung meiner privaten Meinung.

Es gibt Grafikchiphersteller die wollen für alle Spiele ein gute Leistung anbieten und andere konzentrieren sich halt nur auf einen Blockbuster und hoffen somit auf das Kurzzeitgedächnis der Gamer und die halten sie dann für den King!

Sehr bedenklich!

PS: Ich bin übrings sehr positiv überrascht wie diplomatisch sich die Redaktion in Ihrer heutigen News hierzu ausgedrückt hat.

LovesuckZ
2004-07-22, 12:48:20
Original geschrieben von Gast
Es gibt Grafikchiphersteller die wollen für alle Spiele ein gute Leistung anbieten und andere konzentrieren sich halt nur auf einen Blockbuster und hoffen somit auf das Kurzzeitgedächnis der Gamer und die halten sie dann für den King!


Stimmt, aber leider bieten S3 und XGI keine vernuenftige Alternative zu den neuen High End Monstern.

Corrail
2004-07-22, 12:52:00
Original geschrieben von robbitop
ich nehme an, dass das keine spezifische Extension bei OGL benötigt. Early Z benötigt ja auch keine. Das ist AFAIR einfach ein Chiptinternes spezifisches Culling. Da sollte die API nicht mit hineinspielen.

UltraShadow muss durch eine Extension angesprochen werden. Also entweder geschieht dies außerhalb des Rendering-Pfades, es gibt doch einen NV3X/NV4X Rendering-Pfad oder UltraShadow wird überhaupt nicht verwendet (was ich bezweifle).

Siehe
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1896654#post1896654
und
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2044971#post2044971

robbitop
2004-07-22, 12:52:30
@Gast
übertriebener Unsinn.

Wenn man bedenkt, dass TWIMTBP und GITG nur bessere Werbeflächen sind und beide einen guten Dev Relation besitzen, dann sind einige Formulierungen einfach zu drastisch.
Beim NV3x wurde gecheatet, weil es nötig war. Beide Architekturen haben das jetzt nicht mehr nötig. Gut ATi "optimiert" noch immer beim AF aber das sollte es im Groben schon gewesen sein.
Optimierungen die nicht auf die BQ gehen und nicht nur bei Benches was bringen sondern auch dem Spieler, sind nicht zu verurteilen sondern zu befürworten.

Bei Doom 3 liegt es einfach daran, dass NV sich an das Anforderungsprofil von JC eher hielt als ATi.
das kostet natürlich Transistoren, da war ATi schon immer sparsam. Niemand hielt ATi davon ab spezifische ROPs und ein Ultra Shaddow Pendant zu entwickeln. Dass die Engine so funktioniert, wie sie funktioniert ist seit Jahren bekannt. Schon während des Designprozess von NV3x/R3xx.
NV hielt sich dran, ATi nicht so sehr. Das hat mit Herstellerspezifischen Optimierung nichts zu tun.
Ich errinnere beide nutzen den ARB2 Pfad.

robbitop
2004-07-22, 12:54:40
Es sollte ausserhalb des Pfades geschehen.

"Teils teils. Machen Dinge von Ultra Shadow funktionieren automatisch andere muss man aktivieren (derzeit nur unter OpenGL möglich)."

Quelle: Demirug

seahawk
2004-07-22, 13:08:11
Original geschrieben von Ailuros
Ich weiss zwar nicht wie JC und co. genau getestet haben, aber es koennte sein dass sich das Bild noch zum schlechteren aendern koennte wenn Filterungs-Optimierungen mal in irgend einem Review abgestellt werden.

Könnte auch ein sehr geschickte gewähltes Timedemo sein. Siehe die Unterschiede in FarCry.

Und unter OGL, sind die Unterschiede doch gar nicht so gravierend.

deekey777
2004-07-22, 13:14:11
Bitte nicht spammen. Die Diskussion liest sich noch relativ gut, da braucht's keine Null-Aussagen.

ow
2004-07-22, 13:14:55
Original geschrieben von deekey777
Die NV40 ist für D3 gebaut,

Nein, der NV40 ist die mit Abstand technisch fortschrittlichste 3D-Hardware, die existiert.

Demirug
2004-07-22, 13:17:30
Original geschrieben von Corrail
UltraShadow muss durch eine Extension angesprochen werden. Also entweder geschieht dies außerhalb des Rendering-Pfades, es gibt doch einen NV3X/NV4X Rendering-Pfad oder UltraShadow wird überhaupt nicht verwendet (was ich bezweifle).

Siehe
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1896654#post1896654
und
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2044971#post2044971

Es gibt bei D3 nicht jeweils durchgängigen Pfad sondern für jeden Abschnitt der Pipeline entsprechenden Module die abhängig von den Fähigkeiten der Grafikkarte aktiviert werden. Das was derzeit meist als Pfad bezeichnet wird ist das Modul für die Lichtberechnung.

Für die Teile von Ultra Shadow die man gezielt aktivieren muss gibt es in der Pipeline sozusagen eine Extrastufe. Kann die Zielhardware das ganze nicht wird auf dieser Stufe einfach nichts gemacht. Beherscht sie die entsprechenden Extension werden diese mit den notwendigen Informationen gefüttert.

Das ist ähnlich der Stencil Geschichte. Für diese Renderstufe gibt es zwei Module. Eines rendert ganz normal und das andere benutzt Two-Side Stencil. Benutzt wird das Modul das dem Grafikchip entspricht.

Corrail
2004-07-22, 13:19:35
Original geschrieben von Demirug
Es gibt bei D3 nicht jeweils durchgängigen Pfad sondern für jeden Abschnitt der Pipeline entsprechenden Module die abhängig von den Fähigkeiten der Grafikkarte aktiviert werden. Das was derzeit meist als Pfad bezeichnet wird ist das Modul für die Lichtberechnung.

Für die Teile von Ultra Shadow die man gezielt aktivieren muss gibt es in der Pipeline sozusagen eine Extrastufe. Kann die Zielhardware das ganze nicht wird auf dieser Stufe einfach nichts gemacht. Beherscht sie die entsprechenden Extension werden diese mit den notwendigen Informationen gefüttert.

Das ist ähnlich der Stencil Geschichte. Für diese Renderstufe gibt es zwei Module. Eines rendert ganz normal und das andere benutzt Two-Side Stencil. Benutzt wird das Modul das dem Grafikchip entspricht.

Genau das wollt ich wissen, danke! :up:

deekey777
2004-07-22, 13:38:03
Original geschrieben von ow
Nein, der NV40 ist die mit Abstand technisch fortschrittlichste 3D-Hardware, die existiert.

Das ist hoffetnlich jedem klar.
Doch der Fortschritt ist ua auch in der Ultra Shadow II Technologie zu sehen, welche nun mal mit Doom 3 sehr gut zusammenarbeitet.
Wenn aber nVidia selbst sagt, dass der NV40 bzw. die NV40 Generation ist designed to play DOOM 3, dann ist die sehr gute Perfomance der 6800er nicht überraschend. Dagegen ist die enttäuschende Performance der X800Pro mehr als traurig zu bezeichnen.

http://www.nvidia.com/object/feature_ultrashadow2.html

ow
2004-07-22, 13:52:21
Original geschrieben von deekey777
Das ist hoffetnlich jedem klar.
Doch der Fortschritt ist ua auch in der Ultra Shadow II Technologie zu sehen, welche nun mal mit Doom 3 sehr gut zusammenarbeitet.
Wenn aber nVidia selbst sagt, dass der NV40 bzw. die NV40 Generation ist designed to play DOOM 3, dann ist die sehr gute Perfomance der 6800er nicht überraschend. Dagegen ist die enttäuschende Performance der X800Pro mehr als traurig zu bezeichnen.

http://www.nvidia.com/object/feature_ultrashadow2.html

Der NV40 ist mehr als nur UltrashadowII und das UltraShadow ist auch zu mehr zu gebrauchen als nur Doom3 denke ich.

][immy
2004-07-22, 14:13:04
nun
ein paar fragen die ich erstmal stellen würd (denn die unterschiede zwischen den karten ist ja recht beträchtlich)

sind die renderpfade jetzt eigendlich gleich?
z.B. für den nv3x? denn hier sollte damals ja ein wenig ungenauer berechnet werden


zum anderen. könnten die verluste auch an der im verlgeich zu nvidia schlechten allgmeinen opengl-unterstützung seitens ATi liegen?

beinhaltet doom 3 pfad-optimierungen für shader 3.0?

Gast
2004-07-22, 14:17:39
Original geschrieben von ow
Nein, der NV40 ist die mit Abstand technisch fortschrittlichste 3D-Hardware, die existiert.

Beweise!

Einfaches spammen wie Deekey schon erwähnte reicht nicht !

robbitop
2004-07-22, 14:18:53
@ow
das Eine muss das Andere nicht ausschliessen.
Er ist in Punkto VPUs für den Desktopmarkt die am weitesten entwickelte VPU (danach der NV3x). Und dennoch hat er zusätzich eine interne Ausrichtung auf Doom 3.
Und diese sind im Prinzip auf die gesamte Pipeline verteilt. ->ack: Nur Ultrashaddow zu nennen wäre doch ein wenig mager.

Gast
2004-07-22, 14:28:24
Original geschrieben von robbitop
@ow
das Eine muss das Andere nicht ausschliessen.
Er ist in Punkto VPUs für den Desktopmarkt die am weitesten entwickelte VPU (danach der NV3x). Und dennoch hat er zusätzich eine interne Ausrichtung auf Doom 3.
Und diese sind im Prinzip auf die gesamte Pipeline verteilt. ->ack: Nur Ultrashaddow zu nennen wäre doch ein wenig mager.

Warum ist dann Leistung bei Pixelshadern-Lastigen Games genau andersrum.

Ich kann mich noch erinnern wie hier die SM3.0 Welle durch Forum gin und dann die ERNÜCHTERUNG bei Farcry hochkam.

Ich finde dieses "BLINDE KUH" spielen mit einer Timedemos sehr beachtlich!

robbitop
2004-07-22, 14:47:19
1. NV40 hat 33% weniger Takt
2. FC wird nicht durch den PS limitiert
3. NV40 hat eine gute PS Performance (für 400MHz Chiptakt sogar sehr gut)
4. Far Cry nutzt nicht wirklich SM3. Lediglich einen Pfad der eine Anzahl von Interpolatoren verwendet, die SM3 Karten auf jeden Fall haben. Die NV3x scheint in dieses Profil gerade noch hineinzupassen.
Es kommt kein dynamisches Springen und Verzweigen zum Einsatz.

so what?

Sunrise
2004-07-22, 15:15:54
Ein ganz anderer Aspekt (der Rest wurde ja schon breitgetreten):

Bei den vorliegenden Benchmarks muss man sich schon fragen, warum man überhaupt noch an den Kauf einer 6800Ultra denken sollte.

10% Führung für die Ultra sind ehrlich gesagt ziemlich erbärmlich für den Aufpreis, den man aktuell zahlen muss. Die gute Übertaktbarkeit der GT macht ja inzwischen auch die Runde, und relativ gesehen ist die GT die mit Abstand beste Karte, die NV seit Jahren veröffentlicht hat, jedenfalls meiner Meinung nach.

robbitop
2004-07-22, 16:07:49
seit der Ti4200 zumindist.

Imp
2004-07-22, 17:00:57
Original geschrieben von Gast
Warum ist dann Leistung bei Pixelshadern-Lastigen Games genau andersrum.

Ich kann mich noch erinnern wie hier die SM3.0 Welle durch Forum gin und dann die ERNÜCHTERUNG bei Farcry hochkam.

Ich finde dieses "BLINDE KUH" spielen mit einer Timedemos sehr beachtlich!

Ochman GAST
stell dich doch net so dumm an

beim nicht einlogen stellst dich doch auch net so an
ansonsten siehe robbitop text !

full ack robbitop

deekey777
2004-07-22, 17:04:35
Original geschrieben von Gast
Beweise!

Einfaches spammen wie Deekey schon erwähnte reicht nicht !

Reicht dir das aus:
Inside ATIs R420 (http://www.3d-center.de/artikel/r420_technik/) <-> Inside nVidia NV40 (http://www.3d-center.de/artikel/nv40_technik/) ?

Eine Tatsache muss nicht bewiesen werden. Von Spammen fehlt hier jede Spur - selbst die FXen sind feature mässig überlegen.

Gast
2004-07-22, 19:07:05
Naja,

diese Inside Links sind ja ganz schön, aber auch nur eine Sichtweise von vielen, bitte nicht negativ nehmen.

Die schönsten Features nutzen nix wenn sie nur begrenzt einsetztbar sind.

Bei Farcry sieht es anders aus!

http://www.chip.de/artikel/c_artikelunterseite_11828813.html?tid1=&tid2=

Zitat Chip:
Aquamark3: Auch bei diesem Directx-9-Benchmark gibt es für die Nvidia-Konkurrenz nichts zu holen.

Halo: Ein Remis gibt's bei diesem DirectX-9-Spiel.

Benedikt
2004-07-22, 21:57:35
Original geschrieben von deekey777
Bitte nicht spammen. Die Diskussion liest sich noch relativ gut, da braucht's keine Null-Aussagen.

OT: Und ich dachte mir, diese Farbe sei den MODs vorbehalten? =)

MFG,
B. W.

deekey777
2004-07-22, 22:03:14
Original geschrieben von Benedikt
OT: Und ich dachte mir, diese Farbe sei den MODs vorbehalten? =)

MFG,
B. W.

Ist sie auch, ich hab nur einen dummen Witz gemacht...

Ailuros
2004-07-23, 00:36:00
Original geschrieben von seahawk
Könnte auch ein sehr geschickte gewähltes Timedemo sein. Siehe die Unterschiede in FarCry.

Und unter OGL, sind die Unterschiede doch gar nicht so gravierend.

Welche Unterschiede in Far Cry ueberhaupt? Dir ist wohl bewusst dass Filterungs-Optimierungen bei FC auch enorme Unterschiede machen koennen und dazu im Vergleich ist jeglicher SM3.0 path eigentlich ziemlich blass.

Welches neues OGL Spiel hast Du momentan (mit aehnlichen Texturen wie in den anderen neuen DX Spielen) ausprobiert, dass nicht rein zufaellig CPU limitiert ist?

Crushinator
2004-07-23, 09:58:43
Original geschrieben von Benedikt
OT: Und ich dachte mir, diese Farbe sei den MODs vorbehalten? =) (...) Wenn man unter seinen Beitrag schaut, sieht man den moderativen Eingriff meines Kollegen in Form von "Geändert von nggalai am 22. Juli 2004 um 13:19" ;)

P.S.: Zwecks besserer Lesbarkeit, paar Beiträge getrasht.

Benedikt
2004-07-23, 12:05:58
Original geschrieben von Crushinator
Wenn man unter seinen Beitrag schaut, sieht man den moderativen Eingriff meines Kollegen in Form von "Geändert von nggalai am 22. Juli 2004 um 13:19" ;)

P.S.: Zwecks besserer Lesbarkeit, paar Beiträge getrasht.

Ah ja, siehste, hab ich glatt übersehen ... :)
Sorry deekey777 ...

MFG,
B. W.

ow
2004-07-23, 12:12:24
Original geschrieben von Crushinator
Wenn man unter seinen Beitrag schaut, sieht man den moderativen Eingriff meines Kollegen in Form von "Geändert von nggalai am 22. Juli 2004 um 13:19" ;)

P.S.: Zwecks besserer Lesbarkeit, paar Beiträge getrasht.

vielleicht sollte der Mod seinen Kommentar einfach signieren, damit man ihn auch direkt als solchen erkennt.

gast
2004-07-23, 20:32:15
Original geschrieben von Gast
Naja,

diese Inside Links sind ja ganz schön, aber auch nur eine Sichtweise von vielen, bitte nicht negativ nehmen.

Die schönsten Features nutzen nix wenn sie nur begrenzt einsetztbar sind.

Bei Farcry sieht es anders aus!

http://www.chip.de/artikel/c_artikelunterseite_11828813.html?tid1=&tid2=

Zitat Chip:
Aquamark3: Auch bei diesem Directx-9-Benchmark gibt es für die Nvidia-Konkurrenz nichts zu holen.

Halo: Ein Remis gibt's bei diesem DirectX-9-Spiel.


Omg die Chip Geschichte kannst du ja sowiso vergessen!! Die sind doch zu blöd zum Eier kochen :)

Gast
2004-07-24, 21:12:59
Original geschrieben von gast
Omg die Chip Geschichte kannst du ja sowiso vergessen!! Die sind doch zu blöd zum Eier kochen :)

Das wird nicht gelöscht??? ;) Sehr einseitig!

tokugawa
2004-07-24, 22:10:07
Original geschrieben von Gast
Naja,

diese Inside Links sind ja ganz schön, aber auch nur eine Sichtweise von vielen, bitte nicht negativ nehmen.

Die schönsten Features nutzen nix wenn sie nur begrenzt einsetztbar sind.


Falls du mit "begrenzt einsetzbar" meinst, dass sie Spiele noch nicht unterstützen, dann denk einmal daran: Wie sollen Entwickler etwas unterstützen, was die Hardware nicht kann?

Folglich muß, bevor etwas in einem Spiel unterstützt wird, der Entwickler die Möglichkeit haben, es zu nutzen.

Folglich muß, bevor der Entwickler die Möglichkeit hat, es zu nutzen, zuerst die Hardware es unterstützen.

Folglich sind Features (die meisten zumindest) definitiv gutzuheißen und nicht totzureden, bloß weil sie "noch nicht in Spielen aufgetaucht sind".

PS: Die Features kommen auch Entwicklern abseits von Spielen zugute.