PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Neue nVidia Wundertreiber?


Seiten : [1] 2 3

egdusp
2004-06-23, 23:59:08
Hallo,

wie es scheint, hat NV durch neue Treiber noch ein ganzen Quentchen mehr Performance rausgeholt und damit ATI hinter sich gelassen, siehe:
http://www.guru3d.com/article/Videocards/135/
Now with newer drivers it's clear, there's no real need for that Extreme Edition anymore. In fact, to position the product even better on the market we can see an even slower clocked product then the Ultra.

Habe leider nicht die Lust mich durch alle Reviewseiten zu wühlen. Wie sieht die Performance mit den neuen Treiber den insgesamt aus? Wird nur noch mehr "optimiert" au Kosten dier Bildwqualität oder ist es echter Performancegewinn ohne Kosten?

mfg
egdusp

Mr. Lolman
2004-06-24, 00:18:26
Original geschrieben von egdusp
Hallo,

wie es scheint, hat NV durch neue Treiber noch ein ganzen Quentchen mehr Performance rausgeholt und damit ATI hinter sich gelassen, siehe:
http://www.guru3d.com/article/Videocards/135/
Now with newer drivers it's clear, there's no real need for that Extreme Edition anymore. In fact, to position the product even better on the market we can see an even slower clocked product then the Ultra.

Habe leider nicht die Lust mich durch alle Reviewseiten zu wühlen. Wie sieht die Performance mit den neuen Treiber den insgesamt aus? Wird nur noch mehr "optimiert" au Kosten dier Bildwqualität oder ist es echter Performancegewinn ohne Kosten?

mfg
egdusp


LOL was Guru3d da wieder für Wundertreiber am Start hat. Verdammt schnell ist so ne GT auf jeden Fall..

..aber auch viel kühler als der Hitzetreter X800 pro ( :???: ), und dann noch das polemische SM3.0 Geschwätz. Sry, damit hat sich Guru3d entgültig disqualifiziert (mal vernünftige Tests abwarten):


Funny story, I've been following some threads in our forums lately to see the ATI versus NVIDIA discussions regarding 3.0 Shader technology. It's now known that the x800 series from ATI (which we recently tested) does not support DirectX 9.0c Shader Model 3.0. The discussion we see from a lot of ATI fans is are like this "Hey, who needs Pixel and Vertex Shader 3.0?; there is not one game that supports it and it that won't happen this year also.''

That's so wrong people. The step from 2.0 towards 3.0 is a small one and most Shader Model 2.0 games can easily be upgraded towards Model 3.0, which means more candy for the eyes. When DirectX 9 is updated we are going to see a lot of support for 3.0 Shaders. Is it a huge visual advantage over 2.0? Personally I question that fact. Any technological advantage is always welcome and preferred over a previous generation development. The general consensus for developers is to use as low a shader version as possible. Shaders 3.0 will be used only in several critical places where it gives a performance boost or significantly boosts image quality.


Bekommen die eigentlich Geld für dieses Geschwätz? ATi und NVidia könntens nicht besser machen! :bonk:

Coda
2004-06-24, 01:14:38
Eigentlich hätte man sich schon viel früher darüber aufregen müssen, zumindest bei den PixelShadern
Weil die nVidia PixelShader 2.0 sind fast 3.0

Nur weil die Nummer jetzt eins höher ist finden die DAUs ATi auf einmal sooo viel schlechter ...

Hauwech
2004-06-24, 01:30:14
Original geschrieben von Mr. Lolman
LOL was Guru3d da wieder für Wundertreiber am Start hat. Verdammt schnell ist so ne GT auf jeden Fall..

..aber auch viel kühler als der Hitzetreter X800 pro ( :???: ), und dann noch das polemische SM3.0 Geschwätz. Sry, damit hat sich Guru3d entgültig disqualifiziert (mal vernünftige Tests abwarten):



Bekommen die eigentlich Geld für dieses Geschwätz? ATi und NVidia könntens nicht besser machen! :bonk:

Das die 6800GT kuehler ist wuerde ich einfach mal auf den groesseren Kuehler schieben. Ist aber eher uninteressant.

Zum zweiten Teil, was ist daran Geschwaetz? Erklaer doch mal...

Mr. Lolman
2004-06-24, 01:43:09
Original geschrieben von Hauwech
Das die 6800GT kuehler ist wuerde ich einfach mal auf den groesseren Kuehler schieben. Ist aber eher uninteressant.

Zum zweiten Teil, was ist daran Geschwaetz? Erklaer doch mal...

More Candy for Eyes, wirds z.B. nur geben wenn NV ordentlich Kohle springen lässt, (damits exklusiv bleibt), oder jemand Shader einbaut, die, ohne einen dementsprechenden 'CPU Fallback', dynamisches Branching erlauben, was aber für alle nicht NV40 User einer Verarschung gleichkäme, da FX Karten auch schon ohne dyn. Branching mit der Shaderleistung zu kämpfen haben.


Und aussagen wie: "That's so wrong people", find ich zumindest dann anmassend wenn man keine greifbaren Belge für seine Argumente hat, ich habs halt als Geschwätz tituliert.


Zur Hitzeentwicklung könne man wieder gegenhalten, dass der R420 lowK ist, und sogar die XT eine niedrigere Abwärme als eine 9800pro hat. Aber wenns Guru3d gemessen hat, wirds wohl stimmmen..

Hauwech
2004-06-24, 03:46:33
Original geschrieben von Mr. Lolman
More Candy for Eyes, wirds z.B. nur geben wenn NV ordentlich Kohle springen lässt, (damits exklusiv bleibt), oder jemand Shader einbaut, die, ohne einen dementsprechenden 'CPU Fallback', dynamisches Branching erlauben, was aber für alle nicht NV40 User einer Verarschung gleichkäme, da FX Karten auch schon ohne dyn. Branching mit der Shaderleistung zu kämpfen haben.


Und aussagen wie: "That's so wrong people", find ich zumindest dann anmassend wenn man keine greifbaren Belge für seine Argumente hat, ich habs halt als Geschwätz tituliert.


Zur Hitzeentwicklung könne man wieder gegenhalten, dass der R420 lowK ist, und sogar die XT eine niedrigere Abwärme als eine 9800pro hat. Aber wenns Guru3d gemessen hat, wirds wohl stimmmen..

NV muss nicht unbedingt ordentlich Kohle springen lassen. More Eye Candy fuer "sein" Spiel anzubieten ist auch durchaus eine Prestige und Imagesache. Es zeigt, das man "Leading Edge Technology" entsprechend im vernuenftigen Umfang beherrscht und einsetzen kann. Solche Leute beauftrage ich ja wohl eher mit der Entwicklung eines neuen Spiels als bei DX7 steckengebliebene Entwickler.

Fallbacks muessen meistens eh fuer die aelteren Karten eingebaut werden. Na und? Bezueglich Shaderleistung ist wohl schon seit langem klar das die FXen unter DX9 nicht so prall sind, oder nicht? Wer sich 1. vorher nicht informiert ist selber schuld oder 2. trotz der schlechteren Shaderleistung sich trotzdem eine FX aus welchen Gruenden auch immer gekauft hat muss und kann anscheinend damit leben und 3. man von einer 100 Euro Karte keine Wunder erwarten kann erst Recht nicht wenn sie noch nicht mal von NVidia selber als GamingCard beworben wurde. Da besch1st ATI mit den umgelabelten 8500 und den aktuell umgelabelten 9600ern ja wohl um einiges mehr.

Das mit der Verarschung aller Nicht NV40-User ist ja wohl Kaese. Diese "CPU-Fallback-Verarsche" kann wohl eher fuer die GF4MX gelten aber doch wohl nicht fuer die FXen.
So gesehen duerfen sich auch alle >R95xx User verarscht vorkommen weil die X800 mehr als "nur" SM2 kann?

That's so wrong people
Warum? FarCry bekommt demnaechst SM3 Support. Klar muss Microsoft erstmal DX9.0c rausruecken was aber auch demnaechst passieren wird. SM3 ist in DX9 festgelegt, die Specs, die Moeglichkeiten sind seit mind. Herbst 2002 fuer alle offen, fuer Devs schon frueher. Meinst du die lesen sich in SM3 erst seit gestern an?
Wenn die IHVs mit Ausblick auf die Verspaetung von Longhorn und damit DXNext ganz klar gesagt haetten "SM3 lohnt sich eh nicht vor Mitte 2005 in unsere Chips einzubauen" und die Entwickler es somit als gesichert ansehen koennen sich vorerst nicht um SM3 kuemmern zu muessen und dementsprechend Null Ahnung haetten, ja dann koennte ich die Aussage als arrogant und Geschwaetz gelten lassen. Aber so, wenn SM3 mehr oder weniger vor der Tuer steht: "Shader Model 3.0 titles that we can expect soon: Lord of the rings; Battle for Middle-Earth, Stalker, Vampire; Bloodlines, Splinter Cell X, Driver 3, Grafan, Painkiller, Far Cry and more..."

Da alleine schon FarCry bald SM3 Support bekommt kann es anscheinend doch nicht so schwierig sein, oder?
Selbst wenn wir mal davon ausgehen das die FarCry Jungs schon zum Jahreswechsel Testsamples des NV40 zum Rumspielen hatten, ca. 6 Monate also und jetzt schon SM3 als Patch anbieten koennen, dann kann es anscheinend wirklich nicht so schwer sein, oder?
Alle Moeglichkeiten von SM3 auszunutzen was wahrscheinlich schon schwieriger waere, dafuer ist auch der R500/NV50 zu schwach.
Ausserdem ist das von dir angesprochene Branching ja wohl wirklich nur ein kleiner Teil von SM3. Nebenbei unterstelle ich Leuten wie JC (OK, ist OGL aber im Prinzip das gleiche) und anderen Spieleengineentwicklern eine gewisse Weitsicht was mit kommenden Chips und APIs ihre Engine in Zukunft mit unterstuetzt damit sie sich weiterhin gut verkauft.

Wenn ich mir diesen Ausschnitt durchlese kann ich wirklich nicht feststellen das er SM3 in den Himmel lobt. SM3 Support ja, better IQ eher nein, wenn, dann nur wenn die Leistung dadurch nicht komplett zusammenbricht. Speedupdates sind normal und wenn es sich lohnt, warum nicht, wenn es die Engine erlaubt.

Wenn dann kann man eher Microsoft als Schuldigen fuer noch fehlende Belege ausmachen. Ich unterstelle einfach mal das MS frueh genug wusste welcher Chip was kann und dementsprechend DX9.0c zum Launch von NV40 haette vorbereiten koennen. Weiterhin kann man davon ausgehen das Nvidia aus dem NV30 Debakel, naemlich der im Vergleich zum R300 eher schlechten SM2 Performance, fuer den NV40 gelernt hat und ihn bestimmt nicht nochmal macht. Dafuer wurden sie, nicht zuletzt mit der zeitlichen Verspaetung des NV30, entsprechend abgestraft.
Natuerlich spielt ATI ihnen mit dem Fehlen von SM3 in die Haende aber wenn Nvidia mit SM3 den gleichen sh1ce wie mit SM2 gebaut hat, dann werden sie sowieso, zu Recht, mal wieder zum Gespoett. Spaetestens, wenn ATI einen tollen SM3 Chip zu Lebzeiten der NV4x Linie aus dem Hut zaubert.

Ailuros
2004-06-24, 04:07:25
More Candy for Eyes, wirds z.B. nur geben wenn NV ordentlich Kohle springen lässt, (damits exklusiv bleibt), oder jemand Shader einbaut, die, ohne einen dementsprechenden 'CPU Fallback', dynamisches Branching erlauben, was aber für alle nicht NV40 User einer Verarschung gleichkäme, da FX Karten auch schon ohne dyn. Branching mit der Shaderleistung zu kämpfen haben.

Wie soll ich das jetzt verstehen? Was fuer CPU Fallback fuer welche Shader genau und/oder was hat dynamisches branching ueberhaupt mit NV3x zu tun?

Das der Author bei Guru3D keine Ahnung hat kann man ja sehen. Aber das obrige konnte ich jetzt auch nicht genau verstehen.

Ein Versuch das Ganze ein bisschen aufzuraeumen waere dass SM3.0 nicht NUR dynamisches branching gleicht generell und wenn eine Karte kein SM3.0 unterstuetzt, dann kann man generell auch nichts emulieren. Im besten Fall ein PS2.0 oder PS2.0+ oder sogar niedriger Modus je nach Komplianz.

aths
2004-06-24, 09:20:06
Original geschrieben von Mr. Lolman
Bekommen die eigentlich Geld für dieses Geschwätz? ATi und NVidia könntens nicht besser machen! :bonk: Was soll daran so falsch sein?

Original geschrieben von Coda
Eigentlich hätte man sich schon viel früher darüber aufregen müssen, zumindest bei den PixelShadern
Weil die nVidia PixelShader 2.0 sind fast 3.02.X.

Original geschrieben von Ailuros
Im besten Fall ein PS2.0 oder PS2.0+ oder sogar niedriger Modus je nach Komplianz. Branching wird schon von 2.X erlaubt :)

Exxtreme
2004-06-24, 09:37:54
Neue Wundertreiber?

Bitte nicht schon wieder. ;D Solche Gerüchte sind schon seit der GF2 im Umlauf.

Mr. Lolman
2004-06-24, 09:38:01
Original geschrieben von aths
Was soll daran so falsch sein?



which means more candy for the eyes


Hat Demi nicht selbst gesagt, dass es wahrscheinlich nix mit 'more candy for the eyes' wird?

Vielleicht maximal, dass mit der durch SM3.0 gewonnenen Performance mehr Effekte möglich sind. Aber das ist genausowenig greifbar, wie wenn man irgnedwelche prozentualen Gewinne, die durch die kontinuirliche Verwendung von 3dc, bei Normalmaps, entstehen, ausrechnen will.

xL|Sonic
2004-06-24, 09:47:09
Was Far Cry angeht und diese angeblichen SM3.0 Effekte, die man bis jetzt gesehen hat, dann ist das bisher nix anderes als Offset Mapping gewesen, was auch locker auf dem r420 realisiert werden kann. Man kann viel im Vorfeld reden und machen, obs auch wirklich so kommt, ist da ne ganz andere Frage.

LovesuckZ
2004-06-24, 09:47:53
Original geschrieben von Mr. Lolman
More Candy for Eyes, wirds z.B. nur geben wenn NV ordentlich Kohle springen lässt, (damits exklusiv bleibt), oder jemand Shader einbaut, die, ohne einen dementsprechenden 'CPU Fallback', dynamisches Branching erlauben, was aber für alle nicht NV40 User einer Verarschung gleichkäme, da FX Karten auch schon ohne dyn. Branching mit der Shaderleistung zu kämpfen haben.

Sry, aber dann muesste sich jeder DX<9 Karten Besitzer verarscht vorkommen, weile er keine FP Genauigkeit darstellen kann...
Was kann Nvidia oder der Spieleentwickler dafuer, dass die Konkurenz featuremaeßig bei den Shadern unterlegen ist? Auf sie ruecksicht nehmen, wenn es um noch bessere IQ oder besseren Speed geht? Bestimmt, denn die Leute, vorallen die r420 User, haetten sich auch einen NV40 kaufen koennen.
Und was haben die FX User nun damit zu tun? Soll Nvidia jetzt kein SM3.0 propagieren oder gleich die Spieleentwickler anweisen, kein SM2.0 zu verwenden, weil die FX Serie dafuer zu langsam waere?

Und aussagen wie: "That's so wrong people", find ich zumindest dann anmassend wenn man keine greifbaren Belge für seine Argumente hat, ich habs halt als Geschwätz tituliert.

Er hat aber leider recht.

Exxtreme
2004-06-24, 09:48:46
Original geschrieben von egdusp
Hallo,

wie es scheint, hat NV durch neue Treiber noch ein ganzen Quentchen mehr Performance rausgeholt und damit ATI hinter sich gelassen, siehe:
http://www.guru3d.com/article/Videocards/135/

Also wer die Website verbrochen hat, der gehört 40 Tage lang ausgepeitscht. :D

Ansonsten schlägt sich die GF6800GT richtig gut mit dem neuen Treiber.

LovesuckZ
2004-06-24, 09:48:58
Original geschrieben von Mr. Lolman
Hat Demi nicht selbst gesagt, dass es wahrscheinlich nix mit 'more candy for the eyes' wird?


FP32 und laengere Shader sorgen für "'more candy for the eyes'".

egdusp
2004-06-24, 09:57:16
Gibt es denn schon irgendwo Vergleiche alte gegen neue Treiber? TI hatte ja auch mal was von den neuen Wundertreibern erzählt. Dieser Begriff kommt AFAIK nicht von NV.

mfg
egdusp

Mr. Lolman
2004-06-24, 10:00:50
Original geschrieben von LovesuckZ
FP32 und laengere Shader sorgen für "'more candy for the eyes'".

Häng dich bloss nicht an den längeren Shadern auf. Die UE3 Denmo hatte bloss 50-200 Instructionen/Shader und trotzdem hats stellenweise geruckelt.

Und auch wenn dus noch 10x schreibst, dass SM3.0 more Zuckerln für die Augen bringt, glauben werd' ichs deswegen auch nicht, zumindest solang niemand eine schlüssige Erklärung anbieten kann, warum dies so sein sollte...

LovesuckZ
2004-06-24, 10:08:18
Original geschrieben von Mr. Lolman
Häng dich bloss nicht an den längeren Shadern auf. Die UE3 Denmo hatte bloss 50-200 Instructionen/Shader und trotzdem hats stellenweise geruckelt.

Und? Ohne Nvidia haette die Demo gerade mal maximal 64 Mathematische- und 32 texturanweisungen,
aber das sieht man als ATi user nicht...
Und 200 Anweisungen sind deutlich mehr als Ruby bietet.

Und auch wenn dus noch 10x schreibst, dass SM3.0 more Zuckerln für die Augen bringt, glauben werd' ichs deswegen auch nicht, zumindest solang niemand eine schlüssige Erklärung anbieten kann, warum dies so sein sollte...

Mehr Speed -> mehr Moeglichkeiten fuer IQ.
Das brauch nicht auf dem NV40 zu treffen, doch NV50 Karten koennen und werden wohl von einer breiten Verfuegbarkeit von SM3.0 Anwendungen proftieren.
Ahso, wenn nicht "SM3.0 more Zuckerln für die Augen bringt", dann bringt dies 3Dc auch nicht.
Und PS1.1 bzw. PS1.4. Wobei ebenfalls. Wurde die 8500 nicht wegen den besseren Shadern von einigen "contra SM3.0 leuten hochgelobt? Zu unrecht, denn es bringt ja keine bessere IQ...

aths
2004-06-24, 10:10:02
Original geschrieben von Mr. Lolman
Häng dich bloss nicht an den längeren Shadern auf. Die UE3 Denmo hatte bloss 50-200 Instructionen/ShaderRadeon 9500-9800 ist auf 32+64 Instruktionen limitiert.
Original geschrieben von Mr. Lolman
und trotzdem hats stellenweise geruckelt. Davon habe ich nichts gemerkt. Aber vergleichen wir die Relationen: Radeon 9800 bei dieser Grafik: Einstellige fps. NV40: Spielbar.

Original geschrieben von Mr. Lolman
Und auch wenn dus noch 10x schreibst, dass SM3.0 more Zuckerln für die Augen bringt, glauben werd' ichs deswegen auch nicht, zumindest solang niemand eine schlüssige Erklärung anbieten kann, warum dies so sein sollte... Gegenüber 2.0 kann man mit 3.0 wirklich mehr machen, und NV40 hat auch die erforderliche Power dafür. Die Frage ist eher, ob das Potenzial schon jetzt ausgenutzt wird, oder erst wenn ATI 3.0 (oder höhere) Shader unterstützt.

Mr. Lolman
2004-06-24, 10:21:31
Original geschrieben von aths
Radeon 9500-9800 ist auf 32+64 Instruktionen limitiert.


9500-9800, wir reden aber von x800, oder siehst du mittlerweile die R3x0 Karten als Konkurrenten zum NV40



Davon habe ich nichts gemerkt. Aber vergleichen wir die Relationen: Radeon 9800 bei dieser Grafik: Einstellige fps. NV40: Spielbar.

Wieder das gleiche. Andere Frage: würde ein Nv35 spielbare fps liefern?


Gegenüber 2.0 kann man mit 3.0 wirklich mehr machen, und NV40 hat auch die erforderliche Power dafür. Die Frage ist eher, ob das Potenzial schon jetzt ausgenutzt wird, oder erst wenn ATI 3.0 (oder höhere) Shader unterstützt.

Ja mehr machen kann man, aber selbst Demi fiel doch nur das Beispiel mit den Mipmaps innerhalb eines Bumpmapping Shaders ein, wo die SM3.0 Vorteile direkt optisch umgesetzt werden könnten. (Sonst müsste halt die CPU innerhalb der Gamengine entscheiden, ob es noch sinnvoll ist, den Shader zu berechnen oder nicht)


Klaro die Freiheiten sind grösser, aber um nochmal aufs T&L Beispiel zurückzukommen, hat T&L auch nur irgendwo einen optischen Vorteil ggü. nich T&L Karten bringen können?

Mir gehts darum was mit der Technologie selbst möglich ist, nicht ob man durch die gewonnene Performance vielleicht noch zusätzlich ganz viele tolle Effekte einbaun kann, die sonst nicht möglich wären


/edit: Zum Ruckeln: Damits nicht heisst, dass ich auch nur haltlose Dinge von mir gebe. Schaut' euch im Video die Szene, an, wo die Kamera aus der Szenerei wegzoomt, und rückwerts durch so ein 'Fenster' von einem Pavillion fährt. Flüssig ist das nicht...

Mr. Lolman
2004-06-24, 10:26:04
Original geschrieben von aths
Radeon 9500-9800 ist auf 32+64 Instruktionen limitiert.



Dementsprechend musste Colourless, auch deftige Multipass Shader für R3x0 HW bauen, damit die Ruby Demo mit voller (?) Qualität darstellbar ist.

Ich weiss zwar nicht, wieviel schneller die neuen NV Treiber wirklich sind (anscheinend haben alle Websites, das Benchen verlernt ;)), aber von ner bestimmten Szene im Rubydemo gibts nen Screenshot einer 6800GT, die (ohne AA/AF) an der Stelle 25fps erreicht, wo meine 9700pro, mit 4xAA/pAF 22fps schafft.


Vielleicht ist der Vergleich NV40:9500-9800 doch nicht so an den Haaren herbeigezogen, wie ich zunächst angenommen hab ;)

xL|Sonic
2004-06-24, 10:35:24
Original geschrieben von LovesuckZ
Mehr Speed -> mehr Moeglichkeiten fuer IQ.
Das brauch nicht auf dem NV40 zu treffen, doch NV50 Karten koennen und werden wohl von einer breiten Verfuegbarkeit von SM3.0 Anwendungen proftieren.
Ahso, wenn nicht "SM3.0 more Zuckerln für die Augen bringt", dann bringt dies 3Dc auch nicht.


Bis es soweit ist, dann wird der nv40 wohl auch nicht mehr genügend Performance für solche Spiele liefern, wenn du sie auch noch mit max fsaa und aa spielen willst...

Mr. Lolman
2004-06-24, 10:37:10
Original geschrieben von Valmar
Bis es soweit ist, dann wird der nv40 wohl auch nicht mehr genügend Performance für solche Spiele liefern, wenn du sie auch noch mit max fsaa und aa spielen willst...

Ums mit Tjells Worten zu sagen:

"Time will tell."

Aber wahrscheinlich hast du nicht ganz unrecht ;)

aths
2004-06-24, 10:41:07
Original geschrieben von Mr. Lolman
9500-9800, wir reden aber von x800, oder siehst du mittlerweile die R3x0 Karten als Konkurrenten zum NV40 Ok, die X800 benötigt allerdings für den gleichen Effekt mehr Instruktionen, und kann nicht so viele Instruktionen in einem Takt ausführen wie der NV40. "Schlimmer" ist noch das MDR-Lighting. NV40 kann das mit dedizierter HW beschleunigen, X800 muss auf Techniken ausweichen die massiv die Performance drücken.

Original geschrieben von Mr. Lolman
Wieder das gleiche. Andere Frage: würde ein Nv35 spielbare fps liefern?Bei den Settings? Das möchte ich stark bezweifeln. NV40 ist shadermäßig ~ 4x-6x so stark wie der NV35, und hat eben Spezial-HW für Effekte die auf Medium Dynamic Range angewiesen sind.

Original geschrieben von Mr. Lolman
Ja mehr machen kann man, aber selbst Demi fiel doch nur das Beispiel mit den Mipmaps innerhalb eines Bumpmapping Shaders ein, wo die SM3.0 Vorteile direkt optisch umgesetzt werden könnten. (Sonst müsste halt die CPU innerhalb der Gamengine entscheiden, ob es noch sinnvoll ist, den Shader zu berechnen oder nicht)Xmas kennt ein anderes Beispiel, wo eine neue Textursampling-Anweisung (neu ggü. 2.0, nicht gegenüber CineFX) die CPU entlasten kann.)

Original geschrieben von Mr. Lolman
Klaro die Freiheiten sind grösser, aber um nochmal aufs T&L Beispiel zurückzukommen, hat T&L auch nur irgendwo einen optischen Vorteil ggü. nich T&L Karten bringen können? T&L war, wenn überhaupt, ein Performance-Bringer. Das wird für SM 3.0 auch vorrangig gelten. Mehr Performance = höheres Grafikdetail bei gleicher Geschwindigkeit.

Original geschrieben von Mr. Lolman
Mir gehts darum was mit der Technologie selbst möglich ist, nicht ob man durch die gewonnene Performance vielleicht noch zusätzlich ganz viele tolle Effekte einbaun kann, die sonst nicht möglich wären Mit SM 3.0 kannst du fast alles machen :) Speziell NV40 eignet sich besonders gut für hochwertiges Bumpmapping und image-based MDR-Lighting. Damit sind geile Lichteffekt möglich: Stell dir vor, zu betrittst eine Kirche. Die Grafik stellt die Dunkeladaption des Auges nach. Durch die Glasmosaik-Fenster fällt Licht und erzeugt auf dem Boden ein entsprechendes Abbild. Die Wände sind mit Offset-Mapping ("Virtual DM") gerendert.
Prinzipiell kann man sowas auf jeder 9600 berechnen. Dazu sind aber "Umwege" in der Effektprogrammierung erforderlich, wo man beim NV40 Spezial-Einheiten verwenden kann, die entsprechend schneller sind.

Die 3.0-Flexibilität ist die eine Seite. Auf der anderen geht NV40 den Weg einer traditionellen GPU: Für oft genutzte Aufgaben (massiv parallele) dedizierte Hardware zur Verfügung stellen.

aths
2004-06-24, 10:43:20
Original geschrieben von Mr. Lolman
Ich weiss zwar nicht, wieviel schneller die neuen NV Treiber wirklich sind (anscheinend haben alle Websites, das Benchen verlernt ;)), aber von ner bestimmten Szene im Rubydemo gibts nen Screenshot einer 6800GT, die (ohne AA/AF) an der Stelle 25fps erreicht, wo meine 9700pro, mit 4xAA/pAF 22fps schafft.


Vielleicht ist der Vergleich NV40:9500-9800 doch nicht so an den Haaren herbeigezogen, wie ich zunächst angenommen hab ;) Für alles, was man beweisen möchte, lässt sich ein passender Benchmark finden.

Original geschrieben von Valmar
Bis es soweit ist, dann wird der nv40 wohl auch nicht mehr genügend Performance für solche Spiele liefern, wenn du sie auch noch mit max fsaa und aa spielen willst... NV40 wird für Spiele, die richtig auf die neuen 3.0-Befehle setzen, zu schlapp sein. Für die nächste Generation, die auf 2.0, 2.X und teilweise auf 3.0 setzt, wird er sich besser eignen als R420. Wer häufiger mal upgradet, dem macht das natürlich nichts aus, einen R420 zu nutzen. Angesichts des technischen Mindestniveau für fast alle Spiele wird der technisch angestaubte R420 auch längerfristig noch taugen.

q@e
2004-06-24, 10:54:59
Original geschrieben von Mr. Lolman
Häng dich bloss nicht an den längeren Shadern auf. Die UE3 Denmo hatte bloss 50-200 Instructionen/Shader und trotzdem hats stellenweise geruckelt.

Und jetzt stell' dir mal ganz schlimme Shader vor, die ans Instruktions-Limit von 512 auf der X800 herangehen - wie muss das erst ruckeln?

Mr. Lolman
2004-06-24, 11:02:49
Original geschrieben von aths
Ok, die X800 benötigt allerdings für den gleichen Effekt mehr Instruktionen, und kann nicht so viele Instruktionen in einem Takt ausführen wie der NV40. "Schlimmer" ist noch das MDR-Lighting. NV40 kann das mit dedizierter HW beschleunigen, X800 muss auf Techniken ausweichen die massiv die Performance drücken.

Klingt schlimm. Ist aber noch nirgends zu sehen. Deswegen graue Theorie. (Ich kann mich erinnern, wie es vor ~1 Jahr, eine ähnliche Diskussion um die Fähigkeiten von CineFX gegeben hat) Solang man nix greifbares vorhanden ist, beruf ich mich auf bekannte Dinge. Und da ist (war?) die 6800GT bei der Ruby Demo nicht viel schneller als meine OCde 9700pro. Klar, die shader werden dem NV40 auch nicht 100&ig schmecken, aber hiess es nicht, dass es mit dem NV40 nun vorbei ist mit der Notwendigkeit einer speziellen Anpasssung an NV HW?


Bei den Settings? Das möchte ich stark bezweifeln. NV40 ist shadermäßig ~ 4x-6x so stark wie der NV35, und hat eben Spezial-HW für Effekte die auf Medium Dynamic Range angewiesen sind.

Ist den MDR besser als HDR? Klingt irgendwie nicht so... :ratlos:


Xmas kennt ein anderes Beispiel, wo eine neue Textursampling-Anweisung (neu ggü. 2.0, nicht gegenüber CineFX) die CPU entlasten kann.)


Wenn noch mehr Spiele wie Farcry erscheinen, wär es wohl eher kontraproduktiv den Load von der CPU weiter auf die GraKa zu verlagern, solang deren Leistungsfähigkeit auch begrenzt ist.


T&L war, wenn überhaupt, ein Performance-Bringer. Das wird für SM 3.0 auch vorrangig gelten. Mehr Performance = höheres Grafikdetail bei gleicher Geschwindigkeit.


Stimmt schon, aber Geschwindigkeitsrelationen sind, solang man selbst keine Vergleichsmöglichkeiten hat, nur über Benchmakrs greifbar. Und solang die es nicht gibt, hats auch nicht viel Sin darüber zu diskutieren.


Mit SM 3.0 kannst du fast alles machen :) Speziell NV40 eignet sich besonders gut für hochwertiges Bumpmapping und image-based MDR-Lighting.


Schreib ich doch. Aber was bringts dem Anwender optisch. Weiss man noch nicht. Ergo: Diskussion (noch) überflüssig...

Demirug
2004-06-24, 11:16:03
Alles zur Gegenwart und Zukunft von SM3 bitte dort hin: http://www.forum-3dcenter.com/vbulletin/showthread.php?s=&threadid=150760

Gast
2004-06-24, 11:25:58
Original geschrieben von Mr. Lolman
Zur Hitzeentwicklung könne man wieder gegenhalten, dass der R420 lowK ist, und sogar die XT eine niedrigere Abwärme als eine 9800pro hat. Aber wenns Guru3d gemessen hat, wirds wohl stimmmen..

Lowk hin oder her. DAs sagt auch nicht viel aus. Die unbekannte bleibt dann nämlich noch, wie qualitativ hochwertig ist TSMC im Vergleich zu IBM.
Dazu gibts keine Aussagen.
Zudem ist der NV40 mit einem größeren Die versehen. Größerer Die = bessere Wärmeabfuhr. Hinzukommt die grundsätzlich sehr viel bessere Kühlung bei NV Produkten.
Alle labern immer nur was von großen NVKarten und viel zu grossen Kühlern und blah...

Dass bei vielen der ATI Produkte absolut billigste Pfennigkühlerware verbaut wird, die die Karten ungemein heiss werden lässt und die nicht selten den Geist aufgeben scheint niemand zu sehen. NV verbaut große Karten und große Kühler - ja das ist richtig. Die Karten sind dafür aber auch deutlich robuster und halten einfach mehr aus. Das kostet natürlich Geld und dieses Geld will ATI halt einfach einsparen.
Zur Wärmeabführ ins Gehäuse bzw. zum Aufheizen des Gehäuses sagt das aber recht wenig.

Kleinerer Kühler heiss nicht automatisch dass es neben der Karte im Gehäuse kühler ist. Ich denke da siehts bei Nvidia Produkten zumeisst besser aus.

aths
2004-06-24, 11:29:17
Original geschrieben von Mr. Lolman
Klingt schlimm. Ist aber noch nirgends zu sehen. Deswegen graue Theorie. (Ich kann mich erinnern, wie es vor ~1 Jahr, eine ähnliche Diskussion um die Fähigkeiten von CineFX gegeben hat) Solang man nix greifbares vorhanden ist, beruf ich mich auf bekannte Dinge. Und da ist (war?) die 6800GT bei der Ruby Demo nicht viel schneller als meine OCde 9700pro. Welche "Zukunfts-Features" verwendet Ruby? Sieht Ruby besser aus als Nalu? (Technisch gesehen.) Kann die X800 prinzipiell Nalu rendern, wenn es eine DX9-Demo wäre? Wenn das ginge, wie schnell wäre das dann?

Original geschrieben von Mr. Lolman
Klar, die shader werden dem NV40 auch nicht 100&ig schmecken, aber hiess es nicht, dass es mit dem NV40 nun vorbei ist mit der Notwendigkeit einer speziellen Anpasssung an NV HW?NV40 profitiert von einigen den CineFX-Optimierungsregeln, und kommt mit R300- bzw. R420-Optimierung nicht so gut klar wie mit CineFX- oder gar 3_0-Optimierung. Der NV40 wird hier also ausgebremst. (Es sei denn, Ruby würde die Shader in HLSL beilegen und erst zur Laufzeit kompilieren lassen. Was Ruby macht, weiß ich nicht.)


Original geschrieben von Mr. Lolman
Ist den MDR besser als HDR? Klingt irgendwie nicht so... :ratlos:MDR ist schlechter als HDR, aber was ATI und NV HDR nennen, ist eigentlich nur MDR.


Original geschrieben von Mr. Lolman
Wenn noch mehr Spiele wie Farcry erscheinen, wär es wohl eher kontraproduktiv den Load von der CPU weiter auf die GraKa zu verlagern, solang deren Leistungsfähigkeit auch begrenzt ist.Die Power von GPUs wächst schneller als von CPUs. Dedizierte Units sind aus Performance-Sicht immer besser.


Original geschrieben von Mr. Lolman
Stimmt schon, aber Geschwindigkeitsrelationen sind, solang man selbst keine Vergleichsmöglichkeiten hat, nur über Benchmakrs greifbar. Und solang die es nicht gibt, hats auch nicht viel Sin darüber zu diskutieren.Die Benchmarks würden von vielen wohl angezweifelt werden, weil man für solche Effekte auf dem NV40 andere Wege gehen kann, als man mit dem R420 gehen muss. Ich sehe die Spezialeinheiten im NV40, und dass sie nicht umsonst eingebaut wurden. Für mich sind solche Benchmarks nicht erforderlich :) Diese Effekte werden in Spielen jetzt kaum eingesetzt werden, obwohl NV40 schnell genug wäre: Derartige HW (3.0 und 16 Pipes) wird auf mittelfristige Sicht nur wenig Verbreitung finden. Haben wir die Einsteiger- bis Mittelklasse-Ableger vom NV60, dann kann standardmäßig 3.0 voll ausgeschöpft werden; als Fallback könnte man einfach ein 2.0 (bzw. 2.X-) Shaderset beilegen (und zu anspruchsvolle Effekte abschalten.)


Original geschrieben von Mr. Lolman
Schreib ich doch. Aber was bringts dem Anwender optisch. Weiss man noch nicht. Ergo: Diskussion (noch) überflüssig... Was es dem Anwender hier und jetzt bringt? Wenig oder gar nichts. Ich frage mich eher, was mit der neuen HW möglich ist. Mit R420 lassen sich die Bilder doppelt so schnell rendern wie mit dem R360. Damit sind jetzt auch einige Effekte in Echtzeit möglich, die man vorher nicht nehmen konnte. Der NV40 macht sehr viel mehr möglich. Das sehe ich als angehender Ingenieur der Fachrichtung Multimediatechnik. Dass Lieschen Müller hier und jetzt davon profitiert, ist unwahrscheinlich. Einige Leute (wie ich :)) kaufen Grakas eher langfristig. NV40 ist der bessere Chip, um zukünftige Spiele (die jetzt anstehende nächste Generation und die übernächste Generation) in hoher Auflösung zu spielen. Dazu zählen adäquate Features und viel Power in BQ-Settings. Beim Vergleich R200 vs. NV25 hatte letzterer deutlich mehr "BQ-Leistung".

Ein weiterer Gedanke hier:
http://www.forum-3dcenter.com/vbulletin/showthread.php?&postid=1945046#post1945046

Ailuros
2004-06-24, 11:39:04
Ich werde versuchen derartige Fragen bald zu beantworten; wenn es mir der Zeitdruck den ich habe erlaubt, vielleicht sogar ein sehr langes Review, das sich aber weniger auf bunte Leistungsbalken konzentriert.

Stay tuned ;)

Coda
2004-06-24, 12:53:28
Mit SM 3.0 kannst du fast alles machen Speziell NV40 eignet sich besonders gut für hochwertiges Bumpmapping und image-based MDR-Lighting. Damit sind geile Lichteffekt möglich: Stell dir vor, zu betrittst eine Kirche. Die Grafik stellt die Dunkeladaption des Auges nach. Durch die Glasmosaik-Fenster fällt Licht und erzeugt auf dem Boden ein entsprechendes Abbild. Die Wände sind mit Offset-Mapping ("Virtual DM") gerendert.
Prinzipiell kann man sowas auf jeder 9600 berechnen. Dazu sind aber "Umwege" in der Effektprogrammierung erforderlich, wo man beim NV40 Spezial-Einheiten verwenden kann, die entsprechend schneller sind.
Sorry, aber für keine der von dir genannten Effekte braucht man Umwege auf SM 2.0 AFAIK.

Banshee18
2004-06-24, 13:01:59
aths,

du kaufst Grafikkarten langfristig? Hast du nicht eine 5900XT? Eine Radeon 9800 Pro wäre hier wohl die bessere Wahl gewesen. Klar, mit CineFX und den Shadern des NV35 kann man optisch theoretisch mehr darstellen, als die Spezifikationen erfordern und als man es mit dem R3xx kann(aber der Chip ist einfach zu langsam). Vielleicht hast du dir die FX deshalb geholt(bist ja ´n Technikfreak;D), aber mal ehrlich, was bringt dir das im Endeffekt?
Wäre es nicht möglich, dass der NV40 bei SM3.0 auch total langsam ist, denn Benchmarks gibt es ja noch nicht?!?
Ich möchte nur nochmal daran erinnern, dass die Shader des NV30 vor seinem Erscheinen imo auch ziemlich gelobt wurden.

mfg

Banshee

Ailuros
2004-06-24, 13:49:34
Benchmarks gibt es zwar noch keine aber so langsam erscheint mir SM3.0 nun auch wieder nicht:

(Bild geliehen von Thomas):

http://www.tommti-systems.de/temp/nv40_2.gif

http://www.beyond3d.com/forum/viewtopic.php?t=12691&start=60&sid=c29412ccf34c92122754dbbbd579236b

Mehr zur Leistung:

http://www.beyond3d.com/forum/viewtopic.php?t=12691&postdays=0&postorder=asc&start=80

Ergo Leistung bleibt ziemlich konstant selbst in 1600*1200.

Ganz unten auch vergleichbare Resultate von Deferred Shading demo, was zwar nichts mit SM3.0 zu tun hat, aber mit MRTs.

LovesuckZ
2004-06-24, 13:52:26
Original geschrieben von Mr. Lolman
Ich weiss zwar nicht, wieviel schneller die neuen NV Treiber wirklich sind (anscheinend haben alle Websites, das Benchen verlernt ;)), aber von ner bestimmten Szene im Rubydemo gibts nen Screenshot einer 6800GT, die (ohne AA/AF) an der Stelle 25fps erreicht, wo meine 9700pro, mit 4xAA/pAF 22fps schafft.

Wie schnell sind denn die r420 karten in nalu? Ach, ich vergaß, die koennen diese Demo ja nicht darstellen...
Wie waere es denn mit einen fairen Vergleich in einer Demo, die nicht auf Nvidia oder ATi optimiert ist?
deferrend shading demo (http://www.beyond3d.com/forum/viewtopic.php?p=310030#310030).

Winter[Raven]
2004-06-24, 14:00:30
Die Demo auf der R420 Pro:

640*480=45/46fps
800*600=33/34fps
1024*768=21/22fps
1280*960=16/17fps
1600*1200=12fps

Die Demo auf der NV40 GT @ Ultra:

640x480 = 45 fps
800x600 = 45 fps
1024x768 = 40 fps
1280x960 = 29 fps
1600x1200 = 21 fps

Die GT ist meistens ~2x Schneller. Wäre jetzt interessant die Daten des R420Xt zusehn.

Banshee18
2004-06-24, 14:01:34
Ich hab mir die Links noch nicht angeschaut, aber ich glaube, solche Benches wie die auf dem Bild haben nicht sehr viel mit der Realität zu tun und sind deshalb nicht aussagekräftig.

Ailuros
2004-06-24, 14:02:06
Original geschrieben von LovesuckZ
Wie schnell sind denn die r420 karten in nalu? Ach, ich vergaß, die koennen diese Demo ja nicht darstellen...
Wie waere es denn mit einen fairen Vergleich in einer Demo, die nicht auf Nvidia oder ATi optimiert ist?
deferrend shading demo (http://www.beyond3d.com/forum/viewtopic.php?p=310030#310030).

*hust* hehehe ein bisschen zu spaet...wie schon gesagt deferred shading hat nichts mit SM3.0 zu tun und es ist eigentlich einem TBDR regelrecht zugeschnitten.

Ailuros
2004-06-24, 14:05:12
Original geschrieben von Banshee18
Ich hab mir die Links noch nicht angeschaut, aber ich glaube, solche Benches wie die auf dem Bild haben nicht sehr viel mit der Realität zu tun und sind deshalb nicht aussagekräftig.

Sagst Du. Hasst Du ueberhaupt eine Ahnung wieviele Instruktionen in dem demo verschwendet werden?

Es soll nicht heissen dass cloth animation nicht mit SM2.0 oder SM2.0+ moeglich ist, aber so kompliziert bestimmt nicht.

][immy
2004-06-24, 14:06:09
also ehrlichgesagt gehen mir solche diskusionen inzwischen auf den geist

fakt ist:
niemand weiß, ob spieleentwickler vorteile von SM3 jemals zu lebzeiten der nv40 nutzen werden

fakt ist:
jede neue technologie wurde bisher erst jahre später wirklich genutzt bzw benötigt (beispiel wäre hier wohl auch das inzwischen schon steinalte bump-mapping)

fakt ist:
technologien die meist noch nicht stark verbreitet sind, werden auch sogut wie nicht genutzt (höchstens als nettes kleines gimmick)

fakt ist:
neue effekte sind definitiv mit sm3.0 nicht möglich. es ist nur möglich effekte schneller zu berechnen


die einführung neuer technologien ist zwar lobenswert, aber der nutzen ist zu diesen zeitpunkte immer gleich 0. höchstens in der zukunft wird es mal genutzt, aber dann ist die heutige technik schon wieder zu langsam. heute werden solche techniken höchstens als kleines gimmik genutzt um vorzugaukeln wie gut doch das neue produkt ist (bei der einführung der Geforce gab es das schon, oder gar Riva TNT mit ihren viel zu lahmen 32-Bit)


was mich wirklich wundert ist, wie heute noch leute, die sich schon länger mit solchen themen beschäftigen, noch so euphorisch auf eine neue technologie reagieren.

LovesuckZ
2004-06-24, 14:10:53
Original geschrieben von Ailuros
*hust* hehehe ein bisschen zu spaet...wie schon gesagt deferred shading hat nichts mit SM3.0 zu tun und es ist eigentlich einem TBDR regelrecht zugeschnitten.

Es geht ja nicht um SM3.0, sondern um dem Vergleich der Karten in Ruby, wo Lolman die wirkliche Leistung der Karten ablesen moechte.

LovesuckZ
2004-06-24, 14:12:50
Original geschrieben von ][immy
also ehrlichgesagt gehen mir solche diskusionen inzwischen auf den geist

fakt ist:
niemand weiß, ob spieleentwickler vorteile von SM3 jemals zu lebzeiten der nv40 nutzen werden

fakt ist:
jede neue technologie wurde bisher erst jahre später wirklich genutzt bzw benötigt (beispiel wäre hier wohl auch das inzwischen schon steinalte bump-mapping)

fakt ist:
technologien die meist noch nicht stark verbreitet sind, werden auch sogut wie nicht genutzt (höchstens als nettes kleines gimmick)

fakt ist:
neue effekte sind definitiv mit sm3.0 nicht möglich. es ist nur möglich effekte schneller zu berechnen


fakt ist:
Ohne hardware wird es keine Spieleunterstuetzung geben

fakt ist:
Ohne Spieleunterstuetzung wird jede neue Generation bezueglich ihrer neuen features schlecht geredet

fakt ist:
Das die Entwickler der Chips bald keine neue features mehr einfuehren

fakt ist:
Dass die Karten schneller werden, die Bildqualitaet der Spiele sich auf ein Niveau einpendelt, welches am Anfang reicht, irgendwie aber nicht mehr "in" ist. Da die entsprechenden weiterfuehrenden Features nicht dar sind, gibt es auch keine weitere Entwicklung -> Stillstand!!!!

Ailuros
2004-06-24, 14:23:21
die einführung neuer technologien ist zwar lobenswert, aber der nutzen ist zu diesen zeitpunkte immer gleich 0. höchstens in der zukunft wird es mal genutzt, aber dann ist die heutige technik schon wieder zu langsam. heute werden solche techniken höchstens als kleines gimmik genutzt um vorzugaukeln wie gut doch das neue produkt ist (bei der einführung der Geforce gab es das schon, oder gar Riva TNT mit ihren viel zu lahmen 32-Bit)

Richtig. Und das soll jetzt genau was heissen, dass Entwicklung und Technologie auf Stillstand kommen sollte? Natuerlich ist der ganze Schnickschnack eigentlich nur fuer Entwickler gut, aber irgendwo muessen die auch anfangen.

Ich wuerde im Gegenteil lieber einen produktiven Vorschlag lesen, wie ein Entwickler der heute ein SM3.0 basierendes Spiel entwickeln moechte es mit einer R420 anstellen koennte. Ich beginne schon jetzt die "aber" zu zaehlen...


was mich wirklich wundert ist, wie heute noch leute, die sich schon länger mit solchen themen beschäftigen, noch so euphorisch auf eine neue technologie reagieren.

Aus Erfahrung. Gut genug?

Coda
2004-06-24, 14:26:20
neue effekte sind definitiv mit sm3.0 nicht möglich. es ist nur möglich effekte schneller zu berechnen
Falsch.

Ailuros
2004-06-24, 14:29:06
Einfaches Beispiel ist dass vertex texturing viel zu viel unterschaetzt wird und nein vertex texturing=!displacement mapping oder genauer nicht nur.

Benedikt
2004-06-24, 14:32:30
Original geschrieben von aths

<...>

Die Power von GPUs wächst schneller als von CPUs. Dedizierte Units sind aus Performance-Sicht immer besser.

<...>


Was ist eigentlich mit der Video-Processing-Einheit, hat man die schon mal in Aktion "gesehen"? Funktioniert die, wie sie soll? War doch auch so ein Launch-Feature, um das es still geworden ist ...

MFG,

B. W.

][immy
2004-06-24, 14:35:16
Original geschrieben von Ailuros
Richtig. Und das soll jetzt genau was heissen, dass Entwicklung und Technologie auf Stillstand kommen sollte? Natuerlich ist der ganze Schnickschnack eigentlich nur fuer Entwickler gut, aber irgendwo muessen die auch anfangen.

Ich wuerde im Gegenteil lieber einen produktiven Vorschlag lesen, wie ein Entwickler der heute ein SM3.0 basierendes Spiel entwickeln moechte es mit einer R420 anstellen koennte. Ich beginne schon jetzt die "aber" zu zaehlen...

Aus Erfahrung. Gut genug?

ich bin für alles andere als einen stillstand, aber die letzten grafikkarten-generationen gab es eigendlich immer neue technologien, die heute immernoch nicht vollständig ausgenutzt werden. da kann ich die grafikkartenentwickler schon sehr gut verstehen, wenn diese erstmal keinen neuen features einbinden.

ein großteil der performance geht heute auch wegen schlechter umsetzung verloren. quellcodes werden nicht mehr optimiert undundund....
ich meine nicht damit hardware-optimiert, aber die entwickler geben sich kaum mühe so wenig resourcen wie möglich zu verschwenden. es gibt inzwischen schon viele spiele, die ohne probleme auch auf sehr viel langsameren rechnern möglich gewesen wären, wenn man einfach mal die eigenen quelltexte ein wenig rescourcenschonend optimiert hätte.

fängt ja leider schon bei der schlampigen programmierung von windows an... naja... ich schweife wohl ein wenig ab ^^

aths
2004-06-24, 14:44:58
Original geschrieben von Coda
Sorry, aber für keine der von dir genannten Effekte braucht man Umwege auf SM 2.0 AFAIK. Hängt weniger vom SM ab. FP-TMUs z. B. sind ja unabhängig vom Shader Model.

Ailuros
2004-06-24, 14:45:32
Original geschrieben von ][immy
ich bin für alles andere als einen stillstand, aber die letzten grafikkarten-generationen gab es eigendlich immer neue technologien, die heute immernoch nicht vollständig ausgenutzt werden. da kann ich die grafikkartenentwickler schon sehr gut verstehen, wenn diese erstmal keinen neuen features einbinden.

ein großteil der performance geht heute auch wegen schlechter umsetzung verloren. quellcodes werden nicht mehr optimiert undundund....
ich meine nicht damit hardware-optimiert, aber die entwickler geben sich kaum mühe so wenig resourcen wie möglich zu verschwenden. es gibt inzwischen schon viele spiele, die ohne probleme auch auf sehr viel langsameren rechnern möglich gewesen wären, wenn man einfach mal die eigenen quelltexte ein wenig rescourcenschonend optimiert hätte.

fängt ja leider schon bei der schlampigen programmierung von windows an... naja... ich schweife wohl ein wenig ab ^^

Trotz allem benutzen heutzutage neue Spiele eine gesunde Anzahl von Shadern. Ob die jetzt gross oder klein, nennenswert oder nicht oder ob die Spiele jetzt nichts wert sind (siehe TR:AoD *hust*), ist eine ganz andere Geschichte.

Es wird immer Technologien bzw. Features geben die nicht benutzt werden; das heisst aber auch nicht dass IHVs auf ihren faulen Hintern herumhocken muessen und gar nichts mehr neues entwickeln, zu innovieren und natuerlich auch dementsprechende Risikos eingehen.

Neue Features sind neue Vorschlaege; es ist dann die Entscheidung der Entwickler was, wie und wo sie benutzen moechten und/oder koennen. Entweder das oder fast gar nichts Neues.

Waere SM3.0 sooooo nutzlos dann haette ich liebend gern mal eine logische Erklaerung warum ATI sie im R500 nicht ueberspringen wird.

aths
2004-06-24, 14:50:40
Original geschrieben von Banshee18
aths,

du kaufst Grafikkarten langfristig? Hast du nicht eine 5900XT? Nur für den Übergang. Sollte hoffentlich bis zur Generation um den NV45 (oder NV48) halten. Hätte ich den P4 1,8 behalten, hätte ich auch die Ti 4600 behalten.
Original geschrieben von Banshee18
Eine Radeon 9800 Pro wäre hier wohl die bessere Wahl gewesen. Klar, mit CineFX und den Shadern des NV35 kann man optisch theoretisch mehr darstellen, als die Spezifikationen erfordern und als man es mit dem R3xx kann(aber der Chip ist einfach zu langsam). Vielleicht hast du dir die FX deshalb geholt(bist ja ´n Technikfreak;D), aber mal ehrlich, was bringt dir das im Endeffekt? Schönere Texturen bei aktivierter anisotroper Filterung.

Original geschrieben von Banshee18
Wäre es nicht möglich, dass der NV40 bei SM3.0 auch total langsam ist, denn Benchmarks gibt es ja noch nicht?!?
Ich möchte nur nochmal daran erinnern, dass die Shader des NV30 vor seinem Erscheinen imo auch ziemlich gelobt wurden.Nutzt man bestimmte neue 3.0-Features, riskiert man, dass der NV40 in die Knie geht, ja. Nutzt man die Features so, dass sie die Shader auf den NV40 abgestimmt werden, ist gegenüber dem alten (CineFX-) Pfad eine leichte Performancesteigerung zu erwarten. NV40 hat mehr an Neuem zu bieten, als SM 3.0. Im 3DC-Artikel zur NV40-Technik nimmt das SM 3.0 auch nur einen kleinen Teil ein.

aths
2004-06-24, 15:02:07
Original geschrieben von ][immy
fakt ist:
niemand weiß, ob spieleentwickler vorteile von SM3 jemals zu lebzeiten der nv40 nutzen werdenRichtig. Ohne dass es den NV40 nun gibt, würden wir das aber auch nie erfahren.

Original geschrieben von ][immy
fakt ist:
jede neue technologie wurde bisher erst jahre später wirklich genutzt bzw benötigt (beispiel wäre hier wohl auch das inzwischen schon steinalte bump-mapping)Richtig. Deshalb hat NV40 z. B. Extra-Hardwareeinheiten, um das inzwischen oft genutzte Bumpmapping zu beschleunigen.

Original geschrieben von ][immy
fakt ist:
technologien die meist noch nicht stark verbreitet sind, werden auch sogut wie nicht genutzt (höchstens als nettes kleines gimmick)Richtig. Oder sie werden zur Performancesteigerung genutzt.

Original geschrieben von ][immy
fakt ist:
neue effekte sind definitiv mit sm3.0 nicht möglich. es ist nur möglich effekte schneller zu berechnenNicht richtig. Mit SM 3 auf dem NV40 sind eine Fülle neuer Echtzeit-Effekte möglich, als mit SM 2 auf R420. Ob wie von solchen Effekten viel sehen werden, steht auf einem anderen Blatt. Ich erwarte das jedenfalls nicht, das wird aber auch davon abhängen, wie viel Leistung die kleinen NV40-Ableger haben, und wann ATI mit 3.0-fähiger Hardware kommt.

Original geschrieben von ][immy
die einführung neuer technologien ist zwar lobenswert, aber der nutzen ist zu diesen zeitpunkte immer gleich 0. höchstens in der zukunft wird es mal genutzt, aber dann ist die heutige technik schon wieder zu langsam. heute werden solche techniken höchstens als kleines gimmik genutzt um vorzugaukeln wie gut doch das neue produkt ist (bei der einführung der Geforce gab es das schon, oder gar Riva TNT mit ihren viel zu lahmen 32-Bit)Erst das Feature, dann die Leistung, so ist das bei Nvidia oft. Immerhin, auch wenn es langsam war, hatte man mit der TNT die Option auf 32-Bit-Rendering. Für einige Spiele war das von Vorteil, wenn auch seinerzeit kein generell einsatzbarer Vorteil. Persönlich würde ich 16-Bit-Qualität á la Voodoo2 vorziehen, als mit 16 Bit einer TNT leben zu müssen. Derartige Kompromisse sehe ich jetzt beim NV40 vs. R420 nicht.

Original geschrieben von ][immy
was mich wirklich wundert ist, wie heute noch leute, die sich schon länger mit solchen themen beschäftigen, noch so euphorisch auf eine neue technologie reagieren. SM 3.0 ist ein wichtiger Schritt. Er wird dafür sorgen, dass die 3.0- (und höheren) Implementierungen in zukünftigen Chips sowohl die GPU selbst, auch auch CPU deutlich stärker von unnötiger Arbeit entlastet werden können, als früher.

aths
2004-06-24, 15:03:07
Original geschrieben von Benedikt
Was ist eigentlich mit der Video-Processing-Einheit, hat man die schon mal in Aktion "gesehen"? Funktioniert die, wie sie soll? War doch auch so ein Launch-Feature, um das es still geworden ist ... In Aktion habe ich da noch nichts gesehen. NV40 (deutlich mehr noch der R420) sind auf entsprechende Treiber angewiesen.

Original geschrieben von ][immy
es gibt inzwischen schon viele spiele, die ohne probleme auch auf sehr viel langsameren rechnern möglich gewesen wären, wenn man einfach mal die eigenen quelltexte ein wenig rescourcenschonend optimiert hätte.Welche Spiele wären das zum Beispiel?

q@e
2004-06-24, 15:17:42
Far Cry und HALO vielleicht?

aths
2004-06-24, 15:25:01
Original geschrieben von Ailuros
Einfaches Beispiel ist dass vertex texturing viel zu viel unterschaetzt wird und nein vertex texturing=!displacement mapping oder genauer nicht nur. Ja. Allerdings sind texture fetches beim NV40 aus dem VS heraus nicht sonderlich performant.

aths
2004-06-24, 15:26:34
Original geschrieben von q@e
Far Cry und HALO vielleicht? Zwei – sind das "viele" Spiele?

Tigerchen
2004-06-24, 15:32:17
Original geschrieben von aths

Mit SM 3.0 kannst du fast alles machen :) Speziell NV40 eignet sich besonders gut für hochwertiges Bumpmapping und image-based MDR-Lighting. Damit sind geile Lichteffekt möglich: Stell dir vor, zu betrittst eine Kirche. Die Grafik stellt die Dunkeladaption des Auges nach. Durch die Glasmosaik-Fenster fällt Licht und erzeugt auf dem Boden ein entsprechendes Abbild. Die Wände sind mit Offset-Mapping ("Virtual DM") gerendert.
Prinzipiell kann man sowas auf jeder 9600 berechnen. Dazu sind aber "Umwege" in der Effektprogrammierung erforderlich, wo man beim NV40 Spezial-Einheiten verwenden kann, die entsprechend schneller sind.

Die 3.0-Flexibilität ist die eine Seite. Auf der anderen geht NV40 den Weg einer traditionellen GPU: Für oft genutzte Aufgaben (massiv parallele) dedizierte Hardware zur Verfügung stellen.


Du glaubst doch wohl nicht im Ernst daß einer solche Effekte einbaut die vielleicht auf einer GF6800 Ultra schnell genug sind aber die restlichen 98,5% der Grafikkarten in den Slideshowmodus versetzt.

Bin wirklich gespannt ob lange Shader überhaupt schnell genug auf dem jetzigen nV-Spitzenmodell laufen. Bis jetzt seh ich da nur eine gehörige Portion Wunschdenken auf deiner Seite. Dafür dichtest du dem R420 lahme Shaderperformance für künftige Spiele an, was auch erst zu beweisen wäre.

Tigerchen
2004-06-24, 15:42:34
Original geschrieben von Ailuros
Richtig. Und das soll jetzt genau was heissen, dass Entwicklung und Technologie auf Stillstand kommen sollte? Natuerlich ist der ganze Schnickschnack eigentlich nur fuer Entwickler gut, aber irgendwo muessen die auch anfangen.

Ich wuerde im Gegenteil lieber einen produktiven Vorschlag lesen, wie ein Entwickler der heute ein SM3.0 basierendes Spiel entwickeln moechte es mit einer R420 anstellen koennte. Ich beginne schon jetzt die "aber" zu zaehlen...

Aus Erfahrung. Gut genug?


Der Punkt ist daß einige hier den nV40 nicht als Grafikchip der Wahl zur Spieleentwicklung hinstellen sondern so tun als bräuchten Spieler das Ding jetzt und sofort weil innerhalb kürzester Zeit ein Feuerwerk von SM 3.0 Games auf uns niederprasselt. Und das bezweifel ich einfach mal stark.

xL|Sonic
2004-06-24, 15:48:52
Original geschrieben von Tigerchen

Der Punkt ist daß einige hier den nV40 nicht als Grafikchip der Wahl zur Spieleentwicklung hinstellen sondern so tun als bräuchten Spieler das Ding jetzt und sofort weil innerhalb kürzester Zeit ein Feuerwerk von SM 3.0 Games auf uns niederprasselt. Und das bezweifel ich einfach mal stark.



Genauso ist es, das könnte man schon fast mit dem nvidia marketing Geblubber gleichsetzen. Neue technologien sind schön und gut, müssen aber auch zum richtigen Zeitpunkt erscheinen, denn es bringt einem nichts, wenn man etwas auf den Markt wirft, was seiner Zeit weit voraus ist, bzw. nie wirklich zum Einsatz kommt. Sicherlich ist das ein schmaler Grat, aber ob nur der nv40 da den richtigen Weg einschlägt, wage ich noch zu bezweifeln. Für Hobbyprogrammierer und generell Spieleentwickler ist es natürlich eine schöne Spielwiese um testen zu können, was in der nächsten Spielegen möglich ist, derzeit für den Spieler ist das SM3.0 Feature meiner Meinung nach aber recht sinnlos, da wie gesagt gerade erstmal Spiele erscheinen, die exzessiv auf SM2.x setzen.

@LZ das hat nichts mit Gleichstand zu tun, wenn du nicht alle 3 Monate nen neues features rausbringst, sondern viel mehr mit Marktforschung, Logisitk, Ressourcenverbrauch usw.

Man muss vorher gucken, was derzeit auf dem Markt machbar ist und ob es wirklich eine ausreichende nachfrage gibt und die gibt es jetzt im Moment in meinen Augen nicht.

xL|Sonic
2004-06-24, 15:53:34
Das Hauptproblem in dieser Diskussion ist doch meistens folgendes: Es gibt die 2 fanboy Lager, nvidia und ATI und diese versuchen natürlich mit allen Mitteln ihre Vorzüge den anderen aufzudrängen. Speedmäßig ist der nv40 nicht viel schneller als sein Gegner, der R420, da ist es doch klar, dass man dann aufdem SM3.0 feature rumreitet und nvidias marketingabteilung da glauben schenkt, wie es in der realität aussehen wird, ist natürlich auch ne andere Sache. Genauso glaube ich auch, dass 3DC keinen großen Anklang finden wird und sich eher so entwickeln wird wie True Form, was auch ne Super Idee gewesen ist...

Hauwech
2004-06-24, 16:07:02
Original geschrieben von Ailuros

*snip*

Waere SM3.0 sooooo nutzlos dann haette ich liebend gern mal eine logische Erklaerung warum ATI sie im R500 nicht ueberspringen wird.

Weil Microsoft kein DX Next vor Longhorn rausbringen will.
Longhorn soll 2006/2007 rauskommen, bis dahin ist noch lange Zeit und SM2.B, und das im Moment auch nur auf ihren Top-Karten, wird bis dahin einfach nicht ausreichen.

Deshalb wird ATI mehr oder weniger gezwungen auch auf SM3 zu setzen, ansonsten ist irgendwann nur mit Speed auch nichts mehr zu gewinnen denn nVidia wird schon dafuer sorgen das es demnaechst Sachen gibt die auf R420 nur sehr langsam bis gar nicht laufen.

q@e
2004-06-24, 16:18:17
Original geschrieben von aths
Zwei – sind das "viele" Spiele?
Ultima IX, Morrowind.... ;)

Wo beginnt für dich „viele”? Wenn ich als Maßstab nehme, wieviele Games ich dieses Jahr schon mehr als eine Stunde gezockt habe, dann wären Far Cry und HALO schon „viele”...

Ist aber auch egal, Fakt ist, es gibt „welche”.

LovesuckZ
2004-06-24, 16:18:20
Original geschrieben von Valmar
Für Hobbyprogrammierer und generell Spieleentwickler ist es natürlich eine schöne Spielwiese um testen zu können, was in der nächsten Spielegen möglich ist, derzeit für den Spieler ist das SM3.0 Feature meiner Meinung nach aber recht sinnlos, da wie gesagt gerade erstmal Spiele erscheinen, die exzessiv auf SM2.x setzen.

Welches Spiel setzt denn "exzessiv auf SM2.x"? Keins, richtig.
Fuer den Spieler ist SM3.0 auch heute wichtig, denn nur so profitieren spaetere Spiele von diesen features.
Aber es waere mal nett, wenn mir einer erklaeren koennte, warum SM3.0 heute nicht wichtig waere, aber naechtes Jahr schon, unter der Beruecktsichtigung, dass es keine Spieleunterstuetzung gaebe.
Ansonsten kann man sich gleich eine Konsole kaufen, dort veraendern sich die Hardwarefeatures nur alle 5 Jahre...

Tigerchen
2004-06-24, 16:27:52
Original geschrieben von Hauwech
Weil Microsoft kein DX Next vor Longhorn rausbringen will.
Longhorn soll 2006/2007 rauskommen, bis dahin ist noch lange Zeit und SM2.B, und das im Moment auch nur auf ihren Top-Karten, wird bis dahin einfach nicht ausreichen.

Deshalb wird ATI mehr oder weniger gezwungen auch auf SM3 zu setzen, ansonsten ist irgendwann nur mit Speed auch nichts mehr zu gewinnen denn nVidia wird schon dafuer sorgen das es demnaechst Sachen gibt die auf R420 nur sehr langsam bis gar nicht laufen.


Demnächst? Oder in 1,5 Jahren?
Das erinnert so an die Sprüche die Intel seinerzeit zu MMX-Spielen abgelassen hat.

Jesus
2004-06-24, 16:31:00
Original geschrieben von LovesuckZ
Ansonsten kann man sich gleich eine Konsole kaufen, dort veraendern sich die Hardwarefeatures nur alle 5 Jahre...

und trotzdem siehts darauf nicht viel schlechter aus :)

aths
2004-06-24, 16:40:30
Original geschrieben von Tigerchen
[COLOR="#000088"]
Du glaubst doch wohl nicht im Ernst daß einer solche Effekte einbaut die vielleicht auf einer GF6800 Ultra schnell genug sind aber die restlichen 98,5% der Grafikkarten in den Slideshowmodus versetzt. Glaubst du im Ernst, dass es Spiele geben wird die 3Dc unterstützen, obwohl es auch mittelfristig fast keine installierte Hardware gibt, die das unterstützt? Ich glaube das im Ernst :)
Original geschrieben von Tigerchen
Bin wirklich gespannt ob lange Shader überhaupt schnell genug auf dem jetzigen nV-Spitzenmodell laufen. Bis jetzt seh ich da nur eine gehörige Portion Wunschdenken auf deiner Seite. Was ist im Kontext "lang" für dich? Wie intensiv hast du dich mit der NV40-Pixelshadertechnik auseinandergesetzt?
Original geschrieben von Tigerchen
Dafür dichtest du dem R420 lahme Shaderperformance für künftige Spiele an, was auch erst zu beweisen wäre.Dem R420 dichte ich dort lahme Performance an, wo er "herkömmliche" Techniken benutzen muss wofür NV40 extra-Units hat.

aths
2004-06-24, 16:41:57
Original geschrieben von q@e
Ist aber auch egal, Fakt ist, es gibt „welche”. Die am häufigsten eingesetzten Engines scheinen mir hoch optimiert.

Hauwech
2004-06-24, 16:45:42
Original geschrieben von Tigerchen

Demnächst? Oder in 1,5 Jahren?
Das erinnert so an die Sprüche die Intel seinerzeit zu MMX-Spielen abgelassen hat.


Demnaechst ist schon richtig. Zum einen der Patch fuer FC, zum anderen die Liste aus dem Guru3D Review was fuer Spiele mit SM3 Support kommen sollen und das sind mindestens 8 die er aufzaehlt. Das er sich das mal so eben aus den Rippen schneidet glaube ich wohl kaum.

Ich kann zumindest feststellen, das zumindest bei FC eine Unterstuetzung fuer SM3 per Patch relativ einfach moeglich ist. Weiter gedacht koennte ich mir vorstellen das da noch mehr per spaeteren Patches moeglich ist wenn die Leistung dafuer da ist.

Rechne doch mal nach: Der NV40 hatte Ende letzten Jahres schon Tapeouts. Jetzt haben wir ein halbes Jahr spaeter und es kommt schon SM3 Support. Anscheinend kann es doch nicht so schwer sein SM3 Support relativ schnell nachzuruesten. Jetzt muss nur noch MS mit DX9.0c rausruecken und dann werden wir mal sehen.

Ich weiss auch nicht ob SM3 auf NV40 arschlahm ist oder einigermassen fix, aber zumindest mit DX9 kann man doch sehen das neue Sachen recht fix umgesetzt werden.

deekey777
2004-06-24, 17:00:53
Hm, Spiele mit Alibi-SM3.0-Unterstützung...
Far Cry wird NV40's SM 3.0 unterstützen, toll. Und was bringt das? Gar nichts! Nur Neid ;(

Spiele, die wirklich auf SM 3.0 in gleicher Weise setzen, wie TR:AoD dies letztes Jahr bei PS 2.0 getan hat (Analogie), werden keine Zuckerschlecken für die NV40 sein. Wenn ich jetzt eine neue und leistungsfähige Grafikkarte brauchen würde, dann wäre die 6800 GT für mich die einzige Wahl.
Was mich aber nervt, ist, dass beide Lager die neuen Features der NV 40 verallgemeinert auf SM 3.0 übertragen, ohne zu merken, dass die NV40 mit ihren Features (wieder) etwas weiter geht.

Und hört endlich auf, 3Dc als Gegengewicht zu SM 3.0 der NV40 in eurer Argumentation zu verwenden - auch HL2 wird (irgendwann) SM 3.0 per Patch verwenden.

Und: Das ist der falsche Thread!
(Leider wird im richtigen Thread so gut wie gar nicht diskutiert).

ShadowXX
2004-06-24, 17:08:03
Ich würde von manchen gerne mal die Post kennen, wenn es andersherum gewesen wäre:

ATI hätte SM3.0 gehabt und nV 3Dc....

Wieviele von denen, die momentan ATI bevorzugen, würde jetzt wohl anders Argumentieren.....

seahawk
2004-06-24, 17:16:25
Original geschrieben von Tigerchen

Der Punkt ist daß einige hier den nV40 nicht als Grafikchip der Wahl zur Spieleentwicklung hinstellen sondern so tun als bräuchten Spieler das Ding jetzt und sofort weil innerhalb kürzester Zeit ein Feuerwerk von SM 3.0 Games auf uns niederprasselt. Und das bezweifel ich einfach mal stark.



Nö jeder kann kaufen was er will. Wer nur Balkenlänge will, der ist mit der R420 besser bedient. Wer technologischen Fortschritt unterstützen will und eine mehr als ausreichend schnelle Karte will, der kauft ne NV40.

Wenn sich die LEute mal darauf einigen könnten, dass es diesesmal keine "beste Karte" gibt.

xL|Sonic
2004-06-24, 17:35:54
Original geschrieben von LovesuckZ
Welches Spiel setzt denn "exzessiv auf SM2.x"? Keins, richtig.
Fuer den Spieler ist SM3.0 auch heute wichtig, denn nur so profitieren spaetere Spiele von diesen features.
Aber es waere mal nett, wenn mir einer erklaeren koennte, warum SM3.0 heute nicht wichtig waere, aber naechtes Jahr schon, unter der Beruecktsichtigung, dass es keine Spieleunterstuetzung gaebe.
Ansonsten kann man sich gleich eine Konsole kaufen, dort veraendern sich die Hardwarefeatures nur alle 5 Jahre...

Nun, ein gutes Spiel braucht mehrere jahre Entwicklungszeit, was bringt es dem Spieler also, wenn noch innerhalb dieses Entwicklungszykluses die Grafikkartenhersteller ständig mehr oder weniger sinnvolle Technologien nachschieben ?
Was ich versucht habe zu sagen ist, dass man lieber erstmal das was vorhanden ist richtig ausreizen sollte und nicht auf Teufel komm raus Features auf den Markt zu werfen, nur um dem Gegner damit paroli bieten zu können.
Es hätte auch gereicht, wenn dieses Jahr die Spieleentwickler SM3.0 Karten zur Entwicklung von Spielen bekommen hätten um diese dann im nächsten Jahr zur passenden und potenten Hardware herauszubringen.

Jesus
2004-06-24, 17:38:11
Original geschrieben von deekey777
Und hört endlich auf, 3Dc als Gegengewicht zu SM 3.0 der NV40 in eurer Argumentation zu verwenden - auch HL2 wird (irgendwann) SM 3.0 per Patch verwenden.


Glaub ich kaum, die Entwickler sind da einfach schon viel zu lang an der Engine dran um jetzt nochmal sowas Grundlegendes zu ändern.

Ich denke bei FC ist es einfach so das Nvidia dermassen unter druck steht jetzt auch Resultate zu liefern dass sie Crytek da gewaltig unter die Arme greifen um nicht gänzlich "nackt" dazustehen, oder glaubt ihr etwa Crytek macht das rein aus gutem willen ?
Neue Nvidia exklusiven Effekte wirds dadurch übrigens nicht geben.

Übrigens wird HL2 ( und auch Unreal 3 ) massiv Normal maps benutzen und da spart dann ne 4:1 kompression schon etwas :)

P.s: Hat eigentlich schon jemand mal Shadermark 2.1 beta gebencht ? In den beyond3d foren haben da ein paar user gepostet die PS3.0 langsamer als PS2.0 auf den 6800ern gebencht hätten.

xL|Sonic
2004-06-24, 17:40:37
Original geschrieben von ShadowXX
Ich würde von manchen gerne mal die Post kennen, wenn es andersherum gewesen wäre:

ATI hätte SM3.0 gehabt und nV 3Dc....

Wieviele von denen, die momentan ATI bevorzugen, würde jetzt wohl anders Argumentieren.....

Fanboys würden halt genauso reagieren, nur halt vom anderen Lager. Mir ist das Recht egal, wer nun was hat.
Nur SM3.0 halte ich für ein zur Zeit für Spieler nutzloses Feature und da mir eine leise Grafikkarte und die mit dem geringstens Stromverbrauch im Vergleich am wichtigsten ist, fällt die Wahl halt bei mir auf eine ATI Karte mit vga-silencer.

Gast
2004-06-24, 17:49:58
Original geschrieben von Jesus
Neue Nvidia exklusiven Effekte wirds dadurch übrigens nicht geben.

Kömich - da hat TheCounter vorhin aber was ganz anderes gepostet... wer von euch ist da fehlinformiert? :gruebel:

Original geschrieben von Jesus
Übrigens wird HL2 ( und auch Unreal 3 ) massiv Normal maps benutzen und da spart dann ne 4:1 kompression schon etwas :)
2:1 =)
Und Normalmapping könnte dem nV40 sogar ziemlich gut schmecken.... ;)

xL|Sonic
2004-06-24, 17:52:08
Also die Effekte, die man bisher bei Far Cry mit DX9.0c und nv40 sehen konnte, sind auch alle auf dem R420 möglich, da diese auf Offset-Mapping basieren.

LovesuckZ
2004-06-24, 17:58:35
Original geschrieben von Valmar
Also die Effekte, die man bisher bei Far Cry mit DX9.0c und nv40 sehen konnte, sind auch alle auf dem R420 möglich, da diese auf Offset-Mapping basieren.

"Offset-Mapping" beherrscht jede shaderfaehige Hardware...

deekey777
2004-06-24, 18:01:57
Oh, Jesus...

HL2 wird SM 3.0 benutzeen - spätestens mit dem Release der R500-Serie wird SM 3.0 per Steam ;D nachgereicht, dies hat VALVe bestätigt (such&find im HL2-Sammelfred).

Und Crytek braucht in FC nur etwas reinzubauen, was der R420 nicht kann - und die Diskussion ist zu Ende.

q@e
2004-06-24, 18:08:41
Original geschrieben von Valmar
Also die Effekte, die man bisher bei Far Cry mit DX9.0c und nv40 sehen konnte, sind auch alle auf dem R420 möglich, da diese auf Offset-Mapping basieren.

Ja, sicher. Aber das heisst noch lange nicht, daß man das auch überall wird nutzen können.

Wie gesagt, ich weiß nicht, was da kommen wird, The Counter, der, was FC angeht, gewöhnlich recht gut informiert ist, sagte jedenfalls, daß man die "neue Optik" nur auf SM3.0-Karten freischaltet.

Demirug
2004-06-24, 18:13:02
SM3 -> This way: http://www.forum-3dcenter.com/vbulletin/showthread.php?s=&threadid=150760

Beim nächsten SM3 Post ist der Thread dicht weil sich für den "Wundertreiber" ja scheinbar doch niemand interesiert.

seahawk
2004-06-24, 18:14:01
Original geschrieben von deekey777
Oh, Jesus...

HL2 wird SM 3.0 benutzeen - spätestens mit dem Release der R500-Serie wird SM 3.0 per Steam ;D nachgereicht, dies hat VALVe bestätigt (such&find im HL2-Sammelfred).

Und Crytek braucht in FC nur etwas reinzubauen, was der R420 nicht kann - und die Diskussion ist zu Ende.

Wobei es eigentlich auch keine Leistung ist 3.0 zu unterstützen. Wenn die Shader in HLSL vorliegen ist das eine sehr geringfügige Aufgabe, da die HAuptarbeit der Compiler übernimmt. Deswegen halte ich die Liste der kommenden 3.0 Spiele auch für sehr glaubwürdig.
Ob sich diese Versionen, dann deutlich oder auch nur sichtbar von der 2.0 Version unterscheidet, dass wird eine Frage sein.

Wenn z.B. der NV treiber per Recomplier in der LAge wäre bestimme 2.0 Funktionen in 3.0 umzuwandeln, dann könnte sie auch in nicht 3.0 Spielen einen Vorteil erzielen. Vielleicht tut der neue Treiber das auch schon.

xL|Sonic
2004-06-24, 19:27:42
Scheint so, als wolle da jemand den Thread geschlossen haben ;)

Tigerchen
2004-06-24, 19:33:38
Original geschrieben von aths

Was ist im Kontext "lang" für dich? Wie intensiv hast du dich mit der NV40-Pixelshadertechnik auseinandergesetzt?
Dem R420 dichte ich dort lahme Performance an, wo er "herkömmliche" Techniken benutzen muss wofür NV40 extra-Units hat.


Mal ne Frage aths. In der aktuellen PCGH ist auf Seite 138/139 so einiges aufgeführt was lange Shader bzw. Shader mit Sprüngen als nicht ganz unproblematisch erscheinen läßt. Hast du die Zeitung zur Hand? Was hälst du davon?

Schaun wir mal ob die "herkömmliche" Technik nicht doch ausreicht. Immerhin verdaut diese Art von Technik bisher alles was man ihr vorsetzt klaglos.

q@e
2004-06-24, 19:34:40
*beeil*

Okok, Wundertreiber....

Also vom 60.72, dem "offiziellen" Launch-Treiber zum 61.34 hat bsw. der ShaderMark in einigen Disziplinen schon deutlich zulegen können.

LovesuckZ
2004-06-24, 20:03:55
Original geschrieben von q@e
Also vom 60.72, dem "offiziellen" Launch-Treiber zum 61.34 hat bsw. der ShaderMark in einigen Disziplinen schon deutlich zulegen können.

Da meine Karte sich nur sehr schlecht mit dem Shadermark vertrug, welche Test waren es?

q@e
2004-06-24, 20:09:03
Shader7, 11, 12, 13.

aths
2004-06-25, 00:06:13
Original geschrieben von Tigerchen
[COLOR="#000088"]
Mal ne Frage aths. Antwort hier: http://www.forum-3dcenter.com/vbulletin/showthread.php?&postid=1948064#post1948064

Ailuros
2004-06-25, 01:41:29
Original geschrieben von Tigerchen

Der Punkt ist daß einige hier den nV40 nicht als Grafikchip der Wahl zur Spieleentwicklung hinstellen sondern so tun als bräuchten Spieler das Ding jetzt und sofort weil innerhalb kürzester Zeit ein Feuerwerk von SM 3.0 Games auf uns niederprasselt. Und das bezweifel ich einfach mal stark.



Es war mit PS1.1, 1.3, 1.4, 2.0 usw. auch nicht anders. Wo waren die tolle dx8.1 Spiele in 2001 als NV20 vorgestellt wurde, oder wo die hunderte von Spielen die PS1.x oder hoeher unterstuetzen sollten?

Dabei wurde schon angegeben dass UT2k3 PS1.4 unterstuetzt; wegen den einem einzigen Shader in dem Ding ist und verbleibt das Spiel eine reine DX7 Applikation und neuere Spiele sind auch nicht so fundamental anders obwohl die Anzahl der Shader um einiges gestiegen ist; unter der Decke hockt immer noch ein dx7-artiges "Gestell".

Keiner sagte dass SM3.0 ein "must-have" Feature momentan sei und es war auch nicht anders in der Vergangenheit.

Es geht hier aber um Vergleiche von high end Grafik-Loesungen und in dem Fall kann man sich drehen und wenden wie man will aber NV40 ist nunmal der fortschrittlichere und Fuellraten/Bandbreiten-maessig effizientere Design und da gibt es fuer mich keine besonderen Zweifel.

Anders rum: NV40 kann sich locker eine wahre neue Generation nennen im Vergleich zu NV3x; R420 im Vergleich zu R3xx eben eher nicht.

Ailuros
2004-06-25, 01:45:10
Original geschrieben von ShadowXX
Ich würde von manchen gerne mal die Post kennen, wenn es andersherum gewesen wäre:

ATI hätte SM3.0 gehabt und nV 3Dc....

Wieviele von denen, die momentan ATI bevorzugen, würde jetzt wohl anders Argumentieren.....

Alle.

Warum? Illusionen von Interessen, denn man hat normalerweise nichts davon zu gewinnen. Ganz im Gegenteil wenn man es ein bisschen ueberdenken wuerde, verliert man eher an "Kleinigkeiten" wie Glaubwuerdigkeit.

tombman
2004-06-25, 01:58:51
Ihr könnt ja alle gerne rumtheoretisieren, aber ich HABE beide Karten, x800xt pe und 6800ultra.

Ich kann euch versichern, derzeit schaut es schlecht aus für den NV40. Ich warte schon gierig jedes mal auf "den" Wundertreiber, werde aber ständig enttäuscht. (habe praktisch alle Treiber der 61er Serie bis hinauf zu 61.45 getestet....und bin schon auf den 61.60 gespannt *lol*)

Fakt ist, daß der NV40 KEIN schnelles AF hat und damit im Bereich "schnelles und dazu noch gut genug aussehendes AF" eindeutig nicht konkurrenzfähig zu ATi ist. Diese Schwäche geht soweit, daß gewisse Auflösungen bei ATi locker noch schön spielbar sind, bei nvidia dagegen nicht mehr. ALso NICHT nur ein paar fps, sondern nur HALB SO SCHNELL wie ATi. (Ut2004, 1600x1200, 4xAA, 16xAF)

Das tragische ist, daß AF ein feature ist, daß schon sehr alt ist und man daher erwartet dieses ständig eingeschaltet lassen zu können, tjo...nicht bei nvidia.

Wo die 6800u aber schneller ist, sind alle Sachen die mit stencil shadows zu tun haben, also pvr def. rend. demo, fablemark und doom3 beta. Aber nicht soooo viel schneller, daß daraus wirkliche Konsequenzen entstehen. (zb pvr def. rend. demo: nv40 40fps, r420-16 33fps)

Bei jetzigen games ist die x800xt pe klar die bessere Karte, weil sie eben "angepaßter" an heutige Bedürfnisse ist. Dh, wenn man ein freak ist und sowieso immer das beste hat sollte man zur x800xt greifen und sich dann später, wenn die ZEit des shader models 3.0 kommt eine r500 oder nv50 kaufen- je nachdem eben.
Wer aber Karten nur sehr wenig wechselt und sie jahrelang behalten will, der sollte sich eine 6800u schnappen, dann hat er wenigstens sm 3.0 dabei...

Ach ja, die Guru 3d benchmark Werte kann ich überhaupt nicht nachvollziehen, da meiner Erfahrung nach, die 6800u VIEL mehr fps verliert bei zuschalten von AF. Wahrscheinlich hat er nur demos genommen die nicht sehr anspruchsvoll sind- ich dagegen benche meistens "worst case" Szenarien :D

Noch was: Spieleentwickler denken nicht in Marken sondern in Kategorien. Dh, es war und wird wahrscheinlich auch so sein, daß die neuen games auf high end hardware BEIDER FIRMEN, ATi und NVIDIA gleich gut aussehen werden. Ich denke nicht, daß es sich Firma X leisten kann eine Gruppe zu verägern indem man genau ein feature in sein game einbaut, was die Firma A Karte nicht darstellen kann, Firma B Karte aber schon. Dh, im Endeffekt wirds darauf ankommen, "gut genug" von den features her zu sein, und das IST die x800 Reihe mit shadermodell 2.b. Noch dazu ist sie im 2.x Bereich auch SCHNELL, also warum sollte man ATi Kunden verägern? Vielleicht weil Nvidia ein 6 stellige Summe auf den Tisch haut? Wird das reichen?

Ailuros
2004-06-25, 02:12:12
Ihr könnt ja alle gerne rumtheoretisieren, aber ich HABE beide Karten, x800xt pe und 6800ultra.

Nur aus reiner Neugierde: gibt es irgend einen speziellen Grund beide zu besitzen? Klingt mir ein bisschen nach Geldverschwendung aber jedem das seine ;)

Fakt ist, daß der NV40 KEIN schnelles AF hat und damit im Bereich "schnelles und dazu noch gut genug aussehendes AF" eindeutig nicht konkurrenzfähig zu ATi ist. Diese Schwäche geht soweit, daß gewisse Auflösungen bei ATi locker noch schön spielbar sind, bei nvidia dagegen nicht mehr. ALso NICHT nur ein paar fps, sondern nur HALB SO SCHNELL wie ATi. (Ut2004, 1600x1200, 4xAA, 16xAF)

Schnelles und ueber-optimiertes AF haben beide. Die Frage ist nur was Du fuer Einstellungen jeweils benutzt hast und ob Du ueberhaupt den Unterschied sehen kannst.

Bei jetzigen games ist die x800xt pe klar die bessere Karte, weil sie eben "angepaßter" an heutige Bedürfnisse ist. Dh, wenn man ein freak ist und sowieso immer das beste hat sollte man zur x800xt greifen und sich dann später, wenn die ZEit des shader models 3.0 kommt eine r500 oder nv50 kaufen- je nachdem eben.

Nach dem "angepasster" kann ich Deinen Kommentar ueber's "rumtheorisieren" wohl auch besser verstehen :D

Zum Rest: nochmal jedem das seine.

Ach ja, die Guru 3d benchmark Werte kann ich überhaupt nicht nachvollziehen, da meiner Erfahrung nach, die 6800u VIEL mehr fps verliert bei zuschalten von AF. Wahrscheinlich hat er nur demos genommen die nicht sehr anspruchsvoll sind- ich dagegen benche meistens "worst case" Szenarien

Wenn Du schon beide Karten hast, dann schreib doch selber mal ein Review. So schwer ist es ueberhaupt nicht und schlimmer als das was ich normalerweise zu lesen bekomme in Reviews kann es wohl schwer sein ;)

q@e
2004-06-25, 08:56:31
Original geschrieben von tombman
Ihr könnt ja alle gerne rumtheoretisieren, aber ich HABE beide Karten, x800xt pe und 6800ultra.

Wieso theoretisieren? Könnten andere nicht auch "BEIDE" Karten gehabt haben, es aber nur nicht so an die große Glocke hängen?

Original geschrieben von tombman
Fakt ist, daß der NV40 KEIN schnelles AF hat und damit im Bereich "schnelles und dazu noch gut genug aussehendes AF" eindeutig nicht konkurrenzfähig zu ATi ist. Diese Schwäche geht soweit, daß gewisse Auflösungen bei ATi locker noch schön spielbar sind, bei nvidia dagegen nicht mehr. ALso NICHT nur ein paar fps, sondern nur HALB SO SCHNELL wie ATi. (Ut2004, 1600x1200, 4xAA, 16xAF)


Ich weiß, es ist realitätsfern, aber schalte probehalber doch mal 4xAA ab, oder, wenn du nun gar nicht mehr ohne AA leben magst, reduziere auf 2xAA - bei 16x12x3 und maximalem AF.
Ich habe da, besonders in texturreichen Games, die eine oder andere Überraschung erlebt. Besonders überrascht war ich, wenn die X800 XT PE nicht um 30% schneller war... ;)

Und bitte:
Beide Karten mit vergleichbarem Optimierungsgrad (meinetwegen auch alles anlassen, wenn du vergleichen willst, wer effektiver ..err.. optimiert) und ohne OC. ;)

aths
2004-06-25, 09:20:05
Original geschrieben von tombman
Fakt ist, daß der NV40 KEIN schnelles AF hat und damit im Bereich "schnelles und dazu noch gut genug aussehendes AF" eindeutig nicht konkurrenzfähig zu ATi ist.Bezogen auf die Qualität hat jede FX schnelles und dazu noch gut aussehendes AF. NV40 hat weniger gut aussehendes, aber noch immer besseres AF als R420.
Original geschrieben von tombman
Diese Schwäche geht soweit, daß gewisse Auflösungen bei ATi locker noch schön spielbar sind, bei nvidia dagegen nicht mehr. ALso NICHT nur ein paar fps, sondern nur HALB SO SCHNELL wie ATi. (Ut2004, 1600x1200, 4xAA, 16xAF)UT ist, soweit ich das weiß, ein Ausnahmefall.

Original geschrieben von tombman
Ach ja, die Guru 3d benchmark Werte kann ich überhaupt nicht nachvollziehen, da meiner Erfahrung nach, die 6800u VIEL mehr fps verliert bei zuschalten von AF. Wahrscheinlich hat er nur demos genommen die nicht sehr anspruchsvoll sind- ich dagegen benche meistens "worst case" Szenarien :DSofern AF eine Zusatz-Qualität bringen soll und man nicht völlig CPU-limitiert ist, muss die Geschwindigkeit notwendigerweise sinken. Geschieht das nicht ist wenig wahrscheinlich, dass das AF echte Verbesserungen bringt.

Original geschrieben von tombman
Noch was: Spieleentwickler denken nicht in Marken sondern in Kategorien. Dh, es war und wird wahrscheinlich auch so sein, daß die neuen games auf high end hardware BEIDER FIRMEN, ATi und NVIDIA gleich gut aussehen werden. Ich denke nicht, daß es sich Firma X leisten kann eine Gruppe zu verägern indem man genau ein feature in sein game einbaut, was die Firma A Karte nicht darstellen kann, Firma B Karte aber schon. Dh, im Endeffekt wirds darauf ankommen, "gut genug" von den features her zu sein, und das IST die x800 Reihe mit shadermodell 2.b. Noch dazu ist sie im 2.x Bereich auch SCHNELL, also warum sollte man ATi Kunden verägern? Vielleicht weil Nvidia ein 6 stellige Summe auf den Tisch haut? Wird das reichen? Entwickler haben Gewinnerzielungsabsicht. Auf je mehr Karten das Spiel läuft, und je schöner das Spiel als das Konkurrenzspiel aussieht (und je weniger die eigene Entwicklung kostet) desto besser. Ich habe mir sagen lassen, FC sehe auf Radeon besser aus als auf einer FX. "Warum sollte FC Nvidia verärgern? Wie viel hat ATI wohl auf den Tisch gelegt?" Ich denke, diese Fragestellung führt nicht zu den interessanten Antworten.

reunion
2004-06-25, 10:36:19
Original geschrieben von aths
UT ist, soweit ich das weiß, ein Ausnahmefall.



Eben nicht, der NV40 bricht bei hohen Auflösungen mit AA/AF im Vergleich zum R420 extem ein...

LovesuckZ
2004-06-25, 10:44:27
Original geschrieben von reunion
Eben nicht, der NV40 bricht bei hohen Auflösungen mit AA/AF im Vergleich zum R420 extem ein...

Nur mit AA und dann erst ab 4x, weil der Speicher in einigen Spielen ausgeht.

q@e
2004-06-25, 10:44:54
Nein, eben nicht (notwendigerweise).
Das liegt an höherem Speicherbedarf (IMO durch Filter at Scanout) des nV40 und könnte - durch Abschalten des F@S - durch einen neuen Wundertreiber (*hint_on_topic*) teilweise behoben werden.

Rein vom AA-Speed her sollte der nV40 ein wenig (~5-105?) schneller als der R420 sein, so daß der höhere Coretakt des letzteren, der bei maxAF natürlich stärker zum Tragen kommt, nicht voll durchschlagen sollte.

IMO realistisch an Vorsprung sind etwa 10-15% im Vergleich der jeweiligen Spitzenmodelle, (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/7/#hsr_fuellrate) wenn keinem von beiden ein Treiberbug in die Quere kommt oder das V-RAM ausgeht.

ShadowXX
2004-06-25, 10:52:57
Original geschrieben von LovesuckZ
Nur mit AA und dann erst ab 4x, weil der Speicher in einigen Spielen ausgeht.

Und das liegt sehr wahrscheinlich wohl daran, wie nV das AA realisiert...(AA@ScanOut)..

Der GraKa-Speicher wird halt knapp.....vielleicht drehen Sie später nochmal dran...(wenn technisch möglich..)

//Edit:
wie ich sehe hat Quasar das eben noch mal viel schöner als ich erklärt...

//Edit 2....und eigentlich wollte ich auch nicht LovesuckZ quote...naja egal...

q@e
2004-06-25, 11:07:51
Original geschrieben von q@e
(~5-105?)
(~5-10%) sollte das natürlich heißen

sry,
;(

robbitop
2004-06-25, 12:56:48
jepp der Einbruch liegt natürlich am ScanOut, schlimmer wirds noch, wenn man den Tribble Buffer anmacht. Ich hoffe, NV stellt das ScanOut Filtern für 4xMS ab.

Naja wenn man eine Auflösung wählt, die den VRAM nicht ganz so belastet, wird man brauchbareren Ergebnissen kommen.

Beim AF von ATi zeigt sich ganz schnell, dass die Karte 120MHz mehr Chiptakt hat und somit mehr Füllrate besitzt.
Ausserdem sollte man die "Optimierungen" bei beiden Karten ausmachen (computerbase hat für ATi die entsprechenden Reg Keys)

tombman
2004-06-25, 13:57:10
die nv40 bricht bei 16xaf auch dann ein, wenn man nicht aa und hohe res nimmt...des zieht sich durch die bank durch. nur bei 1600x1200, 4xaa, 16xaf ist es eben am stärksten - aber das ist eben das "königssetting" wo ati derzeit der herrscher ist mit der x800xt pe.

und so eine karte ohne af spielen zu müssen is ein witz, nur weil nvidia zu unfähig ist schnelles af anzubieten.

und nein, ich schalte die optimierungen sicher nicht aus, bei beiden nicht- wozu auch?

ich will, daß nvidia schnelles UND schönes af bringt, aber des haben sie derzeit NICHT! ati HAT ES!

ich hab gestern einfach mal die kreed demo ausprobiert, ganz normal auf 1024x768 4xaa 16xaf, also ein game was gänzlich außerhalb des rampenlichts steht. und wieder wurde ich von nvidia enttäuscht, denn dieses settings war auf ati spielbat, auf nvidia nicht.
das game ist zwar offenbar scheiße programmiert und rennt auf beiden ned besonders, bei nvidia überschreitet es aber die grenze wo man sagt "ne, da muß ich mit den settings runter"- bei ati "naja, geht noch".

ich kann mich daher nur hardocps kommentar anschließen, daß die königsklasse 1600x1200 derzeit allein der x800xt pe gehört, alle anderen sollten auf 1280x1024 bleiben.

und so warte ich weiter auf den wundertreiber...

p.s. ich hab beide karten um mir selbst ein bild machen zu können. viel zu viele, auch hier, sind mir zu sehr von firmen abhängig für die sie arbeiten, ich dagegen bin 100% privat consumer und daher objektiv.

robbitop
2004-06-25, 14:08:34
das verkorkste AF nennst du schön?
ich finde schon unoptimiertes R300 AF :puke:
aber jedem das Seine ;)

tombman
2004-06-25, 14:14:09
Original geschrieben von aths
Bezogen auf die Qualität hat jede FX schnelles und dazu noch gut aussehendes AF. NV40 hat weniger gut aussehendes, aber noch immer besseres AF als R420.


nö, die nv40 hat derzeit KEIN schnelles AF, egal wieviel optimierungen man auch dazuschaltet, es wird einfach nicht schnell- und damit sinnlos.
es gibt einfach keine einstellung bei nv40 wo ich zb bodenkacheln bis nach hinten scharf sehen kann und NICHT einen riesen batzen fps verliere. bei ati spür ich den fps verlust bei zuschalten von af gar ned.

hier noch ein beispiel, HALO 1600x1200, 4xaa

0xaf

x800xt 60 fps
nv40u 67 fps (mehr als ati!)

16xaf

x800xt 59 fps (!)
nv40u 47 fps (lol)

und dabei war die nvidia noch prozentuell stärker oced als die ati, sowohl beim speicher, als auch beim core.

wieder so eine ut2004 ausnahme? ich denke nicht.

tombman
2004-06-25, 14:19:42
Original geschrieben von robbitop
das verkorkste AF nennst du schön?
ich finde schon unoptimiertes R300 AF :puke:
aber jedem das Seine ;)

dann kannst aber bei 6800u af auch gleich :puke:
denn die winkelabhängigkeit habens jetzt auch drinnen.
klar, das nv3x af war besser, aber noch besser war das gf4 af...da kann ich dir screenshots zeigen ...

egal...bei ati isses schnell und damit spielbar, bei nvidia nv40 siehts nicht besser aus und is noch dazu langsam

Ranz0r
2004-06-25, 14:19:43
Ich glaube kaum das eine Graka auf wirklich seriösem Wege 16AF ohne Verlust an Leistung brignen zu können... Der 1FPS liegt im Messungenauigkeitsbereich, da soltle man sich schon fragen wie ATI das wohl macht.

tombman
2004-06-25, 14:24:53
Original geschrieben von Ranz0r
Ich glaube kaum das eine Graka auf wirklich seriösem Wege 16AF ohne Verlust an Leistung brignen zu können... Der 1FPS liegt im Messungenauigkeitsbereich, da soltle man sich schon fragen wie ATI das wohl macht.

das ist mir scheißegal WIE sie es machen, solang mein auge die af schärfe sehen kann, was es in diesem fall eindeutig tat, erkenne ich die aufgabe als gelöst an.

den schnellen af speed hatte ati schon seit der r300- er setzt sich bei der r420 serie eben fort. sowas nenne ich skill.

robbitop
2004-06-25, 14:27:58
@Tombman

da hast du allerdings recht (bin zu sehr verwöhnt).
Hast du bei ATi mal die Optimierungen rausgenommen?
Wie hast du das AF von NV gebencht?

Kannst du mal nen Bench posten mit 1280x1024 irgendein neues Spiel (nicht Far Cry und nicht UT) mit 4xAA und 16xAF (beide entweder mit oder ohne Optimierungen)?

Wäre klasse, schankedöööhnn :)

Gast
2004-06-25, 14:43:28
Original geschrieben von Ranz0r
Ich glaube kaum das eine Graka auf wirklich seriösem Wege 16AF ohne Verlust an Leistung brignen zu können... Der 1FPS liegt im Messungenauigkeitsbereich, da soltle man sich schon fragen wie ATI das wohl macht.

Ganz einfach: cheaten was das Zeug haelt. Es gibt genug Blinde denen das nicht auffaellt.;)

Mr. Lolman
2004-06-25, 14:47:35
Anscheinend muss man echt erst ~1000€ ausgeben um mit seinen Aussagen nicht als verblendeter Fanboy dazustehen. :(

Gast
2004-06-25, 14:56:40
die cheater von nv wieder *G*

hier glaubt doch hoffentlich keiner, das die mehrleistung des neuen treibers ohne cheating vor sich gegangen ist.

da lob ich mir doch die ati karten. die optimieren nur ... cheating gibts da nicht ;-)

Mr. Lolman
2004-06-25, 14:58:20
*doppelpost*

Mr. Lolman
2004-06-25, 15:00:58
Original geschrieben von Gast
Ganz einfach: cheaten was das Zeug haelt. Es gibt genug Blinde denen das nicht auffaellt.;)


Ich hab das 'Problem' von ATis AF schon oft genug angesprochen. Durch die Texturstageoptimierung gibts u.U. halt Mipmapbanding, aber Tombman wirds mir bestätigen, dass selbst bei reinem bi-AF die BQ nicht automatisch unter aller Sau ist.

Scheinbar sind hier echt zu viele Leute sensibilisert was AF betrifft, und schaun, ob sie irgendwo auch nur ansatzweise Banding erkennen können. Spiele sollen in erster Linie Spass machen, und das tun sie am ehesten noch bei hohen fps.

Wenn man AA/AF dazuschalten kann ists super, nur sollte dann auch das Plus an BQ in einer vernünftigen Relation zur eingebüssten Leistung stehen.

Der Vorteil am ATi AF ist, dass es, egal wie optimiert, eben auch am Horizont immer schön scharf ist. Und wenn bi-AF für die Qualität nicht reicht, dann halt TS-optimiertes Af, und wenn das immernoch nicht ok ist (MotoGP2, oder Uru wären solche Beispiele) dann halt fulltri AF. Und wenn man sich tatsächlich noch möglicherweise auftretenden Grisseln stört, schaltet man halt die Mipmapdetailebene eins runter.

Trotzdem muss man sich pauschalisierendes Aussgen anhören wie, "bevor ich optimiertes AF nehm, schalt ich lieber eine Stufe runter". 1. Gewinnt man durch eine kleinere AF stufe kaum mal eben so 30% Leistung, und 2. gilt das wohl nur für NV Karten, bei denen das AF durch die Optimierungen im Hintergrund einfach unscharf wird...


Aber da ich ja weder die eine, noch die andere neue Karte hab, und mir meine Urteile nur aufgrund von BQ-Vergleichen, Erfahrungen mit GF4/R300 AF und Reviews bilden kann, trag ich halt die Bürde des Fanboy-seins auf meinen Schultern.
:kotz:


@Tombman: So ein Review, wie es auch Zeckensack für seine Deltachrome gepostet hat, wär echt klasse :)

Mr. Lolman
2004-06-25, 15:07:24
Original geschrieben von Ranz0r
Ich glaube kaum das eine Graka auf wirklich seriösem Wege 16AF ohne Verlust an Leistung brignen zu können... Der 1FPS liegt im Messungenauigkeitsbereich, da soltle man sich schon fragen wie ATI das wohl macht.

Bei der Radeon 8500 war das fast schon Alltag. Ok, da gabs nur reines bi-AF, und das war qualitativ noch schlechter als das jetzige bi-AF von ATi.

q@e
2004-06-25, 15:30:28
Original geschrieben von tombman
p.s. ich hab beide karten um mir selbst ein bild machen zu können. viel zu viele, auch hier, sind mir zu sehr von firmen abhängig für die sie arbeiten, ich dagegen bin 100% privat consumer und daher objektiv.

:up:
Objektive Leute braucht das Land. Wie gut, daß du 100% Privatverbraucher und daher unkäuflich bist - da können sich die ganzen geschmierten Reviewer mal eine gehörige Scheibe abschneiden.

Original geschrieben von tombman
nö, die nv40 hat derzeit KEIN schnelles AF, egal wieviel optimierungen man auch dazuschaltet, es wird einfach nicht schnell- und damit sinnlos.
es gibt einfach keine einstellung bei nv40 wo ich zb bodenkacheln bis nach hinten scharf sehen kann und NICHT einen riesen batzen fps verliere. bei ati spür ich den fps verlust bei zuschalten von af gar ned.

hier noch ein beispiel, HALO 1600x1200, 4xaa

0xaf

x800xt 60 fps
nv40u 67 fps (mehr als ati!)

16xaf

x800xt 59 fps (!)
nv40u 47 fps (lol)

und dabei war die nvidia noch prozentuell stärker oced als die ati, sowohl beim speicher, als auch beim core.

wieder so eine ut2004 ausnahme? ich denke nicht.

Axo, OC'ed war auch noch. Na dann ist ja sowieso ein felsenfester Grundstein für einen absolut objektiven Vergleich gelegt.

BTW, Halo.... war das nicht das Game, wo ein IHVs extra eine Applikationserkennung eingebaut hat, um das AA, welches Bildfehler produziert, direkt zu verhindern?

Konntest du das umgehen?

BTW, 47 zu 59fps sind eigentlich ganz gut für den nV40 - da ist die XT PE ja nichtmal ihre 30% Füllratenvorteil schneller. ;)

Original geschrieben von tombman
egal...bei ati isses schnell und damit spielbar, bei nvidia nv40 siehts nicht besser aus und is noch dazu langsam

Point-Sampling ist auch schnell - oder Bilinear ohne Mipmapping X-D

Original geschrieben von Ranz0r
Ich glaube kaum das eine Graka auf wirklich seriösem Wege 16AF ohne Verlust an Leistung brignen zu können...

Wenn die Karte vorher am CPU-Limit hängt, kann sowas schon mal sein - sicher.

Original geschrieben von tombman
das ist mir scheißegal WIE sie es machen, solang mein auge die af schärfe sehen kann, was es in diesem fall eindeutig tat, erkenne ich die aufgabe als gelöst an.

den schnellen af speed hatte ati schon seit der r300- er setzt sich bei der r420 serie eben fort. sowas nenne ich skill.

Wie gesagt, Bilinear ohne Mip-Mapping bringt auch "Schärfe" (bis es flimmert) in die hintersten Winkel.

Manche sagen "Skill" - andere sagen "Cheat" - da war sie wieder, die alte CS/Q3-Diskussion...

reunion
2004-06-25, 15:54:37
Original geschrieben von robbitop
jepp der Einbruch liegt natürlich am ScanOut, schlimmer wirds noch, wenn man den Tribble Buffer anmacht. Ich hoffe, NV stellt das ScanOut Filtern für 4xMS ab.


Wenn NV das Ausschalten könnte hätte man es sicher schon längst gemacht, oder hat man durch diese Methode irgendeinen Vorteil?

Ranz0r
2004-06-25, 16:00:04
Original geschrieben von reunion
Wenn NV das Ausschalten könnte hätte man es sicher schon längst gemacht, oder hat man durch diese Methode irgendeinen Vorteil?


Hier (http://www.3dcenter.org/artikel/2004/03-12_a.php) steht in Kurzform was Scanout ist und macht.

q@e
2004-06-25, 16:04:39
Ist der Link falsch oder hab ich das da überlesen?

Ranz0r
2004-06-25, 16:13:03
Natürlich gibt es mit Triple Buffering auch Nachteile. Einerseits wird die Bildausgabe um ein weiteres Frame verzögert. Andererseits steht weniger Speicher für Texturen zur Verfügung, da ein kompletter Backbuffer nicht gerade klein ist. Bei 1024x768 verbraucht man mit Triple Buffering immerhin 3 MB zusätzlichen Framebuffer-Speicherplatz, bei 4x Anti-Aliasing "on Scanout" (auf GeForceFX ab NV35) sind es sogar 12 MB.

Dieser Unterschied erklärt sich im übrigen folgermaßen: "Normalerweise" wird sofort downgefiltert. Dazu werden bei 4x Anti-Aliasing die vier Farbwerte gelesen und die Mischfarbe als Pixel wird wieder geschrieben. Beim "Downfilter on Scanout" liest die RAMDAC-Logik die vier Farbwerte und mischt sozusagen on-the-fly das finale Pixel zusammen. Man spart sich dabei den Schreibzugriff des fertig gefilterten Pixels in den Framebuffer.

Falls die Framerate deutlich unter die Bildwiederholrate des Monitors sinkt, ist der Gesamt-Speicherbandbreitenverbrauch natürlich größer, da der RAMDAC für jedes angezeigte Bild dann immer vier Subpixel lesen muss, statt einem Pixel. Übrigend wurde die "on Scanout"-Filtertechnik für 2x FSAA mit Voodoo4 und 5 eingeführt, und fand dann in die GeForce4 Ti Einzug. Ab GeForceFX 5900 wie gesagt wird auch 4x AA on-the-fly gefiltert.

Ich sagte ja nen bisschen Informationen darüber :)

tombman
2004-06-25, 16:27:10
1.) ok, dann geb ich nvidia nächstes mal eben keinen taktvorteil mehr...dann wirds eben noch schlimmer für nvidia.
2.) halo: aa war bei beiden immer aus...
3.) was verstehst du nicht an "...sieht nicht besser aus"?

mit freiem auge gibt es keinen unterschied zwischen nv40 und r420 af-qualität,und KEINER kann mir das gegenteil beweisen, weder per screenshot, noch per fraps video.

am ende bleibt also aussage gegen aussage, nur daß meine aussage von einem 100% unabhängigen privatuser mit jahrelanger erfahrung kommt- der leser möge selbst entscheiden.

p.s.: auf anregung von voodoojack werde ich sebst einen kleinen review schreiben um u.a. mit dem nvidia-märchen aufzuräumen, af wäre sooo viel besser in der qualität verglichen mit atis qualität.
denn mir gehts schon am nerv, daß manche das falsche argument af-qualität hernehmen um die af-speed-schwäche des nv40 zu entschuldigen.

LovesuckZ
2004-06-25, 16:30:27
Original geschrieben von tombman
denn mir gehts schon am nerv, daß manche das falsche argument af-qualität hernehmen um die af-speed-schwäche des nv40 zu entschuldigen.

Vergleichst du "Quality" gegen "Quality"?
Ansonsten kannst du eine "af-speed-schwäche" nur mit gleichen Taktraten darstellen.

xL|Sonic
2004-06-25, 16:33:45
Warum sollte man das tun, gleiche Taktraten vergleichen ?
Seit wann wird nen realer Pentium 4 mit 1,8Ghz gegen einen Athlon XP 2500+ mit 1,833 Ghz getestet?
Der Taktunterschied ist nunmal Tatsache und wenn nvidia es nicht hinbekommt den Takt höher zu setzen, dann ist das ihr Problem.

LovesuckZ
2004-06-25, 16:35:43
Original geschrieben von Valmar
Warum sollte man das tun, gleiche Taktraten vergleichen ?
Der Taktunterschied ist nunmal Tatsache und wenn nvidia es nicht hinbekommt den Takt höher zu setzen, dann ist das ihr Problem.

Weil man dann nicht von einer "af-speed-schwäche" reden kann, wenn die eine karte anhand der hoeheren Fillrate weniger Leistung verliert.

xL|Sonic
2004-06-25, 16:38:28
Er vergleicht aber beide High-End Karten, die gegenseitig um die gunst der Käufer kämpfen und wenn nvidia nunmal dort ein Defizit hat, dann haben sie es nunmal. Das ist ein Fakt und im Endeffekt verliert nvidia dort mehr an Performance als ATI, aber ich als guter Samariter werde dann natürlich sobald ich meine XT PE habe den Takt heruntersetzen um "chancengleichheit" zu haben ;)

ironMonkey
2004-06-25, 16:44:33
Original geschrieben von LovesuckZ
Weil man dann nicht von einer "af-speed-schwäche" reden kann, wenn die eine karte anhand der hoeheren Fillrate weniger Leistung verliert.


;D

Sachen gibts, also echt.......am besten das nächste mal auch die FX mit 412MHz gegen eine 9800XT antretten lassen, weil sonst könnte NV ja nen unfairen Vorteil haben;D

LovesuckZ
2004-06-25, 16:44:40
Valmar,
eine "af-speed-schwäche" bestuende unabhaengig von der Fillrate. Die XT Karte verliert weniger, weil sie den hoeheren Coretakt hat. Somit ist der Leistungverlust bzw. -abstand von 25% durchaus normal.
Hier von einer "af-speed-schwäche" zu reden, waere genauso falsch, wie wenn man den geringeren PS2.0 Speed der 6800U im Gegensatz zu XT auf eine "PS2.0-speed-schwäche" zurueckzufuehren moechte.

tombman
2004-06-25, 16:45:37
es geht hauptsächlich um die praktische anwendung von af.

damit meine ich das einschalten von af bei keinem bis wenig fps verlust.
genau dieses szenario ist bei nv40 nicht zu bewerkstelligen, bei ati seit der r300 schon. DAS ist der unterschied.

ich möchte bis nach hinten scharfe texturen, zb bodenkacheln und dergleichen aber trotzdem fast keine fps verlieren, damit ich es immer eingeschalten lassen kann, aber genau das ist unmöglich, EGAL bei welcher qualitätseinstellung- nv40 hat KEINE schnelle af einstellung. (und ich bezweifle , daß sie jemals eine bekommen wird

q@e
2004-06-25, 16:46:40
Original geschrieben von Ranz0r
Ich sagte ja nen bisschen Informationen darüber :)
sry,
;(

Habe ich wirklich überlesen.

q@e
2004-06-25, 16:55:10
Original geschrieben von tombman
1.) ok, dann geb ich nvidia nächstes mal eben keinen taktvorteil mehr...dann wirds eben noch schlimmer für nvidia.
2.) halo: aa war bei beiden immer aus...
3.) was verstehst du nicht an "...sieht nicht besser aus"?

mit freiem auge gibt es keinen unterschied zwischen nv40 und r420 af-qualität,und KEINER kann mir das gegenteil beweisen, weder per screenshot, noch per fraps video.

am ende bleibt also aussage gegen aussage, nur daß meine aussage von einem 100% unabhängigen privatuser mit jahrelanger erfahrung kommt- der leser möge selbst entscheiden.

p.s.: auf anregung von voodoojack werde ich sebst einen kleinen review schreiben um u.a. mit dem nvidia-märchen aufzuräumen, af wäre sooo viel besser in der qualität verglichen mit atis qualität.
denn mir gehts schon am nerv, daß manche das falsche argument af-qualität hernehmen um die af-speed-schwäche des nv40 zu entschuldigen.

Na denn mal Butter bei die Fisch, tombman.

Aber bitte nicht wieder vergessen, Treiberversion, Einstellungen im Treiber, Taktraten, verwendete AA und AF Einstellungen (auch WO sie aktiviert wurden - Treiber oder Game bsw.) usw. usf. anzugeben.

Einfach mal so dahersagen dütt un datt kam da raus klingt für mich kaum nachvollziehbar.

BTW,
Ich verstehe ehrlich gesagt nicht, wo das Problem ist?
Du unterstellst hier "manchen" (wem?), eine AF-Schwäche des nV40 schönreden zu wollen.
Dabei hast du doch selbst mit deinen Halo-Benches hier bewiesen, daß davon absolut keine Rede sein kann.
Natürlich ist der nV40 bei AF i.d.R. langsamer - weil er eben niedriger getaktet ist. Das ist keine Entschuldigung und keine Anklage, das ist einfach nur logisch. :gruebel:

ach ja,
1,2,3...

1) Gut, rumgetakte bringt nur die Relationen durcheinander - davon hat keiner etwas.

2) hier noch ein beispiel, HALO 1600x1200, 4xaa
Dann muss ich das ^^ wohl irgendwie falsch verstanden haben.

3) Verstehen tu' ich den Satz schon - und das obwohl er länger ist, als der IQ, den du mir offensichtlich zutraust. Allein - für _dich_ sieht es vielleicht nicht besser aus - dann freu dich über die Cheats.

Original geschrieben von tombman
am ende bleibt also aussage gegen aussage, nur daß meine aussage von einem 100% unabhängigen privatuser mit jahrelanger erfahrung kommt- der leser möge selbst entscheiden.
Genau - alle sind subjektiv, außer dir! :up:

tombman
2004-06-25, 16:56:00
Original geschrieben von LovesuckZ
Valmar,
eine "af-speed-schwäche" bestuende unabhaengig von der Fillrate. Die XT Karte verliert weniger, weil sie den hoeheren Coretakt hat. Somit ist der Leistungverlust bzw. -abstand von 25% durchaus normal.
Hier von einer "af-speed-schwäche" zu reden, waere genauso falsch, wie wenn man den geringeren PS2.0 Speed der 6800U im Gegensatz zu XT auf eine "PS2.0-speed-schwäche" zurueckzufuehren moechte.

es geht aber um den vergleich nv40 0xaf vs. nv40 16xaf

und DAHER leite ich die af-schwäche ab! denn die nv40 verliert da einfach viel zu viel fps.

r420 0xaf vs. r420 16xaf verliert fast gar nix.

q@e
2004-06-25, 16:58:30
Wenn er so dicht am CPU-Limit arbeitet, ist das doch kein Wunder. :eyes:

Ailuros
2004-06-25, 17:01:39
Original geschrieben von Mr. Lolman
Ich hab das 'Problem' von ATis AF schon oft genug angesprochen. Durch die Texturstageoptimierung gibts u.U. halt Mipmapbanding, aber Tombman wirds mir bestätigen, dass selbst bei reinem bi-AF die BQ nicht automatisch unter aller Sau ist.

Kein Einwand; aber es gibt auch mehr als nur einen Fall wo ich die Texturing-stage-Optimierung abschalte, weil eben nicht nur MIPmap banding sondern auch texture aliasing vorkommen kann.

Scheinbar sind hier echt zu viele Leute sensibilisert was AF betrifft, und schaun, ob sie irgendwo auch nur ansatzweise Banding erkennen können. Spiele sollen in erster Linie Spass machen, und das tun sie am ehesten noch bei hohen fps.

Wenn es zu Aepfel gegen Aepfel vergleichen kommen soll ja. Wenn ich ueber Vergleich zwischen A und B hoere, dann erwarte ich verstaendlicherweise dass man alles moegliche tut um beide Loesungen etwa auf das gleiche Niveau zu bringen.

Und es geht hier bei weitem nicht NUR um MIPmap banding. Stellt mir erstmal den LOD-Hack gefaelligst ab, dass stellenweise das uebertriebene texture aliasing verschwindet und dann bei beiden Loesungen kein brilinear und keine texturing-stage-Optimierungen. Wer dabei schneller herauskommt macht mir persoenlich keinen besonderen Unterschied; was mich stoert sind Behauptungen die auf ungleiche Einstellungen basieren und nein das Resultat ist nicht gleich oder fast gleich wenn es zur Bildqualitaet kommt. Optimierungen reduzieren stets - selbst wenn sehr wenig in manchen Faellen - die Bildqualitaet und daher wird auch Fuell-rate bzw. an Leistung gespart.

Bei mir ist es eben so dass sich so wenig wie moeglich in einer Szene grundlos bewegen oder flimmern darf und genau aus dem Grund reduziere ich auch des oefteren den MIPmap LOD auf "quality" auf der R3xx.

Und nein Spiele machen mir keinen besonderen Spass mehr wenn mir zu viel dahinflackert; sonst koennte ich mir gleich eine Playstation2 zulegen und in der aliasing Hoelle dahinschmelzen :P

Wenn man AA/AF dazuschalten kann ists super, nur sollte dann auch das Plus an BQ in einer vernünftigen Relation zur eingebüssten Leistung stehen.

Zustimm. Aber der Verbraucher ist dann immer noch besser angelegt mit gutem 4xAF, als 16xAF mit zahllosen Seiten-optimierungen und das gilt leider momentan fuer R420 und NV40.

Der Vorteil am ATi AF ist, dass es, egal wie optimiert, eben auch am Horizont immer schön scharf ist. Und wenn bi-AF für die Qualität nicht reicht, dann halt TS-optimiertes Af, und wenn das immernoch nicht ok ist (MotoGP2, oder Uru wären solche Beispiele) dann halt fulltri AF. Und wenn man sich tatsächlich noch möglicherweise auftretenden Grisseln stört, schaltet man halt die Mipmapdetailebene eins runter.

Nur fuer R3xx fuer den letzten Satz oder man greift in die Registry mit R420 momentan.

Trotzdem muss man sich pauschalisierendes Aussgen anhören wie, "bevor ich optimiertes AF nehm, schalt ich lieber eine Stufe runter". 1. Gewinnt man durch eine kleinere AF stufe kaum mal eben so 30% Leistung, und 2. gilt das wohl nur für NV Karten, bei denen das AF durch die Optimierungen im Hintergrund einfach unscharf wird...

1. Man gewinnt von den Optimierungen genauso viel oder sogar noch weniger.

2. Hoere ich zum ersten Mal und diese Behauptung moechte ich aber auch gefaelligerweise illustriert sehen.

Es ist fuer mich kein Geheimnis schon seit Jahren dass ATI aggressivere LOD-Anpassungen hat; d.h. aber bei weitem nicht dass es in allen Faellen besserer Bildqualitaet gleicht. Je negativer der LOD, desto mehr texture aliasing. Kann man es durch die LOD slider im Treiber noch kontrollieren dann ist es kein besonderes Problem fuer mich (siehe oben was R3xx betrifft).

R420 geht mir hier schon eine Stufe zu weit und nein ich werde keine einzige Entschuldigung dafuer finden, wenn man negativeren LOD stellenweise mit AF samples austauscht nur um Leistung dazuzugewinnen.

ATI soll den Mist gefaelligst abschalten oder einen Treiber switch dafuer installieren.

So ein Review, wie es auch Zeckensack für seine Deltachrome gepostet hat, wär echt klasse :)

Deltachrome ist leider zu spaet dran und schon in der Mittelklasse; nichtsdestominder aber ist es eine Loesung die den grossen Beiden gezeigt hat dass man anstaendiges, schnelles und nicht winkel-abhaengiges AF auch heute noch haben kann. Daran sollten sich NV/ATI mal ein Beispiel nehmen, bevor sie in der Zukunft noch auf point sampling noch weiter runter-optimieren.

Mr. Lolman
2004-06-25, 17:01:49
Original geschrieben von q@e
Wenn er so dicht am CPU-Limit arbeitet, ist das doch kein Wunder. :eyes:

Du hast heut auch den Sarkasmus zum Frühstück gefuttert ;D

aths
2004-06-25, 17:02:41
Original geschrieben von robbitop
jepp der Einbruch liegt natürlich am ScanOut, schlimmer wirds noch, wenn man den Tribble Buffer anmacht.Triple Buffer :)
Original geschrieben von robbitop
Ich hoffe, NV stellt das ScanOut Filtern für 4xMS ab.Ich hoffe hingegen, dass es bleibt – in der Regel bringt es Performance-Vorteile (so lange die Performance schon recht hoch ist.)

Original geschrieben von Ranz0r
Ich glaube kaum das eine Graka auf wirklich seriösem Wege 16AF ohne Verlust an Leistung brignen zu können... Der 1FPS liegt im Messungenauigkeitsbereich, da soltle man sich schon fragen wie ATI das wohl macht. Nur bei extremer CPU-Limitierung bekommt man 16x AF "for free". Je weniger AF bei Graka-Limitierung kostet, desto limitierter der Qualitätsgewinn. Langsames AF ist nicht zwangsläufig qualitativ hochwertlich, unnatürlich schnelles AF bringt zwingenderweise wenig Zusatz-BQ.

tombman
2004-06-25, 17:05:09
Original geschrieben von q@e
Wenn er so dicht am CPU-Limit arbeitet, ist das doch kein Wunder. :eyes:

egal was du jetzt meinst, cpu limits gelten immer für beide, ati und nvidia, aber bei meinem fx53 über 2900mhz komm ich noch lang nicht ans cpu limit,...

aths
2004-06-25, 17:05:44
Original geschrieben von tombman
ich möchte bis nach hinten scharfe texturen, zb bodenkacheln und dergleichen aber trotzdem fast keine fps verlieren, damit ich es immer eingeschalten lassen kann, aber genau das ist unmöglich,Ja. Das ist unmöglich, solche BQ-Verbesserungen zu bringen ohne signifikant Performance zu opfern.

LovesuckZ
2004-06-25, 17:06:21
Original geschrieben von aths
Ich hoffe hingegen, dass es bleibt – in der Regel bringt es Performance-Vorteile (so lange die Performance schon recht hoch ist.)


Da sich nvidia auch an gamer richtet, sollten Sie dieses "Feature" für diesen Bereich deaktivieren.
Farcry, Maxpayne2 und UT2004 sind nur drei Beispiele, wo sich diese Methode in einen negativen Licht praesentiert.

q@e
2004-06-25, 17:08:25
Original geschrieben von aths
Ich hoffe hingegen, dass es bleibt – in der Regel bringt es Performance-Vorteile (so lange die Performance schon recht hoch ist.)

Das ist es ja, was dieses "Ding" in meinen Augen so sinnlos macht. Aus 100fps werden 120fps, aber im Gegenzug werden dann aus 50fps auch gern mal 30fps.

IMO genauso ein BS (vom Effekt her), wie die "Optimierung" bei ATi - an der Füllrate hängt es nur sehr selten bei letzteren.

q@e
2004-06-25, 17:11:41
Original geschrieben von tombman
egal was du jetzt meinst, cpu limits gelten immer für beide, ati und nvidia, aber bei meinem fx53 über 2900mhz komm ich noch lang nicht ans cpu limit,...

Klar gilt ein CPU-Limit für beide - aber auf unterschiedlichen Niveaus. Der eine Treiber belastet in dem einen Spiel die CPU mehr, der andere vielleicht in einem anderen Spiel.

Wie erklärst du dir denn sonst, wie nV ohne AF schneller ist als ATi, wie du in deinem HALO-Bench gezeigt hast?

Hatte deine GF ~12% mehr Takt/Füllrate oder Bandbreite als die XT?

Jesus
2004-06-25, 17:16:10
soll ich fürs bi AF nochmal meine tollen FC bilder rauskramen ? :D :chainsaw: :chainsaw: :chainsaw: :chainsaw: :chainsaw:

Mr. Lolman
2004-06-25, 17:20:06
@Ailurus: Bildqualität ist halt was sehr subjektives. Vmo Extremfall ausgehend - alle Texturen besitzen starke kontraste und unterschieden sich innerhalb der jew. Mipmaps noch deutlich voneinander magst du mit der Aussage, dass man immer "genauso viel BQ opfert, wie man Leistung bekommt" absolut recht haben. Das es ander auch geht beweisst, das von mir, mittlerwile schon viel strapazierte, Beispiel an Ralli Sport Challenge.


Zu deiner Einstellung bezüglich Optimierungen, gibts ein FULL ACK. Allerdings glaub ich kaum, dass ATi jemals einem Switch im Treiber einbauen wird. Die Reviewer könnten den ja entdecken ;)

So müssten wir eigentlich schon froh sein, dass es funktionierende Registry Keys gibt, mit dem man das ganze Zeug auch ausschalten kann. (falls es eine Extremsituation efordert, oder es der perönliche Geschmack so will)

Ist zwar ein bisschen traurig, aber der Aufschrei der Community verhallte auch beim TS0 only tri-AF ungehört.
Andererseits könne man gegenhalten, dass das Gros der Durchschnittsspieler sowieso wenig Ahnung von AA/AF hat (wird immer aber besser), und 'Cheats' gibts halt nur bei PC Spielen. Ist zwar moralisch nicht ok, aber wir 'Freaks' müssen uns halt mit Reg. Hacks und externen Tools zufrieden geben. Es könnte sonst ja sein, dass bei einem Review der Balken zu kurz ist, nur weil der Tester die ominöse Checkbox penetriert hat :balla: ;)

tombman
2004-06-25, 17:20:51
Original geschrieben von q@e
Klar gilt ein CPU-Limit für beide - aber auf unterschiedlichen Niveaus. Der eine Treiber belastet in dem einen Spiel die CPU mehr, der andere vielleicht in einem anderen Spiel.

Wie erklärst du dir denn sonst, wie nV ohne AF schneller ist als ATi, wie du in deinem HALO-Bench gezeigt hast?

Hatte deine GF ~12% mehr Takt/Füllrate oder Bandbreite als die XT?

der speicher der nv40 war deutlich höher getaktet, 610 zu 565 mhz bei r420.

aber daram geht es nicht: es geht um 67fps -> 47fps bei nvidia und nur 60fps -> 59fps bei ati bei GLEICHER af qualität mit freiem auge, nochmals: MIT FREIEM AUGE!
und das frei auge ist das einzige kriterium was zählt!

q@e
2004-06-25, 17:21:25
Vielleicht besser auch noch die normal-bilinearen (ohne AF), auf denen du nichtmal die Mip-Bandings erkannt hast. X-D
Dann kannst du besser untermauern, aus welchen Gründen du wohl auch im Spiel kein Banding bei biAF erkannt hast.

sry,
;(

Mr. Lolman
2004-06-25, 17:21:33
Original geschrieben von Jesus
soll ich fürs bi AF nochmal meine tollen FC bilder rauskramen ? :D :chainsaw: :chainsaw: :chainsaw: :chainsaw: :chainsaw:

Lieber nicht. Sonst check ich mir einen Webspace und lade meine Farcry worstcase Videos hoch :rail:

Jesus
2004-06-25, 17:21:35
Original geschrieben von Mr. Lolman
Ich hab das 'Problem' von ATis AF schon oft genug angesprochen. Durch die Texturstageoptimierung gibts u.U. halt Mipmapbanding, aber Tombman wirds mir bestätigen, dass selbst bei reinem bi-AF die BQ nicht automatisch unter aller Sau ist.



total ack.

ich glaub allerdings mittlerweile aber auch nicht mehr das ATI`s performance settings reines BI-AF sind.

Denn z.b. in GC2 kann man im Game 8xAF aktivieren. Wenn dabei das CP auf application default ist dann sieht man ganz deutliches banding.

Wenn man aber das CP auf AF performance stellt sieht man kein banding mehr ( genauso wie AF quality ). Also denke ich dass das ( zumindest beim R300 ) nicht bi-AF ist.

tombman
2004-06-25, 17:25:15
Original geschrieben von aths
Ja. Das ist unmöglich, solche BQ-Verbesserungen zu bringen ohne signifikant Performance zu opfern.

und warum gehts dann bei ati? weil sie mehr af-skill haben..

Mr. Lolman
2004-06-25, 17:25:48
Original geschrieben von Jesus
Denn z.b. in GC2 kann man im Game 8xAF aktivieren. Wenn dabei das CP auf application default ist dann sieht man ganz deutliches banding.


'Application Default' ist eigentlich feinstes Full Tri AF ('Tri' bei R3x0 Karten), sofern mans im Spiel wählt, und dieses es auch wünscht...

Zumindest war das bis Cat 4.5 so... Lt. ZBag liegt da bei den neueren Cats. was im Argen. Da ich momentan den 4.7 beta oben hab werd' ich meiner Karte noch mal mit seinem Moire Monster das Fürchten beibringen...

q@e
2004-06-25, 17:27:23
Original geschrieben von tombman
der speicher der nv40 war deutlich höher getaktet, 610 zu 565 mhz bei r420.

aber daram geht es nicht: es geht um 67fps -> 47fps bei nvidia und nur 60fps -> 59fps bei ati bei GLEICHER af qualität mit freiem auge, nochmals: MIT FREIEM AUGE!
und das frei auge ist das einzige kriterium was zählt!

Mach doch einfach nochmal Benches mit default-Taktraten und genau dokumentierten Einstellungen - dann können wir da gern nochmal drüber reden.
Aus 8% höherem Speichertakt 12% mehr FPS zu holen, und daß, wo der nV40 doch so schlecht ist, kann ich mir nur schwer erklären (außer mit der von dir bestrittenen Möglichkeit, daß der ATi Treiber hier einen höhere CPU-Last verursacht und so möglicherweise die XT ausgebremst wird).

Und wie schon woanders erwähnt, bei mir hatte die nV40 in 1600x1200x32 mit PS2.0 in Halo 60,59fps (FW60.72, trilineare Optimierung aus), die XT PE dagegen 62.91fps (BETA-Cat4.5/4.6, der Review-Treiber halt, trilineare Optimierung aus) - und das auf einem deutlich schwächeren System, als deinem und ohne Übertaktungen... :|

q@e
2004-06-25, 17:28:34
Original geschrieben von tombman
und warum gehts dann bei ati? weil sie mehr af-skill haben..

Weil sie, aufgrund ihrer höheren Rohleistung durch 120MHz mehr Chiptakt länger am CPU-/System-Limit hängen... :eyes:

tombman
2004-06-25, 17:29:54
Original geschrieben von q@e
Vielleicht besser auch noch die normal-bilinearen (ohne AF), auf denen du nichtmal die Mip-Bandings erkannt hast. X-D
Dann kannst du besser untermauern, aus welchen Gründen du wohl auch im Spiel kein Banding bei biAF erkannt hast.

sry,
;(

vom wem redest du bitte? ich erkenn jedes banding wenn ich sehe, WENN eines überhaupt da ist... also hör auf mit den verleumdungen hier falls du mich gemeint hast

q@e
2004-06-25, 17:31:50
Damit war "Jesus" gemeint - die Postings kamen nur zu schnell zwischendurch...

aths
2004-06-25, 17:37:46
Original geschrieben von Mr. Lolman
Scheinbar sind hier echt zu viele Leute sensibilisert was AF betrifft, und schaun, ob sie irgendwo auch nur ansatzweise Banding erkennen können. Spiele sollen in erster Linie Spass machen, und das tun sie am ehesten noch bei hohen fps.FPS und Auflösung müssen lediglich "hoch genug" sein. Auf der FX 5900 kostet High Quality ca. 20% Leistung gegenüber "Quality" mit Tri- und Aniso-"Optimierung". Diese 20% opfere ich gerne, um jede Gefahr auszuschalten, Artefakte der "Optimierung" zu sehen. Wenn man noch ~80 fps hat, ist das für mich wirklich gut genug.

Wenn schon AF, dann bitte auch richtiges.
Original geschrieben von Mr. Lolman
Wenn man AA/AF dazuschalten kann ists super, nur sollte dann auch das Plus an BQ in einer vernünftigen Relation zur eingebüssten Leistung stehen. Dieses Plus fällt am größten aus, wenn das AF kein bisschen winkelabhängig wäre.
Original geschrieben von Mr. Lolman
Trotzdem muss man sich pauschalisierendes Aussgen anhören wie, "bevor ich optimiertes AF nehm, schalt ich lieber eine Stufe runter". 1. Gewinnt man durch eine kleinere AF stufe kaum mal eben so 30% Leistung, und 2. gilt das wohl nur für NV Karten, bei denen das AF durch die Optimierungen im Hintergrund einfach unscharf wird...Hm? NVs "Optimierungen" sorgen afaik dafür, dass der Hintergrund so bleibt, und die (größeren) Flächen im Mittelbereich weniger AF kriegen.

aths
2004-06-25, 17:39:00
Original geschrieben von tombman
und warum gehts dann bei ati? weil sie mehr af-skill haben.. Wenn du "Leistung auf Kosten der Bildqualität erhöhen" einen "Skill" nennst, würde ich dir Recht geben. Auch ATI kann beim AF nicht zaubern.

tombman
2004-06-25, 17:39:59
Original geschrieben von q@e


Und wie schon woanders erwähnt, bei mir hatte die nV40 in 1600x1200x32 mit PS2.0 in Halo 60,59fps (FW60.72, trilineare Optimierung aus), die XT PE dagegen 62.91fps (BETA-Cat4.5/4.6, der Review-Treiber halt, trilineare Optimierung aus) - und das auf einem deutlich schwächeren System, als deinem und ohne Übertaktungen... :|

ich will aber bei beiden die optimierungen drinnen haben, denn ich will schnelles af, und das geht bei nvidia nicht.
hattest du 16xaf überhaupt drinn?

und du redest total unlogisches zeug, denn wenn 60fps angeblich MEIN cpu limit sind und deswegen die x800xt fast nichts bei 16xaf verliert, wie kannst DU dann ebenfalls 60fps haben?

nene, egal wie sich manche hier winden, die af fps
schwäche bei nv40 WIRD bewiesen von mir....heute noch.

aths
2004-06-25, 17:41:24
Original geschrieben von tombman
nene, egal wie sich manche hier winden, die af fps
schwäche bei nv40 WIRD bewiesen von mir....heute noch. Wie stellst du sicher, dass der NV40 dabei so schlechte AF-Qualität machen darf, wie R420 mit dem aktuellen Treiber?

q@e
2004-06-25, 17:44:48
Original geschrieben von tombman
ich will aber bei beiden die optimierungen drinnen haben, denn ich will schnelles af, und das geht bei nvidia nicht.
hattest du 16xaf überhaupt drinn?

und du redest total unlogisches zeug, denn wenn 60fps angeblich MEIN cpu limit sind und deswegen die x800xt fast nichts bei 16xaf verliert, wie kannst DU dann ebenfalls 60fps haben?

nene, egal wie sich manche hier winden, die af fps
schwäche bei nv40 WIRD bewiesen von mir....heute noch.

Ich habe doch geschrieben, in welchen Settings das war.... was ist daran unklar? 1600x1200 Pixel, 32Bit Framebuffer, Pixelshader-2.0-Pfad aktiviert.

Warum wir beide bei 60fps liegen - das ist eben die große Frage, die mich bei deinen Ergebnissen ein wenig Baff macht - selbst wenn es nicht das CPU-Limit ist, solltest du dank deiner Übertaktungen doch deutlich flotter unterwegs sein. :|

tombman
2004-06-25, 17:46:03
Original geschrieben von aths
Wenn du "Leistung auf Kosten der Bildqualität erhöhen" einen "Skill" nennst, würde ich dir Recht geben. Auch ATI kann beim AF nicht zaubern.

doch können sie- denn sie wissen besser was ein menschliches auge stört und was nicht, durch intelligente algorithmen beim af.

und auch du kannst die angeblich schlechtere af qualität nicht beweisen, weder durch screenshots noch durch videos.
also GIBT es KEINE schlechtere af qualität bei ati.

widerlege es wenn du kannst.

q@e
2004-06-25, 17:46:40
Original geschrieben von aths
Wie stellst du sicher, dass der NV40 dabei so schlechte AF-Qualität machen darf, wie R420 mit dem aktuellen Treiber?

Gar nicht - es geht ihm doch nach eigenen Worten darum, die AF-Schwäche der GF zu beweisen. :)

aths
2004-06-25, 17:48:56
Original geschrieben von tombman
doch können sie- denn sie wissen besser was ein menschliches auge stört und was nicht, durch intelligente algorithmen beim af. "Intelligent" heißt, stur nach dem Winkel weniger zu samplen. Intelligent ist da leider nichts. Um Transistoren zu sparen, nahmen sie eine besonders einfache AF-Formel, welche diese starke Winkelabhängigkeit einführt und damit Füllrate spart. NV40 nutzt jetzt eine ähnliches (wenn auch noch etwas besseres) Muster, um Füllrate zu sparen.
Original geschrieben von tombman
und auch du kannst die angeblich schlechtere af qualität nicht beweisen, weder durch screenshots noch durch videos.
also GIBT es KEINE schlechtere af qualität bei ati.

widerlege es wenn du kannst. Ich hab das AF auf meiner Radeon 9600 mit eigenen Augen gesehen. Ich habe das 16x AF auf der 6800 mit eigenen Augen gesehen. Und ich weiß jetzt, was ich am 8x AF der Ti 4600 hatte / der FX 5900 XT habe.

tombman
2004-06-25, 17:52:23
Original geschrieben von aths
Wie stellst du sicher, dass der NV40 dabei so schlechte AF-Qualität machen darf, wie R420 mit dem aktuellen Treiber?
du meintest sicher " ...so gute af-qual" ;)

die af qualität wird von meinem auge beurteilt. wenn beide
bilder gleich aussehen und ati prozentuell relativ weniger
fps verliert, hat ati "gewonnen"- so einfach ist das.

und pics gibts auch noch..

Mr. Lolman
2004-06-25, 17:53:56
Original geschrieben von aths
FPS und Auflösung müssen lediglich "hoch genug" sein. Auf der FX 5900 kostet High Quality ca. 20% Leistung gegenüber "Quality" mit Tri- und Aniso-"Optimierung". Diese 20% opfere ich gerne, um jede Gefahr auszuschalten, Artefakte der "Optimierung" zu sehen. Wenn man noch ~80 fps hat, ist das für mich wirklich gut genug.


Klar bei 100fps kann man ruhig AA/AF setzn, was das Zeug hält. Aber wenns nunmal tw. sogar 30% sind, die man durch die Optimierungen gewinnt, und die unoptimierten fps auch nurmehr im Bereich von 25-30 liegen?

Da würd' zumindest ich mit der Gefahr leben, mal wo ein paar Artefakte zu sehen...


Wenn schon AF, dann bitte auch richtiges.
Dieses Plus fällt am größten aus, wenn das AF kein bisschen winkelabhängig wäre.


Solang die Leistung reicht, sollten sie wirklich perfektes Bilderbuch AF anbieten. Aber hast du nicht selbst gemeint, dass für deine 9600 bi-AF eine gute Option ist?

Ich persönlich hab lieber 4xbi-AF, als garkeins. (Selbst bei LockOn hab ich max Details und 2xbi AF aktiv gehabt, aber nur deswegen, weil das Mipmapband sich meisten brav im Hintergrund hielt)

Hm? NVs "Optimierungen" sorgen afaik dafür, dass der Hintergrund so bleibt, und die (größeren) Flächen im Mittelbereich weniger AF kriegen.

Die bri Optimierungen, ja. Aber der Sprung von Super HQ auf HQ , oder Performance (oder wie das jetzt heisst) bringt eine schöne Unschärfe mitsich...

tombman
2004-06-25, 17:58:10
Original geschrieben von aths

Ich hab das AF auf meiner Radeon 9600 mit eigenen Augen gesehen. Ich habe das 16x AF auf der 6800 mit eigenen Augen gesehen. Und ich weiß jetzt, was ich am 8x AF der Ti 4600 hatte / der FX 5900 XT habe.

dh du hast keine x800 gesehen...toll, aber damit bist du
in diesem fall nicht qualifiziert.

nochmal: völlig egal wie es technisch abläuft, nur das auge
bewertet, und wenn es gleich aussieht und ati mehr fps hat, dann ist ati eben besser.

Ranz0r
2004-06-25, 18:07:50
Original geschrieben von tombman
dh du hast keine x800 gesehen...toll, aber damit bist du
in diesem fall nicht qualifiziert.

nochmal: völlig egal wie es technisch abläuft, nur das auge
bewertet, und wenn es gleich aussieht und ati mehr fps hat, dann ist ati eben besser.

Auf der 9600 wurde das AF von ATI doch "zu testzwecken" eingeführt oder? Folglich bräuchte er keine X800 zu sehen.

aths
2004-06-25, 18:07:53
Original geschrieben von tombman
du meintest sicher " ...so gute af-qual" ;)Nein. NV40 hat bessere AF-Quali als R420. Die Quali soll beim R420 ja noch etwas schlechter (LOD-Probleme) als beim RV360 sein. Schon dort fiel mir Texturflimmern hier und Texturunschärfe dort auf.

aths
2004-06-25, 18:10:47
Original geschrieben von Mr. Lolman
Klar bei 100fps kann man ruhig AA/AF setzn, was das Zeug hält. Aber wenns nunmal tw. sogar 30% sind, die man durch die Optimierungen gewinnt, und die unoptimierten fps auch nurmehr im Bereich von 25-30 liegen?

Da würd' zumindest ich mit der Gefahr leben, mal wo ein paar Artefakte zu sehen... Entweder das, oder Auflösung senken, oder Ingame-Details. Jeder, wie er will :)

Original geschrieben von Mr. Lolman
Solang die Leistung reicht, sollten sie wirklich perfektes Bilderbuch AF anbieten. Aber hast du nicht selbst gemeint, dass für deine 9600 bi-AF eine gute Option ist?Ich meinte, dass es Spiele gibt, wo bei bi-AF nicht immer sofort mit MIP-Banding ins Auge fällt.

Original geschrieben von Mr. Lolman Die bri Optimierungen, ja. Aber der Sprung von Super HQ auf HQ , oder Performance (oder wie das jetzt heisst) bringt eine schöne Unschärfe mitsich... Es gibt HQ und Q auf NV-Karten. Wo tritt dieseUnschärfe auf (beim 61.34)?

aths
2004-06-25, 18:13:53
Original geschrieben von tombman
dh du hast keine x800 gesehen...toll, aber damit bist du
in diesem fall nicht qualifiziert.Auf der 9600 ist das AF sogar noch etwas besser als derzeit auf der X800 :eyes:
Original geschrieben von tombman
nochmal: völlig egal wie es technisch abläuft, nur das auge
bewertet, und wenn es gleich aussieht und ati mehr fps hat, dann ist ati eben besser. Offenbar habe ich andere Augen.

ironMonkey
2004-06-25, 18:15:26
@Tombman, es hat nicht viel Sinn sich mit aths auseinander zu setzen wenn es um AF geht, für ihn ist Qualität koste es was es wolle der einzigste Grund es einzuschalten.


Ich hätte auch gern eine Super AF Qualität, allerdings will ich das nicht um jedem Preis, für mich steht an erste Stelle die Leistung die es kostet, weil man muss es ja auch einsetzten können, Ich hab leider nicht beide karten um einen Blind test zu machen, aber du könntest es machen.


Man nehme 4 Karten 1x6800Ultra 1xX800 XT PE und 2 nach Wunsch( kann auch nur 1ne sein mit der du halt 2x ein Video aufnimmst), erstellt ein gutes ingame Video, schreibt hin welche Auflösung und lässt dann die anderen Raten wieviel AF wieviel AA und welche Karte eingestezt wurde, das ganze muss man aber Zeitlich begrentzen, weil wenn man einen Unterschied sieht, sieht man den sofort.



Gruß

Mr. Lolman
2004-06-25, 18:18:54
Original geschrieben von aths
Es gibt HQ und Q auf NV-Karten. Wo tritt dieseUnschärfe auf (beim 61.34)?

Bei Q am Horizont? Oder NV den Q Modus verbessert?

tombman
2004-06-25, 18:20:17
Original geschrieben von aths
Au
Offenbar habe ich andere Augen.

ich hab USER augen, wie 99% der käufer ;)

Ranz0r
2004-06-25, 18:23:08
Original geschrieben von ironMonkey
@Tombman, es hat nicht viel Sinn sich mit aths auseinander zu setzen wenn es um AF geht, für ihn ist Qualität koste es was es wolle der einzigste Grund es einzuschalten.

Gruß


Warum sollte man es denn sonst einschalten? Wenn einem die Leistung nicht reicht, geht man eine AF-Stufe runter, und diese sieht warscheinlich trotzdem besser aus als das optimierte Zeug. Wobei ich selber zugeben muss, das ich an einigen Stellen schon echt genau hinschauen muss um die Mängel zu sehen (Ich beziehe mich auf Screens in anderen Topics). Aber im direkten Vergleich kann man schon einen Unterschied sehen finde ich.

ironMonkey
2004-06-25, 18:30:33
Original geschrieben von Ranz0r
Warum sollte man es denn sonst einschalten? Wenn einem die Leistung nicht reicht, geht man eine AF-Stufe runter, und diese sieht warscheinlich trotzdem besser aus als das optimierte Zeug. Wobei ich selber zugeben muss, das ich an einigen Stellen schon echt genau hinschauen muss um die Mängel zu sehen (Ich beziehe mich auf Screens in anderen Topics). Aber im direkten Vergleich kann man schon einen Unterschied sehen finde ich.


Hatte ich auch gedacht, im einem Shooter Spiel zB. erkennt man den Unterschied nicht, auf Bildern eher, aber im Spiel nicht, warum??????Weil man in einem Spiel keine Zeit hat nach Fehler zu suchen.Schlimm wirds dann wenn die Leute Unterschiede sehen obwohl jedes mal die selbe Karte genommen wurde.



Gruß

Ranz0r
2004-06-25, 18:36:19
Original geschrieben von ironMonkey
Hatte ich auch gedacht, im einem Shooter Spiel zB. erkennt man den Unterschied nicht, auf Bildern eher, aber im Spiel nicht, warum??????Weil man in einem Spiel keine Zeit hat nach Fehler zu suchen.Schlimm wirds dann wenn die Leute Unterschiede sehen obwohl jedes mal die selbe Karte genommen wurde.



Gruß


Naja, kommt drauf an... Seitdem ich in diesem Forum unterwegs bin und mich mehr mit Grafikkarten etc beschäftige, sehe ich wesentlich mehr Fehler in einem Spiel.

Vorher hat mich Kantenflimmern kaum bis gar nicht gestört, ich kannte zwar AA und AF aber eingeschaltet kaum bis gar nicht - Ich hab einfach immer 1600*1200 (Sofern dies möglich war) und alle Details auf Maximum geschraubt. Nun stelle ich aber mehr und mehr fest was ich da hingenommen hab.
Ich habe eben mal wieder GTA VC gestartet und habe festgestellt, das ich ohne AA und AF deutlich Kantenflimmern und die Verschlechterung der Texturen auf Entfernung wargenommen habe. Das hatte ich vorher nie.
Ok man könnte nun sagen, es ist Schade das einem sowas nun auffällt, aber ich bin lieber für perfektes, langsames AF was dann in absehbarer Zeit auf Wegen optimiert wird, die auch nich einen einzigen Pixel anders darstellen lassen (Sofern dies möglich ist), als optimiertes AF was zwar schön aussieht aber nicht dafür sorgt das die noch schönere Variante noch schneller wird.

tombman
2004-06-25, 18:49:28
2900MHz, 1024MB, 256M ATI Unknown (DeviceID=0x4a50) Driver=6.14.10.6458 Shader=2.0
D:\Halo-TEST\halo.exe -timedemo -vidmode 640,480,130 -nosound (Version=1.0.4.607)
Frames=4700
Total Time=44.45s
Average frame rate=105.73fps
Below 5fps= 30% (time) 0% (frames) (13.480s spent in 12 frames)
Below 10fps= 30% (time) 0% (frames)
Below 15fps= 30% (time) 0% (frames)
Below 20fps= 31% (time) 0% (frames)
Below 25fps= 31% (time) 0% (frames)
Below 30fps= 31% (time) 0% (frames)
Below 40fps= 31% (time) 0% (frames)
Below 50fps= 31% (time) 0% (frames)
Below 60fps= 32% (time) 0% (frames)
###Sound Options###
Sound Disabled
###Video Options###
Resolution= 640 x 480
Refresh rate= 60 Hz
Framerate throttle= No Vsync
Specular= Yes
Shadows= Yes
Decals= Yes
Particles= Off
Texture Quality= High

_____________________________________

soviel zum Schwachsinn mit der cpu Limitierung ...

ironMonkey
2004-06-25, 18:50:37
Das Problem ist hierbei das du das Spiel schon sehr gut kennst, allerdings wirds auch bei bekannten Spielen nicht sehr einfach.


Gruß

Gast
2004-06-25, 18:54:38
*kratz*
wie soll ein einzelnes Ergebis auch nur annähernd das beweisen, was du versuchst zu zeigen?

:wayne:

ironMonkey
2004-06-25, 18:56:24
Ohhh ein Gast...ja dann müssen wirs wohl genau Erklären;D

tombman
2004-06-25, 18:58:00
So bitte sehr, das erste war mit 1600x1200, 0xAF, der zweite ist mit 16xAF (perf. im cp).

Lächerliche 4fps weniger und schon hat man bei ATI 16xAF völlig spielbar dabei mit guter AF Qualität.

____________________________________________________
http://halo.bungie.net/site/halo/features/hpcperformancefaq.html
Date / Time: 25.06.2004 18:51:43 (700765ms)
2900MHz, 1024MB, 256M ATI Unknown (DeviceID=0x4a50) Driver=6.14.10.6458 Shader=2.0
D:\Halo-TEST\halo.exe -timedemo -vidmode 1600,1200,85 -nosound (Version=1.0.4.607)
Frames=4700
Total Time=67.64s
Average frame rate=69.49fps (0xAF)
Below 5fps= 0% (time) 0% (frames) (0.000s spent in 0 frames)
Below 10fps= 1% (time) 0% (frames)
Below 15fps= 2% (time) 0% (frames)
Below 20fps= 2% (time) 0% (frames)
Below 25fps= 2% (time) 0% (frames)
Below 30fps= 6% (time) 2% (frames)
Below 40fps= 21% (time) 9% (frames)
Below 50fps= 29% (time) 13% (frames)
Below 60fps= 37% (time) 20% (frames)
###Sound Options###
Sound Disabled
###Video Options###
Resolution= 1600 x 1200
Refresh rate= 60 Hz
Framerate throttle= No Vsync
Specular= Yes
Shadows= Yes
Decals= Yes
Particles= Off
Texture Quality= High

For further information, please visit the timedemo FAQ at: http://halo.bungie.net/site/halo/features/hpcperformancefaq.html
Date / Time: 25.06.2004 18:54:03 (837562ms)
2900MHz, 1024MB, 256M ATI Unknown (DeviceID=0x4a50) Driver=6.14.10.6458 Shader=2.0
D:\Halo-TEST\halo.exe -timedemo -vidmode 1600,1200,85 -nosound (Version=1.0.4.607)
Frames=4700
Total Time=71.47s
Average frame rate=65.76fps (16x perf. AF)
Below 5fps= 0% (time) 0% (frames) (0.000s spent in 0 frames)
Below 10fps= 1% (time) 0% (frames)
Below 15fps= 1% (time) 0% (frames)
Below 20fps= 2% (time) 0% (frames)
Below 25fps= 4% (time) 1% (frames)
Below 30fps= 9% (time) 2% (frames)
Below 40fps= 22% (time) 9% (frames)
Below 50fps= 29% (time) 14% (frames)
Below 60fps= 40% (time) 23% (frames)
###Sound Options###
Sound Disabled
###Video Options###
Resolution= 1600 x 1200
Refresh rate= 60 Hz
Framerate throttle= No Vsync
Specular= Yes
Shadows= Yes
Decals= Yes
Particles= Off
Texture Quality= High
__________________________________________





DAS soll nv40 mal nachmachen :D

Ranz0r
2004-06-25, 18:59:40
Wieso haste eigentlich die Partikel deaktiviert?

Blaire
2004-06-25, 19:01:40
3400MHz, 1024MB, 256M nVidia (DeviceID=0x0040) Driver=6.14.10.6134 Shader=2.0
C:\spiele\Halo\halo.exe -timedemo -vidmode 640,480 -nosound (Version=1.0.2.581)
Frames=4700
Total Time=38.38s
Average frame rate=122.45fps
Below 5fps= 1% (time) 0% (frames) (0.427s spent in 2 frames)
Below 10fps= 3% (time) 0% (frames)
Below 15fps= 4% (time) 0% (frames)
Below 20fps= 4% (time) 0% (frames)
Below 25fps= 4% (time) 0% (frames)
Below 30fps= 5% (time) 0% (frames)
Below 40fps= 5% (time) 0% (frames)
Below 50fps= 5% (time) 0% (frames)
Below 60fps= 7% (time) 1% (frames)
###Sound Options###
Sound Disabled
###Video Options###
Resolution= 640 x 480
Refresh rate= 60 Hz
Framerate throttle= No Vsync
Specular= Yes
Shadows= Yes
Decals= Yes
Particles= Off
Texture Quality= High

Habe gerade mal bei mir getestet.

Ranz0r
2004-06-25, 19:03:02
Blair, würdest das auch mal mit AF und 1600*1200 durchtesten? Dann haben wir (einigermaßen) brauchbare Ergebnisse denke ich :)

tombman
2004-06-25, 19:07:04
Original geschrieben von Ranz0r
Wieso haste eigentlich die Partikel deaktiviert?

das ist ein Fehler von Halo... er schreibt immer off hin auch wenn sie aktiviert sind.

@BLAIRE: du hast eine andere Halo Version, ist daher nicht vergleichbar.

Und für AHTS extra noch mit Quality-AF

For further information, please visit the timedemo FAQ at: http://halo.bungie.net/site/halo/features/hpcperformancefaq.html
Date / Time: 25.06.2004 19:03:08 (1379578ms)
2900MHz, 1024MB, 256M ATI Unknown (DeviceID=0x4a50) Driver=6.14.10.6458 Shader=2.0
D:\Halo-TEST\halo.exe -timedemo -vidmode 1600,1200,85 -nosound (Version=1.0.4.607)
Frames=4700
Total Time=75.60s
Average frame rate= 62.17fps (16x qual. AF)
Below 5fps= 0% (time) 0% (frames) (0.000s spent in 0 frames)
Below 10fps= 1% (time) 0% (frames)
Below 15fps= 1% (time) 0% (frames)
Below 20fps= 2% (time) 0% (frames)
Below 25fps= 7% (time) 2% (frames)
Below 30fps= 17% (time) 6% (frames)
Below 40fps= 23% (time) 9% (frames)
Below 50fps= 30% (time) 14% (frames)
Below 60fps= 42% (time) 25% (frames)
###Sound Options###
Sound Disabled
###Video Options###
Resolution= 1600 x 1200
Refresh rate= 60 Hz
Framerate throttle= No Vsync
Specular= Yes
Shadows= Yes
Decals= Yes
Particles= Off
Texture Quality= High

_______________________________________________-

tjo, von 69fps runter auf 62fps bei 16x qual. AF bei ATI :D
Got power? :D

q@e
2004-06-25, 19:08:09
Original geschrieben von tombman
DAS soll nv40 mal nachmachen :D

Performance-AF? Ist das dein Ernst???
:rofl:

Aber schön, daß wir das CPU-Limit ausschließen konnten. :)

Blaire
2004-06-25, 19:08:17
For further information, please visit the timedemo FAQ at: http://halo.bungie.net/site/halo/features/hpcperformancefaq.html
Date / Time: 25.06.2004 19:10:06 (2479328ms)
3400MHz, 1024MB, 256M nVidia (DeviceID=0x0040) Driver=6.14.10.6134 Shader=2.0
C:\spiele\Halo\halo.exe -timedemo -vidmode 1600,1200 -nosound (Version=1.0.2.581)
Frames=4700
Total Time=83.05s
Average frame rate=56.59fps
Below 5fps= 1% (time) 0% (frames) (0.867s spent in 4 frames)
Below 10fps= 1% (time) 0% (frames)
Below 15fps= 2% (time) 0% (frames)
Below 20fps= 2% (time) 0% (frames)
Below 25fps= 3% (time) 0% (frames)
Below 30fps= 11% (time) 4% (frames)
Below 40fps= 22% (time) 11% (frames)
Below 50fps= 34% (time) 20% (frames)
Below 60fps= 63% (time) 48% (frames)
###Sound Options###
Sound Disabled
###Video Options###
Resolution= 1600 x 1200
Refresh rate= 60 Hz
Framerate throttle= No Vsync
Specular= Yes
Shadows= Yes
Decals= Yes
Particles= Off
Texture Quality= High


mit 16xAF ohne FSAA 1600x1200 (wobei ich sagen muss das der 60.82 Forceware deutlich bessere Ergebnisse bei Halo liefert als der von mir verwendete 61.34

Gast
2004-06-25, 19:09:39
Original geschrieben von tombman
Und für AHTS extra noch mit Quality-AF


ahhh - schon besser. :up:

tombman
2004-06-25, 19:10:00
Original geschrieben von q@e
Performance-AF? Ist das dein Ernst???
:rofl:

Aber schön, daß wir das CPU-Limit ausschließen konnten. :)

1.) ja das ist mein Ernst, sieht nämlich schön aus!
2.) WIR konnten gar nix ausschließen, ICH konnte ausschließen.
3.) sogar bei qual. af sinds nur lächerliche 7fps weniger gegenüber kein af --> OWNED :D

Blaire
2004-06-25, 19:13:14
For further information, please visit the timedemo FAQ at: http://halo.bungie.net/site/halo/features/hpcperformancefaq.html
Date / Time: 25.06.2004 19:15:00 (2762328ms)
3400MHz, 1024MB, 256M nVidia (DeviceID=0x0040) Driver=6.14.10.6134 Shader=2.0
C:\spiele\Halo\halo.exe -timedemo -vidmode 1600,1200 -nosound (Version=1.0.2.581)
Frames=4700
Total Time=94.17s
Average frame rate=49.91fps
Below 5fps= 0% (time) 0% (frames) (0.867s spent in 4 frames)
Below 10fps= 1% (time) 0% (frames)
Below 15fps= 2% (time) 0% (frames)
Below 20fps= 2% (time) 0% (frames)
Below 25fps= 9% (time) 3% (frames)
Below 30fps= 14% (time) 6% (frames)
Below 40fps= 23% (time) 12% (frames)
Below 50fps= 49% (time) 35% (frames)
Below 60fps= 79% (time) 66% (frames)
###Sound Options###
Sound Disabled
###Video Options###
Resolution= 1600 x 1200
Refresh rate= 60 Hz
Framerate throttle= No Vsync
Specular= Yes
Shadows= Yes
Decals= Yes
Particles= Off
Texture Quality= High

Mit High Quality 16xAF

Ranz0r
2004-06-25, 19:13:53
Optimierungen an oder aus Blaire?

q@e
2004-06-25, 19:14:29
Oh ja, ich vergaß, großer, unabhängiger Tombman - DU ALLEIN konntest ausschließen.
:massa:
:massa:

Ich bin der Dreck unter deinen Fußnägeln.

Hoffentlich hat sich die HALO-Performance nicht mit deinem Patch verbessert, Blaires Version scheint nämlich neuer zu sein als deine. :naughty:

Blaire
2004-06-25, 19:14:45
Original geschrieben von Ranz0r
Optimierungen an oder aus Blaire?

Alles aus Nichts übertaktet Core 400 Memory 1100

@tombman: Was hast du für ein AMD mit 2900? Einen Athlon64? ;D

q@e
2004-06-25, 19:17:10
Original geschrieben von Blaire
Alles aus


Bitte genau:
Trilinear Optimizations und Anisotropic Optimizations OFF?
Und auf was steht Systemleistung? "High Quality"?

Und hast du mit default-Takten der GeForce gebencht?

tombman
2004-06-25, 19:17:49
Original geschrieben von Blaire
Alles aus Nichts übertaktet Core 400 Memory 1100

@tombman: Was hast du für ein AMD mit 2900? Einen Athlon64? ;D

nö, einen FX53 sockel 940 der 28sec superpi raushaut, noch Fragen? :D

tombman
2004-06-25, 19:18:39
Original geschrieben von q@e


Ich bin der Dreck unter deinen Fußnägeln.



Genau; KNIE NIEDER VOR DEINEM GOOOOTTT!! :D

Blaire
2004-06-25, 19:19:08
Original geschrieben von q@e
Bitte genau:
Trilinear Optimizations und Anisotropic Optimizations OFF?
Und auf was steht Systemleistung? "High Quality"?

Und hast du mit default-Takten der GeForce gebencht?

Genau High Quality Systemleistung
Trinlinear Opt. OFF
Anisotropic OFF
Vsync off
400/1100 nichts übertaktet

q@e
2004-06-25, 19:20:57
Original geschrieben von Blaire
Genau High Quality Systemleistung
Vsync off
400/1100 nichts übertaktet

Danke. :)
Somit sind deine Scores leider wertlos, weil die X800 an die Bildqualität niemals herankommen kann. ;)
X-D

Test doch auch einmal mit High-Performance und Optimierungen an - sieht ja "schön" aus...

Ranz0r
2004-06-25, 19:21:41
Original geschrieben von q@e
Danke. :)
Somit sind deine Scores leider wertlos, weil die X800 an die Bildqualität niemals herankommen kann. ;)
X-D

Test doch auch einmal mit High-Performance und Optimierungen an - sieht ja "schön" aus...


Oder Tomb haut die Optimierungen und die AFStages raus ;)

Blaire
2004-06-25, 19:24:37
Original geschrieben von q@e
Danke. :)
Somit sind deine Scores leider wertlos, weil die X800 an die Bildqualität niemals herankommen kann. ;)
X-D

Test doch auch einmal mit High-Performance und Optimierungen an - sieht ja "schön" aus...

Hab ich schon. Aber ok nochmal

For further information, please visit the timedemo FAQ at: http://halo.bungie.net/site/halo/features/hpcperformancefaq.html
Date / Time: 25.06.2004 19:26:07 (3440390ms)
3400MHz, 1024MB, 256M nVidia (DeviceID=0x0040) Driver=6.14.10.6134 Shader=2.0
C:\spiele\Halo\halo.exe -timedemo -vidmode 1600,1200 -nosound (Version=1.0.2.581)
Frames=4700
Total Time=83.04s
Average frame rate=56.60fps
Below 5fps= 1% (time) 0% (frames) (0.866s spent in 4 frames)
Below 10fps= 1% (time) 0% (frames)
Below 15fps= 2% (time) 0% (frames)
Below 20fps= 2% (time) 0% (frames)
Below 25fps= 3% (time) 0% (frames)
Below 30fps= 11% (time) 4% (frames)
Below 40fps= 22% (time) 11% (frames)
Below 50fps= 34% (time) 20% (frames)
Below 60fps= 63% (time) 48% (frames)
###Sound Options###
Sound Disabled
###Video Options###
Resolution= 1600 x 1200
Refresh rate= 60 Hz
Framerate throttle= No Vsync
Specular= Yes
Shadows= Yes
Decals= Yes
Particles= Off
Texture Quality= High

tombman
2004-06-25, 19:24:38
Original geschrieben von q@e
weil die X800 an die Bildqualität niemals herankommen kann. ;)


Lüge!

BEWEIS ES !

q@e
2004-06-25, 19:25:05
Selbst dann nicht...

(*psssst* das sieht ja keine - deswegen kann's ruhig drinbleiben...)

tombman
2004-06-25, 19:28:16
tjo, nvidia hat kein schnelles AF.. is FAKT.

Blaire
2004-06-25, 19:29:36
Original geschrieben von tombman
Lüge!

BEWEIS ES !

Mach mal einen Screen von 3D Mark 2001 Gametest 1 mit High Performance. Ich weiss wie es bei der 9800 Pro aussah und das war fürchterlich. Bei der 6800 Ultra deutlich besser. Muss nichts heißen aber das würde die paar FPS mehr erklären. Und deine CPU ist auch nicht von schlechten Eltern. ;D

MfG

q@e
2004-06-25, 19:33:00
Original geschrieben von tombman
Lüge!

BEWEIS ES !

Schrei nicht so - wir sind hier nicht im Kindergarten.

Beweis:
5 < 8
24 < 32

Das (http://www.3dcenter.org/artikel/r420_benchmarks/af-test_xt_d3d_af16.php) < Das (http://www.3dcenter.org/artikel/r420_benchmarks/af-test_68_d3d_af16.php) (und das ist schon der "best case" für ATi, denn eigentlich sieht's da eher so aus: 16xAF mit "Optimierung" (http://home.arcor.de/quasat/3DC-Pics/anti-cheat%20-%2016xAF.PNG).

Ranz0r
2004-06-25, 19:33:10
Und 2 Jahre alte Treiber, für nen hochgezüchteten Core. Da is meiner Meinung nach nicht mehr viel zu holen, allerdings ist dies beim NV40 anders, da das ein komplett neuer Core ist und somit warscheinlich noch relativ viel mit Treibern gemacht werden kann :)

aths
2004-06-25, 19:38:42
Original geschrieben von Mr. Lolman
Bei Q am Horizont? Oder NV den Q Modus verbessert? Weiß ich nicht.

aths
2004-06-25, 19:39:29
Original geschrieben von tombman
ich hab USER augen, wie 99% der käufer ;) Öh. Dir mag's reichen. Mir nicht. Weder will ich AF so winkelabhängig wie bei Radeon oder beim NV40, noch will ich die LOD-Probleme der Radeon (die resultieren in Texturschimmern.)

Mr. Lolman
2004-06-25, 19:40:48
Original geschrieben von Ranz0r
Und 2 Jahre alte Treiber, für nen hochgezüchteten Core. Da is meiner Meinung nach nicht mehr viel zu holen

Selbst die R3x0 profitieren noch von neueren Treibern. Ruby Demo z.B. ist bei mir mit 4.7 beta >10% schneller als noch mit 4.4...

aths
2004-06-25, 19:41:25
Original geschrieben von tombman
tjo, nvidia hat kein schnelles AF.. is FAKT. Richtig. Nvidia hat nämlich schöneres AF, was zwangsläufig seinen Tribut kostet.
Original geschrieben von tombman
Lüge!

BEWEIS ES ! Ich habe die Muster von Radeon und vom NV40 verglichen. NV40 ist beim AF im Vorteil, aber auch bei der zugrunde liegenden normalen Texturfilterung. ATI hat Nachteile bei reiner bi- und trilinearer Filterung, bei der LOD-Bestimmung, und beim AF. In jeder Unterdisziplin steht die GF besser da.

q@e
2004-06-25, 19:44:15
Original geschrieben von tombman
tjo, nvidia hat kein schnelles AF.. is FAKT.

Also wenn ich das jetzt richtig gelesen habe, hast du mit "<=16xPerformance-AF" auf deiner X800XT PE in Halo 65,76fps erreicht. Blaire schaffte auf seiner GF 6800 Ultra dagegen 56,60fps.

Richtig?

daraus errechne ich bei 16x520=8320 geteilt durch die erreichten FPS (65,76) daß deine XT PE pro FPS ~126,5 MPix Füllrate aufwenden musste.

Blaires 6800u hat bei 16x400=6400, geteilt durch 56,60 erreichte FPS ~113,07 MPix gebraucht.

Ich habe also nicht den Eindruck, daß "das AF" lahm ist, sondern einfach nur der Chip niedriger getaktet ist - ein Blick in einen beliebigen Launch-Artikel hätte uns, verzeihung DICH, auch zu dieser Erkenntnis geführt.

Im Gegentum scheint mir, daß im Vergleich zur Spec, das AF der X800 XT PE ausgesprochen lahm ist.

tombman
2004-06-25, 19:44:23
Original geschrieben von aths
Richtig. Nvidia hat nämlich schöneres AF, was zwangsläufig seinen Tribut kostet.

nö, hats nicht, nicht für menschliche Durchschnittsaugen, und schon gar ned schön genug für diesen eklatanten fps Verlust von bis zu 50%.

deekey777
2004-06-25, 19:47:24
Ich=n00b!
@Halo-Tester: Wie es aussieht, habt ihr mit 2 unterschiedlichen Halo-Versionen getestet - einmal mit Halo 1.02 und der andere mit Halo 1.04. Der Unterschied ist, dass ab Halo 1.03 dieser Eintrag "//UseAnisotropicFilter" in der Config.txt zu finden ist, dh AF ist ab Halo 1.03 deaktiviert (default).

Vielleicht liege ich aber richtig daneben...

tombman
2004-06-25, 19:49:56
Original geschrieben von q@e
Also wenn ich das jetzt richtig gelesen habe, hast du mit "<=16xPerformance-AF" auf deiner X800XT PE in Halo 65,76fps erreicht. Blaire schaffte auf seiner GF 6800 Ultra dagegen 56,60fps.

Richtig?

daraus errechne ich bei 16x520=8320 geteilt durch die erreichten FPS (65,76) daß deine XT PE pro FPS ~126,5 MPix Füllrate aufwenden musste.

Blaires 6800u hat bei 16x400=6400, geteilt durch 56,60 erreichte FPS ~113,07 MPix gebraucht.

Ich habe also nicht den Eindruck, daß "das AF" lahm ist, sondern einfach nur der Chip niedriger getaktet ist - ein Blick in einen beliebigen Launch-Artikel hätte uns, verzeihung DICH, auch zu dieser Erkenntnis geführt.

Im Gegentum scheint mir, daß im Vergleich zur Spec, das AF der X800 XT PE ausgesprochen lahm ist.

oje---- jetzt willst schon wieder bei gleichem Takt vergleichen, oder wie?

Der Takt gehört nun mal zum Design dazu, ati ist schneller und verliert RELATIV weniger fps bei 16xAF als nvidia.

Kein Pixel-compare Programm, kein Wundertreiber, keine noobigen "selber Takt" Sprüche werden nvidia in der Causa lame-af-fps entlasten.

Fakt ist, daß nvidia bei AF im wichtigsten Punkt überhaupt versagt hat: der USABILITY. Man kann es nicht gescheit verwenden im game, weils zuviel fps kostet.

aths
2004-06-25, 19:51:20
Original geschrieben von tombman
nö, hats nicht, nicht für menschliche Durchschnittsaugen, und schon gar ned schön genug für diesen eklatanten fps Verlust von bis zu 50%. Bereits 2x AF muss (bei voller Graka-Limitierung) bis zu 50% Leistung kosten. (In der Praxis 30-40%. Wie gesagt, bei voller Graka-Limitierung.) Kostet es trotz Graka-Limitierung deutlich weniger, taugt es nicht.

Wenn es dir trotzdem gefällt, ist gegen diese Meinung nichts zu sagen. "Richtiger" werden Benches gegeneinander trotzdem nicht, weil die Qualität unterschiedlich ist.
Original geschrieben von tombman
Kein Pixel-compare Programm, kein Wundertreiber, keine noobigen "selber Takt" Sprüche werden nvidia in der Causa lame-af-fps entlasten.

Fakt ist, daß nvidia bei AF im wichtigsten Punkt überhaupt versagt hat: der USABILITY. Man kann es nicht gescheit verwenden im game, weils zuviel fps kostet. Es kostet im Vergleich mit ATI weniger fps pro zusätzlicher Qualität. Wenn du diese Qualität nicht siehst, bist du mit der X800 bestens bedient. Mir kommt es nicht darauf an, ein Feature zu verwenden, sondern Nutzen aus ihm zu ziehen.

tombman
2004-06-25, 19:52:56
Original geschrieben von aths
weil die Qualität unterschiedlich ist.

du kannst es 10mal wiederholen, deswegen stimmts trotzdem ned.

tombman
2004-06-25, 19:53:54
Original geschrieben von aths
Wenn du diese Qualität nicht siehst, bist du mit der X800 bestens bedient.

du siehst es doch selbst nicht, höchstens ein pixel-compare proggy tut das.

Ailuros
2004-06-25, 19:55:42
Original geschrieben von Mr. Lolman
@Ailurus: Bildqualität ist halt was sehr subjektives. Vmo Extremfall ausgehend - alle Texturen besitzen starke kontraste und unterschieden sich innerhalb der jew. Mipmaps noch deutlich voneinander magst du mit der Aussage, dass man immer "genauso viel BQ opfert, wie man Leistung bekommt" absolut recht haben. Das es ander auch geht beweisst, das von mir, mittlerwile schon viel strapazierte, Beispiel an Ralli Sport Challenge.


Zu deiner Einstellung bezüglich Optimierungen, gibts ein FULL ACK. Allerdings glaub ich kaum, dass ATi jemals einem Switch im Treiber einbauen wird. Die Reviewer könnten den ja entdecken ;)

So müssten wir eigentlich schon froh sein, dass es funktionierende Registry Keys gibt, mit dem man das ganze Zeug auch ausschalten kann. (falls es eine Extremsituation efordert, oder es der perönliche Geschmack so will)

Ist zwar ein bisschen traurig, aber der Aufschrei der Community verhallte auch beim TS0 only tri-AF ungehört.
Andererseits könne man gegenhalten, dass das Gros der Durchschnittsspieler sowieso wenig Ahnung von AA/AF hat (wird immer aber besser), und 'Cheats' gibts halt nur bei PC Spielen. Ist zwar moralisch nicht ok, aber wir 'Freaks' müssen uns halt mit Reg. Hacks und externen Tools zufrieden geben. Es könnte sonst ja sein, dass bei einem Review der Balken zu kurz ist, nur weil der Tester die ominöse Checkbox penetriert hat :balla: ;)

Den Eindruck mit Rallisport Challenge hatte ich selber bis ich auf ein paar andere Tracks im Spiel gestossen bin; falls es Dir hilft RSC ist eins der Spiele wo ich full trilinear aufzwinge und nein es geht nicht um MIPmap banding genauso hier sondern um reines texture aliasing. Bei mir ist full tri schon im RSC Radlink festgenagelt.

Die mediterranean maps waren davon am meisten befallen.

Seltenes und schwer bemerkbares MIPmap banding bekommst Du nur in manchen Tracks an den seitlichen Leitplanken in Spielen wie F1 2002 und da kann man es noch uebersehen, weil es um einiges weniger stoerend ist.

Was den Rest betrifft: es gibt wenig oder keine Entschuldigungen fuer GPUs die einen >400-500$ Ladenpreis tragen. Und es tut mir auch leid wenn das folgende etwas arrogant klingt, aber wenn man keine Ahnung von high end Bildqualitaet hat dann ist es fraglich ob man ueberhaupt so viel Geld fuer eine Graka verschwenden sollte heutzutage (denn die wahre Differenz zwischen high end und niedrigeren Loesungen liegt ja hauptsaechlich in AA/AF Leistung).

Extremes und verkorkstes Beispiel: wenn ich einen Mercedes kaufen wuerde dann wuerde ich auch die demenstrechende Bauqualitaet erwarten und nicht einen Hyundai mit einem anderen Namen (und tickt mir jetzt nicht ab mit dem bloeden Beispiel, ich halt von dem Billigzeug einfach nichts).

aths
2004-06-25, 19:57:10
Original geschrieben von tombman
du kannst es 10mal wiederholen, deswegen stimmts trotzdem ned. Es stimmt, ob du es glauben willst oder nicht. (Oder gibt es auf der Welt nur, was du siehst?)

Original geschrieben von tombman
du siehst es doch selbst nicht, höchstens ein pixel-compare proggy tut das. Ich habe in Max Payne 1 mit der Radeon 9600 ziemlich schnell Textur-Aliasing gesehen. Das Problem ist bei der X800 noch schärfer, weil sie das AF weiter, äh, "optimiert" haben.

Ailuros
2004-06-25, 19:59:46
Original geschrieben von tombman
du siehst es doch selbst nicht, höchstens ein pixel-compare proggy tut das.

Ob Du's glaubst oder nicht die Antwort was die LOD hacks bei R420 betrifft ist ein definitives ja und zwar nur nach ein paar Sekunden.

tombman
2004-06-25, 20:00:08
Original geschrieben von aths
Es stimmt ob du es glauben willst oder nicht. (Oder gibt es auf der Welt nur, was du siehst?)

Ich habe in Max Payne 1 mit der Radeon 9600 ziemlich schnell Textur-Aliasing gesehen. Das Problem ist bei der X800 noch schärfer, weil sie das AF weiter, äh, "optimiert" haben.

ohne entsprechende screenshots oder Videos kannst du mich und den Rest der Welt von absolut gar nix überzeugen.
Weil sonst muß ich immer denken, daß du die rosarote nvidia Qualitätsbrille aufhast, die dir suggeriert, daß es ja besser mit freiem Auge aussehen MUSS, weil du ja weißt, daß der nv40 intern vielleicht mehr "rechnet" als der r420 um zum AF zu kommen.

Hmm, sollte man vielleicht "Psychovisuelle Qualität"
nennen? :D

tombman
2004-06-25, 20:00:48
Original geschrieben von Ailuros
Ob Du's glaubst oder nicht die Antwort was die LOD hacks bei R420 betrifft ist ein definitives ja und zwar nur nach ein paar Sekunden.

screenshot und video bitte.

aths
2004-06-25, 20:03:10
Original geschrieben von tombman
ohne entsprechende screenshots oder Videos kannst du mich und den Rest der Welt von absolut gar nix überzeugen.Wozu auch? Ich weiß, was Sache ist, und werde den Teufel tun jemanden überzeugen zu wollen.
Original geschrieben von tombman
Weil sonst muß ich immer denken, daß du die rosarote nvidia Qualitätsbrille aufhast, die dir suggeriert, daß es ja besser mit freiem Auge aussehen MUSS, weil du ja weißt, daß der nv40 intern vielleicht mehr "rechnet" als der r420 um zum AF zu kommen. Wie gesagt, auf der Radeon 9600 habe ich Texturschimmern, wo die GeForce4 Ti 4600, 5900 und 6800 die Texturen so anzeigen wie sie aussehen sollten.
Original geschrieben von tombman
Hmm, sollte man vielleicht "Psychovisuelle Qualität"
nennen? :D Vielleicht gibt es mehr als nur Balken? :D

aths
2004-06-25, 20:04:16
Original geschrieben von tombman
screenshot und video bitte. Warum sehen wir von dir keine Screenshots und Videos, die deine Meinung, äh, beweisen?

tombman
2004-06-25, 20:04:17
Original geschrieben von aths
Wozu auch? Ich weiß, was Sache ist, und werde den Teufel tun jemanden überzeugen zu wollen.

du weißt gar nix, denn du hast keine x800.

aths
2004-06-25, 20:04:49
Original geschrieben von tombman
du weißt gar nix, denn du hast keine x800. Ich habe eine 9600 die Texturen mindestens so gut filtert wie die X800.

tombman
2004-06-25, 20:05:37
Original geschrieben von aths
Warum sehen wir von dir keine Screenshots und Videos, die deine Meinung, äh, beweisen?

Kann ich gerne machen, wenn du willst. Aber sag dann nicht, daß man die PQ (psychovisuelle Qualität) nicht darauf sehen kann, weil [insert lame reason here] :D

tombman
2004-06-25, 20:06:25
Original geschrieben von aths
Ich habe eine 9600 die Texturen mindestens so gut filtert wie die X800.

glaubst aber nur, du hast keine x800.

aths
2004-06-25, 20:07:29
Original geschrieben von tombman
glaubst aber nur, du hast keine x800. Hat mir ATI bestätigt, dass X800 keine Verbesserungen beim Texturfilter hat.

Ranz0r
2004-06-25, 20:07:41
Original geschrieben von tombman
glaubst aber nur, du hast keine x800.

Das glaubt er nicht nur, dass ist Fakt, wie du es so schön formuliert hast vorhin :)

Ailuros
2004-06-25, 20:09:29
Original geschrieben von tombman
screenshot und video bitte.

Wieso? Weil Du den Thread hier mit Beweisen ueber Deine bisherigen Behauptungen ueberflutet hast oder?

Wenn's Dir gut genug ist dann hab ich auch kein Problem damit, aber mir wird KEINER vorsagen was ich persoenlich als akzeptabel ansehen darf und nicht. Dementsprechende Threads, flamewars und Artikel gibt es schon mehr als genug auf dem Netz die man nachschlagen kann.

aths
2004-06-25, 20:09:53
Original geschrieben von tombman
Kann ich gerne machen, wenn du willst. Aber sag dann nicht, daß man die PQ (psychovisuelle Qualität) nicht darauf sehen kann, weil [insert lame reason here] :D Wie gesagt, ich weiß dass Radeon 9600 (sprich, X800) nicht mit NV40-Qualität mithalten kann. Hab's nämlich gesehen: NV40: Stark Winkelabhängiges AF, aber kein Texture Shimmering. Radeon: Texture Shimmering (während man die AF-LOD-Nachteile in der Spiele-Praxis nicht erkennen kann.)

q@e
2004-06-25, 20:10:27
Original geschrieben von tombman
oje---- jetzt willst schon wieder bei gleichem Takt vergleichen, oder wie?



Nein - oder wie?
Ich sage nur, daß die X800 XT PE gemessen an ihrem Takt eigentlich 'etwas' schneller sein müsste - ein CPU Limit hast DU ja ausgeschlossen, was dies verhindern könnte.

Bleibt eigentlich nur "lahmes AF".

tombman
2004-06-25, 20:11:20
Original geschrieben von aths
Hat mir ATI bestätigt, dass X800 keine Verbesserungen beim Texturfilter hat.

völlig egal... ist immer noch ein großes bla, selber haben und selbst testen ist das Wahre, ned auf Gerede hören...

Blaire
2004-06-25, 20:12:56
Original geschrieben von Ranz0r
Und 2 Jahre alte Treiber, für nen hochgezüchteten Core. Da is meiner Meinung nach nicht mehr viel zu holen, allerdings ist dies beim NV40 anders, da das ein komplett neuer Core ist und somit warscheinlich noch relativ viel mit Treibern gemacht werden kann :)

Da kommen mit Sicherheit noch bessere Forceware Treiber. Ab Version 65.xx sollen sich deutliche Performance-Unterschiede bemerkbar machen.

MfG

tombman
2004-06-25, 20:13:27
Original geschrieben von q@e


Bleibt eigentlich nur "lahmes AF".

bei nvidia -ja! ;)

Du mußt einfach runter von der 1600er Auflösung um 16xAF genug fps zu bekommen, bei ATI eben nicht- das ist eben die Konsequenz aus der ganzen Sache.

Ich kann mich da nur [H] anschließen - 1600x1200 ist für die x800xt pe.

1280x1024 ist für 6800er Reihe und x800pro.

Ranz0r
2004-06-25, 20:13:50
Wieso sollte gerade ATI ihre eigene Graka schlechter machen als sie deiner Meinung nach ist? Gerade vom Hersteller erwartet man eigentlich das diese sagen sie hätten irgendetwas verbessert, verfeinert und verschnellert... Meinste nicht? :P

q@e
2004-06-25, 20:14:09
Ich hatte mal kurz eine X800 Pro und XT PE.

Aber dir fällt bestimmt gleich auch ein [insert lame reason] ein, warum ich ebenfalls "nicht qualifiziert bin.

Wenn ich jetzt böse wäre, könnte ich [insert bepunktenswerte sachen here]. Aber ich bin ja nicht böse.

tombman
2004-06-25, 20:14:48
Original geschrieben von Blaire
Da kommen mit Sicherheit noch bessere Forceware Treiber. Ab Version 65.xx sollen sich deutliche Performance-Unterschiede bemerkbar machen.

MfG

jo, auf den Wundertreiber warte ich ja selbst auch.

ATI und Nvidia sollten sich zusamensetzen und eine Monsterkarte bauen, mit 600core, AF-speed von ATi und shader 3.0 :D

aths
2004-06-25, 20:15:33
Original geschrieben von tombman
völlig egal... ist immer noch ein großes bla, selber haben und selbst testen ist das Wahre, ned auf Gerede hören... Warum sollte ATI Verbesserungen verschweigen?

Ailuros
2004-06-25, 20:16:27
Mal OT: der Thread ist gerade wieder bei dem Grad angelangt wo es mir persoenlich einfach zu bunt wird. Viel Spass weiterhin; ich hab wirklich keine Lust meine Zeit mit so was zu verschwenden.

tombman
2004-06-25, 20:18:40
Original geschrieben von q@e
Ich hatte mal kurz eine X800 Pro und XT PE.

Aber dir fällt bestimmt gleich auch ein [insert lame reason] ein, warum ich ebenfalls "nicht qualifiziert bin.



Bist du Privatuser und hast die KArten gekauft? Arbeitest du in irgendeiner Weise für ATi oder Nvidia? Bekommst du developer hw oder software (treiber) von einer der beiden Firmen, die normale user nicht downloaden dürfen/können?

Falls nur ein Punkt "ja" lautet --- nope, nicht vertrauenswürdig.

aths
2004-06-25, 20:19:16
Original geschrieben von tombman
bei nvidia -ja! ;)

Du mußt einfach runter von der 1600er Auflösung um 16xAF genug fps zu bekommen, bei ATI eben nicht- das ist eben die Konsequenz aus der ganzen Sache.Dafür bietet NV40 weiterhin akkurate Texturen, während sie auf der X800 stellenweise flimmern — das ist eben die Konsequenz aus der ganzen Sache.

robbitop
2004-06-25, 20:20:33
Original geschrieben von Blaire
Da kommen mit Sicherheit noch bessere Forceware Treiber. Ab Version 65.xx sollen sich deutliche Performance-Unterschiede bemerkbar machen.

MfG

Quelle?

tombman
2004-06-25, 20:20:58
Original geschrieben von aths
Dafür bietet NV40 weiterhin akkurate Texturen, während sie auf der X800 stellenweise flimmern — das ist eben die Konsequenz aus der ganzen Sache.

flimmernde Texturen? wtf? sag mir mal in welcher Anwendung und in welchen settings, dann schau ich mir das gleich an-- hab eh so gut wie jedes game ;)

aths
2004-06-25, 20:21:38
Original geschrieben von tombman
Bist du Privatuser und hast die KArten gekauft? Arbeitest du in irgendeiner Weise für ATi oder Nvidia? Bekommst du developer hw oder software (treiber) von einer der beiden Firmen, die normale user nicht downloaden dürfen/können?

Falls nur ein Punkt "ja" lautet --- nope, nicht vertrauenswürdig. Quasar ist ein unabhängiger Journalist, und arbeitet in irgendeiner Weise für CB. Warum ist er nicht vertrauenswürdig?

aths
2004-06-25, 20:24:04
Original geschrieben von tombman
flimmernde Texturen? wtf? sag mir mal in welcher Anwendung und in welchen settings, dann schau ich mir das gleich an-- hab eh so gut wie jedes game ;) Bei mir reichte Max Payne 1, das Trainingslevel, um es zu sehen. Im Thread gibt es weitere Beispiele, die besonders deutliche Szenarien beschreiben.

Original geschrieben von aths
Warum sollte ATI Verbesserungen verschweigen?

Blaire
2004-06-25, 20:24:27
Original geschrieben von robbitop
Quelle?

Betatester. Die Quelle ist sicher nur wann die erscheinen hab ich keine Ahnung da er mir auch nicht alles verrät.

MfG

q@e
2004-06-25, 20:28:00
Original geschrieben von tombman
bei nvidia -ja! ;)

Nein, nV hat schnelles AF. :)

Original geschrieben von tombman
Du mußt einfach runter von der 1600er Auflösung um 16xAF genug fps zu bekommen, bei ATI eben nicht- das ist eben die Konsequenz aus der ganzen Sache.

Ich kann mich da nur [H] anschließen - 1600x1200 ist für die x800xt pe.

1280x1024 ist für 6800er Reihe und x800pro.

Wenn ich mir etliche Details schenke, muss ich auch auf einer alten Karte nicht runter von der 1600er Auflösung - nichts anderes macht ATi.

tombman
2004-06-25, 20:29:15
Original geschrieben von aths
Bei mir reichte Max Payne 1, das Trainingslevel, um es zu sehen. Im Thread gibt es weitere Beispiele, die besonders deutliche Szenarien beschreiben.

hmm, hast du vielleicht screenshots wo man zumindest die map und den level sehen kann wo sowas auftritt? weil dann geh ich ins game rein und schaus mir selbst an.... nur hat des wenig Sinn, weil vielleicht renne ich da ja vorbei und sehe es ned...ne genaue Ortsangabe wäre hilfreich.

q@e
2004-06-25, 20:29:36
Original geschrieben von tombman
Bist du Privatuser und hast die KArten gekauft?
[...]
Falls nur ein Punkt "ja" lautet --- nope, nicht vertrauenswürdig.

Bist du doch selbst - auch nicht vertrauenswürdig?
:rofl:

tombman
2004-06-25, 20:30:28
Original geschrieben von q@e




Wenn ich mir etliche Details schenke, muss ich auch auf einer alten Karte nicht runter von der 1600er Auflösung - nichts anderes macht ATi.

tjo, wenn, es ist aber nicht so... sieht bei ATI genauso aus.

tombman
2004-06-25, 20:31:24
Original geschrieben von q@e
Bist du doch selbst - auch nicht vertrauenswürdig?
:rofl:

ma, tu ned so blöd.

aths
2004-06-25, 20:32:33
Original geschrieben von tombman
hmm, hast du vielleicht screenshots wo man zumindest die map und den level sehen kann wo sowas auftritt? weil dann geh ich ins game rein und schaus mir selbst an.... nur hat des wenig Sinn, weil vielleicht renne ich da ja vorbei und sehe es ned...ne genaue Ortsangabe wäre hilfreich. Allgemein auf Texturen mit feinen Details achten. Übliche Bodentexturen in Max Payne schlucken sowas weg. Betrachtet man z. B. Schilder mit Schriftzügen (oder den U-Bahn-Eingang Roscoe Street Station), sieht man das eher.

q@e
2004-06-25, 20:32:53
Original geschrieben von Ailuros
Mal OT: der Thread ist gerade wieder bei dem Grad angelangt wo es mir persoenlich einfach zu bunt wird. Viel Spass weiterhin; ich hab wirklich keine Lust meine Zeit mit so was zu verschwenden.

Frankreich vs. Griechenland Viertelfinale? ;)

tombman
2004-06-25, 20:33:11
Naja, so führt des zu nix.

Ich werd einfach screenshots posten und dann können ja die PQ-ler ihre posten, oder behaupten daß [insert PQ-reason here]

tombman
2004-06-25, 20:33:47
Original geschrieben von q@e
Frankreich vs. Griechenland Viertelfinale? ;)

das wäre ja noch 10mal mehr Zeitverschwendung

Ranz0r
2004-06-25, 20:34:37
Original geschrieben von tombman
das wäre ja noch 10mal mehr Zeitverschwendung


Allerdings.