PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Test: 13 aktuelle Grafikkarten


Seiten : 1 2 [3]

Gast
2009-07-15, 16:59:33
Den Gamer aber interessiert es wo er mit seiner Radeon in diesem Spiel in diesem Spiel liegt.
Kann ich verstehen.
Man kann es dem Gamer nur nicht zeigen, man kann ihm nur zeigen wie CPU XY in dem Spiel steht.

Die Frage ist wie Der Reviewer darauf regiert.
PhysX weglassen ist keine Option.
PhysX nur bei Geforces testen? Wie bewertet man dann die Radeons?
Zusätzlich Radeons und Geforces ohne PhysX testen? Warum nicht, man kann gerne auch mal Crysis high neben very high testen.
PhysX bei allen testen und fett ranschreiben das ein 4Ghz Quad verantwortlich ist?

Oder wie bis her stumpfsinnig alles anschalten und nichts, kein einziges Wort dazu verlieren, selbst wenn die BQ nicht gleich ist oder ein 4Ghz Quad hinter der erbrachten Leistung steht.

Interessant ist auch zu wissen, dass es halt mit einer nV besser gehen könnte, ob das jetzt ein Kaufkriterium ist oder nicht kannst du nicht entscheidenIch habe nichts entschieden.

Mr. Lolman
2009-07-15, 17:11:12
Apropos BQ. Die vielbeschworene Homogenität mag zwar bei NV häufig erreicht werden, aber Anno1404 sieht einfach inhomogen aus (um nicht zu sagen 'mies'). Die Dächer meiner Bauernhäuser sind alle viel zu unscharf, trotz max Details ingame. :|



EDIT:
...oder hab ich irgendwas falsch eingestellt?
http://www.abload.de/thumb/screenshot0000on9r.jpg (http://www.abload.de/image.php?img=screenshot0000on9r.jpg)

Gast
2009-07-15, 17:45:26
Kann ich verstehen.
Man kann es dem Gamer nur nicht zeigen, man kann ihm nur zeigen wie CPU XY in dem Spiel steht.

Die Frage ist wie Der Reviewer darauf regiert.
PhysX weglassen ist keine Option.
PhysX nur bei Geforces testen? Wie bewertet man dann die Radeons?
Zusätzlich Radeons und Geforces ohne PhysX testen? Warum nicht, man kann gerne auch mal Crysis high neben very high testen.
PhysX bei allen testen und fett ranschreiben das ein 4Ghz Quad verantwortlich ist?

Oder wie bis her stumpfsinnig alles anschalten und nichts, kein einziges Wort dazu verlieren, selbst wenn die BQ nicht gleich ist oder ein 4Ghz Quad hinter der erbrachten Leistung steht.

Ich habe nichts entschieden.

Crysis nutzt kein PhysX!
Wie oft denn noch.

Gast
2009-07-15, 17:50:14
Man sollte sich entscheiden: Bildqualität oder gleiche Arbeit. Man kann 10.0 und 10.1 bei gleicher Bildqualität nicht in ein Diagramm packen, aber gleichzeitig bei PhysX es negieren, weil dies unfair wäre. Hardware mit Spielen zu testen, ist eine schwierige Angelegenheit, die sich eben nicht so einfach in zwei, drei Einstellungen erledigen lässt.
Wieso sollte man den quantitativen Vorteil von nVidia mit PhysX nicht genauso behandeln, wie den von AMD mit 10.1? Es ist fakt, dass PhysX in Spielen genutzt wird. Somit muss dies in der heutigen Balkenmentalität natürlich auch dargestellt werden. Und da wir keine Probleme haben 8xMSAA von nVidia und AMD ebenfalls in ein Diagramm zu setzen, sollte es im Grunde niemanden bei PhysX stören.

8MSAA können beide, warum dann nicht in ein Balkendiagramm setzen?
PhysX und DX10.1 können nicht beide...
Deine Argumente sind lächerlich.

LovesuckZ
2009-07-15, 18:28:18
8MSAA können beide, warum dann nicht in ein Balkendiagramm setzen?
PhysX und DX10.1 können nicht beide...
Deine Argumente sind lächerlich.

PhysX können beide.
Deine Argumente sind lächerlich.

Gast
2009-07-15, 18:36:40
PhysX können beide.
Deine Argumente sind lächerlich.

Nein ATI kann kein PhysX! Das übernimmt in diesem Falle dann die CPU.

LovesuckZ
2009-07-15, 18:38:32
Nein ATI kann kein PhysX! Das übernimmt in diesem Falle dann die CPU.

Spielt keine Rolle, da Spiele keine GPU Only Anwendungen sind.

Gast
2009-07-15, 18:59:03
Crysis nutzt kein PhysX!
Wie oft denn noch.
Gelesen um was es geht hast du schon?


Nochmal langsam:
PhysX Spiele müssen getestet werden. Weil es sie gibt.
- PhysX Hardware wird im Hardware PhysX Balken eingebracht
- PhysX Software (also die Radeon mit 4Ghz Quad) darf nicht in obiges Diagramm einfliessen, höchstens mit Kennzeichnung der CPU
- PhysX wird deaktiviert, jetzt gibt es ein weiteres Diagramm für sämtliche Karten


Ergibt unterm Strich:
1 Balken für PhysX Hardware
(1 Balken für nicht PhysX Hardware, wo dank Software dennoch PhysX aktiviert wurde)
1 Balken für alle Hardware, ohne eingeschaltetes PhysX

-> Das sind 2(3) Diagramme.

Für den normalen Leser zuviel, aber der wird auch auch dumm erzogen, mit den 1920x1200 CPU Tests samt 100€ Grafikkarte. Als Abhilfe gibts zum Glück das Rating. Ein Blick und man kann sich für das 2,223385389% bessere Produkt zum 1,3979% besseren Preis entscheiden.



Warum ich Crysis erwähnt habe:
Weil ich "PhysX on" mit "very high" verglichen habe. 6 FPS statt 9 FPS bei "very high" die ins Rating und Fazit einfliessen sind Schwachsinn.
Tut mir leid wenns dir nicht gefällt.

Gast
2009-07-15, 19:01:02
Nein ATI kann kein PhysX! Das übernimmt in diesem Falle dann die CPU.
Und tollerweise schreibt kein Reviewer diesen Umstand ran.
Heinzwurst denkt am Ende er bekommt ebenso solche Frameraten, aber puste Kuchen, sein 2Ghz Athlon 64 X2 ist ein gutes Stück langsamer als der verwendete 4Ghz Quad.

Gast
2009-07-15, 19:02:24
...oder hab ich irgendwas falsch eingestellt?
Kolidiertes OGSSAA?

Mr. Lolman
2009-07-15, 19:09:40
Kolidiertes OGSSAA?

Glaub ich nicht. 4xAA/8xAF (bis auf AA ingame alles max) und im Treiber alles auf Anwendungsgesteuert.

Gast
2009-07-15, 19:23:13
Glaub ich nicht. 4xAA/8xAF (bis auf AA ingame alles max) und im Treiber alles auf Anwendungsgesteuert.

Was soll da jetzt ungewöhnlich sein? Sieht überall so aus.

LovesuckZ
2009-07-15, 19:27:18
Gelesen um was es geht hast du schon?


Nochmal langsam:
PhysX Spiele müssen getestet werden. Weil es sie gibt.
- PhysX Hardware wird im Hardware PhysX Balken eingebracht
- PhysX Software (also die Radeon mit 4Ghz Quad) darf nicht in obiges Diagramm einfliessen, höchstens mit Kennzeichnung der CPU
- PhysX wird deaktiviert, jetzt gibt es ein weiteres Diagramm für sämtliche Karten


Ergibt unterm Strich:
1 Balken für PhysX Hardware
(1 Balken für nicht PhysX Hardware, wo dank Software dennoch PhysX aktiviert wurde)
1 Balken für alle Hardware, ohne eingeschaltetes PhysX

-> Das sind 2(3) Diagramme.

Für den normalen Leser zuviel, aber der wird auch auch dumm erzogen, mit den 1920x1200 CPU Tests samt 100€ Grafikkarte. Als Abhilfe gibts zum Glück das Rating. Ein Blick und man kann sich für das 2,223385389% bessere Produkt zum 1,3979% besseren Preis entscheiden.



Warum ich Crysis erwähnt habe:
Weil ich "PhysX on" mit "very high" verglichen habe. 6 FPS statt 9 FPS bei "very high" die ins Rating und Fazit einfliessen sind Schwachsinn.
Tut mir leid wenns dir nicht gefällt.

Leider vergisst du, dass Spiele keine "ich mach das mal mit 2 Einstellungen" Anwendungen sind. Wieso PhysX nicht eingebracht werden darf, aber dann solche unsinnigen Settings wie 8xMSAA/16xLQAF entbehrt jeder Logik.
Spiele müssen "realistisch betrachtet". GPU- PhysX existiert und kann von einem nVidia User verwendet werden. Es nicht zu testen und mit AMD zu vergleichen ist unsinnig, da der Leser somit kein vollständig Bild erhält.

Gast
2009-07-15, 19:50:50
Da hast du Recht.
Es gibt viele Dinge, die in aktuellen Test schlecht sind. Die Test werden auch kein Deut besser, wenn man einen Unfug durch einen anderen Aufweichen will.

Solange die Tester nicht mal auf diese Kritik eingehen, brauchen wir uns auch keine Sorgen machen.


Ich möchte die Geforce Performance mit PhysX sehen.
Ich möchte nicht kommentarlos die 4Ghz Quad Performance hinter dem Namensschild Radeon getarnt sehen, das darf es nur mit Hinweis geben.
Wenn der Tester nicht fähig ist diesen Hinweis bei der Radeon hinzuschreiben, dann soll er die Radeon weglassen.

Mr. Lolman
2009-07-15, 20:09:27
Was soll da jetzt ungewöhnlich sein? Sieht überall so aus.

Schau dir mal die Dächer an. Textumatsch par excellence. Das kann doch nicht normal sein. Vielleicht war doch kein AF aktiv. Kann mal jemand andere mit ner NV-Karte nen Screenshot von Anno 1404 machen (mit 4xAA/8xAF und max Details)?


So siehts auf ner HD4870 aus: http://www.abload.de/image.php?img=screenshot0000b0g1.jpg

Lawmachine79
2009-07-15, 20:15:42
Leider vergisst du, dass Spiele keine "ich mach das mal mit 2 Einstellungen" Anwendungen sind. Wieso PhysX nicht eingebracht werden darf, aber dann solche unsinnigen Settings wie 8xMSAA/16xLQAF entbehrt jeder Logik.
Spiele müssen "realistisch betrachtet". GPU- PhysX existiert und kann von einem nVidia User verwendet werden. Es nicht zu testen und mit AMD zu vergleichen ist unsinnig, da der Leser somit kein vollständig Bild erhält.
Hardware muss auf dem kleinsten gemeinsamen Nenner getestet werden, was das Feautureset angeht - deshalb sollte man DX10.1 UND PhysX rauslassen, nur so ist Vergleichbarkeit gegeben. DX10.1 und PhysX kann man später in der Auswertung/ im Fazit als Vor- oder Nachteil des jeweiligen Kartenmodells angeben. Fakt ist, daß bei Messungen diese nicht mehr vergleichbar sind. Wofür ich aber grundsätzlich wäre ist ATI mit A.I. Off zu benchen und bei NV dafür mit HQ; 8xMSAA zusammen mit Low Quality AF zu benchen ist in der Tat sinnbefreit. Das ganze Bild ist zermatscht (überspitzt dargestellt), dafür ist die Stromleitung schön geglättet...wenn ATI vernünftige Texturqualität nachreicht, dann kann man mit 8xMSAA messen, mit Matsch-AF sollte man es bei 4xMSAA belassen.
Generell ist es fast unmöglich geworden wirklich vergleichbar zu testen, das jedoch ist eindeutig ATIs Verdienst, bei NV kann ich im Treiber die BQ millimetergenau regeln, global und per Spiel. Und ich hoffe wenigstens was das angeht, ist auch das "rote Lager" einsichtig (eigentlich gehöre ich ja sogar dazu, habe im Moment 3 ATI-Karten und keine NV-Karte).
Um es mal am Beispiel der CB-Tabellen zu nennen: KEINE EINZIGE der Tabelle ist mit untereinander identischen Settings entstanden und ich bin sicher, daß BEI JEDER EINZELNEN Tabelle die BQ der NV-Karten besser ist. Falls das jemand anders sieht, soll er mir ein Testsetting nennen und ich nenne ihm dann, warum diese Settings nicht vergleichbar sind (spart es Euch, die Begründung ist jedes Mal das AF vor dem Hintergrund von A.I.).

Coda
2009-07-15, 20:22:57
Schau dir mal die Dächer an. Textumatsch par excellence
Lolman, du solltest inzwischen soviel von Texturfilterung verstehen, als das eine Fläche die praktisch unverzerrt ist (da ist maximal ein AF-Grad von 2 angebracht) nicht matschig wird weil kein AF aktiv ist.

Das Problem ist vielmehr das Streaming von Anno. Manchmal muss man etwas warten bis die volle Texturauflösung angezeigt wird.

Black-Scorpion
2009-07-15, 20:24:02
Und was hat AA mit dem AF zu tun?
Wenn 8xAA möglich ist sollte es auch getestet werden.
Das Argument ist einfach Blödsinn.

Mr. Lolman
2009-07-15, 20:30:26
Lolman, du solltest inzwischen soviel von Texturfilterung verstehen, als das eine Fläche die praktisch unverzerrt ist (da ist maximal ein AF-Grad von 2 angebracht) nicht matschig wird weil kein AF aktiv ist.

Das Problem ist vielmehr das Streaming von Anno. Manchmal muss man etwas warten bis die volle Texturauflösung angezeigt wird.

Ja schon. Nur solltest du inzwischen auch genausoviel von Texturfilterung verstehen, um erkennen zu können, dass die Texturauflösung gleich ist.

Gast
2009-07-15, 20:36:13
Und was hat AA mit dem AF zu tun?
Wenn 8xAA möglich ist sollte es auch getestet werden.
Das Argument ist einfach Blödsinn.
Sehr gut, dann wird absofort nur noch 8xMSAA in Verbindung mit 1xAF getestet.
Ist nunmal das fordernste optisch gleichwertige Setting.


Auf die Spitze getrieben wird absofort so getestet, schön optisch gleichwertig:
8xMSAA + PhysX + D3D10.1/D3D10.0, in dem Fall wo .1 optische Vorteile hat + 1xAF + noTAA/AAA
Wobei AMDs PhysX Performance durch den 4Ghz Quad verfälscht wird.

Gast
2009-07-15, 20:39:18
8xMSAA zusammen mit Low Quality AF zu benchen ist in der Tat sinnbefreit. Das ganze Bild ist zermatscht (überspitzt dargestellt), dafür ist die Stromleitung schön geglättet
Die Stromleitung ist gerade überhaupt nicht geglättet, das macht das Ganze noch perverser, denn TAA ist nicht aktiviert.

Lawmachine79
2009-07-15, 20:58:41
Und was hat AA mit dem AF zu tun?
Wenn 8xAA möglich ist sollte es auch getestet werden.

Prima, dann sollte auch in 640x480@vollen Details getestet werden. Und weil 640x480 zu gering aufgelöst ist, testen wir mit 2x2 OGSSAA.
8xMSAA passt nicht zu LQAF.
Die Stromleitung ist gerade überhaupt nicht geglättet, das macht das Ganze noch perverser, denn TAA ist nicht aktiviert.
Wenn TAA an ist, ist es NOCH WENIGER vergleichbar weil man nicht kontrollieren kann, ob bei ATI-Karten TMSAA oder TSSAA zum Einsatz kommt.

reunion
2009-07-15, 21:15:31
Wenn TAA an ist, ist es NOCH WENIGER vergleichbar weil man nicht kontrollieren kann, ob bei ATI-Karten TMSAA oder TSSAA zum Einsatz kommt.

Natürlich kann man das kontrollieren, indem man die Augen aufmacht zum Beispiel. Das AAA/TAA nicht vergleichbar ist hat andere Gründe.

Black-Scorpion
2009-07-15, 21:16:50
Was soll der Blödsinn?
8xMSAA ist auf beiden möglich und absolut vergleichbar.
Aus welchem Grund sollte dann nur mit 4xMSAA verglichen werden?
Dadurch wird das AF bei ATI auch nicht besser.
Auf der einen Seite immer von der bestmöglichen BQ reden und beim AA runtergehen macht genau welchen Sinn?

LovesuckZ
2009-07-15, 21:17:51
Es ist auch PhysX auf beiden möglich und absolut vergleichbar. :lol:

Lawmachine79
2009-07-15, 21:25:12
Was soll der Blödsinn?
8xMSAA ist auf beiden möglich und absolut vergleichbar.
Aus welchem Grund sollte dann nur mit 4xMSAA verglichen werden?
Dadurch wird das AF bei ATI auch nicht besser.
Auf der einen Seite immer von der bestmöglichen BQ reden und beim AA runtergehen macht genau welchen Sinn?
Weil es nicht homogen ist - stell Dir mal vor, NV würde 8xMSAA einfach abschalten und nach oben hin nix mehr verfügbar machen - soll man das etwa belohnen? Hochwertige Kantenglättung muss zusammen mit hochwertiger Filterung getestet werden. Wie gesagt, man testet ja auch nicht 640x480@Vollen Details. ATI soll einfach den Schalter "AF höchster Qualität" wieder seine altbekannte Wirkung geben und gut ist.

Black-Scorpion
2009-07-15, 21:48:35
Es ist auch PhysX auf beiden möglich und absolut vergleichbar. :lol:
Du willst auf den Blödsinn aber keine Antwort oder?

Gast
2009-07-15, 21:59:02
Du willst auf den Blödsinn aber keine Antwort oder?
Es verwundert keinen, das du möglichst AMD freundliche Settings bevorzugst.
8xMSAA 1xAF gehört dazu.

Für Normalos eine völlig unbrauchbare Kombination, stört dich nur nicht.

Gast
2009-07-15, 22:00:35
bestmöglichen BQ
Wenn du damit 8xMSAA meinst: Lächerlich.
Wenn du damit 8xMSAA inklusive noTAA und 1xAF und kein PhysX meinst: Noch lächerlicher.

Black-Scorpion
2009-07-15, 22:03:24
Wenn du damit 8xMSAA meinst: Lächerlich.
Wenn du damit 8xMSAA inklusive noTAA und 1xAF und kein PhysX meinst: Noch lächerlicher.
Richtig zitieren oder sein lassen.
Richtig lesen wäre auch nicht schlecht.

'edit'
Es verwundert keinen, das du möglichst AMD freundliche Settings bevorzugst.
8xMSAA 1xAF gehört dazu.

Für Normalos eine völlig unbrauchbare Kombination, stört dich nur nicht.
Ich bevorzuge gar nichts, weil ich nicht mehr spiele.
Hier wird nur bei jeder sich bietenden Gelegenheit betont man wolle die beste BQ haben und auch getestet werden.
Anscheinend gilt das demnach nur fürs AF und nicht für MSAA.
Oder zählt MSAA neuerdings nicht mehr zur BQ dazu?

Gast
2009-07-15, 22:09:43
Abstreiten oder Beleidigen oder Ignorieren ist kein gutes Verhalten.
Fakt ist, du willst 8xMSAA 1xAF Vergleiche.

Gast
2009-07-15, 22:12:02
Ich bevorzuge gar nichts, weil ich nicht mehr spiele.
Hier wird nur bei jeder sich bietenden Gelegenheit betont man wolle die beste BQ haben und auch getestet werden.
Anscheinend gilt das demnach nur fürs AF und nicht für MSAA.
Oder zählt MSAA neuerdings nicht mehr zur BQ dazu?
Es sind keine Vergleiche mit maximaler BQ möglich.

Es gibt nur Kompromisse, weil die maximale BQ nicht gleich ist.
Dazu zählt sowohl 8xMSAA, das nicht den besten Modus darstellt als auch TAA/AAA oder 16xAF.

Black-Scorpion
2009-07-15, 22:17:01
Abstreiten oder Beleidigen oder Ignorieren ist kein gutes Verhalten.
Fakt ist, du willst 8xMSAA 1xAF Vergleiche.
Und falsches zitieren ist ein gutes Verhalten?
Zwei Wörter aus einem Satz zitieren macht sich bombig wenn der wichtige Teil einfach weggelassen wird.
Soviel zu gutem Verhalten.
Und wenn man schon falsch zitiert und nur das für sich beste nimmt, sollte man wenigstens der Rest richtig lesen.

Coda
2009-07-15, 22:17:32
Ich glaube die Argumentation wäre, dass ja der isotrope Filter bei beiden gleiche BQ erlaubt und man also damit benchen sollte um Vergleichbarkeit zu erreichen.

Das Problem ist nur, dass das die Hersteller nur noch mehr dazu auffordert an den TMUs zu sparen, denn für rein isotrope Filterung könnten sie wohl locker die Hälfte davon einsparen. Dann lieber doch 16x/16x testen, auch wenn es nicht vergleichbar ist.

LovesuckZ
2009-07-15, 22:41:28
Du willst auf den Blödsinn aber keine Antwort oder?

Nein, aber darauf:
Wieso wäre 8xMSAA vergleichbar und testbar, wenn es nachweislich bei nVidia unsinnig ist, damit zu spielen?
Wieso wäre GPU-PhysX nicht vergleichbar und testbar, wenn es nachweislich bei AMD unsinng sei, damit zu spielen?

Gast
2009-07-15, 22:48:43
Nein, aber darauf:
Wieso wäre 8xMSAA vergleichbar und testbar, wenn es nachweislich bei nVidia unsinnig ist, damit zu spielen?
Wieso wäre GPU-PhysX nicht vergleichbar und testbar, wenn es nachweislich bei AMD unsinng sei, damit zu spielen?

Weil es kein Test zwischen den GPUs der beiden Hersteller ATI und NV ist .
Die CPU übernimmt die PhysX Berechnung und nicht die ATI Karte.
Ich halte nichts von PhysX , spaltet nur den Markt und die Entscheidungen/Tests werden noch schwieriger/unübersichtlicher.

Black-Scorpion
2009-07-15, 22:50:36
Nein, aber darauf:
Wieso wäre 8xMSAA vergleichbar und testbar, wenn es nachweislich bei nVidia unsinnig ist, damit zu spielen?
Wieso wäre GPU-PhysX nicht vergleichbar und testbar, wenn es nachweislich bei AMD unsinng sei, damit zu spielen?
Weil MSAA bei beiden sehr wohl vergleichbar ist.

derguru
2009-07-15, 22:54:35
Weil MSAA bei beiden sehr wohl vergleichbar ist.
hör doch auf,die einsicht wird es nie geben von LZ,verschwende keinen taste dafür.
kannste gleich gegen eine Wand reden.:biggrin:

LovesuckZ
2009-07-15, 22:59:12
Weil es kein Test zwischen den GPUs der beiden Hersteller ATI und NV ist .
Die CPU übernimmt die PhysX Berechnung und nicht die ATI Karte.
Ich halte nichts von PhysX , spaltet nur den Markt und die Entscheidungen/Tests werden noch schwieriger/unübersichtlicher.

Wer Spiele zum Vergleich verwendet, muss sich im Klaren sein, dass Spieleinstellungen individuell von jedem Gamer getroffen werden.
Es ist für mich uninteressant, dass GPU-PhysX bei nicht CUDA Karten über die CPU läuft. Genauso wenig interessiert es mich nicht, dass nVidia nicht den 10.1 Pfad ausführen kann. Ebenfalls ist es uninteressant, dass nVidia in vielen Fällen mit 8xMSAA stark einbricht. Fakt ist, wenn das Spiel GPU-PhysX anbietet, dann kann es auch verwenden. Wenn das Spiel 8xMSAA anbietet (bzw. es über den Treiber funktioniert), dann kann man es anwenden. Aber, wenn man irgendwo aufgrund Unsinnigkeit etwa deaktiviert, dann muss diese Schiene weitergeführt werden. Ich kann PhysX nicht ausstellen, aber gleichzeit 10.1 aktiv lassen.
Ich kann als Reviewer nicht entscheiden, wie meine Leser das Spiel zu spielen hätten.Genauso wenig darf ich als Reviewer entscheiden, welche Qualitätseinstellungen ich als "vergleichbar" ansehe.

Weil MSAA bei beiden sehr wohl vergleichbar ist.

Interessant - wieso? Erkläre doch bitte, warum 8xMSAA bei beiden "sehr wohl vergleichbar" sei?

DrFreaK666
2009-07-15, 23:11:06
Ich finde Benchmarks mit PHysx gehören zu einem Test dazu.
Man sollte aber auch ohne Physx benchen

Gast
2009-07-15, 23:17:50
wenn man irgendwo aufgrund Unsinnigkeit etwa deaktiviert, dann muss diese Schiene weitergeführt werden.
Hierrauf hätte ich auch gerne eine Antwort. Am besten vo denen die grinsen wenn sie behaupten LS wäre stur.

Das kann doch nicht sein, das hier so selbstverständlich mit zweierlei Maß gemessen wird.
Seit ihr wirklich schon so abegstumpft oder lediglich diskussionsunfähige Fanboys?

Lawmachine79
2009-07-15, 23:21:31
Anscheinend gilt das demnach nur fürs AF und nicht für MSAA.
Oder zählt MSAA neuerdings nicht mehr zur BQ dazu?
Doch MSAA zählt sehr wohl dazu. Da sagt auch keiner was gegen. Der Punkt ist folgender: ATI hat einen starken Performancehit, wenn perfekt gefiltert wird. NV hat einen starken Performancehit, wenn man von 4xMSAA auf 8xMSAA schaltet. Ich hoffe wenigstens bis hierhin gibt es Konsens - wer hier schon nicht zustimmt, würde auch behaupten daß Pierre Littbarski größer als Oliver Kahn ist, weil er Köln-Fan ist...
So. Was macht ATI aus der Situation? Es eliminiert per A.I. einfach die Möglichkeit, perfekte Filterung auszuwählen. Somit können ATI-Karten nicht mehr im für sie ungünstigsten Szenario getestet werden. Fakt. Um diese Feststellung kommt niemand herum. Logischer Umkehrschluß seitens NV wäre es, 8xMSAA nicht mehr anwählbar zu machen - das für sie ungünstigste Szenario. Machen sie aber nicht. Wenn man jetzt einerseits durchgehen lässt, daß ATI die für sie ungünstigste Einstellung unzugänglich macht, NV aber andererseits mit der für sie ungünstigsten Einstellung dennoch testet, verzerrt das den Benchmark zugunsten von ATI. Man belohnt ATI dafür, daß sie softwareseitig die Qualität ihres Produktes reduzieren um besser dazustehen (Balken ftw) und bestraft NV dafür, daß sie ihr Produkt dem Kunden ohne Einschränkungen zur Verfügung stellen? Das kann es nicht sein. Ich kann nicht nachvollziehen, wie man das nicht verstehen kann.

Beide aktuellen Architekturen haben ihre Achillesferse - NV hat seine NICHT weggeschummelt und wird dafür bestraft.
Und deshalb: Test mit maximal möglicher Qualität - ja - aber nicht wenn man dabei die Schummelei eines Herstellers auch noch fördert und ihn dadurch bevorteilt.

Gast
2009-07-15, 23:45:15
Derzeit laufen 99,999999999% der Spiele mit CPU-Physik und deshalb ist es einfach sinnlos, unbedingt ein Nv gesponsertes Game in ein Review miteinzubeziehen.

DrFreaK666
2009-07-15, 23:46:19
Derzeit laufen 99,999999999% der Spiele mit CPU-Physik und deshalb ist es einfach sinnlos, unbedingt ein Nv gesponsertes Game in ein Review miteinzubeziehen.

Dann braucht man auch keine Spiele benchen, die DX10.1 anbieten ;)

Gast
2009-07-15, 23:51:46
Hab ich nie behauptet , dass man 10.1 verwenden sollte in Reviews.
So lange PhysX sich in Games nicht durchsetzt und sich nicht behaupten kann gegen CPU-Physik, ist es unnötig solche Tests in Balkendiagrammen darzustellen, weil es um die Vergleichbarkeit bei nahezu identischen Settings geht in so einem Review.
Und nicht darum zu zeigen , wie toll eine Gpu , eine Cpu fertig macht - dafür könnte man ja weiterhin auf Special-Tests setzen.

DrFreaK666
2009-07-16, 00:08:12
Man sollte Dx10.1 verwenden. Wenn geforces mit Dx10 langsamer sind dann ist es ihr problem.
Das selbe auch mit Physx.

y33H@
2009-07-16, 00:11:05
Warum muss man immer vergleichen? Warum nicht Spiel und Karte nehmen und für drei Auflösungen die vernünftigsten Settings benchen? So wie man es in der Praxis eben spielen würde. Ergo nicht mit 8x MSAA oder LQ-AF ;-)

DrFreaK666
2009-07-16, 00:25:26
Warum muss man immer vergleichen? Warum nicht Spiel und Karte nehmen und für drei Auflösungen die vernünftigsten Settings benchen? So wie man es in der Praxis eben spielen würde. Ergo nicht mit 8x MSAA oder LQ-AF ;-)

Bei der Kaufentscheidung ist eben die Geschwindkeit wichtig.

kruemelmonster
2009-07-16, 00:43:01
Bei der Kaufentscheidung ist eben die Geschwindkeit wichtig.

Das ist es ja: warum soll man zwei Karten nur für den Balken über einen BQ-Kamm scheren, der beiden nicht wirklich gerecht wird.

Wie siehts denn in der Praxis aus:

Ich als NV-User bevorzuge 16x HQAF und 4x MSAA, bei entsprechenden Performancereserven gern mit (T)SSAA angereichert.
Ein ATI-User würde wahrscheinlich wohl mit 16x AF und 8x MSAA und bei entsprechenden Performancereserven mit AAA und 24x ED spielen.

Das sind die beiden relevantesten Settings aus der Praxis, welche für den auf-Teufel-komm-raus-so-wichtigen fps-Balken über Bord geworfen werden.
Stattdessen werden beide IHVs mit theoretischen 4x/8x MSAA + 16x LQAF und, ohne Kommentar der Reviewer, C2Q@4GHz-PhysX vs. GPU-PhysX getestet.

Informationsgehalt des Balkens für den praktischen Einsatz der Karten: Null.

Die Vergleichbarkeit ist unter praktischen Gesichtspunkten nicht gegeben, ergo sollte man nicht versuchen sie künstlich herbeizuführen, sondern z.B. einfach nen Hinweis unter die praxisorientierten(!) Benchmarks packen: NV's optionales 8xAA hat nen höheren Performancehit als ATIs; ATI's AF ist sichtbar unruhiger als NVs (keine Wortklauberei und Korinthenkackerei bitte), lässt sich jedoch mit dem optionalen, aber teuren AI-Off besänftigen.

Mr. Lolman
2009-07-16, 08:11:38
Kann mal jemand bitte einen Screenshot von Anno 1404 mit max Ingamedetails und Ingame 4xAA/8xAF machen? Denn für mich sieht perfekte Filterung anders aus, als das was meine 640MB 8800GTS produziert und ich würde gerne wissen, ob das an meinen Settings liegt, oder ob das ein generelles Problem ist.

EDIT: Hab den Treiber nochmal resettet und jetzt sieht besser aus. War imo wirklich das AF. :|
http://www.abload.de/thumb/screenshot01li7c.jpg (http://www.abload.de/image.php?img=screenshot01li7c.jpg)

Gast
2009-07-16, 10:12:31
Ja schon. Nur solltest du inzwischen auch genausoviel von Texturfilterung verstehen, um erkennen zu können, dass die Texturauflösung gleich ist.
Wie kann sie dann bei einem matschig, beim anderen nicht sein?
Sicher, dass hier nicht der durch AI verschobene LOD zum Tragen kommt...?

Gast
2009-07-16, 10:14:36
Was soll der Blödsinn?
8xMSAA ist auf beiden möglich und absolut vergleichbar.
Aus welchem Grund sollte dann nur mit 4xMSAA verglichen werden?
Dadurch wird das AF bei ATI auch nicht besser.
Auf der einen Seite immer von der bestmöglichen BQ reden und beim AA runtergehen macht genau welchen Sinn?
Auf der einen Seite immer vom bestmöglichen AA reden, und dann die Texturqualität außer acht lassen, macht genau welchen Sinn?

Ach ja, ich vergaß: Wir ignorieren Defizite und schrauben die Stärken möglichst weit hoch.

Gast
2009-07-16, 10:16:03
Anscheinend gilt das demnach nur fürs AF und nicht für MSAA. Oder zählt MSAA neuerdings nicht mehr zur BQ dazu?
Tausche AA und AF in deinem Satz aus und du begreifst den Sinn hinter diesen Forderungen.

Gast
2009-07-16, 10:17:50
Weil MSAA bei beiden sehr wohl vergleichbar ist.
Dann also solche Tests:
8x MSAA, bilineare Texturfilterung. Das wär's - willkommen in der 3D-Steinzeit.

Gast
2009-07-16, 19:10:33
Nur weil nV 8xAA Krüppel ist, sollte man sie in Benchmarks nicht schonen.
Wie praxisfern das für manche nV Benutzer ist, ist unwichtig.

Raff
2009-07-16, 19:46:30
Fakt ist, dass deutlich weniger Leute mit 8x MSAA denn mit 4x MSAA spielen. Und solange 8x optisch so wenig bringt und auf GeForce-Karten so viel kostet, wird sich das nicht ändern.

Wer eine der vielen Quellen für diese Aussage möchte: http://extreme.pcgameshardware.de/quickpolls/61086-mit-welchen-aa-af-einstellungen-spielst-du-normalerweise.html

MfG,
Raff

Gast
2009-07-16, 19:52:33
Fakt ist, dass deutlich weniger Leute mit 8x MSAA denn mit 4x MSAA spielen. Und solange 8x optisch so wenig bringt und auf GeForce-Karten so viel kostet, wird sich das nicht ändern.

Wer eine der vielen Quellen für diese Aussage möchte: http://extreme.pcgameshardware.de/quickpolls/61086-mit-welchen-aa-af-einstellungen-spielst-du-normalerweise.html

MfG,
Raff
Das gleiche gilt auch für PhysX.

y33H@
2009-07-16, 19:56:36
Die meisten zocken mit Physx. Läuft ja schließlich seit Jahren auf der CPU ;)

Und GPU-PhysX nutzen die, die eine halbwegs flotte GF haben freilich auch.

Gast
2009-07-16, 20:12:17
Wer eine der vielen Quellen für diese Aussage möchte: http://extreme.pcgameshardware.de/quickpolls/61086-mit-welchen-aa-af-einstellungen-spielst-du-normalerweise.html

Eigentor, die Umfrage schürt die Desinformation doch gerade, indem TAA/AAA nicht zur Auswahl stehen und wieder erscheint "8xAA ohne AAA/TAA + 16xAF" als qualitativ höchster Modus.

Wer sich auskennt kreuzt "höherwertigen Modus" an und schreibt sein "4xAA mit TMSAA + 16xAF" in den Thread, ich würde behaupten bereits dieser Modus wischt mit "8xAA ohne AAA/TAA + 16xAF" locker den Boden auf.

Die Fachpresse ist schachmatt und gleicht Boulevardmagazinen - oder doch nicht?
(http://www.forum-3dcenter.org/vbulletin/showthread.php?t=459122)

Raff
2009-07-16, 20:23:29
Da stehen Kombinationen mit 4x und mit 8x MSAA zur Wahl, garniert mit "mehr als" und "andere Kombination". Für die Aussage, dass mehr Leute 4x als 8x anklicken, ist alles darunter oder darüber doch völlig egal. :|

MfG,
Raff

Gast
2009-07-16, 20:27:57
Da stehen Kombinationen mit 4x und mit 8x MSAA zur Wahl, garniert mit "mehr als" und "andere Kombination". Für die Aussage, dass mehr Leute 4x als 8x anklicken, ist alles darunter oder darüber doch völlig egal. :|

Die Umfrage impliziert, dass AAA/TAA exotisch seien indem sie nicht explizit aufgeführt sind, "8xMSAA ohne AAA/TAA " erscheint dagegen normal zu sein.

Raff
2009-07-16, 20:32:33
Für dich gerne nochmal: Um Transparenz-AA geht's (mir) gar nicht. Was wird mehr genutzt: 4x oder 8x MSAA? 4x! Das womöglich noch mit TAA. Punkt. Das sehen eingefleischte Ati-Anhänger nicht gerne, aber das ist die Realität.

MfG,
Raff

Gast
2009-07-16, 21:21:53
Für dich gerne nochmal: Um Transparenz-AA geht's (mir) gar nicht. Was wird mehr genutzt: 4x oder 8x MSAA? 4x! Das womöglich noch mit TAA. Punkt. Das sehen eingefleischte Ati-Anhänger nicht gerne, aber das ist die Realität.

MfG,
Raff

Sagte einer, der der meinung war, dass Supersampling sehr wichtig ist.
Wenn 8xAA so viel Leistung kostet auf NV Karten, wie siehts dann mit 32xS usw. aus, wie viel Leistung verlangen solche für den normalen User Utopischen Settings?
Wer 8xAA für unwichtig erklärt aber gleichzeitig alle AA-Modis von NV lobt, den könnte man auch als eingefleischten NV-Anhänger bezeichnen.
Nach deiner Logik, bräuchtet ihr keine Tests mehr in 1920x1200 Auflösungen zu machen, weil die meisten Gamer 1680x1050 und niedriger benutzen zum spielen.

Raff
2009-07-16, 21:32:47
Interessant, wie du meine – subjektiven – Aussagen zu AA generell völlig verdrehst.

MfG,
Raff

puntarenas
2009-07-16, 22:06:32
Ich als NV-User bevorzuge 16x HQAF und 4x MSAA, bei entsprechenden Performancereserven gern mit (T)SSAA angereichert.
Ein ATI-User würde wahrscheinlich wohl mit 16x AF und 8x MSAA und bei entsprechenden Performancereserven mit AAA und 24x ED spielen.

Das sind die beiden relevantesten Settings aus der Praxis, welche für den auf-Teufel-komm-raus-so-wichtigen fps-Balken über Bord geworfen werden.
Da es jetzt gast-technisch ein wenig durcheinander geht, auch noch mal eine Klarstellung von mir. Ich hatte bei meinem Kommentar noch kruemelmonsters Beitrag im Sinn.

Die Umfrage erlaubt möglicherweise eine Aussage darüber, ob 4xMSAA oder 8xMSAA häufiger genutzt wird, aber sinnvoll ist diese Fragestellung nicht und außerdem ein wenig suggestiv. Mal salopp gesagt, wo 8xAA auftaucht, sollte AAA/TAA längst drin sein.

:smile:

Lawmachine79
2009-07-16, 23:17:22
Nur weil nV 8xAA Krüppel ist, sollte man sie in Benchmarks nicht schonen.
Wie praxisfern das für manche nV Benutzer ist, ist unwichtig.
Aber ATI soll man schonen, weil sie Krüppel-AF haben? Stimmt, braucht man ja nicht, sie haben ja die Möglichkeit genommen, das Krüppel-AF anzuwählen.
Da es jetzt gast-technisch ein wenig durcheinander geht, auch noch mal eine Klarstellung von mir. Ich hatte bei meinem Kommentar noch kruemelmonsters Beitrag im Sinn.

Die Umfrage erlaubt möglicherweise eine Aussage darüber, ob 4xMSAA oder 8xMSAA häufiger genutzt wird, aber sinnvoll ist diese Fragestellung nicht und außerdem ein wenig suggestiv. Mal salopp gesagt, wo 8xAA auftaucht, sollte AAA/TAA längst drin sein.

:smile:
Stimmt, wer 8x anmacht, hat längst geglättete Alphas...
Sagte einer, der der meinung war, dass Supersampling sehr wichtig ist.

SSAA glättet auch Texturen, 8xMSAA nicht.

Für jene, die es noch immer nicht verstanden haben, es geht DARUM:Doch MSAA zählt sehr wohl dazu. Da sagt auch keiner was gegen. Der Punkt ist folgender: ATI hat einen starken Performancehit, wenn perfekt gefiltert wird. NV hat einen starken Performancehit, wenn man von 4xMSAA auf 8xMSAA schaltet. Ich hoffe wenigstens bis hierhin gibt es Konsens - wer hier schon nicht zustimmt, würde auch behaupten daß Pierre Littbarski größer als Oliver Kahn ist, weil er Köln-Fan ist...
So. Was macht ATI aus der Situation? Es eliminiert per A.I. einfach die Möglichkeit, perfekte Filterung auszuwählen. Somit können ATI-Karten nicht mehr im für sie ungünstigsten Szenario getestet werden. Fakt. Um diese Feststellung kommt niemand herum. Logischer Umkehrschluß seitens NV wäre es, 8xMSAA nicht mehr anwählbar zu machen - das für sie ungünstigste Szenario. Machen sie aber nicht. Wenn man jetzt einerseits durchgehen lässt, daß ATI die für sie ungünstigste Einstellung unzugänglich macht, NV aber andererseits mit der für sie ungünstigsten Einstellung dennoch testet, verzerrt das den Benchmark zugunsten von ATI. Man belohnt ATI dafür, daß sie softwareseitig die Qualität ihres Produktes reduzieren um besser dazustehen (Balken ftw) und bestraft NV dafür, daß sie ihr Produkt dem Kunden ohne Einschränkungen zur Verfügung stellen? Das kann es nicht sein. Ich kann nicht nachvollziehen, wie man das nicht verstehen kann.

Beide aktuellen Architekturen haben ihre Achillesferse - NV hat seine NICHT weggeschummelt und wird dafür bestraft.
Und deshalb: Test mit maximal möglicher Qualität - ja - aber nicht wenn man dabei die Schummelei eines Herstellers auch noch fördert und ihn dadurch bevorteilt.
Wer A sagt, muss auch B sagen - wer ATIs Texturfüllratenschwächen im Test außen vor lässt (als ob man die Wahl hätte) muss auch die 8xMSAA-Schwächen NVs (die es unbestritten gbit) außen vor lassen. WIESO in drei Teufels Namen soll man ATI bei Tests einen Vorteil lassen? Das war schon bei 6xMSAA vs. 8xS so und zieht sich wie ein roter Faden ( ;) ) durch die "Post-3dfx"-Ära - woher hat diese Firma den Knuddelfaktor? Nochmals Disclaimer: ich habe 3 ATI-Karten, keine NV-Karte...

Gast
2009-07-16, 23:49:48
Die meisten zocken mit Physx. Läuft ja schließlich seit Jahren auf der CPU ;)

Und GPU-PhysX nutzen die, die eine halbwegs flotte GF haben freilich auch.

;) Unverhältnismässig!

Software-PhysX in Spielen die nur dies anbieten ist reichlich unwichtig, meist wird das auch nicht einmal erwähnt.
GPU-PhysX wird von viel zu wenigen Spielen unterstützt und ist als Benchmark unbrauchbar. Da könnte ja jeder mit seiner Nischentechnik daher kommen und schreien er möchte das gebencht haben, wohlwissend das dies die Konkurenz nicht kann.

Zudem...
HW-PhysX ist in einem Grafikkartenbenchmark wie eine Birne beim Äpfelvergleich.
Und die Befürworter sind die, die den Juroren zurufen, dass ihre Birne doch ein ganz toller Apfel ist (LS an der Spitze).

Ich möchte keine Benchmarkvergleiche verschiedener Hersteller sehen die mit
NV-Spielen gebencht werden, das Ergebnis ist klar.
Wenn mal ein Spiel rauskommt, dass HW-PhysX unterstützt dann ist sowas als HW-Check (für das Spiel) sicher interessant aber ein allgemeiner Grafikkarten-Check der mit einer Palette an Spielen gebencht wird darf nicht unverhältnismässig grün gefärbt sein und da sollte man bei der derzeitigen Marktrelevanz von HW-PhysX in Spielen selbige nicht zu oft testen.

LovesuckZ
2009-07-17, 00:39:34
GPU-PhysX wird von viel zu wenigen Spielen unterstützt und ist als Benchmark unbrauchbar. Da könnte ja jeder mit seiner Nischentechnik daher kommen und schreien er möchte das gebencht haben, wohlwissend das dies die Konkurenz nicht kann.

Nunja, D3D10.x ist ne ziemliche Nische im Vergleich zu alles, was davor auf dem Markt kam. Aber wir testen es. Das ist irgendwie schizophren.


Zudem...
HW-PhysX ist in einem Grafikkartenbenchmark wie eine Birne beim Äpfelvergleich.
Und die Befürworter sind die, die den Juroren zurufen, dass ihre Birne doch ein ganz toller Apfel ist (LS an der Spitze).

Hm, wieso verwenden wir Spiele in einem Grafikkartenvergleich? Es ist ebenfalls schizophren Spieleeinstellungen zu konstruieren, die in Wirklichkeit kaum so eintreffen.
Nach dir müsste der nVidia User in Mirrors Edge auf PhysX verzichten, weil der AMD Käufer ebenfalls nur eingeschränkt es nutzen kann. Man sollte sich loslösen, das man mit Spielen Karten von unterschiedlichen Hersteller vergleichen könnte.


Ich möchte keine Benchmarkvergleiche verschiedener Hersteller sehen die mit
NV-Spielen gebencht werden, das Ergebnis ist klar.
Wenn mal ein Spiel rauskommt, dass HW-PhysX unterstützt dann ist sowas als HW-Check (für das Spiel) sicher interessant aber ein allgemeiner Grafikkarten-Check der mit einer Palette an Spielen gebencht wird darf nicht unverhältnismässig grün gefärbt sein und da sollte man bei der derzeitigen Marktrelevanz von HW-PhysX in Spielen selbige nicht zu oft testen.

Ich möchte keine subjektive Spieleauswahl und -einstellung haben, nur weil der Gast meint, dass Spiele sich als Vergleichsgrundlage eignen.
Wenn Mirrors Edge mit PhysX auf einer nVidia Karte spielbar ist und bei AMD nicht, dann muss dies positiv mit in das schlussendliche Performancerating/Fazit einbezogen werden. Wenn AMD keine gleichwertige AF anbietet, dann müssen sie dafür mit 0 FPS abgestraft werden.
Es sollte klar sein, dass sich Spiele nicht als Vergleichsgrundlage eigenen, wenn man Einstellungen wählen muss, die in der Wirklichkeit nicht auftreten.
Ein 3DMark ist z.B als Vergleich sinnig, da man hier keine subjektiven Entscheidungen treffen muss. Ob er mit 5 oder 100 FPS durchläut, interessiert mich nur bedingt. Ob ihn mit 4xMSAA oder 8xMSAA durchlaufen lasse, spielt ebenso keine Rolle. Aber wenn jemand meint, man müsste nVidia Karten auf 8xMSAA beschränken, wenn man Spiele verwendet, hat keinen blassen Schimmer und sollte das Testen sein lassen.

Gast
2009-07-17, 01:15:53
Nunja, D3D10.x ist ne ziemliche Nische im Vergleich zu alles, was davor auf dem Markt kam. Aber wir testen es. Das ist irgendwie schizophren.

Far Cry 2, Hawx, Assasins Creed, Battleforge, Stormrise sind alles .1 spiele und alle verkaufen sich besser als Cryostasis.


Performancerating/Fazit einbezogen werden. Wenn AMD keine gleichwertige AF anbietet, dann müssen sie dafür mit 0 FPS abgestraft werden.


Ja Lovesucks, Q+trilineare Optimierung ist auch so viel besser als AI Standard.
0 fps abgestraft werden - was ich nicht lache ..
Hättest du damals das Gleiche über NV gesagt, als sie HDR+AA nicht gleichzeitig konnten, wäre dein Beitrag evlt. nur halb so lächerlich.

Langsmam glaub ich, dass du nur nach Aufmerksamkeit schreist mit deinen provokanten Aussagen, weil ernst zu nehmen bis du schon lange nicht mehr.

Hübie
2009-07-17, 02:03:50
Das ist in der Tat mehr als lachhaft. Nur weil der Filter von ATi nicht die 100%ige Leistung von nVidia bringt kann man doch nicht mit 0fps abstrafen? Wo ist da die Grundlage?
Manche tun geradezu so als ob ATi die reinsten Bildfehler produzieren würde und bei nVidia alles superscharf und flimmerfrei wäre :rolleyes:
Ich zeige mal mit einem Finger auf die 7900er-Tragödie...

Aber okay: Besinnen wir uns doch auf "don´t feed the troll" ;D

bye Hübie

Gast
2009-07-17, 06:43:57
Ich zeige mal mit einem Finger auf die 7900er-Tragödie...

Nur zu, diese wurde erfolgreich überwunden. Und nicht weil Nvidia so freundlich war, sondern weil alle Welt den Finger gerümpft hat.

Mit der jetztigen AMD wird gestreichelt und Nvidia Benachteiligt Schiene wird sich das nicht wiederholen.
Wir werden auch in 5 Jahren noch über so einen Unfug wie Filteroptimierungen diskutieren.

Toll!

Gast
2009-07-17, 08:12:57
Nur zu, diese wurde erfolgreich überwunden. Und nicht weil Nvidia so freundlich war, sondern weil alle Welt den Finger gerümpft hat.

Schmarrn. Damals wurde ATI abgestraft, weil alle mit total unvergleichbaren Settings getestet haben. Nun ist aber NV default dem ATI default momentan ziemlich ähnlich, respektive bewegen sich die Unterschiede im minimalem Bereich. Und seit dem das ist, erscheinen lauter selbsternannte BQ-Ritter (ihres Zeichens natürlich überzeugte NV-Nutzer, weil da ja die Bildqualität soviel besser ist), und versuchen die ATI-Nutzer zu bekehren, bzw. der gesamten Presselandschaft den schwarzen Peter zuzuschieben, weil die biser noch nicht _noch mehr_ unternommen haben, als bei _jedem_ Review darauf hinzuweisen, dass Nvidia schon in Standardeinstellungen eine minimal bessere Bildqualität bieten soll.


Irgendwie haben manche Leute hier anscheinend ein weitaus größeres Problem, als eine vermeindlich schlechte Bildqualität bei der Konkurrenz erkannt zu haben. Zumindest kommts mir so vor... :|

Gast
2009-07-17, 08:35:00
Aber ATI soll man schonen, weil sie Krüppel-AF haben? Stimmt, braucht man ja nicht, sie haben ja die Möglichkeit genommen, das Krüppel-AF anzuwählen.

Du weisst ja nicht wovon du redest. Hast eine verhunzte Windows installation und Ati ist dran schuld. Außerhalb von 3DC sind die Leut sogar größtenteils zu blöd AF einzuschalten, weil sie ohnehin keinen Unterschied erkennen. Und hier wird an nem IHV herumgehackt, der schnelle Grafikkarten zu günstigsten Preisen anbieten kann und gleichzeitig noch eine gute Bildqualität bietet.

Da treffen sich alle Fanboys im 3DC-Pool und der Hauptbenchmarcer der PCGH zieht seine Mission durch und bringt 2 Vergleichsvideos wo man tatsächlich sehen kann, dass in einer Extremsituation die BQ von ATI leicht schlechter ist, als die von NV. Die anderen Videos, wo man die Unterschiede nicht sehen kann, hat er nie veröffentlicht - und deswegen kommen dann selbst von Crewmitgliedern plötzlich so Aussagen, wie 'Krüppel-AF' - im Hinsicht auf eine Bildqualität, die 99.9% der Nutzer mehr als zufriedenstellt. Ist doch erbärmlich hier. Mich wunderts nicht, dass die gesamte Presselandschaft den Bach runter geht!

LovesuckZ
2009-07-17, 08:59:26
Ja Lovesucks, Q+trilineare Optimierung ist auch so viel besser als AI Standard.

Nun, wie müssen auch mit HQ und A.I Off testen. Und wehe hier kommt einer mit Standardeinstellung: PhysX wäre genauso standard, da es sich in jedem Spiel aktivieren lässt.


0 fps abgestraft werden - was ich nicht lache ..

Wenn jemand in einem Wettkampf schummelt, dann wird er disqualifiziert. Wenn etwas eine Zielvorgabe nicht erreicht, dann wird das Ergebnis nicht gewertet. Wenn AMD keine vergleichbare HQ Filterung anbieten kann, dann müssen sie mit 0 FPS dafür bedankt werden. Es ist nicht die Aufgabe der Reviewer, die Fehler der Hardware zu kaschieren.


Hättest du damals das Gleiche über NV gesagt, als sie HDR+AA nicht gleichzeitig konnten, wäre dein Beitrag evlt. nur halb so lächerlich.

Ach, die haben früher wirklich so getestet? ;D



Langsmam glaub ich, dass du nur nach Aufmerksamkeit schreist mit deinen provokanten Aussagen, weil ernst zu nehmen bis du schon lange nicht mehr.

Ach lieber Gast - das Problem ist doch, dass du keine Gegenargumente hast. Ich finde es erstaunlich, dass man immer zu Beleidigungen greifen mussen, wenn einen nichts mehr einfällt.
Du hast nicht widerlegt, wieso man Spiele mit konstruierten Einstellen als Vergleichsgrundlage heranziehen sollte.

Das ist in der Tat mehr als lachhaft. Nur weil der Filter von ATi nicht die 100%ige Leistung von nVidia bringt kann man doch nicht mit 0fps abstrafen? Wo ist da die Grundlage?


Nein? Wieso nicht? Argumente? Irgendwas? Weißt du, ich mache es wie du: Man kann es.

Grestorn
2009-07-17, 09:33:35
Du weisst ja nicht wovon du redest. Hast eine verhunzte Windows installation und Ati ist dran schuld. Außerhalb von 3DC sind die Leut sogar größtenteils zu blöd AF einzuschalten, weil sie ohnehin keinen Unterschied erkennen. Und hier wird an nem IHV herumgehackt, der schnelle Grafikkarten zu günstigsten Preisen anbieten kann und gleichzeitig noch eine gute Bildqualität bietet.

Da treffen sich alle Fanboys im 3DC-Pool und der Hauptbenchmarcer der PCGH zieht seine Mission durch und bringt 2 Vergleichsvideos wo man tatsächlich sehen kann, dass in einer Extremsituation die BQ von ATI leicht schlechter ist, als die von NV. Die anderen Videos, wo man die Unterschiede nicht sehen kann, hat er nie veröffentlicht - und deswegen kommen dann selbst von Crewmitgliedern plötzlich so Aussagen, wie 'Krüppel-AF' - im Hinsicht auf eine Bildqualität, die 99.9% der Nutzer mehr als zufriedenstellt. Ist doch erbärmlich hier. Mich wunderts nicht, dass die gesamte Presselandschaft den Bach runter geht!

Du trittst echt in Konkurenz zu LS was die bedingungslose Treue zu einem Produkthersteller angeht.

Wie kann man nur so verblendet sein...

Gast
2009-07-17, 09:43:46
Danke. Auf die Meinung des nHancer Programmierers, der Atis Profilverwaltung prinzipiell verteufelt (ohne zu wissen, wie die überhaupt funktioniert!) leg ich natürlich viel Wert. :rolleyes:

Grestorn
2009-07-17, 09:54:20
Danke. Auf die Meinung des nHancer Programmierers, der Atis Profilverwaltung prinzipiell verteufelt (ohne zu wissen, wie die überhaupt funktioniert!) leg ich natürlich viel Wert. :rolleyes:

Ganz einfach: Es gibt keine vom Anwender beeinflussbare, automatische Profilverwaltung bei ATI. Deswegen gibt es da auch nichts zu wissen, wie sie funktioniert.

Ein Profil aus dem CCC zu wählen was dann automatisch zum Spielstart führt, ist kein automatisches Profil sondern bestenfalls eine Krücke.

Es gibt ja automatische Profile bei ATI (sonst würde .EXE Renaming nichts bringen), aber der Anwender erhält keinen Einfluss auf die Dinge, die in diesem automatischen Profil eingestellt werden können.

Und, ja, ich weiß, dass es die ATI Tray Tools gibt, die einen Teil dieser Funktionalität nachrüstet, und das ist in der Tat eine tolle Sache. Deswegen kann man zwar immer noch keine Anti-Aliasing Kompatibilitätsoptionen und Crossfire Optionen per Spiel definieren sondern muss weiterhin .Exe Renaming bemühen, aber immerhin die Standard-CCC Einstellungen lassen sich so automatisieren.

Warum willst Du nicht verstehen, dass ein Profil nicht nur aus dem besteht, was man im Panel einstellen kann, sondern viel mehr ist?

Ich habe übrigens schon mehrfach gesagt, dass ich durchaus über eine ATI Version nachdenken würde, wenn ATI endlich deren Profilmanagement öffnen würde.

Gast
2009-07-17, 10:18:05
Ich habe übrigens schon mehrfach gesagt, dass ich durchaus über eine ATI Version nachdenken würde, wenn ATI endlich deren Profilmanagement öffnen würde.

Ati hat die Profile in einer dll hinterlegt. Falls du wirklich verstehen willst, wie Atis Profilverwaltung funktioniert, setz dich mal mit Unwinder in Verbindung. Oder mit Ray Adams (wobei der sich wahrscheinlich erst ein Crossfiresystem bezahlen lassen will, bevor er etwas unternimmt).

puntarenas
2009-07-17, 11:31:19
Ati hat die Profile in einer dll hinterlegt. Falls du wirklich verstehen willst, wie Atis Profilverwaltung funktioniert, setz dich mal mit Unwinder in Verbindung. Oder mit Ray Adams (wobei der sich wahrscheinlich erst ein Crossfiresystem bezahlen lassen will, bevor er etwas unternimmt).
Würde mich wundern, wenn Ray Adams mittlerweile mehr über die treiberinternen Kompatibilitätspfade wüsste. Er kann sein Tool auch nur rund um die von außen zugänglichen Registry-Schalter bauen. Grestorn hat durchaus recht, es gibt keine vom Anwender beeinflussbare, automatische Profilverwaltung bei ATI.

Hübie
2009-07-17, 11:51:57
Nein? Wieso nicht? Argumente? Irgendwas? Weißt du, ich mache es wie du: Man kann es.

Schau dir doch einfach mal Vergleichsbilder an. Oder besser noch: Spiele an einem Rechner mit nVidia-Karte und an einem mit ATi. Du wirst minimale Bildqualitätsunterschiede feststellen. Und da die Unterschiede marginal bis garnicht vorhanden sind finde ich einfach kann man ATi nicht mit 0fps abstrafen. Selbst das extreme Flimmern bei Gothic³ ist weg.
So nun kommst du. Schau mal ein paar Seiten vorher. Mein Post mit Riddick. Was sagst du dazu???

bye Hübie

Mr. Lolman
2009-07-17, 11:58:42
Würde mich wundern, wenn Ray Adams mittlerweile mehr über die treiberinternen Kompatibilitätspfade wüsste. Er kann sein Tool auch nur rund um die von außen zugänglichen Registry-Schalter bauen.

Nö. Allein schon für die Übertaktungsmechanismen, ist erforderlich, dass man ein bisschen was vom Reverseengineering versteht. Außerdem gibts ja auch noch Unwinder W1zzard, der zB. den R350 Pfad für R300-Karten freigeschaltet hat.

Das Programmierwissen endet bei denen garantiert nicht beim Umlegen von Regkeys.

Grestorn
2009-07-17, 12:37:35
Nö. Allein schon für die Übertaktungsmechanismen, ist erforderlich, dass man ein bisschen was vom Reverseengineering versteht. Außerdem gibts ja auch noch Unwinder, der zB. den R350 Pfad für R300-Karten freigeschaltet hat.

Das Programmierwissen endet bei den Beiden garantiert nicht beim Umlegen von Regkeys.

Das kann ich nur bestätigen. nHancer ist eine Fingerübung und sicherlich ein praktisches Tool, aber in keiner Weise vergleichbar mit RivaTuner (ATT kenne ich zu wenig). Unwinder hat in der Tat heftigst Zeit investiert um undokumentierte Interna herauszufinden, und verdient meinen größten Respekt dafür. Im Vergleich dazu habe ich nur an der Oberfläche gekratzt.

Es ist letztlich eine Frage des Zeitaufwandes, den man bereit ist zu investieren. Und der hat bei mir einfach enge Grenzen, da ich mit Softwareentwicklung mein Geld verdiene und deswegen nicht jede freie Minute mit genau dem selben verbringen will, was mein Berufsleben bestimmt :)

Ich bin froh dass RivaTuner und nHancer vom Ansatz her doch sehr unterschiedlich sind und sich wirklich sehr gut ergänzen. Denn ansonsten hätte ich die Entwicklung schon lange eingestellt, gegen Unwinder würde ich nicht anstinken wollen.

LovesuckZ
2009-07-17, 12:47:44
Schau dir doch einfach mal Vergleichsbilder an. Oder besser noch: Spiele an einem Rechner mit nVidia-Karte und an einem mit ATi. Du wirst minimale Bildqualitätsunterschiede feststellen. Und da die Unterschiede marginal bis garnicht vorhanden sind finde ich einfach kann man ATi nicht mit
0fps abstrafen.

Und ich finde, dass beim Spielen die Unterschiede zwischen 16xCSAA und 8xMSAA vorallen in hohen Auflösungen kaum mehr auffallen. Es sollte ersichtlich sein, dass subjektive Eindrücke keine Rolle spielen dürfen. AMD kann nicht eine ähnliche Bildqualität liefern - genausowenig erreicht es nVidia mit 16xCSAA. Nur weil es vielen beim Spielen nicht auffällt, kann man es doch nicht vergleichen oder noch schlimmer, im selben Balken bewerten.


So nun kommst du. Schau mal ein paar Seiten vorher. Mein Post mit Riddick. Was sagst du dazu???
bye Hübie

Warum sollte ich die Unfähigkeit von Computerbase.de rechtfertigen? Liest du hier irgendwo, wo ich den Reviewer ihre Kompetenz zuspreche?
Das sind normale Menschen, die Geld und Hardware erhalten, um ihren Arbeitgeber Umsatz zu generieren. Zum Testen braucht niemand eine Ausbildung noch einen geprüften Abschluss. Aber jeder vertraut darauf, dass die Ergebnisse sinnvoll und frei von Willkürheit entstehen. Das wäre so, als wenn ich jemanden auf der Straße fragen würde, ob er meine Haare schneiden könnte und nachdem er fertig ist mich zu beschweren, dass das Ergebnis nicht vernünftig geworden ist.

kruemelmonster
2009-07-17, 12:55:12
@die roten Gäste:

Ihr seit immer ganz fix dabei gegen z.B. LS und y33H@ anzudiskutieren, die beiden machen es auch teilweise nicht sonderlich schwer.
Geht doch mal zur Abwechselung mal auf das Posting von warmachine79 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7417724&postcount=542) ein, wenn ihr euch für argumentativ so überlegen gegenüber der dunklen Seite der Macht haltet.

Post-3dfx"-Ära

Evtl. liegts auch daran. Antipathie für den "Scharfrichter" von 3dfx führt zu unbegründeter Sympathie für den Mitbewerber.

Raff
2009-07-17, 13:01:20
Evtl. liegts auch daran. Antipathie für den "Scharfrichter" von 3dfx führt zu unbegründeter Sympathie für den Mitbewerber.

Ich als einer der letzten kaputten 3dfx-Freaks kann das übrigens nicht nachvollziehen. Wenn Nvidia das bessere Paket liefert, dann wird eben das bessere Paket gekauft.

MfG,
Raff

Mr. Lolman
2009-07-17, 13:17:45
@die roten Gäste:

Ihr seit immer ganz fix dabei gegen z.B. LS und y33H@ anzudiskutieren, die beiden machen es auch teilweise nicht sonderlich schwer.
Geht doch mal zur Abwechselung mal auf das Posting von warmachine79 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7417724&postcount=542) ein, wenn ihr euch für argumentativ so überlegen gegenüber der dunklen Seite der Macht haltet.

NV hats zumindest insofern gedreht, dass deren 'normales' 8xMSAA 8xQ heisst. 8xAA ist eigentlich 4xAA+CSAA. Das wissen aber die Reviewer. Genauso wie sie wissen, dass NV HQ ATis default überlegen ist, und die Karten deswegen mit den relativ vergleichbaren Standardeinstellungen gegeneinander gebencht werden. Ich halt auch nix von 8xMSAA Vergleichen ohne AAA, deswegen sollte man, wenn man schon 8xAA bencht, da die maximal mögliche, noch vergleichbare BQ wählen, also inkl. TRAA/AAA.

Hübie
2009-07-17, 13:18:09
Naja aber nicht jeder ist bereit für das "beste Paket" mehr zu bezahlen. Ich entschied mich für ATi weil die einfach das bessere P/L-Verhältnis haben. Aber da gewichtet jeder anders. Jedenfalls finde ich nicht, dass die BQ bei ATi mieserabel ist. Das wird meistens schlechter geredet als es ist.

bye Hübie

Raff
2009-07-17, 13:28:33
Ich halt auch nix von 8xMSAA Vergleichen ohne AAA, deswegen sollte man, wenn man schon 8xAA bencht, da die maximal mögliche, noch vergleichbare BQ wählen, also inkl. TRAA/AAA.

Vergleichbar? Je nach Spiel nutzt Ati mal MS- und mal SS-AAA. Dabei kommt's ab und an vor, dass ein Hersteller mehr Objekte erfasst als der andere – oder dass TMSAA nicht geht (etwa in WoW mit dem 186.18). Wirklich vergleichbar ist nur SS-AAA mit TSSAA. Jeder TAA-Vergleich macht also erstmal einen weiteren Bildvergleich nötig. Immer dieselbe Diskussion. ;)

MfG,
Raff

kruemelmonster
2009-07-17, 14:45:50
NV hats zumindest insofern gedreht, dass deren 'normales' 8xMSAA 8xQ heisst. 8xAA ist eigentlich 4xAA+CSAA.

8xQ klingt höherwertiger als 8xAA und ist es auch.
NVs Bennenung impliziert lediglich die realen Zustände, 8xQ ist mehr als 8xAA ist mehr als 4xAA, unter Berücksichtigung der 8xMSAA Schwäche, welche NV nicht unter den Teppich kehrt wie ATI das mit ihrer Filterschwäche tut!

Genauso wie sie wissen, dass NV HQ ATis default überlegen ist

MMn ist schon Q immer besser als AI def, auch wenn's sich im kaum sichtbaren Bereich abspielen mag. Daher meine Frage:
Gibt es Situationen in denen ATI default NV default überlegen ist?

, und die Karten deswegen mit den relativ vergleichbaren Standardeinstellungen gegeneinander gebencht werden. Ich halt auch nix von 8xMSAA Vergleichen ohne AAA, deswegen sollte man, wenn man schon 8xAA bencht, da die maximal mögliche, noch vergleichbare BQ wählen, also inkl. TRAA/AAA.

Zur Vergleichbarkeit ohne Sinn und Verstand hab ich mich bereits ausgelassen (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7417824&postcount=549). Ich bin weiterhin gegen sinnfreie theoretische und für praxisorientierte Benchmarks (à la HardOCP) ohne künstlich erzeugte Vergleichbarkeit.

Was bringt dir die Information das RD:GRID auf CF4890 in 16x10 8xMSAA mit 140 fps (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/11/#abschnitt_race_driver_grid) läuft? Nüscht. Wenn du 140 fps hast, wirst du wohl eher nach höheren (A)AA-Modi greifen statt dich an dem überflüssigen (;)) Ergebnis aufzugeilen.

Lawmachine79
2009-07-17, 14:55:10
NV hats zumindest insofern gedreht, dass deren 'normales' 8xMSAA 8xQ heisst. 8xAA ist eigentlich 4xAA+CSAA. Das wissen aber die Reviewer. Genauso wie sie wissen, dass NV HQ ATis default überlegen ist, und die Karten deswegen mit den relativ vergleichbaren Standardeinstellungen gegeneinander gebencht werden. Ich halt auch nix von 8xMSAA Vergleichen ohne AAA, deswegen sollte man, wenn man schon 8xAA bencht, da die maximal mögliche, noch vergleichbare BQ wählen, also inkl. TRAA/AAA.
Sorry, vergleichbar ist das erst, wenn der Benutzer entscheiden kann, ob TMSAA oder TSSAA. Erfahrungsgemäß wird nämlich folgendes geschehen: bei NV wird TSSAA gebencht, bei ATI wird einfach AAA aktiviert - und DAS ist NICHT vergleichbar.

Nicht mehr @Lolman:
Ich verstehe diesen Aufstand nicht - WAS SPRICHT DAGEGEN dem Nutzer alle Funktionen zugänglich zu machen? Und nein, damit ist er nicht überfordert - beim CCC gibt es doch einen "Basic/Advanced"-Schalter - gebt der Wahl "Advanced" endlich die Funktionen, die der Name suggeriert! Die Hardware selbst ist doch beinahe frei von Schwächen! Es gibt kein einziges sachliches Argument was DAFÜR spricht, daß ich nicht selbst wählen kann, wie gut mein AF ist und welche Art von TAA ich will.

Gast
2009-07-17, 15:24:49
Es gibt kein einziges sachliches Argument was DAFÜR spricht, daß ich nicht selbst wählen kann, wie gut mein AF ist und welche Art von TAA ich will.
Doch, die Balkenlänge.

AMD hätte nur Nachteile wenn manch einer mit HQ AF oder SSAAA benchen würde.
AMD hat 8xMSAA und 16xLQAF optimierte Karten, die nur auf Shaderlast warten.
HQ AF kostet auf jeden Fall einige Prozent.
AAA wird entweder gar nicht verglichen oder gegen TSSAA. Der Vorteil liegt bei AMD, da meist MSAAA verwendet wird.
Bei den paar Anwendungen wo SSAAA anliegt scheint es auch nicht besonders billig zu sein.

Es kann nur schlimmer werden für AMD, wenn sie nachgeben. Jetzt gibt es keine Kritik und sie stehen am Ende gut da.

Ok, das waren keine echten Argumente, sondern lediglich Erklärungen, das die Wahl nicht eigeführt werden wird.

Mr. Lolman
2009-07-17, 15:42:37
8xQ klingt höherwertiger als 8xAA und ist es auch.
NVs Bennenung impliziert lediglich die realen Zustände, 8xQ ist mehr als 8xAA ist mehr als 4xAA, unter Berücksichtigung der 8xMSAA Schwäche, welche NV nicht unter den Teppich kehrt wie ATI das mit ihrer Filterschwäche tut!

Doch. Denn wenn ich 8xAA aktivier, dann erwarte ich eigentlich auch 8 ordentliche Muiltisamples. ATi hat mit ihrem SuperAA bei CF ähnlichen Mist verbockt. Da hat man auch 8xSAA einfach 10xSuperAA genannt, mit dem Ergebnis, dass in der letzten PCGH aufeinmal was von 10x10 EER bei dem Modus stand. :rolleyes:

8
MMn ist schon Q immer besser als AI def, auch wenn's sich im kaum sichtbaren Bereich abspielen mag. Daher meine Frage:
Gibt es Situationen in denen ATI default NV default überlegen ist?

Bei manchen Rennspielen zB - oder zumindest bei jedem Spiel, welches von der Unart gebrauch macht, das letzte Quäntchen Schärfe mit negativem LOD zu realisieren. (jaja, da kann man mit SSAA/Downsampling entgegensteuern, aber es ging ja um vergleichbare Settings).

8
Zur Vergleichbarkeit ohne Sinn und Verstand hab ich mich bereits ausgelassen (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7417824&postcount=549). Ich bin weiterhin gegen sinnfreie theoretische und für praxisorientierte Benchmarks (à la HardOCP) ohne künstlich erzeugte Vergleichbarkeit.

Ich find den Ansatz garnicht mal so schlecht. Der Aufwand ist halt viel höher (nämlich diverse Settings solang durchzutesten, bis man das bestmögliche Verhältnis zw. BQ und _spielbarer_ Framerate herausgefunden hat)


Was bringt dir die Information das RD:GRID auf CF4890 in 16x10 8xMSAA mit 140 fps (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/11/#abschnitt_race_driver_grid) läuft? Nüscht. Wenn du 140 fps hast, wirst du wohl eher nach höheren (A)AA-Modi greifen statt dich an dem überflüssigen (;)) Ergebnis aufzugeilen.


Ich könnt mich auch fragen, wozu hab ich ein CF-System hab, wenn ich nur 1680x1050 fahre. ;)



Sorry, vergleichbar ist das erst, wenn der Benutzer entscheiden kann, ob TMSAA oder TSSAA. Erfahrungsgemäß wird nämlich folgendes geschehen: bei NV wird TSSAA gebencht, bei ATI wird einfach AAA aktiviert - und DAS ist NICHT vergleichbar.

100% Vergleichbar ists erst wenn man die gleichen Modi bencht. Dazu muss man zumindest bei einem Kontrahenten entscheiden können, was man einstellt. Und das ist bereits der Fall ;)


Nicht mehr @Lolman:
Ich verstehe diesen Aufstand nicht - WAS SPRICHT DAGEGEN dem Nutzer alle Funktionen zugänglich zu machen? Und nein, damit ist er nicht überfordert - beim CCC gibt es doch einen "Basic/Advanced"-Schalter - gebt der Wahl "Advanced" endlich die Funktionen, die der Name suggeriert! Die Hardware selbst ist doch beinahe frei von Schwächen! Es gibt kein einziges sachliches Argument was DAFÜR spricht, daß ich nicht selbst wählen kann, wie gut mein AF ist und welche Art von TAA ich will.

Du hast schon recht. Von der Nutzerseite spricht echt nicht viel dagegen. ATi verfolgt aber das Prinzip dem unbedachtem User möglichst ein gutes Verhältnis zw BQ und Performance zu ermöglichen. Und soferns problemlos klappt, nutzt ATi ja auch MSAAA. Erst bei Kompatibilitätsproblemen wird auf SSAAA ausgewichen.

Tatsache ist, dass ATis AAA auf Multisamplingbasis dem SSAA vorzuziehen ist - und das nicht nur von der Performanceseite, sondern auch von der BQ-Seite. Ich habs zwar schonmal genauer erklärt warum, aber kurz zusammengefasst, simuliert man mit Alpha2Coverage quasi Alphablending, was im Normalfall Transparenzabstufungen mit 8bit Genauigkeit erlaubt. Beim AAA aus SS-Basis nimmt man den 1-bittigen Alphatest und sampelt den einfach mehrfach. Mit dem Ergebnis, dass man trotzdem harte Alphatests hat, was prinzipiell ja je nach Content nicht automatisch verkehrt wär, aber durchs Mipmapping und dem jew. gewählten Kompromiss für den AT-Grenzwert (falls nämlich doch ein 8bit-Kanal existiert, und man aufgrund von Performance/Sortingproblemen auf AT ausweichen muss) häufig zu netten Stilblüten führt, wie in der Luft schwebende Blätter/Verästelungen.


Hinter der Entscheidung keine freie Wahl zuzulassen, steckt imo genau die gleiche politische Entscheidung, wie bei der AF-Problematik. Standardmäßig versucht man einer möglichst breiten Benutzerschicht das bestmögliche BQ/Performanceverhältnis anzubieten.

Natürlich würde sich unserereiner oft den perfekten Über-AF-Mode wünschen, aber sobald das ATi in dem Treiber einbaut, hoilen dann die ganzen Noobs auf, weil sie alles auf Max-BQ gestellt haben und sich über abkackende Framerates ärgern (Ich wage zu behaupten, dass perfekte Filterung auf aktuellen Radeons je nach Spiel bis zu 50% Performance kosten kann!!)

Ist ja jetzt zT auch schon so. Die liest N00b XY in der Zeitschrift YZ, dass man für bestmögliche BQ AI ausschalten soll, und wundert sich dann, über manche Kompatibilitätsprobleme (in dem von mir beschriebenen Fall würde er sich dann halt über schlechte Performance => scheiss ATI - wundern). Und das alles für ein paar Texel wo sich selbst mancher BQ-Freak hier schon schwer tut, zu erkennen, worans fehlt.


=> Ergo: Ja ich würd umfangreichere Optionen auch begrüßen, aber ich weiss auch gleichzeitig, warum ATI die nicht anbietet -> und ja, das hat tatsächlich mit Bervormundung zu tun. Nur in Anbetracht des durchschnittlichen Einblicks in die Materie des Durchschnittsdaus ist die Bervormundung leider garnichtmal so ungerechtfertigt.

Außerdem beisst sich die Katze in den Schwanz. NV hat ihre Hybrid-AA Methodik (aufgrund von ROP-Einschränkungen beim MSAA bitteschön!) schon seit jeher im Treiber integriert, aber die jew. AA Modis in aktuellen Treiberpanels einfach deaktiviert.

ATi hätte einen (vielleicht sogar nur sehr geringen) Programmieraufwand, besseres AF freizuschalten, aber müsste sich (aufgrund der obenbeschriebenen Umstände), als gewinnorientierte Firma trotzdem hüten, die im Control Panel verfügbar zu machen. D.h. ATi müsste in der aktuellen Situation Arbeit = Zeit = Geld investieren um einen Regkey freizuschalten, der dann nur über externe unsupportete Tools aktivierbar wär. Dass sie das nicht machen wundert mich ehrlich gesagt nicht. Wünschen würd ichs mir natürlich trotzdem.



Ok, das waren keine echten Argumente, sondern lediglich Erklärungen, das die Wahl nicht eigeführt werden wird.

Ich schreib mir die Finger wund, und du bringst es mit ein paar Sätzen genauso auf den Punkt. ;)

LovesuckZ
2009-07-17, 15:44:56
Doch. Denn wenn ich 8xAA aktivier, dann erwarte ich auch 8 eigentlich ordentliche Muiltisamples. ATi hat mit ihrem SuperAA bei CF ähnlichen Mist verbockt. Da hat man auch 8xSAA einfach 10xSuperAA genannt, mit dem Ergebnis, dass in der letzten PCGH aufeinmal was von 10x10 EER bei dem Modus stand :rolleyes:


Seit wann bedeutet 8xAA auch 8 Colorsamples?
Ach und es wundert mich, dass der unbedachte User 8x Colorsamples erwartet, aber keine Probleme hat beim AF und AAA Abstriche hinzunehmen. Das ist wirklich ein sehr seltsamer Kunde :lol:

Coda
2009-07-17, 15:50:20
Doch. Denn wenn ich 8xAA aktivier, dann erwarte ich eigentlich auch 8 ordentliche Muiltisamples.
Wenn ich 16xAF aktivier, dann erwarte ich eigentlich auch 16 ordentliche Textur-Samples :rolleyes:

y33H@
2009-07-17, 15:53:42
Denn wenn ich 8xAA aktivier, dann erwarte ich eigentlich auch 8 ordentliche MuiltisamplesBei 8x MSAA erwarte ich 8x MSAA. 8x AA kann sonst was sein.

reunion
2009-07-17, 16:08:24
Bei 8x MSAA erwarte ich 8x MSAA. 8x AA kann sonst was sein.

16xAF kann auch "sonst was sein". Ob winkelabhängig oder bri, es ist trotzdem 16xAF. Der Vorteil bei NV ist das man als versierter Kunde solche Dinge umgehen kann.

LovesuckZ
2009-07-17, 16:10:13
Selbst bei 8xMSAA sind keine 8 Colorsamples als "vorhersehbar" einzustufen. Warum sollte man bei 8xMSAA auch 8 Colorsamples erwarten, wenn der Name nur aussagt, dass eine Vielzahl von Samples verwendet wird?

Gast
2009-07-17, 16:12:10
16xAF kann auch "sonst was sein". Ob winkelabhängig oder bri, es ist trotzdem 16xAF. Der Vorteil bei NV ist das man als versierter Kunde solche Dinge umgehen kann.
Und zum Dank für die Wahl wird Nvidia abegstraft, bzw AMD belohnt.

AMDs 16xAF könnte man auch auf 16xAF hochgeschummeltes 8xAF nennen.

Lawmachine79
2009-07-17, 16:12:15
Bei 8x MSAA erwarte ich 8x MSAA. 8x AA kann sonst was sein.
Fakt ist, daß man bei NV die Wahl hat. Punkt. Da steht auch 8x und nicht 8xMSAA. Da wird schon nichts vorgegaukelt.

reunion
2009-07-17, 16:18:21
Selbst bei 8xMSAA sind keine 8 Colorsamples als "vorhersehbar" einzustufen. Warum sollte man bei 8xMSAA auch 8 Colorsamples erwarten, wenn der Name nur aussagt, dass eine Vielzahl von Samples verwendet wird?

Weil es immer so war? Weil es sogar heute bei 2x und 4x noch so ist? Die Einstellungen sind nicht mal in sich homogen und damit natürlich eine bewusste Täuschung. Während man bei 2x und 4x noch volles MSAA bekommt, benötigt man bei 8x schon "Q" für volles MSAA, bei 16x ist selbst "Q" nur 8xMSAA plus 8xCSAA. Wenn man es weiß kann es einem egal sein klar, aber das ist hier nicht der Punkt.

Gast
2009-07-17, 16:18:36
Das ganze ist eh nur vorgeschoben um abzulenken.

"oh alle drücken auf 8x und werden beschissen, weil sie glauben 8xMSAA zu bekommen, aber in Wirklichkeit nur 8xCSAA bekommen, den Schalter daneben, 8xQ ignorieren wir mal"
Die Tester die blind irgendwelche Schalter betätigen sind sowieso im falschen Film, deren Unwissenheit kann man nicht Nvidia anlasten.

Im nächsten Augenblick ist wieder selbstverständlich das mit 16xAF eigentlich aufgeblasenes 8xAF gemeint ist und mit AAA die große Überraschungsparty steigt.

Gast
2009-07-17, 16:21:46
Die Einstellungen sind nicht mal in sich homogen und damit natürlich eine bewusste Täuschung.
Du gehts erstklassig zu Werk.

"Bewusste Täuschung"

Solche Punkte stellst du bei AMD immer gut hin, bzw jetzt hast du es endlich soweit, das nur noch die argliste 8xQ Täuschung diskutiert wird.

LovesuckZ
2009-07-17, 16:29:16
Weil es immer so war?

Zu welcher Zeit? Es gab früher SSAA, dann entstand daneben MSAA und seit fast drei Jahren gibt es auch CSAA. Ich würde ja bei 8xMSAA auch auf 8 Textursamples hoffen, aber die gibt es komischerweise nicht. :(


Weil es sogar heute bei 2x und 4x noch so ist?

Tegra bietet 5xCSAA mit 2C und 3 zusätzlichen C Samples an.

/edit: bei 4xMSAA ist es eben heute nichtmehr so - nVidia bietet mit 8xCSAA und 16xCSAA zwei Modi an, die jeweils nur Color-Samples verwenden.

Die Einstellungen sind nicht mal in sich homogen und damit natürlich eine bewusste Täuschung. Während man bei 2x und 4x noch volles MSAA bekommt, benötigt man bei 8x schon "Q" für volles MSAA, bei 16x ist selbst "Q" nur 8xMSAA plus 8xCSAA. Wenn man es weiß kann es einem egal sein klar, aber das ist hier nicht der Punkt.

"Bewusste Täuschung"? Schon interessant, gibt nVidia doch im Control-Panel nur "Anti-Aliasing" an. ;D
Es ist weiterhin vollwertiges MSAA - es verwendet weiterhin nur XxColor wie Coverage Samples sowie ein Textursample.

reunion
2009-07-17, 16:29:45
Du gehts erstklassig zu Werk.

"Bewusste Täuschung"

Solche Punkte stellst du bei AMD immer gut hin, bzw jetzt hast du es endlich soweit, das nur noch die argliste 8xQ Täuschung diskutiert wird.

Ich bin mir sicher du und andere fangen hier eh bald wieder an (wie mittlerweile in jedem Thread) übers AF herzuziehen. Also keine Angst. :)

Gast
2009-07-17, 16:31:52
Ich bin mir sicher du und andere fangen hier eh bald wieder an (wie mittlerweile in jedem Thread) übers AF herzuziehen. Also keine Angst. :)
Du wiederrum wirst dort wieder alles zum guten drehen, ungereimtheiten beim AF, dem AA oder der profilverwaltung sind keine "bewusste Täuschung" sonder voll in Ordnung. :)

Lawmachine79
2009-07-17, 16:32:46
Ich bin mir sicher du und andere fangen hier eh bald wieder an (wie mittlerweile in jedem Thread) übers AF herzuziehen. Also keine Angst. :)
Also wird man bei "8xS" positiv beschissen? Man denkt, man bekommt nur Kantenglättung und kriegt gleich noch Texturglättung hinterhergeschmissen?

Mr. Lolman
2009-07-17, 16:54:57
Seit wann bedeutet 8xAA auch 8 Colorsamples?
Ach und es wundert mich, dass der unbedachte User 8x Colorsamples erwartet, aber keine Probleme hat beim AF und AAA Abstriche hinzunehmen. Das ist wirklich ein sehr seltsamer Kunde :lol:

Was für Abstriche beim AAA? TRSSAA(A) ist garnichtmal so toll. Merkt man auch, wenn man die Vergleichsbilder in der letzten PCGH ansieht.

Aber was antwort ich überhaupt darauf. Offensichtlich hast du meinen letzten Beitrag entweder nicht ordentlich gelesen, oder nicht verstanden. Bei letzterem erklär ichs dir gerne, wenn du fragst, was du wissen willst.

Und 8xAA beudeutet natürlich 8x Colorsamples. Oder bezeichnest du auch Quincunx AA als 5xAA, weil man insgesamt 5 Samples miteinander verblurrt? Ordentliches 8xAA hat ne 8x8EER. Für NVs 8xCSAA gilt das nicht, weil es nur 4 Colorsamples hat und außerdem je nach Content zu Dithering neigt.

Wenn ich 16xAF aktivier, dann erwarte ich eigentlich auch 16 ordentliche Textur-Samples :rolleyes:

Du hast absolut recht. Mokiert man sich über das eine, darf einem das andere natürlich auch nicht egal sein. ;)

Also wird man bei "8xS" positiv beschissen? Man denkt, man bekommt nur Kantenglättung und kriegt gleich noch Texturglättung hinterhergeschmissen?

Nö, das 'S' zeigt an, dass man Supersampling bekommt. Außerdem würde man auch sonst nicht beschissen werden, weil NV den Modus offiziell garnicht anbietet ;)

Coda
2009-07-17, 21:10:29
Du hast absolut recht. Mokiert man sich über das eine, darf einem das andere natürlich auch nicht egal sein. ;)
Richtig. Mit dem Unterschied, dass man beim AA wirklich ohne weiteres die Wahl hat.

LovesuckZ
2009-07-17, 21:17:44
Und 8xAA beudeutet natürlich 8x Colorsamples. Oder bezeichnest du auch Quincunx AA als 5xAA, weil man insgesamt 5 Samples miteinander verblurrt? Ordentliches 8xAA hat ne 8x8EER. Für NVs 8xCSAA gilt das nicht, weil es nur 4 Colorsamples hat und außerdem je nach Content zu Dithering neigt.

Wo sind die Textursamples? Wieso sollte "AA" nur aus Color und Coverage Samples bestehen? Ne du, wenn du von AA redest, dann natürlich vom vollen Programm. Selbst MSAA ist kein beschreibendes Wort, wie "AA" auszusehen habe.

Gast
2009-07-17, 22:22:55
Doch, die Balkenlänge.

AMD hätte nur Nachteile wenn manch einer mit HQ AF oder SSAAA benchen würde.
Man sieht ja, wohin das führt. Früher gab's 4xS-FSAA im Nvidia-Treiber offiziell, dann wurde u.a. hier vergleichende Benchmarks gegen 6xMSAA (beste qualitöt hüben wie drüben) gemacht, wo nvidia noch mehr abstank.

Was gibt's heute? Kein xS-AA im Treibermenü.

Gast
2009-07-17, 22:27:20
... und damit natürlich eine bewusste Täuschung. Während man bei 2x und 4x noch volles MSAA bekommt, benötigt man bei 8x schon "Q" für volles MSAA, bei 16x ist selbst "Q" nur 8xMSAA plus 8xCSAA.
Wieviel "echte" Samples nutzt 16x FSAA bei Ati denn noch gleich? Selektive Wahrnehmung FTW

Gast
2009-07-17, 22:28:05
Du hast schon recht. Von der Nutzerseite spricht echt nicht viel dagegen. ATi verfolgt aber das Prinzip dem unbedachtem User möglichst ein gutes Verhältnis zw BQ und Performance zu ermöglichen.
Der unbedarfte Nutzer wird wohl nicht die Experteneinstellungen beim CCC wählen, sofern er das überhaupt mal aufmacht.

Gast
2009-07-17, 22:33:33
Ordentliches 8xAA hat ne 8x8EER. Für NVs 8xCSAA gilt das nicht, weil es nur 4 Colorsamples hat und außerdem je nach Content zu Dithering neigt.
Mal abgesehen, dass CSAA Schmutz ist, verwendet ordentliches 8xAA 8 Samples - ja. Die EER ist eine Implementationsdetail, was man ordentlich machen oder versauen kann, ändert aber am 8xAA nicht.

Lawmachine79
2009-07-17, 22:34:11
Der unbedarfte Nutzer wird wohl nicht die Experteneinstellungen beim CCC wählen, sofern er das überhaupt mal aufmacht.
Der unbedarfte Nutzer kauft aber keine 150€ Grafikkarte.

Gast
2009-07-17, 23:00:29
Der unbedarfte Nutzer kauft aber keine 150€ Grafikkarte.
Da kenn ich aber genug...

=Floi=
2009-07-18, 00:21:36
zitat
Und soferns problemlos klappt, nutzt ATi ja auch MSAAA. Erst bei Kompatibilitätsproblemen wird auf SSAAA ausgewichen.

wenn ich maximale bq will, dann will ich das auch so einstellen. was nützt mir die schnellste grafikkarte, wenn ich unnötig viel fps habe, aber eine miserable bq? das ist doch eher ein witz. du kommst ja auch nicht auf die idee bei uralten sachen aa und af auszuschalten. :rolleyes:

man könnte noch immer ein fenster vorschalten die den user warnt und wenn er es einschalten kann, dann sollte er es auch wieder ausschalten können. es geht da auch ums prinzip und der weg von ati ist nicht richtig. darüber gibt es gar keine diskussion, weil es einfach nur schlecht ist.

Mr. Lolman
2009-07-19, 10:10:11
Wo sind die Textursamples? Wieso sollte "AA" nur aus Color und Coverage Samples bestehen? Ne du, wenn du von AA redest, dann natürlich vom vollen Programm. Selbst MSAA ist kein beschreibendes Wort, wie "AA" auszusehen habe.

Du hast recht. In der Hinsicht ist MSAA auch eine Art BQ-Cheat. Die IHVs achten halt darauf, möglichst günstig, bei möglichst hohen fps, eine im Schnitt noch gute BQ anzubieten. Für ordentliches 64xAF und schönes 8xSGSSAA müssten GraKas ca 10x leistungsfähiger sein als jetzt.

Richtig. Mit dem Unterschied, dass man beim AA wirklich ohne weiteres die Wahl hat.

Stimmt.


wenn ich maximale bq will, dann will ich das auch so einstellen. was nützt mir die schnellste grafikkarte, wenn ich unnötig viel fps habe, aber eine miserable bq? das ist doch eher ein witz. du kommst ja auch nicht auf die idee bei uralten sachen aa und af auszuschalten. :rolleyes:

man könnte noch immer ein fenster vorschalten die den user warnt und wenn er es einschalten kann, dann sollte er es auch wieder ausschalten können. es geht da auch ums prinzip und der weg von ati ist nicht richtig. darüber gibt es gar keine diskussion, weil es einfach nur schlecht ist.

Offensichtlich hast du mein Post, aus dem zu zitierst nicht zuende gelesen. Hol das bitte nach.

Captain Future
2009-07-19, 12:25:02
Für ordentliches 64xAF und schönes 8xSGSSAA müssten GraKas ca 10x leistungsfähiger sein als jetzt.

Auch 2014 wird das nicht passieren. Balkenlänge bleibt nunmal King.

Mr. Lolman
2009-07-19, 14:57:48
Auch 2014 wird das nicht passieren. Balkenlänge bleibt nunmal King.

Eh nicht. Denn selbst wenn die HW 10x schneller ist, gibts sicher schon die passende SW dafür, die die Peformance auch benötigt und dementsprechend keinen Platz für nette Spielerein wie 64xAF und 8xSGSSAA übrig lässt.

Captain Future
2009-07-19, 16:16:07
Aber wie du aus der aktuellen Diskussion hier siehst, halten es die Hersteller nichtmal für nötig, diese Möglichkeit für ältere Spiele als Option in petto zu haben*. Ati gar nicht und nVidia nur durch abskure Tools, die in meiner Registry rumfuhrwerken.


*Und das ist das wirklich traurige. Alte Perlen könnten SO GEIL aussehen, wenn die nicht Angst um ihre Scheiß-Crysis-Balken hätten.

Gast
2009-07-19, 17:44:58
nVidia nur durch abskure Tools, die in meiner Registry rumfuhrwerken.
Die abskuren Tools fuhrwerken dort rum, wo auch der Treiber fuhrwerkt.

Ich kann damit gut leben, ich hätte nur gern mehr Möglichkeiten.
Wenns schon kein SGSSAA gibt, dann wenigstens mehr als 4x4OG und bitte auch gleich mehr Hybride, nicht nur 2x1+MS und 2x2+MS.

Für ordentliches 64xAF und schönes 8xSGSSAA müssten GraKas ca 10x leistungsfähiger sein als jetzt.Für ordentliches 16xAF reichte die Performance bereits vor 2,5 Jahren, nennt sich 8800 GTX.
wär doch mal Zeit wenigstens die einzuführen.

Captain Future
2009-07-19, 17:50:12
Die abskuren Tools fuhrwerken dort rum, wo auch der Treiber fuhrwerkt.

Da hab ich aber schon anderes gehört. Aber gut, wenn es inzwischen (?) funktioniert, dann lass ich mich gern eines beseren belerren.

Lawmachine79
2009-07-19, 18:02:08
Für ordentliches 16xAF reichte die Performance bereits vor 2,5 Jahren, nennt sich 8800 GTX.
wär doch mal Zeit wenigstens die einzuführen.
Naja, nicht mal die HD4890 hat die Texelfüllrate der 8800GTX.

Gast
2009-07-19, 18:20:19
Naja, nicht mal die HD4890 hat die Texelfüllrate der 8800GTX.
Das ist eine Gegebenheit seitens AMD, keine Notwendigkeit.

Zusätzliche 278 Mio Transistoren + 2,5 Jahre = 80% einer 8800 GTX

Was soll das?

Lawmachine79
2009-07-19, 18:51:30
Das ist eine Gegebenheit seitens AMD, keine Notwendigkeit.

Zusätzliche 278 Mio Transistoren + 2,5 Jahre = 80% einer 8800 GTX

Was soll das?
Das war kein Vorwurf meinerseits - wenn man die rohe Rechenleistung nimmt, sieht es genau andersherum aus - jedoch hat NV keine Maßnahmen ergriffen, um den Einfluß der geringeren Rechenleistung zu verstecken.

Mr. Lolman
2009-07-19, 18:52:41
jedoch hat NV keine Maßnahmen ergriffen, um den Einfluß der geringeren Rechenleistung zu verstecken.

Na sicher. CSAA zB. ;)

Oder meinst du Shaderleistung? Da frag ich mich aber, wie solche Maßnahmen ausgesehen hätten.

LovesuckZ
2009-07-19, 18:54:59
CSAA ist eine optionale Möglichkeit für den Benutzer - ohne, dass er auf richtiges MSAA verzichten müsste. Das war also nichtmal als Spaß zu gebrauchen.

Lawmachine79
2009-07-19, 18:57:03
Na sicher. CSAA zB. ;)

Oder meinst du Shaderleistung? Da frag ich mich aber, wie solche Maßnahmen ausgesehen hätten.
Rechenleistung=Shaderleistung. Du meinst ROP-Leistung?
Und die ROP-Leistung wird nicht "versteckt" - 8xMSAA ist wählbar; CSAA ist eine Option. Wie es andersherum bei ATI aussieht, weißt Du ja - LQAF ist keine Option, sondern Pflicht.
Und in der Tat kann man geringere Shaderleistung schwer verstecken. In diesem Detailgrad wandel ich im Dunkeln, könnte man z.B. die Präzision der Berechnungen senken, ohne daß es groß auffällt? Oder ist man dann nicht mehr DX10-kompatibel?

y33H@
2009-07-19, 19:00:19
Die theoretische GFLOPS-Rohleistung ist geringer, in der Praxis siehts etwas anders aus. 5-Vecs lastet man nicht mal ebenso zu 100% aus.

reunion
2009-07-19, 19:05:12
jedoch hat NV keine Maßnahmen ergriffen, um den Einfluß der geringeren Rechenleistung zu verstecken.

Das ist auch gar nicht möglich.

y33H@
2009-07-19, 19:06:04
Und auch nicht notwendig (aktuell).

reunion
2009-07-19, 19:07:20
Und in der Tat kann man geringere Shaderleistung schwer verstecken. In diesem Detailgrad wandel ich im Dunkeln, könnte man z.B. die Präzision der Berechnungen senken, ohne daß es groß auffällt? Oder ist man dann nicht mehr DX10-kompatibel?

G80 hat FP32-Einheiten. Weniger Präzision wäre nicht schneller und außerdem natürlich nicht DX10 konform.

reunion
2009-07-19, 19:08:24
Die theoretische GFLOPS-Rohleistung ist geringer, in der Praxis siehts etwas anders aus. 5-Vecs lastet man nicht mal ebenso zu 100% aus.

Auch in der Praxis liegt die arithmetische Rechenleistung selbst einer 4870 über jeder aktuellen NV-Karte.

y33H@
2009-07-19, 19:10:58
Isoliert, ja [außer 295 iirc]. Nur wo bringt das einen Vorteil?

reunion
2009-07-19, 19:14:51
Isoliert, ja [außer 295 iirc]. Nur wo bringt das einen Vorteil?

Überall. Sonst wäre eine 4870 nicht so schnell wie eine GTX260 oder eine 4890 wie eine GTX275. Denn alles andere ist klar unterlegen.

y33H@
2009-07-19, 19:21:32
Es gibt genügend Titel die schei0en auf FLOPS und wollen Füllrate - etwa die Source- oder WoW-Engine. Überall ist zu pauschalisierend.

Captain Future
2009-07-19, 19:26:31
G80 hat FP32-Einheiten. Weniger Präzision wäre nicht schneller und außerdem natürlich nicht DX10 konform.
G80 hat nur wenig mehr als 10 Temp-Register. Wenn die limitieren, was wohl des öfteren vorkommt, weil mans sonst beim GT200 nicht geändert hätte, kann das Ausweichen auf FP16 und entsprechend schmale Register wohl schon was bringen.

Coda
2009-07-19, 20:25:31
G80 und später können kein FP16 mehr.

Temp-Mangel hat NVIDIA aber in der Tat heftiger, weil die Architektur mehr Threads In-Flights braucht, da eine Instruction weniger "Arbeit" verrichtet.

LovesuckZ
2009-07-21, 20:37:27
Theo Valich zu PhysX:

But, will consumers disable GPU PhysX? The answer to that is "no". Users that will spend couple of thousand dollars on a notebook aren't "Excel Bob" and "Powerpoint Suzy", but rather power users who want to get what they paid for. GPU PhysX is just another member of the pack, and the fact that competition didn't support developers well enough with their Physics API is their problem alone.
http://www.brightsideofnews.com/news/2009/7/15/how-asus-notebook-snafu-caused-a-war-of-words-between-amd-and-nvidia.aspx

Steht im Kontext bezüglich Alienware GTX280m SLI und dem Asus Book mit einer 4870x2.
Aber lässt sich natürlich auf den Desktop übertragen.