PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia GeForce 7900 GT/GTX Review


Leonidas
2006-09-14, 20:22:37
Link:
http://www.3dcenter.org/artikel/geforce_7900/


Gleich vor ab eine Entschuldigung: Der Artikel kommt meilenweit zu spät. Aller Ärger darüber kann an mir ausgelassen werden, denn an Madkiller lag es nicht - allein ich hab es nicht auf die Reihe bekommen. Nichts desto trotz hab ich ihn trotzdem dann doch noch fertigbekommen und hab nun endlich Zeit und Nerven, mich anderen liegengelassenen Dingen der letzten Zeit zu widmen.

deekey777
2006-09-14, 20:49:24
Auf den ersten Blick wird hier schon klar, daß nVidias default-Modus nicht mit ATIs default-Modus vergleichbar ist: Während dieser bei ATI auf einen trilinearen Grundfilter inklusive einer doch schon anständig zu nennenden Gesamtqualität setzt, bekommt man bei nVidia hier nur einen brilinearen Grundfilter samt mehrerer mittelschwerer bos gravierender Filter-"Optimierungen". Diese lassen sich zwar teilweise abschalten, aber dann passt natürlich die Performance wie auch die Bildqualität nicht mehr zum "Quality"-Modus, sondern es geht dann schon in Richtung des "High Quality" Modus
Der erste Fehler, den mein Gehirn nicht weggeblendet hat.:)

nVidia: Quality vs., High Quality

Leonidas
2006-09-14, 20:56:52
Schnell mal gefixt.

AtTheDriveIn
2006-09-14, 21:03:54
Seite 17

"Hier fließt natürlich auch mit ein, daß die Radeon X1900 XTX derzeit gar das geringfügig bessere Angebot bezüglich des Preises macht: Die Karte ist derzeit ab Euro zu haben, während die GeForce 7900 GTX erst ab Euro zu bekommen ist. Möglicherweise mag diese Preissituation aber auch damit zusammenhängen, daß ATI vor kurzem die Preise der bisherigen HighEnd-Grafikkarten erheblich gesenkt hat, um Platz für die Radeon X1950 XTX zu schaffen."

Aber wieviel Euro denn nun? Da hat wohl jemand vergessen die Preise in die freigelassenen Stellen zu schreiben. ;)

Leonidas
2006-09-14, 21:13:46
Oh, Übertrag vergessen. Gefixt.

Mike1
2006-09-14, 22:08:06
nice!(y)
hab´s aber jetzt nur überflogen
das ihr das mit ATI vs Nvidia Filterqualität auch mal genau untersucht habt find ich doll=)
weil zb. im PCGH steht ja nie was drüber:mad:

Gast
2006-09-14, 22:31:55
Wow, Catalyst 6.1 für R520 und Catalyst 6.2 Beta für R580. Das ist echt schade. Ich hatte gehofft, einen ausführlichen Vergleich "256 MiB vs. 512 MiB" mit aktuellen Treibern zu finden, wo doch seit dem Catalyst 6.8 der Speichercontroller der 256 MiB-Modelle des R520 / R580 erheblich verbessert wurde.

deekey777
2006-09-14, 23:04:52
Wow, Catalyst 6.1 für R520 und Catalyst 6.2 Beta für R580. Das ist echt schade. Ich hatte gehofft, einen ausführlichen Vergleich "256 MiB vs. 512 MiB" mit aktuellen Treibern zu finden, wo doch seit dem Catalyst 6.8 der Speichercontroller der 256 MiB-Modelle des R520 / R580 erheblich verbessert wurde.
Link:
http://www.3dcenter.org/artikel/geforce_7900/


Gleich vor ab eine Entschuldigung: Der Artikel kommt meilenweit zu spät. Aller Ärger darüber kann an mir ausgelassen werden, denn an Madkiller lag es nicht - allein ich hab es nicht auf die Reihe bekommen. Nichts desto trotz hab ich ihn trotzdem dann doch noch fertigbekommen und hab nun endlich Zeit und Nerven, mich anderen liegengelassenen Dingen der letzten Zeit zu widmen.
Das Review ist aaaalllltttt.

Nerothos
2006-09-14, 23:05:09
Wow, Catalyst 6.1 für R520 und Catalyst 6.2 Beta für R580. Das ist echt schade. Ich hatte gehofft, einen ausführlichen Vergleich "256 MiB vs. 512 MiB" mit aktuellen Treibern zu finden, wo doch seit dem Catalyst 6.8 der Speichercontroller der 256 MiB-Modelle des R520 / R580 erheblich verbessert wurde.
Und darum soll man alle Tests nochmal fahren? :|
Wann soll denn der Artikel dann deiner Meinung nach fertig sein?


@Artikel:
Nett, vor allem die Bildqualitätsvergleiche gefallen mir :)

|MatMan|
2006-09-14, 23:44:28
guter Artikel.

Im Fazit vermisse ich nur, dass auf Stromverbrauch und damit
auf die Wärme- & Geräuschentwicklung eingegangen worden wäre. Die X1900 XTX verbraucht ja laut Messung unter 3D schlappe 50% mehr als die 7900 GTX. Wie macht sich das in der Praxis bemerkbar? Was ich bisher gehört habe ist der X1900 Kühler ohnehin nicht gerade der leiseste...
Für mich wäre Lautstärke und Wärmeentwicklung der Karte (-> Zuverlässigkeit, besonders im Sommer) jedenfalls ein Argument mich bei fast gleicher Performance evtl. eher für die 7900 GTX zu entscheiden.

123456
2006-09-14, 23:50:26
Und darum soll man alle Tests nochmal fahren? :|
Wann soll denn der Artikel dann deiner Meinung nach fertig sein?

Hab ich gar nicht gesagt. Als ich auf der Hauptseite gesehen habe, dass es einen neuen Graka-Artikel gibt, hatte ich nur erst innerlich darauf gehofft. Ich konnt ja nun nicht vorher wissen, dass das Ding so alt ist.

deekey777
2006-09-14, 23:52:19
@Artikel:
Nett, vor allem die Bildqualitätsvergleiche gefallen mir :)

Wenn das Transparenz-AA angesprochen wird, wären die entsprechenden Screenshots mit DX9FSAAViewer nicht verkehrt.

Nerothos
2006-09-15, 00:17:25
Hab ich gar nicht gesagt. Als ich auf der Hauptseite gesehen habe, dass es einen neuen Graka-Artikel gibt, hatte ich nur erst innerlich darauf gehofft. Ich konnt ja nun nicht vorher wissen, dass das Ding so alt ist.
Der erste Satz von dir klang halt etwas vorwurfsvoll ;)

Wenn das Transparenz-AA angesprochen wird, wären die entsprechenden Screenshots mit DX9FSAAViewer nicht verkehrt.
Sicher, aber wenigstens werden in diesem Artikel ein paar Worte zu TAA und AAA verloren. Das ist - wenn man sich mal andere Artikel im Netz anschaut - nicht selbstverständlich...

123456
2006-09-15, 00:24:10
Der erste Satz von dir klang halt etwas vorwurfsvoll ;)

Ach wo. Ich habe doch gar keinen Artikel erwartet, wieso sollte ich also jemandem etwas vorwerfen? :)

Mr. Lolman
2006-09-15, 00:46:14
Schönes, interessantes Review. Schade, dass ihr keine Screenshots, von den einzelnen getesteten Spielen eingebaut habt. (ATi vs. NV)

BTW: Die Links zu den Area-AF Screenshots sind kaputt...

Wolfram
2006-09-15, 01:20:12
In Sachen 256 vs. 512 MB habe ich auch hier den Eindruck, daß es ein ATi-spezifisches Problem gibt. Unter "Vergleich mit der vorhergehenden Generation" schneidet die X800XT-PE im Vergleich zur 6800U in den texturlastigen Spielen CoD2 und Q4 für die Rohleistung der Karte viel zu schwach ab.

Das wird im Artikel auf das Alter der Karte zurückgeführt. Der 512 vs. 256MB-Vergleich im Test führt nicht weiter, weil da ATi nicht dabei ist. Der Gast hat oben schon angemerkt, daß es mit dem Cat 6.8 diese merkwürdige Verbesserung bei 256MB-ATis gab.

Nach meinem Eindruck hat meine X1800XT 256MB in CoD2, FEAR und Oblivion mit dem Cat 6.8 erst die Performance erreicht, die sich nach den gängigen Benchmarkergebnissen schon immer haben sollte. In allen drei- sehr texturlastigen- Spielen gab und gibt es zT immer noch Performanceanomalien, die den Benchmarkergebnissen nicht zu entnehmen sind und die sich scheinbar auch nicht in Benchmarkergebnissen niederschlagen. Das würde IMO mal eine weitere Betrachtung verdienen.

Banshee18
2006-09-15, 02:52:50
Wie immer sehr schöner Artikel, aber wirklich viiiiieeeeeel zu spät. Ich würde mich sehr freuen, wenn solche Artikel sehr viel früher erscheinen würden, denn sie sind zu schade, um sie durch zu spätes Erscheinen so uninteressant zu machen.

Etwas wundert mich ein wenig:
Radeon X1800 XT (R520, 512 MB, 625/750 MHz):
FFP - Z pixel rate - 9567.481445M pixels/sec

Radeon X1900 XTX @ X1800 XT (R580, 512 MB, 625/750 MHz):
FFP - Z pixel rate - 7365.778320M pixels/sec

:uponder:

Rumbah
2006-09-15, 02:58:50
Seit dem Cat. 6.6 hat sich der anisotrope Filter geändert, daher sollten die "Anisotroper Filter auf ATIs Radeon X1x00 Serie" Bilder aktualisiert werden. Ist zwar nur minimal, aber der Unterschied ist zumindest im AF Tester sichtbar.

Simon
2006-09-15, 08:56:56
Seite 6, NFS:MW Vergleich (letzter Satz in dem Absatz): "Worcase-Savegame"

Schade, dass ihr nicht noch höhere Auflösungen (2560 x 1600 (WQXGA) für 30" Displays) getestet habt. Ging das technisch nicht oder reichten euch die Auflösungen bis 2048x1536? =)

Seite 7, dritter Absatz: "Um auch unter diesen Auflösungen noch spielbare Frameraten garantieren zu können, haben uns dafür entschieden," - da fehlt ein "wir"

Seite 8, zweiter Absatz, letzter Satz: "Dieser eigentlich unfaire Vergleich bezieht seine Berechtigung als mehrheitlich aus der Praxis beim Endanwender, sicherlich kaum aus einer (nicht vorhandenen) Vergleichbarkeit dieser Modi." - Fehlt da ein 'o'?

Seite 8, letzter Absatz, erster Satz: "Performnace"

Seite 9, letzter Absatz: "(unter diesen bis maximal zur Auflösung von 1280x1024 reichtende Tests)"

Seite 10, vorletzter Absatz: "keine Nebenbeiher-Features, die man bedenkenlos aktivieren kann " - "Nebenbayer" vielleicht? :confused: ;D

Seite 11, erster Absatz, letzter Satz: "einen winkel-unabängigen anisotropen Filter." - Da fehlt ein 'h'

Seite 14, NFS:MW Test: "Unter Need for Speed: Most Wanted ergibt selbst das hier alleinig ausgemessene Worstcase-Savegame keinerlei beachtenswerte - in beiden Tess" - Da fehlt ein 't'

Seite 17, erster Satz: "Im seinerzeitigen Review der Radeon X1900 XT/XTX Karten konnte noch recht eindeutig das seinerzeitige ATI-Topmodell" - Da ist eine Wiederholung mit sehr kurzem Abstand. Vielleicht das markierte Wort durch "damalige" ersetzen?

Seite 17, erster Absatz: "Mit primär günstigeren Taktraten ausgestattet, bittet diese Karte die Radeon X1900 XTX erneut zum Tanz." - Das klingt ... doof. Die Taktraten sind ja höher, warum also das nicht so schreiben?

Seite 17, erster Detailpunkt bei den Vorteilen: "Bei der allgemeinen Performance wie auch bei den Messungen unter den superhohen Auflösungen liegen Radeon X1900 XTX und GeForce 7900 GTX generell irgendwie gleichauf bzw. schwanken die Ergebnisse je nach Spiel." - (sehr) schlechter Ausdruck

Seite 17, vierter Detailpunkt bei den Vorteilen: "Und letztlich ermöglicht eben derzeit nur ATI Anti-Aliasing auch unter HDR-Rendering (selbst wenn es in Ausnahmen auch bei nVidia funktioniert)" - funktioniert auch nur unter D3D bei ATI. OpenGL nicht. Auch wenn das wohl für die meisten Spieler egal sein dürfte...

Seite 17, fünfter Absatz: " nVidia muß dies aktuell mit entweder dem besserem Preis oder der besserem Performance kontern" - Müßte so lauten: "Nvidia muss dies aktuell entweder mit dem besserem Preis oder der besseren Performance kontern" (ok, bei dem "muss" bin ich mir nicht ganz sicher ;) )

Seite 17, fünfter Absatz: " Bei einem Performance-Gleichstand wäre aber derzeit in jedem Fall ATI die Grafikkarte unserer Wahl." - Schlechter Ausdruck: "ATI" ist keine Grafikkarte, sondern stellt welche her ;)

Seite 17, erster Punkte der zweiten Liste: "Nichts desto trotz reichen die verwendeten HighEnd-Grafikkarte von ATI und nVidia noch aus" - da fehlt ein 'n'

Seite 17, zweiter Punkt: "Die heutigen HighEnd-Grafikkarten sind (im Gegensatz zu manchen früheren Versuchen) absolut in der Lage, superhohe Auflösungen mit noch anständigen Frameraten fahren zu können." - Ich würde an der ersten Stelle "Generationen" schreibe und bei der zweiten Stelle die beiden Wörter vertauschen.

Seite 17, letzter Punkt: "Dafür kostete ATIs Area-AF mit rund 5 und nVidias "High Quality" Modus mit rund 10 Prozent einigermaßen weniger Performance, " - Das marktierte Wort würde ich streichen.

Seite 17, der folgende Absatz: "Insbesondere letzterer Punkt verdient nochmal eine gesondere Betrachtung, hängt dieser dort stark mit der von uns angesetzten Meßmethode mittels Savegames zusammen" - da fehlt ein 't' an der ersten Stelle. An die zweite Stelle müßte stattdessen "doch", oder?

Seite 17, drittletzter Absatz: "Wenn Filteroptimierungen so richtig nur in Timedemos, jedoch nicht in der realtitätsnahen Szenarik eines Savegames zum tragen kommen" - Es gibt kein "Szenarik" im Deutschen, aber "Szenarios". Bei der zweiten Stelle müßte "Tragen" großgeschrieben werden, oder?

Den dritt- und vorletzten Absatz würde ich riesengroß und fett machen ;)

Ich hoffe, ihr seid mir jetzt nicht böse wegen den vielen Sachen, die ich aufgelistet habe? ;(

Alles in allem finde ich den Artikel sehr, sehr gut. Mehr kann ich dazu gar nicht sagen, ihr seid einfach die Besten :up: Nur leider etwas spät der Artikel.
Mhm, jetzt ist mir doch noch was eingefallen: Warum verliert ihr kein Wort zur Treiber-"Qualität" (weiß nicht, wie ich es sonst beschreiben soll)? Mir geht es dabei nicht um die Qualität vom CCC oder Nvidia CP, sondern um die Features der Treiber: All die tollen Sachen (R2VB, AAA, Fetch4, etc.) der ATI X1k-Karten gibt es ausschließlich für den Direct3D-Teil des Treibers. Für den OpenGL-Part gibt es rein gar nix, obwohl offensichtlich machbar! Von den langsamen und teilweise instabilen Linux-Treibern abgesehen. Bei Nvidia gibt es genauso Punkte zu bemängeln (Einstellen der bestmöglichen Qualität und mangelnder SLI-Support für Nicht-Windows-Systeme). Dass ihr die Linux-Sachen nicht ansprecht, kann ich ja noch verstehen. Aber die anderen Sachen sollten wenigstens in einem Nebensatz erwähnt werden! ;)

Al-CAlifAX
2006-09-15, 10:32:04
Bin ich blind oder wurde der Stromverbrauch bet mit gemessen? Sorry aber in der heutigen Zeit nur FPS und Bildquali zu vergleichen ohne auf den Stromverbrauch einzugehen. In FPS liegen beide relativ gleich, wenn man net auf zu starkes AA geht. Und für mich war der Kaufgrund einer Nvidia eindeutig der niedriegere Stromverbrauch. Sowas sollte heutzutage in ein Preview mit einfliessen. Es ist nunmal ein Unteschied ob ich ende des jahres 20-50 Euro mehr bezahle an strom :P

Wobei ich sagen muss, ich habe mich damals für die CALIBRE (eine wesentlich höher getaktete 7900GT mit 512 Mb Ram) entscheiden mit 590/1400. Die ja nun ein Revival hat als 7950GT ;)

Wolfram
2006-09-15, 10:53:42
Bin ich blind oder wurde der Stromverbrauch bet mit gemessen? Sorry aber in der heutigen Zeit nur FPS und Bildquali zu vergleichen ohne auf den Stromverbrauch einzugehen. In FPS liegen beide relativ gleich, wenn man net auf zu starkes AA geht. Und für mich war der Kaufgrund einer Nvidia eindeutig der niedriegere Stromverbrauch. Sowas sollte heutzutage in ein Preview mit einfliessen. Es ist nunmal ein Unteschied ob ich ende des jahres 20-50 Euro mehr bezahle an strom :P

Stromverbrauchsmessungen gibt es im Netz zur Genüge, wie genau die sind, wäre die andere Frage. Daß unterm Strich die ATis mehr verbrauchen scheint jedenfalls deutlich zu sein.

FPS-Messungen wie hier gibt es aber NICHT genügend. Worstcase-Savegames statt Timedemos mit geringer Aussagekraft, TAA/AAA mal ordentlich durchgemessen, nV Q vs. HQ, ATis AF im Detail- das sind genau die interessanten Sachen, die sonst fehlen.

Was ich nur immer noch gerne hätte: Frameratenverläufe wie bei HardOCP.

PS zu den Stromkosten: Wenn eine Graka 50W mehr verbraucht als die andere und eine kWh 20 Cent kostet, dann kostet die Karte pro Stunde 1 Cent mehr als die andere. Das heißt, Du mußt, um auch nur auf die 20 Euro pro Jahr zu kommen, pro Woche die Karte rund 40 Stunden nutzen.

Um auf 50 Watt Differenz zu kommen, mußt Du aber entweder a) die 40 Stunden pro Woche spielen und damit die Karte im 3D-Betrieb halten oder b) eine High-End mit einer Midrange-Karte vergleichen. Bei fairem Vergleich sind es laut Computerbase und X-bit eher 30 Watt. Also eher etwas mehr als 10 Euro pro Jahr. Bei Grafikkarten, die ein paar hundert Euro kosten und bei denen Du auch im besten Fall sicher 10 Euro pro Monat allein für die Karte ausgibst, sollte also der Stromverbrauch in finanzieller Sicht Deine kleinere Sorge sein.

Kladderadatsch
2006-09-15, 11:53:20
sehr schön, endlich mal wieder ein artikel, der stoff für 3 weitere beinhaltet=)

der vergleich 512mb gegen 256mb vram ist wirklich sehr verwunderlich. aber ist nicht davon auszugehen, dass die differenzen mit dem mehrtakt steigen würden, d.h., der unterschied bei einer höher getakteten karte deutlicher wird?

ChainSOV
2006-09-15, 13:56:46
es waehre eher verwunderlich, wenn es in der 5 sekunden messung einen gravierenden unterschied zwischen 256 u 512 gaebe.
in einer so kurzen zeitspanne duerften alle texturen vollstaendig im speicher sein, und da sie auch vollstaendig in 256 reinpassen, gibts kein unterschied. :rolleyes:

die meisten heutigen spiele brauchen kaum mehr als 256 speicher, da muesste man schon mit ziemlich perversen aufloesungen mit AA/AF testen.

ein vorteil von 512 ist evtl. bei groesseren level-durchlaeufen festzustellen, wo weniger texturen nachgeladen werden muessen, weil mehr schon im speicher sind. dies koennte in weniger min-fps bereichen resultieren.

Madkiller
2006-09-15, 17:31:27
Was ich nur immer noch gerne hätte: Frameratenverläufe wie bei HardOCP.
Klar, haben bei Timedemos extreme Vorteile.
Aber eigentlich auch nur, weil in einer TD mehrere Szenen vorkommen. Die aber alle relativ ähnlich sind - sind ja alle aus einer Umgebung/Level. Solche kann man dann anhand der Frameratenverläufe unterscheiden. Der Nachteil ist aber, daß man eigentlich zu jeder Szene (am besten mit Video) genau wissen müßte, was geschieht.

Bei den Savegames wird aber nur ein einzelne Szene gebencht. Daher sind auch die Frameratenverläufe IMO nicht notwendig. Da aber nur eine Szene näher beleuchtet wird, sollte man mehrere Szenen benchen um überhaupt ansatzweise eine allgemeingültige Aussage für das Spiel treffen zu können.

Gast
2006-09-15, 17:42:22
Auf den ersten Blick wird hier schon klar, daß nVidias default-Modus nicht mit ATIs default-Modus vergleichbar ist: Während dieser bei ATI auf einen trilinearen Grundfilter inklusive einer doch schon anständig zu nennenden Gesamtqualität setzt, bekommt man bei nVidia hier nur einen brilinearen Grundfilter samt mehrerer mittelschwerer bis gravierender Filter-"OptimierungenÖhm, per default wird bei ATI in realen Anwendungen auch nur "brilinear" gefiltert.

paul.muad.dib
2006-09-15, 19:34:32
Mich stört in dem Artikel das massive copy+paste von Textbausteinen, das schon fast komische Züge annimmt: 'Wir erwarten keine großen Differenzen bei Einsatz von AAA' usw.

Dann würde ich vorschlagen, die AF-Blume zu erklären oder zumindest eine Erklärung zu verlinken, um den Text auch weniger versierten Nutzern zugänglich zu machen. Dazu passt auch "Auf den ersten Blick wird hier schon klar, daß nVidias default-Modus nicht mit ATIs default-Modus vergleichbar ist". Mag sein, dass 3D Gurus das auf den ersten Blick sehen. Trotzdem sollte erklärt werden, woran man das sieht.

Mike1
2006-09-15, 19:35:53
Mich stört in dem Artikel das massive copy+paste von Textbausteinen, das schon fast komische Züge annimmt: 'Wir erwarten keine großen Differenzen bei Einsatz von AAA' usw.

Dann würde ich vorschlagen, die AF-Blume zu erklären oder zumindest eine Erklärung zu verlinken, um den Text auch weniger versierten Nutzern zugänglich zu machen. Dazu passt auch "Auf den ersten Blick wird hier schon klar, daß nVidias default-Modus nicht mit ATIs default-Modus vergleichbar ist". Mag sein, dass 3D Gurus das auf den ersten Blick sehen. Trotzdem sollte erklärt werden, woran man das sieht.
Genau, ich hab zwar auf anhieb gesehen das das was anders is aba was da jetzt besser oder shclechter ist leida nicht:redface:

Black-Scorpion
2006-09-15, 20:34:01
Genau, ich hab zwar auf anhieb gesehen das das was anders is aba was da jetzt besser oder shclechter ist leida nicht:redface:
Lesen http://www.3dcenter.org/artikel/grafikfilter/ ;)

paul.muad.dib
2006-09-15, 20:41:35
Darum geht es doch gar nicht, sondern um eine Erklärung oder Hinweis, um die AF Blumen zu Interpretieren. Der Durchschnittsspieler wird da nur ein paar bunte Faben sehen.
Eine Erklärung, was das Vorhandensein von Farbverläufen (Trilineare Optimierungen) oder Mustern (AF- winkelabhängigkeit) bedeutet und worauf man achten muss, fehlt.
Inzwischen weiß ich zwar, dass die Farben jeweils eine Mip Stufe repräsentieren und dass auf Grunf des AF höhere Mip Stufen genommen werden können. Nur welches Bild jetzt besser ist, sehe ich nicht, bis auf die Extremfälle AREA AF vs. normales AF natürlich.

Black-Scorpion
2006-09-15, 21:09:24
Schau dir Seite 5 (http://www.3dcenter.org/artikel/grafikfilter/index5.php) mal genauer an (Q3 Bilder) und du siehst den Unterschied und was besser ist.
Bei bilinearer Filterung schiebst du Bugwellen vor dir her.

paul.muad.dib
2006-09-15, 21:26:50
Ich glaube, du hast immer noch nicht verstanden, was ich meine. Ich weiß was bi-,bri- und trilineare Filterung ist. Ich weiß auch, was ein Anisotrper Filter ist. Bei beiden ist mir klar, was passiert wenn dort optimiert wird.

Nur bezweifele ich, dass jeder sofort von der AF Blume auf die Filterqualität schließen kann. Es fehlt einfach ein Hinweis, auf was man achten muss, oder was im Bild welche Bedeutung hat.

tiltec
2006-09-18, 00:03:38
Auch von mir ein großes Lob für diesen Artikel.
Über ein simples Review geht er ja weit hinaus, vor allem die Sache mit dem TAA/AAA fand ich sehr erstaunlich.

Meines Wissens hat bisher keine andere Seite das so ausführlich und gründlich ausgetestet. Deshalb wird 3DCenter einfach einzigartig bleiben... Vielen Dank dafür!

Sonst wollte ich nur mal anmerken, dass der Leistungs-Sprung zwischen der letzten und der jetzigen Grafikkarten-Generation schon gewaltig war.
Bleibt nur die Frage, ob sich das bei der nächsten Generation so fortsetzt oder ob mehr auf Qualitäts-Einstellungen (Wie wärs mal mit SuperSampling??) gesetzt wird.

tt

Gast
2006-09-19, 04:29:07
Gibt sicher bessere Beispiele als NFS:MW, was eine Konsolenportierung, ist um GrakaRam Auslastung zu begutachten. Z.b.: Everquest2, mit 3x Max Texture Details Shader Complexity und Full Bump-Mapping hebelt das schonmal 450MB GrakaRam aus. (Ob die Texturen komprimiert sind vermag ich nicht zu sagen, aber mit jeder Detailstufe ändet sich sichtbar etwas, anders als bei Doom3 z.b.)
Man muss nur etwas danach Ausschau halten dann findet man Spiele die auf das Hinweisen was sicher nächstes Jahr oft auftreten wird. Das in so Standartauflösungen wie 1280*960/1024 bei schon 2xAA 256MB Ram nicht mehr ausreichen werden und es zu FPS Verlust/Einbrüchen kommt.
Nix gegen ein populäres Spiel wie NFS:MW aber ist sicher ein Schuß mit nassem Pulver gewesen um etwas aufzuzeigen was erstmal Schwer zu finden ist.

Mike1
2006-09-19, 08:27:21
Gibt sicher bessere Beispiele als NFS:MW, was eine Konsolenportierung, ist um GrakaRam Auslastung zu begutachten. Z.b.: Everquest2, mit 3x Max Texture Details Shader Complexity und Full Bump-Mapping hebelt das schonmal 450MB GrakaRam aus. (Ob die Texturen komprimiert sind vermag ich nicht zu sagen, aber mit jeder Detailstufe ändet sich sichtbar etwas, anders als bei Doom3 z.b.)
Man muss nur etwas danach Ausschau halten dann findet man Spiele die auf das Hinweisen was sicher nächstes Jahr oft auftreten wird. Das in so Standartauflösungen wie 1280*960/1024 bei schon 2xAA 256MB Ram nicht mehr ausreichen werden und es zu FPS Verlust/Einbrüchen kommt.
Nix gegen ein populäres Spiel wie NFS:MW aber ist sicher ein Schuß mit nassem Pulver gewesen um etwas aufzuzeigen was erstmal Schwer zu finden ist.
HL2+Texture Mod dürfte auch VRAM fressen wie nix

Simon
2006-09-19, 23:00:42
Seite 6, NFS:MW Vergleich (letzter Satz in dem Absatz): "Worcase-Savegame"

Schade, dass ihr nicht noch höhere Auflösungen (2560 x 1600 (WQXGA) für 30" Displays) getestet habt. Ging das technisch nicht oder reichten euch die Auflösungen bis 2048x1536? =)

Seite 7, dritter Absatz: "Um auch unter diesen Auflösungen noch spielbare Frameraten garantieren zu können, haben uns dafür entschieden," - da fehlt ein "wir"

Seite 8, zweiter Absatz, letzter Satz: "Dieser eigentlich unfaire Vergleich bezieht seine Berechtigung als mehrheitlich aus der Praxis beim Endanwender, sicherlich kaum aus einer (nicht vorhandenen) Vergleichbarkeit dieser Modi." - Fehlt da ein 'o'?

Seite 8, letzter Absatz, erster Satz: "Performnace"

Seite 9, letzter Absatz: "(unter diesen bis maximal zur Auflösung von 1280x1024 reichtende Tests)"

Seite 10, vorletzter Absatz: "keine Nebenbeiher-Features, die man bedenkenlos aktivieren kann " - "Nebenbayer" vielleicht? :confused: ;D

Seite 11, erster Absatz, letzter Satz: "einen winkel-unabängigen anisotropen Filter." - Da fehlt ein 'h'

Seite 14, NFS:MW Test: "Unter Need for Speed: Most Wanted ergibt selbst das hier alleinig ausgemessene Worstcase-Savegame keinerlei beachtenswerte - in beiden Tess" - Da fehlt ein 't'

Seite 17, erster Satz: "Im seinerzeitigen Review der Radeon X1900 XT/XTX Karten konnte noch recht eindeutig das seinerzeitige ATI-Topmodell" - Da ist eine Wiederholung mit sehr kurzem Abstand. Vielleicht das markierte Wort durch "damalige" ersetzen?

Seite 17, erster Absatz: "Mit primär günstigeren Taktraten ausgestattet, bittet diese Karte die Radeon X1900 XTX erneut zum Tanz." - Das klingt ... doof. Die Taktraten sind ja höher, warum also das nicht so schreiben?

Seite 17, erster Detailpunkt bei den Vorteilen: "Bei der allgemeinen Performance wie auch bei den Messungen unter den superhohen Auflösungen liegen Radeon X1900 XTX und GeForce 7900 GTX generell irgendwie gleichauf bzw. schwanken die Ergebnisse je nach Spiel." - (sehr) schlechter Ausdruck

Seite 17, vierter Detailpunkt bei den Vorteilen: "Und letztlich ermöglicht eben derzeit nur ATI Anti-Aliasing auch unter HDR-Rendering (selbst wenn es in Ausnahmen auch bei nVidia funktioniert)" - funktioniert auch nur unter D3D bei ATI. OpenGL nicht. Auch wenn das wohl für die meisten Spieler egal sein dürfte...

Seite 17, fünfter Absatz: " nVidia muß dies aktuell mit entweder dem besserem Preis oder der besserem Performance kontern" - Müßte so lauten: "Nvidia muss dies aktuell entweder mit dem besserem Preis oder der besseren Performance kontern" (ok, bei dem "muss" bin ich mir nicht ganz sicher ;) )

Seite 17, fünfter Absatz: " Bei einem Performance-Gleichstand wäre aber derzeit in jedem Fall ATI die Grafikkarte unserer Wahl." - Schlechter Ausdruck: "ATI" ist keine Grafikkarte, sondern stellt welche her ;)

Seite 17, erster Punkte der zweiten Liste: "Nichts desto trotz reichen die verwendeten HighEnd-Grafikkarte von ATI und nVidia noch aus" - da fehlt ein 'n'

Seite 17, zweiter Punkt: "Die heutigen HighEnd-Grafikkarten sind (im Gegensatz zu manchen früheren Versuchen) absolut in der Lage, superhohe Auflösungen mit noch anständigen Frameraten fahren zu können." - Ich würde an der ersten Stelle "Generationen" schreibe und bei der zweiten Stelle die beiden Wörter vertauschen.

Seite 17, letzter Punkt: "Dafür kostete ATIs Area-AF mit rund 5 und nVidias "High Quality" Modus mit rund 10 Prozent einigermaßen weniger Performance, " - Das marktierte Wort würde ich streichen.

Seite 17, der folgende Absatz: "Insbesondere letzterer Punkt verdient nochmal eine gesondere Betrachtung, hängt dieser dort stark mit der von uns angesetzten Meßmethode mittels Savegames zusammen" - da fehlt ein 't' an der ersten Stelle. An die zweite Stelle müßte stattdessen "doch", oder?

Seite 17, drittletzter Absatz: "Wenn Filteroptimierungen so richtig nur in Timedemos, jedoch nicht in der realtitätsnahen Szenarik eines Savegames zum tragen kommen" - Es gibt kein "Szenarik" im Deutschen, aber "Szenarios". Bei der zweiten Stelle müßte "Tragen" großgeschrieben werden, oder?

Den dritt- und vorletzten Absatz würde ich riesengroß und fett machen ;)

Ich hoffe, ihr seid mir jetzt nicht böse wegen den vielen Sachen, die ich aufgelistet habe? ;(

Alles in allem finde ich den Artikel sehr, sehr gut. Mehr kann ich dazu gar nicht sagen, ihr seid einfach die Besten :up: Nur leider etwas spät der Artikel.
Mhm, jetzt ist mir doch noch was eingefallen: Warum verliert ihr kein Wort zur Treiber-"Qualität" (weiß nicht, wie ich es sonst beschreiben soll)? Mir geht es dabei nicht um die Qualität vom CCC oder Nvidia CP, sondern um die Features der Treiber: All die tollen Sachen (R2VB, AAA, Fetch4, etc.) der ATI X1k-Karten gibt es ausschließlich für den Direct3D-Teil des Treibers. Für den OpenGL-Part gibt es rein gar nix, obwohl offensichtlich machbar! Von den langsamen und teilweise instabilen Linux-Treibern abgesehen. Bei Nvidia gibt es genauso Punkte zu bemängeln (Einstellen der bestmöglichen Qualität und mangelnder SLI-Support für Nicht-Windows-Systeme). Dass ihr die Linux-Sachen nicht ansprecht, kann ich ja noch verstehen. Aber die anderen Sachen sollten wenigstens in einem Nebensatz erwähnt werden! ;)
Ähm? Werden zumindest die Rechtschreibfehler nicht mehr korrigiert? ;(

Raff
2006-09-20, 00:09:20
HL2+Texture Mod dürfte auch VRAM fressen wie nix

Definitiv, ist ziemlich übel. Meine 512 MiB kriege ich immerhin mit 6x AA oft voll ...

MfG,
Raff

Gast___
2006-09-20, 06:36:21
Ähm? Werden zumindest die Rechtschreibfehler nicht mehr korrigiert? ;(
Schau dir an, wie lange sich der Artikel verzögert hat, dann kennst du die Latenz des 3DCenter-Verantwortlichen. *SCNR*

Simon
2006-09-22, 08:51:34
Schau dir an, wie lange sich der Artikel verzögert hat, dann kennst du die Latenz des 3DCenter-Verantwortlichen. *SCNR*
Scheint wohl so :( *sigh*
Aber wer schreibt dann die täglichen News? :confused: ;D

Gast
2006-09-26, 21:58:03
erstmals ein paar kleine fehler die mir aufgefallen sind:

Seite 2:

Anzumerken wäre, daß wir uns bei der Filterqualität rein auf den unter Direct3D laufenden FSAA Tester verlassen haben, da bei beiden Grafikchip-Entwicklern unter den normalen Anti-Aliasing Modi keine Unterschiede mehr zwischen Direct3D und OpenGL existieren.

diese aussage ist nicht ganz richtig, der 8xS-modus von nvidia reagiert unter OGL und D3D unterschiedlich. das gezeigte muster (http://www.3dcenter.org/images/geforce_7900/aa_nvidia_samplemuster_8x.png) ist jenes unter OGL, das muster ist unter D3D um 90° gedreht.


selbiges gilt auf der nächsten seite für das AF, die filteroptimierungen reagieren in OGL und D3D (zumindest bei NV) unterschiedlich.

warum wird weiters behauptet dass es bei ATI einen trilinearen grundfilter gibt?
jener wird nur bei färbigen mipmaps und bei AI-off eingesetzt, es ist mir auch schleierhaft warum ihr letzteres als praktisch nutzlos bezeichnet, und im sinne der "höchsten qualität" nicht verwendet, ist es doch die einzige möglichkeit ATIs filteroptimierungen weitgehend auszuschalten.
warum bei ATI nur einige "kleinere" optimierungen standardmäßig aktiv sein sollen, bei NV aber "gravierende" ist mir auch schleierhaft. dass ATI mit aktivem AI auch nur brilinear filtert und teilweise unterfiltert sollte eigentlich bekannt sein.

von welchen unabschaltbaren kleineren optimierungen die rede ist würde ich auch gerne wissen, soweit bekannt ist, sind bei AI-off bzw. HQ keine mehr aktiv, jedenfalls habe ich noch nie einen beweis gesehen, und einfach irgendwelche behauptungen ohne beweise in die welt zu setzen ist nicht schön.

dass sich ATI nun großteils wieder auf qualität besinnt ist natürlich schön, trotzdem sollte man die offensichtlichen schwächen der LOD-bestimmung bei 16x-Area-AF nicht unter den tisch kehren, wie in diesem artikel geschehen.

jener satz auf seite 6 scheint mir auch etwas seltsam ;)
Insofern scheinen für dieses Spiel die ATI-Karten doch weiterhin geringfügig geeignet

die aussagen auf seite 10 und 11 zur performance von TAA und area-AF bzw. HQ gegenüber Q aus nur jeweils 2 messergebnissen zu ziehen erscheint mir auch arg optimistisch.
dass TAA bei vielen AT-texturen entsprechend viel leistung kostet sollte eigentlich klar sein, ebenso wie umgekehrt dass es überhaupt keine leistung kostet wenn garkeine AT-texturen vorhanden sind, dass die ergebnisse überraschend sind kann ich eigenltich nicht erkennen, ebensowenig wie ich die generelle aussage dass dieses feature entsprechend viel leistung kostet nicht verstehe.

ähnliches gilt für das area-AF, jenes kann natürlich nur viel leistung kosten wenn es entsprechend viele flächen gibt die vom alten AF nur minderwertig gefiltert werden, gerade bei NFS, wo der großteil des bildschirms von der straße eingenommen wird, die auch vom alten AF die volle filterung bekommt kann es ja kaum unterschiede geben.
zudem wäre mal interessant zu sehen wie sich Area-AF mit AI-off verhält, möglicherweise versucht ati den performanceverlust durch irgendwelche anderen optimierungen abzufedern.

gleiches auch für HQ vs Q bei NV, klar kostet es bei den getesteten spielen nur ~10%, nur sind 2 spiele für eine generelle aussage viel zu gering. hättet ihr statt NFS:MW zufällig quake4 erwischt würde dieses plötzlich ~30% verlust zeigen.

diese aussage ist ja eigentlich ganz toll: Das primäre Ziel unserer Benchmarks bzw. der dafür benutzten Bildqualität lag vielmehr darin, die jeweils bestmögliche Grafikqualität für die einzelnen Grafikkarten zu erreichen - ganz so, wie es sich für HighEnd-Grafikkarten ziemt.

nur wieso haltet ihr euch dann selbst nicht daran und testet mit AI-standard, anstatt mit AI-off und damit vollem trilinear wie es sich eigentlich für eine high-end-karte ziemt?

Gast
2006-09-27, 00:13:26
Definitiv, ist ziemlich übel. Meine 512 MiB kriege ich immerhin mit 6x AA oft voll ...

MfG,
Raff

Genau das hätte man als "Redaktion" die so ein großes Forum hintersich hat mal anfragen sollen. Leuts gebt mir Spiele in denen der Graka Ram überläuft!
Der Thread explodiert doch innerhalb von 24h... und dann kann ich ein Review machen, und nicht, wir haben mal was gemessen uns is nix aufgefallen...
Wie sagt man dazu? Halbherzig...

Gast
2006-10-02, 11:52:39
*bump* anyone?