PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 7800GTX mit 512MB im Test bei Computerbase


Seiten : 1 2 [3]

Frank1974
2005-11-19, 00:46:27
Oder anders interpretiert man verdreht Resultate wie sie gerade erst passen. Gehen wir mal auf SS2 zurueck da ich etwas mehr Zeit habe:

1600*1200
4xAA/16xAF
"quality"
negative LOD bias: clamp
transparency multisampling
D3D

a.) default "quality" (aniso MIP optimisations off, brilinear und das andere Dingsda eingeschaltet):

http://users.otenet.gr/~ailuros/optimised.jpg

Die bekannte MIPmap vor dem Spieler flimmert wie erwartet und die Leistung ist natuerlich hoch genug.

b.) "quality" aber nur mit "brilinear" eingeschaltet alle andere Optimierungen aus:

http://users.otenet.gr/~ailuros/brilinear.jpg

Hier flimmert die besagte MIPmap erstmal nicht und der Leistungsverlust ist wie gross genau?

Hallo

Mit was für einer Karte(7800GTX)?
Und wie ist die Stelle mit HQ,gibt es da nochmal einen rückgang der fps?

Thx
Frank

Ailuros
2005-11-19, 01:39:06
Hallo

Mit was für einer Karte(7800GTX)?
Und wie ist die Stelle mit HQ,gibt es da nochmal einen rückgang der fps?

Thx
Frank

Ja 7800GTX und ja mit HQ geht es runter auf 48 oder so. Du wirst es aber verdammt schwer haben einen Unterschied mit "brilinear" zu sehen.

Ailuros
2005-11-19, 01:42:00
Das ist ein defered-rendering demo. Ich vermute da stimmt irgendwas mit der Präzision der Rendertargets nicht oder FP24 reicht da nicht. Der Texturfilter kann nämlich die Fehler um die Lampen rum nicht verursachen.

Aber wurde trotzdem mit der Zeit korrigiert. Ich hab ja auch nichts seitens Texturfilter erwaernt, sondern nur auf die angebliche konstant bessere Bildqualitaet.

Ich hatte es damals an ATI geschickt und sie haben sich auch drum gekuemmert.

Ailuros
2005-11-19, 01:43:28
Aha, jetzt ist Quality plötzlich doch wieder ok?. Gut ich nutz es auch (+Tri Opt. ), aber nur weil die fps für HQ nicht reichen.

Und wo siehst Du in SS2 durch brilinear einen Unterschied genau?

***edit: Optimierungen sind Optmierungen; da aendert sich nichts dran. Aber wenn man wenigstens ein bisschen Anstand haette, haette man auch zumindest bilinear mit brilinear verglichen und nicht bi- mit trilinear.

Ailuros
2005-11-19, 01:45:08
Schön platzsparend komprimiert :ulol:

R300 (64MB Radeon 9500 @Pro @345/290, Catalyst 5.9, XP1.66GHz@133FSB):
http://img506.imageshack.us/img506/3295/r3003455rc.jpg

NV40 (256MB Geforce 6800GT @430/575, FW 81.85, XP2.4GHz@200FSB):
http://img506.imageshack.us/img506/7088/nv404305dz.jpg


LOL die 8X.xx Treiber haben ein Problem mit dem demo was die Leistung betrifft; behalt das Zeug ja nicht als Argument. NV4x kommt meistens um einiges schneller mit MRTs aus als selbst R4xx.

Frank1974
2005-11-19, 01:49:32
Ja 7800GTX und ja mit HQ geht es runter auf 48 oder so. Du wirst es aber verdammt schwer haben einen Unterschied mit "brilinear" zu sehen.

Hmm,ein so großer Leistungsgewinn der nicht sichtbar sein soll :confused: ,wenn das stimmt dann ist das ja eine sehr gute Optimierung von Nvidia,aber die Sache muss einen Harken haben...
Habe die selbe Karte und bin dem gegenüber sehr misstrauisch,aber ich bin jetzt auch nicht so der Grafikfreak das ich den ganzen Screenshot mit der Lupe untersuche :biggrin:

Gruss
Frank

Ailuros
2005-11-19, 01:51:33
Hmm,ein so großer Leistungsgewinn der nicht sichtbar sein soll :confused: ,wenn das stimmt dann ist das ja eine sehr gute Optimierung von Nvidia,aber die Sache muss einen Harken haben...

Beide IHVs haben "brilinear" und ja es gehoert zu dem harmloseren Optimierungen. Auf einer GTX hast Du theoretisch maximal 10.3 GTexels bilineare und 5.1 GTexels/s trilineare Fuellrate verfuegbar. Benutzt jetzt die Karte einen Modus der irgendwo zwischen bi- und trilinear liegt, erspart man sich auch so manches an Fuellrate und ergo Leistung.

Habe die selbe Karte und bin dem gegenüber sehr misstrauisch,aber ich bin jetzt auch nicht so der Grafikfreak das ich den ganzen Screenshot mit der Lupe untersuche :biggrin:


Wozu screenshots mit der Lupe untersuchen wenn Du schon die Karte hast? Ganz einfach in Echtzeit ausprobieren.

mapel110
2005-11-19, 01:53:13
Wozu screenshots mit der Lupe untersuchen wenn Du schon die Karte hast? Ganz einfach in Echtzeit ausprobieren.
Naja, auch bei der Sample Opt muss man erstmal wissen, wo man hinschauen soll und erst dann stichts jedesmal wieder ins Auge.

Ailuros
2005-11-19, 01:55:38
Naja, auch bei der Sample Opt muss man erstmal wissen, wo man hinschauen soll und erst dann stichts jedesmal wieder ins Auge.

Das Flimmern dass durch diese Optimierungen kommt (ueberhaupt in Spielen wie SS2) haut sofort ins Auge (eben leider nicht auf screenshots, aber die LOD-Unterschiede kann man schon sehen).

Frank1974
2005-11-19, 02:00:42
Wozu screenshots mit der Lupe untersuchen wenn Du schon die Karte hast? Ganz einfach in Echtzeit ausprobieren.

Ich nehme die ganze sache ja auch net so ernst,falls du das noch nicht gemerkt hast :wink: ,aber ein Verlust von 10 fps,spricht eindeutig dafür das es nicht identisch sein kann auch wenn man es nicht auf den ersten Blick sieht,an irgendetwas muss ja gespart werden oder nicht :smile:
Wenn es nicht auffällt schön,aber es gibt diese Opti nicht umsonst...

ps.könnte mir einer sagen wo es diese Powervr Demo gibt,Danke.

Gruss
Frank

Ailuros
2005-11-19, 02:06:46
http://www.pvrdev.com/pub/PC/eg/h/DeferredShading.htm

Es wird an vollem trilinear gespart (siehe vorigen Post).

mapel110
2005-11-19, 02:11:03
Ich nehme die ganze sache ja auch net so ernst,falls du das noch nicht gemerkt hast :wink: ,aber ein Verlust von 10 fps,spricht eindeutig dafür das es nicht identisch sein kann auch wenn man es nicht auf den ersten Blick sieht,an irgendetwas muss ja gespart werden oder nicht :smile:
Wenn es nicht auffällt schön,aber es gibt diese Opti nicht umsonst...

ps.könnte mir einer sagen wo es diese Powervr Demo gibt,Danke.

Gruss
Frank
http://www.pvrdev.com/pub/PC/eg/h/DeferredShading.htm

Dort wo anisotrop gefiltert wird, ist trilineare Filterung unnötig. Daher die Performance. Die Schwierigkeit bei dieser Optimierung ist, dass eben nicht mehr überall mit AF gefiltert wird (Ausnahme HQ AF bei R520 und Derivaten). Winkelabhängig, Texturcontentabhängig etc pp

So hab ichs bisher verstanden, hoffe, ist nicht zu sehr vereinfacht. :redface:

Frank1974
2005-11-19, 02:22:22
http://www.pvrdev.com/pub/PC/eg/h/DeferredShading.htm

Es wird an vollem trilinear gespart (siehe vorigen Post).

Danke

Ich bin in Technischer Hinsicht nicht so der Experte wie du oder andere hier im Forum,aber wenn man jetzt wie du sagst,am vollem trilinear spart(also schlechtere Filterung),wie schaft NV es dann,ohne das man es sieht,10 fps mehr sind schon ein toller Sprung,ich will ja nur darauf hinaus das ein Bildtester,den Unterschied aufzeigen sollte.
Und dann noch eine Frage an dich,spielst du nicht in HQ,ich habe bisher alles in HQ gespielt,weil ich jeder Optimierung aus dem Weg gehen wollte. :smile:

/edit
Mapel hat es mir schon ein wenig erklärt,falls du es noch etwas ausführlicher kannst,bitte immer her damit.

Gruss
Frank

Frank1974
2005-11-19, 03:00:52
@Ailuros

Hast du zufällig 2x7800GTX,ich komme nicht mal ansatzweise an deine fps zahlen.Auf Q komm ich knapp auf 39 bei deinen Einstellungen.
Wenn nicht dann poste bitte mal deine kompletten Spieleinstellungen wenns geht per Screenshots,und wo hast du AA+AF eingeschaltet Ingame oder CP.

Danke
Frank

Quasar
2005-11-19, 10:11:57
Das Flimmern dass durch diese Optimierungen kommt (ueberhaupt in Spielen wie SS2) haut sofort ins Auge (eben leider nicht auf screenshots, aber die LOD-Unterschiede kann man schon sehen).
Das Dumme ist aber, dass es so viele Arten von Flimmern gibt und auch viele Spiele, die selbst mit dem besten Texturfilter noch Flimmern, weil der Content unachtsam hergestellt wurde, daß jemand, der sich damit nicht so intensiv beschäftigt, das Geflimmer meist als "richtig" akzeptieren wird, ausser er hat einen direkten Vergleich.

aths
2005-11-19, 11:07:45
http://www.pvrdev.com/pub/PC/eg/h/DeferredShading.htm

Dort wo anisotrop gefiltert wird, ist trilineare Filterung unnötig. Daher die Performance. Die Schwierigkeit bei dieser Optimierung ist, dass eben nicht mehr überall mit AF gefiltert wird (Ausnahme HQ AF bei R520 und Derivaten). Winkelabhängig, Texturcontentabhängig etc pp

So hab ichs bisher verstanden, hoffe, ist nicht zu sehr vereinfacht. :redface:Wo anisotrop gefiltert wird, ist trilineare Filterung weiterhin nötig. Auch so genannte winkelabhängige A-Filterung filtert grundsätzlich (bis mindestens 2x) anisotrop.

Demirug
2005-11-19, 11:09:41
Das Dumme ist aber, dass es so viele Arten von Flimmern gibt und auch viele Spiele, die selbst mit dem besten Texturfilter noch Flimmern, weil der Content unachtsam hergestellt wurde, daß jemand, der sich damit nicht so intensiv beschäftigt, das Geflimmer meist als "richtig" akzeptieren wird, ausser er hat einen direkten Vergleich.

Ich erlaube mir hier mal noch zu ergänzen.

Wie nVidia schon so schön sagte "Auch Shader sind Content". Ich sage jetzt mal vorraus das wir in Zukunft auch verstärkt flimmern sehen werden das eigentlich durch den Shader und nicht durch den Texturefilter entsteht.

Ein weiteres Problem ist das Texturen immer mehr auch dazu genutzt werden Daten zu speichern die eigentlich gar keine Farbinformationen sind. Die Texturefilter sind aber nur für das Filtern von Farbinformationen ausgelegt.

Ich bin jetzt mal so frei und sage vorraus das in nicht alzu ferner Zukunft wir Chips haben werden die noch maximal einen Trilinearen Filter native als Hardwarelösung haben.

robbitop
2005-11-19, 11:12:44
Ich bin jetzt mal so frei und sage vorraus das in nicht alzu ferner Zukunft wir Chips haben werden die noch maximal einen Trilinearen Filter native als Hardwarelösung haben.
Aktuell haben wir doch nur native bilineare Texturfilter HW, alles andere wird durch loopen erzeugt. Was soll daran neu sein?

aths
2005-11-19, 11:22:18
Aktuell haben wir doch nur native bilineare Texturfilter HW, alles andere wird durch loopen erzeugt. Was soll daran neu sein?Auch AF ist nativ, wenn auch in mehreren Takten. Man stellt nur AF ein, und der Chip machts, man muss das AF-Sample nicht "programmieren". Das wäre neu, wenn die TMU nur trilinear böte Aktueller Shader-Standards sind allerdings kaum geeignet, um AF im Shader zu machen.


Ich erlaube mir hier mal noch zu ergänzen.

Wie nVidia schon so schön sagte "Auch Shader sind Content". Ich sage jetzt mal vorraus das wir in Zukunft auch verstärkt flimmern sehen werden das eigentlich durch den Shader und nicht durch den Texturefilter entsteht.

Ein weiteres Problem ist das Texturen immer mehr auch dazu genutzt werden Daten zu speichern die eigentlich gar keine Farbinformationen sind. Die Texturefilter sind aber nur für das Filtern von Farbinformationen ausgelegt. Genau – Normalmaps z. B. sind schon mit MIP-Mapping schlecht bedient. Tatsächlich sind die Filter mangels Berücksichtung des sRGB-Standards nicht mal für vernünftige Farbfilterung ausgelegt.

Ich bin jetzt mal so frei und sage vorraus das in nicht alzu ferner Zukunft wir Chips haben werden die noch maximal einen Trilinearen Filter native als Hardwarelösung haben.Hrm. Die Filterung von Farbinformationen sollte auch die nächsten Jahre so wichtig sein, dass es AF direkt auf dem Chip gibt. Gewisse AF-Logik braucht man sowieso, auch wenn man da was im Shader anbieten will – da kann man gleich genererisches AF anbieten.

Quasar
2005-11-19, 11:56:51
Wie nVidia schon so schön sagte "Auch Shader sind Content". Ich sage jetzt mal vorraus das wir in Zukunft auch verstärkt flimmern sehen werden das eigentlich durch den Shader und nicht durch den Texturefilter entsteht.
Aber manche Arten von "Shaderflimmern" kann man durch entsprechende Shader (urgs: Zirkelschluß) wiederum bekämpfen - Far Cry kennt bsw. eine Option in der Konsole namens "r_SpecAntialias". In dem Raum mit der Maschine im Research-Level bsw. wirkt das Wunder und kostet nur wenig Performance. Das mag zum Release von FC anders gewesen sein - da war wohl jeder Shader-Cycle Gold wert.

Insofern könnten auch die ISVs sicherlich noch ein bißchen mehr gegen das Geflimmer tun, bsw. solche Optionen einsetzen, wie oben beschrieben (da gibt's IIRC auch ein PDF zu) oder mal zur Abwechslung auf so extreme "in-your-face"-Versionen ihrer Effekte verzichten.

Mr. Lolman
2005-11-19, 12:15:31
LOL die 8X.xx Treiber haben ein Problem mit dem demo was die Leistung betrifft; behalt das Zeug ja nicht als Argument. NV4x kommt meistens um einiges schneller mit MRTs aus als selbst R4xx.

Dafür war die BQ bei deinen alten Screenshots schon nicht ok. Das Banding erkenn ich da auch, trotz schlechter Komprimierung...

Mr. Lolman
2005-11-19, 12:37:03
Und wo siehst Du in SS2 durch brilinear einen Unterschied genau?


x) Texturflimmern bei Vorwärtsbewegung @Markierung 1.
x) Seltsame Texturschärfe @Markierung 2.

http://ho5t.us/display/9c47758c40.png (http://ho5t.us/show.php?locm=9c47758c40.png) (2.7MB png)

aths
2005-11-19, 13:38:29
Ja klar, sinnvoll überlegte Shader führen nicht zum Flimmern. Valves Shader in HL2 sind demnach nicht gerade sinnvoll überlegt – teilweise hängts da aber nicht nur von den Shadern, sondern auch von den genutzten Texturen ab.

Ailuros
2005-11-19, 13:50:24
Dafür war die BQ bei deinen alten Screenshots schon nicht ok. Das Banding erkenn ich da auch, trotz schlechter Komprimierung...

Die Komprimierung ist an fuer sich miserabel da man von 9MB nach unten skaliert. Und es tut mir auch aufrichtig leid was die Komprimierung betrifft aber ich befinde mich noch ziemlich hartnaeckig in der CRT Welt :P

Ailuros
2005-11-19, 13:54:24
x) Texturflimmern bei Vorwärtsbewegung @Markierung 1.
x) Seltsame Texturschärfe @Markierung 2.

http://ho5t.us/display/9c47758c40.png (http://ho5t.us/show.php?locm=9c47758c40.png) (2.7MB png)

Erstens sehe ich kein Flimmern in 1600 und zweitens sehe ich nicht ein warum reines bilinear besser gegen "brilinear" aussehen soll. Ich bin ja nicht derjenige der bi- mit tri verglichen hat, also brauch ich im Grunde auch nichts hier gerechtfertigen.

Quasar
2005-11-19, 14:15:01
Flimmern? Ich dachte, es geht um reduziert-trilineare Filterung? Da sollte man doch eher Mip-Banding sehen und kein Flimmern???

aths
2005-11-19, 14:22:50
(Möglichst volle) trilineare Filterung reduziert die Flimmeranfälligkeit.

Mr. Lolman
2005-11-19, 14:25:04
Erstens sehe ich kein Flimmern in 1600 und zweitens sehe ich nicht ein warum reines bilinear besser gegen "brilinear" aussehen soll. Ich bin ja nicht derjenige der bi- mit tri verglichen hat, also brauch ich im Grunde auch nichts hier gerechtfertigen.

Ich hab mir, zu dem Zeitpunkt wo ich auf der 9700p UT2004 mit biAf gebencht hab, sicher nicht überlegt, dass HQ auf meiner 6800GT genausoschnell laufen wird. Das ist also Zufall. BTW:

R300 biAF: http://img21.imageshack.us/img21/3999/atimipsbiaf6yx.jpg
NV40 briAF: http://img519.imageshack.us/img519/6643/nvmipstrioptaf8au.jpg

Frank1974
2005-11-19, 14:34:20
Hallo

Hab ihr alles in Game @max + AA4+AF16? Ich meine bei SS2.
Ich ja,aber mein Wert bei HQ ist 34fps und bei Q mit Ailuros eingeschalteter Optimierung 39fps,und das mit einer 7800GTX :confused: ,warum hab ich da sowenig fps,CPU-Limitierung kann nicht sein da A64 3500+@2500MHz.
Ihr müsst Ingame andere Einstellungen haben...

Und zum Thema ich kann mich Ailuros nur anschließen,mit der "bilinear" Optimierung sieht man wirklich kaum Unterschiede in Bewegung,aber ich habe auch einen CRT vielleicht fällt es da weniger auf wer weiß :|

@Lolman,kannst du mal bitte Screens von deinen Ingame Einstellungen,machen bitte :smile:

Gruss
Frank

Ailuros
2005-11-19, 14:46:53
Ich hab mir, zu dem Zeitpunkt wo ich auf der 9700p UT2004 mit biAf gebencht hab, sicher nicht überlegt, dass HQ auf meiner 6800GT genausoschnell laufen wird. Das ist also Zufall. BTW:

R300 biAF: http://img21.imageshack.us/img21/3999/atimipsbiaf6yx.jpg
NV40 briAF: http://img519.imageshack.us/img519/6643/nvmipstrioptaf8au.jpg


Netter Fall wo sowieso nur reines tri-AF die korrekte IQ produziert. :P

Ach es war ein Zufall? Nun ja zufaellig wie gesagt auch die gleiche CPU ;)

Ailuros
2005-11-19, 14:49:35
Hallo

Hab ihr alles in Game @max + AA4+AF16? Ich meine bei SS2.
Ich ja,aber mein Wert bei HQ ist 34fps und bei Q mit Ailuros eingeschalteter Optimierung 39fps,und das mit einer 7800GTX :confused: ,warum hab ich da sowenig fps,CPU-Limitierung kann nicht sein da A64 3500+@2500MHz.
Ihr müsst Ingame andere Einstellungen haben...

Und zum Thema ich kann mich Ailuros nur anschließen,mit der "bilinear" Optimierung sieht man wirklich kaum Unterschiede in Bewegung,aber ich habe auch einen CRT vielleicht fällt es da weniger auf wer weiß :|

Gruss
Frank


Nein ich hab nicht alles im Spiel maximalisiert und ich hab es auch nicht behauptet. Wenn Du das ini haben willst, kann ich es Dir gerne hochladen.

Frank1974
2005-11-19, 14:52:03
Nein ich hab nicht alles im Spiel maximalisiert und ich hab es auch nicht behauptet. Wenn Du das ini haben willst, kann ich es Dir gerne hochladen.

Ja,das wäre nett von dir :smile: .

Danke und Gruss
Frank

Mr. Lolman
2005-11-19, 14:58:17
Netter Fall wo sowieso nur reines tri-AF die korrekte IQ produziert. :P

Ja ist schon eine eher spezielle Textur. Allerdings zeigt sie auch sehr schön wo die Schwächen der verschiedenen Filteroptionen liegen.


Ach es war ein Zufall? Nun ja zufaellig wie gesagt auch die gleiche CPU ;)

Ich hab immernoch den XP2400+@2.4GHz im Hauptrechner. Schon seit fast 2 1/2 Jahren. Vor der 6800GT hatte ich eine Radeon 9700p. Gebencht hab ich auch nur, weil mir default Quality zu flimmrig vorkam und ich mich deswegen zwangläufig wundern musste, dass HQ tw. hohe fps Einbrüche verursacht.

Rampage 2
2005-11-19, 15:03:09
Heilige Scheiße - Nvidia wollte offenbar richtig Frust abbauen;D oder ganz schön gemein sein. Das Ding geht ja ab wie eine Rakete :eek: . Ich würde mal sagen, dass dieses Monster reiner BruteForce ist - wie die GF2Ultra damals.
Ati kann einpacken:D... erst die Schlappe mit der X1600XT und jetzt das...

Mr. Lolman
2005-11-19, 15:05:10
@Lolman,kannst du mal bitte Screens von deinen Ingame Einstellungen,machen bitte :smile:

Gruss
Frank

Ich hatte die Texturen/Lightmaps komprimiert und die Dynamic Shadows auf minimal. Außerdem war zusätzlich crm_fdensitybias=1.25 und crm_fdistancebias=4 eingestellt:

Ailuros
2005-11-19, 15:14:51
Ja,das wäre nett von dir :smile: .

Danke und Gruss
Frank

http://users.otenet.gr/~ailuros/Sam2.zip

GPU@490/685MHz.

Ailuros
2005-11-19, 15:18:16
Ja ist schon eine eher spezielle Textur. Allerdings zeigt sie auch sehr schön wo die Schwächen der verschiedenen Filteroptionen liegen.

Es zeigt mir auch dass bilinear gegen brilinear ein sinnvoller Vergleich sein koennte ;)

Ich hab immernoch den XP2400+@2.4GHz im Hauptrechner. Schon seit fast 2 1/2 Jahren. Vor der 6800GT hatte ich eine Radeon 9700p. Gebencht hab ich auch nur, weil mir default Quality zu flimmrig vorkam und ich mich deswegen zwangläufig wundern musste, dass HQ tw. hohe fps Einbrüche verursacht.

Wo immer brilinear flimmert, kommst Du mit reinem bilinear auch nicht besser davon. Bencht man auf R300 mit reinem tri-AF und allen Optimierungen abgeschaltet ist der Einbruch genauso radikal, wenn nicht sogar schlimmer stellenweise.

Mr. Lolman
2005-11-19, 15:29:24
Es zeigt mir auch dass bilinear gegen brilinear ein sinnvoller Vergleich sein koennte ;)

Quality triAF: http://img379.imageshack.us/img379/407/nvmipsqtriaf3fv.jpg


Wo immer brilinear flimmert, kommst Du mit reinem bilinear auch nicht besser davon.

Naja, anscheinend schon. ATi biAF bringt eher ein sichtbares bi-Band, bevor es flimmert. Wenn wir uns jetzt noch daran erinnern, dass NV HQ unter UT2004 alle TS>0 ohnehin nur brilinear filtert, ist die vglbare BQ schon garnicht mehr so weit entfernt ;)

Coda
2005-11-19, 15:37:07
Aber manche Arten von "Shaderflimmern" kann man durch entsprechende Shader (urgs: Zirkelschluß) wiederum bekämpfen - Far Cry kennt bsw. eine Option in der Konsole namens "r_SpecAntialias". In dem Raum mit der Maschine im Research-Level bsw. wirkt das Wunder und kostet nur wenig Performance. Das mag zum Release von FC anders gewesen sein - da war wohl jeder Shader-Cycle Gold wert.

Insofern könnten auch die ISVs sicherlich noch ein bißchen mehr gegen das Geflimmer tun, bsw. solche Optionen einsetzen, wie oben beschrieben (da gibt's IIRC auch ein PDF zu) oder mal zur Abwechslung auf so extreme "in-your-face"-Versionen ihrer Effekte verzichten.Ohje, jetzt wirds wieder unwissend.

Das Problem ist dass es nicht einfach eine Instruction gibt "reduzier_shader_flickering", sondern es ist eine Kunst Shader zu bauen die Nyquist einhalten. Das ist schon beim Offline-Rendering immer ein Problem gewesen.

erwingage
2005-11-19, 15:43:39
die neue karte von nvidia scheint ja der absolute hammer zu sein! :biggrin:
da wird sich der andere grafikkartenhersteller(keine namen) was einfallen lassen müssen,um mithalten zu können. :wink:

ps:und wenn mal bischen flimmert,daß macht mir nix aus! :biggrin:
manche scheine eine flimmerallergie zu haben! :wink:

Mr. Lolman
2005-11-19, 15:49:37
die neue karte von nvidia scheint ja der absolute hammer zu sein! :biggrin:
da wird sich der andere grafikkartenhersteller(keine namen) was einfallen lassen müssen,um mithalten zu können. :wink:

ps:und wenn mal bischen flimmert,da? macht mir nix aus! :biggrin:
manche scheine eine flimmerallergie zu haben! :wink:

Ich hab auch kein Problem, damit dass es dir nix ausmacht. Vergleichbare Qualität sollte man trotzdem sicherstellen, bevor mal als Redakteur zum Benchen beginnt. Und wenn man meint, sich an Anandtech orientieren zu müssen, weil die einfach nur mehr konsequent ohne AF benchen, irrt man sich leider auch, da Driverheaven (ohne es zu bemerken) einen Screenshot von Tiger Woods 2006 online gestellt hat wo (neben ein paar fehlenden Reflektionen) ersichtlich ist, dass NVs Filteroptimierungen auch schon bei deaktivertem AF, also "normalen" trilinearem Filtering greifen.

Wie gesagt, mir sind die persönlichen Vorlieben egal, und der fps zuliebe, spiel ich z.B. selbst Serious Sam 2 mit Q+tri Opt.

Blaire
2005-11-19, 15:51:04
Ich hab auch kein Problem, damit dass es dir nix ausmacht. Vergleichbare Qualität sollte man trotzdem sicherstellen, bevor mal als Redakteur zum Benchen beginnt.

Dazu gehört aber auch, auf fehlende Grafikdetails zu achten. ;)

Mr. Lolman
2005-11-19, 15:56:23
Dazu gehört aber auch, auf fehlende Grafikdetails zu achten. ;)

Genau. Und da ist NV (wie in der PN schon angedeutet) genausowenig ein unbeschriebenes Blatt. V.a. merken die lieben Reviewer das alle nicht. Das fängt mit den eben erwähnten Driverheaven an, geht über zu firing-squad, die dann kurzerhand NV biAF aufgrund der grösseren Schärfe die bessere BQ zugestehen, und endet bei digit-life, die damals schon beim R200-Test trotz vieler selbst angefertigter Screenshots Test nicht gemerkt haben, dass NV Karten beim 3dmark2001 manche Schatten einfach nicht darstellen...

/edit: Nö, eher endets sogar bei Anandtech, die zu Voodoo5 zeiten, zwar einen der damals besten BQ Vergleiche überhaupt brachten, welcher insgesamt leider jedoch immernoch relativ mies war, u.A. da Szenenwahl ziemlich unüberlegt wirkte...

Blaire
2005-11-19, 16:04:08
Genau. Und da ist NV (wie in der PN schon angedeutet) genausowenig ein unbeschriebenes Blatt. V.a. merken die lieben Reviewer das alle nicht.

Das mag sein , allerdings fallen mir diese Sachen bei Ati häufiger auf , vor allem bei Toptiteln und an einen Zufall möchte ich nicht wirklich glauben.
Flimmern ist das eine, fehlende oder weniger Details sind mindestens genauso störend. Nur leider scheint das vielen ja egal zu sein ,solange die Balkenlänge stimmt.

A.Wesker
2005-11-19, 16:05:34
langsam wird die ewige diskussion rund um die Bildqualität recht nervig.

http://home.arcor.de/jodee2/ss2.JPG

7800 GTX 512 MB + HQ

was will man mehr? denke nicht, daß das bild bei ati besser aussieht, nur es gibt einen gewissen unterschied: bei ati würden diese einstellungen nicht flüssig laufen :D

Mr. Lolman
2005-11-19, 16:07:33
Das mag sein , allerdings fallen mir diese Sachen bei Ati häufiger auf , vor allem bei Toptiteln und an einen Zufall möchte ich nicht wirklich glauben.
Flimmern ist das eine, fehlende oder weniger Details sind mindestens genauso störend. Nur leider scheint das vielen ja egal zu sein ,solange die Balkenlänge stimmt.


Meinst du jetzt die NFS Schatten? Sry, aber da bin ich noch nicht überzeugt. Hast du/misterh noch andere Screenshots?

Mr. Lolman
2005-11-19, 16:10:39
langsam wird die ewige diskussion rund um die Bildqualität recht nervig.

http://home.arcor.de/jodee2/ss2.JPG

7800 GTX 512 MB + HQ

was will man mehr? denke nicht, daß das bild bei ati besser aussieht, nur es gibt einen gewissen unterschied: bei ati würden diese einstellungen nicht flüssig laufen :D

7fps?

A.Wesker
2005-11-19, 16:26:02
7fps?
7x FPS

Low Rider
2005-11-19, 21:23:29
langsam wird die ewige diskussion rund um die Bildqualität recht nervig.
Sagst du das jetzt nur, weil die Debatte momentan gegen NV geht?
Ich finde es geht hier um eine grundsätzliche Sache... wenn jeder bereit ist, seiner Lieblingsgrafikkarte(nmarke) in Sachen Bildqualität zu "verzeihen", dann will ich nicht wissen, wie es mit der Qualität weitergehen soll.
Und solche (http://www.3dcenter.org/artikel/2004/12-20.php) Artikel kann man sich dann auch schenken.

LovesuckZ
2005-11-19, 21:45:56
Sagst du das jetzt nur, weil die Debatte momentan gegen NV geht?


Nein, weil sich alles wiederholt.
Selbes Thema, selbe Leute.
Ist auf die Dauer sehr ermüdend.
Vorallen, wenn sie von leuten angestoßen wird, welchen die Bildqualität nur dann interessiert, wenn es nur einem Hersteller betrifft.

A.Wesker
2005-11-19, 21:48:30
Sagst du das jetzt nur, weil die Debatte momentan gegen NV geht?
Ich finde es geht hier um eine grundsätzliche Sache... wenn jeder bereit ist, seiner Lieblingsgrafikkarte(nmarke) in Sachen Bildqualität zu "verzeihen", dann will ich nicht wissen, wie es mit der Qualität weitergehen soll.
Und solche (http://www.3dcenter.org/artikel/2004/12-20.php) Artikel kann man sich dann auch schenken.
wir diskutieren hier über sachen, die man im wirklichen spiel nicht merkt, oder glaubst du, daß ss2 auf einer x1800xt ingame erkennbar besser aussieht? (damit meine ich nicht screenshots, obwohl man dort unterschiede auch nur mit der lupe erkennen kann). Fakt ist nunmal, daß ATI so oder so in Zugzwang ist, da sich die 7800 GTX 512MB deutlich von der X1800XT absetzen kann. ich als Kunde würde mich bei dieser Firmenpolitik verarscht vorkommen.

Quasar
2005-11-19, 22:14:03
Ohje, jetzt wirds wieder unwissend.

Das Problem ist dass es nicht einfach eine Instruction gibt "reduzier_shader_flickering", sondern es ist eine Kunst Shader zu bauen die Nyquist einhalten. Das ist schon beim Offline-Rendering immer ein Problem gewesen.
Das habe ich auch nicht behauptet - bevor du anderen Unwissen unterstellst, solltest du vielleicht also erstmal deren Postings sorgfältig lesen. Ich schrieb, daß es eine Option in der Far Cry Console gibt, die dem Specular Aliasing entgegenwirkt. Und auch ein PDF, welches beschreibt, wie man dem Aliasing bei Specular Mapping entgegenwirken kann.
http://download.developer.nvidia.com/developer/SDK/Individual_Samples/MEDIA/docPix/docs/Mipmapping_Normal_Maps.pdf

aths
2005-11-20, 14:22:12
Das habe ich auch nicht behauptet - bevor du anderen Unwissen unterstellst, solltest du vielleicht also erstmal deren Postings sorgfältig lesen. Ich schrieb, daß es eine Option in der Far Cry Console gibt, die dem Specular Aliasing entgegenwirkt. Und auch ein PDF, welches beschreibt, wie man dem Aliasing bei Specular Mapping entgegenwirken kann.
http://download.developer.nvidia.com/developer/SDK/Individual_Samples/MEDIA/docPix/docs/Mipmapping_Normal_Maps.pdfDas PDF hats insich – viel verstanden habe ich da nicht. Soweit ich das sehe, stellt NV erst die "echte" Methode vor und bietet dann eine Näherung an, welche ein noch brauchbares Ergebnis zu wesentlich geringeren Kosten liefert.

BodyLove
2005-11-20, 17:44:55
Fakt ist nunmal, daß ATI so oder so in Zugzwang ist, da sich die 7800 GTX 512MB deutlich von der X1800XT absetzen kann. ich als Kunde würde mich bei dieser Firmenpolitik verarscht vorkommen.

Warum sollte ich mir verarscht vorkommen? Ich sehe da kein Grund. Die paar Frames kann ich mir schenken. Wichtig ist in diesem Segment eher der Stromverbrauch und die Lautstärke. ´

Die Verfügbarkeit scheint so, als ob es Ende November steigen wird.

Ailuros
2005-11-21, 03:55:14
Quality triAF: http://img379.imageshack.us/img379/407/nvmipsqtriaf3fv.jpg

Die originale Debatte ueber bi-/trilinear war ueber UT2k4 was ich schon als CPU limitiert und veraltet bezeichnete; was genau sollen mir jetzt Steinzeit-Quake3 shots ueberhaupt bei der laecherlichen Aufloesung genau zeigen?

Naja, anscheinend schon. ATi biAF bringt eher ein sichtbares bi-Band, bevor es flimmert. Wenn wir uns jetzt noch daran erinnern, dass NV HQ unter UT2004 alle TS>0 ohnehin nur brilinear filtert, ist die vglbare BQ schon garnicht mehr so weit entfernt ;)

Das beide unterschiedliches MIPmapping haben wurde schon so oft erwaehnt, dass es schon gegeben sein sollte.

Wuerdest Du jetzt volles trilinear AF (ohne jegliche Optimierungen) auf einer R300@400MHz und einer 6800GT verwenden, versohlt die zweite den ersten in Fuellraten limitierten Tests in UT2k4 so stark dass es nichtmal zur Debatte stehen sollte. 2.8GPixels/s vs. 1.6GPixels/s trilinear. Nicht zu erwaehnen dass man hier sogar die NV40 auch uebertakten sollte fuer wahre Vergleiche.

Wenn Du UT2kX online spielst, limitiert genau was im Grund?

Ailuros
2005-11-21, 04:17:34
Sagst du das jetzt nur, weil die Debatte momentan gegen NV geht?
Ich finde es geht hier um eine grundsätzliche Sache... wenn jeder bereit ist, seiner Lieblingsgrafikkarte(nmarke) in Sachen Bildqualität zu "verzeihen", dann will ich nicht wissen, wie es mit der Qualität weitergehen soll.
Und solche (http://www.3dcenter.org/artikel/2004/12-20.php) Artikel kann man sich dann auch schenken.

Wie schon gesagt, wenn die Kritik nur zur einen Seite geht, hilft es auch nichts.

Legen wir es mal auf einen anderen Grundsatz: mir sieht es eher so aus als ob NVIDIA versucht hat seit NV40 die Filterungs-Optimierungen von ATI so nahe wie moeglich nachzubauen, von der Winkelabhaengigkeit bis zu jeglicher anderen Optimierung.

Der eigentliche Grundsatz des Problems ist eher dass es zu viele unakzeptable Optimieringungen auf heutigen GPUs gibt, weil eben der letzte Fetzen an Leistung dazuzaehlt. Im Gegenfall wuerde ATI die R520 gar nicht bei default mit dem alten AF modus + Optimierungen laufen lassen.

Das dumme ist dann eben dass wenn man R520 im neuen HQ AF modus testet die Leistung nicht mehr so hoch ist wie beim alten und natuerlich auch dass man auf G70 diese Bildqualitaet auch nicht nachbilden kann. Ich hab noch keine ausfuehrliche Analyse bis jetzt ueber den neuen AF modus gelesen; nur ein paar Fetzen von bedeutungslosen Tests und ein paar verstreute Screenshots (wobei man auch hier selten Unterschiede zum alten modus sieht, weil jemand zu bloed ist und nur einen flachen Brettboden vergleicht).

Am Ende des Tages interessiert beide IHVs mehr was die Leistungsbalken in reviews anzeigen als alles andere. Im Fall von R520 sieht mir der neue HQ modus nur leider eher als nettes extra fuer die paar qualitaetsbewussten User dort draussen aus.

Ailuros
2005-11-21, 04:25:58
langsam wird die ewige diskussion rund um die Bildqualität recht nervig.

http://home.arcor.de/jodee2/ss2.JPG

7800 GTX 512 MB + HQ

was will man mehr? denke nicht, daß das bild bei ati besser aussieht, nur es gibt einen gewissen unterschied: bei ati würden diese einstellungen nicht flüssig laufen :D

Ich kann Dir nur sagen was ich will: weniger Winkelabhaengigkeit und keine Filterungs-Optimierungen bei default und das bitteschoen von beiden Seiten.

Mr. Lolman
2005-11-21, 14:43:34
Die originale Debatte ueber bi-/trilinear war ueber UT2k4 was ich schon als CPU limitiert und veraltet bezeichnete; was genau sollen mir jetzt Steinzeit-Quake3 shots ueberhaupt bei der laecherlichen Aufloesung genau zeigen?

Ich dachte UT2004 ist längst gegessen. Dementsprechend gings bei den Screeenshots auch nicht um UT2004 sondern um Seriuos Sam 2. Dass ich Q3a Screenshots gemacht hab, hat den einfachen Grund, dass es 1. egal sein sollte welches Spiel man zu BQ Vergleichen heranzieht, es 2. dementsprechend nur auf die Texturen ankommt, 3. Q3a für solche vergleiche fast ideal ist, und 4. meine Freundin zu dem Zeitpunkt den rechner blockiert hat, und ich deswegen auf vorhandene Q3a-Screenshots zurückgreifen musste (aber das hab ich eh schon geschrieben)


Das beide unterschiedliches MIPmapping haben wurde schon so oft erwaehnt, dass es schon gegeben sein sollte.

Ist es anscheinend nicht. Es wird ja immernoch ignoriert, dass NV Q (ohne Opts) flimmriger ist, als Ati biAF...


Wuerdest Du jetzt volles trilinear AF (ohne jegliche Optimierungen) auf einer R300@400MHz und einer 6800GT verwenden, versohlt die zweite den ersten in Fuellraten limitierten Tests in UT2k4 so stark dass es nichtmal zur Debatte stehen sollte. 2.8GPixels/s vs. 1.6GPixels/s trilinear. Nicht zu erwaehnen dass man hier sogar die NV40 auch uebertakten sollte fuer wahre Vergleiche.

Sag mal hast du irgend ein persönliches Problem mit der NV Leistung? Ich schrieb in irgendeinem Beispiel, dass die R300 mit 4xAA biAf so schnell war, wie der NV40 mit 4xAA HQ AF. Und daran hängst du dich jetzt schon seit ~3 Seiten auf. Scheiss doch drauf. So ein Elan würd ich gern bei verpfuschten Reviews sehen. Denn die schlagen viel größere Wogen, als ein kleiner Satz, den ich irgendwo (vll. sogar beiläufig) erwähnt hab.

Außerdem war die 6800GT übertaktet: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3220967#post3220967 :rolleyes:


Wenn Du UT2kX online spielst, limitiert genau was im Grund?

Ich spiels nur im Netzwerk und da limitiert in meinen Einstellungen die GraKa... Aber egal jetzt. Es ging ursprünglich um Serious Sam 2.

aths
2005-11-21, 17:22:16
Ist es anscheinend nicht. Es wird ja immernoch ignoriert, dass NV Q (ohne Opts) flimmriger ist, als Ati biAF...Das sind aber zwei Paar Schuhe.

Mr. Lolman
2005-11-21, 17:33:36
Das sind aber zwei Paar Schuhe.

Naja nicht ganz. NV AF braucht schöne Trilinearität um nicht zum Flimmern zu neigen. ATis Algorithmus funktioniert interessanterweise so, dass man mit biAF zwar den Mipmapübergang sieht, das Bild jedoch nicht flimmriger /grisseliger wird.

Das ist imo auch ein Mitgrund, warum AI low, trotz Brilinearität, insgesamt besser wirkt als NVs Q (ohne Optimierungen).

sulak
2005-11-21, 18:14:19
Ich hab auf meiner 6800GT niemals in Q gespielt, HQ ohne Optimierungen hab ich stets eingestellt, ob das der Treiber jetzt 100% umgesetzt hat kann ich nicht beurteilen zumindest ist mir nie ein optischer Unterschied bei neueren Treibern aufgefallen (das einzigste war ein Treiber Sprung mit meiner GTX jetzt).

Ich kenne kein Spiel bei dem man auf Q zurück geht, wenns an der Leistung der Graka mangelt sollte dann dreht man halts AA auf 2x zurück oder geht Notfalls mit der Auflösung bissl runter (jaja is dumm für TFT User aber ich nutze eine Röhre also mir egal). Das bringt Leistung aber nicht diese Furzoptimierungen dies Bild aufweichen (Filteroptimierungen bei UT lass ich mal außen vor weil da sicher härter getrickst wird als im Standart, aber das kann keiner genau wissen).

Selbst auf meiner alten FX5900 hab ich Optimierungen gemieden weils damals in Daoc Bugwellen verursacht hat und das nervte einen dann 8h lang (mit meiner R9700 aufm 2. Rechner ging die nie weg).

aths
2005-11-22, 12:48:06
Naja nicht ganz. NV AF braucht schöne Trilinearität um nicht zum Flimmern zu neigen. ATis Algorithmus funktioniert interessanterweise so, dass man mit biAF zwar den Mipmapübergang sieht, das Bild jedoch nicht flimmriger /grisseliger wird. Das ist ein Widerspruch. Sofern das Bi-Band an der gleichen Stelle ist, ist die Zunahme der Flimmeranfälligkeit ebenfalls gleich. Bilineare Filterung sollte so berechnet werden, dass es auch kurz vor dem MIP-Band (gerade so) noch nicht flimmert. Bei "bösen" Texturen wird es jedoch schon flimmern, während direkt hinter dem Bi-Band in jedem Fall Matsch ist, egal ob die Textur "böse" ist oder nicht. Ist die Textur "böse" genug, dass es mit trilinearer Filterung gerade so noch nicht doll flimmert, ist bei bilinearer Filterung direkt vor dem MIP-Band flimmern zu erwarten. Auch auch auf ATI-Hardware.

ATI-HW dürfte bei brilinearer Filterung allerdings mehr Geschwindigkeit gewinnen als NV-HW, da bei den Radeons kleinere Pixelblöcke verarbeitet werden. Die Wahrscheinlichkeit, dass trotz aktivierter trilinearer Filterung der gesamt Block rein bilinear gefiltert werden kann ist größer.

Das ist imo auch ein Mitgrund, warum AI low, trotz Brilinearität, insgesamt besser wirkt als NVs Q (ohne Optimierungen).Mich interessiert weder NVs Q nocht ATIs bri-Filter. Wer eine aktuelle Graka kauft, will sicher ohne Texturflimmern oder MIP-Banding spielen. Warum überhaupt über NVs Q reden, wenn es zum Flimmern neigt? Unterfilterung ist per se inakzeptabel.

Mr. Lolman
2005-11-22, 13:01:33
Das ist ein Widerspruch. Sofern das Bi-Band an der gleichen Stelle ist, ist die Zunahme der Flimmeranfälligkeit ebenfalls gleich. Bilineare Filterung sollte so berechnet werden, dass es auch kurz vor dem MIP-Band (gerade so) noch nicht flimmert. Bei "bösen" Texturen wird es jedoch schon flimmern, während direkt hinter dem Bi-Band in jedem Fall Matsch ist, egal ob die Textur "böse" ist oder nicht.

Das Biband ist bei Ati weiter hinten, und auf gleicher Höhe (kurz vorm Übergang) flimmerts bei Ati deutlich weniger.

R300 16xAI-low-biAF: http://img21.imageshack.us/img21/3999/atimipsbiaf6yx.jpg
NV40 16x HQ-biAF http://img21.imageshack.us/img21/8680/nvmipsbiaf9mx.jpg

Außerdem ist immernoch nicht geklärt, warum ATi bei fehlenden Mips viel besser filtert als NV: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3660525#post3660525


Mich interessiert werder NVs Q nocht ATIs bri-Filter. Wer eine aktuelle Graka kauft, will sicher ohne Texturflimmern oder MIP-Banding spielen.

Das isses ja. AI Low verwendet (afaik) automatisch den bri-Filter und trotzdem gibts kein Flimmern und kein Mipband.


Warum überhaupt über NVs Q reden, wenn es zum Flimmern neigt? Unterfilterung ist per se inakzeptabel.

Weil die meisten HW-Redakteure immernoch so benchen...

mapel110
2005-11-22, 23:57:51
ATIs Meinung zur 512 MB GTX?! :biggrin:
http://www.techpowerup.com/reviews/ATI/NVDesperate/2

Coda
2005-11-23, 00:05:34
Kindergarten.

Die Quadro-Karten mit 550Mhz laufen auch im Dauerbetrieb stabil (das müssen sie), also wird es der Chip auch packen.

Und das R520 XT auf der kleinen Die-Fläche >100W verbrät kann auch nicht gerade gesund sein für den Chip.

deekey777
2005-11-23, 00:05:56
ATIs Meinung zur 512 MB GTX?! :biggrin:
http://www.techpowerup.com/reviews/ATI/NVDesperate/2

ATi fühlt sich von nVidia mit der 7800GTX 512MB hintergangen zu sein... ;(

Aber:
http://www.techpowerup.com/reviews/ATI/NVDesperate/images/NVDesperateStand-17.jpg

Fällt da was auf? ;) :biggrin:

Kindergarten.

Kindergarten? Ja, definitiv. Aber wenn man jede Folienpräsentation - egal ob von ATi oder nVidia - nüchtern betrachtet, dann sieht man, daß sehr viele dargelegte Äußerungen Tatsachen sind, doch diese Tatsachen sind aus dem Gesamtkonzept herausgerissen, daß deren eigentlicher Sinngehalt verfälscht wurde.

Coda
2005-11-23, 00:07:36
Das ATi denkt das G70 "Ultra" schon die Antwort auf R580 sein sollte? Wollen sie jetzt Mitleid?

Ein R520 XT-PE wird G70 "Ultra" nicht erreichen können, dafür brauchen sie >750Mhz.

Kindergarten? Ja, definitiv. Aber wenn man jede Folienpräsentation - egal ob von ATi oder nVidia - nüchtern betrachtet, dann sieht man, daß sehr viele dargelegte Äußerungen Tatsachen sind, doch diese Tatsachen sind aus dem Gesamtkonzept herausgerissen, daß deren eigentlicher Sinngehalt verfälscht wurde.Natürlich. Etwas wegzulassen ist oft die schlimmste Lüge.

deekey777
2005-11-23, 00:10:30
Das ATi denkt das G70 "Ultra" schon die Antwort auf R580 sein sollte? Wollen sie jetzt Mitleid?

Ich tippe eher auf die mysteröse X1800XT PE, die Anandtech beim Mini-Preview zum RD580 erwähnt hat.

Coda
2005-11-23, 00:11:17
Das wird ihnen aber nichts nützen, noch mehr Spannung um auf den benötigten Takt zu kommen und der Chip verballert >150W.

deekey777
2005-11-23, 00:14:15
Das wird ihnen aber nichts nützen, noch mehr Spannung um auf den benötigten Takt zu kommen und der Chip verballert >150W.

Nicht nur der Chip verbraucht Saft. Die X1800XL bzw. deren Chip(alt) verbraucht je nach Belastung 11-24W. Na gut, er ist auch mit 500MHz getaktet, aber er ist nicht der einzige Verbraucher.

tombman
2005-11-23, 00:14:43
Kindergarten.

Die Quadro-Karten mit 550Mhz laufen auch im Dauerbetrieb stabil (das müssen sie), also wird es der Chip auch packen.

Und das R520 XT auf der kleinen Die-Fläche >100W verbrät kann auch nicht gerade gesund sein für den Chip.

Eben. Keiner kann sich leisten eine Karte für den Pro-Markt zu releasen, die nach ATis Rechnung weniger als zwei Monate Dauerbelastung aushält. (1170 Stunden)

Und branching is ja recht nice, aber wenn es kein dev nutzt, ist es ein totes feature....

ATi soll aufhören rumzuheulen ;)

deekey777
2005-11-23, 00:15:56
...
Und branching is ja recht nice, aber wenn es kein dev nutzt, ist es ein totes feature....


Aber nur weil die Grünen darim so lahm sind. X-D

Coda
2005-11-23, 00:16:19
Nicht nur der Chip verbraucht Saft. Die X1800XL bzw. deren Chip(alt) verbraucht je nach Belastung 11-24W. Na gut, er ist auch mit 500MHz getaktet, aber er ist nicht der einzige Verbraucher.Das glaubst du doch im Leben nicht. Bei 500Mhz GDDR3 muss der größte Teil am Chip liegen, der verbraucht ja wirklich sehr wenig (10W etwa).

tombman
2005-11-23, 00:16:38
Aber nur weil die Grünen darim so lahm sind. X-D

Ne, weil kaum wer highend hw zu Hause hat... ;)

deekey777
2005-11-23, 00:17:08
Das glaubst du doch im Leben nicht.

Das sagt RivaTuner 15.8, nicht ich. :)

€: Weiterhin soll die X1800XL auch bald den aktuellen R520 Rev. 05 bekommen und nicht mehr den 1,4ns Speicher, sondern den zivilen 2.0 Speicher, wie es eigentlich gedacht ist. Mit hoher Wahrscheinlichkeit ist auch ein einfacheres PCB für die X1800XL zu erwarten.

Coda
2005-11-23, 00:19:46
Und wie soll Rivatuner das wissen?

deekey777
2005-11-23, 00:23:56
Und wie soll Rivatuner das wissen?

Es soll mit der neuesten Version möglich sein, den vom Chip benötigten Strom auszulesen. Da er (der alte R520!) auf der X1800XL mit 1.1V betrieben wird, kann man so auch die Leistung ausrechnen.
Doch ein Strom von 22-24A ist schon heftig.

€: Woher das kommt? Aus dem HiS X1800XL Review von iXBT. Der Reviewer steht wiederum im sehr engen Kontakt mit dem Entwickler des RT.

Coda
2005-11-23, 00:26:57
Also 22A ist nichts ungewöhnliches, bei den Prescotts läuft auch >50A.

Nur sind ~25W für X1800XL doch eindeutig zu wenig imho.

StefanV
2005-11-23, 00:32:28
Also 22A ist nichts ungewöhnliches, bei den Prescotts läuft auch >50A.

Nur sind ~25W für X1800XL doch eindeutig zu wenig imho.
Warum?

8 Chips a 1-2A, dann kann das schon etwa hinkommen...

Coda
2005-11-23, 00:48:44
GDDR3 bei 500Mhz verbraucht weniger. Die werden ja selbst ohne Kühler nichtmal annähernd heiß.

Huhn
2005-11-23, 01:31:26
ATIs Meinung zur 512 MB GTX?! :biggrin:
http://www.techpowerup.com/reviews/ATI/NVDesperate/2
da fällt mir der Spruch ein "Nur getroffene Hunde bellen!"
wenn man sich die Folien ansieht, hat man fast das Gefühl ati will sich da was schön reden. Wo ist das Problem darin die "Clocks" hoch zu "Crank"en wenn dabei die Verlustleistung der GPU kaum steigt und sogar deutlich in Idle sinkt?Auch ein fantastischer Vergleich Nvidias Quality BQ mit der High Quality Af Qualität er ATI zu vergleichen. Da stellt sich mir die Frage, warum sie nicht gleich Höchste Leistung bei der Nvidia genommen haben? Der Preisvergleich hinkt damit natürlich auch etwas. man erwartet ja auch nciht, dass ein Intel mit 3ghz genauso teuer ist wie ein Amd mit 2,5ghz (in diesem bspl ghz=leistungeinheit). Mehr Leistung ist grundsätzlich teurer und sollte es auch sein. Einzig und alleine Preis/Leistung zählt

Slipknot79
2005-11-23, 02:37:47
http://www.techpowerup.com/reviews/ATI/NVDesperate/images/NVDesperateStand-5.jpg


Vollkommen logisch, die Durchschnittskarte rennt ja auch auf 125°C....

seahawk
2005-11-23, 08:19:46
Wenn man ATI ist, dann stimmmen die Folie nschon. Kommt immer auf die Sichtweise an. :D

Hakkerstiwwel
2005-11-23, 09:21:50
http://www.techpowerup.com/reviews/ATI/NVDesperate/2
Am Stil eng an den nV Vorgaben orientiert, ueber Geschmack laesst sich streiten. Lustig dass man nV vorwirft nicht liefern zu koennen.

Crushinator
2005-11-23, 09:31:05
(...) Lustig dass man nV vorwirft nicht liefern zu koennen.
Da mußte ich gerade auch schmunzeln. Ich weiß nicht wen die damit beeindrücken wollen, aber bei mir als ansonsten überzeugten ATi-User haben sie damit genau das Gegenteil erreicht.

[Edit]
Posts mit dem Thread hier zusammengeführt.

BlackBirdSR
2005-11-23, 09:35:17
Wieder mal mehr peinlich als sonstwas.
Ausser der Punkt mit der erhöhten Ausfallrate durch erhöhte Spanung.

Es ist sehr selten, dass jemand soetwas heut zu tage noch erwähnt.
Früher war das ja "das" Schockmittel von Intel gegen die bösen Verbrecher, die ihre CPUs übertakten wollten.

Ailuros
2005-11-23, 09:50:18
Ich dachte UT2004 ist längst gegessen. Dementsprechend gings bei den Screeenshots auch nicht um UT2004 sondern um Seriuos Sam 2.

Ich hab aber keine ATI bi-AF shots von SS2 gesehen sondern von Q3a.

Dass ich Q3a Screenshots gemacht hab, hat den einfachen Grund, dass es 1. egal sein sollte welches Spiel man zu BQ Vergleichen heranzieht

Nein es ist eben nicht egal:

1. Du kannst fast alles verrueckte in Q3a zuschalten auf heutigen GPUs und es bleibt spielbar als spielbarer. In neueren Spielen sind User des oefteren gezwungen nach Optimierungen zu greifen weil die Leistung nicht mehr ausreicht.

2. Wer zum Henker spielt heutzutage noch Q3a ueberhaupt? Warum nicht gleich Quake1 um es noch laecherlicher zu machen? Und wenn's schon sein muss keiner gibt heute >400€ fuer eine GPU aus um Antiquitaeten zu spielen.


, es 2. dementsprechend nur auf die Texturen ankommt,

Als Q3A noch heiss wahr konnte man auf Radeons nur beschissen mit AF filtern, wenn es schon sein muss. R100 und R200 dann wohl eher.

3. Q3a für solche vergleiche fast ideal ist,

Uhmm ja wenn man in einer Zeitschleusse blockiert ist sicher.... :|

und 4. meine Freundin zu dem Zeitpunkt den rechner blockiert hat, und ich deswegen auf vorhandene Q3a-Screenshots zurückgreifen musste (aber das hab ich eh schon geschrieben)

*ahem*

Ist es anscheinend nicht. Es wird ja immernoch ignoriert, dass NV Q (ohne Opts) flimmriger ist, als Ati biAF...

Kommt auf die Anzahl der Optimierungen die auf Radeons benutzt werden an und wie sich jedes Spiel verhaelt. Es gibt genug Faelle wo es genau anders rum ist nur kommt hier dann gleich wieder die bekannte Verleugnung dass Du nichts sehen kannst oder willst.

Sag mal hast du irgend ein persönliches Problem mit der NV Leistung?

Persoenlich nehme ich gar nichts um das erstmal klar zu stellen. Ich hab ein Problem mit der Art wo Du versuchst gewissen Tatsachen darzustellen und dazu sind sie nicht nur eindeutig einseitig, aber auch viel zu oft aus dem wahren Kontext getrieben.


Ich schrieb in irgendeinem Beispiel, dass die R300 mit 4xAA biAf so schnell war, wie der NV40 mit 4xAA HQ AF. Und daran hängst du dich jetzt schon seit ~3 Seiten auf. Scheiss doch drauf.

Nein eben nicht. Ich wuerde einem reviewer den Kopf abnehmen wenn er mir mit solche einem Vergleich ankommen wuerde. Bilinear ist bilinear und trilinear = trilinear und danach kommt nur der wahre Schlusspunkt bei mir, ohne jegliche aber bitteschoen.

Ich spiels nur im Netzwerk und da limitiert in meinen Einstellungen die GraKa... Aber egal jetzt. Es ging ursprünglich um Serious Sam 2.

Na ich will mal hoffen dass wir dabei bleiben koennen und moeglichst in vergleichbaren Situationen.

Ailuros
2005-11-23, 09:56:53
Was die Schlammschlacht der diversen PR-FUD-slides beider IHVs betrifft, sind sie hoechstens gut fuer ein hoehnisches grinsen aber mehr nicht.

Verzweiflungsakt?

http://www.techpowerup.com/reviews/ATI/NVDesperate/images/NVDesperateStand-17.jpg

Was ist dann ihr "TBA" (to be announced) $649 Produkt genau dann? :biggrin:

Besonder nett sind die nett groooooooossen Balken die aber den prozentuellen Unterschieden nicht direkt entsprechen. Als ob ihre Produkte gar nichts an Leistung durch Filterungs-Optimierungen dazugewinnen pffffff.

Die einzigen Punkte die man behalten kann sind das schnellere dynamische branching und ihr HQ AF; der Rest ist fuer die Tonne. Trotzdem aber amuesant solchen Mist ab und zu von der einen oder anderen Seite lesen zu koennen.

Raff
2005-11-23, 11:00:47
X1800 XT-PE? Wenn sie denn kommt. Unter 700 MHz GPU braucht sich Ati eh nicht mit etwas Neuem herauszutrauen ...

MfG,
Raff

Mr. Lolman
2005-11-23, 11:14:31
Ich hab aber keine ATI bi-AF shots von SS2 gesehen sondern von Q3a.

Nein es ist eben nicht egal:

1. Du kannst fast alles verrueckte in Q3a zuschalten auf heutigen GPUs und es bleibt spielbar als spielbarer. In neueren Spielen sind User des oefteren gezwungen nach Optimierungen zu greifen weil die Leistung nicht mehr ausreicht.

2. Wer zum Henker spielt heutzutage noch Q3a ueberhaupt? Warum nicht gleich Quake1 um es noch laecherlicher zu machen? Und wenn's schon sein muss keiner gibt heute >400€ fuer eine GPU aus um Antiquitaeten zu spielen.


Wir diskutieren doch nur um Texturfilterung. Diese Textur würde in Serious Sam genausowenig besser aussehen. Und Q3a spielen heutzutage noch genug Leute. Q3a ist eins der wenigen quasi perfekten Spiele...


Als Q3A noch heiss wahr konnte man auf Radeons nur beschissen mit AF filtern, wenn es schon sein muss. R100 und R200 dann wohl eher.


Uhmm ja wenn man in einer Zeitschleusse blockiert ist sicher.... :|


Die Filterqualität DARF nicht appabhängig sein. Dementsprechend ists egal wie alt das Spiel ist und welche Texturen man nimmt, so lang sie scharf genug sind. Ich schimpf bei den AF-Blumen doch auch nich darüber dass die AF-Tester kein aktuelles Spiel sind und deswegen keine Relevanz haben. Also mach dich bitte nicht lächerlich.


*ahem*


Was?


Kommt auf die Anzahl der Optimierungen die auf Radeons benutzt werden an und wie sich jedes Spiel verhaelt. Es gibt genug Faelle wo es genau anders rum ist nur kommt hier dann gleich wieder die bekannte Verleugnung dass Du nichts sehen kannst oder willst.

Welche denn? Welche Spiele flimmern mit Ati biAF mehr als mit NV40 oder gar G70 Q?


Persoenlich nehme ich gar nichts um das erstmal klar zu stellen. Ich hab ein Problem mit der Art wo Du versuchst gewissen Tatsachen darzustellen und dazu sind sie nicht nur eindeutig einseitig, aber auch viel zu oft aus dem wahren Kontext getrieben.

Was ist der wahre Kontext. Du bringst sich nett anhörende Floskeln, die mich in den Augen unbedarfter diskreditieren ohne dass du ein Gegenargument bringen kontest.


Nein eben nicht. Ich wuerde einem reviewer den Kopf abnehmen wenn er mir mit solche einem Vergleich ankommen wuerde. Bilinear ist bilinear und trilinear = trilinear und danach kommt nur der wahre Schlusspunkt bei mir, ohne jegliche aber bitteschoen.

Dann mach das bitte. Ich möcht garnicht wissen wieviel OpenGL Spielebenchmarks mit hässlichem NV Q+Opts biAF gegen Ati tri/briAF gebencht wurden. NVs Control Panel lädt durch das undurchsichtige Verhalten geradezu ein. Firingsquad macht von dem biaf sogar noch Screenshots und behauptet es sähe besser aus...


Na ich will mal hoffen dass wir dabei bleiben koennen und moeglichst in vergleichbaren Situationen.

Vergleichbare Situationen? Die 30fps waren der Vergleichsparameter. Und jetzt? Ist Q +Opts eine vergleichbare Situation? Bringen wir nochmal die Q3a gifs. Komisch, das Spiel könnte so toll rennen, und trotzdem schaut es bei NV so beschissen aus, wenn man die Systemleistung nicht ändert:

NV40 4xAA/16xAF treiberdefault: http://img345.imageshack.us/img345/8628/default77761jd.gif
R3x0 4xAA/16xAF treiberdefault: http://img306.imageshack.us/img306/8826/ati0hz.gif

Keine Angst, für so Nörgler wie dich, setz ich mich extra hin und bastle auch Seriuos Sam 2 gifs. Ich muss nur mal ne passende Textur finden, damit dass nicht in so peinlichen Pseudovergleichen wie bei unseren Reviewerkollegen endet.

Mr. Lolman
2005-11-23, 11:15:20
X1800 XT-PE? Wenn sie denn kommt. Unter 700 MHz GPU braucht sich Ati eh nicht mit etwas Neuem herauszutrauen ...

MfG,
Raff
(Warum?)


Dürfte aber kein allzugroßes Problem sein. X800XTs gehen tw. recht gut zum Ocen.

Raff
2005-11-23, 11:17:06
Weil Sprünge von unter 10% reichlich sinnlos sind? Den teilweise vorhandenen Abstand würde es verringern, das Bild aber sicher kaum ändern.

MfG,
Raff

Mr. Lolman
2005-11-23, 11:18:04
Weil Sprünge von unter 10% reichlich sinnlos sind? Den teilweise vorhandenen Abstand würde es verringern, das Bild aber sicher kaum ändern.

MfG,
Raff

Imo reichen für die 512MB G70 auch die 625MHz. Warts ab...

seahawk
2005-11-23, 11:46:22
4,2% mehr Leistung dürften kaum merklich sein.

Mr. Lolman
2005-11-23, 11:49:40
4,2% mehr Leistung dürften kaum merklich sein.

625MHz sind Defaulttakt.

Godmode
2005-11-23, 12:10:15
Imo reichen für die 512MB G70 auch die 625MHz. Warts ab...

Du meinst etwa durch Treiberoptimierung(keine Cheats)?

aths
2005-11-23, 12:11:54
Das Biband ist bei Ati weiter hinten, und auf gleicher Höhe (kurz vorm Übergang) flimmerts bei Ati deutlich weniger.Wenn es sogar weiter hinten ist, muss es mehr flimmern.

Deine Screenshots zeigen bei ATI das (ungewollte) MIP-Map-"Dithering". Ich hoffe, dass der R520 endlich eine genauere LOD-Berechnung implementiert hat.

Außerdem ist immernoch nicht geklärt, warum ATi bei fehlenden Mips viel besser filtert als NV: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3660525#post3660525Bildtexturen sollten immer mit MIPs vorliegen. Wenn man zu faul ist, MIP zu erstellen, kann man das auch die Graka automatisch machen lassen.

Das isses ja. AI Low verwendet (afaik) automatisch den bri-Filter und trotzdem gibts kein Flimmern und kein Mipband.Das MIP-Band kann in der Sichtbarkeit durch die ungenaue LOD-Berechnung ohnehin weniger deutlich auftreten. Wenn das Bi-Band beim brilinearen Filter bei beiden Karten gleich groß ist, nimmt auch die Flimmeranfälligkeit um den gleichen Betrag zu – wobei selbst reine bilineare Filterung noch nicht richtig flimmern sollte. Sofern keine "bösen" Texturen zum Einsatz kommen, und nicht unterfiltert wird, erzeugt bilineare Filterung kein Flimmern. Sofern leicht böse Texturen zum Einsatz kommen, kann trilineare Filterung etwas vom Flimmern verstecken. Wenn der brilineare Filter der Radeon nicht zum Flimmern führt, ist das demnach was ganz normales. Wenn in derselben Szene die GeForce bereits flimmert, kann ich das nur durch Unterfilterung erklären – aber in HQ unterfiltert sie nicht.

An der Stelle würde mich interessieren ob was daran ist, dass angeblich der Cat 5.9 oder so im Vergleich zum 5.7 zum Flimmern neigen soll.

Weil die meisten HW-Redakteure immernoch so benchen...Warum sollte mich das interessieren? Ich hoffe, dass die 3DC-HW-Redakteure nicht mehr so benchen.

Mr. Lolman
2005-11-23, 12:37:14
Du meinst etwa durch Treiberoptimierung(keine Cheats)?

Einerseits ja andererseits, ist der Abstand auch jetzt schon nicht so groß und auch wenn die Ati Folien wieder typisch marketingmässig den competitor bashen, so haben sie auch zumindest in dem Punkt recht, dass NV doch tw. ganz ordentlich Leistung verliert, wenn man auf HQ schaltet. (wobei ich mich frag ob Atis Marketing tw. pennt. Mit Q4 und Serious Sam 2 hätte man den Q->HQ Unterschied noch viel mehr ausschlachten können)


Also

1. Treiberoptimierungen.
2. vglbare BQ.
3. sich bei neuen Spielen verschiebende Anforderungen (z.b. dynamic Branching)

sollten imo zumindest für einen Gleichstand reichen...

seahawk
2005-11-23, 12:43:25
625MHz sind Defaulttakt.

Eben 4,2% mehr als die bisher gebenchten XTs.

Mr. Lolman
2005-11-23, 12:53:50
Wenn es sogar weiter hinten ist, muss es mehr flimmern.

Deine Screenshots zeigen bei ATI das (ungewollte) MIP-Map-"Dithering". Ich hoffe, dass der R520 endlich eine genauere LOD-Berechnung implementiert hat.

Ich glaub nicht, dass das nur das Dithering ist. Ati überfiltert vorm Mipmapübergang. Wenn das echt alles nur vom Dithering käme, müssten klar strukturierte Texturen ziemlich mies aussehen.


Bildtexturen sollten immer mit MIPs vorliegen. Wenn man zu faul ist, MIP zu erstellen, kann man das auch die Graka automatisch machen lassen.

Klar. Nur glaub ich nicht, dass der (zugegebenermassen praxisferne) Vorteil bei mipmaplosen Texturen auch nur vom LOD-Dithering kommen soll (da könnt ich mir das noch weniger erklären). Dementsprechend bin ich der Meinung, dass Ati innerhalb einer Mip Richtung Z mehr Samples gewichtet als NV (-> überfilterung)


Das MIP-Band kann in der Sichtbarkeit durch die ungenaue LOD-Berechnung ohnehin weniger deutlich auftreten. Wenn das Bi-Band beim brilinearen Filter bei beiden Karten gleich groß ist, nimmt auch die Flimmeranfälligkeit um den gleichen Betrag zu – wobei selbst reine bilineare Filterung noch nicht richtig flimmern sollte. Sofern keine "bösen" Texturen zum Einsatz kommen, und nicht unterfiltert wird, erzeugt bilineare Filterung kein Flimmern. Sofern leicht böse Texturen zum Einsatz kommen, kann trilineare Filterung etwas vom Flimmern verstecken. Wenn der brilineare Filter der Radeon nicht zum Flimmern führt, ist das demnach was ganz normales. Wenn in derselben Szene die GeForce bereits flimmert, kann ich das nur durch Unterfilterung erklären – aber in HQ unterfiltert sie nicht.

Imo überfiltert ATi. Denn biAF (über App forciert) schaut bei NV HQ immernooch flimmriger aus als Ati-AIlow-biAF. Ich einige mich auch gerne darauf, dass NV (@HQ) mw den "korrekteren" Weg beschreitet, jedoch spart sich ATi, durch die Überfilterung u.U. viel vom triBand. Bei der Splinter Cell 3 Demo hab ich mit Tommtis 3D Analyze mal ein bri-Übergang entdeckt, der aus maximal 4 Abstufungen bestand. Also schon mehr bilinear als trilinear. Trotzdem wirkte die Grafik ohne Colormips einwandfrei.


An der Stelle würde mich interessieren ob was daran ist, dass angeblich der Cat 5.9 oder so im Vergleich zum 5.7 zum Flimmern neigen soll.

Iirc überprüft das schon Raff. Mir fiel auf der R300 nix besonderes auf, bzw. hab ich mich mit den neueren Ati treibern noch nicht so ausgiebig beschäftigt. Und meine Freundin (=Hauptnutzerin der GraKa) hat eh kein Auge für sowas. :)


Warum sollte mich das interessieren? Ich hoffe, dass die 3DC-HW-Redakteure nicht mehr so benchen.

Das hoff ich auch. BTW: Gibts schon irgendwelche Infos über ein anstehendes 3DC Review?

Mr. Lolman
2005-11-23, 12:54:54
Eben 4,2% mehr als die bisher gebenchten XTs.

Echt? Die wurden alle @600MHz gebencht? Und ATi will nun, dass die Hersteller mit 650MHz ausliefern? (Oder war das nur eine Ente?)

Coda
2005-11-23, 13:57:42
Klar. Nur glaub ich nicht, dass der (zugegebenermassen praxisferne) Vorteil bei mipmaplosen Texturen auch nur vom LOD-Dithering kommen soll (da könnt ich mir das noch weniger erklären). Dementsprechend bin ich der Meinung, dass Ati innerhalb einer Mip Richtung Z mehr Samples gewichtet als NV (-> überfilterung)Mit der Meinung dürftest du ziemlich allein dastehen, da ich kaum glaube, dass ATi bei reinem Trilinear mehr als 8 Samples nimmt.

Diese Ungenauigkeit beim Mip-Übergang kommt durch das ungenau LOD, das heißt ja nicht das die Farbe an dieser Stelle nicht passt, sondern dass das Mipband rauscht, bzw. die Farbe würde nur mit unpassenden gefärbten Mips nicht stimmen.

Ailuros
2005-11-23, 14:17:09
Wir diskutieren doch nur um Texturfilterung. Diese Textur würde in Serious Sam genausowenig besser aussehen. Und Q3a spielen heutzutage noch genug Leute. Q3a ist eins der wenigen quasi perfekten Spiele...

Perfektion oder Nostalgie-Trip?

Die Filterqualität DARF nicht appabhängig sein. Dementsprechend ists egal wie alt das Spiel ist und welche Texturen man nimmt, so lang sie scharf genug sind. Ich schimpf bei den AF-Blumen doch auch nich darüber dass die AF-Tester kein aktuelles Spiel sind und deswegen keine Relevanz haben. Also mach dich bitte nicht lächerlich.

Laecherlich sind lediglich Deine eher verzweifelten und durchaus einseitigen Versuche eine Realitaet so hinzudrehen wie sie Dir gerade passt.

Ich weigere mich weiterhin Q3a zu diskuttieren, weil ich eben besseres zu tun habe als die CPU bzw. Plattform zu messen. Und wie schon mal wiederholt bilinear sieht in der besagten Szene genauso unakzeptabel wie brilinear aus.

Was?

Kein Kommentar = uebersetzt.

Welche denn? Welche Spiele flimmern mit Ati biAF mehr als mit NV40 oder gar G70 Q?

Lies nochmal oben nach; ich sagte dass es auf die Anzahl der anderen Optimierungen ankommt. Tauscht man mit einer Optimierung AF samples gegen aggressiveren LOD aus flimmert es wie die Hoelle. Es kommt auf beiden darauf an was man ein- oder ausschaltet oder noch besser was man ein- und ausschalten kann.


Was ist der wahre Kontext. Du bringst sich nett anhörende Floskeln, die mich in den Augen unbedarfter diskreditieren ohne dass du ein Gegenargument bringen kontest.

Besondere Hilfe von mir brauchst Du gerade nicht. Was fuer ein Gegenargument brauchst Du denn ueberhaupt? Die meisten Filterungs-Optimierungen heutzutage geben mehr Leistung und schlechtere Bildqualitaet ab; von dieser Tatsache ist auch nicht ATI verschont und schon gar nicht unschuldig.

Wie gesagt entweder Du siehst nichts oder willst nichts sehen und jetzt mal ganz ehrlich ich wuerde auch nicht so aggressiv ankommen wenn ich Dich wenigstens einmal erwischen wuerde AUFBAUENDE Kritik auch mal an ATI zu wenden und noch genauer was Filterungs-Optimierungen betrifft.


Dann mach das bitte. Ich möcht garnicht wissen wieviel OpenGL Spielebenchmarks mit hässlichem NV Q+Opts biAF gegen Ati tri/briAF gebencht wurden. NVs Control Panel lädt durch das undurchsichtige Verhalten geradezu ein. Firingsquad macht von dem biaf sogar noch Screenshots und behauptet es sähe besser aus...

Das CP wird das ausfuehren was ihm der Benutzer gibt und ja leider muss man jegliches setting nachdem man "quality" z.B. einsetzt auch einzeln nachpruefen. Wenn dazu jeglicher reviewer zu bloed ist oder wenn er keine Ahnung hat was auf seinem Bildschirm ablaeuft sollte er sich lieber mit was anderem beschaeftigen. Das soll jetzt nicht heissen dass wir einfache User nicht auch Fehler machen, aber man sollte diese dann auch eingestehen und korrigieren.


Vergleichbare Situationen? Die 30fps waren der Vergleichsparameter. Und jetzt? Ist Q +Opts eine vergleichbare Situation? Bringen wir nochmal die Q3a gifs. Komisch, das Spiel könnte so toll rennen, und trotzdem schaut es bei NV so beschissen aus, wenn man die Systemleistung nicht ändert:

NV40 4xAA/16xAF treiberdefault: http://img345.imageshack.us/img345/8628/default77761jd.gif
R3x0 4xAA/16xAF treiberdefault: http://img306.imageshack.us/img306/8826/ati0hz.gif

Keine Angst, für so Nörgler wie dich, setz ich mich extra hin und bastle auch Seriuos Sam 2 gifs. Ich muss nur mal ne passende Textur finden, damit dass nicht in so peinlichen Pseudovergleichen wie bei unseren Reviewerkollegen endet.

Haette ich momentan nichts besseres zu tun wuerde ich das verdammte Spiel nochmal installieren und screenshots mit HQ-AF/4xAA/16xAF in 2048*1536*32, mit der Hoffnung dass Du endlich siehst wie nutzlos dieses Beispiel ist. Sobald die Leistung weit ueber 100fps in solch verrueckten Aufloesungen liegt sind Filterungs-Optimierungen scheissegal; so schwer wird es wohl nicht zu verstehen sein.

SS2 ist ein nagelneues Spiel; entweder man geht mit der Aufloesung runter oder man toleriert ein paar Optimierungen auf mittlerer oder voriger Generation HW. Es haut hauptsaechlich auf die VS ein.

Mr. Lolman
2005-11-23, 14:24:36
Mit der Meinung dürftest du ziemlich allein dastehen, da ich kaum glaube, dass ATi bei reinem Trilinear mehr als 8 Samples nimmt.

Diese Ungenauigkeit beim Mip-Übergang kommt durch das ungenau LOD, das heißt ja nicht das die Farbe an dieser Stelle nicht passt, sondern dass das Mipband rauscht, bzw. die Farbe würde nur mit unpassenden gefärbten Mips nicht stimmen.

Das Mipband rauscht aber nur im Bereich von ein paar Pixel. Die glattere Darstellung geht aber über ein paar zig-Pixel. Und würde das Mipband wirklich so stark rauschen, gäbe es bei klarer strukturierten Texturen eindeutige Fehldarstellungen.

(Lustig ist, dass ich selbst es schon vor min 1 Jahr aufs Mipbandrauschen geschoben hab, und aths damals noch behauptet hat, dass der, bei Ati weichere bi-übergang unmöglich [nur] vom Lodrauschen kommen kann.)

BTW:
R3x0, AIlow, 16xbiAF:_ NV40, HQ, 16xbiAF:
http://img496.imageshack.us/img496/3115/shot00031jl.th.jpg (http://img496.imageshack.us/my.php?image=shot00031jl.jpg) http://img496.imageshack.us/img496/5393/shot00090yr.th.jpg (http://img496.imageshack.us/my.php?image=shot00090yr.jpg)

Huhn
2005-11-24, 02:34:20
irre ich mich oder heisst der Thread 7800GTX mit 512MB im Test bei Computerbase?
komisch, für eine Sekunde dachte ich er heisst NV40 vs r3xx :D

Coda
2005-11-24, 03:12:07
Also Lolman, das Bild ist doch geradezu der Beweis dafür dass es diesen "weicheren Übergang" nicht gibt. Oder siehst du da irgendwo einen weichen Übergang zwischen den Mipstufen?

Was an einem negativen LOD auf dem R300-Bild gut sein soll ist mir auch nicht klar, vor allem weil der Chip sicher nicht mehr als 1 bilineares Samples nimmt, da kannst du Gift drauf nehmen. das geht schon aus der Farbgebung der Screenshots hervor, ich kann da nichtmal ein Pixel mit einer Mischfarbe zw. Rot und Grün entdecken.

Mr. Lolman
2005-11-24, 10:41:22
Also Lolman, das Bild ist doch geradezu der Beweis dafür dass es diesen "weicheren Übergang" nicht gibt. Oder siehst du da irgendwo einen weichen Übergang zwischen den Mipstufen?

Der weichere Übergang ist auf den vorigen Screenshots (ohne Colormips) zu sehen. Aber auch wenn du beide Colormipbilder übereinander legst, wirst du merken, dass innerhalb der Mip0 (Richtung Mip1) bei ATi die Textur weniger flimmrig wirkt, als bei NV. Du hast das auf Mipmapdthering geschoben, nur tritt das in der Szene, wie die letzten Sreenshots zeigen, praktisch nich auf...

seahawk
2005-11-24, 10:44:16
Abgesen davon, dass der Übergang zur zweiten Mipmap bei ATI weiter hinten liegt, sehe ich keinen Unterschied. Und wie ich Flimmern auf Screenshots sehen soll muss mir mal einer erklären.

Mr. Lolman
2005-11-24, 10:47:30
Abgesen davon, dass der Übergang zur zweiten Mipmap bei ATI weiter hinten liegt, sehe ich keinen Unterschied.

Dann brauchst du einen besseren Monitor (oder sieh dir einfach nochmal die Screeenshots ohne Mipmaps an)

Und wie ich Flimmern auf Screenshots sehen soll muss mir mal einer erklären.

Das is garnicht so einfach. :)

Sobald ich zuhause bin, bastle ich ein paar gifs...

Ailuros
2005-11-24, 11:02:34
Dann brauchst du einen besseren Monitor (oder sieh dir einfach nochmal die Screeenshots ohne Mipmaps an)

Oder auch einen schlechteren je nach Perspektive; zu hohe Schaerfe ist nicht immer unbedingt ein Segen.

Hast Du SS:SE auf der Festplatte hocken? Wenn ja probier mal den Technologie-Test; bin mir zwar nicht mehr ganz sicher aber ich denke dass der Befehl fuer die Disco-MIPmaps (:P) b_ColorizeMIPmaps=1 oder so aehnlich ist. SS:SE ist weit heller und hilft vielleicht mehr das was zugegeben schlecht oder gar nicht auf den shots oben zu sehen ist.

seahawk
2005-11-24, 11:03:16
Ok an dem bescheidenen TFT heir auf der Arbeit könnte es liegen.

Trotzdem sehe ich bisher auf den Vergleichsbildern exakt das, was ich theoretisch auch erwarten würde.

Mr. Lolman
2005-11-24, 20:15:08
Hast Du SS:SE auf der Festplatte hocken? Wenn ja probier mal den Technologie-Test; bin mir zwar nicht mehr ganz sicher aber ich denke dass der Befehl fuer die Disco-MIPmaps (:P) b_ColorizeMIPmaps=1 oder so aehnlich ist. SS:SE ist weit heller und hilft vielleicht mehr das was zugegeben schlecht oder gar nicht auf den shots oben zu sehen ist.

Geht das auch mit Serious Sam 2?

Coda
2005-11-24, 20:29:38
Der weichere Übergang ist auf den vorigen Screenshots (ohne Colormips) zu sehen. Aber auch wenn du beide Colormipbilder übereinander legst, wirst du merken, dass innerhalb der Mip0 (Richtung Mip1) bei ATi die Textur weniger flimmrig wirkt, als bei NV. Du hast das auf Mipmapdthering geschoben, nur tritt das in der Szene, wie die letzten Sreenshots zeigen, praktisch nich auf...Ja und auf den Colormips sieht man dass es sowas wie einen weichen Übergang nicht gibt. Q.e.d.

Was sein kann ist, dass der nV-Filter etwas schlechter ist und ATi perfektes Bilinear abliefert, dennoch kann man da nicht von einem "weichen Übergang" reden, da der rein technisch nicht stattfindet. Der Mipmapübergang ist in dem Bild aprupt und ohne Überblendung.

Mr. Lolman
2005-11-24, 21:33:46
Ja und auf den Colormips sieht man dass es sowas wie einen weichen Übergang nicht gibt. Q.e.d.

Was sein kann ist, dass der nV-Filter etwas schlechter ist und ATi perfektes Bilinear abliefert, dennoch kann man da nicht von einem "weichen Übergang" reden, da der rein technisch nicht stattfindet. Der Mipmapübergang ist in dem Bild aprupt und ohne Überblendung.

Gäbe es noch einen (ohne Colormipmaps) sichtbaren Unterschied zw. biAF und triAF, wenn man anstatt zw. Mip0 und Mip1 zu interpolieren, einfach bis zu 4 Samples der Mip0 nimmt?

Coda
2005-11-25, 00:02:28
Alle Füllratetests zeigen doch dass ATI stink normales Bilinear verbaut hat. Wieso sollten sie auch mehr bieten und dann nichtmal groß damit rumposaunen.

Ailuros
2005-11-25, 05:14:52
Geht das auch mit Serious Sam 2?

Ich bezweifle es, da sich zu viel in der engine geaendert hat. Ich hab gerade mal das ini durchgekaemmt aber ich konnte nichts sehen das darauf deuten koennte. Schoen waere es auf jeden Fall, wenn's moeglich waere.

***edit: schreib doch mal an CroTeam; ich hab leider die Haende zu voll momentan.

dildo4u
2005-11-30, 03:16:28
EVGA setzt jetzt mit der Black Pearl Edition noch eins drauf die Karte kommt mit 600mhz Chiptakt /1800 Mhz Speichertakt gekühlt wird mit einer Innovatek Wasserkühlung.

http://img.hexus.net/v2/pipelines/rys/241105/241105.jpg

http://www.hexus.net/content/item.php?item=3977

knallebumm
2005-11-30, 22:04:54
Weiß nicht,ob es hier rein gehört und obs alt ist:
http://img410.imageshack.us/img410/3213/7800x1800afcomp8mt.gif

und ne schöne Bestätigung von einem user aus dem forumdeluxx:
http://www.forumdeluxx.de/forum/showpost.php?p=2788257&postcount=202

Vielleicht könnt mal einer einen screen mit einer x1800xl/t machen.

Mr. Lolman
2005-11-30, 22:28:34
Weiß nicht,ob es hier rein gehört und obs alt ist:
http://img410.imageshack.us/img410/3213/7800x1800afcomp8mt.gif

und ne schöne Bestätigung von einem user aus dem forumdeluxx:
http://www.forumdeluxx.de/forum/showpost.php?p=2788257&postcount=202

Vielleicht könnt mal einer einen screen mit einer x1800xl/t machen.

Die PCGH sieht das genau anders rum: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3721597#post3721597

3dzocker
2005-11-30, 23:43:33
Wo wir grad bei der PCGH sind, hab mir heut die neuste Ausgabe gekauft und da haben die Leuts mal die 512er GTX auf 256er GTX Niveau getaktet und da waren beide Karten gleich schnell.
Wäre eine X1800XT(512MB)@X1800XL-Takt dann auch "nur" so schnell wie normale 256er X1800XL, oder zieht die XT Vorteile aus den 512MB RAM.
Die GTX tuts laut PCGH nicht.

tschau

robbitop
2005-12-01, 09:51:32
Wo wir grad bei der PCGH sind, hab mir heut die neuste Ausgabe gekauft und da haben die Leuts mal die 512er GTX auf 256er GTX Niveau getaktet und da waren beide Karten gleich schnell.
Wäre eine X1800XT(512MB)@X1800XL-Takt dann auch "nur" so schnell wie normale 256er X1800XL, oder zieht die XT Vorteile aus den 512MB RAM.
Die GTX tuts laut PCGH nicht.

tschau
Die Geforce hat durch das MSAA@scanout den etwas höheren Speicherbedarf. Wenn sie also nicht durch 512MiB profitiert, dann tut's die Radeon auch nicht.
Je nach Game und Setting sollten die 512MiB eigentlich etwas bringen.
Bsw in Doom3 mit maximalen Texturdetails + 16x12 oder 20x15 und >4xAA (besser 8xS) sollte es schon etwas bringen. Oder in Spielen, wo 16xS lauffähig ist. CoD2 ist auch so ein Fall. Das scheint der PCGH entgangen zu sein.
B3D hat das mal vor einiger Zeit IIRC getestet.

3dzocker
2005-12-01, 13:22:28
hmmm, eben nochmal in der PCGH geblättert, getestet wurden Far Cry, Quake4 und COD2, jeweils in 1280x1024 und 1600x1200, beide Modi mit 4xAA/8xAF.
Das reicht dann wohl noch nicht...

tschau

Stego
2005-12-01, 15:13:27
Gibts die 7800 GTX 512 auch als 265 MB ausführung aber mit gleichem Takt?

Die gelbe Eule
2005-12-01, 15:13:57
Das muss ich jetz mal hier rein posten ^^

http://www.bfgtech.com/images/sidesticker.jpg
http://www.bfgtech.com/images/stickersheet.jpg

Sowas nennt man Understatement, Pimp my 512 Engine ;D

Blaire
2005-12-01, 16:43:59
Neues Review

http://www.gamepc.com/labs/view_content.asp?id=h2k5512&page=1&cookie%5Ftest=1&MSCSProfile=95385A1F52DEA1A229D5B37542054464447B1B0054134515B28E51589051D8F74F2D E8834BFB002AA192448485AF678DF62435305F5730029F8C32FDF40491765D9E6509B8AFC99265E0 6170BEF5143F13024D4A374482672148B8BD80E0C10A0A5C5C3779968E2828B9A15FBE3B38842459 2DDB78E1A4E9A44F1E6D6225BF3CA5572CC39E8BA293

mapel110
2005-12-01, 16:50:17
Neues Review

http://www.gamepc.com/labs/view_content.asp?id=h2k5512&page=1&cookie%5Ftest=1&MSCSProfile=95385A1F52DEA1A229D5B37542054464447B1B0054134515B28E51589051D8F74F2D E8834BFB002AA192448485AF678DF62435305F5730029F8C32FDF40491765D9E6509B8AFC99265E0 6170BEF5143F13024D4A374482672148B8BD80E0C10A0A5C5C3779968E2828B9A15FBE3B38842459 2DDB78E1A4E9A44F1E6D6225BF3CA5572CC39E8BA293
Dualcore-CPU und Forceware 81.95. :uup:

Coda
2005-12-01, 19:40:10
Den Vorteil hat nVIDIA nunmal. Niemand hindert ATi daran ihre Treiber für mehrere CPUs zu optimieren.

Zumal die meisten die eine solche Karte kaufen inzwischen auch Dual-Core-CPUs haben.

Ailuros
2005-12-01, 20:05:40
Ich arbeite gerade an einem Artikel der versucht ein bisschen Licht auf den Speicherbedarf ein paar neuen Spiele zu werfen.

Mal sehen ob manche dadurch etwas weiser werden ;)

Mr. Lolman
2005-12-01, 20:11:45
Mal sehen ob manche dadurch etwas weiser werden ;)

Ich hab schon kapiert (falls du jetzt auf meine Speicherverbrauch vs Q/HQ Geschichte anspielst)

dildo4u
2005-12-10, 20:08:18
Wie die „7800 GTX 512“ der „X1800 XT“ hilft

Wahrlich mit Pauken und Trompeten startete nVidia vor knapp einem Monat den Verkauf der neuen GeForce 7800 GTX 512. Diese Karte konnte allerdings nicht nur eine herausragende Performance an den Tag legen, nein, sie war auch noch exorbitant teuer. Mit 649,– US-Dollar setzte nVidia von vorne herein den Retail-Preis dieser Grafikkarte sehr hoch an.

Als Grund für diese Maßnahme wurde kurz daraufhin gemutmaßt, dass nVidia so die Nachfrage möglichst gering halten wollen würde, da man selber davon ausging, nicht viele dieser Karten auf den Markt bringen zu können oder zu wollen. In diesen Tagen, knapp einen Monat nach dem Launch, zeigt sich dann auch ein eher trauriges Bild. Lieferbar ist die GeForce 7800 GTX 512 nicht mehr – nicht einmal mehr in homöopathischen Dosen. Als Resultat daraus steigen die Preise dieser ohnehin schon sehr teuren Karte noch weiter gen Himmel. Der US-amerikanische Versandhandel „Newegg“ verlangt mittlerweile sogar 749,– US-Dollar für diese Grafikkarte, kann sie allerdings auch nicht liefern. Beim deutschen Preisvergleich Geizhals bewegen sich diese Karten zwar immer noch im Rahmen zwischen 600 und 650 Euro, lieferbar ist allerdings auch hier kein einziges Modell.

Sich dabei ins Fäustchen lachen wird ATi. Denn mittlerweile sind auch in Deutschland einige Modelle der Radeon X1800 XT recht gut lieferbar (siehe auch), so dass nach anfänglichen Startschwierigkeiten der Verkauf dieser Grafikkarte nun also endlich begonnen hat. Und so wird dann in diesen Tagen berichtet, dass verfügbare Radeons dieses Typs den Händlern nahezu aus den Händen gerissen werden. Den Grundstein für dieses Käuferverhalten könnte dabei nVidia selbst mit dem Launch einer 512-MB-Karte gelegt haben. Denn die Kunden wollen scheinbar solch ausgestattete Pixelbeschleuniger, und wenn nVidias 7800 GTX 512 nicht lieferbar ist, greift man halt zur nicht sehr viel langsameren Radeon X1800 XT, die ebenfalls über 512 MB Texturspeicher verfügt und vielerorts für knapp 500 Euro zu haben ist.

Darüber hinaus werden wahrscheinlich ab nächster Woche die ersten X1800 XTs mit erhöhtem Chip- und Speichertakt ausgeliefert werden. Ein solches Modell mit 700 MHz für den R520-Chip und 800 MHz für den GDDR3-Speicher hat unter anderem Asus vor Kurzem bereits vorgestellt. Zwar dürfte auch diese Karte nicht an nVidias GTX 512 herankommen, aber wenn diese besser verfügbar sein sollte, könnte sie sich eventuell dennoch zu einem Verkaufsschlager entwickeln.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/dezember/wie_7800_gtx_512_x1800_xt/

Kann den Bericht bestätigen kenn ein Kumpel der eine 7800GTX mit 512MB wollte aber keiner konnte liefern das war vor ca 2 Wochen dann hatte er sich eine X1800XT mir 512MB bei Ateclo bestellt die war sofort lieferbar.

Slipknot79
2005-12-10, 20:45:10
Wie die „7800 GTX 512“ der „X1800 XT“ hilft

Wahrlich mit Pauken und Trompeten startete nVidia vor knapp einem Monat den Verkauf der neuen GeForce 7800 GTX 512. Diese Karte konnte allerdings nicht nur eine herausragende Performance an den Tag legen, nein, sie war auch noch exorbitant teuer. Mit 649,– US-Dollar setzte nVidia von vorne herein den Retail-Preis dieser Grafikkarte sehr hoch an.

Als Grund für diese Maßnahme wurde kurz daraufhin gemutmaßt, dass nVidia so die Nachfrage möglichst gering halten wollen würde, da man selber davon ausging, nicht viele dieser Karten auf den Markt bringen zu können oder zu wollen. In diesen Tagen, knapp einen Monat nach dem Launch, zeigt sich dann auch ein eher trauriges Bild. Lieferbar ist die GeForce 7800 GTX 512 nicht mehr – nicht einmal mehr in homöopathischen Dosen. Als Resultat daraus steigen die Preise dieser ohnehin schon sehr teuren Karte noch weiter gen Himmel. Der US-amerikanische Versandhandel „Newegg“ verlangt mittlerweile sogar 749,– US-Dollar für diese Grafikkarte, kann sie allerdings auch nicht liefern. Beim deutschen Preisvergleich Geizhals bewegen sich diese Karten zwar immer noch im Rahmen zwischen 600 und 650 Euro, lieferbar ist allerdings auch hier kein einziges Modell.

Sich dabei ins Fäustchen lachen wird ATi. Denn mittlerweile sind auch in Deutschland einige Modelle der Radeon X1800 XT recht gut lieferbar (siehe auch), so dass nach anfänglichen Startschwierigkeiten der Verkauf dieser Grafikkarte nun also endlich begonnen hat. Und so wird dann in diesen Tagen berichtet, dass verfügbare Radeons dieses Typs den Händlern nahezu aus den Händen gerissen werden. Den Grundstein für dieses Käuferverhalten könnte dabei nVidia selbst mit dem Launch einer 512-MB-Karte gelegt haben. Denn die Kunden wollen scheinbar solch ausgestattete Pixelbeschleuniger, und wenn nVidias 7800 GTX 512 nicht lieferbar ist, greift man halt zur nicht sehr viel langsameren Radeon X1800 XT, die ebenfalls über 512 MB Texturspeicher verfügt und vielerorts für knapp 500 Euro zu haben ist.

Darüber hinaus werden wahrscheinlich ab nächster Woche die ersten X1800 XTs mit erhöhtem Chip- und Speichertakt ausgeliefert werden. Ein solches Modell mit 700 MHz für den R520-Chip und 800 MHz für den GDDR3-Speicher hat unter anderem Asus vor Kurzem bereits vorgestellt. Zwar dürfte auch diese Karte nicht an nVidias GTX 512 herankommen, aber wenn diese besser verfügbar sein sollte, könnte sie sich eventuell dennoch zu einem Verkaufsschlager entwickeln.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/dezember/wie_7800_gtx_512_x1800_xt/

Kann den Bericht bestätigen kenn ein Kumpel der eine 7800GTX mit 512MB wollte aber keiner konnte liefern das war vor ca 2 Wochen dann hatte er sich eine X1800XT mir 512MB bei Ateclo bestellt die war sofort lieferbar.



Ich habs ja geahnt :-p

tombman
2005-12-10, 20:52:20
Na das war klar, daß die Leute die Xt kaufen vor Weihnachten wenn Nvidia nicht liefern kann ;) Nvidia hat sogar geholfen die XT zu verkaufen, denn erstmal alle schön aufgeilen mit hohen 512er scores und vorallem das feature 512mb und dann nicht liefern können -> jetzt wird der hype um 512mb eben von ATI bedient ;) Tjo, so kanns laufen, und das vor Weihnachten- fettes Eigentor, Nvidia ;)

Winter[Raven]
2005-12-10, 20:54:44
Angeblich soll es aber doch noch eine Fette Lieferung noch vor Weihnachten geben an die lieben Leute.

tombman
2005-12-10, 20:56:17
']Angeblich soll es aber doch noch eine Fette Lieferung noch vor Weihnachten geben an die lieben Leute.
Glaub ich erst wenns ich sehe ;)
Oder das wird wieder so eine EINTAG Aktion, wo am nächsten Tag wieder alle weg sind...rofl.

MarcWessels
2005-12-10, 21:03:09
Wenn ich mal einfach, ohne die Comments hier gelesen zu haben, meinen Beitrag angesichts der Benchmarkwerte abgeben darf:

Mich erschrecken die Frameraten der einzelnen Karten in 1280x1024 16xAF 4xAA und mich enttäuschen die Performancewerte der SLI-Setups in 1600x1200 16xAF 4xAA - samt und sonders werden 100fps durchschnittlich unterboten und das bei DEN Preisen. :rolleyes:

Wozu soll dann noch Transp. AA bzw. Adapt. AA gut sein? Nur bei alten Spielen ohne Geruckel einsetzbar oder was? :confused: Hätte ich eine SLI-Kombi, würde ich mich wohl auf 1024x768 4xAA TransAA 16xAF beschränken - wenn man schon über 1200 € ausgibt, kann man ja wohl eine min Framerate von 60 erwarten.

Sorry für den Spam - weitermachen! :biggrin:

tombman
2005-12-10, 21:13:44
Wenn ich mal einfach, ohne die Comments hier gelesen zu haben, meinen Beitrag angesichts der Benchmarkwerte abgeben darf:

Mich erschrecken die Frameraten der einzelnen Karten in 1280x1024 16xAF 4xAA und mich enttäuschen die Performancewerte der SLI-Setups in 1600x1200 16xAF 4xAA - samt und sonders werden 100fps durchschnittlich unterboten und das bei DEN Preisen. :rolleyes:

Wozu soll dann noch Transp. AA bzw. Adapt. AA gut sein? Nur bei alten Spielen ohne Geruckel einsetzbar oder was? :confused: Hätte ich eine SLI-Kombi, würde ich mich wohl auf 1024x768 4xAA TransAA 16xAF beschränken - wenn man schon über 1200 € ausgibt, kann man ja wohl eine min Framerate von 60 erwarten.

Sorry für den Spam - weitermachen! :biggrin:


SLi heißt nicht automatisch 100fps oder 60fps bei allem was man sich vorstellen kann. SLI heißt immer ARSCHVIELMEHR fps zu haben als die anderen ;) Also wenn andere 5fps haben und man selbst auch nur 30fps, dann heißt das nicht, daß SLI scheiße ist, sondern nur, daß die Last eben so extrem hoch ist...

Coda
2005-12-10, 21:25:53
Oder es ist CPU-limitiert...

Slipknot79
2005-12-10, 21:29:36
>Hätte ich eine SLI-Kombi, würde ich mich wohl auf 1024x768 4xAA TransAA 16xAF beschränken - wenn man schon über 1200 € ausgibt, kann man ja wohl eine min Framerate von 60 erwarten.


SLI ist für 1024x768 eher sinnlos, bringt es erst für 1600x1200. Wäre reine Geldverschwendung.

tombman
2005-12-10, 23:56:21
Oder es ist CPU-limitiert...

Jo, des kommt eh noch viel häufiger vor als die meisten glauben...

MarcWessels
2005-12-12, 02:30:43
SLI ist für 1024x768 eher sinnlos, bringt es erst für 1600x1200. Wäre reine Geldverschwendung.Nö, denn ich sehe doch, wie die Frameraten in höheren Auflösungen abfallen, wenn man in den von mir genannten Settings spielen will; dann noch HDR dazu und fertig ist der Salat.

@tombman
Jo, aber meine Kritik geht hauptsächlich in Richtung Spielentwickler. ;)

Slipknot79
2005-12-12, 03:52:40
>Nö, denn ich sehe doch, wie die Frameraten in höheren Auflösungen abfallen,

-->SLI ist für 1024x768 eher sinnlos, bringt es erst für 1600x1200. Wäre reine Geldverschwendung


Nichts anderes meinte ich. Du bist ein Spiel in 1024 mit 150fps mit einer Graka genauso wie in SLI Kombo. Für 1024 macht SLI überhaupt keinen Sinn. Bei 1600 gilt: "denn ich sehe doch, wie die Frameraten in höheren Auflösungen abfallen", hier hilft nur noch SLI um in 1600 und hohen Qualityeinstellungen zu spielen.

MarcWessels
2005-12-12, 04:08:00
>Nö, denn ich sehe doch, wie die Frameraten in höheren Auflösungen abfallen,

-->SLI ist für 1024x768 eher sinnlos, bringt es erst für 1600x1200. Wäre reine Geldverschwendung


Nichts anderes meinte ich. Du bist ein Spiel in 1024 mit 150fps mit einer Graka genauso wie in SLI Kombo.Das glaube ich nicht, Tim.

Slipknot79
2005-12-12, 13:36:22
Das glaube ich nicht, Tim.


http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/8/


http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/9/

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/10/

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/11/

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/12/

Wie du siehst, besteht in den meisten Spielen bei 1024 kaum ein Vorteil wenn man SLI verwendet :-(

reunion
2005-12-12, 13:45:49
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/8/


http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/9/

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/10/

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/11/

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/12/

Wie du siehst, besteht in den meisten Spielen bei 1024 kaum ein Vorteil wenn man SLI verwendet :-(


Das hat aber nichts mit der Auflösung an sich zu tun. Wenn eine Anwendung die Grafikkarten mehr fordert, dann kann auch schon viel früher ein Vorteil erzielbar sein. Bei heutigen Spielen scheint allerdings eine Geforce 7800 GTX in 1024 x 768 meist außreichend dimensioniert zu sein (sofern man auf Späße wie SSAA verzichten kann).

Slipknot79
2005-12-12, 14:27:03
"Das hat aber nichts mit der Auflösung an sich zu tun." + "Wenn eine Anwendung die Grafikkarten mehr fordert"

Genau das tun hohe Auflösungen (in Verbinsdung mit AA und Co), sie fordern eine Graka mehr. Selbst wenn man die ganzen Effekte abstellt, wird die Graka durch die Erhöhung der Auflösung gefordert. Liegt sozusagen in der Natur der Sache, hohe Auflösungen fordern mehr VRAM-Platz. Je mehr Daten im VRAM rumliegen, desto mehr wird die Graka gefordert, desto eher geht sie in die Knie.

MarcWessels
2005-12-13, 15:55:25
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/8/


http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/9/

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/10/

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/11/

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/12/

Wie du siehst, besteht in den meisten Spielen bei 1024 kaum ein Vorteil wenn man SLI verwendet :-(Nun, 65% bei Riddick empfinde ich schon als deutlich - zudem in 8xAF 4xAA.. mit Transparant AA wäre der Unterschied sicher noch deutlicher, bzw. in den anderen Games auch zu sehen (und der 4000+ ist nicht unbedingt die schnellste CPU).

Coda
2005-12-13, 16:47:59
Je mehr Daten im VRAM rumliegen, desto mehr wird die Graka gefordert, desto eher geht sie in die Knie.Das ist ganz sicher nicht der Grund warum hohe Auflösungen langsamer sind, sondern weil einfach viel mehr Füllrate gebraucht wird.

Slipknot79
2005-12-13, 18:39:27
Nun, 65% bei Riddick empfinde ich schon als deutlich - zudem in 8xAF 4xAA.. mit Transparant AA wäre der Unterschied sicher noch deutlicher, bzw. in den anderen Games auch zu sehen (und der 4000+ ist nicht unbedingt die schnellste CPU).


Transparent AA fällt nicht "gewaltig" ins Gewicht, schon gar nicht bei Riddick. Aber eher in Games wie SS2 (Erstes Level, viel Gras, da merkt man deutlich wie die Leistung einbricht mit aktiviertem Transparent AA)
Riddick ist zur Zeit ein populäres Spiel dass hier auffällt. Aber wegen einem Spiel Geld für SLI ausgeben wenn man sonst nicht in 1600x1200 spielt? Bin daher immer noch der Meinung dass das reine Geldverschwendung ist@SLI+1024x768. In ein paar Monaten sieht es dann vllt schon anders aus.

Der einzige Grund warum ich kein SLI System habe ist der, dass ich immer noch in meinen CRT-Monitor verliebt bin. Der packt zwar 1600x1200, aber mein Hirn packt die 60Hz nicht bei der Auflösung :-(.

MarcWessels
2005-12-14, 16:23:23
Und ich liebe die 60hz meines CRTs. :D

mbee
2005-12-14, 16:37:05
Dein Optiker in ein paar Jahren sicher auch ;)
Ernsthaft: Du hälst das wirklich ein paar Stunden aus?

MarcWessels
2005-12-15, 15:28:27
Yep! Schon seit Dezember 1993. :)

dildo4u
2005-12-15, 17:26:09
Ein neues Review diesmal im Test die BFG 7800GTX OC 512MB.

http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/default.asp

Esther Mofet
2005-12-15, 17:56:35
Ohne jetzt den ganzen Thread und alle Benches gelesen zu haben,aber wo bitte hebt sich die Kart deutlich von ner X1800XT ab????Die Zahlen die ich sah sind wenn überhaupt zugunsten von NV nur unbedeutend höher(zbs. ein paar mal gelesen"NV 100 FPS ATI 97 FPS").Beachte man jetzt die immer noch vorhandene miese BQ von NV..was gibts da zum Überlegen????
Mfg The Q

mapel110
2005-12-15, 17:59:39
Ohne jetzt den ganzen Thread und alle Benches gelesen zu haben,aber wo bitte hebt sich die Kart deutlich von ner X1800XT ab????Die Zahlen die ich sah sind wenn überhaupt zugunsten von NV nur unbedeutend höher(zbs. ein paar mal gelesen"NV 100 FPS ATI 97 FPS").Beachte man jetzt die immer noch vorhandene miese BQ von NV..was gibts da zum Überlegen????
Mfg The Q
http://www.3dcenter.org/artikel/g70_flimmern/index2.php
Nachtrag:

Mit der Forceware-Treiberversion 78.03 und höher ist das Flimmern im HQ-Modus beseitigt worden, wobei die Framerate nur etwa 2-4% gegenüber dem alten Flimmer-HQ-Modus sinkt. Allerdings ist die Grafik in der Standardeinstellung weiterhin flimmerig. Man sollte deshalb (GeForce 6 und 7) immer im HQ-Modus benchen, da die Konkurrenz (zumindest mit "A. I." auf "low") kein solches Flimmern zeigt.

dildo4u
2005-12-15, 18:01:45
Ohne jetzt den ganzen Thread und alle Benches gelesen zu haben,aber wo bitte hebt sich die Kart deutlich von ner X1800XT ab????Die Zahlen die ich sah sind wenn überhaupt zugunsten von NV nur unbedeutend höher(zbs. ein paar mal gelesen"NV 100 FPS ATI 97 FPS").Beachte man jetzt die immer noch vorhandene miese BQ von NV..was gibts da zum Überlegen????
Mfg The Q

http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/images/d31280.gif

http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/images/pf1280.gif

http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/default.asp

http://www.techreport.com/reviews/2005q4/radeon-x1800-crossfire/fear-4x16x.gif

Min FPS 21 zu 27

http://www.techreport.com/reviews/2005q4/radeon-x1800-crossfire/hl2-1600.gif

Deutliche Überlegenheit bei HDR und das bei einem ATI Game.
Also alle Reviews wirste whol kaum gelesen haben.

Ronny145
2005-12-15, 18:02:14
http://www.3dcenter.org/artikel/g70_flimmern/index2.php
Nachtrag:

Mit der Forceware-Treiberversion 78.03 und höher ist das Flimmern im HQ-Modus beseitigt worden, wobei die Framerate nur etwa 2-4% gegenüber dem alten Flimmer-HQ-Modus sinkt. Allerdings ist die Grafik in der Standardeinstellung weiterhin flimmerig. Man sollte deshalb (GeForce 6 und 7) immer im HQ-Modus benchen, da die Konkurrenz (zumindest mit "A. I." auf "low") kein solches Flimmern zeigt.


Ist sie das wirklich in jedem Spiel? In NFS Porsche schonmal nicht. In GTL und GTR zeigt die Ati auch eine bessere Bildqualität. Noch dazu testen die meisten mit Q. Ich kann The Q nur zustimmen.

Esther Mofet
2005-12-15, 18:03:28
http://www.3dcenter.org/artikel/g70_flimmern/index2.php
Nachtrag:

Mit der Forceware-Treiberversion 78.03 und höher ist das Flimmern im HQ-Modus beseitigt worden, wobei die Framerate nur etwa 2-4% gegenüber dem alten Flimmer-HQ-Modus sinkt. Allerdings ist die Grafik in der Standardeinstellung weiterhin flimmerig. Man sollte deshalb (GeForce 6 und 7) immer im HQ-Modus benchen, da die Konkurrenz (zumindest mit "A. I." auf "low") kein solches Flimmern zeigt.
Sorry..dann hab ich(und viele andere hier)was mit den Augen..schau dir mal GTL zbs. an...gruselig..und ja auch mit den neuesten Treibern.
NV..was für Augenkranke...:D

Esther Mofet
2005-12-15, 18:05:35
http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/images/d31280.gif

http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/images/pf1280.gif

http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/default.asp
Da passts..das muss man zugeben,aber die Engine iss auch die Ausnahme und war schon immer NV präsenz,aber wieviele aktuelle Games laufen unter Open GL?? 2? 3?
Mfg The Q

mapel110
2005-12-15, 18:08:55
Sorry..dann hab ich(und viele andere hier)was mit den Augen..schau dir mal GTL zbs. an...gruselig..und ja auch mit den neuesten Treibern.
NV..was für Augenkranke...:D
Werd mir davon mal die Demo saugen, zwar nicht mein Genre, aber mal angucken ...

Bei den Games, die ich bisher gezockt habe mit der 7800er flimmert jedenfalls nichts.
Fear, Mafia, Mohaa, Lost Coast, Serious Sam SE, Sacred

Esther Mofet
2005-12-15, 18:16:00
Werd mir davon mal die Demo saugen, zwar nicht mein Genre, aber mal angucken ...

Bei den Games, die ich bisher gezockt habe mit der 7800er flimmert jedenfalls nichts.
Fear, Mafia, Mohaa, Lost Coast, Serious Sam SE, Sacred
Naja wenn du das sagst dann glaub ich dir das mal..:D
Ich bin ja momentan eh "aus dem Geschäft" und bin auch froh drum.Die Games werden immer weniger und immer schlechter in der Quali fürn PC.Sollte sich das nochmal bessern werd ich vielleicht nochmal "angreifen"...
So long..The Q

Gandharva
2005-12-15, 18:18:33
Sorry..dann hab ich(und viele andere hier)was mit den Augen..schau dir mal GTL zbs. an...gruselig..und ja auch mit den neuesten Treibern.
NV..was für Augenkranke...:Dati: http://www.computerbase.de/bild/article/511/12/

nv: http://www.computerbase.de/bild/article/511/1/

auch ati ist nicht perfekt. bei nv flimmert es mit Q und ati kann rauch nicht ordendlich darstellen. im gegensatz zum flimmer kann man das (noch) nicht abstellen. und auf HQ flimmert auch bei mir nix.

reunion
2005-12-15, 19:06:17
[img]http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/images/d31280.gif[/img

[img]http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/images/pf1280.gif[/img

http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/default.asp

[img]http://www.techreport.com/reviews/2005q4/radeon-x1800-crossfire/fear-4x16x.gif[/img

Min FPS 21 zu 27

[img]http://www.techreport.com/reviews/2005q4/radeon-x1800-crossfire/hl2-1600.gif[/img

Deutliche Überlegenheit bei HDR und das bei einem ATI Game.
Also alle Reviews wirste whol kaum gelesen haben.


Es hat doch absolut keine Sinn, hier die Rosinen rauszupicken. Im Schnitt nehmen sich die beiden Karten nicht wirklich viel, und das obwohl man die X1800XT ab ~480€ kaufen kann, während die "GTX 512" aktuell praktisch nicht existent ist - wenn doch zahlt man dafür Mondpreise.

Im übrigen bietet die ATi-Karte die klar bessere BQ, doch das interessiert leider nach wie vor niemanden. Denn was bringen ein paar Prozent mehr fps, wenn ich dabei nur stark winkelabhängiges AF und max. 4xMSAA habe? Soweit denken aber offensichtlich nur die Wenigsten - Balken sind eben geiler.

PingpiN
2005-12-15, 19:07:54
ati: http://www.computerbase.de/bild/article/511/12/

nv: http://www.computerbase.de/bild/article/511/1/

auch ati ist nicht perfekt. bei nv flimmert es mit Q und ati kann rauch nicht ordendlich darstellen. im gegensatz zum flimmer kann man das (noch) nicht abstellen. und auf HQ flimmert auch bei mir nix.

Das sind doch 2 unterschiedliche paar Schuhe. :rolleyes:
Bei Ati sind es Bildfehler die behoben werden können,bei Nv liegts ja anscheinend an der Hardware.....
Bildfehler
Bildflimmern-Bildqualität
:)
Was ist schlimmer ?

Ich tippe auf Nummer 2! :smile:

Gandharva
2005-12-15, 19:18:59
Bei Ati sind es Bildfehler die behoben werden können,bei nv liegts ja anscheinend an der Hardware..... komisch, wenns an der hw liegen würde müsste es doch auch auf HQ flimmern? und was gibt dir die sicherheit das die rauchdarstellung behoben wird?

mapel110
2005-12-15, 19:23:16
Balken sind eben geiler.
Oder überhaupt erstmal in einem Game "Full Detail" einstellen zu können. Für ATI-User brauchts ja da erstmal einige Patches, die noch nicht zu haben sind (Beispiel Farcry) bzw die nie erscheinen werden (Beispiel Pacific Fighters) ...

Blaire
2005-12-15, 19:24:50
Es hat doch absolut keine Sinn, hier die Rosinen rauszupicken..

Eigentor oder? :)

Im Schnitt nehmen sich die beiden Karten nicht wirklich viel, und das obwohl man die X1800XT ab ~480€ kaufen kann, während die "GTX 512" aktuell praktisch nicht existent ist - wenn doch zahlt man dafür Mondpreise.

Die GTX 512 ist ne ganze Ecke schneller, es sei denn man sucht sich irgendein Benchmark heraus wo es mal anders aussieht.



Im übrigen bietet die ATi-Karte die klar bessere BQ, doch das interessiert leider nach wie vor niemanden. .

Supersampling AA will ich nie mehr missen. ;)

reunion
2005-12-15, 19:28:27
Oder überhaupt erstmal in einem Game "Full Detail" einstellen zu können. Für ATI-User brauchts ja da erstmal einige Patches, die noch nicht zu haben sind (Beispiel Farcry) bzw die nie erscheinen werden (Beispiel Pacific Fighters) ...


Bis auf "Pacific Fighters" - und das wird IMHO auch die einzige Ausnahmen bleiben - sollten sich dieses Probleme relativ schnell in Luft auflösen.

Mumins
2005-12-15, 19:29:43
Die GTX 512 ist ne ganze Ecke schneller, es sei denn man sucht sich irgendein Benchmark heraus wo es mal anders aussieht.

Das ist einfach Unsinn, mit HQ, ist die 512MB GTX oft nur 2-3FPS schneller bei 4AA+16AF, in F.E.A.R. ist sie sogar deutlich langsamer. Schau doch den Test bei Xbitlabs mit neuen Treibern an. Deutlich ist der Vorsprung nur in AOE3, da stimmt aber was nicht mit den ATI-Treibern, denn eine X850XT PE ist schneller als ne X1800XT.

reunion
2005-12-15, 19:32:33
Eigentor oder? :)


Nein, ich bezog mich auf die Benchmarks.


Die GTX 512 ist ne ganze Ecke schneller, es sei denn man sucht sich irgendein Benchmark heraus wo es mal anders aussieht.


Diesen Satz könnte man genauso auf die X1800XT beziehen, ohne die Richtigkeit zu beeinflussen.


Supersampling AA will ich nie mehr missen. ;)

Dank AAA/TSAA kann ich darauf gerne verzichten.

Gandharva
2005-12-15, 19:35:24
..., in F.E.A.R. ist sie sogar deutlich langsamer.womit man wieder bei den rosinen wäre.Deutlich ist der Vorsprung nur in AOE3, da stimmt aber was nicht mit den ATI-Treibern, denn eine X850XT PE ist schneller als ne X1800XT.ich tippe mal ins blaue das ati den speichercontroller noch nicht ordendlich auf das game angepasst hat, oder schwierigkeiten damit hat. immer 1-2 treiberversionen warten zu müssen bis das jeweils brandneue spiel ordendlich rennt würde ich nicht wollen. ich vermute aber mal das es aufgrund der architektur des controllers genau so laufen wird.

Blaire
2005-12-15, 19:36:25
Das ist einfach Unsinn, mit HQ, ist die 512MB GTX oft nur 2-3FPS schneller bei 4AA+16AF, in F.E.A.R. ist sie sogar deutlich langsamer. Schau doch den Test bei Xbitlabs mit neuen Treibern an. Deutlich ist der Vorsprung nur in AOE3, da stimmt aber was nicht mit den ATI-Treibern, denn eine X850XT PE ist schneller als ne X1800XT.

http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/images/c1280.gif

http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/images/bf21280.gif

http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/images/d31280.gif

Bei OpenGL kann man schon von Welten reden , die dazwischen liegen. Und wenn ich erst mit SLI anfange , ist der Unterschied noch viel deutlicher.
Ati hat mit ihren neueren Treibern sicherlich etwas aufgeholt , aber ich bezweifel aus Erfahrung ,das dies ohne Beeinflussung der Bildqualität vonstatten ging.
Das haben nicht zuletzt die Bildprobleme des Computerbase.de Tests gezeigt das da doch allerlei Probleme bei Ati auftreten.

reunion
2005-12-15, 19:43:46
ich tippe mal ins blaue das ati den speichercontroller noch nicht ordendlich auf das game angepasst hat, oder schwierigkeiten damit hat. immer 1-2 treiberversionen warten zu müssen bis das jeweils brandneue spiel ordendlich rennt würde ich nicht wollen. ich vermute aber mal das es aufgrund der architektur des controllers genau so laufen wird.

Blödsinn, ATi hat schon ein relativ gut optimiertes Standard-Profil im Treiber (bei nV läuft das übrigens auch nicht anders). Solche Ausreißer bei einer Anwendung sind damit sicherlich nicht zu erklären.

SKYNET
2005-12-15, 19:51:08
Bis auf "Pacific Fighters" - und das wird IMHO auch die einzige Ausnahmen bleiben - sollten sich dieses Probleme relativ schnell in Luft auflösen.


mit einem treiber der nie kommen wird... zumindest keinen der das fixt...

probiere doch nicht ATI schön zureden, sie sind nun mal nur nummer zwei und da drann ändert sich auch nix, wenn du dich schützend vor eine ATI) karte wirfst! :rolleyes:

NV = schnellste karten, selbst mit HQ machen sie die ATI dinger (fast) durchweg nackig! :tongue:

SKYNET
2005-12-15, 19:54:24
Das ist einfach Unsinn, mit HQ, ist die 512MB GTX oft nur 2-3FPS schneller bei 4AA+16AF, in F.E.A.R. ist sie sogar deutlich langsamer. Schau doch den Test bei Xbitlabs mit neuen Treibern an. Deutlich ist der Vorsprung nur in AOE3, da stimmt aber was nicht mit den ATI-Treibern, denn eine X850XT PE ist schneller als ne X1800XT.


F.E.A.R.

http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/images/fear2048.gif

Gandharva
2005-12-15, 19:56:47
Blödsinn, ATi hat schon ein relativ gut optimiertes Standard-Profil im Treiber (bei nV läuft das übrigens auch nicht anders). Solche Ausreißer bei einer Anwendung sind damit sicherlich nicht zu erklären.scheinbar nicht gut genug. von meiner speku bzgl. optimierungsarbeit bei neuen spielen rücke ich erstmal nicht ab.

Mumins
2005-12-15, 20:41:45
[



http://www.firingsquad.com/hardware/bfg_geforce_7800_gtx_oc_512mb/images/d31280.gif

Bei OpenGL kann man schon von Welten reden , die dazwischen liegen. Und wenn ich erst mit SLI anfange , ist der Unterschied noch viel deutlicher.
Ati hat mit ihren neueren Treibern sicherlich etwas aufgeholt , aber ich bezweifel aus Erfahrung ,das dies ohne Beeinflussung der Bildqualität vonstatten ging.
Das haben nicht zuletzt die Bildprobleme des Computerbase.de Tests gezeigt das da doch allerlei Probleme bei Ati auftreten.

In diesem Test war kein HQ aktiv, da verliert die GTX in Quake4 ungefähr 15FPS.

Mumins
2005-12-15, 20:46:31
mit einem treiber der nie kommen wird... zumindest keinen der das fixt...

probiere doch nicht ATI schön zureden, sie sind nun mal nur nummer zwei und da drann ändert sich auch nix, wenn du dich schützend vor eine ATI) karte wirfst! :rolleyes:

NV = schnellste karten, selbst mit HQ machen sie die ATI dinger (fast) durchweg nackig! :tongue:

Hast du eigentlich irgendwann schon mal was sinnvolles gepostet?
Hattest du schon eine ATI Karte der neueren Generation?

Blaire
2005-12-15, 21:00:04
In diesem Test war kein HQ aktiv, da verliert die GTX in Quake4 ungefähr 15FPS.

Meinst du nicht auch , das Ati genauso viel Leistung verlieren würde bei absolut exakten Settings? Wer weiss schon was Ati für Quake4-Optimierungen im Treiber fährt?

Mumins
2005-12-15, 21:08:05
Meinst du nicht auch , das Ati genauso viel Leistung verlieren würde bei absolut exakten Settings? Wer weiss schon was Ati für Quake4-Optimierungen im Treiber fährt?

AI standard und Nvidia HQ sind gleiche Einstellungen, Nvidia Q und AI standard sind nicht gleich, da Q flimmert. Ganz genau kann man natürlich nicht vergleichen, aber ungefähr schon. AI standard hat bei der X800 teilweise sogar bessere Quali als Nvidia HQ, das Bild der ATI ist ruhiger. Wie ist dann erst das der X1800?
Ich kanns ja mal ausprobieren, aber erst morgen. Meine GT verliert über 10FPS bei 1280x960 4AA+16AF in Quake 4 wenn ich von Q auf HQ gehe.

Blaire
2005-12-15, 21:13:04
Eben das weisst du nicht, AI Standard vs. HQ Nvidia sind mitnichten gleich, nur weil ersteres weniger als Quality flimmert. Es geht darum wieviel Optimierungen aktiv sind und meist kann man diese garnicht im Treiber ausschalten weder bei Ati noch bei NV.

Mumins
2005-12-15, 21:32:57
Eben das weisst du nicht, AI Standard vs. HQ Nvidia sind mitnichten gleich, nur weil ersteres weniger als Quality flimmert. Es geht darum wieviel Optimierungen aktiv sind und meist kann man diese garnicht im Treiber ausschalten weder bei Ati noch bei NV.

Das was ich sehe langt mir aber.

SKYNET
2005-12-16, 00:19:55
Das was ich sehe langt mir aber.


wenn man natürlich nix zum vergleich hat... :rolleyes:

Banshee18
2005-12-16, 02:17:20
Eben das weisst du nicht, AI Standard vs. HQ Nvidia sind mitnichten gleich, nur weil ersteres weniger als Quality flimmert. Es geht darum wieviel Optimierungen aktiv sind und meist kann man diese garnicht im Treiber ausschalten weder bei Ati noch bei NV.
Es geht ja wohl immer noch darum, was hinten an Bildqualität herauskommt. Wie diese erreicht wird, ist egal.
ATI A.I. Standard und Nv HQ sind da, wenn man den ganzen Reviewern und auch Privatusern Glauben schenkt, sehr gut vergleichbar. Morgen kommt hoffentlich meine X1800XL, dann schaue ich mir das ganze mal selbst an. =)

MfG,

Banshee

Edit: Ich hatte vorher eine Radeon 9700 und die Bildqualität war mit Nv HQ durchaus vergleichbar, wenn nicht sogar leicht besser. Mal sehen, was sich getan hat.

tombman
2005-12-16, 04:46:45
Das schlimmste ist ja, daß CF erst so jung ist und wahrscheinlich 0 vom user konfigurierbar. Dh, wenn man nicht gerade 100% hype+ mainstream games spielt wird CF gar ned funken. Und im Gegensatz zu SLI per nhancer wird man da auch nix fummlen können...es sollte mich jedenfalls sehr wundern, falls ATI da irgendwelche Möglichkeiten anböte. Denn auch ATI braucht Profile für CF, Transparenz wirds da nie geben.

Also selbst falls ATi sich mit der Leistung per besseren Treibern etc etc sich der Leistung von Nvidia annähern kann, denke ich nicht, daß sie kurz- und mittelfristig auf das Qualitätsniveau von SLI kommen werden --> und allein deswegen wird Nvidia vorne sein.

Wie die Strategie ab R580 R580/CF aussieht, weiß nur ATI ... :)

Ronny145
2005-12-16, 08:55:35
wenn man natürlich nix zum vergleich hat... :rolleyes:


Er hat auch eine 7800 GT.

P.S.: Du erzählst nur Müll.

Ailuros
2005-12-16, 10:22:22
Es hat doch absolut keine Sinn, hier die Rosinen rauszupicken. Im Schnitt nehmen sich die beiden Karten nicht wirklich viel, und das obwohl man die X1800XT ab ~480€ kaufen kann, während die "GTX 512" aktuell praktisch nicht existent ist - wenn doch zahlt man dafür Mondpreise.

Im übrigen bietet die ATi-Karte die klar bessere BQ, doch das interessiert leider nach wie vor niemanden. Denn was bringen ein paar Prozent mehr fps, wenn ich dabei nur stark winkelabhängiges AF und max. 4xMSAA habe? Soweit denken aber offensichtlich nur die Wenigsten - Balken sind eben geiler.


Heute haette ich auch eine andere Entscheidung getroffen. Nur war eben ATI leider um fast ein Halbjahr zu spaet dran.

Es ist zwar schoen dass ploetzlich Winkelabhaengigkeit so wichtig sein soll, aber fuer viel zu viele war es "gut genug" von R100 bis zu R420 oder einer Zeitspanne von 4 Jahren, weil eben ihr Lieblings-IHV nichts besseres bieten konnte.

Und das mit den Balken ist auch der albernste generalisierte Mist; ich hab auf dem Laptop eine 5700. Angenommen ich ignoriere komplett Balken und will mir nichts dir nichts weniger Winkelabhaengigkeit muesste ich wohl meine Spiele auf dem lahmarschigen Ding spielen oder was? Also bitte....

Winter[Raven]
2005-12-16, 10:36:45
Es hat doch absolut keine Sinn, hier die Rosinen rauszupicken. Im Schnitt nehmen sich die beiden Karten nicht wirklich viel, und das obwohl man die X1800XT ab ~480€ kaufen kann, während die "GTX 512" aktuell praktisch nicht existent ist - wenn doch zahlt man dafür Mondpreise.

Im übrigen bietet die ATi-Karte die klar bessere BQ, doch das interessiert leider nach wie vor niemanden. Denn was bringen ein paar Prozent mehr fps, wenn ich dabei nur stark winkelabhängiges AF und max. 4xMSAA habe? Soweit denken aber offensichtlich nur die Wenigsten - Balken sind eben geiler.

Jetzt machst du dich aber etwas lächerlich, aufeinmal ist BQ alles, wieso versuchte man diesen nachteil seit dem R3xx runterzuspielen...?

Alles in allem hat aber Ailuros alles gesagt.

kalle28
2005-12-16, 10:46:01
Halte ich für etwas engstirnig, diese Argumentation.

Zu Zeiten von NV30 und R300 war mit eben diesem AF erstmals breit nutzbar, d.h. die Leistung der Radeon 9700 war für solche Goodies ausreichend. Da hat man auch die starke Winkelabhängigkeit in Kauf genommen, da sich die BQ insgesamt auch durch WA AF deutlich verbessern ließ. NV30 hatte besseres AF zu bieten, doch zu welchem Preis?!

Derzeit haben beide IHV's leistungsmäßig vergleichbare Produkte auf dem Markt, da entscheiden dann solche Dreingaben wie winkelunabhängiges AF über das Kaufverhalten.

Ist doch ganz einfach. Man sollte sich nicht immer die Rosinen herauspicken, welche der eigenen Argumentation nützlich sind...

Grestorn
2005-12-16, 11:03:50
Ist doch ganz einfach. Man sollte sich nicht immer die Rosinen herauspicken, welche der eigenen Argumentation nützlich sind...Richtig, das machen aber beide Parteien, Du auch gerade.

Die Diskussionen "meine Karte ist besser" ist reichlich überflüssig. Beide Hersteller haben qualitativ sehr ähnliche Produkte auf dem Markt. Für welches man sich entscheidet hängt rein von persönlichen Preferenzen ab und die Entscheidung sollte auch respektiert werden.

Ailuros
2005-12-16, 11:21:30
Halte ich für etwas engstirnig, diese Argumentation.

Weil es gerade nicht passt oder wie?

Zu Zeiten von NV30 und R300 war mit eben diesem AF erstmals breit nutzbar, d.h. die Leistung der Radeon 9700 war für solche Goodies ausreichend. Da hat man auch die starke Winkelabhängigkeit in Kauf genommen, da sich die BQ insgesamt auch durch WA AF deutlich verbessern ließ. NV30 hatte besseres AF zu bieten, doch zu welchem Preis?!

Deshalb hatte ich auch damals eine R300 im System hocken und ja ich hab damals bewusst ein Auge zugedrueckt, aber fuer das weit bessere 4x sparsed MSAA. Das naechste "aber" ist dann eben dass ATI zwei ganze Generationen fuer trilineares AF brauchte und die Winkelabhaengigkeit auf NV30 Nivaeu mit dem R520 reduzierte, verkauft aber die letzteren immer noch mit dem Winkelabhaengigerem AF, weil eben zu viele auf Balken achten.

Das "aber" fuer NV ist dann eben dass sie ihre AF-Qualitaet von NV2x konstant verschlechtert haben, waehrend ATI ihre AF Qualitaet konstant verbessert hat. Wobei ich aber auch noch sagen muss dass das angebliche "AF" auf R100 und R200 zum erbrechen schlecht aussah.

Klingt es besser so?

Derzeit haben beide IHV's leistungsmäßig vergleichbare Produkte auf dem Markt, da entscheiden dann solche Dreingaben wie winkelunabhängiges AF über das Kaufverhalten.

Es ist nicht im sturen Sinn winkelunabhaengig als erstes und als zweites ist es nichtmal besser als auf dem NV30. Ein guter Schritt in die richtige Richtung aber meine Kaufentscheidung haette es nur Mitte Sommer 2005 beinflusst. Heutzutage ja wie ich schon zugegeben habe, aber die Mutter der AF-Qualitaet ist der Algorithmus nun auch wieder nicht.

Und jetzt mal ganz frech und ueberheblich formuliert: setze ich die Haelfte der "Winkelunabhaengigkeits-Verteidiger" vor zwei Bildschirme zu einem blinden Test will ich bezweiflen dass mehr als das eine Viertel richtig raten wird. Das erstmal zur generellen Scheinheiligkeit.

Ist doch ganz einfach. Man sollte sich nicht immer die Rosinen herauspicken, welche der eigenen Argumentation nützlich sind...

Scheint aber fuer Dich gerade genauso zu gelten.

kalle28
2005-12-16, 11:24:18
Richtig, das machen aber beide Parteien, Du auch gerade.

Die Diskussionen "meine Karte ist besser" ist reichlich überflüssig. Beide Hersteller haben qualitativ sehr ähnliche Produkte auf dem Markt. Für welches man sich entscheidet hängt rein von persönlichen Preferenzen ab und die Entscheidung sollte auch respektiert werden.


Bitte? Hab ich was verpaßt?

Du schießt auch ganz schön schnell, immer schön ruhig.

Ich hab doch gar keine Wertung bzw. meine derzeitigen persönlichen Präferenzen kund getan.

kalle28
2005-12-16, 11:31:47
Weil es gerade nicht passt oder wie?


....

Scheint aber fuer Dich gerade genauso zu gelten.


Upps, hier haben einige ganz schön schwache Nerven.

Bitte vielmals um Entschuldigung daß ich in meinem kurzen Posting nicht die Vorzüge jedes derzeitig am Markt erhältlichen Grafikchips gepriesen habe.

Ailuros
2005-12-16, 11:42:17
Upps, hier haben einige ganz schön schwache Nerven.

Meine Nerven sind nicht nur in ausgezeichnetem Zustand, sondern auch staerker als Du Dir erhoffen kannst.

Bitte vielmals um Entschuldigung daß ich in meinem kurzen Posting nicht die Vorzüge jedes derzeitig am Markt erhältlichen Grafikchips gepriesen habe.

Koennen wir trotz allem so sachlich wie moeglich beim eigentlichen Thema bleiben? Du hast Dir gerade 10% von meinem vorigen Post ausgesucht zu beantworten und blubberst dazu noch von schwachen Nerven. Zum eigentlichen Thema bitte.

Grestorn
2005-12-16, 11:46:57
Bitte vielmals um Entschuldigung daß ich in meinem kurzen Posting nicht die Vorzüge jedes derzeitig am Markt erhältlichen Grafikchips gepriesen habe.Du verstehst nicht worum es geht. Lies Dein Posting nochmal in Ruhe durch, dann verstehst Du es.

Was mich und andere so nervt (obwohl es genau vorhersehbar war), dass auf einmal das selbe Feature das tolle Alleinstellungsmerkmal ist, was kurz zuvor noch völlig unwichtig war. Man dreht es halt, wie es einem passt.

Mit SM3 ist es das selbe: Erst ist es völlig unwichtig, und "etwas" später, wenn man endlich selbst auch mit SM3 "glänzen" kann, ist auf einmal die Tatsache, dass ein einzelner Aspekt besser gelöst ist (dynamische Verzweigung im PS) der große Heilsbringer.

Ich habe nV schon des öfteren hart kritisiert. Mir geht es nämlich nicht darum, dass der Hersteller meiner GraKa von allen geliebt wird. Aber einige hier im Forum, sowohl auf der einen als auch auf der anderen Seite scheinen genau das im Sinn zu haben. Man bekommt immer den Eindruck, dass alle, die nicht ihrer Meinung sind, automatisch einen an der Waffel haben müssen.

StefanV
2005-12-16, 12:07:34
Wobei ich aber auch noch sagen muss dass das angebliche "AF" auf R100 zum erbrechen schlecht aussah.
Welches AF? :|

kalle28
2005-12-16, 12:12:14
Derzeit haben beide IHV's leistungsmäßig vergleichbare Produkte auf dem Markt, da entscheiden dann solche Dreingaben wie winkelunabhängiges AF über das Kaufverhalten.

Da mein Beitrag hier zu ein Paar erhitzten Gemütern geführt hat möchte ich nochmals abschließend darauf hinweisen, daß ich hier keine Produkteigenschaften als besonders vorteilhaft herausstellen, sondern nur die Kaufentscheidung/Präferenzen anderer nachvollvollziehbar machen wollte.

Ob nun "winkelunabhängiges AF" oder z.B. "FP16 Filterung" die Kaufentscheidung anderer prägt soll durch meinen Beitrag nicht beinflußt werden.

Ich hoffe ich habe hiermit der Gerechtigkeit Genüge getan und keinen weiteren Anstoß erregt.

reunion
2005-12-16, 17:45:27
Es ist zwar schoen dass ploetzlich Winkelabhaengigkeit so wichtig sein soll, aber fuer viel zu viele war es "gut genug" von R100 bis zu R420 oder einer Zeitspanne von 4 Jahren, weil eben ihr Lieblings-IHV nichts besseres bieten konnte.

Und das mit den Balken ist auch der albernste generalisierte Mist; ich hab auf dem Laptop eine 5700. Angenommen ich ignoriere komplett Balken und will mir nichts dir nichts weniger Winkelabhaengigkeit muesste ich wohl meine Spiele auf dem lahmarschigen Ding spielen oder was? Also bitte....

Jeder Kauf ist ein Kompromiss. Natürlich muss man nicht um jeden Preis winkelunabhängiges AF oder >4xMSAA haben, nur wird die Bildqualität IMHO viel zu wenig beachtet. Ein Großteil schielt hauptsätzlich auf den längsten Balken, die BQ ist nur nebenrangig. Kein Wunder, dass die IHVs sämtliche Filter zu Tode optimeren.

']Jetzt machst du dich aber etwas lächerlich, aufeinmal ist BQ alles, wieso versuchte man diesen nachteil seit dem R3xx runterzuspielen...?


Blödsinn - ich habe die BQ nie runtergespielt. Bis jetzt hielt sich das in etwa die Waage, wodurch darüber nie wirklich gesprochen wurde. R3xx war durch das bessere AA in punkto BQ (je nach Sichtweise) ebenbürtig. Auf R4xx traf dies durch das verschlechterte NV40-AF - inkl. flimmernden Texturen - mit Sicherheit auch zu. R5xx bietet hier jedoch einen deutlichen Pluspunkt.

Mr. Lolman
2005-12-16, 17:50:52
Wobei ich aber auch noch sagen muss dass das angebliche "AF" auf R100 und R200 zum erbrechen schlecht aussah.


Nicht schlechter als NV Q+alle Opts. (Zumindest in OpenGL)

dilated
2005-12-16, 18:35:38
ich weis nur das,

hatte 9800pro, jetzt 6600gt und finds schlechter in allem

-treiber
-BQ
-öfters abstürze seit der nvidia,(nein keine hitze oder sonstwas,passiert auch nur ca 1 mal am tag wenn ich die ganze zeit zock)

weis nicht wie das bei x1k oder x8xx karten auch so ist
9800pro vs. 6600gt klarer winner für mich 9800pro(auch wenn se langsamer ist)

c u

Coda
2005-12-16, 18:38:19
Nicht schlechter als NV Q+alle Opts. (Zumindest in OpenGL)LOL?

Grestorn
2005-12-16, 18:39:05
-öfters abstürze seit der nvidia,(nein keine hitze oder sonstwas,passiert auch nur ca 1 mal am tag wenn ich die ganze zeit zock)Das ist aber nicht normal. Irgendwo stimmt da was nicht.

Slipknot79
2005-12-16, 18:48:44
>öfters abstürze seit der nvidia,(nein keine hitze oder sonstwas,passiert auch nur ca 1 mal am tag wenn ich die ganze zeit zock)


Tja, dann Garantiefall wenn alles andere ausgeschlossen (Netzteil?...) wurde.

SKYNET
2005-12-16, 19:14:10
ich weis nur das,

hatte 9800pro, jetzt 6600gt und finds schlechter in allem

-treiber
-BQ
-öfters abstürze seit der nvidia,(nein keine hitze oder sonstwas,passiert auch nur ca 1 mal am tag wenn ich die ganze zeit zock)

weis nicht wie das bei x1k oder x8xx karten auch so ist
9800pro vs. 6600gt klarer winner für mich 9800pro(auch wenn se langsamer ist)

c u


karte zu garantie, das hatte ich netmal mit meiner ATI damals.... und mit ner NV ohnehin net!

Banshee18
2005-12-16, 23:55:43
Nicht schlechter als NV Q+alle Opts. (Zumindest in OpenGL)

Hast du schoneinmal die AF-Blumen verglichen? Beim R200 war die noch viel schlimmer winkelabhängig.

mapel110
2005-12-16, 23:57:10
Hast du schoneinmal die AF-Blumen verglichen? Beim R200 war die noch viel schlimmer winkelabhängig.
Obendrein nur reines BiAF, während es bei nvidia selbst mit Q+alle Opt immernoch Bri ist. :|

Banshee18
2005-12-17, 00:00:17
Obendrein nur reines BiAF, während es bei nvidia selbst mit Q+alle Opt immernoch Bri ist. :|
Afair hat Mr. Lolman mal gezeigt, dass man unter OGL mit Quality und allen Optimierungen auch nur bi AF hat.

Blaire
2005-12-19, 21:07:15
Relativ neues Review

Nvidias 81.95 vs. 5.12 Catalyst

http://www.vr-zone.com/index.php?i=3043&s=9

Endlich wurde auch mal FEAR mit Softshadows enabled getestet und schon ist die Nvidia Karte wieder vorn.

Mr. Lolman
2005-12-19, 21:09:16
und wieder nicht mit hq...

Mr. Lolman
2005-12-19, 21:12:33
Afair hat Mr. Lolman mal gezeigt, dass man unter OGL mit Quality und allen Optimierungen auch nur bi AF hat.

Genauso ist es. Auch unter D3D auf TS>0. Und selbst mit aktivem HQ kanns sein, das biAF erzwungen wird:
1. Klick @ "Restore" für Treiberdefaulteinstellungen
2. AA/AF einstellen
3. HQ einstellen
4. Irgendein OpenGLspiel starten und sich über biAF @ HQ wundern

dildo4u
2005-12-23, 17:56:01
High End For The Holidays : 7800GTX 512MB vs. X1800XT 512MB

http://www.gamepc.com/labs/view_content.asp?id=h2k5512&page=1&cookie%5Ftest=1&MSCSProfile=95385A1F52DEA1A229D5B375420544642EA0197098F3B72C48734F7EBED804276503 B5761B1E18AE0AB2953EB88B53A746C4A3B00EE19197A1AD4E4AEF15F242656273AFAC6FD594681E B6DB5CE8D307299A1EAED750A4CC391B3DDBF6C1C8BAE414E75EFF587AAB9291B059D4FB9A98436F 32BF3FB61013A119BC8DCA24F2D57EE35BD5591C2592

dildo4u
2006-01-05, 14:42:49
Computerbase Review 7800GTX 512mb im SLI

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7800_gtx_512_sli/