PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X1800XT vs. 7800GTX


erwingage
2005-10-25, 22:48:03
X1800XT vs. 7800GTX!!!

Kopf an Kopf Rennen!

moin allerseits,
es ist soweit:
theinquirer.net konnte den 1.richtigen Vergleichstest zwischen der ATi Radeon X1800XT und der NVidia GeForce 7800GTX machen.

Als Testsystem wurde ein AMD Athlon 64 X2 4800+
auf einem DFI Lanparty Nforce 4 SLI Motherboard mit 1GB Corsair CMX 3200XL Twinix RAM benützt.

(rechte Ergebnisse von der ATi X1800XT)
Doom3- NoAA, NoAF:
1024x768 - 114.9 - 116.2
1280x1024 - 106.9 - 100.6
1600x1200 - 91.7 - 80.4
Hier konnt die 7800GTX ganz klar gewinnen aber man
muss bedenken, dass ATi für eine NVidia optimierte Engine sehr gute Ergebnisse liefert.

FarCry1.3- NoAA, NoAF:
1024x768 - 76.55 - 74.94
1280x1024 - 76.93 - 77.33
1600x1200 - 75.82 - 76.29
Bei FarCry ist die Leistung in etwa gleich auf. Ein Patt.

HalfLife2- NoAA, NoAF:
1024x768 - 51.49 - 50.84
1280x1024 - 52.03 - 53.59
1600x1200 - 51.29 - 52.56
Für ein ATi (R360) optimiertes Game konnte NVidia gute Leistung zeigen...trotzdem ist es insgesamt nur Gleichstand.

CS:S- NoAA, NoAF:
1024x768 - 161.90 - 160.05
1280x1024 - 156.32 - 158.88
1600x1200 - 146.77 - 144.10
Das gewohnte Bild, keine Karte kann sich klar in Führung setzen.

UT2004- NoAA, NoAF:
1024x768 - 184.25 - 182.78
1280x1024 - 175.05 - 174.22
1600x1200 - 183.40 - 182.20
Bei diesem Test liegt die 7800GTX knapp in Führung.

Doom3- 4xAA, 8xAF:
1024x768 - 94.7 - 82.6
1280x1024 - 69.6 - 58.3
1600x1200 - 51.8 - 41.7
Bei diesem Test kann sich die 7800GTX wieder klar absetzen.

HalfLife2- 4xAA, 8xAF:
1024x768 - 51.12 - 52.82
1280x1024 - 51.93 - 53.40
1600x1200 - 51.15 - 52.12
Kein wirklicher Vorteil..aber immerhin 1-2Fps mehr bei der ATi.

CS:S- 4xAA, 8xAF:
1024x768 - 162.23 - 160.83
1280x1024 - 141.16 - 143.10
1600x1200 - 124.38 - 120.75
Je nach Auflösung schwanken die Karten, wobei die GeForce etwas mehr zu bieten.

Fazit: In Spielen ist die 7800GTX zurzeit einen leichten Tick schneller...schauen wir uns mal die synthetischen Tests an:

3DMark03:
3DMarks : 16066 - 16648
Game2 : 130.7 - 138.9
Game3 : 108.4 - 102.8
Nature : 92.3 - 106.1
SingleTex:4157.4 - 4279.8
MultiTex.:9986.8 - 9496.6
VertexSha: 45.2 - 57.5
PixelSha.: 342.2 - 186.5
Hier kann sich wohl rein nach der Punktzahl die ATi Karte behaupten.

3DMark05:
3DMarks : 7618 - 8967
Game1 : 32.3 - 37.4
Game2 : 23.4 - 27.3
Game3 : 37.4 - 45.2
SingleTex:4887.3 -5063.8
MultiTex.:10054.3-10086.5
PixelShad: 295.8 - 238.0
VertexSha: 61.8/45.1 - 88.3/58.3
Hier konnte die ATi Karte richtig ihre Kraft zeigen.

Insgesamt sind beide Karten wohl gleichauf, die Zukunft wird sicherlich noch weitere Ergebnisse bringen :wink:

Spasstiger
2005-10-25, 23:20:57
Du meinst erster Test mit dem OpenGL-Fix von ATI? Ansonsten seh ich hier nix neues. Die Benchmarks sind doch schon 3 Wochen alt.

Bei FarCry ist die Leistung in etwa gleich auf. Ein Patt.
Das müsste eher heißen: "Klar CPU-limitiert, die neuen Grafikkarten sind unterfordert"

Für ein ATi (R360) optimiertes Game konnte NVidia gute Leistung zeigen...trotzdem ist es insgesamt nur Gleichstand.
Ebenfalls CPU-limitiert.

Das gewohnte Bild, keine Karte kann sich klar in Führung setzen.
Tjo, wieder mal die "lahme" CPU. ;)

Bei diesem Test liegt die 7800GTX knapp in Führung.
Und trotzdem CPU-limitiert.

Kein wirklicher Vorteil..aber immerhin 1-2Fps mehr bei der ATi.
Immer noch CPU-limitert.

Je nach Auflösung schwanken die Karten, wobei die GeForce etwas mehr zu bieten.
Oh, nochmal eine CPU-Limitierung.

:D

Wer sich eine GeForce 7800 GTX oder eine X1800 XT kauft, hat gefälligst mindestens 1600x1200 mit 4xAA oder 6xAA + TRAA bzw. AAA und 16:1 (HQ-)AF zu fahren, zumindest in den genannten Spielen. ;)

KaKÅrØT
2005-10-25, 23:25:52
hehe das sind manns in ner 1600 auflösung um 7fps mehr ? ut2004 messfehler?

ich bin aber zurzeit noch immer für ne 7800gtx obwohl HQAF schon etwas hernimmt ;) aber ati hat ja auch nachteile.....

nagus
2005-10-26, 00:24:11
Danke für den Vergleich! Könntest du vielleicht noch ein wenig mehr Spiele testen? Interessant wäre außerdem welche Qualitätseinstellungen verwendet wurden,welche Treiber etc...

Persönlich zu ATI würde ich raten, da sich hier Treibermäßig noch einiges tun wird (siehe OpenGL HotFix wo die X1800 um satte 35% zulegen kann und soch ganz klar vor die 7800gtx platzieren kann!)

Dazu kommt noch AVIVO, HDR+FSAA, im vergleich zur 7800 nahezu perfektes AF und schöneres FSAA.

Spasstiger
2005-10-26, 00:28:14
Danke für den Vergleich! Könntest du vielleicht noch ein wenig mehr Spiele testen? Interessant wäre außerdem welche Qualitätseinstellungen verwendet wurden,welche Treiber etc...

Die Benchmarks stammen von TheInquirer. ;)

EDIT: Die Benches sind vom 05.10. von der Inquirer-Seite. Also wurde auch noch nicht der OpenGL-Fix berücksichtigt, mit dem die Radeon X1800 XT die GeForce 7800 GTX in Doom 3 schlagen kann.

KaKÅrØT
2005-10-26, 10:56:32
glaubt ihr das nvdia mit der 7800gtx noch ein ass im ärmel hat , also ich meine jetzt treiber mässig her ? Oder nur ATI ?

ALso ich finde jetzt persönlich beide Karten perferkt BQ ist bei ATI im moment jetzt wieder zurück.... Leistung liegen beide gleich auf (nvidia bisaal schneller) nur wer sieht 5fps bei 180 fps ? die BQ sieht man aber schon ... Bleibe Aber bei nvidia weil ich mir irgendwann ne zweite holen will :) und dann soll mal nvidia nen BQ 1+ rasubringen :P

erwingage
2005-10-26, 12:58:15
glaubt ihr das nvdia mit der 7800gtx noch ein ass im ärmel hat , also ich meine jetzt treiber mässig her ? Oder nur ATI ?

ALso ich finde jetzt persönlich beide Karten perferkt BQ ist bei ATI im moment jetzt wieder zurück.... Leistung liegen beide gleich auf (nvidia bisaal schneller) nur wer sieht 5fps bei 180 fps ? die BQ sieht man aber schon ... Bleibe Aber bei nvidia weil ich mir irgendwann ne zweite holen will :) und dann soll mal nvidia nen BQ 1+ rasubringen :P

ich habe gehört,daß nvdia mit der 7800gtx vieleicht noch eine höher getaktete version mit 512mb ram auf den markt bringen will :wink:
und die treiber werden sicherlich auch mal besser werden! :biggrin:

The_Invisible
2005-10-26, 13:16:14
ich habe gehört,daß nvdia mit der 7800gtx vieleicht noch eine höher getaktete version mit 512mb ram auf den markt bringen will :wink:
und die treiber werden sicherlich auch mal besser werden! :biggrin:

jo, die sollen gefälligst höher getakteten speicher einsetzen, dann siehts mit AA gleich anders aus, core könntens auch gleich auf 500mhz erhöhen, scheint ja kein problem mitn G70 zu sein

mfg

DickZ
2005-10-26, 13:58:57
Servus,

firingsquad.com hat die 1800er mal gegen die 7800er antreten lassen... das rockt!

http://www.firingsquad.com/hardware/quake_4_high-end_performance/default.asp

Blaire
2005-10-26, 18:00:26
Am 7.11. wie es ausschaut kommt eine 512MB 7800 Ultra Variante. :)
http://www.bit-tech.net/news/2005/10/26/512mb_7800gtx_on_nov_7th/

A.Wesker
2005-10-26, 18:55:19
Am 7.11. wie es ausschaut kommt eine 512MB 7800 Ultra Variante. :)
http://www.bit-tech.net/news/2005/10/26/512mb_7800gtx_on_nov_7th/
das wäre ein schlag ins gesicht von ATI :D

Dunkeltier
2005-10-26, 18:59:25
das wäre ein schlag ins gesicht von ATI :D


Und dann schiebt Ati wahrscheinlich eine Radeon X1800 XT PE nach... :rolleyes:

A.Wesker
2005-10-26, 19:03:16
Und dann schiebt Ati wahrscheinlich eine Radeon X1800 XT PE nach... :rolleyes:
allein der takt wird gegen eine 7800 GTX 512 MB + höheren speichertakt nichts nützen, was man im vergleich zur oc x800xl @ xt takt (256MB) sehr gut sehen kann.

flatbrain
2005-10-26, 19:06:44
allein der takt wird gegen eine 7800 GTX 512 MB + höheren speichertakt nichts nützen, was man im vergleich zur oc x800xl @ xt takt (256MB) sehr gut sehen kann.

Da die Rohperformance bei beiden Karten hoch genug ist, entscheiden imo andere Features, so z.B. die bessere Bildqualität. Und da nützen der GTX auch keine zusätzlichen 256Mb Ram.

Dunkeltier
2005-10-26, 19:12:03
allein der takt wird gegen eine 7800 GTX 512 MB + höheren speichertakt nichts nützen, was man im vergleich zur oc x800xl @ xt takt (256MB) sehr gut sehen kann.


Wieso? Wenn nVidia an der Taktschraube dreht und zusätzlich Speicher draufklatscht, kann Ati doch selbiges tun. Und eine imaginäre Radeon X1800 XT PE auf 675/800 bis 700/800 Mhz würde gar nicht mal so schlecht darstehen. Letztlich geht es doch nur darum, im Consumerbereich alle Kronen einzusammeln. Derzeit hat Ati die Bildqualitäskrone, während die Performancekrone sich beide teilen müssen. Mal ganz zu schweigen von weiteren Dingen wie dem Featureset oder Preis.

Quasar
2005-10-26, 19:16:26
Fragt sich nur, wieviel Luft beide noch nach oben haben. Bei Ati sehe ich schon jetzt den besten High-End Speicher verbaut - bei Nvidia dagegen grad mal 600-MHz-Bausteine.

Außerdem sollte man bedenken, daß zusätzliche 75 MHz bei Nvidia mehr bringen, als bei ATi, da mehr Recheneinheiten vorhanden sind. Wenn man sich in Taktspielereien ergeht, sollte man entweder die gewonnene Füllrate oder besser, die prozentuale Taktsteigerung berücksichtigen.

Um 675 MHz zu kontern, wäre für Nv bereits 465 MHz ausreichend - da gibt es bereits Serienmodelle mit höherem Takt.

Adam D.
2005-10-26, 19:19:46
Währenddessen geht man landläufig davon aus, dass es zwischen der GeForce 7800 GTX mit 256 und 512 MB keine Unterschiede in der Taktung geben wird. Falls das Modell mit 512 MB also überhaupt einen Vorteil gegenüber seiner kleinen Schwester erzielen kann, dann nur über den größeren Speicherausbau, der allerdings erst in hohen Auflösungen und unter exzessiver Verwendung von Anti-Aliasing zum Tragen kommt.
Das wäre meiner Meinung nach sehr schade. Es scheint wohl wirklich nur ein Prestige-Akt zu sein, weil man 512-MB-Karten vor ATi ausliefern will.

Dunkeltier
2005-10-26, 19:23:58
Fragt sich nur, wieviel Luft beide noch nach oben haben. Bei Ati sehe ich schon jetzt den besten High-End Speicher verbaut - bei Nvidia dagegen grad mal 600-MHz-Bausteine.

Naja, ein klitzeklein wenig Luft hat auch Ati noch. Letztlich zahlt den Premiumspeicher eh der Kunde. Und zur Not läßt man das ganze minimal außerhalb der Spezifikation laufen, um vor der Konkurrenz liegen zu können. Man hat schließlich seinen guten Ruf zu verlieren.




Außerdem sollte man bedenken, daß zusätzliche 75 MHz bei Nvidia mehr bringen, als bei ATi, da mehr Recheneinheiten vorhanden sind.

Sicher. Aber ob ich mehr Recheneinheiten oder mehr Takt nutze um das Ergbnis zu erreichen, läuft aufs gleiche hinaus. Viele Wege führen nach Rom.


Wenn man sich in Taktspielereien ergeht, sollte man entweder die gewonnene Füllrate oder besser, die prozentuale Taktsteigerung berücksichtigen.

Klar. Bei Ati bringt es prozentual weniger an Mehrleistung, zumal diese jetzt schon ziemlich am Limit sind.




Um 675 MHz zu kontern, wäre für Nv bereits 465 MHz ausreichend - da gibt es bereits Serienmodelle mit höherem Takt.


Jein. Offiziell gibt es nur das GTX-Modell mit 430/600 Mhz. Was dann die Kartenhersteller für ein Süppchen kochen, sei mal dahingestellt. Schließlich kann es genauso gut von der Radeon bald eine "Platnium" oder "Ultimate Edition" geben. Entweder offiziell, oder inoffiziell.

deekey777
2005-10-26, 19:24:51
Das wäre meiner Meinung nach sehr schade. Es scheint wohl wirklich nur ein Prestige-Akt zu sein, weil man 512-MB-Karten vor ATi ausliefern will.

Schneller Speicher treibt doch nur den Preis unnötig in die Höhe.

Siebter November - Tag der Oktoberrevolution....

A.Wesker
2005-10-26, 19:25:01
Da die Rohperformance bei beiden Karten hoch genug ist, entscheiden imo andere Features, so z.B. die bessere Bildqualität. Und da nützen der GTX auch keine zusätzlichen 256Mb Ram.
in bewegung wird man bei heutigen games wohl kaum einen großen unterschied feststellen können (siehe vergleichsscreens in SS2, Quake 4, Fear etc.). außerdem gibts es leute, die auf 1920x1200 und höher zocken, sodass die karte nicht schnell genug sein kann.

flatbrain
2005-10-26, 19:26:23
Siebter November - Tag der Oktoberrevolution....

Ich könnte schwören, der war im Oktober - oder warum hiess die Oktoberrevolution Oktoberrevolution ;) ?
Sorry 4 ot.

MSABK
2005-10-26, 19:28:07
Bei Computerbase stand drin das die 512 MB version des gtx die gleichen taktraten wie die 256er karte hat.

flatbrain
2005-10-26, 19:29:18
in bewegung wird man bei heutigen games wohl kaum einen großen unterschied feststellen können (siehe vergleichsscreens in SS2, Quake 4, Fear etc.). außerdem gibts es leute, die auf 1920x1200 und höher zocken, sodass die karte nicht schnell genug sein kann.

Nunja, da bin ich anderer Meinung, das AF der X1800XT ist unzweifelhaft besser. Und ob man aktuelle Spiele nun unbedingt in 1920x1200 oder höher mit einer Grafikkarte spielen können muss, sei mal dahingestellt.

Black-Scorpion
2005-10-26, 19:29:24
Ich könnte schwören, der war im Oktober - oder warum hiess die Oktoberrevolution Oktoberrevolution ;) ?
Sorry 4 ot.
Sorry für OT

Vielleicht aus dem selben Grund wie das Oktoberfest im September ist? ;)

'edit'
Zur der Zeit hatte Russland den julianischen Kalender und da war es der 25./26. Oktober 1917.

deekey777
2005-10-26, 19:34:14
Ich könnte schwören, der war im Oktober - oder warum hiess die Oktoberrevolution Oktoberrevolution ;) ?
Sorry 4 ot.

Weil im Zarenrußland erst nach der Oktoberrevolution auf den Gregorianischen Kalender gewechselt wurde und der 25. Oktober nach dem damals im Zarenrußland geltenden Julianischen Kalender der 7. November nach dem Gregorianischen Kalender ist? ;)
Die russisch-orthodoxe Kirche lebt immer noch nach dem Julianischen Kalender, ist eine "Altkalendarierin".

flatbrain
2005-10-26, 19:38:51
Weil im Zarenrußland erst nach der Oktoberrevolution auf den Gregorianischen Kalender gewechselt wurde und der 25. Oktober nach dem damals im Zarenrußland geltenden Julianischen Kalender der 7. November nach dem Gregorianischen Kalender ist? ;)
Die russisch-orthodoxe Kirche lebt immer noch nach dem Julianischen Kalender, ist eine "Altkalendarierin".

Ol, wieder was dazu gelernt... ;D

tombman
2005-10-26, 19:52:57
Solang ATI kein crossfire mit 2x x1800xt bieten kann ist weiterhin Nvidia der performance leader...
Und wie schon gesagt kann ATI nicht viel mehr Takt aus der x1800xt rausholen, schließlich verwenden die bereits den besten Speicher und sind auch mit dem Takt sehr weit oben.

Nvidia braucht nur den selben Speicher nehmen und den core Takt erhöhen, und schon haben sie einen Killer ;)

Coda
2005-10-26, 19:56:08
-

MikBach
2005-10-26, 21:12:35
in bewegung wird man bei heutigen games wohl kaum einen großen unterschied feststellen können (siehe vergleichsscreens in SS2, Quake 4, Fear etc.)
Wie willst denn beweisen, wie es in Bewegung aussieht, wenn du nur Screens vergleichst? :confused:
Gerade in Bewegung sollte man es gut sehen können.

Ailuros
2005-10-26, 23:23:14
Wieso? Wenn nVidia an der Taktschraube dreht und zusätzlich Speicher draufklatscht, kann Ati doch selbiges tun. Und eine imaginäre Radeon X1800 XT PE auf 675/800 bis 700/800 Mhz würde gar nicht mal so schlecht darstehen. Letztlich geht es doch nur darum, im Consumerbereich alle Kronen einzusammeln. Derzeit hat Ati die Bildqualitäskrone, während die Performancekrone sich beide teilen müssen. Mal ganz zu schweigen von weiteren Dingen wie dem Featureset oder Preis.

Bei der Seltenheit der 625MHz R520, kann ich mir schwer solche Frequenzen aus dem Nichts vorstellen. Das wird nichtmal eine X800XT PE Verfuegbarkeit, sondern eher 6800 Ultra Extreme.

alpha-centauri
2005-10-27, 11:00:13
Insgesamt sind beide Karten wohl gleichauf, die Zukunft wird sicherlich noch weitere Ergebnisse bringen :wink:

Welcher Treiber bei Ati und Nvidia? Welche Qualitaetseinstellungne bei Nvidia?
Was mich echt wundert ist, dass die Ati nicht wegzieht. Da hatte ich mehr erwartet. Besonders nach nem Halben jahr, seitdem die GTX vorgestellt woren ist.

alpha-centauri
2005-10-27, 11:04:24
das wäre ein schlag ins gesicht von ATI :D

mit 1,6 ns speicher, 512 MB ram, noch ne Quad mehr und 50 mhz mehr GPU ? Das waer cool.

Mumins
2005-10-27, 11:04:40
Was mich echt wundert ist, dass die Ati nicht wegzieht.

Warum, an der Architektur wurde nichts mehr geändert, der Chip war fertig nur die Yields schlecht.

alpha-centauri
2005-10-27, 11:14:12
Da die Rohperformance bei beiden Karten hoch genug ist, entscheiden imo andere Features, so z.B. die bessere Bildqualität. .

Das ist mitlerweile nur noch ein Argument, um die Schwache Rechenleistung von Ati gegenüber der Konkurrenz zu verteidigen. Ziemlich haltlos.

Gibts demnächst dann ne neue Bash-Powerpoint von ati in der richtung "Unsere Karten sind zwar nicht s chneller, sehen aber besse raus?"

Und nvidia ballert zurueck mit "Egal, wies aussieht, hauptsache es laeuft "The way its meant to be played"?

Mr. Lolman
2005-10-27, 11:15:49
Um 675 MHz zu kontern, wäre für Nv bereits 465 MHz ausreichend - da gibt es bereits Serienmodelle mit höherem Takt.

Sag deinen Kollegen, dass sie nicht mehr mit default-Qualität benchen sollen. Ist ja übel, was in der letzten Ausgabe für Werte und dementsprechende Schlüsse entstanden sind. thx :)

flatbrain
2005-10-27, 12:13:40
Das ist mitlerweile nur noch ein Argument, um die Schwache Rechenleistung von Ati gegenüber der Konkurrenz zu verteidigen. Ziemlich haltlos.

Gibts demnächst dann ne neue Bash-Powerpoint von ati in der richtung "Unsere Karten sind zwar nicht s chneller, sehen aber besse raus?"

Und nvidia ballert zurueck mit "Egal, wies aussieht, hauptsache es laeuft "The way its meant to be played"?

Schwache Rechenleistung? Die Rechenleistung ist in etwa genauso schwach wie das entspprechende nVidia-Gegenstück, wenn man das betrachtet, was hinten rauskommt. Ausserdem wüsste ich nicht, warum ich überhaupt irgend etwas verteidigen sollte, ich kauf die Karte, welche den besten Kompromiss aus Qualität und Leistung bietet, egal, wer den CHip entwickelt hat. Also probiers mal mit Argumenten anstatt mit Pöbeln...!

PS: Und nun husch, wieder zurück auf meine virtuelle Ignorelist ;) !

Quasar
2005-10-27, 12:34:27
Sag deinen Kollegen, dass sie nicht mehr mit default-Qualität benchen sollen. Ist ja übel, was in der letzten Ausgabe für Werte und dementsprechende Schlüsse entstanden sind. thx :)
Fehlt nur noch der Spruch: "Das Wort mit zwei T heisst Flott und nicht Bitte."

Also ehrlich – hast du im RL auch so einen Ton am Leib? Und btw. es wurde HQ gebencht.

Quasar
2005-10-27, 12:37:30
Sicher. Aber ob ich mehr Recheneinheiten oder mehr Takt nutze um das Ergbnis zu erreichen, läuft aufs gleiche hinaus. Viele Wege führen nach Rom.
Genau darum schrieb ich ja auch, dass man die Taktratenerhöhung lieber Prozentual betrachten sollte.
Klar. Bei Ati bringt es prozentual weniger an Mehrleistung, zumal diese jetzt schon ziemlich am Limit sind.
Ah – du hast es also doch gelesen. :|

Jein. Offiziell gibt es nur das GTX-Modell mit 430/600 Mhz. Was dann die Kartenhersteller für ein Süppchen kochen, sei mal dahingestellt. Schließlich kann es genauso gut von der Radeon bald eine "Platnium" oder "Ultimate Edition" geben. Entweder offiziell, oder inoffiziell.
Offiziell kann ich eine Karte bsw. von Leadtek oder Asus kaufen, die höher taktet. Genauso Offiziell kann ich das vielleicht auch von HIS, Sapphire oder Gecube – wenn diese so etwas ankündigen und verfügbar haben.

Raff
2005-10-27, 12:43:46
Und btw. es wurde HQ gebencht.

Jo. Gegen A.I. aus. Das macht Sinn und ist bei der PCGH schon länger Standard. :)

MfG,
Raff

DrumDub
2005-10-27, 12:51:46
Jo. Gegen A.I. aus. Das macht Sinn und ist bei der PCGH schon länger Standard. :)

MfG,
Raff nicht wirklich, so lange ati nicht die möglichkeit bietet die af-optimierungen unabhängig von shaderreplacemnet etc. zu regeln.

Raff
2005-10-27, 12:55:16
Dafür können wir aber nichts. ;) Man könnte Ati ja auch Absicht unterstellen, als sie diese beiden völlig unabhängigen Dinge gekoppelt haben.

MfG,
Raff

Mr. Lolman
2005-10-27, 12:58:42
Fehlt nur noch der Spruch: "Das Wort mit zwei T heisst Flott und nicht Bitte."

Sry, war keine böse Absicht.


Also ehrlich – hast du im RL auch so einen Ton am Leib? Und btw. es wurde HQ gebencht.

Nö, da bekomm ich meistens eins in die Frexxe, wenn ich so frech bin :ulol: ;)

Jo. Gegen A.I. aus. Das macht Sinn und ist bei der PCGH schon länger Standard. :)

MfG,
Raff


Imo macht das keinen Sinn. Denn Atis Optimierungen sind im Ggs. zu NVs nicht sichtbar (lass mich immernoch gerne vom Gegenteil überzeugen). Und wenn die PCGH schon zu dem Schluß kommt, dass AI im Durchschnitt besser aussieht als NV HQ, dann warum nicht auch so benchen?

Dafür können wir aber nichts. ;) Man könnte Ati ja auch Absicht unterstellen, als sie diese beiden völlig unabhängigen Dinge gekoppelt haben.

MfG,
Raff

Wir? Arbeitest du auch für die PCGH?

eraz
2005-10-27, 13:16:58
man sollte vielleicht auch nicht vergessen dass eine 7800GTX ne einslot-kühllösung hat die nach allen berichten zu urteilen relativ leise ist.

die X1800XT hat ne brüll-lösung die über 2 slots geht.

ich weiß hier gehts um leistung, aber ich finde das ist schon auch ein punkt den man nennen sollte.

Coda
2005-10-27, 13:29:14
Dafür können wir aber nichts. ;) Man könnte Ati ja auch Absicht unterstellen, als sie diese beiden völlig unabhängigen Dinge gekoppelt haben.

MfG,
RaffDas ist das Problem. Es lassen sich keine vergleichbaren Bedingungen schaffen. Entweder man benachteiligt den einen oder den anderen.

DrumDub
2005-10-27, 13:57:43
Das ist das Problem. Es lassen sich keine vergleichbaren Bedingungen schaffen. Entweder man benachteiligt den einen oder den anderen. so ist es. wobei ich ai=low gegen hq immer noch fairer finde, da nv mit hq mittlerweile gegenüber quality i.d.r nur noch ca. 3-5% verliert.

reunion
2005-10-27, 14:17:04
Das ist mitlerweile nur noch ein Argument, um die Schwache Rechenleistung von Ati gegenüber der Konkurrenz zu verteidigen. Ziemlich haltlos.


Das ich nicht lache.
Was nützen dir ein paar Prozent mehr Rohleistung, wenn du um die BQ der Konkurrenz zu erreichen, mit 16xSSAA spielen musst? Die bessere BQ zählt im Endeffekt wesentlich mehr, da man dadurch eben haufenweise Rohleistung einsparen kann.
Jetzt mal ganz davon abgesehen, dass die Rohleistung der ATi-Karten nicht wirklich schwächer ist.

alpha-centauri
2005-10-27, 15:18:55
so ist es. wobei ich ai=low gegen hq immer noch fairer finde, da nv mit hq mittlerweile gegenüber quality i.d.r nur noch ca. 3-5% verliert.

schon, nur nich bei Q4 auf 7800. Da sinds nachgewiesene und gebenchte 15-20%.

alpha-centauri
2005-10-27, 15:20:29
man sollte vielleicht auch nicht vergessen dass eine 7800GTX ne einslot-kühllösung hat die nach allen berichten zu urteilen relativ leise ist.

die X1800XT hat ne brüll-lösung die über 2 slots geht.

ich weiß hier gehts um leistung, aber ich finde das ist schon auch ein punkt den man nennen sollte.

Weitere Punkte. Die genannte 2Slotkuehlung, sowie Laute Luefter.
Noch wichtig find ich höherer Stromverbrauch der Karte.

Jetzt mögen ja manche meinen "Sind ja nur 10 Watt..". Aber das ist auch Kohle. Zudem Ati schon im neuen, Nvidia im alten Strukturprozess fertigen laesst.
Als mal Intel 10 Watt mehr Verbrauch hatte, wurd auch gleich gebashed. Das wollten dann die Intelianer nich hören.
Heut wirds mit FanAtikern auch untern Tisch gekehrt.

Mr. Lolman
2005-10-27, 15:26:08
so ist es. wobei ich ai=low gegen hq immer noch fairer finde, da nv mit hq mittlerweile gegenüber quality i.d.r nur noch ca. 3-5% verliert.

Full ACK. Man tut immer so, als würde bei HQ garnix mehr optiomiert werden. Das ist, genausowenig wie bei Aioff, der Fall.

Ailuros
2005-10-27, 15:38:10
Ich hab Q4 noch nicht aber ich bin erstmal vorsichtig die bisherigen Resultate auszulesen und das weil:

http://www.beyond3d.com/forum/showthread.php?t=24944

Laeuft jetzt das Q4 timedemo tatsaechlich auf allen Karten ohne Schatten, sind alle bisherigen Resultate fuer die Tonne.

Blaire
2005-10-27, 15:58:50
Jo Schatten sind tatsächlich aus, habs gerade mal getestet.

Spasstiger
2005-10-27, 15:58:55
mit 1,6 ns speicher

1,6ns Speicher wird doch auf den GeForce 7800 GTXen schon jetzt verbaut.
Besser wäre 1,4ns Speicher und ein höherer Speichertakt.

DickZ
2005-10-27, 16:00:19
Weitere Punkte. Die genannte 2Slotkuehlung, sowie Laute Luefter.
Noch wichtig find ich höherer Stromverbrauch der Karte.

Jetzt mögen ja manche meinen "Sind ja nur 10 Watt..". Aber das ist auch Kohle. Zudem Ati schon im neuen, Nvidia im alten Strukturprozess fertigen laesst.
Als mal Intel 10 Watt mehr Verbrauch hatte, wurd auch gleich gebashed. Das wollten dann die Intelianer nich hören.
Heut wirds mit FanAtikern auch untern Tisch gekehrt.
hast du auch einen verbrauch der x1800xt mit 256mb ? ich wette da kannst du bestimmt 10 watt abziehen.

die 1800xl und die 7800gt liegen ja auch ziemlich gleichauf!

DickZ
2005-10-27, 16:02:31
Laeuft jetzt das Q4 timedemo tatsaechlich auf allen Karten ohne Schatten, sind alle bisherigen Resultate fuer die Tonne.
wie starte ich das quake4 timedemo ? :confused:

LolekDeluxe
2005-10-27, 16:06:54
X1800XT vs. 7800GTX!!!

HalfLife2- NoAA, NoAF:
1024x768 - 51.49 - 50.84
1280x1024 - 52.03 - 53.59
1600x1200 - 51.29 - 52.56


HalfLife2- 4xAA, 8xAF:
1024x768 - 51.12 - 52.82
1280x1024 - 51.93 - 53.40
1600x1200 - 51.15 - 52.12






Da stimmt doch eindeutig was nicht? :|
Ati mit 1024x768 ist mit 4xAA+8AF schneller wie ohne AF/AF.
Außerdem sind doch 50 fps etwas wenig oder nicht. :|
Eine X1800XT ist im schnitt 20% schneller als die 7800GTX in HL2.
Und es müßten etwas um 100 fps mit der ATI sein und nicht 50 fps.

Ailuros
2005-10-27, 16:24:39
Jo Schatten sind tatsächlich aus, habs gerade mal getestet.

Danke. G70/Quake4 Resultate ungueltig. Irgend jemand mit einer X1800XL rein zufaellig der auch testen koennte?

***edit: uebrigens falls dieses ein genereller Trend sein sollte (und ja nur eine GPU-Familie reicht) dann sollte sich die paar reviewers die sich mit dem Zeug beschaeftigen mal endlich vor den Bildschirm setzen und zuschauen wenn ein timedemo ablaeuft. Bug im Spiel, cheat im Treiber oder weiss der Henker was auch immer, dass keine Schatten zu sehen sind beim Ablauf eines timedemos, sollte man auf Anhieb bemerken.

Ailuros
2005-10-27, 16:27:15
Da stimmt doch eindeutig was nicht? :|
Ati mit 1024x768 ist mit 4xAA+8AF schneller wie ohne AF/AF.
Außerdem sind doch 50 fps etwas wenig oder nicht. :|
Eine X1800XT ist im schnitt 20% schneller als die 7800GTX in HL2.
Und es müßten etwas um 100 fps mit der ATI sein und nicht 50 fps.

Wenn ein System CPU limitiert ist, ist gar nix schneller in HL2 dass ohnehin schon ziemlich CPU bound ist. Dass er in allen drei Aufloesungen gleiche scores landet, imponiert Dir kein bisschen?

Ailuros
2005-10-27, 16:28:43
wie starte ich das quake4 timedemo ? :confused:

Keine Ahnung ich hab q4 ja (noch) nicht. "timedemo 1" duerfte erstmal logischerweise die Sequenz starten man muesste nur wissen wie das eingebaute demo genau heisst.

Spasstiger
2005-10-27, 16:30:44
Da stimmt doch eindeutig was nicht? :|
Ati mit 1024x768 ist mit 4xAA+8AF schneller wie ohne AF/AF.
Außerdem sind doch 50 fps etwas wenig oder nicht. :|
Eine X1800XT ist im schnitt 20% schneller als die 7800GTX in HL2.
Und es müßten etwas um 100 fps mit der ATI sein und nicht 50 fps.

Lies das zweite Posting in diesem Thread. ;)

Ailuros
2005-10-27, 16:36:04
Lies das zweite Posting in diesem Thread. ;)

Moment....was hab ich jetzt selber verpasst, da steht ein X2 4800+ :confused:

deekey777
2005-10-27, 16:43:50
Moment....was hab ich jetzt selber verpasst, da steht ein X2 4800+ :confused:

Ist das nicht abhängig von der aufgenommenen Timedemo? Wenn es zB der Kampf auf dem Weg zum Pferdchen ist, dann ist das ganze sehr CPU-abhängig.

StefanV
2005-10-27, 16:45:05
Weitere Punkte. Die genannte 2Slotkuehlung, sowie Laute Luefter.
Noch wichtig find ich höherer Stromverbrauch der Karte.

Jetzt mögen ja manche meinen "Sind ja nur 10 Watt..". Aber das ist auch Kohle. Zudem Ati schon im neuen, Nvidia im alten Strukturprozess fertigen laesst.
Als mal Intel 10 Watt mehr Verbrauch hatte, wurd auch gleich gebashed. Das wollten dann die Intelianer nich hören.
Heut wirds mit FanAtikern auch untern Tisch gekehrt.
Sagt jemand, der 'nen P4 benutzt?!

Außerdem ist der Unterschied auf dem anderen Geibiet ungleich größer, zum Teil sinds ~100% Unterschied...

Ailuros
2005-10-27, 16:51:41
Ist das nicht abhängig von der aufgenommenen Timedemo? Wenn es zB der Kampf auf dem Weg zum Pferdchen ist, dann ist das ganze sehr CPU-abhängig.

Schon, aber so drastisch? Es ist ja nicht dass ein X2 4800+ gerade langsam ist ganz im Gegenteil, selbst wenn es zu single-threading kommt.

Mr. Lolman
2005-10-27, 16:58:59
Danke. G70/Quake4 Resultate ungueltig. Irgend jemand mit einer X1800XL rein zufaellig der auch testen koennte?

***edit: uebrigens falls dieses ein genereller Trend sein sollte (und ja nur eine GPU-Familie reicht) dann sollte sich die paar reviewers die sich mit dem Zeug beschaeftigen mal endlich vor den Bildschirm setzen und zuschauen wenn ein timedemo ablaeuft. Bug im Spiel, cheat im Treiber oder weiss der Henker was auch immer, dass keine Schatten zu sehen sind beim Ablauf eines timedemos, sollte man auf Anhieb bemerken.

Absolut ACK.

StefanV
2005-10-27, 17:02:42
Da stimmt doch eindeutig was nicht? :|
Ati mit 1024x768 ist mit 4xAA+8AF schneller wie ohne AF/AF.
Außerdem sind doch 50 fps etwas wenig oder nicht. :|
Eine X1800XT ist im schnitt 20% schneller als die 7800GTX in HL2.
Und es müßten etwas um 100 fps mit der ATI sein und nicht 50 fps.
VSync ON? :)

deekey777
2005-10-27, 17:04:28
Absolut ACK.

Bisher scheint es auch niemandem aufgefallen zu sein, daß in HL2 mit AI auf Standard nur billiges Dreckwasser dargestellt wird... Und die meisten Timedemos wurden/werden in den Kanälen aufgenommen, da das Wasser in HL2 doch fordernd ist, besonders mit allen Spiegelungen.

Spasstiger
2005-10-27, 17:07:08
Schon, aber so drastisch? Es ist ja nicht dass ein X2 4800+ gerade langsam ist ganz im Gegenteil, selbst wenn es zu single-threading kommt.

50 fps kann man auch mal mit einem Athlon 64 X2 4800+ im Schnitt haben.
Man kann HL2 auch locker unspielbar machen, wenn man genug Physikobjekte ins Level setzt und miteinander agieren lässt (siehe Garry's Mod).

Mr. Lolman
2005-10-27, 17:13:18
Bisher scheint es auch niemandem aufgefallen zu sein, daß in HL2 mit AI auf Standard nur billiges Dreckwasser dargestellt wird... Und die meisten Timedemos wurden/werden in den Kanälen aufgenommen, da das Wasser in HL2 doch fordernd ist, besonders mit allen Spiegelungen.

Genauso traurig. Die meisten Reviewer achten seit jeher zuwenig auf die BQ und deswegen können sich Fehler/Optimierungen, die im schlimmsten Fall auch noch das Leistungsbild verfälschen, unbemerkt durchschleichen ;(

Black-Scorpion
2005-10-27, 17:15:35
Danke. G70/Quake4 Resultate ungueltig. Irgend jemand mit einer X1800XL rein zufaellig der auch testen koennte?

***edit: uebrigens falls dieses ein genereller Trend sein sollte (und ja nur eine GPU-Familie reicht) dann sollte sich die paar reviewers die sich mit dem Zeug beschaeftigen mal endlich vor den Bildschirm setzen und zuschauen wenn ein timedemo ablaeuft. Bug im Spiel, cheat im Treiber oder weiss der Henker was auch immer, dass keine Schatten zu sehen sind beim Ablauf eines timedemos, sollte man auf Anhieb bemerken.
Frag mal in dem Thread nach.
X1800XL - Userbericht(e) - Pics inside (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=255007)
misterh (http://www.forum-3dcenter.org/vbulletin/member.php?userid=9072) hat eine X1800 XL und Johnny Rico (http://www.forum-3dcenter.org/vbulletin/member.php?userid=8831) anscheinend auch.

Blaire
2005-10-27, 18:38:43
MisterH sagte mir eben das auch er bei seiner X1800XL keine Schatten bei Quake4 hat.

Coda
2005-10-27, 19:10:20
Das ist aber in der Tat seltsam. Sicher dass er sie in den Optionen nicht aus gestellt hat? Anders ist das kaum zu erklären.

MikBach
2005-10-27, 19:53:21
Das ist das Problem. Es lassen sich keine vergleichbaren Bedingungen schaffen. Entweder man benachteiligt den einen oder den anderen.
Es lassen sich zwar keine exakt gleichen Bedingungen schaffen, vergleichbar ist es mit AI-low und NV@HQ. Ist klar, dass mal der eine mal der andere vorne ist in Sachen BQ, finde es aber trotzdem vergleichbar und auch noch genießbar. :)

Hakim
2005-10-27, 20:43:10
Kann man net so vorgaben (standards) für AA, AF stufen usw. vorschreiben? :)

Coda
2005-10-27, 21:23:27
Es lassen sich zwar keine exakt gleichen Bedingungen schaffen, vergleichbar ist es mit AI-low und NV@HQ. Ist klar, dass mal der eine mal der andere vorne ist in Sachen BQ, finde es aber trotzdem vergleichbar und auch noch genießbar. :)Eigentlich muss man AI-low, WU-AF mit App-Profilen gegen HQ vergleichen.

ATi muss endlich getrennte Einstellungen zulassen.

MikBach
2005-10-27, 21:26:43
Eigentlich muss man AI-low, WU-AF mit App-Profilen gegen HQ vergleichen.
Dann wäre ATI NV gnadenlos überlegen, was die BQ betrifft.

ATi muss endlich getrennte Einstellungen zulassen.
Erklärung?

mindfaq
2005-10-27, 21:34:25
Erklärung?Du willst von Coda ernsthaft eine Erklärung dafür haben, warum ATI sinnvolle und weniger sinnvolle "Optimierungen" getrennt ein- und ausschaltbar machen soll ? Ist nicht dein Ernst ?

MikBach
2005-10-27, 22:02:19
Du willst von Coda ernsthaft eine Erklärung dafür haben, warum ATI sinnvolle und weniger sinnvolle "Optimierungen" getrennt ein- und ausschaltbar machen soll ? Ist nicht dein Ernst ?
Das war mein voller Ernst.

Coda
2005-10-27, 22:13:31
Klar, ich find's voll geil wenn ich AI-On wegen den App-Profilen benutzen muss und dann als Geschenk noch "Optimierungen" oben drauf bekomme die total dufte sind.

Danke ATi! Ihr seid die Besten.

MikBach
2005-10-27, 22:15:48
Klar, ich find's voll geil wenn ich AI-On wegen den App-Profilen benutzen muss und dann als Geschenk noch "Optimierungen" oben drauf bekomme die total dufte sind.

Danke ATi! Ihr seid die Besten.
Kommt drauf an, was hinten rauskommt...

PS so langsam beschleicht mich das Gefühl, daß du ein NV-Anhänger bist...

StefanV
2005-10-27, 22:15:53
Bei AI fehlt einfach eine Option, die die 'App Spezifischen Optimierungen' abschaltet, nicht aber die App Spezifischen Patches...

Coda
2005-10-27, 22:18:16
Kommt drauf an, was hinten rauskommt...Du bist echt schwer von Begriff, nicht?

Ich will maximal erreichbare Bildqualität von der Hardware haben und zwar in Verbindung mit den absolut nötigen App-Profilen, was ist daran verkehrt?

PS so langsam beschleicht mich das Gefühl, daß du ein NV-Anhänger bist...Du glaubst gar nicht wie egal mir das ist :)

MikBach
2005-10-27, 22:19:48
Bei AI fehlt einfach eine Option, die die 'App Spezifischen Optimierungen' abschaltet, nicht aber die App Spezifischen Patches...
Jap, das wäre sinnvoll, hat aber mit der Diskussion um die vergleichbare BQ nicht viel zu tun.

Spasstiger
2005-10-27, 22:22:55
PS so langsam beschleicht mich das Gefühl, daß du ein NV-Anhänger bist...

Und mich beschleicht so langsam das Gefühl, dass du nicht verstehen willst.

Jap, das wäre sinnvoll, hat aber mit der Diskussion um die vergleichbare BQ nicht viel zu tun.

Ah, geht also doch. ;)
Aber gleich wieder ablenken müssen ...

MikBach
2005-10-27, 22:23:21
Du bist echt schwer von Begriff, nicht?
Nicht wiklich...

Ich will maximal erreichbare Bildqualität von der Hardware haben und zwar in Verbindung mit den absolut nötigen App-Profilen, was ist daran verkehrt?
Zum Benchen reicht auch eine vergleichbare BQ. Die maximale BQ von den App-spezifischen zu trennen halte ich ja auch für sinnvoll.
Eine vergleichbare BQ kann man auch so bekommen...

Coda
2005-10-27, 22:30:46
Du bist mal wieder total off-topic. Das der Schalter sehr sinnvoll wäre ist unabhängig von Benchmarks.

Eine vergleichbare BQ kann man auch so bekommen...Darüber lässt sich streiten. Ich halte Stage-Optimierungen für absolut unangebracht.

MikBach
2005-10-27, 22:57:49
Du bist mal wieder total off-topic.
Du auch.

Das der Schalter sehr sinnvoll wäre ist unabhängig von Benchmarks.
Wen interessieren den Benchmarks?
Die bessere BQ ist gerade beim Spielen von Vorteil.

Darüber lässt sich streiten. Ich halte Stage-Optimierungen für absolut unangebracht.
Kommt drauf an, was hinten rauskommt.

Coda
2005-10-27, 22:59:40
Liest du auch auf was du antwortest? :|

Hauptsache schnell den üblichen Flame-Mist ablassen...

MikBach
2005-10-27, 23:08:45
Liest du auch auf was du antwortest? :|
In der Regel schon.

Hauptsache schnell den üblichen Flame-Mist ablassen...
:confused:

Coda
2005-10-27, 23:09:23
In der Regel schon.Dann empfehle ich dir den Punkt 2 in deiner Antwort nochmal zu überdenken.

MikBach
2005-10-27, 23:11:24
Dann empfehle ich dir den Punkt 2 in deiner Antwort nochmal zu überdenken.
Es war ja auch kein Kontra gegen deine Aussage, sondern eine Ergänzung... :)

Ailuros
2005-10-28, 01:14:42
MisterH sagte mir eben das auch er bei seiner X1800XL keine Schatten bei Quake4 hat.

Bingo Nr.2 (hab ich auch ehrlich gesagt erwartet). Gut bitte alle reviewer zurueck zu Euren Systemen und wenn nicht anders moeglich mit FRAPS im Notfall testen.

Ailuros
2005-10-28, 01:22:09
Kommt drauf an, was hinten rauskommt.

Muss ich Dir hoeflich beschreiben was hinten rauskommt, falls die Basis-Textur nicht im texturing stage "0" liegen sollte? Und komm mir bloss nicht mit irgend einem "ich kann nichts sehen" Quark; falls das der Fall sein sollte, solltest Du Dich ehrlich gesagt von Bildqualitaets relativen Debatten fernhalten.

Nazar
2005-10-28, 06:43:50
in bewegung wird man bei heutigen games wohl kaum einen großen unterschied feststellen können (siehe vergleichsscreens in SS2, Quake 4, Fear etc.). außerdem gibts es leute, die auf 1920x1200 und höher zocken, sodass die karte nicht schnell genug sein kann.

Da irrst du dich aber gewaltig!
BQ zwischen eine x800XTPE und 7800GTX gewinnt ganz klar die X800!
Da sie nun bei der ATI nochmal ne Schippe in Richtung BQ nachgelegt haben, wird der Unterschied noch grösser.
Falls es NVidia je schaffen sollte, die BQ_Probleme je zu beseitigen (sie suchen nun seit über 3 Monaten nach dem "Bug"), dann bin ich über den Wundertreiber mal gespannt.... und bitte in dem Zusammenhang nicht wieder mit DC-Unterstüzung anfangen *g*

Ailuros
2005-10-28, 07:28:17
Da irrst du dich aber gewaltig!
BQ zwischen eine x800XTPE und 7800GTX gewinnt ganz klar die X800!

Mit den Optimierungen eingeschaltet flimmert die R420 weniger. Das Problem ist dann eber dass diejenigen die mit Optimierungen spielen und behaupten dass sie gar keinen Unterschied sehen koennen erstmal ein paar Sachen Bildqualitaet in den Griff bekommen sollten und dass eben die uebliche Scheinheiligkeit wieder dahintersteckt.

Da sie nun bei der ATI nochmal ne Schippe in Richtung BQ nachgelegt haben, wird der Unterschied noch grösser.

Dass der neue AF Algorithmus ein Schritt in die richtige Richtung ist will und sollte auch keiner bezweifeln. Ich hab leider noch nicht meine Haende auf eine R520 legen koennen um erstmal zu sehen wie das Ganze in Echtzeit aussieht.

Falls es NVidia je schaffen sollte, die BQ_Probleme je zu beseitigen (sie suchen nun seit über 3 Monaten nach dem "Bug"), dann bin ich über den Wundertreiber mal gespannt.... und bitte in dem Zusammenhang nicht wieder mit DC-Unterstüzung anfangen *g*

High quality laeuft so wie es sollte seit 78.03 beta und in zumindest allen Treibern die ich bis jetzt benutzt habe, inklusive 81.87.

Die Optimierung die fuer's flimmern zustaendig ist, gibt es schon seit letztem Jahr und ist nur eine ziemlich ueblere Version der Optimierung genau die ATI seit dem R420 hinzugefuegt hat.

Es ist eigentlich ATI der es nicht besonders gut geht; da kann ich diese Trommelei auch voll verstehen. Und viele "aber" gibt es hier nicht; denn ich war zwischen den ersten der wegen dem Mist Anfang Sommer darueber gemotzt hat und es auch oeffentlich dokumentierte. Wehe an alle die Blinden denen man solchen Quark erstmal vor die Nase in bunten PR-Praesentationen binden muss, damit sie dann auch toll fuer ihren Lieblings-IHV weiterwerben koennen.

Mr. Lolman
2005-10-28, 07:34:02
High quality laeuft so wie es sollte seit 78.03 beta und in zumindest allen Treibern die ich bis jetzt benutzt habe, inklusive 81.87.


Imo sollte UT unter HQ nicht brilinear filtern...

Ailuros
2005-10-28, 07:57:18
Imo sollte UT unter HQ nicht brilinear filtern...

Es sollte vieles nicht sein und jetzmal ehrlich wer zum Henker optimiert denn ueberhaupt noch oder besser kuemmert sich noch um UT2k3/4 heutzutage? Weder ATI noch NVIDIA; beide haben irgendwann mal damit rumgefunkelt und seither kuemmert sich keiner mehr damit. Die Texturing-stage Optimierung (die uebrigens in Spielen wie UT2k3/4 gerade noch Sinn macht) sollte auf beiden Seiten nicht existieren. Beide Seiten sollten auch nicht AF samples gegen LOD austauschen oder gelegentlich unterfiltern usw usw.

Ich schlage mal was anderes vor (obwohl es nie passieren wird); Microsoft "zwingt" alle IHVs bis zu 100% transparente Treiber mit allen moeglichen Applikations-spezifischen Optimierungen zu haben. Wieviele glaubst Du werden den Mut haben dazu einzustimmen? Kein einziger.

DrumDub
2005-10-28, 09:36:54
Darüber lässt sich streiten. Ich halte Stage-Optimierungen für absolut unangebracht. die stage optimierung gibts imho nicht bei ai=low, sondern nur das bri-af.