PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mein Vergleich zwischen X1900XT vs. 8800GTS


Frank1974
2007-02-10, 23:31:01
Hallo

Habe einen kleinen Vergleichs Test gemacht, hautpsächlich mit Savegames, aber aus Zeitmangel konnte ich nicht mehr soviele Games Testen.

Erst mal mein Test System:

Intel Core 2 6400@, 3,0 GHz
1x1900XT@Standard vs. 1x8800GTS@Standard
Intel Asus Deluxe Wifi Mainboard
2 x 1 GB Corsair DDR2-800, Timings 5-5-5-12
Samsung SP2504C
Onboardsound ;(
Bequiet 480-Watt-Netzteil

Mircosoft Windows XP, Service Pack 2
DirectX 9.0c
Treiber NVIDIA: ForceWare 97.92
Treiber ATI/AMD: Cat 7.1

Treibereinstellungen: ATI-Grafikkarten

Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
Adaptive Anit-Aliasing: Off
High Quality AF: On
Rest mit Standardeinstellungen


Treibereinstellungen: NVIDIA-Grafikkarten

Systemleistung: Hohe Qualität
Vertikale Synchronisierung: Aus
Gamma-AA : Ein
Rest mit Standardeinstellungen


Die Benches/Tests:

3DMark01 -> 1680x1050 -> 4xAA 16xHQAF
ATI/NVIDIA

25205 -> 30272
3DMark05 -> Standard
ATI/NVIDIA

12458 -> 15182
3DMark06 -> Standard
ATI/NVIDIA

6126 -> 8769
AquaMark3 -> 1xStandard, 1x 4xAA+16xHQAF
ATI/NVIDIA

121050 -> 150517 Standard

ATI/NVIDIA

103525 -> 143887 Qualität
F.E.A.R. -> 9xSavegames, 1280x960, 2xAA, 16xHQAF
ATI/NVIDIA Savegames

38 -> 64fps
36 -> 68fps
58 -> 92fps
142 ->148fps
216 -> 220fps
64 -> 80fps
34 -> 50fps
31 -> 54fps
41 -> 54fps
F.E.A.R. XPack Demo, 1280x960, 4xAA, 16xHQAF
ATI/NVIDIA Savegames

21 -> 45fps
Gothic2 -> 5xSavegames + 2xFraps@20sec., 1280x960, 4xAA, 16xHQAF
ATI/NVIDIA Savegames

17 -> 33fps
20 -> 35fps
42 -> 80fps
22 -> 47fps
15 -> 26fps

Gothic3 -> 5xSavegames, 1680x1050, 0xAA, 16xHQAF
ATI/NVIDIA Savegames

33 -> 54fps
29 -> 40fps
36 -> 53fps
20 -> 38fps
27 -> 39fps

GTA-SA -> 2xSavegames, 1280x1024, 4xAA, 16xHQAF
ATI/NVIDIA Savegames

100 -> 122fps
76 -> 90fps

Oblivion -> 8xSavegames, 1680x1050, 4xAA, 16xHQAF
ATI/NVIDIA Savegames

16 -> 20fps
18 -> 30fps
33 -> 56fps
13 -> 22fps
28 -> 42fps
27 -> 46fps
26 -> 39fps
47 -> 91fps
TmN -> 3xVerschiedene Replays, 1280x1024, 4xAA, 16xHQAF
ATI/NVIDIA Savegames

17,5min/31 Average fps -> 27,0min/40,4 Average fps
15,6min/26,2 Average fps -> 21,3min/34,7 Average fps
10,6min/22,8 Average fps -> 16,4min/30,5 Average fps


Ich hätte auch nur Zahlen schreiben brauchen ohne Bilder, aber mir war das so wichtiger, kann sich jeder die Szenen schön anschauen, und ich habe nirgends Rosinen rausgepickt, das sind alles Spiele die ich gerne Spiele, oder gespielt habe, außer 3DMark und co. :D.

Ich habe alle Bilder in Ordner gepackt, werde sie gleich hochladen, ihr könnt die ATI und Nv Bilderbenches dann vergleichen, jedes Bild hat die FPS Angabe, und Gothic2 hat noch 2 von mir gefrapste Stellen, mit 20 sec Laufzeit.
Ich weiss das mein geschreibsel hier etwas durcheinander aussieht, aber besser kann ich es nicht, wenn sich einer anbietet um das nochmal zu überarbeiten bitte gerne :smile:.

Die Zips kommen gleich, dauert ein wenig, wegen mein 1000er DSL, ich hätte auch gerne nochmehr Benches gemacht, aber ich musste die 1900XT ja schließlich an seinen Käufer schicken ;).

1900XT-Datei -> http://www.keepmyfile.com/download/72c4831393325

8800GTS-Datei -> http://www.keepmyfile.com/download/15bb6c1393355

Falls einer mit den Ergebnissen im Odner überfordert ist, oder auch gerne selbst die Savegames hätte, kann ich helfen.

OK, wer die Bilder nicht laden möchte, ich habe die Ergebnisse in Spoiler gepackt, wäre aber besser wenn man die Bilder auch lädt, dann weiss man was genau verglichen wurde.


mfg
Frank

Ganxsta
2007-02-11, 00:35:45
Du hättest ja zumindest die Ergebnisse hier reinschreiben können. Nicht jeder will die Bilder downlaoden und vergleichen. Nicht böse gemeint. ;-)

HanSolo78
2007-02-11, 00:39:43
Sehr schön!!!
Hätte nicht gedacht, dass es doch so ein großer Unterschied in den meisten Games ist!

EDIT: Da mir langweilig war und ich noch nicht ins Bett wollt...

http://img177.imageshack.us/img177/7060/3dmarkyl9.th.jpg (http://img177.imageshack.us/my.php?image=3dmarkyl9.jpg)http://img177.imageshack.us/img177/683/am3ma1.th.jpg (http://img177.imageshack.us/my.php?image=am3ma1.jpg)http://img180.imageshack.us/img180/5788/fearsh0.th.jpg (http://img180.imageshack.us/my.php?image=fearsh0.jpg)http://img244.imageshack.us/img244/3246/gothic2ae8.th.jpg (http://img244.imageshack.us/my.php?image=gothic2ae8.jpg)

http://img180.imageshack.us/img180/4461/gothic3be1.th.jpg (http://img180.imageshack.us/my.php?image=gothic3be1.jpg)http://img180.imageshack.us/img180/9138/gtasavw0.th.jpg (http://img180.imageshack.us/my.php?image=gtasavw0.jpg)http://img180.imageshack.us/img180/7724/nfsmwgf7.th.jpg (http://img180.imageshack.us/my.php?image=nfsmwgf7.jpg)http://img177.imageshack.us/img177/1938/oblivionem7.th.jpg (http://img177.imageshack.us/my.php?image=oblivionem7.jpg)

http://img244.imageshack.us/img244/6411/tmnzx8.th.jpg (http://img244.imageshack.us/my.php?image=tmnzx8.jpg)

So.. jetzt aber.. good n8 ;)

(+44)
2007-02-11, 00:53:11
Was für mich viel interessanter wäre, wenn ich Ergebnisse sehe, einfach nur in FPS oder % ;)

Die Ergebnisse sind aber durchaus krass - gut für mich, hab grade meine 7900GTX verscherbelt, 90€ draufgezahlt und mir ne 8800GTS bestellt, die GTS liefert im 3Dmarkt ja teilweise 40FPS wo die X1900XT bei 24 rumkrebs :)

Spasstiger
2007-02-11, 01:13:00
Gute Arbeit, auch wenn die Lösung mit den Archiven zum Runterladen sicher nicht die Komfortabelste ist.
In Oblivion liegt ja die 8800 GTS um 50-70% vor der X1900 XT, hätte ich nicht gedacht. Wo die X1900 XT auf 13 fps einbricht, hält die 8800 GTS noch spielbare 22 fps.

Byteschlumpf
2007-02-11, 01:46:30
Gute Arbeit, auch wenn die Lösung mit den Archiven zum Runterladen sicher nicht die Komfortabelste ist.
In Oblivion liegt ja die 8800 GTS um 50-70% vor der X1900 XT, hätte ich nicht gedacht. Wo die X1900 XT auf 13 fps einbricht, hält die 8800 GTS noch spielbare 22 fps.
Hier kann man das auch nachlesen: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/17/#abschnitt_oblivion

Coda
2007-02-11, 02:01:49
HQ (G80) gegen A.I. Standard ist leider großer Blödsinn.

Frank1974
2007-02-11, 02:18:16
HQ (G80) gegen A.I. Standard ist leider großer Blödsinn.

Jetzt ist leider weg die Karte, aber zumindest habe ich mit HQAF gebencht ;), A.I. mit Standard ist schon ok gewesen, die BQ ist ganz gut, mit A.I. off ist sie nur ein Tick besser, nur würden dann die Ergebnisse noch ein wenig schlechter aussehen zu ungunsten von ATI, ich wollte ja auch nur meine Persönlichen Eindrücke von der Karte schildern, ich bin mehr als zufrieden, sehr leise, nicht mehr als 68Grad bei mir mit dem Standardlüfter und ca. 15-20% Übertaktungsreserven sind auch noch da =).

mfg
Frank

Blaire
2007-02-11, 02:18:18
Dennoch gute Arbeit vom Frank ;) So fleißig muss man erstmal sein. =)

HanSolo78
2007-02-11, 02:27:39
Hab oben mal nen paar Diagramme eingefügt... falls das jemand besser findet... so.. gute N8

Blaire
2007-02-11, 02:37:54
Schon erstaunlich wie deutlich die Unterschiede zu Gunsten der 8800GTS sind.

HanSolo78
2007-02-11, 02:48:58
Schon erstaunlich wie deutlich die Unterschiede zu Gunsten der 8800GTS sind.

Wobei es natürlich schon auf das Game ankommt... aber da, wo FPS nötig sind liegt sie auch gut vorn, so dass es wesentlich besser spielbar ist.

Frank1974
2007-02-11, 02:51:22
Dennoch gute Arbeit vom Frank ;) So fleißig muss man erstmal sein. =)

Danke :smile:

Hab oben mal nen paar Diagramme eingefügt... falls das jemand besser findet... so.. gute N8

Oh, vielen Dank, das ist erheblich besser als meine Variante :up:, schön übersichtlich, ich habe das mit den Bildern eigentlich auch nur gemacht, weil ich wollte das die Leute auch genau die Szenen zu den fps einordnen können.

mfg
Frank

Die gelbe Eule
2007-02-11, 02:57:16
Jetzt ist leider weg die Karte, aber zumindest habe ich mit HQAF gebencht ;), A.I. mit Standard ist schon ok gewesen, die BQ ist ganz gut, mit A.I. off ist sie nur ein Tick besser, nur würden dann die Ergebnisse noch ein wenig schlechter aussehen zu ungunsten von ATI, ich wollte ja auch nur meine Persönlichen Eindrücke von der Karte schildern, ich bin mehr als zufrieden, sehr leise, nicht mehr als 68Grad bei mir mit dem Standardlüfter und ca. 15-20% Übertaktungsreserven sind auch noch da =).

mfg
Frank

Tja nur ist A.I. off ohne Optimierungen, darauf möchte man hinaus. Gleiches Recht für alle. Hoffe das dies bald standard wird bei sämtlichen Benches ;)

Coda
2007-02-11, 03:38:28
Eben. Allein um ATI zu zwingen endlich diesen Unsinn mit der bescheuerten Kopplung von "Optimierungen" und Optimierungen bleiben zu lassen.

Aber ich fürchte, dass in der "Review-Guide" von AMD natürlich HQ vs. A.I. Standard stehen wird und sich 95% aller Seiten daran halten werden.

Sonyfreak
2007-02-11, 05:47:15
Sehr schöner Test Frank1974! So ein Usertest ist meist praxisnäher als die Tests auf den großen Reviewseiten, und daher sehr spannend zum lesen.

mfg.

Sonyfreak

Tigerchen
2007-02-11, 07:14:01
Werden hier Karten in derselben Preisklasse verglichen?

Od@l
2007-02-11, 07:42:04
Sicher nicht, aber es geht denke ich mal eher darum ob sich ein Umstieg X1900XT zu 8800GTS lohnen würde.

Tigerchen
2007-02-11, 07:53:49
Sicher nicht, aber es geht denke ich mal eher darum ob sich ein Umstieg X1900XT zu 8800GTS lohnen würde.

Mehr fps für mehr Geld. Ist das wirklich so spannend? Gehört das nicht außerdem ins Benchmarkforum?

Lightning
2007-02-11, 08:20:58
Schöner Vergleich, danke Frank.

Aber wie ich sehe reichts immer noch nicht für deine gewünschten Einstellungen in TMN. ;) Die Replays scheinen aber auch echt harte zu sein. Weißt du noch, wie schnell der Standardbench war?


Mehr fps für mehr Geld. Ist das wirklich so spannend?

Jepp, klar ist das spannend. Natürlich nicht nur, dass es mehr fps sind, sondern wieviele bei welchen Spielen/Situationen und bei welchen Einstellungen. Wenn man sich für die Performance einer Grafikkarte interessiert (ich interessiere mich z.B. aktuell speziell für die 8800 GTS, da ich sie vermutlich kaufen werde), ist ganz genau das spannend.

Gehört das nicht außerdem ins Benchmarkforum?

Das ist allerdings richtig.

Turiz
2007-02-11, 08:38:34
Mehr fps für mehr Geld. Ist das wirklich so spannend?
Für manche schon. Die anderen können es einfach ignorieren. :wink:

Gehört das nicht außerdem ins Benchmarkforum?

Das ist Geschmackssache. Er vergleicht ja 2 Grafikchips.

dargo
2007-02-11, 09:37:07
@Frank1974

Bei den Ergebnissen - sind das min. oder avg. fps?
Schön ist es schon mal, dass du mit Savegames gearbeitet hast. Was mich aber interessieren würde, wie oft hast du jedes Savegame gebencht? Wenn nur 1x ist der gesamte Test leider für nichts zu gebrauchen.

The_Invisible
2007-02-11, 09:56:16
@Frank1974

Bei den Ergebnissen - sind das min. oder avg. fps?
Schön ist es schon mal, dass du mit Savegames gearbeitet hast. Was mich aber interessieren würde, wie oft hast du jedes Savegame gebencht? Wenn nur 1x ist der gesamte Test leider für nichts zu gebrauchen.

warum das?

die geforce wird ja nicht immer das glück gehabt haben die besseren fps zu erwischen.

btw
wär auch für ai off gewesen, vor allem da man die geforce auch noch auf HQ eingestellt hat

mfg

dargo
2007-02-11, 10:16:03
warum das?

die geforce wird ja nicht immer das glück gehabt haben die besseren fps zu erwischen.

Darum gehts ja nicht. Wenn man mit Savegames arbeitet sollte man schon mehrere Durchläufe tätigen und den Durchschnitt ermitteln. Wenn man direkt nach dem ersten Laden gebencht hat, umso schlimmer.


btw
wär auch für ai off gewesen, vor allem da man die geforce auch noch auf HQ eingestellt hat

Naja, A.I Off finde ich unfähr wegen bestimmten Game-Optimierungen (trotzdem bin ich dafür, dass ATI es endlich trennt). Die ATI mit HQAF zu benchen war aber schon mal eine gute Wahl. Aber den G80 hätte man ruhig auf Qualität lassen können.

LovesuckZ
2007-02-11, 10:20:37
Naja, A.I Off finde ich unfähr wegen bestimmten Game-Optimierungen (trotzdem bin ich dafür, dass ATI es endlich trennt).

Nein, das ist nicht unfair. Die bestmöglichste Bildqualität gegen die bestmöglichste BIldqualität.

Die ATI mit HQAF zu benchen war aber schon mal eine gute Wahl. Aber den G80 hätte man ruhig auf Qualität lassen können.

Warum sollte man das machen? Aufgrund der Architektur kostet sehr gute Folterung auf der GTS und der GTX nicht mehr die Welt. Kein Mensch spielt daher mit "Quality" statt mit "High Quality"

dargo
2007-02-11, 10:29:38
Nein, das ist nicht unfair. Die bestmöglichste Bildqualität gegen die bestmöglichste BIldqualität.

Erspare mir bitte deinen Kommentar, ansonten werde ich dich wohl auf meine Ignorier-Liste setzen müssen. :)

Raff
2007-02-11, 12:17:32
Naja, A.I Off finde ich unfähr wegen bestimmten Game-Optimierungen (trotzdem bin ich dafür, dass ATI es endlich trennt).

Ati hat es nicht anders verdient. Wenn jeder konsequent A.I. off benchen würde, wären sie gezwungen, ihren Bullshit (= Koppelung von Filtereinsparungen und Shaderspäßen) nochmal zu überdenken.

MfG,
Raff

dargo
2007-02-11, 13:42:41
Ati hat es nicht anders verdient. Wenn jeder konsequent A.I. off benchen würde, wären sie gezwungen, ihren Bullshit (= Koppelung von Filtereinsparungen und Shaderspäßen) nochmal zu überdenken.

Natürlich nervt diese Koppelung. Aber komischerweise schreit man jetzt erst nach ATI A.I Off vs. NV HQ. Wieso hat man vorher nicht A.I Off beim R5x0 vs. NV G7x verglichen. Achja, da war was mit der BQ von NV. Nur weil der G80 jetzt die BQ nochmal nach oben geschraubt hat muss man nicht automatisch bei ATI mit A.I Off vergleichen. Vorallem wenn man weiß, dass nicht nur Filteroptimierungen hinter A.I stecken.

MartinRiggs
2007-02-11, 13:49:48
stimmt, jetzt schreien alle, weil NV es mal geschafft hat ne gescheite BQ zu liefern.
Dafür hapert es mit den Treibern....

puntarenas
2007-02-11, 13:51:20
Das ist doch der Punkt, solange ATI nicht unter der Kopplung von "Filteroptimierungen" leidet, werden diese Verschlechterungen der Bildqualität auch weiter mit sinnvollen Bugfixes und Anpassungen gekoppelt, anstatt dem Benutzer einfach die Wahl zu lassen.

Mich kotzt das auch an, obwohl A.I. nicht ganz so fiese "Optimierungen" wie Nvidias G70er-Treiber beinhaltet.

Gast
2007-02-11, 14:10:54
Ati hat es nicht anders verdient. Wenn jeder konsequent A.I. off benchen würde, wären sie gezwungen, ihren Bullshit (= Koppelung von Filtereinsparungen und Shaderspäßen) nochmal zu überdenken.

MfG,
Raff
Wäre aber schlecht für ATi, wenn dadurch transparent werden würde, dass der meiste Performancegewinn durch Filtereinsparungen herrührt und die Shaderreplacements nur zu einem Bruchteil zur bessereren Leistung beitragen.

dargo
2007-02-11, 14:20:28
Wäre aber schlecht für ATi, wenn dadurch transparent werden würde, dass der meiste Performancegewinn durch Filtereinsparungen herrührt und die Shaderreplacements nur zu einem Bruchteil zur bessereren Leistung beitragen.
Ist das nur wieder eine Vermutung/Spekulation oder kannst du das belegen? :)

AnarchX
2007-02-11, 14:29:23
Interessant wäre es auf jeden Fall, wie der Gast könnte ich mir auch vorstellen, das gerade beim Einsatz von HQ-AF ohne Optimierungen die X1-Karten ordentlich einbrechen könnten, da hier Texelfüllrate ja nicht unbedingt im Überschuss vorhanden ist.

Aber langsam wird es wirklich mal Zeit für eine Revision von AI...

Gast
2007-02-11, 14:50:51
Ist das nur wieder eine Vermutung/Spekulation oder kannst du das belegen? :)
Belegen kann ich das natürlich nicht. Hatte selbst mal eine X1900 und das A.I. low ging mir dann manchmal schon auf den Sack. Meistens ist der Qualitätsunterschied von off zu low größer als low zu advanced. Vor der X1900 hatte ich ne X800XT, mit deren Qualität war ich zufrieden, allerdings gab's zur der Zeit noch kein A.I. im Treiber. Gab auch afair Tests , wo A.I. getestet wurde, als es gerade in die Treiber eingeführt worden ist. Da waren die Unterschiede marginal bis nicht wahrnehmbar. Mit späteren Treibern könnte das verschärft worden sein. Denn die Performance stieg, hauptsächlich aber nur bei Benutzung von AF. Also muss da rumoptimiert worden sein. Jedenfalls war ich bei der nicht gerade billigen X1900 dann von der Bildqualität @A.I. low enttäuscht und spielte dann hauptsächlich mit A.I. off. Das Bild war dann zwar richtig gut, die Performance brach aber meistens spürbar ein. Zu vergleichen war das mit meiner ehemaligen 6800GT bei Quality ohne Opt. zu High Quality. Das spiegelt aber alles nur meine Meinung wider.

Lawmachine79
2007-02-11, 14:55:06
Natürlich nervt diese Koppelung. Aber komischerweise schreit man jetzt erst nach ATI A.I Off vs. NV HQ. Wieso hat man vorher nicht A.I Off beim R5x0 vs. NV G7x verglichen. Achja, da war was mit der BQ von NV. Nur weil der G80 jetzt die BQ nochmal nach oben geschraubt hat muss man nicht automatisch bei ATI mit A.I Off vergleichen. Vorallem wenn man weiß, dass nicht nur Filteroptimierungen hinter A.I stecken.


Natürlich war das unfair. Im Umkehrschluß habe ich auch oft genug gesehen, daß man bei den AA-Benches 6xMSAA von ATI gg 8xS von NV gebencht hat.

Undertaker
2007-02-11, 14:59:31
ich habe zwar den indirekten schritt x1900xt -> 7900gtx -> 8800gts gemacht, kann die ergebnisse aber nur bestätigen - solch ein upgrade lohnt gewaltig! wie man sieht sind die unterschiede vorallem in worst-case szenarien am größten (paar mal um die 100% vorsprung), ich ärgere mich jetzt im nachhinein nicht einen ähnlichen vergleich bei meinem wechsel unter 1920er auflösung gemacht zu haben... da die gts auch noch so gut zu takten geht (im schnitt wohl ~20% auf chip und ram) stößt man in einigen fällen regelrecht in neue leistungsregionen vor :)

das es in der bildqualität so wie getestet wurde noch kleine unterschiede gibt steht außer frage, aber ich persönlich und 99% aller normalen zocker im bekanntenkreis waren bereits mit "quality" beim g71 zufrieden... da kann man die unterschiede von r580 vs. g80 eigentlich vergessen...

Frank1974
2007-02-11, 19:04:10
@Frank1974

Bei den Ergebnissen - sind das min. oder avg. fps?
Schön ist es schon mal, dass du mit Savegames gearbeitet hast. Was mich aber interessieren würde, wie oft hast du jedes Savegame gebencht? Wenn nur 1x ist der gesamte Test leider für nichts zu gebrauchen.

Natürlich mehrmals, bei Oblivion ist es sogar besonders schlimm, da muss man erst mal 2-3 mal im Kreis laufen damit die Schatten unter der Spielfigur erscheinen ;), war aber ein Problem was beide Karten hatten.
Und klar sind es alles min. fps, ich habe die ATI sogar noch verschont, sie hat mir schliesslich fast 1 Jahr treue Dienste geleistet =), ich wollte ja erst ne GTX, bin aber jetzt froh das ich mir das Geld gespart habe, der Sprung zur 8800GTS ist größer gewesen als ich dachte, und dann hat der Chip noch gut Reserven, beim Chip hab ich mit ATI-Tool 630MHz erreicht, der Speicher geht leider nur bis 900MHz, die nächste reale Stufe ist erst bei 925MHz oder so wegen der Springenden Taktraten des G80, und da zeigt ATI-Tool leichte Pixelfehler, aber das war alles nur zum testen, im Moment läuft sie mit Standard und das wird mir auch ne ganze Zeit so reichen.
Ich musste nun aufrüsten, wegen 21er WS-TFT und 1680x1050 Auflösung, da ist die 8800GTS jetzt der bessere Partner für, aber man muss ja auch bedenken das ich die 1900XT, knapp 11Monate im Rechner hatte, das ist schon ne sehr lange Zeit wie ich finde, jetzt musste endlich etwas neues her, nur diesmal habe ich mein Limit bei 350€ angelegt, damals bei der 1900XT hatte ich kein Limit gesetzt, aber der Preisverfall bei Highendhardware hat mich dann doch nachdänklich gemacht, und ich bin jetzt zur Vernunft gekommen =).

mfg
Frank

Byteschlumpf
2007-02-11, 19:45:42
Natürlich mehrmals, bei Oblivion ist es sogar besonders schlimm, da muss man erst mal 2-3 mal im Kreis laufen damit die Schatten unter der Spielfigur erscheinen ;), war aber ein Problem was beide Karten hatten.
Und klar sind es alles min. fps, ich habe die ATI sogar noch verschont, sie hat mir schliesslich fast 1 Jahr treue Dienste geleistet =), ich wollte ja erst ne GTX, bin aber jetzt froh das ich mir das Geld gespart habe, der Sprung zur 8800GTS ist größer gewesen als ich dachte, und dann hat der Chip noch gut Reserven, beim Chip hab ich mit ATI-Tool 630MHz erreicht, der Speicher geht leider nur bis 900MHz, die nächste reale Stufe ist erst bei 925MHz oder so wegen der Springenden Taktraten des G80, und da zeigt ATI-Tool leichte Pixelfehler, aber das war alles nur zum testen, im Moment läuft sie mit Standard und das wird mir auch ne ganze Zeit so reichen.
Ich musste nun aufrüsten, wegen 21er WS-TFT und 1680x1050 Auflösung, da ist die 8800GTS jetzt der bessere Partner für, aber man muss ja auch bedenken das ich die 1900XT, knapp 11Monate im Rechner hatte, das ist schon ne sehr lange Zeit wie ich finde, jetzt musste endlich etwas neues her, nur diesmal habe ich mein Limit bei 350€ angelegt, damals bei der 1900XT hatte ich kein Limit gesetzt, aber der Preisverfall bei Highendhardware hat mich dann doch nachdänklich gemacht, und ich bin jetzt zur Vernunft gekommen =).

mfg
Frank
Ab einem 20" TFT ist man ja praktisch gezwungen, eine aktuelle HighEnd-Karte zu nehmen. Da ist der Preisverfall der GTS wirklich sehr willkommen. :)

Ich bin erstmal über meine X1950XT sehr froh, da ich mit dieser auf ein bessers Board wechseln kann, was dann auch wiederum eine schnellere Graka ermöglicht, denn das "Asrock 775DUAL VSTA" ist ja nicht zum G80 kompatibel.

Gast
2007-02-11, 19:49:26
aber das war alles nur zum testen, im Moment läuft sie mit StandardMal eine ganz dumme OT-Frage: Warum übertaktet man eine Grafikkarte zum Testen und verliert dabei seine Garantie, wenn man gar nicht vor hat sie auch mit den maximal möglichen Taktraten laufen zu lassen? Verstehe ich irgendwie nicht. Da verlierst du die Garantie und hast rein gar nichts von, außer dass du weißt, dass sie soundsoviel MHz packt.

Undertaker
2007-02-12, 09:57:09
Mal eine ganz dumme OT-Frage: Warum übertaktet man eine Grafikkarte zum Testen und verliert dabei seine Garantie, wenn man gar nicht vor hat sie auch mit den maximal möglichen Taktraten laufen zu lassen? Verstehe ich irgendwie nicht. Da verlierst du die Garantie und hast rein gar nichts von, außer dass du weißt, dass sie soundsoviel MHz packt.

kannst du mir einen einzigen fall nennen, wo ein shop den garantiefall verweigert hat, weil die karte softwareseitig übertaktet wurde? bitte auch mit der entsprechenden erläuterung, wie man das überhaupt nachweisen kann

seahawk
2007-02-12, 10:21:56
Naja, Karten einer anderen Preisklasse und einer anderen Generation zu vergleichen ist nur wenig interessant. Und bei FPS/Ero liegt die 1900XT auch noch ziemlich gut.

Gast
2007-02-12, 10:40:38
kannst du mir einen einzigen fall nennen, wo ein shop den garantiefall verweigert hat, weil die karte softwareseitig übertaktet wurde? bitte auch mit der entsprechenden erläuterung, wie man das überhaupt nachweisen kannNachweisen kann man das überhaupt nicht oder nur mit einem Aufwand, der den Wert der Karte bei weitem übersteigen würde. Aber es soll auch noch Leute geben, die so ehrlich sind und zu Tode übertaktete Hardware (absichtlich übertrieben ;)) nicht einfach zur RMA geben. Bis auf EVGA verliert man bei allen Herstellern jegliche Garantieansprüche, wenn man die Karte übertaktet oder modifiziert. Der Händler muss übertaktete Hardware auch nicht austauschen, auch wenn man mit Ehrlichkeit manchmal überraschende Ergebnisse erzielen kann. Wenn man aber versucht den Händler zu täuschen, indem man die Karte wieder in den Originalzustand versetzt und kein Wort übers Übertakten verliert, finde ich das nicht in Ordnung.

Doomi
2007-02-12, 11:26:59
Naja, Karten einer anderen Preisklasse und einer anderen Generation zu vergleichen ist nur wenig interessant. Und bei FPS/Ero liegt die 1900XT auch noch ziemlich gut.

och nö, find ich nicht. So weit sind die Karten jetzt auch nicht mehr auseinander und der Vergleich gibt Hinweise ob man den noch geplanten Kauf einer 1900 XT oder XTX oder 8800 GTS tätigen oder lieber nicht tätigen sollte.

Mein Resultat, aber auch nur meines: 8800 GTS kaufen. selbst die 320 MB Version ist für mich ( Betonung liegt auf FÜR MICH ) immer noch leistungsstärker und featurereicher wie die stärkste ATI Karte zur Zeit.

dargo
2007-02-12, 11:31:56
Mein Resultat, aber auch nur meines: 8800 GTS kaufen. selbst die 320 MB Version ist für mich ( Betonung liegt auf FÜR MICH ) immer noch leistungsstärker und featurereicher wie die stärkste ATI Karte zur Zeit.
Nicht nur für dich, ich bin der selben Meinung.

Doomi
2007-02-12, 11:35:20
Nicht nur für dich, ich bin der selben Meinung.

wunderbar, wollt hier nur keine Geschmacksstreitereien entfachen ... solche Aussagen ärgern nämlich einige immer über alle Dinge und ich möchte denen nicht den Tag versauen .. :)

Vertigo
2007-02-12, 11:36:23
och nö, find ich nicht. So weit sind die Karten jetzt auch nicht mehr auseinander und der Vergleich gibt Hinweise ob man den noch geplanten Kauf einer 1900 XT oder XTX oder 8800 GTS tätigen oder lieber nicht tätigen sollte.

Mein Resultat, aber auch nur meines: 8800 GTS kaufen. selbst die 320 MB Version ist für mich ( Betonung liegt auf FÜR MICH ) immer noch leistungsstärker und featurereicher wie die stärkste ATI Karte zur Zeit.
Was man bei all der berechtigten Benchmark-Euphorie nicht vergessen sollte: die Treiber für die Radeon sind sehr ausgereift, bei der GeForce8 gibt es immer wieder mal Probleme. Außerdem disqualifiziert sich die GeForce8 aufgrund des fehlenden 2D-Stromspar-Modus für den Allround-Einsatz. Dazu kommen noch kleinere Overlay-Probleme mit Cyberlink MediaCenter und PowerDVD.

Wenn man allerdings einen reinen Spiele-PC hat, ist die GeForce8 die bessere Wahl - auch aus Preis-/Leistungssicht.

___

EDIT: Fast vergessen: schöner Thread, Frank1974. =)

LovesuckZ
2007-02-12, 11:39:08
Außerdem disqualifiziert sich die GeForce8 aufgrund des fehlenden 2D-Stromspar-Modus für den Allround-Einsatz.

Nur so als Anmerkung:
Eine X190(5)0XT(X) verbraucht 15 Watt mehr als eine 7900GT.
Verfügt die X190(5)0XT(X) plötzlich auch über keinen "2D-Stromspar-Modus für den Allround-Einsatz"?

Vertigo
2007-02-12, 11:42:52
Nur so als Anmerkung:
Eine X190(5)0XT(X) verbraucht 15 Watt mehr als eine 7900GT.
Verfügt die X190(5)0XT(X) plötzlich auch über keinen "2D-Stromspar-Modus für den Allround-Einsatz"?
Ich sprach vom Vergleich X1900 gegen GeForce8. Die Radeon taktet herunter und die GPU-Spannung wird reduziert - im Ergebnis bleibt die Karte kühler und der Lüfter ruhiger. All das vermisse ich bei der GeForce8. Dass die GeForce7-Reihe genügsamer ist steht doch hier gar nicht zur Debatte. ;)

dargo
2007-02-12, 11:48:31
Nur so als Anmerkung:
Eine X190(5)0XT(X) verbraucht 15 Watt mehr als eine 7900GT.
Verfügt die X190(5)0XT(X) plötzlich auch über keinen "2D-Stromspar-Modus für den Allround-Einsatz"?
Eine G7900GT verbraucht 6-8W weniger und keine 15W als eine X1900XT/XTX. Hinzu kommt, dass es die G7900GT 256MB Version ist.
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html

Außerdem kann man per Software den Stromverbrauch weiter in 2D senken wenn man möchte, was bei Geforce nicht geht.

LovesuckZ
2007-02-12, 11:50:03
Ich sprach vom Vergleich X1900 gegen GeForce8. Die Radeon taktet herunter und die GPU-Spannung wird reduziert - im Ergebnis bleibt die Karte kühler und der Lüfter ruhiger.

Also meine X1800XT hat sich zwar heruntergetaktet, war aber a) nicht kühler und b) nicht leiser als meine 8800GTX...

Dass die GeForce7-Reihe genügsamer ist steht doch hier gar nicht zur Debatte. ;)

Doch, denn ironischer Weise interessiert der 2D Stromverbrauch erst seit den 8800 Karten. Das 7900GTX und X1900 Karten unter 2D Modus mehr verbrauchen als eine 7900GT wird dabei verschwiegen...

Doomi
2007-02-12, 11:50:27
Was man bei all der berechtigten Benchmark-Euphorie nicht vergessen sollte: die Treiber für die Radeon sind sehr ausgereift, bei der GeForce8 gibt es immer wieder mal Probleme. Außerdem disqualifiziert sich die GeForce8 aufgrund des fehlenden 2D-Stromspar-Modus für den Allround-Einsatz. Dazu kommen noch kleinere Overlay-Probleme mit Cyberlink MediaCenter und PowerDVD.

Wenn man allerdings einen reinen Spiele-PC hat, ist die GeForce8 die bessere Wahl - auch aus Preis-/Leistungssicht.

___

EDIT: Fast vergessen: schöner Thread, Frank1974. =)


Da hast du natürlich auch Recht. Ist halt die Kehrseite der Medallie. Was für Probleme hat denn die 8800 GTS beim Overlay ? Ich nutze Power DVD 4 deluxe am Beamer indem ich das Bild meines Monitors auf den Beamer clone ( 800 x 600 ) und dann den Fullscreeneffekt auf den Monitor lege damit ich auch am Beamer das Bild kleiner machen kann wenn es mir beliebt.

dargo
2007-02-12, 11:53:28
Was man bei all der berechtigten Benchmark-Euphorie nicht vergessen sollte: die Treiber für die Radeon sind sehr ausgereift, bei der GeForce8 gibt es immer wieder mal Probleme. Außerdem disqualifiziert sich die GeForce8 aufgrund des fehlenden 2D-Stromspar-Modus für den Allround-Einsatz. Dazu kommen noch kleinere Overlay-Probleme mit Cyberlink MediaCenter und PowerDVD.

Hier hast du vollkommen recht. Wenn ich mir angucke wieviele Games noch Grafikfehler mit dem G80 produzieren ist das nicht mehr schön. Und das nach 3 Monaten seit dem Launchtag diese immer noch existieren umso mehr. Am 2D Stromverbrauch kann man leider nichts ändern. Durch starke Untertaktung in 2D kann man die GTS noch auf ca. 45W bringen, mehr lässt sich leider nicht machen.

Vertigo
2007-02-12, 11:55:25
Da hast du natürlich auch Recht. Ist halt die Kehrseite der Medallie. Was für Probleme hat denn die 8800 GTS beim Overlay ? Ich nutze Power DVD 4 deluxe am Beamer indem ich das Bild meines Monitors auf den Beamer clone ( 800 x 600 ) und dann den Fullscreeneffekt auf den Monitor lege damit ich auch am Beamer das Bild kleiner machen kann wenn es mir beliebt.
Ich hatte auf meiner GeForce8 (damals noch mit 97.02er Forceware, inzwischen nutze ich wieder eine X1950XTX) das Problem, dass On-Screen-Mitteilungen auf dem Overlay (Textmeldungen, Menüs) bei der Ausblendung nicht komplett verschwanden, sondern am Rand stets sichtbar blieben.

dargo
2007-02-12, 11:58:04
Ich hatte auf meiner GeForce8 (damals noch mit 97.02er Forceware, inzwischen nutze ich wieder eine X1950XTX) das Problem, dass On-Screen-Mitteilungen auf dem Overlay (Textmeldungen, Menüs) bei der Ausblendung nicht komplett verschwanden, sondern am Rand stets sichtbar blieben.
Ui, du bist vom G80 wieder zurück auf den R580? Das gibt mir zu denken, war es so schlimm?

Doomi
2007-02-12, 11:59:50
Ich hatte auf meiner GeForce8 (damals noch mit 97.02er Forceware, inzwischen nutze ich wieder eine X1950XTX) das Problem, dass On-Screen-Mitteilungen auf dem Overlay (Textmeldungen, Menüs) bei der Ausblendung nicht komplett verschwanden, sondern am Rand stets sichtbar blieben.

also solche Dinge wie sie das ICQ oder AVAST Virenscanner ausgeben? So etwas wäre tatsächlich nicht schön denn solche meldungen bekomme ich des öfteren rein. Hoffen wir das nvidia das bald abstellt.

Zum Treiber: Ich denke mal nvidia hat derzeit alle Hände voll zu tun da sie nicht nur für die 32 Bit Systeme einen kompatiblem Treiber zusammenbasteln müssen sondern auch noch für 32 und 64 Bit Vista.. dann kommt noch hinzu das es die erste Karte für DX10 ist ..

immerhin sehe ich hier fast den 3 fachen Aufwand.. ich würde nicht zuviel auf nvidia rumschimpfen wie es viele tun, das sind auch nur Menschen..

Vertigo
2007-02-12, 12:04:50
Ui, du bist vom G80 wieder zurück auf den R580? Das gibt mir zu denken, war es so schlimm?
Für mich schon. Ich warte jetzt lieber erstmal den G80-Refresh und den R600 ab. So lange kann man es mit 'ner X1900 schon noch aushalten.
also solche Dinge wie sie das ICQ oder AVAST Virenscanner ausgeben? So etwas wäre tatsächlich nicht schön denn solche meldungen bekomme ich des öfteren rein. Hoffen wir das nvidia das bald abstellt.

Zum Treiber: Ich denke mal nvidia hat derzeit alle Hände voll zu tun da sie nicht nur für die 32 Bit Systeme einen kompatiblem Treiber zusammenbasteln müssen sondern auch noch für 32 und 64 Bit Vista.. dann kommt noch hinzu das es die erste Karte für DX10 ist ..

immerhin sehe ich hier fast den 3 fachen Aufwand.. ich würde nicht zuviel auf nvidia rumschimpfen wie es viele tun, das sind auch nur Menschen..
Ich meinte die On-Screen-Mitteilungen der Abspiel-Software selbst. Dass die Treiber nicht ausgereift sind, konnte man erwarten. Das ist doch bei jeder neuen Generation (egal ob ATI/AMD oder nVidia) der Fall. Dennoch verkauft nVidia bzw. die Kartenhersteller ein Produkt und für 500€ sollte man schon einen Anspruch darauf haben, dass es reibungslos funktioniert.

Doomi
2007-02-12, 12:30:01
Für mich schon. Ich warte jetzt lieber erstmal den G80-Refresh und den R600 ab. So lange kann man es mit 'ner X1900 schon noch aushalten.

Ich meinte die On-Screen-Mitteilungen der Abspiel-Software selbst. Dass die Treiber nicht ausgereift sind, konnte man erwarten. Das ist doch bei jeder neuen Generation (egal ob ATI/AMD oder nVidia) der Fall. Dennoch verkauft nVidia bzw. die Kartenhersteller ein Produkt und für 500€ sollte man schon einen Anspruch darauf haben, dass es reibungslos funktioniert.

oh.. also zB der Scrollbalken von Power DVD? das klingt böse..

Undertaker
2007-02-12, 13:44:18
oh.. also zB der Scrollbalken von Power DVD? das klingt böse..

ist bei mir definitiv nicht der fall

Vertigo
2007-02-12, 13:47:16
oh.. also zB der Scrollbalken von Power DVD? das klingt böse..
Nein, ich meine wirklich die On-Screen-Textmitteilungen ("Kapitel XY", "X.Yfacher Vorlauf", etc.). Davon blieben am Rand stets Fraktale stehen. Mich hat das in den Wahnsinn getrieben, andere sehen evtl. darüber hinweg. Deswegen schrieb ich ja von "Problemchen".

Gast
2007-02-12, 14:25:17
Also meine X1800XT hat sich zwar heruntergetaktet, war aber a) nicht kühler und b) nicht leiser als meine 8800GTX...



Doch, denn ironischer Weise interessiert der 2D Stromverbrauch erst seit den 8800 Karten. Das 7900GTX und X1900 Karten unter 2D Modus mehr verbrauchen als eine 7900GT wird dabei verschwiegen...
Der Stromverbrauch ist jetzt aber im IDLE in den schmerzbaren Bereich vorgedrungen. Nache dem Test hier http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/31/#abschnitt_stromverbrauch
verbraucht der G80 fast 40W mehr als eine X1800XT. Die X1900 schneidet sogar noch besser ab. Desweiteren heizt sowas im Sommer die Bude unnötig ordentlich auf, selbst wenn man nur am Surfen ist oder Textverarbeitung benutzt.
Keine Frage, im 3D ist der G80 vom spezifischen Verbrauch erste Sahne. Ich bin mir ziemlich sicher, dass die Mainstreamabkömmlinge des G80 und auch der Refresh im 2D-Mode Stromsparmechamismen einsetzen werden. Momentan könnte man ja keinen High-End Abkömmling mit dem hohen IDLE-Verbrauch im Mobility Bereich verwenden, da wär der Akku ratzfatz schon im Leerlauf am Ende. Kurz gesagt, der G80 ist eine Übergangslösung und für die Leute geeignet und gemacht, die jetzt maximale Power brauchen und bei Erscheinen des Refreshs oder des R600 wechseln. "Zum Alt werden" ist der G80 nicht zu gebrauchen.

knallebumm
2007-02-12, 14:32:50
Einige sehen den Vergleich zwischen der x1900xt und der 8800gts hier eher als sportlichen Wettkampf. So nach dem Motto: Ist ja gemein, 2 Karten unterschiedlicher Generationen und Preisklassen zu vergleichen, ist ja klar wer dann gewinnen muß.

Andere sehen den Vergleich hier ganz nüchtern als Kauf- oder Aufrüstentscheidung. Und genau als solchen kann man den Test von Frank auch sehen, wenn man nicht zu sehr die ATI-Brille aufhat. imho

Henroldus
2007-02-12, 15:28:07
wahnsinn:
auf
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/9/#abschnitt_call_of_duty_2
bricht die kleine GTS gegen die X1900xt unter CoD2 regelrecht ein unter 1600x1200 und 4AA/16AF
15,9 : 27,5 :eek:

Gast
2007-02-12, 19:29:06
AI-standard gegen HQ, damit ist der test leider ziemlich für die katz.

Frank1974
2007-02-12, 20:51:44
Es wird hier oft der Stromverbrauch im Idle des G80 angeführt er sei zu hoch, im Gegensatz zum R580 stimmt das sogar, aber das ist auch nicht der direkte Gegner, man muss erst abwarten was der R600 im Idle verbraucht dann kann man darüber Urteilen ;).

Mein Test sollte auch nicht die 1900XT als schlecht hinstellen, das ist sie nämlich beiweitem nicht, sie ist schliesslich schon über 1 Jahr auf dem Markt, die 8800 jedoch erst seid 3 Monaten, es sollte nur anhand von einigen Spielen, einen groben Überblick geben ob sich ein Umstieg jetzt lohnt oder nicht, für die Spiele die ich bevorzuge hat es sich gelohnt, aber ich habe nunmal nicht alle Spiele der Welt und es kann bei anderen wieder anders aussehen, es musss also letztendlich jeder für sind sehen ob er den Sprung macht.

Hier noch zwei weitere Daten von mir, die ich oben nicht erwähnt hatte.

Stromverbrauch bei mir, Komplettes System(oben im ersten Post) mit 21er WS-TFT, ist so seid Ewigkeiten verkabelt, wollte es nicht extra ändern.

1900XT -> 200Watt
8800GTS -> 231Watt

Temperatur Idle bei ca. 18 Grad Raumtemp

1900XT -> 50 Grad bei 1670RPM
8800GTS -> 50 Grad bei 1398RPM

mfg
Frank

Undertaker
2007-02-12, 22:24:58
hattest du deine x1900xt noch zusätzlich undervoltet? die differenz ist irgendwie ein ganzes stück höher als bei cb :confused:

btw: 50°C idle bei der gts sind ja einfach mal :O wie schaffst du das? ich komme selbst auf 250mhz core nur auf >60°C ;(

LovesuckZ
2007-02-12, 23:08:20
Kannst du auch die Stromaufnahme unter Last vergleichen?

Frank1974
2007-02-12, 23:13:00
hattest du deine x1900xt noch zusätzlich undervoltet? die differenz ist irgendwie ein ganzes stück höher als bei cb :confused:

btw: 50°C idle bei der gts sind ja einfach mal :O wie schaffst du das? ich komme selbst auf 250mhz core nur auf >60°C ;(

Stimmt, die 1900XT lief nur mit 1,35Volt anstatt, 1,45Volt :sneak:.

Zur Temp kann nicht nix weiter sagen ist immer so um die 50 Grad, habe 3 Gehäuselüfter, sonst nix besonderes, unter Last wurde sie bisher auch nur max 72 Grad bei Oblivion, mit Rivatuner im Hintergrund aufgezeichnet.
Nur wo ich den Takt getestet habe und über 600MHz Chip hatte ging sie bis auf 76 bei Last.

Kannst du auch die Stromaufnahme unter Last vergleichen?

Wenn du mich damit meinst, unter Last hat sich das System nicht groß verändert, vielleicht +/-5Watt, wobei die 1900XT mit reduzierter Volt lief.

mfg
Frank

Undertaker
2007-02-12, 23:16:56
kannst du bitte mal nachschauen, was du im rivatuner idle für ambient-temperaturen hast?

Frank1974
2007-02-12, 23:24:10
kannst du bitte mal nachschauen, was du im rivatuner idle für ambient-temperaturen hast?

38-39Grad, ist das gut, habe ja keinen Vergleich mit anderen?

/edit
Kann ja auch daran liegen das mein 6400@3000MHz bei 1,25Volt nicht große Wärme ausstrahlt.

mfg
Frank

Gast
2007-02-12, 23:29:21
Stimmt, die 1900XT lief nur mit 1,35Volt anstatt, 1,45Volt :sneak:.

Dürfte doch eigentlich egal sein, gilt doch nur für den 3D-Modus? Für den 2D-Modus müsste die Defaultspannung doch unverändert geblieben sein.

Frank1974
2007-02-12, 23:32:58
Dürfte doch eigentlich egal sein, gilt doch nur für den 3D-Modus? Für den 2D-Modus müsste die Defaultspannung doch unverändert geblieben sein.

Ohje, da hast du Recht, ich habe jetzt an den 3D-Modus gedacht, 2D bliebt natürlich bei 1,2Volt, es ist wohl schon zu spät für mich, gehe lieber zu Bett.

mfg
Frank

dargo
2007-02-12, 23:53:09
wahnsinn:
auf
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/9/#abschnitt_call_of_duty_2
bricht die kleine GTS gegen die X1900xt unter CoD2 regelrecht ein unter 1600x1200 und 4AA/16AF
15,9 : 27,5 :eek:
Und was hat das jetzt mit diesem Thread zu tun?
Um die GTS 320MB gehts hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=348427

Dr.Dirt
2007-02-12, 23:55:37
1900XT -> 200Watt
8800GTS -> 231Watt


Ist dieser exorbitante Stromverbrauch des G80 im Idle per Treiber noch nach unten korrigierbar?

Wobei ich befürchte, bald wird uns noch etwas viel schlimmeres blühen.:frown:

dargo
2007-02-13, 00:16:34
Ist dieser exorbitante Stromverbrauch des G80 im Idle per Treiber noch nach unten korrigierbar?

Durch starkes Untertakten könntest du da noch etwa 15W herausholen.

HAL
2007-02-13, 10:00:00
AI-standard gegen HQ, damit ist der test leider ziemlich für die katz.
Finde ich nicht, das sind genau die Einstellungen in denen ich (und ich denke die Mehrheit der Spieler) die Karten nutzen würde (AI-Off ist einfach zu problematisch).

Das die Bildqualität auf dem G80 dann nochmal etwas höher ist, muss man dann eben als zusätzliches Plus im Hinterkopf behalten.

Wie schon mehrmals geschrieben: Es zeigt, was die 8800GTS für den gemeinen Zocker an "mehr" gegenüber (s)einer X1900XT bietet.

Dr.Dirt
2007-02-13, 12:54:19
Durch starkes Untertakten könntest du da noch etwa 15W herausholen.
Das muß ich dann bestimmt manuell machen oder geschieht das automatisch per Treiber?

Undertaker
2007-02-13, 15:54:32
Das muß ich dann bestimmt manuell machen oder geschieht das automatisch per Treiber?

ich mach es per rivatuner, der auch das übertakten unter 3d übernimmt - also keine zusätzliche software nötig wenn man eh oc betreiben will

Gast
2007-02-13, 16:58:12
(AI-Off ist einfach zu problematisch).AI-Standard ist nicht weniger problematisch. Das flimmert teilweise echt fies auf R5x0-Karten. Bei den R4x0ern war es nicht ganz so schlimm und bei der guten alten 9800pro war die "Optimierung" erst gar nicht vorhanden.

Gast
2007-02-13, 18:13:30
AI-Standard ist nicht weniger problematisch. Das flimmert teilweise echt fies auf R5x0-Karten. Bei den R4x0ern war es nicht ganz so schlimm und bei der guten alten 9800pro war die "Optimierung" erst gar nicht vorhanden.
Jupp, leider wahr. Habe mir damals nach dem Kauf meiner X1900XTX für 599€ Ocken auch fast in den Arsch gebissen. Bei meiner vorherigen X800XT war die Optimierung nicht so auffällig.
Lektion: Auch ATi ist nicht ohne Fehl und Tadel.

Arda
2007-02-13, 19:02:05
600 Ocken ?????????? für eine Graikkarte ???????
mein Beileid...

Dr.Dirt
2007-02-13, 19:33:26
ich mach es per rivatuner, der auch das übertakten unter 3d übernimmt - also keine zusätzliche software nötig wenn man eh oc betreiben will

Also doch ein weiteres Tool nötig.
Ich dachte beim Heruntertakten eigentlich an sowas wie C'n'Q, mit automatischem Absenken von Takt und Spannung unter 2d.
Solch eine nette Treiberfunktionalität wäre doch schön. =)

Könnte ein späterer Treiber so etwas noch mitbringen?

dargo
2007-02-13, 23:01:55
Könnte ein späterer Treiber so etwas noch mitbringen?
Da NV keinen 2D Takt für den G80 vorsieht kannst du es vergessen.

Undertaker
2007-02-14, 09:29:33
Also doch ein weiteres Tool nötig.
Ich dachte beim Heruntertakten eigentlich an sowas wie C'n'Q, mit automatischem Absenken von Takt und Spannung unter 2d.
Solch eine nette Treiberfunktionalität wäre doch schön. =)

Könnte ein späterer Treiber so etwas noch mitbringen?

ich habe nicht umsonst geschrieben "wenn man eh oc betreiben will" - wer das bei der gts nicht macht verschenkt viel leistung, der chip geht im schnitt gut 20%! kauft sich ja auch fast keiner nen c2d hier und übertaktet den nicht ;)

Die gelbe Eule
2007-02-14, 09:43:20
Finde ich nicht, das sind genau die Einstellungen in denen ich (und ich denke die Mehrheit der Spieler) die Karten nutzen würde (AI-Off ist einfach zu problematisch).

Das die Bildqualität auf dem G80 dann nochmal etwas höher ist, muss man dann eben als zusätzliches Plus im Hinterkopf behalten.

Wie schon mehrmals geschrieben: Es zeigt, was die 8800GTS für den gemeinen Zocker an "mehr" gegenüber (s)einer X1900XT bietet.

Falsch. A.I. standard kompensiert Performanceverluste, zu ungunsten der BQ, nichts anderes.

deekey777
2007-02-14, 12:09:47
Falsch. A.I. standard kompensiert Performanceverluste, zu ungunsten der BQ, nichts anderes.
Was für Performanceverluste genau?

Die gelbe Eule
2007-02-14, 12:19:27
Duch das Shaderreplacement werden nicht alle Texturen gleichartig bearbeitet, was somit Performancevorteile bringt. Weniger Instruktionen brauchen demnach auch weniger Berabeitungszeit. Ich glaube kaum das A.I. so komplex entwickelt ist, das es jederzeit die richtigen Optimierungen einzelner Spiele perfekt ausnutzt.

deekey777
2007-02-14, 12:31:09
Was hat Shaderreplacement mit Texuren-Filterung zu tun? Mit AI auf Standard werden die Texturen nicht gleich behandelt, sondern "angepasst". Die Theorie ist, dass dort, wo es nicht auffällt, zB ein brilinearer Filter zum Einsatz kommt; die TS-Optimierung ist dagegen Geschichte. Praxis ist, dass fast immer brilinear gefiltert wird.
Das Shaderreplacement darf das visuelle Ergebnis nicht verfälschen. Und wenn mich nicht täuscht, haben Shader-Spielchen bei ATi bis auf wenige Vorfälle (wie zB dark Water in HL2, wo der Shadercompiler zu aggressiv vorging) nie zu visuellen Nachteilen geführt.
Auch nVidias Shader-Spielchen haben nie Probleme gemacht (bis auf die Sache mit Doom 3, was längst gefixt wurde).

Die gelbe Eule
2007-02-14, 12:37:20
Das Texuren mit A.I. low flimmern, mit A.I. off kaum noch, hat immernoch Bestand. Wenn nun die Praxis so stimmen sollte, das immer brilinear gefiltert wird, wie möchte man dann A.I. standard rechtfertigen, wo es genau das bewirken soll? Es wäre also völlig unnötig, es einzuschalten, es sei denn, man optimiert noch woanders, das die Performance ansteigt. Ich muss nicht etwas brilinear erzwingen, was eh schon brilinear gefiltert wird.

Vertigo
2007-02-14, 12:38:37
Das Texuren mit A.I. off flimmern, mit A.I. low kaum noch, hat immernoch Bestand. Wenn nun die Praxis so stimmen sollte, das immer brilinear gefiltert wird, wie möchte man dann A.I. standard rechtfertigen, wo es genau das bewirken soll?
Wie bitte? Texturen flimmern mit A.I. off und mit A.I. low nicht? In welchem Spiel?

Im Normalfall ist es doch die Diffuse Map, die am meisten unter dem Fehlen des trilinearen Filters leidet. Bei allen anderen Texturschichten sollte es keine negativen Effekte geben. Das wissen die Programmierer bei ATI auch und entsprechend ist A.I. doch auch programmiert ... :confused:

Die gelbe Eule
2007-02-14, 12:40:54
Ah sry, verdreht ;(
Natürlich flimmern die Texturen mit A.I. low, mit A.I. off nicht.

Vertigo
2007-02-14, 12:43:24
Ah sry, verdreht ;(
Natürlich flimmern die Texturen mit A.I. low, mit A.I. off nicht.
Okay. Aber ist das mit A.I. low/high wirklich so wild? Ich spiele zwar immer mit A.I. off, aber auch mit A.I. sehe ich in meinen Spielen eigentlich keine Unterschiede.

Die gelbe Eule
2007-02-14, 12:49:02
Ja ist es. In einem MMO was ich spiele gibt es folgende Bodentextur:

http://img218.imageshack.us/img218/6848/textursy7.png

Da ich dieses Spiel mit einer X1800XL, X1800XT, X1900XT, 7900GTO, 6600 bisher gespielt habe, fiel es mir besonders auf. Im laufen grieselt diese Textur mit A.I. low fürchterlich, genauso wie bei NV mit schlechter als HQ eingestellt.
Es ist zwar CPU limitiert, aber der Performancedrop mit hohem AA und AF Grad bei A.I. off lag doch schon um die 15%.

Das Spiel selbst hat keine Filtereinstellungen, es wird also nur über den Treiber forciert, was dann nichts verfälscht.

Mr. Lolman
2007-02-14, 13:02:16
Ja ist es. In einem MMO was ich spiele gibt es folgende Bodentextur:

http://img218.imageshack.us/img218/6848/textursy7.png


Warum machst du einen Screenshot von der Textur und nicht von der Flimmerstelle?

Die gelbe Eule
2007-02-14, 13:03:59
Weil ich a) keine Radeon mehr habe und b) Standbilder nicht flimmern können, deshalb. Ich könnte zwar mit einer FX550 forciert rumflimmern, das hat aber nichts mehr mit A.I. zu tun.

Mr. Lolman
2007-02-14, 13:21:52
Weil ich a) keine Radeon mehr habe und b) Standbilder nicht flimmern können, deshalb. Ich könnte zwar mit einer FX550 forciert rumflimmern, das hat aber nichts mehr mit A.I. zu tun.

In Standbilder kann man anhand der Texturgranularität leicht abschätzen, was wo wie stark flimmert. Dass Standbilder nicht flimmern können, ist klar nur mit dem kleinen Bild was du gebracht hast, ist die Info nicht viel Wert. Da hättest du dir das Bild auch gleich sparen können.



BTW: In einem 3D Shooter welchen ich spielte, war NV-HQ sogar merkbar übler als AIlow:

http://666kb.com/i/alttdlpp5or9i8v92.png http://666kb.com/i/alttdxoigknf94qwm.jpg


Die http://666kb.com/i/alttb5s0lkxp47prq.png berichtete sogar darüber. ;)

Die gelbe Eule
2007-02-14, 13:31:38
Sry, aber Dein Sarkasmus ist hier unangebracht.
Das Bild sollte nur den Aufbau der Textur zeigen und ih weiß genau, egal was ich poste, Du findest immernoch eine Erklärung dafür, das es nicht an A.I. low liegt. Fakt ist, auf der GTO kann ich mit HQ im letzten aktuellen WHQL Treiber kein flimmern erkennen, in Q schon. Genauso wie mit A.I. low es flimmert wie bekloppt, mit dem 7.1 CAT unter Zuhilfenahme der X1800XL. Es ist also keine Anormalie, sondern reproduzierbar. Wenn ich etwas gegen ATi hätte, dann wäre ich versteift auf meiner 6800GT damals geblieben und hätte nicht 4 HighEnd Ati nacheinander eingebaut. A.I. off muss immer drin sein und erst dann merkt man, was die damals tolle BQ bei ATi an Performance kostet, weil flimmern kann ja keiner toll finden oder?

Mr. Lolman
2007-02-14, 13:39:34
Sry, aber Dein Sarkasmus ist hier unangebracht.
Das Bild sollte nur den Aufbau der Textur zeigen und ih weiß genau, egal was ich poste, Du findest immernoch eine Erklärung dafür, das es nicht an A.I. low liegt. Fakt ist, auf der GTO kann ich mit HQ im letzten aktuellen WHQL Treiber kein flimmern erkennen, in Q schon. Genauso wie mit A.I. low es flimmert wie bekloppt, mit dem 7.1 CAT unter Zuhilfenahme der X1800XL. Es ist also keine Anormalie, sondern reproduzierbar. Wenn ich etwas gegen ATi hätte, dann wäre ich versteift auf meiner 6800GT damals geblieben und hätte nicht 4 HighEnd Ati nacheinander eingebaut. A.I. off muss immer drin sein und erst dann merkt man, was die damals tolle BQ bei ATi an Performance kostet, weil flimmern kann ja keiner toll finden oder?

Hä? Wo hab ich AIlow verteidigt? Das Bild ist für den Aufbau der Textur sehr schlecht, (zeigt wohl 75%x150% der tatsächlichen Textur) und ich bin gespannt mit welchen Filter die Mips erstellt wurden, damit diese dann nicht sichtbare Kachelungsartefakte bei Verkleinerungen zeigen. Jedenfalls ist in deinem Bild auf der Textur hauptsächlich der Magfilter aktiv, Flimmern ensteht jedoch nur beim Minfilter.

Gast
2007-02-14, 16:22:29
Okay. Aber ist das mit A.I. low/high wirklich so wild?Ja, es ist wirklich verdammt wild. Es ist nicht ganz so schlimm wie NV Quality mit aktivierten Optimierungen auf GF7, aber immer noch äußerst störend in den meisten Fällen. Nvidias High Quality auf NV4x/G7x ist hier deutlich akzeptabler und von G80 brauche ich erst gar nicht anfangen.Ich spiele zwar immer mit A.I. off, aber auch mit A.I. sehe ich in meinen Spielen eigentlich keine Unterschiede.Hast du denn einen R5x0? Bei R420/R480 fallen die Cheats komischerweise (?) nicht so sehr auf und bei der 9800pro sind sie erst gar nicht vorhanden.

Gast
2007-02-14, 18:43:55
JA, alles außer A.I. off sieht in manchen Spielen schon übel aus, es wird Zeit, daß ATI mal die Texturfilterspielereien von sinnvollen Optimierungen entkoppelt.

Undertaker
2007-02-15, 15:02:38
Da NV keinen 2D Takt für den G80 vorsieht kannst du es vergessen.

technisch machbar wäre es problemlos, einfach ein kleines stückchen quelltext im treiber zu ergänzen das im 2d betrieb die taktraten senkt - aber das soetwas jetzt noch kommt halte ich doch für eher unwahrscheinlich

Gast
2007-02-15, 15:04:32
Im März kommt wahrscheinlich ein Taktregler für die Shaderdomain in nTune, wodurch man vielleicht noch etwas mehr Strom sparen kann. ;)

Gast
2007-02-15, 15:08:36
Ja, es ist wirklich verdammt wild. Es ist nicht ganz so schlimm wie NV Quality mit aktivierten Optimierungen auf GF7, aber immer noch äußerst störend in den meisten Fällen. Nvidias High Quality auf NV4x/G7x ist hier deutlich akzeptabler und von G80 brauche ich erst gar nicht anfangen.Hast du denn einen R5x0? Bei R420/R480 fallen die Cheats komischerweise (?) nicht so sehr auf und bei der 9800pro sind sie erst gar nicht vorhanden.

Ich erinnere mich mit einem Roffeln an die Zeit wo dem User reingedrückt wurde, dass NV-default ok ist und NV-Q super und NV-HQ so übertrieben toll, dass mans schon garnichtmehr braucht, weil NV-Q ja ohnehin so super ist.

Nun ist ATi seit dem G80 ein bisschen ins Hintertreffen geraten und schon wird überall bemängelt, dass AIlow auch nicht perfekt ist. Hat sich irgendjemand schonmal Gedanken über die Verhältnissmäßigkeit gemacht, oder ist das hier garnicht nicht notwendig, weils eigentlich eh nur um den Kleinkrieg der Fanboys beider Lager geht?

Ich fress nen Besen, wenn mehr als 1-2 von 100 Durchschnittsgamern selbst bei genauem Hinsehen den Unterschied zw. AIoff und low erkennen.

Die gelbe Eule
2007-02-15, 15:25:36
Der Durchschnittsgamer schaut mehr auf FPS und die Enthusiasten suchen die bestmögliche BQ mit noch verwertbarer Performance. Ich stimme Dir zu, daß viele keinen Plan haben und auch wollen, aber wenn man einmal den Unterschied gesehen hat, dann weiß man wie der Hase läuft.

Gast
2007-02-15, 15:44:01
Nun ist ATi seit dem G80 ein bisschen ins Hintertreffen geraten und schon wird überall bemängelt, dass AIlow auch nicht perfekt istDa hast du wohl den falschen erwischt. Ich bemängele AI-low schon seit dem R520-Launch. Zu der Zeit hat mir hier im Forum noch kein Mensch geglaubt, dass es auf ATIs mit AI auch fies flimmern kann. Auch über NV-Quality auf GF7 habe ich noch nie ein gutes Wort verloren.
Ich fress nen Besen, wenn mehr als 1-2 von 100 Durchschnittsgamern selbst bei genauem Hinsehen den Unterschied zw. AIoff und low erkennen.Da hast du natürlich Recht. Alle 08/15-Durchschnittsgamer, die ich kenne, spielen auch mit Defaulteinstellung bei NV und sind mit der Grafik sehr zufrieden. Trotzdem ist Quality oder AI-Standard nicht gerade schön anzusehen.

Gast
2007-02-15, 16:05:05
Trotzdem ist Quality oder AI-Standard nicht gerade schön anzusehen.

Das passt nur auf den G80 bezogen, und da ist Q ja ok: G70-Q < NV40-Q <<<<< G80-Q


NV40-default <<< NV40-Q <<< AI-default < NV40-HQ

So passts eher. Da ist aber noch nicht berücksichtigt, dass NV40-HQ auch nicht immer trilinear filtert und dass das NV-AF generell ein Problem mit negativem LOD und ähnlich grenzwertigen Texturen hat. Es ist auch weiters nicht berücksichtigt, dass der G70 schlechter filtert als der NV40.

Also ists imo mehr als lächerlich, dass jetzt die gazen Trolle aus ihren Löchern gekrochen kommen, und gegen AI wettern. Schön ists sicher nicht, und brilineare ist prinzipiell nicht toll, aber insgesamt ist die Thematik weit von der NV-default Filtergeschichte entfernt.

Erinnert sich niemand mehr, dass sogar die DAU-Foren voll mit beschwerden über NVs AF waren? Damals hatte NV einfach den Grat des Ertragbaren überschritten gehabt. Das was ATi mit AI macht ist war unfein, aber insgesamt fast irrelevant.

G70-HQ und Ailow ist ca vergleichbar (mittlerweile hat das auch xbitlabs erkannt) und deswegen wird auch so gebencht. Wenn man als Übersensibilisierter Probleme mit AI hat, dann kann mans leicht abschalten. Ist zwar nicht so toll für die Performance, aber dass ist es auch nicht, wenn man bei NV Hybridmodi aktiviweren muss, um die fiesen Streckenbegrenzungslinien div. Rennspiele in den Griff zu bekommen.

Deswegen ist die Ganze Diskussion hier für die Katz!

Gast
2007-02-15, 16:12:06
Das passt nur auf den G80 bezogenHöh? Ich schrieb doch "nicht gerade schön anzusehen". Das trifft doch perfekt auf NV-Quality auf GF7 und AI-Standard auf R5x0 zu.

Gast
2007-02-15, 16:16:25
Höh? Ich schrieb doch "nicht gerade schön anzusehen". Das trifft doch perfekt auf NV-Quality auf GF7 und AI-Standard auf R5x0 zu.

Das ist es ja. Im Vergleich zu NV40-Quality ist AI-Low schon schön anzusehen. Im Vergleich zu G80-Quality aber nicht mehr ;)

Commando LAX
2007-02-17, 14:30:59
also ist schon problematisch eine graka alte gen. mit neue . gen zu vergleichen ! der G80 chip hat eine andere arichteektur die auf zukünftigen systemem vorteile haben soll die vieleicht jetzt noch nicht da sind . aber ich sage immer die graka das reserven hat ist besser schaue einfach auf die performace games F.E.A.R. zb. braucht viel chip! Oblivion braucht viel Chip+VRAM und das ist das entscheidente VRAM+Chip und darauf ist der G80 optimiert !

Gast
2007-02-17, 19:25:14
Hast du denn einen R5x0? Bei R420/R480 fallen die Cheats komischerweise (?) nicht so sehr auf und bei der 9800pro sind sie erst gar nicht vorhanden.


das ist sogar recht logisch, schließlich war man mit der R4xx-serie in der texelfüllrate der konkurrenz überlegen, mit der R5xx-serie allersings recht stark unterlegen, natürlich musste man dann die fehlende leistung mit stärkeren "optimierungen" kompensieren.

Mr. Lolman
2007-02-17, 20:46:16
das ist sogar recht logisch, schließlich war man mit der R4xx-serie in der texelfüllrate der konkurrenz überlegen, mit der R5xx-serie allersings recht stark unterlegen, natürlich musste man dann die fehlende leistung mit stärkeren "optimierungen" kompensieren.

Oder sie habens NV nachgemacht, die auch mit dem G7x die Filterqualität abermals weiter abgesenkt hatten.

Gast
2007-02-17, 21:42:09
Oder sie habens NV nachgemacht, die auch mit dem G7x die Filterqualität abermals weiter abgesenkt hatten.


das war nur mit den ersten treibern der fall, die nächsten treiber brachten wieder NV4x-qualität ohne leistungsverlust.

Mr. Lolman
2007-02-17, 21:59:32
das war nur mit den ersten treibern der fall, die nächsten treiber brachten wieder NV4x-qualität ohne leistungsverlust.

Nicht ganz. Der 78.03 hats gefixt (im 78.05 war er wieder drin, aber egal, weil spätere Treiber wieder 78.03 BQ hatten). Jedenfalls blieb auch mit dem Fix die G70-AF-Qualität leicht unter dem Niveau des NV40 und so wa HQ zB in Riddick immernoch sichtbar schlechter als AILow@R580. (Quelle: PCGH)

Raff
2007-02-17, 22:01:58
Noch schlechter? Riddick sieht auf meinem R520 dank A.I. zum Brechen aus. "Gut" zur Demonstration ist da der Lauf in den Knast ganz am Anfang. Was da an Flimmer-Banding zu sehen ist, macht einfach nur sehr aua. Schön wäre übrigens, wenn man ein G80-User ein Video davon machen könnte.

MfG,
Raff

Mr. Lolman
2007-02-17, 22:12:31
Noch schlechter? Riddick sieht auf meinem R520 dank A.I. zum Brechen aus. "Gut" zur Demonstration ist da der Lauf in den Knast ganz am Anfang. Was da an Flimmer-Banding zu sehen ist, macht einfach nur sehr aua. Schön wäre übrigens, wenn man ein G80-User ein Video davon machen könnte.

MfG,
Raff

Ja. Frag deine Kollegen. Ich müsst erst raussuchen wann und von wem der Artikel veröffentlicht wurde.

Blaire
2007-02-18, 00:52:24
Noch schlechter? Riddick sieht auf meinem R520 dank A.I. zum Brechen aus. "Gut" zur Demonstration ist da der Lauf in den Knast ganz am Anfang. Was da an Flimmer-Banding zu sehen ist, macht einfach nur sehr aua. Schön wäre übrigens, wenn man ein G80-User ein Video davon machen könnte.


Kenne ich gut ;)
Leider hat Ati mit dem R520/580 unter nahezu allen OpenGL Games Mipmap Banding Probleme gehabt@AI Standard. Keine Ahnung ob die es bis heute gefixt haben.

Gast
2007-02-18, 10:15:38
Das kann ich bestätigen. Quake 4 sah auf einem R580 mit AI-Standard teilweise alles andere als gut aus.

Die gelbe Eule
2007-02-18, 11:04:16
Kenne ich gut ;)
Leider hat Ati mit dem R520/580 unter nahezu allen OpenGL Games Mipmap Banding Probleme gehabt@AI Standard. Keine Ahnung ob die es bis heute gefixt haben.

Nö haben sie nicht, X1800(XL)/1900XT zeigten allen das gleiche Problem.

Mr. Lolman
2007-02-18, 11:45:43
Das kann ich bestätigen. Quake 4 sah auf einem R580 mit AI-Standard teilweise alles andere als gut aus.

Das wurde behoben.

Kenne ich gut ;)
Leider hat Ati mit dem R520/580 unter nahezu allen OpenGL Games Mipmap Banding Probleme gehabt@AI Standard. Keine Ahnung ob die es bis heute gefixt haben.

Doch, die Ahnung hast du. Unseren PN Wechsel schon vergessen?

Nö haben sie nicht, X1800(XL)/1900XT zeigten allen das gleiche Problem.

Doch, haben sie!

Blaire
2007-02-18, 16:42:39
Doch, die Ahnung hast du. Unseren PN Wechsel schon vergessen?

Ich kann mich erinnern das du gesagt hattest das du es mit ATT in den Griff bekommst , mehr auch nicht. Bei mir half ATT damals nicht das Banding war immer da. Erst bei AI disabled war das Bild ok , aber die Performance im Keller.