PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HD 2900XT: (P)Review-Thread, Part deux


Seiten : 1 2 3 [4] 5

Gouvernator
2007-06-14, 12:44:33
Die GTS IST schneller. In meinem Fall konnte ich FarCry mit der 2900Xt gar nicht starten (ging nur mit Bildfehlern). Wie sie auf solche niedrige fps mit ner GTS kommen ist mir ein Rätsel. Ich hab mit niedrigerer Auflösung 4x4 AA und wie sie alle heissen angestellt und gespielt. Und sowas ist in der Regel viel leistungsfressender wie blos 2600x1600 und nur x4xAA.

Gast
2007-06-14, 12:51:30
also ich finds ja auch verdächtig, dass in so ziemlich allen anderen reviews ein anderes bild geboten wird

aber ich freu mich für ati, denn konkurrenz belebt das geschäft und die NVs werden so auch günstiger ;)

J0ph33
2007-06-14, 12:53:09
Die GTS IST schneller. In meinem Fall konnte ich FarCry mit der 2900Xt gar nicht starten (ging nur mit Bildfehlern). Wie sie auf solche niedrige fps mit ner GTS kommen ist mir ein Rätsel. Ich hab mit niedrigerer Auflösung 4x4 AA und wie sie alle heissen angestellt und gespielt. Und sowas ist in der Regel viel leistungsfressender wie blos 2600x1600 und nur x4xAA.

hier steht aussage gegen aussage (du gegen wesker)....letzterem traue ich bei aller achtung etwas mehr zu...

puntarenas
2007-06-14, 12:53:26
Ich hab mit niedrigerer Auflösung 4x4 AA und wie sie alle heissen angestellt und gespielt. Und sowas ist in der Regel viel leistungsfressender wie blos 2600x1600 und nur x4xAA.
Ich bin vielleicht etwas begriffsstutzig, aber ich verstehe nicht :O

Lawmachine79
2007-06-14, 12:54:23
Viel zu hohe Auflösung für eine 8800GTS/2900XT teilweise avg unter 40fps also min 20 oder so.Also lieber mal 1600*1200 vergleichen und Call of Juarez kannst du ja auch noch dazu packen.


http://www.directupload.net/images/070614/D8HgvBzo.jpg
ROFL. Hat er unpassende Ergebnisse unterschlagen? Wieso ist Stalker eigentlich nicht dabei :D? Wegen den fast 50% Performanceunterschied?
Würde man jetzt noch den GPU Takt anheben, so hätte sie auch eine Chance gegen die GTX.


Hätte der Hund nicht geschissen, hätte er den Hasen gefangen.
Übrigens kann man auch bei der GTX den Takt anheben - nur zur Info...

So, hier dann mal meine Links:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/38/#abschnitt_fazit
Ich weiß, der Treiber war älter - NV hat inzwischen aber den 158.27 abgefeuert, in vielen neuen Spielen ist der 15-40% schneller.
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=24
Anandtech zieht zwar ein positives Fazit, aber wenn man sich die Tests ansieht, die mit AA/AF gemacht wurden, sieht man, daß die 2900XT nur einen davon gewinnen kann
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546&seite=13
"Platziert sich auf GTS Niveau, wenn man beide Augen zudrückt"

So, das sind jetzt 3 größere Seiten. Und kommt mir nicht mit dem Treiber, bei NV wurde auch nicht mit dem 158.27 getestet.

hier steht aussage gegen aussage (du gegen wesker)....letzterem traue ich bei aller achtung etwas mehr zu...

Dann sieh Dir die drei Links an. Klar glaube ich Wesker auch, aber auf seinem PC läuft doch nichts mehr wie im Auslieferungszustand :D - da sieht es doch bestimmt aus wie in einem NASA-Labor. Alle Hardware ist übertaktet, so daß es schwer festzustellen ist, was schneller und besser ist.

du zweifelst an ixbt.com, nur weil es Russen sind? die gehören mit zu den kompetentesten überhaupt...

Ich zweifel nicht an Ihnen, weil sie Russen sind, sondern ich zweifel an Lolmans Objektivität weil er wohl sehr lange suchen mußte (deshalb 'ne russische Seite) bevor er "passende" Ergebnisse gefunden hat.

Gouvernator
2007-06-14, 12:57:49
Ich bin vielleicht etwas begriffsstutzig, aber ich verstehe nicht :O

Also, mit solchen Auflösungen und vor allem in solchen (alten) Spielen wie FarCry kamen sogar Vorgängerkarte sehr gut zurecht. Ohne leistungsfressendes AAA/TSSAA kannst du noch viel höher aufdrehen.

puntarenas
2007-06-14, 12:59:57
Verstehe, danke für die Klarstellung.

Gast
2007-06-14, 13:04:23
Hätte der Hund nicht geschissen, hätte er den Hasen gefangen.

Das gleiche könnte man von deiner Aussage sagen.

Übrigens kann man auch bei der GTX den Takt anheben - nur zur Info...

Nö, könnte man nicht. Hat man schon. Und diese Karten liegen weit außerhalb des 300€ Segments.

Gast
2007-06-14, 13:11:24
ROFL. Hat er unpassende Ergebnisse unterschlagen? Wieso ist Stalker eigentlich nicht dabei :D? Wegen den fast 50% Performanceunterschied?

Hätte der Hund nicht geschissen, hätte er den Hasen gefangen.
Übrigens kann man auch bei der GTX den Takt anheben - nur zur Info...

So, hier dann mal meine Links:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/38/#abschnitt_fazit
Ich weiß, der Treiber war älter - NV hat inzwischen aber den 158.27 abgefeuert, in vielen neuen Spielen ist der 15-40% schneller.
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=24
Anandtech zieht zwar ein positives Fazit, aber wenn man sich die Tests ansieht, die mit AA/AF gemacht wurden, sieht man, daß die 2900XT nur einen davon gewinnen kann
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546&seite=13
"Platziert sich auf GTS Niveau, wenn man beide Augen zudrückt"

So, das sind jetzt 3 größere Seiten. Und kommt mir nicht mit dem Treiber, bei NV wurde auch nicht mit dem 158.27 getestet.



Dann sieh Dir die drei Links an. Klar glaube ich Wesker auch, aber auf seinem PC läuft doch nichts mehr wie im Auslieferungszustand :D - da sieht es doch bestimmt aus wie in einem NASA-Labor. Alle Hardware ist übertaktet, so daß es schwer festzustellen ist, was schneller und besser ist.


Ich zweifel nicht an Ihnen, weil sie Russen sind, sondern ich zweifel an Lolmans Objektivität weil er wohl sehr lange suchen mußte (deshalb 'ne russische Seite) bevor er "passende" Ergebnisse gefunden hat.

Nope! Alle neueren Reviews sprechen aus performance-relevanter Sicht pro ATI, im Verleich zur GTS640.

J0ph33
2007-06-14, 13:14:37
Ich zweifel nicht an Ihnen, weil sie Russen sind, sondern ich zweifel an Lolmans Objektivität weil er wohl sehr lange suchen mußte (deshalb 'ne russische Seite) bevor er "passende" Ergebnisse gefunden hat.

da muss man nicht suchen, ixbt.com ist nen pflichtreview, weil man halt weiß, dass die es draufhaben...im ggs. zu hwluxx z.B.

james ryan schrieb vorhin, dass viele dort mit der XT nicht zufrieden sind, dabei muss man sagen, dass dort auch viele sehr zufrieden mit der karte sind und dass die noobquote im hwluxx unglaublich hoch ist...was da manchmal erzählt wird, hanebüchend

Mr. Lolman
2007-06-14, 13:19:25
ROFL. Hat er unpassende Ergebnisse unterschlagen?

ROFL, hat er plötzlich nix anders mehr zu meckern? Ich hab ein paar Ergebnisse rausgesucht, die Zeigen, dass der R600 durchaus gut dastehen kann. Dass er bei Call of Juarez DX9 abkackt ist ja nix neues. V.a. für dich nicht, oder? ;)

DX10 schauts schon wieder anders aus. Das sieht man übrigend aber alles, wenn man auf den Link da klickt: http://www.ixbt.com/video3/r600-part3-d.shtml ;)



lolman ist zwar einer, der nicht immer durch objektivität auffällt, aber in diesem punkt hat er einfach mal recht...auch das urteil von wesker sollte man nicht ignorieren, der im gegensatz zu dir sowohl die GTS, die GTX und jetzt die XT hat(te)...

Klar, mag ich etwas ATi freundlich rüberkommen. Tatsächlich bin ich einfach ein Gegenpol zu der ATi-Basherei. Würde man die nicht tw. grundlos bashen, dann würd ich auch meine Frexxe halten.

Wenn du aber ein konkretes Beispiel findest, wo ich offensichtlich NICHT objektiv war, dann bitte sags mir. Die meisten hier sind anscheinend nichtmal lang genug hier, um zu wissen, dass ICH es war, der die R300 Filterqualität kritisiert hat, und die Kritik mit Beispielen untermauert hat. (und war damit wohl der 1. weltweit war, der mit der Kritik gleich nen animierten Ingame Beweis mitgeliefert hat)

Aber nen, da laufen Kinders herum und glauben einfach, dass ich NICHT objektiv bin, bloß weil ich so oft für ATI Partei ergreife, wenn wiedermal dumm herumgebasht wird (und zwar V.a. von Leuten die sich ein paar Benchmarks angesehen haben und dann glauben sie hätten den absoluten Durchblick). Wobei das 3DC da eigentlich eh noch ein relativ ruhiges Pflaster ist.


zB geht man in HWLuxx Wesker an, bloß weil er Zahlen erbencht hat, die zeigen, dass ATi eigentlich doch recht gut dasteht. Da wird dann schonmal schnell ein Computerbasereview verlinkt und behauptet, dass mit dem Catalyst 7.5 gebencht wurde (was ne astreine Lüge ist). Alle fressen das und selbst 10 Seiten später ist noch niemand auf die Idee gekommen, nachzusehen, um dann vll. bemerken zu können, dass es doch der ATi Catalyst 8.37.4.3 war (der augenscheinlich langsamste im Computerbase Treibervergleich)

desert
2007-06-14, 13:21:38
nun macht die karte mal nicht schlechter als sie ist. Sie bietet für das geld ansprechende leistung, und ist jederzeit konkurrenzfähig zu nvidia´s gf8800 gts.

Mal langsamer als eine 8800 gts, mal schneller. Also genauso was was ail schon seit monaten gesagt hat.

Wird ja teilweise so getan als, ob man ihr garnicht spielen kann.

Gast
2007-06-14, 13:23:01
Naja, die HD 2900 XT weckte halt Riesenerwartungen die bitter-böse enttäuscht wurden, gerade bei denen die gewartet haben (mich zum Beispiel ;) ).

wenn sich ein produkt über ein halbes jahr verspätet weckt das riesenerwartungen?

J0ph33
2007-06-14, 13:24:02
Klar, mag ich etwas ATi freundlich rüberkommen. Tatsächlich bin ich einfach ein Gegenpol zu der ATi-Basherei. Würde man die nicht tw. grundlos bashen, dann würd ich auch meine Frexxe halten.

Wenn du aber ein konkretes Beispiel findest, wo ich offensichtlich NICHT objektiv war, dann bitte sags mir. Die meisten hier sind anscheinend nichtmal lang genug hier, um zu wissen, dass ICH es war, der die R300 Filterqualität kritisiert hat, und die Kritik mit Beispielen untermauert hat. (und war damit wohl der 1. weltweit war, der mit der Kritik gleich nen animierten Ingame Beweis mitgeliefert hat)

Aber nen, da laufen Kinders herum und glauben einfach, dass ich NICHT objektiv bin, bloß weil ich so oft für ATI Partei ergreife, wenn wiedermal dumm herumgebasht wird (und zwar V.a. von Leuten die sich ein paar Benchmarks angesehen haben und dann glauben sie hätten den absoluten Durchblick). Wobei das 3DC da eigentlich eh noch ein relativ ruhiges Pflaster ist.


zB geht man in HWLuxx Wesker an, bloß weil er Zahlen erbencht hat, die zeigen, dass ATi eigentlich doch recht gut dasteht. Da wird dann schonmal schnell ein Computerbasereview verlinkt und behauptet, dass mit dem Catalyst 7.5 gebencht wurde (was ne astreine Lüge ist). Alle fressen das und selbst 10 Seiten später ist noch niemand auf die Idee gekommen, nachzusehen, um dann vll. bemerken zu können, dass es doch der ATi Catalyst 8.37.4.3 war (der augenscheinlich langsamste im Computerbase Treibervergleich)


nun ja, du hast einen etwas provokanten schreibstil, so dass öfters der eindruck entsteht, du seist etwas pro-ATi ;)

das hwluxx voller nichtswisser ist, hatte ich ja schon im letzten post geschrieben ;)

James Ryan
2007-06-14, 13:26:37
Trotzdem ist es so, dass nur bei dukee aka wesker die HD 2900 XT gut gegen eine Gf 8800 GTS dasteht.

Er hat eine übertaktete HD 2900 XT gegen eine stark übertaktete GTS/640 verglichen und die Radeon war schneller. Wer sagt denn dass die GTS nicht den Takt gethrottelt hat, und damit deutlich langsamer lief? Die Gf 8800 GTS throttelt nämlich nicht nur bei einer zu hohen Temp sondern auch wenn sie sich aufgrund einer hohen Übertaktung verrechnet. Dies habe ich bspw. bei meiner GTS beobachtet, der Takt geht alle 30 Sekunden für 0,1 Sekunde stark zurück wenn ich sie zu hoch übertakte. Dementsprechend schlecht ist dann die Leistung in Benchmarks!

Ich habe fdsonne aus dem Hwluxx nach einer Benchrunde in FEAR gefragt, gleiche Einstellungen (max. Details, 1280*1024, 4*FSAA + 16*AF, Soft-Shadows Off), er hat eine HD 2900 XT gut übertaktet und einen Quadcore. Meine GTS zersägte seine Radeon doch deutlich was mich selber wunderte.
Passt nicht so ganz zu weskers Ergebnissen oder?

MfG :cool:

Odal
2007-06-14, 13:28:37
da muss man nicht suchen, ixbt.com ist nen pflichtreview, weil man halt weiß, dass die es draufhaben...im ggs. zu hwluxx z.B.

james ryan schrieb vorhin, dass viele dort mit der XT nicht zufrieden sind, dabei muss man sagen, dass dort auch viele sehr zufrieden mit der karte sind und dass die noobquote im hwluxx unglaublich hoch ist...was da manchmal erzählt wird, hanebüchend

das kann ich nur unterstreichen...im hwluxx haben die reviewer und die mods sowieso alle ein sli system bzw. hardware von nvidia das forum ist dadurch total grün...da wird auch nicht eingeschritten wenn die "nvidianer" einen r600 thread komplett zuspamen und dort den R600 totbashen...

mittlerweile geht mir dieses virtuelle schwanzvergleichen sowieso gehörig auf den senkel...soll sich doch jeder kaufen was er mag...man sollte eben nur stärker moderieren das z.b. im R600 thread nicht gegen den R600 geflamed wird und im G80 thread nicht gegen den G80

mittlerweile weiß man wirklich nicht mehr was man noch ernst nehmen kann...informationsgehalt meistens gleich 0

am besten man kauft sich beide karten und gibt die schlechtere zurück....

James Ryan
2007-06-14, 13:29:48
wenn sich ein produkt über ein halbes jahr verspätet weckt das riesenerwartungen?

Klar: Je später die Karte desto schneller im Vergleich zur Konkurrenz! ;)
So jedenfalls war und ist heutzutage die Meinung, welche von diversen Fanboys noch untermauert wurde.

MfG :cool:

Mr. Lolman
2007-06-14, 13:30:27
Ich habe fdsonne aus dem Hwluxx nach einer Benchrunde in FEAR gefragt, gleiche Einstellungen (max. Details, 1280*1024, 4*FSAA + 16*AF, Soft-Shadows Off), er hat eine HD 2900 XT gut übertaktet und einen Quadcore. Meine GTS zersägte seine Radeon doch deutlich was mich selber wunderte.
Passt nicht so ganz zu weskers Ergebnissen oder?

MfG :cool:

Keine Ahnung was da los ist. Weskers Ergebnisse decken sich mit denen von digit-life und beiden trau ich genügend Kompetenz zu. Dass bei Systemübergreifenden Benchmarks immer wo der Hund begraben sein kann, ist ja auch nix neues. Habt ihr das gleiche OS verwendet? Gleiche RAM-Timings/Ausstattung?


Ich zweifel nicht an Ihnen, weil sie Russen sind, sondern ich zweifel an Lolmans Objektivität weil er wohl sehr lange suchen mußte (deshalb 'ne russische Seite) bevor er "passende" Ergebnisse gefunden hat.

1. ist das Review schon 3 Wochen alt (Teile davon sind sogar schon direkt zum Release des R600 erschienen) und ca. ebensolang ist mir das Review schon bekannt

2. zeugt deine Kritik bloß von Unverständnis. ixbt = Digit-life und Digit-life ist quasi Pflicht, wenn man kompentente Tests lesen will. Auch deren (zT schon älteren) Untersuchungen der Darstellungsqualität haben tw. Maßstäbe gesetzt.

3. Wurde ironischerweise eben dieses Review auch von Lovesucks im 1. Post des 1. Teils dieses Threads verlinkt. Also selbst für die Suchfaulen lockerst einsehbar.

J0ph33
2007-06-14, 13:36:12
Trotzdem ist es so, dass nur bei dukee aka wesker die HD 2900 XT gut gegen eine Gf 8800 GTS dasteht.

Er hat eine übertaktete HD 2900 XT gegen eine stark übertaktete GTS/640 verglichen und die Radeon war schneller. Wer sagt denn dass die GTS nicht den Takt gethrottelt hat, und damit deutlich langsamer lief? Die Gf 8800 GTS throttelt nämlich nicht nur bei einer zu hohen Temp sondern auch wenn sie sich aufgrund einer hohen Übertaktung verrechnet. Dies habe ich bspw. bei meiner GTS beobachtet, der Takt geht alle 30 Sekunden für 0,1 Sekunde stark zurück wenn ich sie zu hoch übertakte. Dementsprechend schlecht ist dann die Leistung in Benchmarks!

Ich habe fdsonne aus dem Hwluxx nach einer Benchrunde in FEAR gefragt, gleiche Einstellungen (max. Details, 1280*1024, 4*FSAA + 16*AF, Soft-Shadows Off), er hat eine HD 2900 XT gut übertaktet und einen Quadcore. Meine GTS zersägte seine Radeon doch deutlich was mich selber wunderte.
Passt nicht so ganz zu weskers Ergebnissen oder?

MfG :cool:

ich denke wesker hat genug erfahrung bzgl. OC um sowas zu merken....
nebenbei bestätigen auch die meisten reviews, dass die karte schneller als eine GTS ist, mit AA/AF eben nur ein bisschen...

warum du nun gegen fdsonnes XT haushoch gewinnst...kA, quadcore bringts auch nicht immer, vielleicht ist dein c2d(?) höher getaktet, wenn ihr mit soft shadows getestet habt, diese einzustellen ist etwas fummelig...es kann viele gründe geben

Lawmachine79
2007-06-14, 14:09:10
ich denke wesker hat genug erfahrung bzgl. OC um sowas zu merken....
nebenbei bestätigen auch die meisten reviews, dass die karte schneller als eine GTS ist, mit AA/AF eben nur ein bisschen...

warum du nun gegen fdsonnes XT haushoch gewinnst...kA, quadcore bringts auch nicht immer, vielleicht ist dein c2d(?) höher getaktet, wenn ihr mit soft shadows getestet habt, diese einzustellen ist etwas fummelig...es kann viele gründe geben
Die MEISTEN Reviews von den GRÖSSEREN Seiten belegen, daß die 2900XT OHNE AA/AF schneller ist und mit AA/AF langsamer, in einigen Spielen DEUTLICH und bei Stalker weiß sowieso nur der liebe Gott, warum das Arithmetikmonster R600 in einem derart Shader/ALU-intensiven Spiel so untergeht...

Gast
2007-06-14, 14:14:24
Die MEISTEN Reviews von den GRÖSSEREN Seiten belegen, daß die 2900XT OHNE AA/AF schneller ist und mit AA/AF langsamer, in einigen Spielen DEUTLICH und bei Stalker weiß sowieso nur der liebe Gott, warum das Arithmetikmonster R600 in einem derart Shader/ALU-intensiven Spiel so untergeht...

Stalker ist nicht Arithmetiklastig.

deekey777
2007-06-14, 14:23:57
Hehe - man muss schon so genau selektieren, um einen Test zu finden, wo die 2900XT überlegen ist, daß es in nur in russischer Sprache gibt, ich denke deutsche und englische Tests in denen der R600@hohe Auflösung@zeitgemäßem AA/AF schneller ist, kann man lange suchen.

http://www.digit-life.com/articles2/video/r600-part1.html
So langsam sollte es sich herumgesprochen haben, dass iXBT eine englischsprachige Ablegerseite hat und zwar Digit-Life.
Leider ist iXBT kompenter als viele Seiten in Deutsch und Englisch zusammen.

Mr. Lolman
2007-06-14, 14:36:45
in einigen Spielen DEUTLICH und bei Stalker weiß sowieso nur der liebe Gott, warum das Arithmetikmonster R600 in einem derart Shader/ALU-intensiven Spiel so untergeht...

Alles nur eine Frage der Treiber: http://www.techspot.com/review/52-asus-radeon-hd-2900xt/page7.html

Die MEISTEN Reviews von den GRÖSSEREN Seiten belegen, daß die 2900XT OHNE AA/AF schneller ist und mit AA/AF langsamer,

Du hast wohl keine Ahnung wie groß (http://www.alexa.com/data/details/traffic_details?site0=www.ixbt.com&site1=www.anandtech.com&site2=www.tomshardware.com&site3=www.computerbase.de&site4=www.techspot.com&y=p&z=3&h=300&w=610&range=3m&size=Medium&url=digit-life.com/) ixbit ist. (Tabelle exkl. der Digit-life Pageviews) - mal abgesehen davon, dass sich im ggs zu ixbt die MEISTEN anderen GRÖSSEREN Seiten in der Vergangenheit duch div. Pfusch beim Testen ausgezeichnet haben

Lawmachine79
2007-06-14, 14:41:18
Stalker ist nicht Arithmetiklastig.
Wenn man dynamische Beleuchtung ausschaltet nicht mehr.

Gast
2007-06-14, 15:02:27
Leider ist iXBT kompenter als viele Seiten in Deutsch und Englisch zusammen.

Das machst du woran fest?

LovesuckZ

Lawmachine79
2007-06-14, 15:03:08
Leider ist iXBT kompenter als viele Seiten in Deutsch und Englisch zusammen.

Das sieht Lolman genauso.


2. zeugt deine Kritik bloß von Unverständnis. ixbt = Digit-life und Digit-life ist quasi Pflicht, wenn man kompentente Tests lesen will.

Oder doch nicht? Lesen wir doch mal weiter.


edit: andererseits ist die Kantenauswahl wiederum so mies, dass 8xAA um garnix besser aussieht als 6xAA. Also muss man ihnen wohl eher doch Unvermögen vorwerfen...

ROFL.
Hab ich beim Stöbern im G90-Thread gefunden.
Habe es kurz überflogen - habe ich es richtig verstanden, daß
1) 8xS vs. 6xMSAA gebenched wurde und
2) 8xMSAA vs. 6xMSAA gebenched wurde?

deekey777
2007-06-14, 15:06:25
Das machst du woran fest?

LovesuckZ
Weil ich es sage.

Soll ich noch für dich erklären, warum B3D kompetent ist?

deekey777
2007-06-14, 15:15:48
Das sieht Lolman genauso.



Oder doch nicht? Lesen wir doch mal weiter.



ROFL.
Hab ich beim Stöbern im G90-Thread gefunden.
Habe es kurz überflogen - habe ich es richtig verstanden, daß
1) 8xS vs. 6xMSAA gebenched wurde und
2) 8xMSAA vs. 6xMSAA gebenched wurde?
Was ist hier eigentlich los?
Schreibst du iXBT die Kompetenz ab, weil dir ihre Ergebnisse nicht passen, wie ist das jetzt zu verstehen?
Remember that today many games are bottlenecked by CPUs and systems in general, so even the most powerful graphics card might not be able to show its potential in AA 4x and AF 16x modes. Therefore, examining previous top-performing products, we have added a new HQ (High Quality) mode, which stands for:
ATI RADEON X1xxx: AA 6x + adaptive AA + AF 16x High Quality
ATI RADEON X2xxx: AA 8x + adaptive AA + AF 16x.
NVIDIA GeForce 7xxx/8xxx: AA 8x + TAA (MS with gamma correction) + AF 16x
Also wo HQ steht, dann wurde mit oben genannten Einstellungen getestet.
http://www.ixbt.com/video3/r600-part3-d.shtml#p18

LovesuckZ
2007-06-14, 15:16:03
Weil ich es sage.
Soll ich noch für dich erklären, warum B3D kompetent ist?

Ich weiß, warum B3D kompetent ist, ich weiß nicht, warum ixbt bzw. digit-life auf dem gleichen Level sein sollte.
Erkläre das doch bitte.

Lawmachine79
2007-06-14, 15:16:26
Weil ich es sage.

Soll ich noch für dich erklären, warum B3D kompetent ist?
Meinst Du die B3D-Seite, die nach ihrem R600 Review das Fazit gezogen hat, daß NVidia ATI die BQ-Krone weggenommen hat?

Lawmachine79
2007-06-14, 15:27:45
Was ist hier eigentlich los?
Schreibst du iXBT die Kompetenz ab, weil dir ihre Ergebnisse nicht passen, wie ist das jetzt zu verstehen?

Also wo HQ steht, dann wurde mit oben genannten Einstellungen getestet.
http://www.ixbt.com/video3/r600-part3-d.shtml#p18
Ich schreibe ihnen nicht die Kompetenz ab. Nur, wie gesagt, Lolman die Objektivität - hier stellt er ixbt als Maß aller Dinge dar, in einem anderen Thread erklärt er sie für unfähig - wie es eben gerade in die Argumentation passt.
Davon ab, die drei Links die ich gepostet habe, werden hier einfach als "unseriöse Tests, voll von Fehlern" abgestempelt und der ixbt Test soll den einzig wahren Test haben?!?
Und in dem Kontext, daß
8xS und 8xMSAA vs. 6xMSAA gebenched werden, muß man ihnen sehr wohl die Kompetenz absprechen!

puntarenas
2007-06-14, 15:28:05
http://www.digit-life.com/articles2/video/r600-part1.html
So langsam sollte es sich herumgesprochen haben, dass iXBT eine englischsprachige Ablegerseite hat und zwar Digit-Life.
Leider ist iXBT kompenter als viele Seiten in Deutsch und Englisch zusammen.

Aus dem verlinkten Digit-Life Artikel, Part 4. AF & AA Quality: (http://www.digit-life.com/articles2/video/r600-part4.html)
Conclusions on quality

So, the new series of video cards from AMD noticeably improved the quality demonstrated by its predecessors. Or it didn't make it worse, to say the least.

Although the high quality of anisotropic filtering is insignificantly lower than AF quality of competing modern cards, it is still more than sufficient for 3D games. Minor flaws of AF with 45° surfaces will hardly be noticeable in real games.

On the whole, AF quality is similar to that of competing products, so it's practically impossible to appoint a leader here.

Nach Anmerkungen zum Antialiasing kommt dann das Gesamtfazit:
Thus speaking of the quality of anisotropic filtering and antialiasing, we can establish the fact that GeForce 8 and Radeon HD 2000 cards are on a par. And that's wonderful, because you will be pleased no matter what choice you make!

Ja was denn nun, so ähnlich hat sich das zuerst ja auch im Review hier bei 3DCenter gelesen, mittlerweile hört man aber allerorten und auch von 3DC-Crew Membern, die AF-Qualität des R600 sei deutlich schlechter als die eines G80 und mitunter sogar unzumutbar. Das mag daran liegen, dass bei Digit-Life nicht auf die Flimmerproblematik geachtet wurde. Wie auch immer, ich verzweifle langsam, denn im Forum wird fröhlich gebasht und in den Artikeln sind sich die Schreiber uneinig. Muss man sich wirklich erst eine Karte jedes Herstellers kaufen um sich ein Bild zu machen?

deekey777
2007-06-14, 15:29:55
Ich weiß, warum B3D kompetent ist, ich weiß nicht, warum ixbt bzw. digit-life auf dem gleichen Level sein sollte.
Erkläre das doch bitte.
Habe ich iXBT irgendwie auf das Level von B3D gesetzt? Nein. Ich habe nur geschrieben, dass diese Seite kompetenter ist als viele Seiten auf Deutsch oder Englisch zusammen.
Wenn du eine sprachliche Barriere hast, dann kennst du höchstens die Artikel, die auf Digit-Life zu finden sind.
Ich kenne keine Seite, die fast jeden Monat einen Performance-Report unter Verwendung aktueller Treiber samt Performance-Rating bringt. Da ist CBs Performance-Rating höchstens nett gemeint.
Auch wenn die Redakteure eher Diktatoren sind und kaum Kritik vertragen können/wollen, so sind ihre Reviews fast wasserdicht durchgeführt, sprich es ist nicht leicht Fehler zu finden.

Gast
2007-06-14, 15:41:21
Ja was denn nun, so ähnlich hat sich das zuerst ja auch im Review hier bei 3DCenter gelesen, mittlerweile hört man aber allerorten und auch von 3DC-Crew Membern, die AF-Qualität des R600 sei deutlich schlechter als die eines G80 und mitunter sogar unzumutbar. Das mag daran liegen, dass bei Digit-Life nicht auf die Flimmerproblematik geachtet wurde. Wie auch immer, ich verzweifle langsam, denn im Forum wird fröhlich gebasht und in den Artikeln sind sich die Schreiber uneinig. Muss man sich wirklich erst eine Karte jedes Herstellers kaufen um sich ein Bild zu machen?

Nein, du musst nur ein paar Wochen nach Release der Grafikkarten in div. Foren nachlesen oder Fragen. Hier wurden ja auch schon Screenshots angefertigt und verglichen. Problem kann beim jetzigen Stand der Treiber sein das alte AI "Einstellungen" im Treiber selber evtl. Filtertricks aktiv haben die für X1x00 Serie noch gelten.

Generell ist wohl aber der Tenor das die AF Qualität sich nicht verbessert hat und es in Zukunft sich nichts daran ändern wird, da die Füllrate einfach fehlt und man die "Highend" Karte nicht langsamer machen will.

4711
2007-06-14, 15:42:58
Ich schreibe ihnen nicht die Kompetenz ab. Nur, wie gesagt, Lolman die Objektivität - hier stellt er ixbt als Maß aller Dinge dar, in einem anderen Thread erklärt er sie für unfähig - wie es eben gerade in die Argumentation passt.
Davon ab, die drei Links die ich gepostet habe, werden hier einfach als "unseriöse Tests, voll von Fehlern" abgestempelt und der ixbt Test soll den einzig wahren Test haben?!?
Und in dem Kontext, daß
8xS und 8xMSAA vs. 6xMSAA gebenched werden, muß man ihnen sehr wohl die Kompetenz absprechen!

Laß es doch gut sein und reib Dich nicht auf.
Die Herren ATI werden es sich immer so hin drehen wie sie es brauchen es nützt nur nix,denn die Tatsachen sprechen für sich und deshalb schreibt auch im Grund keiner mehr was dazu außer sie selbst..geschenktem Gaul schaut man nicht ins Maul..gelle :D
Sei klug und ignoriere sie einfach dann hört das von alleine auf.

Lawmachine79
2007-06-14, 15:44:33
Laß es doch gut sein und reib Dich nicht auf.
Die Herren ATI werden es sich immer so hin drehen wie sie es brauchen es nützt nur nix,denn die Tatsachen sprechen für sich und deshalb schreibt auch im Grund keiner mehr was dazu außer sie selbst..geschenktem Gaul schaut man nicht ins Maul..gelle :D
Sei klug und ignoriere sie einfach dann hört das von alleine auf.

Hast Recht - ich gehe jetzt mein Supersampling geniessen...

J0ph33
2007-06-14, 16:00:50
wer hält sich denn an fakten? außerdem welche "herren ATI"?!

ihr ignoriert ein review einer der renommiertesten seiten überhaupt, haltet teilweise hwluxx-reviews oder das launch-review von CB dagegen...

ich, der ich übrigens recht zufrieden mit meiner 7900GX2 bin, wollte nur klarstellen, dass die XT schneller als eine 8800GTS ist, jedoch nicht mit einer 8800GTX konkurrieren kann, belegt wurde diese meinung auch
und nun genießt euer supersampling mit alten spielen, tue ich auch...auch wenn es in quake4 (2005!) nicht durchgängig nutzbar ist

Lawmachine79
2007-06-14, 16:05:39
ich, der ich übrigens recht zufrieden mit meiner 7900GX2 bin, wollte nur klarstellen, dass die XT schneller als eine 8800GTS ist, jedoch nicht mit einer 8800GTX konkurrieren kann, belegt wurde diese meinung auch
und nun genießt euer supersampling mit alten spielen, tue ich auch...auch wenn es in quake4 (2005!) nicht durchgängig nutzbar ist
und ich, der ich mir übrigens soeben eine X1950Pro bestellt habe, wollte nur klarstellen, daß die meisten Seiten aussagen, daß unter Qualitysettings(!) die 88GTS z.T. deutlich schneller ist. Quake 4 ist nicht so mein Fall - BF2 schon eher - und da ist es durchgängig nutzbar - sogar 16xS.

Gast
2007-06-14, 16:21:13
hier steht aussage gegen aussage (du gegen wesker)....letzterem traue ich bei aller achtung etwas mehr zu...

jep, zumal gouvernators karte schon länger weg ist und er nichtmal funktionierende treiber hatte.
seit damals hat sich viel getan. daher ist wesker die bessere wahl.

http://www.digit-life.com/articles2/video/r600-part1.html
So langsam sollte es sich herumgesprochen haben, dass iXBT eine englischsprachige Ablegerseite hat und zwar Digit-Life.
Leider ist iXBT kompenter als viele Seiten in Deutsch und Englisch zusammen.
ja das stimmt, kompetent sind sie. und die ergebnisse lassen sich von mutigen zeitgenossen auch selber rekonstruieren.
kauft euch einfach mal so eine karte (bei halbwegs guter rest-hardware) und probiert es selber aus. dann werdet ihr sehen.

Gast
2007-06-14, 16:22:26
und nun genießt euer supersampling mit alten spielen, tue ich auch...auch wenn es in quake4 (2005!) nicht durchgängig nutzbar istLeistungsmäßig sollte zumindest 4xS auch in Quake 4 mit einer 8800 einwandfrei nutzbar sein. Das Problem ist wohl eher, dass 4xS nur unter D3D funktioniert, wenn ich mich recht erinnere.

Gast
2007-06-14, 16:23:12
Vereinfacht gesagt ist die Karte nicht besser wie eine 1950XTX (sieht Lolman's Farcry Bench). Und für mich ist eine neue Karte die nicht schneller ist wie die alte in alten Spielen - keinen Pfenning wert.

das ist ja wohl voll der witz.
sich einen einzigen bench raus zu suchen und sowas zu behaupten.

wieso hast du dir dann eine GTS gekauft?
die ist in diesem bench langsamer als eine X1950XT und eine 2900XT zusammen. ich glaub noch langsamer geht garnicht mehr.

J0ph33
2007-06-14, 16:29:50
Leistungsmäßig sollte zumindest 4xS auch in Quake 4 mit einer 8800 einwandfrei nutzbar sein. Das Problem ist wohl eher, dass 4xS nur unter D3D funktioniert, wenn ich mich recht erinnere.

mit einer 8800 wird auch 8*S wohl klappen, bezog mich aber auf meine 7900GX2, mit der ist das nicht möglich...deswegen auch die 2005 in klammern, um zu verdeutlichen, dass dies schon als "älteres" spiel gewertet werden muss, und ich mit highend von mitte 2006 trotzdem kein Supersampling nutzen kann

Lawmachine79
2007-06-14, 16:38:06
mit einer 8800 wird auch 8*S wohl klappen, bezog mich aber auf meine 7900GX2, mit der ist das nicht möglich...deswegen auch die 2005 in klammern, um zu verdeutlichen, dass dies schon als "älteres" spiel gewertet werden muss, und ich mit highend von mitte 2006 trotzdem kein Supersampling nutzen kann
Ähhh - ich meine aber bestimmt keine GX2 sondern eine 88GTS. Also in Doom 3 kann ich flüssig in 16x10@alles Max@16xS spielen - weiß nicht wieviel aufwändiger Q4 ist. Hat jemand eine Benchanleitung für Q4?
Ach ja, mir fällt da doch noch was Positives beim R600 ein - kann es sein, daß CF immer noch problematisch ist, inzwischen aber besser skaliert als SLI?

J0ph33
2007-06-14, 16:39:47
du hast meinen post gelesen?

ja, quake4 ist einiges aufwendiger als Doom3

Gast
2007-06-14, 16:49:01
ja, quake4 ist einiges aufwendiger als Doom3Bei mir hat sich die Performance von Quake4 und D3 nicht sonderlich unterschieden.

Mr. Lolman
2007-06-14, 16:55:25
Ähhh - ich meine aber bestimmt keine GX2 sondern eine 88GTS. Also in Doom 3 kann ich flüssig in 16x10@alles Max@16xS spielen - weiß nicht wieviel aufwändiger Q4 ist. Hat jemand eine Benchanleitung für Q4?
Ach ja, mir fällt da doch noch was Positives beim R600 ein - kann es sein, daß CF immer noch problematisch ist, inzwischen aber besser skaliert als SLI?

Wieso solte eine 8800GTS soviel schneller sein als eine 7900GX2 - bei genau gleicher Texelfüllrate?

J0ph33
2007-06-14, 17:00:10
die GX2 lief noch mit 575 oder 600mhz core...bei 8*S ist der SLI-Balken übrigens immer voll :)

Gouvernator
2007-06-14, 17:14:46
das ist ja wohl voll der witz.
sich einen einzigen bench raus zu suchen und sowas zu behaupten.

wieso hast du dir dann eine GTS gekauft?
die ist in diesem bench langsamer als eine X1950XT und eine 2900XT zusammen. ich glaub noch langsamer geht garnicht mehr.

:D
Die habe ich nicht gekauft die habe ich ertauscht - rate mal gegen was.

Wie gesagt FarCry lief auf meiner 2900XT gar nicht das ich mit ihr etwas benchen konnte. Aber dieser FarCry Bench beschreibt sehr gut was einen in allen älteren Spielen erwartet, nämlich das eine 1950XTX schneller ist =)

J0ph33
2007-06-14, 17:35:35
ach mensch, noch jmd der vom ATi-Fanboy zum nV-Fanboy mutierte...

das solche leute nicht einmal halbwegs objektiv sein können

Gouvernator
2007-06-14, 17:40:03
ach mensch, noch jmd der vom ATi-Fanboy zum nV-Fanboy mutierte...

das solche leute nicht einmal halbwegs objektiv sein können

Hä? Wo soll ich bitte zum NV fanboy mutiert sein? :D Mir sind beide Hersteller zum kotzen geworden. Und ich kriege bald eine 1950XTX ... die GTS kommt wahrscheinlich weg.

J0ph33
2007-06-14, 17:48:53
mit den aussagen, 8800GTS um welten besser....sicher, eine schlechte karte ist das nicht, das gesamtpaket mag subjektiv auch besser sein, ABER sie ist im schnitt langsamer als ne XT

Blaire
2007-06-14, 17:51:26
http://enthusiast.hardocp.com/article.html?art=MTM1MSwxLCxoZW50aHVzaWFzdA==

Radeon HD 2900 XT vs. 320MB 8800 GTS ;D

"We hoped newer driver revisions would improve performance on the ATI Radeon HD 2900 XT. With the newer driver we used for this evaluation we did not see any “magic” happen when it comes to real world gaming experiences at resolutions at and above 1600x1200. The ATI Radeon HD 2900 XT is not even a match for even the much less expensive and much less power hungry 320 MB GeForce 8800 GTS."

Gouvernator
2007-06-14, 17:52:12
mit den aussagen, 8800GTS um welten besser....sicher, eine schlechte karte ist das nicht, das gesamtpaket mag subjektiv auch besser sein, ABER sie ist im schnitt langsamer als ne XT
Ich spiele zum Grossteil nur ältere Spiele und da ist sie wirklich um Welten besser.

Mumins
2007-06-14, 18:01:57
http://enthusiast.hardocp.com/article.html?art=MTM1MSwxLCxoZW50aHVzaWFzdA==

Radeon HD 2900 XT vs. 320MB 8800 GTS ;D

"We hoped newer driver revisions would improve performance on the ATI Radeon HD 2900 XT. With the newer driver we used for this evaluation we did not see any “magic” happen when it comes to real world gaming experiences at resolutions at and above 1600x1200. The ATI Radeon HD 2900 XT is not even a match for even the much less expensive and much less power hungry 320 MB GeForce 8800 GTS."

Was für ein Schwachsinn. Schau mal die Ergebnisse an, wie daraus schließen, dass die 320MB GTS besser ist, hm Rätsel. Dann noch unterschiedliche Settings.

J0ph33
2007-06-14, 18:04:06
Ich spiele zum Grossteil nur ältere Spiele und da ist sie wirklich um Welten besser.

joa, da kann man dann SSAA einsetzen, das ist natürlich schön, aber da tuts auch ne GX2 oder ne X1950....

Lawmachine79
2007-06-14, 18:07:57
joa, da kann man dann SSAA einsetzen, das ist natürlich schön, aber da tuts auch ne GX2 oder ne X1950....
Das geht mit einer X1950 nicht...oder irgendwo einen "4x4" oder "32xS" Button gesehen? Ich meine jetzt WIRKLICH ältere Spiele, 2002 und älter.

Gast
2007-06-14, 18:11:57
Was für ein Schwachsinn. Schau mal die Ergebnisse an, wie daraus schließen, dass die 320MB GTS besser ist, hm Rätsel. Dann noch unterschiedliche Settings.

Du hast deren System nicht verstanden. Sie vergleichen keine gleichen Einstellungen sondern gleiche Framezahlen. Wenn Karte a bei einer schlechteren Einstellung 30FPS erreicht und Karte b die 30 FPS bei einer deutlich besseren Einstellung, dann ist für sie Karte b besser.

Gouvernator
2007-06-14, 18:12:59
Ne so alt doch nicht. :D ab 2005 bis jetzt. Da suckt die 2900XT schon mit ihrem normalo 8xAA.

The_Invisible
2007-06-14, 18:15:18
ich finds ja irgendwie geil

zuerst wurde sie als 8800gtx killer verschrien und jetzt muss sie mit einer gts kämpfen

@Gouvernator
was hat den der tausch für einen sinn bitte?

mfg

A.Wesker
2007-06-14, 18:21:59
Ne so alt doch nicht. :D ab 2005 bis jetzt. Da suckt die 2900XT schon mit ihrem normalo 8xAA.
also ich kenne kein Spiel von 2005, das bei mir net mit 1920x1200 8xAA/16AF ohne Probleme läuft.

Lawmachine79
2007-06-14, 18:43:44
also ich kenne kein Spiel von 2005, das bei mir net mit 1920x1200 8xAA/16AF ohne Probleme läuft.
Deine Karte ist auch bis ins Nirvana übertaktet. Keine Grundlage für einen ernsthaften Vergleich.

A.Wesker
2007-06-14, 18:46:01
Deine Karte ist auch bis ins Nirvana übertaktet. Keine Grundlage für einen ernsthaften Vergleich.
das spielt ja keine Rolle, Fakt ist, dass ich das gleiche (Swiftech MCW60 + Voltmod) mit einer GTX und mit einer GTS gemacht habe und das Ergebnis war GTS < XT < GTX.

Gast
2007-06-14, 18:46:23
jo und der kleine Conroe...aber jetzt kommt übertakte doch deine gts auch :D

Slipknot79
2007-06-14, 18:49:17
das spielt ja keine Rolle, Fakt ist, dass ich das gleiche (Swiftech MCW60 + Voltmod) mit einer GTX und mit einer GTS gemacht habe und das Ergebnis war GTS < XT < GTX.



Das gilt aber nur auf dich bezogen. Hier wird mit Benchmarks argumentiert=breite Masse, oder anders: Ausnahmen bestätigen die Regel.

Gast
2007-06-14, 18:51:48
das spielt ja keine Rolle, Fakt ist, dass ich das gleiche (Swiftech MCW60 + Voltmod) mit einer GTX und mit einer GTS gemacht habe und das Ergebnis war GTS < XT < GTX.

jetzt wirste unglaubwürtig......laß die Heinzel doch streiten....2/3 von den Laberköppen hat werder die eine noch die andere Karte.......aber Kluge Sprüche kloppen und Penschmarkes lesen.......LACHHAFT Trockenschwimmer die :D

A.Wesker
2007-06-14, 18:52:49
Das gilt aber nur auf dich bezogen. Hier wird mit Benchmarks argumentiert=breite Masse, oder anders: Ausnahmen bestätigen die Regel.

die 2900XT ist prozentual gesehen am niedrigsten übertaktet, daher sollte es bei Standardtakt nicht viel anders aussehen.

jetzt wirste unglaubwürtig......laß die Heinzel doch streiten....2/3 von den Laberköppen hat werder die eine noch die andere Karte.......aber Kluge Sprüche kloppen und Penschmarkes lesen.......LACHHAFT Trockenschwimmer die :D

worin besteht deiner Meinung nach die "Unglaubwürdigkeit"?

Gast
2007-06-14, 18:54:29
Du weist das schon........

A.Wesker
2007-06-14, 18:54:56
Du weist das schon........
stehe auf dem Schlauch, erläutere mal näher.

falls du den Besitz dieser 3 Karten anzweifelst:

8800 GTX
http://www.abload.de/thumb/qx6700_winxp_3dmark2006_21e3.jpg (http://www.abload.de/image.php?img=qx6700_winxp_3dmark2006_21e3.jpg)

8800 GTS
http://www.abload.de/thumb/3dmark2006_8800gts_341s.jpg (http://www.abload.de/image.php?img=3dmark2006_8800gts_341s.jpg)

2900XT
http://www.abload.de/thumb/r600_925_3dmark0686y.jpg (http://www.abload.de/image.php?img=r600_925_3dmark0686y.jpg)

Bilder dienen nicht zum Vergleich der Performance!

reunion
2007-06-14, 19:05:33
Was waren die Taktraten dieser drei Karten, mit denen du diese Scores erreicht hast?

A.Wesker
2007-06-14, 19:08:30
Was waren die Taktraten dieser drei Karten, mit denen du diese Scores erreicht hast?

GTX --> 786/1075 @ 1.65V --> MCW60 --> Maxtemp --> 66°C
GTS --> 729/985 @ 1.55V --> MCW60 --> Maxtemp --> 55 °C
XT --> 925/950 @ 1.35V --> MCW60 --> Maxtemp --> 65 °C

GTX lief noch mit 90er Treibern (würden wohl mit aktuellen rund 16k sein), die GTS mit 15x.x0er

die 2900XT hat übrigens ab 1.37V eine OverVoltageProtection

Gouvernator
2007-06-14, 20:06:58
also ich kenne kein Spiel von 2005, das bei mir net mit 1920x1200 8xAA/16AF ohne Probleme läuft.

Bei mir mit meiner 1900XTX auch nicht. Ich habe solche Spiele alle in zweifacher Auflösung wie deine (2560x1920) getestet und die waren alle mehr oder weniger gleich (lahm) :D

Raff
2007-06-14, 20:11:14
GTX --> 786/1075 @ 1.65V --> MCW60 --> Maxtemp --> 66°C
GTS --> 729/985 @ 1.55V --> MCW60 --> Maxtemp --> 55 °C
XT --> 925/950 @ 1.35V --> MCW60 --> Maxtemp --> 65 °C

GTX lief noch mit 90er Treibern (würden wohl mit aktuellen rund 16k sein), die GTS mit 15x.x0er

die 2900XT hat übrigens ab 1.37V eine OverVoltageProtection

Was sind denn die Standardspannungen? =)

MfG,
Raff

A.Wesker
2007-06-14, 21:15:06
Was sind denn die Standardspannungen? =)

MfG,
Raff

GTX --> 1.27V
GTS --> 1.20V
XT --> 1.1V

alle Karten liefen bei den Einstellungen 24/7 stable.

Bei mir mit meiner 1900XTX auch nicht. Ich habe solche Spiele alle in zweifacher Auflösung wie deine (2560x1920) getestet und die waren alle mehr oder weniger gleich (lahm) :D

auch bei diesen Qualitätseinstellungen wird es nicht egal sein, ob man einen A64 Singlecore oder einen C2D/C2Q OC nutzt ^^. Da ist es kein Wunder, daß die 2900XT nicht viel bessere Ergebnisse als die 1950XTX zum Vorschein bringt.

Gouvernator
2007-06-14, 21:43:39
auch bei diesen Qualitätseinstellungen wird es nicht egal sein, ob man einen A64 Singlecore oder einen C2D/C2Q OC nutzt ^^.
Du weisst gar nicht in welchen FPS Dimensionen man sich da bewegt, wüsstest du es, würdest dann nix über ein CPU Limit sagen. :D

A.Wesker
2007-06-14, 21:48:49
Du weisst gar nicht in welchen FPS Dimensionen man sich da bewegt, wüsstest du es, würdest dann nix über ein CPU Limit sagen. :D
ich spreche hier nicht von einem C2D @ 3 GHz oder @ 4 GHz. Allein schon die Tatsache, daß man durch Dualcore in so gut wie jedem Spiel einen deutlichen Performanceschub (ob nun durch treiberseitiger SMP optimierung, SMP- Support vom Spiel oder CPU Limitierung) erhält spricht schon dafür, daß man einen A64 Singlecore nicht wirklich als Basis zur Beurteilung einer Grafikkarte nehmen kann.

Wenn ich von den 4 Cores, 3 deaktiviere habe ich schon bei den meisten Spielen deutliche Performanceeinbrüche. Will nicht wissen wie das dann mit einem A64 Singlecore ausschaut.

Grestorn
2007-06-14, 22:38:00
Was für ein Schwachsinn. Schau mal die Ergebnisse an, wie daraus schließen, dass die 320MB GTS besser ist, hm Rätsel. Dann noch unterschiedliche Settings.

Du hast deren Art zu vergleichen nicht verstanden.

Sie ändern die Settings so, dass sie optimal sind bei möglichst ähnlicher (spielbarer) Framerate. Und geben den visuellen Unterschied als Benchmarkergebnis an.

Interessanter und m.E. sehr guter Ansatz.

Gouvernator
2007-06-14, 22:41:36
Hier ein Bild ohne AA von Oblivion. Zeigt denke ich gute Texturqualität ist imho einziger HD2900XT Vorteil.


14Mb, .bmp Format, 2560x1920

http://rapidshare.com/files/37235435/Oblivion_2007-05-17_02-47-38-76.bmp

Gast
2007-06-14, 22:42:57
danke wesker,

endlich sagt mal jemad, das was man schon lange weiß.
hohe auflösung hat nichts mit CPU-Limit umgehung zu tun.

mir streuben sich immer die haare wenn ich sowas lese....

Klar ist bei hohen auflösungen mehr die graka gefragt, aber trotzdem muß die CPU auch was bieten.

oder warum gibt es überhaupt den Core2Duo und den Quadcore?

warum haben wir nicht alle noch einen 486er im rechner und spielen dann mit einer auflösung von 6400 x 5120? müßte doch gehen, wenns in hohen auflösungen kein CPU limit gibt?

dann sollte man stalker und co auch auf einem 486er mit knappen 150 FPS zum laufen kriegen

Grestorn
2007-06-14, 22:43:25
Hier ein Bild ohne AA von Oblivion. Zeigt denke ich gute Texturqualität ist imho einziger HD2900XT Vorteil.


14Mb, .bmp Format, 2560x1920

http://rapidshare.com/files/37235435/Oblivion_2007-05-17_02-47-38-76.bmp

Die höhere Schärfe erkauft man sich mit Flimmern. Genau das, was man der NV40 und G70 so genüsslich vorgeworfen hat.

Gouvernator
2007-06-14, 22:51:35
Dafür sieht es wirklich plastischer aus und flimmert nicht nur. :)

Mr.Magic
2007-06-14, 22:58:07
danke wesker,

endlich sagt mal jemad, das was man schon lange weiß.
hohe auflösung hat nichts mit CPU-Limit umgehung zu tun.

mir streuben sich immer die haare wenn ich sowas lese....

Klar ist bei hohen auflösungen mehr die graka gefragt, aber trotzdem muß die CPU auch was bieten.

oder warum gibt es überhaupt den Core2Duo und den Quadcore?

warum haben wir nicht alle noch einen 486er im rechner und spielen dann mit einer auflösung von 6400 x 5120? müßte doch gehen, wenns in hohen auflösungen kein CPU limit gibt?

dann sollte man stalker und co auch auf einem 486er mit knappen 150 FPS zum laufen kriegen

Die CPU muss bei 6400x5120 auch nicht mehr rechnen als bei 640x480. Physik und KI wollen nunmal berechnet werden (Tessellation etc. unterschlag ich mal). Das wird mit dem 486er nichts.

Ein CPU-Limit kann man durchaus durch andere Grafikeinstellungen abmildern bzw. sogar umgehen.
Nehmen wir einfach mal folgendes Szenario.
Sowohl bei 640x480, als auch bei 1600x1200 liefert das System 90FPS -> CPU-Limit.
Wird 16xSSAA zugeschaltet sind es nur noch 30FPS -> GPU-Limit.

deekey777
2007-06-14, 23:23:48
Stalker ist nicht Arithmetiklastig.
Zumindest ist STALKER extremst speicherbandbreiten- und füllratenhungrig. Der G-BUffer besteht aus drei RGBA16-Texturen (dh 8 Byte per Pixel und das mal drei), allein der G-BUffer ist bei 1280x1024 30 MiB groß!

Lawmachine79
2007-06-14, 23:27:02
Zumindest ist STALKER extremst speicherbandbreiten- und füllratenhungrig. Der G-BUffer besteht aus drei RGBA16-Texturen (dh 8 Byte per Pixel und das mal drei), allein der G-BUffer ist bei 1280x1024 30 MiB groß!
Der Füllratenhunger würde zumindest die grottige R600 Performance erklären - da hat sich seit R4xx ja nicht viel getan...
Aber irgendwie kann ich mir nicht vorstellen, daß DIESES Spiel nicht shaderlastig ist.
Die CPU muss bei 6400x5120 auch nicht mehr rechnen als bei 640x480. Physik und KI wollen nunmal berechnet werden (Tessellation etc. unterschlag ich mal). Das wird mit dem 486er nichts.

Ein CPU-Limit kann man durchaus durch andere Grafikeinstellungen abmildern bzw. sogar umgehen.
Nehmen wir einfach mal folgendes Szenario.
Sowohl bei 640x480, als auch bei 1600x1200 liefert das System 90FPS -> CPU-Limit.
Wird 16xSSAA zugeschaltet sind es nur noch 30FPS -> GPU-Limit.

Sobald ein Spiel mehr als 35FPS erreicht, kann man jedes CPU-Limit umgehen - so einfach ist das.

A.Wesker
2007-06-14, 23:35:58
Der Füllratenhunger würde zumindest die grottige R600 Performance erklären - da hat sich seit R4xx ja nicht viel getan...
Aber irgendwie kann ich mir nicht vorstellen, daß DIESES Spiel nicht shaderlastig ist.


hast du mal ein Savegame, in dem man klar erkennen kann, daß eine 2900XT unter einer GTS bei Stalker liegt?

Angiesan
2007-06-14, 23:59:07
Ein CPU-Limit kann man durchaus durch andere Grafikeinstellungen abmildern bzw. sogar umgehen.
Nehmen wir einfach mal folgendes Szenario.
Sowohl bei 640x480, als auch bei 1600x1200 liefert das System 90FPS -> CPU-Limit.
Wird 16xSSAA zugeschaltet sind es nur noch 30FPS -> GPU-Limit.

Da gebe ich Dir wohl recht, jetzt kann es aber durchaus sein, das es Stellen in einem Spiel gibt die ein so starkes CPU Limit haben, dass man das GPU Limit mit"normalen" HQ Settings nicht mehr erreichen Kann.

Bei modernen Spielen laufe ich Heute bei weitem häufiger in ein CPU Limit wie in ein GPU Limit.

Bestes Beispiel ist Stalker, da kann ich einstellen was ich will und mein C2D ist immer die Bremse, zumindest was die min. FPS angeht.
gepaart ist das ganze bei mir mir einer 8800GTX.
Da die Unterschiede zu der HD2900XT dann aber doch nicht so gigantisch sind
kann ich mir sehr gut vorstellen, dass man hier ein sehr ähnliches Spielerlebnis
mit der ATi/AMD bekommt.
Bei älteren Spielen kommen dann aber noch die völlig überzogenen Qualitätseinstellungen ala 16XAA oder gar 32XAA hinzu und man wundert sich, dass die Karte das nicht mehr flüssig darstellen kann:eek:

Um das jetzt nicht falsch zu verstehen, aber ich war auch sehr lange im Glauben, eine high end Graka wird das schon richten und habe mich dann gewundert, warum sich an den wirklich heiklen Stellen nicht eine Besserung eingestellt hat.:(

Die 88er aber auch die HD2900 decken eben viel schonungsloser Schwächen der restlichen HW auf wie dies die Vorgängergeneration noch konnte, wobei ich hier die Alte High End- Riege gerne noch mit ins Boot nehme.

Um hier auch mal ein Beispiel zu bringen.

In G3 der Burg Hof im Königsschloss lief mit meinem alten System mit x2 3800@2600 und übergangsweise mit einer 7900GTO genau so schnell wie mit der 8800GTX.Erst der Wechsel auf den C2D brachte mit hier einen deutliche Schub.
Ich bin mir aber fast sicher, das der nicht viel kleiner ausgefallen währe, hätte ich hier weiterhin auf die 7900GTO gesetzt.
Und ob der Rest dann mit 40 oder 70 Bilder über den Monitor flimmert, ist mir dann auch egal, bis auf das Flimmern:D



Grüße

Gast
2007-06-15, 01:00:46
Wenn man über die Jahre immer seine rechner zusammen baut und auch mal in verschiedenen Settings zockt, dann merkt man auch leider das eine neue Graka oft eine höhere Last für die CPU darstellt, ob das jetzt vom Treiber/Spieleengine kommt oder der Karte sei mal dahin gestellt, es ist ja noch nicht sooo lange her wo eine Ti4600 NV high end war und beim wechsel auf eine GF FX(auch wenn sie nur kurz drin war wegen R350) Karte merkte man bei extrem niedrigen Settings das die Ti hier und dar ein Stückchen schneller ist, das gleiche beim wechsel auf 6800er, bei der 7800er hatte ich kaum einen Unterschied gemerkt/beweisen können.


Währe mal sehr interessant zu wissen woher die erhöte Last kommt, aber bitte von jemand der Ahnung hat.

Nightspider
2007-06-15, 01:00:55
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/juni/radeon_hd_2600xt_07-ns-gddr4-speicher/


0,7ns GDDR4 Speicher auf einer 2600XT...

Wie hoch wäre denn die Speicherbandbreite, wenn eine 1 GB 2900XTX mit 512SI Speicher mit 1400 Mhz verwenden würde ?

Und wie hoch wäre die Speicherbandbreite bei einer 8800GTX mit 1400 Mhz Speicher ?

mapel110
2007-06-15, 01:07:43
512 SI
105 GB/s bei 828 Mhz Speichertakt
177 GB/s bei 1400 Mhz Speichertakt

384 SI
86 GB/s bei 900 Mhz Speichertakt
133 GB/s bei 1400 Mhz Speichertakt

Gast
2007-06-15, 01:13:48
Es gab eine Zeit, da limitierte die Bandbreite. Unglaublich, das es jetzt genau umgekehrt ist. ;)

Die 2900XT könnte mit GDDR4 >1,2 GHz wahrscheinlich gar nix mehr anfangen. Dafür fehlt es ihr noch an Rohpower. Vielleicht wird sich das mit 65/55nm und zusätzlichen Hardwareinheiten ändern, dann könnte es wieder einen enormen Leistungssprung geben.

Lawmachine79
2007-06-15, 07:50:51
hast du mal ein Savegame, in dem man klar erkennen kann, daß eine 2900XT unter einer GTS bei Stalker liegt?
Können wir Montag machen, bin am WE nicht zu Hause. Schick mir mal Deine E-Mail per PN.
Die Erkenntnis habe ich zumindest aus Benchmarks gezogen.

4711
2007-06-15, 08:03:56
:massa:Da gebe ich Dir wohl recht, jetzt kann es aber durchaus sein, das es Stellen in einem Spiel gibt die ein so starkes CPU Limit haben, dass man das GPU Limit mit"normalen" HQ Settings nicht mehr erreichen Kann.

Bei modernen Spielen laufe ich Heute bei weitem häufiger in ein CPU Limit wie in ein GPU Limit.

Bestes Beispiel ist Stalker, da kann ich einstellen was ich will und mein C2D ist immer die Bremse, zumindest was die min. FPS angeht.
gepaart ist das ganze bei mir mir einer 8800GTX.
Da die Unterschiede zu der HD2900XT dann aber doch nicht so gigantisch sind
kann ich mir sehr gut vorstellen, dass man hier ein sehr ähnliches Spielerlebnis
mit der ATi/AMD bekommt.
Bei älteren Spielen kommen dann aber noch die völlig überzogenen Qualitätseinstellungen ala 16XAA oder gar 32XAA hinzu und man wundert sich, dass die Karte das nicht mehr flüssig darstellen kann:eek:

Um das jetzt nicht falsch zu verstehen, aber ich war auch sehr lange im Glauben, eine high end Graka wird das schon richten und habe mich dann gewundert, warum sich an den wirklich heiklen Stellen nicht eine Besserung eingestellt hat.:(

Die 88er aber auch die HD2900 decken eben viel schonungsloser Schwächen der restlichen HW auf wie dies die Vorgängergeneration noch konnte, wobei ich hier die Alte High End- Riege gerne noch mit ins Boot nehme.

Um hier auch mal ein Beispiel zu bringen.

In G3 der Burg Hof im Königsschloss lief mit meinem alten System mit x2 3800@2600 und übergangsweise mit einer 7900GTO genau so schnell wie mit der 8800GTX.Erst der Wechsel auf den C2D brachte mit hier einen deutliche Schub.
Ich bin mir aber fast sicher, das der nicht viel kleiner ausgefallen währe, hätte ich hier weiterhin auf die 7900GTO gesetzt.
Und ob der Rest dann mit 40 oder 70 Bilder über den Monitor flimmert, ist mir dann auch egal, bis auf das Flimmern:D



Grüße

221 Schreibereien und der erste der sagt was eigendlich Sache ist :massa: :up:

Mumins
2007-06-15, 08:26:12
Bei mir mit meiner 1900XTX auch nicht. Ich habe solche Spiele alle in zweifacher Auflösung wie deine (2560x1920) getestet und die waren alle mehr oder weniger gleich (lahm) :D

Weil deine CPU Müll ist.

Mr.Magic
2007-06-15, 08:28:43
@Angiesan

Stalker kann ich nicht nachvollziehen. Wenn es so sehr CPU-limitiert ist, wie kann dann ein neuer Grafik-Treiber (158.27) die Min. FPS so extrem steigern? Reserven für AA wären aber so oder so reichlich vorhanden.

Bei Gothic 3 lässt sich meines wissens die Grafikkarte mit AA in die Knie zwingen.

Ein Spiel sollte (Konsolenportierungen :P) ohne AA eine Highend-Grafikkarte nicht ausreizen können, schließlich soll es auch auf Mainstream-Karten spielbar bleiben.

@warmachine79
Man muss keine 35FPS erreichen um aus dem CPU- ein GPU-Limit zu machen. Sagen wir mal die CPU kann einfach nicht mehr als 15FPS berechnen, dann kann es trotzdem sein, dass man mit Extremeinstellungen (z.B. 32xAA) nur noch 5FPS bekommt.

Grestorn
2007-06-15, 08:30:34
Bei Gothic 3 lässt sich meines wissens die Grafikkarte mit AA in die Knie zwingen.

Sicher nicht. AA geht nicht in G3

Aber in G3 hängt es sehr von der Szene ab, ob man CPU oder GPU limitiert ist.

Lawmachine79
2007-06-15, 08:44:56
@Angiesan

Stalker kann ich nicht nachvollziehen. Wenn es so sehr CPU-limitiert ist, wie kann dann ein neuer Grafik-Treiber (158.27) die Min. FPS so extrem steigern? Reserven für AA wären aber so oder so reichlich vorhanden.

Bei Gothic 3 lässt sich meines wissens die Grafikkarte mit AA in die Knie zwingen.

Ein Spiel sollte (Konsolenportierungen :P) ohne AA eine Highend-Grafikkarte nicht ausreizen können, schließlich soll es auch auf Mainstream-Karten spielbar bleiben.

@warmachine79
Man muss keine 35FPS erreichen um aus dem CPU- ein GPU-Limit zu machen. Sagen wir mal die CPU kann einfach nicht mehr als 15FPS berechnen, dann kann es trotzdem sein, dass man mit Extremeinstellungen (z.B. 32xAA) nur noch 5FPS bekommt.
Ich meinte damit ein SPIELBARES CPU-Limit :). Selbst wenn das CPU-Limit bei 2 fps liegt, bekommt man es noch GraKa limitiert.

James Ryan
2007-06-15, 08:57:30
Wieso solte eine 8800GTS soviel schneller sein als eine 7900GX2 - bei genau gleicher Texelfüllrate?

Was sagt die reine Texelfüllrate über die Perfomance aus?
Generell gilt: Je neuer das Spiel und je höher die BQ-Einstellungen, desto chancenloser ist eine GX2 gegen eine GTS!

MfG :cool:

Gouvernator
2007-06-15, 09:14:25
Weil deine CPU Müll ist.

Und solche Aussagen kommen immer von den Leuten mit der fettesten C2D CPU.

Ok, wenn ich irgendwann lüstig bin stelle ich meinen CRT auf und teste alles mit dem Opteron von 1-ghz bis 2ghz. Dann werden wir sehen wie FPS in einer Auflösung ab 5megapixel (aufwärts) plus AA von CPU Takt abhängen. X-D Ich kann es dir schon jetzt sagen das bereits unter 2048x1536 man nur 5 fps Unterschied hat.

A.Wesker
2007-06-15, 09:27:31
Und solche Aussagen kommen immer von den Leuten mit der fettesten C2D CPU.

Ok, wenn ich irgendwann lüstig bin stelle ich meinen CRT auf und teste alles mit dem Opteron von 1-ghz bis 2ghz. Dann werden wir sehen wie FPS in einer Auflösung ab 5megapixel (aufwärts) plus AA von CPU Takt abhängen. X-D Ich kann es dir schon jetzt sagen das bereits unter 2048x1536 man nur 5 fps Unterschied hat.

Flatout 2
TDU
Quake 4
Far Cry
Oblivion
Gothic 3
DiRT
komplette Source Engine
FEAR
Stalker
so gut wie alle weiteren Rennspiele

all diese Spiele werden auf einem C2D mit 3 GHz deutlich schneller laufen, als auf einem A64 Singlecore. Ich kenne auch noch gut deine Flatout 2 Screenshots, auf denen Frameraten von 20-30 FPS bei 1360x768 + 16xAA/16AF (Widetent). An den Stellen habe ich bei gleichen Einstellungen gut die 3-Fache Framerate. Allein die nicht SMP-fähige Anwendung 3DMark 2005 legt durch das Aktivieren eines zweiten Cores um ca 35 % bei der 2900XT an Performance zu. (Stichwort SMP-Optimierung des Treibers).

Mr.Magic
2007-06-15, 09:30:37
Sicher nicht. AA geht nicht in G3

Aber in G3 hängt es sehr von der Szene ab, ob man CPU oder GPU limitiert ist.

Dann hab' i' halt Tomate' auf de' Auge'.

http://www.nvnews.net/vbulletin/showpost.php?p=1102502&postcount=134

Gouvernator
2007-06-15, 09:32:28
Ich kenne auch noch gut deine Flatout 2 Screenshots, auf denen Frameraten von 20-30 FPS bei 1360x768 + 16xAA/16AF (Widetent).An den Stellen habe ich bei gleichen Einstellungen gut die 3-Fache Framerate.

Und was hat jetzt AA mit CPU limit zu tun? Ich hatte dieselbe Stelle auch mit nierdrigen AA Settings und mehr FPS gezeigt. Und ganz ohne AA läuft das Spiel mit ~ 100 fps. Ihr seid wohl noch nicht ausgeschlafen. :D

A.Wesker
2007-06-15, 09:37:09
Und was hat jetzt AA mit CPU limit zu tun? Ich hatte dieselbe Stelle auch mit nierdrigen AA Settings und mehr FPS gezeigt. Und ganz ohne AA läuft das Spiel mit ~ 100 fps. Ihr seid wohl noch nicht ausgeschlafen. :D
es geht um den maximalen Spielspaß und der ist mit den Einstellungen bei 20-30 FPS einfach nicht gegeben. Da ist es doch schön, allein durch eine stärkere CPU das 3-Fache an FPS zu haben und diese Settings damit einwandfrei spielen zu können. (zocke selber auf 1920x1200 8xAA(box)/16AF immer am Framelimiter von 100 FPS, da mir der Widetent Modus überhaupt net zusagt).

Lawmachine79
2007-06-15, 09:42:10
all diese Spiele werden auf einem C2D mit 3 GHz deutlich schneller laufen, als auf einem A64 Singlecore. Ich kenne auch noch gut deine Flatout 2 Screenshots, auf denen Frameraten von 20-30 FPS bei 1360x768 + 16xAA/16AF (Widetent). An den Stellen habe ich bei gleichen Einstellungen gut die 3-Fache Framerate. Allein die nicht SMP-fähige Anwendung 3DMark 2005 legt durch das Aktivieren eines zweiten Cores um ca 35 % bei der 2900XT an Performance zu. (Stichwort SMP-Optimierung des Treibers).

Also ich habe auch eine Single Core CPU und ich kann versichern, daß Flatout2 bei mir NICHT unter 50fps sinkt@16x10@Alles Max@8xS@16xAF

Gast
2007-06-15, 09:43:47
es geht um den maximalen Spielspaß und der ist mit den Einstellungen bei 20-30 FPS einfach nicht gegeben. Da ist es doch schön, allein durch eine stärkere CPU das 3-Fache an FPS zu haben und diese Settings damit einwandfrei spielen zu können. (zocke selber auf 1920x1200 8xAA(box)/16AF immer am Framelimiter von 100 FPS, da mir der Widetent Modus überhaupt net zusagt).

Gibt es im Cat. 7.5 noch immer keine edge detect Modus?

Gast
2007-06-15, 09:46:39
es geht um den maximalen Spielspaß und der ist mit den Einstellungen bei 20-30 FPS einfach nicht gegeben. Da ist es doch schön, allein durch eine stärkere CPU das 3-Fache an FPS zu haben und diese Settings damit einwandfrei spielen zu können. (zocke selber auf 1920x1200 8xAA(box)/16AF immer am Framelimiter von 100 FPS, da mir der Widetent Modus überhaupt net zusagt).
Er sagte doch, dass er ohne AA bei Flatout 2 ca. 100 fps habe. Nur beim Zuschalten von AA sei die Framerate masssiv auf 20-30 eingebrochen. Da würde eine schnellere CPU dann auch nicht mehr helfen, denn das scheint extrem gpu-limitiert zu sein. Über 35 fps würde man nicht bekommen bei gleicher Graka.

A.Wesker
2007-06-15, 09:57:22
Er sagte doch, dass er ohne AA bei Flatout 2 ca. 100 fps habe. Nur beim Zuschalten von AA sei die Framerate masssiv auf 20-30 eingebrochen. Da würde eine schnellere CPU dann auch nicht mehr helfen, denn das scheint extrem gpu-limitiert zu sein. Über 35 fps würde man nicht bekommen bei gleicher Graka.
47 FPS habe ich an der Stelle, wo man mit dem Singlecore A64 ~20 FPS erreicht und das unterscheidet meiner Meinung nach spielbar von unspielbar.

Mr. Lolman
2007-06-15, 10:00:55
Sicher nicht. AA geht nicht in G3


Wenn man die Tiefenunschärfe deaktiviert gehts schon. (mit zu hellem Himmel, und verschwundenem Wasser. Es sieht aber am 19"TFT mit AA soviel besser aus, dass ich die beiden Bugs in Kauf nehme)


Was sagt die reine Texelfüllrate über die Perfomance aus?
Generell gilt: Je neuer das Spiel und je höher die BQ-Einstellungen, desto chancenloser ist eine GX2 gegen eine GTS!

MfG :cool:

Mit 16xS und hohen Auflösungen hängt D³ und auch Q4 mWn an der Füllrate...

James Ryan
2007-06-15, 10:03:41
Mit 16xS und hohen Auflösungen hängt D³ und auch Q4 mWn an der Füllrate...

D3 und Q4 sind ja auch nicht gerade jung und dort liegen eine GX2 und eine GTS dicht beisammen, das stimmt.

MfG :cool:

Gast
2007-06-15, 10:05:09
Wenn man die Tiefenunschärfe deaktiviert gehts schon. (mit zu hellem Himmel, und verschwundenem Wasser. Es sieht aber am 19"TFT mit AA soviel besser aus, dass ich die beiden Bugs in Kauf nehme)




Mit 16xS und hohen Auflösungen hängt D³ und auch Q4 mWn an der Füllrate...


1. G3 auf nV Karten mit AA ist weiterhin ein No Go, da buggy.

2. 16xS würde ich als nicht üblichen Qualitätsmodi für Spiele nennen. Es geht eher um Ingame Quality Settings, sprich Texturen und Shadereffekte auf max. Da hängt ein G80 immer die alte Generation ab, da hilft in manchen Fällen auch nicht die Tatsache das die Texelfüllrate gleich ist (vom Verlust durch SLI mal abgesehen)...

Lawmachine79
2007-06-15, 10:12:43
Mit 16xS und hohen Auflösungen hängt D³ und auch Q4 mWn an der Füllrate...
Ich glaube er meinte mit der Chancenlosigkeit der GX2, daß er davon ausgeht, daß neuere Spiele shaderlastiger sind und die G80 Karten deshalb überlegen sind.
Je mehr Arithmetikpower nötig, umso größer der Abstand G80>G7x. Wenn es um Füllrate geht, liegt das SLI-Gespann gleichauf mit der GTS.

Mr. Lolman
2007-06-15, 10:13:16
2. 16xS würde ich als nicht üblichen Qualitätsmodi für Spiele nennen. Es geht eher um Ingame Quality Settings, sprich Texturen und Shadereffekte auf max. Da hängt ein G80 immer die alte Generation ab, da hilft in manchen Fällen auch nicht die Tatsache das die Texelfüllrate gleich ist (vom Verlust durch SLI mal abgesehen)...


D3 und Q4 sind ja auch nicht gerade jung und dort liegen eine GX2 und eine GTS dicht beisammen, das stimmt.

MfG :cool:

Ursprünglich gings darum, dass behauptet wurde, dass Q4 und D3 auf ner 8800GTS wunderbar mit 16xS laufen sollen, wobei aber entgegnet wurde, dass das auf ner 7900GX2 auch nicht funzt...

Gouvernator
2007-06-15, 10:13:22
47 FPS habe ich an der Stelle, wo man mit dem Singlecore A64 ~20 FPS erreicht und das unterscheidet meiner Meinung nach spielbar von unspielbar.

Schon daran gedacht das es eventuell mit neueren Treibern zusammenhängen kann? Stichwort "EATM" ;)


http://666kb.com/i/aoc8rhljdr7swatln.jpg
1360x768 alles maxxed 16xAF, 16xAA, HQ AAA

Lawmachine79
2007-06-15, 10:16:33
Ursprünglich gings darum, dass behauptet wurde, dass Q4 und D3 auf ner 8800GTS wunderbar mit 16xS laufen sollen, wobei aber entgegnet wurde, dass das auf ner 7900GX2 auch nicht funzt...
Doom 3: Ja! Der Breakpoint zwischen flüssig und nicht flüssig ist irgendwo zwischen 16xS und 32xS - mit 32xS ist es nämlich unspielbar.
Quake 4: keinesfalls - habe es gestern noch probiert, sogar 8xS ist grenzwertig, erst wenn man die Karte übertaktet läuft es uneingeschränkt flüssig.

Schon daran gedacht das es eventuell mit neueren Treibern zusammenhängen kann? Stichwort "EATM" ;)


http://666kb.com/i/aoc8rhljdr7swatln.jpg

Was für 'ne CPU hast Du denn?

Angiesan
2007-06-15, 10:18:20
@Angiesan

Stalker kann ich nicht nachvollziehen. Wenn es so sehr CPU-limitiert ist, wie kann dann ein neuer Grafik-Treiber (158.27) die Min. FPS so extrem steigern? Reserven für AA wären aber so oder so reichlich vorhanden.

Bei Gothic 3 lässt sich meines wissens die Grafikkarte mit AA in die Knie zwingen.

Ein Spiel sollte (Konsolenportierungen :P) ohne AA eine Highend-Grafikkarte nicht ausreizen können, schließlich soll es auch auf Mainstream-Karten spielbar bleiben.

@warmachine79
Man muss keine 35FPS erreichen um aus dem CPU- ein GPU-Limit zu machen. Sagen wir mal die CPU kann einfach nicht mehr als 15FPS berechnen, dann kann es trotzdem sein, dass man mit Extremeinstellungen (z.B. 32xAA) nur noch 5FPS bekommt.
Bei Stalker geht es mir auch vorrangig um die "heiklen" Scenen, bestes Beispiel
ist hier das Labor X16 oder ist es X18:confused:da hatte ich mit allen Treibern vor dem 158.27 mit meinem System je nach Übertaktungsgrad von standard Takt 19 FPS bis @3200 Mhz 26-27 FPS, was sehr stark auf ein CPU Limit hingedeutet hat. Mit dem 158.27 habe ich hier jedoch schon unter standard Taktung mehr wie doppelt so viele FPS wie mit meiner max Einstellung mit einem der der älteren Treiber, wobei die GTX nie übertaktet wurde. Was der 158.27 hier direkt so extrem verbessert kann ich dir aber leider auch nicht sagen. Fakt ist aber, dass die Scene mit einem der alten Treiber sehr schön mit dem CPU Takt skaliert hat, habe diese immer als Testscene für die Übertaktung genommen;)Und ja , jede GPU kann man in die Knie zwingen, nur sieht man dann auch noch den Unterschied auf dem Schirm oder bringt es dem Spielspaß noch Vorteile? Ich persönlich kann den Unterschied zwischen 4XFSAA und 8XFSAA kaum bis gar nicht mehr sehen wenn ich mich nicht mit einer Lupe vor den Schirm setze oder nur auf die Kanten im Spiel konzentriere.

Sicher nicht. AA geht nicht in G3


Aber in G3 hängt es sehr von der Szene ab, ob man CPU oder GPU limitiert ist.
Nicht auf dem normalen Weg aber es man kann es selbst auf einer NV der alten Generation erzwingen, muss dann aber ohne Wasserdarstellung auskommen und der Himmel wird falsch dargestellt.
Die CPU-Limitierung fällt aber stärker auf, da es hier recht häufig in einen Grenzbereich geht wo man gerade noch so spielen oder auch nicht;)


Grüße

A.Wesker
2007-06-15, 10:19:29
Schon daran gedacht das es eventuell mit neueren Treibern zusammenhängen kann? Stichwort "EATM" ;)


http://666kb.com/i/jpg

welchen Treiber hast du verwendet? der RC3 ist zb rund 35 % schneller als der RC7 und 7.5 in Flatout 2. (nutze den 7.5) Der 7.5er nutzt bei AAA standardmäßig kein EATM (tut meines Wissens nach nur der 42er).

Gouvernator
2007-06-15, 10:22:33
War wohl der von CD.
CPU ist Opteron144@2,4ghz , RAM 230mhz DualChannel 2.5-3-3-8-2T

In dem Bild haut neben 16xAA auch HQ AAA mächtig rein.

Raff
2007-06-15, 10:24:47
Doom 3: Ja! Der Breakpoint zwischen flüssig und nicht flüssig ist irgendwo zwischen 16xS und 32xS - mit 32xS ist es nämlich unspielbar.

32xS ist - gemessen an den restlichen Hybriden - ineffizienter Müll. ;) Es schaut nur minimal besser aus als 16xS, ballert den VRAM aber so voll, dass 16x reines Supersampling praktisch relevant nicht langsamer ist.

MfG,
Raff

Lawmachine79
2007-06-15, 10:29:38
32xS ist - gemessen an den restlichen Hybriden - ineffizienter Müll. ;) Es schaut nur minimal besser aus als 16xS, ballert den VRAM aber so voll, dass 16x reines Supersampling praktisch relevant nicht langsamer ist.

MfG,
Raff
Bei 16xS dürfte man theoretisch eh schon die EER auf Polygonen haben wie bei 8xMSAA oder irre ich da? Ich erkenne schon zwischen 4xMSAA und 8xMSAA nur sehr geringe Unterschiede, was Polygonkanten angeht, man muss schon genau hinsehen, lediglich das Bild wird ein ganz klein wenig harmonischer, aber das könnte auch ein Placeboeffekt sein.
Daß der Performanceimpact von 8xMSAA vs. 4xMSAA unterschätzt wird habe ich ja schon durch Benchmarks untermauert, i.d.R kostet 8xMSAA mehr als 8xS.

Mr. Lolman
2007-06-15, 10:33:20
Bei 16xS dürfte man theoretisch eh schon die EER auf Polygonen haben wie bei 8xMSAA oder irre ich da?

Ja hat es.


Ich erkenne schon zwischen 4xMSAA und 8xMSAA nur sehr geringe Unterschiede, was Polygonkanten angeht, man muss schon genau hinsehen, lediglich das Bild wird ein ganz klein wenig harmonischer, aber das könnte auch ein Placeboeffekt sein.

Vll. könnte dann auch 8xS Old was für dich sein. Hat auch ein 4x4EER wie 4xMSAA müsste aber flotter sein als 16xS (Trotz jew. 2x2 OGSSAA)

Lawmachine79
2007-06-15, 10:36:14
Vll. könnte dann auch 8xS Old was für dich sein. Hat auch ein 4x4EER wie 4xMSAA müsste aber flotter sein als 16xS (Trotz jew. 2x2 OGSSAA)

Da sagste was - kriegt man 8xS Old irgendwie auf dem G80 zum Rennen in D3D UND OGL? Wobei ich nicht glaube, daß das absenken des MSAA von 4x auf 2x viel Leistung bringt - könnte aber das Zünglein an der Waage sein, in vielen Spielen liegt die Grenze der Spielbarkeit zwischen 16xS und 8xS und 8xS Old dürfte in der Mitte, aber mit Tendenz zu 16xS liegen, was die Performance angeht.
Wie hoch muss eigentlich das AF im Treiber sein, um in Kombination mit 2x2SSAA ein "GesamtAF" von 16x zu ergeben?

Raff
2007-06-15, 11:33:16
8x, der Effekt "multipliziert" sich. 16x AF + 4x4 OGSSAA = 64x AF. Perfekte Texturen, wohin das Auge reicht.

MfG,
Raff

A.Wesker
2007-06-15, 12:15:29
ist 4x4 OGSSAA mit dem R600 möglich? oder sind Hybrid AA Modis ausgeschlossen?

Gast
2007-06-15, 12:26:21
Theoretisch ja, praktisch nein. Die HW könnte es problemlos, aber ATI bietets in ihren Treibern nicht an und per DX-Tweaker geht nur 2x2.

Lawmachine79
2007-06-15, 12:30:39
ist 4x4 OGSSAA mit dem R600 möglich? oder sind Hybrid AA Modis ausgeschlossen?
4x4 OGSSAA ist kein Hybridmodus, sondern "reinrassiges" ( <-- bitte keine Nazikeule!) Supersampling AA, als Hybridmodi bezeichnet man bei NV AA-Modi, welche einen Supersampling- und einen Multisamplinganteil haben.
4x4 sollte möglich sein, sofern man es im DxTweaker integriert, ob die Hardware auch in der Lage ist, Misch/Hybridmodi zu realisieren bezweifel ich und wenn doch, dürfte die Arbeit am Treiber etwas umfangreicher ausfallen.
Hast Du das denn schon mal in Action gesehen?

Mr. Lolman
2007-06-15, 12:45:46
Misch/Hybridmodi zu realisieren bezweifel ich und wenn doch, dürfte die Arbeit am Treiber etwas umfangreicher ausfallen.
Hast Du das denn schon mal in Action gesehen?

Natürlich ginge das (übrigens garnich mal so kompliziert. Demi hätte das auch schon längst in den DX-Tweaker einbauen können, wenn er wollte). Hybridmodi sind einfach normale MSAA-Modi die in einer höheren Auflösung berechnet und dann runterskaliert werden. Warum ATI das nicht macht, hat wohl 2 Gründe:

1. Steht die HW nicht gut da, wenns dann plötzlich im höchsten AA Modus stark ruckelt.

2. Gabs im Gegensatz zu NV nie eine Notwendigkeit dazu. NV hatte bis zum NV40 nur ein 2xRGMSAA. Damit man qualitativ nicht ins Hintertreffen gerät hat man die Hybridmodi 'erfunden'. Anfangs 4xS, später 8xS (old), als ATi plötzlich mit 6xSGMSAA aufwartete. Da die Rops des NV40 und G70 auf 4xRGMSAA limitiert waren, bot man ab da das neue 8xS an. Jetzt kann der G80 8xMSAA (und Coverage Zeug) und deswegen gibts offiziell garkeine Hybridmodi mehr. War übrigens damals bei der GF2 genauso. OGSSAA kann im Prinzip jede noch so alte 3D-GraKa. NV hats bei der GF2 in den Treiber eingebaut, weil 3dfx mit SGSSAA als Killerfeature aufwarten konnte und man (zT zurecht) einerseits damit spekulierte, dass der HW-Presse die zT himmelschreienden Unterschiede nicht auffallen und anderseits ja qualitativ nicht ins Hintertreffen geraten wollte.

Lawmachine79
2007-06-15, 12:54:41
Natürlich ginge das (übrigens garnich mal so kompliziert. Demi hätte das auch schon längst in den DX-Tweaker einbauen können, wenn er wollte). Hybridmodi sind einfach normale MSAA-Modi die in einer höheren Auflösung berechnet und dann runterskaliert werden. Warum ATI das nicht macht, hat wohl 2 Gründe:

1. Steht die HW nicht gut da, wenns dann plötzlich im höchsten AA Modus stark ruckelt.

2. Gabs im Gegensatz zu NV nie eine Notwendigkeit dazu. NV hatte bis zum NV40 nur ein 2xRGMSAA. Damit man qualitativ nicht ins Hintertreffen gerät hat man die Hybridmodi 'erfunden'. Anfangs 4xS, später 8xS (old), als ATi plötzlich mit 6xSGMSAA aufwartete. Da die Rops des NV40 und G70 auf 4xRGMSAA limitiert waren, bot man ab da das neue 8xS an. Jetzt kann der G80 8xMSAA (und Coverage Zeug) und deswegen gibts offiziell garkeine Hybridmodi mehr. War übrigens damals bei der GF2 genauso. OGSSAA kann im Prinzip jede noch so alte 3D-GraKa. NV hats bei der GF2 in den Treiber eingebaut, weil 3dfx mit SGSSAA als Killerfeature aufwarten konnte und man (zT zurecht) einerseits damit spekulierte, dass der HW-Presse die zT himmelschreienden Unterschiede nicht auffallen und anderseits ja qualitativ nicht ins Hintertreffen geraten wollte.
Wenn es so einfach ist, finde ich das ganz schön blöd von ATI - dabei gehen potentielle Kunden flöten - klar sieht man hier im 3dCenter gut, wie wenige es sind - aber wenn der Aufwand gering ist, wäre es das wert. Ein anderer Grund wird sein, daß SSAA hautpsächlich Füllratenabhängig ist, nach dem R4xx kam nichts mehr von ATI, was hinsichtlich Füllrate zeitgemäß ist. Unbestritten ist, daß die Hybridmodi von NVidia die beste Bildqualität bieten, die man für Geld auf dem Consumermarkt kaufen kann.
Das einzige, was ich mir von NV wünschen würde, wäre eine frei konfigurierbare Tabelle, in der ich meinen AA-Modus selbst zusammenstellen kann, aufgeteilt in:
Multisamples (MSAA)
Textursamples (SSAA), hier aufgeteilt in X und Y Achse
Coverage Samples (CSAA)
Gerade Käufer von Highendkarten setzen sich intensiv genug mit der Materie auseinander, so das grundsätzlich Bedarf vorhanden sein sollte.

Gouvernator
2007-06-15, 12:57:41
Unbestritten ist, daß die Hybridmodi von NVidia die beste Bildqualität bieten, die man für Geld auf dem Consumermarkt kaufen kann.

Die Spitze bildet 4x4SSAA in der 2048x1536 Auflösung. Das sieht geil aus.

Gast
2007-06-15, 13:01:44
Die Spitze bildet 4x4SSAA in der 2048x1536 Auflösung. Das sieht geil aus.
Wie läuft das? Nicht, dass man dann wirklich jedes einzelne Bild genießen kann.^^

Gouvernator
2007-06-15, 13:04:24
Wie läuft das? Nicht, dass man dann wirklich jedes einzelne Bild genießen kann.^^
Ich sag Dir Du kannst jedes einzelne Bild unglaublich lang geniessen. :D

Gast
2007-06-15, 13:10:20
Textursamples (SSAA), hier aufgeteilt in X und Y AchseVorsicht, SSAA-Samples nicht mit Textursamples gleichsetzen, da lediglich mehr Textursamples nicht auf alle Aliasingarten die gleiche Wirkung haben wie OGSSAA. Ein korrekterer Terminus wäre Shadersamples.

An unsere lieben Skeptiker:
In älteren Spielen oder Benchmarks (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5486218&postcount=61) habt ihr nicht viel Zeit, einen einzelnen Frame in seiner ganzen individuellen Pracht zu bewundern :usweet:

Mr. Lolman
2007-06-15, 13:13:14
Wenn es so einfach ist, finde ich das ganz schön blöd von ATI - dabei gehen potentielle Kunden flöten - klar sieht man hier im 3dCenter gut, wie wenige es sind - aber wenn der Aufwand gering ist, wäre es das wert.

Zeit = Geld. Außerdem stehen OGSSAA Hybridmodi qualitativ einfach in keinem guten Verhältnis zur Performance. Da können schöne Filter und Alpha2Coverage viel mehr reissen.


Ein anderer Grund wird sein, daß SSAA hautpsächlich Füllratenabhängig ist, nach dem R4xx kam nichts mehr von ATI, was hinsichtlich Füllrate zeitgemäß ist.

Unbestritten ist, daß die Hybridmodi von NVidia die beste Bildqualität bieten, die man für Geld auf dem Consumermarkt kaufen kann.

Unbestritten ist auch, dass sehr viel Performance drauf geht, bzw. man System schnell zu einem GPU-Limit zwingen kann. Ich penetrier da gern den Vergleich, dass ein SLI User mit 8xS zwar ein schöneres Bild haben mag, als einer ohne SLI und 4xMSAA, aber außer diesem Aspekt eigentlich nur Nachteile hat: teurer, energiehungriger, lauter und das alles bei gleichen fps.

Ich häng auch nicht umsonst immernoch mit 1280x1024 rum obwohl ich mir nen TFT mit der 4-fachen Auflösung leisten könnt. Warum? Ich hätte ganz einfach den inneren Zwang meine GraKa immer mit nativer Auflösung betreiben zu wollen und müsste/würde deswegen viel öfter aufrüsten.

Nicht umsonst haben sich die IHVs auf die Optimierung der BQ-Einstellungen konzentriert. Nicht umsonst gibts jetzt 16xCSAA anstatt 16xS und nicht umsonst triebt ATI intern die Entwicklung des EATM voran.

Stattdessen hätten ja die IHVs auf die ganze MSAA Logik pfeifen können und 3df-like einfach auf SGSSAA setzen (was zumindest auf meiner Sicht noch vernünftiger gewesen wäre als auf OGSSAA basierende Modi zu setzen) Warum hat mans nicht gemacht? Weils zwar schöner als OGSSAA (samt MSAA Hybridzeug) gewesen wäre, aber es imo einfach unverantwortlich ist, die GraKaleistung zu Vierteln oder (im Falle von 4x4OGSSAA) sogar zu Sechzehnteln, nur damit das Bild etwas glatter ist.

Und wer jetzt damit kommt, dass es für alte Spiele doch praktisch sei, dem entgegne ich, dass wohl fast niemand soviel Zeit hat zu den ganzen Neuerscheinung noch ausschweifend alte Spiele zocken zu können. Und wenn er nur alte Spiele spielen sollte, dann braucht er imo auch keine GraKa die allein beim Idlen schon 70Watt verbläst.

Aber da das ja jedem seine eigene Entscheidung ist und es immernoch auch Leute gibt die sich Autos, mit nem Verbrauch von 20Liter im Stadtverkehr, kaufen, kann ich mir natürlich vorstellen, dass ich mit meiner Meinung ein bisschen anecken werd ;)

Lawmachine79
2007-06-15, 13:43:00
Vorsicht, SSAA-Samples nicht mit Textursamples gleichsetzen, da lediglich mehr Textursamples nicht auf alle Aliasingarten die gleiche Wirkung haben wie OGSSAA. Ein korrekterer Terminus wäre Shadersamples.

An unsere lieben Skeptiker:
In älteren Spielen oder Benchmarks (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5486218&postcount=61) habt ihr nicht viel Zeit, einen einzelnen Frame in seiner ganzen individuellen Pracht zu bewundern :usweet:
Shadersample? Wäre Pixelsample nicht passender? Jeder Pixel wird doch gesampelt.
Zeit = Geld. Außerdem stehen OGSSAA Hybridmodi qualitativ einfach in keinem guten Verhältnis zur Performance. Da können schöne Filter und Alpha2Coverage viel mehr reissen.



Unbestritten ist auch, dass sehr viel Performance drauf geht, bzw. man System schnell zu einem GPU-Limit zwingen kann. Ich penetrier da gern den Vergleich, dass ein SLI User mit 8xS zwar ein schöneres Bild haben mag, als einer ohne SLI und 4xMSAA, aber außer diesem Aspekt eigentlich nur Nachteile hat: teurer, energiehungriger, lauter und das alles bei gleichen fps.

Ich häng auch nicht umsonst immernoch mit 1280x1024 rum obwohl ich mir nen TFT mit der 4-fachen Auflösung leisten könnt. Warum? Ich hätte ganz einfach den inneren Zwang meine GraKa immer mit nativer Auflösung betreiben zu wollen und müsste/würde deswegen viel öfter aufrüsten.

Nicht umsonst haben sich die IHVs auf die Optimierung der BQ-Einstellungen konzentriert. Nicht umsonst gibts jetzt 16xCSAA anstatt 16xS und nicht umsonst triebt ATI intern die Entwicklung des EATM voran.

Stattdessen hätten ja die IHVs auf die ganze MSAA Logik pfeifen können und 3df-like einfach auf SGSSAA setzen (was zumindest auf meiner Sicht noch vernünftiger gewesen wäre als auf OGSSAA basierende Modi zu setzen) Warum hat mans nicht gemacht? Weils zwar schöner als OGSSAA (samt MSAA Hybridzeug) gewesen wäre, aber es imo einfach unverantwortlich ist, die GraKaleistung zu Vierteln oder (im Falle von 4x4OGSSAA) sogar zu Sechzehnteln, nur damit das Bild etwas glatter ist.

Und wer jetzt damit kommt, dass es für alte Spiele doch praktisch sei, dem entgegne ich, dass wohl fast niemand soviel Zeit hat zu den ganzen Neuerscheinung noch ausschweifend alte Spiele zocken zu können. Und wenn er nur alte Spiele spielen sollte, dann braucht er imo auch keine GraKa die allein beim Idlen schon 70Watt verbläst.

Aber da das ja jedem seine eigene Entscheidung ist und es immernoch auch Leute gibt die sich Autos, mit nem Verbrauch von 20Liter im Stadtverkehr, kaufen, kann ich mir natürlich vorstellen, dass ich mit meiner Meinung ein bisschen anecken werd ;)
Niemand streitet ab, daß SSAA ineffizient ist. Allerdings, wenn überschüssige Leistung vorhanden, warum nicht in Qualität umsetzen? Und, der Markt ist zwar klein, aber vorhanden (Wesker, Tombman, etc), es GIBT Leute die sich zwei GTX/Ultra als SLI kaufen, die können praktisch in jedem Spiel 16xS nutzen.

Mr. Lolman
2007-06-15, 13:55:04
, es GIBT Leute die sich zwei GTX/Ultra als SLI kaufen, die können praktisch in jedem Spiel 16xS nutzen.

Ja das isses ja. Die könnten auch ohne SLI praktisch in jedem Spiel 8xS nutzen ;)

Und wenn man wirklich kontinuierlich zuviel überschüssige Leistung vorhanden hat, ist die HW vll etwas oversized. Wenn man aber einfach gerne ein Transistormonster bezwingt, kann man das zB ja auch mit ABST machen. (was tw. gar reines SGSSAA zu sein scheint)

Gast
2007-06-15, 14:07:37
Yo, meinetwegen auch Pixelsample, entscheidend ist eben, dass es für volleffektives SSAA mehr als nur mehr Textursamples braucht. Und da heutzutage sämtliche Pixel aus Pixelshadern kommen trifft Shadersample es genau so gut. Der Begriff macht es glaube ich auch einfacher für Anfänger, den Vorgang richtig zu verstehen.

@Lolman
"Teilweise" und "reines" scheint sich leicht zu widersprechen. Meinst du mit "teilweise" manche Spiele oder manche Bildteile?
Und wirklich volleffektives SGSSAA oder "nur" als Zweckentfremdung von MSAA + Centroid Sampling (ergo "nur" mehr Textursamples)? Gut, dürfte meistens keinen Unterschied machen.

Mr.Magic
2007-06-15, 14:47:55
@Angiesan

Wenn man weiß worauf man achten muss, fällt einem der Unterschied zwischen 4xMSAA und 8xMSAA leider durchaus auf.
Ich bevorzuge allerdings dennoch 16xS, welches (m)eine Single-GTX oft noch mit 40-60FPS packt. Nach meiner Erfahrung ist 16xQCSAA + TSSAA meistens langsamer als 16xSAA.

@Raff

32xSAA ist nicht nur langsamer als 16xSSAA, es sieht m.E. auch schlechter aus. (n)

Gouvernator
2007-06-15, 15:00:23
32xS spielt erst mit aktiviertem Transparency SSAA seine Stärke aus. Aktuell gut zu beobachten in Tomb Raider Anniversary. Dann sieht 32xS bedeutend besser aus als 16xS und 4x4SS.

Lawmachine79
2007-06-15, 15:24:21
@Angiesan

Wenn man weiß worauf man achten muss, fällt einem der Unterschied zwischen 4xMSAA und 8xMSAA leider durchaus auf.
Ich bevorzuge allerdings dennoch 16xS, welches (m)eine Single-GTX oft noch mit 40-60FPS packt. Nach meiner Erfahrung ist 16xQCSAA + TSSAA meistens langsamer als 16xSAA.

@Raff

32xSAA ist nicht nur langsamer als 16xSSAA, es sieht m.E. auch schlechter aus. (n)
Da gebe ich Dir Recht - Du sagtest ja, wenn man weiß, worauf man achten muss.
Ich sitze gewöhnlich 50-80cm vom Monitor entfernt. Wenn Du mir drei Bilder zeigst:
1) 4xMSAA
2) 8xMSAA
3) 8xS
würde ich nur das 8xS Bild zuordnen können - ich wüßte nicht, welches 8x und 4xMSAA ist. Zwischen 2x und 4x ist der Unterschied noch recht deutlich.

Ich habe das mal gebenched, 16xQ+TSSAA ist deutlich langsamer als 8xS, 16xQ ist etwas langsamer bis 8xS, selten auch gleichschnell. Aber beide Modi sind deutlich schneller als 16xS.

Warum 32xS schlechter aussehen soll weiß ich nicht - ist wohl Dein Eindruck, nachvollziehen lässt es sich nicht.

@Gouvernator
Warum TSSAA anschalten, wenn 16xS aktiv ist? Bei 16xS gibt es doch eh keine Probleme mehr mit transparenten Texturen. TSSAA (2x2 oder 4x4 auf Texturen?!?) macht nichts anderes als SSAA, nur eben beschränkt auf transparente Texturen. Die werden dann eben nochmal gemacht, so daß Du auf transparente Texturen eine 4x4 oder 6x6 EER (?) hast.

Raff
2007-06-15, 15:31:08
Warum 32xS schlechter aussehen soll weiß ich nicht - ist wohl Dein Eindruck, nachvollziehen lässt es sich nicht.

32xS hat eine saugeile EER auf Polygonkanten (und Alphatests, wenn TSSAA an ist), aber eben wie 16xS "nur" 2x2 auf Texturen und Shader. 16x OGSSAA sieht eben dann besser aus, wenn Letztere gemein sind. Beispielsweise, wenn man Half-Life 2 mit der Fakefactory-Texturmod zockt, wie ich gerade.

@Gouvernator
Warum TSSAA anschalten, wenn 16xS aktiv ist? Bei 16xS gibt es doch eh keine Probleme mehr mit transparenten Texturen. TSSAA (2x2 oder 4x4 auf Texturen?!?) macht nichts anderes als SSAA, nur eben beschränkt auf transparente Texturen. Die werden dann eben nochmal gemacht, so daß Du auf transparente Texturen eine 4x4 oder 6x6 EER (?) hast.

TSSAA glättet Alphatests deutlich besser als das OGSSAA in 8xS, 16xS oder 32xS. Letzteres enthält 8x SGMSAA, mit TSSAA also 8x8 auf Alphatests. 16x OGSSAA bietet hier nur 4x4, 16xS und 32xS ohne TSSAA nur 2x2. Ergo: 32xS plus TSSAA: Alphatests perfekt gebügelt.

MfG,
Raff

Lawmachine79
2007-06-15, 15:54:05
TSSAA glättet Alphatests deutlich besser als das OGSSAA in 8xS, 16xS oder 32xS. Letzteres enthält 8x SGMSAA, mit TSSAA also 8x8 auf Alphatests. 16x OGSSAA bietet hier nur 4x4, 16xS und 32xS ohne TSSAA nur 2x2. Ergo: 32xS plus TSSAA: Alphatests perfekt gebügelt.

MfG,
Raff
Wenn die Hardware das auf Alphatest-Texturen kann, wieso dann nicht aufs ganze Bild? Ich rede jetzt von 8xSGSSAA; und ist SGSSAA performanter als OGSSAA?

Gast
2007-06-15, 16:00:30
Ich rede jetzt von 8xSGSSAA; und ist SGSSAA performanter als OGSSAA?Bei gleicher Sampleanzahl ist SGSSAA praktisch genauso schnell wie OGSSAA. Allerdings ist es auch effizienter, was Kantenglättung betrifft.

Angiesan
2007-06-15, 16:14:09
@Angiesan

Wenn man weiß worauf man achten muss, fällt einem der Unterschied zwischen 4xMSAA und 8xMSAA leider durchaus auf.
Ich bevorzuge allerdings dennoch 16xS, welches (m)eine Single-GTX oft noch mit 40-60FPS packt. Nach meiner Erfahrung ist 16xQCSAA + TSSAA meistens langsamer als 16xSAA.

@Raff

32xSAA ist nicht nur langsamer als 16xSSAA, es sieht m.E. auch schlechter aus. (n)

Ja den 8xS finde ich auch besser wie den 4xMSAA Modi.
Aber bei dem normalen 8XMSAA kann ich keine wirklichen Unterschiede ausmachen die mir jetzt so auf Anhieb ins Auge springen würden.Ich achte auch nicht mit so geschultem Auge darauf.;)
Den 16xSSAA Modi habe ich mal nur kurz angehabt und in dem was ich zur Zeit an alten Games spiele reicht auch die 88GTX nicht um das für meine Gefühle flüssig wiederzugeben.
Aber da gehen ja bekanntlich die Meinungen deutlich auseinander.
Aber TRA sollte ich vielleicht mal testen, da habe ich immer über 100FPS da ist noch eine Menge Luft.

Grüße

Lawmachine79
2007-06-15, 16:20:03
Bei gleicher Sampleanzahl ist SGSSAA praktisch genauso schnell wie OGSSAA. Allerdings ist es auch effizienter, was Kantenglättung betrifft.
Du meinst damit, daß bei gleicher Samplezahl zwar die Performance identisch ist, das Ergebnis aber bei SGSSAA besser (das ist nach meinem Sprachverständnis effektiver - will nur sichergehen, daß ich das richtig verstanden habe)

Raff
2007-06-15, 16:26:12
Du meinst damit, daß bei gleicher Samplezahl zwar die Performance identisch ist, das Ergebnis aber bei SGSSAA besser (das ist nach meinem Sprachverständnis effektiver - will nur sichergehen, daß ich das richtig verstanden habe)

Richtig, Sparse Grid SSAA ist sowohl effizienter als auch effektiver als Ordered Grid SSAA. 8x SGSS (V5 6000 ;)) bietet eine ähnliche Bearbeitung wie 8x8 (= 64x) OGSSAA bei einem Achtel des Rechenaufwands. 8x SGSS ist doppelt so schnell wie 16x OGSSAA, glättet aber im Schnitt besser. Was glaubst du, warum Lolli, ich und so manch anderer herumheult, dass man kein SGSSAA anbietet? ;)

MfG,
Raff

Mr. Lolman
2007-06-15, 16:36:45
@Lolman
"Teilweise" und "reines" scheint sich leicht zu widersprechen. Meinst du mit "teilweise" manche Spiele oder manche Bildteile?
Und wirklich volleffektives SGSSAA oder "nur" als Zweckentfremdung von MSAA + Centroid Sampling (ergo "nur" mehr Textursamples)? Gut, dürfte meistens keinen Unterschied machen.

Manche Spiele. Madmanniman hatte da mal was untersucht.

Wenn die Hardware das auf Alphatest-Texturen kann, wieso dann nicht aufs ganze Bild? Ich rede jetzt von 8xSGSSAA; und ist SGSSAA performanter als OGSSAA?

Natürlich kanns sie das auch aufs gesamte Bild. Man schaltets aber nicht frei, weils ne Verschwendung ist und Kontraproduktiv sein kann, wenn die Leutz dann in den Reviews erfahren müssen, dass die schönen Überdrübermodi soviel Performance kosten (ist nicht gut fürs Marketing). Aus genau dem gleichen Grund sind die Hybridmodi ja auch nicht mehr offiziell anwählbar.

AnarchX
2007-06-15, 16:48:00
Sir Eric Demers(architecture lead on R600) on AMD R600 (http://www.beyond3d.com/content/interviews/39/1)@B3D

Undertaker
2007-06-15, 16:56:04
Richtig, Sparse Grid SSAA ist sowohl effizienter als auch effektiver als Ordered Grid SSAA. 8x SGSS (V5 6000 ;)) bietet eine ähnliche Bearbeitung wie 8x8 (= 64x) OGSSAA bei einem Achtel des Rechenaufwands. 8x SGSS ist doppelt so schnell wie 16x OGSSAA, glättet aber im Schnitt besser. Was glaubst du, warum Lolli, ich und so manch anderer herumheult, dass man kein SGSSAA anbietet? ;)

MfG,
Raff

dann frag ich mal keck, wenn es denn so geil ist und keine nachteile hat, warum bietet es keiner an? zumindest für nvidia sollte das durch die 3dfx übernahme ja kein problem sein...?

Blaire
2007-06-15, 17:04:48
Zeit = Geld. Außerdem stehen OGSSAA Hybridmodi qualitativ einfach in keinem guten Verhältnis zur Performance. Da können schöne Filter und Alpha2Coverage viel mehr reissen.

Alles klar, du kannst das auch gut beurteilen. ;)

Unbestritten ist auch, dass sehr viel Performance drauf geht, bzw. man System schnell zu einem GPU-Limit zwingen kann. Ich penetrier da gern den Vergleich, dass ein SLI User mit 8xS zwar ein schöneres Bild haben mag, als einer ohne SLI und 4xMSAA, aber außer diesem Aspekt eigentlich nur Nachteile hat: teurer, energiehungriger, lauter und das alles bei gleichen fps.

Alles Quatsch, SLI ist dafür da die Grundperformance zu erhöhen für größere Monitore/höhere Auflösungen. Es macht daher sehr wohl einen Unterschied ob man ein Game mit 2560x1600 ohne AA oder mit AA spielen kann. Daher solltest du dich ein bissl zügeln mit deinen Aussagen , ohne je Erfahrung damit gesammelt zu haben.

Gouvernator
2007-06-15, 17:05:17
We see in the latest driver, some 2x to 3x improvement in adaptive AA performance, for example, which is great but came later than I would have liked.
Ich hoffe für ihn das er richtige Leistung mit SSAA -AAA meint und nicht ihren EATM Einsatz. :D

Mr. Lolman
2007-06-15, 20:00:56
dann frag ich mal keck, wenn es denn so geil ist und keine nachteile hat, warum bietet es keiner an? zumindest für nvidia sollte das durch die 3dfx übernahme ja kein problem sein...?

Hab ich doch schon geschrieben.

Alles klar, du kannst das auch gut beurteilen. ;)

Ja, das kann ich wirklich.


Alles Quatsch, SLI ist dafür da die Grundperformance zu erhöhen für größere Monitore/höhere Auflösungen. Es macht daher sehr wohl einen Unterschied ob man ein Game mit 2560x1600 ohne AA oder mit AA spielen kann. Daher solltest du dich ein bissl zügeln mit deinen Aussagen , ohne je Erfahrung damit gesammelt zu haben.

8xS verbraucht die doppelte Füllrate wie 4xAA. SLI verdoppelt die Füllrate.

So einfach ist das. Und dass ich den Nutzen von SLI generell abstreite, steht auch nirgends. Du solltest einfach ein bisschen genauer lesen, bevor du postest ;)

Ich hoffe für ihn das er richtige Leistung mit SSAA -AAA meint und nicht ihren EATM Einsatz. :D

Natürlich meinen sie EATM. EATM stellt ja Alphablending nach und das garnicht mal so schlecht. Momenten gibts bei 4xAA 16 Abstufungen.

Gast
2007-06-15, 20:11:44
Wenn es so einfach ist, finde ich das ganz schön blöd von ATI - dabei gehen potentielle Kunden flöten - klar sieht man hier im 3dCenter gut, wie wenige es sind - aber wenn der Aufwand gering ist, wäre es das wert. Ein anderer Grund wird sein, daß SSAA hautpsächlich Füllratenabhängig ist, nach dem R4xx kam nichts mehr von ATI, was hinsichtlich Füllrate zeitgemäß ist..

SSAA ist nicht hauptsächlich füllratenabhängig sondern "pixelabhängig".
werden die pixel mit viel arithmetik und wenig texturzugriffen berechnet, so ist auch mit SSAA die arithmetikleistung mehr gefragt.

Gast
2007-06-15, 20:20:08
32xS spielt erst mit aktiviertem Transparency SSAA seine Stärke aus. Aktuell gut zu beobachten in Tomb Raider Anniversary. Dann sieht 32xS bedeutend besser aus als 16xS und 4x4SS.

wie bekommst du denn bitte TRA mit 32xS+TRSSAA flüssig?

das geht bei mir nichtmal mit 16xQ+TRSSAA auf einer übertakteten 8800GTS, so viel schneller ist da eine GTX/ultra auch nicht, dass da plötzlich die 4-fache kantenglättung möglich ist.

Gast
2007-06-15, 20:24:05
Natürlich meinen sie EATM. EATM stellt ja Alphablending nach und das garnicht mal so schlecht. Momenten gibts bei 4xAA 16 Abstufungen.

dagegen ist ja auch nichts zu sagen, höchstens an der art wie ist (wahrscheinlich) umgesetzt wird, nämlich als reiner ersatz für TRSSAA (ich verwende jetzt mal die NV-bezeichnungen, weil sie imo genauer beschreiben was gemacht wird)

das ganze kommt eher so rüber: "schau her wir sind jetzt mit TRAA soviel schneller als die konkurrenz." nur wird damit unterschlagen dass nur TRMSAA verwendet wird, damit die reviewer möglichst TRMSAA gegen TRSSAA benchen"

dr_mordio
2007-06-15, 20:39:42
Also, on the feature side, we weren’t able to expose the adaptive edge detect CFAA modes to the public, or even to the press, until very late in the review process. This means that most reviewers did not have a chance to look at the amazing quality this mode offers – There is nothing comparable to it out there.


also scheint es edge detect jetzt doch zu geben, kann das jemand bestätigen?

MfG
Alex

Mr. Lolman
2007-06-15, 20:45:35
dagegen ist ja auch nichts zu sagen, höchstens an der art wie ist (wahrscheinlich) umgesetzt wird, nämlich als reiner ersatz für TRSSAA (ich verwende jetzt mal die NV-bezeichnungen, weil sie imo genauer beschreiben was gemacht wird)

Solangs funktioniert, ists der bessere Ersatz. Trotzdem werden Leutz über Regkeys (oder externe Tools) wahrscheinlich immernoch herkömliches ASTT und ASBT aktivieren können.

NV hat ja die Wahl. Die könnten ihr TRMSAA auch zum Defaultmodus machen. (sie könntens theoretisch genausogut auf EATM Niveau bringen, was ja auch für NV-Nutzer ein netter Vorteil wär)


das ganze kommt eher so rüber: "schau her wir sind jetzt mit TRAA soviel schneller als die konkurrenz." nur wird damit unterschlagen dass nur TRMSAA verwendet wird, damit die reviewer möglichst TRMSAA gegen TRSSAA benchen"

Der Schmäh daran ist ja, dass nirgendwer sagt, dass AAA unbedingt aus partiellem SSAA bestehen muss*. Im Gegenteil ein gutes/fehlerfreies EATM ist qualitativ einem ASTT/TSSAA überlegen, da es Alphablending nachstellt und Alphablending besser ist, als jedes noch so gut (aber eben nur bildschirmpixelweise) geglättete Alphatesting.

Es muss halt nur fehlerfrei sein, damit das gilt. Wer mir das jetzt nicht glauben mag, solls sich einfach mal die betreffende Humusdemos reinziehen...

Imo ists eine sehr erfreuliche Entwicklung, die BQ-Verbesserungsmaßnahmen performancetechnisch günstiger werden zu lassen. Dazu zählen auch AF-Optimierungen, die ja positiv sind, solang mit der Samplesparerei nicht übertrieben wird: Die Grafik ist gut und die fps sind höher => Mehr Leistung für Gamedetails übrig!

* Genau wie sich aths damals aufgeregt hat, dass ATis Performance AF kein echtes biAF ist, weils durch die Überfilterung die Mipmapübergänge tw recht gut versteckt hat, was bei biAF eben nicht passieren dürfte => ATi hat nie von biAF gesprochen. Für die war das immer PerformanceAF.

Lawmachine79
2007-06-15, 21:05:16
SSAA ist nicht hauptsächlich füllratenabhängig sondern "pixelabhängig".
werden die pixel mit viel arithmetik und wenig texturzugriffen berechnet, so ist auch mit SSAA die arithmetikleistung mehr gefragt.
Das verstehe ich nicht - die Pixel, die gesampelt werden, wurden doch bereits gerechnet und dienen als "Bezugspunkte"?

Blaire
2007-06-15, 21:12:33
das ganze kommt eher so rüber: "schau her wir sind jetzt mit TRAA soviel schneller als die konkurrenz." nur wird damit unterschlagen dass nur TRMSAA verwendet wird, damit die reviewer möglichst TRMSAA gegen TRSSAA benchen"

Das wird dazu führen das keiner mehr mit TRAA bencht und in Zukunft gänzlich auf SSAA verzichtet wird. Und dann geht das Gejammer wieder von vorne los. Aber die Leute lernen es einfach nicht.

Mr. Lolman
2007-06-15, 21:22:54
Das wird dazu führen das keiner mehr mit TRAA bencht und in Zukunft gänzlich auf SSAA verzichtet wird. Und dann geht das Gejammer wieder von vorne los. Aber die Leute lernen es einfach nicht.

Welches Gejammer? Anhand der Computerbasescores sieht man ja eh, wie sehr heutige GraKas mit TSSAA akacken. Das kann doch einfach nicht der Weisheit letzter Schluß sein, dass man jedes einzelne Grasbüschel mit dem mindestens 4-fachen Füllratenaufwand glättet.

Blaire
2007-06-15, 21:36:36
Aber ich kann wählen zwischen TRMSAA und TRSSAA mehr braucht niemand! Irgendwelche Hacks interessieren mich nicht. Ati sollte lieber SSAA/Hybriden anbieten anstatt auf solche Sparmaßnahmen zu setzen. Ist eh fürn Arsch wo in der Gameindustrie mit Ressourcenverschwendung nicht gerade gegeizt wird. Ihr seid die ersten die rumjammern ,das sieht man schon heute wie ihr euch an den SGSSAA aufgeilt und längst vergangene Zeiten aufleben lasst.
Wenn Ati mit dem Scheiss anfängt , dauert es nicht lange dann hat NV das auch und streicht die Hybriden/SSAA Modis komplett weil es ja eh alle so wollen ,wie früher schon diesen ganzen Optimierungsscheiss von Ati.

Gouvernator
2007-06-15, 21:43:02
wie bekommst du denn bitte TRA mit 32xS+TRSSAA flüssig?

das geht bei mir nichtmal mit 16xQ+TRSSAA auf einer übertakteten 8800GTS, so viel schneller ist da eine GTX/ultra auch nicht, dass da plötzlich die 4-fache kantenglättung möglich ist.
Wo sage ich das TR:A flüssig läuft? Ich gucke mir grundsätlch jeden noch so hohen AA Mode an, in höchstmöglicher Auflösung - egal was es kostet, da bin ich nicht zu scheu :biggrin:

Gast
2007-06-15, 21:44:10
NV hat ja die Wahl. Die könnten ihr TRMSAA auch zum Defaultmodus machen. (sie könntens theoretisch genausogut auf EATM Niveau bringen, was ja auch für NV-Nutzer ein netter Vorteil wär)


meines wissens ist TRAA bei beiden IHVs in defaulteinstellung ausgeschaltet. bei NV hat man die wahl zwischen TRMSAA und TRSSAA, bei ATI im moment nur die AAA-einstellung (die im moment ja TRSSAA ist)

es ist nichts dagegen zu sagen, ja sogar zu begrüßen, dass ATI auch einen TRMSAA-modus bringt, nur bitte als eigene option und nicht als stillschweigenden ersatz für TRSSAA.

Gast
2007-06-15, 21:47:33
Das verstehe ich nicht - die Pixel, die gesampelt werden, wurden doch bereits gerechnet und dienen als "Bezugspunkte"?


es müssen pixel berechnet werden, mit SSAA müssen mehr pixel berechnet werden also ohne.

wieviele textursamples und wieviel arithmetikleistung dafür hängt von der anwendung ab. ist die anwendung texturlastik wird mit SSAA mehr texturfüllrate benötigt, ist sie arithmetiklastig wird entsprechend mehr arithmetikleistung benötigt. das verhältnis bleibt mit und ohne SSAA gleich.

robbitop
2007-06-15, 21:51:01
Naaajaa. EATM sieht klasse aus und kostet wenig. Aber es geht halt nicht immer. Und der Kontent sieht etwas anders aus, als er aussehen sollte. Aber rein subjektiv sieht es verdammt gut aus (in Oblivion zumindest).

Lawmachine79
2007-06-15, 22:45:54
es müssen pixel berechnet werden, mit SSAA müssen mehr pixel berechnet werden also ohne.

wieviele textursamples und wieviel arithmetikleistung dafür hängt von der anwendung ab. ist die anwendung texturlastik wird mit SSAA mehr texturfüllrate benötigt, ist sie arithmetiklastig wird entsprechend mehr arithmetikleistung benötigt. das verhältnis bleibt mit und ohne SSAA gleich.
Ich glaube Dir das ja, aber ich verstehe es nicht.
Wir haben hier einen Pixel und der soll gesampelt werden. Der Pixel ist fertig, hat also die Arithmetikdinge hinter sich. Ok? Ok. So - nun das Samplen - wenn ich es richtig verstanden habe, werden dazu die Nachbarpixel (wieviele es sind hängt eben von der Samplingstufe ab) genutzt (die den Arithmetikvorgang auch hinter sich haben) und der Pixel bekommt nach Berechnung eines neuen Farbwerts diesen zugeordnet. Wo liegt jetzt mein Denkfehler?

Mr.Magic
2007-06-15, 23:05:01
Ich glaube Dir das ja, aber ich verstehe es nicht.
Wir haben hier einen Pixel und der soll gesampelt werden. Der Pixel ist fertig, hat also die Arithmetikdinge hinter sich. Ok? Ok. So - nun das Samplen - wenn ich es richtig verstanden habe, werden dazu die Nachbarpixel (wieviele es sind hängt eben von der Samplingstufe ab) genutzt (die den Arithmetikvorgang auch hinter sich haben) und der Pixel bekommt nach Berechnung eines neuen Farbwerts diesen zugeordnet. Wo liegt jetzt mein Denkfehler?

Ganz einfach...
Runtergerechnet wird erst am Ende.

Die Karte berechnet das Bild also in einer Größe von z.B. 6400x4800 (1600x1200 bei 16xSSAA). Bei modernen Spielen wird von den Shadern viel per Pixel berechnet (z.B. die Beleuchtung), man braucht also mehr Arithmetikleistung.

Gast
2007-06-15, 23:42:17
Wir haben hier einen Pixel und der soll gesampelt werden. Der Pixel ist fertig, hat also die Arithmetikdinge hinter sich.

pixel werden nicht gesampelt sondern berechnet. das kann auf verschiedene weise geschehen, unter anderem indem aus einer textur gesampelt wird, diese irgendwie gefiltert wird und vielleicht noch einige andere berechnungen durchgeführt werden.

es ist für jeden pixel eine zahl an arithmetischen und texturoperationen notwendig. unter umständen sind auch nur textur- oder nur arithmetikoperationen für einen pixel denkbar.

mit SSAA steigt der bedarf an arithmetik- und texturleistung gleich stark an eine karte mit einer schwäche auf einer seite hat diese sowohl mit als auch ohne SSAA (sofern man ohne SSAA nicht am cpu-limit ist), einer texturschwachen karte tut SSAA gleich viel weh wie einer texturstarken karte.

Gast
2007-06-16, 08:53:48
also scheint es edge detect jetzt doch zu geben, kann das jemand bestätigen?

MfG
Alex
Edge Detect gibt's mit einem speziellen Tool von AMD (welches aber wohl nur Registry-Settings schreibt).

Gast
2007-06-16, 08:56:22
Im Gegenteil ein gutes/fehlerfreies EATM ist qualitativ einem ASTT/TSSAA überlegen, da es Alphablending nachstellt und Alphablending besser ist, als jedes noch so gut (aber eben nur bildschirmpixelweise) geglättete Alphatesting.
Unfug. Alpha-Blending und Alpha-Testing sind zwei völlig verschiedene Vorgehensweisen, die für verschiedene Zwecke eignen. Man sollte nicht das eine mit dem anderen ersetzen und umgekehrt.

Alpha-Blending ist gut für Gräser und ähnliches, welche möglicherweise eine zum Rand hin durchscheinendere Oberfläche haben und daher geblendet besser aussehen.

Bei einem Maschendraht aber ist die Grenze zwischen Masche und Draht optisch klar definiert - hier sieht ein weiches Überblenden einfach falsch aus.

Gast
2007-06-16, 08:57:58
Und der Kontent sieht etwas anders aus, als er aussehen sollte.
Das ist genau der Punkt, den Mr. Lolman offenbar übersieht oder ignoriert.

Für den passenden Content kann EATM Klasse aussehen, anderen Content kann es aber wiederum verfälschen.

robbitop
2007-06-16, 09:31:32
Das ist genau der Punkt, den Mr. Lolman offenbar übersieht oder ignoriert.

Für den passenden Content kann EATM Klasse aussehen, anderen Content kann es aber wiederum verfälschen.
Es wird definitiv "verfaelscht". Das sticht mir sogar ohne Brille ins Auge. Blaetter bsw werden auf einmal viel groesser. Aber subjektiv sieht es klasse aus.

Gast
2007-06-16, 09:51:56
Es wird definitiv "verfaelscht". Das sticht mir sogar ohne Brille ins Auge. Blaetter bsw werden auf einmal viel groesser. Aber subjektiv sieht es klasse aus.

Große Blätter finde ich nicht dramatisch - wie gesagt, zu solchem Content passt ein weicher Übergang von opak zu transparent auch eher. Zu soliden Objekten dagegen eher nicht. Unterscheidet EATM das?

robbitop
2007-06-16, 09:56:11
Unterscheidet EATM das?
Glaub ich kaum. Ich wuesste auch nicht wie. Es sollte alles an Alpha Texturen behandeln.

Gast
2007-06-16, 10:21:34
Das verstehe ich nicht - die Pixel, die gesampelt werden, wurden doch bereits gerechnet und dienen als "Bezugspunkte"?Bei OGSSAA werden einfach mehr Pixel berechnet und dann am Ende runterskaliert. Antialiasing ist kein Postfilter-Effekt, der auf ein fertiges Bild angewendet werden kann. AA muss bei der Berechnung der Pixel bereits berücksichtigt werden.

Mr. Lolman
2007-06-16, 10:54:00
Es wird definitiv "verfaelscht". Das sticht mir sogar ohne Brille ins Auge. Blaetter bsw werden auf einmal viel groesser. Aber subjektiv sieht es klasse aus.

Das liegt an den ATM-Keys. Mit Sharpenbias sind die Blätter originalgroß - dafür grieseliger. Zumindest noch...

Grestorn
2007-06-16, 18:36:08
Dann hab' i' halt Tomate' auf de' Auge'.

http://www.nvnews.net/vbulletin/showpost.php?p=1102502&postcount=134

Offensichtlich. Es ist gesichert, dass AA nicht geht. Der einzige Trick ist das berühmte "Alle Videos ausschalten, selbe Auflösung wie Desktop verwenden und die Finger kreuzen".

Da aber auch diese Methode Grafikfehler produziert und nicht immer nachvollziehbar funktioniert, kann man das nicht zählen.

(+44)
2007-06-16, 21:53:11
Sagtmal, was ist aus der 2900XT mit 1GB ram geworden?

Die sollte doch vorgestern vorgestellt werden.

Wird die nochmal released?

Gast
2007-06-16, 22:33:29
Ruhe, Ruhe.

Ist ja schon gelistet: http://geizhals.at/eu/a262057.html

deekey777
2007-06-16, 22:56:47
Sagtmal, was ist aus der 2900XT mit 1GB ram geworden?

Die sollte doch vorgestern vorgestellt werden.

Wird die nochmal released?
Da wird eigentlich nichts released, die Hersteller selbst entscheiden, ob sie eine GB-Version auf den Markt bringen, siehe Diamond.

Der_Korken
2007-06-16, 23:22:52
Gibt es schon Tests zu der Karte? Hab bis jetzt noch nichts gefunden.

Raff
2007-06-16, 23:41:24
Gibt es schon Tests zu der Karte? Hab bis jetzt noch nichts gefunden.

Da gibt's im Grunde auch nicht viel zu testen. Real 10 (kein AA) bis 20 (mit MSAA) Prozent mehr Leistung sind wahrscheinlich. Wenn dann mit 8x MSAA und CFAA-Spielchen doch mal der VRAM ausgehen sollte, sind es vielleicht auch mal 50%.

MfG,
Raff

Undertaker
2007-06-17, 10:58:33
die genauen zahlen wären ja doch schon ganz interessant, vorallem ob es zum schlagen der 8800ultra reicht

Gast
2007-06-17, 11:01:53
Schlagen? Im Stromverbrauch auf jeden Fall ;D ;D ;D

Grestorn
2007-06-17, 11:08:08
die genauen zahlen wären ja doch schon ganz interessant, vorallem ob es zum schlagen der 8800ultra reicht

Lol. Wie sollte denn das gehen?

Die einzige App, in der die Ultra geschlagen wird, dürften die ATI Demos sein. Und auch nur deswegen, weil ATI viel Mühe aufgewendet hat, damit diese auf der Ultra gar nicht erst laufen.

Warum wohl.

reunion
2007-06-17, 11:40:42
Lol. Wie sollte denn das gehen?

Die einzige App, in der die Ultra geschlagen wird, dürften die ATI Demos sein. Und auch nur deswegen, weil ATI viel Mühe aufgewendet hat, damit diese auf der Ultra gar nicht erst laufen.

Warum wohl.

Ebenfalls lol, als ob die NV-Demos auf den ATi-Karten laufen würden. Warum wohl. :rolleyes:
Als ob irgendein Tech-Demo eines Herstellers je ohne Tweaks auf dem Konkurrenzprodukt gelaufen wäre.

Grestorn
2007-06-17, 11:45:03
Ebenfalls lol, als ob die NV-Demos auf den ATi-Karten laufen würden. Warum wohl. :rolleyes:

Weil die OpenGL Extension fehlen.

reunion
2007-06-17, 11:50:52
Weil die OpenGL Extension fehlen.

Und weiter? nV verwendet ausgerechnet diese OpenGL Extensions ja wohl nicht ohne Grund. Auch ATi verwendet laut eigenen Angaben die Tesslationseinheit bei sämtlichen R6xx-Demos, auch wenn da Demirug anderer Meinung ist. Es ist nur logisch und nachvollziehbar, dass die Hersteller nicht wollen, dass diese Techdemos auf den Konkurrenzprodukten laufen. Hier so zu tun, als ob das ATi nur deshalb so macht, damit man sich nicht blamieren muss, ist ziemlich an den Haaren herbei gezogen.

Gast
2007-06-17, 11:57:02
Zum Blamieren brauchts die Techdemos gar nicht mehr ;D ;D ;D

Gast
2007-06-17, 12:07:50
die genauen zahlen wären ja doch schon ganz interessant, vorallem ob es zum schlagen der 8800ultra reicht


http://www.extreme-pc.ca/showproduct.asp?menu1id=12&menu2id=99&menu3id=39&productid=371414


unten stehen benchmark ergebnisse

Nakai
2007-06-17, 12:10:28
Naja diese Benches kann man getrost in die Tonne schmeisen.

mfg Nakai

Undertaker
2007-06-17, 12:11:29
Lol. Wie sollte denn das gehen?

Die einzige App, in der die Ultra geschlagen wird, dürften die ATI Demos sein. Und auch nur deswegen, weil ATI viel Mühe aufgewendet hat, damit diese auf der Ultra gar nicht erst laufen.

Warum wohl.

der r600 hat mit den letzten treibern wohl mächtig zugelegt und zur gtx durchaus aufgeschlossen - da halte ich den kampf gegen die ultra für nichteinmal unrealistisch

Gast
2007-06-17, 12:30:29
Naja diese Benches kann man getrost in die Tonne schmeisen.

mfg Nakai

warum?

ich wette du hast eine 8800gtx, oder? :D

Gast
2007-06-17, 12:31:51
der r600 hat mit den letzten treibern wohl mächtig zugelegt und zur gtx durchaus aufgeschlossenEigentlich nicht. Mit der GTX kann er höchstens mithalten, wenn EATM anstatt AAA verwendet wird.

The_Invisible
2007-06-17, 12:35:58
woran macht ihr das fest? aber bitte nicht an den 3dmark scores

mfg

Sterem
2007-06-17, 12:38:43
Eigentlich nicht. Mit der GTX kann er höchstens mithalten, wenn EATM anstatt AAA verwendet wird.

Der Eatm Treiber gehört doch schon längt zu Vergangenheit.Es gab schon 4 andere neuere Treiber.

Nakai
2007-06-17, 12:41:23
warum?

ich wette du hast eine 8800gtx, oder? :D

Nö, eine X800XT.^^

Mich interessieren keine 3DMark-Scores...

woran macht ihr das fest? aber bitte nicht an den 3dmark scores

Das frage ich mich auch gerade^^

mfg Nakai

Undertaker
2007-06-17, 12:45:04
..

mapel110
2007-06-17, 12:56:20
der r600 hat mit den letzten treibern wohl mächtig zugelegt und zur gtx durchaus aufgeschlossen - da halte ich den kampf gegen die ultra für nichteinmal unrealistisch
Das glaube ich ohnehin erst mit einem Treibervergleich und nicht mit irgendeinem Review gegen die GTX. Und sowas hab ich noch nicht gesehen.
btw welche Treiber sollen das sein, die neuer als der Cat7.5 sind? Wo gibts die?

Das eine Review, was ich gesehen hab, wo die X2900 merkwürdig gut abschnitt, benutzte seltsamerweise den Launchtreiber der X2900er.

Sterem
2007-06-17, 13:37:34
Treibervergleich.
http://www.xtremesystems.org/forums/showpost.php?p=2250937&postcount=30

:eek::eek::eek:

dildo4u
2007-06-17, 13:41:28
Da fehlt irgendwie das AF aber erkennen kann man auf diesen winz Screens eh nix.

http://img514.imageshack.us/img514/6928/xr3da2007060110462982qg6.jpg

Lawmachine79
2007-06-17, 13:51:11
Da fehlt irgendwie das AF aber erkennen kann man auf diesen winz Screens eh nix.

http://img514.imageshack.us/img514/6928/xr3da2007060110462982qg6.jpg
Da fehlt vor allem dyn.Beleuchtung.
Bevor die Karte zur 88U aufschliesst (ROFL) sollte man erstmal die GTS640 schlagen - mit AA&AF

Mr. Lolman
2007-06-17, 13:52:04
Da fehlt irgendwie das AF aber erkennen kann man auf diesen winz Screens eh nix.

http://img514.imageshack.us/img514/6928/xr3da2007060110462982qg6.jpg

iirc, sieht AppAF so aus. Da fehlt eher das Dynamic Lighting...


EDIT: zu langsam...

mapel110
2007-06-17, 13:54:14
iirc, sieht AppAF so aus. Da fehlt eher das Dynamic Lighting...


EDIT: zu langsam...
Wie soll auch AA sonst funktionieren bei Stalker?! Afaik geht beides zusammen nicht.

deekey777
2007-06-17, 14:02:02
Wie soll auch AA sonst funktionieren bei Stalker?! Afaik geht beides zusammen nicht.
Man kann auch mit dynamischer Beleuchtung das Stalker-"AA" aktivieren.
Dass auf diesem Bild die dynamische Beleuchtung fehlt, sieht man schon daran, dass auf der Straße an Bumpmapping fehlt (dazu kommen noch weitere Sachen).
Hier zum Vergleich:
http://img143.imageshack.us/img143/6711/ssarnoldie060107150232lxl3.th.jpg (http://img143.imageshack.us/my.php?image=ssarnoldie060107150232lxl3.jpg)
http://img143.imageshack.us/img143/5641/ssarnoldie060107151702ljn9.th.jpg (http://img143.imageshack.us/my.php?image=ssarnoldie060107151702ljn9.jpg)
Auf TGA-Shots kann man locker verzichten, da man den Unterschied auch mit den Komprimierungsartifuckten sieht. :)

Gast
2007-06-17, 16:21:51
http://www.pcgameshardware.de/?article_id=603918

Gast
2007-06-17, 16:40:07
http://www.pcgameshardware.de/?article_id=603918

was soll da sein? ich komm auf die hauptseite...

mapel110
2007-06-17, 16:41:45
was soll da sein? ich komm auf die hauptseite...
Leistungsvergleich: erste Benchmarks zu Radeon HD2600 XT / HD2400 im Internet

Hat aber hier im Thread irgendwie nix verloren. :|

Gast
2007-06-17, 17:56:13
sry irgendwas ist da schief gelaufen

sollte die news über die 2900xt mit 1GB sein

Gast
2007-06-17, 19:51:51
der r600 hat mit den letzten treibern wohl mächtig zugelegt und zur gtx durchaus aufgeschlossen - da halte ich den kampf gegen die ultra für nichteinmal unrealistisch

der R600 wird in der jetzigen form niemals mit der 8800GTX konkurrieren können. bestenfalls von der 8800GTS sollte man sich mit AA/AF möglicherweise etwas absetzen können.

Gast
2007-06-17, 20:21:25
der R600 wird in der jetzigen form niemals mit der 8800GTX konkurrieren können. bestenfalls von der 8800GTS sollte man sich mit AA/AF möglicherweise etwas absetzen können.Naja...
Mit ordentlich Arbeit am Treiber sollte er schon öfters vor die GTX kommen können, so lange man hauptsächlich AA und hohe Detaillevels will und auf höhere AF-Stufen verzichten kann. Aber beim AF ist wirklich Hopfen und Malz verloren, wenn das schnell werden soll muss es tot"optimiert" werden (wie es momentan ja sogar bei AI off der Fall ist).

Gast
2007-06-17, 20:30:00
Naja...
Mit ordentlich Arbeit am Treiber sollte er schon öfters vor die GTX kommen können, so lange man hauptsächlich AA und hohe Detaillevels will [...]

Die Karte verliert mit AA die meiste Leistung.

Gast
2007-06-17, 20:34:55
Die Karte verliert mit AA die meiste Leistung.Beim AA hat man aber noch das höchste Optimierungspotential. Feintuning am Speichercontroller, Feintuning an den Resolveshadern, evtl. Zweckentfremdung der TMUs uswusf...

Gast
2007-06-17, 20:36:19
Beim AA hat man aber noch das höchste Optimierungspotential. Feintuning am Speichercontroller, Feintuning an den Resolveshadern, evtl. Zweckentfremdung der TMUs uswusf...

Es bleibt trotzdem dabei, dass sie mit AA die Leistung verliert. Sie wird nie das Niveau der GTX erreichen. Selbst unter OpenGL schafft sie es nicht durchgehend.

Undertaker
2007-06-17, 21:22:28
Sie wird nie das Niveau der GTX erreichen.

da wette ich aber nen kasten dagegen ;)

Gast
2007-06-17, 21:27:02
Es bleibt trotzdem dabei, dass sie mit AA die Leistung verliert. Sie wird nie das Niveau der GTX erreichen. Selbst unter OpenGL schafft sie es nicht durchgehend.Mit den momentan verfügbaren Treibern. Wieviel Optimierungspotential da drinsteckt kann weder ich noch du verlässlich beurteilen. Dass hingegen das Potential noch nicht vollständig ausgeschöpft wird dürfte eine sichere Annahme sein.

horn 12
2007-06-17, 21:36:23
Der NEUE Beta ist da, ging ja schneller als ich dachte.
Bitte untersten Link verwenden.
Hoffe es ist die Version des dann offiz. Cat 7.6.

http://drivers.mydrivers.com/download/175-70222-ATI-Radeon-HD-2900-XT-8.381-Beta-For-WinXP

Gast
2007-06-17, 21:42:32
Mit den momentan verfügbaren Treibern. Wieviel Optimierungspotential da drinsteckt kann weder ich noch du verlässlich beurteilen. Dass hingegen das Potential noch nicht vollständig ausgeschöpft wird dürfte eine sichere Annahme sein.

AA sollte ein "Out-of-the-box" Feature sein. Wenn es in einigen Anwendungen Probleme macht, dann ist dies noch in Ordnung. Aber wenn sie in mehr Anwendungen schlechter performt, dann ist es offensichtlich, dass hier ein Problem besteht.
Und die Menschen können warten, solange sie wollen, mit AA wir die Karte nie das Niveau der GTX erreichen.

Gast
2007-06-17, 21:48:37
AA sollte ein "Out-of-the-box" Feature sein. Wenn es in einigen Anwendungen Probleme macht, dann ist dies noch in Ordnung. Aber wenn sie in mehr Anwendungen schlechter performt, dann ist es offensichtlich, dass hier ein Problem besteht.Dass es funktioniert hat ein "Out-of-the-box-feature" vom ersten Tag an zu sein. Tempo kann später kommen. War schon immer so, auch bei der Konkurrenz.
Und die Menschen können warten, solange sie wollen, mit AA wir die Karte nie das Niveau der GTX erreichen.Mit AF wird sie es nie bei vergleichbarer Qualität erreichen. Aber beim AA besteht eine sehr hohe Wahrscheinlichkeit, dass R600 am Ende schneller sein wird.

Gast
2007-06-17, 21:50:06
AA sollte ein "Out-of-the-box" Feature sein. Wenn es in einigen Anwendungen Probleme macht, dann ist dies noch in Ordnung. Aber wenn sie in mehr Anwendungen schlechter performt, dann ist es offensichtlich, dass hier ein Problem besteht.

Wo siehst du ein Problem? Ich sehe da keines.

Die Karte ist knapp 50% billiger als eine GTX. Sie kann und braucht daher gar nicht so gut performen.

Eine 8600GTS ist schließlich auch teilweise langsamer als Karten der letzten Generation in der Preisklasse.

Gast
2007-06-17, 21:52:34
da wette ich aber nen kasten dagegen ;)


wie soll sie, die texelleistung ist im vergleich zur konkurrenz einfach lachhaft, die arithmetikleistung ähnlich, lediglich die reine MAD-leistung ist etwas höher. allerdings sollte der G80-shader-core wesentlich einfacher auszulasten sein.

damit kann man mit AA/AF einfach nicht die leistung der konkurrenz erreichen, zaubern können die treiberentwickler von ATI auch nicht.

Gast
2007-06-17, 21:56:02
Dass es funktioniert hat ein "Out-of-the-box-feature" vom ersten Tag an zu sein. Tempo kann später kommen. War schon immer so, auch bei der Konkurrenz.

AA ist ein Features, das "out-of-the-box" performant funktionieren sollte. Hier handeln es sich nicht um D3D10 oder eine Tessalationseinheit.


Mit AF wird sie es nie bei vergleichbarer Qualität erreichen. Aber beim AA besteht eine sehr hohe Wahrscheinlichkeit, dass R600 am Ende schneller sein wird.

Und das machst du genau woran fest?


Die Karte ist knapp 50% billiger als eine GTX. Sie kann und braucht daher gar nicht so gut performen.

Darum geht es nicht. Siehe das Anfangsposting, wo der Gast meinte, dass die Karte mit AA öfters vor die GTX kommen könnte.

Gast
2007-06-17, 21:56:35
[QUOTE=Gast;5593727
Die Karte ist knapp 50% billiger als eine GTX. Sie kann und braucht daher gar nicht so gut performen.[/QUOTE]

braucht sie auch nicht, ohne AA/AF ist die leistung für den preis sogar extrem gut, dass man mit AA/AF sogar öfters von der 8800GTS geschlagen wird, die noch billiger ist, ist halt etwas peinlich.

aber hier ist der rückstand nicht so groß, so dass ein neuer treiber zumindest diese scharte auswetzen könnte. nur einen "wundertreiber" der den R600 plötzlich auf 8800GTX-nivau bringt glaub ich nicht.

Gast
2007-06-17, 21:57:28
Meint ihr die Karte läuft mit einem Elan Vital 400 watt Netzteil (12v1 und 12v2 jeweils 15A) zusammen mit einem 5200+ EE oder sollte ich mir doch etwas neues zulegen ?

Gast
2007-06-17, 22:11:01
braucht sie auch nicht, ohne AA/AF ist die leistung für den preis sogar extrem gut, dass man mit AA/AF sogar öfters von der 8800GTS geschlagen wird, die noch billiger ist, ist halt etwas peinlich.

Die GTS war zum Launch nicht günstiger.

Außerdem hat NVIDIA mehrere Monate Entwicklungsvorpsprung bei den Treibern. Ein fairer Vergleich wäre erst frühestens Ende des Jahres möglich und dann wird die 2900XT sicherlich die Nase vorne haben, so wie jetzt schon in den meisten Fällen.

horn 12
2007-06-17, 22:14:53
@Gast

Kann knapp werden, aber auch reichen.
Mit einem C2D OC auf ca. 3 Ghz.... denk wird sicher nicht reichen.
Ich für meinen Teil habe nur einen:
Singlecore A64 3800+ OC 2,60 Ghz,
1,5 GB Ram
2 Harddisk, 2 DVD Brenner und die 2900 XT

Als NT das Delta Chieftech GPS 450-AA (450Watt NT) mit 1x14 + 1x15 Ampere, und es reicht "locker"
Kann sogar OC (bis 820/925 probiert) und auch gezockt, jedoch nur ca. 15 Minuten. Kein Freeze oder Bluescreen bis heute gehabt!

Gast
2007-06-17, 22:15:49
AA ist ein Features, das "out-of-the-box" performant funktionieren sollte. Hier handeln es sich nicht um D3D10 oder eine Tessalationseinheit.Was heißt schon performant? Wenn die Architektur nunmal Feintuning für verschiedene Applikationen benötigt, dann braucht man auch Praxiserfahrungen damit, um das Feintuning durchführen zu können. Hauptsache funzt, Tempo darf ruhig später kommen. Wobei es noch genug Vollpfosten gibt, die kein AA einschalten weil das Bild dadurch angeblich "unschärfer" würde (ROFLBTC).
Und das machst du genau woran fest?Speicherbandbreite und (oftmals unterschätzt, oftmals überschätzt) maximale Speichermenge.
Darum geht es nicht. Siehe das Anfangsposting, wo der Gast meinte, dass die Karte mit AA öfters vor die GTX kommen könnte.Könnte sie durchaus und speziell die 1GB-Version wird dies sicher auch öfters beweisen.

deekey777
2007-06-17, 22:20:41
Der NEUE Beta ist da, ging ja schneller als ich dachte.
Bitte untersten Link verwenden.
Hoffe es ist die Version des dann offiz. Cat 7.6.

http://drivers.mydrivers.com/download/175-70222-ATI-Radeon-HD-2900-XT-8.381-Beta-For-WinXP
Nur ist dieser angebliche 7.6 Beta älter als der Hotfix:
ATI-Bildschirmtreiber Driver 8.381-070522a-047998E-ATI
Hotfix:
ATI-Bildschirmtreiber Driver 8.381-070524a-048430E-ATI
http://www.driverheaven.net/windows-xp-2k-radeon-display-drivers/138648-catalyst-7-5-hotfix-update.html

http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=27293

soeben ist ein Hotfix erschienen

"We have issued a hotfix update to Catalyst 7.5 that addresses an issue with Armed Assault.

Even if you dont play this game, you should still try them out as they are more new than Catalyst 7.5"

Gast
2007-06-17, 22:22:56
Wobei es noch genug Vollpfosten gibt, die kein AA einschalten weil das Bild dadurch angeblich "unschärfer" würde (ROFLBTC).
CFAA lässt grüssen. Manche Apps verdrehen offenbar den Modus, so dass aus versehen cfaa an ist und es tatsächlich unscharf wird.

Gast
2007-06-17, 22:25:19
CFAA lässt grüssen. Manche Apps verdrehen offenbar den Modus, so dass aus versehen cfaa an ist und es tatsächlich unscharf wird.

soweit ich weiß lässt sich CFAA nicht per applikation aktivieren.

Gast
2007-06-17, 22:27:07
Könnte sie durchaus und speziell die 1GB-Version wird dies sicher auch öfters beweisen.

und mit was? die konkurrenz hat um hausecken mehr an rohleistung und das G80-design ist zusätzlich ziemlich effizient. woher soll da die leistung kommen, durch zauberei?

Gast
2007-06-17, 22:29:31
Die GTS war zum Launch nicht günstiger.

Leider hat sich die Erdkugel weitergedreht.


Außerdem hat NVIDIA mehrere Monate Entwicklungsvorpsprung bei den Treibern. Ein fairer Vergleich wäre erst frühestens Ende des Jahres möglich und dann wird die 2900XT sicherlich die Nase vorne haben, so wie jetzt schon in den meisten Fällen.

Kein Argument. AMD hat rumposaunt, dass sie bessere Treiber als nVidia beim Launch liefern werden. Und für den Kunden spielt es ebenfalls keine Rolle, da er beim Kauf das "hier" und nicht das "wenn" beachten muss.
Und dass die 2900XT jetzt schon in den meisten Fällen die Nase vorn hätte (wir reden ja von der GTX), kannst du auch beweisen?


Was heißt schon performant? Wenn die Architektur nunmal Feintuning für verschiedene Applikationen benötigt, dann braucht man auch Praxiserfahrungen damit, um das Feintuning durchführen zu können. Hauptsache funzt, Tempo darf ruhig später kommen.

Grafikkarten verkaufen sich zu 90% über die Leistung.


Speicherbandbreite und (oftmals unterschätzt, oftmals überschätzt) maximale Speichermenge.

Absolute Speicherbandbreite hat keine Aussagekraft, da noch weitere Faktoren eine Rolle spielen. Und von der Speichermenge steht nVidia bei der GTX besser da. ;)


Könnte sie durchaus und speziell die 1GB-Version wird dies sicher auch öfters beweisen.

Beweise?

knallebumm
2007-06-17, 22:38:56
Wo siehst du ein Problem? Ich sehe da keines.

Die Karte ist knapp 50% billiger als eine GTX. Sie kann und braucht daher gar nicht so gut performen.

Eine 8600GTS ist schließlich auch teilweise langsamer als Karten der letzten Generation in der Preisklasse.

Wenn du damit 2900xt vs 8800gtx meinst, dann hast du scheinbar Probleme mit der Prozentrechnung.

Gast
2007-06-17, 22:44:00
soweit ich weiß lässt sich CFAA nicht per applikation aktivieren.Erstens das, und zweitens ist es eine zusätzliche Option, die man nutzen kann oder auch nicht. Die von mir genannten Vollpfosten glauben dies aber auch bei stinknormalem AA mit Boxfilter und schalten deshalb nie AA ein.
und mit was? die konkurrenz hat um hausecken mehr an rohleistung und das G80-design ist zusätzlich ziemlich effizient. woher soll da die leistung kommen, durch zauberei?Mehr TMU-Leistung, weniger Shaderleistung. G80 ist nicht pauschal überall überlegen.
Grafikkarten verkaufen sich zu 90% über die Leistung.Die ohne AA und AF doch sehr gut dasteht. Mit besseren Treibern wahrscheinlich auch noch mit AA.
Absolute Speicherbandbreite hat keine Aussagekraft, da noch weitere Faktoren eine Rolle spielen.Schon klar. CSAA sollte eigentlich ja auch schneller sein als Hybridmodi mit SSAA-Anteil :devil:
Und von der Speichermenge steht nVidia bei der GTX besser da. ;)Gegen die R600 mit 512MB. Nicht gegen die mit 1GB.
Beweise?Yo, ich hüpf mal schnell in meinen DeLorean und bench mit Treibern aus der Zukunft :P

Gast
2007-06-17, 22:48:56
Leider hat sich die Erdkugel weitergedreht.

Das wird sie auch in Zukunft. Woher willste wissen, ob ATI die Preise nicht früher/stärker senkt?

Kein Argument. AMD hat rumposaunt, dass sie bessere Treiber als nVidia beim Launch liefern werden. Und für den Kunden spielt es ebenfalls keine Rolle, da er beim Kauf das "hier" und nicht das "wenn" beachten muss.

Bei Vergleichen beider Hersteller untereinander spielt das sehr wohl eine Rolle. Ein Betriebssystem kommt auch nicht alle paar Tage raus, die Erfahrungen die jetzt gesammelt werden, mit dem neuen OS und der Architektur, wird die nächsten 5 Jahre von bedeutung sein. Wenn ATI aufschließen kann, sieht es für alle nachfolgenden Karten bedeutend besser aus.

Und dass die 2900XT jetzt schon in den meisten Fällen die Nase vorn hätte (wir reden ja von der GTX), kannst du auch beweisen?

Jo, 90% aller neueren Reviews in diesem Thread bestätigen das.

Grafikkarten verkaufen sich zu 90% über die Leistung.

Quelle?

Wenn du damit 2900xt vs 8800gtx meinst.

Wen juckt das? Unterschiedliche Preisklassen -> Uninteressant. Vergleich = dämlich, humbug, schwachsinn.

Gast
2007-06-17, 22:50:40
Die ohne AA und AF doch sehr gut dasteht. Mit besseren Treibern wahrscheinlich auch noch mit AA.

Leider ist die Leistung ohne AA und AF nur für ein geringeres Klintel von Bedeutung, die sich Grafikkarten über 200€ kaufen.


Schon klar. CSAA sollte eigentlich ja auch schneller sein als Hybridmodi mit SSAA-Anteil :devil:

Ist es auch. 8x und 16x sind deutlich schneller.


Gegen die R600 mit 512MB. Nicht gegen die mit 1GB.
Yo, ich hüpf mal schnell in meinen DeLorean und bench mit Treibern aus der Zukunft :P

Ah, du redest von einer "What if?" Situation. Na dann. Ich sage, die Karte wird nie die GTX im Durchschnitt erreichen, wenn AA eingesetzt.

Gast
2007-06-17, 22:54:06
Das wird sie auch in Zukunft. Woher willste wissen, ob ATI die Preise nicht früher/stärker senkt?

Ändert das etwas an den Preisen der GTS zu Zeit?

Bei Vergleichen beider Hersteller untereinander spielt das sehr wohl eine Rolle. Ein Betriebssystem kommt auch nicht alle paar Tage raus, die Erfahrungen die jetzt gesammelt werden, mit dem neuen OS und der Architektur, wird die nächsten 5 Jahre von bedeutung sein. Wenn ATI aufschließen kann, sieht es für alle nachfolgenden Karten bedeutend besser aus.

Also sollen potentielle Kunden des r600 die Nachfolgeprodukte kaufen, weil diese bessere Treiner hätten?


Jo, 90% aller neueren Reviews in diesem Thread bestätigen das.

Kannst du auch Links geben?


Quelle?

Nicht dein ernst, oder?
Quelle sind die Meinungen der Menschen in diesem Forum, die ich in den letzten fünf Jahren gelesen habe. Grafikkarten verkaufen sich primär über ihre Leistung. Vorallen, wenn sie eine sehr ähnliche Bildqualität und ökonimische Eigenschaften haben.

Gast
2007-06-17, 23:03:12
Leider ist die Leistung ohne AA und AF nur für ein geringeres Klintel von Bedeutung, die sich Grafikkarten über 200€ kaufen.Schön wärs. Leider interessieren sich viel zu viele gar nicht für die Qualität, sondern kaufen nach "E-penis-enlargement-factor". Gerade im höheren Preissegment.
Ist es auch. 8x und 16x sind deutlich schneller.Da hat unsere forumseigene numerierte Kriegsmaschine aber gänzlich anderes herausgefunden.
Ah, du redest von einer "What if?" Situation. Na dann. Ich sage, die Karte wird nie die GTX im Durchschnitt erreichen, wenn AA eingesetzt.Schaunmermal. Wies endgültig aussieht kann keiner wissen, aber ich halte die ganze Schreierei, wie grauenhaft ATIs Jüngster denn nun sei, für übertrieben und verfrüht.

Gast
2007-06-17, 23:06:07
Ändert das etwas an den Preisen der GTS zu Zeit?

Frag nvidia? :) Man sieht, das ATI, trotz des wesentlich späteren Launches, nur leicht höhere Preise angesetzt hat. Die können bei der nächsten Preissenkung schon wieder Geschichte sein.

Also sollen potentielle Kunden des r600 die Nachfolgeprodukte kaufen, weil diese bessere Treiner hätten?

Nein, wer clever ist, der denkt jedoch daran, das in den ersten Monaten nach Launch die Steigerungen auf Treiberseite am größten sind.
Selbst wenn dann zukünftige GPUs mehr Recheneinheiten bekommen, so werden keine komplett neuen Treiber notwendig, wie zuletzt.

Kannst du auch Links geben?

Sei nicht so faul, das steht alles hier im Thread und es gibt ne Suchfunktion. ;)

http://www.ixbt.com/video3/r600-part3-d.shtml#p218
http://www.hartware.de/review_716.html
...

Nicht dein ernst, oder?

Doch, es ist mein ernst. Ich will eine Quelle dafür sehen. ;)

Quelle sind die Meinungen der Menschen in diesem Forum, die ich in den letzten fünf Jahren gelesen habe.

... und die bis heute bedeutungslos sind. Foren dieser Art und deren Käufer, sind am Gesamtmarkt nichts weiter, als ein Tropfen auf den heißen Stein.
Wieviele der weltweiten User besitzen einen Quadcore samt G80 SLI?

Gast
2007-06-17, 23:06:20
Da hat unsere forumseigene numerierte Kriegsmaschine aber gänzlich anderes herausgefunden.

Hat er herausgefunden, dass 16xQ oder das CSAA langsamer wäre? ;)


Schaunmermal. Wies endgültig aussieht kann keiner wissen, aber ich halte die ganze Schreierei, wie grauenhaft ATIs Jüngster denn nun sei, für übertrieben und verfrüht.

Meine Erfahrungen haben mich gelehrt, dass etwas, was in zuvielen Anwendungen Probleme bereitet, nicht korrigiert werden kann!

Gast
2007-06-17, 23:15:47
Frag nvidia? :) Man sieht, das ATI, trotz des wesentlich späteren Launches, nur leicht höhere Preise angesetzt hat. Die können bei der nächsten Preissenkung schon wieder Geschichte sein.

AMD muss den Preis niedrig ansetzen, da der r600 in der Form der 2900XT kein konkurrenzfähiges Produkt zur GTX ist.

Nein, wer clever ist, der denkt jedoch daran, das in den ersten Monaten nach Launch die Steigerungen auf Treiberseite am größten sind.
Selbst wenn dann zukünftige GPUs mehr Recheneinheiten bekommen, so werden keine komplett neuen Treiber notwendig, wie zuletzt.

Ah, es ist also clever, nicht nur 6 sondern gleich 9-12 Monate zu warten, bis das Produkt an das Niveau der Konkurrenz heranreicht? Wirklich, das ist sehr clever...

http://www.ixbt.com/video3/r600-part3-d.shtml#p218

Ist vom 14. Mai. Also nicht "neu".

http://www.hartware.de/review_716.html

Gleichstand zwischen der GTS und der 2900XT beim Einsatz von AA und AF.
So, gibt es noch mehr neurere Reviews?

... und die bis heute bedeutungslos sind. Foren dieser Art und deren Käufer, sind am Gesamtmarkt nichts weiter, als ein Tropfen auf den heißen Stein.
Wieviele der weltweiten User besitzen einen Quadcore samt G80 SLI?

Diese Foren sind ein guter Indikator dafür, wie die Zielgruppe die Karten aufnimmt. Preise über 200€ verlassen den Massenmarkt und sprechen einen kleineren Personenkreis ein, der sich eben nicht mehr so leicht täuschen lässt. Und dieser Kreis interessiert vornehmlich für die Leistung beim Einsatz von AA und AF.

Gast
2007-06-17, 23:25:08
Hat er herausgefunden, dass 16xQ oder das CSAA langsamer wäre? ;)Er hat herausgefunden, dass man oft unglaublich billige uneffektive Coveragesamples ohne Tempoeinbußen durch enorm effektive SSAA-Samples ersetzen kann.
Meine Erfahrungen haben mich gelehrt, dass etwas, was in zuvielen Anwendungen Probleme bereitet, nicht korrigiert werden kann!Kommt immer drauf an. Die jämmerliche G7x-AF-Qualität ließ sich ja auch zu einem großen Teil ins Erträgliche steigern, wenn auch nicht komplett. So schätze ich das auch beim R600-AA-Tempo und dessen AI-off-AF-Qualität ein, wenn die Presse genug Salz in die Wunden streut.

Gast
2007-06-17, 23:28:02
Er hat herausgefunden, dass man oft unglaublich billige uneffektive Coveragesamples ohne Tempoeinbußen durch enorm effektive SSAA-Samples ersetzen kann.

Bitte die Frage beantworten.
Dass 16xQ als CSAA eher ein Checkboxfeature statt ein vernünftiger Modus ist, das ist mir bewusst. 8x und 16x sind dagegen hocheffiziente MSAA Alternativen, die in vielen Situationen eine deutlich bessere Qualität als 4xMSAA und an die Qualität von 8xMSAA heranreichen können.

Gast
2007-06-17, 23:28:38
AMD muss den Preis niedrig ansetzen, da der r600 in der Form der 2900XT kein konkurrenzfähiges Produkt zur GTX ist.

Das weiß AMD, denn mit der GTX+Ultra konkurrieren sie nicht.

Ah, es ist also clever, nicht nur 6 sondern gleich 9-12 Monate zu warten, bis das Produkt an das Niveau der Konkurrenz heranreicht?

Ja, finde ich clever. Ich muss mich dann nicht mehr mit Treibern und verkorsten 2D Modi herumschlagen. :)

Ist vom 14. Mai. Also nicht "neu".

Ein Artikel muss nicht neu sein, um Ergebnisse zu ermitteln. Mit jedem Review+Treiber konnte man bis dato fortschritte sehen.
Außerdem ist es ein eher gutes Zeichen, wenn schon kurz nach dem Launch solch gute Ergebnisse erreicht werden können.

Gleichstand zwischen der GTS und der 2900XT beim Einsatz von AA und AF.

Du musst blind sein. Die 2900XT gewinnt jeden Bench gegen die GTS.

Gast
2007-06-17, 23:34:29
Ja, finde ich clever. Ich muss mich dann nicht mehr mit Treibern und verkorsten 2D Modi herumschlagen. :)

Ahso, dann kaufst du dir also nach 12 Monate das alte Produkt? Ja, das ist schon sehr clever (wo ist eigentlich Smart?)...

Ein Artikel muss nicht neu sein, um Ergebnisse zu ermitteln. Mit jedem Review+Treiber konnte man bis dato fortschritte sehen.
Außerdem ist es ein eher gutes Zeichen, wenn schon kurz nach dem Launch solch gute Ergebnisse erreicht werden können.


Es ging um neuere Reviews mit neueren Treibern. Dieser Test war alt. Ich kann dir haufenweise Tests zeigen, die vollkommen andere Ergebnisse zur gleichen Zeit hervorgebracht haben.


Du musst blind sein. Die 2900XT gewinnt jeden Bench gegen die GTS.

Bis auf Stalker, das unter XP ein Problem mit dem Treiber hatte, herrscht ein Gleichstand beim Einsatz von AA und AF. Wird sind hier nicht in der Formel 1, wo 1,2 oder 5 FPS Abstände irgendwelche Bedeutungen hätten.

Gast
2007-06-17, 23:38:01
Das weiß AMD, denn mit der GTX+Ultra konkurrieren sie nicht.



richtig, und werden sie auch nie (auf jeden fall nicht mit der jetzigen hardware)

Gast
2007-06-17, 23:46:21
Ahso, dann kaufst du dir also nach 12 Monate das alte Produkt?

Nein. Das neue Produkt auf Basis der alten mit Weiterentwicklungen in allen Bereichen. :)

Dieser Test war alt.

Es kann nur besser werden. ;)

Ich kann dir haufenweise Tests zeigen, die vollkommen andere Ergebnisse zur gleichen Zeit hervorgebracht haben.

Ich dir auch. Dann stehen wir wieder da, wo wir jetzt sind.

Bis auf Stalker, das unter XP ein Problem mit dem Treiber hatte, herrscht ein Gleichstand beim Einsatz von AA und AF. Wird sind hier nicht in der Formel 1, wo 1,2 oder 5 FPS Abstände irgendwelche Bedeutungen hätten.

Klar haben die eine Bedeutung. Bei 10 % Preisunterschied und Frameraten von 55 vs 50 fps könnte man von einem exakten Gleichstand sprechen.

Gast
2007-06-17, 23:57:08
Nein. Das neue Produkt auf Basis der alten mit Weiterentwicklungen in allen Bereichen. :)

Und warum reden wir dann noch vom r600?

Ich dir auch. Dann stehen wir wieder da, wo wir jetzt sind.

Nein, kannst du nicht. ;)
Es gibt nur sehr wenige Reviews, die die 2900XT auf Augenhöhe mit der GTX zeigen.


Klar haben die eine Bedeutung.

Nur für denjenigen, der unbedingt einen Sieger haben will. Das ist hier jedoch vollkommen nebensächlich, da die 5fps keinen Einfluss auf das Spieleerlebnis haben werden.

Gast
2007-06-18, 00:09:56
Bitte die Frage beantworten.
Dass 16xQ als CSAA eher ein Checkboxfeature statt ein vernünftiger Modus ist, das ist mir bewusst. 8x und 16x sind dagegen hocheffiziente MSAA Alternativen, die in vielen Situationen eine deutlich bessere Qualität als 4xMSAA und an die Qualität von 8xMSAA heranreichen können.Suchfunktion funzt bei mir nicht, daher kann ich dir nur diese zwei Beiträge liefern:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5524746&postcount=117
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5499109&postcount=205
16xQ ist manchmal langsamer als 8xS, 8xQ auch. Beides bei wesentlich schlechterer Qualität. Ist G80 jetzt auch auf einmal grauenhaft, kann nicht sein, miese AA-Performance? Nö. Erst kommt die Funktionalität, dann das Tempo. Bei beiden IHVs. Gut möglich, dass auch CSAA mit späteren Treibern noch schneller wird. Beim R600-AA halte ich es aber für wahrscheinlicher, dessen Treiber sind ja noch weitaus grüner (no pun intended).

Gast
2007-06-18, 00:12:15
Und warum reden wir dann noch vom r600?

Wieso wir? Vielleicht du ...

Nein, kannst du nicht. ;)

Natürlich kann ich das.

Es gibt nur sehr wenige Reviews, die die 2900XT auf Augenhöhe mit der GTX zeigen.

Jeder, inkl. mir vergleicht sie mit der GTS. Da gewinnt sie die meisten Duelle.

Eine GTX ist völliger schwachsinn, da deutlich teurer.

Lawmachine79
2007-06-18, 01:29:56
Jeder, inkl. mir vergleicht sie mit der GTS. Da gewinnt sie die meisten Duelle.


Ja, sobald man AA & AF deaktiviert schon. Ich wollte schon immer eine 350€ GraKa haben und dann mit den Settings der S3 Virge spielen...

Gast
2007-06-18, 01:34:32
Leg erstmal die Tomaten von den Augen ab. Auf diesem Niveau brauchste hier gar nicht ankommen.

Das du falsch liegst, bestätigen genügend Reviews.

Gast
2007-06-18, 02:06:10
Leg erstmal die Tomaten von den Augen ab. Auf diesem Niveau brauchste hier gar nicht ankommen.

Das du falsch liegst, bestätigen genügend Reviews.

das problem ist es gibt zu viele tests und jeder ist anderst.

Gast
2007-06-18, 02:09:19
Wenn man sich auf die Tests der letzten 2 Wochen beschränkt, bleibt da nicht mehr so viel über. :)