PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: ATI Radeon HD 2900 XT Review


Seiten : [1] 2

Leonidas
2007-05-14, 08:42:42
Link:
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/

Ich arbeite noch an ein paar Verbesserungen + Rechtsschreibkontrolle.



Update 11:18: Die gröbsten Fehler sind raus. Die falschen Benchmark-Beschreibungen sind korrigiert, die Mouseovers funktionieren alle und die Seitenleiste steht. Sorry, war wirklich mit heisser Nadel gestrickt.


Update 15:37: Neues Fazit, Artikel nun prinzipiell fertig.

AintCoolName
2007-05-14, 08:57:51
Der Oblivion Benchmark und der Fablemark sind identisch vom Text her würde ich sagen der Oblivion Benchmark ist falsch.

The_Invisible
2007-05-14, 09:01:21
Der Oblivion Benchmark und der Fablemark sind identisch vom Text her würde ich sagen der Oblivion Benchmark ist falsch.

Bei Anno 1701 ist der Text auch identisch.

Generell sind die Texte nicht immer passen zB http://3dcenter.de/artikel/radeon_hd_2900_xt/index16.php
"Die Radeon HD 2900XT deklassiert ihren Vorgänger und besiegt sogar die Geforce 8800 GTX mit Nutzung des 4xMSAA Modus in Verbindung mit der hohen Auflösung.", ähm, wo denn? Oder bezieht sich der Text auf TDU?

Mir scheint da hat wer ja mächtig Zeitdruck gehabt.

mfg

Amischos
2007-05-14, 09:02:34
Ja und shortcuts rechts wären nich schlecht :)

captainsangria
2007-05-14, 09:04:28
http://3dcenter.de/artikel/radeon_hd_2900_xt/index16.php

das habe ich dir schon per pn geschrieben leo: mich hat es verwirrt, dass der text beim "falschen bild steht.

Roi Danton
2007-05-14, 09:09:20
Seite 3: In der Überschrift der zweiten Tabelle müsste es Radeon HD2x00 Serie heißen.

Seite 6: Mouseover bei den Bilder funktioniert nicht (falls überhaupt geplant).

Seite 10: Diagramm 1: Text passt nicht zum Diagramm: Diagramm ist falsch, es ist das von Seite 12 zu sehen.

Seite 13: Text vom zweiten Diagramm identisch zum Text vom ersten Diagramm. Er passt damit nicht zum Inhalt des zweiten Diagramms.

Seite 17: Keine Texte.

Gut, das 3DC einen Artikel zeitnah rausbringt, auch wenn ein Vergleich mit der GTS statt GTX wünschenswert gewesen wäre. :)

Stone2001
2007-05-14, 09:17:59
Seite 1:

Im Windowsbetrieb sind alle Karten durchaus sehr leise. Startet jedoch ein Computerspiel, so trennt sich die Spreu vom Weizen. Die Geforce 8800 GTX bleibt vergleichsweise ruhig. Lediglich ein Zwitschern und Pfeifen, welches sich auch bei unserer Radeon X1900XT bemerkbar machte, störte die Ruhe ein wenig. Die Radeon X1900XT ist da schon etwas lautstärker. Die Radeon HD 2900XT hingegen übertrifft dies nochmals. Ähnlich dem Geräusch eines aufdrehenden CD-ROM Laufwerks dreht der Lüfter hoch.


Müsste anstelle von X1900XT nicht 8800GTX stehen?

MadManniMan
2007-05-14, 09:19:18
Da der Artikel noch Betastatus hat, warte ich erstmal ab; aber zwei Sachen jetzt schon:

Bitte geht kritischer mit diesem CFAA um. Und Leo, schreib Du wieder - ich vermiß Deinen Stil!

Scream
2007-05-14, 09:32:56
wenn ich mir den stromverbrauch zur Leistung anschaue, dann hab ich schon ordentliche bedenken...
die kühllösung ist auch nicht so toll...

aber vielleicht kann sie mit neuen Treibern und dem günstigen Preis kontern...

Gast
2007-05-14, 09:36:51
Seite 11 HSR Benches: falsche Werte bei der Radeon (kein Unterschied B2F, F2B, unsorted)?

wolf-Cottbus
2007-05-14, 09:46:01
Seite 9. Mainboard Asus, Sockel 775, Intel P965 + ICH 7, muss eine 8 hin.

Gruß Wolf

Exxtreme
2007-05-14, 10:12:22
Wie die Website in die Knie geht. X-D

Mit ist aufgefallen, daß wenn man über den Text mit der Maus fährt dann färbt er sich rot. Browser ist Firefox 2.0.0.3.

Gast
2007-05-14, 10:25:27
"Preislich scheint die Radeon HD 2900XT ein echter Knaller zu sein. Für 325-350 EUR soll sie laut Geizhals verfügbar sein. Das sind eher Regionen einer Geforce 8800 GTS als die einer GTX. Erstere ist rund 30-40% langsamer als das hier betrachtete High End Modell."


Seltsames Fazit, die GTS wurde doch garnicht mitgetestet. Soll der Leser das jetzt einfach so fressen? Andere Reviews zeigen die 2900XT auf dem Niveau einer GTS.

Gast
2007-05-14, 10:27:24
ausserdem is bei Geizhals noch gar nix gelistet ;)

nino
2007-05-14, 10:28:40
respekt das muss gut gestresst haben in der kurzen zeit noch die ganzen benches gemacht zu haben ^^ auch wenn die texte zu den grafiken nicht so passen.

noch ein kleiner fehler:
Deutlich zurückhängend bezüglich des anisotropen Filters bleibt weiterhin die GeForce7-Serie von nVidia, hier fehlt es im Vergleich zu den anderen im Markt angebotenen Möglichkeiten inzwischen klar an einem winkelabhängigen anisotropen Filter.

genial fand ich ja den "aths-approved"-siegel xD

[dzp]Viper
2007-05-14, 10:32:18
"Preislich scheint die Radeon HD 2900XT ein echter Knaller zu sein. Für 325-350 EUR soll sie laut Geizhals verfügbar sein. Das sind eher Regionen einer Geforce 8800 GTS als die einer GTX. Erstere ist rund 30-40% langsamer als das hier betrachtete High End Modell."

Da habe ich mich auch gewundert. Vor allem da eine 2900XT mit Abstand keine 30-40% schneller als eine 8800GTS ist.. sondern maximal 5-10% schneller und gleichschnell oder sogar langsamer sobald AA hinzukommt...

robbitop
2007-05-14, 10:36:14
Als Erklaerung dazu: Wir haben das Testsample leider erst wenige Tage vorher erhalten und standen unter enormen Zeitdruck. Also einfach abwarten. Der Artikel sollte im Laufe der Zeit schon noch final Status erreichen.

@MMM
wieso kritischer betrachten? Lies dir bitte mal die Erklaerung zum CFAA durch.
Im Gegensatz zu anderen Redaktionen konnten wir naemlich den Edge Detection Modus nutzen (der zwar kostet), aber nachweislich nur Polyedges blurt. (an der Untersuchung haben wir Stunden gesessen, das ist kritisch)
Das bringt also einen wirklich guten Effekt in der Praxis.
(muesste am Ende des Kapitels "Der R600 chip" oder so stehen...Leo hat sinnfreierweise meine schoene Struktur zu einer Suppe verschmolzen, so dass man sich im Architekturteil leicht verliert).

svenska
2007-05-14, 10:42:17
schön, dass ihre die möglichkeit hattet die ati karte zu testen!

allerdings muss ich als fazit erkennen, dass die karte gesamtbetrachtet zu schlecht ist. die enorme verlustleistung sowie temperatur und kühlung sind nicht im einklang mit der leistung (& BQ) im gegensatz zum G80.

IMHO würde sagen, dass es ATI kein guten, optimieren chip herausgebracht hat.
möglichweiser würden treiberupdate etwas verändern, allerdings machst mit die gesamtstromaufnahme echt angst.

wie sieht dann bitte die XTX version aus? gar nicht vorzustellen....
würd' wahrscheinlich auf eine 8800 GTX aupgraden als das ATI pendant.

Gast
2007-05-14, 10:44:41
"Das sind eher Regionen einer Geforce 8800 GTS als die einer GTX. Erstere ist rund 30-40% langsamer als das hier betrachtete High End Modell."

Also das ist ja wohl nen schlechter Witz. Man betrachte einie Reviews die auch ne GTS getestet haben. Korrigiert die Zahl auf 10-15 Prozent oder so, dann haut es vielleicht im Ansatz hin

raffa
2007-05-14, 10:54:27
"Das sind eher Regionen einer Geforce 8800 GTS als die einer GTX. Erstere ist rund 30-40% langsamer als das hier betrachtete High End Modell."

Also das ist ja wohl nen schlechter Witz. Man betrachte einie Reviews die auch ne GTS getestet haben. Korrigiert die Zahl auf 10-15 Prozent oder so, dann haut es vielleicht im Ansatz hin

Das passt doch, die GTS ist doch 30-40% langsamer als die GTX.
Die GTS mitzutesten wär allerdings gutgewesen.

robbitop
2007-05-14, 10:56:49
Das passt doch, die GTS ist doch 30-40% langsamer als die GTX.
Die GTS mitzutesten, wär allerdings gutgewesen.
Wir hatten keine GTS. Gern haette ich sie mitgetestet. Du hast Recht mit den 30-40% (genau wie ich X-D). Natuerlich stimmt das nur bei voelliger Grafiklimitierung. Allerdings sollte auch nur das bei einem GPU Test interessieren.

Botcruscher
2007-05-14, 11:00:41
Irgendwie fällt es mir schwer zZ. eine richtige Meinung zu der Karte zu bilden. Die Ergebnisse sind einfach irgendwie inhomogen. Früher gabs hier und da mal ein paar Prozent Unterschied, heute sind es teilweise gleich +- hundert.:|

Gast
2007-05-14, 11:07:21
Wieso wir z.B. im Fazit noch von 'jungen Treibern' mit 'einiges an Optimierungspotenzial' gesprochen. ATI hatte erstes Silizium bereits zu Zeiten der GTX-Vorstellung. ATI hatte mehr als genug Zeit, mit realer Hardware die Treiber zu optimieren. Ich erwarte mir also nicht mehr viel von den Treibern. Transparanz Anti-Aliasing wird einen Hardware-Bug haben :-( Hier grüßt der der R200/Radeon 8500

Gast
2007-05-14, 11:08:29
Die Karte wird von ATI eindeutig gegen eine 8800GTS gestellt.
Die High End Karte gegen die 8800GTX kommt erst später.
Deswegen ist der Vergleich nicht brauchbar.

Der Rest des Artikels ist gut.

robbitop
2007-05-14, 11:17:02
Wieso wir z.B. im Fazit noch von 'jungen Treibern' mit 'einiges an Optimierungspotenzial' gesprochen. ATI hatte erstes Silizium bereits zu Zeiten der GTX-Vorstellung. ATI hatte mehr als genug Zeit, mit realer Hardware die Treiber zu optimieren. Ich erwarte mir also nicht mehr viel von den Treibern. Transparanz Anti-Aliasing wird einen Hardware-Bug haben :-( Hier grüßt der der R200/Radeon 8500
Die Treiber sind noch sehr buggy. Die Karte zu testen und dabei die Nerven zu behalten war extrem schwer ;)

Die haben m.E. noch ein ziemlich grosses Optimierungspotenzial.

Die Karte wird von ATI eindeutig gegen eine 8800GTS gestellt.
Die High End Karte gegen die 8800GTX kommt erst später.
Deswegen ist der Vergleich nicht brauchbar.

Der Rest des Artikels ist gut.

Da bin ich als Techniker nicht deiner Meinung. Die GTX ist ein voller G80, die GTS nicht. Die XT und die XTX unterscheiden sich nur um ein paar % der Taktrate. Das wuerde da Endergebnis wenig aendern.
Also habe ich mich entschlossen, so zu testen. Eine GTS haette ich auch gerne dabei gehabt, aber ich hatte keine da.

Leonidas
2007-05-14, 11:18:25
Update: Die gröbsten Fehler sind raus. Die falschen Benchmark-Beschreibungen sind korrigiert, die Mouseovers funktionieren alle und die Seitenleiste steht. Sorry, war wirklich mit heisser Nadel gestrickt.

Gast
2007-05-14, 11:19:42
Faux Pas --> Fauxpas

Gast
2007-05-14, 11:20:01
Wieso wir z.B. im Fazit noch von 'jungen Treibern' mit 'einiges an Optimierungspotenzial' gesprochen. ATI hatte erstes Silizium bereits zu Zeiten der GTX-Vorstellung. ATI hatte mehr als genug Zeit, mit realer Hardware die Treiber zu optimieren. Ich erwarte mir also nicht mehr viel von den Treibern. Transparanz Anti-Aliasing wird einen Hardware-Bug haben :-( Hier grüßt der der R200/Radeon 8500
Das erste Silizium hilft dir nicht dabei Treiber zu programmieren, dafür braucht es fertige Karte und da ATi keinen schnellen Launch schaffte ist ja wohl klar, dass sie die noch nicht lange fertig haben.

Auch ich erwarte noch viel Potential...

Spasstiger
2007-05-14, 11:24:34
Im Gegensatz zu anderen Redaktionen konnten wir naemlich den Edge Detection Modus nutzen (der zwar kostet), aber nachweislich nur Polyedges blurt. (an der Untersuchung haben wir Stunden gesessen, das ist kritisch)
Das bringt also einen wirklich guten Effekt in der Praxis.
Eure Erklärung klingt für mich auch nachvollziehbar. Bei Computerbase wird aber was anderes behauptet:
Das 24xCFAA sowie ein zweiter 12xCFAA-Modus nutzt, wie oben bereits erwähnt, einen so genannten „Edge Detect Filter“, der im ersten Schritt das macht, was der Name sagt: Er sucht nach Ecken in einem Bild, indem der Pixelshader deutliche Kontraständerungen untersucht. An den Eckpixeln werden dann mehr Samples mit einem hochwertigen Filter verwendet, wobei die anderen Pixel weniger gewichtet werden und in diesem Fall nur der normale „Box Filter“ zum Einsatz kommt. Dies soll den eigenen Angaben zu Folge darüber hinaus Texturflimmern bekämpfen und jegliche Unschärfe verhindern
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/6/#abschnitt_aa_kontrolliert

So wie ihr es erklärt, werden Texturen ja gar nicht bei edge detection behandelt, wie kann man dann damit Texturflimmern bekämpfen?
Oder ist das nur Geblubber von AMD/ATI?
Nach der Erklärung von Computerbase müsste auch ein zweifaches Downsampling stattfinden, wenn man erst das gesamte Bild nach Kontraständerungen absucht und so die Pixel bestimmt, die mehr Samples abbekommen.
Die Polygonkanten alleine dagegen lassen sich ja mittles eines Vergleichers zwischen den Multisample-Buffers leicht herausfinden und das wäre dann auch eure Erklärung.

robbitop
2007-05-14, 11:31:36
Eure Erklärung klingt für mich auch nachvollziehbar. Bei Computerbase wird aber was anderes behauptet:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/6/#abschnitt_aa_kontrolliert

So wie ihr es erklärt, werden Texturen ja gar nicht bei edge detection behandelt, wie kann man dann damit Texturflimmern bekämpfen?
Oder ist das nur Geblubber von AMD/ATI?

Das liegt daran, dass CB anscheinend keine hinreichend adaequaten Untersuchungen vorgenommen hat. Scheint ja bisher kaum Artikel zu geben, die richtige Untersuchungen durchgefuehrt haben.

Edge Detection fasst wirklich nur Polyedges an. Nix anderes. ;)

Simon
2007-05-14, 11:33:15
Mit ist aufgefallen, daß wenn man über den Text mit der Maus fährt dann färbt er sich rot. Browser ist Firefox 2.0.0.3.
Ja? das ist total nervig ;(


Und noch was konstruktives:
Kurze Zeit später folgte die zweite Generation: Der R200 (Radeon 8500) legte den Grundstein für die erfolgreiche R300 (Radeon 9500/9700) und derebNachfolger.
Erste Seite, zweiter Absatz. Weiter bin ich noch nicht ;D

Leonidas
2007-05-14, 11:34:53
Ja? das ist total nervig ;(



Auf welcher Seite? Auch nach Reload?

captainsangria
2007-05-14, 11:36:30
Auf welcher Seite? Auch nach Reload?soeben neu geöffnet und beim drüberfahren wird es immer noch rot.

*edit* nicht alles, sondern nur vereinzelt. z.B. 'Die Testkandidaten im Überblick' und das was danach kommt. Auf der nächsten Seite wieder nichts.

Spasstiger
2007-05-14, 11:37:44
Edge Detection fasst wirklich nur Polyedges an. Nix anderes. ;)
Ok, dann hat Computerbase da was in den falschen Hals bekommen, wenn sie davon reden, dass edge detection nach ATI-Angaben auch Texturflimmern bekämpft.
Achja, stencil shadows werden von edge detection auch behandelt, oder? (da es ja dabei afaik ebenfalls um Polyedges handelt, nur welche mit gleicher coverage über das ganze Pixel, worin wiederum der Grund liegt, dass CSAA nicht voll greift)

captainsangria
2007-05-14, 11:41:24
kurze frage, die ich vielleicht bis jetzt überlesen habe (in den monsterthreads):

wie wirkt sich die audioausgabe (per integrierten realtek chip) auf die performance aus?

Gast
2007-05-14, 11:49:41
Das erste Silizium hilft dir nicht dabei Treiber zu programmieren, dafür braucht es fertige Karte und da ATi keinen schnellen Launch schaffte ist ja wohl klar, dass sie die noch nicht lange fertig haben.

Auch ich erwarte noch viel Potential...
ATI hatte bereits die erste Karte fertig, als die GTX auf dem Markt kam. Warum braucht ATI so lange, um brauchbare Treiber zu entwickeln. Wenn wir davon ausgehen, daß die Treiber-Entwickler von ATI im Schnitt nicht schlechter sind als jene von NV, dann haben wir es hier in Bezug auf die Treiber-Entwicklung mit einem sehr problematischen GPU zu tun. Dann steckt in der Tat noch viel Optimierungspotenzial in den Treibern. Die R600-Familie mag technisch ansprechend sein, aber die Treiber werden wohl zu Lebzeiten der R6xx-Chips ein Problem darstellen.

Simon
2007-05-14, 11:54:25
Auf welcher Seite? Auch nach Reload?
Ja, hab den Reload mit Ctrl+F5 forciert. Direkt auf der ersten Seite ab der Überschrift "Die Testkandidaten im Vergleich" und dann bis zum Ende der Seite. Auf der zweiten Seite ist es dann nicht mehr =)

Dunkeltier
2007-05-14, 12:06:00
Rechtschreibfehler-Alarm!

Wie man sieht, ist die Rohfüllrate in allen Fällen geringer. Allerdings ist noch nicht mit einbErechnet,

Der leichte und nicht sTörende "blur"-Effekt sorgt in der Praxis für ein wesentlich ruhigeres Bild, bei dem entsprechend mehr Details erkennbar bleiben.

Die Granularität und damit auch die Effizienz sinken damit. ---> besser wäre einfach nur "sinkt" hinzuschreiben, oder statt 2x damit einmal ein somit einzubauen.

Gast
2007-05-14, 12:07:02
1. Seite Einleitung, letzter Absatz:

"Lediglich ein Zwitschern und Pfeifen, welches sich auch bei unserer Radeon X1900 XT bemerkbar machte, störte die Ruhe ein wenig. Die Radeon X1900 XT ist da schon etwas lautstärker."

Der 1. Satz hört sich so an, das 8800GTX und X1900XT gleich "laut" sind.

Leonidas
2007-05-14, 12:11:11
Ja, hab den Reload mit Ctrl+F5 forciert. Direkt auf der ersten Seite ab der Überschrift "Die Testkandidaten im Vergleich" und dann bis zum Ende der Seite. Auf der zweiten Seite ist es dann nicht mehr =)


Fehler gefunden und gefixt.

PS: Zwischenzeitlich gemeldete Schreibfehler gefixt.

robbitop
2007-05-14, 12:15:27
Achja, stencil shadows werden von edge detection auch behandelt, oder? (da es ja dabei afaik ebenfalls um Polyedges handelt, nur welche mit gleicher coverage über das ganze Pixel, worin wiederum der Grund liegt, dass CSAA nicht voll greift)
Es wird alles behandelt, was von MSAA behandelt wird. Ausnahmslos. Das bedingt dieser Checkalgoritmus ja.

kurze frage, die ich vielleicht bis jetzt überlesen habe (in den monsterthreads):

wie wirkt sich die audioausgabe (per integrierten realtek chip) auf die performance aus?
Haben wir nicht getestet. Sollte aber logischerweise keinerlei Auswirkungen haben, da sich ein extra Realtek Chip darum kuemmert.

Gast
2007-05-14, 12:21:02
"Das sind eher Regionen einer Geforce 8800 GTS als die einer GTX. Erstere ist rund 30-40% langsamer als das hier betrachtete High End Modell."

Also das ist ja wohl nen schlechter Witz. Man betrachte einie Reviews die auch ne GTS getestet haben. Korrigiert die Zahl auf 10-15 Prozent oder so, dann haut es vielleicht im Ansatz hin

Was ich aus diesem Satz geschlossen habe war das die ATI 2900XT 30-40% schneller ist als die GTS - bitte korrigiert mal das ordnungsgemäß - das ihr euch auf die GTX bezieht hab ich nicht gesehen. Weil im Kontext davor der Satz steht

"Preislich scheint die Radeon HD 2900XT ein echter Knaller zu sein. Für 325-350 EUR soll sie laut Geizhals verfügbar sein."

Das "Erstere" habe ich hier auf die XT bezogen...

Vertigo
2007-05-14, 12:22:14
Sorry, war wirklich mit heisser Nadel gestrickt.
Das merkt man - leider. So schön es ist, dass 3D Center mal wieder einen Hardware-Review zum Launch präsentieren kann, so erschreckend ist die Rechtschreibung im Artikel - auch wenn ich darüber wirklich nicht gern etwas schreibe. Aber wäre es nicht besser gewesen, den Artikel nochmal zu überfliegen und ihn dafür dann 1-2 Stunden später online zu stellen?

Gast
2007-05-14, 12:23:21
Bilder Fehler:
Seite 10 zeigt ein Benchmark von Oblivion, genau die selben Zahlen aber mit der Überschrift Fablemark erscheinen auf Seite 12

Dunkeltier
2007-05-14, 12:24:59
Die neuen R600-ALUs arbeiten hingegen anders. Als Input fallen pro Takt gleichzeitig vier Pixel an. Wie zuvor in der Abbildung dargestellt, braucht die Xenox-ALU jedoch bis zu vier Takte, ... ---> Wirklich Xenox, oder nicht doch Xenos?

Der G80-Chip nutzt hier einen Trick aus der Fertigung, der bei CPUs gang und gebe ist: Durch "handoptimIerte" Transistoren kann nVidia die ALUs deutlich höher takten. ---> Das "i" fehlt. :cop:

Dunkeltier
2007-05-14, 12:29:55
Völlig abweichend zum bisherigen Testfeld sind diese Benchmarks, welche die Radeon HD 2900 XT klar vorn sehen. Dabei ist in diesem Spiel noch nicht einmal eine deutliche ATI-Präverenz zu entnehmen, ... ---> Ich kenne zwar Prävalenz oder Präferenz, aber das Wort ist mir glaube ich unbekannt. Kunstwort?




Fazit

Die Radeon HD 2900 XT muss sich in der Masse der Tests der Geforce 8800 GTX geschlagen geben. Die noch jungen Treiber scheinen noch einiges an Optimierungspotenzial zu bergern. ---> Bergern? Beherbergen?

Yavion
2007-05-14, 12:32:02
Erstmal danke 3dcenter für den guten Artikel.

Also so sehr ich ATI einen kommerziellen Erfolg des R600 gönne, habe ich beim Überfliegen der ersten Tests den Eindruck, dass der Chip gut 12 Monate zu spät auf dem Markt kommt.
Das AF ist offenbar im Rahmen aber im Vergleich zur nvidia Lösung eher enttäuschend, die höheren AA-Modi sind gut aber angesichts eines 512-Bit Speicherinterfaces offenbar auch sehr teuer. :(
Man kann sogar spekulieren, dass nivida die weicheren Abstufungen von ATIs CFAA per Treiber implementieren könnte und durch die höhere Shaderleistung immernoch schneller sein würde.



Wirklich erfreulich ist da noch der Preis, wovon aber AMD nicht wirklich was hat.
Mag sein, dass man aus dem Design an sich noch mehr rausholen kann, zur Zeit ist der R600 offenbar nur eingeschränkt konkurrenzfähig. Schade.

minimum
2007-05-14, 12:34:07
Kann mir jemand mal die Energie-Bilanz erklären ?
Ok, die 2900er nimmt sich nicht ganz 30W mehr bei Volllast.
Aber warum soll nun die Kartenaufnahme bei 180-200W liegen ?
Sollte man nicht von den 319W einfach die 220W CPU-Last abziehen ?

Und ich verstehe nicht was an der 2900er verglichen zur 8800 im Idle-Modus
toller sein soll ?

PS: Super Vergleich von AF, AA usw. Mensch baut meine 7600 "Pixeldreck"

captainsangria
2007-05-14, 12:36:07
Sollte aber logischerweise keinerlei Auswirkungen haben, da sich ein extra Realtek Chip darum kuemmert.dachte, dass der chip integriert ist, so wie ich das verstanden habe.

der erhöhte stromverbrauch kann von dem her nicht zustande kommen, weil da auch noch ein soundchip mitversorgt werden will, oder?

robbitop
2007-05-14, 12:37:22
Danke fuer eure fleissigen Korrekturen. Eine bessere Community als 3DC gibt es nicht. :)
Die Rechtschreibfehler gehen auf meine Kappe. Ich hab am Freitag Abend erst beginnen koennen, da ich erst dann ein Ersatzboard hatte. Die R600 habe ich am Vorabend bekommen. Seit Freitag habe ich praktisch kein Schlaf bekommen um dann heute morgen um 3 Uhr die Rohfassung beendet zu haben und ins Bett zu fallen. Es war einfach zu wenig Zeit da, denn wir wollten den Launch, wenn wir schonmal eine Karte haben (sei es auch nur ein paar Tage vorher), unbedingt schaffen. Dass das moeglicherweise eine kleine Fehlentscheidung war, bitte ich zu entschuldigen.

Leo hat seit heute morgen um 1 bis jetzt geschuftet, um mich in diesem Unterfangen zu unterstuetzen. Danke dafuer Leo. :)

robbitop
2007-05-14, 12:39:14
Kann mir jemand mal die Energie-Bilanz erklären ?
Ok, die 2900er nimmt sich nicht ganz 30W mehr bei Volllast.
Aber warum soll nun die Kartenaufnahme bei 180-200W liegen ?
Sollte man nicht von den 319W einfach die 220W CPU-Last abziehen ?

Und ich verstehe nicht was an der 2900er verglichen zur 8800 im Idle-Modus
toller sein soll ?

PS: Super Vergleich von AF, AA usw. Mensch baut meine 7600 "Pixeldreck"
Du vergisst, dass die Karte locker 40 W im idle/2D Mode aufnimmt. :)
Genaueres laesst sich aus einer Differenzmessung nicht ermitteln. Aber du kannst 30 W auf die Leistungsaufnahme einer G80 oder 40 W auf die Leistungsaufnahme einer R580 rechnen. Dann kommt der wert hin.

dachte, dass der chip integriert ist, so wie ich das verstanden habe.

der erhöhte stromverbrauch kann von dem her nicht zustande kommen, weil da auch noch ein soundchip mitversorgt werden will, oder?

Nein, meines Wissens ist das ein extra Realtek Chip.

huha
2007-05-14, 12:49:41
Schade, daß die Benchmarks keine 8800GTS mit 640MB Speicher beinhalten; es war ja irgendwie schon absehbar, daß die HD 2900 XT der 8800GTX nicht das Wasser reichen kann, aber gerade im mittelhohen Preissegment (300-350E) dürfte es interessant werden. Ich finde es daher ausgesprochen ungünstig, keine preislich vergleichbare Karte in die Benchmarks aufgenommen zu haben und nur eine kurze Pauschalaussage im Fazit zu machen, da meines Erachtens nach gerade dieser Preisbereich der interessanteste für Neukäufe und Upgrades ist, sofern man kein Ultra-Highend-User ist.
Eventuell ist es ja möglich, die 8800GTS noch zu benchen und nachzureichen.

Außerdem frage ich mich ernsthaft, wie man davon (http://www.3dcenter.org/images/radeon_hd_2900_xt/oblivion_4xEATM+CF.png) behaupten kann, die Bildqualität würde gegenüber diesem (http://www.3dcenter.org/images/radeon_hd_2900_xt/oblivion_4xTMSAA+CS.png) sichtlich ansteigen--für mich ist ATIs Lösung einfach nur unscharf und ein schlechter Witz.

Ansonsten ein durchaus gelungenes Review, leider aber mit IMHO zu wenig Aussagekraft, weil das wirklich interessante Thema--HD 2900 XT vs. 8800GTS--nicht behandelt wird.

-huha

robbitop
2007-05-14, 12:58:42
IMO ist das EATM von ATI detailreicher. Das sehen die meisten Userr im Forum ebenfalls so. ;)

Dass wir keine GTS hatten, lag daran, dass ich viel zu spaet von AMD signalisiert bekam, dass die R600 gegen die GTS angesetzt ist.
Die Nachreichung der GTS Werte kann ich moeglicherweise allerdings ueber Madkiller erzielen, der eine solche Karte in den naechsten Tagen bekommen sollte.

Ausserdem gibt es reine Gamebenchmarks von der GTS vs R600 genug im Netz. IMO ist der Architektur und BQ Teil deutlich mit mehr Gewichtung vorgesehen fuer 3DCenter.

Ich finde die R600 schlaegt sich fuer eine 350 EUR Karte verdammt gut gegen die GTX. In anbetracht des Preises gehen die Ergebnisse IMO in Ordnung.

Vertigo
2007-05-14, 13:02:51
Was mir in diesem Artikel - und auch in Reviews auf anderen Seiten - aufgefallen ist: die Performance ohne AA/AF ist recht gut, aber v.a. mit AA fällt die HD 2900 XT teils auf oder gar hinter das Niveau der Vorgängergeneration zurück - je nach Review X1900/X1950XTX.

Nun sind ja noch Leistungssteigerungen im Zuge von Treiberoptimierungen zu erwarten. Werden diese tendenziell die Gesamtleistung optimieren oder eher "nur" die Effizienz des AA steigern?

Die gelbe Eule
2007-05-14, 13:05:25
Warum kein A.I. off gegen NV HQ? Ich verstehe es einfach nicht ...
Und der preisliche Knaller liegt im Moment bei 389€-399€ + Versand.

Dunkeltier
2007-05-14, 13:05:39
IMO ist das EATM von ATI detailreicher. Das sehen die meisten Userr im Forum ebenfalls so. ;)

Dass wir keine GTS hatten, lag daran, dass ich viel zu spaet von AMD signalisiert bekam, dass die R600 gegen die GTS angesetzt ist.
Die Nachreichung der GTS Werte kann ich moeglicherweise allerdings ueber Madkiller erzielen, der eine solche Karte in den naechsten Tagen bekommen sollte.

Ausserdem gibt es reine Gamebenchmarks von der GTS vs R600 genug im Netz. IMO ist der Architektur und BQ Teil deutlich mit mehr Gewichtung vorgesehen fuer 3DCenter.

Ich finde die R600 schlaegt sich fuer eine 350 EUR Karte verdammt gut gegen die GTX. In anbetracht des Preises gehen die Ergebnisse IMO in Ordnung.

Die 512MB Radeon X2900 XT ist sowohl preislich, wie auch von der Performance gegen die 640MB Geforce 8800 GTS positioniert, nicht gegen die GTX... Ansonsten *hust* hier nochmal ein kleines "Rating": *Link* (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet) Ich denke, du siehst die Karte dort stehen, wo sie nicht hingehört. :)

LovesuckZ
2007-05-14, 13:08:10
Ich finde die R600 schlaegt sich fuer eine 350 EUR Karte verdammt gut gegen die GTX. In anbetracht des Preises gehen die Ergebnisse IMO in Ordnung.

Das die r600 für 350€ angeboten, liegt doch erstmal nur dran, dass sie nicht mehr Wert ist.
Wie du auf die Aussage kommst, dass sie sich "verdammt gut gegen die GTX" schlage, ist aus eurem wie auch aus den Reviews aus dem Netz nicht ersichtlich.

Leonidas
2007-05-14, 13:14:39
Bilder Fehler:
Seite 10 zeigt ein Benchmark von Oblivion, genau die selben Zahlen aber mit der Überschrift Fablemark erscheinen auf Seite 12



Dicker Fehler, nun aber gefixt.




Das merkt man - leider. So schön es ist, dass 3D Center mal wieder einen Hardware-Review zum Launch präsentieren kann, so erschreckend ist die Rechtschreibung im Artikel - auch wenn ich darüber wirklich nicht gern etwas schreibe. Aber wäre es nicht besser gewesen, den Artikel nochmal zu überfliegen und ihn dafür dann 1-2 Stunden später online zu stellen?


Läßt sich nix gegen sagen. Mein Fehler, ich dachte es wären weniger Fehler und hab es unbesehen online geschickt.




PS: Neue gefundene Schreibfehler gefixt.

Gast
2007-05-14, 13:15:44
Zur stellung gegen die 8800GTX:

Da bin ich als Techniker nicht deiner Meinung. Die GTX ist ein voller G80, die GTS nicht. Die XT und die XTX unterscheiden sich nur um ein paar % der Taktrate. Das wuerde da Endergebnis wenig aendern.
Also habe ich mich entschlossen, so zu testen. Eine GTS haette ich auch gerne dabei gehabt, aber ich hatte keine da.


Den HD 2900 XT positioniert AMD nicht gegen Nvidias bereits im vergangenen November eingeführte GeForce 8800 GTX oder dessen vor wenigen Tagen vorgestellte Ultra-Variante, sondern gegen den etwas schwächeren GeForce 8800 GTS.

http://www.heise.de/newsticker/meldung/89691

In den vergangenen Wochen gabs auch nen ofizielles Statement von ATI deswegen.

Avalox/Gast
2007-05-14, 13:18:28
dachte, dass der chip integriert ist, so wie ich das verstanden habe.


Der Realtek Codec sind nur Wandler und Schnittstellentreiber, der Codec ist kein Soundcontroller. Bisher hatte Realtek jendefalls keine eigenen Soundcontroller im aktuellen Programm.
Der Soundcontroller steckt sicherlich in der ATI Lösung. Ich nehme mal an, dass aus der ATI Lösung dann ein ganz normaler HDA- oder AC'97 Link heraus geführt wird, welcher dann den Codec bedient.
Der Controller in der ATI Lösung führt dann die nötigen Speicherzugriffe über den PCIe Bus aus. Das wäre die erste direkte PCIe Soundcontroller Lösung für den Consumer Markt und sicherlich mal einen eingehenderen Blick wert.

@ an die Tester
Was steckt denn für ein Typ Codec auf der Grafikkarte?

robbitop
2007-05-14, 13:39:46
Was mir in diesem Artikel - und auch in Reviews auf anderen Seiten - aufgefallen ist: die Performance ohne AA/AF ist recht gut, aber v.a. mit AA fällt die HD 2900 XT teils auf oder gar hinter das Niveau der Vorgängergeneration zurück - je nach Review X1900/X1950XTX.

Nun sind ja noch Leistungssteigerungen im Zuge von Treiberoptimierungen zu erwarten. Werden diese tendenziell die Gesamtleistung optimieren oder eher "nur" die Effizienz des AA steigern?
Nope. Sie faellt bei uns nicht zurueck. Wenn dann sind das Messfehler im geringen Wertebereich, CPU Limitierungen und der unoptimierte Treiber.
Was die R600 auf anderen Sites so gedrueckt hat, ist das noch verbugte und damit lahme AAA. Ueber diesen Falldraht sind wir nicht gestolpert. Genausowenig ueber das CFAA (Narrow und Widetent) als auch ueber das per default aktivierte EATM im aktuellsten Treber. :)

Die 512MB Radeon X2900 XT ist sowohl preislich, wie auch von der Performance gegen die 640MB Geforce 8800 GTS positioniert, nicht gegen die GTX... Ansonsten *hust* hier nochmal ein kleines "Rating": *Link* (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet) Ich denke, du siehst die Karte dort stehen, wo sie nicht hingehört. :)

Ich habe dazu schon genug gesagt. EOD.

Das die r600 für 350€ angeboten, liegt doch erstmal nur dran, dass sie nicht mehr Wert ist.
Wie du auf die Aussage kommst, dass sie sich "verdammt gut gegen die GTX" schlage, ist aus eurem wie auch aus den Reviews aus dem Netz nicht ersichtlich.
Das spielt doch keine Rolle. Fuer den Endkunden zaehlt der Preis und nicht die Intension des IHVs.
Zweiteres ist eine Frage der Sichweise. We agree to disagree. Right? ;)

Zur stellung gegen die 8800GTX:



http://www.heise.de/newsticker/meldung/89691

In den vergangenen Wochen gabs auch nen ofizielles Statement von ATI deswegen.
Dito. Ich habe den Sachverhalt ausreichend dargelegt. Es wird aber eventuell ueber Madkiller in diesen Artikel eine Nachreichung der GTS geben.

Warum kein A.I. off gegen NV HQ? Ich verstehe es einfach nicht ...
Und der preisliche Knaller liegt im Moment bei 389€-399€ + Versand.
Ja das Teil ist gerad gelauncht worden. Laut meinen Infos pendelt es sich aber in kurzer Zeit auf diesen Wert ein.

Simon
2007-05-14, 13:41:45
Wie man klar erkennen kann, funktioniert der 2D-Modus der Radeons (im Gegensatz zur GeForce 8800) hervorragend: Das Verhältnis 3D-Leistung zur 2D-Leistung ändert sich enorm.
Den Satz versteh ich nicht: Beide Karten (8800 und 2900XT) fallen auf 161W im Idle. Wieso ist das jetzt bei der Radeon hervorragend, bei der Geforce jedoch nicht? :confused: Weil bei letzterer die Differenz nicht so groß ist?

Noch eine Kleinigkeit auf Seite 7:
Somit bieten letztendlich inzwischen beide Grafikchip-Entwickler mit ihren neuesten Grafikchip-Serien (ATI Radeon HD 2x00 und nVidia GeForce8) jeweils einen anisotropen Filter, welcher unter dem strengen Blick unseres Redakteurs aths mit dem Gütesiegel "aths-approved durchgeht.
Da fehlt am Ende ein Anführungszeichen oben.

Auf Seite 11 im zweiten Absatz:
Interessant zudem, wie die Radeon HD 2900 XT im SingleTexturung-Test problemlos mit der GeForce 8800 GTX mithalten kann, im MultiTexturing-Test jedoch deutlich zurückfällt.
'i' statt 'u'

Immer noch Seite 11, etwas weiter unten:
Traditionell liegen die Radeon-Karten in Hidden Surface Removal Benchmarks aufgrund ihres hirarischen Z-Puffers immer vorn so auch hier.
Nach meinem Gefühl fehlt dazwischen ein Komma ;)

Und im letzten Absatz auf Seite 11:
Hier scheint angesichts der (auf dem Papier) doch deutlich leistungsfähigeren R600-Architektur noch einiger Spielraum für Verbesserungen des Shedulers im Treiber vorhanden zu sein.
Da fehlt ein 'c'.

Fazit, erster Absatz:
Die noch jungen Treiber scheinen noch einiges an Optimierungspotenzial zu bergern.
"beherbergen"?

Gleicher Absatz:
Gegenüber der Radeon X1900XT ist sie fast überall deutlich schneller und bietet dazu einen bessere Bildqualität und Direct3D Features.
Da ist ein 'n' zu viel und das "Direct3D" würde ich streichen. Schließlich (oder hoffentlich?) kann man die Features auch unter OpenGL nutzen ...

Und ob der Villagemark bei FPS-Werten von weit über 100 überhaupt Sinn hat? :confused:

Im letzten Absatz mit den Danksagungen wäre es vielleicht gut zu wissen, wer sich da überhaupt bedankt von den Autoren ;)

Alles in allem ein schöner Artikel. Vielen Dank. =)

captainsangria
2007-05-14, 13:44:07
Der Realtek Codec sind nur Wandler und Schnittstellentreiber, der Codec ist kein Soundcontroller. Bisher hatte Realtek jendefalls keine eigenen Soundcontroller im aktuellen Programm.
Der Soundcontroller steckt sicherlich in der ATI Lösung. Ich nehme mal an, dass aus der ATI Lösung dann ein ganz normaler HDA- oder AC'97 Link heraus geführt wird, welcher dann den Codec bedient.
Der Controller in der ATI Lösung führt dann die nötigen Speicherzugriffe über den PCIe Bus aus. Das wäre die erste direkte PCIe Soundcontroller Lösung für den Consumer Markt und sicherlich mal einen eingehenderen Blick wert.

@ an die Tester
Was steckt denn für ein Typ Codec auf der Grafikkarte?

darüber würde ich mich auch freuen, wenn man diese soundlösung einer nähren betrachtung unterziehen würde.
was meinst du avalox, wäre das eine vollwertige soundkarte?

robbitop
2007-05-14, 13:45:19
Den Satz versteh ich nicht: Beide Karten (8800 und 2900XT) fallen auf 161W im Idle. Wieso ist das jetzt bei der Radeon hervorragend, bei der Geforce jedoch nicht? :confused: Weil bei letzterer die Differenz nicht so groß ist?
Das ist klar, deswegen schrieb ich ja auch extra was von einer relativen Verhaeltnisaenderung. Nichts von absoluten Messwerten. Die G80 verbraucht zwar unter Last weniger aber das Verhaeltnis Last/Idle ist dort deutlich anders. Dass der absolute Messwert der G80 ggue einer R600 sehr gut ist, habe ich auch geschrieben. So what?

robbitop
2007-05-14, 13:49:00
@ an die Tester
Was steckt denn für ein Typ Codec auf der Grafikkarte?
Puha, darauf habe ich ehrlich gesagt nur wenig Wert gelegt. Wo finde ich entsprechendes dazu? Im Geraetemanager?

Vertigo
2007-05-14, 13:49:37
Nope. Sie faellt bei uns nicht zurueck. Wenn dann sind das Messfehler im geringen Wertebereich, CPU Limitierungen und der unoptimierte Treiber.
Was die R600 auf anderen Sites so gedrueckt hat, ist das noch verbugte und damit lahme AAA. Ueber diesen Falldraht sind wir nicht gestolpert. Genausowenig ueber das CFAA (Narrow und Widetent) als auch ueber das per default aktivierte EATM im aktuellsten Treber. :)

Okay, CPU-Limitierung ist ein schlüssiges Argument, v.a. bei den Anno1701-Savegames ist mir das bewußt. (BTW: sind die unverändert - ich würde die mal wieder bei mir gegenchecken wollen ...) Bei den anderen habe ich wohl schief geguckt ... :redface:

Das AAA erklärt den Rest, danke! =)

LovesuckZ
2007-05-14, 13:51:45
Das spielt doch keine Rolle. Fuer den Endkunden zaehlt der Preis und nicht die Intension des IHVs.

Aber nur in einem vollkommenen Markt. ;)
Für den Endkunden zählt eben noch mehr als nur der Preis.


Zweiteres ist eine Frage der Sichweise. We agree to disagree. Right? ;)

Ich sehe nicht, wie man etwas, das von vielen Seiten belegt wurde, als "eine Frage der Sichweise" abstempeln kann. Die 2900XT kann in keiner Displizin, die wirklich von Bedeutung ist, mit der 8800GTX mithalten. Also muss AMD über den Preis den Kunden ansprechen, da sie es mit der Leistung, der Bildqualität, dem Stromverbrauch und der Laustärke nicht schaffen.

Welchen Bug hat denn das Quality AAA? Das AMD hier so stark einbricht, sollte doch verständlich sein bei nur 16 TMUs.

Simon
2007-05-14, 13:54:20
Das ist klar, deswegen schrieb ich ja auch extra was von einer relativen Verhaeltnisaenderung. Nichts von absoluten Messwerten. Die G80 verbraucht zwar unter Last weniger aber das Verhaeltnis Last/Idle ist dort deutlich anders. Dass der absolute Messwert der G80 ggue einer R600 sehr gut ist, habe ich auch geschrieben. So what?
Ok, verlesen. Kann ja mal passieren ;( Sorry :redface:

robbitop
2007-05-14, 13:58:05
@Leo

Zur Seite 1:
Club3D hat keine Radeon X1900XT zur Verfuegung gestellt. Das ist meine eigene.

Aber nur in einem vollkommenen Markt. ;)
Für den Endkunden zählt eben noch mehr als nur der Preis.

Preis/Leistung zaehlt fuer den Kunden. Und das in einem Markt mit normaler Preiselastizitaet ohne grosse Regelung von aussen. Aber lassen wir lieber die Volkswirtschaftslehre aus dem Spiel. ;)


Ich sehe nicht, wie man etwas, das von vielen Seiten belegt wurde, als "eine Frage der Sichweise" abstempeln kann. Die 2900XT kann in keiner Displizin, die wirklich von Bedeutung ist, mit der 8800GTX mithalten. Also muss AMD über den Preis den Kunden ansprechen, da sie es mit der Leistung, der Bildqualität, dem Stromverbrauch und der Laustärke nicht schaffen.
1. Habe ich etwas anderes behauptet? ;) (BTW in Punkto BQ kann die Radeon mithalten)
2. andere Seiten tangieren mich nur gering. Ich bilde meine eigene Meinung auf eigenen Untersuchungen.

Welchen Bug hat denn das Quality AAA? Das AMD hier so stark einbricht, sollte doch verständlich sein bei nur 16 TMUs.
Nein. Dann waere man mit AAA wohl kaum tw langsamer als der Vorgaenger.
Lies den Artikel nochmal gruendlich. Es wurde hinreichend beschrieben.

Dunkeltier
2007-05-14, 14:05:59
@Leo

Zur Seite 1:
Club3D hat keine Radeon X1900XT zur Verfuegung gestellt. Das ist meine eigene.


Preis/Leistung zaehlt fuer den Kunden. Und das in einem Markt mit normaler Preiselastizitaet ohne grosse Regelung von aussen. Aber lassen wir lieber die Volkswirtschaftslehre aus dem Spiel. ;)



1. Habe ich etwas anderes behauptet? ;) (BTW in Punkto BQ kann die Radeon mithalten)
2. andere Seiten tangieren mich nur gering. Ich bilde meine eigene Meinung auf eigenen Untersuchungen.


Nein. Dann waere man mit AAA wohl kaum tw langsamer als der Vorgaenger.
Lies den Artikel nochmal gruendlich. Es wurde hinreichend beschrieben.

Kann in der BQ mithalten? Computerbase schreibt etwas von immer noch wahrnehmbaren flimmern in Bewegung beim ATi-AF, und das CFAA mit eingebauten Blur ist auch nicht der Weisheit absoluter letzter Schluß. Eigentlich hätte ich mir nach der letzten ATi-Generation und der Steilvorlage G80 (noch) etwas mehr BQ beim R600 erhofft.

LovesuckZ
2007-05-14, 14:10:35
1. Habe ich etwas anderes behauptet? ;) (BTW in Punkto BQ kann die Radeon mithalten)

Ich sehe nur, dass die der 12x und 24x Modus mit Kantenerkennung wirklich konkurenzfähig sind - jedoch zu deutlich höhreren Kosten als die CSAA Modie.
Da man auf den 8800 Karten jedoch die Hybrid - Modie auswählen kann - nicht das ich sie mögen würde - ist der Ball wieder in nVidia's Ecke.


2. andere Seiten tangieren mich nur gering. Ich bilde meine eigene Meinung auf eigenen Untersuchungen.

Und auch hier spiegelt sich ein andere Ergebnis als deine Aussage wieder.


Lies den Artikel nochmal gruendlich. Es wurde hinreichend beschrieben.

Es wurde der Modus mit Supersampling durch EATM ersetzt. Das beantwortet aber nicht die Frage, was für ein Bug hier vorhanden wäre. Und ob in niedrigen zweistelligen Bereich es überhaupt noch möglich ist, den ca. 15% Vorteil der 2900XT zu erkennen, bezweifel ich.

robbitop
2007-05-14, 14:19:48
Kann in der BQ mithalten? Computerbase schreibt etwas von immer noch wahrnehmbaren flimmern in Bewegung beim ATi-AF, und das CFAA mit eingebauten Blur ist auch nicht der Weisheit absoluter letzter Schluß. Eigentlich hätte ich mir nach der letzten ATi-Generation und der Steilvorlage G80 (noch) etwas mehr BQ beim R600 erhofft.
*seufz*
Man merkt, dass du den Artikel nicht gruendlich gelesen hast. CB hat nur Narrow Tent und Wide Tent untersucht. Die sind graesslich und die haben wir nicht untersucht, weil wir es fuer sinnfrei halten. Wir haben Edge Detection untersucht und der blurt nicht. (ich weiss gar nicht, wie oft ich das jetzt schon erwaehnt habe)

Das R600 AF flimmert nach meinen Untersuchungen nicht. Jedenfalls nicht dort, wo es flimmern koennte. Dort wo Texturen einfach flimmeranfaellig sind (zu hohe Frequenz ect) flimmert auch der G80. Bei schlechtem Kontent kann der beste AF nichts mehr tun. Das R600 AF ist theoretisch einen Tick schlechter, in der Praxis gibts jedoch kaum wahrnehmbare Unterschiede.

Was zu CBs Untersuchungen habe ich mich bereits geaeussert. :)

Die gelbe Eule
2007-05-14, 14:22:24
Ja das Teil ist gerad gelauncht worden. Laut meinen Infos pendelt es sich aber in kurzer Zeit auf diesen Wert ein.

Warum kein A.I. off gegen NV HQ verrätst mir trotzdem nicht :(

robbitop
2007-05-14, 14:23:25
Ich sehe nur, dass die der 12x und 24x Modus mit Kantenerkennung wirklich konkurenzfähig sind - jedoch zu deutlich höhreren Kosten als die CSAA Modie.
Da man auf den 8800 Karten jedoch die Hybrid - Modie auswählen kann - nicht das ich sie mögen würde - ist der Ball wieder in nVidia's Ecke.

Mit Hybridmodi liegt NV vorn, ohne ATI. (BQ maessig)


Und auch hier spiegelt sich ein andere Ergebnis als deine Aussage wieder.
Bis auf die Untersuchungen von B3D habe ich, mit Verlaub, noch nichts Adaequates gesehen (wobei der Artikel erst im Laufe der Woche erscheinen soll IIRC. Ich stehe allerdings mit Rys in engem Kontakt).



Es wurde der Modus mit Supersampling durch EATM ersetzt. Das beantwortet aber nicht die Frage, was für ein Bug hier vorhanden wäre. Und ob in niedrigen zweistelligen Bereich es überhaupt noch möglich ist, den ca. 15% Vorteil der 2900XT zu erkennen, bezweifel ich.
Haettest du den Artikel im Detail gelesen, wuesstest du dass das originale AAA (SS-TAA) im 8.3740 einen Bug hatte, der die Performance in den Keller trieb. Im 8.3742 (den hat so gut wie keiner getestet, weil er erst 3 Tage alt ist) tat ATI so als haette man das gefixt. In Wirklichkeit hat man EATM als default angelegt. ;)

robbitop
2007-05-14, 14:26:19
Warum kein A.I. off gegen NV HQ verrätst mir trotzdem nicht :(
Aww sorry. Habs total vergessen. Grund: Weil ich keine/kaum Unterschiede zwischen AI on/off sehen konnte. Und ich sass wirklich zwei Stunden und habe die typischen Flimmerszenario szenen mehrfach in Bewegung durchgesehen. Auch habe ich bei einer Vergroesserung von 400% keine wirklich nennenswerten Differenzen erkennen koennen. Ergo nicht praxisrelevant. AI=on entspricht soziemlich genau subjektiv dem Nvidia Q (was verdammt gut ist).

Waere mehr Zeit gewesen, haette ich allerdings gern noch AI Off vs HQ gebencht.

LovesuckZ
2007-05-14, 14:29:57
Mit Hybridmodi liegt NV vorn, ohne ATI. (BQ maessig)

Sind die 12 und 24x Modie über den Treiber erreichbar? Laut Reviews sollen diese nur über extratools möglich sein...


Bis auf die Untersuchungen von B3D habe ich, mit Verlaub, noch nichts Adaequates gesehen (wobei der Artikel erst im Laufe der Woche erscheinen soll IIRC. Ich stehe allerdings mit Rys in engem Kontakt).

Deine theoretischen wie praktischen Tests zeigen doch sehr schön, dass die hd2900xt eben nicht an der 8800gtx "knabbert". Daher verstehe ich diese Aussage nicht.


Haettest du den Artikel im Detail gelesen, wuesstest du dass das originale AAA (SS-TAA) im 8.3740 einen Bug hatte, der die Performance in den Keller trieb. Im 8.3742 (den hat so gut wie keiner getestet, weil er erst 3 Tage alt ist) tat ATI so als haette man das gefixt. In Wirklichkeit hat man EATM als default angelegt. Ich habe das natuerlich sofort gesehen. ;)

Und welchen Bug hatte der SS-TAA Modus? Das er auf der 2900XT viel Leistung kostet, ist doch verständlich.

AnarchX
2007-05-14, 14:32:11
Und welchen Bug hatte der SS-TAA Modus? Das er auf der 2900XT viel Leistung kostet, ist doch verständlich.

ack.
Imo zeigen die aktuellen Benches eine der Texelfüllrate entsprechende Leistung(siehe Oblivion).

robbitop
2007-05-14, 14:32:31
Sind die 12 und 24x Modie über den Treiber erreichbar? Laut Reviews sollen diese nur über extratools möglich sein...
Ja das ist korrekt. Im Treiber fuer die Oeffentlichkeit geht das jedoch uebers Panel. :)




Und welchen Bug hatte der SS-TAA Modus? Das er auf der 2900XT viel Leistung kostet, ist doch verständlich.
Ja das ist verstaendlich. Aber die R600 hat deutlich mehr Rohleistung als die R580. Mit SS-TAA faellt diese jedoch hinter die R580 zurueck. Loest das keine Bedenken aus? ATI hat ueberigens auch in einer E-Mail mitgeteilt, dass es ein Treiberbug ist.

Hvoralek
2007-05-14, 14:34:05
Die Rechtschreibfehler gehen auf meine Kappe. Ich hab am Freitag Abend erst beginnen koennen, da ich erst dann ein Ersatzboard hatte. Die R600 habe ich am Vorabend bekommen. Seit Freitag habe ich praktisch kein Schlaf bekommen um dann heute morgen um 3 Uhr die Rohfassung beendet zu haben und ins Bett zu fallen. Es war einfach zu wenig Zeit da, denn wir wollten den Launch, wenn wir schonmal eine Karte haben (sei es auch nur ein paar Tage vorher), unbedingt schaffen. Dass das moeglicherweise eine kleine Fehlentscheidung war, bitte ich zu entschuldigen.

Leo hat seit heute morgen um 1 bis jetzt geschuftet, um mich in diesem Unterfangen zu unterstuetzen. Danke dafuer Leo. :)Erst einmal: Schön, dass Ihr mal wieder einen Launchartikel bringen könnt und meinen Respekt für dieses Durchhaltevermögen!

Mir persönlich ist ein Artikel mit einem Haufen Rechtschreibfehler jedenfalls lieber als gar keiner. Hier gleich mal ein paar weitere:
S.2, "Das neue AA", 3. Abs.: "Wide- Tent- Filter" und "Narrow- Tent- Filter" (Bindestriche fehlen)
S.7 (Überschriften): "Radeon- X1x00- Serie" usw. (hier ebenso)
S.8: Erster Absatz unter dem ersten Diagramm a.E.: "Ob dies in kommenden Treibern noch eine Beschleunigung erhalten wird, bleibt [...] abzuwarten"

Ausserdem gibt es reine Gamebenchmarks von der GTS vs R600 genug im Netz. IMO ist der Architektur und BQ Teil deutlich mit mehr Gewichtung vorgesehen fuer 3DCenter.(y)

Nur mit den Benchmarks wäre der Artikel mMn ziemlich überflüssig, aber allein die ausführlichen BQ- Betrachtungen sind hochinteressant. Ich finde allerdings den Abschnitt zur Architektur arg knapp. Lag das am Zeitmangel oder ist noch ein eigener Technologie- Artikel geplant? Ein ausführlicher Architektur- Vergleich G8x - R6xx wäre doch mal wieder etwas für aths :biggrin:

Ansonsten ist der Artikel sehr gelungen, gerade für die Kürze der Zeit. Natürlich wäre eine GTS für die Benchmarks schön gewesen, oder auch mehr Einstellungen. Man kann aber anhand der GTX abschätzen, wo die GTS ungefähr liegen würde und den Einfluss von AA und AF seperat zu vergleichen statt jedesmal diverse Einstllungen durchlaufen zu lassen, ist eine gute Lösung.


Noch ein paar Anmerkungen zu einzelnen Stellen:
S.14, Arma- Benchmark "Gegenangriff" wird kommentiert:"Hier zeigt sich ein relativ gleichwertiges Ergebnisspektrum, was eine starke CPU-Limitierung in diesem Savegame vermuten läßt". Die Ergebnisse mit CFAA/CSAA und in 1680x1050 liegen tatsächlich alle um 24 fps. Allerdings verliert die GTX von 1280x1024 8xAA auf 1680x1050 4x etwa 30%. Das sieht nicht danach aus, als ob die CPU einen nennenswerten Einfluss hätte.
S.15, Gothic- 3- Benchmark "34. Tag" scheint dagegen wirklich eine teilweise CPU- Limitierung zu sein. Die GTX liegt zwar klar vorne, aber lange nicht so deutlich wie im ersten Benchmark. Außerdem verliert sie durch eine etwa 1/3 höhere Auflösung nicht einmal 10% Leistung.
S.16, NfS: Die 2900 liegt in 1680 4x fast gleichauf mit der GTX, in 1280 8x dagegen deutlich hinten. Sieht nach einem Treiberproblem aus, oder?
S.17, Stalker- Benchmark "Letztes Gefecht": Läuft der auf der GTX mit höherer Auflösung wirklich schneller oder sind das Messungenauigkeiten?

LovesuckZ
2007-05-14, 14:37:43
Ja das ist korrekt. Im Treiber fuer die Oeffentlichkeit geht das jedoch uebers Panel. :)

Na, dann warten wir mal ab, bis nVidia bald 32x liefert.

Aber die R600 hat deutlich mehr Rohleistung als die R580. Mit SS-TAA faellt diese jedoch hinter die R580 zurueck. Loest das keine Bedenken aus? ATI hat ueberigens auch in einer E-Mail mitgeteilt, dass es ein Treiberbug ist.

Die HD2900XT bietet doch nur eine 15% höhrere Texturleistung als die X1950XTX. Und wie ich schon sagte, bezweifel ich es, dass die FPS Zähler im niedrigen zweistelligen Bereich noch so genau arbeiten, um dies wiederzugeben. Und findet man die richtige Stelle in einer Anwendung, dann zählt einzig und allein die Texturleistung mit TSAA bzw. AAA-Qualität.

Hvoralek
2007-05-14, 14:40:16
ack.
Imo zeigen die aktuellen Benches eine der Texelfüllrate entsprechende Leistung(siehe Oblivion).SSAA sollte die relativen Anforderungen an die GraKa kaum ändern. Natürlich erfordert z.B. 4x SSAA die vierfache Filterleistung. Die Anforderungen an die Bandbreite, Fragmentshader und die ROPs steigen aber im gleichen Maße. Das einzige, was sich nicht ändert, dürfte die Geometrieleistung sein. Bei einer USA macht die einen kleinen Teil der Arithmetikleistung aus, die damit insgesamt vlt. nicht viermal so lange für die Berechnungen braucht, sondern z.B. 3,5- mal so lange. Ich glaube kaum, dass diese geringfügige Verschiebung von der Arithmetikleistung zu TMUs und Bandbreite einen nennenswerten Effekt hat, gerade bei Oblivion- Wäldern.

MartinRiggs
2007-05-14, 14:45:51
Ja das ist korrekt. Im Treiber fuer die Oeffentlichkeit geht das jedoch uebers Panel. :)





Ja das ist verstaendlich. Aber die R600 hat deutlich mehr Rohleistung als die R580. Mit SS-TAA faellt diese jedoch hinter die R580 zurueck. Loest das keine Bedenken aus? ATI hat ueberigens auch in einer E-Mail mitgeteilt, dass es ein Treiberbug ist.

Robbitop, wirst du die R600 nachbenchen wenn neue Treiber da sind?
Nach eurem Review gefällt mir die R600 gar nicht mehr so schlecht, einzig das Stromsaufen könnte etwas geringer sein.
Die Lautstärke dürften 3rd Party-Kühler richten, die Sapphire z.b. sieht vielversprechend aus.

robbitop
2007-05-14, 14:46:34
Na, dann warten wir mal ab, bis nVidia bald 32x liefert.
Meinst du die hybriden?
Ja naja das ist aber IMO auch Banal. Einfach mit OGSS zu kombinieren. Das koennte man bei ATI in wenigen Minuten im Treiber auch implementieren. Allerdings hat Terry sich dagegen entschieden.



Die HD2900XT bietet doch nur eine 15% höhrere Texturleistung als die X1950XTX. Und wie ich schon sagte, bezweifel ich es, dass die FPS Zähler im niedrigen zweistelligen Bereich noch so genau arbeiten, um dies wiederzugeben. Und findet man die richtige Stelle in einer Anwendung, dann zählt einzig und allein die Texturleistung mit TSAA bzw. AAA-Qualität.
Das TS-AAA soll je nach Anwendung verbuggt sein. Es gibt genug Reviews, wo eine R600 unter eine R580 faellt.
Die effektive Texturleistung ist aus Architekturgruenden hoeher als nur delta 15% einer R580.

robbitop
2007-05-14, 14:48:12
Robbitop, wirst du die R600 nachbenchen wenn neue Treiber da sind?
Nach eurem Review gefällt mir die R600 gar nicht mehr so schlecht, einzig das Stromsaufen könnte etwas geringer sein.
Die Lautstärke dürften 3rd Party-Kühler richten, die Sapphire z.b. sieht vielversprechend aus.
Davon gehe ich stark aus. Ich werde in Zukunft mehr im Bereich ATI/AMD tun. Ansonsten wird Madkiller sicher zukuenftige Performance Reports mit dem R600 benchen.

Leonidas
2007-05-14, 14:49:29
Den Satz versteh ich nicht: Beide Karten (8800 und 2900XT) fallen auf 161W im Idle. Wieso ist das jetzt bei der Radeon hervorragend, bei der Geforce jedoch nicht? :confused: Weil bei letzterer die Differenz nicht so groß ist?



Hast Recht, ist wohl übermüdet geschrieben worden. Hab es nun inhaltlich angepasst.

MartinRiggs
2007-05-14, 14:50:18
Davon gehe ich stark aus. Ich werde in Zukunft mehr im Bereich ATI/AMD tun. Ansonsten wird Madkiller sicher zukuenftige Performance Reports mit dem R600 benchen.

Also könnt ihr die Karte sogar länger behalten, oder ist es jetzt eure?

LovesuckZ
2007-05-14, 14:50:59
Die effektive Texturleistung ist aus Architekturgruenden hoeher als nur delta 15% einer R580.

Soweit ich bis jetzt gelesen habe, geschieht dies erst, wenn FP Texturen gefiltert werden. Bei INT8 Filterung sind es nur 15%.
Habt ihr die Filterungsgeschwindigkeiten nachgemessen? nVidia behauptet, dass AMD nur INT16 Texturen mit "full speed" filtern könnte.

Gast
2007-05-14, 14:51:22
Das ist klar, deswegen schrieb ich ja auch extra was von einer relativen Verhaeltnisaenderung. Nichts von absoluten Messwerten. Die G80 verbraucht zwar unter Last weniger aber das Verhaeltnis Last/Idle ist dort deutlich anders. Dass der absolute Messwert der G80 ggue einer R600 sehr gut ist, habe ich auch geschrieben. So what?


So wie du es geschrieben hast ist es falsch, es gibt keinen 2D Modus auf dem R600, also kann er auch nicht hervorragend funktionieren.

robbitop
2007-05-14, 15:00:11
Soweit ich bis jetzt gelesen habe, geschieht dies erst, wenn FP Texturen gefiltert werden. Bei INT8 Filterung sind es nur 15%.
Habt ihr die Filterungsgeschwindigkeiten nachgemessen? nVidia behauptet, dass AMD nur INT16 Texturen mit "full speed" filtern könnte.
NVIDIA hat in ihrem Dokument einen Haufen Unsinn geschrieben.
Die Architektur geht nun effizienter mit der Texelleistung um. FP16 meine ich gar nicht (das koennen die R580 TMUs gar nicht).

robbitop
2007-05-14, 15:01:33
So wie du es geschrieben hast ist es falsch, es gibt keinen 2D Modus auf dem R600, also kann er auch nicht hervorragend funktionieren.
Wie das Kind heisst, ist doch unbedeutend. Fakt ist, er senkt die Verlustleistung im Verhaelltnis zu Full-load um einen hohen Prozentsatz. Das geschieht vermutlich durch Abschaltung von Einheiten und Senken der Spannung. Ob und inwiefern der Takt noch geaendert wird, weiss ich nicht.

LovesuckZ
2007-05-14, 15:05:07
Die Architektur geht nun effizienter mit der Texelleistung um.

Und wie? Das geht aus aurem Artikel nicht hervor.

puntarenas
2007-05-14, 15:33:41
Ich will mich einfach nur kurz für diesen ausführlichen Launchartikel bedanken, besonders da euch der spät erschienene Betatreiber nochmal richtig unter Zeitdruck gesetzt hat. Die gröbsten Fehler werden ja durch Rückmeldungen beseitigt und wenn die Lektüre auch noch etwas holprig war, erspart mir der Artikel doch, auf zahllosen internationalen Seiten die immer gleichen Benchmarkwerte und Diagramme zu lesen, wobei man sich leider nur selten die Mühe macht, die getesteten Modi erst einmal mühseelig zu analysieren.

Tausend Dank...

robbitop@hochschule
2007-05-14, 15:34:19
Und wie? Das geht aus aurem Artikel nicht hervor.
Doch. Lies den Abschnitt zu den TMUs nochmal :)

- Vertex Vetches, Pixelfetches
- Texture Cache

Leonidas
2007-05-14, 15:39:25
Update: Neues Fazit, Artikel nun prinzipiell fertig.

dildo4u
2007-05-14, 15:42:31
Im Fazit. "Gerade bei den vielen Lanchverschiebungen der Vergangenheit"

Leonidas
2007-05-14, 15:46:18
Auch noch gefixt.

Die gelbe Eule
2007-05-14, 15:51:25
Aww sorry. Habs total vergessen. Grund: Weil ich keine/kaum Unterschiede zwischen AI on/off sehen konnte. Und ich sass wirklich zwei Stunden und habe die typischen Flimmerszenario szenen mehrfach in Bewegung durchgesehen. Auch habe ich bei einer Vergroesserung von 400% keine wirklich nennenswerten Differenzen erkennen koennen. Ergo nicht praxisrelevant. AI=on entspricht soziemlich genau subjektiv dem Nvidia Q (was verdammt gut ist).

Waere mehr Zeit gewesen, haette ich allerdings gern noch AI Off vs HQ gebencht.

Das sich die BQ wahrscheinlich nichts gibt, sollte klar sein. Doch wie die Performance ohne Optimierungen aussieht, genau das wäre interessant.

Hübie
2007-05-14, 15:51:31
Tja es ist schon Vorteilhaft nicht nur einen Artikel zu lesen. Danke 3DC. Finde es übrigens sehr geil, dass ihr in gängigeren Auflösungen testet, als viele andere.

So wie es jedoch aussieht müssen wa ma noch den ein oder anderen Treiber abwarten, um ein deutlicheres Fazit ziehen zu können. Ein Wunder wirds aber net geben ;)


bye Hübie

Sonyfreak
2007-05-14, 16:05:03
Danke für den hervorragenden Artikel über den R600. :up:

Ich hätte mich zwar noch über eine zusätzlich getestete 8800GTS und eine 7900GTX gefreut, aber auch so klasse Arbeit. :)

mfg.

Sonyfreak

tombman
2007-05-14, 17:02:14
Naja, für GTX Besitzer kein Problem nervös zu werden ;)

So wie ich das kapiert habe, setzt ATI (ich weigere mich AMD zu sagen ;)) schwer auf Arithmetik und vernachlässigt die Texturen.
Da die meisten games heutzutage aber noch starke Texturpower brauchen rächt sich das eben ;)
Die haben damit wohl zu weit in die Zukunft wollen, denn bis games das so brauchen haben wir alle schon weiterentwickelte Chips im Kasten...

Allerdings ist der Preis sehr ok, daher auf jeden Fall markttauglich.

Als Schulnote würde ich ATi hier ne 3 geben (1= das beste, 5= das schlechteste). Die GTX war ne klare 1 btw :)

Gast
2007-05-14, 17:03:52
Wie das Kind heisst, ist doch unbedeutend. Fakt ist, er senkt die Verlustleistung im Verhaelltnis zu Full-load um einen hohen Prozentsatz. Das geschieht vermutlich durch Abschaltung von Einheiten und Senken der Spannung. Ob und inwiefern der Takt noch geaendert wird, weiss ich nicht.

Das ist eine sehr gewagte Vermutung und die Sichtweise bleibt dennoch falsch.
Unter 2D verschwenden beide gleichviel elektrische Energie, unter 3D die Radeon erheblich mehr.
Aus dem Verhältnis von 2D zu 3D Verbrauch kann man nicht auf einen funktionierenden 2D Modus schließen.

Blutmaul
2007-05-14, 17:05:02
Es haben sich ja schon viele Branchengrössen geirrt, was das Tempo der technischen Entwicklung angeht.

Vielleicht ist ATI nicht zu spät, sondern zu früh?

paul.muad.dib
2007-05-14, 17:36:34
So wie ich das kapiert habe, setzt ATI (ich weigere mich AMD zu sagen ;)) schwer auf Arithmetik und vernachlässigt die Texturen.

Danach sieht es stark aus. Ati hat die Füllrate seit dem X800 kaum noch gesteigert. Was ich besonders bestürzend finde, sind die Benchmarks mit AA/AF. Da konnte sich ATI immer relativ zu NV verbessern, jetzt ist es andersherum.

Was haben die sich dabei gedacht, 16 TMUs mit einem 512 bit SI zu verbinden?

Die gelbe Eule
2007-05-14, 17:43:19
ATis eigene Übergangskarte zum Refresh, mehr kann man dazu nicht sagen

robbitop
2007-05-14, 17:44:20
Das ist eine sehr gewagte Vermutung und die Sichtweise bleibt dennoch falsch.
Unter 2D verschwenden beide gleichviel elektrische Energie, unter 3D die Radeon erheblich mehr.
Aus dem Verhältnis von 2D zu 3D Verbrauch kann man nicht auf einen funktionierenden 2D Modus schließen.
Gegen Leckstroeme kann ATI auch nichts machen. Da ist TSMC gefragt. Bei 2D ist das der Fall. Ich habe allerdings keine Lust ueber solch profane Dinge zu diskutieren. Einigen wir uns einfach, nicht einig zu sein? :)

robbitop
2007-05-14, 17:45:10
Was haben die sich dabei gedacht, 16 TMUs mit einem 512 bit SI zu verbinden?
Durchgaengiges FP16 Format und mind 4xMSAA. :)

aths
2007-05-14, 17:52:13
Ok, dann hat Computerbase da was in den falschen Hals bekommen, wenn sie davon reden, dass edge detection nach ATI-Angaben auch Texturflimmern bekämpft.Ich würde sagen, da hat CB einfach abgeschrieben was in offiziellen Unterlagen steht.

Odal
2007-05-14, 18:21:50
Danach sieht es stark aus. Ati hat die Füllrate seit dem X800 kaum noch gesteigert. Was ich besonders bestürzend finde, sind die Benchmarks mit AA/AF. Da konnte sich ATI immer relativ zu NV verbessern, jetzt ist es andersherum.

Was haben die sich dabei gedacht, 16 TMUs mit einem 512 bit SI zu verbinden?

solang sie mit der "geringen" füllrate noch schritthalten können ist das doch eher positiv für den kunden, da der applikationsbereich richtung mehr arithmetikbedarf orientiert...

das tombman&co hier nicht optimal bedient werden da sie nur was bekommen was auf der höhe der konkurenz zum launch ist ist klar....normale kunden profitieren eben von der philosophie indem sie eben nicht alle 6monate wieder was neues brauchen weil das "alte" noch gut mithält....

im falle des R600 ist es diesmal nur leider nicht so...unter konkurenzniveau....was aber eher mit der miesen AA performance zutun hat...bleibt zu hoffen das es ein softwarebug ist...

MiamiNice
2007-05-14, 18:39:19
Beim lesen des Artikels muss ich irgendwie schmunzeln ....
Ich möchte keinen irgendeinen Fanboy Titel andichten, doch irgendwie ist der Artikel AMD pro geschrieben.
An allen Stellen wo die 2900XT hinter der 8800GTX liegt heisst es "mieser Treiber". Im Fazit die Tabelle "Leistungsdifferenz der Radeon HD 2900 XT zur GeForce 8800 GTX" heist es total oft "nVidia ungenügend ,nVidia grenzwertig".

Das sehe ich (persönlich bevorzuge ich keinen Hersteller) gar nicht so. Wir sprechen hier von einer Karte die 6 Monate nach ihrem Konkurrenten das Licht der Welt erblickt. 6 Monate mehr Zeit zum Optimieren der Treiber und was sonst noch alles.

Meiner Meinung nach ist das gebotene vom AMD erbärmlich in anbetracht der Zeit die Sie sich gelassen haben. Ich kann mir vorstellen das selbst die AMD Fanboys ziemlich enttäuscht sind. Und das sollte man auch mal so schreiben.

MfG

Gouvernator
2007-05-14, 19:07:29
Da der Edge Detection Modus erst seit dem 8.3742er Treiber, welcher erst seit letztem Freitag verfügbar ist, über ein separates Tool aktivierbar ist, gehört 3DCenter vermutlich zu den wenigen Redaktionen, die diesen Modus überhaupt testen können.

Wo gibts das Tool??!??

rotanat
2007-05-14, 19:18:42
Ich find das Preis/Leistungsverhältnis der Karte auch auf keinen Fall passend, gibts doch die gleichschnelle (je nach Benchmark/Test/Review sogar schneller, siehe HardOCP) 640er GTS für 320 Euro. Selbst wenn die ATI Karte gleich viel kosten würde verbrät die Karte bei 8/7/52 Betrieb ca. 50 Euro Mehrkosten an Strom pro Jahr als die GTS, und das ist ein Dauerkostenwert. Da ist ja fast eine GTX günstiger (auf 3 Jahre gesehen, wobei die dann auch mehr Strom als die GTS frisst).
Der einzig schicke Punkt ist der HDTV Anschluss, sonst seh ich eigentlich nur Nachteile.

puntarenas
2007-05-14, 19:25:50
Im Fazit die Tabelle "Leistungsdifferenz der Radeon HD 2900 XT zur GeForce 8800 GTX" heist es total oft "nVidia ungenügend ,nVidia grenzwertig".

Das sehe ich (persönlich bevorzuge ich keinen Hersteller) gar nicht so. Wir sprechen hier von einer Karte die 6 Monate nach ihrem Konkurrenten das Licht der Welt erblickt. 6 Monate mehr Zeit zum Optimieren der Treiber und was sonst noch alles.
Du hättest also wenn es ruckelt und zuckelt bei ATI das Spielempfinden als ungenügend beschrieben, bei Nvidia aber als gut, weil es schon seit 6 Monaten in den beschriebenen Settings ruckelt? Seltsam, vielleicht hast du die Bewertungen aber auch einfach nur auf die Karten an sich und nicht das erzielbare Spielerlebnis bezogen.

Wieviel neue Trieber bringen werden, kann man im Moment nur orakeln. Die 3DC-Crew verfügt IMHO allerdings über das nötige Fachwissen, Auffälligkeiten in den Benchmarks zu deuten und daher begründete Vermutungen auszusprechen, sicher können die Jungs (und Mädels?) aber natürlich auch nicht sein.

Gast
2007-05-14, 21:03:47
Gegen Leckstroeme kann ATI auch nichts machen. Da ist TSMC gefragt. Bei 2D ist das der Fall. Ich habe allerdings keine Lust ueber solch profane Dinge zu diskutieren. Einigen wir uns einfach, nicht einig zu sein? :)

Einigung abgelehnt ;)
was haben denn jetzt die Leckströme damit zu tun?
Der R600 zeigt im 3D-Modus ja, daß die Transistoren, wenn sie arbeiten, erheblich Strom (kein Leckstrom) ziehen, und das ist unter 2D auch nicht anders, außer daß da weniger Transistoren schalten.

Oder mal anders argumentiert:
wenn jetzt nv noch 2 Lastwiderstände nur zum Strom verheizen im 3D-Modus auf das PCB klatschte und der Verbrauch dann in 2D wie jetzt und in 3D doppelt so hoch wie jetzt wäre, würdest du dann daraus eine effizienten 2D Modus ableiten?

BAGZZlash
2007-05-14, 21:25:29
Ääh, für Diskussionen über die Karte an sich gibt's doch diesen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362297) Thread hier, wir diskutieren hier über den 3DC-Artikel zu der Karte.
Mann, war ich heiß auf den Artikel, ich konnte kaum schlafen. Heute morgen bei der Arbeit dann erstmal losgeschmökert, lass Arbeit doch Arbeit sein... :rolleyes: Vielen Dank dafür!

Bei der verwendeten Maske des 8xAA des R600 steht im Artikel ja nur ein dickes Fragezeichen. In den pre-NDA-Folien, wo CFAA erklärt wird, wird eine Maske gezeigt. Dies könnte doch die gesuchte Maske sein, oder? Sie sieht irgendwie, irgendwie der alten 6x-Maske auch etwas ähnlich. So sieht sie aus:
http://www.people.freenet.de/BAGZZlash/AAR600.jpg

robbitop
2007-05-14, 21:27:01
Der R600 frisst im 2D aufgrund der Leckstroeme soviel. Wie du schon sagtest, die Transistoren schalten nicht, dennoch fliesst Strom. Der 80 HS node ist ein Prozess, der in diesem Bereich sehr kritisch ist.

Zu zweitens: nicht alles was hinkt, ist ein Vergleich ;)

robbitop
2007-05-14, 21:28:03
Bei der verwendeten Maske des 8xAA des R600 steht ja nur ein dickes Fragezeichen. In den pre-NDA-Folien, wo CFAA erklärt wird, wird eine Maske gezeigt. Dies könnte doch die gesuchte Maske sein, oder? So sieht sie aus: http://www.people.freenet.de/BAGZZlash/AAR600.jpg
Ich habe Leo die Shots der AA-Masken gegeben. Offensichtlich hat er es nicht eingebaut.

Xmas
2007-05-14, 22:25:25
Der Filterkernel nutzt nämlich nur Randsubpixel der Nachbarsamples, der Blureffekt ist also deutlich kleiner.
Ob Randsubpixel oder nicht, beim Multisampling stammt die Farbe in der Regel vom Pixelmittelpunkt.
Ich finde es schade dass auf die Betrachtung der Tent-Filter verzichtet wurde.

Der EATM-Screenshot auf Seite 6 ist falsch. Alle anderen AA-Screenshots sind Pixel-Skaliert, dieser anscheinend bikubisch.

Seite 7, 2. Absatz: entschloßen

Sk_Antilles
2007-05-14, 22:34:17
Im Fazit:

....Schiene gebracht, zudem dockerte man noch am Transparenz Anti-Aliasing herum.

sicherlich ist "doktorte" gemeint oder bin ich jetzt völlig daneben?

MiamiNice
2007-05-14, 22:38:37
Du hättest also wenn es ruckelt und zuckelt bei ATI das Spielempfinden als ungenügend beschrieben, bei Nvidia aber als gut, weil es schon seit 6 Monaten in den beschriebenen Settings ruckelt? Seltsam, vielleicht hast du die Bewertungen aber auch einfach nur auf die Karten an sich und nicht das erzielbare Spielerlebnis bezogen.

Wieviel neue Trieber bringen werden, kann man im Moment nur orakeln. Die 3DC-Crew verfügt IMHO allerdings über das nötige Fachwissen, Auffälligkeiten in den Benchmarks zu deuten und daher begründete Vermutungen auszusprechen, sicher können die Jungs (und Mädels?) aber natürlich auch nicht sein.


Natürlich hätte ich es nicht so beschrieben, wens ruckelt dann ruckelt es. Mir ist der Artikel nur zu sehr AMD pro für das was AMD da abliefert. Die besagte Tabelle hätte man sich sparen können. Man sollte nicht vergessen wer der grosse "Looser" ist. Und das mit 6 Monaten Zeit.

MfG

desert
2007-05-14, 22:57:24
ich muss sagen, ich bineinfach nur enttäuscht das ausgerechnet eine seite wie 3dcenter.de immer noch a.i. on bencht. Gerade freuen wir uns über die fast perfekte bq des g80 und dann sowas. und alle grosse rewiev seiten benchen immer noch a.i. standard gegen g80 q.

Das wäre doch jetzt mal wirklich die möglichkeit gewesen a.i off gegen hq ohne jegliche optimierungen zu testen. Das ende vom lied wird sein, das nvidia in ihre nächsten treiber wohl auch wieder optimierungen einbaut, weil es anscheinend kein schwein interessiert solange nur ati optimierungen hat.

Was war hier für ein aufstand auf der seite als nvidia ihre optimierungen aktiv hatte. Da musste sofort hq gegen a.i. standard getestest wird. Und jetzt? Wird lustig weitergemacht, weil gesagt wird flimmert nicht so schlimm. Fällt nicht auf. Dann kann ich auch auf dem g80 optimierungen anmachen und dann gegen r600 testen, kommt wohl auf´s gleiche raus.

Also meines erachtens wurde hier eine grosse chance vertan, eine vorreiterrolle zu übernehmen.

just my 2 cents

Mr. Lolman
2007-05-14, 23:47:02
Wird lustig weitergemacht, weil gesagt wird flimmert nicht so schlimm. Fällt nicht auf.

...und du weisst, dass es anders ist?

puntarenas
2007-05-14, 23:59:00
Man sollte nicht vergessen wer der grosse "Looser" ist. Und das mit 6 Monaten Zeit.

In dem Artikel geht es doch aber sicherlich nicht darum, einen Sieger zu küren. Es wurde auch keine Ziellinie überschritten oder irgendein Spiel abgepfiffen, er ist nur eine Momentaufnahme stetiger Entwicklungen im Grafikbereich, jedenfalls habe ich ihn so gelesen. Dabei werden die Eigenarten des Chips betrachtet und bewertet, wozu Konfrontation oder Häme?

"Geloost" hat ATI Marktanteile und Ansehen, während bei Nvidia dank zeitlichem Vorsprung sicherlich die Kasse geklingelt hat, auch wenn vielleicht die Gewinnmargen beim G80 nicht allzu üppig sein sollten. Jetzt hat die Konkurrenz ein neues Produkt auf dem Markt und es gilt für beide Unternehmen in die Zukunft zu blicken. Trotzdem, dies hier ist doch kein Börsenticker sondern eine Technikseite :)

RavenTS
2007-05-15, 00:50:03
Netter Bericht, für meinen Geschmack hat man sich aber zuviel mit den "Softskills" beschäftigt. Was mich auch noch sehr interessiert hätte bzw. ich hier gern gesehen hätte: Einige hochauflösende Bilder des ATi-Standardlayouts und der Kühlung (mehr Infos zum nVIDIA 2D Bug und ATis "Implementierung), mehr Infos zu der verbauten Soundhardware und ein kurzer Blick auf die anderen vorgestellten Karten (Stichwort A perfect Ten)...

MadManniMan
2007-05-15, 01:06:53
@MMM
wieso kritischer betrachten? Lies dir bitte mal die Erklaerung zum CFAA durch.
Im Gegensatz zu anderen Redaktionen konnten wir naemlich den Edge Detection Modus nutzen (der zwar kostet), aber nachweislich nur Polyedges blurt. (an der Untersuchung haben wir Stunden gesessen, das ist kritisch)
Das bringt also einen wirklich guten Effekt in der Praxis.
(muesste am Ende des Kapitels "Der R600 chip" oder so stehen...Leo hat sinnfreierweise meine schoene Struktur zu einer Suppe verschmolzen, so dass man sich im Architekturteil leicht verliert).

Hm, ich hab den Artikel gelesen, als nur die Benches standen - jetzt jedoch bin ich positiv von der ED-CFAA Qualität überzeug (nicht jedoch von der Performance ;) ) und revidiere mein Urteil.
Wide und Narrow find ich trotzdem doof!

Was ich noch vermisse: eine Erklärung zu EATM. Für Unbedarfte.

Und so sehr ich Leos Stil auch vermisse, Deiner liest sich ähnlich gut :up: Unterm Strich für einen Launch-Artikel außerordentlich gut. Das ist 3DCenter-Niveau! =)


Grpüße, M³

Gast
2007-05-15, 02:15:31
Wide und Narrow find ich trotzdem doof!Sieh es mal so:
Nach etlichen Jahren hat man nun auch ohne DXTweaker auf ATI-HW irgendwas, mit dem man böse Texturen und Flimmershader bekämpfen kann. Außerdem sind zusätzliche Optionen nie doof, sondern eine willkommene Bereicherung der Möglichkeiten.

Wenn etwas an diesem Artikel biased erscheint, so ist es die komplette Ausblendung aller Möglichkeiten, gegen Shaderaliasing und fiese Horrortexturen vorzugehen. Entweder werden diese überhaupt nicht erwähnt (Hybride/pures SSAA) oder als etwas schlechtes dargestellt (Quincunx/CFAA mit Narrow/Wide-Tent-Filter). NV bot diese Möglichkeiten schon immer, ATI hat endlich zwar nicht gleichgezogen, aber zumindest Möglichkeiten des Gegensteuerns geliefert. Ein großer Schritt nach vorne auf der Reise zu perfekter Bildqualität, denn unser aller Lieblingshassobjekt Filter"optimierung" ist bei weitem nicht die einzige Quelle von Geflimmer.

MadManniMan
2007-05-15, 02:55:33
Hm... *grübel* hm, hm, hm ...

Nun gut, nun gut, nun gut - was soll man dazu sagen: ich will ja auch Quinblurx niemandem verbieten. Aber dennoch sollte jedem klar sein, daß allerlei Info zerstört wird.
Hauptsächtlich fürchte ich um diverse 8* und 16* AA Benches mit falschen Modi. Nebensächlich trauer ich um all die Seelen, die Optionen einstellen und gar nicht wissen, was sie damit anrichten.

BlurX gegen Grissel schreit aber wirklich nach Verzweiflung :usweet:

Gast
2007-05-15, 03:40:00
Nun gut, nun gut, nun gut - was soll man dazu sagen: ich will ja auch Quinblurx niemandem verbieten. Aber dennoch sollte jedem klar sein, daß allerlei Info zerstört wird.Immer noch weniger zerstörte Information, als wenn man die Auflösung senken müsste, um Hybride/SSAA fahren zu können. Ich find die neuen Optionen klasse!
Hauptsächtlich fürchte ich um diverse 8* und 16* AA Benches mit falschen Modi. Nebensächlich trauer ich um all die Seelen, die Optionen einstellen und gar nicht wissen, was sie damit anrichten.Leider Full Ack. Wären vielleicht als inoffizielle Modi in 3rd-Party-Tools besser aufgehoben, um DAUs davor und vor fehlleitenden Reviews zu schützen. Vor allem die Benennung mag ihre technische Begründung haben, ist aber enorm irreführend.
BlurX gegen Grissel schreit aber wirklich nach Verzweiflung :usweet:Ganz ohne Flimmerminimierungsoptionen wäre zumindest ich dazu gezwungen, erhebliche Geldmengen in Aspirin oder schlimmeres zu investieren, denn ich bekomme von Geflimmer leider Kopfschmerzen. Gewissermaßen kann man also mit sauteuren Highendkarten sogar Geld sparen X-D

Leonidas
2007-05-15, 05:25:34
Ich habe Leo die Shots der AA-Masken gegeben. Offensichtlich hat er es nicht eingebaut.

Da hatte ich gestern nicht mehr den Kopf frei dafür. Ich baue es jetzt noch fix mit ein.




Zum Thema fehlender tiefergehender Informationen über die neuen AA-Möglichkeiten: Das war innerhalb von 2,5 Tagen einfach nicht lösbar. Wird Aufgabe zukünftiger Artikel sein. Sicherlich verdienen diese neuen AA-Möglichkeiten beider Hersteller einer *wirklich* genaueren Betrachtung.




PS: Neue gemeldete Schreibfehler gefixt.

Gast
2007-05-15, 07:04:44
Toller Artikel, trotz der (ehem.) Rechtschreibfehler und falschen Bilder!
Könnt ihr eventuell schon eine Ansage machen, was ihr noch nachreicht - ich meine, habt ihr die Karte noch (wurde schonmal gefragt)?
Weil große Detailfotos, Infos zu dem Soundcodec, Benches gegen eine GTS 640MB... all das wäre super fein :)

captainsangria
2007-05-15, 07:05:10
Puha, darauf habe ich ehrlich gesagt nur wenig Wert gelegt. Wo finde ich entsprechendes dazu? Im Geraetemanager?
Der Realtek Codec sind nur Wandler und Schnittstellentreiber, der Codec ist kein Soundcontroller. Bisher hatte Realtek jendefalls keine eigenen Soundcontroller im aktuellen Programm.
Der Soundcontroller steckt sicherlich in der ATI Lösung. Ich nehme mal an, dass aus der ATI Lösung dann ein ganz normaler HDA- oder AC'97 Link heraus geführt wird, welcher dann den Codec bedient.
Der Controller in der ATI Lösung führt dann die nötigen Speicherzugriffe über den PCIe Bus aus. Das wäre die erste direkte PCIe Soundcontroller Lösung für den Consumer Markt und sicherlich mal einen eingehenderen Blick wert.

@ an die Tester
Was steckt denn für ein Typ Codec auf der Grafikkarte?

auf der ATI-homepage habe ich nichts gefunden, genausowenig im netz.

Integrated HD audio controller with multi-channel (5.1) AC3 support, enabling a plug-and-play cable-less audio solution

wäre halt interessant, wenn ihr die karte mal in hinsicht auf den verbauten soundcodec/chip/... testen könntet.

im gerätemanager könnte man (muss man nicht) sehen, wie sich der chip meldet.

robbitop
2007-05-15, 07:32:26
ich muss sagen, ich bineinfach nur enttäuscht das ausgerechnet eine seite wie 3dcenter.de immer noch a.i. on bencht. Gerade freuen wir uns über die fast perfekte bq des g80 und dann sowas. und alle grosse rewiev seiten benchen immer noch a.i. standard gegen g80 q.

Das wäre doch jetzt mal wirklich die möglichkeit gewesen a.i off gegen hq ohne jegliche optimierungen zu testen. Das ende vom lied wird sein, das nvidia in ihre nächsten treiber wohl auch wieder optimierungen einbaut, weil es anscheinend kein schwein interessiert solange nur ati optimierungen hat.

Was war hier für ein aufstand auf der seite als nvidia ihre optimierungen aktiv hatte. Da musste sofort hq gegen a.i. standard getestest wird. Und jetzt? Wird lustig weitergemacht, weil gesagt wird flimmert nicht so schlimm. Fällt nicht auf. Dann kann ich auch auf dem g80 optimierungen anmachen und dann gegen r600 testen, kommt wohl auf´s gleiche raus.

Also meines erachtens wurde hier eine grosse chance vertan, eine vorreiterrolle zu übernehmen.

just my 2 cents

Wenn man Benchen wuerde ohne nachzudenken stimmt das in der Tat. Wie schon im BQ Teil beschrieben, sieht man in der Praxis -im Gegensatz zur R580 - keinen Unterschied mehr zwischen AI on und AI off. AI flimmert beim R600 nicht. Da die BQ ausgezeichnet war, entschlossen wir uns, AI on zu benchen. Mit AI off waeren alle gamespezifischen Optimierungen ausgewesen. Das waere was fuer ATI basher geworden. Sinnvolle Messungen waeren das hingegen nicht gewesen.
Hingegen haetten wir gern beides gebencht. Dafuer war jedoch in den drei Tagen keine Zeit.

Aber irgendwas ist ja immer.

robbitop
2007-05-15, 07:35:15
Netter Bericht, für meinen Geschmack hat man sich aber zuviel mit den "Softskills" beschäftigt. Was mich auch noch sehr interessiert hätte bzw. ich hier gern gesehen hätte: Einige hochauflösende Bilder des ATi-Standardlayouts und der Kühlung (mehr Infos zum nVIDIA 2D Bug und ATis "Implementierung), mehr Infos zu der verbauten Soundhardware und ein kurzer Blick auf die anderen vorgestellten Karten (Stichwort A perfect Ten)...
RV630 und RV610 sind IIRC noch unter NDA.

robbitop
2007-05-15, 07:39:55
Sieh es mal so:
Nach etlichen Jahren hat man nun auch ohne DXTweaker auf ATI-HW irgendwas, mit dem man böse Texturen und Flimmershader bekämpfen kann. Außerdem sind zusätzliche Optionen nie doof, sondern eine willkommene Bereicherung der Möglichkeiten.

Wenn etwas an diesem Artikel biased erscheint, so ist es die komplette Ausblendung aller Möglichkeiten, gegen Shaderaliasing und fiese Horrortexturen vorzugehen. Entweder werden diese überhaupt nicht erwähnt (Hybride/pures SSAA) oder als etwas schlechtes dargestellt (Quincunx/CFAA mit Narrow/Wide-Tent-Filter). NV bot diese Möglichkeiten schon immer, ATI hat endlich zwar nicht gleichgezogen, aber zumindest Möglichkeiten des Gegensteuerns geliefert. Ein großer Schritt nach vorne auf der Reise zu perfekter Bildqualität, denn unser aller Lieblingshassobjekt Filter"optimierung" ist bei weitem nicht die einzige Quelle von Geflimmer.

Stupides OGSS als auch ein Blurfilter sind Werkzeuge die nicht sonderlich effektiv sind. (kosten oder nutzen)

aths
2007-05-15, 08:33:49
Hm... *grübel* hm, hm, hm ...

Nun gut, nun gut, nun gut - was soll man dazu sagen: ich will ja auch Quinblurx niemandem verbieten. Aber dennoch sollte jedem klar sein, daß allerlei Info zerstört wird.
Hauptsächtlich fürchte ich um diverse 8* und 16* AA Benches mit falschen Modi. Nebensächlich trauer ich um all die Seelen, die Optionen einstellen und gar nicht wissen, was sie damit anrichten.

BlurX gegen Grissel schreit aber wirklich nach Verzweiflung :usweet:Dass Blurring schädlich ist stimmt vor allem dann, wenn (wie beim R600) das Downsampling ganz am Ende stattfindet. Würde man nach dem Downsampling HUD-Elemente und Schrift einfügen, würde es insgesamt besser aussehen als man denkt. Das muss dann allerdings bei der Spielprogrammierung berücksichtigt werden.

Man muss davon wegkommen, pixelfeine Schärfe als das Optimum anzusehen. Je schärfer, desto eher hängt das Aussehen von der Phase ab. Das gilt auch für Texturen. "Böse" Texturen flimmern in Bewegung immer. Etwas vereinfacht ausgedrückt ist Geometrie per se "böse".

Anders sieht es bei Fontsrendering aus. Da kommt es nicht darauf an, einen guten Eindruck in Bewegung zu erreichen, sondern im Standbild. Da spielt man schon mal mit Buchstabenbreiten und den Abständen, um die senkrechten Striche immer genau aufs nächste Pixel zu bekommen, weil das dann schön scharf aussieht. Folge: Alles was irgendwie blurrt muss stattfinden bevor die Schrift ins Bild kommt.

Und da man den teuer gefilterten Texturcontent nicht vermatschen will, könnte man Edge-Detect-Mechanismen zur Kantenglättung einsetzen. Mit größeren Kerneln ließe sich das gegenüber der R600-Lösung noch ein wenig verbessern, doch für die primitive ED-Methode à la R600 ist das Ergebnis schon ziemlich gut.

Nvidia ist bei der Namensfindung für AA-Modi in letzter Zeit ja ziemlich, äh, kreativ. AMD allerdings treibt Schindluder. Ich sag nur 10x und 14x (Crossfire-AA mit Supersampling-Anteil) und jetzt 16x etc ...

Vertigo
2007-05-15, 08:42:32
Stupides OGSS als auch ein Blurfilter sind Werkzeuge die nicht sonderlich effektiv sind. (kosten oder nutzen)
Inwiefern sollte OGSS nicht effektiv sein? Bei ausreichend hoher Auflösung und Samplingrate müßte es das doch sein. Theoretisch auf jeden Fall.

robbitop
2007-05-15, 08:59:21
Inwiefern sollte OGSS nicht effektiv sein? Bei ausreichend hoher Auflösung und Samplingrate müßte es das doch sein. Theoretisch auf jeden Fall.
OGSS ist zu teuer fuer das was es bringt. Aber die Diskussion hatten wir schon 1000x hier im Forum

Vertigo
2007-05-15, 09:02:45
OGSS ist zu teuer fuer das was es bringt. Aber die Diskussion hatten wir schon 1000x hier im Forum
Dass OGSS nicht effizient ist, weiß ich. Ich fragte ja auch warum es nicht effektiv sein soll. Oder meintest Du das damit? :confused:

aths
2007-05-15, 09:07:08
Dass OGSS nicht effizient ist, weiß ich. Ich fragte ja auch warum es nicht effektiv sein soll. Oder meintest Du das damit? :confused:Sparse-Muster sind deutlich effektiver =)

Gast
2007-05-15, 09:11:38
Stupides OGSS als auch ein Blurfilter sind Werkzeuge die nicht sonderlich effektiv sind. (kosten oder nutzen)Es sind Werkzeuge, die enorm effektiv sind, aber auch ebenso enorme unerwünschte Nebenwirkungen haben. Würde ATIs Edge-Detect-Filter so funktionieren, wie ihn manche falsch verstanden haben, hätte man einen Großteil der positiven Effekte ohne einen Großteil der negativen Nebenwirkungen. Den Beitrag von aths zu dieser Thematik sollte man in kursiver extragroßer Fettschrift über jeden Artikel und Thread festnageln, der diese auch nur streift. Meine Ansichten magst du für verschroben halten - aber wenn er, zuvor absoluter Verfechter der Gegenposition, davon überzeugt wurde, dann wird wohl was dran sein, oder?

Vertigo
2007-05-15, 09:27:58
Sparse-Muster sind deutlich effektiver =)
Also ist nur SGSS effektiv und OGSS kann nie effektiv sein. Auch nicht bei höherer Sample-Zahl? Dass SGSS bei gleichvielen Samples OGSS qualitativ überlegen und von der Performance her gleich ist, ist mir schon bewußt. Aber ich dachte bisher (auch jetzt noch :biggrin:) dass OGSS bei ausreichend mehr Samples die Qualität von SGSS erreichen kann - theoretisch. Bei ausreichend hoher Auflösung müßte dann doch OGSS mit SGSS gleichziehen können- theoretisch. Selbstredend wäre dann SGSS effizienter ...

Sorry für OT - aber wenn ich schonmal eure Kompetenz anzapfen kann, lasse ich mir das nicht entgehen. ;)

aths
2007-05-15, 09:36:34
Also ist nur SGSS effektiv und OGSS kann nie effektiv sein. Auch nicht bei höherer Sample-Zahl? Dass SGSS bei gleichvielen Samples OGSS qualitativ überlegen und von der Performance her gleich ist, ist mir schon bewußt. Aber ich dachte bisher (auch jetzt noch :biggrin:) dass OGSS bei ausreichend mehr Samples die Qualität von SGSS erreichen kann - theoretisch. Bei ausreichend hoher Auflösung müßte dann doch OGSS mit SGSS gleichziehen können- theoretisch. Selbstredend wäre dann SGSS effizienter ...

Sorry für OT - aber wenn ich schonmal eure Kompetenz anzapfen kann, lasse ich mir das nicht entgehen. ;)Deine Argumentation ist imo unpassend, da sie auf "viel hilft viel" hinausläuft. Um effektiv zu sein, kann man aber nicht beliebig viel reinbuttern wenn man trotzdem nur recht maue Ergebnisse erzielt.

Gast
2007-05-15, 09:41:23
Also ist nur SGSS effektiv und OGSS kann nie effektiv sein.Nein. SG ist effizienter als OG, weil es aus den Samples mehr Effektivität rausholen kann.
Effektivität ->Wie groß ist der erreichte Effekt?
Effizienz ->Mit welchem Aufwand wird der Effekt erreicht?
Als Beispiel 4x4OG vs 4xSG. 4x4OG ist immer mindestens gleich effektiv wie 4xSG, aber meist erreicht (ein gutes) 4xSG die gleiche oder fast die gleiche Effektivität wie 4x4OG, obwohl es nur ein Viertel der Samplemenge von 4x4OG braucht.

Gast
2007-05-15, 09:41:36
Wenn man Benchen wuerde ohne nachzudenken stimmt das in der Tat. Wie schon im BQ Teil beschrieben, sieht man in der Praxis -im Gegensatz zur R580 - keinen Unterschied mehr zwischen AI on und AI off.

Doch den sieht man, wie man auf ComputerBase lesen kann.


AI flimmert beim R600 nicht.


Doch das tut es.


Da die BQ ausgezeichnet war, entschlossen wir uns, AI on zu benchen. Mit AI off waeren alle gamespezifischen Optimierungen ausgewesen. Das waere was fuer ATI basher geworden. Sinnvolle Messungen waeren das hingegen nicht gewesen.


AI off sind die einzigen sinnvollen Messungen auf ATI Karten, weil man nicht weiß, was bei AI on alles getrickst wird. Gamespezifische Optimierungen gibt es derzeit keine im Treiber.

Vertigo
2007-05-15, 09:54:52
Deine Argumentation ist imo unpassend, da sie auf "viel hilft viel" hinausläuft. Um effektiv zu sein, kann man aber nicht beliebig viel reinbuttern wenn man trotzdem nur recht maue Ergebnisse erzielt.
Unpassend im Bezug auf die praktische Umsetzung? Einverstanden. Aber theoretisch?
Nein. SG ist effizienter als OG, weil es aus den Samples mehr Effektivität rausholen kann.
Effektiv ist etwas, wenn ein vorgegebenes Ziel erreicht wird - egal wie. Effizient ist etwas, wenn das vorgegebene Ziel mit dem kleinstmöglichen Aufwand erreicht wird.

Du schreibst, dass bspw. ein 4x SG im Idealfall gleich gut ist wie 4x4 OG. Damit sind beide effektiv, nur SG ist aber effizient. Genau das ist auch mein Wissensstand. Nun schrieb Robbitop aber, dass "OGSS nicht sonderlich effektiv" ist. Da ich ihm in diesem Punkt deutlich mehr Kompetenz als mir selbst zugestehe, wollte ich mal nachfragen ...

robbitop
2007-05-15, 10:07:39
Doch das tut es.


Aussage ohne Hintergrund? Beleg? Ich kann dir jederzeit unkomprimierte Videos zeigen. Keines von denen flimmert.

Spasstiger
2007-05-15, 10:08:09
Aber theoretisch?
Theoretisch erzielt man mit 4x4 OGSSAA mindestens genauso gute Ergebnisse wie mit 4xSGSSAA. In der Praxis kostet es halt die vierfache Leistung, was es ziemlich ineffizient macht.
Um die AA-Qualität des 8xSGSSAA von 3Dfx zu erreichen, müsste man sogar 8x8 OGSSAA verwenden, was nirgendwo geboten wird, weil es für praktische Zwecke einfach viel zu ineffizient ist.
Aber eine Kombination aus Transparenz-AA, AF, hohem MSAA-Grad und einem Hybridmodus (z.B. 16xS) liefert mindestens genauso gute Ergebnisse - bezogen auf die Texturfilterung sogar deutlich bessere - bei vergleichbarem Rechenaufwand (aber höherem Bandbreiten- und Speicherbedarf).

Gast
2007-05-15, 10:17:00
Aussage ohne Hintergrund? Beleg? Ich kann dir jederzeit unkomprimierte Videos zeigen. Keines von denen flimmert.


Ich verlasse mich da auf das objektive Urteil von CB. Die hatten die Zeit für ausführliche BQ Betrachtungen und nicht:

Zitat Robbitop:
"Dafuer war jedoch in den drei Tagen keine Zeit."

Gast
2007-05-15, 10:19:58
Nun schrieb Robbitop aber, dass "OGSS nicht sonderlich effektiv" ist. Da ich ihm in diesem Punkt deutlich mehr Kompetenz als mir selbst zugestehe, wollte ich mal nachfragen ...Kann gut sein, dass er mich damit nur ein wenig foppen wollte, auf die (absichtliche) Verwechslung von Effektivität und Effizienz reagiere ich immer ziemlich allergisch :tongue:
Wobei er mit "nicht sonderlich" ja richtig liegt, zwischen unterschiedlichen Sampleanordnungen liegt der Effizienzunterschied ja lediglich in der erreichten Effektivität. Die Aussage könnte aber auch bedeuten, dass OGSSAA nicht sonderlich effektiv wäre, und dem musste widersprochen werden. SSAA ist immer außerordentlich effektiv, nur sieht die Effizienz halt bei SGSSAA wesentlich besser aus.

robbitop
2007-05-15, 10:28:15
Ich verlasse mich da auf das objektive Urteil von CB. Die hatten die Zeit für ausführliche BQ Betrachtungen und nicht:


Fuer die AF Investigation habe ich 2 extra Leute gehabt (BBSR, aths) und meine wenigkeit. Da sind schon einige Stunden eingeflossen. Natuerlich haben wir nur einen kleinen Teil davon veroeffentlicht.

Wenn du CB traust, die nichtmal merken, dass das AAA eigentlich EATM ist, dann bist du ja auf einem guten Pfad. ;)

Mir solls egal sein.

Gast
2007-05-15, 10:46:32
Fuer die AF Investigation habe ich 2 extra Leute gehabt (BBSR, aths) und meine wenigkeit. Da sind schon einige Stunden eingeflossen. Natuerlich haben wir nur einen kleinen Teil davon veroeffentlicht.

Wenn du CB traust, die nichtmal merken, dass das AAA eigentlich EATM ist, dann bist du ja auf einem guten Pfad. ;)

Mir solls egal sein.


Das war ein Nachtest, bei dem nicht auf die BQ geachtet wurde (warum sollte man auch annehmen, daß ATI so cheatet?), jetzt wissen sie, daß man ATI nicht trauen kann und das wird nicht wieder passieren.

btw. war euer EATM screenshot doch auch falsch ohne daß es euch gleich aufgefallen ist.

robbitop
2007-05-15, 10:50:42
Ob die Beurteilung oder ein Filter im Screenshot falsch ist, ist ein Unterschied.

nino
2007-05-15, 11:25:19
Der EATM-Screenshot auf Seite 6 ist falsch. Alle anderen AA-Screenshots sind Pixel-Skaliert, dieser anscheinend bikubisch.


das ist immer noch nicht korrigiert, oder? ich würd gern mal vergleichbare screens sehen

Gast
2007-05-15, 11:46:04
Ob die Beurteilung oder ein Filter im Screenshot falsch ist, ist ein Unterschied.

Du hältst also die Beurteilung von CB für falsch und nur die eure für richtig? Soviel Arroganz hätte ich euch jetzt wirklich nicht zugetraut.

Leonidas
2007-05-15, 11:50:44
Nanana, haut euch hier nicht. Der CB-Artikel ist insgesamt gut und Fehler mache alle.

MadManniMan
2007-05-15, 12:09:31
Nanana, haut euch hier nicht. Der CB-Artikel ist insgesamt gut und Fehler mache alle.

Ich halte die Tunnel-Flimmer-Video-Dings-Lösung für sicherer, als nur Screenshots zu beschauen. Du nicht auch?

robbitop
2007-05-15, 12:37:56
Du hältst also die Beurteilung von CB für falsch und nur die eure für richtig? Soviel Arroganz hätte ich euch jetzt wirklich nicht zugetraut.
Das habe ich so nicht gesagt. Ich zweifle jedoch diese Aussage an, da ich es so nicht beobachten konnte.

Ich halte die Tunnel-Flimmer-Video-Dings-Lösung für sicherer, als nur Screenshots zu beschauen. Du nicht auch?
Das ist die Frage. Wir haben Untersuchungen in typischen Flimmerszenen durchgefuehrt, die zum starken Flimmern neigen, sofern der Filter nicht passt. Die R600 flimmerte nicht.

Ob man das in synthetischen Tests zum Flimmern bekommt, kann natuerlich sein. Nur welche Praxisaussage hat das?
Laut den Testernist das AF beim R600 auch in seiner Winkelabhaengigkeit der 1. MIPmap suboptimal. Faellt in der Praxis allerdings nicht auf, da die Verzerrung in der 1. MIP nicht so arg ist.

Gast
2007-05-15, 12:49:31
Nanana, haut euch hier nicht. Der CB-Artikel ist insgesamt gut und Fehler mache alle.

Das sehe ich auch so, euer Artikelschreiber anscheinend aber nicht. Da scheint nur zu zählen, was er persönlich wahrnimmt oder nicht.
Ich unterstell hier keine Absicht, evtl. hat er ja Szene angeschaut, in denen man den Unterschied zwischen AI on/off nicht wahrnimmt. Daß aber kein Unterschied vorhanden ist halte ich für falsch.

MadManniMan
2007-05-15, 12:56:33
Das ist die Frage. Wir haben Untersuchungen in typischen Flimmerszenen durchgefuehrt, die zum starken Flimmern neigen, sofern der Filter nicht passt. Die R600 flimmerte nicht.

Ob man das in synthetischen Tests zum Flimmern bekommt, kann natuerlich sein. Nur welche Praxisaussage hat das?
Laut den Testernist das AF beim R600 auch in seiner Winkelabhaengigkeit der 1. MIPmap suboptimal. Faellt in der Praxis allerdings nicht auf, da die Verzerrung in der 1. MIP nicht so arg ist.

Hm, am schönsten wäre natürlich, einfach zu wiederholen, was ihr damals schon gemacht habt. Sicherer gehts nicht!

robbitop
2007-05-15, 13:43:12
Das sehe ich auch so, euer Artikelschreiber anscheinend aber nicht. Da scheint nur zu zählen, was er persönlich wahrnimmt oder nicht.
Ich unterstell hier keine Absicht, evtl. hat er ja Szene angeschaut, in denen man den Unterschied zwischen AI on/off nicht wahrnimmt. Daß aber kein Unterschied vorhanden ist halte ich für falsch.
CB hat vieles aus den PR Unterlagen einfach uebernommen, ohne darueber nachzudenken. Insofern bleibe ich ueber deren Testmethoden skeptisch.

Wenn du willst, stell ich dir gerne Vergleichsvideos (unkomprimiert) auf meinen privaten FTP.

Mr. Lolman
2007-05-15, 13:56:53
Wenn du willst, stell ich dir gerne Vergleichsvideos (unkomprimiert) auf meinen privaten FTP.

Ich will *hüpf*

captainsangria
2007-05-15, 14:00:07
Ich will *hüpf*dem schließe ich mich sehr gerne an, wenn es denn möglich ist.

Gast
2007-05-15, 14:09:10
[QUOTE=robbitop;5496097]CB hat vieles aus den PR Unterlagen einfach uebernommen, ohne darueber nachzudenken. /QUOTE]


Soso.

Quelle CB:

Deswegen haben wir mehrere Videos von Half-Life 2 und einem „Moiré-Tester“, der ein regelrechter Härtefall ist, angefertigt. Anbieten können wir die Videos aufgrund der Größe leider nicht. In Bewegung erkennt man die Verbesserungen bezüglich des Texturflimmerns auf dem R600 im Vergleich zum Vorgänger. Das gesamte Bild wirkt etwas ruhiger, wobei die Unterschiede nicht allzu groß ausfallen. Bei A.I. Off fallen die Bugwellen bei den Übergängen der MipMaps weg, der Flimmeranteil bleibt aber immer noch bestehen. Gefallen hat uns der bilineare Filter, der nur selten negativ auffällt. Um gegen den hervorragenden anisotropen Filter der nVidia G80-GPU bestehen zu können, reichen die Verbesserungen in der R600-GPU aber nicht aus.

Exxtreme
2007-05-15, 14:20:31
Soso.

Quelle CB:

Deswegen haben wir mehrere Videos von Half-Life 2 und einem „Moiré-Tester“, der ein regelrechter Härtefall ist, angefertigt.
Welches Level hast du in dem Spiel "Moire-Tester" schon erreicht?

Mr. Lolman
2007-05-15, 14:25:26
Welches Level hast du in dem Spiel "Moire-Tester" schon erreicht?

Ich glaub irgendwo in Flimmerwald müsst er sein. Oder wars Grieselville? Egal, sieht ja eh alles gleich aus und spielt sich auch sehr ähnlich X-D

Gast
2007-05-15, 15:54:18
Welches Level hast du in dem Spiel "Moire-Tester" schon erreicht?

Half-Life2 kennst du aber?

BAGZZlash
2007-05-15, 16:22:51
Ich glaub irgendwo in Flimmerwald müsst er sein. Oder wars Grieselville? Egal, sieht ja eh alles gleich aus und spielt sich auch sehr ähnlich X-D
Flimmerwald! X-D

Hab' grad' nochmal das Fazit des Artikels überflogen und noch ein paar Kleinigkeiten gefunden:


ATI hat hier also bewußt keine Karte aufgelegt, welches es mit der GeForce 8800 GTX aufnehmen können soll [...]

Ein 's' zuviel.


Daß es jetzt sogar nur noch zu einer Präsentation mit offensichtlich nicht ausgereiften Treibern gereicht hat, ist das andere Ärgerniss.

Ein 's' zuviel.


Insofern liegt trotz der langen Verzögerung noch einiges an intensiver Treiberarbeit von ATI, [...]

'vor' statt 'von'.


[...] 10 bis 20 Prozent Performance herauskitzeln wird können [...]

Verdrehter Satzbau. Korrekt: [...] 10 bis 20 Prozent Performance herauskitzeln können wird [...]

robbitop
2007-05-15, 18:07:59
„Moiré-Tester“
Wie Praxisrelevant.

@Lolman

du darfst dir Spiel und Setting aussuchen. ;) Oder besser noch: gib mir ein Savegame.
Ich mache dann entsprechende Videos mit AI on vs off.

Mr. Lolman
2007-05-15, 18:14:10
Wie Praxisrelevant.

@Lolman

du darfst dir Spiel und Setting aussuchen. ;) Oder besser noch: gib mir ein Savegame.
Ich mache dann entsprechende Videos mit AI on vs off.

Nehmen wir am Besten gleich die berühmt, berüchtigte HL² Szene: SAVE.rar (http://www.keepmyfile.com/download/56cf9c1598001)

robbitop
2007-05-15, 18:25:22
Ich sehe gerad, ich habe HL2 nicht hier. Ein Freund kann es wohl morgen vorbeibringen. Dann die Vids (es sei denn du hast in Zwischenzeit noch einen anderen Vorschlag, den ich auch hier habe).

Mr. Lolman
2007-05-15, 19:01:17
Ich sehe gerad, ich habe HL2 nicht hier. Ein Freund kann es wohl morgen vorbeibringen. Dann die Vids (es sei denn du hast in Zwischenzeit noch einen anderen Vorschlag, den ich auch hier habe).

Hm, da sollte man besser Raff fragen. Der ist da noch viel empfindlicher als ich. WOW vll? (aber das hab ich nicht, deswegen auch kein Szenen vorschlag) Max Payne (2) wär auch noch ne Möglichkeit.

robbitop
2007-05-15, 19:03:57
Ich uppe morgen dann beides. Dein Save und Max Schmaerz. :)

puntarenas
2007-05-15, 20:00:23
Danke Lolman, da hast du was interessantes losgetreten. BTW, solche Vids würden auch euren Artikeln gut stehen ;)

robbitop
2007-05-15, 20:04:38
Danke Lolman, da hast du was interessantes losgetreten. BTW, solche Vids würden auch euren Artikeln gut stehen ;)
Wenn jemand sie hostet, kein Problem. Ich mache eigentlich fast immer vids. Nur kann man sie nirgends auslagern (auf meiner HDD liegen noch Videos mit fiesem AF Flimmern beim S27, das auf heutigen Treibern so gut wie weg ist btw ^^)

Raff
2007-05-15, 20:40:03
Hm, da sollte man besser Raff fragen. Der ist da noch viel empfindlicher als ich. WOW vll? (aber das hab ich nicht, deswegen auch kein Szenen vorschlag) Max Payne (2) wär auch noch ne Möglichkeit.

Was ist mit mir? :D

Ja, flimmern tut weh.

MfG,
Raff

Black-Scorpion
2007-05-15, 20:49:32
Das MP2 Video würde mich auch interessieren.

puntarenas
2007-05-15, 21:12:49
Wenn jemand sie hostet, kein Problem. Ich mache eigentlich fast immer vids.
Ich wusste doch, irgendein praktisches Problem scheint es noch zu geben. Wie wäre es denn mit YouTube, die schwören doch auf ihre Kompression :D

Mal im Ernst, das mit dem Space und Traffic leuchtet mir ein, auch wenn es sehr schade ist...

Black-Scorpion
2007-05-15, 21:22:53
Wenn jemand sie hostet, kein Problem. Ich mache eigentlich fast immer vids. Nur kann man sie nirgends auslagern (auf meiner HDD liegen noch Videos mit fiesem AF Flimmern beim S27, das auf heutigen Treibern so gut wie weg ist btw ^^)
Dann lade sie doch zu Rapidshare (100MB) (http://www.rapidshare.com/) oder Megaupload (500MB) (http://www.megaupload.com/) und setze die Links ins Forum.

RavenTS
2007-05-15, 21:26:21
Dann lade sie doch zu Rapidshare (100MB) (http://www.rapidshare.com/) oder Megaupload (500MB) (http://www.megaupload.com/) und setze die Links ins Forum.

Sowas wäre zusammen mit dem Mouseover-Effekt sicherlich perfekt für die Beschreibung diverser Bildeffekte aber ich muss befürchten, daß die Sachen bei einem großen Bericht hier massiv gezogen und dann vielleicht sogar von den Websites gelöscht werden...Versuch wärs aber wert!

AnarchX
2007-05-15, 21:37:02
Nochmal zum HSR:
http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_d3drightmark_hsr.png

http://www.ixbt.com/video2/images/g80/d3drm-hsr-4.pnghttp://www.ixbt.com/video2/images/g80/d3drm-hsr-3.png
http://www.digit-life.com/articles2/video/g80-part2.html#p5

Warum ist bei euch der unsorted Wert des G80 so niedrig, Treiberbug?

PCGH_Carsten
2007-05-15, 22:57:45
robbitop,

Ich hätte da einige Frage.

- Ich lasse den D3D-Rightmark-HSR-Test auch gerade mal laufen - habe aber nur eine GTX zur Hand. Eure Ergebnisse kann ich allerdings nur im Fenster-Modus mit 640x480 nachvollziehen. Ist das das Setting, in dem ihr gebencht habt? Ansonsten war noch VS3.0-Profile, hohe Geometriekomplexität und Fixed color + texture ausgewählt - bei euch auch?

- Welche Auflösung wurde im Fablemark verwendet, welche übrigen Parameter? Mein Ergebnis für 1.024x768 und 4xAA liegt bei 160 Fps (2xAA und kein AA decken sich mit euren Ergebnissen).

- Das Oblivion-Savegame an der Goldküste; ich stellte diese Frage bereits in einem der R600-Threads: Ist der Bug bei der Darstellung der Oblivion-Tore mit aktivem FSAA beim Catalyst-Treiber mittlerweile behoben?

robbitop
2007-05-15, 23:16:15
robbitop,

Ich hätte da einige Frage.

- Ich lasse den D3D-Rightmark-HSR-Test auch gerade mal laufen - habe aber nur eine GTX zur Hand. Eure Ergebnisse kann ich allerdings nur im Fenster-Modus mit 640x480 nachvollziehen. Ist das das Setting, in dem ihr gebencht habt? Ansonsten war noch VS3.0-Profile, hohe Geometriekomplexität und Fixed color + texture ausgewählt - bei euch auch?
Das trifft sich gut, ich hab seit heute nur noch die R600 zur Hand. :)
Es war btw der Fenstermode.

- Welche Auflösung wurde im Fablemark verwendet, welche übrigen Parameter? Mein Ergebnis für 1.024x768 und 4xAA liegt bei 160 Fps (2xAA und kein AA decken sich mit euren Ergebnissen).
1680x1050 32bpp

- Das Oblivion-Savegame an der Goldküste; ich stellte diese Frage bereits in einem der R600-Threads: Ist der Bug bei der Darstellung der Oblivion-Tore mit aktivem FSAA beim Catalyst-Treiber mittlerweile behoben?
Ich denke ja, denn ich sah keine Darstellungsfehler (wusste bisher aber auch nix von diesem). Ich muss dazu sagen, dass ich mit den 6er Catalysts viel mit 2xAA mit meiner Radoen X1900XT letztes Jahr Oblivion gespielt habe und auch bei den Toren nix gesehen habe. Klaer mich mal auf. :)

PCGH_Carsten
2007-05-15, 23:24:50
Das trifft sich gut, ich hab seit heute nur noch die R600 zur Hand. :)
Es war btw der Fenstermode.
Dann dürfte die Radeon nur mit 2D-Taktraten gelaufen sein, oder?


1680x1050 32bpp
Komisch, da bekomme ich folgende Skalierung:
134 - 67 - 81 (Ja, ich kann reproduzieren, dass 2xAA langsamer als 4xAA ist).
Wogegen 282 und 143 Fps bei mir in 1024 herauskommen (ohne bzw. mit 2xAA).


Ich denke ja, denn ich sah keine Darstellungsfehler (wusste bisher aber auch nix von diesem). Ich muss dazu sagen, dass ich mit den 6er Catalysts viel mit 2xAA mit meiner Radoen X1900XT letztes Jahr Oblivion gespielt habe und auch bei den Toren nix gesehen habe. Klaer mich mal auf. :)
IIRC gab es zwei Varianten des Fehlers (von mir aus auch zwei verschiedene Fehler): Einmal wurde der Flimmereffekt des Tores gar nicht angezeigt und das andere mal wurde diese Effekt quasi "vorn" (aus Z-Sicht) über das Bild gelegt und verflimmerte alles, was das Tor evtl. verdeckt hätte.

robbitop
2007-05-15, 23:54:07
Dann dürfte die Radeon nur mit 2D-Taktraten gelaufen sein, oder?
Das koennte gut moeglich sein. Verdammt.



Komisch, da bekomme ich folgende Skalierung:
134 - 67 - 81 (Ja, ich kann reproduzieren, dass 2xAA langsamer als 4xAA ist).
Wogegen 282 und 143 Fps bei mir in 1024 herauskommen (ohne bzw. mit 2xAA).
Ich habe nochmal nachgeschaut. Es sind 1680x1050.
Ich habe den Mode -Benchmark verwendet. Ich kann meine Ergebnisse btw ebenfalls reproduzieren. Treiberunterschiede evtl?



IIRC gab es zwei Varianten des Fehlers (von mir aus auch zwei verschiedene Fehler): Einmal wurde der Flimmereffekt des Tores gar nicht angezeigt und das andere mal wurde diese Effekt quasi "vorn" (aus Z-Sicht) über das Bild gelegt und verflimmerte alles, was das Tor evtl. verdeckt hätte.
Sehr seltsam. Habe ich nie gesehen diesen Bug...

Lawmachine79
2007-05-16, 00:00:30
Stupides OGSS als auch ein Blurfilter sind Werkzeuge die nicht sonderlich effektiv sind. (kosten oder nutzen)
Jeder Blinde sieht, daß mit OGSS das Bild um Einiges besser aussieht - naja, aber Du siehst ja auch das Flimmern nicht.
Falls Du Effizienz meintest:
Mich juckt nicht, ob mein Spiel mit 35-40 (also flüssig) oder mit 16.000.000 FPS läuft. Jeder rational denkende Mensch bockt die BQ so lange hoch, bis das Spiel nicht mehr flüssig ist. Wenn ich von 200 auf 50 FPS runter muss, um die BQ um 0,00001% zu verbessern, dann mache ich das.
Wieso nehmt Ihr eigentlich Karten, die über 300€ kosten und testet sie dann nicht mit bester BQ? Damit meine A.I. Low vs. Quality. Sind das Low-Budget Karten? Wenn ich mir so ein Geschoss kaufe, wird aufgedreht was geht. Könnt Ihr ja gleich Larry 1 in CGA benchen.
Solchen Testberichten ist zu verdanken, wenn NV im G90 wieder hübsche Flimmeroptimierungen einbaut. Und dann beschwert Ihr Euch wieder. ATI bescheisst bei der BQ, wo bleibt der Aufschrei? Für 400€ will ich 'ne verdammt nochmal perfekte AF-Blume.
Edge-Detect ist genial, frisst aber soviel Leistung, daß man es eigentlich gegen 8xS oder 16xS testen müsste - dann ist es nicht mehr genial.
Und ich verstehe die Aussage nicht, daß die 88GTS der Gegner ist - meiner Meinung nach ist die GTX der Gegner, die XTX ist dann der Gegner der Ultra. Die 88GTS ist kastriert, die 29XT nicht.
Naja, interessant ist der Testbericht aber trotzdem. Hatte nur irgendwas am Monitor, der hatte da 'nen leichten bis mittelschweren Rotstich.

Dann dürfte die Radeon nur mit 2D-Taktraten gelaufen sein, oder?




Hmm. Dieser Pelzwürfel im ATI-Tool läuft auch im Fenster - trotzdem haben bisher alle mir bekannten Karten dort in den 3D-Modus geschaltet.

PCGH_Carsten
2007-05-16, 00:01:17
Ich habe nochmal nachgeschaut. Es sind 1680x1050.
Ich habe den Mode -Benchmark verwendet. Ich kann meine Ergebnisse btw ebenfalls reproduzieren. Treiberunterschiede evtl?

Ja, selbstverständlich -Benchmark. Ich habe schon mehrere Treiber genutzt, aber die Fablemark-Ergebnisse hat noch keiner deutlich beeinflusst. Komisch.

Sehr seltsam. Habe ich nie gesehen diesen Bug...
Ich schaue morgen mal selbst nach, ob er noch da ist.

robbitop
2007-05-16, 00:07:56
Jeder Blinde sieht, daß mit OGSS das Bild um Einiges besser aussieht - naja, aber Du siehst ja auch das Flimmern nicht.

Morgen gibt es Beweisvideos. Lass deine subtilen Sticheleien und fuelle deine Thesen lieber sachlich mit Argumenten und Belegen. Alles andere ist nur leeres Gerede.

Ja, selbstverständlich -Benchmark. Ich habe schon mehrere Treiber genutzt, aber die Fablemark-Ergebnisse hat noch keiner deutlich beeinflusst. Komisch.


Unterschiedliche Versionen von Fablemark moeglicherweise?

Lawmachine79
2007-05-16, 00:11:07
Morgen gibt es Beweisvideos. Lass deine subtilen Sticheleien und fuelle deine Thesen lieber sachlich mit Argumenten und Belegen. Alles andere ist nur leeres Gerede.
Bei der Blume KANN das gar nicht besser aussehen - mag ja sein, daß Dein subjektiver Eindruck tatsächlich so ist - aber um das Subjektive auszublenden gibt es solche Tools ja.
Und die EFFEKTIVITÄT (nicht Effizienz, die interessiert eben nicht solange Spiel flüssig) von Supersampling ist eben ungeschlage.

robbitop
2007-05-16, 00:18:43
Bei der Blume KANN das gar nicht besser aussehen - mag ja sein, daß Dein subjektiver Eindruck tatsächlich so ist -
Ich werde das jetzt nur noch einmal sagen, da ich mich jetzt schon zum xten Male wiederhole:

1.) geschrieben hat den BQ Vergleich BBSR
2.) wo behaupte ich, dass das G80 AF schlechter ist? Ich sage sogar, dass es besser ist. Das R600 AF liegt nur auf G80 Q Level

aber um das Subjektive auszublenden gibt es solche Tools ja.
Synthies haben nicht viel mit der Realitaet zu tun, da dort eine ganz andere Verzerrung der Texel vorliegt.

Und die EFFEKTIVITÄT (nicht Effizienz, die interessiert eben nicht solange Spiel flüssig) von Supersampling ist eben ungeschlage.
Wie oft kommt das Khorintenkacken wegen Effizienz und Effektivitaet jetzt noch? Es waere konstruktiver, sich mit Dingen wie Texturfilterung oder AA Algoritmen zu beschaeftigen.

Hvoralek
2007-05-16, 00:41:23
Und ich verstehe die Aussage nicht, daß die 88GTS der Gegner ist - meiner Meinung nach ist die GTX der Gegner, die XTX ist dann der Gegner der Ultra. Die 88GTS ist kastriert, die 29XT nicht.Die XT und die GTS 640 kosten ungefähr gleich viel (etwa 320 bzw. 350€), die GTX ist ein ganzes Stück teurer (etwa 500€).

Lawmachine79
2007-05-16, 00:48:11
Die XT und die GTS 640 kosten ungefähr gleich viel (etwa 320 bzw. 350€), die GTX ist ein ganzes Stück teurer (etwa 500€).

JETZT hast Du halb Recht. Tombman hatte vorhin ne lieferbare 88GTS 640 für 270€ verlinkt - ist jetzt aber vergriffen. Und eine GTX kriegst Du ab 450€ (Gainward) - bei Ebay wird man bestimmt für 400€ fündig...

Wie oft kommt das Khorintenkacken wegen Effizienz und Effektivitaet jetzt noch? Es waere konstruktiver, sich mit Dingen wie Texturfilterung oder AA Algoritmen zu beschaeftigen.

Es geht mir einfach darum, daß das niemand als Argument gelten lässt. SSAA sieht genial aus und so lange ein Spiel dabei spielbar bleibt ist es doch genial! Vor allem, wenn man mal eine ältere Perle aus dem Spieleregal zieht.
Und zur Texturfilterung habe ich ja was gesagt - m.E. muss A.I. Off vs. HQ gebencht werden. "Texturfilterung" - mit diesen Modi liefern beide Karten das ihnen (was diese Parameter angeht) Mögliche ab - das sind HIGH-END Karten! Klar weiß ich - und Ihr wisst es auch, daß ATI-Karten mit A.I. Off unverhältnismässig viel verlieren. Das Problem war auch schon beim R5xx vorhanden - und ATI hatte mehr als genug Gelegenheit, dieses Problem zu beseitigen. Ein Testbericht dient doch nicht ausschließlich der Beratung sondern soll doch irgendwo auch einen erzieherischen Effekt auf die Hersteller haben - hat doch beim G7x auch funktioniert, beim G80 lieferte NV absolut perfekte Texturfilterung.
ATI hat die Füllrate sträflich vernachlässigt. Lernen durch Schmerz - das muss angekreidet werden. Wenn der Chip nicht so eine miese Texturleistung hätte, gäbe es die Optimierungen nicht.

Mr. Lolman
2007-05-16, 00:50:54
Danke Lolman, da hast du was interessantes losgetreten. BTW, solche Vids würden auch euren Artikeln gut stehen ;)

Gern geschehen. :)

Was ist mit mir? :D

Ja, flimmern tut weh.

MfG,
Raff

Ich meinte, du seist sicher die bessere Ansprechperson wenns um gute Vergleichsszenen bezügl. Filterstress geht...

Bei der Blume KANN das gar nicht besser aussehen

Doch. Antwort im anderen Thread, wo du dich über die BLume auslässt (und in noch sicher 5 anderen Posts der letzten Tage)

Wenn jemand sie hostet, kein Problem. Ich mache eigentlich fast immer vids. Nur kann man sie nirgends auslagern (auf meiner HDD liegen noch Videos mit fiesem AF Flimmern beim S27, das auf heutigen Treibern so gut wie weg ist btw ^^)

www.megaupload.com erlaubt 500MB. Mit 7zip lassen sich fraps Videos auch gut zusammenpacken (sofern kein Sound dabei ist)


Hmm. Dieser Pelzwürfel im ATI-Tool läuft auch im Fenster - trotzdem haben bisher alle mir bekannten Karten dort in den 3D-Modus geschaltet.

Das Raumschiff vom Atitool auch. Und da schaltet die X1900XTX zB nicht in den 3D-Modus

Es geht mir einfach darum, daß das niemand als Argument gelten lässt. SSAA sieht genial aus und so lange ein Spiel dabei spielbar bleibt ist es doch genial! Vor allem, wenn man mal eine ältere Perle aus dem Spieleregal zieht.

Es ist trotzdem eine üble Verschwendung. Ok. Ein Porsche Cayenne mag auch für manche genial aussehen und andere halten ihn für ne üble Verschwendung. Geschmackssache.



hat doch beim G7x auch funktioniert, beim G80 lieferte NV absolut perfekte Texturfilterung.

Auch nicht per default. Und selbst HQ sieht auf den CB 3dmark Shots stellenweise schlechter aus als AIon.


ATI hat die Füllrate sträflich vernachlässigt. Lernen durch Schmerz - das muss angekreidet werden. Wenn der Chip nicht so eine miese Texturleistung hätte, gäbe es die Optimierungen nicht.

AI ist mit Spieleoptimierungen gekoppelt. Wenn jetzt schon quasi kein Unterschied mehr zw. AIon und off zu sehen ist, warum sollte man dann ATI absichtlich eins reinwixxen.


2.) wo behaupte ich, dass das G80 AF schlechter ist? Ich sage sogar, dass es besser ist. Das R600 AF liegt nur auf G80 Q Level


Also was jetzt. Im 3DC-Review hat das noch anders geklungen...

deekey777
2007-05-16, 00:54:03
JETZT hast Du halb Recht. Tombman hatte vorhin ne lieferbare 88GTS 640 für 270€ verlinkt - ist jetzt aber vergriffen. Und eine GTX kriegst Du ab 450€ (Gainward) - bei Ebay wird man bestimmt für 400€ fündig...
http://geizhals.at/deutschland/a225880.html
-> http://www.drivecity.de/product_info.php?products_id=139425&pid=geizhals
Ein sehr seltsamer Shop ist das.:|

Gast
2007-05-16, 01:27:06
http://geizhals.at/deutschland/a225880.html
-> http://www.drivecity.de/product_info.php?products_id=139425&pid=geizhals
Ein sehr seltsamer Shop ist das.:|

Merkwürdig? Mindfactory!! ;)
http://www.computerbase.de/forum/showthread.php?t=282102

MadManniMan
2007-05-16, 02:08:24
Danke Lolman, da hast du was interessantes losgetreten. BTW, solche Vids würden auch euren Artikeln gut stehen ;)

Pöh. Von wegen danke Lolman. Ich riech euch später ;(

Lawmachine79
2007-05-16, 07:57:26
Doch. Antwort im anderen Thread, wo du dich über die BLume auslässt (und in noch sicher 5 anderen Posts der letzten Tage)

Ja - wenn man alles mit tausenden von Wenns und Abers verknüpft, kriegt man alles zurechtgedreht. Einige Seiten haben es so extrem formuliert, daß "NVs AF Kreise um ATIs AF dreht". Du willst mir jetzt erzählen, daß es umgekehrt ist...


Das Raumschiff vom Atitool auch. Und da schaltet die X1900XTX zB nicht in den 3D-Modus
Wie wird die Erhöhung der Taktfrequenzen bzw. das Switchen in den 3D-Modus denn getriggert? Per Kommando durch den Treiber oder automatisch sobald eine bestimmte Einheit im Chip belastet wird?



Es ist trotzdem eine üble Verschwendung. Ok. Ein Porsche Cayenne mag auch für manche genial aussehen und andere halten ihn für ne üble Verschwendung. Geschmackssache.
Ich halte Verschwendung für einen unpassenden Begriff bei diesem Thema. Begründe doch mal, wieso ich mit 200 FPS mit mieser Qualität spielen soll, wenn ich mit 50 FPS in guter Qualität spielen kann. Wer SSAA nutzen könnte und es nicht tut, kann z.B. im Forceware gleich auf "Hohe Leistung" schalten, AF ausmachen und soll bloß die Finger von Allem lassen, was nach Kantenglättung riecht.
Und toller Vergleich mit dem Porsche - Äpfel und Birnen. SSAA glättet das ganze Bild und es lässt es ruhiger erscheinen - was für Polygonkanten gut ist soll für Texturen und vor Allem Shaderflimmern "Geschmackssache" sein?




Auch nicht per default. Und selbst HQ sieht auf den CB 3dmark Shots stellenweise schlechter aus als AIon.
AI ist mit Spieleoptimierungen gekoppelt. Wenn jetzt schon quasi kein Unterschied mehr zw. AIon und off zu sehen ist, warum sollte man dann ATI absichtlich eins reinwixxen.

So Fuckin' What? NV wird seit NV40 für seine miese Filterqualität verrissen und alle lassen sich über Optimierungen aus. NV schaltet Optimierungen ab --> Konkurrent wird mit seinen Schummeleien durch Testseiten bevorzugt? Es geht nicht ums "reinwixxen" sondern darum, daß es eine Frechheit ist, daß ich bei 400€ Hardware nicht davon ausgehe, mit der bestmöglichen BQ zu spielen. Und wieso "reinwixxen"? ATI hat das ganze Brimbamborium um das G7x - Geschummel doch mitgekriegt! Und trotzdem Filtertricks, um die niedrige Füllrate zu kaschieren - der Kunde wird hier in den Arsch gefickt und Euer Artikel schreit "Tiefer!!!"

Um nochmal zu zeigen, wie übel da geschlampt wurde:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung
Der bricht mit AF so stark ein wie der G80 mit AA.

robbitop
2007-05-16, 10:03:34
Also was jetzt. Im 3DC-Review hat das noch anders geklungen...
Ja das ist der Hektik zu verschulden weils kein so rechtes Fazit aus dem AF-Vergleich gibt. Es wird jeweils nur pro Vergleich eine Aussage getroffen. Ich sehe schon, warum das so viele mglweise falsch verstehen

Zwischen "High Quality" des G80-Chips und dem "A.I. off" des R580-Chips sind bei stehendem Bild nahezu keine Unterschiede mehr auszumachen. Erst einmal in Bewegung, setzt sich das "High Quality" des G80-Chips dann aber doch an die Spitze.

deekey777
2007-05-16, 10:14:01
Merkwürdig? Mindfactory!! ;)
http://www.computerbase.de/forum/showthread.php?t=282102
Lies doch, was warmachine79 geschrieben hat (was auch wahr ist): Bei Geizhals kostete die 8800GTS etwa 270 Euro, im Shop aber schon 340. Ist doch ein Unterschied?

Lawmachine79
2007-05-16, 10:19:01
Lies doch, was warmachine79 geschrieben hat (was auch wahr ist): Bei Geizhals kostete die 8800GTS etwa 270 Euro, im Shop aber schon 340. Ist doch ein Unterschied?
JETZT ja. Tombman hatte vorhin diese Seite DIREKT verlinkt und AUCH auf der Seite des Anbieters (also NICHT NUR auf der Geizhalsseite) WAR ( :( ) die 88GTS 640 für 270€ lieferbar gelistet. Seit sie nicht mehr lieferbar ist, ist der Preis hochgeschnellt. Eigenartig das Ganze.

Zitat von 3DCenter
"Zwischen "High Quality" des G80-Chips und dem "A.I. off" des R580-Chips sind bei stehendem Bild nahezu keine Unterschiede mehr auszumachen. Erst einmal in Bewegung, setzt sich das "High Quality" des G80-Chips dann aber doch an die Spitze"

So. Nach dieser Aussage ist es noch einmal unverständlicher, wieso nicht HQ vs. AI Off gebencht wurde.

deekey777
2007-05-16, 10:36:13
Zur Zeit meines Postings gestern war der Preis schon bei 340 Euro.

robbitop
2007-05-16, 10:49:20
So. Nach dieser Aussage ist es noch einmal unverständlicher, wieso nicht HQ vs. AI Off gebencht wurde.
Wenn mehr Zeit gewesen waere, haette ich auf jeden Fall beides gebencht. Aber nein, ich bekomme das Sample erst kurz vor ultimo.

Mr. Lolman
2007-05-16, 10:52:42
Zitat von 3DCenter
"Zwischen "High Quality" des G80-Chips und dem "A.I. off" des R580-Chips sind bei stehendem Bild nahezu keine Unterschiede mehr auszumachen. Erst einmal in Bewegung, setzt sich das "High Quality" des G80-Chips dann aber doch an die Spitze"

So. Nach dieser Aussage ist es noch einmal unverständlicher, wieso nicht HQ vs. AI Off gebencht wurde.

Du hasts immernoch falsch verstanden. Im Vergleich zu R580 Aioff setzt sich G80 HQ an die Spitze.

robbitop
2007-05-16, 10:55:19
Genau,

so schwer ist das doch nicht zu verstehen. :)

Mr. Lolman
2007-05-16, 11:02:01
Ja - wenn man alles mit tausenden von Wenns und Abers verknüpft, kriegt man alles zurechtgedreht. Einige Seiten haben es so extrem formuliert, daß "NVs AF Kreise um ATIs AF dreht". Du willst mir jetzt erzählen, daß es umgekehrt ist...

Das war CB. Die haben auch nicht erkannt, dass der 42er Treiber plötzlich EATM verwendet und auch nicht bemerkt, dass die 3dmark Bilder bei ATi besser aussehen. Wenn sie das so formulieren sind sie wiedermal der schönen runden AF-Blume auf dem Leim gegangen. Vll. sollte man ne neue Version des Programms veröffentlichen, wo man vorher nen Disclaimer anklicken muss. Außerdem ist das kein Zurechtdrehen: Du hast (hattest) anscheinend die Funktionsweise einer AF-Blume nicht kapiert und stellst deswegen lauter Falschaussagen ins Forum.


Wie wird die Erhöhung der Taktfrequenzen bzw. das Switchen in den 3D-Modus denn getriggert? Per Kommando durch den Treiber oder automatisch sobald eine bestimmte Einheit im Chip belastet wird?

AFAIK durch Ersteres...


Ich halte Verschwendung für einen unpassenden Begriff bei diesem Thema. Begründe doch mal, wieso ich mit 200 FPS mit mieser Qualität spielen soll, wenn ich mit 50 FPS in guter Qualität spielen kann. Wer SSAA nutzen könnte und es nicht tut, kann z.B. im Forceware gleich auf "Hohe Leistung" schalten, AF ausmachen und soll bloß die Finger von Allem lassen, was nach Kantenglättung riecht.
Und toller Vergleich mit dem Porsche - Äpfel und Birnen. SSAA glättet das ganze Bild und es lässt es ruhiger erscheinen - was für Polygonkanten gut ist soll für Texturen und vor Allem Shaderflimmern "Geschmackssache" sein?

Es ist Geschmackssache sich ne neue GraKa zu kaufen, damit man alte Spiele mit SSAA Spielen kann. Für neue reicht die Leistung leider nur selten. Da kauft man sich dann halt ein SLI-Rig und fährt mit 8xS die gleichen fps wie mit 4xAA ohne SLI. Ist imo genauso sinnfrei wie mit nem Cayenne im Stadtverkehr herumzurödeln.


Um nochmal zu zeigen, wie übel da geschlampt wurde:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung
Der bricht mit AF so stark ein wie der G80 mit AA.

Es ist einfach eine Designentscheidung gewesen. ATi wird sich dabei schon was gedacht haben...

robbitop
2007-05-16, 11:06:17
Und sie beurteilen offenbar die Texturfilterqualitaet u.a. mittels Zeckis Moire Tester. :(

Lawmachine79
2007-05-16, 11:57:26
Für neue reicht die Leistung leider nur selten.

Das ist schlichtweg falsch. Es sei denn ich habe eine 88GTS UBERWUNDEREDITION. Ich habe in einem anderen Thread Benches gepostet, die zeigen, daß 8xS geringfügig billiger ist als 8xMSAA - aber deutlich besser aussieht.
Das liegt eben daran, daß der G80 ein Füllratenmonstrum ist. Die Balance zwischen Füllrate, Rop-Leistung, Arithmetikleistung, Geometrieleistung und Bandbreite ist beim G80 sehr gelungen. Genau das ist das Problem vom R600 - tolle Arithmetik und Geometrieleistung, monströse Bandbreite - aber verbuggte und nicht so leistungsfähige ROPs, unterirdische Füllrate - einfach unausbalanciert. Eine Kette ist so stark wie das schwächste Glied - und das schwächste Glied in der Kette des G80-Designs ist eben nicht so schwach wie das schwächste Glied im R600 Design.

Xmas
2007-05-16, 14:58:53
Der EATM-Screenshot auf Seite 6 ist falsch. Alle anderen AA-Screenshots sind Pixel-Skaliert, dieser anscheinend bikubisch.
Wann wird dies bitte gefixt?

Der dazugehörige Text muss natürlich auch korrigiert werden, ist ja kein Wunder dass ein bikubisch skaliertes Bild als JPEG wesentlich mehr Speicherplatz braucht als ein Pixel-skaliertes.

robbitop
2007-05-16, 15:12:37
Wann wird dies bitte gefixt?

Der dazugehörige Text muss natürlich auch korrigiert werden, ist ja kein Wunder dass ein bikubisch skaliertes Bild als JPEG wesentlich mehr Speicherplatz braucht als ein Pixel-skaliertes.
Max hat die Aenderungen an Leo schon eingereicht. Liegt also an Leo.

BlackBirdSR
2007-05-16, 15:14:02
Wann wird dies bitte gefixt?

Der dazugehörige Text muss natürlich auch korrigiert werden, ist ja kein Wunder dass ein bikubisch skaliertes Bild als JPEG wesentlich mehr Speicherplatz braucht als ein Pixel-skaliertes.

Habe ich gleich neu gemacht und gepostet als du es angemerkt hast, also sobald Leo die Zeit findet....

Odal
2007-05-16, 16:01:45
schiebt mal einen "schnellen" opengl benchmark Parkour mit genauer BQ untersuchung ein....scheinbar ist der opengl treiber part nicht verbuggt und der R600 performt unter opengl auch mit AA&AF exzelent

DrumDub
2007-05-16, 16:13:29
schiebt mal einen "schnellen" opengl benchmark Parkour mit genauer BQ untersuchung ein....scheinbar ist der opengl treiber part nicht verbuggt und der R600 performt unter opengl auch mit AA&AF exzelent jo. siehe diskussion ab hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5499905#post5499905

Gast
2007-05-16, 17:00:16
Oder stellt einfach auf A.I off. 100%, dass die Karte dann deutlich an Leistung verlieren wird.

Gast
2007-05-16, 17:03:10
Oder stellt einfach auf A.I off. 100%, dass die Karte dann deutlich an Leistung verlieren wird.

Abwarten...

robbitop
2007-05-16, 18:44:28
Madkiller hat sich entschieden, wenn die Treiber reifer sind, einen ausfuehrlichen Performancereport durchzufuehren.

Odal
2007-05-16, 19:50:39
naja nichtmal ein paar kleine inoffizielle ogl tests mit beleuchtung der BQ? ich mein es gibt kaum befähigte leute mit 2900xt die da speziell mal ein bisschen herumexperimentieren können ^^

robbitop
2007-05-16, 19:52:30
Ich koennte Quake 4 und Prey anbieten. :)
R580 und R600 hab ich noch da (und werden beide wohl auch bleiben).

Gast
2007-05-16, 19:57:04
Ich koennte Quake 4 und Prey anbieten. :)
R580 und R600 hab ich noch da (und werden beide wohl auch bleiben).

Na dann ran an den Speck...einfach mal die gängigen Auflösungen mit und ohne AA und AF testen und die Differenz posten (und immer schön die IQ im Auge beghalten ;) ).

Odal
2007-05-16, 20:27:33
und A.I. on und Off mal mit testen....das wäre wirklich sehr hilfreich...weil derzeit weiß irgendwie niemand so richtig was vom R600 zu halten is....

robbitop
2007-05-16, 20:37:14
(und immer schön die IQ im Auge beghalten ;) ).
Anstatt hier grundlos zu sticheln, koenntest du dich mit den Grundlagen der Textufilterung befassen. Ran an den Speck. ;)

Ich werde sicher jetzt nicht zich Settings Benchen. Ich denke mal ich mache eine AA und eine AF Skalierung bei Prey. Mit dem 8.3742.

Gast
2007-05-16, 20:40:54
Anstatt hier grundlos zu sticheln, koenntest du dich mit den Grundlagen der Textufilterung befassen. Ran an den Speck. ;)

Ich werde sicher jetzt nicht zich Settings Benchen. Ich denke mal ich mache eine AA und eine AF Skalierung bei Prey. Mit dem 8.3742.

Das war kein Sticheln gegen dich, sondern nur gegen die, die gleich wieder gebrüllt haben, daß da evtl. was mit der IQ nicht stimmt... also entspann dich so langsam wieder etwas und nimm nicht alles so negativ auf, auch wenn ich ja verstehe, daß die Reizschwelle momentan sehr niedrig ist...

Gast
2007-05-16, 21:28:54
Lies doch, was warmachine79 geschrieben hat (was auch wahr ist): Bei Geizhals kostete die 8800GTS etwa 270 Euro, im Shop aber schon 340. Ist doch ein Unterschied?

Der Unterschied ist, das Mindfactory und Konsorten schon seit Jahren die Preise stündlich ändert... mindestens 10 Karten waren definitiv zu 268€ zu haben, jeweils die hälfte bei compuland, die anderen bei drive-city.

Außerdem brauche ich nix lesen, denn ich war es, der die beiden Links zu drivecity und compuland hier im Forum gepostet hat. :tongue:

robbitop
2007-05-16, 23:42:31
Hier die Prey AA Skalierung (1680x1050, max Details)

http://img526.imageshack.us/img526/2061/preytf8.th.png (http://img526.imageshack.us/my.php?image=preytf8.png)

Allerdings reagieren die FPS nicht auf AF (weder ingame noch Panel).

MadManniMan
2007-05-17, 00:46:29
Allerdings reagieren die FPS nicht auf AF (weder ingame noch Panel).

Wohl aber visuell, wie ich annehme.
Was geht da mit OpenGL? Ich bin perplex!

robbitop
2007-05-17, 00:51:46
Wohl aber visuell, wie ich annehme.
Was geht da mit OpenGL? Ich bin perplex!
Schwer zu sagen. In der Szene, die ich betrachtet habe, lag dunst ueber dem Boden, so dass kaum etwas zu sehen war. Ich werde mir morgen eine andere Szene vornehmen und schauen, wass sich visuell dort tut.

Hvoralek
2007-05-17, 01:13:58
JETZT hast Du halb Recht. Tombman hatte vorhin ne lieferbare 88GTS 640 für 270€ verlinkt - ist jetzt aber vergriffen. Und eine GTX kriegst Du ab 450€ (Gainward) - bei Ebay wird man bestimmt für 400€ fündig...Für die Bildung von Vergleichspaaren sollte man schon in etwa übliche Preise zu Grunde legen und nicht Sonderfälle, in denen für ein paar Minuten mal 10 Exemplare weit günstiger angeboten werden. Ich habe gerade nochmal nachgesehen: Die günstige GTS 640, die geizhals.at im Moment listet, ist eine Foxconn für 309€. Bei den meisten Modellen liegen die günstigsten Angebote bei etwa 340€ (ohne Beachtung von Verfügbarkeit und Anbieter). 320€ scheinen mir als üblicher Preis nicht zu hoch gegriffen. Natürlich ist das eine Momentaufnahme und kann sich mit der Zeit ändern.

Bei der GTX ist das absolut günstige Angebot im Moment für 458€, allerdings nicht lieferbar. Das gilt mit zwei Ausnahmen für alle Angebote unter 490€, die günstigsten Angebote (wieder ohne Beachtung von Lieferbarkeit und Shop) liegen meist zwischen 470 und 550€. Einen üblicher Marktpreis von etwa 500€ halte ich auch hier für angemessen. Selbst bei Ebay gibt es nur ein Sofort- Kaufen- Angebot unter 500€.

Es geht mir einfach darum, daß das niemand als Argument gelten lässt. SSAA sieht genial aus und so lange ein Spiel dabei spielbar bleibt ist es doch genial! Vor allem, wenn man mal eine ältere Perle aus dem Spieleregal zieht.Natürlich ist die Möglichkeit, OGSSAA bei genügendeen Reserven nutzen zu können, besser als nichts. Trotzdem gibt es Möglichkeiten, mit demselben Aufwand bessere Ergebnisse zu erzielen. Auch Du hättest doch wahrscheinlich lieber FSSGSSAA, oder?

Und zur Texturfilterung habe ich ja was gesagt - m.E. muss A.I. Off vs. HQ gebencht werden. "Texturfilterung" - mit diesen Modi liefern beide Karten das ihnen (was diese Parameter angeht) Mögliche ab - das sind HIGH-END Karten! Klar weiß ich - und Ihr wisst es auch, daß ATI-Karten mit A.I. Off unverhältnismässig viel verlieren. Das Problem war auch schon beim R5xx vorhanden - und ATI hatte mehr als genug Gelegenheit, dieses Problem zu beseitigen. Ein Testbericht dient doch nicht ausschließlich der Beratung sondern soll doch irgendwo auch einen erzieherischen Effekt auf die Hersteller haben - hat doch beim G7x auch funktioniert, beim G80 lieferte NV absolut perfekte Texturfilterung.
ATI hat die Füllrate sträflich vernachlässigt. Lernen durch Schmerz - das muss angekreidet werden. Wenn der Chip nicht so eine miese Texturleistung hätte, gäbe es die Optimierungen nicht.Solange das Einsparungen von Berechnungen keine Einflüsse auf das Ergebnis hat, ist das doch sogar sehr wünschenswert. Wenn es zwischen AI on und off in der Praxis tatsächlich keine sichtbaren Unterschiede gibt, sind das absolut legitime Optimierungen, die die Bezeichnung zurecht tragen.

Das ist schlichtweg falsch. Es sei denn ich habe eine 88GTS UBERWUNDEREDITION. Ich habe in einem anderen Thread Benches gepostet, die zeigen, daß 8xS geringfügig billiger ist als 8xMSAA - aber deutlich besser aussieht.Meinst Du 16xQ? Denn schneller als reines 8xMS (=8xQ) kann 8xS nicht sein, wenn der Treiber keinen Mist baut (8xS benötigt genau so viele Geometrie-, aber doppelt so viele Textursamples. Und Textursamples brauchen neben anderem auch Bandbreite. Selbst wenn die vollständig limitieren sollte, wäre 8xS noch langsamer). Ich halte es allerdings für zweifelhaft, überhaupt eine generelle Aussage treffen zu wollen, ob die zusätzlichen Coverage- Samples mehr kosten als ein weiteres Textursample. Das hängt auch vom Einzelfall ab.

Hinzu kommt, dass selbst 8xS nur 1x2x OGSSAA beinhaltet. Wenn alle Kanten zumindest halbwegs geglättet werden sollen, bräuchtest Du schon 2x2x, also als Hybrid 16xS.

Madkiller
2007-05-17, 07:36:06
Allerdings reagieren die FPS nicht auf AF (weder ingame noch Panel).
Das kenn ich aber aus der Vergangenheit auch aus anderen OpenGL-Spielen...
Ist schon ne Weile her, aber war es bei Doom3 mit der R9700 und Quake4 mit der X800XT (/evtl auch 1900er)?

robbitop
2007-05-17, 10:58:40
Das kenn ich aber aus der Vergangenheit auch aus anderen OpenGL-Spielen...
Ist schon ne Weile her, aber war es bei Doom3 mit der R9700 und Quake4 mit der X800XT (/evtl auch 1900er)?
Ich schaue da evtl mit der R580 mal nach.

Meine Chrome S27 bricht mit AF in der selben Szene jedenfalls mit AF ein.

PCGH_Carsten
2007-05-17, 12:20:56
Ich glaube, Doom3 - zumindest in der "Timedemo demo1" - hängt nicht an der Texturfüllrate. Von daher könnte es schon sein, das der HD2900 nicht am AF krankt. Oder der Catalyst macht es, wie der Forceware und ignoriert Treiber-AF in Doom-3-Engine-Games.

Gast
2007-05-17, 13:06:25
Habe ich gleich neu gemacht und gepostet als du es angemerkt hast, also sobald Leo die Zeit findet....


Die Zeit kann nicht das Problem sein, denn immerhin postet Leo täglich hier im Forum.

Gast
2007-05-17, 13:19:25
Mal etwas zu euren Verwunderungen ob der schwankenden und uneinheitlichen Preise für Grafikkarten: sucht euch bei Mindfactory eine Hardware aus und sucht die gleiche Hardware dann einmal bei Preistrend - beachtet jetzt den für Mindfactory gelisteten Preis.
Aus Gründen die ich nicht kenne lassen sich so etliche Euros sparen! Sobald oben in der Adressleiste im Mindfactoryshop am Schluss "pid=preistrend" steht, kommen plötzloch andere (meist niedrigere) Preise heraus. Bei einem von mir aus Spass zusammengestellten kompletten System waren da fast 60,- Unterschied!

@topic: Auf Benchmarks zwischen R580 und R600 wäre ich sehr gespannt!

BAGZZlash
2007-05-18, 00:29:13
Werden eigentlich diese Fehler hier nicht mehr korrigiert?


Hab' grad' nochmal das Fazit des Artikels überflogen und noch ein paar Kleinigkeiten gefunden:


ATI hat hier also bewußt keine Karte aufgelegt, welches es mit der GeForce 8800 GTX aufnehmen können soll [...]

Ein 's' zuviel.


Daß es jetzt sogar nur noch zu einer Präsentation mit offensichtlich nicht ausgereiften Treibern gereicht hat, ist das andere Ärgerniss.

Ein 's' zuviel.


Insofern liegt trotz der langen Verzögerung noch einiges an intensiver Treiberarbeit von ATI, [...]

'vor' statt 'von'.


[...] 10 bis 20 Prozent Performance herauskitzeln wird können [...]

Verdrehter Satzbau. Korrekt: [...] 10 bis 20 Prozent Performance herauskitzeln können wird [...]

robbitop
2007-05-18, 22:49:01
Ich werde Leo nochmal darauf hinweisen.

Spasstiger
2007-05-21, 13:59:57
Was mir im Nachhinein noch am Review auffällt: Es wurden keine OpenGL-Spiele gebencht. Dort schlägt sich die X2900 XT nämlich überraschend gut und kann im Falle von Doom 3 in 2560x1600 mit 8xAA+16:1AF laut Computerbase sogar die 8800 Ultra abhängen. Gegenüber einer 8800 GTS 640 MB ist sie da sogar doppelt so schnell: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/18/#abschnitt_doom_3.

Finde ich bemerkenswert, wo doch Doom 3 inzwischen eher als texelfüllratenlimitiert gilt und der G80 wie prädestiniert für diese Engine erscheint (auch mit seinen ROPs, die 192 z-Tests pro Takt durchführen können).
Zeigt vielleicht auch auf, dass noch Potential vorhanden ist, welches aus irgendwelchen Gründen bisher nur nicht genutzt werden kann.

EDIT: Ah, das Thema OpenGL wurde offenbar schon diskutiert.

StefanV
2007-05-21, 19:21:07
Und es wurden diverse Settings nicht überprüft, sprich ob bei der x2900XT eher FSAA oder AF reinhaut...

Hvoralek
2007-05-21, 19:30:12
Und es wurden diverse Settings nicht überprüft, sprich ob bei der x2900XT eher FSAA oder AF reinhaut...Das wurde nicht bei jedem Spiel einzeln gemessen, was aber auch nachvollziehbar ist (allein schon wegen des Zeitmangels. Außerdem ist es leider üblich, AA und AF zusammen zu aktivieren). Zumindest in Ansätzen wurde das aber untersucht (http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index10.php) (Mit dem logischen Ergebnis, dass AA bei einer 8800 mehr kostet und AF bei einer 2900).

AnarchX
2007-05-21, 21:06:56
Zumindest in Ansätzen wurde das aber untersucht (http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index10.php) (Mit dem logischen Ergebnis, dass AA bei einer 8800 mehr kostet und AF bei einer 2900).

Nicht nur einen Test anschauen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung

Interessanterweise zieht hier R580 sowohl G80 als R600 in der AA-Skalierung in Prey ab. Da scheinen wohl auf beiden Seiten etwas nicht mit den Treibern zu stimmen.

Popeljoe
2007-05-23, 10:22:06
Nu war ich ja ne längere Zeit nicht "onboard", aber der Artikel ist der Hammer!
Endlich mal wieder etwas mit dem das 3DC wieder glänzen kann!!!
Leider anscheinend nicht ATI! ;(
Alleine der Stromhunger der Karte würde mich abhalten diese zu kaufen.
Mal sehen, ob neue Treiber auch echte Verbesserungen in der Performance bringen.
Klasse Artikel!!!! :up:
P1

Gast
2007-05-25, 20:46:35
Solange das Einsparungen von Berechnungen keine Einflüsse auf das Ergebnis hat, ist das doch sogar sehr wünschenswert.

sie haben aber logischerweise einen einfluss auf das ergebnis.

Hvoralek
2007-05-25, 22:52:01
sie haben aber logischerweise einen einfluss auf das ergebnis.Okay, dann konkreter: einen Einfluss auf das sichtbare Ergebnis. Wenn zu bestmöglicher Filterung in der Praxis kein Unterschied zu erkennen ist (und das ist laut BBSR ja so), warum soll man dann darauf bestehen? Leistung sinnlos verpulvern, weil sie da ist?

Xmas
2007-05-27, 00:20:35
Hier die Prey AA Skalierung (1680x1050, max Details)

http://img526.imageshack.us/img526/2061/preytf8.th.png (http://img526.imageshack.us/my.php?image=preytf8.png)

Allerdings reagieren die FPS nicht auf AF (weder ingame noch Panel).
Ist es tatsächlich weniger Aufwand oder nützlicher, einen Screenshot einer Excel-Tabelle zu machen, zurechtzuschneiden, auf Imageshack zu laden und dann hier zu verlinken, statt die selbe Information als Text zu präsentieren?

aths
2007-05-27, 01:26:15
Okay, dann konkreter: einen Einfluss auf das sichtbare Ergebnis. Wenn zu bestmöglicher Filterung in der Praxis kein Unterschied zu erkennen ist (und das ist laut BBSR ja so), warum soll man dann darauf bestehen? Leistung sinnlos verpulvern, weil sie da ist?Was "die Praxis" ist, liegt im Auge des Betrachters.

StefanV
2007-05-27, 02:00:17
Du meinst wohl hängt von der größe des Schirms ab, oder? ;)

Bei einem grobkörnigerem und äußerst hochwertigem Schirm mag man da vielleicht eher was sehen, so einem 26"/30" Bildschirm...

robbitop
2007-05-27, 09:30:39
Ist es tatsächlich weniger Aufwand oder nützlicher, einen Screenshot einer Excel-Tabelle zu machen, zurechtzuschneiden, auf Imageshack zu laden und dann hier zu verlinken, statt die selbe Information als Text zu präsentieren?
ja

Gast
2007-05-27, 10:30:44
kleiner Tipp: Bei Dateien in solcher Größe kann man die auch direkt als Foren-Attachment hochladen ;)

Gibt mehr PIs für Leos Lambo

Xmas
2007-05-27, 13:52:01
ja
Da ich lediglich einen reduzierten Nutzen erkennen kann, nehme ich an dass es weniger Aufwand sein soll. Tastatur kaputt?

Gast
2007-05-31, 13:13:49
Okay, dann konkreter: einen Einfluss auf das sichtbare Ergebnis. Wenn zu bestmöglicher Filterung in der Praxis kein Unterschied zu erkennen ist (und das ist laut BBSR ja so), warum soll man dann darauf bestehen? Leistung sinnlos verpulvern, weil sie da ist?


weil diese enschätzung rein subjektiv ist. mag ja sein dass manche leute keine unterschiede erkennen können, deshalb muss man für einen objektiven vergleich trotzdem so gut wie möglich für eine objektive vergleichbarkeit sorgen.

Hvoralek
2007-05-31, 16:45:17
weil diese enschätzung rein subjektiv ist. mag ja sein dass manche leute keine unterschiede erkennen können, deshalb muss man für einen objektiven vergleich trotzdem so gut wie möglich für eine objektive vergleichbarkeit sorgen.Und diese "objektive vergleichbarkeit" soll man erreichen, indem sämtliche füllratensparenden Maßnahmen ausgeschaltet werden? Ist das denn bei AI off und HQ überhaupt der Fall oder wird immer noch unterschiedlich viel bzw. wenig eingespart?

Selbst wenn dem nicht so ist, lässt Du dabei die Effizienz von füllratensparenden Maßnahmen auf der jeweiligen Architektur außer Acht. Die dürften in der Praxis aber meist genutzt werden. Andererseits wären Tests ohne AI natürlich ein Tritt in ATIs Hintern, endlich Anwendungsoptimierungen von AI zu entkoppeln.

aths
2007-05-31, 17:23:25
Und diese "objektive vergleichbarkeit" soll man erreichen, indem sämtliche füllratensparenden Maßnahmen ausgeschaltet werden? Ist das denn bei AI off und HQ überhaupt der Fall oder wird immer noch unterschiedlich viel bzw. wenig eingespart?

Selbst wenn dem nicht so ist, lässt Du dabei die Effizienz von füllratensparenden Maßnahmen auf der jeweiligen Architektur außer Acht. Die dürften in der Praxis aber meist genutzt werden. Andererseits wären Tests ohne AI natürlich ein Tritt in ATIs Hintern, endlich Anwendungsoptimierungen von AI zu entkoppeln.Einerseits das. Andererseits gilt es imo, zu gucken, ob die Texturqualitätverschlechterungs-Einstellungen in allen Spielen das gleiche machen, oder ob es BQ-Vorzeigetitel gibt und "Performance"-Vorzeigetitel. Der eigentliche Skandal der so genannten "Optimierungen" besteht imo darin, dass der Treiber nicht das macht, was die Anwendung anfordert – und dass dem User oft unklar ist, was genau er jetzt mit seinen Einstellungen ändert.

Richtig wäre:

- Standardmäßig wird volle Qualität geboten.

- Der User darf im Treiber die Qualität senken.

- Außerdem unterstützt der Treiber sehr genaue Einstellungen und Profile, so dass Anwender herumspielen können und "gute" Profile, die wenig sichtbaren BQ-Verlust bei hoher fps-Steigerung mitsich bringen, austauschen.

- Der Treiber kann solche Profile auch mitliefern, die dürfen aber nur genutzt werden, wenn der User es ausdrücklich will.

Alphagoku
2007-06-01, 11:42:01
Der neue Catalyst ist ja draußen, hat einer schon was gebencht?

captainsangria
2007-06-01, 11:46:22
Der Realtek Codec sind nur Wandler und Schnittstellentreiber, der Codec ist kein Soundcontroller. Bisher hatte Realtek jendefalls keine eigenen Soundcontroller im aktuellen Programm.
Der Soundcontroller steckt sicherlich in der ATI Lösung. Ich nehme mal an, dass aus der ATI Lösung dann ein ganz normaler HDA- oder AC'97 Link heraus geführt wird, welcher dann den Codec bedient.
Der Controller in der ATI Lösung führt dann die nötigen Speicherzugriffe über den PCIe Bus aus. Das wäre die erste direkte PCIe Soundcontroller Lösung für den Consumer Markt und sicherlich mal einen eingehenderen Blick wert.

@ an die Tester
Was steckt denn für ein Typ Codec auf der Grafikkarte?

@robbitop: wie sieht es damit aus? zu anfang des threads haben wir uns darüber unterhalten.

Gast
2007-06-16, 03:44:47
Zum Thema fehlender tiefergehender Informationen über die neuen AA-Möglichkeiten: Das war innerhalb von 2,5 Tagen einfach nicht lösbar. Wird Aufgabe zukünftiger Artikel sein. Sicherlich verdienen diese neuen AA-Möglichkeiten beider Hersteller einer *wirklich* genaueren Betrachtung.Kommt da noch was? Klar, gut Ding will Weile haben, ist aber auch schon ein Monat vergangen...