PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon HD 2900XT: Voller Hoffnung oder doch entäuscht!?


Seiten : 1 [2] 3

MadManniMan
2007-05-15, 12:02:09
Deins auch: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5495726&postcount=240

Warum denkst du, sollte die enorme ALU-Power des R600 nicht von so einer Entwicklung profitieren können?

Eine Grafik kann aber nicht alle praktischen Fragen klären - ich für meinen Teil warte nur darauf, daß der R600 nachgewiesenermaßen außerhalb einer einzelnen Shaderdemo seine dafür vorhandenen Muskeln spielen lassen kann.
Und eine Spielszene ist zumindest immer die Summe aller dort relevanten Shader.

Schnelles Speicherinterface, gute Architektur, des R580. Ich weiss ja warum ich immerwieder behaupte, dass man von ATI-HW länger was hat :D

Das schnelle Speicherinterface sorgt immerhin für eine höhere ST-Füllrate beim R600.
Für FP16/32 Content ist dann schon wieder zu wenig theoretische Füllrate da, um das als Vorteil gegenüber nV ausspielen zu können.
Und im Endeffekt hatten wir alle auf ub0r-schnelles AA gehofft - nur dreht das Speicherinterface bei Shaderdownsampling den kaputten ROPs sei Dank Däumchen.
Die Bandbreite machts nich.

Die Architektur ist jedenfalls für den Moment ungünstig balanciert.
Wenn ATi-Karten mit der Zeit schneller wurden, dann lag das aber daran, daß nV hier und da ein wenig mehr zu bieten hatte, dann aber Federn lassen mußte. Jetzt allerdings reden wir von Füllratenunterschieden im Bereich vom Faktor 2 und drüber - eben jenes Ausmaß, daß der Shaderpowerüberschuß vom R580 bedeutete.

Ja eh. Leider. Mich würde die Performance der NV-Demos auf ATI-HW min. genauso interessieren, wie umgekehrt ;)

Ich würde wetten, daß des einen Demos auf des anderen Hardware - wenn sie überhaupt laufen - ordentlich abkackt. Verwendet ATi für die Rubydemo nicht die Tesselationeinheit?

edem was ihm gefällt. Ich find androgyne Frauen geil :naughty: Wobei ich Rubys aktuelle Stimme (zum Glück?) noch nicht gehört hab.

Errm, ich will kein Bodybuilder sein, um der physisch stärkere Part in der Beziehung zu sein - jedem seins :D
Ruby spricht aber auch irgendwie in jeder Demo ein paar Töne tiefer, langsam müßte sie mal durch ihren Stimmbruch durch sein.

Und ach: schonmal Terminator 2 SE gesehen? Da "lächelt" der T-800, was eigentlich nicht vorgesehen ist. Und das sieht natürlicher aus, als was Ruby zum Schluß macht *schüttel*

Vertigo
2007-05-15, 12:03:39
... die X2900XT ist als Konkurrenz für die 8800GTS an den Start gegangen.
Notgedrungen. Es kann doch nicht allen Ernstes der Anspruch von ATI/AMD sein, mit dem eigenen Top-Produkt den Gegner zum inzwischen nur noch drittbesten Produkt des Konkurrenten zu stellen. Kann die XTX angesichts der zu erwartenden Spezifikationen (wenn sie denn einmal auf den Markt kommt) das Blatt wenden?

Dunkeltier
2007-05-15, 12:04:34
gut, damit hast du erfolgreich erklärt warum du voll daneben lagst.

Möchtest du bloß trollen, oder deine noch größere Unkenntnis wie die meinige ins rechte Licht rücken?


Der Treiber wird ab dem Zeitpunkt entwickelt, ab dem das endgültige Design des Chips bekannt ist. Fertige Hardware zum testen gab es schon weit vor Weihnachten. Die Treiberentwicklerteams werden sicher nicht däumchen gedreht haben bis heute. ergo ist es schwer, den Treiber zu entwickeln...

Das "Design" stand schon wesentlich länger fest, nach dem G80 Launch wurde nur nochmals mit aller Gewalt versucht die Taktraten zu pushen um den Abstand zum G80 wenigstens etwas geringer werden zu lassen. Anderseits wurde wohl noch wegen dem heftigen Stromverbrauch (hardwaremäßig) etwas rumgestrickt.



Jo aber denke mal nach, was in Zukunft passieren wird. In Zukunft ist die optimierte MSAA Variante eine Lösung, SSAA jedoch definitiv nicht, das es schlicht Leistung verschwendet! Sicher ist SSAA die optimallösung, aber ich wär mit einer MSAA Lösung durchaus einverstanden, wenn diese gute Ergebnisse liefert und schnell ist. Beim MSAA bei der Geforce3 hast du doch damals sicher auch nicht gemeckert.

ROFL. SSAA ist nicht nur definitiv schöner, sondern bietet auch ein krass besseres Bild. Und das nicht nur in alten Uralt-Spielen. Bestens Beispiel ist HL², da bekommt man die Maschendrahtzäune nur mit T-SSAA glatt. T-MSAA kannste da getrost in die Tonne treten, weils einfach nicht in der Textur wirkt. Schau dir doch einfach mal die Screenshots hier an, und lern dazu: http://3dcenter.de/artikel/2006/10-12.php

Kannst es mit entsprechender Karte auch selber nachtesten.

BTW, ich hatte niemals eine Geforce 3. Ich hatte die Radeon 8500 LE (bi-aF und grottenlahmes dafür aber schönes Fullscreen-SSAA), dann kam mein Sprung zur Radeon 9700... Außerdem geht es hier um transparente Texturen, nicht um die normale Kantenglättung.



Wenn du das so siehst... die X2900XT ist als Konkurrenz für die 8800GTS an den Start gegangen. Das sieht man auch an der verbauten Speichermenge ganz gut. Mit den neueren Beta Treiber ist die X2900XT schneller als die GTS. So sieht es aus ;). Der Launchtermin ist natürlich "schlimm". Aber das war beim X1800XT auch nicht anders.

Sie ist nicht (durch die Bank) schneller, sondern sie gewinnt nur etwas zusätzliche Performance auf Kosten der Bildqualität.

Coda
2007-05-15, 12:06:18
Möchtest du bloß trollen, oder deine noch größere Unkenntnis wie die meinige ins rechte Licht rücken?
HOT hat recht.

MadManniMan
2007-05-15, 12:08:09
Dunkeltiert,

SSAA verbrät alles bis auf Geometrie proportional zur Sampelzahl.
MSAA ist vor allem Bandbreiten hungrig - also genau umgekehrt.


Jo aber denke mal nach, was in Zukunft passieren wird. In Zukunft ist die optimierte MSAA Variante eine Lösung, SSAA jedoch definitiv nicht, da es schlicht Leistung verschwendet! Sicher ist SSAA die Optimallösung, aber ich wär mit einer MSAA Lösung durchaus einverstanden, wenn diese gute Ergebnisse liefert und schnell ist. Beim MSAA bei der Geforce3 hast du doch damals sicher auch nicht gemeckert.

Dann kannst Du aber auch anfangen, nur noch EATM gegen nVs MSAA zu benchen.
EATM kann schick sein, so gut wie SSAA wirds nie.

Wenn du das so siehst... die X2900XT ist als Konkurrenz für die 8800GTS an den Start gegangen. Das sieht man auch an der verbauten Speichermenge ganz gut. Mit den neueren Beta Treiber ist die X2900XT schneller als die GTS. So sieht es aus ;). Der Launchtermin ist natürlich "schlimm". Aber das war beim X1800XT auch nicht anders.

Ui toll, der R600 ist schneller als die 8800 GTS. Wir reden hier von 60€ Preisunterschied.

4711
2007-05-15, 12:09:37
nanana wobei!?
Wenn dann richtig oder garnicht....ich laß das mal das dunkle tier klären....

4711
2007-05-15, 12:10:37
nanana wobei!?
Wenn dann richtig oder garnicht....ich laß das mal das dunkle tier klären....


zuspät..die schreiben wie die irren ;D

Coda
2007-05-15, 12:11:27
Das soll ja mit D3D10 nicht mehr wirklich möglich sein...
Insofern, dass man den Shadercode, der eine immer größere Rolle spielt auf eine Architektur anpasst schon. Das wäre dann bei R600 möglichst wenig Texturen zu samplen und viel zu rechnen was die MADD5-ALUs einigermaßen ohne Abhängigkeiten auslasten kann.

Und ich hab dir schonmal gesagt, dass du dir die synthetischen ALU-Tests in den (entschuldige den Ausdruck) A**** schieben kannst. Vor allem hat das nichts mit D3D10 zu tun.

Wechselbalg
2007-05-15, 12:13:36
Hmm. Ich bin insgesamt vom Launch enttäuscht, blicke aber durchaus mit Hoffnung in die Zukunft.

Sicherlich sind viele Sachen im momentanen Zustand alles andere als wünschenswert und jetzt würde ich nicht im Traum daran denken, mir so eine Karte zu holen, aber ich würde durchaus in einigen Punkten Potential sehen. Man sollte also nicht unbedingt nur den Launchzustand, sondern die Karte generell betrachten.

So wird zumindest die Leistung wohl wirklich noch einige Sprünge machen, so dass man in 1-2 Monaten wohl erst einigermaßen vernünftig ein Urteil in diesem Bereich fällen kann. Auch würde mich interessieren, ob ähnlich wie beim R520 damals sich die Stromsituation noch etwas entspannt, aber da sind die Werte momentan ja ohnehin sehr widersprüchlich.

Zumindest sind da auch ein paar wirklich interessante Ansätze, die sich vielleicht auch für Nachfolger als praktisch erweisen könnten, auch wenn sie jetzt noch nicht richtig funktionieren. Aus R200 konnte man damals ja vermutlich auch einiges für R300 gewinnen und nicht nur ob der Tesselationeinheit und den Hardwarebugs fühle ich mich irgendwie sehr daran erinnert. ^^

Mr. Lolman
2007-05-15, 12:14:54
Und im Endeffekt hatten wir alle auf ub0r-schnelles AA gehofft - nur dreht das Speicherinterface bei Shaderdownsampling den kaputten ROPs sei Dank Däumchen.
Die Bandbreite machts nich.

Jetzt warten wir mal ab, ob die wirklich kaputt sind, oder ob da doch noch was geht. Die AA-Speed konnte auch schon in der Vergangenheit immer wieder weiter angehoben werden.


Ich würde wetten, daß des einen Demos auf des anderen Hardware - wenn sie überhaupt laufen - ordentlich abkackt. Verwendet ATi für die Rubydemo nicht die Tesselationeinheit?

Kann schon sein :uponder:


Errm, ich will kein Bodybuilder sein, um der physisch stärkere Part in der Beziehung zu sein - jedem seins :D
Ruby spricht aber auch irgendwie in jeder Demo ein paar Töne tiefer, langsam müßte sie mal durch ihren Stimmbruch durch sein.

Und ach: schonmal Terminator 2 SE gesehen? Da "lächelt" der T-800, was eigentlich nicht vorgesehen ist. Und das sieht natürlicher aus, als was Ruby zum Schluß macht *schüttel*

Ach Manni. Bodybuilderfrauen find ich auch abstossend. Aber kurzhaarige Geschöpfe (meinetwegen auch mit schwach ausgeprägten 'sekundären' Merkmalen - was ja auf Ruby eh nicht zutrifft - ) haben durchaus einen gewissen Reiz. :D

Außerdem find ich Ruby auch nicht uneingeschränkt sexy. Hinundwieder schaut sie schon recht doof. In der Szene aber, find ich sie süß: http://www.pcpop.com/doc/App/189976/000478804.html

Dunkeltier
2007-05-15, 12:19:11
Dunkeltiert,

SSAA verbrät alles bis auf Geometrie proportional zur Sampelzahl.
MSAA ist vor allem Bandbreiten hungrig - also genau umgekehrt.



(...)

Oh, dann kann ich mir diesmal getrost den Trollhut aufsetzen. :uking: Wieso hatte ich das aber genau andersrum verinnerlicht gehabt? Und wieso geht nur mit normalen 4x MSAA und dieser Bandbreite der R600 dann nicht wie eine Rakete ab?

HOT
2007-05-15, 12:19:46
[...]
Dann kannst Du aber auch anfangen, nur noch EATM gegen nVs MSAA zu benchen.
EATM kann schick sein, so gut wie SSAA wirds nie.

Da hast du defintiv recht. Aber was nützt TSSAA, wenn ich es nur in geringerer Form oder garnicht in neuen Games nutzen kann? Dann lieber etwas BQ Verlust (wobei der bei EATM nicht hoch ausfällt). Für mich ist SSAA nichts weiter als eine Referenzlösung, aber alles andere als effektiv. Für alte Games hingegen ist es die optimale Lösung, deshalb möchte ich es auch als Option gerne haben.

Ui toll, der R600 ist schneller als die 8800 GTS. Wir reden hier von 60€ Preisunterschied.
Im Moment. Um den Preis braucht man sich keine Sorgen machen, der wird sich einpendeln ;) - Angebot und Nachfrage.

HOT
2007-05-15, 12:22:25
Jetzt warten wir mal ab, ob die wirklich kaputt sind, oder ob da doch noch was geht. Die AA-Speed konnte auch schon in der Vergangenheit immer wieder weiter angehoben werden.

Die 170% bei Oblivion lassen auf beides schließen, sowohl EATM als auch MS Fix. Da könnten sogar noch mehr Fixes drin sein. Mal sehen was wird.
[...]

Mr. Lolman
2007-05-15, 12:26:28
EATM kann schick sein, so gut wie SSAA wirds nie.


Sicher? http://www.hardware.fr/articles/671-8/ati-radeon-hd-2900-xt.html

seahawk
2007-05-15, 12:28:02
Jetzt warten wir mal ab, ob die wirklich kaputt sind, oder ob da doch noch was geht. Die AA-Speed konnte auch schon in der Vergangenheit immer wieder weiter angehoben werden.

Ryes im B3D forum ist sich 99& sicher dass was kaputt ist und, dass das Donwsampling von nicht fully compressed tiles (nicht 4xeine Farbe) von den ROPs in die Shader geschickt wird bevor es zurückgeht.

Wenn also ein Sample ankommt, dass nicht fully compressed ist geht es vom Decompressor in den ROPs zurück in den Shadercore wird fully compressed, geht zurück an die ROPs wird ausgegeben. Bei NV erfolgt das Downsampling in den ROPs, ergo muss R600 Sahderpower verlieren wenn MSAA genutzt wird.

dildo4u
2007-05-15, 12:32:53
Bei NV erfolgt das Downsampling in den ROPs, ergo muss R600 Sahderpower verlieren wenn MSAA genutzt wird.
Klingt böse vor allem wenn zukünftige Games viele Shader einsetzen müsste das ja zu einem erheblichen Performance Verlust führen.

joe kongo
2007-05-15, 12:35:52
Finde es sehr schade das die ATI nicht an die GTX heranreicht.
Ohne wirkliche Konkurrenz schaut die Zukunft für PC Hardware nicht rosig aus,
der Kunde profitiert vom Kampf und nicht vom Monopol.
Wer weis, vielleicht schafft ja ATI und AMD in einem Jahr wieder die Spitze
zu erreichen, notwendig wärs.

Und wer ist schuld ?

die Manager-Ärsche
(= mittlerweile zur Lebensweisheit geworden)

MadManniMan
2007-05-15, 12:36:49
Jetzt warten wir mal ab, ob die wirklich kaputt sind, oder ob da doch noch was geht. Die AA-Speed konnte auch schon in der Vergangenheit immer wieder weiter angehoben werden.

Siehe seahawk

Ach Manni. Bodybuilderfrauen find ich auch abstossend. Aber kurzhaarige Geschöpfe (meinetwegen auch mit schwach ausgeprägten 'sekundären' Merkmalen - was ja auf Ruby eh nicht zutrifft - ) haben durchaus einen gewissen Reiz. :D

Neinnein, ich meinte, daß ich kein Bodybuilder sein müssen möchte, um auch einen wirklichen Mehrwert an Kraft gegenüber meiner Kleinen aufbieten zu können. Und ich meiner aktuellen Form geht das geraaade noch so :D Ruby würde mich umkloppen! Und was für sekundäre Reize? Damenbart?
Mit den Haaren kommen wir auf keinen Nenner, da ich kurze Haare auch bei Männern unnatürlich finde :D

Außerdem find ich Ruby auch nicht uneingeschränkt sexy. Hinundwieder schaut sie schon recht doof. In der Szene aber, find ich sie süß: http://www.pcpop.com/doc/App/189976/000478804.html

Darauf antworte ich mit http://www.pcpop.com/doc/App/189976/000478811.html ;D Das is nich mehr Botox, das isn Krampf!

Oh, dann kann ich mir diesmal getrost den Trollhut aufsetzen. :uking: Wieso hatte ich das aber genau andersrum verinnerlicht gehabt? Und wieso geht nur mit normalen 4x MSAA und dieser Bandbreite der R600 dann nicht wie eine Rakete ab?

Weil wegen des ROP Bugs die Bandbreite gar nicht erst entscheidend wird.

Im Moment. Um den Preis braucht man sich keine Sorgen machen, der wird sich einpendeln ;) - Angebot und Nachfrage.

Wir werden sehen ;)

Sicher? http://www.hardware.fr/articles/671-8/ati-radeon-hd-2900-xt.html

Ich glaub, ich muß mir EATM erstmal angucken ... geht doch auf meier X800, oder?

HOT
2007-05-15, 12:38:30
Meiner Meinung nach bestätigt sich Seahawks Vermutung in den Benchmarks ziemlich gut. Einen güten überblick gibts bei Hartware, weil die alle Benches auch ohne AA gebencht haben:
http://www.hartware.de/review_707_1.html
Ohne AA steht die X2900XT nicht schlecht dar. Aber sobald AA hinzukommt, brichts mehr oder weniger stark ein. Unverhältnismässig stark für meinen Geschmack. Wir reden hier von einem Einbruch von 1/4 der FPS bei 4x AA bei 1280! Wenn dann noch AAA hinzukommt wirds richtig übel, wenn MSAA solche Umwege machen muss, das geht sehr gut aus dem 3DC Artikel hervor finde ich.
Die CB Benches mit dem 4.2 Treiber könnten aber schon auf einen Fix für das Problem hindeuten, eben, weil MSAA verwendet wurde. Das deutet darauf hin, dass die Chips, die im Umlauf sind, schon eine gefixte Revision sind, aber die Treiber noch nicht aktuell sind. Dann wäre auch klar, warum sich der Chip so lange verzögerte.
Edit: der neue 4.2er bringt kaum Besserung bei dem Problem. Siehe THG.

Gast
2007-05-15, 12:45:00
Dann lieber etwas BQ Verlust (wobei der bei EATM nicht hoch ausfällt).

Dagegen spricht nichts. Aber hier wird etwas suggeriert, dass nicht vorhanden ist - nämlich eine deutliche Leistungssteigerung bei gleicher Arbeit.


EATM bringt mit Sicherheit allein keinen 170% Vorteil... vor allem dann nicht, wenn man Seahawks Posting dabei beachtet über mir.

Doch, das tut es. Supersampling kann die Texturleistung auf ein viertel kürzen. Je mehr Alphatest verwendet wird in der Szene, umso stärker ist der Einbruch durch AAA bzw. TSAA. Mit EATM wird ein anderes Verfahren verwendet, welches nicht auf Supersampling aufbaut und somit deutlich schneller arbeitet. Würde Computerbase bei den 8800 Karten einfach TMSAA statt TSAA einstellen, sähe man ein ähnliches Ergebnis.

seahawk
2007-05-15, 12:46:13
Kein genereller Fix imho. Es sollte aber möglich sein dies für jede Anwendung und bis zu einem bestimmten Grad an AA besser abzustimmen. Man kann evtl. den Punkt des Einbruchs verschieben. Das Problem ist, wenn wirklich real, aber imho zu gravieend um es grundsätzlich fixen zu können.

dildo4u
2007-05-15, 12:46:31
Doch, das tut es. Supersampling kann die Texturleistung auf ein viertel kürzen. Je mehr Alphatest verwendet wird in der Szene, umso stärker ist der Einbruch durch AAA bzw. TSAA. Mit EATM wird ein anderes Verfahren verwendet, welches nicht auf Supersampling aufbaut und somit deutlich schneller arbeitet. Würde Computerbase bei den 8800 Karten einfach TMSAA statt TSAA einstellen, sähe man ein ähnliches Ergebnis.
Jup gerade Oblivion nutzt Massen an Alphatest Texturen.

HOT
2007-05-15, 12:50:03
Dagegen spricht nichts. Aber hier wird etwas suggeriert, dass nicht vorhanden ist - nämlich eine deutliche Leistungssteigerung bei gleicher Arbeit.

Nein, hier wird eine deutliche Leistungssteigerung bei annähernd gleichem Ergebnis suggeriert. Wenn das Ergebnis stimmt, ist das also egal. Die Arbeit ist irrelevant.

Doch, das tut es. Supersampling kann die Texturleistung auf ein viertel kürzen. Je mehr Alphatest verwendet wird in der Szene, umso stärker ist der Einbruch durch AAA bzw. TSAA. Mit EATM wird ein anderes Verfahren verwendet, welches nicht auf Supersampling aufbaut und somit deutlich schneller arbeitet. Würde Computerbase bei den 8800 Karten einfach TMSAA statt TSAA einstellen, sähe man ein ähnliches Ergebnis.
Jo so weit waren wir hier schon, schön das du das schonwieder erwähnst. Aber selbst wenn man benches mit TMSAA gegen TSSAA fährt, da sind keine 170% Steigerungen dabei. Solche Grössenordnungen findet man vllt. Bei TSSAA gegen kein Tranzparenz AA, aber auch das nicht in Standardscenen, sondern in Extremfällen.

Gast
2007-05-15, 12:51:44
Aber selbst wenn man benches mit TMSAA gegen TSSAA fährt, da sind keine 170% Steigerungen dabei. Solche Grössenordnungen findet man vllt. Bei TSSAA gegen kein Tranzparenz AA.

Teste es doch selbst.

Gast
2007-05-15, 12:55:52
Sry, wegen Doppeltposting

Nein, hier wird eine deutliche Leistungssteigerung bei annähernd gleichem Ergebnis suggeriert. Wenn das Ergebnis stimmt, ist das also egal. Die Arbeit ist irrelevant.


Das ist doch Quatsch mit Soße. EATM sieht nicht aus wie TSAA bzw. AAA mit Supersampling.
Hier werden zwei unterschiedliche Verfahren getestet, jedoch nicht darauf hingewiesen. Das wäre so als wenn man zwei Karten mit einem gleichen SupersamplingAA vergleicht. Und mit einem neueren Treiber plötzlich die eine Karte nur noch MultisamplingAA betreibt und dies als Leistungssteigerung durch Treiberoptimierung verkauft wird.
Oder wenn die Filterqualität abgesenkt wird, aber es als "full trilinear on all Stages" angepriesen werde. Du denkst es: Klasse, tolle Leistungssteigerung. Nur ist es eben nicht auf die Verbesserung des Treibers sondern durch ein verändertes Verfahren hervorgerufen.

Wechselbalg
2007-05-15, 12:56:58
Eventuell wäre es auch mal interessant Spiele auf dem R600 dann zu testen, die an die Shader so gut wie keine Anforderungen haben und zu gucken, ob dort die AA Einbrüche geringer sind, als in solchen, die eine sehr hohe Last erzeugen.

Gast
2007-05-15, 13:01:04
http://service.futuremark.com/compare?3dm06=1946735
Der erste eingetragene Benchmark mit ner 2900XT, komischerweise aber auch mit 1024 Video Memory.

IVN
2007-05-15, 13:03:57
Sicher? http://www.hardware.fr/articles/671-8/ati-radeon-hd-2900-xt.html
Das einzige was man da sehen kann ist, das die HD2900 eine kleinere Sichtweite berechnet (oder mehr Fog erzeugt), wodurch der Eindruck einer besseren Glättung entsteht.

Mr. Lolman
2007-05-15, 13:07:29
Neinnein, ich meinte, daß ich kein Bodybuilder sein müssen möchte, um auch einen wirklichen Mehrwert an Kraft gegenüber meiner Kleinen aufbieten zu können. Und ich meiner aktuellen Form geht das geraaade noch so :D Ruby würde mich umkloppen! Und was für sekundäre Reize? Damenbart?
Mit den Haaren kommen wir auf keinen Nenner, da ich kurze Haare auch bei Männern unnatürlich finde :D

Bei mir hauts nach 5 Jahren Beziehung auch noch (geradeso) hin. Auch wenn meine Kleine mittlerweile ordentlich zugelegt hat. ;( Ruby hingegen hat schon Power. Na wenigstens würd ich da auch mehr Sport machen, um gegenhalten zu können. Mit 'sekundär' meinte ich die Titten, mein Herr. Deswegen hab ichs ja auch unter Hochkomma gesetzt. Damenbart ist ein NoGo natürlich. *graus* Haare können bei Frauen gerne kurz sein (bis zu einem gewissen Grad. Das Problem bei kurzhaarigen Frauen ist, dass sie schnell extrem hässlich aussehen können, wenn das Gesicht selbst kaum weibliche Züge aufweist. Längere Haare können das besser kaschieren. Sagen wir so: von 10cm bis max. schulterlang gefällts mir. Weniger oder gar mehr nur in Ausnahmefällen. Ich selbst hab in den letzten 5 Jahren meine Haare auch nie (viel) kürzer als 10cm gehabt und find das auch gut so. :biggrin:



Darauf antworte ich mit http://www.pcpop.com/doc/App/189976/000478811.html ;D Das is nich mehr Botox, das isn Krampf!

Kennst du nicht diese Glitzerlippenstifte die sich manche Gören drauf tun? Der verstärkt das. Das Volumen der Lippen ansich mag ja auch durchaus eine praktische Seite haben (auch wenns mir prinzipiell eher nicht gefällt) ;)


Ich glaub, ich muß mir EATM erstmal angucken ... geht doch auf meier X800, oder?

Jo. Sehr gut sogar. Mit meinem Tool kannst du ein paar Settings tätigen (legt am Desktop nen Ordner an). Empfehlenswert sind alle ATMkeys bis auf Alphasharpenbias auf '1'

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=29628&d=1164803036

Mr. Lolman
2007-05-15, 13:09:55
Das einzige was man da sehen kann ist, das die HD2900 eine kleinere Sichtweite berechnet (oder mehr Fog erzeugt), wodurch der Eindruck einer besseren Glättung entsteht.

Der Baum im Vordergrund sieht besser aus. Außerdem wird bei ATI EATM eingesetzt (zumindest den Benchmarkergebnissen nach zu urteilen) und bei NV TRSSAA.

deekey777
2007-05-15, 13:15:33
Doch, das tut es. Supersampling kann die Texturleistung auf ein viertel kürzen. Je mehr Alphatest verwendet wird in der Szene, umso stärker ist der Einbruch durch AAA bzw. TSAA. Mit EATM wird ein anderes Verfahren verwendet, welches nicht auf Supersampling aufbaut und somit deutlich schneller arbeitet. Würde Computerbase bei den 8800 Karten einfach TMSAA statt TSAA einstellen, sähe man ein ähnliches Ergebnis.
Da stellt sich aber die Frage, ob TMSAA die Bildqualität liefert wie EATM.

Henroldus
2007-05-15, 13:16:02
ATi nutzt im neuen Treiber zum glätten der Alpha-Texturen MSAA statt SSAA.
Wie bitte kann man eine Textur mit MSAA glätten :confused:
Da gibt es doch gar keine Polygonkanten?
Hab ich da was falsch verstanden?
Klärt mich auf :redface:

Gast
2007-05-15, 13:19:36
Da stellt sich aber die Frage, ob TMSAA die Bildqualität liefert wie EATM.

Das spielt überhaupt keine Rolle bei so einer Betrachtung. Dann könnten wir ja auch gleich die AA-Modie mit Blur-Filter gegen SupersamplingAA vergleichen, weil beide Shaderalasing "beseitigen"...
Wem EATM gefällt, der kann es auswählen. Ein vergleich geht nur gegen TMSAA und wenn es schlechter ist, muss darauf hingewiesen werden. Aber Supersampling zu verwenden ist absurd und ein vollkommender unfairer Vergleich.

Mr. Lolman
2007-05-15, 13:20:27
Da stellt sich aber die Frage, ob TMSAA die Bildqualität liefert wie EATM.

Ja das ist die große Frage. Lt. 3DC-Screenshot tuts das nicht. Andererseits schauts da trotzdem schon weitaus besser aus, als vor kurzem im Forum noch behauptet wurde. In TDU konnte man vor einiger zeit noch nichtmal nen Unterschied zw. normalen MSAA und TRMSAA feststellen. Keine Ahnung, ob sich das mittlerweile geändert hat. (Ein G80-Besitzer könnt das ja mal schnell testen)

dildo4u
2007-05-15, 13:23:59
Die Frage ist ja auch ob man jetzt allgemein EATM und TSSAA oder TMSAA als Standard benchen sollte.In der obersten Klasse also bei der GTX und Ultra machts vieleicht noch Sinn bei der GTS und der X2900XT eher nicht und ein vergleichbares High-End Produckt zur GTX hat ATI zur Zeit ja nicht.

seahawk
2007-05-15, 13:25:41
Bitte nicht wieder diese unsägliche ETAm Debatte.

Natürlich ist ETAM weit besser als der technisch vergleichbare Modus von NV, aber eben nicht besser als beide SSAA Modi. Daher sollte man entweder SSAA gegen SSAA benchen oder ganz ohne AAA.

HOT
2007-05-15, 13:34:50
Also benchen wir solange TSSAA, bis die Frage geklärt ist, ob EATM TSSAA tatsächlich ersetzen kann :D.

IVN
2007-05-15, 13:41:22
Der Baum im Vordergrund sieht besser aus. Außerdem wird bei ATI EATM eingesetzt (zumindest den Benchmarkergebnissen nach zu urteilen) und bei NV TRSSAA.
Und genau dieser Baum sieht bei der HD 2900 "gefogt" aus. Wie kannst du das nur vergleichen. Die HD 2,9k berechnet entweder eine geringere Sichtweite, oder mehr Fog.

Mr. Lolman
2007-05-15, 13:47:57
Und genau dieser Baum sieht bei der HD 2900 "gefogt" aus. Wie kannst du das nur vergleichen. Die HD 2,9k berechnet entweder eine geringere Sichtweite, oder mehr Fog.


Nö. Nicht der Baum. Der Baum rechts, am großen Screenshot:

http://www.hardware.fr/marc/tridam/g80/g804xtaa.png
http://www.hardware.fr/marc/tridam/g80/hl2r600aa4xtaa.png

BTW: Das Foggingproblem hatte der G80 auch lange Zeit. Ist angeblich ein HL² spezifischer Bug, der jedoch Treiberseitig fixbar ist.

Gast
2007-05-15, 13:50:51
Nein, hier wird eine deutliche Leistungssteigerung bei annähernd gleichem Ergebnis suggeriert. Wenn das Ergebnis stimmt, ist das also egal. Die Arbeit ist irrelevant.
.

So ein Quatsch. Supersampling und Multisampling liefern nicht auch nur annähernd dasselbe Ergebnis.

Mr. Lolman
2007-05-15, 13:54:11
So ein Quatsch. Supersampling und Multisampling liefern nicht auch nur annähernd dasselbe Ergebnis.

Stimmt. Aber Multisampling != Multisampling. Und das Ergebnis kann auch je nach Situation besser sein. Die im vorigen Post verlinkten Screenshots schon angesehen?

CEO
2007-05-15, 14:04:31
Schau dir endlich den Link an Schlaftablette. Nvidia kann eben nicht mehr viel optimieren, das haben sie schon die letzten 6 Monate getan, ATi kann sehr wohl noch was rausholen aus ihrer XT.

Von daher, einfach mal nicht so klugscheißen, das würde dir, besonders dir mal richtig gut tun. Du hast dich mit deinem Xbox 360 Gefasel schon mehr als blamiert.

Wenn du mal nicht so klugscheißen würdest. Wofür steht nochmal XT bei ATI? Da kann ATI machen was die wollen. Die XTX wird wohl kaum an die Ultra rankommen.

seahawk
2007-05-15, 14:05:35
Also benchen wir solange TSSAA, bis die Frage geklärt ist, ob EATM TSSAA tatsächlich ersetzen kann :D.

Natürlich kann es TSMAA in gewisser Weise ersetzen, so wie auch MSAA+AF SS in gewisser Weise ersetzen kann. Trotzdem wird niemand eine Karte mit MSAA+AF gegen die andere mit SS benchen.

James Ryan
2007-05-15, 14:06:27
BTW: Das Foggingproblem hatte der G80 auch lange Zeit. Ist angeblich ein HL² spezifischer Bug, der jedoch Treiberseitig fixbar ist.

Hoffen wir nur dass ATi es "etwas" schneller fixen wird als NVIDIA! ;D

MfG :cool:

Mr. Lolman
2007-05-15, 14:06:43
Trotzdem wird niemand eine Karte mit MSAA+AF gegen die andere mit SS benchen.

Wir haben das im Voodoo5 6000 Review gemacht. Warum? Weils NV konnte...

Hoffen wir nur dass ATi es "etwas" schneller fixen wird als NVIDIA! ;D

MfG :cool:

Wie wahr, wie wahr. Hat bei denen ja auch ewig gedauert. Hm. Mir schwahnt dabei nix Gutes :|

seahawk
2007-05-15, 14:09:42
Wir haben das im Voodoo5 6000 Review gemacht. Warum? Weils NV konnte...


Eher weil es keine wirklich vergleichbaren AA Modi gab, dies ist aber heute nicht der Fall.

HOT
2007-05-15, 14:18:08
Natürlich kann es TSMAA in gewisser Weise ersetzen, so wie auch MSAA+AF SS in gewisser Weise ersetzen kann. Trotzdem wird niemand eine Karte mit MSAA+AF gegen die andere mit SS benchen.
Nein, man wird SS einfach garnicht benchen, weil es irrelevant ist. Sieht du worauf ich hinaus will?
Ich habe jetzt mal WoW angeschmissen, meinen shamy mal in den Silberwald verfrachtet. Dort gibt es unheimlich viele Bäume und damit viele gealphate Texturen. mit normalen MSAA ohne TAA schaffe ich da 57FPS (Eine Position am Grabmal zwischen zwei Hügeln, von der aus man etwas erhöht nach Norden in den Wald blickt).
Wenn ich TMSAA mit EATM einschalte, sehen die Alphatexturen gut geglättet aus. Hab ich auch in Bewegung getestet, optisch kann ich in WoW keinen Unterschied zwischen EATM und TSSAA ausmachen. Nur mit dem Unterschied, dass ich mit EATM 38FPS an der Stelle habe und mit TSSAA (bei ATI ja AAA Quality) 27. Alle Vergleiche sind mit Einstellungen im Treiber mit jeweiligen Neustart des Spieles an exakt der Stelle vorgenommen worden. Vorher habe ich die Optik überprüft. Wenn ich sehe, dass die Leistung schon in dem Spiel, das ja weiss Gott nicht Grafiklastig ist, so derbe einbricht (im Dämmerwald sind es teilweise 15-17FPS mit TSSAA), und das mit 4x MSAA + TSSAA auf meiner X1900XTX, dann werde ich das auch nicht benutzen. Sicher sind die neuen Karten schneller, aber dennoch ist der Leistungseinbruch einfach gewaltig finde ich, einfach unverhältnismässig gross. Deshalb wär ich für die Entwicklung EATM dankbar, weil sie einen sehr guten Kompromiss darstellt. Warum sollte man den nicht Benchen? Ich würd EATM ausser der Reihe benchen und zusätzlich TSSAA auf allen Karten mitbenchen.

seahawk
2007-05-15, 14:52:13
Es geht nur um den Vergleich, wenn man eine Karte mit SSA und eine mit ETAM laufen läsdt, dann ist das Ergebnis eben klar. Man muss also ein Setting finde das vergleichbar ist und das ist für mich entweder beide mit SSAA oder kann ohne AAA.


NV hat ja nichts Vergleichbares zu ETAM.

HOT
2007-05-15, 14:59:41
Es geht nur um den Vergleich, wenn man eine Karte mit SSA und eine mit ETAM laufen läsdt, dann ist das Ergebnis eben klar. Man muss also ein Setting finde das vergleichbar ist und das ist für mich entweder beide mit SSAA oder kann ohne AAA.


NV hat ja nichts Vergleichbares zu ETAM.
Um nicht weiter aneindander vorbeizureden: ja so ist es. Deswegen plädiere ich für einen Vergleich der beiden TSSAA Varianten von NV und ATI und zusätzlich einen EATM Bench, der verdeutlicht, was man spart, also EATM nur direkt mit den TSSAA Varianten beider Hersteller vergleicht. Wie gesagt, ich finde TSSAA sowieso vollkommen uninteressant, ausser für ziemlich alte Games. Und das NV nix vergleichbares hat, ist das Pech von NV. Sie hätten sich ja auch um eine effiziente Multisamplingvariante bemühen können.

Gast
2007-05-15, 15:06:11
Und das NV nix vergleichbares hat, ist das Pech von NV. Sie hätten sich ja auch um eine effiziente Multisamplingvariante bemühen können.

Ich sehe nur, dass AMD mit ETMA zu den 8800 karten aufschließen kann. Es ist doch viel schlimmer, dass die Karten einen deutlichen Mehraufwand leisten und dabei noch mindesten gleichschnell sind...

HOT
2007-05-15, 15:33:13
Ich verstehe nicht, was du damit sagen willst. EATM ist schon jetzt deutlich schneller, als jeder TSSAA Technik auf allen Chips. Draum geht es aber nicht. Deshalb sollen ja auch die TSSAA Modi verglichen werden und EATM als Vergleich zu diesen Modi bei beiden IHVs dienen. Und das Nv so eine effiziente Technik nicht bieten soll nicht NVs Pech sein? Stattdessen den Vorteil, den ATI mit EATM hat einfach ignorieren? Finde ich genausowenig korrekt.

LovesuckZ
2007-05-15, 15:39:21
Stattdessen den Vorteil, den ATI mit EATM hat einfach ignorieren? Finde ich genausowenig korrekt.

Tja, willkommen in der Welt, wo jeder seine Test so anpasst, wie es ihm gefällt. Es testet heutzutage auch keiner mehr mit A.I off und HQ - da hat nVidia eindeutig die Nase vorn dank der vierfachen Menge an INT8 Filterunits.
Ich spiele zum Beispiel nur mit HQ auf meiner 8800GTX, daher finde ich Tests mit Q nichtssagen. Schade, dass man wohl noch eine Weile warten muss, bis es Tests gibt, die auch A.I off und HQ verwenden. :(

HOT
2007-05-15, 15:45:10
Nein, es wird von vielen Seiten gesagt, u.A. von 3DCenter, dass NVs HQ vergleichbare Ergebnisse liefert, als ATIs AI Standard. AI off ist keine Option, das hätte ATI auch gleich weglassen können. Damit zu benchen ist schlicht bescheuert. ausserdem passt das nicht zur EATM Diskussion, hat damit ja nicht viel zu tun. Und IA als "Gegenbeweis" anzuführen ist Polemik, mehr nicht.

desert
2007-05-15, 15:46:54
ja bei rxxx gegen g70, und nicht bei r600 gegen g80

dildo4u
2007-05-15, 15:50:52
Nein, es wird von vielen Seiten gesagt, u.A. von 3DCenter, dass NVs HQ vergleichbare Ergebnisse liefert, als ATIs AI Standard.

"Beim aktuellen G80-Chip hat nVidia hingegen enorm zugelegt bei der Filterqualität und bietet nun bei der höchsten verfügbaren Einstellung die beste derzeit verfügbare Filterqualität - auch inklusive weitestgehender Winkelunabhängigkeit - an..."

"Aber dies wäre Haarspalterei - wer will, der kann mit minimalen Änderungen an den Treibereinstellungen zu einer herausragenden Filterqualität kommen, welche selbst den hohen Standard der ATI-Karten (geringfügig) zu überbieten in der Lage ist."

http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index7.php

HOT
2007-05-15, 15:51:01
ja bei rxxx gegen g70, und nicht bei r600 gegen g80
Da gilt das Gleiche. G70 HQ = R5x0 AI Standard, genauso G80 HQ = R600 AI Standard.

James Ryan
2007-05-15, 15:51:43
AI off ist keine Option, das hätte ATI auch gleich weglassen können.

Ja, das wäre das beste! Oder das AI nicht nicht an den Bugfixes für Spiele zu koppeln!
AI-off vs. NV HQ ist fair!

MfG :cool:

HOT
2007-05-15, 15:52:37
"Beim aktuellen G80-Chip hat nVidia hingegen enorm zugelegt bei der Filterqualität und bietet nun bei der höchsten verfügbaren Einstellung die beste derzeit verfügbare Filterqualität - auch inklusive weitestgehender Winkelunabhängigkeit - an..."

"Aber dies wäre Haarspalterei - wer will, der kann mit minimalen Änderungen an den Treibereinstellungen zu einer herausragenden Filterqualität kommen, welche selbst den hohen Standard der ATI-Karten (geringfügig) zu überbieten in der Lage ist."

http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index7.php

Jo aber deswegen auch gute Optimierungen, die NV ja auch im Treiber hat, abzuschalten ist bescheuert. Die BQ ist vergleichbar. Zudem wird das OT langsam.

HOT
2007-05-15, 15:52:56
Ja, das wäre das beste! Oder das AI nicht nicht an den Bugfixes für Spiele zu koppeln!
AI-off vs. NV HQ ist fair!

MfG :cool:
Ist es nicht. ATI hätte nicht so ehrlich sein dürfen. Lieber so handeln wie NV und einfach Q und HQ dranschreiben, wobei HQ AI Standard entspricht... Nur damit so ein Mist nicht mehr behauptet wird.

LovesuckZ
2007-05-15, 15:59:33
Nur damit so ein Mist nicht mehr behauptet wird.

Wir werden ja sehen, ob die User kein Flimmern, keine Bugwellen und sonstige Spielchen mit A.I Standard sehen werden.
Aber was du als "ehrlich meinst" ist doch objektiv betrachtet eine "Friss oder Stirb" Taktik.

HOT
2007-05-15, 16:05:22
Jo bei ATI hast du aber die Wahl alles abzuschalten, bei NV fehlt dieser Schalter. Das meine ich mit Ehrlich. Oder denkst du wirklich, dass HQ perfekt ist bei NV? Die Auswirkungen des IA off Schalters sind nicht annähernd mit NVs HQ Einstellung Vergleichbar. Ich finde, die Einstellungen werden falsch verglichen. Bei NV hast du mehr Möglichkeiten den Filter zu beeinflussen, bei ATI hast du nur 2. Bei ATI gibts nur schlecht (Performance) oder optimal (Standard), bei NV gibts sehr schlecht, schlecht, na ja und optimal.

Gast
2007-05-15, 16:09:28
Bin sehr enttäuscht von der R600 Reihe, am meisten stinkt mir aber, daß ATI jetzt auch noch zu cheaten anfängt, indem man Bench-Treiber released, die statt SSAA MSAA nutzen.

Godmode
2007-05-15, 16:10:55
Jo bei ATI hast du aber die Wahl alles abzuschalten, bei NV fehlt dieser Schalter. Das meine ich mit Ehrlich. Oder denkst du wirklich, dass HQ perfekt ist bei NV? Die Auswirkungen des IA off Schalters sind nicht annähernd mit NVs HQ Einstellung Vergleichbar. Ich finde, die Einstellungen werden falsch verglichen. Bei NV hast du mehr Möglichkeiten den Filter zu beeinflussen, bei ATI hast du nur 2. Bei ATI gibts nur schlecht (Performance) oder optimal (Standard), bei NV gibts sehr schlecht, schlecht, na ja und optimal.

Jetzt wirds aber lächerlich, du weist ganz genau dass man beim G80 mit HQ alles abschalten kann! Und was das deaktivieren von Spiele Optimierungen mit AI Off bringen soll hab ich bis heute noch nicht verstanden.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert
Deaktiviert man nun auf beiden Grafikkarten sämtliche Optimierungen des anisotropen Filters, dreht der G8x regelrechte Kreise um die Konkurrenz. Während die Texturen auf dem G8x nur selten flimmern, keine Bugwellen mehr sichtbar sind und gleichzeitig bis in den letzten Winkel mit allen eingestellten Samples gefiltert werden, bekommt man von ATis R600 bei A.I. Off nicht eine so gute Qualität geboten. Die etwas schlechtere Winkelunabhängigkeit fällt prinzipiell kaum auf, der trilineare Filter ist ebenfalls sehr gut, die Texturen sind aber weiterhin unruhig. Während nVidia dieses Problem mit dem G8x beinahe ausgelöscht hat, hat ATi das Flimmern zwar angepackt, aber ist schlussendlich nicht weit genug gegangen. Bei der anisotropen Filterung hat der nVidia G80 die Nase also vorn.


http://www.3d-center.de/artikel/radeon_hd_2900_xt/index7.php
nVidia wäre hier also allerhöchstens der kleine Vorwurf zu machen, warum man nicht gleich "High Quality" zum Standardfiltermodus zumindestens für die GeForce 8800 Serie erhoben hat. Aber dies wäre Haarspalterei - wer will, der kann mit minimalen Änderungen an den Treibereinstellungen zu einer herausragenden Filterqualität kommen, welche selbst den hohen Standard der ATI-Karten (geringfügig) zu überbieten in der Lage ist.

R600:
nur noch geringfügige Winkelabhängigkeit ab 8x
einige kleinere "Optimierungen" (unabschaltbar) aktiv

G80:
(fast) keine Winkelabhängigkeit
irgendwelche "Optimierungen" sind derzeit nicht bekannt

HOT
2007-05-15, 16:22:08
Das kann jeder behaupten. Sicher hat die ATI noch Winkelabhängigkeiten, das könnte aber auch Hardwarebedingt so sein. NV bietet definitiv die absolute Winkelunabhängigkeit, was ein klarer Vorteil ist, der aber so gut wie nie auffällt. Und da kann ich den Spiess auch umdrehen: niemand garantiert, dass es beim G80 keine HQ Optimierungen gibt. Im Vergleich sind sowohl der R600 und als auch der G80 sehr sehr gute im filtern. Die Unterschiede sind so gering, dass es sich kaum lohnt darüber zu streiten. Es lohnt sich definitiv nicht, dafür Spieleoptimierungen abzuschalten.

Zitat 3DC Artikel:

[...]
nsofern ist ATIs Entscheidung, der Radeon X1x00 Serie eine (fast) winkelunabhängige anisotrope Filterung zu spendieren, nur ausdrücklich zu begrüssen - und der Effekt ist mit obigen Screenshots auch eindrucksvoll belegt. Bei der Radeon HD 2x00 Serie hat ATI dieses Prinzip im Grundsatz beibehalten, allerdings zusätzlich noch ein wenig an der Filterqualität (in der LOD-Berechnung) geschraubt, womit insbesondere die höheren AF-Modi doch noch ein wenig besser aussehen. Wieder sehen wir uns nur den Standard-Modus an, den von der Bildqualität her schwächeren Modus "Advanced" sowie das in der Praxis eher nutzlose "A.I. off" werden nicht betrachtet
[...]
Somit bieten letztendlich inzwischen beide Grafikchip-Entwickler mit ihren neuesten Grafikchip-Serien (ATI Radeon HD 2x00 und nVidia GeForce8) jeweils einen anisotropen Filter, welcher unter dem strengen Blick unseres Redakteurs aths mit dem Gütesiegel "aths-approved" durchgeht. Wenn man zurückdenkt, was in der Vergangenheit so alles an Filter-"Optimierungen" durch die beiden Grafikchip-Entwickler vorgenommen wurden, ist dies schon eine sehr bemerkenswerte Entwicklung.[...]

Mr. Lolman
2007-05-15, 16:23:48
R600:
nur noch geringfügige Winkelabhängigkeit ab 8x
einige kleinere "Optimierungen" (unabschaltbar) aktiv

G80:
(fast) keine Winkelabhängigkeit
irgendwelche "Optimierungen" sind derzeit nicht bekannt[/I]

und 3DC meint, dass AIoff besser als G80 HQ ist. Somit steht weiter Aussage gegen Aussage...

NV bietet definitiv die absolute Winkelunabhängigkeit, was ein klarer Vorteil ist

Wobeis hier eher gegenteilig aussieht:
http://www.computerbase.de/bild/article/648/117/
http://www.computerbase.de/bild/article/648/123/

Vll. hat NV eine winkelabhängige Sampleoptimierung. Die kann man anhand von einer AF-Blume nicht feststellen.

Godmode
2007-05-15, 16:23:53
Das kann jederr behaupten. Sicher hat die ATI noch Winkelabhängigkeiten, das könnte aber auch Hardwarebedingt so sein. Und da kann ich den Spiess auch umdrehen: niemand garantiert, dass es beim G80 keine HQ Optimierungen gibt. Im Vergleich sind der R600 und die G80 beide sehr sehr gut.

Ja sicher kann das jeder behaupten, aber hier sagt es CB und 3DC und die Leute die diese Reviews gemacht haben wissen schon was sie schreiben.

und 3DC meint, dass AIoff besser als G80 HQ ist. Somit steht weiter Aussage gegen Aussage...
du meinst sicher diesen Absatz:

Der R600-Chip zeigt das schärfste Bild, wenn A.I. deaktiviert wird. Im Gegensatz zum R580 sind die Unterschiede ebenfalls über einen größeren Bildbereich erkennbar. Insgesamt wirkt das Bild gegenüber dem Vorgänger schärfer und gleichzeitig homogener. "A.I. on" beim R600-Chip ist somit mit dem "A.I. off" beim R580-Chip und "High Quality" beim G80-Chip nahezu identisch. Ein Flimmern war nicht festzustellen, wenngleich die Bildschärfe in Bewegung gegenüber dem G80-Chip zurückstecken muss. Mit deaktiviertem A.I. zeigt der R600-Chip ein noch schärferes Bild als R580 und G80 darstellen können, ohne dabei aber zu flimmern.

Der R600-Chip zeigt das schärfste Bild, wenn A.I. deaktiviert wird. Das schärfste Bild bezogen auf den R600 oder auf alle drei Karten?

Ein Flimmern war nicht festzustellen, wenngleich die Bildschärfe in Bewegung gegenüber dem G80-Chip zurückstecken muss.Ok kein Flimmern mehr mit AI ON, aber eine schlechtere Bildschärfe gegenüber G80. Aber mit was war bei G80 eingestellt Q oder HQ?

Mit deaktiviertem A.I. zeigt der R600-Chip ein noch schärferes Bild als R580 und G80 darstellen können, ohne dabei aber zu flimmern. Interessant, besser als G80? Wieder die Frage: Q oder HQ?

desert
2007-05-15, 16:25:42
ach und deine lügen sollen wir also glauben, weil es ja ati ist. Langsam wird es ja echt lächerlich, müssen wir halt mal wieder auf einen hardtecs4u test warten, wo auch mal a.i. off getestet wird und wahrscheinlich auch der r600 in manchen spielen um bis zu 50 % einbricht

Mr. Lolman
2007-05-15, 16:27:24
ach und deine lügen sollen wir also glauben, weil es ja ati ist. Langsam wird es ja echt lächerlich, müssen wir halt mal wieder auf einen hardtecs4u test warten, wo auch mal a.i. off getestet wird und wahrscheinlich auch der r600 in manchen spielen um bis zu 50 % einbricht

Was, meine Lügen? Spinnst du? Ich hab mit dem Review nix zu tun!

desert
2007-05-15, 16:32:37
du warst nicht gemeint, sondern hot, der hier doch allen ernstes behaupten will das nv nur mit hq gegen das geniale a.i. standard von ati dagegen halten kann.

Und sowas ist einfach nur schlimmster fan boy, aber der ganz üblesten sorte. solche leute sind schuld wenn bei der nächsten generation von nvidia die flimmerproblematik wieder auftritt. Weil es ja ati ist.

Godmode
2007-05-15, 16:32:54
löschen

desert
2007-05-15, 16:34:00
Ja sicher kann das jeder behaupten, aber hier sagt es CB und 3DC und die Leute die diese Reviews gemacht haben wissen schon was sie schreiben.


du meinst sicher diesen Absatz:

Der R600-Chip zeigt das schärfste Bild, wenn A.I. deaktiviert wird. Im Gegensatz zum R580 sind die Unterschiede ebenfalls über einen größeren Bildbereich erkennbar. Insgesamt wirkt das Bild gegenüber dem Vorgänger schärfer und gleichzeitig homogener. "A.I. on" beim R600-Chip ist somit mit dem "A.I. off" beim R580-Chip und "High Quality" beim G80-Chip nahezu identisch. Ein Flimmern war nicht festzustellen, wenngleich die Bildschärfe in Bewegung gegenüber dem G80-Chip zurückstecken muss. Mit deaktiviertem A.I. zeigt der R600-Chip ein noch schärferes Bild als R580 und G80 darstellen können, ohne dabei aber zu flimmern.

Der R600-Chip zeigt das schärfste Bild, wenn A.I. deaktiviert wird. Das schärfste Bild bezogen auf den R600 oder auf alle drei Karten?

Ein Flimmern war nicht festzustellen, wenngleich die Bildschärfe in Bewegung gegenüber dem G80-Chip zurückstecken muss.Ok kein Flimmern mehr mit AI ON, aber eine schlechtere Bildschärfe gegenüber G80. Aber mit was war bei G80 eingestellt Q oder HQ?

Mit deaktiviertem A.I. zeigt der R600-Chip ein noch schärferes Bild als R580 und G80 darstellen können, ohne dabei aber zu flimmern. Interessant, besser als G80? Wieder die Frage: Q oder HQ?

3dcenter hat doch auf q gebencht, vielleicht wurde es denn einfach angelassen. da sollest du aber mal robbitop fragen.

Mr. Lolman
2007-05-15, 16:34:03
du warst nicht gemeint, sondern hot, der hier doch allen ernstes behaupten will das nv nur mit hq gegen das geniale a.i. standard von ati dagegen halten kann.

Achso. Dann entschuldige ich mich für die ruppige Antwort. =)

Gast
2007-05-15, 16:34:27
du warst nicht gemeint, sondern hot, der hier doch allen ernstes behaupten will das nv nur mit hq gegen das geniale a.i. standard von ati dagegen halten kann.

Und sowas ist einfach nur schlimmster fan boy, aber der ganz üblesten sorte. solche leute sind schuld wenn bei der nächsten generation von nvidia die flimmerproblematik wieder auftritt. Weil es ja ati ist.

wo genau schreibt er das?

HOT
2007-05-15, 16:34:54
bans3i, es geht mir darum, dass es eher Haarspalterei ist. Fakt ist, sowohl der Filter des R600 auf AI Standard, als auch der G80 Filter auf HQ kommen gut weg. NV bietet (offenbar) eine absolute Winkelunabhängigkeit, flimmern gibt es bei beiden so gut wie nicht (mit Ausnahme von Texturen, die sowieso stark zum Flimmern neigen). Was will man mehr? Warum sollte man bei solchen Ergebnissen AI abschalten? Das ergibt einfach keinen Sinn.

desert
2007-05-15, 16:35:30
Da gilt das Gleiche. G70 HQ = R5x0 AI Standard, genauso G80 HQ = R600 AI Standard.

hier zum beispiel

The_Invisible
2007-05-15, 16:36:13
ach und deine lügen sollen wir also glauben, weil es ja ati ist. Langsam wird es ja echt lächerlich, müssen wir halt mal wieder auf einen hardtecs4u test warten, wo auch mal a.i. off getestet wird und wahrscheinlich auch der r600 in manchen spielen um bis zu 50 % einbricht

ja, bin auch schon gespannt auf den test. komisch das noch keiner mit AI off gebencht hat, beim g80 gabs ja auch gleich vergleiche zwischen q und hq, aber nv ist ja böse.

mfg

Godmode
2007-05-15, 16:37:34
bans3i, es geht mir darum, dass es eher Haarspalterei ist. Fakt ist, sowohl der Filter des R600 auf AI Standard, als auch der G80 Filter auf HQ kommen gut weg. NV bietet (offenbar) eine absolute Winkelunabhängigkeit, flimmern gibt es bei beiden so gut wie nicht (mit Ausnahme von Texturen, die sowieso stark zum Flimmern neigen). Was will man mehr? Warum sollte man bei solchen Ergebnissen AI abschalten? Das ergibt einfach keinen Sinn.

Da geb ich dir recht, es ist Haarspalterei! Was mich halt etwas stutzig macht ist der Test auf CB, die schreiben dem G80 doch größere Vorteile zu. Am besten warten wir einfach genauere Artikel ab, vielleicht bringt irgendwer etwas Klarheit in diese komplizierte Sache.

edit: Der G80 hat es gar nicht nötigt auf Q gebencht zu werden mit seiner brachialen Texelleistung, der R600 hat hier schon seine Probleme. Aber um den Verlgeich fair zu machen, sollten die gleichen Bedingungen herrschen.

The_Invisible
2007-05-15, 16:37:42
bans3i, es geht mir darum, dass es eher Haarspalterei ist. Fakt ist, sowohl der Filter des R600 auf AI Standard, als auch der G80 Filter auf HQ kommen gut weg. NV bietet (offenbar) eine absolute Winkelunabhängigkeit, flimmern gibt es bei beiden so gut wie nicht (mit Ausnahme von Texturen, die sowieso stark zum Flimmern neigen). Was will man mehr? Warum sollte man bei solchen Ergebnissen AI abschalten? Das ergibt einfach keinen Sinn.

doch, damit tri vs tri verglichen wird und nix anderes

mfg

HOT
2007-05-15, 16:39:11
hier zum beispiel
Dann setz statt dem = ein entspricht ein. War nur schreibfaul an der Stelle sonst nix. Das ist nun wirklich Haarspalterei.

HOT
2007-05-15, 16:40:31
Da geb ich dir recht, es ist Haarspalterei! Was mich halt etwas stutzig macht ist der Test auf CB, die schreiben dem G80 doch größere Vorteile zu. Am besten warten wir einfach genauere Artikel ab, vielleicht bringt irgendwer etwas Klarheit in diese komplizierte Sache.

edit: Der G80 hat es gar nicht nötigt auf Q gebencht zu werden mit seiner brachialen Texelleistung, der R600 hat hier schon seine Probleme. Aber um den Verlgeich fair zu machen, sollten die gleichen Bedingungen herrschen.
Da vertraue ich dem 3DC mehr über den Weg, vor allem da ich weiss, dass eths sich das angeschaut hat. Und der hat nun wirklich weder eine rote, noch eine grüne Brille auf und achtet auf sowas wie ein Adler. CBs Artikel werden seit geraumer Zeit auch immer schlechter finde ich. Die Krone der schlechten Artikel darf sich aber dieses Mal verdientermassen Hardwareluxx aufsetzen :D.

Gast
2007-05-15, 16:41:01
Tja, willkommen in der Welt, wo jeder seine Test so anpasst, wie es ihm gefällt. Es testet heutzutage auch keiner mehr mit A.I off und HQ - da hat nVidia eindeutig die Nase vorn dank der vierfachen Menge an INT8 Filterunits.
Ich spiele zum Beispiel nur mit HQ auf meiner 8800GTX, daher finde ich Tests mit Q nichtssagen. Schade, dass man wohl noch eine Weile warten muss, bis es Tests gibt, die auch A.I off und HQ verwenden. :(
Was bringt dir das? Du hast doch eh eine GTX und jeder der sich ein bisschen auskennt, weiß dass nV momentan besser ist. Ein R600 wird doch eh nur von ATi-Sympatisanten und Leuten gekauft, die experimentierfreudig sind oder das Ding mit guter Kühlung quälen werden.

HOT
2007-05-15, 16:43:01
doch, damit tri vs tri verglichen wird und nix anderes

mfg
Das ist schön einfach. Was meinst du mit tri? Vollkommen Trilinear, wie es der Geforce1 gemacht hat? Sowas gibts eh nicht mehr.

Godmode
2007-05-15, 16:45:51
Das ist schön einfach. Was meinst du mit tri? Vollkommen Trilinear, wie es der Geforce1 gemacht hat? Sowas gibts eh nicht mehr.

Hee? Seit wann den?

desert
2007-05-15, 16:46:09
Ganz einfach weil nvidia seit 2 jahren nur einstecken musste wegen ihrer bq auf g70 und g71. Und das auch zu recht.

Nur jetzt wo es andersrum ist, wird immernoch a.i. standard gebencht. Wo bleibt da die fairness.

und alle welt tut so als wäre nvidia immer noch schlechter in der bq wie man ja hier schön im forum sehen kann. Da wird ja schon 16 aa auf ati mit 16xssaa auf dem g80 von der bildqualität in verbindung gebracht.

Soviel verklärung und blinde heldenverehrung (r600) das habe ich selbst in 12 jahren computer hobby noch nicht gesehen.

Ri*g*g*er
2007-05-15, 16:46:15
Hi all,

ich sag nur:

A.I. off vs NV HQ wäre Fair !!!

Wenn ich mit einer Auflsöung von 1920 x 1200 Battlefield 2 mit folgenden Einstellungen spiele:

4 AA InGame
16 AF HQ im Treiber

und das ganze dann einmal mit A.I. (On) oder (Off) zocke ist das

1. zu sehen
und
2. habe ich durch A.I. (Off) einen herben FPS Einbruch und ich rede hier nicht von 10-15 %

Jetzt muss man nur mal schaun wie alt BF2 ist und das auf neue Spiele umsetzten, dann würde man sehen wieviel die A.I. Optimierungen bringen usw.

Die sollen endlich Spiele-Optimierungen von der AF Qualität entkoppeln.
Das muss von uns nur laut genug gefordert werden, genau wie es mal bei Nvidia der Fall war.

Ich bin kein Fan-Boy einer Marke hatte alles schon quer Beet.
Hab den Release des R600 abgewartet um zu sehen was
"Butter bei den Fischen ist" tja Fazit:

X1900XT über den Sommer behalten und in Ruhe die Refresh Chips beider Lager mit entsprechenden Treibern abwarten und vor allem erstmal DX10 Games auf den Markt kommen lassen.
Stichwort: Die-Shrinks und DDR 4 Ram bei beiden Herstellern.

Ist doch ganz einfach:
Warten bis Unreal Tournament 3 auf dem Markt ist und die Grafikkarte kaufen die dort bessere Performance zeigt *G*

So war es früher doch mal "Software sells Hardware"

Schönen Gruss
Ri*g*g*er

HOT
2007-05-15, 16:46:39
Hee? Seit wann den?
Seit dem es Optimierungen gibt ;). Nein spass bei Seite. Sie sind ja trilinear, fragt sich nur ob das immer und überall so ist.

BAGZZlash
2007-05-15, 16:52:35
Hey, mal was ganz anderes: Weiß einer, wo es das Video der Call-of-Juarez-Direct3D10-Demo in guter Quali (am besten in HD) zu sehen gibt? Kenne bis jetzt nur das Ding auf Golem.de (http://www.golem.de/0705/52259-6.html).

Godmode
2007-05-15, 16:54:34
Hey, mal was ganz anderes: Weiß einer, wo es das Video der Call-of-Juarez-Direct3D10-Demo in guter Quali (am besten in HD) zu sehen gibt? Kenne bis jetzt nur das Ding auf Golem.de (http://www.golem.de/0705/52259-6.html).

Wow, das sieht aber nett aus, kannte ich noch gar nicht. Vor allem das Wasser und der Wasserfall gefallen mir.

HOT
2007-05-15, 16:57:41
OT: desert, schieb mich ruhig in die Ecke, mir egal. Diese plumpe Anmache ist reichlich sinnlos, mal ganz zu schweigen von dem Herrn Gast eben, der garnichts sinnvolles beizutragen hatte, ausser mich zu beschimpfen :D.
Mich regt genau das Gegenteil auf, das dich hier aufregt, und das ist der AI Kreuzzug, der hier gerne von den NV Jüngern betrieben wird. Der Unterschied wird total übertrieben dargestellt, als wenn AI Standard NVs Quality entsprechen würde. Das tut es nicht, jedenfalls nicht, wenn es innerhalb der jeweiligen Generationen miteinander vergleichen wird. Es macht nur sinn, die höchste sinnvolle Einstellung gegenüberzustellen und das haben nahezu alle Reviewer (dieses Mal) getan, inklusive des 3DC. Auch HT4U bencht sicherlich nicht mehr auf AI off beim R600.

Das AI off sinnlos ist, steht im Übrigen auch im 3DC Artikel.

dildo4u
2007-05-15, 16:57:50
Hey, mal was ganz anderes: Weiß einer, wo es das Video der Call-of-Juarez-Direct3D10-Demo in guter Quali (am besten in HD) zu sehen gibt? Kenne bis jetzt nur das Ding auf Golem.de (http://www.golem.de/0705/52259-6.html).
Nich unbedingt HD aber besser als auf der Website.

http://194.71.11.70/pub/games/PC/guru3d/generic/r6/COJ_DX10_benchmark.wmv

eXodia
2007-05-15, 17:05:39
Es kann doch aber nicht sein, dass ich bei einer +350€ Graka nicht einfach auf die AMD seite gehen kann, mir den Treiber ziehe, und fertig. Wo kommen wir denn da hin, wenn ich dann auf meinem Sys sogar noch ein BetaTreiber installieren muss. Am besten noch jeden Monate mehrere Treiber, damit man immer was zu tun hat :| - nur da mit man dann in ein paar Monaten evtl. sich wirklich mehr an der GTX orientieren kann, von der Ultra mal ganz zu schweigen, dass kann's imo nicht sein. Der R600 ist keine schlechte Karte, nur geht mir dieses Treibergeheule enorm gegen den Strich, denn auch beim G80 launch hat man nicht annähernd so einen Aufriss gemacht, nach dem Motto: "Nein, wie kannst du dir nur erdreisten den 8.32.454.3235.5 zu testen, statt den 8.32.454.3235.6, denn der bietet nochmal +5% und bei HL2 verschwinden dann auch keine Zäune mehr".

Regards

PCGH_Carsten
2007-05-15, 17:07:04
Ich habe mir Freitag mal den Spaß gemacht. In NFS Carbon verliert die HD2900 XT durch AI off (wenn es denn wirklich ausgeschaltet wird...) in 1600x1200 mit 16:1 AF maximal 2 Prozent. Texturlastigere Titel könnten stärker profitieren.

Gast
2007-05-15, 17:18:08
nur geht mir dieses Treibergeheule enorm gegen den Strich, denn auch beim G80 launch hat man nicht annähernd so einen Aufriss gemacht, nach dem Motto: "Nein, wie kannst du dir nur erdreisten den 8.32.454.3235.5 zu testen, statt den 8.32.454.3235.6, denn der bietet nochmal +5% und bei HL2 verschwinden dann auch keine Zäune mehr".

Stimmt, da sind die User gleich auf die barrikaden gegangen und haben NVIDIA verklagt: http://www.heise.de/newsticker/meldung/84984 :ulol:

Reißt euch mal zusammen, das wird hier langsam lächerlich! Wer eine Hardware gleich nach Launch kauft, ist selbst schuld.

Selbst Branchengrößen wie Intel, ASUS, Microsoft und viele mehr schaffen es nicht fehlerfreie Hard und Software zu liefern. Wenn ihr wüsstest, wie komplex das alles ist, würdet ihr hier nicht so einen Terz machen.

Ich weiß gar nicht, warum hier rumgeheult wird: Wartet noch 4-8 Wochen, dann bekommt ihr die Hardware sogar günstiger und habt einen anständigen Treiber dazu...

Wer jetzt kauft und dann so gutgläubig ist, das bei einem "alles ist neu" Produkt auf Anhieb keine Probleme stehen, der muss wirklich blauäugig sein!!

F5.Nuh
2007-05-15, 17:23:04
Reißt euch mal zusammen, das wird hier langsam lächerlich! Wer eine Hardware gleich nach Launch kauft, ist selbst schuld.


Das ist IMMER SO!! Wann ist mal bitte was neues auf den markt mit wirklich sehr gut funktionierenden treibern erschienen?!? soweit ich weiss NIE oder sehr SELTEN!!

Ich bin mir ziemlich sicher, das die neuen ATI Karten ordentlich an Performance gewinnen werden sobald gute treiber draussen sind. Das war schon immer so und wird auch so bleiben. Beim G80 war es auch nicht anders, daher abwarten und Tee trinken :ucoffee:

Undertaker
2007-05-15, 17:23:24
Ich schon. Ich hab meine GraKas gern länger als ein Jahr im Rechner. Meine X1900XTX steht im Performancevergleich zu NV mittlerweile deutlich besser da, als noch vor 1 Jahr. Vll. ist das aber auch schon das Problem von ATI. Nämlich, dass sich keine Karten für unsere Wegwerfgesellschaft produzieren. Wenn ich sehe, was DA von manchen NV-Aufrüstheines an Elektronikschrott produziert wird, wird mir noch viel eher übel, als bei einem verkorksten ATI-Launch...


joa, sieht man auch an den x1800ern wie geil die mittlerweile dastehen :D

eXodia
2007-05-15, 17:23:30
Stimmt, da sind die User gleich auf die barrikaden gegangen und haben NVIDIA verklagt: http://www.heise.de/newsticker/meldung/84984 :ulol:

Ich bezog mich, und das hab ich auch so geschrieben, auf Reviews. Es kann ja wohl nicht sein, dass man förmlich, wird einem hier ja teilweise sogar empfohlen, um Treiber betteln muss, von wegen "schreib' denen mal 'ne mail etc." - Hallo? Ich hab' grad 'ne Graka für +350€ gekauft und da lauf' ich doch dann nicht meinen Treibern hinterher.

Regards

LovesuckZ
2007-05-15, 17:58:30
Ich habe mir Freitag mal den Spaß gemacht. In NFS Carbon verliert die HD2900 XT durch AI off (wenn es denn wirklich ausgeschaltet wird...) in 1600x1200 mit 16:1 AF maximal 2 Prozent. Texturlastigere Titel könnten stärker profitieren.

Jetzt wäre interessant, ob die 2900XT mit AA prozentual stärker einbricht als die X1950XTX (oder eine andere Vorgängerkarte). Da Carbon sehr schön mit der Rechenleistung skaliert, müsste sie, wenn die Sache mit dem AA stimmen sollte, stärker nachgeben.

Superheld
2007-05-15, 18:01:21
del pls

Mr. Lolman
2007-05-15, 18:01:44
Jetzt wäre interessant, ob die 2900XT mit AA prozentual stärker einbricht als die X1950XTX (oder eine andere Vorgängerkarte). Da Carbon sehr schön mit der Rechenleistung skaliert, müsste sie, wenn die Sache mit dem AA stimmen sollte, stärker nachgeben.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung

EDIT: zu langsam. *plz delete*

BAGZZlash
2007-05-15, 18:03:47
Nich unbedingt HD aber besser als auf der Website.

http://194.71.11.70/pub/games/PC/guru3d/generic/r6/COJ_DX10_benchmark.wmv

Cool, danke. Geht zwar ultralahm (sauge gerade noch), aber ich hoffe! :smile:

][immy
2007-05-15, 18:39:28
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung

EDIT: zu langsam. *plz delete*


mhh... also da scheint wirklich noch einiges an potential im treiber zu stecken. schließlich sollte schon aufgrund der massiven bandbreite der wert nicht so stark zurückgehen

hoffentlich kommt bald mal ein finaler und entbugter treiber

Coda
2007-05-15, 18:56:32
Oder die ROPs sind tatsächlich futsch.

Dass die Karte prozentual mehr einbricht als die Radeon X1950 XTX ist zwar logisch, da letzterer einfach die Rohleistung fehlt,...
Hä?

Odal
2007-05-15, 19:10:21
bei dem satz hab ich mich auch etwas gewundert....weil bandbreite ist in hülle und fülle vorhanden oder meinen die das ROP/ALU verhältnis?

BAGZZlash
2007-05-15, 19:10:51
Cool, danke. Geht zwar ultralahm (sauge gerade noch), aber ich hoffe! :smile:

Ach, ich hab' grad' gesehen, daß der Kram bei Guru3D (http://www.guru3d.com/article/Videocards/431/17/) verlinkt ist, da gibt's noch mehr Videos. Aber ich muß sagen: Ist eher Blenderkram, oder? Das Normalmapping bei Fireplace sieht scheiße aus und kostst in einer DirectX9-Implementierung sicher auch nicht die berühmte "viel mehr" Performance. Und auf den Bergen sind nur neue Texturen, oder?

seahawk
2007-05-15, 19:34:45
Ein fairer Vergleich von ATI zu NV ist

ATI : A.I. Standard und ETAM
NV : HQ und TSAAM

:lol:

Vertigo
2007-05-15, 19:40:31
Ein fairer Vergleich von ATI zu NV ist

ATI : A.I. Standard und ETA;
NV : HQ und TSAAM

:lol:
Was ist ETA?

EDIT: Ach so, Du meintest EATM. Nun, das mag in bestimmten Konstellationen sogar zutreffend sein. Im Vergleich G80 vs. R600 sicher nicht.

Liszca
2007-05-15, 20:01:48
Mal anders gefragt, welchen vorteil hat die karte, mir kommt echt keiner in den sin. Bei der geforce 3 vs r 8500 konnte man sich ja zwischen aa und af entscheiden, aber hier?

sulak
2007-05-15, 20:02:57
Was ist ETA?

EDIT: Ach so, Du meintest EATM. Nun, das mag in bestimmten Konstellationen sogar zutreffend sein. Im Vergleich G80 vs. R600 sicher nicht.

Ich frag nur ungern, aber welches EATM. Das mit SSAA Anteil oder das mit MSAA Anteil und vielen Registry Einträgen, die vieleicht in grauer Zukunft mal gescheit in den Treiber eingebaut werden (ach ich vergaß es gibt ja keine Profile...).

BTW hat doch Computerbase alle Benches in der Kombi gemacht oder ;)

Vertigo
2007-05-15, 20:04:27
Mal anders gefragt, welchen vorteil hat die karte, mir kommt echt keiner in den sin. Bei der geforce 3 vs r 8500 konnte man sich ja zwischen aa und af entscheiden, aber hier?
Vorteile gegenüber der alten ATI-Generation sind ja vorhanden und manche User meiden nVidia wie der Teufel das Weihwasser ... aber einen rationalen Grund für den Anwender sehe ich aktuell nicht. Allein wegen den unausgegorenen Treibern würde ich die Karte jetzt nicht kaufen. In ein paar Monaten, wenn sich alles normalisiert hat, könnte man neue Überlegungen anstrengen.

EDIT: Deine Signatur ist einfach nur :massa: X-D

Armaq
2007-05-15, 22:14:26
Ich glaube auch, dass viele übersehen wie lange die Leistung einer 8800er reichen wird und muss. Ich glaube nicht, dass nach diesem Glanzstück nochmal ein großer Sprung kommt. Der letzte war NV40 und jetzt G80. Dazwischen gabs nix wirklich interessantes, meiner Meinung nach (von Nvidia).

ATI muss nach x1xx erstmal zeigen, dass da noch was kommt und passt. Leider.

Coda
2007-05-15, 22:16:13
joa, sieht man auch an den x1800ern wie geil die mittlerweile dastehen :D
G80 ist aber nicht G70. Ganz und gar nicht.

Mr. Lolman
2007-05-15, 22:18:03
G80 ist aber nicht G70. Ganz und gar nicht.

Und G70 war auch nicht NV40 und NV40 auch nicht NV3x. Ganz und gar nicht *scnr*

Coda
2007-05-15, 22:24:20
G8x hat mit letzteren Beiden nichts mehr zu tun. Auch die Gedankenväter sind Grundverschieden. G80 könnte vom Architekturbruch eigentlich auch einfach von einem anderen Hersteller sein. Nur weil etwas früher so war wiederholt es sich nicht automatisch.

Ach btw. will ich nur mal anmerken, dass X1800 damals wenigstens genau die gleiche Texturfüllrate wie eine 7800GTX hatte. War also prinzipiell schonmal gleich schnell. G8x hat aber mal eben die 3x. Und dazu sind die ALUs nicht langsamer im Durchschnittsfall und zusätzlich die Textureinheiten voll entkoppelt.

Wo genau soll die R600 da noch einen solchen Schub bekommen (50% wären ja locker nötig)? Dazu kommen die augenscheinlichen ROP-Bugs.

Aber wart's einfach ab. Wirst schon sehen. Und komm mir nicht mit der GS-Leistung, falls G8x dafür wirklich untauglich ist wird das Feature genauso viel Verwendung finden wie dyn. branching auf D3D9-Karten.

dildo4u
2007-05-15, 22:25:20
Und G70 war auch nicht NV40 und NV40 auch nicht NV3x. Ganz und gar nicht *scnr*
Der G80 ist eine komplette Neuentwicklung die neben der normalen GPU Linie NV30-NV40-G70 seit 2002 entwicklet wurde.

"Jetzt, mit dem NV50, der aber G80 heißt (Namen sind Schall und Rauch), steht uns wieder eine wirklich neue Architektur ins Haus. Gleichzeitig besinnt sich Nvidia auf einige alten Tugenden. Mit dem G80 wurde der Grundstein für die Nvidia-GPUs der nächsten Jahre gelegt."

http://www.3dcenter.org/artikel/2006/12-28_a.php

Gast
2007-05-15, 22:25:42
joa, sieht man auch an den x1800ern wie geil die mittlerweile dastehen :D

Ja, A.I. sei dank. Toll gemacht ATI! :rolleyes:

The_Invisible
2007-05-15, 22:30:44
Ein fairer Vergleich von ATI zu NV ist

ATI : A.I. Standard und ETAM
NV : HQ und TSAAM

:lol:

witzbold...

btw
hardtecs4u wird garantiert mit AI off benchen, da können sich hier manche sträuben wie sie wollen

mfg

Sterem
2007-05-15, 22:33:05
Ja, A.I. sei dank. Toll gemacht ATI! :rolleyes:

Die X1800 XT ist aber um längen schneller als eine 7800 GTX.:confused:

HOT
2007-05-15, 23:20:38
G8x hat mit letzteren Beiden nichts mehr zu tun. Auch die Gedankenväter sind Grundverschieden. G80 könnte vom Architekturbruch eigentlich auch einfach von einem anderen Hersteller sein. Nur weil etwas früher so war wiederholt es sich nicht automatisch.

Ach btw. will ich nur mal anmerken, dass X1800 damals wenigstens genau die gleiche Texturfüllrate wie eine 7800GTX hatte. War also prinzipiell schonmal gleich schnell. G8x hat aber mal eben die 3x. Und dazu sind die ALUs nicht langsamer im Durchschnittsfall und zusätzlich die Textureinheiten voll entkoppelt.

Wo genau soll die R600 da noch einen solchen Schub bekommen (50% wären ja locker nötig)? Dazu kommen die augenscheinlichen ROP-Bugs.

Aber wart's einfach ab. Wirst schon sehen. Und komm mir nicht mit der GS-Leistung, falls G8x dafür wirklich untauglich ist wird das Feature genauso viel Verwendung finden wie dyn. branching auf D3D9-Karten.
Ohne AA liegt der Chip jetzt kurz vor der G8 GTX in den meisten Reviews. Wenn sie jetzt noch ihre Muskeln mit heilen ROPs ausspielen könnte mit ihrer Speicherbandbreite darfst du 3x raten wo sie dann wäre im Vergleich 8x AA zu 8x AA... Mit defekten ROPs jedoch spielt der R600 mit AA eher in einer Liga mit dem R580 und vielleicht noch der G8 GTS, manchmal. Alles steht und fällt mit diesem Problem.

James Ryan
2007-05-16, 12:03:17
Und G70 war auch nicht NV40 und NV40 auch nicht NV3x. Ganz und gar nicht *scnr*

Diese 3 Chips basieren aber aufeinander und sind sich ähnlich.
Der G80 hingegen ist, wie CODA schon gesagt hat, komplett anders und könnte ebenso von einem anderen Hersteller kommen.

By the way, ich möchte mal wissen wieviel "R300" noch im R600 steckt. Die R4xx Generation war ja quasi ein gepimpter R300, die R5xx Generation enthielt AFAIK auch noch relativ viel "R300"-Design.

MfG :cool:

seahawk
2007-05-16, 12:05:26
Warum sollte sich das ändern. R200 hielt auch länger als die GeForce 3. ATI hat seitdem immer die zukunftsträchtigeren Chips gebaut.

MadManniMan
2007-05-16, 12:18:05
Ohne AA liegt der Chip jetzt kurz vor der G8 GTX in den meisten Reviews. Wenn sie jetzt noch ihre Muskeln mit heilen ROPs ausspielen könnte mit ihrer Speicherbandbreite darfst du 3x raten wo sie dann wäre im Vergleich 8x AA zu 8x AA... Mit defekten ROPs jedoch spielt der R600 mit AA eher in einer Liga mit dem R580 und vielleicht noch der G8 GTS, manchmal. Alles steht und fällt mit diesem Problem.

Schön und gut, daß der R600 ohne AA/AF konkurrenzfähig ist, aber wem nützt das? Aber darum geht es Dir ja auch nicht.

Würden die ROPs buglos sein, hätten wir sicher einen anderen König unter 8*AA. Aber selbst das nützt ja noch nichts, denn wer appliziert 8*AA ohne AF? Bei CoD2 in 16*12 hat die computerbase (ohne AA :usweet: ) für 16*HQ AF beim G80 14%, für jenes beim R600 55% Verlust gemessen. Sicher ist das ein Extremfall, aber es deutet an, daß ein heiler R600 eine tolle MSAA-Karte, aber eben eine durchwachsene AA/AF Karte wäre.
Es fehlt an Texturleistung. Deutlich.

Godmode
2007-05-16, 12:40:34
Schön und gut, daß der R600 ohne AA/AF konkurrenzfähig ist, aber wem nützt das? Aber darum geht es Dir ja auch nicht.

Würden die ROPs buglos sein, hätten wir sicher einen anderen König unter 8*AA. Aber selbst das nützt ja noch nichts, denn wer appliziert 8*AA ohne AF? Bei CoD2 in 16*12 hat die computerbase (ohne AA :usweet: ) für 16*HQ AF beim G80 14%, für jenes beim R600 55% Verlust gemessen. Sicher ist das ein Extremfall, aber es deutet an, daß ein heiler R600 eine tolle MSAA-Karte, aber eben eine durchwachsene AA/AF Karte wäre.
Es fehlt an Texturleistung. Deutlich.

Sehr gut dazu passend diese Seite:
http://www.beyond3d.com/content/reviews/16/13

Gast
2007-05-16, 12:45:11
Sehr gut dazu passend diese Seite:
http://www.beyond3d.com/content/reviews/16/13

Das ist nur die "halbe" Wahrheit, da hier bilinear gefiltert wird, un somit 32 Filtereinheiten bei der 8800GTX brachliegen.
Bei der trilinearen Filterung erreicht die 2900XT in einigen Vergleichen nur 25% der Leistung einer 8800GTX (100%).

James Ryan
2007-05-16, 12:46:58
Warum sollte sich das ändern. R200 hielt auch länger als die GeForce 3. ATI hat seitdem immer die zukunftsträchtigeren Chips gebaut.

Nur kam die 8500er auch viel zu spät und der Gegner war eher die Gf 4 Ti. :rolleyes:
Seit der NV30/R300 Ära bot ATi das bessere Gesamtpaket, dies ist aber seit spätestens Montag Geschichte!
Und sorry, ich kann mir nicht vorstellen dass der R600 auch mit deutlich besseren Treibern noch unter FSAA + AF ordentlich was reißen wird...

MfG :cool:

Odal
2007-05-16, 12:51:43
Und sorry, ich kann mir nicht vorstellen dass der R600 auch mit deutlich besseren Treibern noch unter FSAA + AF ordentlich was reißen wird...

MfG :cool:

ich mir schon (gesetz dem fall die ROPs sind technisch ok) und nun?

James Ryan
2007-05-16, 12:54:54
ich mir schon (gesetz dem fall die ROPs sind technisch ok) und nun?

Time will tell... ;)

MfG :cool:

seahawk
2007-05-16, 12:57:31
ich mir schon (gesetz dem fall die ROPs sind technisch ok) und nun?

Was ich aber nicht glaube, weil die Implementation des Box-AA in konventioneller From sollte sogar einfacher sein, als das Sahder-AA.

Lawmachine79
2007-05-16, 13:00:17
ich mir schon (gesetz dem fall die ROPs sind technisch ok) und nun?
Bleibt noch die miserable Texturleistung. Die TMUs sind technisch ok. Sind aber zu wenige.
Die Kette ist so stark wie das schwächste Glied. Bei ATI gibt es zwei schwächste Glieder: ROPs + TMUs. ROPs kann man (VIELLEICHT!) regeln. TMUs nicht.
Und nun?

Gast
2007-05-16, 13:05:20
Warum sollte sich das ändern. R200 hielt auch länger als die GeForce 3. ATI hat seitdem immer die zukunftsträchtigeren Chips gebaut.

Eben. Selbst ein R100 Distanziert heute einen NV10/15 deutlich.

Gast
2007-05-16, 13:08:50
Und dazu sind die ALUs nicht langsamer im Durchschnittsfall


Das kann man IMO noch gar nicht beurtielen. Teilweise dreht der R600 mähctig auf, und tw. kämpft er extrem mit seinen Kinderkrankheiten und fällt sogar hinter R580 zurück. Im gegensatz zu einem G80, bei dem Architekturbedingt durch den Compiler kaum mehr mehr ALU-leisztung hersugeholt werden kann, sollte da bei R600 noch mächtig optimierungspotentila stecken.

BlackBirdSR
2007-05-16, 13:14:36
Ohne AA liegt der Chip jetzt kurz vor der G8 GTX in den meisten Reviews. Wenn sie jetzt noch ihre Muskeln mit heilen ROPs ausspielen könnte mit ihrer Speicherbandbreite darfst du 3x raten wo sie dann wäre im Vergleich 8x AA zu 8x AA... Mit defekten ROPs jedoch spielt der R600 mit AA eher in einer Liga mit dem R580 und vielleicht noch der G8 GTS, manchmal. Alles steht und fällt mit diesem Problem.

Vielleicht muss man sich aber auch eingestehen, dass ATI Mist gebaut hat?
Nvidia hat sich beim NV30 verkalkuliert, und ATI scheint hier Ähnliches wiederfahren zu sein. Wenn dann noch Bugs und Treiberprobleme aufeinandertreffen, sieht die Sache nunmal nicht rosig aus.

Nvidia hatte zum NV30/35 zwei sehr schlagkräftige Argumente: Marketing, und sehr hohe Leistung bei älteren und zeitgenössischen Titeln (DX7/8/OpenGL).
Beides fehlt ATI meiner Meinung nach.

Gast
2007-05-16, 13:17:30
Bleibt noch die miserable Texturleistung. Die TMUs sind technisch ok. Sind aber zu wenige.
Die Kette ist so stark wie das schwächste Glied. Bei ATI gibt es zwei schwächste Glieder: ROPs + TMUs. ROPs kann man (VIELLEICHT!) regeln. TMUs nicht.
Und nun?

Die TMUs sind im Vergelich zu G80 relativ wenig, das stimmt. Allerdings gibt es auch hier Indizien, dass die Zeit für, und nicht gegen R600 spielt. Immerhin können diese selbst FP16 full-speed filtern. Dann gibt es genau wie bei G80 32 Adressierungseinheiten und zusätzlich 80 FP32 Sampler. Dann noch ein verdammt fetter Texturcache. Die TMUs können also völlig ungestört arbeiten, und erreichen fast immer den peak-Wert, während bei G80 die TMUs für vertexfetches,etc. zusätzlich belastet werden.

cl55amg
2007-05-16, 13:18:42
Die Hauptfrage ist doch ob es wirklich einen Bug in den ROP EInheiten gibt?
Wenn das so wäre dann braucht man nicht mehr großen auf einen Treiber zu hoffen...

Lawmachine79
2007-05-16, 13:19:38
Die TMUs sind im Vergelich zu G80 relativ wenig, das stimmt. Allerdings gibt es auch hier Indizien, dass die Zeit für, und nicht gegen R600 spielt. Immerhin können diese selbst FP16 full-speed filtern. Dann gibt es genau wie bei G80 32 Adressierungseinheiten und zusätzlich 80 FP32 Sampler. Dann noch ein verdammt fetter Texturcache. Die TMUs können also völlig ungestört arbeiten, und erreichen fast immer den peak-Wert, während bei G80 die TMUs für vertexfetches,etc. zusätzlich belastet werden.

Ja, ein weiteres INDIZ. Es sind zu viele Wenns und Abers, an der eine positive Entwicklung des R600 hängt.

Odal
2007-05-16, 13:22:59
Bleibt noch die miserable Texturleistung. Die TMUs sind technisch ok. Sind aber zu wenige.
Die Kette ist so stark wie das schwächste Glied.

Nur das Ketten und DX10 GPUs nicht äquivalent sind.


Bei ATI gibt es zwei schwächste Glieder: ROPs + TMUs. ROPs kann man (VIELLEICHT!) regeln. TMUs nicht.
Und nun?

Die Karte bringt ohne AA&AF eine sehr beeindruckende Leistung für den Preis...schaltet man AA%AF hinzu sinkt diese Leistung...bei z.b. 4xAA auf 50-60% der Rohleistung....durch die ernorme Bandbreite sollte 4xAA eigentlich sogut wie garnichts kosten.....
addiere man auf die AA&AF Leistung der 2900XT mal min. 30-40% drauf was das AA zuviel kostet bekommt man eine Leistung die in Bereichen der 8800GTX mitspielt...dabei ist es egal das die 2900XT einen tmu mangel besitzt...
ausser man nutzt kein AA und nur AF dann ist sie natürlich abgeschlagen....

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung


der 2900XT wird nicht der mangel an füllrate zum verhängnis weil das ist eine so geplante designentscheidung...ATI setzt auf arithmetikleistung und NVidia auf texturleistung...nein der 2900XT wird zum verhängnis das das AA mit nichten so arbeitet wie es geplant war....ob das ein software oder hardwareproblem ist entzieht sich bisher meiner kenntnis.

Gast
2007-05-16, 13:25:13
Das kann man IMO noch gar nicht beurtielen. Teilweise dreht der R600 mähctig auf,

Wo? Die einzigen Tests, in den dieses Bild auftaucht, sind von AMD herausgegeben.

Im gegensatz zu einem G80, bei dem Architekturbedingt durch den Compiler kaum mehr mehr ALU-leisztung hersugeholt werden kann, sollte da bei R600 noch mächtig optimierungspotentila stecken.

Auch kann mit der Erfahrung mehr Leistung erreicht werden. Es ist eine neue Architektur, viele Dinge müssen erst erlernt werden.
Und nie vergessen: Selbst bei FP16 - Filterung hat die GTS genauso viel und die GTX eine 60% höhrere Texturleistung!

MadManniMan
2007-05-16, 13:35:30
Odal,
nicht böse gemeint, aber willst Du es nicht einsehen?

Ohne AA/AF sind R600 und G80 beide top. Für nur AF gilt G80 > R600 - und das deutlich, da es an Texturleistung fehlt. Für nur AA ists momentan das ROP-Problem (es deutet alles auf einen Bug hin), was ebenso deutlich den G80 überwiegen läßt. Wir sollten nicht davon ausgehen, daß die ROPs plötzlich funktionieren.
Was haben wir nun also? (G80 > R600) x 2. Was ergibt das?

Gast
2007-05-16, 13:39:16
Eben. Selbst ein R100 Distanziert heute einen NV10/15 deutlich.

Träum mal schön weiter.

Gast
2007-05-16, 13:40:19
rosig aus.

Nvidia hatte zum NV30/35 zwei sehr schlagkräftige Argumente: Marketing, und sehr hohe Leistung bei älteren und zeitgenössischen Titeln (DX7/8/OpenGL).
Beides fehlt ATI meiner Meinung nach.

Nicht zu vergessen den ausgezeichneten AF-Filter des NV30.

Odal
2007-05-16, 13:44:56
Odal,
nicht böse gemeint, aber willst Du es nicht einsehen?

Ohne AA/AF sind R600 und G80 beide top. Für nur AF gilt G80 > R600 - und das deutlich, da es an Texturleistung fehlt. Für nur AA ists momentan das ROP-Problem (es deutet alles auf einen Bug hin), was ebenso deutlich den G80 überwiegen läßt. Wir sollten nicht davon ausgehen, daß die ROPs plötzlich funktionieren.
Was haben wir nun also? (G80 > R600) x 2. Was ergibt das?

was soll ich denn einsehen? ich habe doch schon oft genug geschrieben das der R600 im jetzigen zustand nicht kaufbar ist....genauso hab ich geschrieben wenn die ROPs wirklich einen hardwarebug haben der sich per software nicht performant kompensieren lässt dann finger weg...

wenn sich das mit dem AA klären sollte ist das ein ziemlich gutes teil auch mit der "schwachen" filterleistung....denn mit aa&af würde er dann deutlich über der GTS liegen und nahe an die GTX kommen.....natürlich wär da mit höherer füllrate noch mehr drin...aber ohne das AA problem käme das teil der GTX jetzt schon gefährlich nahe....

Gast
2007-05-16, 13:48:18
Odal,
nicht böse gemeint, aber willst Du es nicht einsehen?


Was soll man denn einsehen? Man darf doch wohl auch das mögliche Potential, bzw. die positiven Elemente des R600 hervorheben, ohne gleich einen Kommentar auf Oberlehrer zu bekommen.

Odal
2007-05-16, 13:52:01
ich verstehe nicht wieso alle immer auf dem AF herumreiten..es ist klar das der R600 eine vergleichsweise miese AF leistung besitzt denn so wurde er designt....das muss aber nicht bedeuten das seine gesamtleistung mies sein wird....

das problem ist eindeutig das AA

zeigt auch sehr schön dieser abschnitt hier

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/30/#abschnitt_tomb_raider_legend

4xAA genausoviel FPS wie 8xAA da ist irgendwo mächtig was im argen

seahawk
2007-05-16, 13:55:14
Oder die AF Leistung limtiert bereits, da beides mit 16xAF.

Siehe auch hier : http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/29/#abschnitt_stalker

Lawmachine79
2007-05-16, 13:58:04
das problem ist eindeutig das AA

zeigt auch sehr schön dieser abschnitt hier



http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung

Das AA ist eindeutig EINS der Probleme - auch der AF - Einbruch, OHNE AA bewegt sich im Bereich 30 - 50%, Tendenz zu 50%.
AF - Einbruch durch Flaschenhals TMUs
AA - Einbruch durch Flaschenhals ROPs
Eliminiert man AA/AF, fallen die beiden Flaschenhälse (fast) weg, der Chip kann jetzt seine Arithmetik/Geometrieleistung ausspielen und kommt auch in hohen Auflösungen auf gute bis hervorragende Ergebnisse.
Nur ist niemand so blöd sich so eine teure Karte zu kaufen, um dann mit Settings von 1998 zu zocken.
16xHQAF + 4xMSAA sind die absoluten MINDESTSETTINGS in denen man so eine Karte betreibt.
COD2: die Performance von 16xHQAF zu NoAF verbessert sich beim R600 um den Faktor 2,2. Beim G80 um den Faktor 1,16. Das sind beinahe Supersampling-mäßige Einbrüche beim R600.

[dzp]Viper
2007-05-16, 13:59:39
Nur ist niemand so blöd sich so eine teure Karte zu kaufen, um dann mit Settings von 1998 zu zocken.

Da unterliegst du einem Irrtum... gab mal auf 4players eine Umfrage. Nur rund 20% der Spieler nutzen am Ende AA/AF und davon rund 10% AF und gerade mal der Rest nur AA oder beides zusammen... die meisten wussten nicht mal was das ist :redface:

Odal
2007-05-16, 13:59:47
Oder die AF Leistung limtiert bereits, da beides mit 16xAF.

Siehe auch hier : http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/29/#abschnitt_stalker


das teil hat aber deutlich mehr leistung als eine x1950xtx fällt aber dennoch knapp dahinter zurück....in irgendeinem review wurde mal nur AA und nur AF und beides zusammen getestet...ich finds nur gerade nicht

Ronny145
2007-05-16, 14:01:41
Viper;5499544']Da unterliegst du einem Irrtum... gab mal auf 4players eine Umfrage. Nur rund 20% der Spieler nutzen am Ende AA/AF und davon rund 10% AF und gerade mal der Rest nur AA oder beides zusammen... die meisten wussten nicht mal was das ist :redface:


Wurden da nur Besitzer von High End Karten befragt? Bestimmt nicht. Da sollte das schon anders aussehen.

Lawmachine79
2007-05-16, 14:03:37
Viper;5499544']Da unterliegst du einem Irrtum... gab mal auf 4players eine Umfrage. Nur rund 20% der Spieler nutzen am Ende AA/AF und davon rund 10% AF und gerade mal der Rest nur AA oder beides zusammen... die meisten wussten nicht mal was das ist :redface:
Sauber Viper - ich muss mir gerade etwas verkneifen, aber egal.
Ich wette, daß auch nur 10% der Spieler einen G80/R600 haben. Wahrscheinlich weniger. Da krebsen doch noch viele mit einer 9800Pro oder einer 6600GT rum.

[dzp]Viper
2007-05-16, 14:07:02
Sauber Viper - ich muss mir gerade etwas verkneifen, aber egal.
Ich wette, daß auch nur 10% der Spieler einen G80/R600 haben. Wahrscheinlich weniger. Da krebsen doch noch viele mit einer 9800Pro oder einer 6600GT rum.

Ja und?

warst du mal auf ner LAN und hast dir dort die Einstellungen der Leute angeschaut? Selbst die, die High-End Karten haben spielen in den seltesten Fällen mit hohen AA/AF Stufen. (Leider.....)

Viele wissen garnicht was ihre High-End-Karten wirklich leisten können...
Nur weil hier im Forum so viele BQ-Freaks rumlaufen, hat das noch lange nichts mit der "wirklichen" Realität draussen zu tun.. (leider)

Ich war und bin immer wieder selber erstaunt wie oberflächlich sich manche mit dem Thema auskennen -aber Hauptsache die neuste und schnellste Hardware im Rechner haben....

Hauwech
2007-05-16, 14:09:44
Naja, je nachdem was da für Spiele auf einem LAN gespielt werden, sind da eher hohe fps statt Qualität gefragt. Das kann man so nicht pauschalisieren.

seahawk
2007-05-16, 14:12:42
das teil hat aber deutlich mehr leistung als eine x1950xtx fällt aber dennoch knapp dahinter zurück....in irgendeinem review wurde mal nur AA und nur AF und beides zusammen getestet...ich finds nur gerade nicht

gut ich glaube auch nicht, dass diese unterirdische AF Leistung in der Hardware begrübdet liegt, aber teilweise scheint sie momentan wohl der Flaschenhals zu sein.

Bei B3D gubt es ja Gerüchte, die der ganzen Architektur unterstelllen sehr viel Anpassugnen zu brauchen, bevor die Kombination (inkl. Ringbus) Leistung liefert.

MadManniMan
2007-05-16, 14:17:44
Odal,
Wie sollte der R600 ohne das AA Problem dem G80 gefählich nahe kommen, wenn die Texelleistung dafür nicht ausreicht?

Sauber Viper - ich muss mir gerade etwas verkneifen, aber egal.
Ich wette, daß auch nur 10% der Spieler einen G80/R600 haben. Wahrscheinlich weniger. Da krebsen doch noch viele mit einer 9800Pro oder einer 6600GT rum.

Oh, sowas Schnelles? In meinem Rechnerbekanntenkreis gibts ne Radeon 9600, ne Ti4200, meine alte Radeon 9500 Pro bei nem Kumpel, eine S3 Savage4, eine SiS 305 ... und so eine Intel-Onboad-Chips. Wenn die auch geantwortet haben, sind 20% noch viel.

Superheld
2007-05-16, 14:18:29
hier sieht man schön wie sie mit Af einbricht
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/20/#abschnitt_gothic_3

Odal
2007-05-16, 14:20:21
[QUOTE=MadManniMan;5499654]Odal,
Wie sollte der R600 ohne das AA Problem dem G80 gefählich nahe kommen, wenn die Texelleistung dafür nicht ausreicht?
[quote]

eine GPU besteht nicht aus texelleistung....jede architektur hat eben stärken und schwächen.....füllrate ist die schwäche des R600 AA sollte eigentlich eine der stärken sein ist aber derzeit eine Schwäche....darum liegt dieser derzeit sogar hinter einer 8800GTS

Lawmachine79
2007-05-16, 14:21:05
hier sieht man schön wie sie mit Af einbricht
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/20/#abschnitt_gothic_3

Gothic 3 ist noch ein rühmlicheres Beispiel - bei COD2 bricht sie gleich um 55% ein.

Godmode
2007-05-16, 14:21:34
Viper;5499588']Ja und?

warst du mal auf ner LAN und hast dir dort die Einstellungen der Leute angeschaut? Selbst die, die High-End Karten haben spielen in den seltesten Fällen mit hohen AA/AF Stufen. (Leider.....)

Viele wissen garnicht was ihre High-End-Karten wirklich leisten können...
Nur weil hier im Forum so viele BQ-Freaks rumlaufen, hat das noch lange nichts mit der "wirklichen" Realität draussen zu tun.. (leider)

Ich war und bin immer wieder selber erstaunt wie oberflächlich sich manche mit dem Thema auskennen -aber Hauptsache die neuste und schnellste Hardware im Rechner haben....

Full Ack! In meinem Freundeskreis wusste niemand was AA geschweige den AF ist, bis ich es ihnen erklärt habe. Eingestellt haben sie es dann trotzdem nicht, da ihnen das zu kompliziert wart, hauptsache sie können zocken. Einem selbst kommt das grausen wenn man solche Bilder ohne AA/AF sehen muss.

Aber es ist trotzdem kein Grund, wenn eine Highend Karte ohne AA/AF gute Ergebnisse bringt diese als gut zu beurteilen.

MadManniMan
2007-05-16, 14:26:49
eine GPU besteht nicht aus texelleistung....jede architektur hat eben stärken und schwächen.....füllrate ist die schwäche des R600 AA sollte eigentlich eine der stärken sein ist aber derzeit eine Schwäche....darum liegt dieser derzeit sogar hinter einer 8800GTS

Aber sind wir uns denn nicht einig, daß für eine aktuelle Karte mit 16*AF (was ich als wichtig für die Gesamtbetrachtung ansehe) Texturleistung besonders wichtig ist?

seahawk
2007-05-16, 14:30:58
Odal,
Wie sollte der R600 ohne das AA Problem dem G80 gefählich nahe kommen, wenn die Texelleistung dafür nicht ausreicht?


eine GPU besteht nicht aus texelleistung....jede architektur hat eben stärken und schwächen.....füllrate ist die schwäche des R600 AA sollte eigentlich eine der stärken sein ist aber derzeit eine Schwäche....darum liegt dieser derzeit sogar hinter einer 8800GTS

Aber die einzigen Stärken sehe ich in der Vertexshader-Leistung und evtl. in GS-Shader Leistung. Tesselation halte ich für die Lebensdauerder Karte für (leider) irrelevant. Die PS-Leistung soll ja, laut ersten Andeutungen aus B3D, nicht s oeinfach abrufbar sein.

Gast
2007-05-16, 14:33:00
Die PS-Leistung soll ja, laut ersten Andeutungen aus B3D, nicht s oeinfach abrufbar sein.

Abrufbar ist die PS-Leistung - siehe Xbox360 Portierungen. AMD's Nachteil ist, dass sie hier einen Xenos haben, auf den reine PC-Spiele und eventuell PS3 Umsetzungen nicht abgestimmt sind. Da ausserdem einige Recheneinheiten als SF Einheiten dienen, bleibt von der größeren Rechenleistung nicht mehr viel übrig.

Gast
2007-05-16, 14:36:02
ich versteh nicht ganz, wie ati sowas nicht vorher aufgefallen ist oder ist das die neue (alte) nvidia masche die hier übernommen wurde.....komische firmenpolitik zZ...

Odal
2007-05-16, 14:38:00
Aber sind wir uns denn nicht einig, daß für eine aktuelle Karte mit 16*AF (was ich als wichtig für die Gesamtbetrachtung ansehe) Texturleistung besonders wichtig ist?

16*AF Karten gab es auch schon in der Vergangenheit. Wie das "besonders wichtig" definiert wird da sind sich nicht einmal hochbezahlte ingeneure bei NVidea und ATI einig; warum sollten wirs dann sein?

Im R600 wurden die TMUs aufgebort und deren Takt erhöht. Warum sollte der Bedarf an Texturleistung überproportional steigen? Von diversen TMU verbesserungen profitiert der R600 unter DX9 nicht aber unter DX10....genauso von der enormen Bandbreite....ausser beim AA aber da ist ja bekanntlich was im Sack.

Vielleicht ist der R600 einfach nur weit vor seiner Zeit? Jedenfalls mit dieser unterirdischen AA leistung trotz anständiger Spezifikation auf dem Papier ist er im momentanzustand recht unbrauchbar.

Gast
2007-05-16, 14:43:30
Odal,
Wie sollte der R600 ohne das AA Problem dem G80 gefählich nahe kommen, wenn die Texelleistung dafür nicht ausreicht?


Wie sollte der R580 dem G71 gefählich nahe kommen, wenn die Texelleistung dafür nicht ausreicht?

Godmode
2007-05-16, 14:46:32
Wie sollte der R580 dem G71 gefählich nahe kommen, wenn die Texelleistung dafür nicht ausreicht?

Beim G71 waren die TMUs nicht entkopelt, dh Texturzugriffe im Shader blockierten die ALU1, was die ohnehin schon nicht so hohe Shaderleistung noch weiter schmälerte.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/3/#abschnitt_technik_im_detail_part_1
"Darüber hinaus hat nVidia auf dem G80 eine Schwachstelle des G71 entfernt. So war bei einer Texturoperation die Shader-Unit 1 kurzzeitig mit einer Latenz versehen, womit die Funktion der ALU ungenutzt blieb und unnötig Rechenleistung verschenkt wurde. Bei dem G80 sind die TMUs nun vollständig von den ALUs abgekoppelt, womit dieser „stall“ bei einer Texturoperation nicht mehr auftritt. nVidia konnte somit einige Transistoren einsparen und die GPU dementsprechend einfacher produzieren. Darüber hinaus sind die TMUs des G80 bei der anisotropen Filterung intelligenter. So kann der G71 bei anisotroper Filterung gewisse Winkel nicht mit der vollen Anzahl an Samples filtern, wodurch eine winkelabhängige Texturfilterung entsteht, die in einigen Spielen negativ auffällt. Der G80 beherrscht nun, wie der R5x0 von ATi, eine winkelunabhängige Texturfilterung.
"

http://pics.computerbase.de/1/5/8/8/6/33_m.jpg

MadManniMan
2007-05-16, 14:49:06
Beim G71 waren die TMUs nicht entkopelt.

...und zudem war die G71-Texturleistung nicht um solche Größenordnungen höher. Außerdem konnte der R580 seine Shader-Muskeln spielen lassen.

Odal
2007-05-16, 14:49:40
Wie sollte der R580 dem G71 gefählich nahe kommen, wenn die Texelleistung dafür nicht ausreicht?


so siehts aus

Texelfüllrate 7900GTX:15600 MTex/s X1900XTX:10400 MTex/s

ca. 33% weniger Füllrate und trotzdem nen drittel schneller

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

und das obwohl der G71 hier noch was einsparen dürfte durch die AF optimierungen

Godmode
2007-05-16, 14:52:09
so siehts aus

Texelfüllrate 7900GTX:15600 MTex/s X1900XTX:10400 MTex/s

ca. 33% weniger Füllrate und trotzdem nen drittel schneller

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

und das obwohl der G71 hier noch was einsparen dürfte durch die AF optimierungen


Ich würde eher sagen so siehts aus:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/3/#abschnitt_technik_im_detail_part_1
"Darüber hinaus hat nVidia auf dem G80 eine Schwachstelle des G71 entfernt. So war bei einer Texturoperation die Shader-Unit 1 kurzzeitig mit einer Latenz versehen, womit die Funktion der ALU ungenutzt blieb und unnötig Rechenleistung verschenkt wurde. Bei dem G80 sind die TMUs nun vollständig von den ALUs abgekoppelt, womit dieser „stall“ bei einer Texturoperation nicht mehr auftritt. nVidia konnte somit einige Transistoren einsparen und die GPU dementsprechend einfacher produzieren. Darüber hinaus sind die TMUs des G80 bei der anisotropen Filterung intelligenter. So kann der G71 bei anisotroper Filterung gewisse Winkel nicht mit der vollen Anzahl an Samples filtern, wodurch eine winkelabhängige Texturfilterung entsteht, die in einigen Spielen negativ auffällt. Der G80 beherrscht nun, wie der R5x0 von ATi, eine winkelunabhängige Texturfilterung.
"

http://pics.computerbase.de/1/5/8/8/6/33_m.jpg

...und zudem war die G71-Texturleistung nicht um solche Größenordnungen höher. Außerdem konnte der R580 seine Shader-Muskeln spielen lassen.

Gast
2007-05-16, 14:52:29
so siehts aus

Texelfüllrate 7900GTX:15600 MTex/s X1900XTX:10400 MTex/s

ca. 33% weniger Füllrate und trotzdem nen drittel schneller

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

und das obwohl der G71 hier noch was einsparen dürfte durch die AF optimierungen
Computerbase bencht dort nvidia Full Tri gegen ATI Bri.

DerKleineCrisu
2007-05-16, 15:09:22
Naja, je nachdem was da für Spiele auf einem LAN gespielt werden, sind da eher hohe fps statt Qualität gefragt. Das kann man so nicht pauschalisieren.

Sig

kalle1111
2007-05-16, 15:13:01
Wenn es wirklich ein Hardware-Problem gibt, wieso bricht die Karte dann mit Filtern unter openGL nicht so ein ?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/18/#abschnitt_doom_3

Gast
2007-05-16, 15:22:46
das ist eine gute Frage.. die hd2900 kann sich in den höchsten Einstellung sogar mit einer 8800Ultra messen..
Sie zeigt hier ein ähnliches Verhalten wie dei früheren Generationen von ATI! woran liegt das?

Gast
2007-05-16, 15:24:05
das gleich kan man übrigens auch bei "The Chronicles of Riddick" auf CB sehen.

Daredevil
2007-05-16, 15:25:39
Hmmmmmm das is echt ne gute Frage

Gast
2007-05-16, 15:26:18
ich geb die Hoffung noch nicht auf, dass da noch was kommt.

Godmode
2007-05-16, 15:26:22
Wenn es wirklich ein Hardware-Problem gibt, wieso bricht die Karte dann mit Filtern unter openGL nicht so ein ?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/18/#abschnitt_doom_3

Hey das hab ich noch gar nicht beachtet? :eek: Da besteht also doch noch Hoffnung. In D3 sieht die Karte recht nett aus im Vergleich zur GTS.

Gast
2007-05-16, 15:27:57
ich finde sie schaut auch recht nett im Vergleich zur GTX/Ultra aus

[dzp]Viper
2007-05-16, 15:29:15
Hey das hab ich noch gar nicht beachtet? :eek: Da besteht also doch noch Hoffnung. In D3 sieht die Karte recht nett aus im Vergleich zur GTS.

nicht nur in D3 sondern in allen OpenGL Spielen... (D3, Prey, Riddick)

Daredevil
2007-05-16, 15:31:05
Die XT putzt die GTS in 2560x1600 4xAA/16xAF ganz gut weg, klar ist das jetzt nur eine Ausnahme aber wieso läuft die mit OpenGl denn so gut ?
Gibts dafür ne Erklärung, mal an die gerichtet die hier Seitenlang über sowas Diskutieren was ich nicht verstehe :)

Godmode
2007-05-16, 15:31:30
ich finde sie schaut auch recht nett im Vergleich zur GTX/Ultra aus

Stimmt in 2560x1600 8xAA/16xAF: kann sie sich sogar vor die Ultra setzen mit 12 % Vorsprung.

Odal
2007-05-16, 15:31:31
hm vielleicht nen etwas bugfreierer OGL treiberpart?

Godmode
2007-05-16, 15:32:19
Die XT putzt die GTS in 2560x1600 4xAA/16xAF ganz gut weg, klar ist das jetzt nur eine Ausnahme aber wieso läuft die mit OpenGl denn so gut ?
Gibts dafür ne Erklärung, mal an die gerichtet die hier Seitenlang über sowas Diskutieren was ich nicht verstehe :)

Das ist die Alles entscheidende Frage, funktioniert in OGL alles richtig? AA, AF, AAA?
Wenn das alles passt, dann können wir uns doch noch auf einen guten R600 freuen.

seahawk
2007-05-16, 15:32:39
Stencil-Shadows

[dzp]Viper
2007-05-16, 15:32:43
Die XT putzt die GTS in 2560x1600 4xAA/16xAF ganz gut weg, klar ist das jetzt nur eine Ausnahme aber wieso läuft die mit OpenGl denn so gut ?
Gibts dafür ne Erklärung, mal an die gerichtet die hier Seitenlang über sowas Diskutieren was ich nicht verstehe :)

Treiberprobleme unter Direct3D + AA

Anders ist die gute Performance unter OpenGL nicht zu erklären. Ein Hardwareproblem kann es nicht sein sondern wären die Ergebnisse in OpenGL genauso Schwach (beim Einsatz von AA) wie unter D3D..

Godmode
2007-05-16, 15:34:29
Stencil-Shadows

Ka, was du damit sagen willst.

Gast
2007-05-16, 15:34:30
Die XT putzt die GTS in 2560x1600 4xAA/16xAF ganz gut weg, klar ist das jetzt nur eine Ausnahme aber wieso läuft die mit OpenGl denn so gut ?
Gibts dafür ne Erklärung, mal an die gerichtet die hier Seitenlang über sowas Diskutieren was ich nicht verstehe :)

Ganz gut ist finde ich untertrieben... es sind ja über 90%....
Sie kann sich übrigens auch sehr gut von einer x1950 absetzen, was dafür spricht, dass hier wirklich die Mehrleistung des r600 umgesetzt werden kann.
Aber mal nicht zu früh freuen,.. vielleicht stimmt ja was mit der BQ nicht.

Daredevil
2007-05-16, 15:35:44
Das es Treiberprobleme gibt, da zweifel ich ja auch nich dran, nur die ganzen Kenner hier zerreißen sich ja das Maul darüber, Bug ROPs und was weiß ich, deswegen weiß man kaum mehr was man glauben kann, meine Karte is unterwegs und kommt ( Doofer Feiertag :( ) Freitag anscheinend.
Vieleicht kann Gouvernator das ja mal testen wenn der seine noch nich weg hat.

Das lässt echt nur gutes hoffen wenn die ganzen Qualitätseinstellungen auch so sind wie sie sollten.

kalle1111
2007-05-16, 15:38:47
Ich habe einige openGL Benches durchgeführt und kann sagen, das die Karte da genau das macht, was man erwartet, nämlich sehr gute Leistung auch mit Filtern liefern.

Es muss ein Treiber-Problem vorliegen.

Odal
2007-05-16, 15:44:45
bei Quake4 übrigens ähnliches bild

in hohen einstellungen mit ordentlich AA und AF geht das ding ab wie schmitts katze

http://www.techpowerup.com/reviews/ATI/HD_2900_XT/9

ghost recon AW war das nicht auch OGL?

http://www.guru3d.com/article/Videocards/431/24/

Gast
2007-05-16, 15:48:43
War OGL nicht mal die etwas stiefmütterlich behandelte API bei ATi? Das weckt Hoffnung auf mehr...

Gast
2007-05-16, 15:51:49
Wo sind den die 3D Experten, die dazu mal etwas sagen könnten.

Sk_Antilles
2007-05-16, 15:52:39
Komisch, dass die 2900XT erst bei hohen Auflösungen + AA/AF erst richtig abgeht. Genau das Gegenteil was man bisher gesehen hat. :confused:

[dzp]Viper
2007-05-16, 15:54:56
Idee

Farcry ist doch aktuell ein großes Sorgenkind der 2900xt oder?

Standardmäßig nutzt Farcry doch D3D oder? (Und so wurde Farcry auch überall getestet mit der 2900XT)

Aber konnte man Farcry nicht auch auf OpenGL umstellen?

Bitte einer mal die Performance unter D3D und OpenGL unter Farcry testen und Vergleichen - das wäre überaus Interessant und könnte die Treiberproblematik nur unterstreichen wenn es unter OpenGL mit AA/AF besser läuft als unter D3D!

Gast
2007-05-16, 15:55:22
Wo sind den die 3D Experten, die dazu mal etwas sagen könnten.

Die grübeln grade - und zwar über mehrere Dinge; wie sie das A: übersehen konnten und B: das in die Defekt-Theorie passt... ;) !

Odal
2007-05-16, 15:56:16
naja bei Q4 is das sicher in niedrieger auflösung und ohne aa&af eher cpu limitiert...erkennt man auch gut im vergleich mit den älteren karten

Godmode
2007-05-16, 15:59:48
Viper;5500022']Idee

Farcry ist doch aktuell ein großes Sorgenkind der 2900xt oder?

Standardmäßig nutzt Farcry doch D3D oder? (Und so wurde Farcry auch überall getestet mit der 2900XT)

Aber konnte man Farcry nicht auch auf OpenGL umstellen?

Bitte einer mal die Performance unter D3D und OpenGL unter Farcry testen und Vergleichen - das wäre überaus Interessant und könnte die Treiberproblematik nur unterstreichen wenn es unter OpenGL mit AA/AF besser läuft als unter D3D!

IIRC hat UT auch ein OGL Renderer zusätzlich. Schreib Gouvernater doch ne PM, damit er das gleich mal testen kann.

Gast
2007-05-16, 16:03:23
was mit auch noch gerade augefallen ist: wie schlecht schneidet eigentlich eine 7900gtx in 2560x1600 8xAA/16xAF ab... eine x1950 xtx ist hier ja gleich um 400% schneller. Aber erst bei Zunahme von aa und af. Ist OT, aber vielleicht gibt es da einen Zusammenhang.

DrumDub
2007-05-16, 16:04:12
Wenn es wirklich ein Hardware-Problem gibt, wieso bricht die Karte dann mit Filtern unter openGL nicht so ein ?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/18/#abschnitt_doom_3 das ist ein interessanter hinweis. bei prey ist es ähnlich, wenn auch die 2900xt hier stärker verliert. könnte auch mit dem aaa/trssaa zusammenhängen: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/23/#abschnitt_prey

1600x1200 ohne aa/af vs. 4xaaa bzw. 4xtrssaa/16xaf
8800gtx verliert 34,14%
8800gts verliert 39,98%
2900xt verliert 47,11%

ohne aaa und mit 16xhqaf verliert die 2900xt d3d-games ja zwischen 30-55%!

man bräuchte wohl mehr reine af-benches bei ogl-games um das zu überprüfen...

Odal
2007-05-16, 16:06:41
nicht zuvergessen reine AA benches ^^ weil imho das AA unter ogl so funzt wie es sollte....

kalle1111
2007-05-16, 16:08:24
man bräuchte wohl mehr reine af-benches bei ogl-games um das zu überprüfen...

Was eine lösbare Aufgabe wäre ;)

Coda
2007-05-16, 16:32:16
ghost recon AW war das nicht auch OGL?
Nö.

Viper;5500022']Idee

Farcry ist doch aktuell ein großes Sorgenkind der 2900xt oder?

Standardmäßig nutzt Farcry doch D3D oder? (Und so wurde Farcry auch überall getestet mit der 2900XT)

Aber konnte man Farcry nicht auch auf OpenGL umstellen?

Bitte einer mal die Performance unter D3D und OpenGL unter Farcry testen und Vergleichen - das wäre überaus Interessant und könnte die Treiberproblematik nur unterstreichen wenn es unter OpenGL mit AA/AF besser läuft als unter D3D!
Das OpenGL-Backend von Far Cry ist absolut unbrauchbar.

cl55amg
2007-05-16, 16:36:36
ghost recon AW war das nicht auch OGL?

http://www.guru3d.com/article/Videocards/431/24/


Nein Direct3D.
Ich bin auf die Erklärungen der 3D Experten gespannt.

Sterem
2007-05-16, 16:37:53
Nö.


Das OpenGL-Backend von Far Cry ist absolut unbrauchbar.

Coda was sagst du denn allgemein zu der überaschenden guten Opengl performance?Kann man die gute Performance vielleicht auch bald bei D3D Spiele bestaunen?

MadManniMan
2007-05-16, 16:40:14
Viper;5499948']nicht nur in D3 sondern in allen OpenGL Spielen... (D3, Prey, Riddick)

Bei Prey verliert sie unter AA+AF genauso ordentlich, wie in den anderen D3D-Benches.

Ka, was du damit sagen willst.

Die Stencil-Leistung ist besonders hoch, das Füllratendefizit ist dann kaum mehr eines.

ghost recon AW war das nicht auch OGL?

http://www.guru3d.com/article/Videocards/431/24/

a) Nein.

b) Sie schafft gerade so eine GTS - und verliert unter AA+AF ganz ordentlich.


Bedenkt, daß unter OpenGL AAA nicht greift - und computerbase nimmt dieses nunmal gern.

Gast
2007-05-16, 16:42:05
nicht zuvergessen reine AA benches ^^ weil imho das AA unter ogl so funzt wie es sollte....

Oder ATI bescheißt, wie sie es unter D3D ja auch versucht haben mit ihrem EATM statt TSSAA Bench-Treiber.

Coda
2007-05-16, 16:43:50
Coda was sagst du denn allgemein zu der überaschenden guten Opengl performance?Kann man die gute Performance vielleicht auch bald bei D3D Spiele bestaunen?
Man weiß ja nicht an was es liegt. Evtl. liegen die OpenGL-Spiele der R600 allein wegen der dort verwendeten Renderalgorithmen ganz gut (es gibt ja nicht viele und diese verwenden meistens ganz ähnliche Verfahren).

Ich sehe keinen Grund, warum man mit D3D mehr Probleme haben sollte was das AA anbetrifft als mit OpenGL, vor allem da ATI seine Prioritäten traditionell sehr viel eher bei D3D hat.

Alles andere als das zu sagen ist Spekulation. Schneller wird das AA hoffentlich schon noch werden, weil gerade ist es für eine Karte mit dieser Bandbreite einfach lächerlich lahm.

Odal
2007-05-16, 16:46:57
B
a) Nein.

b) Sie schafft gerade so eine GTS - und verliert unter AA+AF ganz ordentlich.

ist ja auch dann kein ogl game sondern ein relativ gut performendes DX game


Bedenkt, daß unter OpenGL AAA nicht greift - und computerbase nimmt dieses nunmal gern.


auf anderen review seiten siehts genauso aus und die testen nicht mit AAA z.b. hier

http://www.techpowerup.com/reviews/ATI/HD_2900_XT/9

normalerweise müsste das teil mit aa&af deutlich in die knie gehen...hält aber selbst mit einer GTX ganz gut mit

Oder ATI bescheißt, wie sie es unter D3D ja auch versucht haben mit ihrem EATM statt TSSAA Bench-Treiber.


nur das sich in opengl tests ohne tssaa bzw. aaa ähnliches performancebild ergibt

DrumDub
2007-05-16, 16:48:40
Bei Prey verliert sie unter AA+AF genauso ordentlich, wie in den anderen D3D-Benches. sie bringt 47,11% was nun wahrlich nicht soviel ist, wie in d3d-benches, wo sie gut zwei drittel der leistung mit aa/af verliert.

Gast
2007-05-16, 16:49:19
@MadManniMan: schon klar, dass die hd2900 hier auch einbricht. (50%)
Hast du dir aber mal die beispielsweise die HL2 benches angeschaut? Da bricht sie um mehr als 100% ein:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/21/#abschnitt_hl2_lost_coast

reunion
2007-05-16, 16:51:18
@MadManniMan: schon klar, dass die hd2900 hier auch einbricht. (50%)
Hast du dir aber mal die beispielsweise die HL2 benches angeschaut? Da bricht sie um mehr als 100% ein:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/21/#abschnitt_hl2_lost_coast

0.0fps mit AA/AF?

Odal
2007-05-16, 16:53:06
hehe wie immer schlecht ausgedrückt er meinte sicher ohne AA&AF ist sie da 100% schneller

Gast
2007-05-16, 16:56:21
0.0fps mit AA/AF?

nein natürlich nicht ist dumm ausgedrückt.. bzw. gänzlich falsch. Ich denke aber man weiß was ich mein.

MadManniMan
2007-05-16, 16:59:26
DrumDub,
na genau das meinte ich doch: sie verliert, wie sie auch in D3D verliert.

Tut sie aber wohl doch nicht, wie ihr mir gerade aufzeigt. Die Verluste unter OpenGL sind allgemein geringer... *grübel*

san.salvador
2007-05-16, 17:01:14
nein natürlich nicht ist dumm ausgedrückt.. bzw. gänzlich falsch. Ich denke aber man weiß was ich mein.
Ich habe keine Ahnung was du meinst. :confused:

Gast
2007-05-16, 17:02:51
Ich habe einige openGL Benches durchgeführt und kann sagen, das die Karte da genau das macht, was man erwartet, nämlich sehr gute Leistung auch mit Filtern liefern.


Kannst du es bitte auch nochmal mit A.I off machen?

Gast
2007-05-16, 17:03:00
Ich habe keine Ahnung was du meinst. :confused:

Jetzt habe ich mich schon wieder vertippt.

Ich meinte natürlich, dass ich mich falsch ausgedrückt habe.

Exxtreme
2007-05-16, 17:04:20
Die grübeln grade - und zwar über mehrere Dinge; wie sie das A: übersehen konnten und B: das in die Defekt-Theorie passt... ;) !
X-D

Doom 3 & Co. verwenden normalerweise keine hochaufgelösten Texturen. Vielleicht fällt die niedrige Füllrate da nicht ins Gewicht bzw. der G80 kann hier seine hohe Füllrate nicht ausspielen weil in diesen Spielen die Stencil-Power oder was anderes limitiert oder so.

HOT
2007-05-16, 17:09:55
Wenn ich mir das 3dc Review nochmal anschaue, fällt auf, dass die Karte bei 8x AA noch viel schlimmer einbricht. Bei 1680 mit 4x AA hält sie noch gut mit in vielen Fällen, bie 1280 mit 8x AA siehts gaaaaaanz düster aus... Wieder ein Hinweis auf defektes Multisampling ... oder ein anderes Problem, dass durch die Nutzung von Multisampling ausgelöst wird... was dann auch das offensichtliche Funktionieren in manchen Anwendungen erklären würde. Kann ja auch ein indirektes Problem sein.

deekey777
2007-05-16, 17:14:13
X-D

Doom 3 & Co. verwenden normalerweise keine hochaufgelösten Texturen. Vielleicht fällt die niedrige Füllrate da nicht ins Gewicht bzw. der G80 kann hier seine hohe Füllrate nicht ausspielen weil in diesen Spielen die Stencil-Power oder was anderes limitiert oder so.

Spiel mal Prey. :smile:

Gast
2007-05-16, 17:14:30
Viper;5500022']Idee

Farcry ist doch aktuell ein großes Sorgenkind der 2900xt oder?

Standardmäßig nutzt Farcry doch D3D oder? (Und so wurde Farcry auch überall getestet mit der 2900XT)

Aber konnte man Farcry nicht auch auf OpenGL umstellen?

Bitte einer mal die Performance unter D3D und OpenGL unter Farcry testen und Vergleichen - das wäre überaus Interessant und könnte die Treiberproblematik nur unterstreichen wenn es unter OpenGL mit AA/AF besser läuft als unter D3D!

Wenn du FarCry auf OpenGL umstellst, fehlen einige Effekte!

Odal
2007-05-16, 17:34:13
X-D

Doom 3 & Co. verwenden normalerweise keine hochaufgelösten Texturen. Vielleicht fällt die niedrige Füllrate da nicht ins Gewicht bzw. der G80 kann hier seine hohe Füllrate nicht ausspielen weil in diesen Spielen die Stencil-Power oder was anderes limitiert oder so.


naja aber doch gerade quake4 ist doch wegen seines riesiegen speicherhungers berühmt berüchtigt wenn man da die texturen auf high bzw. ultra hat

MadManniMan
2007-05-16, 18:06:26
naja aber doch gerade quake4 ist doch wegen seines riesiegen speicherhungers berühmt berüchtigt wenn man da die texturen auf high bzw. ultra hat

Jaja, Speicherhunger - das sagt aber noch nicht aus, ob die in den einzelnen Frames dargestellten Szenen auch viel Texturleistung benötigen ;)

Sterem
2007-05-16, 18:11:09
>immerhin wird dann Quake Wars bestimmt gut auf eine X2900 XT laufen.

Gast
2007-05-16, 18:18:58
schon interessant, wie hier die gemüter aufeinanderprallen......
"nVidioten" fühlen sich bestätigt und machen jedes, auch noch so gutes Benchmark-Ergebniss, schlecht! Da muss man ja schon fast "ATIist" werden......
Leute, dass sind doch alles nur Vermutungen die ihr da anstellt. Wartet doch mal ein paar Tage und schaut euch dann mal Benchmark Ergebnisse an, bevor hier noch einige Amok laufen.. :)

Odal
2007-05-16, 18:19:44
Jaja, Speicherhunger - das sagt aber noch nicht aus, ob die in den einzelnen Frames dargestellten Szenen auch viel Texturleistung benötigen ;)


naja grosse hochauflösende texturen wollen ja auch gefiltert werden nich?

MadManniMan
2007-05-16, 18:24:16
Hm, ja nee.

Die besondere Größe der Q4 und D3 Texturen macht ja auch, daß bei Ultra Quality nix komprimiert wird. Gegenüber Normal Quality sind die Texturen nicht höher aufgelöst, nur verbraten sie mehr Speicher - aber es kommt ja schließlich auf die Menge der Texel an ... und die ist bei komprimierten Texturen ja nicht kleiner ;)

Gast
2007-05-16, 18:25:49
>immerhin wird dann Quake Wars bestimmt gut auf eine X2900 XT laufen.

Ich glaube für QW reicht auch eine X1900/7900 locker aus :)

DerKleineCrisu
2007-05-16, 18:45:02
Stimmt in 2560x1600 8xAA/16xAF: kann sie sich sogar vor die Ultra setzen mit 12 % Vorsprung.

und nun ?. vieleicht ein kleiner Lichtblick bei openGl. bleibt weiter das Problem
das die Graka viel zu viel Strom haben will. Daran wird auch ein neuer Treiber nichts ändern. Schon bei der X1800 / x19xx Serie war es ne Frechheit aber die x29xx schlägt den Boden aus dem Fass raus. Aber die meisten wird es eh nicht Interessieren was der PC an Strom frisst. Schade denn gerade hier sollten die User schaun das sich da mal was ändert. Weniger Stromverbraucht = weniger Abwärme = bessere Kühlung = leiserer Pc. Bei der cpu schaut man darauf aber bei Grakas schaltet sich bei manchen einfach das Hirn ab. Hauptsache Frames ohne ende egal was es kostet.

@Sterem da muss ich dir recht geben, für die meisten fan´s der Quake Serie ist es sicherlich auch ein Grund dann ne ATI zu kaufen.

@Gast Stimmt nur Hyphen manche User egal ob nun Nvidia oder AMD/ATI Jünger die neuen Karten noch vor Vorstellung so in den Himmel das diese wenn sie doch die Erwartung nicht Erfüllen jeden Strohhalm greifen den sie finden können.
Probleme die unangenehm sind werden Versucht durch Brechmarkwerte die besser aussehen zu ersetzen. Die Probleme bleiben aber weiter Bestehen, werden so aber versucht unter den Tisch zu reden und den Leuten zu sagen alles wird besser wartet die nächsten 5 bis 10 treiber ab ihr werdet sehen.

Gast
2007-05-16, 19:04:11
und nun ?. vieleicht ein kleiner Lichtblick bei openGl. bleibt weiter das Problem
das die Graka viel zu viel Strom haben will. Daran wird auch ein neuer Treiber nichts ändern. Schon bei der X1800 / x19xx Serie war es ne Frechheit aber die x29xx schlägt den Boden aus dem Fass raus. Aber die meisten wird es eh nicht Interessieren was der PC an Strom frisst. Schade denn gerade hier sollten die User schaun das sich da mal was ändert. Weniger Stromverbraucht = weniger Abwärme = bessere Kühlung = leiserer Pc. Bei der cpu schaut man darauf aber bei Grakas schaltet sich bei manchen einfach das Hirn ab. Hauptsache Frames ohne ende egal was es kostet.

@Sterem da muss ich dir recht geben, für die meisten fan´s der Quake Serie ist es sicherlich auch ein Grund dann ne ATI zu kaufen.

@Gast Stimmt nur Hyphen manche User egal ob nun Nvidia oder AMD/ATI Jünger die neuen Karten noch vor Vorstellung so in den Himmel das diese wenn sie doch die Erwartung nicht Erfüllen jeden Strohhalm greifen den sie finden können.
Probleme die unangenehm sind werden Versucht durch Brechmarkwerte die besser aussehen zu ersetzen. Die Probleme bleiben aber weiter Bestehen, werden so aber versucht unter den Tisch zu reden und den Leuten zu sagen alles wird besser wartet die nächsten 5 bis 10 treiber ab ihr werdet sehen.

Hä? Gegenüber dem was hier im Forum monatelang kollportiert wurde ist die Karte erstaunlicherweise ganz gut im Rahmen. Wüßte nicht wo hier bei nem High-End Rechner Duchschittverbrauch von ca. 350 Watt ca 15 Watt mehr als eine GTX was reißen würden.

Odal
2007-05-16, 19:17:21
gerade die x1800er und x1900er konnte man verbrauchstechnisch ganz gut im griff haben....

meine x1900yt läuft z.b. unter 2d mit 0,95volt statt der 1,45volt default


die richtigen tools machens möglich...da braucht mein R580 in 95% seiner laufzeit extrem wenig.....

ob das beim R600 auch machbar sein wird per software muss man sehen aber den R580 kann man schon fast als genügsam bezeichnen....

Gast
2007-05-16, 20:02:57
Jungs wie wäre es wenn man UT in d3D und OGL testet, ist zwar eher cpu limitiert, aber man könnte ziemlich gut die AA-Werte vergleichen.

Btw: Ati war ja bisher dafür bekannt, in OGL ziemlich alt auszusehen, wenn der d3D-treiber nen bug hat, lässt es doch vermuten, dass bei vermeintlicher funktionalität die Gtx in d3D greifbar wäre.

Alphagoku
2007-05-16, 20:07:59
Genau UT04 in 2560*1600 mit 8AA

edit:

bei 2560*1600 +AA dürfte die CPU doch gar nicht mehr limitieren

Odal
2007-05-16, 20:07:59
die frage ist nur wer testet das mal mit entsprechend starker cpu und 2900XT sowie 8800GTS bzw. GTX?

horn 12
2007-05-16, 20:13:09
Odal... dann holst du dir nun auch die HD 2900 XT mit deinem Singlecore CPU?
Aber erst nachdem der Treiberbug beseitigt worden ist, oder schon früher?

Odal
2007-05-16, 20:20:30
Odal... dann holst du dir nun auch die HD 2900 XT mit deinem Singlecore CPU?
Aber erst nachdem der Treiberbug beseitigt worden ist, oder schon früher?


im moment hol ich mir erstmal garnix...d.h. ich denke über ein cpu upgrade auf dual core s939 x2 für 75€ nach oder vielleicht auf ein wechsel auf core2duo aber da brauch ich board, ram und cpu das sind locker mal 250-300 tacken

ansonsten schau ich ob die aa&af leistung unter DX auf die ogl leistung angehoben werden kann und die treiber weniger bugs haben (das die meisten spiele problemlos laufen) und dann könnte ich mich gut mit einer 2900xt arangieren......

im derzeitigen "ungewissen" zustand kauf ich mir die definitiv nicht....

für meine aktuellen spiele (dod:s+red orchestra+company of heroes) reicht auch die jetzige karte...wobei mit meinen hohen settings diese schon manchmal aus der puste kommt....

Gast
2007-05-16, 21:57:57
Hm, haben wir eigentlich schon Theorie, dass die Speichermenge vielleicht der limitierende Faktor ist? In den Tests, wo die GTS mit 320mb hinter der 640mb Verison zurückfällt, scheint die 2900XT ebenfalls nicht der Bringer zu sein.
Warum sieht die in den OpenGL spielen so gut aus? Weil hier selbst die GTS320 mithalten kann...

DerKleineCrisu
2007-05-16, 22:06:52
meine x1900yt läuft z.b. unter 2d mit 0,95volt statt der 1,45volt default
....

glaube nicht richtig verstanden :wink: .
Ich habe damit einen Otto normal Verbraucher gemeint der Nix mit OC, Bios modden usw macht. Also einen der Karte kauft einbaut, treiber installiert und spielt.

@Gast also gem. Test Computerbase da ein bissel größerer " kleiner " unterschied :|

Stromverbraucht komplettsystem 8800 GTS = 269 W
.............................................x2900XT = 356 W

Odal
2007-05-16, 22:48:35
was einige meinen ist mir eigentlich ziemlich wumpe...ich bin kein otto normal dau sondern weiß meine möglichkeiten auszuschöpfen...wenn du für deinen fall darauf verzichtest gern...ich sprech nur aus meiner sichtweise...

achso otto normal dau befasst sich auch nie damit wieviel watt nun seine karte genau frisst aber naja...

Sterem
2007-05-16, 23:20:22
Stromverbrauch.

http://www.bit-tech.net/hardware/2007/05/16/r600_ati_radeon_hd_2900_xt/21

Gast
2007-05-16, 23:27:19
Stromverbrauch.

http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html

Sehr übel


ps. picker picker`?

Gast
2007-05-17, 00:51:45
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

Der Stromverbrauch mag übel sein, der Rest ist allerdings noch im Rahmen.

Es soll noch einige höhergetaktete Versionen der 2900 XT geben, vielleicht reißen die das Ruder aus dem Feuer. Zudem ist es schwer einzuschätzen, wieviel Potential noch im Treiber steckt. Da wird wohl nix helfen, außer abzuwarten ...

reunion
2007-05-17, 09:05:27
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

Der Stromverbrauch mag übel sein, der Rest ist allerdings noch im Rahmen.

Es soll noch einige höhergetaktete Versionen der 2900 XT geben, vielleicht reißen die das Ruder aus dem Feuer. Zudem ist es schwer einzuschätzen, wieviel Potential noch im Treiber steckt. Da wird wohl nix helfen, außer abzuwarten ...

Wobei der auch wesentlich niedriger ist, als von vielen schon seit Monaten herbei prophezeit.

=Floi=
2007-05-17, 09:14:56
da gingen wir aber von der XTX aus!!!
mit ein bischen spannugnserhöung und 850mhz coretakt sollte man aber dann locker über 200 watt kommen...

HOT
2007-05-17, 10:29:26
100MHz mindestens 40W? Unwahrscheinlich ;). Zumal die Chips ja selektiert sind und für die XTX Varianten nur wenige nötig sind.

The_Invisible
2007-05-17, 10:43:35
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

Der Stromverbrauch mag übel sein, der Rest ist allerdings noch im Rahmen.

Es soll noch einige höhergetaktete Versionen der 2900 XT geben, vielleicht reißen die das Ruder aus dem Feuer. Zudem ist es schwer einzuschätzen, wieviel Potential noch im Treiber steckt. Da wird wohl nix helfen, außer abzuwarten ...

meine karte verbraucht in 3d fast fast gleich viel wie die anderen in 2d, wenn das mal nicht übel ist. ich hoffe mal stark das sich mit den refresh chips was ändert (zum positiven)

mfg

reunion
2007-05-17, 10:56:29
meine karte verbraucht in 3d fast fast gleich viel wie die anderen in 2d, wenn das mal nicht übel ist. ich hoffe mal stark das sich mit den refresh chips was ändert (zum positiven)

mfg

Deine Karte bietet auch nichtmal annähernd die Leistung, erreicht nichtmal annähernd die Bildqualität, und unterstützt nichtmal annähernd die Features dieser Chips. Und das, obwohl sich in punkto Fertigungsprozess wenig bis gar nicht getan hat. Zaubern kann mehr eben noch nicht. Aber ich denke mit dem 65nm Prozess sollte sich das wieder normalisieren.

Gast
2007-05-17, 11:24:30
Wobei der auch wesentlich niedriger ist, als von vielen schon seit Monaten herbei prophezeit.


Ich kann mich nicht erinnern, daß irgendjemand einen 2D idle Verbrauch höher als den der 8800GTX prophezeit hat.

Coda
2007-05-17, 11:28:10
100MHz mindestens 40W? Unwahrscheinlich ;)
Nicht unwahrscheinlich. Die Verlustleistung steigt quadratisch mit der Spannung.

reunion
2007-05-17, 11:55:31
Ich kann mich nicht erinnern, daß irgendjemand einen 2D idle Verbrauch höher als den der 8800GTX prophezeit hat.

Das stimmt, die Taktabsenkung auf 500/500 und die Spannungsabsenkung auf 1.08V in 2D bringt erstaunlich wenig. Wobei ich auch hier noch gerne zukünftige Treiber abwarten würde, da es bei R520 zu beginn ein ähnliches Problem gab. Der 3D Verbauch liegt dafür nichtmal annähernd bei den prophezeiten 200W+. Wobei sich hier ATi wohl auch für eine akzeptablen Maß an Verlustleistung, anstatt dem letzten Quäntchen Leistung entschieden hat.

Coda
2007-05-17, 11:56:31
Der 3D Verbauch liegt dafür nichtmal annähernd bei den prophezeiten 200W+.
Es wurde schonmal erwähnt, dass da von der XTX ausgegangen wurde, die das auch erreicht hätte.

Gast
2007-05-17, 11:57:47
Wobei der auch wesentlich niedriger ist, als von vielen schon seit Monaten herbei prophezeit.
Ja - ebenso der GTX-Verbrauch, den viele andauernd an Nvidias TDP von ~180 Watt drankleben wollten.

Gast
2007-05-17, 12:03:31
100MHz mindestens 40W? Unwahrscheinlich ;). Zumal die Chips ja selektiert sind und für die XTX Varianten nur wenige nötig sind.
Nicht 100 MHZ, sondern "ein bißchen Spannungserhöhung".

(x*x)=161 Watt
-> x²=161 Watt
-> x ~= 12,68
+10%
-> x*1,1 ~= 13,957
-> (x*1,1)²= 194,81

Und dabei ist der Takt und die höhere Temperatur (nochmal mehr L-Aufnahme) noch gar nicht eingerechnet.