PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R650 -"Frechheit!"


Seiten : 1 [2]

Gast
2007-05-30, 08:31:05
Was tun Spiele in Zukunft? Sie rendern HDR (und nutzen zusätzlich AA), sie haben mehr und komplexere Shader-Programme, sie verwenden grössere Texturen...
Das sind alles Dinge, die belasten die Füllrate nicht und genau da ist die G80 deutlich besser als der R600.


Das sind alles Dinge, die belasten die Füllrate nicht und genau da ist die R600 deutlich besser als der G80.

seahawk
2007-05-30, 10:19:40
Was tun Spiele in Zukunft? Sie rendern HDR (und nutzen zusätzlich AA), sie haben mehr und komplexere Shader-Programme, sie verwenden grössere Texturen...
Das sind alles Dinge, die belasten die Füllrate nicht und genau da ist die G80 deutlich besser als der R600. Dafür bietet der R600 viel Bandbreite (für HDR+AA sehr gut und auch für Riesen-Texturen) und höhere Rechenleistung in komplexer Form. Sicher wird auch der Anspruch an die Füllrate steigen, aber die steigt schon lange nicht mehr so dramatisch wie die geforderte Rechenleistung. Früher hatte man pro Pipe 2 TMUs, seit dem R300 nurnoch eine TMU pro Pipe und nun sind es deutlich weniger... Damit sollte klar sein, wer für die Zukunft besser gerüstet ist. Jedoch seh ich das so, dass NV da wieder mit dem G90 ausgleichend eingreift und die Schwächen des G80 kompensiert... es wiederholt sich wieder, wie seit dem Geforce6. Als der R520 rauskam, waren die Spiele füllratenlimitierter als jetzt und jetzt sind die R520/R580 Karten im Vorteil...


Das wird man sehen cih zitiere mal Sweeney.

http://forums.epicgames.com/showthread.php?t=571019

PCGH: How exacly are you utilizing the functions of Direct X 10?
Epic: Unreal Tournament 3 will ship with full DX10 support, with multi-sampling
being the biggest visible benefit of the new graphics interface. Additionally,
with DX10 under Vista we have the possibility to use the video memory more
efficently, to be able to display textures with a higher grade of detail as it
would be possible with the DX9 path of Vista. Most effects of UT3 are more bound to the fillrate than to basic features like geometry processing. That's why DX10 has a great impact on performance, while we mostly forgo the integration of new features.

aths
2007-05-30, 11:36:36
Theoretische Zahlen sind irrelevant. Solltest du eigentlich wissen.Sie sind nicht irrelevant solange man abschätzen kann, wie viel Prozent sich davon in der Praxis nutzen lassen.

Theoretische Zahlen kann man immer in die Tonne kloppen, da man sie in der Praxis eigentlich nie wirklich erreichen kann, aufgrund anderer Limitierungen (Code, TMUs, Speicherbandbreite)...

Alles was zählt ist die Effizienz.Dann wäre ein total rechenschwacher, aber voll effizienter Chip vorzuziehen??

Gast
2007-05-30, 11:38:44
Dann wäre ein total rechenschwacher, aber voll effizienter Chip vorzuziehen??

Wenn er in der Realität schneller ist, sicherlich. ;)

James Ryan
2007-05-30, 11:43:15
Sie sind nicht irrelevant solange man abschätzen kann, wie viel Prozent sich davon in der Praxis nutzen lassen.

Schätzen?

Dann wäre ein total rechenschwacher, aber voll effizienter Chip vorzuziehen??

Was zählt ist, was am Ende raus kommt! Ist der rechenschwache aber sehr effiziente Chip schneller als der rechenstarke aber ineffiziente, ist ersterer natürlich vorzuziehen.

MfG :cool:

Gast
2007-05-30, 12:22:57
Genau dafür hat man ja hier genug Karten verteilt um das Ding schmackhaft zu machen.....lächerlich!
das Ding ist schrott und basta und fertig aus!

UND HIER GEHT ES UM EINEN R650!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Nun frag ich mal warum der Quark von dem Spinner immer stehen bleibt?!

Gast
2007-05-30, 12:29:09
Schätzen?



Was zählt ist, was am Ende raus kommt! Ist der rechenschwache aber sehr effiziente Chip schneller als der rechenstarke aber ineffiziente, ist ersterer natürlich vorzuziehen.

MfG :cool:

Ach ja, wie sich die Zeiten doch ändern, ich denk da mal an 16 vs. 24 Pipelines
usw.

Ich binn ja mal gespannt wie argumentiert wird sobald ein ach so fillratenschwacher R600 ne GTX abzieht. Ich freu mich drauf.

LovesuckZ
2007-05-30, 12:31:00
Ich binn ja mal gespannt wie argumentiert wird sobald ein ach so fillratenschwacher R600 ne GTX abzieht. Ich freu mich drauf.

Dumm nur, dass der umgedrehte Fall deutlich öfters auftritt. Ausserdem lässt sich dieser Fall anhand der Architektur erklären. Ganz objektiv ohne Fanboygehabere.

Gast
2007-05-30, 12:37:54
Der R650 wird geil:


HD 2950 XTX (1000/2400RAM - 1024 MB) --> 399 $
HD 2950 XT (900/2200 - 512 MB) --> 249 $

Peter Peter
2007-05-30, 12:39:16
Und neue Treiber bringen auch nch 10-30 prozent

=Floi=
2007-05-30, 13:15:02
zitat
HD 2950 XTX (1000/2400RAM - 1024 MB) --> 399 $
HD 2950 XT (900/2200 - 512 MB) --> 249 $

dafür muß sich dieser chip dann auch mit dem G90 rumschlagen und dieser dürfte auch doppelt so schnell werden...
diese (gut taktbare) shader domain ist schon ne fiese sache

:o)Uhummel
2007-05-30, 13:29:10
Early-Adopters waren doch schon immer die Dummen...
Wer sich teures High-End kauft, muss mit dem Werteverfall und Problemen leben, dass ist doch schon seit 20 Jahren so. (Ausgenommen irgendwelcher Glückstreffer, der R300 hat sich ja ewig gehalten)

Wer sich Hardware für die Zukunft kauft, der verbrennt immer Geld. Wer Aufgrund von Fanboy-Einstellungen auf "seinen Hersteller" wartet oder sich vom Marketing blenden lässt, muss mit den Konsequenzen leben.

Hardware kauft man, für die aktuellen Bedürfnisse. Wenn das vorhergesagte Potenzial, was angeblich in einem Chip steckt, nicht ausgeschöpft wird, dann ist das halt Pech. Gekauft wurde zu einem Zeitpunkt mit einem gewissen "Zustand".

Wenn noch mehr Nachkommt, ist das sicherlich schön...

So ist es nunmal leider! Nochmal ein Teilnehmer, dessen Ansichten ich vollauf teilen kann.

Nakai
2007-05-30, 13:31:39
zitat
HD 2950 XTX (1000/2400RAM - 1024 MB) --> 399 $
HD 2950 XT (900/2200 - 512 MB) --> 249 $

dafür muß sich dieser chip dann auch mit dem G90 rumschlagen und dieser dürfte auch doppelt so schnell werden...
diese (gut taktbare) shader domain ist schon ne fiese sache

Also doppelt so schnell wirds erstmal nicht. ;)

mfg Nakai

LovesuckZ
2007-05-30, 13:33:48
Kannst du noch mehr sagen? Anscheinend weißt du ja mehr.

:o)Uhummel
2007-05-30, 13:36:25
Au Leute! Hätte nie gedacht, daß ich mit meinem kl. "Aufruf" (Hinter das Frechheit im Titel sollte noch ein ?) so viele Leute erreiche bzw. dazu bewege Ihre Meinung kund zu tun.-Geil! -Sieht man gerade mal wie massiv die Leute so ein Thema interessiert und wie massiv sich die Meinungen unterscheiden. P.s. die X2900XT ist bestimmt kein schlechtes Produkt! -Meiner Meinung nach ist es in der Mehrzahl der Punkte die mir (uns) wichtig sind aber schlechter als die von NV angebotenen Produkte.(Zumidest im High-End-Segment)
Gruß

Gast
2007-05-30, 14:00:17
Kannst du noch mehr sagen? Anscheinend weißt du ja mehr.

Sind im 65nm Prozess. Evtl. werden noch Archtiekturfehler behoben.

seahawk
2007-05-30, 14:11:38
Kannst du noch mehr sagen? Anscheinend weißt du ja mehr.

http://www.penstarsys.com/#uvd

Und das ist blanke Spekulation, die sicherlich teilweise richtig sein wird. (65nm)

Gast
2007-05-30, 16:39:20
Der R650 wird geil:


HD 2950 XTX (1000/2400RAM - 1024 MB) --> 399 $
HD 2950 XT (900/2200 - 512 MB) --> 249 $Wenn der R650 im High-End-Bereich konkurrenzfähig sein sollte, wird ATI ihn sicher nicht mit einer UVP von 399 $ raushauen.

HOT
2007-05-30, 16:42:13
Wenn der R650 im High-End-Bereich konkurrenzfähig sein sollte, wird ATI ihn sicher nicht mit einer UVP von 399 $ raushauen.
Oh, der Herr Gast scheint eine Glaskugel zu besitzen ;D.

Nakai
2007-05-30, 16:44:57
Mit 1Ghz und ohne den Bugs, wird er schon an die 20% schneller als die Ultra sein. Und das wird ATI sich wohl teuer bezahlen lassen. Wobei ich eher von einem Takt von 900 bis 950Mhz ausgehe.

Und das ist blanke Spekulation, die sicherlich teilweise richtig sein wird.

Naja so wird der R650 wohl nicht aussehen, aber der Ansatz ist schon richtig. Er wird aber wohl keine zusätzlichen Einheiten bekommen.

mfg Nakai

StefanV
2007-05-30, 16:46:56
Dann wäre ein total rechenschwacher, aber voll effizienter Chip vorzuziehen??
Man kann ja hier x1950GT/PRO nehmen und dazu eine 7900GTX als Vergleich heranziehen, erstere ist bei aktuellsten Programmen teilweise mehr als deutlich schneller, "Rechenleistung" hat letzterer deutlich mehr, aufgrund der Architektur (TMUs und Alus seriell) kann man die aber kaum nutzen.

Von daher: Ja, natürlich ists das!

Wenn ich jetzt gemein wäre, würd ich z.B. mal die alten High End Karten von vor 5-7 Jahren und die aktuellen Low End Karten rauskramen, vergleichen braucht man ja auch nur Bandbreite, Texturleistung und Leistung in uralten Spielen ;)

puntarenas
2007-05-30, 16:47:34
Oh, der Herr Gast scheint eine Glaskugel zu besitzen ;D.
Hab ich auch! 399$ in der w00t-Edition, freie Linuxtreiber (http://enterpriselinuxlog.blogs.techtarget.com/2007/05/09/amd-will-deliver-open-graphics-drivers/) liegen auf einem USB-Stick bei :D

Gast
2007-05-30, 20:08:38
Oh, der Herr Gast scheint eine Glaskugel zu besitzen ;D.

Nein, der Herr wird wohl logisch denken. AMD steht eh mit dem Rücken zur Wand, zu verschenken haben die NICHTS.

Gast
2007-05-30, 20:38:17
HD 2950 XTX: 399 $ (1000/2400) (1024MB) (320Shader) (16TMU/16ROP) (512Bit)

HD 2950 XT: 249 $ (900/2200) (512MB) (320Shader) (16TMU/16ROP) (512Bit)

HD 2950 Pro: 199 $ (800/2200) (512MB) (240 Shader) (12TMU/12ROP) (256Bit)

HD 2650 XT: 149 $ (1000/2400) (512MB) (120Shader) (8TMU/4ROP)


Mehr verrate ich nicht.

horn 12
2007-05-30, 20:45:37
Warum so billig, und keine richtigen Änderungen?:confused:
"NUR" 65 um und eben höhere Taktraten, ald der R600
Etwas geringere Wärem und Stromverbrauch, viell. 15-20%, oder doch mehr?

Die Texelfüllrate ca. 30% höher als beim R600,- langt dies für den Sieg?
Auch nur 16 ROP´s , also gleich viel wie beim R600.

4711
2007-05-30, 20:52:17
;D;D

4711
2007-05-30, 20:54:05
GSX 9900: 398 $ (1000/2400) (1024MB) (420Shader) (20TMU/20ROP) (724Bit)

mehr verrat ich nett.....:eek:

AnarchX
2007-05-30, 20:54:34
HD 2950 XTX: 399 $ (1000/2400) (1024MB) (320Shader) (16TMU/16ROP) (512Bit)

HD 2950 XT: 249 $ (900/2200) (512MB) (320Shader) (16TMU/16ROP) (512Bit)

HD 2950 Pro: 199 $ (800/2200) (512MB) (240 Shader) (12TMU/12ROP) (256Bit)

HD 2650 XT: 149 $ (1000/2400) (512MB) (120Shader) (8TMU/4ROP)


Da fehlt doch noch die:
HD 2950 MAXX: 499 $ (900/2200) (2x1024MB) (2x240Shader) (2x12TMU/12ROP) (2x256Bit) ;D

Ich glaube kaum, dass wenn man vor dem G92 den R650 präsentieren kann, die 1GB Variante für $399 verschenken wird.

laser114
2007-05-30, 20:56:09
HD 2950 MAXX: 499 $ (900/2200) (2x1024MB) (2x240Shader) (2x12TMU/12ROP) (2x256Bit)

Kannst ja AMD eine passenden Kühler vorbeischicken. ;D

4711
2007-05-30, 20:58:30
Da sach ich doch nur noch "Bitte ein Bit" ;D

AnarchX
2007-05-30, 21:02:26
Kannst ja AMD eine passenden Kühler vorbeischicken. ;D

Naja, soviel sollte der RV670 nun auch nicht verbrauchen.
Imo wird man auf dessen Basis definitiv Dualkarten sehen, da doch viele Hersteller passenden PCBs+Kühler durch die RV570-Dualkarten zur Verfügung haben.

deekey777
2007-05-30, 22:22:57
Naja, soviel sollte der RV670 nun auch nicht verbrauchen.
Imo wird man auf dessen Basis definitiv Dualkarten sehen, da doch viele Hersteller passenden PCBs+Kühler durch die RV570-Dualkarten zur Verfügung haben.
Nur werden hoffentlich die kommenden Dual-RV670 den PEX8532-BB25BI (http://www.mouser.com/search/ProductDetail.aspx?R=PEX8532-BB25BI_Gvirtualkey58310000virtualkey862-PEX8532-BB25BI-G) nutzen, da er für den extrem hohen Preis gesorgt hat, sondern einen eigen entwickelten von AMD.

James Ryan
2007-05-31, 08:00:09
Mit 1Ghz und ohne den Bugs, wird er schon an die 20% schneller als die Ultra sein.

Jep, der R650 könnte schneller als die Ultra sein, nur kräht bei Erscheinen des R650 kein Hahn mehr nach der Ultra... :wink:

Die Texelfüllrate ca. 30% höher als beim R600,- langt dies für den Sieg?

Jep, ATi wird den totalen Endsieg einfahren und NVIDIA wird versklavt. ;D
/Ironie

Merkst du eigentlich noch was du eigentlich so schreibst? Das nimmt schon derbe Züge bei dir an! :eek:

MfG :cool:

seahawk
2007-05-31, 08:29:24
Es ist möglich, dass R650 vor dem Nachfolger des G80 erscheint. Nein, es ist wahrscheinlich.

James Ryan
2007-05-31, 08:54:56
Es ist möglich, dass R650 vor dem Nachfolger des G80 erscheint. Nein, es ist wahrscheinlich.

So wie der R600 vor dem G80 erschienen ist? :upara:

MfG :cool:

seahawk
2007-05-31, 09:48:47
So wie der R600 vor dem G80 erschienen ist? :upara:

MfG :cool:

Kannst Du auch was anderes als ATI bashen ? Es gibt im Netz genug Hints um den Sinn meiner Aussage zu verstehen.

Undertaker
2007-05-31, 10:12:26
Es ist möglich, dass R650 vor dem Nachfolger des G80 erscheint. Nein, es ist wahrscheinlich.

woher nimmst du diese annahme? nvidia hat immerhin etwa 9 monate entwicklungsvorsprung, selbst wenn der r650 eher nur geringe veränderungen aufweist ist das ne menge holz... wahrscheinlicher ist imho schon eher, dass nvidia einen refresh gestrichen oder nach hinten verschoben hat, um die vorhandene zeit für weitere verbesserungen zu nutzen, sobald bedarf besteht könnte man dann damit sehr schnell zurückschlagen - so zumindest meine glaskugel ;)

robbitop
2007-05-31, 10:16:48
Wieso hat NV 9 Monate Entwicklungsvorsprung? Du weisst schon, dass die IHVs mit ihren Teams parallel arbeiten? Nur weil ein Chip durch Fertigungsschwierigkeiten nicht auf den Markt kommt, hat das noch lange keinen Einfluss auf andere GPUs.

Gast
2007-05-31, 11:14:19
Eben, R650 dürfte noch im Q3 kommen, G90 erst Q4 laut nV.

Gast
2007-05-31, 12:08:32
War ja bei R520/R580 auch nicht anders. R520 kam weit nach G70, aber R580 kam vor G71.

:o)Uhummel
2007-05-31, 14:47:40
Echt mal hart! Schaut Euch mal die Benchmark-Ergebnisse an.-Dei neuen Treiber scheinen zu wirken. http://legionhardware.com/document.php?id=650 Da schlägt die 2900XT teilweise auch ne 8800GTX massiv.-Gerade z.B. bei Stalker. Der Hammer! Aber um einen wirklich guten Vergleich zu haben hätte ich mehr Games gebencht. Trotzdem-Very impressive!!!!!!!!

:o)Uhummel
2007-05-31, 15:01:27
Wieso hat NV 9 Monate Entwicklungsvorsprung? Du weisst schon, dass die IHVs mit ihren Teams parallel arbeiten? Nur weil ein Chip durch Fertigungsschwierigkeiten nicht auf den Markt kommt, hat das noch lange keinen Einfluss auf andere GPUs. Natürlich arbeiten die Teams meist parallel, aber wenn ein Chip massive Fertigungs - oder Designprobs. hat und die kommenden Chips auf diesem basieren so hat das sehr wohl Auswirkungen auf diese!! Da ATI aber auch schon den Xbox360-Chip entwickelt hat, haben sie auf jeden Fall nen Vorsprung bei der Erfahrung mit Unified-Shader-Chips. -Bei Desktop-Chips hat NV durch die massiv lange Wartezeit auf den R600 aber massiv aufgeholt, wenn nicht sogar AMD/ATI überholt.

Mr.Magic
2007-05-31, 15:02:56
Echt mal hart! Schaut Euch mal die Benchmark-Ergebnisse an.-Dei neuen Treiber scheinen zu wirken. http://legionhardware.com/document.php?id=650 Da schlägt die 2900XT teilweise auch ne 8800GTX massiv.-Gerade z.B. bei Stalker. Der Hammer! Aber um einen wirklich guten Vergleich zu haben hätte ich mehr Games gebencht. Trotzdem-Very impressive!!!!!!!!

Hat Stalker nicht gerade erst einen massiven FPS-Boost durch neue nVidia-Treiber erfahren?

Natürlich arbeiten die Teams oft parallel, aber wenn ein Chip massive Fertigungsprobs. hat und die kommenden Chips auf diesem basieren so hat das sehr wohl Auswirkungen auf diese!! Da ATI aber auch schon den Xbox360-Chip entwickelt hat, haben sie auf jeden Fall nen Vorsprung bei der Erfahrung mit Unified-Shader-Chips. -Bei Desktop-Chips hat NV durch die massiv lange Wartezeit auf den R600 aber massiv aufgeholt, wenn nicht sogar AMD/ATI überholt.

Da der G80 mit über einem Jahr Verspätung auf den Markt kam (lt. CEO), und insgesamt eine lange Zeit in der Entwicklung war, würde ich darauf nicht wetten wollen.

Gouvernator
2007-05-31, 15:08:20
Hehe so wie ich es sehe wurde jeweils ohne AA gebencht...

HOT
2007-05-31, 15:08:30
Natürlich arbeiten die Teams meist parallel, aber wenn ein Chip massive Fertigungs - oder Designprobs. hat und die kommenden Chips auf diesem basieren so hat das sehr wohl Auswirkungen auf diese!! Da ATI aber auch schon den Xbox360-Chip entwickelt hat, haben sie auf jeden Fall nen Vorsprung bei der Erfahrung mit Unified-Shader-Chips. -Bei Desktop-Chips hat NV durch die massiv lange Wartezeit auf den R600 aber massiv aufgeholt, wenn nicht sogar AMD/ATI überholt.
Die Fertigungsprobleme bei 65nm sind andere als bei dem 90nm Prozess. Das ist ziemlich unabhängig voneinander. Das Design der R650 wird schon kurz nach dem des R600 festgestanden haben. Die Entwicklung des 65nm Chips hat auch nicht länger gedauert als die des 90nm Chips... man dürfte da sogar schon einige Revisions weiter sein, wenn der R650 erscheint. Das Rennen zwischen dem G90 und dem R650 ist völlig offen. Wenn ATIs Zeitplan straffer ist, liegt das wohl daran, dass ATI hier weiter ist als NV. Das hat aber mit den "alten" Chips G80 und R600 nichts zu tun. TSMC bietet den 65nm Prozess erst seit kurzen an und beide IHVs arbeiten genau seit dem Zeitpunkt daran. Der R600 hat sich verzögert, aber das heisst noch lange nicht, dass sich der R650 auch verzögern muss... es ist ein anderer Chip.

HOT
2007-05-31, 15:12:23
Hehe so wie ich es sehe wurde jeweils ohne AA gebencht...
Nur die 3DMark und X3. Beim Rest ist AA an. Immer 4x MSAA. AF ist auch überall an. NV Treiber ist 158.22.

mapel110
2007-05-31, 15:22:14
Hat Stalker nicht gerade erst einen massiven FPS-Boost durch neue nVidia-Treiber erfahren?

Jo, der 158.27 unter XP soll viel bringen. Getestet wurde da ja der 158.18 oder so.
Hehe so wie ich es sehe wurde jeweils ohne AA gebencht...
Bei Stalker geht entweder max detail oder AA.

HOT
2007-05-31, 15:25:13
Jo, der 158.27 unter XP soll viel bringen. Getestet wurde da ja der 158.18 oder so.
[...]
158.22

Gast
2007-05-31, 16:17:17
Nur die 3DMark und X3. Beim Rest ist AA an. Immer 4x MSAA. AF ist auch überall an.

Und das erkennst du woraus?

Sterem
2007-05-31, 16:23:05
Und das erkennst du woraus?

Versuch dein Gehirn anzustrengen.

Klick einfach auf das Bild wo die Settings sind.

deekey777
2007-05-31, 16:51:33
Echt mal hart! Schaut Euch mal die Benchmark-Ergebnisse an.-Dei neuen Treiber scheinen zu wirken. http://legionhardware.com/document.php?id=650 Da schlägt die 2900XT teilweise auch ne 8800GTX massiv.-Gerade z.B. bei Stalker. Der Hammer! Aber um einen wirklich guten Vergleich zu haben hätte ich mehr Games gebencht. Trotzdem-Very impressive!
Wie ich schon im (P)Review-Thread geschrieben habe, ist der verwendete Treiber der "Launch-Treiber" vom 14. Mai (der einzige offizielle Treiber, den man bei ATi/AMD herunterladen kann).

Wichtiger Hinweis:
2007-05-31, 16:58:34
Wie ich schon im (P)Review-Thread geschrieben habe, ist der verwendete Treiber der "Launch-Treiber" vom 14. Mai (der einzige offizielle Treiber, den man bei ATi/AMD herunterladen kann).

Test unbrauchbar. Keine Angaben zu den Treibereinstellungen. Kaum AA&AF verwendet, und dann nur EATM.

Gast
2007-05-31, 17:03:15
und was sehen wir da?
nimm doch mal etwas mehr AA.....und etwas weniger eatm.....und was bleibt dann übrig..meine herren....die roten brillen...schlimm schlimm....hin und wieder könnte man meinen es sind einige über 12 jährige hier aber in diesem Thread nicht!

aths
2007-05-31, 17:09:28
Die ganzen Rückfragen, wieso die R600-BQ so schlecht sein soll und was (in Bezug auf den Preis) an der Performance so unbefriedigend sein soll, sind gar nicht oder nicht aussagekräftig beantwortet worden. Daher gehe ich mal davon aus, dass einige nur gegen R600 anstinken wollten ohne was in der Hand zu haben.

4711
2007-05-31, 17:17:24
schon klar.......über die BQ sagt kein aas was nur zu den Tests die sind ja so schön pro Ati gelle...getraut euch doch mal 4x4,16xS oder ähnliches was Ati zu bieten hat +16af..in 1920x1200 ..und dann unterhalten wir uns noch mal.

in Bezug auf den Preis>an der Performance>darauf hab ich auch gewartet....meine nächste Karte kostet dann 1000€ dann hab Power in allen Lebenslagen...oha....

C.D.B.
2007-05-31, 20:36:57
Hehe so wie ich es sehe wurde jeweils ohne AA gebencht...
Nur die 3DMark und X3. Beim Rest ist AA an. Immer 4x MSAA. AF ist auch überall an. NV Treiber ist 158.22.

Falsch! X³ wurde mit AA+AF gebencht. Von den nicht gesetzten Checkmarks dürft ihr euch nicht irritieren lassen. Die grau hinterlegten Werte beziehen sich dadurch auf die Treiber-Einstellungen! (Ich stelle bei X³ AA+AF auch über die Treiber ein, daher kenne ich das Bild (http://sektor101.se.funpic.de/X3Settings.png) in den Settings genau) ;)
Der Settings-Snapshot zeigt allerdings die Einstellungen bei der 8800GTX. Da im Text kein Vermerk marke "... haben HD2900XT unter anderen Settings getestet..." vorhenden ist, denke ich, daß die Ergebnisse der HD2900XT mit aktivem AA+AF (8x/16x) zustande gekommen sind.

Gast
2007-05-31, 21:28:59
Versuch dein Gehirn anzustrengen.

Klick einfach auf das Bild wo die Settings sind.

Versuchs mal mit einer Brille.

deekey777
2007-05-31, 22:03:51
Test unbrauchbar. Keine Angaben zu den Treibereinstellungen. Kaum AA&AF verwendet, und dann nur EATM.
Wichtiger Hinweis: Wie wäre es einfach auf die Bilder zu klicken?
Und EATM gibt es bei dem verwendeten Treiber (noch) nicht.

http://www.legionhardware.com/document.php?id=650&p=2

aths
2007-06-01, 03:20:31
schon klar.......über die BQ sagt kein aas was nur zu den Tests die sind ja so schön pro Ati gelle...getraut euch doch mal 4x4,16xS oder ähnliches was Ati zu bieten hat +16af..in 1920x1200 ..und dann unterhalten wir uns noch mal.Das war so wirr, das habe ich jetzt nicht verstanden.

in Bezug auf den Preis>an der Performance>darauf hab ich auch gewartet....meine nächste Karte kostet dann 1000€ dann hab Power in allen Lebenslagen...oha....Auch das hab ich jetzt nicht gerafft.

Gast
2007-06-01, 03:47:25
Sorry, aber von den Ingameeinstellungen halte ich rein gar nichts, da die Einstellungen im Treiber ausschlaggebend sind. Und dazu gibt es keine Screenshots und auch keine Angaben im Text. Also ein ziemlich unseriöser Test, wenn man keine Angaben zu den Treibereinstellungen macht.

HOT
2007-06-01, 11:13:30
So ein Blödsinn. Die Eingameeinstellungen sind selbstredend entscheidend, da das die Implementation des jeweiligen Entwicklers für sein Game ist. Es gibt natürlich auch Negativbeispiele dafür, aber auch hier bestätigen Ausnahmen die Regel. Ingameeinstellungen sind, falls sie sich überhaupt von den Treibereinstellungen unterscheiden, nahezu immer performanter und sehen besser aus als erzwungene Einstellungen. Wenn ich kann nutze ich immer Ingamesettings.
Hauptsache es wird nach einem Grund gesucht, warum die X2900XT nicht konkurrenzfähig sein kann...

Gast
2007-06-01, 15:43:32
Ingameeinstellungen sind, falls sie sich überhaupt von den Treibereinstellungen unterscheiden, nahezu immer performanter und sehen besser aus als erzwungene Einstellungen. Wenn ich kann nutze ich immer Ingamesettings..Es gibt aber leider auch Spiele in denen du mit Ingameeinstellungen nur Bi-AF bekommst. Das ist natürlich schneller, sieht aber auch deutlich schlechter aus.

Tjell
2007-06-01, 15:45:48
Der R600 ist konkurrenzfähig, der R650 wird mit Sicherheit sogar einen bedeutenden Schritt besser.

Nur ist es enttäuschend, dass ATI so lange gebraucht hat, um am Ende (bisher) nicht schneller zu sein und das bei einem so hohen Stromverbrauch.

Was erschreckend ist, wie man mit solch schlechten Treibern auf den Markt kommen kann, wenn man das Produkt eigentlich schon längst herausgebracht haben wollte.

Zugegeben, der G80 wird treiberseitig auch noch erst voll erschlossen, aber die "Einbußen" waren am Anfang schon nicht so gravierend, als dass es nicht zur schnellsten Grafikkarte am Markt gereicht hat.

Gast
2007-06-01, 15:59:53
Der R600 ist konkurrenzfähig, der R650 wird mit Sicherheit sogar einen bedeutenden Schritt besser.



Konkurrenzfähig wozu? Zur 8800GTX/Ultra sicher nicht, zur 8800GTS schon, aber dafür frißt er erheblich zuviel Strom.
Deine Glaskugel zum R650 möchte ich auch haben.:)

HOT
2007-06-01, 16:03:08
Na ja, er frisst mehr Strom, ist teilweise aber deutlich besser als die GTS und die Preise stimmen auch. Wenn dann bitte die ganze Wahrheit.

HOT
2007-06-01, 16:03:59
Es gibt aber leider auch Spiele in denen du mit Ingameeinstellungen nur Bi-AF bekommst. Das ist natürlich schneller, sieht aber auch deutlich schlechter aus.
Deswegen schrieb ich, dass es schwarze Schafe gibt. Bitte demnächst genauer lesen. Ausnahmen bestätigen die Regel.

Gast
2007-06-01, 16:07:07
Na ja, er frisst mehr Strom, ist teilweise aber deutlich besser als die GTS und die Preise stimmen auch. Wenn dann bitte die ganze Wahrheit.


Teilweise ist er auch deutlich schlechter als die GTS. Wenn dann bitte die ganze Wahrheit.

Tjell
2007-06-01, 16:07:56
Konkurrenzfähig wozu? Zur 8800GTX/Ultra sicher nicht, zur 8800GTS schon, aber dafür frißt er erheblich zuviel Strom.
Deine Glaskugel zum R650 möchte ich auch haben.:)
Du berücksichtigst also nicht das Verhältnis von Preis zu Leistung?

Momentan steht die 2900 XT in beiden Belangen zwischen der 8800 GTS und der GTX. Das nennt man konkurrenzfähig.

ATI ist sich mit Sicherheit der Designschwächen des R600 bewusst und wird hoffentlich die Chance nutzen, ähnlich wie NVIDIA bei der FX5900, die gröbsten Schnitzer beim R650 zu beseitigen.

HOT
2007-06-01, 16:08:23
Teilweise ist er auch deutlich schlechter als die GTS. Wenn dann bitte die ganze Wahrheit.
Aber nur selten. Das wird sich zudem noch geben.

Gast
2007-06-01, 17:37:18
Laut Computerbase ist die HD 2900 XT schlechter als die 8800 GTS (640 MB), laut THG sogar schlechter als die 8800 GTS (320 MB).
Und in Direct3D 10 ist die HD 2900 XT sogar noch schlechter (nur 50% der GTS-Performance bei Lost Planet, nur 75% der GTS-Performance bei Variance Shadow Maps).

---

i love my x1800xt

DerKleineCrisu
2007-06-01, 18:09:01
Na ja, er frisst mehr Strom, ist teilweise aber deutlich besser als die GTS und die Preise stimmen auch. Wenn dann bitte die ganze Wahrheit.


Sorry aber für das das ne ATI knapp 60 - 80 W mehr braucht ist ihre Leistung nur lächerlich.

Bei so einem Mehrverbraucht müsste sie 50 % mehr Leistung als ne GTX bringen das es gerechtfertigt währe.


Würde ja gerne ne ATI kaufen aba so. Nee abwarten Tee Trinken und auf die x2600 serie warten vieleicht wird die besser. Wobei man da sagen muss das diese Grakas auch verspätet kommen. AMD hatte doch gesagt sie wollen alle Graka´s gleichzeitig bringen warum kommt dann diese Serie auch erst 2 Monate später nach der HighEnd Graka ?.

Gast
2007-06-02, 02:32:25
Ich halte nichts von Ingameeinstellungen, weil die Treibereinstellungen höhere Priorität haben. Solange keine Screens von den Treibereinstellungen im Test zu sehen sind, bleibt es unseriös.

Lt. allen seriösen Tests die ich bisher gesehen habe, kann die HD2900XT der 8800GTS bei zugeschaltetem AA/AF in 95% der Spiele nicht das Wasser reichen - Punkt.

Da ich mit dem Umstieg vom G71 auf die neue Generation warten wollte bis Ati den R600 fertig hat, der bekannterweise nun 6 Monate nach dem G80 erst gelauncht wurde und auch noch dermassen enttäuscht, werde ich auf die nächste Generation warten, irgendwie läufts noch ganz anständig in den aktuellen Games und 300 Euro für eine HD2900XT oder eine 8800GTS 640MB sind mir zuviel für das was dabei rumkommt.

jay.gee
2007-06-02, 03:44:49
irgendwie läufts noch ganz anständig in den aktuellen Games und 300 Euro für eine HD2900XT oder eine 8800GTS 640MB sind mir zuviel für das was dabei rumkommt.

Vielleicht preisleistungstechnisch nicht zuviel, aber ich sehe das eigentlich ähnlich. Bei den meissten aktuellen Games ist es mir egal, ob ich nun ~70, 90 oder halt 200FPS habe. Daher lasse ich diese ganze Generation wohl ruhig mal aus und schlage zu, wenn wieder richtig Power am Start ist. ;) Mit Blick auf Games ala Bioschock, Crysis, UT3 und Co kann man sich da doch ruhig noch Zeit lassen. Ich gehe davon aus, dass die derzeitige Tophardware beim Release der zukünftigen Highlights nicht mehr das gelbe vom Ei ist - daher ist der gegenwärtige Zeitpunkt für ein Hardwareupgrade wohl sehr ungünstig - zumindestens auf die Leute bezogen, die schon ein wenig Power im Kasten haben. Wenn die Topgames kommen, bekommt man halt wieder mehr Leistung fürs Geld. Und diese "Mehrleistung" dürfte man ohne Frage dann auch brauchen. ;)

Nakai
2007-06-02, 11:23:28
Lt. allen seriösen Tests die ich bisher gesehen habe, kann die HD2900XT der 8800GTS bei zugeschaltetem AA/AF in 95% der Spiele nicht das Wasser reichen - Punkt.

Das halte ich für ein Gerücht.

mfg Nakai

Gast
2007-06-02, 14:55:49
Das halte ich für ein Gerücht.

mfg Nakai

Das ist kein Gerücht. Das stimmt wirklich.

:o)Uhummel
2007-06-02, 15:05:20
Geil, "mein" Thread hats auf die 3DCenter-Haupseite geschafft.-Wie ich schon auf Seite 15 geschrieben habe: "Au Leute! Hätte nie gedacht, daß ich mit meinem kl. "Aufruf" (Hinter das Frechheit im Titel sollte noch ein ?) so viele Leute erreiche bzw. dazu bewege Ihre Meinung kund zu tun.-Geil! -Sieht man gerade mal wie massiv die Leute so ein Thema interessiert und wie massiv sich die Meinungen unterscheiden."

P.s. Außerdem: Ich finde es sehr schade, daß in solchen Zeiten der G80 in 2D nicht heruntertaktet.-Das wollte NV doch schon lange per BIOS -bzw. Treiberupdate beheben. Zum Glück ist der G80 aber nicht so ein Stromfresser wie der R600.-OK, dieser taktet auch um einiges höher. Trotzdem: Die lauten Lüfter (Standarddesign) und die Hitzeentwicklung sind echt mal ein Prob..-V.a. bei CF!

Nakai
2007-06-02, 15:50:07
Das ist kein Gerücht. Das stimmt wirklich.

Aber keine 95%.:rolleyes:

Und auch nur in bestimmten Games, mittlerweile sollte das durch Treiber verbessert worden sein.

mfg Nakai

mapel110
2007-06-02, 16:05:11
Aber keine 95%.:rolleyes:

Und auch nur in bestimmten Games, mittlerweile sollte das durch Treiber verbessert worden sein.

mfg Nakai
mittlerweile? Soweit mir bekannt ist, ist der Cat7.5, der erst vor ein paar Tagen offiziell veröffentlicht wurde, der Launchtreiber der 2900er. Also ich seh noch keinen neuen Treiber.

Sterem
2007-06-02, 16:20:05
Das ist kein Gerücht. Das stimmt wirklich.

http://www.k-hardware.de/artikel.php?s=c&artikel_id=6670

Erzähl keine Märchen.

Gast
2007-06-02, 17:59:11
http://www.k-hardware.de/artikel.php?s=c&artikel_id=6670

Erzähl keine Märchen.

Schonmal geschaut, wie alt der Treiber ist? Also erzähl hier mal keine Märchen. Es hat sich nichts seit dem Launch geändert.

Gast
2007-06-03, 23:37:39
was willst du damit sagen?

Wird die GTS etwa nicht jedes mal mehr als geschlagen?

Mr. Lolman
2007-06-03, 23:43:37
Sorry aber für das das ne ATI knapp 60 - 80 W mehr braucht ist ihre Leistung nur lächerlich.



Vergleich mal ne X1950pro mit ner 7900GTX. Da ist das ähnlich (nur halt andersrum)...

Coda
2007-06-03, 23:48:44
Es gibt mehr als genug Spiele wo eine 7900GTX deutlich schneller ist als eine X1950Pro.

Gast
2007-06-04, 00:53:27
Es gibt mehr als genug Spiele wo eine 7900GTX deutlich schneller ist als eine X1950Pro.

Und auch diverse Spiele wo sich langsamer ist. Bei Computerbase sind sie ca. gleich schnell: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

mapel110
2007-06-04, 01:01:25
Vergleich mal ne X1950pro mit ner 7900GTX. Da ist das ähnlich (nur halt andersrum)...
10 Watt mehr unter Idle, 5 Watt mehr unter Last.
Und sie ist dabei auch noch schneller. Schlechter Vergleich.

Mr. Lolman
2007-06-04, 01:11:25
10 Watt mehr unter Idle, 5 Watt mehr unter Last.
Und sie ist dabei auch noch schneller. Schlechter Vergleich.

Die 10Watt sind aber >30% Mehrverbrauch. Und bei Xbitlabs sinds unter Last fast 20Watt. (auch knapp 30%)

EDIT: Und von schneller kann man eigentlich auch nicht sprechen, wenn man sich das Performancerating bei Computerbase ansieht.

Gast
2007-06-04, 06:08:25
EDIT: Und von schneller kann man eigentlich auch nicht sprechen, wenn man sich das Performancerating bei Computerbase ansieht.Die Benchmarks, in denen auf R5x0 und G80 HDR-Rendering und MSAA benutzt wird, fließen bei der 7900GTX als Nullwertung ein, was das Rating doch ein wenig verzerrt. Außerdem wurde unfairerweise HQ gegen AI-Standard gebencht und die Spielauswahl ist mittlerweile auch ein wenig nachteilig für G70.

Gast
2007-06-04, 07:25:19
mittlerweile? Soweit mir bekannt ist, ist der Cat7.5, der erst vor ein paar Tagen offiziell veröffentlicht wurde, der Launchtreiber der 2900er. Also ich seh noch keinen neuen Treiber.

Nein, der Cat. 7.5 ist neuer als der Launchtreiber. Der Launchtreiber war. Version 8.37.43 und der Cat. 7.5 ist Version 8.38.XX. Es gibt auch durchaus einige Performanceverbesserungen, wenn man sich die Benchmarks einiger R600-Besitzer zu gemüte führt.

Gast
2007-06-04, 10:14:43
Die Benchmarks, in denen auf R5x0 und G80 HDR-Rendering und MSAA benutzt wird, fließen bei der 7900GTX als Nullwertung ein, was das Rating doch ein wenig verzerrt. Außerdem wurde unfairerweise HQ gegen AI-Standard gebencht und die Spielauswahl ist mittlerweile auch ein wenig nachteilig für G70.

Beim G70 ist HQ gegen AI standard absolut ok.

Gast
2007-06-04, 10:15:07
http://www.k-hardware.de/artikel.php?s=c&artikel_id=6670

Erzähl keine Märchen.

Lern du erstmal lesen. ich sag nur Treiber.!
fanboy gut und schön aber sich dämlich stellen noch dazu?

Gast
2007-06-04, 10:25:35
Vergleich mal ne X1950pro mit ner 7900GTX. Da ist das ähnlich (nur halt andersrum)...

Willst du behaupten, dass die GTS das bessere Produkt ist, da sie gleichschnell ist und dabei weniger verbraucht?

Mr. Lolman
2007-06-04, 11:18:06
Die Benchmarks, in denen auf R5x0 und G80 HDR-Rendering und MSAA benutzt wird, fließen bei der 7900GTX als Nullwertung ein, was das Rating doch ein wenig verzerrt.

AFAIK fliessen die nich mit ein.

MechWOLLIer
2007-06-04, 12:05:47
In die normalen Ratings fließen ide als 0 FPS ein.
Allerdings haben wir Extra-Ratings erstellt, die die HDR+MSAA-Spiele nicht berücksichtigen. Dazu einfahc am Ende der Ratings den Klapptext öffnen.

Tectrex
2007-06-04, 12:17:07
Lt. allen seriösen Tests die ich bisher gesehen habe, kann die HD2900XT der 8800GTS bei zugeschaltetem AA/AF in 95% der Spiele nicht das Wasser reichen - Punkt.
Kann ich nur bestätigen...hatte meine GTS gegen eine XT getauscht und nun wieder ne GTS bestellt^^
Die BQ ist sehr gut...ich habe kaum Unterschiede sehen können (hab allerdings auch nicht allzuviel Zeit gehabt da was zu sehen, da meine XT noch am gleichen Tag abgeraucht ist...einfach so)....Lautstärke ist für A....aber Temps sind gut...nur ist kein Wunder bei der Lüfterdrehzahl.
Leistung unter AA u. AF ist extrem shice..
Treiber sind die schlechtesten die ich je installiert habe^^
http://www.k-hardware.de/artikel.php?s=c&artikel_id=6670

Erzähl keine Märchen.
Der Test ist ein Märchen;)

Gast
2007-06-04, 12:36:24
Beim G70 ist HQ gegen AI standard absolut ok.

AI ist niemals ok, weil man nicht weiss, wo da an Bildqualität gespart wird.
Besser wäre G70 HQ gegen das Standard-AF der R5x0 mit AI off.

Gast
2007-06-04, 12:55:33
AI ist niemals ok, weil man nicht weiss, wo da an Bildqualität gespart wird.
Besser wäre G70 HQ gegen das Standard-AF der R5x0 mit AI off.

Lol, wenn man es nicht weiss, also nicht sieht (ich gehe mal davon aus dass der Testende sehend ist), warum sollte man es denn dann aus machen?

aths
2007-06-04, 15:21:46
Beim G70 ist HQ gegen AI standard absolut ok.Gerade so kein Flimmern vs. Flimmern ist OK? Finde ich nicht.

Lol, wenn man es nicht weiss, also nicht sieht (ich gehe mal davon aus dass der Testende sehend ist), warum sollte man es denn dann aus machen?Der Testende kann nicht das gesamte Bild im Blickfeld haben und auf alles gleichzeitig achten.

Es ist grundsätzlich nicht OK wenn der Treiber nicht das macht, was die Anwendung anfordert.

aths
2007-06-04, 15:23:28
P.s. Außerdem: Ich finde es sehr schade, daß in solchen Zeiten der G80 in 2D nicht heruntertaktet.-Das wollte NV doch schon lange per BIOS -bzw. Treiberupdate beheben. Zum Glück ist der G80 aber nicht so ein Stromfresser wie der R600.-OK, dieser taktet auch um einiges höher. Trotzdem: Die lauten Lüfter (Standarddesign) und die Hitzeentwicklung sind echt mal ein Prob..-V.a. bei CF!Ich warte darauf, dass die Highend-Karten eines Tages einen eigenen 2D-Chip spendiert bekommen.

Vielleicht preisleistungstechnisch nicht zuviel, aber ich sehe das eigentlich ähnlich. Bei den meissten aktuellen Games ist es mir egal, ob ich nun ~70, 90 oder halt 200FPS habe. Daher lasse ich diese ganze Generation wohl ruhig mal aus und schlage zu, wenn wieder richtig Power am Start ist. ;) Mit Blick auf Games ala Bioschock, Crysis, UT3 und Co kann man sich da doch ruhig noch Zeit lassen. Ich gehe davon aus, dass die derzeitige Tophardware beim Release der zukünftigen Highlights nicht mehr das gelbe vom Ei ist - daher ist der gegenwärtige Zeitpunkt für ein Hardwareupgrade wohl sehr ungünstig - zumindestens auf die Leute bezogen, die schon ein wenig Power im Kasten haben. Wenn die Topgames kommen, bekommt man halt wieder mehr Leistung fürs Geld. Und diese "Mehrleistung" dürfte man ohne Frage dann auch brauchen. ;)Dass die Nachfolger für das gleiche Geld mehr Leistung bieten werden, ist eine Binsenweisheit. Ob man die Leistung dann auch braucht, ist Geschmacksfrage. Dein Posting liest sich so, als sei es besonders schlau, jetzt auf einen Kauf zu verzichten (also dass die Käufer der aktuellen Generation nicht besonders schlau gehandelt hätten) – dabei kann man sowas im Vorhinein nie wissen.

Nakai
2007-06-04, 15:24:15
Besser wäre G70 HQ gegen das Standard-AF der R5x0 mit AI off.

OMG damit die ATI richtig verliert, weil Optimierungen zu den Spielen fehlen?^^

Du bist gut...

Gerade so kein Flimmern vs. Flimmern ist OK? Finde ich nicht.

Was will man sonst machen?


mfg Nakai

Gast
2007-06-04, 15:27:22
Was will man sonst machen?AI-Off. ATI ist doch selbst schuld, wenn sie Bugfixes an Filtercheats koppeln. Letztendlich muss man sich als Käufer einer ATI-Karte doch eh mit dem Speed unter AI-Off abfinden. Wer gibt denn derart viel Geld aus um sich das AI-Geflimmer anzutun? Das gleiche gilt übrigens auch für NV, auch dort soll gefälligst mit HQ gebencht werden.

Nakai
2007-06-04, 15:36:13
AI-Off. ATI ist doch selbst schuld, wenn sie Bugfixes an Filtercheats koppeln. Letztendlich muss man sich als Käufer einer ATI-Karte doch eh mit dem Speed unter AI-Off abfinden. Wer gibt denn derart viel Geld aus um sich das AI-Geflimmer anzutun? Das gleiche gilt übrigens auch für NV, auch dort soll gefälligst mit HQ gebencht werden.

Wobei bei HQ immer noch Filtertricks aktiviert sind.

Aber wieso sollte ATI Schuld sein, dass ist das Problem der Kunden nicht von ATI. Und die paar Leute die deswegen keine ATI kaufen, kann man getrost ignorieren.

mfg Nakai

aths
2007-06-04, 15:45:39
OMG damit die ATI richtig verliert, weil Optimierungen zu den Spielen fehlen?^^

Du bist gut...

Was will man sonst machen?HQ vs. AI off.

Wobei bei HQ immer noch Filtertricks aktiviert sind.Welche denn?

Nakai
2007-06-04, 15:47:26
Frag deinen Kollegen.^^

http://3dcenter.de/artikel/neue_filtertricks/index3.php

mfg Nakai

Gast
2007-06-04, 15:58:06
Aber wieso sollte ATI Schuld sein, dass ist das Problem der Kunden nicht von ATI.Wenn ATIs Produkt mangelhaft ist, ist das natürlich das Problem der Kunden. Diese sollten das Produkt dann besser nicht kaufen, bis ATI eine vernünftige Lösung anbietet.

Gast
2007-06-04, 16:00:16
OMG damit die ATI richtig verliert, weil Optimierungen zu den Spielen fehlen?^^

Du bist gut..

mfg Nakai


Es gibt bis heute keinen einzigen Nachweis, dass mit AI off spielespezifische Optimierungen abgeschaltet werden.

Nakai
2007-06-04, 16:01:59
Diese sollten das Produkt dann besser nicht kaufen, bis ATI eine vernünftige Lösung anbietet.

Nur das die meisten Kunden nicht genug Wissen haben um das erkennen. Vielen ist es reichlich egal, welche Graka sich im System befindet. Vorallem bei OEM-Käufen.

mfg Nakai

aths
2007-06-04, 16:03:44
Frag deinen Kollegen.^^

http://3dcenter.de/artikel/neue_filtertricks/index3.php

mfg NakaiWarum fasst du das Wesentliche nicht in 2, 3 Sätzen zusammen anstatt auf einen langen Artikel zu verlinken?

Nakai
2007-06-04, 16:12:16
Das Bild mit den Balken der Performance zeigt 3 Balken an. 1. bei normaler Q, 2. bei HQ und 3. bei HQ ohne andere Optimierungen.

Daraus schließe ich, dass noch mehr Filteroptimierungen versteckt sind.

mfg Nakai

aths
2007-06-04, 16:17:08
Das Bild mit den Balken der Performance zeigt 3 Balken an. 1. bei normaler Q, 2. bei HQ und 3. bei HQ ohne andere Optimierungen.

Daraus schließe ich, dass noch mehr Filteroptimierungen versteckt sind.

mfg NakaiJaaa bei HQ mit aktiven "Optimierungen". Da gibt es ja diesen bekannten "Bug" im Treiber, der so tut als seien bei HQ alle Qualitätsverschlechterungen automatisch deaktiviert, obwohl das nicht der Fall ist.

reunion
2007-06-04, 16:17:46
Welche denn?

Es wird auch noch auf HQ unterfiltert. Sieht man sehr schön, wenn man NV4x mit G7x vergleicht. Daher ist HQ vs. AI_low bei G7x vs. R5xx IMHO absolut okay. Auch CB hat sich ja nicht ohne Grund dazu entschieden, so zu vergleichen.

Blaire
2007-06-04, 16:28:22
AI Standard flimmerte trotzdem oft mehr als NV HQ Modus. Vor allem Source Engine Games, kenne aber auch Fälle wo Atis AI Standard weniger flimmerte als NV HQ. Man kann es nicht jedem Recht machen.
Allerdings find ich es falsch wenn man Ati Karten AI Standard mit Optimierungen gegen NV HQ Modus ohne Optimierungen vergleicht. Gerade bei den älteren NV Karten kostete HQ ne ganze Menge Leistung so daß letzlich ein falsches Bild in den Benchmarks wiedergespiegelt wird. Und das kann es auch nicht sein.

reunion
2007-06-04, 16:48:46
Allerdings find ich es falsch wenn man Ati Karten AI Standard mit Optimierungen gegen NV HQ Modus ohne Optimierungen vergleicht.


Der Punkt ist, dass HQ nicht frei von Optimierungen ist (auf G7x), daher ist der Vergleich IMO völlig legitim. Ich meine soll einfach stupide der zweitbeste Modus verglichen werden, oder achten wir nicht doch besser auf die IQ?

L.ED
2007-06-04, 16:49:43
Wenn das so weiter laufen soll ist es vielleicht besser die beiden Grafikkarten Hersteller, einschließlich Vorgängergenerationen aus selbigen Hause, nicht mehr zusammen antreten zulassen!?

Oder zu mindestens nicht mehr in Balken vergleichen direkt auf einem Blick zusammen.

Dessen forciert nämlich geradezu das zusätzlich die Hersteller noch auf die Idee kommen wahlweise die ältere Generation Treiber Technisch noch schlechter zu machen bzw. gleichsam geneigt dazu die Aktuelle extremer Bildqualitativ in den Keller zu Treten (möglichst natürlich in der Hoffnung das es zu und unter landläufig bekannten Testbedingungen nicht auffällt). Auf das die Balkenlänge sich möglichst Hübsch vom Vorgänger unterscheidet und natürlich auch vom Konkurrenten.


Das sind alles keine Vergleiche und Test mehr die auf Level Ablaufen die welche wirkliche Vergleichbarkeit im Detail zulassen (ist leider so und sieht man doch immer wieder?). Und als Tester und geneigter Kunde läuft man immer Gefahr (mehr und mehr nur noch) verarscht zu werden. ^^ :mad:

Ich bin dafür die jeweiligen Generationen nur noch separat und dafür umso eingehender zu Betrachten und dererlei Vergleicheziehen sich dann auszusparen. :cool:

3DCenter ist da ja sowieso Vorreiter und macht schon jetzt einiges anders als andere (und das ist auch gut so). Vielleicht währe das ein weiterer Ansatz für die Zukunft was die Grafikkarten Reviews belangt?

Blaire
2007-06-04, 17:00:50
Der Punkt ist, dass HQ nicht frei von Optimierungen ist (auf G7x), daher ist der Vergleich IMO völlig legitim. Ich meine soll einfach stupide der zweitbeste Modus verglichen werden, oder achten wir nicht doch besser auf die IQ?

Wer sagt dir denn , das AI off alle Optimierungen aus hat? ;) Ich erinner da mal gern an FEAR was mit AI off schneller lief als mit AI Standard. Die tricksen alle Beide glaub mal.

reunion
2007-06-04, 17:06:13
Wer sagt dir denn , das AI off alle Optimierungen aus hat? ;)


Selbst wenn es so wäre, was ändert das daran, dass HQ auf G7x mit AI-low auf R5xx laut CB am besten vergleichbar ist?


Ich erinner da mal gern an FEAR was mit AI off schneller lief als mit AI Standard.

Bug.

desert
2007-06-04, 17:10:58
Treibereinstellungen: nVidia-Grafikkarten

Systemleistung: Hohe Qualität
Vertikale Synchronisierung: Aus
MipMaps erzwingen: keine
Trilineare Optimierung: Aus
Anisotrope Mip-Filter-Optimierung: Aus
Optimierung des anisotropen Musters: Aus
Negativer LOD-Bias: Clamp
Gamma-angepasstes AA (G7x): Ein
Transparenz AA (G7x): Ein
Treibereinstellungen: ATi-Grafikkarten

Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
Adaptive Anti-Aliasing (R5x0): On
High Quality AF: Off (On bei einem CF-System im Hohe-Qualität-Modus)

wo ist denn hier a.i low? ich sehe es nicht, sehe nur standard und laut den bildern die in der letzten pcgameshardware waren, ist ein witz sondergleichen das noch immer standard gegen hq getestet wird.

reunion
2007-06-04, 17:15:11
wo ist denn hier a.i low? ich sehe es nicht, sehe nur standard und laut den bildern die in der letzten pcgameshardware waren, ist ein witz sondergleichen das noch immer standard gegen hq getestet wird.

"Standard" hieß früher "low" AFAIK. Es wird nur bei G7x mit HQ gebencht, nicht bei G8x, und das wird auch entsprechend begründet:

Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann – dies trifft aber nur auf die G7x-Generation zu, die G8x-GPUs werden mit den Standardeinstellungen des Treibers getestet, weil die Bildqualität stark zugenommen hat. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.

Gast
2007-06-04, 17:15:54
Treibereinstellungen: nVidia-Grafikkarten

Systemleistung: Hohe Qualität
Vertikale Synchronisierung: Aus
MipMaps erzwingen: keine
Trilineare Optimierung: Aus
Anisotrope Mip-Filter-Optimierung: Aus
Optimierung des anisotropen Musters: Aus
Negativer LOD-Bias: Clamp
Gamma-angepasstes AA (G7x): Ein
Transparenz AA (G7x): Ein
Treibereinstellungen: ATi-Grafikkarten

Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
Adaptive Anti-Aliasing (R5x0): On
High Quality AF: Off (On bei einem CF-System im Hohe-Qualität-Modus)

wo ist denn hier a.i low? ich sehe es nicht, sehe nur standard und laut den bildern die in der letzten pcgameshardware waren, ist ein witz sondergleichen das noch immer standard gegen hq getestet wird.


Find ich ja witzig das du in jedem Fred zum Thema deinen Senf zugeben musst und nichtmal weißt, dass AI-Low = AI Standard ist.

sulak
2007-06-04, 18:22:27
Es wird nur bei G7x mit HQ gebencht, nicht bei G8x, und das wird auch entsprechend begründet:

Naja das macht den Bock auch net Fett, ob Q oder HQ macht zumindest beim Highend G80 nichts aus, da die Werte meist in der Messungenauigkeit liegen.
In einem Jahr sind wir hoffentlich davon weg, WU AF und wenig gecheate dank hoher Füllrate.

Raff
2007-06-04, 19:11:20
"Standard" hieß früher "low" AFAIK. Es wird nur bei G7x mit HQ gebencht, nicht bei G8x, und das wird auch entsprechend begründet:

Und diese Begründung stimmt. Aber was spricht dagegen, bei beiden die "Optimierungen" schlafen zu legen und HQ zu benchen? A.I. Off gegen G8x-HQ. Maximale BQ bei (Post-)300€-Karten!

Naja das macht den Bock auch net Fett, ob Q oder HQ macht zumindest beim Highend G80 nichts aus, da die Werte meist in der Messungenauigkeit liegen.
In einem Jahr sind wir hoffentlich davon weg, WU AF und wenig gecheate dank hoher Füllrate.

Einen G80 kann HQ fast 10% Leistung kosten.

MfG,
Raff

mapel110
2007-06-04, 19:25:30
Und diese Begründung stimmt. Aber was spricht dagegen, bei beiden die "Optimierungen" schlafen zu legen und HQ zu benchen? A.I. Off gegen G8x-HQ. Maximale BQ bei (Post-)300€-Karten!


Dann wären bei nvidia immernoch die Shaderreplacements aktiv.


Einen G80 kann HQ fast 10% Leistung kosten.
MfG,
Raff
Dann mal her mit den Zahlen. 32xS bei 16AF/1600x1200 und UT2004? :ugly:
http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/index8.php

/edit
ahhh, SS2 mit 1600x1200 und 16xAF, da verliert allerdings eine X2900er auch etwa 50 % ihrer Leistung.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung

Gast
2007-06-04, 20:24:29
Dann wären bei nvidia immernoch die Shaderreplacements aktiv.



Bei ATI auch, außer wohl bei Doom3.

http://www.hardtecs4u.de/reviews/2006/x1900_7900/index7.php

Abschnitt II.

mapel110
2007-06-04, 21:53:16
Bei ATI auch, außer wohl bei Doom3.

http://www.hardtecs4u.de/reviews/2006/x1900_7900/index7.php

Abschnitt II.
Da steht nur "denn ATI beherbergt neben dem brilinearen Filter auch noch sinnvolle kleinere Bugfixes für Spiele und unter anderem auch Shaderreplacements für Doom 3 in ihrem A.I."

Das sagt nicht aus, dass nur die Shaderreplacements für Doom3 deaktiviert werden, wenn A.I. aus ist. Ich gehe eher davon aus, dass alle aus sind. Und es wäre auch naiv zu glauben, ATI hätte nur Shaderreplacements für Doom3 in ihren Treibern.

James Ryan
2007-06-05, 09:25:57
OMG damit die ATI richtig verliert, weil Optimierungen zu den Spielen fehlen?^^


Ja. Das ist dann ATis Problem ihre Spieleoptimierungen an AI zu koppeln. Erst wenn konsequent mit AI-off gebencht wird und die ATi-Karten dabei ordentlich verlieren, überdenkt ATi vielleicht ihre AI-Strategie.
Solange aber munter AI-low vs. NV HQ gebencht wird, lacht ATi sich ins Fäustchen und die BQ-Verschlechterungen gehen weiter.

MfG :cool:

Gast
2007-06-05, 09:31:17
Dann wären bei nvidia immernoch die Shaderreplacements aktiv.Die verschlechtern ja auch nicht die Bildqualität, also können sie ruhig aktiv bleiben. Wenn man von ATI gezwungen wird sie abzuschalten um maximale Bildqualität zu erhalten, ist das eben ATIs Problem.

Gast
2007-06-05, 09:52:01
Und es wäre auch naiv zu glauben, ATI hätte nur Shaderreplacements für Doom3 in ihren Treibern.


http://www.hardtecs4u.de/reviews/2006/msi_7900gto/index6.php

http://www.hardtecs4u.de/reviews/2006/msi_7900gto/index7.php

Wie man hier sieht gibt es wohl wirklich nur Shaderreplacements bei Doom3 und Quake4.

Gast
2007-06-05, 14:48:04
http://www.hardtecs4u.de/reviews/2006/msi_7900gto/index6.php

http://www.hardtecs4u.de/reviews/2006/msi_7900gto/index7.php

Wie man hier sieht gibt es wohl wirklich nur Shaderreplacements bei Doom3 und Quake4.
Wenn das wirklich so wäre, wäre es wirklich Blödsinn bei ATI Bri (AIlow) gegen NV Bri (HQ) zu benchen. Zumal man auch bei nvidia speziell nur die TriOpt kaum sieht, wenn sie allein aktiv ist.

Gast
2007-06-05, 15:09:48
NV Bri (HQ)Unter HQ gibt es volles Tri-AF.

mapel110
2007-06-05, 21:06:31
Unter HQ gibt es volles Tri-AF.
eh ja. Korrigierter Satz:
Wenn das wirklich so wäre, wäre es wirklich Blödsinn bei ATI Bri (AIlow) gegen NV Tri (HQ) zu benchen. Zumal man auch bei nvidia speziell nur die TriOpt kaum sieht, wenn sie allein aktiv ist.
Gast war nämlich ich. :)

yusuf38
2007-06-06, 19:10:53
hoffen wir mal das sie diese besser macxhen und nicht so viel strom schlucken.

Stormscud
2007-06-07, 12:51:56
Zitat Gamestar: ;)

Wie Fudzilla berichtet, sind alle bisher aufgetauchten Informationen über den 65nm-R600, auch R650 genannt, falsch. AMD/ATi hätte versucht, die Personen ausfindig zu machen, die vertrauliche Informationen weitergeben und daher die erfundenen Informationen bewusst plaziert.

Damit wäre der R600. so wie er jetzt ist, das Beste, das ATi bis Weihnachten auf den Markt bringen wird. Wie man dieses Gerücht über andere Gerüchte einschätzen muss, bleibt unklar.

Hmmm... Und nun? Kann man nur hoffen dass das nur ein Gerücht ist, oder bringen die auch schon zum Jahreswechsel nen neuen Chip, wie Nvidia (hoffe doch dass ich mich da richtig entsinne)?

=Floi=
2007-06-07, 15:08:51
glaube ich einfach nicht

beim X1800 war es ebenfall so und da kam der nachfolger auch schneler und es MUSS eine überarbeitung her
so ein schlechtes management traue ich nicht mal AMD zu...

auch wäre das der todesstoß für die restlichen marktanteile

mapel110
2007-06-07, 15:11:43
glaube ich einfach nicht

beim X1800 war es ebenfall so und da kam der nachfolger auch schneler und es MUSS eine überarbeitung her
so ein schlechtes management traue ich nicht mal AMD zu...
Es muss doch kein R650 sein und es muss auch kein R600 @65nm sein. Na was bleibt dann noch?!
R600 bugfix @80nm

AnarchX
2007-06-07, 15:14:58
R350 wurde ja auch nicht in einem neuen Prozess gefertigt. ;)

aths
2007-06-07, 15:27:01
Es muss doch kein R650 sein und es muss auch kein R600 @65nm sein. Na was bleibt dann noch?!
R600 bugfix @80nmWelche Bugs sollten da gefixt werden?

Die gelbe Eule
2007-06-07, 15:55:38
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1340&Itemid=1

Damit wäre der R650 wohl "Geschichte" und traurig aber wahr, ist der R600 mit 1GB GDDR4 alles was wir dieses Jahr noch zu sehen bekommen.

mapel110
2007-06-07, 16:57:51
Welche Bugs sollten da gefixt werden?
Bei der Bandbreite ist der Leistungsverlust bei AA einfach zu hoch, auch unter Opengl wo es dabei ansich ja recht gut aussieht.
und vielleicht kann man ja doch noch den ein oder anderen Transistor dranklatschen um mehr Texturfüllrate zu haben.
bei 90nm hielt man ja 380 Mio Transistoren auch für das Ende der Fahnenstange und nun sind wir da bei 690 Mio.
Vielleicht gibts ja noch weitere Dinge im R600, die ihn trotz 700 Mio Transistoren bei 700 Mhz so mies aussehen lässt.
Ich halte das Teil jedenfalls für verbuggt. Bei den Daten sollte einfach mehr dabei rumkommen.

deekey777
2007-06-07, 17:50:41
Sind alle R650-Gerüchte „Presse-Enten“? (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/juni/sind_r650-geruechte_presse-enten/)
Alle Gerüchte über einen Die-Shrink oder die Herstellung des R600 in 65 nm wurden gezielt von AMD in der Firma gestreut, um die Leute heraus zu filtern, die Informationen an die Presse herausgeben und somit gegen die internen Verschwiegenheitsabkommen verstießen.

http://www.k-hardware.de/news.php?s=c&news_id=6399
Nicht nur bestätigte die kalifornische Chipschmiede uns gegenüber, dass der R600 in 65 nm kommen wird,
Wenn ich mich nicht täusche, hieß es, dass K-HW nie mit einem AMD-Offiziellen gesprochen hat. Und jetzt kommt die Bestätigung, dass sie es doch getan haben. :biggrin:

Die gelbe Eule
2007-06-07, 17:57:49
Viel Wind um nichts. Erstmal muss das Teil in 65nm stehen und wenn es soweit ist, kommt auch der G90, wenn nicht schon eher. Ob er nun R600 mit Respin heißt oder halt R650, völlig Schnurz. ATi hängt zu sehr hinten dran und NV gibt nunmal den Speed vor.

Mumins
2007-06-07, 18:30:43
glaube ich einfach nicht

beim X1800 war es ebenfall so und da kam der nachfolger auch schneler und es MUSS eine überarbeitung her
so ein schlechtes management traue ich nicht mal AMD zu...

auch wäre das der todesstoß für die restlichen marktanteile

X1900 war unabhängig von X1800 entwickelt worden.

Coda
2007-06-07, 19:43:33
Welche Bugs sollten da gefixt werden?
Das was mit dem Antialiasing nicht stimmt ist ja wohl offensichtlich. Und ich vertraue Ail wenn er davon redet, dass die Treiberprogrammierer bisher wahre Wunder gewirkt haben.

=Floi=
2007-06-07, 19:59:46
zitat
X1900 war unabhängig von X1800 entwickelt worden

und?
der R650 wird wohl ebenfalls unabhängig (weiter)entwickelt und ändert nichts daran dass er so früh wie möglich raus muß
R600 ist tot und jetzt muß man nach vorne sehen und angreifen!
inhten geld locker machen und mehr resourcen in die entwicklung neuer chips stecken

@ mapel
der R600 hat doch schon 80nm ;D
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/2/#abschnitt_technische_daten

Mumins
2007-06-07, 20:23:06
Es arbeiten immer 2 Entwicklerteams unabhängig an einem Projekt. X1900 wäre so oder so zu dem Datum gekommen, egal was mit X1800 war. Man hat da wegen X1800 nichts mit Druck gemacht.

mapel110
2007-06-07, 20:26:59
@ mapel
der R600 hat doch schon 80nm ;D

Ich hab nirgends das Gegenteil behauptet. Ich hab nur geschrieben, dass die Bugfix-Version @80nm wohl kommen könnte und wohl auch wird.
Wobei ich hoffe, dass es wirklich mehr wird als nur ein weiterer Tapeout.

Gmax
2007-06-07, 20:32:08
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1340&Itemid=1

Damit wäre der R650 wohl "Geschichte" und traurig aber wahr, ist der R600 mit 1GB GDDR4 alles was wir dieses Jahr noch zu sehen bekommen.

Nicht ganz. Eine R6oo mit 512 MB GDDR4 solls auch noch geben.

aths
2007-06-07, 21:29:10
Bei der Bandbreite ist der Leistungsverlust bei AA einfach zu hoch, auch unter Opengl wo es dabei ansich ja recht gut aussieht.
und vielleicht kann man ja doch noch den ein oder anderen Transistor dranklatschen um mehr Texturfüllrate zu haben.Transistoren dranklatschen? Ohne das Design umzustellen? Du hast Vorstellungen ...

Das mit dem AA könnte – Demirug äußerte diese Idee – vielleicht damit zu tun haben, dass R600 möglicherweise keine Color-Compression mehr nutzt, um das Downsampling via Shader zu ermöglichen. Es könnte auch sein, dass trotz der vergleichsweise geringen Texturfüllrate diese hohe Bandbreite gewählt wurde, um den (spekulativen!) Verlust der Color-Compression auszugleichen.

Ich halte das Teil jedenfalls für verbuggt. Bei den Daten sollte einfach mehr dabei rumkommen.Warten wir doch erst mal neuere Treiber ab.

Coda
2007-06-07, 21:33:55
Das mit dem AA könnte – Demirug äußerte diese Idee – vielleicht damit zu tun haben, dass R600 möglicherweise keine Color-Compression mehr nutzt, um das Downsampling via Shader zu ermöglichen. Es könnte auch sein, dass trotz der vergleichsweise geringen Texturfüllrate diese hohe Bandbreite gewählt wurde, um den (spekulativen!) Verlust der Color-Compression auszugleichen.
Sorry, aber das ist ausgemachter Blödsinn. Man kann Shaderdownsampling und Color Compression ohne Probleme gemeinsam machen und das funktioniert auf G8x auch bestens. Da ist einfach nur was am Arsch.

Nakai
2007-06-07, 21:36:03
Kaputte ROPs(da gab es mal was^^) und zu wenige Texelfüllrate.

mfg Nakai

mapel110
2007-06-07, 21:43:13
Warten wir doch erst mal neuere Treiber ab.
Laut Ailuros sollte man da nicht mehr allzuviel erwarten. Der Preis der X2900 wurde nicht aus Spaß so niedrig angesetzt.

Raff
2007-06-07, 21:45:27
Neue Treiber können aber mit einem gescheiten Compiler (Handoptimierung) zumindest die ALUs voll auslasten, was zumindest ohne FSAA (und AF) für eine dicke Leistung sorgen kann. Eventuell sollten sie mal Nvidia fragen, wie man das am besten macht ... die haben ja mit NV3x massig Erfahrung gesammelt. ;)

MfG,
Raff

Benedikt
2007-06-07, 21:46:14
Das was mit dem Antialiasing nicht stimmt ist ja wohl offensichtlich. Und ich vertraue Ail wenn er davon redet, dass die Treiberprogrammierer bisher wahre Wunder gewirkt haben.
Wie meinen? Wahre Wunder im Hinblick auf die mit R600 bisher erzielbare Leistung oder ist das sarkastisch gemeint? :confused:

AnarchX
2007-06-07, 21:47:30
Neue Treiber können aber mit einem gescheiten Compiler (Handoptimierung) zumindest die ALUs voll auslasten, was zumindest ohne FSAA (und AF) für eine dicke Leistung sorgen kann.

Naja, wenn ich mir da einige Xbox360-Ports anschaue, ist dass imo doch schon längst der Fall.

mapel110
2007-06-07, 21:50:18
Wie meinen? Wahre Wunder im Hinblick auf die mit R600 bisher erzielbare Leistung
Jup, so hat Ailuros sich ausgedrückt.
ist dass imo doch schon längst der Fall.
Jo, wäre wirklich naiv zu glauben, ATI würde nicht und nirgends handoptimieren. Wenn das so wäre, spräche absolut nichts dagegen mit AIoff zu benchen.
Und bezüglich der dann eventuell abgestellten bugfixes... tja, wenn sie einem denn auffallen, schaltet man sie halt für dieses eine Game wieder ein.

deekey777
2007-06-07, 21:55:14
Sorry, aber das ist ausgemachter Blödsinn. Man kann Shaderdownsampling und Color Compression ohne Probleme gemeinsam machen und das funktioniert auf G8x auch bestens. Da ist einfach nur was am Arsch.
Im Arsch, nicht am. Und es wurde nicht gefixt.
http://www.hexus.net/content/item.php?item=7437
http://www.dailytech.com/article.aspx?newsid=5630
Entweder war es eine FUD-Compain, dass es eine weitere Revision A15 geben wird, oder es hätte sie wirklich geben sollen, wurde aber eingestampft (ein Respin kostet viel Geld, und AMD hat seit einiger Zeit nicht viel davon). Wenn mich nicht alles täuscht, gab es mit den ROPs ein Problem, was nicht gefixt wurde, aber durch einen Kompromiß gelöst (vielleicht war 12xMSAA vorgesehen), aber der R600 wurde auf CFAA hinentwickelt.

Mr. Lolman
2007-06-07, 22:06:40
Zumindest die Leistung in Stalker hat sich anscheinend schon stark gebessert:
http://www.techspot.com/review/52-asus-radeon-hd-2900xt/page7.html

Coda
2007-06-07, 22:10:07
Wie meinen? Wahre Wunder im Hinblick auf die mit R600 bisher erzielbare Leistung
Ja.

aber der R600 wurde auf CFAA hinentwickelt.
Das glaubst ja wohl im Leben nicht. CFAA könnte jede D3D10-GPU. Das ist einfach nur last-minute um was gegen CSAA zu haben. Wenn R600 darauf hinentwickelt worden wäre, hätte man die Filtermodi in die ROPs integriert. Die Edge-Detection ist in den Shadern viel zu langsam und 16x kostet auch unglaublich obwohl das im Prinzip exakt gleich schnell implementiert werden könnte wie 4x wenn man nur ein bischen cached.

Zumindest die Leistung in Stalker hat sich anscheinend schon stark gebessert:
http://www.techspot.com/review/52-asus-radeon-hd-2900xt/page7.html
Wieso steht da eigentlich nirgends welche Treiberversion bei der Radeon verwendet wurde?
Überhaupt stimmt doch da was mit den nVIDIA-Treibern nicht. Die G80 verliert keine Leistung von 1280x1024->1920x1200.

deekey777
2007-06-07, 22:10:30
Zumindest die Leistung in Stalker hat sich anscheinend schon stark gebessert:
http://www.techspot.com/review/52-asus-radeon-hd-2900xt/page7.html
http://www.legionhardware.com/document.php?id=650&p=5
(Damit hier niemand postet, das Review wäre Müll: Auf den Bildern sieht man, welche EInstellungen verwendet wurden.)

Gast
2007-06-07, 22:11:18
Zumindest die Leistung in Stalker hat sich anscheinend schon stark gebessert:
http://www.techspot.com/review/52-asus-radeon-hd-2900xt/page7.html


sehr sehr seltsam, die NV-karten hängen offensichtlich am CPU-limit und die Radeon ist angeblich ganze 40% schneller?

wenn wir schon dabei sind, hat sich die stalker-performance auch beim letzten nv-treiber extrem gebessert.

Raff
2007-06-07, 22:12:40
wenn wir schon dabei sind, hat sich die stalker-performance auch beim letzten nv-treiber extrem gebessert.

Ja, die extreme Bremse unter XP wurde gelöst. Unter Vista waren die 8800-er schon länger schnell(er).

MfG,
Raff

Gast
2007-06-07, 22:16:40
Ja, die extreme Bremse unter XP wurde gelöst. Unter Vista waren die 8800-er schon länger schnell(er).




ich sehe gerade dass der 158.22 verwendet wurd, stalker ist aber erst mit dem 158.27 schneller, also alles beim alten.

mapel110
2007-06-07, 22:21:02
Trotzdem komische Reviews, bei Techspot werden nur 8800 320 und 8600er Karten genannt im Testsetup, aber bei den Balken tauchen dann die anderen High End Karten von nvidia auch noch auf. Und es werden auch zwei nvidia-Treiber aufgelistet, aber es steht nicht dabei, welcher davon für welche Hardware genutzt wurde.
Außerdem werden wohl nirgends die Treibereinstellungen genannt?!

Aber ich seh doch richtig, dass das eh die gleichen Benchmarks sind bei beiden Reviews?!

deekey777
2007-06-07, 22:55:05
Das glaubst ja wohl im Leben nicht. CFAA könnte jede D3D10-GPU. Das ist einfach nur last-minute um was gegen CSAA zu haben. Wenn R600 darauf hinentwickelt worden wäre, hätte man die Filtermodi in die ROPs integriert. Die Edge-Detection ist in den Shadern viel zu langsam und 16x kostet auch unglaublich obwohl das im Prinzip exakt gleich schnell implementiert werden könnte wie 4x wenn man nur ein bischen cached.

Für dich spricht auch, dass das EDCF erst nach einem exteren Tool verfügbar war.
There's an implicit assumption being made that only the R600 is capable of CFAA. I have it on reasonable authority that this can be implemented on the G80 as well. The only difference would be that if ATI fixes their ROPs, it may be more efficient to do CFAA on the R600 (whereas other cards would need a separate post-process pass with no special fast-feedback path from the ROPs)
http://forum.beyond3d.com/showpost.php?p=1005733&postcount=453
No fix is required. The fast path access to via the ROPs for CFAA is what is already implemented as part of the design.

Und jetzt sagen wir einfach: Die ROPs sind im Arsch. Und der Speichercontroller auch.

aths
2007-06-07, 23:10:34
Sorry, aber das ist ausgemachter Blödsinn. Man kann Shaderdownsampling und Color Compression ohne Probleme gemeinsam machen und das funktioniert auf G8x auch bestens. Da ist einfach nur was am Arsch.Gehts auch mit gehobenerer Wortwahl? Ich hab echt keine Lust, auf solche Postings zu reagieren.

Nur weil der G80 möglicherweise beim Speicherzugriff für den Shader auch Framebuffer-Dekomprimierung beherrscht, muss das beim R600 nicht zwangsläufig auch der Fall sein.


Neue Treiber können aber mit einem gescheiten Compiler (Handoptimierung) zumindest die ALUs voll auslasten, was zumindest ohne FSAA (und AF) für eine dicke Leistung sorgen kann. Eventuell sollten sie mal Nvidia fragen, wie man das am besten macht ... die haben ja mit NV3x massig Erfahrung gesammelt. ;)Auch mit besseren Shader-Optimierungen oder gar händischen Optimierungen kann man diese ALUs nicht immer voll auslasten. Man kann sie vielleicht etwas besser auslasten als bisher, aber Arithmetikleistung ist anscheinend nicht der Flaschenhals.

Selbst beim NV30 war die eigentliche Arithmetikleistung nicht der Flaschenhals, sondern der äußerst knappe Registerspeicher.

Coda
2007-06-07, 23:13:31
Gehts auch mit gehobenerer Wortwahl? Ich hab echt keine Lust, auf solche Postings zu reagieren.
Nein. Und: Dann lass es doch.

Nur weil der G80 möglicherweise beim Speicherzugriff für den Shader auch Framebuffer-Dekomprimierung beherrscht
Er muss es können. Die GPU kann nicht wissen ob das was gerendet wurde später nicht als Textur mit Samplezugriff gebunden wird in D3D10.

muss das beim R600 nicht zwangsläufig auch der Fall sein.
Sag ich ja nicht. Aber das ist sicher nicht "per design". Man schraubt doch nicht zig mio. Transistoren für nen 512-Bit SI in nen Chip inkl. hochkomplexem PCB und lass die bandbreitenschonenden Einheiten wegfallen.

Xmas
2007-06-08, 01:30:02
Das mit dem AA könnte – Demirug äußerte diese Idee – vielleicht damit zu tun haben, dass R600 möglicherweise keine Color-Compression mehr nutzt, um das Downsampling via Shader zu ermöglichen. Es könnte auch sein, dass trotz der vergleichsweise geringen Texturfüllrate diese hohe Bandbreite gewählt wurde, um den (spekulativen!) Verlust der Color-Compression auszugleichen.
Gäbe es keine Color Compression, würde man dies bei Füllratentests mit AA deutlich merken.

Das glaubst ja wohl im Leben nicht. CFAA könnte jede D3D10-GPU. Das ist einfach nur last-minute um was gegen CSAA zu haben. Wenn R600 darauf hinentwickelt worden wäre, hätte man die Filtermodi in die ROPs integriert. Die Edge-Detection ist in den Shadern viel zu langsam und 16x kostet auch unglaublich obwohl das im Prinzip exakt gleich schnell implementiert werden könnte wie 4x wenn man nur ein bischen cached.
Dazu müsste man mehr als nur "ein Bisschen" cachen, außerdem bräuchte man für "gleich schnell" ja auch mehr MAD-Einheiten (und wieso dafür auch nicht die Shader-ALUs verwenden? "Unified" muss ja nicht bei VS, GS und PS halt machen).

Warum sollte Edge Detection viel zu langsam sein? Zum Großteil wird ja (zumindest laut ATI) anhand der Kompressionsflags entschieden, dann werden die Shader erst gar nicht verwendet. Ansonsten ist der Downsample-Shader eigentlich auch nicht so komplex dass man mit extremen Einbrüchen rechnen müsste.

Coda
2007-06-08, 01:35:51
Warum sollte Edge Detection viel zu langsam sein?
Wegen dyn. branching. Die Granularität dieser ist dafür wohl schon ein wenig zu grob.

Zum Großteil wird ja (zumindest laut ATI) anhand der Kompressionsflags entschieden, dann werden die Shader erst gar nicht verwendet.
Sagt ATI. Ich glaub das nicht so ganz.

aths
2007-06-08, 02:05:02
Nein. Und: Dann lass es doch.Aha. Du rotzt also erst groß rum, um möglichen Widerspruch zu vermeiden? Klasse. Oder anders: Du mutest anderen zu, deine seltsame Erziehung ertragen zu müssen?


Er muss es können. Die GPU kann nicht wissen ob das was gerendet wurde später nicht als Textur mit Samplezugriff gebunden wird in D3D10.Wird in D3D10 denn schon Multisampling-Support verlangt? (Wenn wir das auf R600 beziehen, nicht auf G80.)

Sag ich ja nicht. Aber das ist sicher nicht "per design". Man schraubt doch nicht zig mio. Transistoren für nen 512-Bit SI in nen Chip inkl. hochkomplexem PCB und lass die bandbreitenschonenden Einheiten wegfallen.Das wäre dumm, andererseits wäre ein 512-Bit-SI bei der vergleichsweise geringen Texelpower – guckt man auf den G80 – nicht unbedingt erforderlich gewesen. Wenn die gleich das 512-Bit-SI ins Design mit reinnehmen ist es doch vorstellbar, dass irgendwo mehr Bandbreite gebraucht wird als bei der Konkurrenz – ohne dass das ein Bug ist.

Grestorn
2007-06-08, 10:42:39
Aha. Du rotzt also erst groß rum, um möglichen Widerspruch zu vermeiden? Klasse. Oder anders: Du mutest anderen zu, deine seltsame Erziehung ertragen zu müssen?Immer ruhig mit den jungen Pferden!

"Ausgemachter Blödsinn" zu Deiner Aussage ist zwar nicht nett, aber eine Returkutsche a la "Deine seltsame Erziehung [...]" ist weit aus persönlicher und tiefer unter der Gürtellinie.

Mr. Lolman
2007-06-08, 10:53:21
ich sehe gerade dass der 158.22 verwendet wurd, stalker ist aber erst mit dem 158.27 schneller, also alles beim alten.

Garnix beim Alten, oder hast du schon vergessen wie lahm Stalker mit den 1. R600 Treibern war?

Gaestle
2007-06-08, 11:16:41
Garnix beim Alten, oder hast du schon vergessen wie lahm Stalker mit den 1. R600 Treibern war?


Naja, aber insgesamt scheint R600 mehr auf Handoptimierungen angewiesen zu sein. Und es gibt wirklich eine ganze Menge Spiele, auch außerhalb der Standard-Benchmarks und Blockbuster-Titel. Ob man soviele Optimierungen einbringen kann?
Aber wer weiß, vielleicht sehen wir ja wirklich eine ähnliche Entwicklung wie beim X1900, wo ATi ja anscheinend auf's längerfristig bessere Pferd gesetzt hat.

Gast
2007-06-08, 11:21:34
Garnix beim Alten, oder hast du schon vergessen wie lahm Stalker mit den 1. R600 Treibern war?


knapp unter einer 8800GTS, und das dürfte auch wieder in etwa hinkommen wenn man bei NV den neuen treiber verwendet.

es ist doch eindeutig dass es bei NV "nur" eine treiberbremse ist, oder wieso verlieren die geforce-karten mit höherer auflösung keine leistung, die ATI aber schon?

robbitop
2007-06-08, 11:24:33
Wer glaubt, dass ein derartiger Rueckstand an Texturfilterleistung und HW Bugs durch Treiber radikal geaendert werden kann, muss sehr viel Hoffnung haben.
Fuer mich klingts jedenfalls unrealistisch.

catamaran
2007-06-08, 12:16:38
Um so interessanter welches Potenzial ein "Refresh" hat, wenn lediglich ein paar Defekte gefixt werden.

Schade natürlich um alle R600-Probanden.

:o)Uhummel
2007-06-08, 14:25:46
Hab mir alles durchgelesen und Fakt ist, daß NV (z.Zt.) gegenüber AMD/ATI nen doch recht großen Vorsprung hat(G90 Hallo!).Ich will nicht sagen, daß die 2900XT ne schlechte Wahl ist, aber (z.Zt.) bietet sie in der Mehrzahl der Games schlechtere oder gleiche Ergebnisse (Teilweise liegt sie natl. auch mal recht weit vorne, aber das gibt es bei der 8800GTS auch) und kostet auch noch mehr als die 8800GTS. -Ich würde z.Zt. auf jeden Fall ne 8800GTS ner 2900XT vorziehen.-(Auch wegen Lautstärke, Stromverbrauch ...)

P.s. Der R650 wird doch eigtl. ein reiner Die-Shrink des R600 sein! -Natl. wird er sich höher takten lassen bzw. weniger Strom verbrauchen, aber am Design (Shadereinheiten ...) wird sich gegenüber dem R600 doch nur wenig/nix ändern, oder?

Xmas
2007-06-08, 15:00:52
Wegen dyn. branching. Die Granularität dieser ist dafür wohl schon ein wenig zu grob.
Man muss ja nicht branchen, man kann auch Predication verwenden. Der Tent-Filter benötigt pro Filtersample lediglich ein MAD. Edge detection benötigt dazu noch <Samples pro Pixel - 1> Vergleiche (alle Operationen vec3 beim normalen Framebuffer-Downsampling).

Bei "24x" Edge Detect AA wären das 7 Vergleiche und 16 MAD. Selbst wenn dieser Shader 25 Takte pro Pixel brauchen würde (was ziemlich unwahrscheinlich ist), wären das bei 2048x1536 mit 60fps noch weniger als 10% der Rechenzeit fürs Downsampling bei einer 2900XT.

robbitop
2007-06-08, 18:28:10
@Xmas

vieleicht entstehen durch diese Berechnungen im Shader gewisse Latenzen, die nicht mehr so gut zu verstecken sind?

Xmas
2007-06-08, 19:49:22
Gewisse Latenzen?

robbitop
2007-06-09, 01:02:20
Gewisse Latenzen?
Ja naja die ROPs muessen auf die ALUs warten, der Weg hin und zurueck ect. Verursacht das keine Latenzen und evtl Stalls?

:o)Uhummel
2007-06-09, 14:08:45
Ja naja die ROPs muessen auf die ALUs warten, der Weg hin und zurueck ect. Verursacht das keine Latenzen und evtl Stalls?

Denke mal, daß da die Hersteller mit massiv schnellen Caches bzw. breiten "Datenpfaden" sehr effizent dagegenarbeiten. Aber kurze "Stalls" bleiben bestimmt nicht aus.

robbitop
2007-06-09, 16:46:37
Bei solchen Umwegen und dem Performanceeinbruch bei AA finde ich jedoch keine Andere Erklaerung.

Gast
2007-06-10, 00:24:59
Gewisse Latenzen?
Auch wenn ich nicht Robbitop bin: Ich fürchte, die Treiber haben schon so einen hinreichend schweren Job, die ALUs auszulasten. Würde mich also nicht wundern, wenn bei diesen Filtern ein Block komplett dafür abgestellt würde, damit man das Scheduling nicht komplett kaputtmacht.


Q

Xmas
2007-06-10, 14:53:17
Ich sehe da absolut kein Scheduling-Problem. Es ist ja nicht so dass man parallel zum Downsampling keine anderen Aufgaben erledigen könnte. Das Downsampling ist nicht besonders zeitkritisch.

:o)Uhummel
2007-06-10, 15:33:36
Da muß schon Treiberseitig einiges im argen liegen! -Glaube kaum, daß der R600 solche massiven "Engpässe" in der Hardware hat. Aber wer weiß?! Der gestrichene R650 wäre ja ein reiner Die-Shrink gewesen.-Beim R680 gibt es viell. einige interne Verbesserungen. -Who knows!?

AnarchX
2007-06-10, 15:35:06
Der gestrichene R650 wäre ja ein reiner Die-Shrink gewesen.

Nein, jedenfalls nicht nach den Fake-Folien die man zur Maulwurfsjagd verwendet hat.