PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HD 2900XT: (P)Review-Thread


Seiten : [1] 2 3 4 5

LovesuckZ
2007-05-13, 16:30:41
Es scheint loszugehen - einen Tag früher als gedacht.
Viel Spaß beim Lesen, Diskutieren, enttäuscht oder erfreut sein.

Reviews - deutsch
ATi Radeon HD 2900 XT - Ein neuer Platzhirsch ist geboren? (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt)
3DCenter: ATI Radeon HD 2900 XT Review (http://www.3dcenter.org/artikel/radeon_hd_2900_xt/)
ATI Radeon HD2900 XT@Hardwareluxx.de (http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546)
ATIs neue Grafikkarten-Chips für DirectX 10 @pcwelt (http://www.pcwelt.de/tests/hardware-tests/pci-express-grafikkarten/80120/index.html)
ATI Radeon HD 2900 XT: Motor startet, was passiert? (http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/)

Reviews - englisch:
http://vr-zone.com/?i=4946&s=1 (Rapidsharelink: http://www.forumdeluxx.de/forum/showpost.php?p=6109737&postcount=5731)
ATI Radeon HD 2900 XT – AMD's long awaited R600 DX10 GPU arrives (http://www.tweaktown.com/articles/1100/ati_radeon_hd_2900_xt_amd_s_long_awaited_r600_dx10_gpu_arrives/index.html)
ASUS EAH2900XT ATi Radeon HD 2900XT 512M Review - Benchmarks (http://www.ocworkbench.com/2007/asus/EAH2900XT/b1.htm)
Radeon HD 2900 XT : Introduction (http://www.tbreak.com/reviews/article.php?id=511)
AMD's R600 has something of the flawed diamond about it
(http://www.the-inquirer.com/default.aspx?article=39580)ATI Radeon HD 2900 XT@HardOCP (http://enthusiast.hardocp.com/article.html?art=MTM0MSwxLCxoZW50aHVzaWFzdA==)
Guru3D (http://www.guru3d.com/article/Videocards/431/)
ATI Radeon HD 2900 XT@Techpowerup (http://www.techpowerup.com/reviews/ATI/HD_2900_XT)
ATI Radeon HD 2900 XTX Review@Hardwarescrets (http://www.hardwaresecrets.com/article/449)
HIS Radeon HD 2900 XT@Hexus.net (http://www.hexus.net/content/item.php?item=8687&page=1)
Drvierheaven's HD 2900XT review (mit Vista-Vergleich) (http://www.driverheaven.net/reviews/r600reviewz/video.php)
AMD's Radeon HD 2900 XT graphics processor@Techreport.com (http://www.techreport.com/onearticle.x/12458)
HD2000 - The First GPU's Under the AMD Name@Bjorn3d.com (http://www.bjorn3d.com/read.php?cID=1099&pageID=3433)
firingsquad AMD-ATI Radeon HD 2900 XT Performance Preview (http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/)
ATI Radeon HD 2900 XT: Calling a Spade a Spade@Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=2988)
AMD/ATI DirectX 10 Series: RADEON HD 2900 XT (R600). Performance In Game Benchmarks@digit-life (http://www.digit-life.com/articles2/video/r600-part3.html)

Reviews - Restliche Sprachen
AMD Radeon HD 2900 XT : DirectX 10 par ATI !@clubic (http://www.clubic.com/article-73608-7-amd-ati-radeon-hd-2900-xt-directx-10.html)
maschinelle Übersetzung von presence-pc mit D3D10 Test! (http://translate.google.com/translate?u=http%3A%2F%2Fwww.presence-pc.com%2Ftests%2FAMD-Radeon-2900-XT-22674%2F23%2F&langpair=fr%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
ATI Radeon HD 2900 XT@Hardware.fr (http://www.hardware.fr/articles/671-1/ati-radeon-hd-2900-xt.html)

Sonstiges:
Pre-NDA-Folien (http://www.mediafire.com/?1zvucssmixm) (Dank an AnarchX :)) --> bereitgestellt von Chiphell (http://www.chiphell.com/viewthread.php?tid=4048&extra=page%3D1)
Launch of ATI Radeon HD 2000 Series - Radeon HD 2900XT. HD 2600XT, HD 2600 Pro, HD 2400XT, HD 2400 Pro (http://www.ocworkbench.com/2007/ati/ATI-HD-Radeon-HD-2900XT-and-HD-2000-Series/p1.htm)
ASUS EAH2900XT 512M ATi Radeon HD 2900XT Review Introduction (http://www.ocworkbench.com/2007/asus/EAH2900XT/g1.htm)
Nvidia's FUD presentation revealed (http://www.theinquirer.net/default.aspx?article=39578)
AMD R600 Architecture and GPU Analysis (http://www.beyond3d.com/content/reviews/16/1)
Radeon HD 2000 Series: 3D Architecture Explained@Extremetech (http://www.extremetech.com/article2/0,1697,2128920,00.asp)

---------------------------------------------------------------------
By DK777:
ATI Radeon HD 2900 XT – AMD's long awaited R600 DX10 GPU arrives (http://www.tweaktown.com/articles/1100/1/page_1_introduction/index.html)

James Ryan
2007-05-13, 16:34:36
Link funzt nicht! ;D

MfG :cool:

deekey777
2007-05-13, 16:34:39
Viel Spaß beim Pflegen des Eröffnungspostings. X-D

Die vr-zone-Seite wird bestimmt überlastet sein, also wenn ihr es schafft, versucht die Bilder und Text abzuspeichern. :)
Link funzt nicht! ;D

MfG :cool:
Die erste Seite habe ich noch geschafft.

Noebbie
2007-05-13, 16:42:28
Hm... vorhin, als ich am Schreibtisch durchs 3dcenter surfte, ging der link noch...

nu als ich mich gemütlich mit meinem lappy aufs bett geschmissen hab un mir das durchzulesen, macht der link zicken

grrr

James Ryan
2007-05-13, 16:45:23
Kurz:
Mehr Stromverbauch im Idle(!) und unter Vollast als eine GTS und GTX dabei weniger Leistung.
Die neuen AA-Modi sind blurrig...
Wer will kann sich so eine Karte gerne zulegen, für den Preis gibt es aber deutlich bessere Alternativen. ;)

MfG :cool:

Ronny145
2007-05-13, 16:46:06
Vr-Zone scheint gerade down zu sein:
Die Karte verbraucht bei ihnen im Idle mehr als eine GTS und GTX. Im 3D Modus waren es ca. 20 Watt mehr als die GTX und 68 Watt mehr als die GTS.



Den habe ich noch aus dem Speku Thread rausgefischt, weil das falsch ist. Im Idle 5 Watt weniger als die GTX, nicht mehr. Aber ist egal. Idle Verbrauch genauso wie beim G80, was schon sehr enttäuschend ist, unter Last dann knapp 20 Watt mehr. Da ist der Verbrauch im Idle zum R580 mehr angewachsen als unter Last.

mapel110
2007-05-13, 16:46:45
Kurz:
Mehr Stromverbauch im Idle(!) und unter Vollast als eine GTS und GTX dabei weniger Leistung.
Die neuen AA-Modi sind blurrig...
Wer will kann sich so eine Karte gerne zulegen, für den Preis gibt es aber deutlich bessere Alternativen. ;)

MfG :cool:
Also ich hab im idle 5 Watt weniger gelesen als eine GTX, dafür unter Last 17 Watt mehr.

Gast
2007-05-13, 16:47:22
[X] Alles mit unfertigen Treibern, daher vollkommen unrelevant.

LovesuckZ
2007-05-13, 16:47:46
Den habe ich noch aus dem Speku Thread rausgefischt, weil das falsch ist. Im Idle 5 Watt weniger als die GTX, nicht mehr.

Hm, muss ich mich verguckt haben :(
Aber nun, er bleibt über dem der 8800GTS.
Auch schreibt vr-zone, dass das Bild der 8800 Karten mit AF "sharper" wäre.

James Ryan
2007-05-13, 16:48:01
Also ich hab im idle 5 Watt weniger gelesen als eine GTX, dafür unter Last 17 Watt mehr.

Latte...
Fakt ist, dass der R600 gar kein Kaufargument besitzt.

MfG :cool:

Sterem
2007-05-13, 16:49:07
Latte...
Fakt ist, dass der R600 gar kein Kaufargument besitzt.

MfG :cool:

Man du gehst ein auf die Eier mit deiner haltung.Wir sind hier nicht im Ati Bash Thread kapiert?

dargo
2007-05-13, 16:49:17
Damit hat ATi wirklich alles vegeigt!
Mehr Stromverbauch und weniger Leistung, na prost Mahlzeit!
G80 ich komme!
Wenn ich mir so deine Argumente zum R600 so anschaue muss ich immer etwas lachen. Mein Gott, kaufe dir endlich einen G80 damit mal Ruhe ist.

ATI hatte auch beim R520 mit den ersten Treibern ein Problem mit dem 2D Modus der später gelöst wurde. Also ist noch alles offen. Viel interessanter finde ich, dass der R600 in 3D nur 20W mehr braucht als die GTX. Jetzt müßte man nur wissen ob da die CPU nicht limitiert hat.

lilgefo~
2007-05-13, 16:49:39
Also ich hab im idle 5 Watt weniger gelesen als eine GTX, dafür unter Last 17 Watt mehr.

jop das stimmt

DAs das AA so matschig ist liegt wohl an diesem Custom blabla wenn man normal 6x(A)AA anmacht sollte das eigentlich weg sein.
Naja mal abwarten was dann mit neuen Treibern passiert.

p.s.: ihr müsst gleich am anfang auf print article klicken dann kommt der ganze artikel auf 1er seite als scrolltext..so konnte ich das lesen ohne die angst das bei der nächsten seite nix mehr geht ;)

LovesuckZ
2007-05-13, 16:50:46
ATI hatte auch beim R520 mit den ersten Treibern ein Problem mit dem 2D Modus der später gelöst wurde. Also ist noch alles offen.

Die Karte läuft im 2D Modus mit reduziertem Takt und einer Spannung unter 1,2V.

horn 12
2007-05-13, 16:51:24
Der 8.38 wird dies wohl erst richten können, aber ich verstehe ATI da komplett nimmer wie man so einen Treiber bringen konnte.
Warum nur hat man nicht den 8.38 zum Download angeboten, auch nur den Hardwaretestern vorab und dann wäre ATI vieles erspart geblieben.
So muss nachgebencht und ausgepügelt werden.
Hoffe das rechnet sich noch für ATI/AMD

Raff
2007-05-13, 16:52:03
[X] Alles mit unfertigen Treibern, daher vollkommen unrelevant.

Alles mit Treibern, die du auch bekommst, wenn du sie morgen kaufst. Immer noch irrelevant?

MfG,
Raff

Ronny145
2007-05-13, 16:52:15
ATI hatte auch beim R520 mit den ersten Treibern ein Problem mit dem 2D Modus der später gelöst wurde. Also ist noch alles offen.


Da wäre ich mir nicht sicher, denn im 2D Modus wird die Taktrate und Spannung gesenkt, funktioniert also bestens.

Spasstiger
2007-05-13, 16:52:20
Die neuen AA-Modi sind blurrig...
Das neue 8xMSAA ist nicht blurrig.

dildo4u
2007-05-13, 16:52:33
http://www.directupload.net/images/070513/y4bdYE7r.jpg

dargo
2007-05-13, 16:52:46
Die Karte läuft im 2D Modus mit reduziertem Takt und einer Spannung unter 1,2V.
Na und? Das hat der R520 damals auch gemacht. ;)
Trotzdem hat man das "Idle-Problem" mit späteren Treibern gelöst.

James Ryan
2007-05-13, 16:53:27
Viel interessanter finde ich, dass der R600 in 3D nur 20W mehr braucht als die GTX.

Nur 20 Watt mehr... ;D
Oh man, das Ding ist in 80nm gefertigt, müsste eigentlich selbst unter Last weniger verbrauchen.

MfG :cool:

dildo4u
2007-05-13, 16:53:32
Das neue 8xMSAA ist nicht blurrig.
Vr-zone hat aber leider nur 4XAA und dann diesen ATI 16XBlur Filter gegen den "echten" 16XAA Modus bei Nvidia gebencht.

desert
2007-05-13, 16:53:46
jop das stimmt

DAs das AA so matschig ist liegt wohl an diesem Custom blabla wenn man normal 6x(A)AA anmacht sollte das eigentlich weg sein.
Naja mal abwarten was dann mit neuen Treibern passiert.

p.s.: ihr müsst gleich am anfang auf print article klicken dann kommt der ganze artikel auf 1er seite als scrolltext..so konnte ich das lesen ohne die angst das bei der nächsten seite nix mehr geht ;)

wie wäre es denn du das mal hochlaedst, damit alle was davon haben ;)

mapel110
2007-05-13, 16:54:56
Alles mit Treibern, die du auch bekommst, wenn du sie morgen kaufst. Immer noch irrelevant?

MfG,
Raff
Ist doch wohl ein Witz Treiber zu bringen, die unter D3D fast völlig versagen (Neverwinter Nights2, HL2, Battlefield 2142...)
Nur 20 Watt mehr... ;D
Oh man, das Ding ist in 80nm gefertigt, müsste eigentlich selbst unter Last weniger verbrauchen.

MfG :cool:
Es zeigt jedenfalls sehr schön, dass ATI an die Grenzen gegangen ist, was Takt und Spannung angeht. Man stelle sich das Teil mit noch weniger Takt vor mit einem Release vor etwa 3-4 Monaten, dann hätte man sich bei nvidia scheckig gelacht wegen der Performance. Tut man wohl ohnehin schon.

dargo
2007-05-13, 16:55:16
Da wäre ich mir nicht sicher, denn im 2D Modus wird die Taktrate und Spannung gesenkt, funktioniert also bestens.
Schon mal was von deaktivieren von bestimmten Einheiten in 2D gehört? :)

Ronny145
2007-05-13, 16:56:27
Schon mal was von deaktivieren von bestimmten Einheiten in 2D gehört? :)


Ja. Ändert aber nichts daran, dass ich daran nicht glaube. Aber hoffen wir das beste.


Aber die performance Einbrüche sind eine absolute Katastrophe.

reunion
2007-05-13, 16:56:50
Naja, die Messungen von VR-Zone wirken irgendwie verdammt künstlich, und passen noch dazu nicht zum Text.

PowerColor HD X2900XT 245 watts
Inno3D 8800GTX 575/900MHz 250 watts
ASUS EN8800GTS 640MB 513/792MHz 240 watts
EVGA 8800GTS 320MB Superclocked 576/850MHz 235 watts

Sorry, aber diese fünf Watt Schritte wirken auf mich wenig seriös, auch steht im Text:

This card is definitely the most power-hungry bugger around, consuming 40w more power than it's predecessor X1950XTX and 65w more power than a 8800GTS 640MB, though at idle it eats the same amount of power as the 8800GTS 640MB. Against the 8800GTX, with regular clockspeed, it consumes about 17w more power. A regular setup I would suggest at least a reliable brand-name 500w Power Supply and upwards.

Da warte ich doch lieber auf xbitlabs. Und die Treiber scheinen völliger crab zu sein.

Gast
2007-05-13, 16:56:59
Vr-zone hat aber leider nur 4XAA und dann diesen ATI 16XBlur Filter gegen den "echten" 16XAA Modus bei Nvidia gebencht.Gegen welchen 16x-Modus haben sie gebencht? 16x oder 16xQ?

dargo
2007-05-13, 16:57:24
Nur 20 Watt mehr... ;D
Oh man, das Ding ist in 80nm gefertigt, müsste eigentlich selbst unter Last weniger verbrauchen.

Seit wann interessiert den Kunden der Fertigungsprozess? Wichtig ist was die Karte leistet und kostet. Und am Anfang ging man noch von ~50W mehr. Ich könnte genauso fragen, warum hat NV nicht auf 80nm gesetzt?

deekey777
2007-05-13, 16:57:41
Vr-zone hat aber leider nur 4XAA und dann diesen ATI 16XBlur Filter gegen den "echten" 16XAA Modus bei Nvidia gebencht.
16xAA ist 4xMSAA und 12 Coverage-Samples, 16xQ ist 8xMSAA und 8 CS, 16xCFAA ist 8xMSAA und irgendwas (Wide Tent). Also wo ist das Problem?

The_Invisible
2007-05-13, 16:58:09
Na und? Das hat der R520 damals auch gemacht. ;)
Trotzdem hat man das "Idle-Problem" mit späteren Treibern gelöst.

erinnert mich auch an G80

mfg

LovesuckZ
2007-05-13, 16:59:28
16xAA ist 4xMSAA und 12 Coverage-Samples, 16xQ ist 8xMSAA und 8 CS, 16xCFAA ist 8xMSAA und irgendwas (Wide Tent). Also wo ist das Problem?

Weil das ein unfairer Vergleich ist? :rolleyes:

Exxtreme
2007-05-13, 17:00:28
Also ich finde das Review ziemlich ... öhhm, strange? Mal andere abwarten. :D

deekey777
2007-05-13, 17:01:02
Weil das ein unfairer Vergleich ist? :rolleyes:
Und was ist daran so unfair?

reunion
2007-05-13, 17:02:25
Und am Anfang ging man noch von ~50W mehr.

Da ging man auch noch von höheren Taktfrequenzen aus. Das war aber ATi dann wohl doch zu heiß.

LovesuckZ
2007-05-13, 17:03:23
Und was ist daraun so unfair?

Es sind zwei unterschiedliche Modie. Daher sind sie nicht zu vergleichen. Da beide Karten über vergleichbare Qualitätseinstellungen verfügen, kann man sie richtig gegeneinander messen.
Ansonsten kann man auch eine Karte mit brilinear auf Stage 0 und dem Rest bilinear gegen vollwertige trilineare Filterung vergleichen.

dildo4u
2007-05-13, 17:03:41
16xAA ist 4xMSAA und 12 Coverage-Samples, 16xQ ist 8xMSAA und 8 CS, 16xCFAA ist 8xMSAA und irgendwas (Wide Tent). Also wo ist das Problem?
Sorry hab mich verguckt da geht die ATI nur gut bei Quake 4 wahrscheinlich greift das unter Opengl noch nicht richtig bei allen anderen Tests geht die ATI mit 16XAA unter.

Gast
2007-05-13, 17:04:35
Alles mit Treibern, die du auch bekommst, wenn du sie morgen kaufst. Immer noch irrelevant?

Ja. Ich kaufe nie zum Release.

Außerdem ist es sinnlos gegen NVIDIA zu vergleichen, wenn man weiß, das diese 6 Monate Vorsprung in der Softwareentwicklung haben.

Wenn man fair vergleicht, so müsste man in 3 und 6 Monaten den Test erneut durchführen, da dann hoffentlich bei beiden die ersten stabilen Treiber fertig sind.

Der Stromverbrauch im 2D ist auch ne große Softwaresache und daher überhaupt nicht fix.

Gast
2007-05-13, 17:05:09
Jeden Launch das gleiche Spiel.

Ich wage mal zu behaupten dass die ATI der Geforce in spätestens einem halben Jahr in einem Großteil der Spiele-Kracher davonrennt.

Aber (auch wie jedes Mal) interessiert sich dann keiner mehr dafür weil die nächste Generation vor der Tür steht.

Fazit: Wer sich jedes 1/2 Jahr die aktuellste Karte kauft fährt mit Nvidia nicht schlecht, wer seine Hardware länger behält sollte mal drüber nachdenken auf ATI zu setzen. Deren Designs sind leistungstechnisch einfach nachhaltiger(dieses furchtbare wort...)

Cubitus
2007-05-13, 17:05:39
Wieso nicht fair, ATI hat sich ja auch viel Zeit raus genommen.
Und wenn die Treiber crap sind tja.. was soll man da denken..

dargo
2007-05-13, 17:06:18
http://www.directupload.net/images/070513/y4bdYE7r.jpg
Das sind noch nicht mal 5W in Idle und 17W bei Last im Vergleich zur GTX. Ihr müßt an das NT denken. In Idle ist sie also erstmal auf dem GTX Niveau und bei Last werden es ca. 13-14W netto sein (bei 75-80% Effizienz des NTs). Vorrausgesetzt beide Karten waren zu 100% ausgelastet (also kein CPU Limit).

Raff
2007-05-13, 17:06:53
Sorry hab mich verguckt da geht die ATI nur gut bei Quake 4 wahrscheinlich greift das unter Opengl noch nicht richtig bei allen anderen Tests geht die ATI mit 16XAA unter.

Im Grunde ist jeder Vergleich abseits von 8xQ (G80) vs. 8x MSAA (R600) unfair. Optionale Betrachtungen mit den CSAA/CFAA-Spielereien gehen.

MfG,
Raff

Gast
2007-05-13, 17:07:32
Und wenn die Treiber crap sind tja.. was soll man da denken..

Das gleiche was man von nvidia dachte, als sie die gleichen crappingen Treiber letztes Jahr rausbrachten.

deekey777
2007-05-13, 17:08:19
Es sind zwei unterschiedliche Modie. Daher sind sie nicht zu vergleichen. Da beide Karten über vergleichbare Qualitätseinstellungen verfügen, kann man sie richtig gegeneinander messen.
Ansonsten kann man auch eine Karte mit brilinear auf Stage 0 und dem Rest bilinear gegen vollwertige trilineare Filterung vergleichen.
Du hast meinen Einwand entweder nicht verstanden oder gänzlich ignoriert.
Interessant:
One look and you can tell which segment this video card is gunning for: the USD$399 price point where the GeForce 8800 GTS resides, it's direct competitor.

Drivers Used on X2900XT and X1950XTX is Catalyst 8-37-4-070419a. Drivers used for 8800GTS 320/640MB and 8800GTX is Forceware 158.22.

MipMap Detail setting on all drivers set to maximum level of High Quality. 16x Anisotropic Filtering was turned on.




As of time of testing, we did not have the latest build just issued out 3 days before NDA was lifted. We were running 8-37-4-070419a.

The latest 8.37.4.2_47323 drivers is supposed to implement a new intelligent algorithm that increases FPS while applying similar image quality when running Adaptive Anti-Aliasing. In Oblivion, performance several times faster than previous drivers using the new adaptive AA algorithm was claimed to have been acheived. New optimizations for HDR applications in general resulted in a 5-30% increase in performance.

The 8.37.4.2_47323 is actually a pre-alpha driver, but it includes a preview of new 12xAA and 24xAA modes. These modes use an advanced edge detection filter that delivers edge quality while eliminating blurring.

horn 12
2007-05-13, 17:08:57
Dargo, dann wird mein NT nicht ausreichen?
Weiss ich nerve, da keine Combined Power steht, aber kann es nicht mehr erwarten bsi die Karte kommt.

Kann die Quelle nicht nennen, aber einer welche die HD 2900 XT schon hat:

die 8.38 bekommen und dazu ne dx10 Testsuite -> da rockt die2900XTgewaltig. Da sieht die GTS geradezu lächerlich aus.

Cubitus
2007-05-13, 17:11:50
Das gleiche was man von nvidia dachte, als sie die gleichen crappingen Treiber letztes Jahr rausbrachten.

Hast auch wieder recht, nur bei Nvidia verstehe ich es noch irgendwie,
da beim Release des G80 dieser außer Konkurrenz war.

Und ATI hätte durch die Verzögerung einen guten Präsentationstreiber
hinlegen können/sollen

AnarchX
2007-05-13, 17:12:14
Das sind noch nicht mal 5W in Idle und 17W bei Last im Vergleich zur GTX. Ihr müßt an das NT denken. In Idle ist sie also erstmal auf dem GTX Niveau und bei Last werden es ca. 13-14W netto sein (bei 75-80% Effizienz des NTs). Vorrausgesetzt beide Karten waren zu 100% ausgelastet (also kein CPU Limit).

Und hier habe ich meine Zweifel. Warum 8+6Pin verbaut und empfohlen und zudem steht auch auf der Verpackung das maximale Leistungsaufnahme bei 225W liegt. Imo sollte man doch auf xlabits warten.

Exxtreme
2007-05-13, 17:13:29
Und ATI hätte durch die Verzögerung einen guten Präsentationstreiber
hinlegen können/sollen
Vielleicht ist das nicht der Präsentationstreiber. Wann läuft das NDA nochmal ab?

PCGH_Carsten
2007-05-13, 17:14:14
Kann die Quelle nicht nennen, aber einer welche die HD 2900 XT schon hat:

die 8.38 bekommen und dazu ne dx10 Testsuite -> da rockt die2900XTgewaltig. Da sieht die GTS geradezu lächerlich aus.
Dann frag diese Quelle mal, was das für eine "Testsuite" ist...

LovesuckZ
2007-05-13, 17:16:07
Vielleicht ist das nicht der Präsentationstreiber. Wann läuft das NDA nochmal ab?

Morgen.
Problematisch ist, dass AMD täglich einen neuen Treiber rausschickt. Da fühlt man sich als Reviewer wohl auch ziemlich angepisst.

dargo
2007-05-13, 17:17:14
Dargo, dann wird mein NT nicht ausreichen?
Weiss ich nerve, da keine Combined Power steht, aber kann es nicht mehr erwarten bsi die Karte kommt.

Probiere es einfach aus. Im Zweifelsfall wirst du dir ein stärkeres NT holen müßen. Oder du greifst zur G8800GTS. Dann wird das NT sicherlich noch reichen, auch wenn es combined "nur" 22A haben sollte.

Cubitus
2007-05-13, 17:17:33
Vielleicht ist das nicht der Präsentationstreiber. Wann läuft das NDA nochmal ab?

Zeitverschiebung, bei VR-Zone ist schon der vierzehnte ;).
Aber mal schauen welchen Treiber die anderen Reviews verwenden werden.

Exxtreme
2007-05-13, 17:18:22
Morgen.
Problematisch ist, dass AMD täglich einen neuen Treiber rausschickt. Da fühlt man sich als Reviewer wohl auch ziemlich angepisst.
Vielleicht ist das sogar Absicht um so einen Mist zu erschweren. NDA-Brecher testen mit falschen Treibern und haben falsche Ergebnisse.

seahawk
2007-05-13, 17:19:08
Dargo, dann wird mein NT nicht ausreichen?
Weiss ich nerve, da keine Combined Power steht, aber kann es nicht mehr erwarten bsi die Karte kommt.

Kann die Quelle nicht nennen, aber einer welche die HD 2900 XT schon hat:

die 8.38 bekommen und dazu ne dx10 Testsuite -> da rockt die2900XTgewaltig. Da sieht die GTS geradezu lächerlich aus.

So siehts aus. Je mehr DX10 desto X2900 - mit besseren Treibern macht die sogar ne GTX platt und das zum Preis der GTS. ;D

DaEmpty
2007-05-13, 17:20:17
Die Ergebnisse sind mir etwas suspekt.
Mit AA bricht die Karte sogar im Vergleich zum Vorgänger gnadenlos ein, die Shaderleistung lässt auf eine schlechte Auslastung schliessen.
Entweder sind die Treiber ziemlich miserabel oder ATI hat im Design irgendwas kräftig verbockt. Hoffentlich nichts, was sich nicht bei einem Release beheben lassen würde.

w0mbat
2007-05-13, 17:20:27
http://rs53.rapidshare.com/files/31092804/r600_uploaded_by_fleetops.net.zip

dargo
2007-05-13, 17:20:30
So siehts aus. Je mehr DX10 desto X2900 - mit besseren Treibern macht die sogar ne GTX platt und das zum Preis der GTS. ;D
Oh man, dann zeige mir mal wie sie in DX10 Games performt. :rolleyes:

LovesuckZ
2007-05-13, 17:21:04
Eingangsposting mit einem Rapidshareliunk aus dem HWL Forum editiert.

Vielleicht ist das sogar Absicht um so einen Mist zu erschweren. NDA-Brecher testen mit falschen Treibern und haben falsche Ergebnisse.

Ich weiß nicht, dafür müsste jeder Tester über eine Karte verfügen - und das die ganze Zeit. Ausserdem ist das für die Leute doch sehr stressig, erst jetzt mit den Tests und dem Schreiben (50% oder so) anfangen zu können.

reunion
2007-05-13, 17:25:04
Die Ergebnisse sind mir etwas suspekt.
Mit AA bricht die Karte sogar im Vergleich zum Vorgänger gnadenlos ein, die Shaderleistung lässt auf eine schlechte Auslastung schliessen.
Entweder sind die Treiber ziemlich miserabel oder ATI hat im Design irgendwas kräftig verbockt. Hoffentlich nichts, was sich nicht bei einem Release beheben lassen würde.

ACK. Mit reinem MSAA sollte die Karte durch die hohe Bandbreite kaum Leistung verlieren, tatsächlich bricht sie damit regelrecht ein, stärker noch als mit AF, wo eigentlich die Schwachstelle liegen sollte. Das sieht alles höchst suspekt aus. Entweder sind nur die Treiber crab, oder der ganze Chip ist ein einziger Bug.

Winter[Raven]
2007-05-13, 17:26:25
So siehts aus. Je mehr DX10 desto X2900 - mit besseren Treibern macht die sogar ne GTX platt und das zum Preis der GTS. ;D

Ich habe dich schon in der Speku gefragt, woran du es festgemacht hast, dass der R600 mit D3D 10 alles plattmachen wird?

dildo4u
2007-05-13, 17:27:04
ACK. Mit reinem MSAA sollte die Karte durch die hohe Bandbreite kaum Leistung verlieren, tatsächlich bricht sie damit regelrecht ein, stärker noch als mit AF, wo eigentlich die Schwachstelle liegen sollte. .
Wieso hohe Bandbreite die liegt nur ca 15% höher als bei der GTX nicht vergessen das ist ja nur eine XT keine XTX mit 1Ghz Speichertakt.

reunion
2007-05-13, 17:30:04
Wieso hohe Bandbreite die liegt nur ca 15% höher als bei der GTX nicht vergessen das ist ja nur eine XT keine XTX mit 1Ghz Speichertakt.

Nur 15% höher als bei der GTX? Der ist gut. Die Karte bricht selbst gegen einen R580 gnadenlos ein, und das wo die ROPs single-cycle 4xMSAA beherrschen, und die Bandbreite >100GB/s liegt. Da stimmt einiges nicht. Ich glaube nach wie vor, dass der ROP-Bug nicht behoben wurde.

dargo
2007-05-13, 17:31:54
Erstaunlich finde ich die 71°C bei Last. Ist der Kühler so gut, dreht der Lüfter so schnell? Was hat nochmal eine GTX bei Last?

PCGH_Carsten
2007-05-13, 17:32:25
Ich spekuliere jetzt mal wild ins Blaue:
Geplant waren GDDR4 und 512 Bit - rechnerisch etwa bis zu 150 GB/s. Vielleicht hat man sich da bei damals noch Ati gedacht, sparen wir etwas Transistoren an den ROPs, beispielsweise in Sachen Kompression, wir haben je genug Bandbreite und außerdem wird DX10 eh "immer arithmetischer".

Und bestimmt wurden sie auch vom G80 überrascht.

Cubitus
2007-05-13, 17:32:40
edit.. zu spät ;)

PCGH_Carsten
2007-05-13, 17:32:51
Erstaunlich finde ich die 71°C bei Last. Ist der Kühler so gut, dreht der Lüfter so schnell? Was hat nochmal eine GTX bei Last?
Gut 90°C. Je nachdem, was du unter Last verstehst.

Gast
2007-05-13, 17:33:04
Erstaunlich finde ich die 71°C bei Last. Ist der Kühler so gut, dreht der Lüfter so schnell? Was hat nochmal eine GTX bei Last?

Der Kühler ist doch quasi von Nvidia geklaut.

AnarchX
2007-05-13, 17:34:20
Erstaunlich finde ich die 71°C bei Last. Ist der Kühler so gut, dreht der Lüfter so schnell? Was hat nochmal eine GTX bei Last?

Naja, es wurde berichtet dass die 2900XT unter 3D wohl etwas lauter als die GTX ist.
Zudem sollte man nicht vergessen, dass der Kühlkörper beim R600 zum größten Teil aus Kupfer ist.

G80-Temps:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/26/#abschnitt_temperatur

dargo
2007-05-13, 17:35:33
Und hier habe ich meine Zweifel. Warum 8+6Pin verbaut und empfohlen und zudem steht auch auf der Verpackung das maximale Leistungsaufnahme bei 225W liegt. Imo sollte man doch auf xlabits warten.
Laut dem Test liegt die X1950XTX 40W drunter. Wenn wir mal das NT berücksichtigen sind es ca. 30-32W mehr als die X1950XTX netto. Ich würde mal sagen CPU Limit, oder die HD 2900XT verbraucht wirklich relativ "wenig". Wären dann ca. 155W netto.

Gut 90°C. Je nachdem, was du unter Last verstehst.
Unter Last verstehe ich 100% Graka-Limit. :)

reunion
2007-05-13, 17:37:11
Ich spekuliere jetzt mal wild ins Blaue:
Geplant waren GDDR4 und 512 Bit - rechnerisch etwa bis zu 150 GB/s. Vielleicht hat man sich da bei damals noch Ati gedacht, sparen wir etwas Transistoren an den ROPs, beispielsweise in Sachen Kompression, wir haben je genug Bandbreite und außerdem wird DX10 eh "immer arithmetischer".

Und bestimmt wurden sie auch vom G80 überrascht.

Diese Argumentation würde vielleicht durchaus Sinn machen, stunde da nicht in den ersten R600-Folien, die irgendwann gegen mitte letzten Jahres geleakt wurden noch was von "over 80GB/s memory bandwith". Aber wer weiß schon, was da im Hintergrund abgelaufen ist.

dargo
2007-05-13, 17:37:59
Der Kühler ist doch quasi von Nvidia geklaut.
Na und? Hauptsache leise. Außerdem hat Sapphire einen eigenen "Monster" Kühler. ;)

reunion
2007-05-13, 17:39:28
Der Kühler ist doch quasi von Nvidia geklaut.

Wenn man nur die Plastikabdeckung betrachtete vielleicht. Genausogut könnte man argumentieren, dass der Kühler des G80 vom der X1950XTX geklaut wurde, und dieses von AC, usw.

up¦²
2007-05-13, 17:40:01
http://m1.freeshare.us/144fs982920.jpg

http://m1.freeshare.us/144fs98302.jpg

http://m1.freeshare.us/144fs983263.jpg

http://m1.freeshare.us/144fs983398.jpg

http://m1.freeshare.us/144fs983625.jpg

http://m1.freeshare.us/144fs98377.jpg

http://m1.freeshare.us/144fs983831.jpg

http://m1.freeshare.us/144fs984057.jpg

http://m1.freeshare.us/144fs984158.jpg

http://m1.freeshare.us/144fs984318.jpg

up¦²
2007-05-13, 17:40:12
http://m1.freeshare.us/144fs984431.jpg

http://m1.freeshare.us/144fs984679.jpg

http://m1.freeshare.us/144fs98485.jpg

http://img168.imageshack.us/img168/6114/123oz3.jpg

Conclusion:
"As said before, I had results from both the Catalyst 8.36 and Catalyst 8.37 Drivers. How did performance improve between this small driver jump of 0.01 version?

Taking a setting at 1600x1200 with 16xAF, I saw a major increase in performance, particularly Company Of Heroes and Quake 4. Performance went up by 11% on COH and 42% on Quake 4! This shows that the drivers is still very raw on this card, with just a minor driver revision boosting up performance that much, it gives us quite a lot of hope for a fair bit of improvement to come. Let's hope for that!

In many non Anti-Aliasing, High Definition game settings, you have seen the X2900XT push ahead of the performance of it's closest competitor, the GeForce 8800GTS 640MB, sometimes by quite a large margin, sometimes falling behind or ahead by a small percentage. In a select few games, the GTS is slightly faster, and vice versa. When Anti-Aliasing is turned on, the X2900XT showed that it carries it off with great efficiency in games that the drivers are optimized for, performing significantly better than the GTS; while the AA efficiency is piss-poor in some games due to the raw driver which has not fully blossomed to take advantage of ATi's new GPU technology. Just take a look at how performance has boosted from Drivers 8.36 to 8.37, that shows the potential in performance growth... a whole lot of it to reap.

It is slightly off tradition that the GPU company's flagship product sails off not to meet the flagship of it's competitor, but one target lower. Then again, the lower we go down the price pyramid, the bigger the audience, more people with the budget to spend. I'd say that there is no clear winner between the 8800 GTS and X2900XT, the GTS displayed more consistent performance behavior while the X2900XT fluctuates around due to the in-matured driver. I would say that despite the heat thrown out by the GPU, the X2900XT overclocks better than the 8800GTS by 8-10%, but that's putting out a lot more heat and drawing more power than it already consumes. So this is something potential XT buyers should take note of, the heat produced by the card is no small amount, nor is the power consumed by it - more than 60w over the GTS. What you would be investing in is a higher potential of upcoming performance boosts (including the latest pre-Alpha 8.37.4.2_47323 Catalyst just released 3 days before this review) and full HDCP support with integrated audio controller. And of course the new programmable Tessellation technology which we will probably not see support in games until much later.

Not the fastest video card in the market for sure, but definitely holds it's own at it's current price-point. We only hope that supply will be adequate and not lead to an indirect increase in prices due to short supply. We hope to see some interesting implementations from various card partners as well, be it overclocked specifications, or improved coolers."
Quelle: vr-zone, Singapur

DaEmpty
2007-05-13, 17:40:45
Ich spekuliere jetzt mal wild ins Blaue:
Geplant waren GDDR4 und 512 Bit - rechnerisch etwa bis zu 150 GB/s. Vielleicht hat man sich da bei damals noch Ati gedacht, sparen wir etwas Transistoren an den ROPs, beispielsweise in Sachen Kompression, wir haben je genug Bandbreite und außerdem wird DX10 eh "immer arithmetischer".

Und bestimmt wurden sie auch vom G80 überrascht.
Das klingt aber schwer ins Blaue spekuliert.
Da sie nichts über den G80 wussten, mussten sie mit rechnen, dass NV die selbe Kosten-/Nutzenrechnung machen und auch auf 512 Bit setzen.

Wenn man sie die Verzögerung beim Launch anschaut sieht das imo danach aus:
Karten sind fertig, aber es fehlt die Leistung. Keiner weiss warum. -> Panik. Wir verschieben das Ding. Die Treiberprogrammierer werden ihren Bug schon finden.

Analysen sind gemacht und die große Ernüchterung tritt ein, da man irgendwo einen kleinen Designfehler haben, der es eine vernünftige Auslastung unmöglich macht. -> Wir bringen das Ding jetzt raus, um überhaupt noch was daran zu verdienen und versuchen beim Refresh den Fehler zu beseitigen. Die Treiberprogrammierer waren die ganze Zeit mit beschäftigt, vergeblich ein Workaround zu bauen und haben zu spät auf einen Releasetreiber umgeschwenkt.

Gabs in letzter Zeit irgendwelche wichtigen Personaländerungen bei ATI? :biggrin:

Exxtreme
2007-05-13, 17:41:47
Also ich tippe immer noch auf unoptimierte Treiber. Mal sehen was die nächsten Treiber so bringen. Kann auch sein, daß andere Sites andere Ergebnisse erzielen warum auch immer.

PCGH_Carsten
2007-05-13, 17:42:50
Diese Argumentation würde vielleicht durchaus Sinn machen, stunde da nicht in den ersten R600-Folien, die irgendwann gegen mitte letzten Jahres geleakt wurden noch was von "over 80GB/s memory bandwith". Aber wer weiß schon, was da im Hintergrund abgelaufen ist.
150 sind doch "over 80 GB/s".

Das klingt aber schwer ins Blaue spekuliert.
Ist es auch - andererseits spart AMD ja offenbar schon an der Anzahl und den Fähigkeiten der ROPs. Aus Sicht eines reinen GPU-Designers wäre das durchaus sinnvoll: Kosten (RAM, PCB) auf den AIB abwälzen -> mehr Marge für mich.

Verkauft AMD eigentlich noch eigene Karten?

AnarchX
2007-05-13, 17:46:57
Hier gibt es übrigens die Pre-NDA-Presse-Präsentation, von Chiphell (http://www.chiphell.com/viewthread.php?tid=4048&extra=page%3D1&page=1) zu Verfügung gestellt:
http://files.filefront.com/R600_Pre-NDA_Brief_Presen6.rar/;7499638;/fileinfo.html Chinesisch
http://www.mediafire.com/?1zvucssmixm Englisch!
http://www.mediafire.com/?3nnbm1gubsu

Aber keine Ahnung ob hier vielleicht die Chinesische Version hochgeladen wurde. ;)

dargo
2007-05-13, 17:47:48
Also ich tippe immer noch auf unoptimierte Treiber. Mal sehen was die nächsten Treiber so bringen. Kann auch sein, daß andere Sites andere Ergebnisse erzielen warum auch immer.
Natürlich sind die Treiber nicht optimal. Bei vielen Games bricht die HD 2900XT stark ein sobald MSAA zugeschaltet wird.

r3ptil3
2007-05-13, 17:48:04
Bezüglich den Treibern:
http://img406.imageshack.us/img406/969/58tm0.jpg

Auch sehr interessant:
http://img406.imageshack.us/img406/9247/132yj9.jpg

reunion
2007-05-13, 17:48:04
150 sind doch "over 80 GB/s".

Natürlich. :)
Aber wenn ich "over 80GB/s" lese, dann impliziere ich damit nicht das doppelte.

deekey777
2007-05-13, 17:51:53
Ich spekuliere jetzt mal wild ins Blaue:
Geplant waren GDDR4 und 512 Bit - rechnerisch etwa bis zu 150 GB/s. Vielleicht hat man sich da bei damals noch Ati gedacht, sparen wir etwas Transistoren an den ROPs, beispielsweise in Sachen Kompression, wir haben je genug Bandbreite und außerdem wird DX10 eh "immer arithmetischer".

Und bestimmt wurden sie auch vom G80 überrascht.
Eher war 12xMSAA geplant, was nicht geklappt hat.

AnarchX
2007-05-13, 17:52:49
Auch sehr interessant:
http://img406.imageshack.us/img406/9247/132yj9.jpg

Geo und GS Power scheint momentan sowohl in HW und SW bei R600 sehr gut zu funktionieren. Bei der GF8 aber wohl noch eher weniger wenn man mal GTS und GTX vergleicht.

DaEmpty
2007-05-13, 17:53:14
Aus Sicht eines reinen GPU-Designers wäre das durchaus sinnvoll: Kosten (RAM, PCB) auf den AIB abwälzen -> mehr Marge für mich.
Du hälst es für den GPU Designer günstiger einen externen 512Bit Bus einzuführen, was intern ja in einen 1024 Bit resultiert, als ein schmaleres Interface zu nutzen und die Bandbreitensparmöglichkeiten beizubehalten (nicht mal erweitern)?
Das breite Interface ist ja auch für den GPU-Designer alles andere als geschenkt.

PCGH_Carsten
2007-05-13, 17:53:15
Natürlich. :)
Aber wenn ich "over 80GB/s" lese, dann impliziere ich damit nicht das doppelte.
Die meisten haben aus der Äußerung "wir werden Unified Shader bringen, wenn die Zeit dafür reif ist" auch nicht auf den G80 geschlossen. :)

Du hälst es für den GPU Designer günstiger einen externen 512Bit Bus einzuführen, was intern ja in einen 1024 Bit resultiert, als ein schmaleres Interface zu nutzen und die Bandbreitensparmöglichkeiten beizubehalten (nicht mal erweitern)?
Das breite Interface ist ja auch für den GPU-Designer alles andere als geschenkt.
Nein, ich halte es aus wirtschaftlicher Sicht für günstiger, das Die so klein wie möglich zu halten.

Eher war 12xMSAA geplant, was nicht geklappt hat.
Und das erklärt den Einbruch bei FSAA generell in manchen Games?

Exxtreme
2007-05-13, 17:53:41
Hier gibt es übrigens die Pre-NDA-Presse-Präsentation, von Chiphell (http://www.chiphell.com/viewthread.php?tid=4048&extra=page%3D1&page=1) zu Verfügung gestellt:
http://files.filefront.com/R600_Pre-NDA_Brief_Presen6.rar/;7499638;/fileinfo.html
http://www.mediafire.com/?1zvucssmixm
http://www.mediafire.com/?3nnbm1gubsu

Aber keine Ahnung ob hier vielleicht die Chinesische Version hochgeladen wurde. ;)
Also der Filefront-Link enthält die chinesische Version. :( Die anderen weiss ich nicht.

Gast
2007-05-13, 17:55:08
Auch sehr interessant:
http://img406.imageshack.us/img406/9247/132yj9.jpg

Dagegen scheint die Pixelshaderleistung nicht optimal zu sein...

http://www.imagehost123.uni.cc/uploads/1684ee2980.jpg (http://www.imagehost123.uni.cc)

LovesuckZ

DaEmpty
2007-05-13, 17:56:52
Nein, ich halte es aus wirtschaftlicher Sicht für günstiger, das Die so klein wie möglich zu halten.
Ich meinte ja günstiger auf Anzahl der Transitoren bezogen. So ein Bus besteht ja aus mehr als ein paar Leistungen.

Spasstiger
2007-05-13, 17:59:40
Hat die X2900 XT jetzt eigentlich nur effektiv 16 bi-TMUs?
Weil es ja nur 16 texture filter units sind.

dargo
2007-05-13, 18:00:39
Ach, halts doch dein Maul du plödder pillemann ;P
Sehr nett formuliert. X-D

Zum Thema:
Ist das die letzte Revision vom R600 die A13? Ich dachte man wäre da schon bei A15.

AnarchX
2007-05-13, 18:01:36
Hat die X2900 XT jetzt eigentlich nur effektiv 16 bi-TMUs?
Weil es ja nur 16 texture filter units sind.

Ja, aber diese werden durch die zusätzliche Sampler etwas entlastet.
Aber im Endeffekt bleibt die Texelleistung im Vergleich zum G80 lächerlich.

Gast
2007-05-13, 18:02:06
Hat die X2900 XT jetzt eigentlich nur effektiv 16 bi-TMUs?
Weil es ja nur 16 texture filter units sind.

Ja, sie hat 16 TMUs, die in einem Takt FP16 Texturen filtern können. Ergo auch nur 16 int8 TMUs

http://www.imagehost123.uni.cc/uploads/44230526c9.jpg (http://www.imagehost123.uni.cc)

PCGH_Carsten
2007-05-13, 18:05:05
Ich meinte ja günstiger auf Anzahl der Transitoren bezogen. So ein Bus besteht ja aus mehr als ein paar Leistungen.
Ein interner 1024-Bit-Bus ist nicht zwingend ein Nebeneffekt des 512-Bit-Interfaces. Wieviele Transistoren sowas kostet, weiß ich nicht, aber ich denke mal, dass diese Entscheidung bereits früh gesetzt war. Und dann hat man sich halt angeschaut, was man einsparen kann, um möglichst viele Funktionseinheiten in den Chip zu quetschen.

reunion
2007-05-13, 18:07:14
S.T.A.L.K.E.R. v1.3, All setting maximun, AF in game . 8.37 Drivers

2900XT//8800GTS
bench1
1280x1024
med:~47fps~44fps
1600x1200
med:~39fps~35fps
1920x1200
med:~34fps~30fps

bench2
1280x1024
med:~73fps~64fps
1600x1200
med:~58fps~52fps
1920x1200
med:~52fps~44fps


An improvement of a 20% in this game with the 8.37



http://forum.beyond3d.com/showpost.php?p=985906&postcount=5437

Solange man auf AA verzichtet, scheint die Karte knapp vor der GTS zu liegen, sobald man es aktiviert (was eigentlich die große Stärke sein sollte), ist oft sogar ein R580 schneller.

Coda
2007-05-13, 18:07:46
16xAA ist 4xMSAA und 12 Coverage-Samples, 16xQ ist 8xMSAA und 8 CS, 16xCFAA ist 8xMSAA und irgendwas (Wide Tent). Also wo ist das Problem?
Das Problem ist, dass CSAA erstens dem Bild wirklich mehr Informationen hinzufügt und zweitens deswegen deutlich mehr Performance braucht.

CFAA ist ein simpler Blur-Postfilter.
So siehts aus. Je mehr DX10 desto X2900 - mit besseren Treibern macht die sogar ne GTX platt und das zum Preis der GTS. ;D
Da würde ich noch sehr vorsichtig sein. GS ist nicht alles.

Falls die GS-Performance des G80 wirklich so schlecht ist wird damit so umgegangen wie mit dyn. branching in den letzten Generationen. Es wird einfach nicht verwendet.

up¦²
2007-05-13, 18:10:10
http://m1.freeshare.us/144fs999030_th.jpg (http://m1.freeshare.us/view/?144fs999030.jpg)

http://m1.freeshare.us/145fs99553_th.jpg (http://m1.freeshare.us/view/?145fs99553.jpg)

http://m1.freeshare.us/145fs100266_th.jpg (http://m1.freeshare.us/view/?145fs100266.jpg)

http://m1.freeshare.us/145fs100964_th.jpg (http://m1.freeshare.us/view/?145fs100964.jpg)

http://m1.freeshare.us/145fs101675_th.jpg (http://m1.freeshare.us/view/?145fs101675.jpg)

Quelle:
http://vr-zone.com/?i=4946&s=13

cl55amg
2007-05-13, 18:10:28
Verkauft AMD eigentlich noch eigene Karten?

Du meinst die "Built by ATI" labels die in Kanada und den USA verkauft wurden?
Gute Frage...

AnarchX
2007-05-13, 18:13:44
Nächstes Review...

ATI Radeon HD 2900 XT – AMD's long awaited R600 DX10 GPU arrives @TweakTown (http://www.tweaktown.com/articles/1100/ati_radeon_hd_2900_xt_amd_s_long_awaited_r600_dx10_gpu_arrives/index.html)

LovesuckZ
2007-05-13, 18:13:59
Neuer Test hinzugefügt:
http://www.tweaktown.com/articles/1100/1/page_1_introduction/index.html

Wobei Tweaktown nich wirklich gute Tests abliefern.

up¦²
2007-05-13, 18:14:00
Wird VRAM da irgendwie knapp? :confused:

deekey777
2007-05-13, 18:15:07
Und das erklärt den Einbruch bei FSAA generell in manchen Games?
Nein, das war mein Versuch zu erklären, warum sich ATi für ein 512bit-SI entschieden hat. Von Problemen mit ROPs wurde mehrmals berichtet (sollten spätestens mit A13 aus der Welt sein, aber nicht so, wie man gern hätte).

crux2005
2007-05-13, 18:15:53
Hier gibt es übrigens die Pre-NDA-Presse-Präsentation, von Chiphell (http://www.chiphell.com/viewthread.php?tid=4048&extra=page%3D1&page=1) zu Verfügung gestellt:
http://files.filefront.com/R600_Pre-NDA_Brief_Presen6.rar/;7499638;/fileinfo.html Chinesisch
http://www.mediafire.com/?1zvucssmixm
http://www.mediafire.com/?3nnbm1gubsu

Aber keine Ahnung ob hier vielleicht die Chinesische Version hochgeladen wurde. ;)

diese Präsentation ist in englisch:

http://www.mediafire.com/?1zvucssmixm

reunion
2007-05-13, 18:16:18
Taking a setting at 1600x1200 with 16xAF, I saw a major increase in performance, particularly Company Of Heroes and Quake 4. Performance went up by 11% on COH and 42% on Quake 4! This shows that the drivers is still very raw on this card, with just a minor driver revision boosting up performance that much, it gives us quite a lot of hope for a fair bit of improvement to come. Let's hope for that!

In many non Anti-Aliasing, High Definition game settings, you have seen the X2900XT push ahead of the performance of it's closest competitor, the GeForce 8800GTS 640MB, sometimes by quite a large margin, sometimes falling behind or ahead by a small percentage. In a select few games, the GTS is slightly faster, and vice versa. When Anti-Aliasing is turned on, the X2900XT showed that it carries it off with great efficiency in games that the drivers are optimized for, performing significantly better than the GTS; while the AA efficiency is piss-poor in some games due to the raw driver which has not fully blossomed to take advantage of ATi's new GPU technology. Just take a look at how performance has boosted from Drivers 8.36 to 8.37, that shows the potential in performance growth... a whole lot of it to reap.



It is slightly off tradition that the GPU company's flagship product sails off not to meet the flagship of it's competitor, but one target lower. Then again, the lower we go down the price pyramid, the bigger the audience, more people with the budget to spend. I'd say that there is no clear winner between the 8800 GTS and X2900XT, the GTS displayed more consistent performance behavior while the X2900XT fluctuates around due to the in-matured driver. I would say that despite the heat thrown out by the GPU, the X2900XT overclocks better than the 8800GTS by 8-10%, but that's putting out a lot more heat and drawing more power than it already consumes. So this is something potential XT buyers should take note of, the heat produced by the card is no small amount, nor is the power consumed by it - more than 60w over the GTS. What you would be investing in is a higher potential of upcoming performance boosts (including the latest pre-Alpha 8.37.4.2_47323 Catalyst just released 3 days before this review) and full HDCP support with integrated audio controller. And of course the new programmable Tessellation technology which we will probably not see support in games until much later.

Not the fastest video card in the market for sure, but definitely holds it's own at it's current price-point. We only hope that supply will be adequate and not lead to an indirect increase in prices due to short supply. We hope to see some interesting implementations from various card partners as well, be it overclocked specifications, or improved coolers.

Die Treiber spielen extrem verrückt.

up¦²
2007-05-13, 18:19:12
http://www.materiel.net/live/28399.jpg
horn12 dreambox :wink:

seahawk
2007-05-13, 18:19:57
Die Frage ist jetzt halt nur warum die Treiber spinnen.

LovesuckZ
2007-05-13, 18:21:01
Die Frage ist jetzt halt nur warum die Treiber spinnen.

Weil man noch nicht soweit ist mit der Treiberprogrammierung. Die Karte bräuchte mindesten noch ein bis zwei Monate mehr Zeit - soviele Probleme gab es nichtmal bei den 8800 Karten...

Coda
2007-05-13, 18:22:16
Ich versteh das gar nicht. Die hatten doch ewig Zeit. Prototypen gab's doch schon letztes Jahr.

horn 12
2007-05-13, 18:23:25
Danke Up²
Jedoch auf VrZone sah man auch ein anderes Bild, dieses mit dem Alternativlüfter. Welche Version werde ich wohl bekommen morgen ... ?
Und welches Game liegt der Sapphire HD 2900 XT denn bei ( Stalker laut dem Pic vielleicht, kann es aber schwer erraten.

dargo
2007-05-13, 18:23:54
Weil man noch nicht soweit ist mit der Treiberprogrammierung. Die Karte bräuchte mindesten noch ein bis zwei Monate mehr Zeit - soviele Probleme gab es nichtmal bei den 8800 Karten...
Ich frage mich ernsthaft was ATI die ganze Zeit gemacht hat. Zeit genug hatten sie ja für die Treiber. Das wird ja immer schlimmer bei den neuen Grafikgenerationen, und damit meine ich nicht nur ATI.

AnarchX
2007-05-13, 18:23:59
Die Frage ist jetzt halt nur warum die Treiber spinnen.

Weil AMD die Gehälter gekürzt hat? ;)

Naja, es ist wohl nur noch eine Frage der Zeit wie lang Dave "rise the clock up" Orton Leiter der AMD Graphics Group ist.

reunion
2007-05-13, 18:23:59
Ich versteh das gar nicht. Die hatten doch ewig Zeit. Prototypen gab's doch schon letztes Jahr.

Offensichtlich glaubte man bis vor kurzem selber nicht mehr daran, dass die Karte nochmal fertig wird. ;D
Erinnert irgendwie an R200, damals soll Orton auch gesagt haben "bringt das Teil, egal ob es noch fertig ist oder nicht".

mapel110
2007-05-13, 18:24:55
Ich versteh das gar nicht. Die hatten doch ewig Zeit. Prototypen gab's doch schon letztes Jahr.
Offenbar hat ATI sich mehr um den (allgemeinen) Vistasupport gekümmert und wohl zu spät mit dem R600-Treiber angefangen und sich verschätzt.
Obendrein haben sie ja mit dem CCC immernoch sehr viel zu tun, wenn man sich die Release Notes jeden Monat anschaut.

up¦²
2007-05-13, 18:24:57
...apropos Prototype:
wo ist denn die OEM geblieben?
Dell?

w0mbat
2007-05-13, 18:25:53
TweakTown hat auch ein Review gebracht, aber mit dem noch älteren 8.361er.
http://www.tweaktown.com/articles/1100/1/page_1_introduction/index.html

seahawk
2007-05-13, 18:26:29
Weil AMD die Gehälter gekürzt hat? ;)

Naja, es ist wohl nur noch eine Frage der Zeit wie lang Dave "rise the clock up" Orton Leiter der AMD Graphics Group ist.

Naja, es gibt da eigentlich 2 mögliche Antworten.

a) die Treiber sind einfach schlecht
b) die Karte braucht stark optimierten Code um performen zu können und braucht daher sehr viel Arbeit am Treiber inkl. Shadrereplacement etc.

LovesuckZ
2007-05-13, 18:26:49
Das wird ja immer schlimmer bei den neuen Grafikgenerationen, und damit meine ich nicht nur ATI.

Die Treiber der 8800 Karten waren auf einem sehr gutem Niveau für eine neue Generation. Natürlich gab es Fehler, aber die waren nicht so deutlich wie hier.

dargo
2007-05-13, 18:29:31
Die Treiber der 8800 Karten waren auf einem sehr gutem Niveau für eine neue Generation. Natürlich gab es Fehler, aber die waren nicht so deutlich wie hier.
Hehe, soll ich jetzt lachen? NV hatte mindestens genau so viele Treiberprobleme mit dem G80 wie ATI jetzt mit dem R600.

up¦²
2007-05-13, 18:30:30
Wie es aussieht, hat noch keiner Lost Planet DX10-Benchmarks dabei...
PCG ahoi! :whisper:
Im OCUK-Forum (laut einem, der schon eine hat) lief ausgerechnet Stalker unter Vista wie "geschmiert", also das wird spannend: dann sind die Vista-Treiber vermutlich schon relativ ok

Gast
2007-05-13, 18:32:34
...apropos Prototype:
wo ist denn die OEM geblieben?
Dell?
In nem Dell System ;)

Vor morgen (ehr am dienstag wen wer son sys kauft) wird da sicher nix zu sehen sein die halten sich mit sicherheit an NDA´s.

ks
2007-05-13, 18:32:39
http://www.ocworkbench.com/2007/ati/ATI-HD-Radeon-HD-2900XT-and-HD-2000-Series/p1.htm

link stand ja im Speku , läuft mittlerweile auch.....falls nicht bekannt

reunion
2007-05-13, 18:33:00
Naja, es gibt da eigentlich 2 mögliche Antworten.

a) die Treiber sind einfach schlecht
b) die Karte braucht stark optimierten Code um performen zu können und braucht daher sehr viel Arbeit am Treiber inkl. Shadrereplacement etc.

"B" erklärt nicht, warum die Karte allgemein mit MSAA völlig abkackt. Warum sollte die Karte auch stärker optimierten Code benötigen als bsw. ein R580?

mapel110
2007-05-13, 18:33:53
Hehe, soll ich jetzt lachen? NV hatte mindestens genau so viele Treiberprobleme mit dem G80 wie ATI jetzt mit dem R600.
Was solls denn da gegeben haben?! Das Einzige, was man als Treiberbug vermutete, war iirc der Idle-Stromverbrauch. Und der war keiner, wie man bis heute sieht.
An solch ein TreiberDesaster wie ATI hier gerade abliefert, kann ich mich bei nvidia überhaupt nicht errinnern, zu keiner Zeit.

Blaire
2007-05-13, 18:34:25
Hehe, soll ich jetzt lachen? NV hatte mindestens genau so viele Treiberprobleme mit dem G80 wie ATI jetzt mit dem R600.

Nein die G80 Treiber hatten nicht soviele Performanceprobleme, ich hatte die Karten von Anfang an und kann das sehr gut einschätzen. Die konnten sich sehr gut von der Konkurrenz zum damaligen Zeitpunkt absetzen.

LovesuckZ
2007-05-13, 18:34:27
Hehe, soll ich jetzt lachen? NV hatte mindestens genau so viele Treiberprobleme mit dem G80 wie ATI jetzt mit dem R600.

Seit wann hast du deine Karte? März?
Ich habe meine seit dem 11.11. Probleme gab es, richtig. Aber solche Sachen wie mit der AA Leistung, waren nicht vorhanden. Das ein paar Spiele nicht liefern bzw. Fehler zeigten, war nicht schön. Aber ein großteil der Games lief bestens und einwandfrei.

up¦²
2007-05-13, 18:35:43
Was solls denn da gegeben haben?! Das Einzige, was man als Treiberbug vermutete, war iirc der Idle-Stromverbrauch. Und der war keiner, wie man bis heute sieht.
An solch ein TreiberDesaster wie ATI hier gerade abliefert, kann ich mich bei nvidia überhaupt nicht errinnern, zu keiner Zeit.

Naja - der Leafblower war eins und warten wir doch mal ab, wann der Treiber kommt...

dargo
2007-05-13, 18:37:16
Was solls denn da gegeben haben?! Das Einzige, was man als Treiberbug vermutete, war iirc der Idle-Stromverbrauch. Und der war keiner, wie man bis heute sieht.

Von nicht funktionierenden Spielen bis Grafikfehlern in einigen Games. Ob ich jetzt Performanceprobleme habe oder das Spiel läuft überhaupt nicht oder mit Grafikfehlern spielt für mich keine Rolle. Beides ist untragbar. Der G80 war für mich erst nach ca. 3-4 Monaten (aus Treibersicht) brauchbar.

Exxtreme
2007-05-13, 18:40:15
Was solls denn da gegeben haben?! Das Einzige, was man als Treiberbug vermutete, war iirc der Idle-Stromverbrauch. Und der war keiner, wie man bis heute sieht.
An solch ein TreiberDesaster wie ATI hier gerade abliefert, kann ich mich bei nvidia überhaupt nicht errinnern, zu keiner Zeit.
Also vom Desaster zu sprechen finde ich schon derbe übetrieben. Als ob die Welt untergeht weil ein Paar fps fehlen. Ein Desaster ist zumindest für mich wenn Spiele nicht oder nur mit massiven Grafikfehlern laufen oder der Treiber gleich den Rechner abschiesst.

Gast
2007-05-13, 18:40:38
TweakTown hat auch ein Review gebracht, aber mit dem noch älteren 8.361er.
http://www.tweaktown.com/articles/1100/1/page_1_introduction/index.html

Die Min FPS sind sehr gut, nur die Avg FPS nicht:(

dildo4u
2007-05-13, 18:42:15
Die Min FPS sind sehr gut, nur die Avg FPS nicht:(
Die min fps hängen bei Supremecommander zu 100% an der CPU da kann die 8800GTX noch so viel schneller als die 2900XT sein.

up¦²
2007-05-13, 18:43:12
http://m1.freeshare.us/145fs111814_th.jpg (http://m1.freeshare.us/view/?145fs111814.jpg)

http://m1.freeshare.us/145fs112117_th.jpg (http://m1.freeshare.us/view/?145fs112117.jpg)
NeverWinter Nights 2 is such a resource hog, when one turns up to the best image quality in the game, it's tough to run it smooth on almost any setups. ATi has a lot to tune in this game, the X2900XT and X1950XTX just gets trounced by the NVIDIA 8800 cards in this game at this setting.


The game is hardly playable at 20fps on the X2900XT at 1600x1200 16xAF... at least the GTSes can keep the game more or less playable.


Even the GTX cannot break 30fps at this wide-screen resolution. The game is ridiculously draining on GPU power. One can forget about gaming at this resolution on the X2900XT unless the image quality settings get trimmed down.

The card performs disappointingly in this game, so I'd suggest trimming down some of the in-game eye candy to a lower level, then 1600x1200 will be playable.
Quelle:
http://vr-zone.com/?i=4946&s=13

Winter[Raven]
2007-05-13, 18:43:42
Hat einer schon mal erwähnt, dass Ruby extrem häßlich ist? Die Stimme passt genauso wenig, ist wie bei einem Tranvestit.

@ Thema,

Nun, was bleibt ist eine gute GPU mit extremen Startproblemen, ist mehr als fraglich warum es AMD/ATi bis heute immer noch nicht geschaft hatte den Treiber halbwegs auf die Reihe zu bekommen.

@ Seahawk, ich warte immer noch... warum soll der R600 alles platt machen unter D3D10?

mapel110
2007-05-13, 18:44:02
Also vom Desaster zu sprechen finde ich schon derbe übetrieben. Als ob die Welt untergeht weil ein Paar fps fehlen. Ein Desaster ist zumindest für mich wenn Spiele nicht oder nur mit massiven Grafikfehlern laufen oder der Treiber gleich den Rechner abschiesst.
Nicht laufen oder nur 25 fps durchschnittlich sobald ich AA einschalte(wo die Konkurrenz mehr als doppelt so schnell ist) ist für mich das gleiche. Und das scheint bei sehr vielen Spielen so zu sein.

Wir reden hier vorallem nur von den Mainstream-Spielen der Reviews bislang. Wie siehts mit älteren oder anderen Titeln aus?!

Ronny145
2007-05-13, 18:45:01
http://m1.freeshare.us/145fs111814_th.jpg (http://m1.freeshare.us/view/?145fs111814.jpg)

http://m1.freeshare.us/145fs112117_th.jpg (http://m1.freeshare.us/view/?145fs112117.jpg)

Quelle:
http://vr-zone.com/?i=4946&s=13


Uff Neverwinter Nights sieht nicht gut aus. Kann mir gut vorstellen, dass es abseits der bekannten Spiele ähnlich sein wird.

Coda
2007-05-13, 18:45:35
Hehe, soll ich jetzt lachen? NV hatte mindestens genau so viele Treiberprobleme mit dem G80 wie ATI jetzt mit dem R600.
Ich hatte sehr früh eine 8800 GTS samt Vista und hab davon nicht viel mitbekommen. Genauer gesagt hatte ich nicht eine Fehldarstellung in irgend einem Spiel.

Naja ich besorg mir mal ne 2900XT und schau mir's an.

dargo
2007-05-13, 18:45:47
Die min fps hängen bei Supremecommander zu 100% an der CPU da kann die 8800GTX noch so viel schneller als die 2900XT sein.
Hmm, macht sich hier etwa doch wieder der DC Vorteil von Ati Treibern bemerkbar? Das habe ich schon bei meinen DC Tests mit dem R580 und jetzt G80 beobachtet.

Ich hatte sehr früh eine 8800 GTS samt Vista und hab davon nicht viel mitbekommen. Genauer gesagt hatte ich nicht eine Fehldarstellung in irgend einem Spiel.
Dann hast du die falschen Spiele gehabt. X-D

DaEmpty
2007-05-13, 18:47:00
Also vom Desaster zu sprechen finde ich schon derbe übetrieben. Als ob die Welt untergeht weil ein Paar fps fehlen.
Es ist auch ein Desaster, wenn eine neue HighEnd-Grafikkarte teilweise von ihrem Vorgänger überholt wird, sobald IQ Features genutzt werden.
Zwar nicht unbedingt für den Käufer, aber für den Hersteller, der seinen Käufern erklären muss, warum die neuen Karten gerade in der für die Zielgruppe relevanten Settings langsamer ist als ihre bisherige Karte.

Ob Hardwarefehler oder nicht. Die Reviews stehen morgen alle im Netz und werden für einen Großteil der Kaufentscheidungen maßgebend sein. Daran werden auch bessere Treiber von ATI nicht soviel ändern.
Imo ein finanzielles Desaster für ATI/AMD. Als ob die nicht schon genug Probleme hätte. :(

Coda
2007-05-13, 18:47:43
Hmm, macht sich hier etwa doch wieder der DC Vorteil von Ati Treibern bemerkbar? Das habe ich schon bei meinen DC Tests mit dem R580 und jetzt G80 beobachtet.
Ja, wahrscheinlich ist die Treiberlast hier bei G80 höher.

Dann hast du die falschen Spiele gehabt. X-D
Vielleicht. Ich spiele nicht viel Abseits von AAA.

dargo
2007-05-13, 18:49:21
Nicht laufen oder nur 25 fps durchschnittlich sobald ich AA einschalte(wo die Konkurrenz mehr als doppelt so schnell ist) ist für mich das gleiche. Und das scheint bei sehr vielen Spielen so zu sein.

Macht es euch doch einfacher. Nie direkt nach dem Launch kaufen. Das gilt auch für Mainboards. Dann geht man den Startschwierigkeiten direkt aus dem Weg. :)

Gast
2007-05-13, 18:51:21
Dann hast du die falschen Spiele gehabt. X-D

Nein, er hatte das richtige Betriebssystem. Die Fehler unter XP waren mit den ersten Treibern für Vista beseitigt - hat nur etwas länger für XP gedauert.

LovesuckZ

dargo
2007-05-13, 18:51:50
Ja, wahrscheinlich ist die Treiberlast hier bei G80 höher.

Sollte dann ein DC nicht mehr bringen? :uponder:

seahawk
2007-05-13, 18:53:13
;5490415']
@ Seahawk, ich warte immer noch... warum soll der R600 alles platt machen unter D3D10?

Weil die KArte grundsätzlich mehr Shaderpower hat, schlechte Treiber halten sie aber noch gefesselt.

dargo
2007-05-13, 18:53:42
Nein, er hatte das richtige Betriebssystem. Die Fehler unter XP waren mit den ersten Treibern für Vista beseitigt - hat nur etwas länger für XP gedauert.

LovesuckZ
Wie dem auch sei. Beide Treiber kommen von NV.

AnarchX
2007-05-13, 18:54:12
Weil die KArte grundsätzlich mehr Shaderpower hat, schlechte Treiber halten sie aber noch gefesselt.

Hat sie eben nicht. ;)
Nur wenn die Shader passen, kann der R600 seine Stärke zeigen.

Spasstiger
2007-05-13, 18:56:55
Weil die KArte grundsätzlich mehr Shaderpower hat, schlechte Treiber halten sie aber noch gefesselt.
X2900 XT: 475 GFLOPs
8800 GTX: 518 GFLOPs
8800 Ultra: 576 GFLOPs

Das Urteil von VR-Zone, dass der R600 besseres AA biete als der G80, finde ich übrigens etwas daneben:

http://img519.imageshack.us/img519/7117/84xm1.jpg

Zwar sieht man bei der X2900 XT wirklich weniger Kantenpixel, aber dafür sind die Texturdetails durch den Blurfilter deutlich schlechter.

Gast
2007-05-13, 18:57:40
Hat sie eben nicht. ;)
Nur wenn die Shader passen, kann der R600 seine Stärke zeigen.

Und was sagt uns der dämliche Smile? Hat sie doch? Oder doch nicht?

Gast
2007-05-13, 18:58:29
Ich bin jetzt echt mal auf die Preise und Verfügbarkeit gespannt.

Sollte die Karte wirklich für 380€ kommen und schlecht lieferbar sein, wiegen die negativen Seiten wie der Preis und Verbrauch nun zu schwer. Selbst die an sich bessere Zukunftsfähigkeit und kommende Optimierungen in Sachen Geschwindigkeit sind dann nichts dagegen.

Exxtreme
2007-05-13, 18:58:50
Es ist auch ein Desaster, wenn eine neue HighEnd-Grafikkarte teilweise von ihrem Vorgänger überholt wird, sobald IQ Features genutzt werden.
Zwar nicht unbedingt für den Käufer, aber für den Hersteller, der seinen Käufern erklären muss, warum die neuen Karten gerade in der für die Zielgruppe relevanten Settings langsamer ist als ihre bisherige Karte.

Ob Hardwarefehler oder nicht. Die Reviews stehen morgen alle im Netz und werden für einen Großteil der Kaufentscheidungen maßgebend sein. Daran werden auch bessere Treiber von ATI nicht soviel ändern.
Imo ein finanzielles Desaster für ATI/AMD. Als ob die nicht schon genug Probleme hätte. :(
Ich würd's eher als ein PR-Desaster bezeichnen. Und ja, der Launch ist einfach mal Mist. Das wird sicherlich einigen Leuten bei AMD den Job kosten.

Gast
2007-05-13, 19:00:25
Ich würd's eher als ein PR-Desaster bezeichnen. Und ja, der Launch ist einfach mal Mist. Das wird sicherlich einigen Leuten bei AMD den Job kosten.

Jupp. So nen vermurksten Launch hat ATI selber noch nie hingelegt. Sieht mir eher so aus als wollen da zuviele mitreden.

Coda
2007-05-13, 19:02:20
Und was sagt uns der dämliche Smile? Hat sie doch? Oder doch nicht?
Muss sich zeigen. Ist sehr schwer abzuschätzen, weil da einiges mehr reinfließt als reine GFlop-Zahlen.

Schlussendlich muss man auch sagen, dass nur weil eine App D3D10 benützt das Alu:Tex-Verhältnis noch lange nicht höher sein muss. Der wird zwar höher, aber eher fließend und nicht abhängig von der API.

up¦²
2007-05-13, 19:03:18
Ach - Nvidia hat doch auch die Kurve gekriegt damals:
http://m1.freeshare.us/145fs118024_th.jpg (http://m1.freeshare.us/view/?145fs118024.jpg)

Spasstiger
2007-05-13, 19:03:27
Und was sagt uns der dämliche Smile? Hat sie doch? Oder doch nicht?
Die theoretische FLOP-Leistung ist niedriger.

Gast
2007-05-13, 19:07:08
X2900 XT: 475 GFLOPs
8800 GTX: 518 GFLOPs
8800 Ultra: 576 GFLOPs


Es sollte nur die MADD - Leistung betrachtet werden, da bei nVidia die SFU einfach zu stark die MUL blockiert und bei AMD die 1D Einheit die SF - Aufgaben übernimmt.
Von der reinen MADD - Leistung hat die 2900XT die größte Rechenleistung:
HD2900XT: 379904 GFlops/s(mit SFU: 474880 GFlops/s)
8800Ultra: 384000 GFlops/S
8800GTX: 345600 GFlops/s
8800GTS: 230400 GFlops/s

Und für die Qulität der AA Modie sollte man sich die Battlefield Bilder ansehen - schrecklich. Sowas anzubieten scheint wirklich eine Angstreaktion zu sein.

LovesuckZ
2007-05-13, 19:08:14
Es sollte nur die MADD - Leistung betrachtet werden, da bei nVidia die SFU einfach zu stark die MUL blockiert und bei AMD die 1D Einheit die SF - Aufgaben übernimmt.
Von der reinen MADD - Leistung hat die 2900XT die größte Rechenleistung:
HD2900XT: 379904 GFlops/s(mit SFU: 474880 GFlops/s)
8800Ultra: 384000 GFlops/S
8800GTX: 345600 GFlops/s
8800GTS: 230400 GFlops/s
Und für die Qulität der AA Modie sollte man sich die Battlefield Bilder ansehen - schrecklich. Sowas anzubieten scheint wirklich eine Angstreaktion zu sein.

Fehlende Kekse :(

reunion
2007-05-13, 19:08:29
Und was sagt uns der dämliche Smile? Hat sie doch? Oder doch nicht?

Das kann dir zurzeit niemand seriös beantworten. Weder die theoretische peak-Leistung, noch irgendwelche heute bekannten theoretischen Vor-/Nachteile genügen, um bei solchen komplexen Chips heute schon eine entgültige Antwort geben zu können IMHO.

Raff
2007-05-13, 19:08:30
Das Urteil von VR-Zone, dass der R600 besseres AA biete als der G80, finde ich übrigens etwas daneben:

http://img519.imageshack.us/img519/7117/84xm1.jpg

Zwar sieht man bei der X2900 XT wirklich weniger Kantenpixel, aber dafür sind die Texturdetails durch den Blurfilter deutlich schlechter.

Da auch Texturdetails zermatscht werden, kann man immerhin davon ausgehen, dass auch hochfrequenter Flimmercontent beruhigt wird. Könnte da ganz brauchbar sein ... SSAA wäre mir aber lieber.

MfG,
Raff

crux2005
2007-05-13, 19:09:22
Es sollte nur die MADD - Leistung betrachtet werden, da bei nVidia die SFU einfach zu stark die MUL blockiert und bei AMD die 1D Einheit die SF - Aufgaben übernimmt.
Von der reinen MADD - Leistung hat die 2900XT die größte Rechenleistung:
HD2900XT: 379904 GFlops/s(mit SFU: 474880 GFlops/s)
8800Ultra: 384000 GFlops/S
8800GTX: 345600 GFlops/s
8800GTS: 230400 GFlops/s

Und für die Qulität der AA Modie sollte man sich die Battlefield Bilder ansehen - schrecklich. Sowas anzubieten scheint wirklich eine Angstreaktion zu sein.

345600 GFlop/s W00t ? :confused: ;D

Exxtreme
2007-05-13, 19:11:11
Jupp. So nen vermurksten Launch hat ATI selber noch nie hingelegt. Sieht mir eher so aus als wollen da zuviele mitreden.
Ich habe eher das Gefühl, daß Vista da ein Paar Sachen durcheinander gebracht hat. Gab vielleicht doch mehr Komplikationen wo mehr Manpower gebraucht wurde als sonst etc. und das falsch eingeschätzt wurde. Aber trotzdem. Bevor man so einen Launch hinlegt, ist wohl eine Verschiebung um eine Woche vielleicht doch besser. Zumal neuere Treiber bessere Leistung bringen.

Coda
2007-05-13, 19:11:24
Da auch Texturdetails zermatscht werden, kann man immerhin davon ausgehen, dass auch hochfrequenter Flimmercontent beruhigt wird. Könnte da ganz brauchbar sein ... SSAA wäre mir aber lieber.
Also der Satz von einem SSAA-Befürworter ist ja wohl selfpwnage pur.

Das ist ja das krasse Gegenteil von SSAA. Informationsvernichtung überall.

Gast
2007-05-13, 19:11:34
345600 GFlop/s W00t ? :confused: ;D

Jo:
1350MHz*128*2 = 345600 :)

Raff
2007-05-13, 19:12:38
Also der Satz von einem SSAA-Befürworter ist ja wohl selfpwnage pur.

Das ist ja das krasse Gegenteil von SSAA. Informationsvernichtung überall.

Lies nochmal. Mir geht's darum, dass das Störende auch vernichtet wird. ;) Ich sagte ja, dass mir SSAA lieber wäre. Aber das ist teurer.

MfG,
Raff

DaEmpty
2007-05-13, 19:13:03
Hatten wir das schon?
http://www.ocworkbench.com/2007/asus/EAH2900XT/g1.htm

Raff
2007-05-13, 19:13:42
Jo:
1350MHz*128*2 = 345600 :)

Ja, Flops. Nicht Gigaflops.

MfG,
Raff

Gast
2007-05-13, 19:14:43
Ja, Flops. Nicht Gigaflops.
MfG,
Raff

Ja, das stimmt natürlich... :ugly:

LovesuckZ

IVN
2007-05-13, 19:14:49
Ja, Flops. Nicht Gigaflops.

MfG,
Raff
MegaFlops. :biggrin:

Oder 345 600 000 000 Flops.

The_Invisible
2007-05-13, 19:15:28
also nen blurfilter hatte nvidia auch schon vor langer zeit, der ist aber nicht so gut angekommen

mfg

Exxtreme
2007-05-13, 19:15:32
Ja, der Launch ist echt ein MegaFlop. X-D

Winter[Raven]
2007-05-13, 19:18:01
also nen blurfilter hatte nvidia auch schon vor langer zeit, der ist aber nicht so gut angekommen

mfg

Naja, das Quincunx war an sich ja ganricht mal so schlecht, wurde aber kritisiert, und wo jetzt ATI sowas bringt, soll es aufeinmal toll sein.

Ironie PUR!

dildo4u
2007-05-13, 19:18:23
Hatten wir das schon?
http://www.ocworkbench.com/2007/asus/EAH2900XT/g1.htm
Leider Müll da die Nvidia Karten mit 90er Treiber gebencht wurden.

Gast
2007-05-13, 19:19:02
Ach - Nvidia hat doch auch die Kurve gekriegt damals:
http://m1.freeshare.us/145fs118024_th.jpg (http://m1.freeshare.us/view/?145fs118024.jpg)
Bedenken habe ich bei AMD eher bei den zukünftigen Chips. Der R600 scheint nicht so ein gute Basis wie der G80 zu bieten. nV kann auf ihrem Design weiteraufbauen und das könnte den Zeit- und Leistungsvorsprung noch vergrößern. Bei AMD müssten mal neue Wege beschritten werden. Hoffe mal, dass da irgendwelche Bestrebungen schon im Gange sind. Zudem kommt, dass die Entwicklungszyklen immer länger werden, das heißt, dass eine "verkorkste" Graka länger auf dem Markt bleiben muss, bis der Hersteller sie durch ein bessere ablösen kann.

Raff
2007-05-13, 19:19:08
MegaFlops. :biggrin:

Oder 345 600 000 000 Flops.

Treffer. Ich sollte mich endlich verziehen und in meinen Zug steigen, anstatt zu spammen ... ;)

MfG,
Raff

Gouvernator
2007-05-13, 19:19:16
Also der Satz von einem SSAA-Befürworter ist ja wohl selfpwnage pur.

Das ist ja das krasse Gegenteil von SSAA. Informationsvernichtung überall.

Also soo scharf ist dein Content auch nun nicht, das da noch was vernichtet wurde :biggrin: Eigentlich iss es TOP. Mache bei meinem LCD Fernseher immer so hilft super gegen das Geflimmer Schärfe gleich 0 --> ich zufrieden =)

Coda
2007-05-13, 19:19:36
Lieber Flimmern als purer Matsch.

reunion
2007-05-13, 19:20:29
;5490533']Naja, das Quincunx war an sich ja ganricht mal so schlecht, wurde aber kritisiert, und wo jetzt ATI sowas bringt, soll es aufeinmal toll sein.

Ironie PUR!

Naja, im Vergleich zu Quincux sollte sich doch einiges getan haben. Interessant dürfte vorallem der "Edge detect"-Filter des 24xAA Modus sein, der in den Launchtreibern noch gar nicht integriert ist, und erst mit mit einem späteren Treiber nachgeliefert wird.

Raff
2007-05-13, 19:21:38
Lieber Flimmern als purer Matsch.

Da stellt sich mir die Frage, wie wohl ein Quincunx-SSAA-Hybrid aussehen würde.

MfG,
Raff

StefanV
2007-05-13, 19:26:29
Lieber Flimmern als purer Matsch.
Besorg dir mal 'ne Playstation2 samt FInal Fantasy X oder X-2 (nicht XII) und latsch mal auf der 'Stillen Ebene' (bei X-2 schneller zu betreten) rum und sag das dann nochmal ;)

reunion
2007-05-13, 19:26:57
Bedenken habe ich bei AMD eher bei den zukünftigen Chips. Der R600 scheint nicht so ein gute Basis wie der G80 zu bieten. nV kann auf ihrem Design weiteraufbauen und das könnte den Zeit- und Leistungsvorsprung noch vergrößern. Bei AMD müssten mal neue Wege beschritten werden. Hoffe mal, dass da irgendwelche Bestrebungen schon im Gange sind. Zudem kommt, dass die Entwicklungszyklen immer länger werden, das heißt, dass eine "verkorkste" Graka länger auf dem Markt bleiben muss, bis der Hersteller sie durch ein bessere ablösen kann.

Ich denke ATi hat in den letzten Jahren einfach an zu vielen Hochzeiten gleichzeitig getanzt. nV musste seit dem NV30 eigentlich kaum mehr großartige Neuerungen bringen, denn bereits dieser war fast SM3-compliant. Selbst in der PS3 brachte man noch einen G71 unter. So konnte man sich voll auf G80 konzentrieren. ATi hingegen entwickelte neben der R200/R300/R420-Linie noch einen verkorksten R400, den Xbox-Chip "Xenos", den Wii-Chip "Hollywood", R520/R580, und dann eben R600. IMHO ist man mit den vorhandenen Ressourcen viel zu verschwenderisch umgegangen.

seahawk
2007-05-13, 19:27:53
Der neue nATI Filter ist im Angesicht der Verbreitung von TFTs und Widescreen imho sehr zukunftsweisend, da Flimmern immer mehr zum Problem wird.

dildo4u
2007-05-13, 19:29:32
Der neue nATI Filter ist im Angesicht der Verbreitung von TFTs und Widescreen imho sehr zukunftsweisend, da Flimmern immer mehr zum Problem wird.
Jup so spart man auch Texturspeicher weil High-Detail Texturen braucht da keiner mher. ;)

Spasstiger
2007-05-13, 19:29:38
Es ist auf jeden Fall schade, dass ATI schon wieder kein SSAA integriert hat. Klar, die Leistung damit wäre bei den nur 16 Texturfiltereinheiten dann eh ziemlich bescheiden, aber für weniger anspruchsvolle Games wie GTA San Andreas wäre es sicherlich eine Option.

8xAAA sollte aber auch schon nicht schlecht aussehen. Hilft zwar nicht gegen Textur- und Shaderflimmern, aber die Glättung von Alphatests ist sicherlich fein.

Die Matsch-AA-Modi müsste man mal live in Aktion gesehen haben, um sich darüber ein Urteil zu bilden. Grundsätzlich mag ich so ein Rumgematsche überhaupt nicht.

Nakai
2007-05-13, 19:30:46
Besorg dir mal 'ne Playstation2 samt FInal Fantasy X oder X-2 (nicht XII) und latsch mal auf der 'Stillen Ebene' (bei X-2 schneller zu betreten) rum und sag das dann nochmal

Das hat mich auch geschockt.^^;( ;)

Der neue nATI Filter ist im Angesicht der Verbreitung von TFTs und Widescreen imho sehr zukunftsweisend, da Flimmern immer mehr zum Problem wird.

Mit meinem 19er brauch ich ein gutes AA, aber kein Matsch, denn mein TFT hat nicht eine so hohe Auflösung.

mfg Naki

LovesuckZ
2007-05-13, 19:32:29
8xAAA sollte aber auch schon nicht schlecht aussehen. Hilft zwar nicht gegen Textur- und Shaderflimmern, aber die Glättung von Alphatests ist sicherlich fein.

Dann hast du aber wieder das Problem mit der Texturleistung. Das ist auch der Grund, warum AMD EATM promoted: AAA bzw. TSAA würde eine Katastrophe bedeuten, da man sich nicht von der Vorgangergeneration absetzen wird.
Computerbase wird hoffentlich - mein Gott - Tests mit TSAA bzw. AAA haben. Ich wette, dass die Karte in Oblivion und SeSam2 deutlich hinter der GTS liegen wird.

Raff
2007-05-13, 19:37:59
Es ist auf jeden Fall schade, dass ATI schon wieder kein SSAA integriert hat. Klar, die Leistung damit wäre bei den nur 16 Texturfiltereinheiten dann eh ziemlich bescheiden, aber für weniger anspruchsvolle Games wie GTA San Andreas wäre es sicherlich eine Option.

Laut Terry Makedon hat sich die Einstellung ("SSAA saugt und es nutzt eh keiner") nicht geändert. Siehe das Interview in der aktuellen PCGH. Da bleibt die GeForce-8-Serie mit ihren genialen, wenn auch nicht optimalen, Hybriden die einzige Alternative.

MfG,
Raff

The_Invisible
2007-05-13, 19:39:22
Der neue nATI Filter ist im Angesicht der Verbreitung von TFTs und Widescreen imho sehr zukunftsweisend, da Flimmern immer mehr zum Problem wird.

juhu, dann kann ich meine 16mb tnt wieder auspacken und auf lowres texturen hoffen

mfg

up¦²
2007-05-13, 19:40:58
http://m1.freeshare.us/145fs126826_th.jpg (http://m1.freeshare.us/view/?145fs126826.jpg)
da steht's doch: updates... etwas geduld, bitte

Gast
2007-05-13, 19:43:29
.... mit ihren genialen, wenn auch nicht optimalen, ... .

MfG,
Raff

Au Backe, Sprachheilschule ahoi.

Winter[Raven]
2007-05-13, 19:44:01
Der neue nATI Filter ist im Angesicht der Verbreitung von TFTs und Widescreen imho sehr zukunftsweisend, da Flimmern immer mehr zum Problem wird.

Ist nicht dein Ernst oder? :crazy: Wozu brauch ich bei meinem 22 Zoll einen Matschfilter? Kann ja auch gleich alles auf Lowstellen.

Exxtreme
2007-05-13, 19:46:23
http://m1.freeshare.us/145fs126826_th.jpg (http://m1.freeshare.us/view/?145fs126826.jpg)
da steht's doch: updates... etwas geduld, bitte
Das Ding ist trotzdem Quincux ( richtig geschrieben? X-D ) in grün. Sprich, ein purer Matschfilter. Wenn man ein TFT hat dann ist es besser den AA-Modus etwas zu verringern um mehr Leistung zu bekommen als das Bild pseudozuverbessern.

Gast
2007-05-13, 19:46:42
Was ist jetzt eigentlich mit der X2600XT? Schon Benchmarks irgendwo aufgetaucht? Werden die morgen mitgelauncht?

Slipknot79
2007-05-13, 19:48:26
http://img519.imageshack.us/img519/7117/84xm1.jpg




Setzen 6. Auch wenn der R600 nach einigen Treiberversionen 20% schneller sein sollte also ne 88GTX, würde ich mir aus dem Matschgrund keine R600 zulegen ^^

James Ryan
2007-05-13, 19:49:11
;5490613']Ist nicht dein Ernst oder? :crazy: Wozu brauch ich bei meinem 22 Zoll einen Matschfilter? Kann ja auch gleich alles auf Lowstellen.

Irgendwie muss man doch den neuen Mist-AA-Filter verteidigen. ;)

Bin mal gespannt wie teuer die HD 2900 XT jetzt wirklich sein wird, für 299€ wäre sie durchaus interessant.
Der Vorschlag in 6 Monaten wieder den R600 gegen den G80 zu testen weil dann ja die Treiber vom R600 ausgereift sind, ist sowas von ;D ;D ;D
In 6 Monaten gibts doch schon den G90, aber ist ja jetzt auch egal.
Jedenfalls wissen wir jetzt schonmal was uns morgen in etwa erwartet.
Wobei ich aber über den Bericht von horn 12 noch mehr gespannt bin, er wird wohl der erste (und einzige?) hier sein der eine HD 2900 XT haben wird.

MfG :cool:

Spasstiger
2007-05-13, 19:53:24
Setzen 6. Auch wenn der R600 nach einigen Treiberversionen 20% schneller sein sollte also ne 88GTX, würde ich mir aus dem Matschgrund keine R600 zulegen ^^
Die Matschfilter sind doch optional, musst ja nicht verwenden. Das 8xMSAA dürfte schon ganz gut sein und SSAA gabs bei ATI ohnehin nie.

Gast
2007-05-13, 19:54:16
HWZ: With the merger, it is understandable that certain products have been realigned, but could we have an update on the R600 delays?

Henri Richard: The R600 will be out in the second quarter. The reason we decided to delay the launch was that we wanted to have a complete DX10-enabled solution top to bottom. A lot of people wrote that the reason it is delayed is because of a problem with the silicon, but there is no problem with the silicon. We are demonstrating it. We can ship it today. But if you think about it, looking at where the market is at, the volumes are going to be in the R610 and R630, so it makes sense for us to do a one time launch of the entire family of DX10 enabled products. That meant delaying the R600 for a few weeks, but frankly it doesn't make a difference in the life cycle of the product and talking with our customers and partners, they felt that it would make a bigger impact with one full launch. So we decided to do that.

Also increasingly in particular with Vista, as we've seen with the competition. It doesn't matter if you're shipping the silicon if the drivers are not stable. There is nothing more frustrating than having bought a new graphics card and having your system crash repeatedly because the drivers are not ready. Although we today, even by Microsoft standards, have the best and most stable drivers in the entire industry. The few weeks will give us even more time to continue improving the drivers. Again, the decision lies in the fact that we will have a top to bottom DX10 offering with drivers that will have a very very high level of stability and the only difference is a few weeks. So it seems to make a lot of sense to do it that way.

http://forum.beyond3d.com/showpost.php?p=985995&postcount=5485

Köstlich. :ugly:

reunion
2007-05-13, 19:54:55
Setzen 6. Auch wenn der R600 nach einigen Treiberversionen 20% schneller sein sollte also ne 88GTX, würde ich mir aus dem Matschgrund keine R600 zulegen ^^

Du kannst ja auch bis zu 8x sparsed MSAA mit AAA/EATM,T-AA auswählen.

http://forum.beyond3d.com/showpost.php?p=985995&postcount=5485

Köstlich. :ugly:

Das wollte ich auch gerade posten. :D
Henri Richard vor wenigen Wochen. Ich möchte nicht wissen, wie die Treiber Anfang März ausgesehen habe. Das war wohl doch ein guter Grund für die Verschiebung. ;D
Wobei sich das nach den bis jetzt bekannten Details einfach zu lächerlich anhört.

Gast
2007-05-13, 20:00:04
Was ist jetzt eigentlich mit der X2600XT? Schon Benchmarks irgendwo aufgetaucht? Werden die morgen mitgelauncht?

Klassischer Soft-Launch.
Ein paar Seiten werden eine oder zwei Karten haben und ein paar Werte posten. Verfügbarkeit wird dann wohl Ende Juni bzw. Anfang Juli sein.

Gast
2007-05-13, 20:02:09
Die AF Probleme sind nur mit Treiber 37 am Ende vorhandnen, 38 Beta ist einwandfrei!

LovesuckZ
2007-05-13, 20:03:31
Welche "AF Probleme"?

James Ryan
2007-05-13, 20:04:04
Du kannst ja auch bis zu 8x sparsed MSAA mit AAA/EATM,T-AA auswählen.

Trotzdem ist dies von der Qualität noch immer schlechter als 16xQ samt TSAA auf dem G80.

MfG :cool:

Gast
2007-05-13, 20:04:49
Das AF ist eindeutig schlechter, matschiger als das des G80. Oder etwa nicht?

Gast
2007-05-13, 20:05:22
Das AA hingegen schneidet in jeweils höchster Einstellung besser auf der XT ab.

James Ryan
2007-05-13, 20:06:50
Das AA hingegen schneidet in jeweils höchster Einstellung besser auf der XT ab.

Blind? :|
Das AA in der "höchsten" Blur-Stufe ist minderwertiger, ebenso das AF, wobei das schlechtere AF eh nicht auffällt im Spielgeschehen.
Der Matsch beim AA allerdings schon.

MfG :cool:

LovesuckZ
2007-05-13, 20:08:21
Das AF ist eindeutig schlechter, matschiger als das des G80. Oder etwa nicht?

Nein, das Problem entsteht durch die Blur-Filter.
Die AF Qualität ist auf dem Niveau des G80:
http://www.imagehost123.uni.cc/uploads/74b3fc82ca.jpg (http://www.imagehost123.uni.cc)


Das AA hingegen schneidet in jeweils höchster Einstellung besser auf der XT ab.

Nein. Es blurt das Bild auf und lässt Details verschwinden.

DaEmpty
2007-05-13, 20:09:00
Blind? :|
Das AA in der "höchsten" Blur-Stufe ist minderwertiger, ebenso das AF, wobei das schlechtere AF eh nicht auffällt im Spielgeschehen.
Der Matsch beim AA allerdings schon.
Wo hast du denn schon ein Bild gesehen von der höchsten Stufe mit Edge Detection?

Gouvernator
2007-05-13, 20:09:17
Laut Terry Makedon hat sich die Einstellung ("SSAA saugt und es nutzt eh keiner") nicht geändert. Siehe das Interview in der aktuellen PCGH. Da bleibt die GeForce-8-Serie mit ihren genialen, wenn auch nicht optimalen, Hybriden die einzige Alternative.

MfG,
Raff
Aber auch nur SLI AA Modi weil die anderen entweder zu wenig bringen und zu viel kosten, oder überhaupt immer zu viel kosten ;) Ich bin mit dem 16xSLI AA zufrieden (1x2 SS + 4x RGMS + 2x SLI SS)

reunion
2007-05-13, 20:10:14
Trotzdem ist dies von der Qualität noch immer schlechter als 16xQ samt TSAA auf dem G80.

MfG :cool:

Wenn man so will, ja - oder auch nicht. Nachdem ich mir mal ein paar Stromleitungen mit CSAA angesehen habe, würde ich darauf verzichten. Beide bieten max. 8x sparsed MSAA mit allen möglichen Extras, welches in jedem Szenario einen sehr guten AA-Effekt erzieht. CSAA/CFAA sind dann noch nette Gimmicks, die Geschmackssache sind und bleiben. Wobei CSAA momentan vielleicht etwas brauchbarer ist als CFAA, wo mich allerdings noch der "edge detect"-Filter interessieren würde, der das Problem der matschigen Texturen beheben sollte, da er nur dort greift, wo Kanten oder hochfrequente Texturen sind. Leider ist dieser aber momentan noch nichtmal im Treiber implementiert.

Das AF ist eindeutig schlechter, matschiger als das des G80. Oder etwa nicht?

Nur mit CFAA. :)

Gast
2007-05-13, 20:11:18
OK, wieder was gelernt. Ich denke, in Bewegung fällt sowas eh nicht auf, bei SSAA blurts ja auch, oder schaut euch das 8xSGSSAA der Voodoo5 6000 an, Blur wohin man schaut.

Blaire
2007-05-13, 20:12:52
Aber auch nur SLI AA Modi weil die anderen entweder zu wenig bringen und zu viel kosten, oder überhaupt immer zu viel kosten ;) Ich bin mit dem 16xSLI AA zufrieden (1x2 SS + 4x RGMS + 2x SLI SS)

SLIAA nutz ich garnicht (kostet zuviel) , entweder 8xS oder 16xS je nach Game. Wenn man dann noch die nötigen Reserven hat kommt noch TRSSAA hinzu.

Gast
2007-05-13, 20:14:37
CSAA/CFAA sind dann noch nette Gimmicks, die Geschmackssache sind und bleiben.

Man kann CSAA nicht mit CFAA vergleichen, da CSAA Details zum Bild hinzufügt und somit die Ursache für Kantenflimmern behandelt. CFAA verschleichert nur die Symptome.
CSAA hat den großen Vorteil, dass beim Einsatz von TSAA nur 4 Textursamples verwendet werden und somit viele Situation deutlich besser spielbar sind als mit 8xMSAA.

Gouvernator
2007-05-13, 20:16:58
SLIAA nutz ich garnicht (kostet zuviel) , entweder 8xS oder 16xS je nach Game. Wenn man dann noch die nötigen Reserven hat kommt noch TRSSAA hinzu.

Echt ?? Kann doch eigentlich nicht sein, bei mir steht 16xS an erster Stelle was BQ Betrifft kurz danach kommt aber gleich 16XSLI AA mit möglichst TSSA und performancemäßig sind das Welten pro SLI AA! Habe aber auch nur 7950GX2.

Blaire
2007-05-13, 20:20:39
Echt ?? Kann doch eigentlich nicht sein, bei mir steht 16xS an erster Stelle was BQ Betrifft kurz danach kommt aber gleich 16XSLI AA mit möglichst TSSA und performancemäßig sind das Welten pro SLI AA! Habe aber auch nur 7950GX2.

HL2 Episode 1
1920x1200:
105 fps (8xS)
52 fps (16xS)
27 fps (32xS)
20 fps (4x4SS)
64 fps (SLI 8x)
54 fps (SLI 16x)
41 fps (SLI 32xQAA)

Demnach ist 16xS fast gleichauf SLI16xAA warum sollte ich da SLIAA bevorzugen?

James Ryan
2007-05-13, 20:20:51
OK, wieder was gelernt. Ich denke, in Bewegung fällt sowas eh nicht auf, bei SSAA blurts ja auch, oder schaut euch das 8xSGSSAA der Voodoo5 6000 an, Blur wohin man schaut.

Du hast null Ahnung was SSAA macht, richtig? ;D

@reunion
Recht hast du! Man hat mit dem G80 aber noch immer die Hybridmodi zur Hand wenn man der absolute BQ Fetischist ist. Und diesen Vorteil bietet der R600 immer noch nicht. :(

MfG :cool:

AnarchX
2007-05-13, 20:24:42
Wenn auch die Performance nicht stimmt, gibt es ja auch noch andere Verwendungszwecke für ein HD 2900XT CF. X-D

http://img74.imageshack.us/img74/6932/attachment1533a58pg6.jpghttp://img369.imageshack.us/img369/8287/attachment153445bbx8.jpg


btw.
http://img74.imageshack.us/img74/2842/attachment1592617cg0.jpg

Noch mehr potentielles DX10-Futter für einen Vergleich.

Botcruscher
2007-05-13, 20:27:49
Lauwarme spam-Würste.:rolleyes:

Wann kommt eigentlich der 65nm Refresh?

reunion
2007-05-13, 20:30:20
OK, wieder was gelernt. Ich denke, in Bewegung fällt sowas eh nicht auf, bei SSAA blurts ja auch, oder schaut euch das 8xSGSSAA der Voodoo5 6000 an, Blur wohin man schaut.

Thats the point. Die schönen Schlagwörter wie "Unschärfe", "Blur", oder "Verlust von Informationen" sind ja schön und gut. Nur im Endeffekt verursacht jeder Filter diese Effekte. Trotzdem würde heute niemand einen bi-Filter einem trilinearen bevorzugen, auch wenn das Bild dann schärfer wäre. Die absoluten "Schärfefreaks" müsste ja eigentlich auf Point Sampling stehen, damit hat man dann garantiert keine "Unschärfe", "Blur", oder einen "Verlust von Informationen". Ich will damit keineswegs CFAA gut heißen, sondern nur einmal diese Todschlagargumente entkräften. Wenn man das richtig macht, kann es IMO durchaus Sinn machen, und für ein subjektiv besseres Bild sorgen. Besonders der "edge detect"-Filter sollte unter Umständen nützlich sein.

dargo
2007-05-13, 20:33:20
btw.
http://img74.imageshack.us/img74/2842/attachment1592617cg0.jpg

Noch mehr potentielles DX10-Futter für einen Vergleich.
Kann man das schon irgendwo downloaden?

Gouvernator
2007-05-13, 20:34:47
HL2 Episode 1
1920x1200:
105 fps (8xS)
52 fps (16xS)
27 fps (32xS)
20 fps (4x4SS)
64 fps (SLI 8x)
54 fps (SLI 16x)
41 fps (SLI 32xQAA)

Demnach ist 16xS fast gleichauf SLI16xAA warum sollte ich da SLIAA bevorzugen?
Ist ja äusserst komisch. Ich nutze immer 16xSLI AA weil er billig ist und bietet das beste BQ nach dem 16xS (habe viele andere auch schon getestet 12xS usw.)
Hier mal kleines Bench von CS:S
1360x768
16xSLI AA mit SSTAA = 108 fps
16xS AA mit SSTAA = 49 fps

LovesuckZ
2007-05-13, 20:37:44
Es ist schade, dass man jetzt schon wieder ausreden erfindet, um das ATi bzw. AMD Produkt zu hypen. Wer diese Filter positiv sieht, der braucth sich nicht mehr über irgendwelche Filtertricks beschweren - vorallen, wenn es gegen nVidia geht.

Slipknot79
2007-05-13, 20:40:13
Du kannst ja auch bis zu 8x sparsed MSAA mit AAA/EATM,T-AA auswählen.



Ist schon absehbar ob das "spielbar" ist?

LovesuckZ
2007-05-13, 20:42:06
Es geht weiter - mit FUD von nVidia.
Nvidia's FUD presentation revealed (http://www.theinquirer.net/default.aspx?article=39578)

lilgefo~
2007-05-13, 20:42:07
Man kann doch Cfaa einfach auslassen und normales msaa benutzen und dann is auch ok wennauch nvidia da eine schönere Lösung hat.

Spasstiger
2007-05-13, 20:52:23
Ich verstehe nicht ganz, warum ATI so mit den Texturfilter-Einheiten gegeizt hat, aber dennoch 80 Textursample-Einheiten und 32 TAs unterbringen konnte.
32 Texturfiltereinheiten hätten es schon sein müssen oder wenigsten 16 trilineare.

seahawk
2007-05-13, 20:53:58
Es ist schade, dass man jetzt schon wieder ausreden erfindet, um das ATi bzw. AMD Produkt zu hypen. Wer diese Filter positiv sieht, der braucth sich nicht mehr über irgendwelche Filtertricks beschweren - vorallen, wenn es gegen nVidia geht.

CFAA ist eine Option. Eine sinnvolle, wenn sie Texturflimmern effektiv verhindert.

LovesuckZ
2007-05-13, 20:54:22
Ich verstehe nicht ganz, warum ATI so mit den Texturfilter-Einheiten gegeizt hat, aber dennoch 80 Textursample-Einheiten und 32 TAs unterbringen konnte.
32 Texturfiltereinheiten hätten es schon sein müssen oder wenigsten 16 trilineare.

Interessant ist auch, dass nVidia meint, dass der r600 nur INT16 Format mit "Full Speed" filtern könnte.
Ich weißt nicht, aber das Design scheint wirklich nur auf Vertexberechnungen ausgelegt zu sein - What the Fuck?!

CFAA ist eine Option. Eine sinnvolle, wenn sie Texturflimmern effektiv verhindert.

Es soll aber nicht in erster Sache Texturflimmern verhindern, sondern Kantenflimmern eliminieren. Das gelingt auch, jedoch zum Preis der Details des Bildes. Wer das gut findet, der braucht auch kein ansiotropen Filter mehr oder hochaufgelöste Texturen.
Natürlich ist es eine Option, sowie CSAA. Aber es verschlimmert das Bild doch sehr. Das ist nichts anderes als die ganzen Texturoptimierungen.

AnarchX
2007-05-13, 20:54:58
Es geht weiter - mit FUD von nVidia.
Nvidia's FUD presentation revealed (http://www.theinquirer.net/default.aspx?article=39578)

Gar nicht mal so schlimm, wie die letzten. Sieht eher nach einem Tatsachenbericht mit einer etwas lustigeren Schreibweise aus. ;)

Ach ja, von it-review gibt es auch wieder neue Tests:
http://it-review.net/index.php?option=com_content&task=view&id=1335&Itemid=1

reunion
2007-05-13, 20:58:31
Es ist schade, dass man jetzt schon wieder ausreden erfindet, um das ATi bzw. AMD Produkt zu hypen. Wer diese Filter positiv sieht, der braucth sich nicht mehr über irgendwelche Filtertricks beschweren - vorallen, wenn es gegen nVidia geht.

Natürlich, unglaublich schade, wenn jemand eine andere Meinung vertritt als du. :rolleyes:
Aber du hast natürlich sicherlich schon alle Filter genauerstens analysiert. Und der Vergleich mit den Filtertricks ist ja wohl mehr als lächerlich.

Exxtreme
2007-05-13, 21:00:23
CFAA ist eine Option. Eine sinnvolle, wenn sie Texturflimmern effektiv verhindert.
Für Texturflimmern ist ein Texturfilter zuständig und nicht die AA-Hardware. ;)

reunion
2007-05-13, 21:01:16
Interessant ist auch, dass nVidia meint, dass der r600 nur INT16 Format mit "Full Speed" filtern könnte.


Abwarten, ATi spricht eindeutig von FP16.


Es soll aber nicht in erster Sache Texturflimmern verhindern, sondern Kantenflimmern eliminieren. Das gelingt auch, jedoch zum Preis der Details des Bildes. Wer das gut findet, der braucht auch kein ansiotropen Filter mehr oder hochaufgelöste Texturen.
Natürlich ist es eine Option, sowie CSAA. Aber es verschlimmert das Bild doch sehr. Das ist nichts anderes als die ganzen Texturoptimierungen.

Es gibt ja auch noch einen "edge detect"-Filter. Der vergleich mit den Texturoptimierungen ist völlig verfehlt, da hier nicht Filter eingespart werden, sondern ein zusätzlicher Filter für ein besseres Bild sogen soll. Ob das in der Praxis Sinn macht, kann je nach Person und Szene stark variieren.

deekey777
2007-05-13, 21:02:52
Es geht weiter - mit FUD von nVidia.
Nvidia's FUD presentation revealed (http://www.theinquirer.net/default.aspx?article=39578)
Relativ ehrlich, auch wenn man nicht vergessen darf, dass die SFU ein FLOP alle vier Takte liefert.
Übrigens bestätigt die FUD-Compagne, dass die "dicke" fünfte ALU für Instruktionen und SFs zuständig ist ( und nicht Instruktion oder SF). Oder?

LovesuckZ
2007-05-13, 21:04:07
Aber du hast natürlich sicherlich schon alle Filter genauerstens analysiert. Und der Vergleich mit den Filtertricks ist ja wohl mehr als lächerlich.

"Lächerlich"? Die Optimierungen haben nie das Bild verschlechtert? Da habe ich andere Erfahrungen gemacht.
Es ist jedoch immer wieder erstaunlich, dass gewisse "Features" von ATi bzw. AMD einfach positiver aufgenommen werden, auch wenn sie negativ sind.
Im Gegensatz zu CSAA sind die Probleme mit dem CFAA deutlich auffälliger.
Und die jedenfalls zur Zeit gezeigten Bilder lassen nur den Schluss zu, dass dieser CFAA in der jetzigen Form nicht brauchbar ist.

Ob das in der Praxis Sinn macht, kann je nach Person und Szene stark variieren.

Genau das gleiche wie bei der Filteroptimierung: Manche sehen es und finden es grausam und andere sehen es nicht und freuen sich über die Mehrleistung. Trotzdem ist es kein "posivites" Features.

Relativ ehrlich, auch wenn man nicht vergessen darf, dass die SFU ein FLOP alle vier Takte liefert.
Übrigens bestätigt die FUD-Compagne, dass die "dicke" fünfte ALU für Instruktionen und SFs zuständig ist ( und nicht Instruktion oder SF). Oder?

Ich denke, dass sie die gleiche Funktion übernimmt wie die "MUL" - Einheit beim G80. Das erklärt dann auch, dass die HD2900XT sich in Xbox360 Portierungen von der GTX nicht absetzen kann (~10%), das genau die höhrere MADD - Leistung widerspiegelt.

seahawk
2007-05-13, 21:09:08
Für Texturflimmern ist ein Texturfilter zuständig und nicht die AA-Hardware. ;)

Das stimmt, aber gerade bei Rennspielen würde ic hden Filter gerne mal in Aktion sehen.

reunion
2007-05-13, 21:11:14
Sieht eher nach einem Tatsachenbericht mit einer etwas lustigeren Schreibweise aus. ;)


Tatsachenbericht ist doch etwas übertreiben. Es werden keine offensichtlichen Lügen erzählt, das mag stimmen, allerdings lässt man natürlich bewusst relevante Dinge weg. Selektives picken von Vorteilen eben. So ist die Begründung mit den ALUs doch etwas witzig. Bei dem Streit darum, wer die meisten ALUs hat, zählt man auch die SFUs mit, vergisst aber zu erwähnen, dass diese bei weitem nicht die volle Leistung liefern können.

Coda
2007-05-13, 21:17:02
Der neue nATI Filter ist im Angesicht der Verbreitung von TFTs und Widescreen imho sehr zukunftsweisend, da Flimmern immer mehr zum Problem wird.
Ist klar. Warum nicht gleich alles auf eine Farbe zusammenrechnen, dann flimmert garantiert nix mehr. Oder auch: Brille runter. Sieht doch gleich alles viel besser aus.

Sorry, aber wie verblendet muss man sein, um einen simplen Blurfilter als das Allheilmittel der BQ-Problematik zu propagieren?

reunion
2007-05-13, 21:19:12
Genau das gleiche wie bei der Filteroptimierung: Manche sehen es und finden es grausam und andere sehen es nicht und freuen sich über die Mehrleistung. Trotzdem ist es kein "posivites" Features.


Nein, nicht genau das gleiche, nichtmal annähernd. CFAA spart nicht an der Texturfilterung, bringt also keine Mehrleistung, sondern soll durch einen zusätzlichen Filter für ein besseres Bild sorgen.

Coda
2007-05-13, 21:21:09
Es wird aber nicht besser. Ganz und gar nicht.

Exxtreme
2007-05-13, 21:21:55
Das stimmt, aber gerade bei Rennspielen würde ic hden Filter gerne mal in Aktion sehen.
Da ist (T)AA + AF die bessere Lösung als ein simpler Blurfilter.

Nein, nicht genau das gleiche, nichtmal annähernd. CFAA spart nicht an der Texturfilterung, bringt also keine Mehrleistung, sondern soll durch einen zusätzlichen Filter für ein besseres Bild sorgen.
Das Bild wird NICHT besser. Es wird nur anders.

LovesuckZ
2007-05-13, 21:26:17
Nein, nicht genau das gleiche. CFAA spart nicht an der Texturfilterung, bringt also keine Mehrleistung, sondern soll durch einen zusätzlichen Filter für ein besseres Bild sorgen.

Es hat einen gleichen Effekt auf den ansiotropen Filter: Es negiert den postiven Erfolg - mal mehr, mal weniger.
CSAA scheint der gleiche Schritt zu sein wie es MSAA zum SSAA dargestellt hat. Beide Methoden haben nicht immer einen postiven Effekt gegenüber dem vorherigen Verfahren - aber der Leistungsgewinn entschädigt in vielen Fällen dafür.
Wenn du CSAA mit dem CFAA gleichsetzt, dann kannst du auch MSAA hinzufügen. Und ich glaube nicht, dass du nur mit SSAA oder CFAA spielen willst, oder? ;)

Noebbie
2007-05-13, 21:29:29
Wollt ihr für das 'Filtergezicke' nicht lieber nen extra Thread aufmachen? :rolleyes:

mapel110
2007-05-13, 21:32:23
Wollt ihr für das 'Filtergezicke' nicht lieber nen extra Thread aufmachen? :rolleyes:
Duz iz leider ontopic, auch wenns stinklangweilig ist. Sonst hat sich ja nach Außen hin kaum was getan beim R600. :(
Von dem Mul und Add Gerechne kann einem auch übel werden. Real World Performance ist es, worauf es ankommt.

Nakai
2007-05-13, 21:33:35
Übrigens bestätigt die FUD-Compagne, dass die "dicke" fünfte ALU für Instruktionen und SFs zuständig ist ( und nicht Instruktion oder SF). Oder?

4+1?

mfg Nakai

Gast
2007-05-13, 21:37:35
Da ist (T)AA + AF die bessere Lösung als ein simpler Blurfilter.
Seh es mal nicht als simplen Blurfilter.
Wir haben ein Bild in höherer Auflösungen und können und jetzt frei einen Filterkernel dafür programmieren.
Das die beiden momentanen Varianten suboptimal sind, heisst ja nicht, dass man damit nicht vielleicht noch sinnvollere Sachen anstellen kann.

Wer sich mit dem Gedanken überhaupt nicht anfreunden kann, kann es ja als neue Version der Smartshader ansehen und es genauso ignorieren.

LovesuckZ
2007-05-13, 21:37:37
4+1?


Es sind anscheinend 64Vec4 Einheiten (keine Ahnung, ob diese in 1:1:1:1 splitbar sind) und noch zusätzliche 64 1D Einheiten, die sich um die "special functions" kümmern.
Das gleiche wie die MUL - Einheit beim G80, der den MADD - Einheiten den "Rücken freihält".

dr_mordio
2007-05-13, 21:37:38
http://www.materiel.net/live/28399.jpg
horn12 dreambox :wink:

ähhh...
wieso sieht die karte von sapphire hier genau so aus wie alle anderen?
ich dachte anhand der anderen bilder, das sapphire als einzige mit einem eigenen kühler kommen.
was ist denn nun sache? default kühler oder eigenentwicklung?

MfG
Alex

reunion
2007-05-13, 21:37:39
4+1?

mfg Nakai

Nein.

Nakai
2007-05-13, 21:46:06
Wenn einer der Shader die SFU und andere Ops, ebenso durch einen 4+1 Split Vertexberechnungen unterstützt, werden halte ich eine 4+1 Splitt für sehr hilfreich.

Den 1+1+1+1+1-Split ist zwar ganz net, es werden unabhängige 5 Komponente für einen Pixel berechnet. Wieso dann nicht noch einen 4+1 Split?

mfg Nakai

Es sind anscheinend 64Vec4 Einheiten (keine Ahnung, ob diese in 1:1:1:1 splitbar sind) und noch zusätzliche 64 1D Einheiten, die sich um die "special functions" kümmern.
Das gleiche wie die MUL - Einheit beim G80, der den MADD - Einheiten den "Rücken freihält".

Okay danke sehr.

LovesuckZ
2007-05-13, 21:48:54
Okay danke sehr.

Das ist spekulativ. :)
Aber es erklärt, warum die 2900XT die angebliche 33% höhrere Rechenleistung in RB:V und SC:DA nicht umsetzen kann.

Gast
2007-05-13, 21:50:23
also die ocworkbench reviews sind schonmal großer müll.
4 spiele testen,3 davon doom3 engine,ohman wie offensichtlich NVlastig

Nakai
2007-05-13, 21:52:49
Das ist spekulativ.

Trotzdem informativ. Der R600 kann einen 1+1+1+1 Splitt (oder 1+1+1+1+1), aber das habe ich schon gesagt.
Dann wäre er theoretisch 4+1 wie die Vertexshader, nur das die Vec1-Unit noch hin und wieder für SFs herangezogen wird.

mfg Nakai

deekey777
2007-05-13, 21:53:23
4+1?

mfg Nakai
Es ging mir um Carstens Einwand, ob die FLOP-Zählweise von AMD berechtigt ist, wenn die "dicke" Einheit nur für Special Functions zuständig ist. Schließlich zählt niemand die SF beim G80, die alle vier Takte ein FLOP bringen.

Gast
2007-05-13, 21:54:14
Die Ergebnisse von heise sind jetzt für`n Arsch. Laut der heutigen News gabs am Freitag noch einen neuen Treiber und heise hat den sicherlich nicht benutzt und dann noch am gleichen Tag das Magazin gedruckt und ausgeliefert... das sagt eigentlich alles.

Ich bin froher Hoffnung, das da noch mehr kommt!

dildo4u
2007-05-13, 21:54:42
also die ocworkbench reviews sind schonmal großer müll.
4 spiele testen,3 davon doom3 engine,ohman wie offensichtlich NVlastig
Jo total NV lastig deshalb testen sie da auch nur mit uralten NV Treibern. :rolleyes:

up¦²
2007-05-13, 22:04:06
Mal so zwischendurch...
yesky (keine Tratschtante für IT-news) sagen, Ati bringt die Radeon HD 2950XT und XTX in 65nm im September, weil:
Nvidia den G90 auch im September bringt...
http://diy.yesky.com/vga/365/3329865.shtml

PS:
s.a. hier http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5491048&postcount=220