PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HD 2900XT: (P)Review-Thread


Seiten : 1 [2] 3 4 5

Nakai
2007-05-13, 22:05:35
Es ging mir um Carstens Einwand, ob die FLOP-Zählweise von AMD berechtigt ist, wenn die "dicke" Einheit nur für Special Functions zuständig ist. Schließlich zählt niemand die SF beim G80, die alle vier Takte ein FLOP bringen.

Ja, aber wenn man 64 Vec1-ALUs als SFUs missbraucht finde ich dass ebenso unberechtigt.
Mir geht es eher darum, ob die Vec1-SFU auch für das generelle Shading also für die FLOP-Zählweise eine Rolle spielt, also genau deins.
Wenn diese ALU nur hin und wieder die SFUs übernimmt, sollte sie entkoppelt vom Rest der Shader sein.

mfg Nakai

AnarchX
2007-05-13, 22:10:15
Mal so zwischendurch...
yesky (keine Tratschtante für IT-news) sagen, Ati bringt die Radeon HD 2950XT und XTX in 65nm im September, weil:
Nvidia den G90 auch im September bringt...
http://diy.yesky.com/vga/365/3329865.shtml

Hab es mal in den zugehörigen Thread eingefügt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5491048#post5491048
;)

edit: Hast es schon gesehen.

Spasstiger
2007-05-13, 22:28:24
Von dem Mul und Add Gerechne kann einem auch übel werden. Real World Performance ist es, worauf es ankommt.
Es könnte schlimmer sein. Stell dir vor, manche würden hier anfangen, von 320 Shaderpipelines zu reden. ;)

up¦²
2007-05-13, 23:07:47
The latest 8.37.4.2_47323 drivers is supposed to implement a new intelligent algorithm that increases FPS while applying similar image quality when running Adaptive Anti-Aliasing. In Oblivion, performance several times faster than previous drivers using the new adaptive AA algorithm was claimed to have been acheived. New optimizations for HDR applications in general resulted in a 5-30% increase in performance.

The 8.37.4.2_47323 is actually a pre-alpha driver, but it includes a preview of new 12xAA and 24xAA modes. These modes use an advanced edge detection filter that delivers edge quality while eliminating blurring.
...

Gast
2007-05-13, 23:13:54
selbst wenn,reviews werden jetzt gemacht und leute bilden sich nur einmal ne meinung und entscheiden. da bringt endlich 512bit und dann sowas,schade und schlecht für alle.

deekey777
2007-05-13, 23:21:34
selbst wenn,reviews werden jetzt gemacht und leute bilden sich nur einmal ne meinung und entscheiden. da bringt endlich 512bit und dann sowas,schade und schlecht für alle.

Die Reviews sind ja längst fertig. Viel schlimmer finde ich die eigenhändigen Tests, wo man den 8.36 verwenden musste, da die Tester keinen Zugang zum 8.37 hatten, da er unter dem NDA ist.
Es würde mich nicht wundern, dass es keinen Hardlaunch mehr geben wird, wenn die Möglichkeit besteht, dass Händler Grafikkarten vor dem eigentlichen Start verkaufen.


Und das erklärt den Einbruch bei FSAA generell in manchen Games?
Noch eine Idee: Der Memorycontroller braucht noch seine anwendungsspezifische Optimierung? Beim R520 hat es auch etwas gedauert (einige Treiberreleases), bis der MS auf Doom 3 angepasst war.

BlackBirdSR
2007-05-13, 23:40:49
Die Reviews sind ja längst fertig. Viel schlimmer finde ich die eigenhändigen Tests, wo man den 8.36 verwenden musste, da die Tester keinen Zugang zum 8.37 hatten, da er unter dem NDA ist.
Es würde mich nicht wundern, dass es keinen Hardlaunch mehr geben wird, wenn die Möglichkeit besteht, dass Händler Grafikkarten vor dem eigentlichen Start verkaufen.

Noch eine Idee: Der Memorycontroller braucht noch seine anwendungsspezifische Optimierung? Beim R520 hat es auch etwas gedauert (einige Treiberreleases), bis der MS auf Doom 3 angepasst war.

Der Memory-Controller (besonders da es eine Entwicklung basierend auf dem Prinzip von R580 und Co sein soll), müsste doch den Treiberentwicklern schon laaaange bekannt sein?
Ich frage mich immernoch, was schief gegangen ist?!?
Anscheinend ist man sogar jetzt nach brutal am optimieren und bug-fixing der Treiber... das kann doch nicht sein?

cl55amg
2007-05-13, 23:50:56
Der Memory-Controller (besonders da es eine Entwicklung basierend auf dem Prinzip von R580 und Co sein soll), müsste doch den Treiberentwicklern schon laaaange bekannt sein?
Ich frage mich immernoch, was schief gegangen ist?!?
Anscheinend ist man sogar jetzt nach brutal am optimieren und bug-fixing der Treiber... das kann doch nicht sein?


Eventuell musst sie kurz vor dem Release von neuem mit dem Treiber anfangen?
Wäre das vorstellbar? VR-Zone meinte der Treiber sei eine Pre-Alpha Version...
Ein etwas rückständiger Status für eine Karte ein Tag vor dem release...

Coda
2007-05-13, 23:56:39
Ist alles nur Spekulation, was wirklich im Argen liegt weiß wohl nur ATI selbst. R600 scheint auf jedenfall noch von schlimmeren Problemen geplagt zu sein als damals R520 :(

Raff
2007-05-13, 23:58:01
...

LOL. Jetzt wird auch noch EATM als "intelligent" bezeichnet. Das ist mindestens genauso soof wie A.I.

MfG,
Raff

cl55amg
2007-05-14, 00:00:07
Ist alles nur Spekulation, was wirklich im Argen liegt weiß wohl nur ATI selbst. R600 scheint auf jedenfall noch von schlimmeren Problemen geplagt zu sein als damals R520 :(


Ich könnte mir gut vorstellen das sie einige Algorythmen über Board werfen mussten weil sie feststellten das sie ineffizient sind...
Bei der Komplexität eines Grafikkartentreibers kann das ein zeitfressender Aufwand sein.

deekey777
2007-05-14, 00:01:16
LOL. Jetzt wird auch noch EATM als "intelligent" bezeichnet. Das ist mindestens genauso soof wie A.I.

MfG,
Raff
Man hätte zumindest Zeit (mindestens seit Februar), EATM an jeweilige Spiele anzupassen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=349363

Coda
2007-05-14, 00:02:38
Ich könnte mir gut vorstellen das sie einige Algorythmen über Board werfen mussten weil sie feststellten das sie ineffizient sind...
Bei der Komplexität eines Grafikkartentreibers kann das ein zeitfressender Aufwand sein.
Was für "Algorithmen" denn? Ich seh da nichts was man nicht auf Basis früherer Erfahrungen so unglaublich falsch machen könnte.

Gast
2007-05-14, 00:08:07
Seit wann hast du deine Karte? März?
Ich habe meine seit dem 11.11. Probleme gab es, richtig. Aber solche Sachen wie mit der AA Leistung, waren nicht vorhanden. Das ein paar Spiele nicht liefern bzw. Fehler zeigten, war nicht schön. Aber ein großteil der Games lief bestens und einwandfrei.


habe meine seit dem relase und ich weiss nicht wovon du sprichst.
gib mal beisspiele!

Gast
2007-05-14, 00:08:22
Ich hoffe CFAA setzt sich nicht durch. Bei ner Konsole wo ich eh mit Matschtexturen Arbeite und Aliasing habe, da ich niemals 4xAA in einem Spiel fahren kann, da isses sicherlich sinnvoll.

Oder für Mainstream Grakas die Autorennspiele darstellen, hat man ja oft genug hier im Forum gesehen, das da kein AA Modi gewachsen ist um Zacken an den Linien zu entfernen. Ein wenig "schmier" sollte da Abhilfe schaffen.
CFAA sollte auf G80 auch möglich sein, den Quincux Mode kann man ja immer noch aktivieren, aber wer will das schon...

Bin auf normale Benchmarks mit 8xAA und AAA/EATM gespannt, ohne das seltsame Temporal-AA und "schmier" Mode.
Und ob alte Spiele wie Republic Commando gehen, da hat nV ja auch Monate lang dran gebissen, aber nun laufen sie auch mit CSAA ;)

Raff
2007-05-14, 00:09:10
Man hätte zumindest Zeit (mindestens seit Februar), EATM an jeweilige Spiele anzupassen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=349363

Es ist definitiv gereift. Und sogar oft sehr nett. TES 4: Oblivion und WoW mag ich nicht mehr ohne spielen, auch wenn vereinzelt noch die Fischer ihre Netze auswerfen.

MfG,
Raff

deekey777
2007-05-14, 00:10:37
Ich hoffe CFAA setzt sich nicht durch. Bei ner Konsole wo ich eh mit Matschtexturen Arbeite und Aliasing habe, da ich niemals 4xAA in einem Spiel fahren kann, da isses sicherlich sinnvoll.


Wer Probleme mit CFAA hat, kann doch normales 8xMSAA nutzen. Genau wie niemand gezwungen wird, 16x bzw. 16xQ beum G80 zu nutzen, um diese dann zu kritisieren, weil das CSAA nicht überall greift.

An Raff:
Ich hab's ausgeschaltet. In FEAR gab's nur Fehler (besonders bei Glasscheiben), in HL2 gab es hier und da Fehler.

Bastieeeh
2007-05-14, 00:23:32
Frage: Wann ist das NDA vorüber?

Antwort: 14.05.2007 06:01am CET

Raff
2007-05-14, 00:23:39
Deekey, hast du "ATMAlphaSharpenBias" in den ATT genullt?

MfG,
Raff

cl55amg
2007-05-14, 00:26:36
Was für "Algorithmen" denn? Ich seh da nichts was man nicht auf Basis früherer Erfahrungen so unglaublich falsch machen könnte.

Ich bin kein Treiberentwickler, soweit ich weiss baut der Treiber, sowie wie fast alles das Berechnungen durchführt bzw. ausführen lässt von Schaltungen, auf Algorythmen auf.

Bei einem neuem Chip kann man die alten nicht verwenden, besonders wenn der neue von Grund auf verschieden ist. Siehe G80, am Anfang war der Treiber nicht viel besser.

deekey777
2007-05-14, 00:33:02
Deekey, hast du "ATMAlphaSharpenBias" in den ATT genullt?

MfG,
Raff
Natürlich nicht, das Regedit-Tweaking tue ich mir nur selten an. ATT nutze ich gar nicht (da ich lieber das CCC nutze und somit Regedit).
ASBT oder EATM kann ich noch allein aktivieren, den Rest sollte AMD übernehmen, nicht ich.

up¦²
2007-05-14, 00:34:38
Was meint der frischgebackene "Technical Marketing Manager" von Ati hier wohl? ;D
http://forum.beyond3d.com/showpost.php?p=985982&postcount=5477

dildo4u
2007-05-14, 00:34:52
Hat der Cat 7.4 eigentlich schon R600 Support? oder gibts Morgen für alle ein Cat 7.5?

deekey777
2007-05-14, 00:36:57
Was meint der frischgebackene "Technical Marketing Manager" von Ati hier wohl? ;D
http://forum.beyond3d.com/showpost.php?p=985982&postcount=5477
Lies den Thread, dann weißt du es. :wink:
Stichwort "load balancing".
Hat der Cat 7.4 eigentlich schon R600 Support? oder gibts Morgen für alle ein Cat 7.5?
Es wird morgen wohl den 8.37 geben, die HD 2900XT haben meist noch den 8.36 auf der Treiber-CD beiliegend.

Raff
2007-05-14, 00:38:28
Natürlich nicht, das Regedit-Tweaking tue ich mir nur selten an. ATT nutze ich gar nicht (da ich lieber das CCC nutze und somit Regedit).
ASBT oder EATM kann ich noch allein aktivieren, den Rest sollte AMD übernehmen, nicht ich.

Wenn du das nämlich ausmachst, gehen viele Fehler weg. Würde mich nicht wundern, wenn das beim R600-Treiber standardmäßig deaktiviert ist.

MfG,
Raff

up¦²
2007-05-14, 01:07:39
8.38XP_BR47443.rar :wink:
Vielleicht findet ihn ja jemand im www ...
PS. "The official 8.38 release is expected to be around 5/23."

dildo4u
2007-05-14, 01:33:30
tbreak Review

http://www.tbreak.com/reviews/article.php?id=511

MadManniMan
2007-05-14, 01:39:18
;5490415']Hat einer schon mal erwähnt, dass Ruby extrem häßlich ist? Die Stimme passt genauso wenig, ist wie bei einem Tranvestit.

*gerade den Thread lesend*

Jap, hier! Ich!

Im Thread über die Präsi mit Link zum Video stieß mir der völlig verschobene Geschmack der Designer erneut übel auf.

Coda
2007-05-14, 01:41:35
Ich bin kein Treiberentwickler, soweit ich weiss baut der Treiber, sowie wie fast alles das Berechnungen durchführt bzw. ausführen lässt von Schaltungen, auf Algorythmen auf.

Bei einem neuem Chip kann man die alten nicht verwenden, besonders wenn der neue von Grund auf verschieden ist. Siehe G80, am Anfang war der Treiber nicht viel besser.
Algorithmen. Ohne y.

Deine Ansicht ist ein wenig blauäugig. Es gibt durchaus sehr viele Dinge die man weiterbenützen kann.

EDIT: POAH, kann auch mal ein scheiß Reviewer intelligent genug dazu sein mal ne AF-Blume zu posten. §?/%"§?§"!

MadManniMan
2007-05-14, 02:14:13
Herrjee... die Performance ist also erwartet durchwachsen - marktgerecht könnten die Preise werden, das ist wohl dennoch wahr. Aber nachdem die Karte schon nichts bringt, was mich vom Hocker reißt, bringen die Doofen 6 Jahre nach Quinblurrx den gleichen Mist nochmal? Hallo?

Und an all jene, die CF"AA" für gut befinden: wie fandet ihr es damals? Kurz nach GF3-Release hatte ein Kumpel zugeschlagen und mich gleich live davon überzeugen können, daß Schmier beschissen ist. Es kann doch beim besten Willen nicht euer Ernst sein, die teuer kalkulierten Pixel gleich wieder vermatschen lassen zu wollen?

Und wenn ich das schon wieder lese... ein "intelligenter Algorithmus"!
Einerseits wird die Karte bestimmt nicht ständig das Bild vorm finalen Verschmieren auf Nyquist kontrollieren, andererseits bringt uns Kantenerkennung schön divergenten Matsch.
Stellt euch vor, der Algorithmus (so er kommt) meint auf einmal, die Polys im Gesicht des NPC wären beachtenswerte kannten - dann sieht man die Polygonkanten in seiner Fresse, weil entlang jener gematscht wird. Na vielen Dank.

HOFFENTLICH gerät CFAA bald in Vergessenheit der Artikelmenschen - oder aber ins Kreuzfeuer als Versuch, irgendetwas CSAA-Ähnliches zu schaffen.


Aber mal von Quinblurrx weg... die 2900 XT ist potentiell konkurrenzfähig. Leider nicht annährend mehr.

Ailuros
2007-05-14, 02:35:03
Wie fies ist es eigentlich wenn ich jetzt frage wo der angebliche um "einiges" niedrigere 2D Stromverbrauch von R600 genau ist?

Und ja ich hatte mal etwas Zeit und hab den ganzen Thread hier durchgekaemmt. Thumbs up an Lovesuck der ziemlich gut zeigte wie es mehr oder weniger mit den maximalen theoretischen GFLOP Werten aussieht. Komischerweise hat irgend jemand hier *schaut sich um* schon seit geraumer Zeit erwaehnt dass nicht alle R600 Einheiten ueber die gleichen Faehigkeiten verfuegen.

Ein weiterer Pluspunkt an reunion der mit seinem R200-Gedanken zwar sehr nahe an der Realitaet liegt, es wohl aber verdammt schwer haben wird diese Realitaet einzusehen. Durch die R200 Aera meckerte so mancher ueber beschissene Treiber, erst Jahre nach dessen Vorstellung kam zum Vorschein dass es ein paar ernsthafte bugs auf HW-Ebene gab, was aber auch wiederrum heisst dass ATI's Treiberteam talentierter war und ist als sich manche einreden wollten. Die Mehrzahl der R600-bugs wurden afaik entfernt, aber es sollten sich so manche doch schaemen fuer den Mist den sie ueber G80 geschrieben haben. Es gibt zwar IMHO keine zu 100% bug-freie GPU dort draussen, aber G80 im Vergleich zu R600 als verbuggte HW hinzustellen war zumindest erstmal unverschaemt.

Wieso wurde das Ding nicht im Februar veroeffentlicht und was zum Henker machte denn das Treiberteam durch das letzte Jahr? Wieso haette ich seit dem letzten Jahr hochrangigen (und ziemlich neutralen) Spiele-Entwicklern mit Zugang zu fruehen R600-samples nicht vertrauen sollen und auf ein "Wunder" hoffen?

Ich sehe ja ein dass all zu viele jetzt wieder denken dass ich ein NV-fanboy oder weiss der Geier was auch immer bin. Es gibt hier nur eine Realitaet und die heisst dass die 2900XT mit ihrem $399 MSRP ein ausgezeichnetes Preis-/Leistungs-Nivaeu hat und sich dementsprechend sehr gut zwischen der 8800GTS und 8800GTX momentan platziert.

Was jetzt das CFAA Zeug betrifft und den Bloedsinn dass es helfen kann "Textur-Flimmern" zu saenftigen, gibt es hier nur eine Antwort: entweder man hat den Mut jegliche bekloppte Filterungs-Optimierung gleich ganz abzuschalten fuer solche Faelle oder im extremen Verzweiflungs-Fall kann man locker den LOD slider auf +0.5 oder sogar +1.0 stellen. Es "saenftigt" Textur Flimmern genauso gut, kostet auch keine Leistung und verschmiert die gesamte Szene ebenso effizient.

Was ich mir wuenschen wuerde als Technologie-Freak waeren fortschrittliche Experimente von Leuten die sich auskennen mit >D3D10 Faehigkeiten auf R600. Ebenso wuensche ich mir auch dass sich potentiellen Kaeufer einer 2900 nicht von Ihrer Entscheidung ableiten lassen sollten. Die GPU ist definitiv keine falsche Kaufentscheidung; ich wehre mich lediglich gegen den PR-Mist der aus jeder relevanten Marketing-Abteilung herausfliesst und dann von Fanboy-Papageien gedankenlos wiedergelabert wird.

Ach ja NVIDIA hat ihre uebligen FUD-Kampagne eingelegt. AMD hat zwar keine aehnliches Dokument, aber deren PR/Marketing orientierte Irrefuehrung ist auch nicht gerade lobenswert.

Jetzt bleibt noch abzusehen ob R600 wirklich mit den paar D3D10-paths in zukuenftigen D3D9.0 Spielen den Gegner in den Boden stampfen kann. Bis jetzt sahen wir imposante 3dmark06 Resultate von dem Ding und Gott sei Dank postete in diesem Thread auch hier jemand Resultate vom VS Test aus dem Ding. G80 hat trotz ihrer =/>1.35GHz ALU clock domains eine ziemlich niedrige Geometrie-Rate; verdammt vereinfacht duerften es nicht weniger als 1 tri/2 clocks (mit ein paar Ausnahmen) sein. R600 hingegen kann tatsaechlich 1 Tri/clock und mit etwas fortschrittlicher Tesselation erreicht sie in einem zugefeilten Fall wohl doch stolze 1 billion Tris/s. Insgesamt wohl ein Vorteil von zumindest 35% im Vergleich zu G80. Ob jetzt dieses aber dann ausreicht selbst unter D3D10 das Ding in einem G80-Killer zu verwandeln wage ich zu bezweifeln. Fuer so etwas hat wiederum G80 seine eigenen Vorteile.

My 2 cents ;)

MadManniMan
2007-05-14, 02:45:21
Schön zu wissen, daß Du nur Nachvollziehbares postest - hättest Du jetzt noch von etwaigen Überraschungen erzählt, hätte ich mich in meiner Einschätzungsgabe gekränkt gefühlt ;)

Nur der Interesse halber: weißt Du, was mit den AA-Benches falsch läuft?

Und zum Thema Vertexpower: ATi hat damit ja schon immer ziemlich geklotzt, nur tatsächlich richtig gewichtig schien es mir bisher nicht - oder gibt es tatsächlich Apps, die deswegen auf nV nicht so gut laufen?


PS
Nur um einen Vergleich mit dem R200 vorwegzunehmen und zu entkräften: auch, wenn die 8500 dereinst schnell und überaus günstig war (ich sag jetzt einfach mal frech sogar so günstig, die HW-Nachteile aufzuwiegen), so hatte ATi nicht vorzulegen, sondern war Underdog und sammelte Erfahrung. Naja, Letzteres geschieht heute noch ;)

Liszca
2007-05-14, 03:19:46
Das vr-zone review ist eigentlich ganz interessant, nur was die bq angeht, habe ich das gefühl das da sachen gesehen werden die entweder fast nicht vorhanden sind oder es wurde schlicht und einfach ein ungünstiger winkel verwendet.

oder sieht das jemand anders?

Gast
2007-05-14, 03:31:26
Das sieht man doch eindeutig, dass Nvidia mit der 8800GTS schärfere und bessere Filter hat! Das hätten die bei VR-Zone nicht mal ranzoomen müssen. Lediglich beim AA ist Ati meines erachtens vorne. Aber wer weiß was die "Grünen" noch in petto haben.

Naja, egal. Bin sowieso enttäuscht. Wenn Heute nicht noch bessere Reviews kommen die die 2900XT etwas besser aussehen lassen, dann weiß ich ehrlich nicht weiter. Wollte mir eigentlich eine holen, da ich bis jetzt immer Ati hatte. Momentan tuts noch die 1950Pro Super GT, aber spätestens mit DX10 Spielen muss Ati was reißen. Gerade im Verbund AA+AF geradezu lächerlich wenig. Bäähh.

Hoffe stark auf die 2950XTX. Die wird wohl der wahre Renner werden. Trotzdem, nach so langer Auszeit hätte ich mir gewünscht, dass da ein großes Wuuummms durch die Grafikkartenbranche geht und Nvidia nur noch die Rücklichter von der Ati-Karte sieht. Da denke ich halt nostalgisch an den 9700'er zurück. Der schlug ein wie ne Bombe. Aber sowas wiederholt sich wohl nicht mehr, jetzt wo AMD the "Best forever" Grafikschmiede zum Billigheimer verkommen lässt.

....

up¦²
2007-05-14, 04:07:55
tbreak Review

http://www.tbreak.com/reviews/article.php?id=511

http://img329.imageshack.us/img329/4306/reviewmb4.jpg

http://img246.imageshack.us/img246/9352/reviewet3.jpg

sehr nett gemacht!

tombman
2007-05-14, 05:29:02
Jo total NV lastig deshalb testen sie da auch nur mit uralten NV Treibern. :rolleyes:
Ich habe denen eh schon ins Kommentar geschrieben...oc review = Müll..

EDIT: POAH, kann auch mal ein scheiß Reviewer intelligent genug dazu sein mal ne AF-Blume zu posten. §?/%"§?§"!
:up: Der Satz gehört in ne Spammail rein und massenhaft verteilt ;D

Btw, enttäuscht bin ich nicht, eher erfreut, denn bis jetzt absolut NULL Grund an einen Umstieh auf R600 auch nur zu denken.
Sehe da nix, was die jemals besser machen könnte...ok vertex shader power ist spitzenmäßig, aber das war es früher auch schon bei ATI- hat nur nie was in games gebracht? @ gurus: braucht man das vielleicht für Physikbereichnungen?

tombman
2007-05-14, 05:37:31
INQ review!
http://www.the-inquirer.com/default.aspx?article=39580

Leonidas
2007-05-14, 06:10:19
Guten Morgen allerseits. Der 3DC-Artikel ist zwar noch work-in-progress, die Benchmarkseiten sind jedoch schon fertig:
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index13.php

Daredevil
2007-05-14, 06:12:13
Fett, Danke Leo und die die da mitgearbeitet haben :wave:

Fetza
2007-05-14, 06:27:02
Guten Morgen allerseits. Der 3DC-Artikel ist zwar noch work-in-progress, die Benchmarkseiten sind jedoch schon fertig:
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index13.php

Danke! Gleich mal gucken gehen =)

AnarchX
2007-05-14, 07:14:45
AMD R600 Architecture and GPU Analysis @ B3D (http://www.beyond3d.com/content/reviews/16/)

=)

weitere Reviews:
T-break (http://www.tbreak.com/reviews/article.php?cat=grfx&id=511&pagenumber=1)
The Inq (http://www.theinq.net/default.aspx?article=39580)
HardOCP (http://enthusiast.hardocp.com/article.html?art=MTM0MSwxLCxoZW50aHVzaWFzdA==)
Guru3D (http://www.guru3d.com/article/Videocards/431/)
TechPowerUp (http://www.techpowerup.com/reviews/ATI/HD_2900_XT)
HardwareSecrets (http://www.hardwaresecrets.com/article/449)
Hexus (http://www.hexus.net/content/item.php?item=8687&page=1)

seahawk
2007-05-14, 07:22:51
In TD:U geht die X2900 aber gut ab. Da muss noch riesig Potential in der Karte schlummern.

Undertaker
2007-05-14, 07:29:51
wollte ich auch gerade erwähnen... wäre doch gelacht wenn die karte den r580 mit passenden treibern nicht um 100% wegputzt, damit sollte man dann auch die 8800ultra schlagen können...

Fetza
2007-05-14, 07:33:03
wollte ich auch gerade erwähnen... wäre doch gelacht wenn die karte den r580 mit passenden treibern nicht um 100% wegputzt, damit sollte man dann auch die 8800ultra schlagen können...

Ist das ironisch gemeint? :)

AnarchX
2007-05-14, 07:36:14
In TD:U geht die X2900 aber gut ab. Da muss noch riesig Potential in der Karte schlummern.

Oder die GTX läuft hier nur verhältnismässig schlecht. Immerhin hat ja TDU eine Abstammung die der R600-Architektur durchaus gefallen könnte.

Wurde hier eigentlich auch richtig kontrolliert ob das 8xMSAA auch aktiv war?

seahawk
2007-05-14, 07:37:09
Eines aus dem Beyond3D Artikel ist aber für mich der Knock-Out :

So there's no static 2D fan speed that we can see, and the overall noise profile of the cooling solution is subjectively much worse than Radeon X1950 XTX, NVIDIA GeForce 8800 GTX or GeForce 8800 GTS.

LovesuckZ
2007-05-14, 07:38:47
Oder die GTX läuft hier nur verhältnismässig schlecht. Immerhin hat ja TDU eine Abstammung die der R600-Architektur durchaus gefallen könnte.

Oh, daran liegt es mit Sicherheit nicht. Guckt man sich die Carbon-Ergebisse an, ist hier sogar eine GTX schneller!


Wurde hier eigentlich auch richtig kontrolliert ob das 8xMSAA auch aktiv war?

Ja, das war auch mein erster Gedanke. Für mich scheint eher nach einer starken CPU-Limitierung bei der 8800GTX auszusehen, da der Abfall von 1280*1024 mit 8AA auf 16xQ doch ziemlich gering ist. Da hat nVidia noch einiges an Treiberarbeit vor sich.

Gast
2007-05-14, 07:47:45
Is noch vieles nicht so rund wie es sein soll. In Farcry sieht die Karte ja gegen eine X1950XTX kein Land (selbst mit AA...) und solche Ausreißer sollten eigentlich ja nich auftreten.

Die AF Blume bei Beyond3D zeigt das es R580 Qualität gibt, theoretisch schlechteres AF als beim G80 jedoch in der Praxis quasi nicht sichtbar.
Naja trotzdem sollte mans erwähnen nicht das es irgendwann wieder ein Rückschritt zum Winkelabhängigen AF gibt.

[dzp]Viper
2007-05-14, 07:49:46
Also nach überfliegen der bisherigen Reviews scheint es so, als wäre die 2900XT nicht schlecht aber:

- kämpft noch mit Treiberproblem (AA aktiv - massig Performaceverlust)
- hat einen leichten Blurr-Filter bei aktivierten AA/AF (vielleicht noch deaktivierbar?!)
- Stromhungrig
- 1950xt Geräuschniveau

Insgesamt finde ich die Karte interessant und bin gespannt wie sich die Performance mit den nächsten Treibern verbessern wird.
Aber kaufen würde ich sie mir nicht sondern auf den 65nm Refresh warten. Dort werden dann wohl die Negativsachen wie Stromhunger, Geräuschniveau und Treiberproblemen beseitigt sein :)

Spasstiger
2007-05-14, 07:50:53
Guten Morgen allerseits. Der 3DC-Artikel ist zwar noch work-in-progress, die Benchmarkseiten sind jedoch schon fertig:
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index13.php
Der 24x-CFAA-Filter kostet aber massig Leistung, da hätte man ja gleich einen Hybrid-Modus mit 8xMSAA und 2xSSAA implementieren können:
http://www.3dcenter.org/images/radeon_hd_2900_xt/benchmark_tdu_sg1.png

Viper;5491609']- hat einen leichten Blurr-Filter bei aktivierten AA/AF (vielleicht noch deaktivierbar?!)
- Stromhungrig
Die AF-Qualität soll mindestens so gut sein wie beim Vorgänger. Den Blur-Effekt hat man nur, wenn man einen CFAA-Filter aktiviert. Man kann die AA-Modi auch ohne CFAA-Filter setzen:

http://img508.imageshack.us/img508/1830/87qn8.jpg

Beim Feld Filter kann man den CFAA-Filter einstellen oder deaktivieren (= Einstellung "box", d.h. nur Samples innerhalb eines Pixels). Und die HQ-AF ist jetzt standardmäßig aktiv, die Einstellung dafür nicht mehr vorhanden.

[dzp]Viper
2007-05-14, 07:53:02
Ah sehr interessant:

http://www.guru3d.com/article/Videocards/431/17/

DX10 Call of Juarez Test und Bilder (sieht toll aus und Videos davon gibts auch)

AnarchX
2007-05-14, 07:53:37
Der 24x-CFAA-Filter kostet aber massig Leistung, da hätte man ja gleich einen Hybrid-Modus mit 8xMSAA und 2xSSAA implementieren können:


Das könnte wohl noch mehr kosten, bei der vorhandenen Texturleistung.
Da ist CFAA welches mehr die starken Seiten des R600 belastet - Bandbreite, Shaderleistung wohl sinnvoller.

Viper;5491614']Ah sehr interessant:

http://www.guru3d.com/article/Videocards/431/17/

DX10 Call of Juarez Test und Bilder (sieht toll aus und Videos davon gibts auch)
Physics based particle water system - Physics done via geometry shader

... und die Performance des G80 stürzt nicht ins Bodenlose. ;)

LovesuckZ
2007-05-14, 07:58:20
... und die Performance des G80 stürzt nicht ins Bodenlose. ;)

Ich komme leider von hier nicht auf die Seite: Wie sehen denn die Werte der Karten aus?

AnarchX
2007-05-14, 08:02:11
Ich komme leider von hier nicht auf die Seite: Wie sehen denn die Werte der Karten aus?

CoJ DX10
http://img518.imageshack.us/img518/112/cojdx10li9.png

[NbF]Eagle
2007-05-14, 08:08:13
Computerbase review
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/

[dzp]Viper
2007-05-14, 08:08:58
Die AF-Qualität soll mindestens so gut sein wie beim Vorgänger. Den Blur-Effekt hat man nur, wenn man einen CFAA-Filter aktiviert. Man kann die AA-Modi auch ohne CFAA-Filter setzen:


Ah gut - das hab ich auf die Schnelle nicht gleich rauslesen können

James Ryan
2007-05-14, 08:09:57
Computerbase hat sein Review auch schon online! :eek:

MfG :cool:

Daredevil
2007-05-14, 08:13:25
Jawoll endlich mal was großes Deutschsprachiges, Danke nochmals!
Sieht ja inmoment ganz gut aus, die Treiberprobs nerven mich ein wenig.
Hoffentlich kann man die heut schon bestellen :)

James Ryan
2007-05-14, 08:16:25
Trotz 8.37er Treiber geht die Karte in die Knie beim Einsatz von MSAA, bei Oblivion auf dem Niveau einer Gf 8600! :|
Stromverbauch im Idle und Last höher als bei einer GTX, im Perfomancerating Qualität liegt die Radeon hinter einer GTS/640.
In den beiden D3D10 Demos liegt eine GTX auch deutlich vor der HD 2900 XT!
Das ist nach den 7 Monaten ziemlich wenig...

MfG :cool:

MartinRiggs
2007-05-14, 08:18:09
gelistet ist aber noch nix bei Geizhals, die shops pflegen wohl grad ihr Angebot:tongue:
Also wenn sie die Treiberprobleme in den Griff bekommen ne Interessante Karte, TDU z.b. zeigt ja das Potential, bei dem Game haben G7x und R580 ganz gut zu kämpfen.

AnarchX
2007-05-14, 08:21:50
Trotz 8.37er Treiber geht die Karte in die Knie beim Einsatz von MSAA, bei Oblivion auf dem Niveau einer Gf 8600! :|


Nicht vergessen es ist TSAA bei CB. ;)
Zudem ist der Texelfüllratenunterschied zwischen 8600GTS und 2900XT gar nicht so groß.

Gast
2007-05-14, 08:22:48
Im Schnitt der Tests auf CB schlägt die Karte gerade so einen R580 - lächerlich.

James Ryan
2007-05-14, 08:23:38
Nicht vergessen es ist TSAA bei CB. ;)
Zudem ist der Texelfüllratenunterschied zwischen 8600GTS und 2900XT gar nicht so groß.

Im Fazit steht, dass ein neuer Treiber zwar die Perfomance mit TSAA in Oblivion verbessert wird, mit normalem MSAA bleibt sie aber relativ schlecht.
Enttäuscht bin ich vor allem vom Kühler und dem Stromverbrauch. :frown:
Außerdem ist der UVP 399€, nicht 320€ wie von einigen vermutet.

MfG :cool:

Spasstiger
2007-05-14, 08:29:28
Der Edge-Detect-Filter scheint ja ganz brauchbar zu sein, blurt die Texturen meist nicht und sorgt für eine bessere Kantenglättung.

Hier aus dem Beyond3D-Artikel (http://www.beyond3d.com/content/reviews/16/15):

http://img504.imageshack.us/img504/907/8xedgedetectaaayo1.png

8xMSAA + Edge Detect (24x) + quality apative AA
Also theoretisch die höchste AA-Qualität, die der R600 bietet. Und ich finde auch, dass es gut aussieht. Keinesfalls verblurrt.

LovesuckZ
2007-05-14, 08:30:14
Und bei Computerbase haben sie noch nichtmal HQ gegen A.I off verglichen. Das scheint eine ziemliche Katastrophe zu werden, wenn sich ein Tester traut.

Daredevil
2007-05-14, 08:30:40
Oha die Leistungseinbußen mit AA haben mich jetzt aber abgeschreckt, hoffe ich mal das sich das durch einen neuen Treiber wieder bessert... sonst hat die Karte echt nicht soviel positives...

seahawk
2007-05-14, 08:32:30
Die Stromverbrauchsmessung bei CB sind aber deftig ausgefallen im Vergleich zur GTS.

James Ryan
2007-05-14, 08:34:16
Die Stromverbrauchsmessung bei CB sind aber deftig ausgefallen im Vergleich zur GTS.

Auch im Vergleich zur Ultra ;(
erschreckend hinzu kommt auch dass sich die neue Karte nicht deutlich von der X1950 XTX absetzen kann!

MfG :cool:

Spasstiger
2007-05-14, 08:35:09
Hier noch die AF-Blumen bei 16:1 AF, rauskopiert aus den Artikeln von Beyond3D (http://www.beyond3d.com/content/reviews/16/14) und noch mit Bild-Unterschriften versehen:

http://img245.imageshack.us/img245/7458/r580vp8.png

http://img522.imageshack.us/img522/8658/r600ec4.png

http://img245.imageshack.us/img245/9018/g80pp4.png

LovesuckZ
2007-05-14, 08:39:02
Dazu ein Textauszug aus dem Artikel von Computerbase:

Deaktiviert man nun auf beiden Grafikkarten sämtliche Optimierungen des anisotropen Filters, dreht der G8x regelrechte Kreise um die Konkurrenz. Während die Texturen auf dem G8x nur selten flimmern, keine Bugwellen mehr sichtbar sind und gleichzeitig bis in den letzten Winkel mit allen eingestellten Samples gefiltert werden, bekommt man von ATis R600 bei A.I. Off nicht eine so gute Qualität geboten. Die etwas schlechtere Winkelunabhängigkeit fällt prinzipiell kaum auf, der trilineare Filter ist ebenfalls sehr gut, die Texturen sind aber weiterhin unruhig. Während nVidia dieses Problem mit dem G8x beinahe ausgelöscht hat, hat ATi das Flimmern zwar angepackt, aber ist schlussendlich nicht weit genug gegangen. Bei der anisotropen Filterung hat der nVidia G80 die Nase also vorn.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert

Ich glaube, dazu muss man nicht mehr viel sagen. Da leider kaum Tests mit wirklicher hochwertiger Filterung durchgeführt werden, kann sich AMD hier sehr schön eine bessere Leistung "erarbeiten".

Adam D.
2007-05-14, 08:40:10
Also irgendwie fehlt der Karte momentan echt ein Kaufargument :|

James Ryan
2007-05-14, 08:41:23
Also irgendwie fehlt der Karte momentan echt ein Kaufargument :|

Nicht dass dies schon vorher irgendwie klar war!
Dumm nur dass die Gf 8800er Karten jetzt wohl nicht günstiger werden. :(

MfG :cool:

Adam D.
2007-05-14, 08:44:36
Nicht dass dies schon vorher irgendwie klar war!
Dumm nur dass die Gf 8800er Karten jetzt wohl nicht günstiger werden. :(

MfG :cool:
Die Karte zeigt ja immer mal wieder kurz ihre Stärken. Aber der Launch an sich dürfte wohl das peinlichste sein, was ATi seit Bestehen fabriziert hat. In so einem Zustand das Teil der Welt präsentieren, halte ich für sehr gewagt. Wiederum muss man sagen, dass wohl kaum jemand noch länger gewartet hätte. Was mich aber immer noch interessieren würd: entweder das Treiber-Team hat die letzten Monate gepennt oder der R600 ist voller Bugs... :confused:

Gast
2007-05-14, 08:47:11
Naja, wenn die Treiber brauchbar sind, sollte sich die Leistung zwischen der GTS und der GTX einordnen IMO. Der idle-Modus scheint offenbar wie bei R520 zu beginn noch nicht richtig zu funktionieren, sonst würde die Karte nicht trotz heruntertakten und Spannungsabsenkeung ein ähnlichen idel/Last-Verhältnis wie die G80-Karten haben.

captainsangria
2007-05-14, 08:47:53
mit so einer performance zur veröffentlichung antreten ist doch wohl mehr als gewagt. so holt man sich keine kunden.
bleibt doch zu hoffen, oder besser gesagt zu erwarten, dass sich die miese performance an einem schlechten treiber aufhängt.

Gast
2007-05-14, 08:48:49
Dazu ein Textauszug aus dem Artikel von Computerbase:


http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert

Ich glaube, dazu muss man nicht mehr viel sagen. Da leider kaum Tests mit wirklicher hochwertiger Filterung durchgeführt werden, kann sich AMD hier sehr schön eine bessere Leistung "erarbeiten".

War bei NV40 vs. R420 auch nicht anders. Auch beim R5xx vs. G70 hatten die ATi-Karten mit der gängigen Methode AI_low vs. Q das nachsehen. Diesmals filtert eben nV etwas besser. 100%ig fair wird es nie sein.

Spasstiger
2007-05-14, 08:49:08
Die Karte zeigt ja immer mal wieder kurz ihre Stärken. Aber der Launch an sich dürfte wohl das peinlichste sein, was ATi seit Bestehen fabriziert hat.
Naja, der Rage 128 war sicherlich schlechter im Vergleich zur Konkurrenz und hatte zudem in ein paar Spielen mit Darstellungsfehlern zu kämpfen. Hinzu kam die miese 16-Bit-Qualität, die damals noch eine Rolle spielte.
Aber seit dem R300 ist der R600 sicherlich das größte Debakel bisher.
Aber man muss auch sagen, dass der R600 kein NV30 wurde. Denn der NV30 hinkt der Konkurrenz bei exzessiver Verwendung von SM2-Shadern um 75% hinterher, produzierte für damalige Verhältnisse auch viel Hitze und hatte wenig fortschrittliche AA-Modi.
Dennoch konnten einige NV30/35-Ableger wie die FX 5900 XT gute Bewertungen beim Preis-Leistungsverhältnis abstauben.

AMD/ATI wird vom R600 sicherlich nicht zugrunde gehen.

Gast
2007-05-14, 08:51:58
Der Edge-Detect-Filter scheint ja ganz brauchbar zu sein, blurt die Texturen meist nicht und sorgt für eine bessere Kantenglättung.

Hier aus dem Beyond3D-Artikel (http://www.beyond3d.com/content/reviews/16/15):

http://img504.imageshack.us/img504/907/8xedgedetectaaayo1.png

8xMSAA + Edge Detect (24x) + quality apative AA
Also theoretisch die höchste AA-Qualität, die der R600 bietet. Und ich finde auch, dass es gut aussieht. Keinesfalls verblurrt.

ACK. Wie schon vermutet sieht der "edge detect"-Filter sehr gut aus, da er keine Texturen verblurrt, sondern nur bei Kanten und hochfrequenten Texturen greift. Aber wenn man das laut sagt, kommt ja gleich wieder die NV-Fraktion.

Winter[Raven]
2007-05-14, 08:52:31
Die Tester sollen sich endlich dazu bewegen fair zu benchen, auch CB!!!!

LovesuckZ
2007-05-14, 08:53:40
Der idle-Modus scheint offenbar wie bei R520 zu beginn noch nicht richtig zu funktionieren, sonst würde die Karte nicht trotz heruntertakten und Spannungsabsenkeung ein ähnlichen idel/Last-Verhältnis wie die G80-Karten haben.

Warum sollte der "IDLE" Modus nicht funktionieren? Hier befinden sich ebenfalls 700Millionen Transistoren, die benötigen alle ein bissl Strom. Ich denke schon, dass der IDLE Modus funktioniert, denn der 80nm Prozeß bringt keine Wunder bei der Stromaufnahme.


Diesmals filtert eben nV etwas besser. 100%ig fair wird es nie sein.

A.I Off gegen HQ ist fair, da beide vollständig trilinear filtern. Und solch eine EInstellung gehört mit verglichen, da es sich hier um HIGH-END handelt.
AMD hat den Vorteil, dass der r600 aufgrund der geringen Texturleistung einen deutlich höhreren Leistungsgewinn von den Optimierungen erfährt als nVidia. Oder anders gesagt: Sie brechen krasser ein.

Noebbie
2007-05-14, 08:57:20
- Stromverbrauch > 88Ultra, Leistung knapp über 88GTS
- Heiß im Idle
- (noch) Treiberprobleme
- Ich schätze mal 50% aller Käufer sind auf ein neues NT angewiesen


Gute Arbeit, die lange Verzögerung hat sich gelohnt

Daredevil
2007-05-14, 08:57:55
Hardwareluxx hat auch nen test parat
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546

MadManniMan
2007-05-14, 09:00:02
Der Edge-Detect-Filter scheint ja ganz brauchbar zu sein, blurt die Texturen meist nicht und sorgt für eine bessere Kantenglättung. (...)

Vergleiche machen sich immer doof, wenn man nix zum Vergleichen hat. :|


Aber man muss auch sagen, dass der R600 kein NV30 wurde. Denn der NV30 hinkt der Konkurrenz bei exzessiver Verwendung von SM2-Shadern um 75% hinterher, produzierte für damalige Verhältnisse auch viel Hitze und hatte wenig fortschrittliche AA-Modi.
Dennoch konnten einige NV30/35-Ableger wie die FX 5900 XT gute Bewertungen beim Preis-Leistungsverhältnis abstauben.

Ihr macht den NV30/35 schlechter, als er war. Er wurde nach und nach proportional schwächer, aber in seiner Jugend war er ähnlich konkurrenzfähig, wie es jetzt der R600 ist - vielleicht sogar noch eher. Schlechterem AA stand besseres AF gegenüber und damit relativierten sich über die Performance hinausgehende Nachteile je nach Geschmack.
Der R600 ist nicht lächerlich, aber in Hinblick auf die früheren Erwartungen eine Enttäuschung.


Und Quinblurrx gehört verboten.

Adam D.
2007-05-14, 09:01:04
AMD/ATI wird vom R600 sicherlich nicht zugrunde gehen.
Nein, das ganz sicher nicht. Immerhin scheint ja die Mid-Range-Sparte sehr gut zu funktionieren. Aber es ist trotzdem schade zu sehen, dass der R600 wirklich einfach ein Dreivierteljahr zu spät ist, er bietet einfach momentan keinen Grund zu wechseln.
Hoffen wir, dass der 65nm-Kampf nicht auch so ausgeht .. :redface:

Spasstiger
2007-05-14, 09:02:38
ATI sollte auf jeden Fall endlich mal die Möglichkeit geben, anwendungsspezifische Optimierungen, die die Bildqualität nicht verschlechtern, von den Filteroptimierungen zu trennen.

Vergleiche machen sich immer doof, wenn man nix zum Vergleichen hat. :|
Man muss ja nicht immer vergleichen, es ist einfach eine nette Option für R600-Käufer.

Ihr macht den NV30/35 schlechter, als er war. Er wurde nach und nach proportional schwächer, aber in seiner Jugend war er ähnlich konkurrenzfähig, wie es jetzt der R600 ist - vielleicht sogar noch eher.
NV30/35 waren von Anfang an schwach, sie wurden nicht mit der Zeit schwächer, auch nicht gegenüber der Konkurrenz (R300/R350). Wenn das der Fall wäre, müsste NV ja ziemlich mit den Treibern gepfuscht haben. ;)
Nur gab es 2003 nicht allzuviel Anwendungen, die die Shaderschwächen der GeForce FX aufzeigen konnten. Spiele gehörten zu diesen Anwendungen schon gar nicht dazu. Erst mit Tomb Raider Legends und den ersten HL2-Benches wurde allmählich klar, dass die theoretischen Shader-Benchmarks, die beim Release der GeForce FX getätigt wurden, tatsächlich die Realität widerspiegeln.

seahawk
2007-05-14, 09:03:57
Dan HWLX Test kann man knicken. AI Standard gegen HQ ist wirklich Äpfel mit Birnen.

sun-man
2007-05-14, 09:04:46
Im 3DCenter Test fehlt ganz eindeutig was: Ein Menü.....oder ist das ne neue Art und Weise das man sich durchklickt?

Beim Rest bin ich nicht überzeugt vom R600....(und habe mit dem Neukauf eh gewartet)

James Ryan
2007-05-14, 09:07:55
Dan HWLX Test kann man knicken. AI Standard gegen HQ ist wirklich Äpfel mit Birnen.

Wollte ich gerade schreiben! ;D
Auch müssen die Tester taub sein, sie heben den leisen Kühler der HD 2900 XT hervor. Sind damit aber die einzigen!

MfG :cool:

LovesuckZ
2007-05-14, 09:08:27
http://img.clubic.com/photo/00499444.jpg

http://www.clubic.com/article-73608-8-amd-ati-radeon-hd-2900-xt-directx-10.html

Da scheint nVidia AMD aber so richtig in die Suppe gespuckt zu haben - dank einem neuen Vista Treiber.

MadManniMan
2007-05-14, 09:09:40
ATI sollte auf jeden Fall endlich mal die Möglichkeit geben, anwendungsspezifische Optimierungen, die die Bildqualität nicht verschlechtern, von den Filteroptimierungen zu trennen.

...ui, ich fürchte, daß es dann um den Sächshundert noch schlechter stünde. Hoff nicht drauf.


Man muss ja nicht immer vergleichen, es ist einfach eine nette Option für R600-Käufer.

Ich will aber Vergleichen! Ich will, ich will, ich will!
Im Ernst: natürlich werden die Kanten glatter, war auch beim Original-Quincunx so. Aber wenn wir nicht sehen, in welchem Maß der restliche Content angefaßt wird, sind gezogene Schlüsse halbgar.

Und nenn mich engstirnig, aber ich fand schon die Smartshader Blurdings hohl. Blurfilter sind scheiße und sollten - wenn, dann - nur von der App situationsspezifisch appliziert werden.

Adam D.
2007-05-14, 09:13:55
[URL]Da scheint nVidia AMD aber so richtig in die Suppe gespuckt zu haben - dank einem neuen Vista Treiber.
Ich find's so bitter, wenn man beim Vorzeigespiel von der Konkurrenz geschlagen wird ;(

Sir Integral Wingate Hellsing
2007-05-14, 09:19:11
http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/

ATI Radeon HD 2900 XT: Motor startet, was passiert?
ATI verweigert Testmuster, THG besorgt sich zwei für Crossfire anderweitig

Die gelbe Eule
2007-05-14, 09:20:06
Schade, schade, schade. Das man sich bei jeder Ungereihmtheit mit Treiberproblemen herausredet, findet ich sehr klasse. NV macht das auch und vieles wurde nie gefixed. Ich möchte mal einen ATi Treiber sehen, der weniger Strom verbrauchen läßt, die Performance deutlich über GTS hebt und aktuelle Spiele problemlos darstellt. Was mich aber am meisten stört, daß das AF kaum bis gar nicht verbessert worden ist. Soviel Zeit gehabt und nicht genutzt ...

seahawk
2007-05-14, 09:20:32
Naj, man hat ja selber die GTS als Konkurrenz definiert. Jetzt muss AMD/ATI nur hoffen, dass NV nicht so fies ist und die UVPs ändert.

Sagen wir :

UVP 270 € für die GTS 320
UVP 320 € für die GTS 640
UVP 400 € für die GTX

Dann hätte man ein gewaltiges Problem.

Toppas:-)
2007-05-14, 09:21:10
Ich find's so bitter, wenn man beim Vorzeigespiel von der Konkurrenz geschlagen wird ;(

Nun die Design Entscheidungen wurden vor ca. 2 Jahre Finial gemacht. Und mal gewinnt man oder auch die anderen! Die 8800er hat ATI kalt erwischt, aber in der Phase kann man nicht nochmal den Chip komplett überarbeiten.
Ich gehe mal davon aus das, wenn man keine sehr super Overlock-Chips hat, keine XTX geben wird vor Sep.07. Vielleicht dann aber der Refresh in 65nm, zumindest dann wäre man vielleicht gerade so auf Augenhöhe.

James Ryan
2007-05-14, 09:25:32
Besonders lächerlich wirkt nun ATis Aussage, dass bei Release der R600 deutlich ausgereifter als alle G80 Treiber sein werden. ;D
Nun ja, die heutigen Ergebnisse zeichneten sich schon vorher ab!

MfG :cool:

Daredevil
2007-05-14, 09:26:54
Schade, schade, schade. Das man sich bei jeder Ungereihmtheit mit Treiberproblemen herausredet, findet ich sehr klasse. NV macht das auch und vieles wurde nie gefixed. Ich möchte mal einen ATi Treiber sehen, der weniger Strom verbrauchen läßt, die Performance deutlich über GTS hebt und aktuelle Spiele problemlos darstellt. Was mich aber am meisten stört, daß das AF kaum bis gar nicht verbessert worden ist. Soviel Zeit gehabt und nicht genutzt ...
Von der Rohleistung her liegt die 2900xt ja schon vorn bzw. gleichauf, durch Treiberoptimierung kann man da doch sicherlich noch ein paar Prozent rausholen und somit wäre die 2900xt vorne, was allerdings mit dem AA los is weiß wohl keiner so genau, denke nicht das das wirklich Hardwarebedingt ist... da ist ja eine 1950xtx in manchen Tests deutlich schneller... ein bisschen unrealistisch oder nicht?

Die gelbe Eule
2007-05-14, 09:28:28
Naj, man hat ja selber die GTS als Konkurrenz definiert. Jetzt muss AMD/ATI nur hoffen, dass NV nicht so fies ist und die UVPs ändert.

Sagen wir :

UVP 270 € für die GTS 320
UVP 320 € für die GTS 640
UVP 400 € für die GTX

Dann hätte man ein gewaltiges Problem.

Das wäre sogar das Beste was sie machen könnten und zwar den Launch des R600 kräftig versauen. Gerade wo AMD neue Schuldverschreibungen
gemacht hat, könnte man hier die Margen deutlich für ATi drücken.

Noebbie
2007-05-14, 09:34:52
Das wäre sogar das Beste was sie machen könnten und zwar den Launch des R600 kräftig versauen. Gerade wo AMD neue Schuldverschreibungen
gemacht hat, könnte man hier die Margen deutlich für ATi drücken.

Kurzfristig für den Käufer genial, Langfristig eher schädlich für den Geldbeutel.

Die gelbe Eule
2007-05-14, 09:34:57
Von der Rohleistung her liegt die 2900xt ja schon vorn bzw. gleichauf, durch Treiberoptimierung kann man da doch sicherlich noch ein paar Prozent rausholen und somit wäre die 2900xt vorne, was allerdings mit dem AA los is weiß wohl keiner so genau, denke nicht das das wirklich Hardwarebedingt ist... da ist ja eine 1950xtx in manchen Tests deutlich schneller... ein bisschen unrealistisch oder nicht?

Die Rohleistung selbst bei einer HighEndKarte, also ohne Qualitätseinstellungen, sind völlig uninteressant. Niemand würde diese Karte so einsetzen. AAx4 und AFx16 unter 1280x1024 sollten mittlerweile Standard sein. Der Käufer sieht jetzt das die Karte nicht besser als die Konkurrenz ist, bei einem höheren Preis, er wird also kaum darauf warten das sie besser wird.
Gerade wer eine X1950XTX besitzt, der wird genau auf diese Verbesserung warten müssen, schließlich ist diese ja auch nicht so alt und man müsste deutlich draufzahlen.

Gast
2007-05-14, 09:35:29
Und zum Thema Vertexpower: ATi hat damit ja schon immer ziemlich geklotzt, nur tatsächlich richtig gewichtig schien es mir bisher nicht - oder gibt es tatsächlich Apps, die deswegen auf nV nicht so gut laufen?



Shivering Isles (Add-On zu Oblivion). Das erzeugt eune gewaltige Geometrielast und da performen ATI Karten wesentlich besser. So liegt eine X1900GT gut 20% vor einer 7900GTX.

Snoopy69
2007-05-14, 09:36:41
Bin sehr enttäuscht, was ATI/AMD da abgeliefert hat. Dafür haben viele solange gewartet - nur das. Ich denke ATI ist so gut wie tot... ;(

Die gelbe Eule
2007-05-14, 09:38:41
Shivering Isles (Add-On zu Oblivion). Das erzeugt eune gewaltige Geometrielast und da performen ATI Karten wesentlich besser. So liegt eine X1900GT gut 20% vor einer 7900GTX.

Sowas als Killerapp zum Kaufargument umfunktionieren zu wollen ist reichlich sinnfrei. Ich habe zum Beispiel nie Oblivion gespielt, wo wäre als für mich als Interessierter das Kaufargument? Vielleicht gibt es ja in Zukunft Spiele, welche nicht so GS geil sind, mir aber trotzdem mehr Spaß machen mit einem G80. Man wird auch gespannt beobachten wollen, ob die "deaktivierte" MUL bei der G80 noch aktiviert wird, weil nötig haben sie es im Moment leider nicht.

Gast
2007-05-14, 09:39:29
Shivering Isles (Add-On zu Oblivion). Das erzeugt eune gewaltige Geometrielast und da performen ATI Karten wesentlich besser. So liegt eine X1900GT gut 20% vor einer 7900GTX.

Das liegt aber eher am HSR, Vertexpower hat eine X1900GT jedenfalls nicht mehr als eine 7900GTX. ;)

Godmode
2007-05-14, 09:41:49
Man wird auch gespannt beobachten wollen, ob die "deaktivierte" MUL bei der G80 noch aktiviert wird, weil nötig haben sie es im Moment leider nicht.

Wo warst du den? ;D Die MUL läuft jetzt seit dem 150er Treiber IIRC.

Snoopy69
2007-05-14, 09:41:52
Das wäre sogar das Beste was sie machen könnten und zwar den Launch des R600 kräftig versauen. Gerade wo AMD neue Schuldverschreibungen
gemacht hat, könnte man hier die Margen deutlich für ATi drücken.
oder aber auch das Gegenteil - die Preise lassen bzw. noch erhöhen?
Wer will denn so einen ATI-Schrott - viele greifen dann zu NV.

Hohe Nachfrage = hohe Preise

Gast
2007-05-14, 09:42:04
Das wäre sogar das Beste was sie machen könnten und zwar den Launch des R600 kräftig versauen. Gerade wo AMD neue Schuldverschreibungen
gemacht hat, könnte man hier die Margen deutlich für ATi drücken.


Mal etwas grundsätzliches:
das Ziel aller Firmen ist, es den eigenen Gewinn zu maximieren und nicht, den des Konkurrenten zu minimieren indem man den eigenen Gewinn minimiert.

Nvidia wird also schön warten wio sich die ATI Preise einpendeln und seine Produkte dann zu einem entsprechend höheren Preis verkaufen (sofern nicht noch ein ATI Wiundertreiner erscheint, der die Leistunsgverhältnisse umdreht).

AnarchX
2007-05-14, 09:42:37
Man wird auch gespannt beobachten wollen, ob die "deaktivierte" MUL bei der G80 noch aktiviert wird, weil nötig haben sie es im Moment leider nicht.

Immernoch nicht mitbekommen, dass die schon seit einige Monaten läuft? ;)
15-30% macht sie aus, aber man muss sehen, dass die MUL auch andere Aufgaben übernimmt, die beim R600 auch von einigen Einheiten erledigt werden müssen, sprich von den 474GFLOPs abgezogen werden müssen.

seahawk
2007-05-14, 09:47:53
Von der Rohleistung her liegt die 2900xt ja schon vorn bzw. gleichauf, durch Treiberoptimierung kann man da doch sicherlich noch ein paar Prozent rausholen und somit wäre die 2900xt vorne, was allerdings mit dem AA los is weiß wohl keiner so genau, denke nicht das das wirklich Hardwarebedingt ist... da ist ja eine 1950xtx in manchen Tests deutlich schneller... ein bisschen unrealistisch oder nicht?

Aber selbst wenn ATI in, sagen wir 3-4 Monaten, die Performance hinkriegt und an die GTX heran kommen sollte, dann gibt es dann schon die 2950, die evtl. weniger Bugs hat, weniger Strom verbraucht und evtl. leiser ist. Selbst mir fällt kein guter Grund ein jetzt ne 2900XT zu kaufen, die evtl. von einer X2950PRO geschlagen wird.

Andererseits zeigt jeder NV Treiberrelease, dass noch Leistung in G80 schlummert.

Mal etwas : OT

Wenn die X2600 sic hähnlich verhält wie die X2900, dann dürfte es schwer werden gegen die 8600, gerade mit MSAA.

AnarchX
2007-05-14, 09:49:49
Wenn die X2600 sic hähnlich verhält wie die X2900, dann dürfte es schwer werden gegen die 8600, gerade mit MSAA.

Nicht unbedingt. ;)
Momentan kranken die GF8-Karten mit wenig Speicher noch an dem Problem, dass sie teilweise stark einbrechen, da die Speicherverwaltung noch irgendein massives Problem hat und nicht mehr benötigte Daten nicht aus dem VRAM wirft.

Sternenkind
2007-05-14, 09:53:05
Schon ein wenig enttäuschend das ganze. Warum die HD 2900XT bei Zuschaltung AA/AF so einbricht ist für mich vollkommen unklar. Zumal das eigentlichen immer ATIs Stärke war gegenüber nVidia und jetzt kann man sich teilweise kaum vom Vorgängermodell absetzen. Bleibt zu hoffen, dass ATI mit neuen Treibern hier wirklich noch etwas heraus holen kann. In diesem Falle wäre die Karte sehr verlockend aber in dem jetzigen Zustand eher weniger.

drum02
2007-05-14, 09:54:28
Hab es mal in den zugehörigen Thread eingefügt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5491048#post5491048
;)

edit: Hast es schon gesehen.


Danke ....ATI für diesen RASENMÄHER (unter vollast 54 dB(A))...wollten die nicht ne Grafikkarte herstellen?
und 215 watt Leistungsaufnahme( HD 2900 XT mit 285 Watt )....naja wie gesagt für einen ELEKTRORASENMÄHER ganz gut. :)

Grumbart
2007-05-14, 09:56:48
Ein weiteres Review noch:
c't 11/07 Seite 18 (Heftausgabe)

LovesuckZ
2007-05-14, 09:58:43
Die Videobeschleunigung scheint zu funktionieren. jedoch beschwert sich Drvierheaven (http://www.driverheaven.net/reviews/r600reviewz/video.php), dass der Lüfter bei der Wiedergabe deutlich hörbar und somit ist die Standardausführung des Kühler für sie nicht empfehlenswert!

Die gelbe Eule
2007-05-14, 10:00:08
Immernoch nicht mitbekommen, dass die schon seit einige Monaten läuft? ;)
15-30% macht sie aus, aber man muss sehen, dass die MUL auch andere Aufgaben übernimmt, die beim R600 auch von einigen Einheiten erledigt werden müssen, sprich von den 474GFLOPs abgezogen werden müssen.

Seit Monaten? Meine Karte habe ich erst seit gut 3 Monaten und da war noch lange keine Rede von, geschweige denn ein 150er verfügbar.

AnarchX
2007-05-14, 10:05:42
Seit Monaten? Meine Karte habe ich erst seit gut 3 Monaten und da war noch lange keine Rede von, geschweige denn ein 150er verfügbar.

Monate war vielleicht etwas übertrieben, aber seit dem 101.41 wird das MUL für General Shading verwendet:
http://www.beyond3d.com/content/reviews/7/17
... und den gibt es doch schon länger. ;)

Mr. Lolman
2007-05-14, 10:05:47
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert

nVidia G80 3DMark06 - 16xHQAF: http://www.computerbase.de/bild/article/648/123/
ATi R600 3DMark05 - 16xHQAF: http://www.computerbase.de/bild/article/648/117/

Bei der höchsten AF-Stufe ist das Bild auf einem R600 wieder minimal besser als auf dem R5x0, gerade groß fällt die Differenz aber nicht aus, wobei wir hier in Spielen ein etwas besseres Ergebnis erwarten. Eine sichtbare Differenz gibt es beim Vergleich gegen den G80. Während die Glättung in den letzten Texture Stages diesmal ziemlich gleichwertig ist, erkennt man beim G80 sofort die bessere Winkelunabhängigkeit. Da der erzeugte Tunnel im 3DMark ein Worst-Case-Szenario bezüglich der Winkelunabhängigkeit ist, deckt der nVidia G80 gnadenlos die Schwächen von ATis R600-GPU in dieser Disziplin auf. Schaltet man den G80 auf „High Quality“, sprich man deaktiviert alle „Optimierungen“ des anisotropen Filters und tut dies ebenfalls bei ATis R600, so erkennt man sofort, dass bei der nVidia-Karte nun kein bilinearer, sondern ein trilinearer Filter genutzt wird.


Meine Frage: Was sehen die da schon wieder? IMO ist das ATi Bild eindeutig schöner- weniger grisselig in der Entfernung (Mitte), merkbar schärfer in der Nähe (links obere Eck)


Hab ich irgendwas übersehen, oder schreibt CB wiedermal Mist? :mad: :mad:

[dzp]Viper
2007-05-14, 10:12:03
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert

nVidia G80 3DMark06 - 16xHQAF: http://www.computerbase.de/bild/article/648/123/
ATi R600 3DMark05 - 16xHQAF: http://www.computerbase.de/bild/article/648/117/



Meine Frage: Was sehen die da schon wieder? IMO ist das ATi Bild eindeutig schöner- weniger grisselig in der Entfernung (Mitte), merkbar schärfer in der Nähe (links obere Eck)


Hab ich irgendwas übersehen, oder schreibt CB wiedermal Mist? :mad: :mad:

Hm da hast du eindeutig Recht! :eek:

Spasstiger
2007-05-14, 10:12:58
ACK. Wie schon vermutet sieht der "edge detect"-Filter sehr gut aus, da er keine Texturen verblurrt, sondern nur bei Kanten und hochfrequenten Texturen greift.
Edge Detection greift gar nicht bei Texturen, wie ich jetzt gelesen habe.
Nach meinem Verständnis von digitaler Signalverarbeitung müsse man, um Edge Detection aufs fertige Bild anzuwenden, eine Transformation in den Frequenzbereich vornehmenm, dort die hochfrequenten Anteile ausschneiden und wieder rücktransformieren.
Das Edge-Detection-Verfahren beim CFAA funktioniert aber einfacher und ohne das ganze Bild anzugreifen. Es werden einfach nur die Multisample-Buffers überprüft, ob diese unterschiedlich farbige Samples enthalten. Wenn ja, dann liegt ein Kantenpixel vor und es werden in die Berechnung des endgültigen Pixels die Randsamples der benachbarten Pixel einbezogen (was bei wide tent und narrow tent bei jedem Pixel gemacht wird, egal ob Kantenpixel oder Flächenpixel). Deshalb kommt es bei edge detection nicht zu einem Verwaschen der Texturen innerhalb von Polygonflächen.

Die ganzen Filter narrow tent, wide tent und edge detection können übrigens nur bei aktivem MSAA funktionieren, sie sind also nicht bei Spielen wie Stalker anwendbar, die prinzipbedingt kein MSAA unterstützen.
Denn die Filter sind auf die MSAA-Samples angewiesen, weil sie beim Downsampling greifen. Man kann diese Filter auch nicht mit den Smartshadern nachbilden, welche afaik nur aufs fertige Bild wirken.

Also ich glaube, dass zumindest der edge-detection-Filter eine sinnvolle Erweiterung des MSAA-Verfahrens ist.
Die anderen beiden Filtermodi mögen vielleicht noch bei Wiedergabe an einem TFT-Fernseher in nicht-nativer Auflösung sinnvoll sein, um Flimmercontent zu unterdrücken. Dann fällt die Unschärfe auch nicht weiter auf.

[dzp]Viper
2007-05-14, 10:20:03
www.hartware.net Review is online

Gast
2007-05-14, 10:21:46
Meine Frage: Was sehen die da schon wieder? IMO ist das ATi Bild eindeutig schöner- weniger grisselig in der Entfernung (Mitte), merkbar schärfer in der Nähe (links obere Eck)


Hab ich irgendwas übersehen, oder schreibt CB wiedermal Mist? :mad: :mad:

Die Wahrheit dahinter:

Auf ganzer Linie zurückstecken muss ATi bei der anisotropen Filterung, die auf der GeForce 8800 tadellos arbeitet. Bei maximalen Treibereinstellungen flimmert das Bild auf dem R600 immer noch vor sich her, wenn auch nicht mehr ganz so extrem wie auf der Radeon X1950 XTX. Die Bildruhe einer GeForce 8800 erreicht man aber nicht annähernd. Darüber hinaus kann die nVidia-Karte mit einer besseren Präzision und einer leicht besseren Winkelunabhängigkeit punkten, wobei man letzteres aber nur in seltenen Fällen wird erkennen können.

Undertaker
2007-05-14, 10:22:26
Viper;5491843']Hm da hast du eindeutig Recht! :eek:


hmm, also ich muss sagen, im nahbereich sieht der r600 imho minimal schärfer aus, bei größerer entfernung der g80 - aber die unterschiede ind minimalst, soetwas würde meine kaufentscheidung in keinster weise beeinflussen... am schwersten wiegt für mich atm der stromverbrauch, ~70w mehr als eine gts unter last sind einfach zuviel... die leistung sollte nach einigen treibern aber problemlos auf gtx niveau liegen, da habe ich weniger bedenken

DaEmpty
2007-05-14, 10:24:15
Also zusammenfassend:
Die Shaderperformance liegt knapp unterhalb der GTX.
Die Texturfüllrate liegt wesentlich unterhalb jeder 8800.
Die Karte bricht (aus unerklärlichen Gründen?) mit MSAA total ein.
Der Stromverbrauch ist unter Last 60W höher als bei der GTX und auch im Idle liegt man rund 15W vorne.
Daneben hat man scheinbar noch die D3D10 Spec verpeilt und eine unnötige Tesselationunit verbaut, die nach der Beschreibung von B3D imo relativ teuer ist.
Hoffen wir das AMD das MSAA Problem mit neuen Treibern noch in der Griff kriegt. Aber laut AMD ist ja nur die Leistung mit TSAA durch einen Bug reduziert. Also ist auch hier das schlimmste anzunehmen.

Dazu kommen laut Testberichten etliche Treiberbugs bis hin zum Bluescreen.
Hätte AMD mit dem Kauf von ATI noch ein halbes Jahr gewartet, hätten sie wohl Geld sparen können. ;)

CEO
2007-05-14, 10:24:49
WTF? Kann mir jemand sagen wie hoch der T-Count beim 8800GTX ist? Bei ATI's 2900XT liegt der bei 700 Millionen? Das kann doch nicht sein oder? Ich meine 700 Millionen? WTF? SRLSY?

Die gelbe Eule
2007-05-14, 10:25:08
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert

nVidia G80 3DMark06 - 16xHQAF: http://www.computerbase.de/bild/article/648/123/
ATi R600 3DMark05 - 16xHQAF: http://www.computerbase.de/bild/article/648/117/



Meine Frage: Was sehen die da schon wieder? IMO ist das ATi Bild eindeutig schöner- weniger grisselig in der Entfernung (Mitte), merkbar schärfer in der Nähe (links obere Eck)


Hab ich irgendwas übersehen, oder schreibt CB wiedermal Mist? :mad: :mad:

In Bewegung ist es garantiert nicht flimmerfrei. Man sieht deutlich das der G80 Shot stimmiger und sowieso das AF überlegen in der Tiefe ist. Vergleiche mal die Stufenbildung ab Ring 5, da sieht man es sehr deutlich.
Trotzdem wird es dem "normalo" kaum auffallen, weil marginal.
Nur so nebenbei, warum gleiche Shots auf zwei verschiedenen 3DMarks?

r3ptil3
2007-05-14, 10:25:22
Mir kommts ja echt vor als ob der einzige Performance-Unterschied zwischen R580 und R600, nur alleine durch den höheren Chiptakt des R600 kommt, aber das kann es ja nicht sein.

In höheren Auflösung (+AA/AF) bricht die HD 2900 XT derbe ein.

Undertaker
2007-05-14, 10:25:31
8800GTX 681 Millionen

btw, 2D Stromverbrauch:

http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page22.html

da sieht er sehr gut aus, auf 8800GTS Niveau

Mr. Lolman
2007-05-14, 10:27:54
Die Wahrheit dahinter:

Auf ganzer Linie zurückstecken muss ATi bei der anisotropen Filterung, die auf der GeForce 8800 tadellos arbeitet. Bei maximalen Treibereinstellungen flimmert das Bild auf dem R600 immer noch vor sich her, wenn auch nicht mehr ganz so extrem wie auf der Radeon X1950 XTX. Die Bildruhe einer GeForce 8800 erreicht man aber nicht annähernd. Darüber hinaus kann die nVidia-Karte mit einer besseren Präzision und einer leicht besseren Winkelunabhängigkeit punkten, wobei man letzteres aber nur in seltenen Fällen wird erkennen können.

Da frag ich mich, wie das Grisseln am G80 Shot ein ruhiges Bild erzeugen will. Und dass der R600 in Bewegung plötzlich soviel mieser als am Screenshot sein soll, kann ich mir im Moment schwer vorstellen.

In Bewegung ist es garantiert nicht flimmerfrei. Man sieht deutlich das der G80 Shot stimmiger und sowieso das AF überlegen in der Tiefe ist. Vergleiche mal die Stufenbildung ab Ring 5, da sieht man es sehr deutlich.
Trotzdem wird es dem "normalo" kaum auffallen, weil marginal.
Nur so nebenbei, warum gleiche Shots auf zwei verschiedenen 3DMarks?

Überlegen, weil grisseliger? Na ich weiss nicht... :|

[dzp]Viper
2007-05-14, 10:29:11
Das mit dem Stromverbrauch schwankt aber auch von Test zu Test ziemlich stark.

http://www.hartware.de/review_707_11.html

Ist die 2900XT unter Last nur minimal vor einer 8800GTX und beim Idle klar unter einer 8800GTX...

Mr. Lolman
2007-05-14, 10:30:53
Schon die geile R600-TDU Performance gesehen? :eek:
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index16.php

Spasstiger
2007-05-14, 10:32:32
Zum Stromverbrauch lässt sich auf jeden Fall sagen, dass beim R600 die Differenz zwischen idle-Verbrauch und Last-Verbrauch wesentlich größer ist als beim G80. D.h. die Stromsparmechanismen für den idle-Betrieb greifen beim R600 deutlich besser.
Insgesamt frisst der R600 natürlich mehr.

Schon die geile R600-TDU Performance gesehen? :eek:
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index16.php
Jopp, wurde hier schon diskutiert. Man sieht hier auch gut, dass der edge-detection-Filter recht teuer ist. Vor allem im Vergleich zu CSAA, wo zumindest die Coverage mit einer höheren Frequenz abgetastet wird (dafür bewirkt CSAA bei Stencil Shadows im Gegensatz zu CFAA gar nix über den MSAA-Grad hinaus).

BlackBirdSR
2007-05-14, 10:33:33
Schon die geile R600-TDU Performance gesehen? :eek:


Ist das nicht auch eines der Spiele, die gleichzeitig für XBox360 entwickelt wurden?

[dzp]Viper
2007-05-14, 10:33:36
Zum Stromverbrauch lässt sich auf jeden Fall sagen, dass beim R600 die Differenz zwischen idle-Verbrauch und Last-Verbrauch wesentlich größer ist als beim G80. D.h. die Stromsparmechanismen für den idle-Betrieb greifen beim R600 deutlich besser.
Insgesamt frisst der R600 natürlich mehr.

Naja hier muss man sich wieder fragen - verbringt eine Grafikkarte mehr Zeit unter Last oder im Idle-Betrieb? ;)

Undertaker
2007-05-14, 10:33:54
selbst das ist teilweise kaum der fall! http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546&seite=5

nur 7w mehr als eine gtx??

[dzp]Viper
2007-05-14, 10:34:17
Ist das nicht auch eines der Spiele, die gleichzeitig für XBox360 entwickelt wurden?

Ja aber NFS Carbon performt z.b. nicht besser als eine 8800GTX und Carbon gibts auch für X360

AnarchX
2007-05-14, 10:34:59
Schon die geile R600-TDU Performance gesehen? :eek:
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index16.php

Stellt sich die Frage ob hier auch wirklich 8xMSAA bei der 2900XT aktiv war.;)
Ich will ja nicht sagen dass sie hier nicht schneller ist, aber das ist doch etwas zu extrem im Vergleich zu den anderen Werten.

Mark3Dfx
2007-05-14, 10:36:27
Tjo, ich fasse für mich zusammen

- zu laut
- viel zu hoher Stromverbrauch
- teuer als eine GTS 640
- BQ teils schlechter als beim G80
- alpha Treiber

= 8800GTS 640 ich komme

Mr. Lolman
2007-05-14, 10:36:57
Stellt sich die Frage ob hier auch wirklich 8xMSAA bei der 2900XT aktiv war.;)

Es stellt sich ja auch niemand die Frage ob bei NV alles mit rechten Dingen zugeht, wenn deren G80 mal deutlich vorne liegt.


Jopp, wurde hier schon diskutiert. Man sieht hier auch gut, dass der edge-detection-Filter recht teuer ist. Vor allem im Vergleich zu CSAA, wo zumindest die Coverage mit einer höheren Frequenz abgetastet wird.

Hoppla. Hab ich übersehen... (wo eigentlich?)

Gast
2007-05-14, 10:38:36
Da frag ich mich, wie das Grisseln am G80 Shot ein ruhiges Bild erzeugen will. Und dass der R600 in Bewegung plötzlich soviel mieser als am Screenshot sein soll, kann ich mir im Moment schwer vorstellen.




Hast du villeicht die Bilder verwechselt? Der ATI Scerenshot ist doch wesentlich grisseliger als der G80 Screenshot.

Raff
2007-05-14, 10:38:50
Hoppla. Hab ich übersehen... (wo eigentlich?)

Etwa 100 Postings weiter hinten: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5491583#post5491583. Das Threadwachstum ist unglaublich. Wie bei jedem Launch.

MfG,
Raff

Die gelbe Eule
2007-05-14, 10:39:15
Genau, wenn nämlich ATi selbst berichtet, daß AA genrell noch Probleme hat, dann kann es nicht woanders auf einmal besser sein.
Und zum AF:
Es unterscheidet sich kaum zum R580, warum soll es nun auf einmal besser sein als das der G80, wenn es doch das non plus ultra im VGA Sektor darstellt?
Es gibt bisher mehr Minuspunkte als Pluspunkte. Man erwartete etwas besseres, nicht etwas gleichwertiges oder sogar schlechteres. Genau das hat ATi verpasst.

Odal
2007-05-14, 10:42:09
naja man kann sich immer einzelne tests herauspicken ^^

das die XT mit einer GTX nicht mithalten wird wusste man vorher..nun wirds der preis regeln...AMD/ATIs untergang ist es sicher nicht, ich kann mir da sogar vorstellen das viele OEMs die kleinen Karten verwenden da sie sehr gute videobeschleunigung und vorallem 7.1 sound bieten....

für den gamer ist die XT natürlich nur zum preis einer 8800gts interessant...
was da treibermäßig noch gedreht werden kann lässt sich nur abschätzen....der hohe einbruch bei AA ist jedenfalls eher ein bug als ein feature....x1900/1950 nutzer haben derzeit noch keinen richtigen grund zu einer R600 überzuwechseln (so seh ich das zumindest)

die 8800er finde ich derzeit interessanter als die R600 nur leider noch alles zu teuer für den preisbewußten gamer

Undertaker
2007-05-14, 10:42:40
ist es möglich, dass evntl verschiedene testmuster im umlauf sind? anders sind die gigantischen verbrauchsunterschiede doch kaum erklärbar...

Raff
2007-05-14, 10:42:42
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert

nVidia G80 3DMark06 - 16xHQAF: http://www.computerbase.de/bild/article/648/123/
ATi R600 3DMark05 - 16xHQAF: http://www.computerbase.de/bild/article/648/117/



Meine Frage: Was sehen die da schon wieder? IMO ist das ATi Bild eindeutig schöner- weniger grisselig in der Entfernung (Mitte), merkbar schärfer in der Nähe (links obere Eck)


Hab ich irgendwas übersehen, oder schreibt CB wiedermal Mist? :mad: :mad:

Da muss ich zustimmen. Wobei ich das gerne noch in Bewegung und zusätzlich mit A.I. Off sehen würde.

MfG,
Raff

Mr. Lolman
2007-05-14, 10:42:54
Hast du villeicht die Bilder verwechselt? Der ATI Scerenshot ist doch wesentlich grisseliger als der G80 Screenshot.

Ich sehe links oben mehr Texturdetails und in der Mitte eine ruhigere Darstellung in Form von weniger Pixelrauschen...

Etwa 100 Postings weiter hinten: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5491583#post5491583.

Thx :up:


Das Threadwachstum ist unglaublich. Wie bei jedem Launch.

MfG,
Raff

Absolut. Ich hab den Thread erst heute 'früh', ~15min vor meinem ersten Posting entdeckt :tongue:

Gast
2007-05-14, 10:43:43
Tjo, ich fasse für mich zusammen

- zu laut
- viel zu hoher Stromverbrauch
- teuer als eine GTS 640
- BQ teils schlechter als beim G80
- alpha Treiber

= 8800GTS 640 ich komme

Da halt ich mal dagegen:

-Stromverbrauch nicht annähernd so hoch wie in diesem ATI-Bash-Forum bisher behauptet
-Bis zu 8xAA 16xAF kein offensichtlicher Qualitätsunterschied zum G80
-mit Alpha Treibern teilweise extreme Leistungsschwankungen, was aber auch auf ein großes Potential hinweist

AnarchX
2007-05-14, 10:49:51
ist es möglich, dass evntl verschiedene testmuster im umlauf sind? anders sind die gigantischen verbrauchsunterschiede doch kaum erklärbar...

Oder einige Test schaffen es nicht die Karte richtig auszulasten. ;)

LovesuckZ
2007-05-14, 10:50:43
Es gibt weitere D3D10 Tests - auch mit Verwendung von Geometrie-Shader und dem neuen Vista Treiber 151.42:
http://media.bestofmicro.com/4/Y/15730/original/092.gif
Das ist noch der beste Vergleich für die 2900XT unter Verwendung von GS.

maschinelle Übersetzung von presence-pc (http://translate.google.com/translate?u=http%3A%2F%2Fwww.presence-pc.com%2Ftests%2FAMD-Radeon-2900-XT-22674%2F23%2F&langpair=fr%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

Gast
2007-05-14, 10:51:06
Da muss ich zustimmen. Wobei ich das gerne noch in Bewegung und zusätzlich mit A.I. Off sehen würde.

MfG,
Raff

Oh Leute, habt ihr immer noch nicht gelernt zwischen scharfen und überscharfen (=flimmernden) Texturen zu unterscheiden? Schau nochmal genau hin, insbesondere auf die Kreisbögen etwa 1cm oberhalb des Fluchtpunkts im unendlichen.

Raff
2007-05-14, 10:54:21
Oh Leute, habt ihr immer noch nicht gelernt zwischen scharfen und überscharfen (=flimmernden) Texturen zu unterscheiden? Schau nochmal genau hin, insbesondere auf die Kreisbögen etwa 1cm oberhalb des Fluchtpunkts im unendlichen.

Bitte auch die zweite Hälfte meines Postings beachten, die du auch gequotet hast. Bewegung gibt Klarheit.

MfG,
Raff

deekey777
2007-05-14, 10:54:37
http://www.beyond3d.com/content/reviews/16/2
Schaut mal auf das Bild des R600: Rev. A13. Welche Revision hatten andere Tester? A15?

James Ryan
2007-05-14, 10:54:49
Mr. Lolman, kannst du mir mal bitte verständlich erklären, wie es möglich sein soll, dass der R600 mit AF ein besseres Bild als der G80 bringt, obwohl dies sogar in der Theorie unmöglich sein kann?
Schaue dir mal allein diese AF-Quadrat-Blume an (das soll eigentlich ein Kreis sein!) und vergleiche diese mit der G80 AF-Blume!
Manche sehen echt nur das was sie sehen wollen!

MfG :cool:

http://www.beyond3d.com/content/reviews/16/2
Schaut mal auf das Bild des R600: Rev. A13. Welche Revision hatten andere Tester? A15?

Nein, A13 ist die Verkaufsversion.

MfG :cool:

Undertaker
2007-05-14, 10:55:20
Oder einige Test schaffen es nicht die Karte richtig auszulasten. ;)

die unterschiede liegen z.t. im bereich von 50w oder mehr... täte mich sehr wundern wenn sich das allei damit begründen ließe...

Armaq
2007-05-14, 10:55:57
Es gibt weitere D3D10 Tests - auch mit Verwendung von Geometrie-Shader und dem neuen Vista Treiber 151.42:
http://media.bestofmicro.com/4/Y/15730/original/092.gif
Das ist noch der beste Vergleich für die 2900XT unter Verwendung von GS.

maschinelle Übersetzung von presence-pc (http://translate.google.com/translate?u=http%3A%2F%2Fwww.presence-pc.com%2Ftests%2FAMD-Radeon-2900-XT-22674%2F23%2F&langpair=fr%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

Tja, wenn das echt nur ein Treiberproblem war wissen wir: ATI hats einfach nicht gepackt. G80 ist zu mächtig.

Schon alleine die erwähnte Geräuschkulisse ist lächerlich. Nichts was man nicht unbedingt hätte ändern müssen. Die Runde geht eindeutig an Nvidia.

AnarchX
2007-05-14, 10:58:32
die unterschiede liegen z.t. im bereich von 50w oder mehr... täte mich sehr wundern wenn sich das allei damit begründen ließe...

Wie ich schon früher erwähnte, 8+6Pin sind wohl nicht aus Spass auf der Karte verbaut und werden dann noch empfohlen. Zudem steht auch auf der Verpackung etwas von einer Leistungsaufnahme bis zu 225W.

Aber am besten sollte man wohl auf xbitlabs warten, die wieder nur die Karten messen. ;)

LovesuckZ
2007-05-14, 10:59:23
Tja, wenn das echt nur ein Treiberproblem war wissen wir: ATI hats einfach nicht gepackt. G80 ist zu mächtig.


Durch Vista ist die Problematik entstanden, dass an drei Fronten gearbeitet werden musst - Stabilität, Leistung und D3D10.
Daher sind auch jetzige Vergleiche eigentlich sinnlos, da sich das Bild wieder wenden kann. Fakt ist aber erstmal, dass die Leistung unter D3D10 nicht so schlecht ist wie es noch vor ein paar Tagen aussah.
Interessant ist auch, dass die 8800GTX bis jetzt eine deutlich bessere Leistung beim Einsatz von dynamischen Verzweigungen hat - siehe Shadermark Ergebnisse. Mal sehen, was Hardware.fr als Ergebnis in diesen Bereich ermittelt.

Mr. Lolman
2007-05-14, 11:00:46
Oh Leute, habt ihr immer noch nicht gelernt zwischen scharfen und überscharfen (=flimmernden) Texturen zu unterscheiden? Schau nochmal genau hin, insbesondere auf die Kreisbögen etwa 1cm oberhalb des Fluchtpunkts im unendlichen.

Hä. Was meinst du? Das seh ich nur weniger Grisseln am ATi Shot. Beim NV-Shot seh ich dafür fehlendes Bumpmapping. Der Holzscheit ganz oben in der Mitte hat am G80-Bild fast keine Struktur...

Gast
2007-05-14, 11:04:00
Mr. Lolman, kannst du mir mal bitte verständlich erklären, wie es möglich sein soll, dass der R600 mit AF ein besseres Bild als der G80 bringt, obwohl dies sogar in der Theorie unmöglich sein kann?
Schaue dir mal allein diese AF-Quadrat-Blume an (das soll eigentlich ein Kreis sein!) und vergleiche diese mit der G80 AF-Blume!
Manche sehen echt nur das was sie sehen wollen!

MfG :cool:



Nein, A13 ist die Verkaufsversion.

MfG :cool:

Merkst Du eigentlich nicht, dass kein Mensch auf deine "leicht" mit Flame angehauchten Postings eingeht?
Wir haben verstanden, dass Du die R600 Serie nicht magst und sind zutiefst traurig darüber. Es fällt uns schwer, ohne deine Weisheiten auszukommen, aber im weiteren Fortbestand dieses Threads würden wir es gerne probieren.

Gast
2007-05-14, 11:05:47
Hä. Was meinst du? Das seh ich nur weniger Grisseln am ATi Shot. Beim NV-Shot seh ich dafür fehlendes Bumpmapping. Der Holzscheit ganz oben in der Mitte hat am G80-Bild fast keine Struktur...

Was ist Grisseln? Oder meinst Du etwa grieseln?

Spasstiger
2007-05-14, 11:07:37
Bezüglich des edge detection Filters finde ich widersprüchliche Aussagen.

Im 3DCenter-Review steht mehr oder weniger, dass einfach in den Multisample-Buffers geschaut wird, ob ein Pixel unterschiedlich farbige Samples enthält, also ob es ein Polygonkantenpixel oder ein Polygonflächenpixel ist:

Edge Detection hingegen wendet das Blur gezielt da ein, wo es sinnvoll ist. Dazu wird das Bild nachträglich nach Polygonkanten abgesucht. Das geschieht in dem man sich die Eigenheit des Multi-Sampling Verfahrens zunutze mach. Pixel für Pixel werden über die ROPs in die Shader eingelesen. Diese vergleichen die Farbinformation der Subpixel. Ist die Subpixelfarbe der Samples pro Pixel gleich, so handelt es sich nicht um eine Polygonkante. CFAA wird nicht angewendet. Unterscheiden sich die Farbwerte hingegen, so wird CFAA angewandt.
Quelle: http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index2.php
Somit werden Texturen innerhalb von Flächen natürlich nicht behandelt.

Bei Computerbase dagegen steht, das ein Pixelshader nach Kontraständerungen im Bild suche, um darüber zu entscheiden, ob ein Kantenpixel vorliegt oder nicht. Somit könne auch Texturflimmern behandelt werden:

Das 24xCFAA sowie ein zweiter 12xCFAA-Modus nutzt, wie oben bereits erwähnt, einen so genannten „Edge Detect Filter“, der im ersten Schritt das macht, was der Name sagt: Er sucht nach Ecken in einem Bild, indem der Pixelshader deutliche Kontraständerungen untersucht. An den Eckpixeln werden dann mehr Samples mit einem hochwertigen Filter verwendet, wobei die anderen Pixel weniger gewichtet werden und in diesem Fall nur der normale „Box Filter“ zum Einsatz kommt. Dies soll den eigenen Angaben zu Folge darüber hinaus Texturflimmern bekämpfen und jegliche Unschärfe verhindern
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/6/#abschnitt_aa_kontrolliert

Was stimmt den nun?

/EDIT: Hat sich geklärt, natürlich ist die 3DC-Erklärung korrekt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5492074&postcount=30.

blackbox
2007-05-14, 11:08:12
Ehrlich gesagt, ich weiß gar nicht, was ihr habt.

Die Leistung lässt sich zwischen GTS und GTX einordnen. Bitte nicht vergessen, es ist eine XT und keine XTX, die wohl bald folgen wird.

Auch der Preis ist zwischen GTS und GTX angesiedelt, somit stimmt das Verhältnis.

Der Stromverbrauch ist für eine Highendkarte irrelevant.

Die Details, was AF oder AA angehen, interessiert die meisten Käufer gar nicht. Die sind hier eh so gering, dass selbst ich Schwierigkeiten habe, bei den einzelnen Bildern auf 3dc Unterschiede zu sehen.

Insofern zu sagen, die XT sei eine Enttäuschung, ist nur der übergroßen Erwartungshaltung geschuldet.

Eines kann man der Karte vorwerfen, sie kommt ein paar Monate zu spät.

Spasstiger
2007-05-14, 11:10:51
Die Details, was AF oder AA angehen, interessiert die meisten Käufer gar nicht.
Mich als angehenden Ingenieur interessieren sie aber.
Bezüglich der Performance kann ich aber auch nur sagen: Holt euch für 309€ eine 8800 GTS 640 MB und ihr werdet es nicht bereuen. ;)

deekey777
2007-05-14, 11:12:11
Nein, A13 ist die Verkaufsversion.

MfG :cool:
Du weißt es also nicht und kannst meine Frage nicht beantworten.

James Ryan
2007-05-14, 11:13:56
Ehrlich gesagt, ich weiß gar nicht, was ihr habt.

Die Leistung lässt sich zwischen GTS und GTX einordnen. Bitte nicht vergessen, es ist eine XT und keine XTX, die wohl bald folgen wird.

Die XTX ist nichtmal angekündigt, kommt eher so im Herbst.

Auch der Preis ist zwischen GTS und GTX angesiedelt, somit stimmt das Verhältnis.

Naja, 60€ mehr als eine GTS und ein paar Promille mehr Perfomance ist nicht gerade so prall.

Der Stromverbrauch ist für eine Highendkarte irrelevant.

Du zahlst deinen Strom nicht selber oder?

Die Details, was AF oder AA angehen, interessiert die meisten Käufer gar nicht. Die sind hier eh so gering, dass selbst ich Schwierigkeiten habe, bei den einzelnen Bildern auf 3dc Unterschiede zu sehen.

Dann kannst du dir gleich eine HD 2600 kaufen! High-End Karten sind dafür da, mit FSAA und AF zu spielen!

MfG :cool:

Mr Power
2007-05-14, 11:16:01
Gibt es irgendwo Reviews der HD2600 oder HD2400? Sollten die nicht auch heute (wenigstens soft-) gelauncht werden?

Mr. Lolman
2007-05-14, 11:16:02
Was ist Grisseln? Oder meinst Du etwa grieseln?

Grisseln ist fast das Gleiche wie grieseln, nur noch ein bisschen schlimmer X-D

Mr. Lolman, kannst du mir mal bitte verständlich erklären, wie es möglich sein soll, dass der R600 mit AF ein besseres Bild als der G80 bringt, obwohl dies sogar in der Theorie unmöglich sein kann?
Schaue dir mal allein diese AF-Quadrat-Blume an (das soll eigentlich ein Kreis sein!) und vergleiche diese mit der G80 AF-Blume!
Manche sehen echt nur das was sie sehen wollen!


Die AF-Blume sagt nur aus, an welcher Stelle, welche Mip verwendet wird. Nicht mehr. Man kann nicht erkennen, wieviele Texel wirklich gesampelt werden. Mit ein bisschen Nachdenken, könnte man da aber auch von selbst draufkommen. Naja, manche kapieren halt nur das, was sie kapieren wollen!

LovesuckZ
2007-05-14, 11:16:26
Auch der Preis ist zwischen GTS und GTX angesiedelt, somit stimmt das Verhältnis.


Der Preis liegt dazwischen, die Nachteile sind jedoch weitreichender.
Stromverbrauch, Treiber, Lautstärke sind alles Faktoren, die der Preis nicht auffiegen kann. Wer Ökonomisches und Ökologisch denkt, kauft sich eine 8800GTS. Wer auf diese Sachen pfeifft, greift gleich zur 8800GTX. Welche Pluspunkte hat den der r600 zur Zeit? Er ist lauter, verbraucht mindesten genausoviel Strom wie die 8800GTX bei deutlich geringerer Leistung und bietet nichtmal eine bessere Bildqualität. Den einzigen Vorteil sehe ich in der Länge der Platine und den Softwarebeilagen. Aber vom Chip her, ist er eine richtige Enttäuschung.

Gast
2007-05-14, 11:18:42
Sind Preissenkungen der 8800 GTX zu erwarten? In welchen Bereich würden diese fallen? Langt ein 400W beQuiet?

Offizieller Verkaufsstart der 2900XT wäre wohl heute?

Winter[Raven]
2007-05-14, 11:19:23
Die Details, was AF oder AA angehen, interessiert die meisten Käufer gar nicht.

Wofür kaufman sich den eine High-Endkarte? Um auf die 1000FPS zu wichsen oder was?

Bei den Modellen gehört AF+AA zum Standard und ohne Optimierungen!

mr orange
2007-05-14, 11:20:35
für mich wäre sie eindeutig zu laut, wenn man bedenkt, dass sich
die empfundene lautstärke bei einem anstieg von 3 db bereits verdoppelt.
kann mich auch irren - lang warts her mit dem physikunterricht.

Godmode
2007-05-14, 11:21:13
Interessant wären jetzt ganz gezielte Leistungsanalysen bezüglich der TMUs, Shadereinheiten und ROPs. Wäre interessant ob die schlechte Performance an den TMUs oder der Shaderleistung liegt?

blackbox
2007-05-14, 11:24:32
Der Preis liegt dazwischen, die Nachteile sind jedoch weitreichender.
Stromverbrauch, Treiber, Lautstärke sind alles Faktoren, die der Preis nicht auffiegen kann. Wer Ökonomisches und Ökologisch denkt, kauft sich eine 8800GTS. Wer auf diese Sachen pfeifft, greift gleich zur 8800GTX. Welche Pluspunkte hat den der r600 zur Zeit? Er ist lauter, verbraucht mindesten genausoviel Strom wie die 8800GTX bei deutlich geringerer Leistung und bietet nichtmal eine bessere Bildqualität. Den einzigen Vorteil sehe ich in der Länge der Platine und den Softwarebeilagen. Aber vom Chip her, ist er eine richtige Enttäuschung.

Die Nachteile sind keine Nachteile, bzw Nachteile in Sinne eines natürlichen Nachteils einer Highend-Karte.

Stromverbrauch ist wie schon gesagt egal. Wer schließt denn dauernd ein Messgerät an, um den Verbrauch zu messen? Ich selbst habe es bisher einmal getan und nie wieder. Der Stromverbrauch ist unwichtiger als man allgemein denken würde. Gerade bei solchen Highendkarte ist er fast egal. Natürlich wäre es wünschenswert, wenn die Dinger weniger brauchen würden.
Wer ökonomisch und ökologisch denkt, der kauft sich keine Highend Karte.

Die Lauststärke ist zwar wichtig, aber die Karte ist scheinbar nicht so laut, als wäre sie eine Turbine imn Rechner. Auch hier wird die Lautstärke wichtiger genommen, als sie wirklich relevant ist.
Die 2900 liegt im Idle im unteren Drittel und bei Last ist sie durchschnittlichlich laut.

Odal
2007-05-14, 11:24:55
Mr. Lolman, kannst du mir mal bitte verständlich erklären, wie es möglich sein soll, dass der R600 mit AF ein besseres Bild als der G80 bringt, obwohl dies sogar in der Theorie unmöglich sein kann?
Schaue dir mal allein diese AF-Quadrat-Blume an (das soll eigentlich ein Kreis sein!) und vergleiche diese mit der G80 AF-Blume!
Manche sehen echt nur das was sie sehen wollen!

MfG :cool:



Naja Fakt ist das jemand der einen G71 sein Eigen nennt nicht so große Töne spucken sollte wenn es darum geht das AF des R600 runterzumachen. Kimmt irgendwie eher eines ganz billigen Flameversuchs gleich anstatt konstruktiver Kritik. Die AF Testbilder zeigen das die "Blume" beim G80 nahezu perfekt ist und beim R600 sehr gut aber nicht an G80 heranreicht.....

Schau ich mir die von Lolmann verlinkten Bilder an (Holztunnel) ergibt sich für mich aber ein anderes Bild. Der R600 Output sieht dort deutlich schärfer und besser Gefiltert aus. Nun stellt sich mir die Frage ob vielleicht ein "Detection Algorithmus" zum einsatz kommt der AF tests für den G80 dann perfekt bedient und bei allen anderen Dingen etwas herumoptimiert. Wir kennen das Problem ja schon von der bi/tri/bri filterung und farbigen mipmaps...

DrumDub
2007-05-14, 11:25:27
hmm.. bezüglich der aa-modi des r600: The 2900 XT does match the GeForce 8800 series on image quality generally, which was by no means a foregone conclusion. Kudos to AMD for jettisoning the Radeon X1000 series' lousy angle-dependent aniso for a higher quality default algorithm. I also happen to like the 2900 XT's custom tent filters for antialiasing an awful lot—an outcome I didn't expect, until I saw it in action for myself. Now I'm hooked, and I consider the Radeon HD's image quality to be second to none on the PC as a result. Nvidia may yet even the score with its own custom AA filters, though. http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=16

What we found in our testing of ATI’s current Narrow Tent and Wide Tent filtering options was that enabling them caused textures to become blurry. This was plainly evident in every game we played. You will notice in our highest playable gaming section we simply ignored using Narrow Tent and Wide Tent filtering and just tested with the standard Box Filter at 2X, 4X or 8X AA. As a gamer I don’t want to enable an option that ends up reducing the entire scene’s image quality in my game. The point of enabling higher AA levels is to improve image quality, not decrease it. http://enthusiast.hardocp.com/article.html?art=MTM0MSwxNywsaGVudGh1c2lhc3Q=

finde ich schon interessant, dass solch unterschiedliche ansichten bezüglich der aa-modi rauskommen...

blackbox
2007-05-14, 11:27:13
;5492033']Wofür kaufman sich den eine High-Endkarte? Um auf die 1000FPS zu wichsen oder was?

Bei den Modellen gehört AF+AA zum Standard und ohne Optimierungen!


Erst denken, dann posten! Es geht hier um die Unterschiede zwischen den Highendboliden von ATI und NVidia!

[dzp]Viper
2007-05-14, 11:27:55
hmm.. bezüglich der aa-modi des r600: http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=16

http://enthusiast.hardocp.com/article.html?art=MTM0MSwxNywsaGVudGh1c2lhc3Q=

finde ich schon interessant, dass solch unterschiedliche ansichten bezüglich der aa-modi rauskommen...


So eine Option ist halt Geschmackssache. Nicht alles kann man total "logisch" Bewerten ;)

Nicht umsonst ist die Option optional und kann selber aktiviert und deaktiviert werden.

Und die Leute, die sich kaum mit AA/AF auskennen, die sehen den Unterschied wahrscheinlich eh nicht :D

LovesuckZ
2007-05-14, 11:29:22
Interessant wären jetzt ganz gezielte Leistungsanalysen bezüglich der TMUs, Shadereinheiten und ROPs. Wäre interessant ob die schlechte Performance an den TMUs oder der Shaderleistung liegt?

Die Rechenleistung liegt auf dem Niveau der 8800Ultra. Da die Effizienz der Recheneinheiten nicht an die des G80 herankommen, sollte die Leistung einw enig darunter liegen. Man sieht in Spielen, die direkt von der Xbox360 portiert wurden, dass die Karte auf dem Niveau der GTX liegt.
In anderen Spielen wie Oblivion, Gothic 3 spielt die Texturleistung eine erhebliche Rolle und heir verliert sich deutlich. Auch muss immer im Hinterkopf behalten werden, dass hier mit A.I low getestet wurde, das durch die Optimierungen des Filters einen erheblichen Zugewinn liefert, im Gegensatz zu den 8800 Karten mit dem Wechsel von HQ auf Q.

dildo4u
2007-05-14, 11:29:53
WTF? Kann mir jemand sagen wie hoch der T-Count beim 8800GTX ist? Bei ATI's 2900XT liegt der bei 700 Millionen? Das kann doch nicht sein oder? Ich meine 700 Millionen? WTF? SRLSY?
Die 8800GTX hat ca 681Mio Transistoren.

Wo ist eigentlich die DX10 Überlegenheit der ATI die Wombat versporchen hat oder wars Horn12?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/31/#abschnitt_call_of_juarez_d3d10

http://www.guru3d.com/article/Videocards/431/17/

deekey777
2007-05-14, 11:34:51
Der Treiber für die HD 2900 XT ist bei AMD zum Download verfügbar. :)
HD2900XT_xp_dd_ccc_enu_47096

ATI Radeon™ HD 2900 XT Release Note

This release note provides information on the ATI Radeon™ HD 2900 XT product, using the ATI Radeon™ software driver version 8.37.4.3. The release note provides information on the following:
Operating systems supported
Resolved Issues
Known Issues
AMD Customer Care
Catalyst™ Crew Driver Feedback
Operating systems supported

The AMD graphics software driver provided with the ATI Radeon™ HD 2900 XT is designed to support the following Microsoft Windows platforms:
Windows Vista (32 and 64 bit versions)
Windows XP
Windows XP Professional x64 Edition Note: The ATI Radeon™ HD 2900 XT requires an 8-pin PSU cable to be connected to the 2x4 connector on the board in order to enable ATI OverDrive™. Further information can be found in the ATI Catalyst™ Control Center->Force Full Performance.

Resolved Issues

The following section provides information on issue that are resolved in this release of the AMD Radeon™ HD 2900 XT software driver. These include:
Attempting to change the AA setting when launching the Catalyst Control Center for the first time no longer results in the changes failing to take effect
Enabling CrossFire™ and setting AA to 16x no longer results in the AA setting failing to be retained once the Catalyst Control Center is closed and the operating system is rebooted
Using Windows Media Player 11 to play an MPEG file using HDMI audio on a system running Windows Vista no longer results in file not playing properly if swapping the primary and secondary display devices
Performing a user switch under the Windows Vista operating system no longer results in the HDMI audio setting not being retained
Connecting an HDMI display device to an ATI Radeon™ HD 2900 XT no longer results in the display device failing to display if cycling the power to the display device on and off
Cyberlink PowerDVD: Display corruption is no longer noticed when playing an h.264 movie while an OpenGL application running
Windows Movie Maker: The operating system no longer fails to respond when switching between S-Video and Composite when capturing video
Cyberlink PowerDVD: Corruption is no longer noticed when playing an MPEG 2 video on certain versions of the player
Starcraft: A DirectDraw error is no longer experienced when playing the game
Configuring a system with two ATI Radeon™ HD 2900 XT products and enabling CrossFire™ may result in a green tint being noticed when running D3D or OpenGL games
Hardware thermal protection is now activated when the temperature rises above 120 degrees
Known Issues

The following sections provide last minute information on issues that may be experienced when using the ATI Radeon™ Software driver version 8.37.4.3 with the ATI Radeon™ HD 2900 XT series product. AMD Engineering is aware of these issues and is investigating. Updates to these issues may already be available at: www.ati.amd.com.
CrossFire™ Issues

This section provides information on known issues that may be experienced when using the ATI Radeon™ HD 2900 XT and CrossFire™
Battlefield 2142: Setting the in game graphics options to high and enabling CrossFire™ may result in flashing being noticed within the game
City of Heroes: Enabling CrossFire™ and setting the display resolution to 2560x1536 and the in game graphics options to the maximum settings may result in the game failing to respond
Dark Messiah: Making certain changes to the in game graphics option may result in corruption being noticed in the game menu when CrossFire™ is enabled
Elder's Scroll: Oblivion: Corruption may be noticed during the opening cinematic when attempting to play the game with CrossFire™ enabled
Hitman Blood Money: Setting the display resolution to 1024x768 32bpp and enabling CrossFire™ may result in corruption being noticed when certain in game graphics options are set
Serious Sam 2: Setting the display resolution to 1024x768 32bpp and enabling CrossFire™ may result in corruption being noticed when setting the in game graphics options to 1600x1200, AA to high, and Texture Filtering to 8x
Splinter Cell Double Agent: Setting the display resolution to 1024x768 32bpp and enabling CrossFire™ may result in corruption being noticed when certain in game graphics options are set
Setting the display resolution to 1600x1200 or above on a system containing an ATI Radeon™ HD 2900 XT no longer results in the card using 3D clock settings
Games Issues

This section provides information on known issues that may be experienced when playing certain games with the ATI Radeon™ HD 2900 XT.
Doom 3: Resurrection of Evil: Setting AA 4x and AF to 8x may result in the game demo failing to respond
El Matador: Setting the display resolution to 640x480 and disabling all in game graphics options may result in corruption being noticed when playing the game
Godfather The Game: Corruption may be noticed when setting certain in game graphics options
Rainbow Six Lockdown: Setting the display resolution to 1024x768 32bpp may result in flashing being noticed when setting the in game graphics options to 1600x1200, AA to high, and Texture Filtering to 8x
Star Wars Knights of the Old Republic 2: Corruption may be noticed when disabling the in game video option for frame-buffer and soft-shadow. This issue may be experienced when setting the display resolution to either 800x600 or 1600x1200
Supreme Commander: Setting the in game display option to 1280x960 may result in the game failing to respond when zooming in and out of the Sentry Point map
Call of Juarez: The shaded areas on the ground may appear corrupted when moving the game player forward
Tomb Raider: Legend: Setting the display resolution to 1600x1200 and enabling AA may result in white flashing being noticed on the water
Heroes of Might & Magic V: Setting the display resolution to 1600x1200 and enabling AA may result in blue horizontal and vertical lines being noticed within the water
Company of Heroes: Setting the in game options to 1024x768, AA to disable, and Shadow details to high, may result in corruption being noticed when playing the game
FEAR: Lighting and shadows may appear incorrect in some areas of the game
Caesar IV: Setting the display resolution to 1920x1200 and AA to 6x may result in corruption being noticed in some areas of the game during the night time scenes
Grand Theft Auto: San Adreas (GTA): Playing the game on a system running Windows Vista may result in missing video when enabling the in-game AA option
Black & White 2: Setting the in-game display resolution to 1600x1200 and AA to low may result in corruption being noticed if leaving the game on without any action for an extended period of time
Sims2: Corruption may be noticed on the Sim family clothing when starting a new game
Multimedia Issues

This section provides information on known issues that may be experienced when using multimedia applications with the ATI Radeon™ HD 2900 XT.
Cyberlink PowerDVD: Enabling hardware acceleration in the player followed by playing an h.264 movie may result in brief corruption being noticed just before movie playback starts
Cyberlink PowerDVD: Setting the display resolution to 2650x1600 and enabling hardware acceleration in the player may result in corruption being noticed on the Windows desktop
Catalyst Control Center->Monitor Properties->Adjustments: Making changes to the screen position followed by rebooting the system may result in the display changes failing to be retained
AMD Customer Care

The AMD Customer Care website provides a high level of technical support and easy of navigation. The AMD Customer Care website provides accurate and up-to-date product support for optimum usability and performance. Technical issues are categorized and personalized to enhance user experience. The AMD Customer Care Website can be found at: support.ati.com

To view a known issue or find troubleshooting information, do the following:
Go to ati.amd.com. The AMD home page is displayed.
Click on Customer Care and select Radeon™ (PC/Mac). The ATI Customer Care web page is displayed.
Select Knowledge base. The AMD knowledge base is displayed.
In the top right corner of the page, select Advanced Search. The Advanced Search page is displayed.
Select the option you wish to search by.
Click SEARCH. The information requested (if available) is displayed.
Catalyst™ Crew Driver Feedback

This driver release incorporates suggestions received through the Catalyst™ CREW Driver Feedback program. To provide us with your feedback, visit: Catalyst™ Crew Driver Feedback.

up¦²
2007-05-14, 11:40:43
Der hier?
737-27535: Supplemental Driver for Radeon™ HD 2900 series
http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=27535

ATI Radeon™ HD 2900 XT Release Note
https://a248.e.akamai.net/f/674/9206/0/www2.ati.com/drivers/radeonhd2900xt.html

captainsangria
2007-05-14, 11:42:51
kurze frage, die ich vielleicht bis jetzt überlesen habe (in den monsterthreads):

wie wirkt sich die audioausgabe (per integrierten realtek chip) auf die performance aus?

iDiot
2007-05-14, 11:43:35
Erst denken, dann posten! Es geht hier um die Unterschiede zwischen den Highendboliden von ATI und NVidia!
Selbes gilt für dich. Im Zusammenhang war sein Posting richtig ;)

The_Invisible
2007-05-14, 11:45:01
Naja Fakt ist das jemand der einen G71 sein Eigen nennt nicht so große Töne spucken sollte wenn es darum geht das AF des R600 runterzumachen. Kimmt irgendwie eher eines ganz billigen Flameversuchs gleich anstatt konstruktiver Kritik. Die AF Testbilder zeigen das die "Blume" beim G80 nahezu perfekt ist und beim R600 sehr gut aber nicht an G80 heranreicht.....

Schau ich mir die von Lolmann verlinkten Bilder an (Holztunnel) ergibt sich für mich aber ein anderes Bild. Der R600 Output sieht dort deutlich schärfer und besser Gefiltert aus. Nun stellt sich mir die Frage ob vielleicht ein "Detection Algorithmus" zum einsatz kommt der AF tests für den G80 dann perfekt bedient und bei allen anderen Dingen etwas herumoptimiert. Wir kennen das Problem ja schon von der bi/tri/bri filterung und farbigen mipmaps...

und beim g80 war deutlich schärfer = flimmer, flimmer, ...

man kann echt alles drehen wie man will, der stromverbrauch ist jetzt auch schon egal, interessiert ja bei ner highendkarte nicht, aber im spekuthread noch große töne gespuckt das sie 2d weniger braucht und das so enorm wichtig ist.

der r600 ist in diesem sinne einfach schlecht, da hilft auch "rosinen picken" nichts

mfg

deekey777
2007-05-14, 11:45:03
kurze frage, die ich vielleicht bis jetzt überlesen habe (in den monsterthreads):

wie wirkt sich die audioausgabe (per integrierten realtek chip) auf die performance aus?
Eigentlich ist da kein Realtek-Chip drauf. :smile:

Die gelbe Eule
2007-05-14, 11:46:12
Die AF-Blume sagt nur aus, an welcher Stelle, welche Mip verwendet wird. Nicht mehr. Man kann nicht erkennen, wieviele Texel wirklich gesampelt werden. Mit ein bisschen Nachdenken, könnte man da aber auch von selbst draufkommen. Naja, manche kapieren halt nur das, was sie kapieren wollen!

Vergleiche mal R580 mit R600 und sag mir wo da der Unterschied sein sollte?
Ich sehe da gar keinen auf dem ersten Blick, also wird das AF unangetastet worden sein. Wenn damals der R580 dem G80 kein Paroli bieten konnte was AF angeht, dann wird es der R600 mit dem selben Muster auch nicht.

Der AF Tester ist nunmal da um es zu zeigen, auch wenn es Dir nicht passt. ich kann gut verstehen das Du Dir etwas positives heraussuchen musst, beim R580 bliebt Dir auch nur EATM.

James Ryan
2007-05-14, 11:46:15
Naja Fakt ist das jemand der einen G71 sein Eigen nennt nicht so große Töne spucken sollte wenn es darum geht das AF des R600 runterzumachen.

Lasst euch mal was neues einfallen, es wird langsam langweilig... :rolleyes:
Selbst jemand mit einer ATi Rage 128 darf sich über die AF-Qualität des R600 auslassen wie er lustig ist, warum sollte dies auch nicht so sein? :confused:

MfG :cool:

The_Invisible
2007-05-14, 11:46:33
Die Rechenleistung liegt auf dem Niveau der 8800Ultra. Da die Effizienz der Recheneinheiten nicht an die des G80 herankommen, sollte die Leistung einw enig darunter liegen. Man sieht in Spielen, die direkt von der Xbox360 portiert wurden, dass die Karte auf dem Niveau der GTX liegt.
In anderen Spielen wie Oblivion, Gothic 3 spielt die Texturleistung eine erhebliche Rolle und heir verliert sich deutlich. Auch muss immer im Hinterkopf behalten werden, dass hier mit A.I low getestet wurde, das durch die Optimierungen des Filters einen erheblichen Zugewinn liefert, im Gegensatz zu den 8800 Karten mit dem Wechsel von HQ auf Q.

ja, würde auch gerne AI off tests sehen. hardtecs4u macht das ja immer, gibts da schon was oder ist in aussicht?

mfg

captainsangria
2007-05-14, 11:46:51
Eigentlich ist da kein Realtek-Chip drauf. :smile:hm, ich habe dieses aber in irgendeinem review so gelesen. egal, dann halt ein anderer (oder eigener). die frage bleibt dennoch so zu stellen (für mich halt).

dildo4u
2007-05-14, 11:47:04
Zum AF wie kann das sein??Wieder ziehmlich unterschiedliche Beobachtungen bei verschiedenen Seiten einige schreiben das AF ist bei ATI besser andere bei NV.


Auf ganzer Linie zurückstecken muss ATi bei der anisotropen Filterung, die auf der GeForce 8800 tadellos arbeitet. Bei maximalen Treibereinstellungen flimmert das Bild auf dem R600 immer noch vor sich her, wenn auch nicht mehr ganz so extrem wie auf der Radeon X1950 XTX. Die Bildruhe einer GeForce 8800 erreicht man aber nicht annähernd. Darüber hinaus kann die nVidia-Karte mit einer besseren Präzision und einer leicht besseren Winkelunabhängigkeit punkten, wobei man letzteres aber nur in seltenen Fällen wird erkennen können. Die Standardeinstellungen der Treiber sind in etwa gleichwertig. Bei der Radeon HD 2900 XT flimmern vermehrt die Texturen, auf der GeForce 8800 fällt der brilineare Filter unangenehm auf.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/38/#abschnitt_fazit

Gast
2007-05-14, 11:49:03
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=2&id=1179135768

Schon wieder ein neuer Treiber.

James Ryan
2007-05-14, 11:49:13
Zum AF wie kann das sein??Wieder ziehmlich unterschiedliche Beobachtungen bei verschiedenen Seiten einige schreiben das AF ist bei ATI besser andere bei NV.


Das AF wurde im Gegensatz zum R580 minimalst verbessert, und letzterer bot ein schlechteres AF als der G80. Der R600 reiht sich hier ein, das AF kann also in der Praxis nicht "besser" sein als auf dem G80, auch wenn sich hier einige auf den Kopf stellen. Die AF-Blume zeigt dies, punkt.

MfG :cool:

gnomi
2007-05-14, 11:49:23
Besonders überzeugend finde ich die Karte nicht.
Sie kommt extrem verspätet und nicht gerade ausgereift auf den Markt.
Konkurrenzfähig ist sie eher über den Preis, die Leistung kommt nicht über den schon ein halbes Jahr alten G80 hinaus.
Lautstärke und Stromverbrauch würde ich zwar jetzt nicht überbewerten, aber auch hier sieht es nicht so gut aus.
Ich glaube es war richtig, im PC Bereich eher auf den G80 zu setzen.
Vom zu hohen 2D Verbrauch, kleinen Treiberproblemen und dem leider zu 1/4 kastrierten Chip abgesehen, bin ich mit meiner 8800 Gts sehr zufrieden. (vor allem AF Qualität, ist ja der Wahnsinn ggb. NV 40)
Bei Xenos optimierten Titeln könnte der R600 Vorteile haben, aber diese spiele ich eh lieber auch auf Xenos.
Irgendwie sind die letzten Entwicklungen im GPU Sektor enttäuschend.
Die Midrange Reihe bei NVidia ist zu langsam, und der R600 setzt wie erwartet leider keine neuen Standards.

up¦²
2007-05-14, 11:50:14
BTW...
AMD *is* listening (http://www.sharms.org/blog/?p=104#comments);D

Mr. Lolman
2007-05-14, 11:51:02
Das AF wurde im Gegensatz zum R580 minimalst verbessert, und letzterer bot ein schlechteres AF als der G80. Der R600 reiht sich hier ein, das AF kann also in der Praxis nicht "besser" sein als auf dem G80, auch wenn sich hier einige auf den Kopf stellen. Die AF-Blume zeigt dies, punkt.

MfG :cool:

Anscheined hast dus immernoch nicht kapiert, dass die AF-Blume nur anzeigt wann welche Mip verwendet wird. Wie genau die Mips letztenendes gesampelt werden ist aus den Screenshots nicht ersichtlich!

Spasstiger
2007-05-14, 11:52:43
BTW...
AMD *is* listening (http://www.sharms.org/blog/?p=104#comments);D
Wow, dann werden ja die ganzen Linux-Frickler bald auf ATI umsteigen. ;)

Hat eigentlich schon einer Preise aus deutschen Shops? Bei Newegg kostet die Sapphire X2900 XT 409,99 US-$:
http://www.newegg.com/Product/Product.aspx?Item=N82E16814102095.
Das entspricht 302,82€ ohne MWSt bzw. ca. 360€ mit MWSt.

Vertigo
2007-05-14, 11:54:37
AF-Blume zeigt dies, punkt.

Die AF-Blume im Endlostunnel? Was zeigt die? Allein dass die G80 dort besser aussehen. Punkt.

up¦²
2007-05-14, 11:54:37
Wie sieht's denn mit den preisen aus: heise und geizhals halten noch dicht, oder?

captainsangria
2007-05-14, 11:55:11
hm, ich habe dieses aber in irgendeinem review so gelesen. egal, dann halt ein anderer (oder eigener). die frage bleibt dennoch so zu stellen (für mich halt).

Meldungen zufolge soll sogar ein Soundchip von Realtek und ein HDMI-Ausgang auf der Grafikkarte vorhanden sein, um neben dem hochauflösenden Bild auch entsprechend guten 5.1 Surround-Sound ausgeben zu können.http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/weitere_details_r600-familie/

so könnte es ja sein, dass der stromverbrauch durch den verbauten soundchip/codec/whatever hervorgerufen wird, oder?

AnarchX
2007-05-14, 11:56:36
Hier wird der R600-Kühler erklärt:
http://img172.imageshack.us/img172/3658/2007051453fb81696e5ab74nc7.jpg (http://imageshack.us)http://img172.imageshack.us/img172/2208/20070514a8c70b93fb1b270kv5.jpg (http://imageshack.us)http://img172.imageshack.us/img172/6909/200705140f5454895e03632iv2.jpg (http://imageshack.us)

http://chiphell.com/viewthread.php?tid=4109

James Ryan
2007-05-14, 11:58:59
Wie sieht's denn mit den preisen aus: heise und geizhals halten noch dicht, oder?

Ich denke ab 15 Uhr wird es bei Geizhals viele 2900er geben. :)

MfG :cool:

Fetza
2007-05-14, 11:59:51
Lasst euch mal was neues einfallen, es wird langsam langweilig... :rolleyes:
Selbst jemand mit einer ATi Rage 128 darf sich über die AF-Qualität des R600 auslassen wie er lustig ist, warum sollte dies auch nicht so sein? :confused:

MfG :cool:

Weil es niveaulos und billig wirkt(und auch ist), wenn jemand der eine karte mit übelen AF benutzt, nun die ganze zeit auf einen hochwertigen AF modus einer anderen karte einbasht, nur weil wiederum eine andere karte einen nahezu perfekten AF modus beherrscht. Insgesamt wirkt deine argumentation einfach nur eindimensional, zudem hat sie spam charakter da du sie ständig wiederholst (hab diese aussage von dir bestimmt schon weit über 10 mal so gelesen).

Du hast dich über die AF-quali des r600 nun oft und lang genug ausgelassen, also wenn du nichts neues zu sagen hast, würd ich dir empfehlen auch nichts mehr dazu zu posten:rolleyes:

greetz

Noebbie
2007-05-14, 12:00:11
Wie sieht's denn mit den preisen aus: heise und geizhals halten noch dicht, oder?

Bei Alternate ist eine 2900xt Club 3D für 394 Euro drin.

Mr. Lolman
2007-05-14, 12:00:25
Vergleiche mal R580 mit R600 und sag mir wo da der Unterschied sein sollte?
Ich sehe da gar keinen auf dem ersten Blick, also wird das AF unangetastet worden sein. Wenn damals der R580 dem G80 kein Paroli bieten konnte was AF angeht, dann wird es der R600 mit dem selben Muster auch nicht.

Das Muster ist ja nicht das Selbe. Und AF-Blumen zeigen leider nur eine Zutat des BQ-Kuchens. Wär nicht schlecht, wenn das ein 'Guru' mal schnell bestätigen würde. Denn irgendwie red ich hier eh schon wieder gegen eine Wand.


Der AF Tester ist nunmal da um es zu zeigen, auch wenn es Dir nicht passt. ich kann gut verstehen das Du Dir etwas positives heraussuchen musst, beim R580 bliebt Dir auch nur EATM.

Ja, im Vergleich zum G80 blieb mir nur mehr EATM. Da hast du recht. Wenn man sich jedoch die Computerbasebenchmarks ansieht, merkt man, dass mittlerweile ein Singlechip R580 schwer im GX2 Performancebereich wütet und ursprünglich war der direkte Konkurrent ja ohnehin die 7900GTX.

Das was man ATi/AMD 'vorwerfen' kann, ist, dass sie deutlich weniger Ressourcen in die Chip- (und v.a. Treiber-)entwicklung stecken, als NV. Deswegen dauerts auch immer einige Zeit, bis sich das Potential vollständig offenbahrt.

Und bis dahin wird halt in den Foren immer ordentlich geflamed. War in der Vergangenheit auch nicht anders...

Vertigo
2007-05-14, 12:00:48
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/weitere_details_r600-familie/

so könnte es ja sein, dass der stromverbrauch durch den verbauten soundchip/codec/whatever hervorgerufen wird, oder?
Das sind ein Monat alte (und damals noch spekulative) News ... :rolleyes: :biggrin:

Aber die hohe Verlustleistung ist dadurch nicht zu erklären.

Fetza
2007-05-14, 12:01:29
Zum AF wie kann das sein??Wieder ziehmlich unterschiedliche Beobachtungen bei verschiedenen Seiten einige schreiben das AF ist bei ATI besser andere bei NV.


Auf ganzer Linie zurückstecken muss ATi bei der anisotropen Filterung, die auf der GeForce 8800 tadellos arbeitet. Bei maximalen Treibereinstellungen flimmert das Bild auf dem R600 immer noch vor sich her, wenn auch nicht mehr ganz so extrem wie auf der Radeon X1950 XTX. Die Bildruhe einer GeForce 8800 erreicht man aber nicht annähernd. Darüber hinaus kann die nVidia-Karte mit einer besseren Präzision und einer leicht besseren Winkelunabhängigkeit punkten, wobei man letzteres aber nur in seltenen Fällen wird erkennen können. Die Standardeinstellungen der Treiber sind in etwa gleichwertig. Bei der Radeon HD 2900 XT flimmern vermehrt die Texturen, auf der GeForce 8800 fällt der brilineare Filter unangenehm auf.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/38/#abschnitt_fazit

Die werden natürlich mit AI-on bzw standard gebencht haben.

up¦²
2007-05-14, 12:03:12
Interessant: ist das ein Trend? :rolleyes:
Plötzlicher Preissprung GTS:
http://geizhals.at/eu/?phist=238273 :eek:

Fetza
2007-05-14, 12:05:28
Bei Alternate ist eine 2900xt Club 3D für 394 Euro drin.

viel zu teuer.

Gast
2007-05-14, 12:06:34
Interessant: ist das ein Trend? :rolleyes:
Plötzlicher Preissprung GTS:
http://geizhals.at/eu/?phist=238273 :eek:

Jetzt mal nicht übertreiben, lieber aufs Ende der Woche warten.

Up yours! ;)

Mr. Lolman
2007-05-14, 12:06:46
Die werden natürlich mit AI-on bzw standard gebencht haben.

Hat 3DC aber auch:


Die R600 zeigt das schärfste Bild, wenn AI deaktiviert wird. Im Gegensatz um R580 sind die Unterschiede ebenfalls über einen größeren Bildbereich erkennbar. Insgesamt wirkt das Bild gegenüber dem Vorgänger schärfer und gleichzeitig homogener. AI on beim R600 ist mit dem AI Off beim R580 und HQ beim G80 nahezu identisch. Ein Flimmern war nicht festzustellen, wenngleich die Bildschärfe in Bewegung gegenüber dem G80 zurückstecken muss. Mit deaktiviertem AI zeigt der R600 ein noch schärferes Bild als die R580 und G80 darstellen, ohne dabei zu flimmern.
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index8.php

Vertigo
2007-05-14, 12:07:14
Interessant: ist das ein Trend? :rolleyes:
Plötzlicher Preissprung GTS:
http://geizhals.at/eu/?phist=238273 :eek:
Wieso? Die Preise in den Shops sind doch noch gleich.

Mark3Dfx
2007-05-14, 12:10:36
heise zum Launch

http://www.heise.de/newsticker/meldung/89691

deekey777
2007-05-14, 12:10:38
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/weitere_details_r600-familie/

so könnte es ja sein, dass der stromverbrauch durch den verbauten soundchip/codec/whatever hervorgerufen wird, oder?
Diese Sache mit dem Realtek entstand, als ein ganz Schlauer die Realtek-Treiber im Catalyst-Paket gefunden hat. Daraus kam die Schlussfolgerung, dass ATi einen Realtek-Chip auf Grafikkarten verbaut. Leider kam man erst später auf die Idee, dass dieser Treiber für Mainboards mit ATIs IGPs gedacht ist, da diese auch HDMI haben, wofür ein Realtek-Chip zuständig ist.

up¦²
2007-05-14, 12:15:41
Wieso? Die Preise in den Shops sind doch noch gleich.

Nicht mehr lange... aber das würde ins Spekuforum gehören: die Kriegskasse ist proppvoll :biggrin:

Noebbie
2007-05-14, 12:16:40
Nicht mehr lange... aber das würde ins Spekuforum gehören: die Kriegskasse ist proppvoll :biggrin:

Hm, bewusst in diesem bekannten grün makiert? :wink:

Vertigo
2007-05-14, 12:17:02
Nicht mehr lange... aber das würde ins Spekuforum gehören: die Kriegskasse ist proppvoll :biggrin:
Also sagt geizhals neuerdings die Preise der Shops voraus oder wie? Ich dachte immer dass sie diese immer (recht zeitnah zwar, aber doch) aus den Shops auslesen und anschließend aktualisieren ...

Fetza
2007-05-14, 12:17:40
Also irgendwie juckt mich ja jetzt schon so eine preisgünstige gts zu nehmen, allerdings hab ich nun schon so lange auf den r600 gewartet, da machen doch 1 oder 2 monate warten auf gute treiber auch nichts mehr, gelle?:D

Nicht mehr lange... aber das würde ins Spekuforum gehören: die Kriegskasse ist proppvoll :biggrin:

jaaaaa, gtx für 400 euro ich komme :)

Daredevil
2007-05-14, 12:18:13
Bei Alternate sind jetz schon 3 Karten gelistet, aber leider alle im Preisrahmen von 390€

Die gelbe Eule
2007-05-14, 12:18:14
Das Muster ist ja nicht das Selbe. Und AF-Blumen zeigen leider nur eine Zutat des BQ-Kuchens. Wär nicht schlecht, wenn das ein 'Guru' mal schnell bestätigen würde. Denn irgendwie red ich hier eh schon wieder gegen eine Wand.


Dann leite nicht von einem Screenshot bessere BQ ab. Wenn dann alles in Bewegung. Und ob ATi endlich A.I. off als standard setzt, darf weiterhin bezweifelt werden, da NV nur noch mit HQ fährt.

sun-man
2007-05-14, 12:18:32
Die mittlere Stromaufnahme des HD 2900 XT liegt bei 3D-Tests wie dem 3DMark06 mit 153 Watt aber fast doppelt so hoch wie bei Grafikkarten mit dem GTS-Chip. Kurzzeitig treten sogar Spitzen von über 200 Watt auf. Bei ruhendem Desktop nimmt die Karte 65 Watt auf.
http://www.heise.de/newsticker/meldung/89691

dildo4u
2007-05-14, 12:20:25
http://www.heise.de/newsticker/meldung/89691
Oh nett dann kann man sich mit der GTS ja das neue Netzteil sparen wieder ein Pluspunkt für NV.

up¦²
2007-05-14, 12:20:28
DX10 aber ohne AA...
http://forum.beyond3d.com/showpost.php?p=986213&postcount=5563

captainsangria
2007-05-14, 12:22:50
Das sind ein Monat alte (und damals noch spekulative) News ... :rolleyes: :biggrin:

Aber die hohe Verlustleistung ist dadurch nicht zu erklären.

14. Apr 2007=Artikelalter. Paar Monate ist auch übertrieben.

Vertigo
2007-05-14, 12:23:34
=Artikelalter. Paar Monate ist auch übertrieben.
Ich habe doch auch geschrieben dass es ein Monat alte News sind ... :confused:
Oh nett dann kann man sich mit der GTS ja das neue Netzteil sparen wieder ein Pluspunkt für NV.
In der Tat. Die Verbrauchswerte auf computerbase.de sind erschreckend. Vor allem die idle-Werte sind eine Katastrophe. Mit einem höheren Verbrauch in 3D war ja zu rechnen - der höhere idle-Verbrauch bisher nur zu befürchten.

captainsangria
2007-05-14, 12:25:28
Diese Sache mit dem Realtek entstand, als ein ganz Schlauer die Realtek-Treiber im Catalyst-Paket gefunden hat. Daraus kam die Schlussfolgerung, dass ATi einen Realtek-Chip auf Grafikkarten verbaut. Leider kam man erst später auf die Idee, dass dieser Treiber für Mainboards mit ATIs IGPs gedacht ist, da diese auch HDMI haben, wofür ein Realtek-Chip zuständig ist.hm? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5492226&postcount=41

Ich habe doch auch geschrieben dass es ein Monat alte News sind ... sry verlesen

][immy !@Home
2007-05-14, 12:28:26
Wie sieht es in den Tests eigentlich mit dem Speicherverbrauch aus? könnte der hier limitierend sein?
die 8800 GTS hat immer 640, die 8800 GTX (Ultra) 768 MB
gerade in hohen auflösungen mit AA könnte der speicher doch stark limitieren.


so gesehen bin ich mal gespannt was die x2900 mit 1 GB speicher machen würde. sollte auf jeden fall nicht mehr so schnell limitieren.


aber ich denke mal, wenn ATi wirklich mal an den Treibern arbeitet könnte zumindest ein gleichstand mit der GTX zustande kommen, wenn, wie schon erwähnt der speicher nicht limitiert.

Henroldus
2007-05-14, 12:28:47
Zusammenfassend kann ich für mich nur sagen:


Zu hoher stromverbrauch und dadurch wäre neues netzteil nötig
Lautstärke zu groß
AF Filter schlechter
Leistung leider nicht hoch genug zu 8800GTS
Preis? auch hier zieht nix


Ergo

Bei 299 EUR kauf ich mir die 8800 GTS 640

Schade AMD/ATI und auf Wiedersehen :frown:

Ronny145
2007-05-14, 12:29:20
Wundert mich, dass die reviews diesmal schon so früh online sind. Die Stromverbrauchsmessungen schwanken auch ziemlich. Bei CB oder tweaktown im Idle mehr und bei manch anderen weniger.

Vertigo
2007-05-14, 12:30:35
Wundert mich, dass die reviews diesmal schon so früh online sind. Die Stromverbrauchsmessungen schwanken auch ziemlich. Bei CB oder tweaktown im Idle mehr und bei manch anderen weniger.
Bei welchen anderen ist es weniger? Würde mich interessieren und ich will nicht alles durchklicken ... :redface:

Gast
2007-05-14, 12:32:15
http://www.pcgameshardware.de/?article_id=601342

Laut den Informationen des Xtremesystem-Forums soll die Variante mit 1024 Megabyte Speicher den Workstation-Markt bedienen, ähnlich zu Nvidias Quadro-Karten, die ebenfalls über mehr Speicher verfügen als ihre Geschwister für Heim-Anwender.

Mr. Lolman
2007-05-14, 12:32:56
Dann leite nicht von einem Screenshot bessere BQ ab. Wenn dann alles in Bewegung. Und ob ATi endlich A.I. off als standard setzt, darf weiterhin bezweifelt werden, da NV nur noch mit HQ fährt.

Ein guter Screenshot ohne Colormips kann durchaus mehr Rückschlüsse über die tatsächliche BQ zulassen, wie eine AF-Blume...

seahawk
2007-05-14, 12:33:19
Beim Idle Verbrauch ist die Frage ob man Windows XP nutze oder VISTA mit Aero Glass.

deekey777
2007-05-14, 12:33:49
Zusammenfassend kann ich für mich nur sagen:


Zu hoher stromverbrauch und dadurch wäre neues netzteil nötig
Lautstärke zu groß
AF Filter schlechter
Leistung leider nicht hoch genug zu 8800GTS
Preis? auch hier zieht nix


Ergo

Bei 299 EUR kauf ich mir die 8800 GTS 640

Schade AMD/ATI und auf Wiedersehen :frown:
Was du dir kaufst, interessiert doch keinen. Klingt unfreundlich, ist aber so, das Kaufberatungsforum ist eine Etage tiefer.
hm? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5492226&postcount=41

Ich habe nicht gesagt, dass da kein "Audiocontroller" ist, sondern woher die Sache mit dem Realtek-Chip kam. Auf der HD2000er ist natürlich ein einfacher Soundtransmitter, aber nicht mehr. Dieser kümmert sich um die digitale Soundausgabe bei der Wiedergabe von Filmen. Für Spiele sollte weiterhin die Soundkarte zuständig sein.

Gast
2007-05-14, 12:34:26
Wundert mich, dass die reviews diesmal schon so früh online sind./Quote]

Das NDA schien irgendwann zwischen 6 Uhr und 9 Uhr unserer Zeit gefallen zu sein.

[quote]Die Stromverbrauchsmessungen schwanken auch ziemlich. Bei CB oder tweaktown im Idle mehr und bei manch anderen weniger.

Das kommt ganz drauf an, in welcher Anwendung sie ermittelt wurden und welchen Wirkungsgrad die Netzteile haben. Gründsätzlich lässt sich sagen, dass der IDLE - Verbrauch irgendwo zwischen der GTS und GTX liegt und unter Last die Karte mindesten 20 Watt mehr verbraucht als GTX.

Coda
2007-05-14, 12:35:19
Somit werden Texturen innerhalb von Flächen natürlich nicht behandelt.
Werden sie, wenn der Highpass-Filter da eine "Ecke" findet, d.h. die Frequenz "zu hoch" ist.

und beim g80 war deutlich schärfer = flimmer, flimmer, ...
Sorry, aber du hast nichts verstanden. Eine scharfe Textur flimmert nicht wenn man Nyquist erfüllt (d.h. genügend Samples nimmt). nVIDIA tut das beim G8x so perfekt wie noch keine GPU vorher, und wie's aussieht hat R600 wieder diesen AI-Müll, der sichtlich schlimmer war als G71-HQ.

Gut, das wenigstens Computerbase darauf eingeht.

Edit: Anscheinend wurde es wenigstens etwas verbessert. Na dann...

seahawk
2007-05-14, 12:36:08
Zusammenfassend kann ich für mich nur sagen:


Zu hoher stromverbrauch und dadurch wäre neues netzteil nötig
Lautstärke zu groß
AF Filter schlechter
Leistung leider nicht hoch genug zu 8800GTS
Preis? auch hier zieht nix


Ergo

Bei 299 EUR kauf ich mir die 8800 GTS 640

Schade AMD/ATI und auf Wiedersehen :frown:

Noch 15 Euro : http://www.alternate.de/html/product/details.html?articleId=168161

Vertigo
2007-05-14, 12:37:19
Beim Idle Verbrauch ist die Frage ob man Windows XP nutze oder VISTA mit Aero Glass.
Das ist die Frage. Aber wie lautet die Antwort? Welche Reviews bescheinigen der HD2900XT einen niedrigeren idle-Verbrauch?

dildo4u
2007-05-14, 12:37:44
Noch 15 Euro : http://www.alternate.de/html/product/details.html?articleId=168161
http://geizhals.at/deutschland/a224906.html 8,83€ ;)

Gast
2007-05-14, 12:38:13
Wer soll das Ding denn kaufen. Ausser absoluten die-hard Megafanboys wohl niemand. Was eine Verschwendung an Ressourcen...

LovesuckZ
2007-05-14, 12:38:24
Das ist die Frage. Aber wie lautet die Antwort? Welche Reviews bescheinigen der HD2900XT einen niedrigeren idle-Verbrauch?

Arbeite dich durch's Anfangsposting. ;)

Gast
2007-05-14, 12:38:52
Das ist die Frage. Aber wie lautet die Antwort? Welche Reviews bescheinigen der HD2900XT einen niedrigeren idle-Verbrauch?

HWLuxx und THG ermittelt sehr niedriger Werte beim Stromverbrauch.

Fetza
2007-05-14, 12:40:34
DX10 aber ohne AA...
http://forum.beyond3d.com/showpost.php?p=986213&postcount=5563

Sagt mal, bin ich der einzige, dem die performance des games generell nicht zusagt? Ich meine, wenn d3d10 games performance technisch in dieser liga spielen, können wir g80 und r600 doch eh dafür knicken....

captainsangria
2007-05-14, 12:41:03
Ich habe nicht gesagt, dass da kein "Audiocontroller" ist, sondern woher die Sache mit dem Realtek-Chip kam. Auf der HD2000er ist natürlich ein einfacher Soundtransmitter, aber nicht mehr. Dieser kümmert sich um die digitale Soundausgabe bei der Wiedergabe von Filmen. Für Spiele sollte weiterhin die Soundkarte zuständig sein.bei einem der reviews habe ich gelesen, dass dieser soundchip gleich mal die kontrolle übernimmt. nur das umstellen der bevorzugten geräte hat geholfen.

für mich heißt das, dass das eine vollwertige 'soundkarte' sein könnte(!).

Ronny145
2007-05-14, 12:41:11
Bei welchen anderen ist es weniger? Würde mich interessieren und ich will nicht alles durchklicken ... :redface:


U.a. Hardwareluxx, THG, techreport oder hartware.de haben einen niedrigeren Idle Verbrauch getestet. Wobei davon hartware.de totaler Quatsch ist, wenn man sich die Werte genauer ansieht.

Henroldus
2007-05-14, 12:41:19
Was du dir kaufst, interessiert doch keinen. Klingt unfreundlich, ist aber so, das Kaufberatungsforum ist eine Etage tiefer.

Das sehe ich anders DK777
anhand der Reviews(und damit passend in den Thread) bewerte ich diese Karte und verallgemeinere das Fazit nicht auf Andere(und berate diese zum Kauf :confused: )
Da dies ein öffentliches Forum ist kann mir doch nicht verwährt bleiben zu erläutern, welche Schlüsse ich ziehe.
Zumal ich die wichtigsten Argumente dargelegt hab und kein NV-Fanboy(siehe Sig) sondern ein BQ-Fanboy bin!

Vertigo
2007-05-14, 12:41:23
Arbeite dich durch's Anfangsposting. ;)
Genau das wollte ich vermeiden. :rolleyes:
HWLuxx und THG ermittelt sehr niedriger Werte beim Stromverbrauch.
Danke! Viel widersprüchlicher könnten diese Werte im Vergleich mit denen von Computerbase.de kaum sein. Wem soll man da glauben? ;(
U.a. Hardwareluxx, techreport oder hartware.de haben einen niedrigeren Idle Verbrauch getestet. Wobei davon hartware.de totaler Quatsch ist, wenn man sich die Werte genauer ansieht.
Habe eben die Werte im Luxx gesehen. Die sind sehr, sehr freundlich.

Wobei ich die Werte auf hartware.de sogar recht plausibel finde. Was genau hälst Du da für totalen Quatsch?

up¦²
2007-05-14, 12:41:34
Wer französisch versteht oder babbeln läßt:
http://www.presence-pc.com/tests/AMD-Radeon-2900-XT-22674/23/

Gast
2007-05-14, 12:42:36
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/31/#abschnitt_call_of_juarez_d3d10

http://www.guru3d.com/article/Videocards/431/17/

DX10 is jetzt nicht so der Burner für beide Kartenhersteller ^^ Da brauchs wohl erst die Herbst Refreshes beider Hersteller das da was geht.

Zum Glück geht AA bei den nVs momentan nicht, sonst würden wir noch einstellige FPS sehen ^^

Mr. Lolman
2007-05-14, 12:43:43
Zusammenfassend kann ich für mich nur sagen:


Zu hoher stromverbrauch und dadurch wäre neues netzteil nötig
Lautstärke zu groß


Angesichts der Übertaktungsergebnisse wage ich zu behaupten, dass man die Spannung im Defaulttakt abermals nett absenken können wird (ähnlich wie schon beim R580). Außerdem werden manche Hersteller sicher bessere Kühllösungen auf den Markt bringen.


AF Filter schlechter


3DC zeigt da was anderes.


Leistung leider nicht hoch genug zu 8800GTS

Abwarten. Es kommen andauernd neue Treiber raus, die neben Bugfixing auch die Performance erhöhen. Technisch haben R580 und R600 weniger gemein, als G70 und G80, deswegen ist die Treiberentwicklung auch ne größere Herausforderung.


Preis? auch hier zieht nix


Abwarten. Gerade im CF-Mode geht der R600 tw. ordentlich (http://techreport.com/reviews/2007q2/radeon-hd-2900xt/hl2-2048.gif) ab und bis jetzt wars eigentlich (leider) nie so, dass sich das Potential eines neuen ATi Chips in den 1. Tests bereits vollständig gezeigt hätte.

Gast
2007-05-14, 12:45:14
Boing!
http://geizhals.at/deutschland/a225880.html

Gainward BLISS GeForce 8800 GTS 640 - 289€!!

Gast
2007-05-14, 12:45:26
Abwarten. Es kommen andauernd neue Treiber raus, die neben Bugfixing auch die Performance erhöhen. Technisch haben R580 und R600 weniger gemein, als G70 und G80, deswegen ist die Treiberentwicklung auch ne größere Herausforderung.


Das solltest du dochmal genauer ausführen, da es offensichtlich ziemlicher Unsinn ist.