PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HD 2900XT: (P)Review-Thread


Seiten : 1 2 3 4 [5]

seahawk
2007-05-16, 14:07:19
@ DrumDub

Andere AI settings ?

robbitop
2007-05-16, 14:13:20
Sieht man die Ohren auch ohne Colormips? Eben!
In der 1. Map siehst du in der Praxis Ohren? Das moechte ich aufgrund der geringen Verzerrung sehen.
Ausserdem ist der 8x Modus ohne Ohren.

DrumDub
2007-05-16, 14:13:48
@ DrumDub

Andere AI settings ? daran kann es nicht liegen, denn xbit hat mit ai standard getestet, genau wie cb.

robbitop
2007-05-16, 14:17:50
3DC meint, dass sei vergleichbar. R600 AIlow ~= R580 Aioff ~= G80 HQ.
Nein. AI low vs G80 Q vs R580 AI off.

Gast
2007-05-16, 14:19:09
Warum eigentlich nur Q bei den nVidia Karten? Ist doch unfair der 2900XT gegenüber, da diese doch selbst mit Low ein viel besseres Bild liefert.

DrumDub
2007-05-16, 14:19:41
Nein. AI low vs G80 Q vs R580 AI off. dann muss der satz aber wohl korrigiert werden, da dort eindeutig die rede von hq ist: "A.I. on" beim R600-Chip ist somit mit dem "A.I. off" beim R580-Chip und "High Quality" beim G80-Chip nahezu identisch.

robbitop
2007-05-16, 14:24:35
Warum eigentlich nur Q bei den nVidia Karten? Ist doch unfair der 2900XT gegenüber, da diese doch selbst mit Low ein viel besseres Bild liefert.
Wuzz? :|
Beide sind eher ungefaehr equivalent einzuschaetzen.

Gut diese Formulierung zeigt natuerlich den Nachteil, wenn Artikelteile out-gesourct werden.
Da muss ich wohl nochmal ran.

Lawmachine79
2007-05-16, 14:26:35
Wuzz? :|
Beide sind eher ungefaehr equivalent einzuschaetzen.

Gut diese Formulierung zeigt natuerlich den Nachteil, wenn Artikelteile out-gesourct werden.
Da muss ich wohl nochmal ran.
Ähhh das war eigentlich nur ein Trollversuch.

Gast
2007-05-16, 14:29:04
Wuzz? :|
Beide sind eher ungefaehr equivalent einzuschaetzen.


Das war Sarkasmus und Bezug sich auf euren Artikel - dachte, das wäre erkennbar gewesen. :(

robbitop
2007-05-16, 14:32:17
Naja einigen macht es ja offensichtlich Spass, 3DC zu diskreditieren, dass man das im Laufe der Zeit schonmal falsch verstehen kann. :)
Mea culpa.

Lawmachine79
2007-05-16, 14:35:03
Naja einigen macht es ja offensichtlich Spass, 3DC zu diskreditieren, dass man das im Laufe der Zeit schonmal falsch verstehen kann. :)
Mea culpa.
Naja. Frühere Testberichte waren da neutraler. Ich finde ihr habt da einfach zuviele Augen zugedrückt, damit es nicht ganz so vernichtend wird. Leider sind die Technikartikel auch seltener geworden. Insbesondere ein neuer AA-Guide wäre schön.

Gast
2007-05-16, 14:36:07
Naja. Frühere Testberichte waren da neutraler. Ich finde ihr habt da einfach zuviele Augen zugedrückt, damit es nicht ganz so vernichtend wird.

Man kann zwar einiges sagen, aber "einfach zuviele Augen zugedrückt" haben sie bestimmt. Eher war der Zeitdruck und die Aufgabenverteilung ein Problem.

robbitop
2007-05-16, 14:38:12
Naja. Frühere Testberichte waren da neutraler. Ich finde ihr habt da einfach zuviele Augen zugedrückt, damit es nicht ganz so vernichtend wird.
Ich habe mich auf die Praxis bezogen und nicht auf irgendwelche Synthies versteift. Ausserdem war chronischer Zeitmangel da, was dem Artikel natuerlich zu schaffen macht.

IMO ist das immernoch besser als irgendwelche Synthies durchrennen zu lassen und anscheinend nichteinmal die Grundlagen der Texturfilterung verstanden zu haben.

Wenn mehr Zeit gewesen waere, waere AI off hinzugekommen und sicher auch mehr Synthies fuer die Masse. Und ein wesentlich umfangreicherer BQ Vergleich, ohne Pixelversatz. Leider sind wir anscheinend nicht so wichtig wie z.B. die PCGH, die das Ding zeitlich fast um Faktor 7 laenger in den Haenden halten durfte.

seahawk
2007-05-16, 14:42:11
Nein. AI low vs G80 Q vs R580 AI off.

Steht das nicht anders im Review ?

robbitop
2007-05-16, 14:46:01
Steht das nicht anders im Review ?

Erst einmal in Bewegung, setzt sich das "High Quality" des G80-Chips dann aber doch an die Spitze.

Spitze = besser als alles andere.

Lawmachine79
2007-05-16, 15:07:41
die das Ding zeitlich fast um Faktor 7 laenger in den Haenden halten durfte.

Ok. Das kann man gelten lassen. Trotzdem hätte ich dann noch die Prioriät auf HQ vs. AI Off gelegt.

robbitop
2007-05-16, 15:14:56
Ja das ist eine Kontroverse bei der es immer verschiedene Meinungen gibt. Ich hoffe, dass wir naechstes Mal mindestens eine Woche lang Zeit haben. Dann sind ganz andere Dinge moeglich.

Blaire
2007-05-16, 16:43:37
http://www.xbitlabs.com/articles/video/display/r600-architecture_16.html

^^ Schaut euch mal die Halflife2 Bilder an , bei Ati werden die Zäune wieder unsichtbar und der Nebelbug tritt auch auf.

sulak
2007-05-16, 16:55:25
Valve und nV streiten doch schon länger an wem das liegt ^^

Hier wurden auch mal die 8pin und 6pin Anschlüsse gemessen (ganz unten die 3 kleinen Bildchen anklickern): http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html

Wer die Karte haben will sollte nachsehen ob sein Netzteil das liefern kann.

Coda
2007-05-16, 16:59:32
Valve und nV streiten doch schon länger an wem das liegt ^^
An Valve. Der Refrast rendert den selben Mist wie G80 und jetzt R600.

Sk_Antilles
2007-05-16, 17:31:46
Valve und nV streiten doch schon länger an wem das liegt ^^

Hier wurden auch mal die 8pin und 6pin Anschlüsse gemessen (ganz unten die 3 kleinen Bildchen anklickern): http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html

Wer die Karte haben will sollte nachsehen ob sein Netzteil das liefern kann.

Da stimmt bei der vorletzten Grafik etwas nicht mit dem Balken der 8800GTX. Da steht 83.3 Watt zusätzlich bei Vollast, der Balken selber ist aber _wesentlich_ kürzer als die 73.8W von der 2900XT. :rolleyes:
Da haben die gepfuscht.

Also stehen tun da 83.3 Watt bei der 8800xt, der Balken ist aber nur ca. 40 Watt lang...und es werden auch nur ca. 40 W anstatt den 83.3W dazu addiert.

Mr. Lolman
2007-05-16, 17:42:43
dann muss der satz aber wohl korrigiert werden, da dort eindeutig die rede von hq ist:
"A.I. on" beim R600-Chip ist somit mit dem "A.I. off" beim R580-Chip und "High Quality" beim G80-Chip nahezu identisch.


So siehts aus. Außerdem soll ja R580 Ailow dem G80 Q ziemlich ähnlich sein. :|

AnarchX
2007-05-16, 17:43:39
@Sk_Antilles:

Ich sehe keinen Fehler bei der Grafik. Zudem wird auch nicht wirklich klar was du nun meinst.

Sk_Antilles
2007-05-16, 17:55:08
Na, schau dir mal den 83.3W Vollast Balken von der 8800gtx an...der ist wesentlich kürzer als der 74 W Vollast Balken der 2900XT.
Beim Idle Verbrauch sind die Balken der beiden noch ok. Beide um die 70 Watt lang, dann wird der 8800GTX Balken bei Vollast wesentlich kürzer, als der 2900XT Last Balken, obwohl bei der 8800GTX mehr Verbrauch angegeben wird.

2900XT IDLE+LAST = 71.7 + 75.8 =147.5 (+ 2d peak??)
8800GTX IDLE+LAST = 70 + 83.3 = 153.3 W (+2d peak??)

DrumDub
2007-05-16, 17:57:58
Da stimmt bei der vorletzten Grafik etwas nicht mit dem Balken der 8800GTX. Da steht 83.3 Watt zusätzlich bei Vollast, der Balken selber ist aber _wesentlich_ kürzer als die 73.8W von der 2900XT. :rolleyes:
Da haben die gepfuscht.

Also stehen tun da 83.3 Watt bei der 8800xt, der Balken ist aber nur ca. 40 Watt lang...und es werden auch nur ca. 40 W anstatt den 83.3W dazu addiert. da wird nichts addiert. es werden in einem balken jeweils drei unterschiedliche werte angezeigt: verbrauch 2d idle (gelb), verbrauch 2d peak (orange) und verbrauch 3d peak (rot). wenn die beiden werte verbrauch 2d idle (gelb), verbrauch 2d peak (orange) nicht da wären, gäb es nur den balken in komplett rot. man kann die werte also auch auf drei unterschiedliche balken aufsplitten, die nichts miteinander zu tun haben.

Sk_Antilles
2007-05-16, 18:04:11
da wird nichts addiert. es werden in einem balken jeweils drei unterschiedliche werte angezeigt: verbrauch 2d idle (gelb), verbrauch 2d peak (orange) und verbrauch 3d peak (rot). wenn die beiden werte verbrauch 2d idle (gelb), verbrauch 2d peak (orange) nicht da wären, gäb es nur den balken in komplett rot. man kann die werte also auch auf drei unterschiedliche balken aufsplitten, die nichts miteinander zu tun haben.

Ja, aber schau doch mal genau bei den 8800GTX Balken hin. Der stimmt einfach nicht.

Argh. Sorry. Hab mich vertan. Ich dachte die 83.3W ist die zusätzlich Wattangabe in 3D, aber das ist ja die Gesamtwattzahl in 2D Peak :redface:
Kommt daher das die Zahl im roten Feld steht. Unglücklich gemacht. ;)

DrumDub
2007-05-16, 18:05:16
2900XT IDLE+LAST = 71.7 + 75.8 =147.5 (+ 2d peak??)
8800GTX IDLE+LAST = 70 + 83.3 = 153.3 W (+2d peak??) nein! nicht addieren! habs doch schon erklärt.

Coda
2007-05-16, 18:29:14
Da stimmt bei der vorletzten Grafik etwas nicht mit dem Balken der 8800GTX. Da steht 83.3 Watt zusätzlich bei Vollast, der Balken selber ist aber _wesentlich_ kürzer als die 73.8W von der 2900XT. :rolleyes:
Da haben die gepfuscht.

Also stehen tun da 83.3 Watt bei der 8800xt, der Balken ist aber nur ca. 40 Watt lang...und es werden auch nur ca. 40 W anstatt den 83.3W dazu addiert.
Du hast das Diagram nicht verstanden.

Sk_Antilles
2007-05-16, 18:32:53
Du hast das Diagram nicht verstanden.

Nein, ich habe es schon verstanden. Nur haben mich die 2D-Peak Zahlen im Roten Balken verwirrt. Ich dachte erst das wären die 3D Vollastwerte. :wink:

Liszca
2007-05-16, 19:08:45
Naja. Frühere Testberichte waren da neutraler. Ich finde ihr habt da einfach zuviele Augen zugedrückt, damit es nicht ganz so vernichtend wird. Leider sind die Technikartikel auch seltener geworden. Insbesondere ein neuer AA-Guide wäre schön.

genau, ich hab mich ja bisher nicht getraut es auszusprechen, da ich kein Groß und kLEIN schreibung beherrsche. aber ihr seid einfach zu pro ati, bzw EUERE gründe sind nicht ersichtlich genug dargestellt.

Nakai
2007-05-16, 19:25:27
genau, ich hab mich ja bisher nicht getraut es auszusprechen, da ich kein Groß und kLEIN schreibung beherrsche. aber ihr seid einfach zu pro ati, bzw EUERE gründe sind nicht ersichtlich genug dargestellt.

Naja so pro ATI, sind die Benches auch nicht.

Manchmal wird 3DC als pro NV und dann wieder als pro ATI dargestellt...das geht doch nicht^^^.

mfg Nakai

Fetza
2007-05-16, 19:31:02
genau, ich hab mich ja bisher nicht getraut es auszusprechen, da ich kein Groß und kLEIN schreibung beherrsche. aber ihr seid einfach zu pro ati, bzw EUERE gründe sind nicht ersichtlich genug dargestellt.

Was hat das denn mit groß- und kleinschreibung zu tun? Ich kann eigentlich sowohl die groß- als auch die kleinschreibung, bemühe sie hier aber nicht.

Viel mehr möchte ich einmal anmerken, dass das 3dcenter früher allgemein als "grün" galt, und meiner meinung nach auch damals durchaus tendenziell da hin ging. Das wurde damals sogar ati zu bunt, und sie haben dann keine karte (wars der r520?) zum testen geschickt.

Was war an den aktuellen test des r600 eigentlich so "biased"? Ich meine das die filterqualität nicht so gut wie beim g80 ist wurde angesprochen, gleichzeitig erwähnt, das dies aber nicht weiter schlimm sei, da ati seit r520 gutes af implementiert hat. Der laute kühler wurde erwähnt, die treiberprobleme auch.... das aa wurde beleuchtet.... was möchtet ihr für einen test haben?

Gmax
2007-05-17, 00:33:41
ASUS HD 2900XT: Overclocking (http://www.nordichardware.com/Reviews/?skrivelse=510)

robbitop
2007-05-17, 00:48:25
Naja so pro ATI, sind die Benches auch nicht.

Manchmal wird 3DC als pro NV und dann wieder als pro ATI dargestellt...das geht doch nicht^^^.

mfg Nakai
Die Fanboys beider Seiten machen sich es immer passend. Was soll man machen? Ich fuerchte wir muessen damit leben. ;)

Nakai
2007-05-17, 11:32:06
Ich finde es lächerlich, dass manche die 3DC-Redakteuere als Fanboys irgendeiner Seite beschimpfen.
Wenn sie im Forum unterwegs sind, merkt man doch dass sie sehr neutral sind.^^

Was war an den aktuellen test des r600 eigentlich so "biased"? Ich meine das die filterqualität nicht so gut wie beim g80 ist wurde angesprochen, gleichzeitig erwähnt, das dies aber nicht weiter schlimm sei, da ati seit r520 gutes af implementiert hat. Der laute kühler wurde erwähnt, die treiberprobleme auch.... das aa wurde beleuchtet.... was möchtet ihr für einen test haben?

Es scheint mir, dass viele den R600 einfach als zu schwach sehen. Und das ist er sicherlich nicht. Er ist eine gute GPU, mit vielen guten Dingen, natürlich hat er auch Schwächen, jedoch machen diese Schwächen nicht seine Vorteile hinüber.

mfg Nakai

Mancko
2007-05-17, 12:26:29
Es scheint mir, dass viele den R600 einfach als zu schwach sehen. Und das ist er sicherlich nicht. Er ist eine gute GPU, mit vielen guten Dingen, natürlich hat er auch Schwächen, jedoch machen diese Schwächen nicht seine Vorteile hinüber.
mfg Nakai

Na dann zähl doch mal bitte die guten Dinge auf.
Aus meiner Sicht ist das einzige Gute an dem Teil momentan, dass Nvidia's Preise sinken - vor allem für die GTS.

Kaufgründe gegenüber den Nvidia Karten kann ich aber momentan leider nicht erkennen aber vielleicht hilfst du mir auf die Sprünge. Das Teil hat imho viel zu viele Nachteile und "wenns" und "abers".

Daredevil
2007-05-17, 12:39:14
Na dann zähl doch mal bitte die guten Dinge auf.
Aus meiner Sicht ist das einzige Gute an dem Teil momentan, dass Nvidia's Preise sinken - vor allem für die GTS.

Kaufgründe gegenüber den Nvidia Karten kann ich aber momentan leider nicht erkennen aber vielleicht hilfst du mir auf die Sprünge. Das Teil hat imho viel zu viele Nachteile und "wenns" und "abers".
Genau das machts ja interesannt, was ist WENN die Karte nun doch noch zulegt mit besseren Treibern, in OpenGL Spielen hat sie ja bewiesen das sie es in sehr hohen Settings sogar mit einer 8800ultra aufnehmen kann, das kann die gts ja logischerweise nich, entweder is man gescheit und holt sich ne gts oder man ist Experimentierfreudig und holt sich ne 2900xt die vieleicht ja noch VIEL schneller werden kann ( Was sie ohne zweifel in OpenGl schon ist ).

Nimm dir The Chronicles of Riddick auf 2560x1600 8xAA/16xAF, dort ist die 2900xt mal eben 93% schneller, mit den Beta beschissenen Releasetreibern.
Deswegen könnte es gut sein das die Karte eben nicht irgendwie Defekt ist, sondern einfach nur ( was so oder so schon offensichtlich war ) Treiberprobleme hat, OpenGl läuft und DirektX eher nicht so...bzw. mit zugeschaltetem AA+AF.
Von der reinen Rohleistung her hat die gute Karte nunmal mehr Power, wenn ATI nun noch das Problem mit den Leistungseinbrüchen hinbekommen ( Was ja dank dem Speicherinterface "eigentlich" gut sein SOLLTE ) ist die Karte ihr Geld schon Wert.

Aber wie du schon sagtest, wenn :(

up¦²
2007-05-17, 12:55:07
Fundsachen:
http://img475.imageshack.us/img475/3060/newstper600showmay0704lte3.jpg


Asus hat neue Vista-Treiber!
Vista 7.5. RC2, 13.5.2007
http://asustreiber.de/request.php?556

Gast
2007-05-17, 13:02:02
ach du lieber Gott sind auf der anderen Seite auch zwei?
Bin ich froh das ich eine GTX habe.

4711
2007-05-17, 13:09:01
Genau das machts ja interesannt, was ist WENN die Karte nun doch noch zulegt mit besseren Treibern, in OpenGL Spielen hat sie ja bewiesen das sie es in sehr hohen Settings sogar mit einer 8800ultra aufnehmen kann, das kann die gts ja logischerweise nich, entweder is man gescheit und holt sich ne gts oder man ist Experimentierfreudig und holt sich ne 2900xt die vieleicht ja noch VIEL schneller werden kann ( Was sie ohne zweifel in OpenGl schon ist ).

Nimm dir The Chronicles of Riddick auf 2560x1600 8xAA/16xAF, dort ist die 2900xt mal eben 93% schneller, mit den Beta beschissenen Releasetreibern.
Deswegen könnte es gut sein das die Karte eben nicht irgendwie Defekt ist, sondern einfach nur ( was so oder so schon offensichtlich war ) Treiberprobleme hat, OpenGl läuft und DirektX eher nicht so...bzw. mit zugeschaltetem AA+AF.
Von der reinen Rohleistung her hat die gute Karte nunmal mehr Power, wenn ATI nun noch das Problem mit den Leistungseinbrüchen hinbekommen ( Was ja dank dem Speicherinterface "eigentlich" gut sein SOLLTE ) ist die Karte ihr Geld schon Wert.

Aber wie du schon sagtest, wenn :(

wenn das AA und AF prob. eine Trebersache ist bekommen die das schneller in den Griff als es so einigen lieb ist..und dann ist das Ding jeden cent Wert.
Und meine Frage nach Benches in dem anderen Tread sind auch nicht ironisch gemeint.......

Daredevil
2007-05-17, 13:23:17
Morgen mach ich dir soviel Benches wie du willst *schon ganz rattig ist*
und heute vorm zu Bett gehen bete ich dann noch eine Runde das mein Netzteil das auch schafft, sonst muss ich morgen wohl den ganzen Tag heulen weil ich sie da hab aber sie nicht benutzen kann ;D

4711
2007-05-17, 13:29:17
von ner XT,die bringen zur Zeit nix....von ner GTS in 25...x12... würd ich gerne mal einen sehen....16AF- 4AA...aber da getraut sich ja keiner... :D

Daredevil
2007-05-17, 13:33:35
Ach stümmt ja, habsch mal wieder verpeilt.
Hier aber noch was von der 2900xt, wurde im HWLuxx gepostet, ich weiß das derjenige hier auch angemeldet is aber mir fällt der Name grad nich ein :)
Der hat nen Quadcore @ 4.3 GHz
also bisher bestätigen meine Tests nicht das schlechte Image der Karte, Far Cry läuft zb. butterweich mit 8AA/16HQ-AF @ 1920x1200 immer > 70 FPS, Call of Juarez mit HDR/16HQ-AF @ 1920x1200 immer > 60 FPS, Test Drive Unlimited ebenfalls bei gleichen Einstellungen wie Call of Juarez > 60 FPS.

Das einzige was mich bisher stört, daß nicht bei jedem Game HDR und AA gleichzeitig laufen können, hoffe das wird noch gefixt (TDU, Call of Juarez).


also in den von mir genannten Games liegt sie @ 885/1000 sicherlich auf dem Niveau einer 8800 Ultra, werde aber noch weitere Games testen.

*edit*
Wesker wars ^^

Gast
2007-05-17, 13:42:11
wenn das stimmt,dann versteh ich aber so einiges nicht mehr.....

mapel110
2007-05-17, 13:53:25
TDU läuft besser als auf einer Geforce8800. Das sieht man im 3DCenter-Review. Farcry ist schon ziemlich CPU-Limitiert.
http://www.hexus.net/content/item.php?item=8687&page=7
Da spielts nicht wirklich eine Rolle, welche Karte man drin hat. Da genügt sogar altes High End für hohe Auflösung.

Und COJ hat auch kein größeres Problem gezeigt in den Reviews der X2900.

Also widerspricht seine Aussage nicht den bisherigen Ergebnissen der Reviews.

DaEmpty
2007-05-17, 14:02:03
Farcry ist schon ziemlich CPU-Limitiert.
http://www.hexus.net/content/item.php?item=8687&page=7
Da spielts nicht wirklich eine Rolle, welche Karte man drin hat. Da genügt sogar altes High End für hohe Auflösung.
Du behauptest FarCry wäre CPU-limiert und bringst zum Beweis einen Link, der einer 8800Ultra die doppelte Framerate einer 2900XT zuspricht?

reunion
2007-05-17, 14:05:32
Du behauptest FarCry wäre CPU-limiert und bringst zum Beweis einen Link, der einer 8800Ultra die doppelte Framerate einer 2900XT zuspricht?

Und vorallem selbst eine X1950XT eine ~50% höhere Framerate.

AnarchX
2007-05-17, 14:30:27
Bei HKEPC gibt es nun auch einen Test, aber mit 8.38 unter Vista:
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821

deekey777
2007-05-17, 14:37:54
Du behauptest FarCry wäre CPU-limiert und bringst zum Beweis einen Link, der einer 8800Ultra die doppelte Framerate einer 2900XT zuspricht?
Far Cry ist "systemlimitiert". DX-limitiert, Treiber-Overhead-limitiert...
Wenn man die "falsche" Timedemo erwischt (wie zB Research), dann kann zwar eine Grafikkarte ihre Muskeln voll ausspielen, aber das bedeutet nicht, dass die Grafikkarte in Far Cry den Ton angibt.
Was aber mit der HD2900XT los ist, ist mir ein Rätsel.
Bei HKEPC gibt es nun auch einen Test, aber mit 8.38 unter Vista:
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821
8.38 sagt leider nicht viel aus. ;(

Gast
2007-05-17, 14:38:19
Bei HKEPC gibt es nun auch einen Test, aber mit 8.38 unter Vista:
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821

hm, sieht doch nicht schlecht aus sofern da nich paar details fehlen.
Aber was noch viel schlimmer is, sind die dx10 bench. Das macht die karte erst recht zu nem fehlkauf.

mfg

J0ph33
2007-05-17, 14:42:21
sieht schon besser aus, fast durchgängig vor der 8800GTS, auch mit AA

4*AA-Benches mit dem neuen treiber wären interessant, da hier ja vorher ein absolut unverhältnismäßiger einbruch zu verzeichnen war...

Exxtreme
2007-05-17, 14:43:00
8.38 sagt leider nicht viel aus. ;(
Öhmm, warum nicht? ;(

dr_mordio
2007-05-17, 14:43:51
hm, sieht doch nicht schlecht aus sofern da nich paar details fehlen.
Aber was noch viel schlimmer is, sind die dx10 bench. Das macht die karte erst recht zu nem fehlkauf.

mfg
stimmt, denn auf lost planet konnten sie noch garnicht optimieren.
ich denke daher ebenso wie du, das die GTS nen fehlkauf wäre, da in der 2900xt noch ne menge drinnsteckt.
alle anderen benches sind ja schon sehr gut über der GTS zum teil schon eher auf GTX level

hätte gern gewußt welche nummer der treiber hat. 8.38 sagt da wenig aus.

aber wenigstens kommt sie jetzt auch mit AA und AF gut zurechet

MfG
Alex

deekey777
2007-05-17, 14:44:39
hm, sieht doch nicht schlecht aus sofern da nich paar details fehlen.
Aber was noch viel schlimmer is, sind die dx10 bench. Das macht die karte erst recht zu nem fehlkauf.

mfg
Ach, da gibt's ne lustige Geschichte zu den beiden D3D10-Tests:
http://www.legitreviews.com/article/504/1/
AMD.ATI's Statement:

"The game’s developer, Techland has found that this was caused by an application issue when MSAA is enabled. The benchmark can be run on both ATI Radeon and NVIDIA hardware with MSAA disabled. This application issue will be fixed in an upcoming patch available in the next couple of weeks. The full DirectX 10 version of Call of Juarez will be available to the public sometime in June with full functionality for all DirectX 10 capable graphics cards."
NVIDIA's Statement:

"NVIDIA has a long standing relationship with Techland and their publisher Ubisoft. In fact, the original European version of Call Of Juarez that was launched in September 2006 is part of the "The Way Its Meant To Be Played" program. As a result of the support Techland and Ubisoft receives for being part of the "The Way Its Meant To Be Played" program, NVIDIA discovered that the early build of the game that was distributed to the press has an application bug that violates DirectX 10 specifications by mishandling MSAA buffers, which causes DirectX 10 compliant hardware to crash. Our DevTech team has worked with Techland to fix that and other bugs in the Call of Juarez code. Benchmark testing for reviews should be performed with the latest build of the game that incorporates the DirectX 10 fixes. Previous builds of the game should not be used for benchmarking with or without AA. For details on how to get the patch and for further information please contact Techland or Ubisoft."
Und jetzt Lost Planet...
http://www.legitreviews.com/article/505/1/
AMD's Comments on Lost Planet:

Before you begin testing, there are a few points I want to convey about “Lost Planet”. “Lost Planet” is an Nvidia-sponsored title, and one that Nvidia has had a chance to look at and optimize their drivers for. The developer has not made us aware of this new benchmark, and as such the ATI Radeon driver team has not had the opportunity explore how the benchmark uses our hardware and optimize in a similar fashion. Over the next little while AMD will be looking at this, but in the meantime, please note that whatever performance you see will not be reflective of what gamers will experience in the final build of the game.

NVIDIA's Comments on Lost Planet:

This week, Capcom will be releasing two versions of its Lost Planet: Extreme Condition demo for the PC. Both versions will contain the same content (i.e., no differences in game play), but one version will be DirectX 9 and the other DX 10. The latter version will be the world’s first downloadable DX 10 game demo. The demo also contains a system performance test. The test is an in-engine run-through of two levels of the game, complete with enemies, explosions and 3D meshes. The performance test shows your current FPS, average FPS, relevant system info (CPU and speed, graphics card, resolution and DX version) and, after a complete pass through of both levels, an average FPS for both the “Snow” and “Cave” sections. We think that this tester will be a useful tool for your testing purposes, as well as for your community.
Öhmm, warum nicht? ;(
Ganz einfach: Wieviele Versionen gab es vom 8.37? Mehrere, zB 8-37-4-070419a-046506E oder 8.37.4.3-070510a-047096E-ATI. Und es ist davon auszugehen, dass auch vom 8.38 mehrere Versionen gibt (er ist ja eine Parallelentwicklung zum 8.37).

up¦²
2007-05-17, 14:46:32
hat jemand diesen schon getestet?
Vista 7.5. RC2, 13.5.2007
http://asustreiber.de/request.php?556
(BTW, Danke, Asustreiber.de - tolle seite!)

reunion
2007-05-17, 14:52:15
Bei HKEPC gibt es nun auch einen Test, aber mit 8.38 unter Vista:
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821

Also die Shadertest sind nicht ohne:

Vertex Shader Test:

HD 2900 XT 8800Ultra
Float MAD Serial 47.6 7.92
Float4 MAD Parallel 48.2 7.92
Float SQRT Serial 47.6 7.92
Float 5-instruction issue 225.6 19.8
Int MAD Serial 23.6 7.91
Int4 MAD Parallel 11.68 3.85

Pixel Shader Test:

HD 2900 XT 8800Ultra
Float MAD Serial 47.2 152.6
Float4 MAD Parallel 58.1 27.9
Float SQRT Serial 47.2 23.5
Float 5-instruction issue 224.7 64.6
Int MAD Serial 23.6 34.2
Int4 MAD Parallel 11.4 5.3

Bei parallelen Instructionen (was immer auch damit gemeint ist) scheint R600 deutliche Vorteile zu haben, dafür bei seriellen im Nachteile zu sein.

up¦²
2007-05-17, 14:53:37
Zur Info: russische experimente... mit R600
http://www.overclockers.ru/hardnews/25658.shtml

AnarchX
2007-05-17, 14:55:06
Also die Shadertest sind nicht ohne:


Diese Test-Suite kommt direkt von AMD... ;)

PCGH_Carsten
2007-05-17, 14:58:19
Also die Shadertest sind nicht ohne:

Vertex Shader Test:

HD 2900 XT 8800Ultra
Float MAD Serial 47.6 7.92
Float4 MAD Parallel 48.2 7.92
Float SQRT Serial 47.6 7.92
Float 5-instruction issue 225.6 19.8
Int MAD Serial 23.6 7.91
Int4 MAD Parallel 11.68 3.85

Pixel Shader Test:

HD 2900 XT 8800Ultra
Float MAD Serial 47.2 152.6
Float4 MAD Parallel 58.1 27.9
Float SQRT Serial 47.2 23.5
Float 5-instruction issue 224.7 64.6
Int MAD Serial 23.6 34.2
Int4 MAD Parallel 11.4 5.3

Bei parallelen Instructionen (was immer auch damit gemeint ist) scheint R600 deutliche Vorteile zu haben, dafür bei seriellen im Nachteile zu sein.

Ja, sehr interessant. Noch interessanter wird's allerdings, wenn man die Werte von GTX und Ultra mal hinzunimmt. ;)

Die "seriellen" sind abhängige Skalare, Parallel Vector4. Das ist der große Unterschied.

deekey777
2007-05-17, 14:58:27
Das ist doch nichts neues (der Test ist eh von ATi). Man zeigt, wann der R600 nur ein Fünftel der Leistung zeigt (seriell: nacheinander folgende voneinander abhängige Instruktionen) und seine volle Leistung entfaltet (parallel: nebeneinander zu berechnende und voneinander unabhängige Instruktionen).
SQRT = SF, die kann der G80 nur alle vier Takte ausführen, der R600 jeden Takt ("fette" SP-Einheit). Für eine float5-Instruction (5 skalare Instruktionen werden zu einer Vec5 zusammengefasst) braucht der R600 logischerweise nur einen Takt, der G80 fünf Takte.

Irgendwelche Leute drängen sich vor, furchtbar... ;(

---------------------------------------------------------
http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page20.php

reunion
2007-05-17, 15:03:07
Diese Test-Suite kommt direkt von AMD... ;)

Oh, okay, das wusste ich nicht. Das macht das ganz natürlich ziemlich unbrauchbar.

Ja, sehr interessant. Noch interessanter wird's allerdings, wenn man die Werte von GTX und Ultra mal hinzunimmt. ;)


Was meinst du, das waren die Werte der Ultra laut dem Test.
---------------------------------------------------------
Da geht's weiter: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362885