PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HD 2900XT: (P)Review-Thread, Part deux


Seiten : 1 2 [3] 4 5

Tjell
2007-06-01, 17:21:22
Hmm, wie war das noch, D3D10 ermöglicht schönere und schnellere Grafik? Der Einbruch von D3D9 nach D3D10 ist ja durchweg übelst.

pXe
Ich denke, dass es so gemeint ist: bei derselben Anzahl/Komplexität an Shadern und Effekten.

Wenn mehr optische Gimmicks geliefert werden, geht die Performance zurück.

Wie anfangs bei DX9 eben: entweder höhere Performance oder bessere Optik.

Wir reden hier übrigens über die erste DX10-Chipgeneration, die wird kaum Bäume ausreißen unter der obigen Prämisse, sondern eher unter DX9 noch Ihre Stärken haben.

Deshalb glaube ich, dass der G80 wieder einmal ein Produkt der Gegenwart ist und der R600 eines der Zukunft, nur wenn der zweitgenannte seine wahren Stärken ausspielen können wird, gehört er längst zum Midrange.

Beide Ansätze kann man gut oder schlecht finden, das bleibt jedem selbst überlassen.

Ergänzung:
CoH-Benchmarks bei CB (http://www.computerbase.de/news/software/spiele/strategiespiele/2007/juni/kurztest_company_heroes_directx-10-patch/)

HOT
2007-06-01, 17:24:45
Ist der neue CoH Client 64bittig wenigstens? Ansonsten war der Patch echt sinnlos...

Odal
2007-06-01, 17:44:15
Ergänzung:
CoH-Benchmarks bei CB (http://www.computerbase.de/news/software/spiele/strategiespiele/2007/juni/kurztest_company_heroes_directx-10-patch/)

lol die ergebnisse sind ja krass...2,5- fast 4 fache geschwindigkeit unter DX9 wie unter DX10

anhand der screenshots meine ich aber das die texturauflösung unter DX10 ne stufe höher ist...->speicher voll?

san.salvador
2007-06-01, 17:59:56
Ist der neue CoH Client 64bittig wenigstens? Ansonsten war der Patch echt sinnlos...
Was hat DX10 mit 64Bit zu tun?

Gast
2007-06-02, 15:18:06
Es gibt Nachschub an Benchmarks und es entwickelt sich tatsächlich immer besser! Nur weiter so!

http://pics.krawall.de/4/radeon-hd2900xt_ss2_2.gif
http://pics.krawall.de/4/radeon-hd2900xt_prey_2.gif
http://pics.krawall.de/4/radeon-hd2900xt_fear_2.gif
http://pics.krawall.de/4/radeon-hd2900xt_hl2lc_2.gif
http://pics.krawall.de/4/radeon-hd2900xt_coh_2.gif
http://pics.krawall.de/4/radeon-hd2900xt_coj_1.gif

Wenn da noch mehr rauszuholen ist, dann Respekt! :up:

Gast
2007-06-02, 15:27:53
Es gibt Nachschub an Benchmarks und es entwickelt sich tatsächlich immer besser!


Kann nicht ein, weil es ein uralter Treiber ist. Außerdem nur 8xAF, keine Infos zu TAA, also wertloses Review.

mapel110
2007-06-02, 15:44:22
Wie haben die eine 7900 GTX zu AA und HDR in Serious Sam2 bewegt?

Ansonsten sind nur die Fear- und LC-Benchmarks besser, aus welchem Grund auch immer. :|

Gast
2007-06-02, 15:47:57
Kann nicht ein, weil es ein uralter Treiber ist.

Was nichts heißen muss. ;)

Ich wollte damit lediglich weitere Ergebnisse posten, da es auch gut sein kann, das die bekannten Seiten miese Benches gefahren und/oder Fehler gemacht haben.

Andererseits ist das nun schon das zweite und dritte Review in dem die Karte viel besser abschneidet, als z.B. bei der CB.

Pirx
2007-06-02, 16:47:24
Wie langsam sind eigentlich diese absoluten Top-Karten bei der CoJ-Demo?:lol: Soll das der Ausblick auf DX10 sein? Steigt mit dem Aufwand eigentlich überhaupt noch der Ertrag (Bildquali)?

mapel110
2007-06-02, 17:02:33
Wie langsam sind eigentlich diese absoluten Top-Karten bei der CoJ-Demo?:lol: Soll das der Ausblick auf DX10 sein? Steigt mit dem Aufwand eigentlich überhaupt noch der Ertrag (Bildquali)?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5548744#post5548744
wird ab hier schon seit 5 oder 6 Seiten diskutiert.

misterh
2007-06-03, 02:53:08
hab doch, trotz 470w netzteil und wenig spielraum, mit 2900XT OC

8800GTS 640MB 2900XT 512MB

Treiber Version 158.24 RC7 7.5 7.5

740/825 840/1000

HalfLife2

1680x1050

1xAA 1xAF 108.10 108.39 111.13 113.09

4xAA 16xHQ-AF 105.04 90.42 92.69 98.40

8xAA 16xHQ-AF 90.77 82.08 83.99 88.73

Counter Strike Source

1680x1050

1xAA 1xAF 215.25 224.83 230.47 228.34

4xAA 16xHQ-AF 190.69 192.72 209.87 220.44

8xAA 16xHQ-AF 118.67 175.25 178.79 194.65

HOT
2007-06-03, 11:31:28
Was hat DX10 mit 64Bit zu tun?
Wenn man schon den Client so stark verändert, hätte man den auch auf 64Bit kompilieren können...
Es ging mit net um DX10, dass das bei dem Game net viel bringt, war meiner Meinung nach vorhersehbar und darauf wollt ich net hinaus.

Coda
2007-06-03, 12:43:23
Hat das Spiel überhaupt ein Speicherproblem? Wenn nicht, was soll 64-Bit dann?

Gast
2007-06-05, 09:53:07
Jetzt kommt langsam leben in die Bude!!

"Seitens Sapphire heißt es nur, dass man die GPU "mehr als 15 Prozent" übertaktet hätte. Der Standardtakt wäre 742 MHz, entsprechend müsste Sapphire auf über 853,3 MHz kommen."

Die erste übertaktete Variante und gleich über 100 MHz draufgelegt? Mal sehen, was am Ende dabei herauskommt!

James Ryan
2007-06-05, 09:55:40
Jetzt kommt langsam leben in die Bude!!

"Seitens Sapphire heißt es nur, dass man die GPU "mehr als 15 Prozent" übertaktet hätte. Der Standardtakt wäre 742 MHz, entsprechend müsste Sapphire auf über 853,3 MHz kommen."

Die erste übertaktete Variante und gleich über 100 MHz draufgelegt? Mal sehen, was am Ende dabei herauskommt!

Die meisten HD 2900 XT User berichten von relativ guter Übertaktbarkeit, 850 MHz sollen meist locker funktionieren.
Wenn Sapphire eine HD 2900 XT mit 850/1000 MHz samt neuen leisen Kühler bringt (der schonmal abgelichtet wurde) und dies nicht allzuteuer macht, könnte es eine sehr interessant Karte werden. Der Stromverbrauch bleibt allerdings ein KO-Kriterium.

MfG :cool:

seahawk
2007-06-05, 10:00:06
Sehr meberkenswert fand ich einen kleine Satz im Review der PCGH. Sie haben wohl einige Spiele gefunden wo man keine Unterschied zwischen AI ON und AI Off sieht.

James Ryan
2007-06-05, 10:03:32
Sehr meberkenswert fand ich einen kleine Satz im Review der PCGH. Sie haben wohl einige Spiele gefunden wo man keine Unterschied zwischen AI ON und AI Off sieht.

Und dies wieder mit 2x2 cm "großen" Screenshots belegt? ;)

MfG :cool:

seahawk
2007-06-05, 10:07:04
Nein, der Screenshot der die Unterschied darlegt ist eigentlich sehr deutlich. Sie geben nur an, dass es bei einigen Speilen eben zu keinen Veränderungen kommt.

Gast
2007-06-05, 10:22:25
Sehr meberkenswert fand ich einen kleine Satz im Review der PCGH. Sie haben wohl einige Spiele gefunden wo man keine Unterschied zwischen AI ON und AI Off sieht.Toll, es gibt auch Spiele wo Quality mit Sample-Optimierung auf G70 in Ordnung ist. Das ist also keine Kunst.

MadManniMan
2007-06-05, 10:23:22
Nein, der Screenshot der die Unterschied darlegt ist eigentlich sehr deutlich. Sie geben nur an, dass es bei einigen Speilen eben zu keinen Veränderungen kommt.

Mich wundert nicht, daß manche Applikation keine bedeutsamen Veränderungen erfährt, aber damit man Bri von Tri nicht unterscheiden kann, müssen es schon sehr, sehr gutmütige Texturen sein!

James Ryan
2007-06-05, 10:26:45
Nein, der Screenshot der die Unterschied darlegt ist eigentlich sehr deutlich. Sie geben nur an, dass es bei einigen Speilen eben zu keinen Veränderungen kommt.

Habe die PCGH erst morgen, wie groß ist denn der abgebildete Screenshot? Liegen die Screens auch auf der DVD bei?
Diese komischen Briefmarken-Bilder in der PCGH sind meist nämlich überflüssig, wie man damit Unterschiede in der Texturfilterung zeigen will kann ich auch nicht nachvollziehen.

MfG :cool:

Gast
2007-06-05, 10:44:31
Die meisten HD 2900 XT User berichten von relativ guter Übertaktbarkeit, 850 MHz sollen meist locker funktionieren.
Wenn Sapphire eine HD 2900 XT mit 850/1000 MHz samt neuen leisen Kühler bringt (der schonmal abgelichtet wurde) und dies nicht allzuteuer macht, könnte es eine sehr interessant Karte werden. Der Stromverbrauch bleibt allerdings ein KO-Kriterium.

MfG :cool:

Ich finde es sowieso seltsam, dass die XTX gecancelt wurde. Ausnahmslos jede R600-Karte, die ich bis jetzt bei irgendeinem Review oder einem privaten User vernommen habe, geht ohne Vcore Erhöhung und mit default Kühlung zumindest auf ~840Mhz die meisten auf 850Mhz und mehr. Manche sogar nahe an 900Mhz. Da sind die 740Mhz der Topmodells doch verdammt mager.

James Ryan
2007-06-05, 10:51:40
Ich finde es sowieso seltsam, dass die XTX gecancelt wurde. Ausnahmslos jede R600-Karte, die ich bis jetzt bei irgendeinem Review oder einem privaten User vernommen habe, geht ohne Vcore Erhöhung und mit default Kühlung zumindest auf ~840Mhz die meisten auf 850Mhz und mehr. Manche sogar nahe an 900Mhz. Da sind die 740Mhz der Topmodells doch verdammt mager.

Ich denke dass ATi so konservativ getaktet hat, um den Stromverbrauch nicht noch mehr in die Höhe zu treiben und die Karte dank mehr Abwärme noch lauter wird.

MfG :cool:

A.Wesker
2007-06-05, 10:55:59
Ich denke dass ATi so konservativ getaktet hat, um den Stromverbrauch nicht noch mehr in die Höhe zu treiben und die Karte dank mehr Abwärme noch lauter wird.

MfG :cool:
der laute Lüfter ist meiner Meinung nach total unnötig, da die Karte @850 MHz Coretakt gerade mal 71 °C "heiß" wird bei Last. Da hätte es auch ein leiserer Lüfter getan.

AnarchX
2007-06-05, 14:08:50
der laute Lüfter ist meiner Meinung nach total unnötig, da die Karte @850 MHz Coretakt gerade mal 71 °C "heiß" wird bei Last. Da hätte es auch ein leiserer Lüfter getan.

Es ist vielleicht nicht der Core, der diese starke Kühlung benötigt.

Raff
2007-06-05, 14:10:10
Habe die PCGH erst morgen, wie groß ist denn der abgebildete Screenshot? Liegen die Screens auch auf der DVD bei?
Diese komischen Briefmarken-Bilder in der PCGH sind meist nämlich überflüssig, wie man damit Unterschiede in der Texturfilterung zeigen will kann ich auch nicht nachvollziehen.

MfG :cool:

Man sieht die Unterschiede in der aktuellen Ausgabe sehr gut – sofern es welche gibt.

MfG,
Raff

James Ryan
2007-06-05, 14:11:07
Man sieht die Unterschiede in der aktuellen Ausgabe sehr gut – sofern es welche gibt.

MfG,
Raff

Ich werds ja morgen sehen. ;)

MfG :cool:

Gast
2007-06-05, 14:13:28
Stimmt, morgen kommt wieder die Klolektüre raus, zu mehr taugt die PCGH ja leider nicht mehr.
Obwohl das Niveau wieder leicht gestiegen ist, war mal noch grottiger.

Gouvernator
2007-06-05, 14:15:18
Ich finde es sowieso seltsam, dass die XTX gecancelt wurde. Ausnahmslos jede R600-Karte, die ich bis jetzt bei irgendeinem Review oder einem privaten User vernommen habe, geht ohne Vcore Erhöhung und mit default Kühlung zumindest auf ~840Mhz die meisten auf 850Mhz und mehr. Manche sogar nahe an 900Mhz. Da sind die 740Mhz der Topmodells doch verdammt mager.

Also wo du das aufgeschnappt hast... 850mhz geht nur mit Wakü. Default Kühlung geht höchstens bis ~770mhz.

Gast 2
2007-06-05, 14:16:43
Also wo du das aufgeschnappt hast... 850mhz geht nur mit Wakü. Default Kühlung geht höchstens bis ~770mhz.

Du hast sicher auch was falsch aufgeschnappt. Die Computerbase erreichte ohne Probleme 830/960 MHz mit Standardkühlung.

A.Wesker
2007-06-05, 14:17:21
Also wo du das aufgeschnappt hast... 850mhz geht nur mit Wakü. Default Kühlung geht höchstens bis ~770mhz.
meine ging auch bis 850 MHZ und die anderen die ich bisher in Foren gesehen habe meistens 830-850.

Undertaker
2007-06-05, 14:21:21
der laute Lüfter ist meiner Meinung nach total unnötig, da die Karte @850 MHz Coretakt gerade mal 71 °C "heiß" wird bei Last. Da hätte es auch ein leiserer Lüfter getan.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/34/#abschnitt_temperatur

wenn man mal eher von den werten ausgeht, scheint der lüfter nicht wirklich langsamer drehen zu können... warum die werte bei dir so niedrig sind kann ich nicht verstehen, evntl hat ja dein sensor einen schuss? 71°C bei geschätzten knapp 200w verlustleistung kann ich mir kaum vorstellen (oder du wohnst im kühlschrank :D)

edit: und die cb werte sind schon sehr niedrig; 75°C bei der gts sind bei mir nicht erreichbar, 85°C werden da öfters erreicht (weil auch erst ab da der lüfter höher dreht)

Gast
2007-06-05, 14:25:07
wenn man mal eher von den werten ausgeht, scheint der lüfter nicht wirklich langsamer drehen zu können... warum die werte bei dir so niedrig sind kann ich nicht verstehen, evntl hat ja dein sensor einen schuss? 71°C bei geschätzten knapp 200w verlustleistung kann ich mir kaum vorstellen (oder du wohnst im kühlschrank :D)

Gehäusebelüftung macht sehr viel aus. Scheinbar legen die bei der Computerbase keinen großen Wert darauf.

Bei denen kommt sogar eine X1900XT auf 91 Grad, bei mir hat sie nicht mal 70 erreicht ...

Undertaker
2007-06-05, 14:27:15
Gehäusebelüftung macht sehr viel aus. Scheinbar legen die bei der Computerbase keinen großen Wert darauf.

Bei denen kommt sogar eine X1900XT auf 91 Grad, bei mir hat sie nicht mal 70 erreicht ...

ich hatte immerhin 7x80mm lüfter und 3(!) freie slotbleche unter meiner x1900xt und hab 96°C "geschafft" http://666kb.com/i/11fbfgbwjjjlt.jpg

letztlich gibt es ja immer schwankungen und auch noch sehr viel schlechter gekühlte cases, dass muss eine karte ja auch aushalten

A.Wesker
2007-06-05, 14:29:12
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/34/#abschnitt_temperatur

wenn man mal eher von den werten ausgeht, scheint der lüfter nicht wirklich langsamer drehen zu können... warum die werte bei dir so niedrig sind kann ich nicht verstehen, evntl hat ja dein sensor einen schuss? 71°C bei geschätzten knapp 200w verlustleistung kann ich mir kaum vorstellen (oder du wohnst im kühlschrank :D)

edit: und die cb werte sind schon sehr niedrig; 75°C bei der gts sind bei mir nicht erreichbar, 85°C werden da öfters erreicht (weil auch erst ab da der lüfter höher dreht)

die Werte von CB sind humbug, keine Ahnung was die dort gemessen haben :D

Gouvernator
2007-06-05, 14:29:57
850mhz aha ... aber nur das sie nicht gleich abstürzt... :D Also meine konnte ich ohne Wakü kaum übertakten und bei mir ist noch Gehäusewand offen!

seahawk
2007-06-05, 14:30:19
Und viel wärmere Länder. betreibt mal einen solchen PC mit Luftkühlung in Griechenland oder Südspanien. Aber auch da muss die Karte funktionieren.

Undertaker
2007-06-05, 14:33:50
die Werte von CB sind humbug, keine Ahnung was die dort gemessen haben :D

evntl hat man ja treiberseitig etwas an der lüftersteuerung verändert, weil solch hohe temperaturen net langfristig gut für die karte wären - cb hat dafür ja auch nicht so extreme lautstärken gemessen...

Gast
2007-06-05, 14:35:07
ich hatte immerhin 7x80mm lüfter und 3(!) freie slotbleche unter meiner x1900xt und hab 96°C "geschafft" http://666kb.com/i/11fbfgbwjjjlt.jpg

Liegt mit Sicherheit am Case. 80er Lüfter sind nicht so effizient. Mich haben sie eher nervt. Schon bei 2000u/min gab es laute Geräusche. 120er schaufeln selbst bei 1200-1400 wesentlich mehr Luft und sind ruhiger.

Ein vollgestopfter MidiTower treibt die Temps auch in die höhe. In einem BigTower mit guter Belüftung sind die dann deutlich geringer.

Keine Ahnung was die da getestet haben, meine Grafikkarte idelt jetzt gerade bei ca. 40 Grad, damit hätte sie laut CB fast den ersten Platz belegt. :eek:

Undertaker
2007-06-05, 14:37:40
Liegt mit Sicherheit am Case. 80er Lüfter sind nicht so effizient. Mich haben sie eher nervt. Schon bei 2000u/min gab es laute Geräusche. 120er schaufeln selbst bei 1200-1400 wesentlich mehr Luft und sind ruhiger.

Ein vollgestopfter MidiTower treibt die Temps auch in die höhe. In einem BigTower mit guter Belüftung sind die dann deutlich geringer.

Keine Ahnung was die da getestet haben, meine Grafikkarte idelt jetzt gerade bei ca. 40 Grad, damit hätte sie laut CB fast den ersten Platz belegt. :eek:

ich vermute fast eher schwankungen der sensoren - ohne seitenwand hab ich nur 2-3°C weniger im case und damit zimmertemperatur, das wären dann immernoch WEIT über 90°C im fall der x1900 gewesen...

aber btw: die x1900xt auf dem screen war auch 4 monate später tot :D

A.Wesker
2007-06-05, 14:52:54
850mhz aha ... aber nur das sie nicht gleich abstürzt... :D Also meine konnte ich ohne Wakü kaum übertakten und bei mir ist noch Gehäusewand offen!
bei deiner Karte waren die Temperaturen auch exhorbitant hoch (siehe derzeitigen Besitzer). Aber irgendwo drin muß der Grund liegen, warum manche ~ 90 °C bei Volllast haben und andere ~ 70 °C.

Gouvernator
2007-06-05, 15:21:26
Ach komm! Du kannst ja mal in xtremesystems forum gucken was die erreichen @ stock Kühler. Da kommt nicht mehr als 850mhz raus und wie sie testen wissen wir alle... 3x Tischventilator +offene Fenster. Mein Ergebnis lieg wohl näher an den meisten erziehlten Ergebissen als deins @850mhz 71°C :eek:

Mr.Magic
2007-06-05, 15:22:05
bei deiner Karte waren die Temperaturen auch exhorbitant hoch (siehe derzeitigen Besitzer). Aber irgendwo drin muß der Grund liegen, warum manche ~ 90 °C bei Volllast haben und andere ~ 70 °C.

Kommt auch immer aufs allgemeine Kühlkonzept an. Ich hatte bis vor kurzen bei meinem Gehäuse das Seitenteil offen, 8mmcm Lüfter seitlich auf Northbridge/Oberseite GraKa, 12er vorne und 8er hinten. Beim neuen Gehäuse ist in der linken Seitenwand einen 25er, 12er vorne und 12er hinten. Ansonsten ist das Hard- & Softwaresetup vollkommen gleich geblieben.

GraKa max alt: ~75°C
GraKa max neu: ~60°C

ps: Zimmertemperatur war in beiden Fällen ~23°C.

A.Wesker
2007-06-05, 15:29:28
Ach komm! Du kannst ja mal in xtremesystems forum gucken was die erreichen @ stock Kühler. Da kommt nicht mehr als 850mhz raus und wie sie testen wissen wir alle... 3x Tischventilator +offene Fenster. Mein Ergebnis lieg wohl näher an den meisten erziehlten Ergebissen als deins @850mhz 71°C :eek:

"jo 860/980 nur muß mal für bessere Lüftung sorgen nach 2 std. zocken 72°
bin aber wieder runter auf 840/980 merk bei tdu nehme wirklich einen unter schied spiel läuft auf 1280/1024 reicht ja dicke brauch net max takt."

"Ich hab wie schon mehrfach gesagt 76°C bei 844MHz beim Stalkerzocken am Sonntag gehabt.
Mit schneller drehenden Lüfter ist sicher auch weniger drin.
Und ich hab dank Chieftek Mesh Midi keine direkte Frischluftzufuhr zur Karte und auch keine Luftzirkulation im unteren Teil das Gehäuses."

"my idle temps are 48c
load is 71c"

"my temps @ stokcooler
idle = ~53c
Full = ~70c "



"Stock cooler/Default Clocks
48-52C Idle / 72-75C Load

Stock cooler/ 850/1000 Clocks
48-52C Idle / 74-78C Load

Water Cooling / Stock Clocks, 890/1050 OC, ETC so far
34-36C Idle / 44-46C Load"


"With my case fans on low its idling right now at about 50c......what I have noticed is that my load temp doesnt vary much just a 2-4 degtree difference its always 71-74 no matter how high or low the fans are running."



also irgendwas muß bei der schief gelaufen sein....

Odal
2007-06-05, 15:35:39
ich hatte immerhin 7x80mm lüfter und 3(!) freie slotbleche unter meiner x1900xt und hab 96°C "geschafft" http://666kb.com/i/11fbfgbwjjjlt.jpg

letztlich gibt es ja immer schwankungen und auch noch sehr viel schlechter gekühlte cases, dass muss eine karte ja auch aushalten

kommt mir komisch vor....ich hab bei meiner X1900XT auf 1,6Volt und 750Mhz GPU takt und lüfter@100% in spielen <=65C°

vielleicht war deine lüftersteuerung schlecht eingestellt

Gast
2007-06-05, 15:36:12
ich vermute fast eher schwankungen der sensoren - ohne seitenwand hab ich nur 2-3°C weniger im case und damit zimmertemperatur, das wären dann immernoch WEIT über 90°C im fall der x1900 gewesen...

Schwankungen der Sensoren sind in meinem Fall absolut ausgeschlossen.
Ich habe meine Komponenten vor kurzem erst von einem Midi in einem Bigtower umgebaut. Alle Temperaturen, egal ob CPU+GraKa+GPU+HDD sind deutlich gesunken.

Damit kanns an der Grafikkarte nicht gelegen haben.

Außerdem ist eine offene Seitenwand nicht so effizient wie einige denken.
Wenn die Seitenwand offen ist, bewegt die warme Luft sich nicht schneller weg von den Komponenten. Wenn du das Gehäuse geschlossen hast und für einen perfekten Luftstrom sorgst, bringt das mehr.

Gast
2007-06-05, 15:43:12
jep,
ist bei mir ebenso.

geschlossen ist alles kühler, als wenn die seitenwand offen ist.
dann fehlt der durchzug, der die wärme raustreibt.

Undertaker
2007-06-05, 15:52:21
kommt mir komisch vor....ich hab bei meiner X1900XT auf 1,6Volt und 750Mhz GPU takt und lüfter@100% in spielen <=65C°

vielleicht war deine lüftersteuerung schlecht eingestellt

siehst ja auf dem bild, 3500rpm...

reunion
2007-06-05, 16:02:40
Also wo du das aufgeschnappt hast... 850mhz geht nur mit Wakü. Default Kühlung geht höchstens bis ~770mhz.

Das ich nicht lache. Schau dir doch die ganzen Reviews an. PCGH hat bsw. in der aktuellen Ausgabe vier Karten getestet:

Die Asus ging auf 870/1130.
Die MSI gar auf 890/980.
DIe Club 3D auf 870/1050.
Und die Sapphire auf 850/1030.

Dutzende andere Reviews und User bestätigen solche Werte. Natürlich gibt es immer wieder ausreiser nach oben oder unten, aber fast alle Karten schaffen besagten 840-850Mhz mit Stockkühler und bleiben trotzdem relativ kühl, da kannst du dich auf den Kopf stellen.

bei deiner Karte waren die Temperaturen auch exhorbitant hoch (siehe derzeitigen Besitzer). Aber irgendwo drin muß der Grund liegen, warum manche ~ 90 °C bei Volllast haben und andere ~ 70 °C.

Braucht nur der Kühler nicht sauber aufliegen, zB wenn der Kleber für den Schutzrahmen zu dick aufgetragen ist. Kam bei meiner 9700pro auch vor. Durch nachbessern gab die Temperatur damals um fast 15°C nach.

Gouvernator
2007-06-05, 19:57:50
Es liegt villeicht an bestimmten GPU's... Meine hat nämlich keine Aufschrift gehabt absolut nix nicht mal ein Logo, komplett leer. Villeicht verbaut jemand irgendwelches Schrott?^^

up¦²
2007-06-05, 20:00:20
Gute Neuigkeit - Wasserkühlung für 2900:
We've covered CoolIT's innovative range of coolers in detail at past shows but here at Computex 2007, the company has once again pulled something special out of the bag - this time in the shape of a bespoke MTC-based cooling system for an HD Radeon 2900XT CrossFire set-up.
http://www.hexus.net/content/item.php?item=8952

Gast
2007-06-05, 20:04:03
Gute Neuigkeit - Wasserkühlung für 2900:

http://www.hexus.net/content/item.php?item=8952

Was ist daran gut? jetzt dürfen wir uns Tag und Nacht Sorgen darüber machen, ob unser 750€ Gespann einen Kurzschluss erleidet... und Wartungsarm sind die Komponenten auch nicht!

up¦²
2007-06-05, 21:04:00
Was ist daran gut? jetzt dürfen wir uns Tag und Nacht Sorgen darüber machen, ob unser 750€ Gespann einen Kurzschluss erleidet... und Wartungsarm sind die Komponenten auch nicht!
Nana - das Argument ist ja aus der uralten Mottenkiste :wink:
Nix Kurzschluss - lass das Huha niccht hören...!

up¦²
2007-06-06, 04:36:33
Extreme PC Exclusive SI Radeon HD2900XT 825Mhz Core | 1GB 2100Mhz DDR4 PCI-E DX10 /2 DVI/ HDTV/ AVIVO/ HDMI/ AC3 5.1 Sound
http://www.extreme-pc.ca/showproduct.asp?menu1id=12&menu2id=99&menu3id=39&productid=371414

... ???
PS: 700 Canadian Dollar = 489.360 Euro

Undertaker
2007-06-06, 11:19:47
tjoa, wo doch der r650 wohl schon in kürze erscheint ist eine solche karte (erst recht bei dem preis) wohl eher überflüssig...

James Ryan
2007-06-06, 11:32:11
Es liegt villeicht an bestimmten GPU's... Meine hat nämlich keine Aufschrift gehabt absolut nix nicht mal ein Logo, komplett leer. Villeicht verbaut jemand irgendwelches Schrott?^^

Das klingt schon fast nach einer Prototyp-Karte! Kein Wunder dass deine Karte so heiß wurde!

@Topic
Das Review in der PCGH wurde mit dem 8.42er Treiber gemacht, daher unbrauchbar dank EATM.

MfG :cool:

Gast
2007-06-06, 11:33:51
Das klingt schon fast nach einer Prototyp-Karte! Kein Wunder dass deine Karte so heiß wurde!


Und so langsam war.

seahawk
2007-06-06, 11:50:13
Extreme PC Exclusive SI Radeon HD2900XT 825Mhz Core | 1GB 2100Mhz DDR4 PCI-E DX10 /2 DVI/ HDTV/ AVIVO/ HDMI/ AC3 5.1 Sound
http://www.extreme-pc.ca/showproduct.asp?menu1id=12&menu2id=99&menu3id=39&productid=371414

... ???
PS: 700 Canadian Dollar = 489.360 Euro

Könnte bei ähnlichem Preis ne GTX schlagen. Nicht schlecht.

Gouvernator
2007-06-06, 11:57:35
Und so langsam war.
Naja, es war nicht generell langsam. Bei TDU war die ganz Ok. Nur in den meisten anderen älteren Spielen unter hohen Auflösung +AA war sie kaum schneller wie eine 1900XTX OC.

Gast
2007-06-06, 12:01:42
Könnte bei ähnlichem Preis ne GTX schlagen. Nicht schlecht.

Du bist ja nen Träumer. Nichmal die normale XT kann eine GTS so richtig "Schlagen". Und wenn die Dx10 tests sich bewahrheiten, dann siehts ganz mau aus. Ganz schlecht-.

Gast
2007-06-06, 12:03:58
Du bist ja nen Träumer. Nichmal die normale XT kann eine GTS so richtig "Schlagen". Und wenn die Dx10 tests sich bewahrheiten, dann siehts ganz mau aus. Ganz schlecht-.

Ein R600 fabriziert aktuell noch in so gut wie jeden DX10-Bench haufenweise Grafikfehler. Um diese Benchs ernst zu nehmen, muss man schon eine tiefgüne Sonnenbrille tragen.

James Ryan
2007-06-06, 12:08:49
Könnte bei ähnlichem Preis ne GTX schlagen. Nicht schlecht.

Hoffentlich!
Sonst kostet eine GTX im November immer noch ~480€ und hätte damit in einem Jahr nicht an Wert verloren! ;D
Möge der Preiskamp beginnen.

MfG :cool:

Gast
2007-06-06, 12:11:08
Könnte bei ähnlichem Preis ne GTX schlagen. Nicht schlecht.

Trotzdem sinnlos. Die meisten Karten schaffen diese Werte und noch mehr problemlos, dazu braucht man keine Aufpreis zu zahlen.

puntarenas
2007-06-06, 12:23:40
Ein R600 fabriziert aktuell noch in so gut wie jeden DX10-Bench haufenweise Grafikfehler. Um diese Benchs ernst zu nehmen, muss man schon eine tiefgüne Sonnenbrille tragen.
Das liegt daran, dass die Pixel auf ihrem Weg durch den Chip bei hoher Geschwindigkeit noch an einigen Kanten und Unebenheiten anecken. Von so gebeutelten Pixeln blättert natürlich schonmal Farbe ab und das siehst du dann als Bildfehler. Man sollte auch nicht unterschlagen, dass die Pixel dabei nicht nur beschädigt, sondern auch massiv ausgebremst werden.
Wenn allerdings durch konsequente Treiberentwicklung die Hauptverbindungen erst einmal durchgespült, Kanten im Chip geglättet und Ampeln durch Kreisverkehre ersetzt wurden, dann dürfte der R600 durchweg zwischen 8800GTS und sogar eher bei einer 8800GTX anzusiedeln sein und zufriedene Pixel kommen in strahlendsten Farben auch unter D3D10 auf den Schirm. Fehlt nur noch ein kleines Kernkraftwerk im Keller und die Spaßbremse wird zum Quell der Freude :D

Im Ernst, obwohl nun schon länger auf dem Markt kann man immer noch nur mutmaßen, ob die Karte Potential hat oder eine Totgeburt ist. Diese Ultraversionen eines verbuggten oder nicht mit ordentlichen Treibern versorgten Chips halte ich im Angesicht des nahenden R650 ebenfalls für sinnlos und die Stückzahlen dürften sich doch sehr in Grenzen halten.

Gast
2007-06-06, 12:26:43
Extreme PC Exclusive SI Radeon HD2900XT 825Mhz Core | 1GB 2100Mhz DDR4 PCI-E DX10 /2 DVI/ HDTV/ AVIVO/ HDMI/ AC3 5.1 Sound
http://www.extreme-pc.ca/showproduct.asp?menu1id=12&menu2id=99&menu3id=39&productid=371414

Oh Man! Die Typen hätten sich vorher mal informieren sollen.

Wenn Sapphire eine Karte mit mindestens >850 MHz GPU Takt plant, dann hätten sie hier 900 MHz ansetzen müssen! Alles andere wäre größer blödsinn, weil dann am Ende die 512MB Karte schneller und günstiger wäre. :rolleyes:

Gmax
2007-06-07, 15:54:20
Sapphire puts GDDR4 memory on a 512MB card (http://www.theinquirer.net/default.aspx?article=40160)

AnarchX
2007-06-07, 17:20:40
Sapphire puts GDDR4 memory on a 512MB card (http://www.theinquirer.net/default.aspx?article=40160)

Fragt sich nur wie?
Die Samsung-Seite kennt jedenfalls keine 256MBit GDDR4 Chips, die man bräuchte.

PCGH_Raffael
2007-06-07, 21:35:11
Qualität der anisotropen Filterung: R600 gegen R5x0 (http://www.pcgameshardware.de/?article_id=603118)

Interessiert vielleicht.

MfG,
Raff

James Ryan
2007-06-08, 08:28:30
Qualität der anisotropen Filterung: R600 gegen R5x0 (http://www.pcgameshardware.de/?article_id=603118)

Interessiert vielleicht.

MfG,
Raff

Passt irgendwie ins Bild... der R600 scheint "Optimierungen" nötig zu haben um eine konkurrenzfähige Leistung zu bringen.
Traurig traurig.

MfG :cool:

Gast
2007-06-08, 10:27:36
Das ist doch nun wirklich nichts neues, auch die R5xx haben Optimierungen nötig damit sie schneller als nvidias 7900 erscheinen.

Mr. Lolman
2007-06-08, 10:30:45
Das ist doch nun wirklich nichts neues, auch die R5xx haben Optimierungen nötig damit sie schneller als nvidias 7900 erscheinen.

und WA-AF ist deiner Meinung nach keine Optimierung?

Gast
2007-06-08, 10:34:17
Das ist doch nun wirklich nichts neues, auch die R5xx haben Optimierungen nötig damit sie schneller als nvidias 7900 erscheinen.Da kann man sie aber wenigstens abschalten, was bei R600 nicht mehr funktioniert.

Gast
2007-06-08, 10:39:03
und WA-AF ist deiner Meinung nach keine Optimierung?Ich zitiere dich mal selbst zum WA-AF der R3x0-Karten.
G00t ATis Winkelabhängigkeit ist zwar vorhanden, aber bei weiten nicht so schlimm, wie es mit den AF Testern aussieht.Im gleichen Posting schreibst du auch noch, dass winkelabhängiges AF "realismusunterstützend" wirkt. ;D

Mumins
2007-06-08, 10:47:39
Das ist doch nun wirklich nichts neues, auch die R5xx haben Optimierungen nötig damit sie schneller als nvidias 7900 erscheinen.

Du redest Unsinn, eine 7900 hat erst gar kein WU-AF.

Mr. Lolman
2007-06-08, 10:49:46
Da kann man sie aber wenigstens abschalten, was bei R600 nicht mehr funktioniert.

Hört mal mit dem Schwarz weiss denken auf. Es wird immer optimiert. Egal was draufsteht. Es ist nur die Frage, wann die Optimierung ins sichtbar negative umschlägt. Beim R580 sah AIoff besser aus als beim R600. Dafür sieht beim R600 AIon besser aus als beim R580. 'Optimiert' ist jedes Setting. Auch G80 HQ ist 'optimiert'.

Und eine Optimierung ist ja in dem Sinn ja nix Schlechtes. Es ist nur eine Gratwanderung, ab wann zuviel optimiert wird. Das war augenscheinlich jahrelang bei Forceware Default, eine Zeitlang bei den Catalysttreibern (TS-Optimierung) und auch eine Weile auch bei G70 HQ der Fall (solang bis sogar die DAU-Foren schon voll mit der Flimmerproblematik waren).

R600 AIon ist besser als R580 AIon und das ist gut so. Wahrscheinlich spielen die meisten Spieler auch mit dem G80 auf Treiberdefault. Und warum? Weils BQ-technisch ok ist.

Damit die BQ in jedem Fall perfekt ist, müsste man imo ohnehin min. die 4-fache Texelanzahl sampeln und das geht dann selbst bei nem Füllratenmonster wies der G80 ist auf die Leistung.


Ich zitiere dich mal selbst zum WA-AF der R3x0-Karten.
Im gleichen Posting schreibst du auch noch, dass winkelabhängiges AF "realismusunterstützend" wirkt. ;D

Da leugne ich aber nicht, dass es eine Optimierung ist. Und ich bin immernoch der Meinuing, dass es in gewissen Spielen die 3D-Wahrnehmung unterstützt (GothicII zB)

Gast
2007-06-08, 10:54:21
Dafür sieht beim R600 AIon besser aus als beim R580.Was bringt das, wenn beides immer noch absolut unakzeptabel ist? Bei R5x0 hatte man wenigstens die Möglichkeit mit AI-Off recht gutes AF zu fahren, auch wenn es ordentlich die Performance gedrückt hat. Bei R6x0 bekommt man hingegen nur Kot zu sehen, egal was man im Treiber einstellt.

deekey777
2007-06-08, 10:56:43
Was bringt das, wenn beides immer noch absolut unakzeptabel ist? Bei R5x0 hatte man wenigstens die Möglichkeit mit AI-Off recht gutes AF zu fahren, auch wenn es ordentlich die Performance gedrückt hat. Bei R6x0 bekommt man hingegen nur Kot zu sehen, egal was man im Treiber einstellt.
Wer sagt, dass AI on inakzeptabel ist?

Odal
2007-06-08, 10:57:08
Qualität der anisotropen Filterung: R600 gegen R5x0 (http://www.pcgameshardware.de/?article_id=603118)

Interessiert vielleicht.

MfG,
Raff

ähm ich hab mir jetzt nur die ersten hl2 shots angeschaut... und da fällt mir auf das für den r580 irgendwie die A.I. advanced shots am Boden besser ausschauen als die A.I.Standard und an der linken Wand ist es genau umgekehrt

beim R600 taugt HL2 im moment nicht wirklich für BQ betrachtungen von 16XAF da in der Ferne eh alles durch den Nebelbug einen milchigen schleier bekommt....vielleicht nehm ich nachher nochmal die stalker bilder unter die lupe...


interessant fand ich das zumindest beim R580 der unterschied zw. A.I. standard und advanced gar nicht soooo gross ist...aber man muss sowas sowieso in bewegung sehen...

MrMostar
2007-06-08, 10:58:48
Bei R6x0 bekommt man hingegen nur Kot zu sehen, egal was man im Treiber einstellt.
Hast du da screenshots?

Gast
2007-06-08, 11:02:06
Wer sagt, dass AI on inakzeptabel ist?Ich sage das. Das, was ich bei R5x0-AI-On "bewundern" durfte, war absolut nicht mehr in Ordnung. Ich glaube einfach nicht, dass R600 hier deutlich besser ist, was der BQ-Vergleich der PCGH ja auch zeigt.

deekey777
2007-06-08, 11:04:52
Ich sage das. Das, was ich bei R5x0-AI-On "bewundern" durfte, war absolut nicht mehr in Ordnung. Ich glaube einfach nicht, dass R600 hier deutlich besser ist, was der BQ-Vergleich der PCGH ja auch zeigt.
Gut, dass du das sagst, nur bist du keine Instution, dass nur deine Meinung gilt.

James Ryan
2007-06-08, 11:05:34
Wer sagt, dass AI on inakzeptabel ist?

Wenn man wirklich ein BQ-Fetischist ist und den G7x verteufelt, dann ist AI-on inakzeptabel!

MfG :cool:

Gast
2007-06-08, 11:14:16
Gut, dass du das sagst, nur bist du keine Instution, dass nur deine Meinung gilt.Sag ich ja nicht. Aber auch die 3DC-Hauptseite ist keine solche Institution. Und ich bin ja wahrlich nicht der einzige, der AI kritisiert.

robbitop
2007-06-08, 11:17:15
R600 AIon ist besser als R580 AIon und das ist gut so. Wahrscheinlich spielen die meisten Spieler auch mit dem G80 auf Treiberdefault. Und warum? Weils BQ-technisch ok ist.
Und Flimmern bei hochfrequenten Texturen (siehe HL2) findest du BQ-technisch "ok"? Das schlimme ist, dass man es (zumindest derzeit) nicht durch AI-off beheben kann. Aber Eric hat in meinem Gespraech sowas schon indirekt angedeutet.

seahawk
2007-06-08, 11:19:01
Und Flimmern bei hochfrequenten Texturen (siehe HL2) findest du BQ-technisch "ok"? Das schlimme ist, dass man es (zumindest derzeit) nicht durch AI-off beheben kann. Aber Eric hat in meinem Gespraech sowas schon indirekt angedeutet.

Das es so bleiben wird, oder dass man es ändern wird ?

robbitop
2007-06-08, 11:19:22
Da leugne ich aber nicht, dass es eine Optimierung ist. Und ich bin immernoch der Meinuing, dass es in gewissen Spielen die 3D-Wahrnehmung unterstützt (GothicII zB)
Ach komm. Du bist noch einer der Wenigen in diesem Forum, der die Grundlagen der Texturfilterung einigermassen verstanden hat. Das glaubst du doch selbst nicht? Wenn ich eine schraege Flaeche habe, die in einem bloeden Winkel ist und diese schneller unscharf wird als der Boden ist das alles andere als realistisch (und das sage ich trotz meiner leichen Kurzsichtigkeit X-D).

deekey777
2007-06-08, 11:19:32
Wenn man wirklich ein BQ-Fetischist ist und den G7x verteufelt, dann ist AI-on inakzeptabel!

MfG :cool:
Wer sagt das? Das ist doch alles rein subjektiv. Ich habe eine 9100 überlebt, dann eine 9800Pro. Auch die X1950GT werde ich überleben. Und seit dem cat. 4.10 beta spiele ich mit AI on/Standard. WoW spiele ich nicht.
Und zwischen WA-AF und WU-AF ist ein Riesenunterschied - insbesondere bei 16 TMUs vs. 24 TMUs bei 650 MHz.

Schaut euch die Hasenohren des R520 bzw. R600 bei AF 16x an. Und vergleicht dies mit dem AF 16x des G80. Ohne Zweifel kann man sagen, dass der G80 eine bessre Bildqualität liefert, aber wayne?

robbitop
2007-06-08, 11:22:08
Das es so bleiben wird, oder dass man es ändern wird ?
Das es so ist. Und dass es in Zukunft anders sein wird. ATI ist sich den Schwaechen der Texturfilterung bewusst. Nur ist die Frage, ob das mit Treibern oder einfach mit einer neuen Generation passieren wird. Ich vermute letzteres.

James Ryan
2007-06-08, 11:24:26
Ohne Zweifel kann man sagen, dass der G80 eine bessre Bildqualität liefert, aber wayne?

Sehr interessant!
Wegen der mangelnden BQ wurde die Gf 7 dermaßen runter gemacht und es wurden Artikel veröffentlicht, die sogar bei Geizhals.at/de auftauchten, und es wurde nach Besserung geschrieen!
Jetzt macht der G80 alles besser und bietet eine fast perfekte BQ, da interessiert dies nicht. :|

MfG :cool:

Gast2
2007-06-08, 11:26:49
Du redest Unsinn, eine 7900 hat erst gar kein WU-AF.

Hat er doch gar nicht behauptet, ich denke wenn man R5xx und NV 7900 vergleicht, dann sollte man bei ATI das AI und das WU.AF abschalten.

Gast
2007-06-08, 11:27:00
Wer sagt das? Das ist doch alles rein subjektiv. Ich habe eine 9100 überlebt, dann eine 9800Pro. Auch die X1950GT werde ich überleben. Und seit dem cat. 4.10 beta spiele ich mit AI on/Standard.Ich habe auch einen G70 mit pre 78.03-Treibern überlebt. Trotzdem war es keine tolle Sache. Wenn möglich, möchte ich doch bitte volle Bildqualität und keine Zwangsoptimierungen. Nvidia wurde beim G70 zurecht von der Presse und einem Teil der Kundschaft abgestraft, sodass sogar bei Geizhals die Filtercheats-Artikel verlinkt wurden. Daraus haben sie anscheinend gelernt, die BQ bei G80 ist völlig in Ordnung. Jetzt muss man eben noch ATI die AI-Sauerein austreiben.

robbitop
2007-06-08, 11:27:02
Jetzt macht der G80 alles besser und bietet eine fast perfekte BQ, da interessiert dies nicht. :|

MfG :cool:
Es wurde mehrfach in den G80 Artikeln bei 3DC und B3D erwaehnt.
IMO ist es aber abgehoben, einen IHV zu loben, dass er einen Normalzustand herstellt, der seit NV20 Gang und Gebe ist. Und das nach einem halben Jahrzehnt.

James Ryan
2007-06-08, 11:55:48
Es wurde mehrfach in den G80 Artikeln bei 3DC und B3D erwaehnt.
IMO ist es aber abgehoben, einen IHV zu loben, dass er einen Normalzustand herstellt, der seit NV20 Gang und Gebe ist. Und das nach einem halben Jahrzehnt.

Stimmt auch wieder...
Aber dies "wayne" von DK777 bezüglich der G80 BQ im Gegensatz zu derer des R600 finde ich ehrlich gesagt mies. Immerhin ist er ein Mod!
Wieso sollte denn ATi das AI abschaffen wenn gute BQ sowieso keinen interessiert?

MfG :cool:

Raff
2007-06-08, 12:18:03
ähm ich hab mir jetzt nur die ersten hl2 shots angeschaut... und da fällt mir auf das für den r580 irgendwie die A.I. advanced shots am Boden besser ausschauen als die A.I.Standard und an der linken Wand ist es genau umgekehrt

Es ist in der Tat oft so, dass ein R5x0 auf A.I. Advanced besser aussehen kann als mit A.I. Standard. Das wiederum spricht dafür, dass man natürlich die meistgenutzte Bench-Einstellung (Standard) auch am meisten optimiert. Das Interessante dabei: A.I. Advanced ist auch am schnellsten. A.I. Off ist natürlich ungeschlagen, aber lahm.

MfG,
Raff

InsaneDruid
2007-06-08, 12:34:13
Du merkst aber den Widerspruch, oder? Wenn man Standard am meisten optimieren würde (weils die Standard Bench einstellung ist), dann würde es auch am schnellsten sein, denn man optimiert ja nicht auf miese BQ hin. So ist aber Advanced am schnellsten, also am meisten optimiert.

Das es besser aussieht kann daran liegen das Advanced (so hab ich es zumindest in Erinnerung aus den Tests als AI damals vorgestellt wurde) zT erheblich Texturen blurrt.

Mr. Lolman
2007-06-08, 12:43:55
Und Flimmern bei hochfrequenten Texturen (siehe HL2) findest du BQ-technisch "ok"? Das schlimme ist, dass man es (zumindest derzeit) nicht durch AI-off beheben kann. Aber Eric hat in meinem Gespraech sowas schon indirekt angedeutet.

Na ne Kehrtwendung um 180° hingelegt? Hattest DU nicht die R600 BQ im 3DC-Review noch gelobt?

Ach komm. Du bist noch einer der Wenigen in diesem Forum, der die Grundlagen der Texturfilterung einigermassen verstanden hat. Das glaubst du doch selbst nicht? Wenn ich eine schraege Flaeche habe, die in einem bloeden Winkel ist und diese schneller unscharf wird als der Boden ist das alles andere als realistisch (und das sage ich trotz meiner leichen Kurzsichtigkeit X-D).

Ich sage nicht, dass es realistischer ist, ich sage, dass es die 3D-Wahrnehmung unterstützt. Das ist ein großer Unterschied. Durch die Winkelabhängigkeit beim AF erkennt man auch Winkeländerungen am Boden, die sonst im 2D Abbild des 3D-Raums untergehen würden.

Das WA insgesamt auch sehr kontraproduktiv für die 3D-Darstellung sein kann, zeigt die allseits bekannte schräge Wand in HL². Zu meiner Verteidigung muss ich aber sagen, dass es HL² damals - als ich die Aussage bezügl. WA getätigt hab - noch nicht gegeben hat ;)


BTW: Warum wurden die PCGH-Videos mit 8xAF angefertigt und nicht mit 16x?

deekey777
2007-06-08, 13:49:04
Sehr interessant!
Wegen der mangelnden BQ wurde die Gf 7 dermaßen runter gemacht und es wurden Artikel veröffentlicht, die sogar bei Geizhals.at/de auftauchten, und es wurde nach Besserung geschrieen!
Jetzt macht der G80 alles besser und bietet eine fast perfekte BQ, da interessiert dies nicht. :|

MfG :cool:
Gibt es einen bestimmten Grund, warum du meinen Absatz auf einen Satz reduziert hast und nur einen Satz zitierst, der sich auf die vorherigen bezieht?

Und was mein "wayne" mit meinem Modstatus zu tun hat, ist mir ein Rätsel. Insbesondere, weil dieses "wayne" sich auf die vorherigen Sätze bezieht.
Na, gut, ich mache es ganz langsam: http://www.digit-life.com/articles2/video/r600-part4-d3daf.html
Wie man sieht, zeigt der AF-Tester, dass der G80 mehr tut als der R600. Schön. Aber was habe ich als Spieler, wenn ich diesen Unterschied einfach nicht wahrnehmen kann, weil ich ein Spiel spiele, da fällt dieser Unterschied einfach nicht auf. Darum Wayne.
http://www.digit-life.com/articles2/video/r600-part4.html
http://www.digit-life.com/articles2/video/r600-part4-stalker.html

up¦²
2007-06-08, 13:51:33
Nicht nur für warme Tage... und CF :tongue:
http://www.tweaktown.com/news/7639/index.html
Core: 950 Mem: 980
3DMark 06: 20016
Stock 3Dmark 06: 17405

http://www.youtube.com/watch?v=HRsMra1ZziY

Raff
2007-06-08, 14:09:30
Du merkst aber den Widerspruch, oder? Wenn man Standard am meisten optimieren würde (weils die Standard Bench einstellung ist), dann würde es auch am schnellsten sein, denn man optimiert ja nicht auf miese BQ hin. So ist aber Advanced am schnellsten, also am meisten optimiert.

Das es besser aussieht kann daran liegen das Advanced (so hab ich es zumindest in Erinnerung aus den Tests als AI damals vorgestellt wurde) zT erheblich Texturen blurrt.

Zum Teil wird aber auch stärker unterfiltert, was z. B. Moiré-Bildung "zu Gute" kommt. Es bleibt auch nur "teilweise", denn A.I. Advanced sieht nicht immer besser aus.

BTW: Warum wurden die PCGH-Videos mit 8xAF angefertigt und nicht mit 16x?

PCGH testet seit Jahren in 1.280x1.024 mit 4x FSAA/8:1 AF, was anhand von Leserbefragungen entstand. Der Vergleich R600 vs. R5x0 entstand aber mit 16x HQ-AF.

MfG,
Raff

AnarchX
2007-06-08, 14:43:05
R600 die-shot

http://img137.imageshack.us/img137/623/r600dieshotsb9.jpg

Tjell
2007-06-08, 16:21:35
Gut, dass du das sagst, nur bist du keine Instution, dass nur deine Meinung gilt.
Du aber ebensowenig.

Es reicht doch, wenn man nun festgestellt hat, welche BQ die Karten nun liefern.

Ob die eine oder andere hinreichend gut ist - auch bei verschiedenen Einstellungen - solltet Ihr gefälligst jedem selbst überlassen.

Bei Kunstwerken kann man ebensowenig ein Urteil wie "sieht gut/scheiße" fällen und so ist es hier auch. Die Schönheit liegt im Auge des Betrachters, objektiv bleibt nur "was wird geliefert".

robbitop
2007-06-08, 18:24:12
Na ne Kehrtwendung um 180° hingelegt? Hattest DU nicht die R600 BQ im 3DC-Review noch gelobt?
Da habe ich noch nicht die fiesen Texturen von HL2 gesehen (Max war sonst immer sehr flimmerempfindlich und da war nichts zu sehen). Der Artikel entstand damals unter enormen Zeitdruck. Und leider ist die R600 wieder zurueck bei ATI, so dass ich kaum Moeglichkeiten hatte, da noch etwas nachzutesten. Allerdings bekommt Madkiller eine R600, die in den zukuenftigen Performance-Reports mitspielt.

robbitop
2007-06-08, 18:25:57
R600 die-shot


Wenn ich das richtig deute ist das I/O vom R600 ja extrem teuer... :eek:

AnarchX
2007-06-08, 19:59:23
Wenn ich das richtig deute ist das I/O vom R600 ja extrem teuer... :eek:

Naja, ist ja auch ein 512Bit SI. Oder ist es auch dafür zu groß?

Mal beide Konkurrenten gegenübergestellt:
http://img373.imageshack.us/img373/3697/r600dievc0.jpghttp://img75.imageshack.us/img75/2838/g80diebk8.jpg
edit:
Die-Size angepasst.

horn 12
2007-06-08, 20:40:51
GESCHAFFT, Endlich!
Vorab Netzteil reicht aus, und ist ein Delta GPS 450-AA mit 1x14A und 1x15Ampere, gesamt 450 Watt NT. G E I L.

Habe Drivercleaner sofort in Windows gemacht, ohne Neustart, und nicht im abgesicherten Modus (War wohl ein großer Fehler;) daher wohl:
EXTREME Ruckler unter STALKER, bleibt oft hängen, sehr sehr zäh läufts, Grrrr
Farcry oft sehr sehr starke Framdrops von 60/70 auf 35-40 fps.:mad: :o

Jedoch DirT voll flüssig, auch COJ recht angenehm im Gegensatz zur 1950 Pro mit 1280x1024 Gras, Schatten auf hoch!!! :teufel: :xmas: :bigok:
9 Level im Wald getestet.
Ebenso F.E.A.R Schatten hoch/ Softshadows aus, Werte in 1280x1024 4xAA/16AF Rest maximum:
33 / 80 / 214
Auch bei Call of Juarez hi und da Ruckler/ Hänger. CPU womöglich Schuld?

Lüfter, unter 2D recht Leise,unter Games und immer wieder im Idle recht laut, habe aber schlimmeres befürchtet.
Hinten am Slotblech (DUAL-Slot) kommt aber extrem ware Luft raus und Karte wird extrem heiss.

Was meint IHR, die Framedrops/ Ruckler kommen noch vom alten Treiber daher?
Wie sollte mna dies beseitigen, Drivercleaner im abgesicherten Modus ausführen, vollbringt Wunder?

reunion
2007-06-08, 21:13:09
Naja, ist ja auch ein 512Bit SI. Oder ist es auch dafür zu groß?

Mal beide Konkurrenten gegenübergestellt:
http://img373.imageshack.us/img373/3697/r600dievc0.jpghttp://img373.imageshack.us/img373/1982/g80dieeo4.jpg

(Die-Size-Verhältnis ist nicht beachtet.)

Naja, erstens sollte man hier beim Vergleich der I/O-Transistoren beachten, dass die Screens wie schon von dir erwähnt nicht die realen Größen wiederspiegeln (R600 ist ~13% kleiner als G80) und zweitens sollte man nicht vergessen, dass NV beim G80 auch einiges I/O-Zeug in den NVIO verfrachtet hat.

=Floi=
2007-06-08, 22:01:32
Hallo
hier ein crossfire test
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/

Mr. Lolman
2007-06-08, 22:08:08
Hallo
hier ein crossfire test
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/

Hm, leider mit alten Catalysts...

Gouvernator
2007-06-08, 22:11:20
GESCHAFFT, Endlich!
Vorab Netzteil reicht aus, und ist ein Delta GPS 450-AA mit 1x14A und 1x15Ampere, gesamt 450 Watt NT. G E I L.

Habe Drivercleaner sofort in Windows gemacht, ohne Neustart, und nicht im abgesicherten Modus (War wohl ein großer Fehler;) daher wohl:
EXTREME Ruckler unter STALKER, bleibt oft hängen, sehr sehr zäh läufts, Grrrr
Farcry oft sehr sehr starke Framdrops von 60/70 auf 35-40 fps.:mad: :o

Jedoch DirT voll flüssig, auch COJ recht angenehm im Gegensatz zur 1950 Pro mit 1280x1024 Gras, Schatten auf hoch!!! :teufel: :xmas: :bigok:
9 Level im Wald getestet.
Ebenso F.E.A.R Schatten hoch/ Softshadows aus, Werte in 1280x1024 4xAA/16AF Rest maximum:
33 / 80 / 214
Auch bei Call of Juarez hi und da Ruckler/ Hänger. CPU womöglich Schuld?

Lüfter, unter 2D recht Leise,unter Games und immer wieder im Idle recht laut, habe aber schlimmeres befürchtet.
Hinten am Slotblech (DUAL-Slot) kommt aber extrem ware Luft raus und Karte wird extrem heiss.

Was meint IHR, die Framedrops/ Ruckler kommen noch vom alten Treiber daher?
Wie sollte mna dies beseitigen, Drivercleaner im abgesicherten Modus ausführen, vollbringt Wunder?
Das ist deine Karte :biggrin: Also ich hab in STALKER jetzt mit GTS vollkommene Rücklefreiheit sogar wenn die Frames auf 22 fallen fühlt es sich komplett smooth an. Krass.

A.Wesker
2007-06-08, 22:20:17
Hm, leider mit alten Catalysts...
vorallem frage ich mich, was Computerbase wieder (zb. bei Company of Heroes) zusammengebenched hat. CF skaliert in diesem Spiel eigendlich wunderbar.

Gast
2007-06-08, 22:28:20
hattest du nicht eine XT gouvernator??? nicht zufrieden?

horn 12
2007-06-08, 23:14:09
Resumee bis dato abend.
Einige Games reissen mich echt vom hocker selbst mit nur der Singlecore CPU 3800+ OC2,6.
Spiele wie Call of Juarez, Demo von DirT, FEAR (Zum Großteil) Condemned, Dark of Messiah welche ich kurz antestete laufen sehr sehr gschmeidig.
nur Stalker, Farcry wollen nicht recht, Framedrops und häufiges Stocken/ Hängen sind die Erscheinung.
AF/ AA und bei Stalker nur das AF schuld, oder ist dies bei mir treibermässig zu suchen.
Jedoch Stalker nach mehreren Minuten läufts dann doch etwas besser, aber nicht allzu flüssig.
Denk das diese Games noch an den Kinderkrankheiten leiden, und dies so schnell als möglich behoben werden kann. Denn andere Games laufen richtig rund, ausgenommen oft auch hier kurzes Stocken. Da wird bei mir etwas "Treibermässig" nicht ganz stimmen, oder generell noch ein problem der 2900XT?

Gast
2007-06-09, 00:35:51
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/

X1950 XTX CF schneller als HD 2900 XT CF. :ugly:

horn 12
2007-06-09, 01:47:48
http://www.dna-drivers.com/index.php?m=single&id=114

=Floi=
2007-06-09, 09:15:26
horn testest du mit AA?
fraps?


---
bin gespannt wann auch du nicht mehr von dieser karte begeisterst bist denn, die restlichen fanboys haben ja auch auch schon zu nv gewechselt :D

horn 12
2007-06-09, 10:50:16
ja, alles nur mit AA + AF getestet. (4xAA 16AF eingestellt in den Games)
Nimm zurzeit kein Fraps, und ATT funkt noch nicht.
Persönlich fallen mir aber die Hänger/ Ruckler auf...

Mr. Lolman
2007-06-09, 11:25:08
AF/ AA und bei Stalker nur das AF schuld, oder ist dies bei mir treibermässig zu suchen.

Stell mal bei Stalker AF direkt im Spiel ein...

MechWOLLIer
2007-06-09, 12:15:42
Hm, leider mit alten Catalysts...
Der Geschwindigkeit tut dies aber keinen Abbruch. Ich habe das hier mal nachgemessen, der Catalyst 7.5 ist eigentlich gleich schnell mit dem Launch-Treiber. Mal ist der Cat 7.5 1-2 FPS schneller, mal aber auch 1-2 FPS langsamer.

Und da die Benchmarks schon größtenteils fertig waren, als der Catalyst 7.5 erschienen ist, wollten wir nicht wieder alles neu machen und den Artikel herauszögern.

Warum unterscheidet sich der Stromverbrauch der HD 2900 XT so stark zum vorherigen Test?
Ganz einfach, bei Company of Heroes mussten wir Catalyst A.I. ausschalten, und somit gibts kein CrossFire mehr. Mit Catalyst A.I. gibts aber bei Company of Heroes kein 4xAA (bei der Version 1.7 weiß ich es jetzt nicht), weder per Ingame AA noch per Treiber-AA.

Odal
2007-06-09, 13:21:25
Ganz einfach, bei Company of Heroes mussten wir Catalyst A.I. ausschalten, und somit gibts kein CrossFire mehr. Mit Catalyst A.I. gibts aber bei Company of Heroes kein 4xAA (bei der Version 1.7 weiß ich es jetzt nicht), weder per Ingame AA noch per Treiber-AA.

Nur bei der 2900XT oder auch bei älteren ATI karten?
Ich habe bei meiner X1900XT nämlich festgestellt das ich manchmal auch kein AA in Company of Heroes hab aber nur wenn ich nach den Treiber AA Einsztellungen keinen Neustart gemacht habe

horn 12
2007-06-09, 13:48:09
Neuer Treiber für D3D10 Call of Juarez, und man sieht dass die HD 2900 XT in Vormarsch kommt:

http://www.pcgameshardware.de/?article_id=603251

dildo4u
2007-06-09, 13:51:30
Neuer Treiber für D3D10 Call of Juarez, und man sieht dass die HD 2900 XT in Vormarsch kommt:

http://www.pcgameshardware.de/?article_id=603251
"Nach anfänglichen Treiberproblemen mit der inoffiziellen Version liegt die HD2900 XT jetzt deutlich vor der GF8800-Reihe - allerdings mit der Einschränkung der wie oben angegebenen, niedrigeren Texturauflösung, also schlechterer Bildqualität."

Somit sind die Benches wertlos.

Odal
2007-06-09, 13:59:48
"Nach anfänglichen Treiberproblemen mit der inoffiziellen Version liegt die HD2900 XT jetzt deutlich vor der GF8800-Reihe - allerdings mit der Einschränkung der wie oben angegebenen, niedrigeren Texturauflösung, also schlechterer Bildqualität."

Somit sind die Benches wertlos.

naja wenn der benchmark die texturauflösung anhand der vram menge ermittelt....lässt man halt die 8800GTS 320MB version mal antreten....

jedenfalls wertlos sind sie nicht da sie belegen das sich einiges getan haben muss in den neuen treibern

deekey777
2007-06-09, 14:02:00
GRAW 1 (PC) lässt sich grüßen. Mit 256 MB wollte das Spiel auch nur mittlere Texturen darstellen lassen.

Mr. Lolman
2007-06-09, 16:07:59
"Nach anfänglichen Treiberproblemen mit der inoffiziellen Version liegt die HD2900 XT jetzt deutlich vor der GF8800-Reihe - allerdings mit der Einschränkung der wie oben angegebenen, niedrigeren Texturauflösung, also schlechterer Bildqualität."

Somit sind die Benches wertlos.

Die Texturauflösung ist gleich. Die BQ-Unterschiede liegen am AF. Dass die das nicht checken :rolleyes:

edit. Ok. Jetzt seh ichs doch - rechts unten im Eck: http://www.pcgameshardware.de/?menu=browser&article_id=603251&image_id=%20660409&show=original vs. http://www.pcgameshardware.de/?menu=browser&article_id=603251&image_id=%20660410&show=original

AnarchX
2007-06-09, 16:11:41
hat sich erledigt...

=Floi=
2007-06-09, 16:30:41
aber ohne AF zu testen ist trotzdem nicht praxisnah und die 2900er fabriziert schon ein verdammt schlechtes bild :eek: für mich sind die benchmarks auch SO nicht vergleichbar

The_Invisible
2007-06-09, 17:30:48
Die Texturauflösung ist gleich. Die BQ-Unterschiede liegen am AF. Dass die das nicht checken :rolleyes:

edit. Ok. Jetzt seh ichs doch - rechts unten im Eck: http://www.pcgameshardware.de/?menu=browser&article_id=603251&image_id=%20660409&show=original vs. http://www.pcgameshardware.de/?menu=browser&article_id=603251&image_id=%20660410&show=original

nicht nur unten rechts sondern auch in der bildmitte sieht man das mehr als deutlich. aber sonst bei einer bestimmten marke jeden flimmernden pixel sehen

mfg

dildo4u
2007-06-09, 17:51:51
nicht nur unten rechts sondern auch in der bildmitte sieht man das mehr als deutlich. aber sonst bei einer bestimmten marke jeden flimmernden pixel sehen

mfg
Jup extrem sogar.

8800GTX

http://www.directupload.net/images/070609/LXHQdhvn.png


HD2900XT

http://www.directupload.net/images/070609/e5KaUyI6.png

Undertaker
2007-06-09, 17:55:36
also für mich sieht das nach wie vor wie einmal mit, einmal ohne af aus... unten-mitte/rechts sind die texturen zb absolut identisch, und das nur stellenweise die auflösung geringer sein soll klingt auch unlogisch...

A.Wesker
2007-06-09, 18:05:19
mit welchem Tool kann man Screenshots bei DX10 Anwendungen machen? Fraps funktioniert bei DX10 bei mir net und bei hypersnap, drucktaste bekomme ich nur ein schwarzes Bild.

up¦²
2007-06-09, 20:42:13
mit welchem Tool kann man Screenshots bei DX10 Anwendungen machen? Fraps funktioniert bei DX10 bei mir net und bei hypersnap, drucktaste bekomme ich nur ein schwarzes Bild.
Probier mal das hier: Snipping Tool
http://windowshelp.microsoft.com/Windows/en-US/Help/1337cdba-52a2-4704-ad4d-2d7bace605b41033.mspx

A.Wesker
2007-06-09, 21:16:33
Probier mal das hier: Snipping Tool
http://windowshelp.microsoft.com/Windows/en-US/Help/1337cdba-52a2-4704-ad4d-2d7bace605b41033.mspx

gibts da irgendwie nen hotkey für einen Full-Screenshot? habe solch eine Funktion bisher nicht gefunden.

up¦²
2007-06-09, 21:52:07
gibts da irgendwie nen hotkey für einen Full-Screenshot? habe solch eine Funktion bisher nicht gefunden.
Sorry - hab selber nicht vista, aber gehört es ginge...
Ansonsten scheint das hier mit vista zu gehn: SimpleScreenshot 1.30
http://www.das-download-archiv.de/software_71_download_simple-screenshot.html

Flashpoint
2007-06-09, 23:06:42
also für mich sieht das nach wie vor wie einmal mit, einmal ohne af aus... unten-mitte/rechts sind die texturen zb absolut identisch, und das nur stellenweise die auflösung geringer sein soll klingt auch unlogisch...



WOOT

Also wenn AF solche ein Plus an mehr Details gibt, warum setzen dann beide Hersteller nicht auf bessere Filter.


Schau dir doch mal links die ganze Seite an.
Das sind Welten.
Das sind eidneutig andere Texturen.

Sterem
2007-06-09, 23:13:39
WOOT

Also wenn AF solche ein Plus an mehr Details gibt, warum setzen dann beide Hersteller nicht auf bessere Filter.


Schau dir doch mal links die ganze Seite an.
Das sind Welten.
Das sind eidneutig andere Texturen.

Glaubts du das du denn unterschied siehst wenn du das game spielts?

m.sch
2007-06-09, 23:52:30
Glaubts du das du denn unterschied siehst wenn du das game spielts?

Bei CoJ würd ich es sehen,die Unterschiede sind zu markant.
Kann nur staunen :up:

Gast
2007-06-10, 00:32:55
Glaubts du das du denn unterschied siehst wenn du das game spielts?

Glaubst du, du siehst während des F1-Rennens, ob jemand Traktionskontrolle benutzt oder nicht? Kaum - trotzdem sollte Chancengleichheit gewahrt bleiben.

Flashpoint
2007-06-10, 00:43:24
Glaubts du das du denn unterschied siehst wenn du das game spielts?


Oh ja!
Wenn die Texturen dermassen abbauen dann auf jeden Fall.
Das hat nichts mehr mit miesem AF-Filter und der gleichen zu tun.
Das sind einfach keine gleichwertigen Settings.

Der Vergleich hinkt einfach.

horn 12
2007-06-10, 06:06:40
Habe wie du die Sapphire 2900 XT gekauft und gar die Black Box dabei.
Bei mir sind aber 2 x dieselbe Black Box Hülle im Karton beigelegt gewesen, stimmt dies, oder pro Game eine Hülle, dh. gesamt müssten 3 Hüllen sein; oder für alle 3 Games gesamt eine einzige Hülle, und ich habe die dann doppelt so wie es aussieht.
Blicke da nicht ganz durch
Wer kann mir dies erklären. Wäre nett!

Gast
2007-06-10, 08:04:20
also für mich sieht das nach wie vor wie einmal mit, einmal ohne af aus... unten-mitte/rechts sind die texturen zb absolut identisch, und das nur stellenweise die auflösung geringer sein soll klingt auch unlogisch...


identisch??? Du solltest schnellsten einen Augenarzt aufsuchen!
Oder ganz einfach aufhören dir Grakas in dieser Preißklasse zu kaufen es macht keinen Sinn..das ist genau das was ich immer sage,90% sehen doch garnicht was sie einstellen und auf dem Moni gezeigt bekommen.....aber hauptsache...naja egal.

Sterem
2007-06-10, 11:26:03
identisch??? Du solltest schnellsten einen Augenarzt aufsuchen!
Oder ganz einfach aufhören dir Grakas in dieser Preißklasse zu kaufen es macht keinen Sinn..das ist genau das was ich immer sage,90% sehen doch garnicht was sie einstellen und auf dem Moni gezeigt bekommen.....aber hauptsache...naja egal.


Genau8 deswegen muss man denn Bench nicht in die Tone tretten.:P

Mark3Dfx
2007-06-10, 11:52:33
http://www.hartware.de/review_716.html

Da schneidet sie gegen eine GTS 640 durchweg besser ab.

LovesuckZ
2007-06-10, 12:09:04
http://www.hartware.de/review_716.html
Da schneidet sie gegen eine GTS 640 durchweg besser ab.

In Fear liegt sie auf dem Niveau der GTS und in Stalker behindert der Treiber ein besseres Abschneiden der GTS.

mekki66
2007-06-10, 13:05:42
man kann nur auf bessere Treiber hoffen

up¦²
2007-06-10, 13:58:37
info...
Diamond Radeon HD 2900 XT 1GB launched (http://www.nordichardware.com/news,6498.html)

=Floi=
2007-06-10, 14:04:27
gibts die firma auch noch ;D
da muß ich doch glatt an eine voodoo2 denken ;D

reunion
2007-06-10, 14:07:06
info...
Diamond Radeon HD 2900 XT 1GB launched (http://www.nordichardware.com/news,6498.html)

Typischer OEM-Fang, scheint aber sehr gut zu funktionieren:

You will be able to get this card in systems from Biohazard Computer Systems, Inc. , Extreme PC, Falcon North West, Maingear, Memory Express, NCIX, Smooth Creations, Velocity Micro, Vigor and XI.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=1401&Itemid=1

Liszca
2007-06-10, 14:20:30
also für mich sieht das nach wie vor wie einmal mit, einmal ohne af aus... unten-mitte/rechts sind die texturen zb absolut identisch, und das nur stellenweise die auflösung geringer sein soll klingt auch unlogisch...

Würde ich auch tippen, aber so ein unterschied 2007, das ist einfach nicht zeitgemäß imho wurde der AF-tester auch ausgetrickst.

Gast
2007-06-10, 14:21:12
Die Karte ist doch ein Witz, so lange die den GPU Takt nicht erhöht haben.

Was nützen 1 GB, wenn sie in Auflösungen mit AA+AF schwächelt und teilweise hinter der GTS zurückfällt?

Wenn man schon die Bandbreite aufbohrt, dann bitte auch den GPU Takt auf 875 MHz...

up¦²
2007-06-10, 14:24:35
Naja - da bleibt manchen Kritikern der R600 aber bestimmt die Spucke weg, wenn man sich diese Resultate anguckt:
http://xtremesystems.org/forums/showpost.php?p=2243367&postcount=83

ok, OC-Fanatiker (http://www.nordichardware.com/news,6497.html), aber immerhin :wink:

Gast
2007-06-10, 14:38:27
Hat aber nix mit der realen Leistung zu tun. Im 3DMark liegt sie fast auf GTX Niveau, davon ist in Spielen nichts zu sehen.

Für mich ist das nichts anderes als Bauenfängerei. Das "Upgrade" von einer 8800GTS/GTX/Ultra auf eine 1GB Karte wäre ein "Downgrade".

Mumins
2007-06-10, 14:40:36
wer von einem g80 auf nen r600 wechselt muß auch einen an der waffel haben oder zu viel geld.

dildo4u
2007-06-10, 14:43:24
Naja - da bleibt manchen Kritikern der R600 aber bestimmt die Spucke weg, wenn man sich diese Resultate anguckt:
http://xtremesystems.org/forums/showpost.php?p=2243367&postcount=83

ok, OC-Fanatiker (http://www.nordichardware.com/news,6497.html), aber immerhin :wink:
Das ist ein 2900XT Crossfire! also ziehmlich langweilig King Pin hat mit einer 8800 Ultra 21000 Punkte im 06 mit ähnlich starker Cpu.

Gast
2007-06-10, 14:44:50
Gibt sicher genügend Leute die auf die 1GB hereinfallen werden... das dreißte ist die Tatsache, das diese 1GB Karten sehr wahrscheinlich noch teurer angeboten werden und der Mehpreis in keinem Verhältniss zur Leistung steht.

Gast
2007-06-10, 14:45:54
Ich glaube des wird auch mit neuen Treiber nix mehr mit der Karte. Ich würd auf den Nachfolger warten.

up¦²
2007-06-10, 14:49:06
Ich glaube des wird auch mit neuen Treiber nix mehr mit der Karte. Ich würd auf den Nachfolger warten.
Darf ich LovesuckZ von oben zitieren?
In Fear liegt sie auf dem Niveau der GTS und in Stalker behindert der Treiber ein besseres Abschneiden der GTS. ;D
Abwarten... - bleibt garnix weiter übrig!
Die ominöse OEM scheint in der Versenkung verschwunden zu sein: taucht nirgendwo mehr auf, oder wurde sie außer bei Coolaler noch woanders neuerlich gesichtet?
Gerade die "robustere" Kühlung sah doch ganz ok aus.

Raff
2007-06-10, 15:05:15
Naja - da bleibt manchen Kritikern der R600 aber bestimmt die Spucke weg, wenn man sich diese Resultate anguckt:
http://xtremesystems.org/forums/showpost.php?p=2243367&postcount=83

ok, OC-Fanatiker (http://www.nordichardware.com/news,6497.html), aber immerhin :wink:

Das Blöde ist: Crossfire funktioniert in der Spielepraxis weit weniger toll. Der R600 ist das beste Beispiel, das man aufführen sollte, um zu zeigen, dass der 3DMark (Spiele-)praxisfern ist.

MfG,
Raff

seahawk
2007-06-10, 15:24:23
CF und 4,7 Core 2 Extreme, dafür sind die Punkte eher naja.

MechWOLLIer
2007-06-10, 15:32:53
Nur bei der 2900XT oder auch bei älteren ATI karten?
Ich habe bei meiner X1900XT nämlich festgestellt das ich manchmal auch kein AA in Company of Heroes hab aber nur wenn ich nach den Treiber AA Einsztellungen keinen Neustart gemacht habe
Bei allen ATi-Karten seit einer gewissen Catalyst-Version...ich glaube es war der Cat 6.12 oder ähnlich. Ab da an funktioniert zumindest bei mir AA nur noch bei Cat A.I. Disabled, egal ob mit einer HD 2900 XT, X1950 XTX oder was ganz anderes.


Und ja, in der DX10-Benchmardemo zu Call of Juarez verarbeitet die HD 2900 XT wirklich deutlich geringer aufgelöste Texturen, mit dem AF hat das nichts zu tun. Ich glaube aber nicht, dass das irgendwas mit der Texturauflösung zu tun hat, sondern irgendein merkwürdiges allgemeines ATi-Problem ist. Zumindest auf ner 8800 GTS gibts immer noch diesselbe Texturauflösung.

Gast
2007-06-10, 18:16:56
Ist die Bildqualität bei einer X1800 XT, wenn man A.I. auf Disabeld stellt besser?

Coda
2007-06-10, 20:15:55
Und ja, in der DX10-Benchmardemo zu Call of Juarez verarbeitet die HD 2900 XT wirklich deutlich geringer aufgelöste Texturen, mit dem AF hat das nichts zu tun. Ich glaube aber nicht, dass das irgendwas mit der Texturauflösung zu tun hat, sondern irgendein merkwürdiges allgemeines ATi-Problem ist. Zumindest auf ner 8800 GTS gibts immer noch diesselbe Texturauflösung.
Vielleicht ist es ja mal wieder das Quake-3-Syndrom ;D

deekey777
2007-06-10, 22:02:44
Bei allen ATi-Karten seit einer gewissen Catalyst-Version...ich glaube es war der Cat 6.12 oder ähnlich. Ab da an funktioniert zumindest bei mir AA nur noch bei Cat A.I. Disabled, egal ob mit einer HD 2900 XT, X1950 XTX oder was ganz anderes.


Und ja, in der DX10-Benchmardemo zu Call of Juarez verarbeitet die HD 2900 XT wirklich deutlich geringer aufgelöste Texturen, mit dem AF hat das nichts zu tun. Ich glaube aber nicht, dass das irgendwas mit der Texturauflösung zu tun hat, sondern irgendein merkwürdiges allgemeines ATi-Problem ist. Zumindest auf ner 8800 GTS gibts immer noch diesselbe Texturauflösung.
8800GTS 640 oder 320?

up¦²
2007-06-11, 04:49:49
http://img174.imageshack.us/img174/7007/000379310nv5.th.jpg (http://img174.imageshack.us/my.php?image=000379310nv5.jpg)
Anschluß gesucht :smile:

Tjell
2007-06-11, 07:05:22
http://img174.imageshack.us/img174/7007/000379310nv5.th.jpg (http://img174.imageshack.us/my.php?image=000379310nv5.jpg)
Anschluß gesucht :smile:
"128 Unified Shader Pipelines"? :confused:

Setzt Sapphire demnächst auch auf G80 von den Grünen und hat diese Angabe versehentlich unter die des R600 gemischt, oder wie ist diese Zahl zu erklären?

Gast
2007-06-11, 09:19:34
Ist die Bildqualität bei einer X1800 XT, wenn man A.I. auf Disabeld stellt besser?Ja, natürlich ist AI-Off besser als Standard. Ob dir die Unterschiede gleich ins Auge springen, hängt aber auch vom Spiel ab.

James Ryan
2007-06-11, 09:39:33
Vielleicht ist es ja mal wieder das Quake-3-Syndrom ;D

Oi oi, das war böse!
Könnte mal ein Tester einfach die CoJ.exe umbennen? Dann sieht man es ja.

MfG :cool:

Gast
2007-06-11, 11:01:09
"128 Unified Shader Pipelines"? :confused:

Setzt Sapphire demnächst auch auf G80 von den Grünen und hat diese Angabe versehentlich unter die des R600 gemischt, oder wie ist diese Zahl zu erklären?

gute frage....
sapphiere ist ja die ATI hausmarke gewesen.
haben die evtl nen nettes neues spielzeug?

aber die karte selber hab ich schon vor langer zeit gesehen, nur ohne die angabe der 128er pipes....
ich hoffe die komm nochmal, wegen der abweichenden lüftung

Gast
2007-06-11, 13:31:21
http://img529.imageshack.us/img529/8008/nvidia1tn4.jpg

Gast
2007-06-11, 13:31:53
http://img295.imageshack.us/img295/8905/ati1db8.jpg
[IMG]

James Ryan
2007-06-11, 13:32:09
Diese Tabelle ist Humbug, Crytek hat selber gesagt dass jede Perfomancemessung vor Release ein Fake ist. ;)

MfG :cool:

Mr. Lolman
2007-06-11, 13:55:42
[...]und in Stalker behindert der Treiber ein besseres Abschneiden der GTS.

Stimmt. Denn sobald der Treiber die BQ runtergeschraubt hatte, erhöhte sich ominöserweise auch die Performance X-D

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5574140#post5574140

Coda
2007-06-11, 14:14:53
Daran liegt es mit Sicherheit nicht allein. Mit dem alten Treiber war 1600x1200 und 1024x768 auf ner GTX gleich schnell. Und das behebt man sicher nicht mit einem Shaderreplacement.

Und was da "runter-" oder "hochgeschraubt" ist sieht man erst wenn man's mit dem Refrast vergleicht. Evtl. ist das ja auch das gewünschte Ergebniss und damit ein Bugfix, wenn man sich gerade sowieso mit Stalker beschäftigt hat.

Gast
2007-06-11, 14:17:45
Stimmt. Denn sobald der Treiber die BQ runtergeschraubt hatte, erhöhte sich ominöserweise auch die Performance X-D
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5574140#post5574140

Schon klar, deswegen ist die GTX auch nur so schnell wie eine GTS mit dem Treiber.
Aber kann man etwas anderes von dir erwarten? Immerhin wird die AMD Karte hier bevorzugt dargestellt, dass muss richtig sein - früher dachten die Leute sogar, die Erde wäre eine Scheibe...

LovesuckZ

InsaneDruid
2007-06-11, 14:20:47
Stimmt. Denn sobald der Treiber die BQ runtergeschraubt hatte, erhöhte sich ominöserweise auch die Performance X-D

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5574140#post5574140

Schon klar das du deinen eigenen Satz "Siehst du doch. Imo haben die einfach die Texturqualität ans App.AF angepasst. Denn da wird auch nicht voll über alle Texturestages gefiltert. (Was auch der Grund ist, warum 16x App.AF auf meiner X1900XTX deutlich flotter ist, als 16x TreiberAF)" hier nicht erwähnst, indem du ja selber "zugibst" das dies auf der Radeon schon immer so ist.

Mr. Lolman
2007-06-11, 15:55:06
Schon klar das du deinen eigenen Satz "Siehst du doch. Imo haben die einfach die Texturqualität ans App.AF angepasst. Denn da wird auch nicht voll über alle Texturestages gefiltert. (Was auch der Grund ist, warum 16x App.AF auf meiner X1900XTX deutlich flotter ist, als 16x TreiberAF)" hier nicht erwähnst, indem du ja selber "zugibst" das dies auf der Radeon schon immer so ist.

Wenn man mit App.AF spielt. Mit CP-AF ist die BQ so wie sie sein sollte.

Und was da "runter-" oder "hochgeschraubt" ist sieht man erst wenn man's mit dem Refrast vergleicht. Evtl. ist das ja auch das gewünschte Ergebniss und damit ein Bugfix, wenn man sich gerade sowieso mit Stalker beschäftigt hat.

Siehst ja, dass die Texturen mit dem 158.27 eindeutig unschärfer sind, oder?

Schon klar, deswegen ist die GTX auch nur so schnell wie eine GTS mit dem Treiber.
Aber kann man etwas anderes von dir erwarten? Immerhin wird die AMD Karte hier bevorzugt dargestellt, dass muss richtig sein - früher dachten die Leute sogar, die Erde wäre eine Scheibe...

LovesuckZ

Der 158.27 hat ja schon den "Fix" drinnen, oder? Wurde halt gleich etwas mehr gefixt, als bloß die zuschwache Speed der GTX...

Gast
2007-06-11, 16:01:51
Diese Tabelle ist Humbug, Crytek hat selber gesagt dass jede Perfomancemessung vor Release ein Fake ist. ;)

MfG :cool:


zumahl es nur "expected" fps sind :D

Coda
2007-06-11, 16:06:37
Siehst ja, dass die Texturen mit dem 158.27 eindeutig unschärfer sind, oder?
Nein seh ich nicht. Das Specular vom Normalmapping ist offenbar schwächer. Wenn es nur am Texturfilter liegen würde, hätte sich die Farbe nicht geändert.

Ich will einen Refrast- oder R600-Screenshot von der Stelle, ansonsten stell hier wieder nicht schon was als Tatsachen dar. Vor allem nach der CoJ-Aktion ist das mal wieder unglaublich lächerlich. Da siehste natürlich nix.

InsaneDruid
2007-06-11, 16:34:22
Wenn man mit App.AF spielt. Mit CP-AF ist die BQ so wie sie sein sollte

Wr sagt das es mit forciertem AF @ NV anders ist?

Mr. Lolman
2007-06-11, 16:39:19
Nein seh ich nicht. Das Specular vom Normalmapping ist offenbar schwächer. Wenn es nur am Texturfilter liegen würde, hätte sich die Farbe nicht geändert.

Was für eine Logik. Ich sag ja nicht, dass es nur am Texturfiltering liegt. :rolleyes:


Ich will einen Refrast- oder R600-Screenshot von der Stelle, ansonsten stell hier wieder nicht schon was als Tatsachen dar. Vor allem nach der CoJ-Aktion ist das mal wieder unglaublich lächerlich. Da siehste natürlich nix.

Klar ist der COJ-ATi-Pfusch mindestens genauso übel, aber den hab ich weder verteidigt, noch hab ich versucht, ihn wegzudiskutieren. Ich habs bloß anfangs fälschlicherweise als AF-Pfusch missgedeutet.

http://666kb.com/i/ap4j3spzqo9ygot8j.gif

Wr sagt das es mit forciertem AF @ NV anders ist?

Isses ja augenscheinlich.

Coda
2007-06-11, 16:45:38
Nochmals: Falls es das AF wäre, wäre die Farbe nicht anders. Da es bei dem alten Treiber heller ist, sag ich immer noch dass da das Specular einfach stärker ist und deshalb die Frequenz auch höher.

nVIDIA hat es ggü. R600 ganz sicher nicht nötig an der Texturqualität zu sparen.

Blaire
2007-06-11, 16:53:16
Ich bezweifle auch das dem so ist, ich hab letztens schon einen Bildvergleich von Tombmans Savegame zwischen alten und neuen Treiber gemacht und das Bild war exakt identisch beide Male wurde 16xAF über den Treiber forciert.

Gast
2007-06-11, 16:59:35
http://666kb.com/i/ap4j3spzqo9ygot8j.gif



Isses ja augenscheinlich.

Was ist den da passiert??
Coda, sag jetzt das ist dir nicht aufgefallen???

gruss.

Coda
2007-06-11, 17:02:30
Natürlich ist es mir aufgefallen, ich glaube nur Lolman zieht mal wieder voreilige Schlüsse.

Vor allem wenn man Blaires Post beachtet, dass es mindestens in anderen Szenen exakt gleiche Bilder bei gleichermaßen gesteigerter Performance gibt sieht das eher nach einem Bugfix aus.

MechWOLLIer
2007-06-11, 17:16:51
8800GTS 640 oder 320?
Ich habs mit beiden Karten ausprobiert, ist dasselbe.

Laut den Entwicklern soll das Problem nicht an Call of Juarez selber liegen. Sie schieben es auf den leicht unterschiedlichen Blickwinkel und deswegen einem anderen LOD (was aber wohl keiner glaubt...), sie sagen aber auch, dass das gut am Treiber liegen kann.

Angiesan
2007-06-11, 17:36:20
Ich bezweifle auch das dem so ist, ich hab letztens schon einen Bildvergleich von Tombmans Savegame zwischen alten und neuen Treiber gemacht und das Bild war exakt identisch beide Male wurde 16xAF über den Treiber forciert.

Bin auch gerade eben über die Diskusion gestolpert und habe mit einer eigenen Scene verglichen und die Bilder sind absolut identisch.

Ist es möglich das die " Optimierung " nur bei der GTS greift?

Ach ja, wenn mir endlich mal jemand nach 2 Jahren erklären könnte wie ich die
Bilder hoch bekomme stelle ich die gerne hier ein.

Grüße

Banshee18
2007-06-11, 17:50:48
Ach ja, wenn mir endlich mal jemand nach 2 Jahren erklären könnte wie ich die
Bilder hoch bekomme stelle ich die gerne hier ein.

Grüße
www.666kb.com

pXe
2007-06-11, 17:50:54
Oje, die Crysis Tabellen sind mal wieder unterstes Bild-Niveau vom allerfeinsten und haben genau Null Aussagekraft.


pXe

dr_mordio
2007-06-11, 19:00:47
Oje, die Crysis Tabellen sind mal wieder unterstes Bild-Niveau vom allerfeinsten und haben genau Null Aussagekraft.


pXe

erst denken oder nachforschen und dann schreiben :biggrin:

okay man kann es auch dem tabellen-poster ankreiden, das er sachen von anderen seiten klaut und extra nochmal hochläd, damit keiner weiß woher es kommt. :P
Das finde ich nicht gut. so heimlich zu klauen und wichtige fakten zu unterschlagen :mad:

Also das ganze kommt aus einem crysis forum und hat nix offizielles zu sagen.
ein admin des forums hat sich mal vor längerer zeit drann gemacht die performance zu schätzen. und dabei sind diese zahlen rausgekommen.
und "onefire" aus dem forum hat das ganze mal aus langer weile grafisch aufbereitet.

allerdings wird im forum auch gewarnt, das das alles spekulation ist.
Please Note: These are speculated performance levels, actual performance may vary

hier gibt es alles zum nachlesen:
http://www.crysis-online.com/forum/index.php/topic,4567.0.html


lol, even after saying these are unoffical and only speculated and performance may vary we still get people picking at it. This is purely based on how we 'think' the cards will perform. Once we have the official requirements from Crytek and we have tested it on a few different configurations we may decide to review this.

MfG
Alex

Blaire
2007-06-11, 19:22:16
Natürlich ist es mir aufgefallen, ich glaube nur Lolman zieht mal wieder voreilige Schlüsse.


Ist natürlich grober Unfug, die Bildqualität ist exakt identisch (158.19 vs. 158.27 XP) ich hab mir eben nochmal die Mühe gemacht und zwei verschiedene Savegames verglichen und es hat sich rein garnix verändert. Viel Rauch um Nix.

Gast
2007-06-11, 19:44:18
http://666kb.com/i/ap4j3spzqo9ygot8j.gif



Isses ja augenscheinlich.


abgesehen davon dass man in erster linie komprimierungsartefakte sieht ist die texturschärfe hier absolut identisch, mit dem älteren treiber ist allerdings der kontrast etwas stärker, wodurch es auf den ersten blick schärfer aussieht.

Gast
2007-06-11, 19:49:43
hat das schon wer gelesen?

http://www.pcgameshardware.de/blog/2007/06/11/amds-radeon-hd-2900-xt-aka-r600-in-der-praxis/

musste lachen^^

Gast
2007-06-11, 20:15:07
hat das schon wer gelesen?

http://www.pcgameshardware.de/blog/2007/06/11/amds-radeon-hd-2900-xt-aka-r600-in-der-praxis/

musste lachen^^

Ich habe hier in mein Zimmer ein Ventilator stehen der bestimmt 5 mall solaut wie der lauteste PC ist.Mich stört das komischwerweise nicht.

Angiesan
2007-06-11, 20:54:52
www.666kb.com
Danke Banshee:massa:

Hier jetzt noch mal die erwähnten Bilder,

man kann an der FPS Anzeige in der rechten oberen Ecke gut sehen welcher Treiber verwendet wurde;)

http://666kb.com/i/ap4pdr5aouzawx4wc.jpg 158.27



http://666kb.com/i/ap4phz0x8vn9l9c7g.jpg 158.22

Grüße

Mr. Lolman
2007-06-11, 22:05:34
Lol, da hat der 158.27 wieder ne bessere BQ und der 22er sieht deutlich mieser aus als bei den Screenshots von Riggs :biggrin:

BTW: Wie aktiviert man die fps-Anzeige?
BTW2: Die Bilder sind mies komprimiert.

mapel110
2007-06-11, 22:13:47
http://666kb.com/i/ap4pdr5aouzawx4wc.jpg 158.27



http://666kb.com/i/ap4phz0x8vn9l9c7g.jpg 158.22

Grüße
Ich bezweifle stark, dass da die selben Einstellungen verwendet wurden. So krasse Unterschiede gibts einfach nicht von Treiber zu Treiber. Und ja, ist zu stark komprimiert, 180 kb für 1680x1050 :ugly:

Coda
2007-06-11, 22:23:06
Da is einfach grad eine Nebelwolke durch's Bild oder der Strahlungs-Postprocess-Shader war grad anders.

deekey777
2007-06-11, 22:24:07
Wenn man Vergleichsbilder von STALKER machen will, ist es nur mit -ss_tga als Anhängsel an die EXE möglich, die Bilder werden dann als JPEG und TGA gespeichert.

der Lustige
2007-06-11, 23:07:19
kommt da noch eine XTX, wann?

Angiesan
2007-06-11, 23:26:56
Lol, da hat der 158.27 wieder ne bessere BQ und der 22er sieht deutlich mieser aus als bei den Screenshots von Riggs :biggrin:

BTW: Wie aktiviert man die fps-Anzeige?


BTW2: Die Bilder sind mies komprimiert.
Ist das Asus Game OSD war bei meiner Karte auf CD dabei
Habe die Bilder in Game mit der F12 Taste gemacht Fraps habe ich leider nicht mehr drauf.
Ich bezweifle stark, dass da die selben Einstellungen verwendet wurden. So krasse Unterschiede gibts einfach nicht von Treiber zu Treiber. Und ja, ist zu stark komprimiert, 180 kb für 1680x1050 :ugly:
Doch die Einstellungen sind lt. Treiber absolut identisch und in Game habe ich nichts verstellt.
Wenn man Vergleichsbilder von STALKER machen will, ist es nur mit -ss_tga als Anhängsel an die EXE möglich, die Bilder werden dann als JPEG und TGA gespeichert.
Werde ich noch mal gerne versuchen aber heute nicht mehr.

Grüße

pXe
2007-06-11, 23:53:23
erst denken oder nachforschen und dann schreiben :biggrin:
...

Dein Posting unterstreicht nur meine Meinung darüber, völlig sinnfrei das ganze ohne jegliche Aussagekraft.

Rein Spekulativ, unoffiziell, rein basierend auf schwammigen Aussagen die Crytek mal getätigt hat:

"I am basing these on a number of statements made by Crytek themselves, videos of the game run on an 8800GTX as well as other video cards and also personal hardware knowledge. It should give
an accurate guide to how well your system would perform in Crysis.
These are:
Official Statement - An 8800GTX can max out Crysis including full AA.
Video - An 8800GTX played Crysis maxed @ 1920 x 1200 in its unoptimized state very smoothly indeed. The only slowdown occured when a building exploded and that was only for a couple of seconds.
Statement - A Crytek employee said his 7800GTX ran the game on "fairly high settings smoothly".
Statement - A Crytek employee said his X1900XT ran the game "with most settings on high smoothly".
Official Statement - anybody with a 6600/X600XT or better will be be able to run Crysis.
Video - a video showed a French reviewing team playing the game's deathmatch alpha on medium-high settings with a 7800GTX (still unoptimized).
Video - a Crysis flythrough run in real time on an 8800GTX shows the game running very smoothly on max settings, and judging by the crispness, I would say that had a good amount of AA on it as well.
Plus other statements in various interviews and some videos which I cannot think of right now."

Und _draus_ spekuliert jemand so eine Tabelle? Halte ich für SEHR gewagt.
In anderen Foren wurde diese Tabelle auch schon gepostet, die meisten nehmen das ganze gleich als gegeben hin,
"Crysis Benchmarkwerte" stand schon in einem Forum...


pXe

dr_mordio
2007-06-12, 00:01:55
findest du?

wer hat den die ergebnisse runtergezogen ohne mal nachzusehen was dahinter steckt?

ich hab selber ne ATI, also warum lobe ich die liste nicht in den himmel, sondern beweise auch noch, das sie schlecht ist?

EDIT:
genau das hab ich doch auch gesagt. es ist nichts drann an der tabelle

pXe
2007-06-12, 00:25:04
findest du?

wer hat den die ergebnisse runtergezogen ohne mal nachzusehen was dahinter steckt?
...

Bei manchen Sachen mach ich mir nicht die Mühe extra nachzusehen was dahinter steckt, entweder les ich halbwegs seriöse Tests, oder gar keine. Die Tatsache dass alleine schon "Spekulativ" da steht (wobei ich zunächst angenommen hatte dass sie zumindestens irgendwas lauffähiges auf zumindestens einer Karte gebencht haben), zusammen mit der 2GHZ CPU, keine genauen Angaben ob die Karten nun Medium _oder_ High Settings benutzen, ob nun in DX9 _oder_ DX10, zeigt mir dass es sich da nicht um einen seriösen Test handelt. Dass die Tabelle auf img Server liegt, und irgendwelche Nicknames als copyright angegeben sind, verdirbt mir dann jegliche Lust nachzuforschen wer das verbrochen hat, wenn man das jedesmal machen würde käme man zu nix anderen mehr*g*.


pXe

up¦²
2007-06-12, 03:10:42
“Ruby: Whiteout” Demo Ruby goes DX10?
http://www2.ati.com/misc/demos/amd-demo-whiteout-v1.0.msi

Mr. Lolman
2007-06-12, 09:44:58
Da is einfach grad eine Nebelwolke durch's Bild oder der Strahlungs-Postprocess-Shader war grad anders.

So schauts aus. Die unterschiedliche Helligkeit kommt von den Wolkenschatten.

BTW: 16xHQ AF @ R580:
http://thumbnails.keepmyfile.com/34/11816301959ca647.gif (http://www.keepmyfile.com/image/9ca6471656384)

up¦²
2007-06-12, 14:52:33
Richard Huddy erzählt...
http://www.hexus.tv/show.php?show=91

starfish
2007-06-12, 20:49:40
Hat irgendjemand eine Ahnung, bzw. Benchmarks wie sich die 2900XT in Maya und 3DsMax schlägt gegen die 8800gts 320 bzw. 640?

up¦²
2007-06-12, 20:55:39
ATI Radeon HD 2000 Series Real-Time Demos und keiner reagiert? :|
http://ati.amd.com/developer/demos/rhd2000.html

nicht vergessen.
*Whiteout demo requires Windows Vista, an ATI Radeon™ HD series product with 512MB of video memory and a high end CPU with 1GB of RAM :wink:

Gast
2007-06-12, 20:58:50
ATI Radeon HD 2000 Series Real-Time Demos und keiner reagiert? :|
http://ati.amd.com/developer/demos/rhd2000.html

nicht vergessen.
*Whiteout demo requires Windows Vista, an ATI Radeon™ HD series product with 512MB of video memory and a high end CPU with 1GB of RAM :wink:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366603

up¦²
2007-06-12, 21:02:32
ok - danke!

Mr. Lolman
2007-06-13, 12:55:44
PCGH testet seit Jahren in 1.280x1.024 mit 4x FSAA/8:1 AF, was anhand von Leserbefragungen entstand. Der Vergleich R600 vs. R5x0 entstand aber mit 16x HQ-AF.

MfG,
Raff

Warum wurde dann in den Videos 1024x768 und 8xAA verwendet? Und warum sollte man sich auf 8xAF beschränken, wenn 16xAF (genauso wie AppAF) deutlich flimmerfreier ist? (zumindest auf meinem R580 mit AIlow - getestet mit der NFS Carbon Demo, genau die gleiche Szene wie in den Videos verwendet wurde)

James Ryan
2007-06-13, 13:39:27
Kleine Neuigkeit:
Valve hat per Update den Nebelbug bei der HD 2900 XT heute beseitigt.

MfG :cool:

Gast
2007-06-13, 14:45:04
schön, auf G8x-basierten GPUs auch, oder beschränkt sich der fix auf den ATI-renderpfad?

Coda
2007-06-13, 14:49:03
Wahrscheinlich dann auf beiden. Es gibt keinen ATI-Renderpfad für D3D9.

Gast
2007-06-13, 14:58:14
Wahrscheinlich dann auf beiden. Es gibt keinen ATI-Renderpfad für D3D9.

nicht? ich dachte HL2 hat für jede karte einen eigenen renderpfad.

deekey777
2007-06-13, 15:08:04
nicht? ich dachte HL2 hat für jede karte einen eigenen renderpfad.
Es gibt eine Grafikkartenerkennung samt speziellen Anpassungen (zB beim LOD).

Slipknot79
2007-06-13, 15:42:18
schön, auf G8x-basierten GPUs auch, oder beschränkt sich der fix auf den ATI-renderpfad?


Ich habe den Fogbug schon länger nicht mehr, wurde per Treiber erledigt oO Vermutlich wurde der Fogbug auf G80 im Zusammenhang mit älteren Treibern gefixt?


Ausserdem steht da nix wegen Fogbug solved:

[-] June 12, 2007 - Current Release

Changes/Additions
Servers can now force the client to match the server's files, by becoming a pure server. When a server enables sv_pure, clients who connect and play on the server cannot gain an advantage by modifying the game content.
In-game server browser only shows human players in the player counts column. Bots column now shows number of bots instead of a "some bots" or "no bots" icon
Fixed servers with bots reporting incorrect number of bots when sv_master_legacy_mode is set to 0
Fixed a server performance problem with queued packets
Increased the maximum rate to 1 megabyte
Added a findflags console command, which can list all cvars with a specified flag. For example: 'findflags server_can_execute' will find all console variables and commands marked with FCVAR_SERVER_CAN_EXECUTE
Cheat protected many cvars and commands
Removed cl_restrict_server_commands to prevent clients from being redirected
Fixed user names reported as "unconnected" when greater than 32k players had connected to the server


Bug fixes
Fixed a client crash during authentication
Fixed a crash when mashing the ~ key on disconnect
Fixed a bug with sv_minrate and sv_maxrate not applying properly on the client
Fixed the free roaming camera in SourceTV demos
Fixed cl_language archiving itself and not updating correctly when the language changed
Fixed a voice recording bug that could cause voice dropouts
Fixed a rare crash when spectating in Counter-Strike: Source

Coda
2007-06-13, 15:51:34
Es gibt eine Grafikkartenerkennung samt speziellen Anpassungen (zB beim LOD).
Beim LOD? Bist du dir da sicher?

nicht? ich dachte HL2 hat für jede karte einen eigenen renderpfad.
Quark. Es gibt D3D9, D3D8(.1) und D3D7. Das war's.

James Ryan
2007-06-13, 15:55:47
schön, auf G8x-basierten GPUs auch, oder beschränkt sich der fix auf den ATI-renderpfad?

Auf G8x-Karten hat man den Bug schon seit knapp einem Monat nicht mehr, wurde per Treiber gefixt!

MfG :cool:

deekey777
2007-06-13, 16:16:02
Beim LOD? Bist du dir da sicher?
Vielleicht ist LOD der falsche Begriff dafür, aber lauf dxsupport.cfg unterschiedet die Source-Engine einmal zwischen DX-Versionen und dann zwischen einzelnen Grafikkarten/-chips:
5"
{
"name" "90"
"DefaultRes" "1024"
"MaxDxLevel" "90"
"DxLevel" "90"
"CentroidHack" "0"
"NoUserClipPlanes" "0"
"ConVar.mat_antialias" "0"
"ConVar.r_fastzreject" "0"
"ConVar.mat_reducefillrate" "0"
"ConVar.mat_forceaniso" "1"
"ConVar.mat_picmip" "0"
"ConVar.mat_slopescaledepthbias_decal" "-0.5"
"ConVar.mat_slopescaledepthbias_normal" "0"
"ConVar.mat_depthbias_decal" "-262144"
"ConVar.mat_depthbias_normal" "0"
"ConVar.mat_trilinear" "1"
"ConVar.mat_forcehardwaresync" "1"
"ConVar.mat_specular" "1"
"ConVar.mat_parallaxmap" "0"
"ConVar.r_shadowrendertotexture" "1"
"ConVar.r_waterforceexpensive" "1"
"ConVar.r_waterforcereflectentities" "0"
"ConVar.r_rootlod" "0"
"ConVar.mat_vsync" "0"
"ConVar.mat_bumpmap" "1"
"ConVar.r_screenfademinsize" "0"
"ConVar.r_screenfademaxsize" "0"
"ConVar.mat_softwarelighting" "0"
"ConVar.dsp_off" "0"
"ConVar.dsp_slow_cpu" "0"
"ConVar.r_shadows" "1"
"ConVar.r_drawdetailprops" "1"
"ConVar.r_drawmodeldecals" "1"
"ConVar.r_drawflecks" "1"
"ConVar.props_break_max_pieces" "-1"
"ConVar.r_decal_cullsize" "5"
"ConVar.sv_alternateticks" "0"
"ConVar.r_dynamic" "1"
"ConVar.cl_ejectbrass" "1"
"ConVar.cl_detaildist" "1200"
"ConVar.cl_detailfade" "400"
"ConVar.mat_forcemanagedtextureintohardware" "0"
"ConVar.mat_hdr_level" "0"
"ConVar.r_overlayfademin" "1750"
"ConVar.r_overlayfademax" "2000"
Und hier X850XT:
"161"
{
"name" "ATI Radeon x850"
"VendorID" "0x1002"
"MinDeviceID" "0x5D4D"
"MaxDeviceID" "0x5D4D"
"m_nDriverVersion_Build" "6553"
"DefaultRes" "1024"
"CentroidHack" "1"
"ConVar.mat_antialias" "4"
"ConVar.mat_forceaniso" "8"
"ConVar.cl_detaildist" "1600"
"ConVar.cl_detailfade" "400"
"ConVar.mat_hdr_level" "2"
"name" "Nvidia 7800 GTX"
"VendorID" "0x10DE"
"MinDeviceID" "0x0091"
"MaxDeviceID" "0x0091"
"m_nDriverVersion_Build" "7777"
"ConVar.mat_antialias" "4"
"ConVar.r_fastzreject" "0"
"ConVar.mat_forceaniso" "8"
"ConVar.r_waterforcereflectentities" "1"
"ConVar.cl_detaildist" "1600"
"ConVar.cl_detailfade" "400"
"ConVar.mat_forcemanagedtextureintohardware" "0"
cl_detaildist 1200 Distance at which detail props (e.g. grass) are shown.
cl_detailfade 400 Distance it takes for detail props to go from transparent to opaque. If this value is >= cl_detaildist, it is treated as if it were 0.

Wenn man HL2 mit -dxlevel 90 startet, gelten nur die allgemeinen Einstellungen.

Coda
2007-06-13, 16:45:20
Ja gut, das ist aber kein anderer Renderpfad sondern nur andere Einstellungen.

Mr. Lolman
2007-06-13, 16:50:51
Ja gut, das ist aber kein anderer Renderpfad sondern nur andere Einstellungen.

andere LOD Settings halt ;)

reunion
2007-06-13, 18:22:23
andere LOD Settings halt ;)

Das wäre aber seltsam. Das würde doch die ganzen Flimmertests mit HL2 völlig wertlos machen.

Mr. Lolman
2007-06-13, 18:53:40
Das wäre aber seltsam. Das würde doch die ganzen Flimmertests mit HL2 völlig wertlos machen.

Texture-LOD != Object-LOD ;)

LOD = Level of Detail (Detailgrad)

Blaire
2007-06-13, 19:45:20
So schauts aus. Die unterschiedliche Helligkeit kommt von den Wolkenschatten.


So ein Mist aber auch? ;)

up¦²
2007-06-14, 00:37:44
Mal wieder eine Review:
MSI's Radeon HD 2900 XT graphics cards is under the spotlight as we put it through the paces with the newest drivers.
http://www.tweaktown.com/reviews/1115/1/page_1_introduction/index.html

Anarchy-HWLUXX
2007-06-14, 02:38:31
Mal wieder eine Review:

http://www.tweaktown.com/reviews/1115/1/page_1_introduction/index.html
Der Test ist mal für'n popo ... die meisten benches ohne AA/AF ... ja klar, denn mit AA/AF (gerade mal 3 Benches) schaut es nochmal schlechter aus für die X2900.

Lawmachine79
2007-06-14, 09:59:25
Mal wieder eine Review:

http://www.tweaktown.com/reviews/1115/1/page_1_introduction/index.html
ROFL. Der schlechteste Test den ich je gesehen habe. Die Masse der Benches ohne AA/AF. Ich stelle die Frage zum letzten Mal:
Wer gibt hier 350€ für eine Grafikkarte aus und spielt NICHT in 1024x768 ohne AA/AF.
Highend-Karten testet man nicht unter 12x10, HQ/AI.Off, 16xAF, 4xMSAA.
Und da kackt die 2900 richtig ab.
Am geilsten ist die Aussage am Ende: "2900XT gives 8800GTX a run for its money" - In Qualitätssettings ist die 2900XT sogar der 8800GTS gnadenlos und mit deutlichem Abstand unterlegen.

A.Wesker
2007-06-14, 10:45:27
ROFL. Der schlechteste Test den ich je gesehen habe. Die Masse der Benches ohne AA/AF. Ich stelle die Frage zum letzten Mal:
Wer gibt hier 350€ für eine Grafikkarte aus und spielt NICHT in 1024x768 ohne AA/AF.
Highend-Karten testet man nicht unter 12x10, HQ/AI.Off, 16xAF, 4xMSAA.
Und da kackt die 2900 richtig ab.
Am geilsten ist die Aussage am Ende: "2900XT gives 8800GTX a run for its money" - In Qualitätssettings ist die 2900XT sogar der 8800GTS gnadenlos und mit deutlichem Abstand unterlegen.

also ich kann jedes Spiel in 1920x1200 4AA/16AF bisher flüssig (>40FPS) spielen, ka wo man da von "abkacken" sprechen kann.

Gast
2007-06-14, 10:51:50
Im Vergleich stimmt des...

Lawmachine79
2007-06-14, 10:55:27
also ich kann jedes Spiel in 1920x1200 4AA/16AF bisher flüssig (>40FPS) spielen, ka wo man da von "abkacken" sprechen kann.
Joar - und mit einer 8800GTS 640 könntest Du es noch flüssiger Spielen, das zeigen alle Tests.
Ich glaube Dir, daß das flüssig ist - es geht aber um den Tenor des Artikels: "Deutlich schneller als 88GTS, auf Augenhöhe mit der 88GTX" - und das ist schlichtweg unter unrealistischen Testbedingungen (auf den R600 zurecht gebogen) erlogen worden.
Wenn man den Maßstab "Flüssiges Spielen" nimmt, kann man nicht von "abkacken" sprechen - das hast Du richtig erkannt.
Wenn man den Maßstab "8800GTS" nimmt, kann man sehr wohl von abkacken sprechen denn die X2900XT
- Ist unter Qualitysettings wie den Deinen der 8800GTS zum Teil DEUTLICH unterlegen (sobald AA+AF ins Spiel kommen ist Ende)
- Kostet 30-60€ mehr
- Verbraucht mehr Saft
- Hat das schlechtere Featureset (AFAIK gehörst Du auch zu jenen, die immer einen topmodernen PC haben - weiß gar nicht wie man bei dem Anspruch ohne Hybridmodi leben kann)

Es gibt im Moment einfach NICHTS, was für den R600 spricht, sobald man mindestens eine 8800GTS 640 als Vergleich nimmt.

A.Wesker
2007-06-14, 10:58:24
naja meine 2900XT läuft mit 925/999 und ist damit schon eine Ecke schneller als meine 8800 GTS @ 720/1000 (1920x1200 4AA/16AF). Hatte davor eine 8800 GTX @ 786/1000 nur sind die Vergleichswerte zu dieser nicht mehr aussagekräftig, da die 8800er Serie seit dem noch kräftig an Performance zugelegt hat.

Mr. Lolman
2007-06-14, 11:01:19
- Ist unter Qualitysettings wie den Deinen der 8800GTS zum Teil DEUTLICH unterlegen (sobald AA+AF ins Spiel kommen ist Ende)

http://www.ixbt.com/video3/r600-part3-d.shtml#p218


(AFAIK gehörst Du auch zu jenen, die immer einen topmodernen PC haben - weiß gar nicht wie man bei dem Anspruch ohne Hybridmodi leben kann)

Sind die überhaupt offiziell?

James Ryan
2007-06-14, 11:06:00
Sind die überhaupt offiziell?

Ist EATM offiziell?
Sprich, total egal ob "offiziell" oder nicht, der G80 unterstützt die Hybridmodi und das zählt.

MfG :cool:

A.Wesker
2007-06-14, 11:09:29
http://www.ixbt.com/video3/r600-part3-d.shtml#p218

das bestätigt meine Ergebnisse, nach denen die 8800 GTS der 2900XT performance-mäßig bei diesen Settings unterlegen ist. Freilich hat die GTS auch ihre Vorteile aber wenn man nur die Performance betrachtet, muß man eingestehen, daß die die 2900XT die schnellere Karte ist.

Mr. Lolman
2007-06-14, 11:20:06
Ist EATM offiziell?
Sprich, total egal ob "offiziell" oder nicht, der G80 unterstützt die Hybridmodi und das zählt.

MfG :cool:

Der R600 unterstützt neben dem flotten EATM auch ASBT. (und unzählige Kombinationen der ganzen Settings) Damit wird auch alles AT-mässige geglättet. Tw sogar besser als es mit Hybridmodi möglich wär. Denn es gibt manchmal Texturen, wo TSSAA versagt und dem kommt man bei NV nur mit Hybridmodi zurande. Und auf solche Texturen hat selbst 32xS nur ein EER von 2x2, wo 6xASBT eins von 6x6 hat. Wie du siehst, können beide IHVs mit der BQ punkten.

LovesuckZ
2007-06-14, 11:26:31
http://www.ixbt.com/video3/r600-part3-d.shtml#p218


Oh, da hat jemand seine Selektionsbrille ausgepackt, gell? :rolleyes:

Mr. Lolman
2007-06-14, 11:33:11
Oh, da hat jemand seine Selektionsbrille ausgepackt, gell? :rolleyes:
Hä? In dem ich den gesamten Benchmarkpart eines Reviews verlinke, welches anscheinend nicht gemeinhin bekannt ist? Oder hast du etwa gernicht auf den Link geklickt und dachtest dir ich verlinke bloß einen einzelnen Benchmark :|

Sterem
2007-06-14, 11:52:27
Hä? In dem ich den gesamten Benchmarkpart eines Reviews verlinke, welches anscheinend nicht gemeinhin bekannt ist? Oder hast du etwa gernicht auf den Link geklickt und dachtest dir ich verlinke bloß einen einzelnen Benchmark :|

Nein er ist wie immer nur sauer weil es da gut für die X2900 XT aussieht.Gleiches gilt für dich wenn Nv besser darsteht.Du reagierst aber nicht gleich so :rolleyes: als ob ne Welt zusammen bricht......

Lawmachine79
2007-06-14, 11:55:15
Oh, da hat jemand seine Selektionsbrille ausgepackt, gell? :rolleyes:
Hehe - man muss schon so genau selektieren, um einen Test zu finden, wo die 2900XT überlegen ist, daß es in nur in russischer Sprache gibt, ich denke deutsche und englische Tests in denen der R600@hohe Auflösung@zeitgemäßem AA/AF schneller ist, kann man lange suchen.
Der R600 unterstützt neben dem flotten EATM auch ASBT. (und unzählige Kombinationen der ganzen Settings) Damit wird auch alles AT-mässige geglättet. Tw sogar besser als es mit Hybridmodi möglich wär. Denn es gibt manchmal Texturen, wo TSSAA versagt und dem kommt man bei NV nur mit Hybridmodi zurande. Und auf solche Texturen hat selbst 32xS nur ein EER von 2x2, wo 6xASBT eins von 6x6 hat. Wie du siehst, können beide IHVs mit der BQ punkten.
Es geht hier nicht um ein paar exotische Texturen oder verwahrloste Zäune, die mal gestrichen werden müssen, sondern um das GESAMTE BILD. Und da gibt es nur eins, was Supersampling überlegen ist - noch mehr Supersampling - aber dafür braucht man eben Füllrate ;).

Mr.Stylo
2007-06-14, 11:56:57
Gibt es eigendlich jemanden der die ganze sache noch objektiv anschaut? Sobald ein Test kommt in dem es gut für den R600 aussieht, wird gleich losgeheult, der Test sei unbrauchbar aus irgendeinem Grund. Warum erwähnt hier nicht mal jemand das der Test nicht mit dem 7.5er treiber gemacht wurde, in dem soll es ja ziemlich krasse Performancverbesserungen geben.
Ihr tut immer so verdammt objektiv, aber wollt doch nur nicht traurig sein weil ihr die falsche Karte gekauft habt, und dabei spreche ich beide Parteien an

James Ryan
2007-06-14, 12:09:37
Gibt es eigendlich jemanden der die ganze sache noch objektiv anschaut? Sobald ein Test kommt in dem es gut für den R600 aussieht, wird gleich losgeheult, der Test sei unbrauchbar aus irgendeinem Grund. Warum erwähnt hier nicht mal jemand das der Test nicht mit dem 7.5er treiber gemacht wurde, in dem soll es ja ziemlich krasse Performancverbesserungen geben.
Ihr tut immer so verdammt objektiv, aber wollt doch nur nicht traurig sein weil ihr die falsche Karte gekauft habt, und dabei spreche ich beide Parteien an

Naja, die HD 2900 XT weckte halt Riesenerwartungen die bitter-böse enttäuscht wurden, gerade bei denen die gewartet haben (mich zum Beispiel ;) ). Die Karte ist im Vergleich zur Gf 8800er Reihe einfach kein großer Wurf. Komischerweise wird sie aber von einigen verteidigt als wäre es die absolute Überkarte die es einfach nicht ist.

Ich persönlich stand vor der Wahl, HD 2900 XT oder Gf 8800 GTS, habe dann letztere genommen und bin zufrieden.
Wer sich für eine HD 2900 XT entschieden hat und auch zufrieden ist, hat auch alles richtig gemacht.

Komischerweise häufen sich aber die Aussagen von Leuten, die mit der HD 2900 XT nicht zufrieden sind, im Hwluxx hat bspw. gestern seine HD 2900 XT bekommen und sich heute eine GTX bestellt. Und er war kein Einzelfall!

Würde aber abschließend sagen: Kauft einfach was für euch "besser" ist und gut ist!

MfG :cool:

Lawmachine79
2007-06-14, 12:15:04
Ihr tut immer so verdammt objektiv, aber wollt doch nur nicht traurig sein weil ihr die falsche Karte gekauft habt, und dabei spreche ich beide Parteien an
Nach Deiner Logik haben also beide die falsche Karte gekauft?
Naja, zumindest konnte ich die falsche Karte 7 Monate früher kaufen ;D
Und was ist an folgender Aussage nicht objektiv:
"High-End Karten sind unter den bestmöglichen Qualitätseinstellungen zu testen"
Selbst wenn ATI einen S3 Virge-Chip auf der Karte verbaut hätte und einfach das ATI-Logo draufgepresst hätte würden einige hier immer noch ankommen und erzählen, daß die Karte in 160x100 im CGA-Modus deutlich schneller ist. Außerdem ist sie kleiner, wiegt weniger und funktioniert sogar im PCI-Slot. Außerdem braucht sie nicht einmal passive Kühlung ---> Kaufempfehlung.

Mr. Lolman
2007-06-14, 12:21:25
Hier nochmal mit ausgepackter Selektionsbrille ;)

dildo4u
2007-06-14, 12:27:49
Viel zu hohe Auflösung für eine 8800GTS/2900XT teilweise avg unter 40fps also min 20 oder so.Also lieber mal 1600*1200 vergleichen und Call of Juarez kannst du ja auch noch dazu packen.


http://www.directupload.net/images/070614/D8HgvBzo.jpg

Gast
2007-06-14, 12:34:18
Die Auflösung ist nicht zu hoch, sondern ideal... so testet man am besten, was maximal geht, also was in Grafiklastigen Szenarios eintreten würde.

Da ist die 2900XT wie erwartet, sehr stark. Würde man jetzt noch den GPU Takt anheben, so hätte sie auch eine Chance gegen die GTX.

Wäre da nicht der Stromverbrauch...

Gouvernator
2007-06-14, 12:36:51
aja, die HD 2900 XT weckte halt Riesenerwartungen die bitter-böse enttäuscht wurden

Vereinfacht gesagt ist die Karte nicht besser wie eine 1950XTX (sieht Lolman's Farcry Bench). Und für mich ist eine neue Karte die nicht schneller ist wie die alte in alten Spielen - keinen Pfenning wert.

J0ph33
2007-06-14, 12:37:07
Hehe - man muss schon so genau selektieren, um einen Test zu finden, wo die 2900XT überlegen ist, daß es in nur in russischer Sprache gibt, ich denke deutsche und englische Tests in denen der R600@hohe Auflösung@zeitgemäßem AA/AF schneller ist, kann man lange suchen.


du zweifelst an ixbt.com, nur weil es Russen sind? die gehören mit zu den kompetentesten überhaupt...
lolman ist zwar einer, der nicht immer durch objektivität auffällt, aber in diesem punkt hat er einfach mal recht...auch das urteil von wesker sollte man nicht ignorieren, der im gegensatz zu dir sowohl die GTS, die GTX und jetzt die XT hat(te)...

die 2900XT ist schneller als die GTS, der vorsprung ohne AA/AF ist im schnitt sehr groß und schrumpft mit AA/AF im schnitt recht deutlich, aber er bleibt!
die GTX ist nur mit OC zu erreichen...und natürlich gibt es auch Einzelfälle (die selektionsbrille hat sicher nicht lolman auf...) in denen die HD2900XT hinter der 8800GTS liegt...

A.Wesker
2007-06-14, 12:38:56
Vereinfacht gesagt ist die Karte nicht besser wie eine 1950XTX (sieht Lolman's Farcry Bench). Und für mich ist eine neue Karte die nicht schneller ist wie die alte in alten Spielen - keinen Pfenning wert.
also ist eine 8800 GTS auch net schneller? :D

J0ph33
2007-06-14, 12:42:12
Viel zu hohe Auflösung für eine 8800GTS/2900XT teilweise avg unter 40fps also min 20 oder so.Also lieber mal 1600*1200 vergleichen und Call of Juarez kannst du ja auch noch dazu packen.


http://www.directupload.net/images/070614/D8HgvBzo.jpg

LOL, DAS ist rosinenpickerei, der einzige test im review in dem die XT hinter der GTS liegt, bravo! :rolleyes:

dildo4u
2007-06-14, 12:43:24
Den Rest hat er doch schon gepostet. :rolleyes: