PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - HD 2900XT: (P)Review-Thread,Teil drei


Seiten : 1 [2] 3

Gast
2007-08-07, 08:26:22
Die Reviews wurden noch mit den "alten" treibern gemacht.
Der 7.8beta hat nochmal ne Schippe drauf gelegt.........Mal sehen was bei der Finalen so kommt..;-)

An dem Test sieht man aber schon, dass es in die richtige Richtung geht.

Gast
2007-08-07, 22:45:02
http://www.hardware-mag.de/hardware.php?id=464&page=1

weiss gerade nicht ob er schon gepostet wurde, wenn ja sry :)

mapel110
2007-08-07, 22:57:54
http://www.hardware-mag.de/hardware.php?id=464&page=1

weiss gerade nicht ob er schon gepostet wurde, wenn ja sry :)
Der Test zeigt auch nichts Neues. Balken ohne AA/AF sehen recht toll aus bei der 2900er und bei AA deutlich weniger toll, also alles beim Alten. Aber sind ja auch erst 2 neue Treiber rausgekommen seit Release. Vielleicht kommt ja noch was. ;)

Gast
2007-08-07, 23:35:30
Der Test zeigt auch nichts Neues. Balken ohne AA/AF sehen recht toll aus bei der 2900er und bei AA deutlich weniger toll, also alles beim Alten. Aber sind ja auch erst 2 neue Treiber rausgekommen seit Release. Vielleicht kommt ja noch was. ;)

In dem Test wurde der ATi 8.37.4 Treiber verwendet das ist der Release glaub ich.
Derzeit gibt es den 8.40.7 aka 7.8 Beta und der ist deutlich besser ;-)

mapel110
2007-08-07, 23:38:02
In dem Test wurde der ATi 8.37.4 Treiber verwendet das ist der Release glaub ich.
Derzeit gibt es den 8.40.7 aka 7.8 Beta und der ist deutlich besser ;-)
?! Wenn das stimmt, ists ne Frechheit, sowas ins Netz zu stellen und ein aktuelles Datum drunterzusetzen.

Gast
2007-08-07, 23:41:50
ich versteh nicht das auch mal mit dem beta treiber getestet wird, an der leistung wird sich beim release des treibers nichts mehr gross ändern, ausser halt paar bugfixes.

Sterem
2007-08-08, 00:20:37
Der Cat 7-8 behebt die schlechte aa-af performance bei souce games.

dildo4u
2007-08-08, 00:23:28
Benches dazu?Ich hab nur gehört das der Nebel Bug endlich gefixt wird.

Sterem
2007-08-08, 00:25:17
Benches dazu?Ich hab nur gehört das der Nebel Bug endlich gefixt wird.


Guck ins luxx Forum.Bis zu 25 FPS+mit AA-AF bei allen Source games.

Gast
2007-08-08, 00:41:07
ich versteh nicht das auch mal mit dem beta treiber getestet wird, an der leistung wird sich beim release des treibers nichts mehr gross ändern, ausser halt paar bugfixes.
OMG

Mit dem den ersten Treibern 8.37 usw. war die Performance deutlich schlechter ab den 7.6/7.7er ging es schon gut und mit dem 7.8 Beta läuft auch DX10


@mapel110 Kann ich auch nicht verstehen da steht 3.8.2007 unter

MartinRiggs
2007-08-08, 07:42:10
sieht man doch schon im Fazit das der Test mit altem Treiber gemacht wurde.
http://www.hardware-mag.de/hardware.php?id=464&page=16

Zitat"
Diesbezüglich sollte ATi auch noch softwaremäßig an der Lüftersteuerung nachbessern, da der Lüfter der Karte im Idle-Betrieb leider immer wieder für ein paar Sekunden mit voller Drehzahl läuft und damit die vollen 52 dB(A) (wie unter Last) erreicht"

das gibt es schon seit dem 7.6 oder 7.7 nicht mehr, die karte bleibt im idle immer leise und laut einigen luxxern geht die karte mit 7.8 Beta besser zur sache.
Der Wundertreiber wird zwar ausbleiben, aber ich denke die bekommen so langsam ihre Architektur in den Griff und es sind immer noch Performance-Steigerungen möglich.

Gast
2007-08-08, 14:09:47
Dann können die sich ihr Review auch klemmen wenn es mit so einer Inkompetes ausgeführt wurde.
Ist auf anderen HW-Seiten ja leider nicht viel anders :-(

Gast
2007-08-08, 15:40:14
Guck ins luxx Forum.Bis zu 25 FPS+mit AA-AF bei allen Source games.Wäre nicht das erste Mal, dass im HWLuxx-Forum irgendwelche Leute Benchmarks faken um ihre teuer erworbene Gurken-Hardware besser aussehen zu lassen. ;)

BlackArchon
2007-08-10, 22:03:05
Habe mir jetzt auch eine 2900 XT zugelegt. Sogar ein Spiel wie Civilization 4 bringt die Karte mit 8xAA (1280x1024) zum ruckeln und lässt den Lüfter aufheulen...

CompuJoe
2007-08-15, 12:06:10
Diesen Test find ich mal Interessant:

http://www.hartware.de/review_731.html

Da liegt die 2900XT Teilweiße deutlich vor der 8800GTS 640MB, getestet haben sie mit dem Catalyst 7.7.

AnarchX
2007-08-15, 12:10:00
FW 158.22. ;) In den späteren Versionen gab es beachtliche Leistungszuwächse.

dildo4u
2007-08-15, 12:12:01
Mit AA und AF liegen sie auch eher gleich auf einfach mal runterscrollen. ;)
Und dann noch mal unter Stromverbrauch gucken die 10% mher FPS die,die 2900XT da und dort mal hat werden mit 92! Watt Mherverbrauch erkauft.

Henroldus
2007-08-15, 12:15:15
Diesen Test find ich mal Interessant:

http://www.hartware.de/review_731.html

Da liegt die 2900XT Teilweiße deutlich vor der 8800GTS 640MB, getestet haben sie mit dem Catalyst 7.7.
ja erkauft mit einem Mehrverbrauch von 90W unter Last :crazy2:
DAS ist das Problem was ich mit dieser Karte habe.

chiller
2007-08-15, 12:18:54
lieber 90watt mehr als nen vram bug ;D

CompuJoe
2007-08-15, 12:19:22
Boar mir ging es jetzt nur um die Frames und nicht um den Stromverbrauch, das mit den nVidia Treiber wusste ich nicht da ich eine sollche Karte nicht habe.
Trotzdem verwundern mich die vielen Reviews im Netz da sie überall anders ausschauen.

dildo4u
2007-08-15, 12:20:55
lieber 90watt mehr als nen vram bug ;D
Der spielt bei einer 8800GTS mit 640mb mher oder weniger gar keine Rolle weil die Karte bis in extrem Hohe Auflösungen genug Ram hat.Über 1600*1200 kann man bei neuen Spielen mit einer 300€ Karte eh vergessen.

Coda
2007-08-15, 13:00:26
lieber 90watt mehr als nen vram bug ;D
Der spielt bei der 640er sowieso keine Rolle.

Gast
2007-08-15, 15:09:11
ja erkauft mit einem Mehrverbrauch von 90W unter Last :crazy2:
DAS ist das Problem was ich mit dieser Karte habe.
Sehe ich aber anders hier
http://img183.imageshack.us/img183/6376/idlelu7.jpg (http://imageshack.us)

http://img183.imageshack.us/img183/8949/loadcj3.jpg (http://imageshack.us)




Schöner Test mit dem 7.7er unter AA, wo die Karte doch sooo schwach ist

http://www.chiphell.com/viewthread.php?tid=8005&extra=page%3D1

Coda
2007-08-15, 15:20:26
System Power Consumption ist irrelevant und vom Netzteil abhängig. Es geht darum was die Karte an sich zieht.

http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

reunion
2007-08-15, 15:35:58
System Power Consumption ist irrelevant und vom Netzteil abhängig.

Irrelevant ist es ganz sicher nicht, um genau zu sein ist es das einzige, was relevant ist. Aber natürlich spielt da auch das Netzteil mit rein, wie in der Praxis auch.


Es geht darum was die Karte an sich zieht.

http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

Und auch das kann je nach verwendetem Timedemo und Einstellungen stark variieren. Ja selbst bei zwei völlig identische Karte können schonmal beachtliche Unterschiede auftreten.

DrumDub
2007-08-15, 15:36:21
System Power Consumption ist irrelevant und vom Netzteil abhängig. Es geht darum was die Karte an sich zieht.

http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif es sind aber dennoch nur 55,4w und nicht 90w, wie oben behauptet.

Coda
2007-08-15, 15:55:02
Irrelevant ist es ganz sicher nicht, um genau zu sein ist es das einzige, was relevant ist. Aber natürlich spielt da auch das Netzteil mit rein, wie in der Praxis auch.
Es ist insofern irrelevant, weil man auf der Basis nicht vergleichen kann. Ein anderes Netzteil kann ganz anders reagieren, vor allem wenn es nicht so viel Leistung hat und deswegen der Wirkungsgrad höher ist.

Hinter einem 1kW-Netzteil gemessen wird wahrscheinlich auch eine 7500LE "genauso viel" verbrauchen wie eine 2900XT.

es sind aber dennoch nur 55,4w und nicht 90w, wie oben behauptet.
Ja, ich hab die 90W ja auch nicht genannt.

StefanV
2007-08-15, 16:06:30
Hinter einem 1kW-Netzteil gemessen wird wahrscheinlich auch eine 7500LE "genauso viel" verbrauchen wie eine 2900XT.

Nö, warum sollte es?? :|

Coda
2007-08-15, 16:18:12
Weil der Wirkungsgrad hundsmiserabel wird.

Gast
2007-08-15, 16:55:35
Das ist falsch. Nur der prozentuale Fehler wird geringer. Aber bei 200W Grundverbrauch durch ein beschissenes Netzteil bleibt dennoch Mehrverbauch Mehrverbrauch.

Coda
2007-08-15, 17:17:11
Man sieht doch an den Graphen oben, dass hinter dem Netzteil messen auf jeden Fall nicht die reellen Werte widerspiegelt. Das kann mit nem anderen ganz anders aussehen.

sklave_gottes
2007-08-15, 18:19:38
1.
Bei den 1kw netzteilen ist der wirkungsgrad auch bei 100-150 watt noch besser als bei den meisten no-name netzteilen.
Ich habe hier z.b. zwei netzteile von Seasonic aus der slben serie. Eins mit 330watt eins mit 600watt. selbst bei nur ca 20watt(via nano) verbraucht das 600watt netzteil nur minimal mehr(3-5%).
2.
Die Tabele die du gezeit hast basiert glaube ich noch auf den lunch treiber oder ?

mfg martin
Vieleicht hat sich der IDL verbrauch verbessert ?

Gast
2007-08-15, 20:25:36
1.
Bei den 1kw netzteilen ist der wirkungsgrad auch bei 100-150 watt noch besser als bei den meisten no-name netzteilen.
Ich habe hier z.b. zwei netzteile von Seasonic aus der slben serie. Eins mit 330watt eins mit 600watt. selbst bei nur ca 20watt(via nano) verbraucht das 600watt netzteil nur minimal mehr(3-5%).
2.
Die Tabele die du gezeit hast basiert glaube ich noch auf den lunch treiber oder ?

mfg martin
Vieleicht hat sich der IDL verbrauch verbessert ?
Der wurde mit dem 7.6 und 7.7CCC doch verbessert ca. 25% weniger im IDLE, LOAD hat sich nat. nix geändert.

Gast
2007-08-15, 20:28:32
Ich meinte 25 Watt sry...
Wiso kann man hier nicht Editieren?

Ronny145
2007-08-15, 20:36:20
Ich meinte 25 Watt sry...
Wiso kann man hier nicht Editieren?


Wurde das mal getestet? Wenn ja, wo?


Editieren geht nur als registrierter Benutzer.

AnarchX
2007-08-15, 23:39:00
Gesenkt? Ich hatte irgendwo aufgeschnappt, dass sie nun im Idle noch heißer werden soll und deshalb der Kühler da schon unangenehm wird.

Der Link zur Aussage des Gastes wäre doch interessant.

Super Grobi
2007-08-15, 23:43:20
Gesenkt? Ich hatte irgendwo aufgeschnappt, dass sie nun im Idle noch heißer werden soll und deshalb der Kühler da schon unangenehm wird.

Der Link zur Aussage des Gastes wäre doch interessant.

Die Aussage hab ich auch hier im Forum aufgeschnappt. Bei längeren "Office" betrieb, fängt der Lüfter wohl auch chonmal an zu nerven.

Ich kann es eh nicht verstehen, wie ATI so DUMM sein konnte und diese X1800 "Lüftersteuerung" auf diese Karte zu nutzen. Irgentwie gibts bei der Steuerung nur Idle (wohl leise) und laut und sehr laut. Wobei laut bei einem Sommertag im Idle schonmal Hallo sagt.

SG

Gast
2007-08-16, 01:00:30
@AnarchX, Super Grobi, Ronny145

Getestet wurde es von mehreren Usern mit einem EK-Messgerät. (Im R600-Fred bei forumdeluxx).
Mit dem 7.6 und 7.7CCC wurde die 2D temperatur im schnitt um 5-8° gesenkt, da dreht der Lüfter selbst im Sommer nicht mehr in 2D auf.
Habe im IDLE ca.45° und LOAD 72° mit Stockkühler.



Aber wie so oft schnappen die Leute mal irgendwann etwas auf und dann ist es auf Ewig natürlich so, is klar.
Nichts für ungut..;-)

Coda
2007-08-16, 02:29:04
2.
Die Tabele die du gezeit hast basiert glaube ich noch auf den lunch treiber oder ?
Es ist völlig egal ob es die Mittagessen-Treiber waren oder nicht. Der Verbrauch der 2900 ist unter Last höchstens angestiegen seither. Was unter Idle passiert ist weiß ich nicht. Die Karte müsste aber auf einmal mehr als 20W weniger verbrauchen um mit einer 8800GTS gleichzuziehen. Halte ich für unglaubwürdig.

Super Grobi
2007-08-16, 10:11:15
@AnarchX, Super Grobi, Ronny145

Getestet wurde es von mehreren Usern mit einem EK-Messgerät. (Im R600-Fred bei forumdeluxx).
Mit dem 7.6 und 7.7CCC wurde die 2D temperatur im schnitt um 5-8° gesenkt, da dreht der Lüfter selbst im Sommer nicht mehr in 2D auf.
Habe im IDLE ca.45° und LOAD 72° mit Stockkühler.



Aber wie so oft schnappen die Leute mal irgendwann etwas auf und dann ist es auf Ewig natürlich so, is klar.
Nichts für ungut..;-)

Danke für die Aufklärung.

SG

Ronny145
2007-08-16, 11:04:14
Es ist völlig egal ob es die Mittagessen-Treiber waren oder nicht. Der Verbrauch der 2900 ist unter Last höchstens angestiegen seither. Was unter Idle passiert ist weiß ich nicht. Die Karte müsste aber auf einmal mehr als 20W weniger verbrauchen um mit einer 8800GTS gleichzuziehen. Halte ich für unglaubwürdig.


Zum Verbrauch der 2900XT ist die c't 17/07 interessant. Die haben dort nicht nur eine getestet, sondern von 5 verschiedenen Kartenherstellern. Und ich weiß nicht warum das so ist, die 2900XT kann je nach Hersteller oder Karte auch mal rund 20 Watt variieren. Da liegen 2 Karten bei 45 und 47 W im Idle, die 3 anderen aber bei 64, 66, 67W. Getestet wurde mit Cat7.6. Die 8800GTS verbraucht dort 58 Watt, identisch zu xbitlabs.

Wenn der Idle Verbrauch durch den Treiber gesenkt wurde, dann können das nur ganz wenige Watt sein, 25 Watt sind unrealistisch.

DrMabuse1963
2007-08-16, 11:29:16
Hab mal ebend mein Sys mit HIS 2900XT 1GB/ CCC7.8 /E6600@2,4GHz am Energie Messgerät den Rechner mit Tastatur ,Maus ,Boxen(08/15 für 20 Euronen)getestet Idle=183-195W ,Last(ATI Tool 0.27b2)=312-325W.MfG

Henroldus
2007-08-16, 11:33:07
Hab mal ebend mein Sys mit HIS 2900XT 1GB/ CCC7.8 /E6600@2,4GHz am Energie Messgerät den Rechner mit Tastatur ,Maus ,Boxen(08/15 für 20 Euronen)getestet Idle=183-195W ,Last(ATI Tool 0.27b2)=312-325W.MfG
und dann hast du ein 800W Netzteil? :|

AnarchX
2007-08-16, 11:39:47
Ich bezweifle, dass dieses 800W NT was erheblich günstiger als die ganze Konkurrenz ist, auch wirklich 800W stabil liefern kann. ;)

DrMabuse1963
2007-08-16, 11:47:13
und dann hast du ein 800W Netzteil? :|
Hatte zuerst Cross-Fire Sys geplant(2te Karte zum nachrüsten,damit Sys wieder up to Date ist),wurde aber da eines besseren belehrt.

Gast
2007-08-16, 16:29:19
Zum Verbrauch der 2900XT ist die c't 17/07 interessant. Die haben dort nicht nur eine getestet, sondern von 5 verschiedenen Kartenherstellern. Und ich weiß nicht warum das so ist, die 2900XT kann je nach Hersteller oder Karte auch mal rund 20 Watt variieren.

solche schwankungen innerhalb einer baureihe sind normal, und haben wohl auch kaum was mit dem hersteller zu tun, manche chips brauchen eben mehr, andere weniger.

Ronny145
2007-08-16, 16:39:24
solche schwankungen innerhalb einer baureihe sind normal, und haben wohl auch kaum was mit dem hersteller zu tun, manche chips brauchen eben mehr, andere weniger.


Deswegen schreibe ich extra Hersteller oder Karte, ist ja egal. Zu den Schwankungen, die hat der G80 dort im Test eben nicht, die sind dort alle ziemlich konstant. Aber mal so eben 20 Watt im Idle fürs Nichtstun Unterschied finde ich dann doch ungewöhnlich.

BlackArchon
2007-08-16, 17:02:46
Oder ob das an unterschiedlichen BIOS-Versionen der Grafikkarten liegt?

AnarchX
2007-08-16, 17:09:31
Oder ob das an unterschiedlichen BIOS-Versionen der Grafikkarten liegt?

Durchaus möglich, aber dann müsste hier eine andere 2D-Spannung anliegen. Auch möglich wären das die Hersteller andere Bautteile bei der Stromversorgung verbauen, die unterschiedliche Wirkungsgrade haben.

Gast
2007-08-16, 18:55:08
Es wurden schon 3D Spannungen von 1,15V und 1,20V festgestellt und ich glaub auch 1,10V ob es an den Auslesetools liegt oder evt. am OS weiß ich aber nicht.

sklave_gottes
2007-08-17, 11:37:25
Es ist völlig egal ob es die Mittagessen-Treiber waren oder nicht. Der Verbrauch der 2900 ist unter Last höchstens angestiegen seither. Was unter Idle passiert ist weiß ich nicht. Die Karte müsste aber auf einmal mehr als 20W weniger verbrauchen um mit einer 8800GTS gleichzuziehen. Halte ich für unglaubwürdig.

Nee ist es eben nicht!
Wenn ein neuer Treiber den IDL verbrauch stark senkt ist es doch nicht egal.
Und wieso sind denn jetzt 20 Watt unrealistisch ?
Wenn der neue Treiber an der 2D Vcore dreht, ist 20 Watt garnicht so unrealistisch. Von 70 Watt auf 50 Watt runter ist durch spannungs senkung durchaus drin, das solltest du doch gerade wissen.
Ich habe bei einer x1900AIW@1,225V zu x1900AIW@0,77V sogar % einen grösseren schritt gemacht als von 50 auf 70 Watt. Und das nur per software!

Wenn der Idle Verbrauch durch den Treiber gesenkt wurde, dann können das nur ganz wenige Watt sein, 25 Watt sind unrealistisch.

@Ronny145

Das ja eben nicht solange die 2D spannung gesenkt wurde sind locker 25watt ausgehend von 70 watt drin!(siehe oben)

Schade das ich keine HD2900xt hier habe. Eine 8800GTS habe ich zum vergleich sonnst hätte ich den neuen Treiber getestet. Kann das mal jemmand machen ? Einmal lunch Treiber und aktuellen treiber testen ?
Ich kann mir vorstellen das ati den verbrauch gesenkt hat wieso denn auch nicht ? Bei der x1900 reihe wurde der verbrauch im 2d modus später auch nochmal gesenkt!
Hier verbraucht eine 7900gtx 6 watt mehr als eine x1950xtx im IDL:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/39/#abschnitt_stromverbrauch

mfg martin

DrMabuse1963
2007-08-17, 13:07:34
@sklave_gottes
Leider habe ich die Karte erst ein paar Tage,daher wusste ich jetzt nicht genau welcher der Lunch Treiber war.Der 7.4 lief bei mir nicht(nicht Hardware Kompatibel (1GB?)).Also habe ich 7.5 vs 7.8 getestet:
Am Energie Messgerät Rechner @3,3GHz komplett mit Tast./Maus/08/15 Lautsprecher.

7.5 :Idle______193-203W___Last______320-334W

7.8 :Idle______180-190W___Last______317-328W

MfG

Gast
2007-08-17, 13:38:34
@sklave_gottes
Leider habe ich die Karte erst ein paar Tage,daher wusste ich jetzt nicht genau welcher der Lunch Treiber war.Der 7.4 lief bei mir nicht(nicht Hardware Kompatibel (1GB?)).Also habe ich 7.5 vs 7.8 getestet:
Am Energie Messgerät Rechner @3,3GHz komplett mit Tast./Maus/08/15 Lautsprecher.

7.5 :Idle______193-203W___Last______320-334W

7.8 :Idle______180-190W___Last______317-328W

MfG
Du mußt den 7.7er nehmen beim 7.8er geht der Stromsparmodus nicht richtig.
Teste doch bitte den nochmal nach.THX

Gast
2007-08-17, 13:40:52
Und die Karte nicht OCen das ist wichtig ;-)

Ronny145
2007-08-17, 14:56:50
@Ronny145

Das ja eben nicht solange die 2D spannung gesenkt wurde sind locker 25watt ausgehend von 70 watt drin!(siehe oben)



Ausgehend von den Werten von xbitlabs verglichen mit der c't und Cat 7.6. Wenn man das vergleicht, sind 25 Watt schwer vorstellbar. 13 Watt hören sich doch gleich realistischer an. Da muss man natürlich noch den Wirkungsgrad abrechnen. 13 Watt mehr an der Steckdose, sind dann rund 10 Watt von der Grafikkarte.

Gast
2007-08-17, 15:20:52
Ausgehend von den Werten von xbitlabs verglichen mit der c't und Cat 7.6. Wenn man das vergleicht, sind 25 Watt schwer vorstellbar. 13 Watt hören sich doch gleich realistischer an. Da muss man natürlich noch den Wirkungsgrad abrechnen. 13 Watt mehr an der Steckdose, sind dann rund 10 Watt von der Grafikkarte.

Dummerweise werden die Leistungsaufnahme der Karten auch nur an der Steckdose gemessen, also bitte keine Äpfel mit Birnen vergleichen.

DrMabuse1963
2007-08-17, 20:39:15
Moin,moin,so jetzt noch mal den 7.7 ,allerdings jetzt unter Vista 32bit wobei kein Unterschied 7.8 XP vs Vista festzustellen war.
7.7 Idle____159-167_____Last 305-325

MfG

Gast
2007-08-17, 21:06:19
7.5 :Idle______193-203W___Last______320-334W

7.8 :Idle______180-190W___Last______317-328W

7.7 :Idle_______159-167W___Last_____ 305-325W

Kein unterschied sieht anders aus würd ich sagen ;-)


THX

Ronny145
2007-08-17, 21:12:22
Moin,moin,so jetzt noch mal den 7.7 ,allerdings jetzt unter Vista 32bit wobei kein Unterschied 7.8 XP vs Vista festzustellen war.
7.7 Idle____159-167_____Last 305-325

MfG


Könntest du noch mit dem Cat 7.6 testen? :biggrin: Weil die c't mit dem getestet hat und ich sehen will was sich noch ändert mit dem Cat 7.7.

sklave_gottes
2007-08-17, 22:00:32
Moin,moin,so jetzt noch mal den 7.7 ,allerdings jetzt unter Vista 32bit wobei kein Unterschied 7.8 XP vs Vista festzustellen war.
7.7 Idle____159-167_____Last 305-325

MfG

Super danke dir DrMabuse1963!

Ich würde sagen gute arbeit AMD/ATI nur wieso geht das nicht mehr so richtig mit dem neuen Cat ? Das finde ich allerdings wieder sehr schlecht!

Aber wie man sieht ist manchmal mehr durch treiber möglich als man glauben will/kann.

Gast
2007-08-17, 22:45:12
Ich schätze A/A war unter Druck wegen dem VISTA Kerneldings und hat auch deshalb den 7.8er so schnell gebracht, leider nich ganz Bugfrei wie man auch im 7.8er Fred sieht.

DrMabuse1963
2007-08-17, 23:38:48
7.5 :Idle______193-203W___Last______320-334W
7.6 :Idle______160-172W___Last______306-329W
7.7 :Idle______159-167W___Last______305-325W
7.8 :Idle______180-190W___Last______317-328W


MfG

Ronny145
2007-08-17, 23:50:38
7.5 :Idle______193-203W___Last______320-334W
7.6 :Idle______160-172W___Last______306-329W
7.7 :Idle______159-167W___Last______305-325W
7.8 :Idle______180-190W___Last______317-328W


MfG


Super, danke dir. Der große Sprung kommt dann mit dem Cat 7.6. Also sehr brauchbar der c't Test. Wurde da einfach nur die Spannung gesenkt? Vielleicht klappt die Verringerung (oder was auch immer der Grund für den gesenkten Verbrauch ist) nur auf neueren Bios Versionen und daher der große Unterschied bei manchen Karten.

Gast
2007-08-18, 01:29:02
DrMabuse1963 Thx nice Work
der 7.6/7.7er sind auch die wo ich 6-8° weniger im IDLE habe ca. 43°

Ferengie
2007-08-18, 08:51:54
Also der 7.8 ist evtl. für die kleineren HDs im Stromverbrauch besser...weil ich habe mit einer HD2600XT und X2 KOMPLETT im Idle 85Watt (ohne C'n'Q).

Gast
2007-08-18, 09:27:15
Ich schätze A/A war unter Druck wegen dem VISTA Kerneldings und hat auch deshalb den 7.8er so schnell gebracht, leider nich ganz Bugfrei wie man auch im 7.8er Fred sieht.
Nein, wegen dem Kerneldingens hat man den Treiber sogar später gebracht..

Ronny145
2007-08-18, 09:29:15
Ich sehe gerade, dass DrMabuse1963 die HIS 2900XT hat. Die hatte mit 67 Watt den höchsten Idle Wert im c't Test. Kannst du nachschauen, welche Bios Version du drauf hast? Vielleicht ist die recht neu, dann wäre es denkbar.

DrMabuse1963
2007-08-18, 10:54:30
Ich sehe gerade, dass DrMabuse1963 die HIS 2900XT hat. Die hatte mit 67 Watt den höchsten Idle Wert im c't Test. Kannst du nachschauen, welche Bios Version du drauf hast? Vielleicht ist die recht neu, dann wäre es denkbar.


Moin,moin,Bios ist 010.049.000.001/Bios Datum 2007/05/18.

MfG

BlackArchon
2007-08-19, 09:44:26
Meine Sapphire hat die BIOS-Version 010.047.000.000.025192. Vielleicht könnten wir eine kleine BIOS-Sammlung aufbauen?

Ronny145
2007-08-19, 09:51:56
Hilfreich wäre auch, wenn andere user mit älteren Bios Versionen das testen könnten.
@BlackArchon: Deine Version ist älter, hast du zufällig ein Energy check zum messen da?

BlackArchon
2007-08-19, 10:45:58
Habe ich. Für einen Treiber-Vergleich müsste ich vorher aber erstmal ein Image meines Windows anlegen...

Gast
2007-08-21, 21:00:53
BIOSHOCK HD2900 (default) gegen OC 8800GTX (626mhz)

http://img207.imageshack.us/img207/5407/ooozc3.jpg (http://imageshack.us)

http://www.digitalreport.net/content/view/52/1/

Die UE3-Engine liegt der Karte hat man schon bei R6V und SC4 gesehen ;-)

Blaire
2007-08-21, 21:56:27
An die GTX kommt sie dennoch nicht heran. Mit AA dürfte die 2900XT noch stärker einbrechen.

Super Grobi
2007-08-21, 22:00:10
An die GTX kommt sie dennoch nicht heran. Mit AA dürfte die 2900XT noch stärker einbrechen.

Deine GTX kostet auch "nur" 100 Euro mehr, als eine 2900XT ;) (normale GTX vs. 2900xt, bei einer übertakteten ist der Unterschied natürlich noch häßlicher)

SG

Edit:

GTX --> http://www.hardwareschotte.de/preise.php3?searchstring=8800gtx&srt=preis&searchrange=
2900-> http://www.hardwareschotte.de/preise.php3?searchstring=2900xt&srt=preis&searchrange=

laser114
2007-08-21, 22:01:30
Wenn man bedenkt das die 8800 GTX auch noch übertaktet ist, kein schlechter Wert für die 2900 XT.

dildo4u
2007-08-21, 22:04:46
Ohne AA sind die Benches wertlos die fps sind bei beiden Karten hoch genug das man locker mit 4XAA zocken könnte.

Blaire
2007-08-21, 22:05:43
Deine GTX kostet auch "nur" 100 Euro mehr, als eine 2900XT ;)

SG

Edit:

GTX --> http://www.hardwareschotte.de/preise.php3?searchstring=8800gtx&srt=preis&searchrange=
2900-> http://www.hardwareschotte.de/preise.php3?searchstring=2900xt&srt=preis&searchrange=

Dafür ist sie deutlich leiser und hat mehr Speicher an Board. Aber der Vergleich hinkt ohnehin. Vergleiche mit einer GTS und DX9+AA wären interessanter gewesen.

Super Grobi
2007-08-21, 22:07:02
Dafür ist sie deutlich leiser und hat mehr Speicher an Board. Aber der Vergleich hinkt ohnehin. Vergleiche mit einer GTS und DX9+AA wären interessanter gewesen.

Und die Farbe der NV ist auch schöner... :uhammer:

Also bitte... Jetzt kommt der Lüfter, als nächstes der Stromverbrauch?

SG

Coda
2007-08-21, 22:10:24
Dafür ist sie deutlich leiser und hat mehr Speicher an Board. Aber der Vergleich hinkt ohnehin. Vergleiche mit einer GTS und DX9+AA wären interessanter gewesen.
DX9+AA ist doch mit dem ATi-Treiber soweit ich weiß gar nicht möglich, oder?

Ich beneide eh jeden der die Demo spielen kann. Bei mir hängt das Ding immer am Ladebildschirm im Vollbildmodus :(

Blaire
2007-08-21, 22:11:11
Und die Farbe der NV ist auch schöner... :uhammer:

Du glaubst doch wohl nicht das ich mich jetzt auf sowas einlasse? Ich zitiere nur den Test von oben nicht mehr und nicht weniger. Das der Vergleich ohnehin hinkt hab ich bereits geschrieben.

Super Grobi
2007-08-21, 22:13:19
Du glaubst doch wohl nicht das ich mich jetzt auf sowas einlasse? Ich zitiere nur den Test von oben nicht mehr und nicht weniger. Das der Vergleich ohnehin hinkt hab ich bereits geschrieben.

Und du machst den Test gleich mit "kommt an die GTX nicht ran" nieder!

Der Preis spielt bei sowas auch eine Rolle! Sonst kann ich gleich sagen: "Deine GTX kommt an meine zwei GTX nicht ran". Dann wirst du mir auch was erzählen.


SG

p.s.
du brauchst dich nicht auf sowas einlassen, wenn du nicht so flach die GTX in den Himmel lobst!

Edit: Hab gesehen, das du 2 88er hast

Blaire
2007-08-21, 22:21:46
Und du machst den Test gleich mit "kommt an die GTX nicht ran" nieder!

Es wurde doch auch gegen eine GTX getestet oder etwa nicht? :rolleyes:

Gast
2007-08-21, 22:27:35
An die GTX kommt sie dennoch nicht heran. Mit AA dürfte die 2900XT noch stärker einbrechen.
AA geht bei DX10 weder bei NV noch ATI bei Bioshock,
Wie erbärmlich die GTX läuft über 8800 Ultra Takt ...lol

Super Grobi
2007-08-21, 22:29:09
Es wurde doch auch gegen eine GTX getestet oder etwa nicht? :rolleyes:

Türlich, aber die Balken kann doch jeder selber "ablesen", oder?

SG

Mumins
2007-08-21, 22:30:36
Die GTX hatte Ultra Takt, zumindest was den Core angeht. Preis 413 Pfund zu 240 Pfund.

James Ryan
2007-08-22, 05:58:51
AA geht bei DX10 weder bei NV noch ATI bei Bioshock,
Wie erbärmlich die GTX läuft über 8800 Ultra Takt ...lol

AA geht aber bei der NVIDIA im DX9 Modus. Und ich vermute dass die Gf 8800 GTX mit AA meilenweit vor der HD 2900 XT liegen wird.
Leider kann man das nicht testen weil mit der HD 2900 XT ja kein AA funktioniert, saubere Arbeit ATi.

MfG :cool:

DerKleineCrisu
2007-08-22, 06:48:39
Leider kann man das nicht testen weil mit der HD 2900 XT ja kein AA funktioniert, saubere Arbeit ATi.


kommt schon wo sind dioe leute die sagen das ist nicht der fehler von AMD/ATI sondern vom spiele hersteller ;D.

mfg

grisu

seahawk
2007-08-22, 07:35:21
Die GTX hatte Ultra Takt, zumindest was den Core angeht. Preis 413 Pfund zu 240 Pfund.

Also ein völlig sinnfreieer Vergleich. Und dafür liegt ide 2900 excellent, aber das war ja nicht anders zu erwarten.

MartinRiggs
2007-08-22, 08:00:45
AA geht aber bei der NVIDIA im DX9 Modus. Und ich vermute dass die Gf 8800 GTX mit AA meilenweit vor der HD 2900 XT liegen wird.
Leider kann man das nicht testen weil mit der HD 2900 XT ja kein AA funktioniert, saubere Arbeit ATi.

MfG :cool:

Wenn NV was im Treiber getrickst hat ist das doch ok, hatte ATI damals bei Oblivion mit dem Chuck-Patch.
Offiziell geht doch mit der UE3-Engine kein AA zumindest unter DX9
Aber hauptsache ATI ist bööööse, bzw. haben gepennt.

desert
2007-08-22, 08:54:26
wäre es umgedreht, würde schon lange eine kampagne gegen nvidia laufen,
das nvidia die spieler total egal sind, und nur ihr geld wollen.

Im gegensatz dazu ati/amd der heilsbringer für den spieler ist, weil die ihre produkte den spielern fast schenken so billig sind sie.

MechWOLLIer
2007-08-22, 10:05:33
Schocke ich jetzt jemanden, wenn ich sage, dass in meinen messungen die HD 2900 Xt im DX10-Modus unter dem Niveau einer GeForce 8800 GTS 320 liegt, im DX9-Modus aber über dem einer GeForce 8800 GTS?

LovesuckZ
2007-08-22, 10:14:12
Nein, weil das ganz technisch erklärbar ist. ;)

MechWOLLIer
2007-08-22, 10:29:58
Und womit?

LovesuckZ
2007-08-22, 10:45:41
Und womit?

Rechenleistung (dx9) und Vistatreiber (D3D10).

MechWOLLIer
2007-08-22, 11:14:12
Beides war unter Windows Vista gemessen, daran kanns eigentlich nicht liegen. Natürlich, die D3D10-Treiber sind was anderes, dennoch kann ich mir nicht vorstellen, dass der große Performanceunterschied (bei Nvidia sinds nur 1-2 FPS) alleine am Treiber liegt.

AnarchX
2007-08-22, 11:19:27
Mal die Taktraten kontrolliert? Vielleicht gibt es ja hier wieder den Bug, dass unter DX10 nur 2D läuft, wie beim RM 3D 2.0.

LovesuckZ
2007-08-22, 11:23:16
Beides war unter Windows Vista gemessen, daran kanns eigentlich nicht liegen.

Die Bestandteile für DX9 und D3D10 benötigen anscheinend eine ander herangehensweise. Daher die deutlichen Unterschiede auch unter Vista.


Natürlich, die D3D10-Treiber sind was anderes, dennoch kann ich mir nicht vorstellen, dass der große Performanceunterschied (bei Nvidia sinds nur 1-2 FPS) alleine am Treiber liegt.

Der D3D10 Part des Spiels wird wohl auf nVidia's Kappe gegangen sein. Es ist daher nur logisch, dass hier klar auf deren Architektur optimiert wurde. Und dies kann sich ganz zum Nachteil des r600 auswirken.

Gast
2007-08-22, 12:53:08
Beides war unter Windows Vista gemessen, daran kanns eigentlich nicht liegen. Natürlich, die D3D10-Treiber sind was anderes, dennoch kann ich mir nicht vorstellen, dass der große Performanceunterschied (bei Nvidia sinds nur 1-2 FPS) alleine am Treiber liegt.
Schau mal in #322 das sind bei NV auch mehr als 1-2FPS unterschied von DX9->DX10
Ich würde mal an deiner stelle den Testaufbau überprüfen.

Coda
2007-08-22, 13:37:30
Der D3D10 Part des Spiels wird wohl auf nVidia's Kappe gegangen sein.
EPIC. Und nVIDIA kann da gar nicht großartig helfen, denn eine so komplexe Engine zu verstehen dauert. Der Devsupport wird natürlich bei Fragen geholfen haben. Für EPIC als Middleware-Lieferant würde es auch eher geschäftsschädigend sein einen IHV zu bevorzugen.

Gast
2007-08-22, 14:19:51
AA geht aber bei der NVIDIA im DX9 Modus. Und ich vermute dass die Gf 8800 GTX mit AA meilenweit vor der HD 2900 XT liegen wird.
Leider kann man das nicht testen weil mit der HD 2900 XT ja kein AA funktioniert, saubere Arbeit ATi.

MfG :cool:

Wenn man die Bioshock exe in Oblivion exe umbenennt kann man im CCC AA einstellen.

James Ryan<--- NV-FB³

Coda
2007-08-22, 14:47:32
Sicher, dass das an den Kanten keine Fehler gibt? Weil Oblivion ist eigentlich kein deferred shader.

Gast
2007-08-22, 14:57:37
Sicher, dass das an den Kanten keine Fehler gibt? Weil Oblivion ist eigentlich kein deferred shader.
Hier sind auch Bilder von W0mbat
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5775923&postcount=774

MartinRiggs
2007-08-22, 15:00:54
Hier sind auch Bilder von W0mbat
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5775923&postcount=774

Und ich sag vorhin noch Oblivion, hab die Demo noch nicht sonst hätte ich das gleiche probiert :ulol2:

Mr. Lolman
2007-08-22, 15:05:29
Sicher, dass das an den Kanten keine Fehler gibt? Weil Oblivion ist eigentlich kein deferred shader.

Die Kanten sind 1A (übrigens sind die Kanten auf NV-Karten mit ner Oblivion.exe angeblich auch glatter als sonst), jedoch gibts das ein oder andere Problem:

.) Spotlights funktionieren nicht (die Szene wo das Monster von der Selbstschussanlage verfolgt wird)
.) Meshes werfen keine Schatten mehr

Coda
2007-08-22, 15:11:12
Problem ist halt, dass man eigentlich nicht einfach AA nur aktivieren darf bei deferred shading, weil es sonst an den Kanten zu falschen Vektoren kommt. Evtl. ist das in dem Bild nur nicht so sichtbar.

Ich kann's selber leider nicht nachprüfen. Aber wenn's gefällt ist das ja nicht weiter schlimm.

Gast
2007-08-22, 15:29:13
Nur ist die UE3 kein Deferred Renderer wie der Deferred Renderer der X-Ray-Engine: Nur die Schattenberechnung ist von dem eigentlichen Renderer "entkoppelt".
Aber: Dass deferred Rendering und Antialiasing sich nicht ausschließen müssen, zeigt Killzone 2 (ja, es ist ein Konsolentitel).

Blaire
2007-08-22, 16:10:45
Die Kanten sind 1A (übrigens sind die Kanten auf NV-Karten mit ner Oblivion.exe angeblich auch glatter als sonst), jedoch gibts das ein oder andere Problem:

.) Spotlights funktionieren nicht (die Szene wo das Monster von der Selbstschussanlage verfolgt wird)
.) Meshes werfen keine Schatten mehr

Was wohl eher daran lag das Nvidia zuletzt die AA Bits vertauschte und anstatt den Oblivion AA Bits , von RainbowSix Vegas verwendete. Nicht nur das einige Schatten fehlten auch die Performance brach deutlich ein. Zum Glück gabs Nhancer wo ich den Fehler sofort fand.

Coda
2007-08-22, 16:11:43
Nur ist die UE3 kein Deferred Renderer wie der Deferred Renderer der X-Ray-Engine: Nur die Schattenberechnung ist von dem eigentlichen Renderer "entkoppelt".
Das ist Blödsinn und unmöglich. Der Schatten muss beim Shading vorhanden sein und andersrum. Da gibt's nichts zum trennen. Entweder man macht die komplette Lichtberechnung inkl. Schatten deferred oder nicht.

Slipknot79
2007-08-22, 19:42:19
DX9+AA ist doch mit dem ATi-Treiber soweit ich weiß gar nicht möglich, oder?

Ich beneide eh jeden der die Demo spielen kann. Bei mir hängt das Ding immer am Ladebildschirm im Vollbildmodus :(


OS neu aufsetzen :(

James Ryan
2007-08-23, 05:51:09
Wenn man die Bioshock exe in Oblivion exe umbenennt kann man im CCC AA einstellen.

James Ryan<--- NV-FB³

Wie siehts dann mit der Perfomance aus? Gibts die üblichen HD 2900er Einbrüche oder bleibt die Leistung auch mit FSAA diesmal konstant?
btw, was ist eigentlich mit der "überlegenden" DX-10 Leistung der HD 2900 XT? Unter DX10 bricht sie unter das Niveau einer Gf 8800 GTS/320! :eek:

MfG :cool:

Gast
2007-08-23, 07:04:18
kann man noch nicht vergleichen, in Vista sind es ca.30 FPS weniger wie im XP, ja auch in DX9.
DX9 und DX10 haben die gleichen FPS was ja nicht wirklich sein kann.
Im XP dagegen rennt es wie Sau, mit dem CAT 7.7 rennt es richtig gut im DX10 aber halt grafikfehler.
Die EXE in Oblivion Umbenennen bringt zwar was an Leistung und CF geht auch, aber da fehlen die Schatten und der Rauch.
Als mal warten was der Treiber bringt.

Gast
2007-08-23, 21:50:36
Wie siehts dann mit der Perfomance aus? Gibts die üblichen HD 2900er Einbrüche oder bleibt die Leistung auch mit FSAA diesmal konstant?
btw, was ist eigentlich mit der "überlegenden" DX-10 Leistung der HD 2900 XT? Unter DX10 bricht sie unter das Niveau einer Gf 8800 GTS/320! :eek:

MfG :cool:
Wenn ich das Diagramm von post 322 sehe, sieht es nicht danach aus oder ist die 320er GTS jetzt schneller wie die GTX haha, vom schnell vollaufenden Vram will ich garnich erst anfangen.


@Gast
Es gibt schon den 7.8 Final + BS Hotfix, was soll der quatsch mit dem 7.7er dann??

Coda
2007-08-23, 21:54:16
Im XP dagegen rennt es wie Sau, mit dem CAT 7.7 rennt es richtig gut im DX10 aber halt grafikfehler.
"Im XP" rennt es gar nicht "im DX10".

Gast
2007-08-23, 22:25:43
Wie siehts dann mit der Perfomance aus? Gibts die üblichen HD 2900er Einbrüche oder bleibt die Leistung auch mit FSAA diesmal konstant?
btw, was ist eigentlich mit der "überlegenden" DX-10 Leistung der HD 2900 XT? Unter DX10 bricht sie unter das Niveau einer Gf 8800 GTS/320! :eek:

MfG :cool:
Wenn du auf den Computerbase Test hinaus willst, kann ich nur sagen was die zusammen benchen ist ja wohl mehr als lächerlich.
Ein Beispiel
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/12/#abschnitt_colin_mcrae_dirt
oder hier http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/21/#abschnitt_stalker
so schlecht ist doch die GTS 320 niemals.
lol

Blaire
2007-08-23, 22:27:39
Warum nicht? Der geht einfach der Speicher aus. bei Stalker kann man das aber sicher auf den verwendeten Treiber zurückführen da kamen erst mit den 158.27 Performance Erweiterungen dazu.

Super Grobi
2007-08-23, 22:32:22
Warum nicht? Der geht einfach der Speicher aus. bei Stalker kann man das aber sicher auf den verwendeten Treiber zurückführen da kamen erst mit den 158.27 Performance Erweiterungen dazu.

Das glaubst du doch nun wirklich nicht, oder? Ich bin zwar kein freund der 320MB Karte, aber bei "1280x1024 1xAA/1xAF" sollten selbst 256MB noch reichen.

So komische Ergebnisse hab ich bei denen schon das eine oder andere mal gesehen. So wurde in anderen Tests auch mal eine 7950gx2 mit sehr wenig FPS aufgenommen, wo jeder Blinder sehen konnte, das EINDEUTIG kein SLI funktionierte.

SG

AnarchX
2007-08-23, 22:43:30
AFAIK hat Dirt doch in diesem Setting (CB bencht Max.) um die 400MB Speicherverbrauch, kombiniert mit VRAM-Bug kommt dann halt so eine Performance heraus. Sieht man auch an den 8600er-Karten.

Aber wie schon gesagt, ist das was da CB bencht etwas abseits der Realität: Wenn interessieren schon Ergebnisse eines Benches, wo keine der getesteten Karten auf spielbare FPS kommt? :rolleyes:

Zum Glück, scheint man das mittlerweile erkannt zu haben und so zeigen die letzten Tests eher die Tendenz, dass man praxisnähere Settings bencht.

Blaire
2007-08-23, 22:52:50
Das glaubst du doch nun wirklich nicht, oder? Ich bin zwar kein freund der 320MB Karte, aber bei "1280x1024 1xAA/1xAF" sollten selbst 256MB noch reichen.


Doch das glaub ich. Denk dran die haben mit Vista getestet was ohnehin speicherhungriger ist.

Gast
2007-08-23, 22:56:00
Warum nicht? Der geht einfach der Speicher aus. bei Stalker kann man das aber sicher auf den verwendeten Treiber zurückführen da kamen erst mit den 158.27 Performance Erweiterungen dazu.
Öhmm die hatten den "nVidia ForceWare 158.45 (G8x)" der müßte doch nach dem 158.27er gekommen sein oder ?

Naja ich finde die Tests in letzter Zeit ziemlich merkwürdig bei CB.

Coda
2007-08-23, 22:56:21
Vista braucht aber nicht mehr VRAM...

Blaire
2007-08-23, 22:58:08
Öhmm die hatten den "nVidia ForceWare 158.45 (G8x)" der müßte doch nach dem 158.27er gekommen sein oder ?

Naja ich finde die Tests in letzter Zeit ziemlich merkwürdig bei CB.

Jo ist richtig war mein Fehler hab nicht mehr dran gedacht das die jetzt nur noch Vista zum Testen verwenden.

Blaire
2007-08-23, 23:01:59
Vista braucht aber nicht mehr VRAM...

Seit den letzten Vista Patches hat sich diesbezüglich einiges getan. Ist nicht mehr ganz so krass wie Anfangs es war mir bsplw. nicht möglich die Fakefactory Mod für HL2 zum starten zu bewegen alles was über 1 Gigabyte im Taskmanager verbrauchte führte sofort zum Absturz. Dabei war es auch egal welches Game es crashte sofort. Das wurde jetzt mit den Vista Patches behoben!

Coda
2007-08-23, 23:03:14
VRAM. Vista hat nie mehr VRAM verbraucht als XP. Und Vista hat auch nie mehr physikalischen RAM verbraucht, sondern nur virtuellen Addressraum.

Super Grobi
2007-08-23, 23:03:56
Seit den letzten Vista Patches hat sich diesbezüglich einiges getan. Ist nicht mehr ganz so krass wie Anfangs es war mir bsplw. nicht möglich die Fakefactory Mod für HL2 zum starten zu bewegen alles was über 1 Gigabyte im Taskmanager verbrauchte führte sofort zum Absturz. Dabei war es auch egal welches Game es crashte sofort. Das wurde jetzt mit den Vista Patches behoben!

Was hat das mit VRam zu tun? Vista hat nie mehr VRam verbraucht als XP.

SG

Blaire
2007-08-23, 23:04:54
Wenn kein VRAM mehr zur Verfügung steht lagert er in den Hauptspeicher aus und das führte zum Absturz.

Coda
2007-08-23, 23:09:14
Das verbraucht aber keinen virtuellen Addressraum <2GiB.

MechWOLLIer
2007-08-24, 10:19:15
Das glaubst du doch nun wirklich nicht, oder? Ich bin zwar kein freund der 320MB Karte, aber bei "1280x1024 1xAA/1xAF" sollten selbst 256MB noch reichen.

Das Ergebnis stimmt aber so, auch wenn du es nicht glauben magst. Eine GeForce 8800 GTS 640 MB ist in dieser Szene deutlich schneller und erreicht 40 FPS. Ein Messfehler ist es nicht, ich habe es gerade nochmal kontrolliert.

Super Grobi
2007-08-24, 12:53:00
Das Ergebnis stimmt aber so, auch wenn du es nicht glauben magst. Eine GeForce 8800 GTS 640 MB ist in dieser Szene deutlich schneller und erreicht 40 FPS. Ein Messfehler ist es nicht, ich habe es gerade nochmal kontrolliert.

Danke,
da bin ich piff und paff. Das hab ich nun wirklich nicht geglaubt.

Gibts irgentwo eigentlich ein Test mit aktulsten Treiber? Würde gerne sehen, ob sich was am AA/AF leistungsmäßig was geändert hat.

SG

reunion
2007-08-26, 16:04:53
Der R600 hält jetzt auch den 3dmark06 Weltrekord: http://www.futuremark.com/community/halloffame/

Die Karten wurden dabei mit satten 1175/950 MHz getaktet. Finde es nach wie vor seltsam, dass die Karte im 3dmark und bei einigen anderen Anwendungen selbst eine 8800U schlägt, und sonst selbt mit der GTS zu kämpfen hat.

dildo4u
2007-08-26, 16:09:00
Tja das gilt ja teilweise auch für einige Spiele nur juckt No AA keinen der eine 300€ und drüber Karte kauft.Und zum Glück werden die Games ohne AA so auch nirgendwo mher getestet.

Gast
2007-08-26, 16:25:52
Die Karten wurden dabei mit satten 1175/950 MHz getaktet. Finde es nach wie vor seltsam, dass die Karte im 3dmark und bei einigen anderen Anwendungen selbst eine 8800U schlägt, und sonst selbt mit der GTS zu kämpfen hat.

naja AF und AA tut der 2900 eben verdammt weh, wobei ersteres ja klar ist, zweiteres aber doch seltsam.

AnarchX
2007-08-26, 16:45:32
naja AF und AA tut der 2900 eben verdammt weh, wobei ersteres ja klar ist, zweiteres aber doch seltsam.

Naja, es wurde ja schon lange bevor der R600 releast wurde von Problemen mit den ROPs berichtet, da kann wohl doch einiges dran sein, wenn man sich die Performance anschaut.

Finde es nach wie vor seltsam, dass die Karte im 3dmark und bei einigen anderen Anwendungen selbst eine 8800U schlägt, und sonst selbt mit der GTS zu kämpfen hat.

Wenn der R600 seine Shaderpower mal ausspielen kann, ist soetwas wohl durchaus möglich. Aber heutige Games (vorallem PC-only) haben noch andere Anforderungen, die der R600 dann nicht mehr so gut erfüllen kann.
Mit ein paar Verbesserungen und wandelnden Anforderungen wird das Design vielleicht in Zukunft besser dastehen. NV hat es ja mit CineFX vorgemacht. ;)

Coda
2007-08-26, 17:48:31
Ich sehe auch gute Chancen für ATi wieder aufzuschließen wenn sie die Probleme mit der Architektur beseitigen.

Gast
2007-08-26, 20:24:12
Mit ein paar Verbesserungen und wandelnden Anforderungen wird das Design vielleicht in Zukunft besser dastehen. NV hat es ja mit CineFX vorgemacht. ;)

könnte sicher sein, in erster linie braucht man mal endlich mehr TMUs immerhin lungert ATI schon seit dem R420 bei 16 herum.

mapel110
2007-08-26, 20:39:17
könnte sicher sein, in erster linie braucht man mal endlich mehr TMUs immerhin lungert ATI schon seit dem R420 bei 16 herum.
ATI wollte halt weiterhin über den Takt gehen. Immer den besten Fertigungsprozess für das High End Modell, aber wohin das führt, sah man schon beim NV30.

Liszca
2007-08-27, 03:35:31
Der R600 hält jetzt auch den 3dmark06 Weltrekord: http://www.futuremark.com/community/halloffame/

Die Karten wurden dabei mit satten 1175/950 MHz getaktet. Finde es nach wie vor seltsam, dass die Karte im 3dmark und bei einigen anderen Anwendungen selbst eine 8800U schlägt, und sonst selbt mit der GTS zu kämpfen hat.

die karte wird wohl noch eine ganze weile einphänomen bleiben.
vielleicht wird amds phenom ja auch so ein ding ;D

Gast
2007-08-27, 06:44:48
Also ich bin sher zufrieden damit, schneller als ne GTS, langsamer als ne GTX.
AA und AF bricht ein, kein Ding hab ne ne zweite geholt und gut ist.
also 2x 1 GB Karten 16xCFAA und 16xAF ist IMMER an im Spiel ohen denkleiensten ruckler, ich kann mich net beschweren, doch das ich im tag 8 KW verbraten tue :lol:
Aber mir egal.

Blinx123
2007-08-27, 12:44:22
Also ich bin sher zufrieden damit, schneller als ne GTS, langsamer als ne GTX.
AA und AF bricht ein, kein Ding hab ne ne zweite geholt und gut ist.
also 2x 1 GB Karten 16xCFAA und 16xAF ist IMMER an im Spiel ohen denkleiensten ruckler, ich kann mich net beschweren, doch das ich im tag 8 KW verbraten tue :lol:
Aber mir egal.

Ohoh. Wenn der Satz nichtmal wieder schlafende Hunde weckt.

Mr. Lolman
2007-08-28, 18:30:43
http://www.gamespot.com/features/6177688/p-6.html

dildo4u
2007-08-28, 18:33:32
Die AMD Vista Treiber scheinen ja egal ob DX9 oder DX10 immer noch fürn Arsch zu sein.

http://www.firingsquad.com/hardware/bioshock_directx10_performance/page5.asp

Mr.Soapdown
2007-08-28, 18:45:15
http://www.gamespot.com/features/6177688/p-6.html

Alles ohne AA und AF, oder? Nix gesehen....

mapel110
2007-08-28, 18:46:59
http://www.gamespot.com/features/6177688/p-6.html
Hm, soso, eine 1300er so schnell wie eine 7600 GT. Interessant.

Mr.Soapdown
2007-08-28, 18:50:31
Hm, soso, eine 1300er so schnell wie eine 7600 GT. Interessant.

Noch interessanter ist die 2400 (direkt drunter). Warum wird sowas überhaupt noch gebaut, man man man.... Der neue Überflieger als "Bürokärtchen".

laser114
2007-08-28, 18:51:15
Die AMD Vista Treiber scheinen ja egal ob DX9 oder DX10 immer noch fürn Arsch zu sein.

http://www.firingsquad.com/hardware/bioshock_directx10_performance/page5.asp

Das kann man so aber nicht verallgemeinern, ist ja nur Bioshock und nur unter Vista getestet.

Bei PCGHW.de findest du z. B. Treibertests mit verschiedenen Versionen + Betriebssystemen, da sieht man dass das im Allgemeinen doch etwas anders aussieht. ;)

reunion
2007-08-28, 18:53:57
Hm, soso, eine 1300er so schnell wie eine 7600 GT. Interessant.

Die GF7/NV40-Serie sieht in Bioshock allgemein sehr bescheiden aus, eine 7950GX2 sieht auch kein Land gegen einen R580.

mapel110
2007-08-28, 18:55:03
Noch interessanter ist die 2400 (direkt drunter). Warum wird sowas überhaupt noch gebaut, man man man.... Der neue Überflieger als "Bürokärtchen".
Mein Posting sollte eher ironisch sein und meine Zweifel an den gesamten Benchmarks dort ausdrücken. Ist auch nicht das erste Mal, dass Gamespot so einen Murks abliefert.
Die GF7/NV40-Serie sieht in Bioshock allgemein sehr bescheiden aus, eine 7950GX2 sieht auch kein Land gegen einen R580.
Warum steht eine 2400 unter einer 1300?
33 zu 28 fps :O
Obwohl die 2400er in allen Belangen einer 1300 überlegen ist. :| Nee danke, da will ich lieber eine andere Quelle.

Super Grobi
2007-08-28, 18:57:30
Alles ohne AA und AF, oder? Nix gesehen....

Dann wären die FPS ja bei der GTX und GTS noch niedriger. Irgentwie glaub ich dem Test da nicht.

SG

Blaire
2007-08-28, 19:14:43
Die GF7/NV40-Serie sieht in Bioshock allgemein sehr bescheiden aus, eine 7950GX2 sieht auch kein Land gegen einen R580.

Was wohl eher am SLI Profil liegt...

reunion
2007-08-28, 19:15:32
Warum steht eine 2400 unter einer 1300?
33 zu 28 fps :O
Obwohl die 2400er in allen Belangen einer 1300 überlegen ist. :| Nee danke, da will ich lieber eine andere Quelle.

Mit Sicherheit nicht, eine 2400er hat bsw. nur ein 64bit SI, HierachicalZ wurde entfernt, keine Farbkompression in den ROPs, etc.
Die 2400 ist wesentlich stärker verkrüppelt als seinerzeit die X1300, das Ergebnis verwundert wenig.

Was wohl eher am SLI Profil liegt...

Offensichtlich nicht, wenn man sich die Leistung der anderen G7x-Karten ansieht.

Blaire
2007-08-28, 19:52:49
Offensichtlich nicht, wenn man sich die Leistung der anderen G7x-Karten ansieht.

http://www.computerbase.de/news/software/spiele/actionspiele/2007/august/benchmarks_bilder_bioshock/

Dort liegt sie nahezu gleichauf. Warten wir mal neuere Treiber ab Nvidia wird da sicher noch Performance Improvements nachliefern.

sklave_gottes
2007-08-28, 22:03:40
Mein Posting sollte eher ironisch sein und meine Zweifel an den gesamten Benchmarks dort ausdrücken. Ist auch nicht das erste Mal, dass Gamespot so einen Murks abliefert.

Warum steht eine 2400 unter einer 1300?
33 zu 28 fps :O
Obwohl die 2400er in allen Belangen einer 1300 überlegen ist. :| Nee danke, da will ich lieber eine andere Quelle.

Du weist aber das eine x1300xt nichts anderes als eine x1600pro ist ?

die x1300xt hat mehr pixel+vertex power. Und die rops sind besser da die HD reihe anscheinend irgend einen fehler mit den rops hat.


mfg martin

mapel110
2007-08-28, 22:59:23
X1300 XT ist der neue Marketingname der X1600 Pro • X1650 ist der neue Marketingname der X1300 XT
:uclap: Wer sich das ausgedacht hat in der Marketingabteilung, hat mal wieder ganze Arbeit geleistet.

Aber trotzdem ist Gamespot nicht unbedingt berühmt für Benchmark-charts. Ich nehm die Werte jedenfalls nicht für voll.

The_Invisible
2007-08-29, 08:46:16
Hm, soso, eine 1300er so schnell wie eine 7600 GT. Interessant.

und ne 640er gts langsamer als ne 320er, komischer test ;)

mfg

Mr. Lolman
2007-08-29, 08:57:36
Alles ohne AA und AF, oder? Nix gesehen....

Bioshock verwendet standardmässig AF. Frag mich aber nicht wieviel...

und ne 640er gts langsamer als ne 320er, komischer test ;)

mfg

Die 320er ist höher getaktet...

MechWOLLIer
2007-08-29, 10:32:13
Bioshock verwendet standardmässig AF. Frag mich aber nicht wieviel...

Bioshock nutzt 4xAF. Kann man aber alles schön in der .ini ändern.

Gast
2007-08-30, 11:31:42
Mag sein, dass die Frage jetzt blöd erscheint. Aber mir ist aufgefallen, dass die ganzen Weltrekorde unter anderem in 3DMark mit der 2900 und nicht mit der 8800 aufgestellt werden. Wie kann das sein? Ich dachte, die Ultra ist schneller als die XT?

Wenn die Diskussion schon wo anders geführt wurde, dann reicht auch ein Link darauf.

dargo
2007-08-30, 11:42:46
Mag sein, dass die Frage jetzt blöd erscheint. Aber mir ist aufgefallen, dass die ganzen Weltrekorde unter anderem in 3DMark mit der 2900 und nicht mit der 8800 aufgestellt werden. Wie kann das sein? Ich dachte, die Ultra ist schneller als die XT?

Wenn die Diskussion schon wo anders geführt wurde, dann reicht auch ein Link darauf.
Da siehst du wieder, dass der 3DFurz nichts mit Games zu tun hat. Ich würde vermuten, es liegt daran, dass 3DMark kein AA/AF standardmäßig nutzt.

Mr. Lolman
2007-08-30, 11:58:32
Da siehst du wieder, dass der 3DFurz nichts mit Games zu tun hat. Ich würde vermuten, es liegt daran, dass 3DMark kein AA/AF standardmäßig nutzt.

AFAIK nutzt 3DMark AF...

dargo
2007-08-30, 12:05:29
Nein, zumindest nicht @standard.

Blaire
2007-08-30, 17:22:30
Ich glaube da ist 4xAF auch aktiv bin mir aber nicht sicher da ich 3DMarks kaum mal teste.

Gast
2007-08-30, 17:36:15
Ich glaube da ist 4xAF auch aktiv bin mir aber nicht sicher da ich 3DMarks kaum mal teste.
Ich glaube auch. Man kann dies relativ einfach herausfinden, indem man im CP zB AF 2x erzwingt.
Auch in den FAQs steht, dass in 3DMark anwendungsgesteuert gefiltert wird.

James Ryan
2007-08-30, 17:57:54
AFAIK nutzt 3DMark AF...

Nein, definitiv nicht!
Würde der 3DMark AF nutzen, würde die HD 2900 XT keine Weltrekorde sammeln! ;)

MfG :cool:

Mr. Lolman
2007-08-30, 18:16:09
Nein, definitiv nicht!
Würde der 3DMark AF nutzen, würde die HD 2900 XT keine Weltrekorde sammeln! ;)

MfG :cool:

Doch, es ist min. 4xAF. Sieht man doch...

/EDIT: Ok doch nicht, da hat mir meine Erinnerung einen Streich gespielt.

Gast
2007-08-30, 18:27:23
Nein, definitiv nicht!
Würde der 3DMark AF nutzen, würde die HD 2900 XT keine Weltrekorde sammeln! ;)

MfG :cool:

es fehlt der "nvidia fanboy ignore" button, eindeutig... hauptsache wieder gegen ati gemosert

wir wissen langsam alle was du von ati hälst!!!

AnarchX
2007-08-30, 18:28:08
Nein, das "Optimal" ist kein AF:
Optimal - a mixture of bilinear and trilinear filtering is used, depending on what objects will benefit
most from the higher quality textures.
http://www.futuremark.com/companyinfo/pressroom/companypdfs/3DMark06_Whitepaper_v1_0_2.pdf

Super Grobi
2007-08-30, 18:31:53
es fehlt der "nvidia fanboy ignore" button, eindeutig... hauptsache wieder gegen ati gemosert

wir wissen langsam alle was du von ati hälst!!!

Quatsch,
er hat doch recht. Würde der 3dFurz default mit 4xAA und 16xAF laufen (mit diesen Settings zockt man ja wohl, wenn man eine +300 Euro Karte hat), würde es schon deutlich werden, daß die Karte mit solchen Settings nicht mehr so schön läuft.

SG

Mr.Soapdown
2007-08-30, 19:08:19
Quatsch,
er hat doch recht. Würde der 3dFurz default mit 4xAA und 16xAF laufen (mit diesen Settings zockt man ja wohl, wenn man eine +300 Euro Karte hat), würde es schon deutlich werden, daß die Karte mit solchen Settings nicht mehr so schön läuft.

SG

Gibt es eigentlich irgendwo einen Test, wo nur die Ati getestet wurde? Vergleiche brauche ich nicht. Ich suche settings alá 1600x1200, mit 2xAA und 2xAF, wo dann wiederum die settings langsam gesteigert werden, um die evtl nicht mehr so stark vorhandenen einbrüche auf zu zeigen.
Sprache egal - Hauptsache Balken....

thx

AnarchX
2007-08-30, 19:20:21
R6xx Bildqualität auf dem Prüfstand @ B3D (http://www.beyond3d.com/content/reviews/47)

Mr.Soapdown
2007-08-30, 20:24:23
hm, ist nicht das was ich gesucht habe. Hier wird noch mal ins detail der einzelnen filter gegangen. Wobei ich heraus gelesen habe, dass der r6xx, noch den ein oder anderen vorteil ausspielen kann. (treiber werden wohl noch einiges dazu tun). Die beiden hersteller haben wohl andere prioritäten gesetzt.

Blaire
2007-09-12, 18:36:13
ATI Radeon HD 2900 XT 1GB CrossFire Review
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html

The_Invisible
2007-09-12, 19:10:44
ATI Radeon HD 2900 XT 1GB CrossFire Review
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html

zumindest kann man mit 2900xt cf der 8800 ultra manchmal einhalt gebieten, war von amd aber sicher nicht so geplant

mfg

LovesuckZ
2007-09-12, 19:14:13
ATI Radeon HD 2900 XT 1GB CrossFire Review
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html

Die werden auch immer schlechter. Einige Werte hätten doch beim Notieren auffallen müssen, dass diese vollkommen falsch sind.

Blaire
2007-09-12, 19:38:48
Die Qualität der Tests hat dort ganz schön nachgelassen, schon beim letzten Test gab es seltsamste Ergebnisse die nur falsch sein konnten...

Gast
2007-09-12, 19:53:19
Das war ja klar das man kritik ausgerechnet von 8800 GTX sli oder Ultra user hört...Die qualität lässt für euch vielleicht nach weil es euch nicht passt...

mapel110
2007-09-12, 20:09:51
Schon geil, bei HL2 verliert die 2900er von 1600x1200 4xAA/16AF bis 2560x1600 4xAA/16AF ganze 8-9 fps oder anders etwa 10% Leistung.
Eine geile zukunftssichere Karte. :uup:

Hm, nvidia haben sie mit HQ und ATI mit AI.low gebencht. Also bietet nvidia schon mal die bessere Quali bei all den Vergleichen.

Coda
2007-09-12, 20:25:15
Schon geil, bei HL2 verliert die 2900er von 1600x1200 4xAA/16AF bis 2560x1600 4xAA/16AF ganze 8-9 fps oder anders etwa 10% Leistung.
Eine geile zukunftssichere Karte. :uup:
Eher CPU-Limit bei HL² oder nicht?

Coda
2007-09-12, 20:26:59
Das war ja klar das man kritik ausgerechnet von 8800 GTX sli oder Ultra user hört...Die qualität lässt für euch vielleicht nach weil es euch nicht passt...
Die Ergebnisse haben durchaus einige Irregularitäten. Woher die jetzt kommen weiß ich nicht.

AnarchX
2007-09-12, 20:27:00
Eher CPU-Limit bei HL² oder nicht?

Nein, die 8800er brechen auch normal ein und das CF-Gespann skaliert auch noch gut mit über 70% Zuwachs:
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_12.html#sect0

Schon etwas seltsam, aber man sollte nicht nur X-bit die Schuld geben, das gibt es durchaus desöfteren, dass man selbst mit mehrmaligen Messen auf merkwürdige Werte kommt, was wiederrum mit Treiber bzw. Game zusammenhängt.

Coda
2007-09-12, 20:28:29
Oh okay. Seltsam :|
Da würde ich eher auf ein Treiberproblem bei ATi tippen. Oder R6xx ist einfach nur komisch manchmal.

Blaire
2007-09-12, 21:23:18
Das war ja klar das man kritik ausgerechnet von 8800 GTX sli oder Ultra user hört...Die qualität lässt für euch vielleicht nach weil es euch nicht passt...

Wieso? :confused: SLI wurde doch garnicht mitgetestet.

Gast
2007-09-12, 21:36:32
AMD Catalyst:

Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
Adaptive antialiasing: On
Temporal antialiasing: Off
High Quality AF: On
Other settings: default
Nvidia ForceWare:

Texture Filtering: High quality
Vertical sync: Off
Trilinear optimization: Off
Anisotropic optimization: Off
Anisotropic sample optimization: Off
Gamma correct antialiasing: On
Transparency antialiasing: On (multi-sampling)
Other settings: default

Mag sein, dass AI low schlechter ist als NVs HQ, aber AAA vs. TSMSAA ist schon etwas heftig.

Coda
2007-09-12, 21:37:30
Vor allem A.I. STANDARD nicht low. Der Test ist komplett fürn Arsch. Und dann noch bei den GeForces HQ einschalten. Ja ne, is klar.

Gast
2007-09-12, 21:39:26
Vor allem A.I. STANDARD nicht low. Der Test ist komplett fürn Arsch. Und dann noch bei den GeForces HQ einschalten. Ja ne, is klar.
Standard ist Low.

mapel110
2007-09-12, 21:42:11
Mag sein, dass AI low schlechter ist als NVs HQ, aber AAA vs. TSMSAA ist schon etwas heftig.
Kommt bei ATI nicht mittlerweile auch EATM zum Einsatz bei R600? Das ist doch MSAA?!

Coda
2007-09-12, 21:44:04
So wie ich es gehört habe, kommt nur noch EATM zum Einsatz...

Standard ist Low.
Okay. Trotzdem nicht in Ordnung gegen HQ.

dildo4u
2007-09-12, 21:45:25
Da steht ja leider auch nich ob Quality oder Performance AAA.

Gast
2007-09-12, 21:51:42
Da steht ja leider auch nich ob Quality oder Performance AAA.
Was steht denn im Text?
We selected the highest possible graphics quality level in each game using standard tools provided by the game itself. The games configuration files weren’t modified in any way. Performance was measured with the games’ own tools or, if not available, manually with Fraps utility version 2.9.1. We also measured the minimum speed of the cards where possible.
1+1=...
Zu EATM: http://www.pcgameshardware.de/?article_id=612514&page=2

EATM/AAA-Probleme
Nach eigenen Tests und Recherchen in Foren tat sich ein Haken beim Catalyst 7.8 auf. Das bisher inoffizielle, aber von vielen schon gern genutzte EATM-AAA (Transparenz-FSAA auf Multi-Sampling-Basis) funktioniert seit diesem Treiber nicht mehr. Dabei spielt es keine Rolle, ob es mit einem Helfer wie den Ati Tray Tools oder direkt in der Registrierung aktiviert wird.

Der Catalyst 7.9 zeigt jetzt, wohin die Reise geht: EATM ist zumindest auf der Radeon-HD-Serie der neue Standard-AAA-Modus. AMD hat somit umgesetzt, was bereits Anfang des Jahres angekündigt wurde. Bedauerlich ist, dass es bisher keine Möglichkeit gibt, EATM auf älteren Radeon-Karten zurückzuholen. Der ältere Modus auf Super-Sampling-Basis liefert zwar bessere Ergebnisse, kostet aber deutlich mehr Leistung. Mehr zu dem Thema finden Sie unter den Links zum Thema ("Versteckte FSAA-Modi nutzen"). Wenn Sie auf einer Non-HD-Karte EATM nutzen möchten, benötigen Sie den Catalyst 7.7
Xbitlabs-Testconfig:
Intel Core 2 Extreme X6800 processor (3.0GHz, FSB 1333MHz x 9);
DFI LanParty UT ICFX3200-T2R/G mainboard (AMD RD600) for AMD/ATI graphics cards;
Asus P5N32-E SLI Plus mainboard (Nvidia nForce 680i SLI) for Nvidia graphics cards;
Corsair TWIN2X2048-8500C5 (2x1GB, 1066MHz, 5-5-5-15, 2T);
Maxtor MaXLine III 7B250S0 HDD (250GB, Serial ATA-150, 16MB buffer);
Enermax Galaxy DXX EGX1000EWL 1000W power supply;
Dell 3007WFP monitor (30", 2560x1600@60Hz max display resolution);
Microsoft Windows Vista Ultimate 32-bit;
Nvidia ForceWare 162.22;
ATI Catalyst Beta 7.7.

Coda
2007-09-12, 21:51:45
Ist Quality noch Supersampling? Ich sollte mir wirklich mal wieder ATi-Hardware beschaffen...

@Gast: Aus dem allen geht aber nicht ganz klar hervor, ob jetzt EATM oder Supersampling verwendet wird. Wurden Screenshots von XBit-Labs gemacht?

Gast
2007-09-12, 21:57:56
Ist Quality noch Supersampling? Ich sollte mir wirklich mal wieder ATi-Hardware beschaffen...

@Gast: Aus dem allen geht aber nicht ganz klar hervor, ob jetzt EATM oder Supersampling verwendet wird. Wurden Screenshots von XBit-Labs gemacht?
Soweit ich weiß, wurde EATM nur einmal als offizieller AAA-Modus erzwungen: http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Vielleicht wissen andere mehr.

AAA ist immer Supersampling (zumindest Non-HD), Performance bedeutet, dass die Alphatestobjekte nur die "Hälfte" der eingestellten MSAA-Stufe bekommen (4xMSAA für "normales" Zeug und 2xSSAA für Alphatest-Objekte).

Mr. Lolman
2007-09-12, 21:59:11
Ist Quality noch Supersampling? Ich sollte mir wirklich mal wieder ATi-Hardware beschaffen...

@Gast: Aus dem allen geht aber nicht ganz klar hervor, ob jetzt EATM oder Supersampling verwendet wird. Wurden Screenshots von XBit-Labs gemacht?

Wenn die mit dem 7.7 getestet haben wirds wohl Supersampling sein.

AnarchX
2007-09-12, 21:59:21
Für TRSSAA wäre aber imo die Leistung in FarCry z.B. zu hoch:
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_10.html#sect0

Gast
2007-09-12, 23:48:48
Zwischen AAA und Eatm gibts kein unterschied.

Gast
2007-09-12, 23:53:14
Zwischen AAA und Eatm gibts kein unterschied.
Scherzkecks.
Es gibt einen Riesenunterschied.

Raff
2007-09-12, 23:54:34
Zwischen AAA und Eatm gibts kein unterschied.

Den gibt's sehr wohl. AAA war bis vor Kurzem ein höchst ineffizientes Verfahren auf Supersampling-Basis. Auf Prä-2x00-Karten ist es das immer noch, während die HD-Karten nun einfach klammheimlich EATMieren.

MfG,
Raff

mapel110
2007-09-12, 23:58:46
Den gibt's sehr wohl. AAA war bis vor Kurzem ein höchst ineffizientes Verfahren auf Supersampling-Basis.
Was heißt hier ineffizient?
TRMSAA greift nicht überall. Also brauchts auch noch TRSSAA (war das nicht für alpha blending, wo es im Gegensatz zu TRMSAA greift?!).
Außerdem wars doch iirc Rotated Grid.

Raff
2007-09-13, 00:00:32
AAA (ASTT) ist stellenweise so lahm wie FS-SSAA, ergo ineffizient. ASBT-AAA schießt den Vogel dann ganz ab, weil Vollbild-SSAA schneller wäre. Und Letzteres bringt nicht nur mehr Samples für Alphas, sondern auch für andere Texturen und Shader.

MfG,
Raff

Coda
2007-09-13, 00:01:00
TRSSAA wird nur auf Shader mit Alphatesting/Texkill angewendet. Und ja, es ist wirklich das "effizienteste", wenn es um eine korrekte Behandlung des Aliasings dort geht.

AAA (ASTT) ist stellenweise so lahm wie FS-SSAA, ergo ineffizient. ASBT-AAA schießt den Vogel dann ganz ab, weil Vollbild-SSAA schneller wäre.
Okay so gesehen hast du recht. Die D3D10.1-GPUs sollten das aber besser können.

Raff
2007-09-13, 00:03:54
Okay so gesehen hast du recht. Die D3D10.1-GPUs sollten das aber besser können.

Warum das? :)

MfG,
Raff

Coda
2007-09-13, 00:05:01
Weil die Spec anscheinend natives vom Shader kontrollierbares Supersampling erfordert.

Gast
2007-09-13, 00:07:59
AAA (ASTT) ist stellenweise so lahm wie FS-SSAA, ergo ineffizient. ASBT-AAA schießt den Vogel dann ganz ab, weil Vollbild-SSAA schneller wäre. Und Letzteres bringt nicht nur mehr Samples für Alphas, sondern auch für andere Texturen und Shader.

MfG,
Raff
Und da kommt EATM, das es zum größten Teil auch die gleichen Objekte wie ASBT erfasst (Rauch, bestimmte "Konstruktionen"). Und EATM hat noch weitere Objekte in HL2 erfasst, die weder ASTT noch ASBT erwischt haben.

Raff
2007-09-13, 00:10:53
Es verfälscht das Bild aber. Alle erfassten Objekte werde "zermatscht", feine Strukturen verschwinden. Dafür ist es eben fast geschenkt. Aber AMD glaubte doch nicht wirklich, dass das keinem auffallen würde ...

MfG,
Raff

Gast
2007-09-13, 00:15:09
Es verfälscht das Bild aber. Alle erfassten Objekte werde "zermatscht", feine Strukturen verschwinden. Dafür ist es eben fast geschenkt. Aber AMD glaubte doch nicht wirklich, dass das keinem auffallen würde ...

MfG,
Raff
Was meinst du mit "zermatscht"? Das Fischnetz?

Raff
2007-09-13, 00:17:12
Guckst du Bilder unten: http://www.pcgameshardware.de/?article_id=574074

Ich meine das Ausfransen der ehemals harten Kanten bei Alphatests. Oftmals ist das Zermatschen eine nette Sache. In FarCry scheint's mit EATM aber das LOD zu fetzen und das Gemüse sieht undetailliert aus.

MfG,
Raff

Gast
2007-09-13, 01:04:51
Ähm erst ab CAT 7.8 gibts EATM auf R600, hier ists also SSAA... auch nicht grad fair...

Coda
2007-09-13, 02:15:47
Wieso, es wurde doch gegen TSSAA getestet?

Mr. Lolman
2007-09-13, 08:30:36
Anscheinend nicht:

Nvidia ForceWare:
Texture Filtering: High quality
Vertical sync: Off
Trilinear optimization: Off
Anisotropic optimization: Off
Anisotropic sample optimization: Off
Gamma correct antialiasing: On
Transparency antialiasing: On (multi-sampling)
Other settings: default

seahawk
2007-09-13, 08:43:52
MSAA bringt doch bei NV praktisch nichts wenn es um AAA geht.

desert
2007-09-13, 09:02:38
Anscheinend nicht:

Nvidia ForceWare:
Texture Filtering: High quality
Vertical sync: Off
Trilinear optimization: Off
Anisotropic optimization: Off
Anisotropic sample optimization: Off
Gamma correct antialiasing: On
Transparency antialiasing: On (multi-sampling)
Other settings: default


mal wieder absichtlich vergessen die einstellungen der ati/amd zu posten, oder ist das nur wieder ein beispiel für selektive wahrnehmung?

Aber hq gegen standard ist ja fair. Kommt ja auf die selbe bildqualität raus, nicht wahr lolli?

Gast
2007-09-13, 09:09:43
mal wieder absichtlich vergessen die einstellungen der ati/amd zu posten, oder ist das nur wieder ein beispiel für selektive wahrnehmung?

Aber hq gegen standard ist ja fair. Kommt ja auf die selbe bildqualität raus, nicht wahr lolli?
Malwieder Sehschwäche? Auf der letzten Seite ist ein Link zum Review selbst, dazu noch die Angaben zu den Treibereinstellungen für Leute, die zu faul sind, das Review anzuschauen.
Was willst du dann noch?

desert
2007-09-13, 09:09:48
MSAA bringt doch bei NV praktisch nichts wenn es um AAA geht.

ja das ist mist, entweder ssaa oder gar nicht, das msaa ist doch total witzlos

desert
2007-09-13, 09:12:45
Malwieder Sehschwäche? Auf der letzten Seite ist ein Link zum Review selbst, dazu noch die Angaben zu den Treibereinstellungen für Leute, die zu faul sind, das Review anzuschauen.
Was willst du dann noch?


das sieht bei lolli wieder so aus, als ob nv bescheissen würde, weil ja ssaa gegen msaa getestet wurde.

Und lolli das wieder so hinstellt als ob ati/amd übervorteilt wurde. und die ja eigenlich die überlegene bildqualität und geschwindigkeit haben. Und nicht jeder liest die ganzen seiten vom anfang an.

Für jeden der sich hier neu einklinkt sieht das halt so aus, das ati ja eigentlich noch viel schneller sein müsste.

Das aaa gegen msaa nicht fair ist klar, aber bald kommt ja der geliebte matschfiler eatm von ati/amd für lolli dann kann lolli wieder über nv herziehen, das ihr tssaa doch so scheisse ist und das aaa von ati/amd viel besser und auch viel schneller ist.

Gast
2007-09-13, 09:15:06
das sieht bei lolli wieder so aus, als ob nv bescheissen würde, weil ja ssaa gegen msaa getestet wurde, was totaler quatsch ist.

Und lolli das wieder so hinstellt als ob ati/amd übervorteilt wurde. und die ja eigenlich die überlegene bildqualität und geschwindigkeit haben. Und nicht jeder liest die ganzen seiten vom anfang an.

Für jeden der sich hier neu einklinkt sieht das halt so aus, das ati ja eigentlich noch viel schneller sein müsste.
Oh Junge...
Wer an einer Diskussion interessiert ist, liest bestimmt nicht das eine Posting von Lolman, sondern ab Blaires Link zum Xbit-Review.

Mr. Lolman
2007-09-13, 09:22:32
mal wieder absichtlich vergessen die einstellungen der ati/amd zu posten, oder ist das nur wieder ein beispiel für selektive wahrnehmung?

Aber hq gegen standard ist ja fair. Kommt ja auf die selbe bildqualität raus, nicht wahr lolli?

Jetzt reiss dich mal ein bisschen zusammen. Ich hab nur gezeigt, dass NICHT mit TSSAA getestet wurde. Dass HQ gegen AIlow getestet wurde, ist was anderes und für Codas Vermutung bezügl TSSAA auch völlig irrelevant.

Und unterstell mir bitte nicht andauernd Sachen, die ich nie behauptet hab.

Nur die NV-Einstellungen zu posten, ist insofern völlig wertfrei, da Coda bezügl den TRAA-Settings sich geirrt hatte (obwohl sie schon gepostet wurden), und ich diesen Irrtum bereinigen wollte.



In persönlicher Sache: Bitte lass dich mal untersuchen. Dass du in quasi jedem meiner Posts einen Angriff an dein NV-Schatzi siehst, zeugt von fortgeschrittener Paranoia. Das kann imo auf Dauer nicht gesund sein.

AnarchX
2007-09-13, 10:01:32
Ähm erst ab CAT 7.8 gibts EATM auf R600, hier ists also SSAA... auch nicht grad fair...

Könnte aber der R600 wirklich unter Einsatz von TRSSAA noch so gut im doch vor Alphatests lauernden FarCry-Dschungel mit einem G80@TRMSAA mithalten? :|
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_10.html#sect0

desert
2007-09-13, 10:15:49
liegt wohl eher daran lolli, das in fast jedem posting von dir der im grafikkarten forum stattfindet, wohl ein angriff,lüge, selektierte benchmarks, rosinenpickerei, übertreibungen gegenüber nv stattfindet.

Einen ehrlichen vergleich kannst du nicht ab, immer suchst du nach einer schwachstelle bei nvidia, und auch bei tests in dem grafikkarten von nivdia getestet werden.

Immer ist der lolli auf der suche, habe ehrlich gesagt noch nie gelesen das nvidia etwas gut gemacht hat. Wenn man sich deine posts so durchlese, dann ist die Intention dahinter, das Nvidia einfach scheisse und langsam ist.

Und Ati bei dir komischerweise immer gut wegkommt. Die machen nie was verkehrt.

Geht es nach dir, dann ist sogar das af der radeon dem des g80 überlegen. Und aa ist sowieso ati/amd besser, da wird nvidia deiner meinung nach nie rankommen.

Alle seiten und alle tests sprechen eine deutliche sprache, das af der nivdia ist dem af der ati/amd überlegen.

Wenn ich zurückdenke, wie du am anfang versucht hast, dem af von nv noch irgendwas anzuhängen, aber hauptsache nvidia bashen.

Selbst leute die einen kleinen hang zu ati wie z.b. raff, sehen das das die bildqualität vom g80 dem des r600 überlegen ist.

Ausser du, du lebst weiter in deinem wolkenkuckucksheim und behauptest steif und fest "Bäh ati ist viel besser" du kannst nicht einfach mal neidlos anerkennen das nvida mit dieser generation einfach besser ist. Kann sich doch schon mit dem r700 und g90 wieder ändern, und wenn dann ati wieder besser ist, dann kannst du auch wieder in alle schreien, das ati wieder besser.

Wahrscheinlich gibts dann wieder ein artikel über die schlechte bildqualität von nvidia.

Raff wollte doch eigentlich auch einen machen über r520, wird wahrscheinlich nie veröffentlicht.

Gast
2007-09-13, 10:22:01
Ich versteh zwar deine Äußerung, aber meinst du, es ist so weise, sich so einfach zu provozieren zu lassen? Als Admin, bzw. Crew hat man eine gewisse Verantwortung und sollte sich von so Kleinkinderkram fernhalten. Allerdings nur meine persönliche Meinung.

Das ist übrigens auch der Grund, nur als Gast zu schreiben. Da zählt nur die Aussage, persönlich werden kann da keiner.

Mr. Lolman
2007-09-13, 10:23:13
Ich meine das Ausfransen der ehemals harten Kanten bei Alphatests. Oftmals ist das Zermatschen eine nette Sache. In FarCry scheint's mit EATM aber das LOD zu fetzen und das Gemüse sieht undetailliert aus.

MfG,
Raff

Hm: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5511101&postcount=153

BTW: Serious Sam 2 (4xEATM + Sharpenbias) sieht imo auch weitaus besser aus als mit ASTT (AAA)

reunion
2007-09-13, 10:30:13
mal wieder absichtlich vergessen die einstellungen der ati/amd zu posten, oder ist das nur wieder ein beispiel für selektive wahrnehmung?

Aber hq gegen standard ist ja fair. Kommt ja auf die selbe bildqualität raus, nicht wahr lolli?

HQ ist ein Witz ggü. SSAA, das ist dir aber schon klar?
Während ersteres meist kaum Leistung kostet, kann letzteres die Leistung in Extremsituationen annähernd vierteln.
Aber was sich da die Verantwortlichen gedacht haben, bleibt ohnehin ihr Geheimnis.

Mr. Lolman
2007-09-13, 10:32:30
liegt wohl eher daran lolli, das in fast jedem posting von dir der im grafikkarten forum stattfindet, wohl ein angriff,lüge, selektierte benchmarks, rosinenpickerei, übertreibungen gegenüber nv stattfindet.
[...]

, wird wahrscheinlich nie veröffentlicht.

Bitte das alles zu belegen. Ich eröffne dazu gerne einen neuen Thread dazu im Offtopicforum: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5839424#post5839424

Ich versteh zwar deine Äußerung, aber meinst du, es ist so weise, sich so einfach zu provozieren zu lassen? Als Admin, bzw. Crew hat man eine gewisse Verantwortung und sollte sich von so Kleinkinderkram fernhalten. Allerdings nur meine persönliche Meinung.

Da hast du durchaus recht. Ich werde künftig vermeiden, auf solche Provokation einzugehen, und die betreffenden Posts sofort trashen.


Das ist übrigens auch der Grund, nur als Gast zu schreiben. Da zählt nur die Aussage, persönlich werden kann da keiner.

Damit hast du abermals absolut recht. Bevor ich mich registriet hab, war ich >1/2 Jahr als Gast aktiv. Jetzt bin ich Crewmitglied, jetzt ists zuspät ;)

desert
2007-09-13, 10:38:53
HQ ist ein Witz ggü. SSAA, das ist dir aber schon klar?
Während ersteres meist kaum Leistung kostet, kann letzteren die Leistung in Extremsituationen annähernd vierteln.

also erstmal reden wir hier über tssaa, und das kostet nicht ganz so viel wie reines ssaa oder halt die hybriden. kommt natürlich auch auf das game an, aber mehr als 30 % Prozent werden es wohl selten sein.

Das steht ja auch ausser frage, das das ein schwachsinniger vergleich ist.

Gast
2007-09-13, 12:53:45
In persönlicher Sache: Bitte lass dich mal untersuchen. Dass du in quasi jedem meiner Posts einen Angriff an dein NV-Schatzi siehst, zeugt von fortgeschrittener Paranoia. Das kann imo auf Dauer nicht gesund sein.

Kleiner Hinweis von Gast an Crew: Lass dich nicht dazu hinreißen, persönlich beleidigend zu werden. "Geh mal zum Arzt" ist einfach nicht angebracht.

Gast
2007-09-13, 12:56:55
Da hast du durchaus recht. Ich werde künftig vermeiden, auf solche Provokation einzugehen, und die betreffenden Posts sofort trashen.

Nur der ohne Sünde ist, werfe den ersten Stein.

Meinst du nicht, Kritiker einfach mundtot zu machen, ist der falsche Weg?

Gast
2007-09-13, 13:06:32
also erstmal reden wir hier über tssaa, und das kostet nicht ganz so viel wie reines ssaa oder halt die hybriden. kommt natürlich auch auf das game an, aber mehr als 30 % Prozent werden es wohl selten sein.

Das steht ja auch ausser frage, das das ein schwachsinniger vergleich ist.
Da du einer von der langsamen Sorte zu sein scheinst:
Es geht um das eine Review der Diamond HD2900XT 1 GiB, wo laut Text dié maximal mögliche Bildqualität verwendet werden soll.
Aufhänger Nr. 1 ist wie immer AI Low (= Standard) vs. HQ. Mein Kritikpunkt war aber, dass ATis AAA gegen NVs Transparenz-MSAA getestet wurde. Adaptives AA verwendet grundsätzlich Supersampling-AA für Alphatest-Objekte, was zwar eine sehr gute Bildqualität bringt, aber extrem Leistung kostet (siehe reunions Einwand). Da spielt der Aufhänger Nr. 1 wirklich keine Rolle, wenn AAA mit Supersampling-AA für AT-Objekte gegen Transparenz-MSAA getestet wurde.
Und jetzt erklär mal, warum du Lolman ans Bein pinkelst, nachdem er Coda hingewiesen hat, dass TRMSAA verwendet wurde?

The_Invisible
2007-09-13, 13:38:21
AI off hat auf R5x0 oft sogar sehr viel gekostet, komischerweise habe ich noch keinen einzigen benchmark gesehen mit R600 && AI off

mfg

Gast
2007-09-13, 13:43:33
AI off ist auf R600 ohne Funktion, es wird auch dann AI Standard verwendet. Vermutlich will AMD verhindern, dass es vom R600 AI off Benches gibt.

Thowe
2007-09-13, 13:45:52
Nur der ohne Sünde ist, werfe den ersten Stein.

Meinst du nicht, Kritiker einfach mundtot zu machen, ist der falsche Weg?


Kritik üben ist allerdings auch etwas, dass man können sollte. Dieses "anflamen" ist es sicherlich nicht, denn Kritik bedarf auch der Form und daran mangelt es hier im speziellen. Es gibt sehr wohl einen immensen Unterschied zwischen destruktiver und konstruktiver Kritik. Ersteres bringt nicht, dass andere sehr wohl.

Gast
2007-09-13, 14:07:17
AI off hat auf R5x0 oft sogar sehr viel gekostet, komischerweise habe ich noch keinen einzigen benchmark gesehen mit R600 && AI off

mfg
Darum sollte man es so machen, wie es HT4U eigentlich macht: ein Balken mit AI ein Balken ohne AI samt Hinweis, warum das gemacht wird.
Oder man macht extra Tests mit AI off, wenn es aus der Sicht des Testers nötig ist und den Leser auch darüber aufklärt.
Blinde Tests mit AI on oder off bringen nichts. Aber heute schauen die meisten eh auf die Balken, wen interessiert schon der Text?

mapel110
2007-09-13, 14:12:46
Blinde Tests mit AI on oder off bringen nichts. Aber heute schauen die meisten eh auf die Balken, wen interessiert schon der Text?
Scheint nur leider das Problem zu existieren, dass es beim R600 kaum Unterschiede zwischen AI High, AI low und AI off geben soll.
Hat iirc Ailuros hier vor ein paar Tagen geschrieben.

Gast
2007-09-13, 14:19:30
Scheint nur leider das Problem zu existieren, dass es beim R600 kaum Unterschiede zwischen AI High, AI low und AI off geben soll.
Hat iirc Ailuros hier vor ein paar Tagen geschrieben.
Das bedeutet ja nur, dass die applikationsspezifische Optimierungen nicht deaktiviert werden.
Mir ging's nur darum: Wenn es durch AI low zu deutlichen visuellen Nachteilen kommt, muss der Tester darauf hinweisen und auch einen Balken mit AI off nachreichen. Wenn aber AI low und off gleich schlecht aussehen, dann bringt das Ganze nichts.

Coda
2007-09-13, 14:32:52
Nur die NV-Einstellungen zu posten, ist insofern völlig wertfrei, da Coda bezügl den TRAA-Settings sich geirrt hatte (obwohl sie schon gepostet wurden), und ich diesen Irrtum bereinigen wollte.
Hm komisch, ich war fest davon überzeugt dass das da stand :|

Since we believe that the use of texture filtering optimizations is not justified in this case, especially for high-end graphics solutions, the AMD and Nvidia graphics card drivers were set up to provide the highest possible quality of tri-linear and anisotropic texture filtering.
Das ist in Verbindung mit A.I. aber auch bissel komisch ;)

Schade. Hätte mir mal gewünscht, dass einer gnadenlos mit A.I. Off testet.

Gast
2007-09-13, 14:51:10
also ich kann beim besten willen kein unterschied erkennen mti AI off, high, low sieht alles gleich aus und macht kein unterschied egal in welchem Benchmark oder Spiel x_X
(HD 2900XT)

Gast
2007-09-13, 15:01:54
Könnte aber der R600 wirklich unter Einsatz von TRSSAA noch so gut im doch vor Alphatests lauernden FarCry-Dschungel mit einem G80@TRMSAA mithalten? :|
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_10.html#sect0

das würde mich auch mal interessieren!

Gast
2007-09-13, 15:03:01
Darum sollte man es so machen, wie es HT4U eigentlich macht:

Jo die machen das auch nicht mehr.......Das ist auch gut so,einer der nicht mit einer Lupe an Spiele rangeht sieht kein unterschied.

Gast
2007-09-13, 15:04:26
Könnte aber der R600 wirklich unter Einsatz von TRSSAA noch so gut im doch vor Alphatests lauernden FarCry-Dschungel mit einem G80@TRMSAA mithalten? :|
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_10.html#sect0

Treiberupdate.

AnarchX
2007-09-13, 15:16:59
Treiberupdate.

Was willst du damit ausdrücken?

Gast
2007-09-13, 15:25:33
Kritik üben ist allerdings auch etwas, dass man können sollte. Dieses "anflamen" ist es sicherlich nicht, denn Kritik bedarf auch der Form und daran mangelt es hier im speziellen. Es gibt sehr wohl einen immensen Unterschied zwischen destruktiver und konstruktiver Kritik. Ersteres bringt nicht, dass andere sehr wohl.
Ganz genau, aber das legitimiert - wie von euch Moderatoren ja immer wieder gepredigt - noch lange nicht, den Stein aufzuheben und wieder zurückzuwerfen. Posting melden und gut ist.

Gast
2007-09-13, 15:29:13
Scheint nur leider das Problem zu existieren, dass es beim R600 kaum Unterschiede zwischen AI High, AI low und AI off geben soll.
Hat iirc Ailuros hier vor ein paar Tagen geschrieben.
So ist es auch. Das hat aber sowohl positive als auch negative Gründe.

Mr. Lolman
2007-09-13, 16:06:27
So ist es auch. Das hat aber sowohl positive als auch negative Gründe.

Und zwar?

robbitop
2007-09-13, 16:10:39
Der R600 hält jetzt auch den 3dmark06 Weltrekord: http://www.futuremark.com/community/halloffame/

Die Karten wurden dabei mit satten 1175/950 MHz getaktet. Finde es nach wie vor seltsam, dass die Karte im 3dmark und bei einigen anderen Anwendungen selbst eine 8800U schlägt, und sonst selbt mit der GTS zu kämpfen hat.
Im 3DMark war sogar NV3x sehr gut.

reunion
2007-09-13, 16:25:35
Im 3DMark war sogar NV3x sehr gut.

Ja, nachdem nV auf die DX9-Spezifikationen geschissen, und die Shader ohne FP berechnen ließ. Zu beginn war die Leistung miserabel.

Gast
2007-09-13, 16:27:38
Ja, nachdem nV auf die DX9-Spezifikationen geschissen, und die Shader ohne FP berechnen ließ. Zu beginn war die Leistung miserabel.
Halbe Genauigkeit ist doch ein Teil der DX9-Spezifikation. STALKER lässt alles mit FP16 rechnen, wenn es die Grafikkarte kann.

reunion
2007-09-13, 16:28:28
Halbe Genauigkeit ist doch ein Teil der DX9-Spezifikation. STALKER lässt alles mit FP16 rechnen, wenn es die Grafikkarte kann.

Das war wohl eher FX8 was da zum Einsatz kam.

Gast
2007-09-13, 16:28:31
Halbe Genauigkeit ist doch ein Teil der DX9-Spezifikation. STALKER lässt alles mit FP16 rechnen, wenn es die Grafikkarte kann.
Für die jüngere Generation: http://www.tomshardware.com/de/testen-mit-benchmarks-das-3d-spiel-mit-hase-und-igel,testberichte-636.html

Banshee18
2007-09-13, 17:02:53
Wenn ich zurückdenke, wie du am anfang versucht hast, dem af von nv noch irgendwas anzuhängen, aber hauptsache nvidia bashen.
Dass das AF von ATi bei weitem nicht perfekt ist, weiß jeder, auch Mr. Lolman. Offensichtlich genug ist es ja eigentlich. Deshalb ist es doch sinnvoll, auch mal beim angeblich perfekten Konkurrenten das AF näher zu durchleuchten und zu schauen, ob die nicht ebenfalls bei der Filterqualität oder sonstwo sparen. Afaik war Mr. Lolman auch einer der ersten, der die Filtertricks beim G70 bemerkt hat.

Und jetzt komme mal bitte wieder ein wenig herunter von deinem Mr. Lolman-Bash-Trip.

robbitop
2007-09-13, 17:09:31
Ja, nachdem nV auf die DX9-Spezifikationen geschissen, und die Shader ohne FP berechnen ließ. Zu beginn war die Leistung miserabel.
Jeder IHV nimmt sich die statische 3DM Timedemo zur Brust und tauscht einfach alles so aus und optimiert es so, wie es ihnen am besten in die Architektur passt. Das ist schon lange so und hat wenig mit Spielen zu tun.

Adam D.
2007-09-13, 19:28:28
http://www.firingsquad.com/hardware/enemy_territory_quake_wars_performance/default.asp

Quake Wars Performance-Test mit G80/R600.

Leider mal wieder eines dieser Spiele, die man auf dem R600 vergessen kann - und das trotz extra Hotfix-Treiber ;(

Coda
2007-09-13, 20:11:12
Das war wohl eher FX8 was da zum Einsatz kam.
FX12

mapel110
2007-09-13, 20:11:53
Hm, haben immer mit 16xAF gebencht. Nicht gerade vorteilhaft für die 2900er. Aber da muss die Karte halt durch.

Coda
2007-09-13, 20:30:45
Könnte evtl. auch am Clipmap-Shader liegen für das Terrain. Wer weiß...

Gast
2007-09-13, 20:30:50
http://www.firingsquad.com/hardware/enemy_territory_quake_wars_performance/default.asp

Quake Wars Performance-Test mit G80/R600.

Leider mal wieder eines dieser Spiele, die man auf dem R600 vergessen kann - und das trotz extra Hotfix-Treiber ;(
Was mich stört, sind die Einstellungen im Spiel: http://www.firingsquad.com/hardware/enemy_territory_quake_wars_performance/page2.asp
Siehe Bump/Diffuse/Specs
Warum sind sie nicht auf Anschlag? Warum fehlt da ein Kreuz bei den Softparticles (keine Erklärung)?