Archiv verlassen und diese Seite im Standarddesign anzeigen : bietet R300 noch heute genug Leistung? 2,5 Jahre nach dem release..
Ailuros
2005-03-02, 13:28:40
R300 ;)
Falls Du damit meinen solltest, dass die 9700PRO zwei Jahre nach ihrer Veroeffentlichung immer noch zum high-end zaehlt, stimme ich natuerlich nicht zu. Die 6800nonUltra (mit den ersten noch ziemlich unoptimierten Treibern 61.xx) war durchschnittlich ungefaehr um 30% schneller (Fruehling 2004). Ab 65.xx kamen nochmal ~20% durch die Treiber dazu und seit der 7X.xx Reihe ein weiterer gesunder Schub nach oben (=/>20% je nach Situation).
Ailuros
2005-03-02, 13:33:44
automatisch? Wer erzählt den sowas?
Mal was anderes: bei den AGP Radeons nagelt der Treiber bei bis zu 1GB host ram AGP aperture auf 64MB fest, bei =/>1GB host ram auf 128MB AFAIK. Wie genau sieht es mit der Speicherverwaltung bei PCI-E Varianten aus?
***edit: um es klarer zu machen, limitiert der Treiber bei PCI-E auch die "system memory" Menge (je nach host ram Menge)?
robbitop
2005-03-02, 13:34:54
automatisch? Wer erzählt den sowas?
aha..gut zu wissen, dass es nicht so ist. Habe ich mal gelesen. Quelle müsste ich suchen. Ist ne Weile her.
@AiL
wo rede ich bitte von 2 Jahre High End bleiben? Ließ nochmal. Ich sprach davon, dass eine Karte "ein paar Jährchen halten" soll. Das ist was gaaaaanz Anderes. Die R300 kann mit durchschnittlichem OC heute soziemlich jedes Spiel ohne große Abstriche flüssig spielen.
Ailuros
2005-03-02, 13:45:59
@AiL
wo rede ich bitte von 2 Jahre High End bleiben? Ließ nochmal. Ich sprach davon, dass eine Karte "ein paar Jährchen halten" soll. Das ist was gaaaaanz Anderes. Die R300 kann mit durchschnittlichem OC heute soziemlich jedes Spiel ohne große Abstriche flüssig spielen.
Ich hab folgendes lesen koennen:
robbitop
IMO sollte so eine High End Karte auch mal ein paar Jährchen halten.
Razor
Na ja... HighEnd-Karten 'halten' meist NIE ein paar Jahre, gell?
Und 'HighEnd' bleiben sie max 1/2 Jahr... wenn man Glück hat.
robbitop
R300
Razor's Kommentar war ziemlich klar.
"Grosse Abstriche" ist auch relativ. Durch 2003 konnte man eine R300 fuer high resolution + AA/AF voll benutzen und fuer diese Faehigkeiten hatte sie auch einen enormen Vorsprung am Angang im Vergleich zur NV25. Der hauptsaechliche Abstrich mit der Zeit kommt eben gerade da, wofuer die Karte hauptsaechlich vermarktet wurde.
Ailuros
2005-03-02, 13:49:42
AFAIK ist das mit PCIe alles etwas dynamischer machbar. Der Treiber kann da theoretisch jederzeit etwas umdisponieren.
AGP texturing wurde in der Vergangenheit mit Absicht bei den vorerwaehnten Werten festgenagelt, weil sie irgendwelche Kombatibilitaets-probleme hatten. Das heisst wohl dass bei PCI-E fuer ATI nicht die gleichen Kopfschmerzen angesagt sind? In beiden Faellen wird das Zeug ja sowieso vom Speicher verwaltet.
***edit:
der Thread hier:
http://www.beyond3d.com/forum/viewtopic.php?t=20315
....hilft mir auch nicht besonders weiter....
robbitop
2005-03-02, 13:50:24
naja zutrauen solltest du mir schon, dass mir bewußt ist, dass R300 kein High End mehr ist ;)
somit steht das gar nicht zur Debatte *gg*
Also mit eine standardmäßig übertakteten R300 (@380/340) kann ich bei einem Freund soziemlich jedes Spiel mit voller Qualität spielen @1280.
Das bedeutet bei mir, dass die Karte 2,5 Jahre bisher gehalten hat.
Wäre sie High End, könnte man heute noch in 16x12 spielen. Aber genau das habe ich in keinem Satz behauptet. Fakt ist, R300 hielt sich sehr lange und genau das wäre meine Zielstellung: Heute HighEnd kaufen und in 2 Jahren noch alles spielen können.
Ailuros
2005-03-02, 14:10:22
naja zutrauen solltest du mir schon, dass mir bewußt ist, dass R300 kein High End mehr ist ;)
somit steht das gar nicht zur Debatte *gg*
Also mit eine standardmäßig übertakteten R300 (@380/340) kann ich bei einem Freund soziemlich jedes Spiel mit voller Qualität spielen @1280.
Das bedeutet bei mir, dass die Karte 2,5 Jahre bisher gehalten hat.
Wäre sie High End, könnte man heute noch in 16x12 spielen. Aber genau das habe ich in keinem Satz behauptet. Fakt ist, R300 hielt sich sehr lange und genau das wäre meine Zielstellung: Heute HighEnd kaufen und in 2 Jahren noch alles spielen können.
1280/high quality (ohne AA) in Doom3 z.B.?
R300 war bei der Vorstellung in der Mehrzahl der Applikationen mit 4xAA/16xAF bis zu 1280 absolut spielbar.
Schon Far Cry war bei mir mit reduzierten in game settings und 2xAA/4xAF gerade noch in 1152*864*32 spielbar.
Hier geht es nicht ob man Spiele damit spielen kann, sondern wie. Man kann eben nach einer gewissen Zeit die Vorteile mit der die Karte vermarktet wurde nicht mehr benutzen. Mit Deiner Logik haelt die R300 noch viel laenger als 2.5 Jahre am Ende aus, man muss eben nur die Aufloesung weiterhin reduzieren.
robbitop
2005-03-02, 14:13:25
1280/high quality (ohne AA) in Doom3 z.B.?
R300 war bei der Vorstellung in der Mehrzahl der Applikationen mit 4xAA/16xAF bis zu 1280 absolut spielbar.
Schon Far Cry war bei mir mit reduzierten in game settings und 2xAA/4xAF gerade noch in 1152*864*32 spielbar.
Hier geht es nicht ob man Spiele damit spielen kann, sondern wie. Man kann eben nach einer gewissen Zeit die Vorteile mit der die Karte vermarktet wurde nicht mehr benutzen. Mit Deiner Logik haelt die R300 noch viel laenger als 2.5 Jahre am Ende aus, man muss eben nur die Aufloesung weiterhin reduzieren.
Ich gehe nach meinem subjektivem Empfinden. Und danach ist diese noch gut spielbar. Eine NV25 ist hingegen in meinen Augen nicht mehr. Eine 9600XT ist auch gerade so noch gut spielbar.
Ailuros
2005-03-02, 14:30:26
Ich gehe nach meinem subjektivem Empfinden. Und danach ist diese noch gut spielbar. Eine NV25 ist hingegen in meinen Augen nicht mehr. Eine 9600XT ist auch gerade so noch gut spielbar.
NV25 ist ja auch ~4 Jahre alt. Die Subjektivitaet im befragten Doom3 Fall fuer HQ/1280 liegt wohl bei ~25fps hm?
robbitop
2005-03-02, 15:01:46
NV25 ist ja auch ~4 Jahre alt. Die Subjektivitaet im befragten Doom3 Fall fuer HQ/1280 liegt wohl bei ~25fps hm?
3 Jahre alt.
Doom 3 spiele ich nicht und das ist auch kein Maßstab. Wie stehts mit HL2 und Far Cry? Die laufen beide recht nett mit einer R9700pro@9800pro.
Ailuros
2005-03-02, 15:02:42
+100% mehr Die Fläche ;)
Stimmt; ich hab aber an ganz was anderes gedacht ;)
robbitop
2005-03-02, 15:04:08
So lange AA nicht eingeschaltet ist ja, wobei AA Leistung nach einer gewissen Aufloesung egal sein sollte fuer mainstream Loesungen.
Uebrigens sind bei der 6800nonU alle 16 ROPs aktiv, bei der 6800LE keine Ahnung (ich kann's herausfinden aber bin zu faul dazu).
http://www.techreport.com/reviews/2004q3/geforce-6600gt/index.x?pg=5
http://www.techreport.com/reviews/2004q3/geforce-6600gt/index.x?pg=10
Ein theoretischer "NV47" wuerde aber trotz allem wohl nicht mehr als 16 ROPs haben, bei 24 SIMD Kanaelen.
1. nur, wenn bilineares ST zum Einsatz kommt oder massiv alphablending. Inzwischen dauert die Berechnung eines Pixels einfach so lange, dass das kaum mehr eine Bedeutung in der Praxis spielt.
2. so? warum hätte ein NV47 genau 16 ROPs? Teuer sind die nicht. Und im HighEnd Bereicht wurde daran nie gespart IIRC.
Ailuros
2005-03-02, 15:13:16
3 Jahre alt.
Doom 3 spiele ich nicht und das ist auch kein Maßstab. Wie stehts mit HL2 und Far Cry? Die laufen beide recht nett mit einer R9700pro@9800pro.
Far Cry Leistung habe ich schon oben erwaehnt. Solche Spiele ohne zumindest einen kleinen Schuss von AA/AF sind eine verwaschene Grusel-Zumutung. 1152*864 + 2xAA/4xAF und reduzierten in game settings.
Falls eine R300 mit 2xAA/2xAF zumindest nicht mehr spielbar ist, wird noAA/AF sowieso nicht besonders besser sein.
Was soll mit HL2 sein? Ist auch nicht viel besser als bei Far Cry. Was Doom3 betrifft, entfaellt Deiner Liste bestimmt auch jegliche andere Applikation die der Karte nicht besonders bekommt.
robbitop
2005-03-02, 15:14:12
Ist eine Graka bei der du den Chip um 20% übertaktest wirklich immer um 20% schneller?
Im übrigen hat einen X800XT einen geringeren Speichertakt als eine 6800U.
Die Effizienz sicher nicht irrelevant, nur wird diese beim NV40 oft überschätzt. Zum einen geht R420 nicht selten die Bandbreite aus, und zum anderen glauben viele +10% mehr Takt ist gelich +10% mehr Leistung
Die R420 gewinnt allerdings nur in Füllratenlimitierten Settings mit deutlichem Abstand (oder bei sabortierten Shadern aka HL2). Denn ATI spart 1. mehr Füllrate beim AF (haben sie klasse hinbekommen) und 2. haben sie 33% mehr Füllrate resultierend durch den Takt. Wenn das bei 16xAF nicht durchschlagen würde, wäre es auch schlimm.
Die Effizienz des NV4x ist nur bei aritmetik sehr hoch. Und da aritmetik heutzutage noch kein allzugroßer Flaschenhals in der Praxis ist, sieht man davon noch nichts.
robbitop
2005-03-02, 15:17:55
Far Cry Leistung habe ich schon oben erwaehnt. Solche Spiele ohne zumindest einen kleinen Schuss von AA/AF sind eine verwaschene Grusel-Zumutung. 1152*864 + 2xAA/4xAF und reduzierten in game settings.
Falls eine R300 mit 2xAA/2xAF zumindest nicht mehr spielbar ist, wird noAA/AF sowieso nicht besonders besser sein.
Was soll mit HL2 sein? Ist auch nicht viel besser als bei Far Cry. Was Doom3 betrifft, entfaellt Deiner Liste bestimmt auch jegliche andere Applikation die der Karte nicht besonders bekommt.
Dann hast du was falsch gemacht. Sogar auf meiner ach so lahmen FX5900 konnte ich Far Cry mit maximum Details und 2xAA und 4xAF spielen. Bei einem Freund mit einer R300@350 ging das auf 1280 auch. HL2 ebenso. Wie gesagt, wir waren zufrieden und überrascht von seiner alten R300. Aber vieleicht bin ich da auch zu genügsam.
Ailuros
2005-03-02, 15:18:20
Halbwegs spielbar ist es aber nichtmal auf ner GF6800U mit den Eyecandy's (1280x1024), zumindest sind die min. FPS sehr weit unten ;)
Die Effekte lassen sich ja bei bedarf einzeln abschalten, also wieso nicht das ganze auch auf SM2.0-Basis zur Verfügung stellen? Ich glaube nicht das es schlechter aussehen würde. Wie es mit dem Speed aussieht werden wir wohl nie erfahren, da kann man nur schätzen.
Da es aber selbst auf SM3.0 Karten nicht wirklich flüssig spielbar ist (Außer vlt. in 800x600?) erübrigt sich auch dein Arugment mit den halbwegs spielbaren Frameraten ;)
Ich glaube wir sind schon wieder im OT-Bereich ;)
Float HDR ist kein SM30 Effekt; die letzten Messungen die ich gesehen habe was Splinter Cell 3 und 2xAA/8xAF in 1280 betraf, waren es ~32fps fuer SM3.0/6800U (kein HDR) und ~37fps fuer SM1.1/X800XT PE.
mapel110
2005-03-02, 15:20:22
Dann hast du was falsch gemacht. Sogar auf meiner ach so lahmen FX5900 konnte ich Far Cry mit maximum Details und 2xAA und 4xAF spielen. Bei einem Freund mit einer R300@350 ging das auf 1280 auch. HL2 ebenso. Wie gesagt, wir waren zufrieden und überrascht von seiner alten R300. Aber vieleicht bin ich da auch zu genügsam.
Ack!
Float HDR ist kein SM30 Effekt; die letzten Messungen die ich gesehen habe was Splinter Cell 3 und 2xAA/8xAF in 1280 betraf, waren es ~32fps fuer SM3.0/6800U (kein HDR) und ~37fps fuer SM1.1/X800XT PE.
Danke, wenn der FW 75.90 keine Probs machen würde und SC3 bei mir nicht im Fenstermodus laufen würde, könnte ichs nochmal austesten.
Spielbar wars auf jedenfall. HDR ohne AA auch.
mapel110
2005-03-02, 15:24:45
32FPS durchschnitt oder min. FPS? Wobei ich von max. Details ausgegangen bin, also auch HDR.
durchschnittliche FPS, und jetzt willst du dann noch behaupten, dass 5 fps mehr (37 fps der XT PE) viel besser spielbar seien und die min-fps auf Radeons sowieso weit höher liegen, was?!
Ailuros
2005-03-02, 15:29:16
Dann hast du was falsch gemacht. Sogar auf meiner ach so lahmen FX5900 konnte ich Far Cry mit maximum Details und 2xAA und 4xAF spielen. Bei einem Freund mit einer R300@350 ging das auf 1280 auch. HL2 ebenso. Wie gesagt, wir waren zufrieden und überrascht von seiner alten R300. Aber vieleicht bin ich da auch zu genügsam.
Dann miss um Himmels Willen das Zeug erstmal nach. Mir ist egal was angeblich bei jedem geht, meine Messungen und Echtzeit-Erfahrungen zeigen bei einem XP3000+ und 1024MB Speicher nichts dergleichen an. Mehr CPU-power bringt auf diesen Karten sowieso nicht mehr viel.
http://www.3dcenter.de/artikel/r420_benchmarks/index17.php
Eine 5950 liefert in 1280 mit 2xAA/4xAF gerade noch 26.7 fps, 33.8fps fuer eine 9800XT@412MHz.
Noch besser miss mir mal die minimalen Frameraten ab. Und dabei haben all diese timedemos fuer Far Cry nicht mal einen einzigen Gegner der auf einen losballert :rolleyes:
robbitop
2005-03-02, 15:37:49
Dann miss um Himmels Willen das Zeug erstmal nach. Mir ist egal was angeblich bei jedem geht, meine Messungen und Echtzeit-Erfahrungen zeigen bei einem XP3000+ und 1024MB Speicher nichts dergleichen an. Mehr CPU-power bringt auf diesen Karten sowieso nicht mehr viel.
http://www.3dcenter.de/artikel/r420_benchmarks/index17.php
Eine 5950 liefert in 1280 mit 2xAA/4xAF gerade noch 26.7 fps, 33.8fps fuer eine 9800XT@412MHz.
Noch besser miss mir mal die minimalen Frameraten ab. Und dabei haben all diese timedemos fuer Far Cry nicht mal einen einzigen Gegner der auf einen losballert :rolleyes:
Dazu müsste ich mir ersteinmal die Hardware besorgen und das ist es mir in diesem Falle nicht wert. Ich muss hier niemandem etwas beweisen. Ich beschreibe meinen subjektiven Spieleindruck. Und der war in aktuellen Spielen überraschend gut. Glaub es oder lass es. EOD für mich.
Frag mal Leute, wie Raff, die auch nur eine 9800PRO haben. Die können dir Haargenau zeigen, dass die meisten heutigen Spiele damit noch klasse laufen. Eine 9700PRO @380/340 sollte ja genauso schnell sein. Oder besser noch ließ seinen Cat Vergleich.
Ailuros
2005-03-02, 15:40:26
@Ailuros
Hast du das mit Fraps gemessen? Also einmal die Demo durchgespielt und dabei den Benchmarkmodus von Fraps laufen gelassen? Würde das auch gerne mal bei mir testen (Verschiedene Settings).
Nicht ich selber. Es ist von einem Kerl der beide Karten hat und das Zeug tatsaechlich mit FRAPS abgemessen hat und das von der extremsten Stelle die er finden konnte.
SM1.1 auf NV40 duerfte sogar leicht langsamer sein als SM3.0.
Ailuros
2005-03-02, 15:54:41
Dazu müsste ich mir ersteinmal die Hardware besorgen und das ist es mir in diesem Falle nicht wert. Ich muss hier niemandem etwas beweisen. Ich beschreibe meinen subjektiven Spieleindruck. Und der war in aktuellen Spielen überraschend gut. Glaub es oder lass es. EOD für mich.
Frag mal Leute, wie Raff, die auch nur eine 9800PRO haben. Die können dir Haargenau zeigen, dass die meisten heutigen Spiele damit noch klasse laufen. Eine 9700PRO @380/340 sollte ja genauso schnell sein. Oder besser noch ließ seinen Cat Vergleich.
robbi,
Ich hab die Karte und ich hab sie so ziemlich durch jeden moeglichen Stresstest rennen lassen und hab mit dem Ding auch mehr als ein Jahr konstant allerlei Spiele gespielt. Schon seit Ewigkeiten hoere ich konstant wie toll A oder B in diesem oder jenem Fall laufen soll und am Ende wird in 99% der Faelle uebertrieben oder es waren dann doch reduzierte settings am Ende. Fuer eine Karte die ich so lange benutzt habe, braucht mir keiner einreden zu was sie gut ist und was nicht.
Ich hoerte auch von jemand als anderes Beispiel wie toll seine X800XT PE in 1600 mit 4xAA/16xAF in UT2k4 laufen wuerde. Als ich nach ONS-maps Leistung fragte, wurde wohl schnell der erste Eindruck schnell um einiges reduziert. Wer sich auf "best case scenarios" begrenzen will, ist es natuerlich subjektive Ansichtssache, aber ich (genauso wie Leo als Beispiel) ballere nicht auf leere Waende.
Wenn ich was abschalte dann gebe ich es auch an und mit seltenen Aussnahmen, spiele ich heute die Mehrzahl der Spiele in 1280 mit 2xAA/8xAF auf einer 16p/6vs@350/435 6800 und dabei sind HL2 oder FC keine Aussnahmen. Renn-simulations Spiele dann meistens eben in 1600 mit oefters mehr AA. Die Fuellrate/Bandbreite und Geometrie-througput kannst Du Dir ja auf rein theoretischer Basis ausrechnen.
Ist eine Graka die du um 20% übertaktest wirklich um 20% schneller?Bei GPUs ist das eigentlich schon so, wenn man die Speicherbandbreite gleich mitskaliert.
robbitop
2005-03-02, 16:04:22
robbi,
Ich hab die Karte und ich hab sie so ziemlich durch jeden moeglichen Stresstest rennen lassen und hab mit dem Ding auch mehr als ein Jahr konstant allerlei Spiele gespielt. Schon seit Ewigkeiten hoere ich konstant wie toll A oder B in diesem oder jenem Fall laufen soll und am Ende wird in 99% der Faelle uebertrieben oder es waren dann doch reduzierte settings am Ende. Fuer eine Karte die ich so lange benutzt habe, braucht mir keiner einreden zu was sie gut ist und was nicht.
Ich hoerte auch von jemand als anderes Beispiel wie toll seine X800XT PE in 1600 mit 4xAA/16xAF in UT2k4 laufen wuerde. Als ich nach ONS-maps Leistung fragte, wurde wohl schnell der erste Eindruck schnell um einiges reduziert. Wer sich auf "best case scenarios" begrenzen will, ist es natuerlich subjektive Ansichtssache, aber ich (genauso wie Leo als Beispiel) ballere nicht auf leere Waende.
Wenn ich was abschalte dann gebe ich es auch an und mit seltenen Aussnahmen, spiele ich heute die Mehrzahl der Spiele in 1280 mit 2xAA/8xAF auf einer 16p/6vs@350/435 6800 und dabei sind HL2 oder FC keine Aussnahmen. Renn-simulations Spiele dann meistens eben in 1600 mit oefters mehr AA. Die Fuellrate/Bandbreite und Geometrie-througput kannst Du Dir ja auf rein theoretischer Basis ausrechnen.
Klar, das ganze ist aber auch sehr subjektiv, musst du zugeben.
naja durchgehend jedes neue Spiel bei 1280 bei 2xAA/4xtriAF schafft sie nicht (9800pro Takt..deine auch?). Aber die meisten schon. Ab und an gibts mal den einen oder anderen Slowdown, aber solange das nicht zu häufig ist, stört mich das nicht. Wenn es so häufig ist, dass es mich stört, ist das setting nicht mehr spielbar und ich wähle ein niedrigereres.
Besonders Lolman und Raff zeigen oft genug in diesem Board, wie Fit ein R3xx unter Umständen noch sein kann.
Ich denke die Wahrheit liegt im Auge des Betrachters. Für einen 17" TFT Besitzer wäre eine R300@9800pro heute schon an der Grenze (AA/AF reduzieren oder gar aus ...details reduzieren), für einen Röhrenbesitzer hingegen nicht. Denn spätestens auf 1024 läuft wieder alles super :up:
Razor
2005-03-02, 17:55:50
naja zutrauen solltest du mir schon, dass mir bewußt ist, dass R300 kein High End mehr ist ;)
somit steht das gar nicht zur Debatte *gg*
Also mit eine standardmäßig übertakteten R300 (@380/340) kann ich bei einem Freund soziemlich jedes Spiel mit voller Qualität spielen @1280.
Das bedeutet bei mir, dass die Karte 2,5 Jahre bisher gehalten hat.
Wäre sie High End, könnte man heute noch in 16x12 spielen. Aber genau das habe ich in keinem Satz behauptet. Fakt ist, R300 hielt sich sehr lange und genau das wäre meine Zielstellung: Heute HighEnd kaufen und in 2 Jahren noch alles spielen können.Ausnahmen bestätigen die Regel...
Vielleicht hast Du meinen Kommentar einfach nicht richtig interpretiert?
Wer sich HighEnd-Karten kauft, tut dies meist (also nicht immer ;-) alle halbe Jahre, um eben wieder "HighEnd" zu haben.
Auch meine gf3 hat gute 2 Jahre 'gehalten' und auch am Ende war so ziemlich alles noch in voller Qualiät einigermaßen flüssig spielbar (auch diese war dann übertaktet ;-). Ist also bei weitem keine Ausnahme, sondern schon fast eine Regel... wenn... ja wenn man sie denn auch tatsächlich 2 Jahre (und mehr) halten würde. Und 'Abstriche' macht man im übrigen auch schon so nach einem Jahr (oder früher), da man sich dann schon überlegt, ob man die höchste AA-Stufe dazu schalten muss... AF immer trilinear sein muss (Lolmann gibt hier recht freizügig auskunft ;-) etcpp. Ich z.Bsp. hätte schon abstriche in Kauf nehmen müssen, wenn ich mich für eine ATI entschieden hätte... nicht in Punkto Leistung, um hier klar zu reden... aber das steht wiederum auf einem anderen Blatt...
Trotzdem stellt sich die Frage, ob nicht 2-3x Midrange (wertmäßig locker 1x HighEnd ;-) besser gewesen wäre, weils dann kontinuierlich druchschnittliche Leistung gegeben hätte und nicht das 3-Stufen-Programm: HighEnd -> Midrange -> LowEnd.
Und sein wir doch mal ehrlich, eine R300 (auch übertaktet) ist heute nicht einmal mehr Midrange... sprich: kein Vergleich zu Karten, die für 170 Tacken und weniger zu haben sind. Und den technologischen Level sprechen wir hier noch gar nicht an...
Razor
seahawk
2005-03-02, 18:31:25
Würde ich nicht sagen. Ne R300 ist erst jetzt langam an dem Punkt an dem man sie ersetzen sollte. Wennn man sie für 300-400 gekaut hat, dann entspricht das um 150 Euro pro Jahr.
Ich nutze meine High-End-Karten immer ca. 2 Jahre. Ich kaufe die ersten Chips einer neune Generation, wenn die ersten Refreshs raus sind. Das hat bei ger GeForce 3 gut funktioniert und auch bei der R300.
Schwieriger ist die Entscheidung momentan X800XL gegen 6800GT. Tendenz müßte eigentlich zur GT gehen. Aber das ist jetzt zu OT.
robbitop
2005-03-02, 19:02:12
och ein R300 übertaktet ist schon noch midrange.
Razor
2005-03-02, 19:06:02
och ein R300 übertaktet ist schon noch midrange.Upper LowEnd oder Lower Midrange würde ich sagen.
Schließlich tummelt sie sich dort mit X800, X700, 6800LE, 6600/GT...
Und alle hier genannten Karten schlagen die R300 (auch einen R350 ;-) um Längen.
Razor
P.S.: auch hier bestätigen Ausnahmen die Regel... ;)
Exxtreme
2005-03-02, 19:54:44
Ist trotzdem erstaunlich wie gut man mit einem R300 immer noch zocken kann. Klar ist 1600x1200 nicht mehr drinne. Aber 1280x960 ist meist problemlos möglich.
robbitop
2005-03-02, 20:08:54
Upper LowEnd oder Lower Midrange würde ich sagen.
Schließlich tummelt sie sich dort mit X800, X700, 6800LE, 6600/GT...
Und alle hier genannten Karten schlagen die R300 (auch einen R350 ;-) um Längen.
Razor
P.S.: auch hier bestätigen Ausnahmen die Regel... ;)
och gegen ne X700 und ne X700pro kommt eine 9800pro schon ran.
reunion
2005-03-02, 20:58:28
Ist trotzdem erstaunlich wie gut man mit einem R300 immer noch zocken kann. Klar ist 1600x1200 nicht mehr drinne. Aber 1280x960 ist meist problemlos möglich.
ACK, ich habe mir gleich zu beginn eine 9700pro gekauft und kann selbst jetzt 2,5 Jahre später noch jedes Spiel in 1024x768 plus 2xAA/4xfulltri AF flüssig spielen. Solange hat bis jetzt weder die Voodoo3 noch die Geforce3 gehalten.
dildo4u
2005-03-02, 21:00:04
ACK, ich habe mir gleich zu beginn eine 9700pro gekauft und kann selbst jetzt 2,5 Jahre später noch jedes Spiel in 1024x768 plus 2xAA/4xfulltri AF flüssig spielen. Solange hat bis jetzt weder die Voodoo3 noch die Geforce3 gehalten.
Aber nicht mit allen Details
reunion
2005-03-02, 21:01:55
Aber nicht mit allen Details
Bis auf weniger Ausnahmen schon, klar HDR kann ich nirgends aktivieren und in Doom3 verzichte ich auf "Ultra Quality", was allerdings kaum einen Unterschied macht.
seahawk
2005-03-02, 21:13:20
1024x768 mit High Details ging bei mir bis jetzt immer flüssig.
dildo4u
2005-03-02, 21:15:09
1024x768 mit High Details ging bei mir bis jetzt immer flüssig.
Bei Farcry(HDR) oder SplinterCell3 kannst du nicht die hösten details einstellen.
deekey777
2005-03-02, 21:17:48
Ihr habt Far Cry vergessen - hier heißt es entweder AA oder Schatten auf Hoch. ;)
Und HL2 brauche gar nicht zu erwähnen. Doom3? High Quality, aber ohne AA.
(Alles 1024er Auflösung, 9800Pro.)
€: Natürlich habe ich auch mitgekriegt, daß hier von der 9700Pro geredet wird.
dildo4u
2005-03-02, 21:21:02
Ihr habt Far Cry vergessen - hier heißt es entweder AA oder Schatten auf Hoch. ;)
Und HL2 brauche gar nicht zu erwähnen. Doom3? High Quality, aber ohne AA.
(Alles 1024er Auflösung, 9800Pro.)
€: Natürlich habe ich auch mitgekriegt, daß hier von der 9700Pro geredet wird.
Jo und da 17TFTs immer günstiger werden ist whol eher 1280*1024 die auflösung der wahl bei einem Gamer heuzutage würde ich jetzt einfach mal so behaupten.
Botcruscher
2005-03-02, 22:01:15
Bei Farcry(HDR) oder SplinterCell3 kannst du nicht die hösten details einstellen.
Das eine ist (noch) eine Technikspielerei und das andere bestenfalls eine Demo die durch die Entwickler "begrenzt" wurde.
Für eine 2.5 Jahre alte GraKa ist das schon nicht schlecht.
dildo4u
2005-03-02, 22:04:44
Das eine ist (noch) eine Technikspielerei und das andere bestenfalls eine Demo die durch die Entwickler "begrenzt" wurde.
Auch die vollversion von SC3 hat keinen SM2.0 support.Ich weiss selber das die 9700pro eine gute karte ist war hatte sie selber 1.5jahre aber als mein TFT Doom3 Farcry und der "zwang" zu 1280*1024 kam war einfach nicht mher genug Speed da da ich gerne mit 4XAA zocke.
Ähem. Jetzt muss ich als R350-User auch noch mal etwas dazu loswerden (Robbi hat mich ja schon genannt). ;)
Meine Karte ist zwar mit Takten im Bereich 450/400 um etwa 20% schneller als eine Serien-9800 Pro, aber was mit letzterer ruckelt, das tut es mit meiner auch.
Und, das muss ich ehrlich zugeben: Ich war bisher von keiner Grafikkarte seit der Voodoo3 derart beeindruckt wie von dieser hier. Alle R300-Nutzer der ersten Stunde wissen, was ich meine: Neue Spiele erscheinen munter, und trotzdem rennt die schon vor Ewigkeiten erstandene Karte als wäre sie brandneu. Neuere Treiber verhelfen bei anspruchsvollen (Hype-) Games zu neuen Höhenflügen und es gibt keinen Grund, die Karte zu ersetzen.
Wer noch ein paar Beweisbenchmarks will, der kann gerne im Benchforum hier nach Werten gucken oder ich fahre noch ein paar. :) Was ich aber sagen kann: Auch eine unübertaktete Radeon 9800 Pro gehört noch lange nicht zum alten Eisen (bzw. Silizium)!
Alle Spiele, die es auf meinen Rechner geschafft haben, laufen mit maximalen Details (PS2.0) in 1024x768x32 mit 2xAA/4xTriAF durchgehend flüssig, wenn man mal von Optimierungs-Verpassern wie MoH: Pacific Assault absieht. Und Riddick, das laut Lolman auch arg lahmt. Werde ich mich bald selbst von überzeugen.
Midrange auf dem Niveau einer 6600GT IMHO.
Just my 2 cents ...
MfG,
Raff
robbitop
2005-03-02, 22:11:27
hach da spricht mir jemand aus der Seele :)
G.a.s.t.
2005-03-02, 22:48:59
...aber von einer übertakteten R9800p.
Wie wärs mal mit der Probe auf's Exempel: Taktraten einer 9700p und 1280x1024 (wahlweise mit AA/AF)
wuddu
2005-03-02, 23:34:51
Ähem. Jetzt muss ich als R350-User auch noch mal etwas dazu loswerden (Robbi hat mich ja schon genannt). ;)
Meine Karte ist zwar mit Takten im Bereich 450/400 um etwa 20% schneller als eine Serien-9800 Pro, aber was mit letzterer ruckelt, das tut es mit meiner auch.
Und, das muss ich ehrlich zugeben: Ich war bisher von keiner Grafikkarte seit der Voodoo3 derart beeindruckt wie von dieser hier. Alle R300-Nutzer der ersten Stunde wissen, was ich meine: Neue Spiele erscheinen munter, und trotzdem rennt die schon vor Ewigkeiten erstandene Karte als wäre sie brandneu. Neuere Treiber verhelfen bei anspruchsvollen (Hype-) Games zu neuen Höhenflügen und es gibt keinen Grund, die Karte zu ersetzen.
Wer noch ein paar Beweisbenchmarks will, der kann gerne im Benchforum hier nach Werten gucken oder ich fahre noch ein paar. :) Was ich aber sagen kann: Auch eine unübertaktete Radeon 9800 Pro gehört noch lange nicht zum alten Eisen (bzw. Silizium)!
Alle Spiele, die es auf meinen Rechner geschafft haben, laufen mit maximalen Details (PS2.0) in 1024x768x32 mit 2xAA/4xTriAF durchgehend flüssig, wenn man mal von Optimierungs-Verpassern wie MoH: Pacific Assault absieht. Und Riddick, das laut Lolman auch arg lahmt. Werde ich mich bald selbst von überzeugen.
Midrange auf dem Niveau einer 6600GT IMHO.
Just my 2 cents ...
MfG,
Raff
Full Ack!
Ailuros
2005-03-03, 04:02:51
Ähem. Jetzt muss ich als R350-User auch noch mal etwas dazu loswerden (Robbi hat mich ja schon genannt). ;)
Meine Karte ist zwar mit Takten im Bereich 450/400 um etwa 20% schneller als eine Serien-9800 Pro, aber was mit letzterer ruckelt, das tut es mit meiner auch.
Und, das muss ich ehrlich zugeben: Ich war bisher von keiner Grafikkarte seit der Voodoo3 derart beeindruckt wie von dieser hier. Alle R300-Nutzer der ersten Stunde wissen, was ich meine: Neue Spiele erscheinen munter, und trotzdem rennt die schon vor Ewigkeiten erstandene Karte als wäre sie brandneu. Neuere Treiber verhelfen bei anspruchsvollen (Hype-) Games zu neuen Höhenflügen und es gibt keinen Grund, die Karte zu ersetzen.
Wer noch ein paar Beweisbenchmarks will, der kann gerne im Benchforum hier nach Werten gucken oder ich fahre noch ein paar. :) Was ich aber sagen kann: Auch eine unübertaktete Radeon 9800 Pro gehört noch lange nicht zum alten Eisen (bzw. Silizium)!
Alle Spiele, die es auf meinen Rechner geschafft haben, laufen mit maximalen Details (PS2.0) in 1024x768x32 mit 2xAA/4xTriAF durchgehend flüssig, wenn man mal von Optimierungs-Verpassern wie MoH: Pacific Assault absieht. Und Riddick, das laut Lolman auch arg lahmt. Werde ich mich bald selbst von überzeugen.
Midrange auf dem Niveau einer 6600GT IMHO.
Just my 2 cents ...
MfG,
Raff
Nur ging es hier um eine uebertaktete 9700PRO und zweitens um 1280.
Es ging hier um keinen Fall darueber ob man etwas ersetzen muss oder nicht, da robbi die besagte Karte erstmal gar nicht besitzt. Der Genauigkeit zu Liebe hatte er eine 5900 als ich u.a. ueber die R300 damals schwaermte.
Meine Meinung zu der Karte und meine damaligen Aussagen kann man leicht nachschlagen; verteidigen braucht mir die Karte keiner, aber ich hab auch einen gewissen Koller gegen Uebertreibungen.
Ailuros
2005-03-03, 04:05:24
hach da spricht mir jemand aus der Seele :)
So in etwa?
Alle Spiele, die es auf meinen Rechner geschafft haben, laufen mit maximalen Details (PS2.0) in 1024x768x32 mit 2xAA/4xTriAF durchgehend flüssig....
Jetzt schlag mal bitte nach was ich genau gesagt habe und warum ich gegen diesen Satz keinen einzigen Einwand habe.
robbitop
2005-03-03, 08:26:46
ich rede ja von einer 9700pro@9800pro ;).
Und AiL du irrst, ich hatte ein paar Monate eine R300. War eine 9500@8Pipes mit 370/345. Aber auch meine 5900 @550/450 hat mich bis vor Kurzem noch glücklich gemacht (bis auf FC).
seahawk
2005-03-03, 10:03:46
Bei Farcry(HDR) oder SplinterCell3 kannst du nicht die hösten details einstellen.
Natürlich, aber das schaffen auch einige akutelle High-End-Karte nicht. Oder auch High-End-Karten der letzten Generation (5950 und 9800XT)
Mr. Lolman
2005-03-03, 10:19:34
Ihr habt Far Cry vergessen - hier heißt es entweder AA oder Schatten auf Hoch. ;)
Und HL2 brauche gar nicht zu erwähnen. Doom3? High Quality, aber ohne AA.
(Alles 1024er Auflösung, 9800Pro.)
€: Natürlich habe ich auch mitgekriegt, daß hier von der 9700Pro geredet wird.
Hm, Farcry hab ich mit max Details in 1024 und 4xAA/4xbiAF gespielt und D³ in HQ mit 2xAA/8xAF (~40fps bei demo001)
deekey777
2005-03-03, 11:15:08
Hm, Farcry hab ich mit max Details in 1024 und 4xAA/4xbiAF gespielt und D³ in HQ mit 2xAA/8xAF (~40fps bei demo001)
Deine CPU hat aber mehr PS.
Nur ging es hier um eine uebertaktete 9700PRO und zweitens um 1280.
Es ging hier um keinen Fall darueber ob man etwas ersetzen muss oder nicht, da robbi die besagte Karte erstmal gar nicht besitzt. Der Genauigkeit zu Liebe hatte er eine 5900 als ich u.a. ueber die R300 damals schwaermte.
Meine Meinung zu der Karte und meine damaligen Aussagen kann man leicht nachschlagen; verteidigen braucht mir die Karte keiner, aber ich hab auch einen gewissen Koller gegen Uebertreibungen.
Ich übertreibe nicht, sondern meine das ernst. 15 fps ist bei mir nicht flüssig. ;)
Für 1280x1024x32 mit 2xAA/4xAF reicht's meist auch, beispielsweise in FarCry. In Doom³ wird's in diesen Settings dann aber definitiv an einigen Stellen zu eng, mit FPS im 20er-Bereich.
Ok, ändert nichts an der Tatsache, dass du eine 9700 Pro meintest -- mit welchem Takt?
MfG,
Raff
Gääässssttt
2005-03-03, 11:46:40
Ich haben FarCry ebenfalls mit 2xAA 8xAF in 1280x1024 gespielt, und D3 ohne AA aber mit 8xAF in 1280x1024, ohne Probleme.
Gassssttttt
2005-03-03, 11:47:06
Ich haben FarCry ebenfalls mit 2xAA 8xAF in 1280x1024 gespielt, und D3 ohne AA aber mit 8xAF in 1280x1024, ohne Probleme.
Auf ner 9800 Pro (128mb) unübertaktet :)
DrumDub
2005-03-03, 11:50:28
Ich haben FarCry ebenfalls mit 2xAA 8xAF in 1280x1024 gespielt, und D3 ohne AA aber mit 8xAF in 1280x1024, ohne Probleme.
also farcry war bei mir nur gut spielbar mit miner 9700@380/300 1152x864 2xaa/4xtriaf. dazu muss aber sagen, dass ich nur nen xp2000@1724mhz habe.
TheCounter
2005-03-03, 11:50:52
Bei mir wars andersum. Farcry lief ziemlich bescheiden in 1280x1024 mit 2xAA/8xAF, dahingegen lief Doom 3 in 1280x1024 2xAA/8xAF ganz gut auf meiner alten R9800np@400/305. Hat mich selbst ein bisschen gewundert das Doom 3 hier weniger Anforderungen stellt als Farcry.
reunion
2005-03-03, 12:02:02
Bei GPUs ist das eigentlich schon so, wenn man die Speicherbandbreite gleich mitskaliert.
Definitiv falsch, kannst es ja selbst ausprobieren.
//EDIT:
3dmark2005
1024 x 768
2xAA 4:1 fulltriAF
R300@200/200
GT1:4,5 fps
GT2:2,6 fps
GT3:5,3 fps
R300@300/300
GT1:5,8 fps +29%
GT2:3,7 fps +42%
GT3:7,1 fps +34%
Wie du siehtst erreiche ich nirgendst der Taktsteigerung entspechende Werte, und das obwohl eine klare GPU limitierung vorliegt.
reunion
2005-03-03, 12:07:51
3.IIRC war eine NV40 @400MHz einer R420 @520MHz soziemlich ebenbürtig. Und stellt man den SM3 Mode im Shadermark ein, dann gibts nochmal ein paar Frames mehr. Ähnliches Spiel mit FP16. (u.A. dank der kostenfreien Vektor Renormalisierung bei PP)
FP16 kostet sichbar BQ, sollte also für einen Vergleich nicht herangezogen werden. Der default Modus ist eine Mischung aus FP32/16, da erreicht ein NV40 ungefair die werte eines R420, das stimmt (wenn man SM3.0 aktiviert). Im FP32 Modus siehts schon wieder ganz anders aus.
Aber es ist schon richtig das ein NV40 troz ziemlich wenig Takt eine ordentliche arithmetische Leistung erreicht.
Ailuros
2005-03-03, 12:23:05
Ich übertreibe nicht, sondern meine das ernst. 15 fps ist bei mir nicht flüssig. ;)
Für 1280x1024x32 mit 2xAA/4xAF reicht's meist auch, beispielsweise in FarCry. In Doom³ wird's in diesen Settings dann aber definitiv an einigen Stellen zu eng, mit FPS im 20er-Bereich.
Ok, ändert nichts an der Tatsache, dass du eine 9700 Pro meintest -- mit welchem Takt?
MfG,
Raff
Die Uebertreibung war nicht auf Dich geziehlt; es ging um eine 380/340 9700PRO. Meine R300 lief auf jeden Fall (entweder default oder uebertaktet) Far Cry noch fluessig bei 1152*864/ 2xAA/4xAF mit reduzierten in game details sonst ruckelten manche Stellen (wie im Regulator timedemo zu sehen sind) ganz schoen heftig. Die existierenden timedemos helfen sowieso nicht die ganze Geschichte zu illustrieren, da es in keinem dieser irgendwelche Gegner gibt.
robbitop
2005-03-03, 12:34:36
Die Uebertreibung war nicht auf Dich geziehlt; es ging um eine 380/340 9700PRO. Meine R300 lief auf jeden Fall (entweder default oder uebertaktet) Far Cry noch fluessig bei 1152*864/ 2xAA/4xAF mit reduzierten in game details sonst ruckelten manche Stellen (wie im Regulator timedemo zu sehen sind) ganz schoen heftig. Die existierenden timedemos helfen sowieso nicht die ganze Geschichte zu illustrieren, da es in keinem dieser irgendwelche Gegner gibt.
Doch in der Cooler01 Demo ;)
@Nagus
wenn du neue Infos hast, immer her damit :)
@Mods
wie wäre es mit einem Split
"R300 seit 2,5 Jahren bis heute noch genug? wahnsinn!" ...oder so :|
edit: @AiL
hattest du vieleicht den VSync an?
Ailuros
2005-03-03, 12:39:08
edit: @AiL
hattest du vieleicht den VSync an?
Nicht mal beim spielen in diesem Fall.
xL|Sonic
2005-03-03, 14:16:03
Also für mich war far Cry mit meiner Radeon 9800XT die ich hatte mit max. ingame details bei 1024x768 ohne AA und 4xAF schon eine Ruckelorgie ohne Ende, wobei ich sagen muss, dass bei mir bei FC die Schmerzgrenze bei 30fps lag. Es gab aber genug Stellen wo die min. fps gegen 20 und drunter tendierten und FC ist so ein Spiel, wo man ganz schlecht mit niedrigen FPS imo spielen kann, weil die Maus sich so komisch schwammig verhält. Aber ist schon erstaunlich, was manche Leute für subjektiv noch flüssig empfinden ;)
edit=vsync off
@robbi: Es ist mir egal was in irgendwelchen Benchmarks steht, die irgendwelche Durschnittsfps auspucken von einem Benchmark. Wichtig für mich ist es, wie das eigentlich Spiel läuft, wo ich selbst Spiele und nicht nur eine Demo abläuft und für mich persönlich war das ein Graus. Wie gesagt, jeder empfindet es anders...einige können sogar Spiele noch mit 10fps spielen und empfinden es als flüssig, wenn sie dran gewöhnt sind, bei mir ist das bei FC definitiv nicht mehr der Fall gewesen.
robbitop
2005-03-03, 14:23:10
Vsync=on?
Nunja scheinbar läufts bei anderen R350 Besitzern besser. Siehe den Cat Vergleich und Lolmans Benches.
Crushinator
2005-03-03, 17:27:40
@Mods
wie wäre es mit einem Split
"R300 seit 2,5 Jahren bis heute noch genug? wahnsinn!" ...oder so :| Ich finde die Idee hervorragend, allerdings hätte ich eine Bitte: Da Du wesentlich mehr in dieser Diskussion vertieft bist als z.B. ich und hoffentlich auch gerade Zeit dafür hast, könntest Du ihn selbst splitten? *liebguckt* =)
robbitop
2005-03-03, 17:57:13
Ich finde die Idee hervorragend, allerdings hätte ich eine Bitte: Da Du wesentlich mehr in dieser Diskussion vertieft bist als z.B. ich und hoffentlich auch gerade Zeit dafür hast, könntest Du ihn selbst splitten? *liebguckt* =)
Du vergißt, dass ich kein Moderator bin.
Dr.Dirt
2005-03-03, 18:04:39
Also für mich war far Cry mit meiner Radeon 9800XT die ich hatte mit max. ingame details bei 1024x768 ohne AA und 4xAF schon eine Ruckelorgie ohne Ende, wobei ich sagen muss, dass bei mir bei FC die Schmerzgrenze bei 30fps lag. Es gab aber genug Stellen wo die min. fps gegen 20 und drunter tendierten und FC ist so ein Spiel, wo man ganz schlecht mit niedrigen FPS imo spielen kann, weil die Maus sich so komisch schwammig verhält. Aber ist schon erstaunlich, was manche Leute für subjektiv noch flüssig empfinden ;)
Full ACK.
Ich hatte eine 9800 Pro 256MB, lief teilweise gerade so auf 1024x768.
Jesus
2005-03-03, 18:04:49
Also für mich war far Cry mit meiner Radeon 9800XT die ich hatte mit max. ingame details bei 1024x768 ohne AA und 4xAF schon eine Ruckelorgie ohne Ende, wobei ich sagen muss, dass bei mir bei FC die Schmerzgrenze bei 30fps lag. Es gab aber genug Stellen wo die min. fps gegen 20 und drunter tendierten und FC ist so ein Spiel, wo man ganz schlecht mit niedrigen FPS imo spielen kann, weil die Maus sich so komisch schwammig verhält. Aber ist schon erstaunlich, was manche Leute für subjektiv noch flüssig empfinden ;)
lol ? Ich denke mal da hast du irgendwas falsch gemacht, oder dein System lief nicht rund. In 1024x768 ohne AA hab ichs zwar nie probiert, weils nicht nötig war, aber mit der CPU (und in 1024 is es zu 90% CPU limitiert) sollte es super rund laufen.
Habs auch in 1280x1024 2xAA (oft sogar 4xAA) und 8xAF durchgespielt ohne probleme. Das mit dem Mauslag hatte ich nie, nur in der FC demo mal. (und 15fps finde ich nicht flüssig, nein :) )
xL|Sonic
2005-03-03, 18:17:30
Wie gesagt, ingame alles auf maximum...ich mache keine Abstriche um dafür dann AA oder AF nutzen zu können. Ich habe mit Sicherheit nichts falsch gemacht, weil es bei nem Freund mit nem Athlon XP 3200+ und Radeon 9800XT genauso lief.
Es mag zwar stellen geben, wo man locker flüssig spielen kann, aber es gab auch genügend Stellen, wo es für mich unspielbar war.
Btw. mein Freund fand das es nicht ruckelt und flüssig läuft...ist immer eine Sache des Maßstabes.
Mr. Lolman
2005-03-03, 18:27:03
Ob die Maus lagt, oder nicht kann auch sehr vom restlichen System abhängen - z.B. auch von der Maussensitivität.Highsensitivityspieler merken natürlich früher, dass die Maus lagt. Ich hatte mit meiner 9700p bis knapp 20fps jedenfalls kein störendes Mouselag, und so wars eigentlich ab ~23fps schon ganz gut spielbar. Dementsprechend konnte ich zu den maxdetails noch eine leicht höhere Sichtweite, sowie besseres LOD herbeitweaken. Nicht zu vergessen, dass ich FC mit 4xbi gespielt hab (zumindest in Außenlevel war absolut kein Banding feststellbar), was nochmal massig fps gebracht hat. Außerdem brachten die Catalysts mit der Zeit auch nochmal ordentlich Performance.
Bei D³ hingegen war bi oder tri performancemässig ziemlich egal, und so hab ichs ne Zeitlang auf 1024, 2xAA/8xAppAF gespielt. Mit dem 19" TFT wars dann in 1280 schon zu lahm für AA (~35fps in der Timedemo mit HQ, ohne AA).
Es kommt halt auch sehr auf die Spielgeschwindigkeit drauf an. Rennspiele machen unter 40fps kaum Freude, und bei Q3a sind 125fps sowieso standard :) Riddick z.B: hab ich auch mit 1280 und maxAF gespielt, und es war zwar schon tw. etwas langsam aber imo nicht ruckelig. Schön geschaut hab ich dann, als es beim Benchmark der Introszene nichtmal für durchschnittliche 19fps gereicht hat.
BTW: Kann sich noch jemand an die Introszene von Unreal1 erinnern? Beim letzten Kameraschwenk, wo das Schloß so schön im Bild ist, reichen auch <15fps und es schaut flüssig aus :ucoffee:
Crushinator
2005-03-03, 18:27:30
Du vergißt, dass ich kein Moderator bin. Du hast aber die Rechte eines Solchen und bist mit meiner Bitte dazu ausdrücklich legitimiert. =)
Jesus
2005-03-03, 18:41:52
Wie gesagt, ingame alles auf maximum...ich mache keine Abstriche um dafür dann AA oder AF nutzen zu können. Ich habe mit Sicherheit nichts falsch gemacht, weil es bei nem Freund mit nem Athlon XP 3200+ und Radeon 9800XT genauso lief.
Es mag zwar stellen geben, wo man locker flüssig spielen kann, aber es gab auch genügend Stellen, wo es für mich unspielbar war.
Btw. mein Freund fand das es nicht ruckelt und flüssig läuft...ist immer eine Sache des Maßstabes.
maximum Details versteht sich von selbst, für AA / AF stele ich auch keine ingame details zurück. :rolleyes:
Schön, dass wir dafür nun einen Extra-Thread haben. Dank an Robbi!
Ich möchte auch noch einmal betonen, dass sich meine Äußerungen natürlich auf eine übertaktete R350-Karte beziehen. Und - wichtig - dass ich keineswegs zu den Leuten gehöre, die 10-15 fps als flüssig ansehen. 25 fps ist das absolute Minimum. Und wenn ich sage, dass etwas (meiner Meinung nach) flüssig läuft, dann sind diese 25 fps das Minimum.
Somit sind meine Daten nicht unbedingt auf eine Standard-R300 übertragbar. Zieht man aber den Taktvorteil ab, so reicht es immernoch für 1024x768x32 mit etwas AA/AF, je nach Spiel.
Und damit ist eine Radeon 9700 Pro der absolute Hammer, was Preis/Leistung angeht. Selbst wenn man sich die Karte Ende 2002 für wucherige 500€ gegönnt hat: Es hat sich definitiv gelohnt. So alt und kaum gealtert. ;)
MfG,
Raff
xL|Sonic
2005-03-03, 19:21:44
Ich beziehe meine Erfahrungen auf eine Radeon 9800XT ;)
Dunkeltier
2005-03-03, 19:35:03
Schön, dass wir dafür nun einen Extra-Thread haben. Dank an Robbi!
Ich möchte auch noch einmal betonen, dass sich meine Äußerungen natürlich auf eine übertaktete R350-Karte beziehen. Und - wichtig - dass ich keineswegs zu den Leuten gehöre, die 10-15 fps als flüssig ansehen. 25 fps ist das absolute Minimum. Und wenn ich sage, dass etwas (meiner Meinung nach) flüssig läuft, dann sind diese 25 fps das Minimum.
Somit sind meine Daten nicht unbedingt auf eine Standard-R300 übertragbar. Zieht man aber den Taktvorteil ab, so reicht es immernoch für 1024x768x32 mit etwas AA/AF, je nach Spiel.
Und damit ist eine Radeon 9700 Pro der absolute Hammer, was Preis/Leistung angeht. Selbst wenn man sich die Karte Ende 2002 für wucherige 500€ gegönnt hat: Es hat sich definitiv gelohnt. So alt und kaum gealtert. ;)
MfG,
Raff
Da sieht man mal wieder, wie unterschiedlich die Maßstäbe sind. Für mich ist alles unter 85 FPS unspielbar, da ich zu der "VSync an" Minderheit gehöre. Und da ich Auflösungen runterschrauben nicht mag, kommt für mich nur
- weniger Details
- weniger FSAA & tri-aF
- sowie Neukauf der Grafikkarte in Betracht.
Dazwischen gibts nichts. Sicherlich mag der R300 bzw. R350 eine tolle Entwicklung sein, nur ist dieser heutzutage lediglich beschränkt nutzbar. In den meisten Spielen müßte ich auf die Kantenglättung verzichten sowie das tri-aF von 16x auf 8x herunterfahren, weil mir ansonsten die Bildwiederholrate nicht reicht und ich Framedrops bzw. Slowdowns kriege. Nicht sehr angenehm, wenn man online spielt...
Jesus
2005-03-03, 19:40:08
Ich beziehe meine Erfahrungen auf eine Radeon 9800XT ;)
9800XT > 9800 Pro (SE) :rolleyes:
Lightning
2005-03-03, 19:43:10
Da muss ich mich als R350-Besitzer doch mal in die Diskussion einklinken.
Ich muss sagen, dass ich Ailuros in eigentlich allen Punkten zustimmen kann. Klar, der R300/350/360 war ein toller Chip, der vergleichweise sehr lange seinen Dienst getan hat. Aber ich muss auch sagen, dass dem Teil mittlerweile schon sehr schnell die Puste ausgeht. 1024x768 mit allen Details ist sicher noch in jedem Spiel drin, sofern für maximale Details kein SM 3.0 vorrausgesetzt wird. Meist auch noch 1280x1024.
Sobald man allerdings AA und/oder AF hinzuschaltet, komme ich sehr schnell in einen, für mich subjektiv kritischen Bereich. Als ich noch meinen 19" Röhrenmonitor hatte, war das noch nicht so schlimm, da ich dort noch gut die 1024er Auflösung mit etwas AA und AF nutzen konnte. Heute bin ich leider mehr oder weniger auf die Auflösung 1280x1024 angewiesen, und genau das wird mir als grafikverwöhntem Menschen zu Verhängnis ;). Bei Doom 3 ist beispielsweise nun überhaupt kein AA mehr drin, und höchstens noch 2xTriAF. Das ist zwar ein recht extremes Beispiel, und auch noch gerade im Rahmen. Ich glaube allerdings, dass es sehr bald die ersten Spiele geben wird, bei denen dann auch diese 2xAF wegfallen werden (wenn es diese nicht schon gibt, ich bin spielemäßig nicht immer auf dem neuesten Stand). Dann wäre ich wieder auf dem technischen Stand von vor ein paar Jahren, und darauf habe ich zumindest am PC keine wirkliche Lust. Es ist für mich einfach eine Gewohnheit, Spiele am PC in möglichst hoher grafischer Qualität zu spielen, auch wenn mir mein Verstand sagt, dass dies eigentlich nciht nötig ist.
Ich will Doom 3 aber nur ungern als einziges Beispiel stehen lassen. Ich habe auch schon FarCry auf einer Radeon 9800 Pro erleben dürfen. Dort sah es nicht ganz unähnlich wie in Doom 3 aus. So richtig flüssig kam mir das auch nur in 1024x768 vor, mit vielleicht noch 2xAA und 4xTriAF.
Ja, selbst HL2 und CS:S, die ja immer als sehr CPU-lastig eingeordnet werden, und laut einigen Aussagen auch in hohen Auflösungen noch mit viel AA und AF toll laufen sollen, laufen in meinen Augen "nur" in 1280x1024 mit 2x AA und 4xAF flüssig. Wobei ich stellenweise gar dazu geneigt bin, AA ganz abzustellen. Denn imho können auch 3 fps noch einen nicht unerheblichen Unterschied machen, wenn sich die fps im niedrigen 30er-Bereich abspielen.
StefanV
2005-03-03, 19:43:36
9800XT > 9800 Pro (SE) :rolleyes:
Ja, aber nur geringfügig.
Die 9800 PRO hat ja schon 380MHz Core, die 9800XT hat mal gerad einen um 10% höheren Core Takt und einen 7,5% höheren Speichertakt...
Nicht sehr viel, am Ende...
Mr. Lolman
2005-03-03, 20:39:16
Wieviel fps braucht man z.B. bei dieser Szene?
http://img67.exs.cx/img67/2153/ut2k4mpg3rs.jpg (mit "avi" Endung speichern)
Wieviel fps braucht man z.B. bei dieser Szene?
http://img67.exs.cx/img67/2153/ut2k4mpg3rs.jpg (mit "avi" Endung speichern)
Ich tippe jetzt mal spontan auf 15-20 fps.
MfG,
Raff
Mr. Lolman
2005-03-03, 20:44:45
Ja, aber nur geringfügig.
Die 9800 PRO hat ja schon 380MHz Core, die 9800XT hat mal gerad einen um 10% höheren Core Takt und einen 7,5% höheren Speichertakt...
Nicht sehr viel, am Ende...
Mittlerweile bin ich mir schon ziemlich sicher, dass der R360 auch schon diverse Filteroptimierungen beherrscht. Oft genug ist die Performance ggü ner 256MB deutlich höher als es der reine Taktvorteil zulassen würde...
Mr. Lolman
2005-03-03, 20:49:21
Ich tippe jetzt mal spontan auf 15-20 fps.
MfG,
Raff
Für jemanden der seine fps-Untergrenze so genau definiert hat ist das aber eher ne ungenaue Schätzung, oder? :biggrin:
deekey777
2005-03-03, 20:52:32
Ja, aber nur geringfügig.
Die 9800 PRO hat ja schon 380MHz Core, die 9800XT hat mal gerad einen um 10% höheren Core Takt und einen 7,5% höheren Speichertakt...
Nicht sehr viel, am Ende...
Nur ist es so, daß eine 9800XT immer etwas schneller als eine gleichgetaktete 9800 Pro ist. Wieso? AF-Optimierung, angebliche Shaderoptimierungen.
Was aber nicht jeder wissen will.
StefanV
2005-03-03, 20:59:05
Mittlerweile bin ich mir schon ziemlich sicher, dass der R360 auch schon diverse Filteroptimierungen beherrscht. Oft genug ist die Performance ggü ner 256MB deutlich höher als es der reine Taktvorteil zulassen würde...
Hm, könnt ich eignetlich mal testen, hab ja, mehr oder minder, 'ne 128MB 9800XT :devil:
Leider nur 9800 PRO Layout...
Jesus
2005-03-03, 21:03:44
Nur ist es so, daß eine 9800XT immer etwas schneller als eine gleichgetaktete 9800 Pro ist. Wieso? AF-Optimierung, angebliche Shaderoptimierungen.
Was aber nicht jeder wissen will.
Shaderoptimierungen (z.b. D3) die man (nachweislich) aber deaktivieren kann, sollten aber genauso beim r350 greifen, da unterscheinde sich die beiden Karten nicht.
deekey777
2005-03-03, 21:07:43
Shaderoptimierungen (z.b. D3) die man (nachweislich) aber deaktivieren kann, sollten aber genauso beim r350 greifen, da unterscheinde sich die beiden Karten nicht.
Ich verbessere: Shaderoptimierungen gegenüber der R350. Verständlicher?
Und warum denkt man gleich an Doom 3? 3D2003 wäre die bessere Applikation.
Jesus
2005-03-03, 21:11:51
Ich verbessere: Shaderoptimierungen gegenüber der R350. Verständlicher?
Und warum denkt man gleich an Doom 3? 3D2003 wäre die bessere Applikation.
kapier iich nicht. Wodurch unterscheinden sich die Shadereinheiten eines r350 vom r360 ?
deekey777
2005-03-03, 21:20:23
kapier iich nicht. Wodurch unterscheinden sich die Shadereinheiten eines r350 vom r360 ?
Kommt nicht von mir, sondern von dem "Erfinder" des 9800pro->XT BIOSes.
Banshee18
2005-03-03, 22:14:30
Für mich ist alles unter 85 FPS unspielbar, da ich zu der "VSync an"
Alles unter 85 FPS unspielbar? Ich will dich nicht angreifen, aber entweder du hast ein SLI-System, spielst nur auf 1024x768, ohne AA und AF oder du spielst nur sehr alte Spiele. Ansonsten wirst du glaube ich nicht glücklich.
Ich hatte übrigens auch einen R300 (9500@9700) und spielte damit FC mit 1152x864, max. Details (außer Schatten auf medium), 2xAA, 4xAF und es war einigermaßen angenehm spielbar. Wenn man nun noch ein wenig übertaktet und nur auf 1024x768 ohne AA spielt, kann ich mir kaum vorstellen, dass die Frames oft bzw. längere Zeit unter 30 FPS fallen, es sei denn an CPU-Limitierten Stellen. Außerdem ist FC imho auch noch mit >30 FPS gut spielbar.
HL2 war mit den selben Settings und sogar 4xAA noch sehr gut spielbar* und sebst Doom3 ging auf 1024x768 HQ noch sehr gut (ohne AA).
Bei manchen Spielen stören niedrige FPS einfach weniger, als bei anderen. Bei Painkiller z.B. empfinde ich schon 60 FPS als sehr störend.
Der R300 war auf jeden Fall ein sehr guter Chip, wenn nicht sogar einer der Besten.
mfg
Banshee
*Auf meiner jetzigen Graka (6800@16/6) geht kaum mehr.
Für jemanden der seine fps-Untergrenze so genau definiert hat ist das aber eher ne ungenaue Schätzung, oder? :biggrin:
Was hast du denn erwartet? :)
Ich hab' nur gesehen, dass es sehr lahm abläuft und ein leichtes Ruckeln vernommen. Wegen ersterem fällt letzteres aber kaum auf -- ganz anders wär's wohl, wenn es schneller wäre.
MfG,
Raff
Ailuros
2005-03-04, 02:43:31
Machen wir es mal anders....
Far Cry
build 1337
patch 1.3
winXP PRO / SP2
DX9.0c
71.81
6800 (16p/6vs) @ 360/437MHz
max in game detail
1280*960*32
2xAA/4x high quality AF:
http://users.otenet.gr/~ailuros/factory.jpg
Ich zaehle 6 bots. Niedrigste Leistung wird im shot illustriert, hoechste war 27 fps bei der Ballerei.
Ubisoft's Timedemos:
Research : avg 70.58 fps, min 49.94 fps, max 92.98 fps
Regulator : avg 48.22 fps, min 22.54 fps, max 83.98 fps
Training : avg 49.18 fps min 21.83 fps, max 120.54 fps
Volcano : avg 71.81 fps min 44.73 fps, max 171.95 fps
Ob jetzt default 325 oder 360 oder mehr Taktrate auf der R300, bekam ich in diesem Fall (1280/ 2xAA/4xAF) zumindest in Regulator (sobald es nach aussen ging) miserable single-digit Frameraten. Nachvollziehen kann die obrigen Faelle jedermann leicht, denn die demos sind ja auf dem Netz verfuegbar.
Der Unterschied in diesem Fall zwischen 2x und 4xAA ist nicht besonders gross auf der modifizierten/uebertakteten 6800. Fuer spielbare Frameraten mit AA in 1600 braucht man dann die grossen Boliden. Ihr koennt ja von mir aus jegliche Karten von R3xx ab bis auf R4xx/NV4x neu kategorisieren, aber ich hab guten Grund warum ich die R300 in den vorigen Beitraegen bei einer sehr gewissen Stelle eingetragen habe.
Zu guter letzt: waere CryTek nicht so bloed und haette R3xx/NV3x mit einem schnellen SM2.0 Pfad gesegnet (oder das Spiel von Anfang an richtig optimiert und nicht zum bloedsinnigen multi-pass lighting zwingen wenn es nicht noetig ist), dann waere die ganze Geschichte natuerlich auch um einiges anders.
2. so? warum hätte ein NV47 genau 16 ROPs? Teuer sind die nicht. Und im HighEnd Bereicht wurde daran nie gespart IIRC.Bandbreite. Die NV40-ROPs sind vermutlich nicht besonders billig, was Transistoren angeht, dafür ist das ROP-Array unter bestimmten Aspekten betrachtet auch effizienter pro Transistor als herkömmliche Lösungen.
Midrange auf dem Niveau einer 6600GT IMHO.Heftig übertaktet, ja. Die 6600 GT ist allerdings auch oft ganz gut übertaktbar, dann liegt sie wieder spürbar vorne. Eine 9800 XT kann (im Standardtakt) eine 6600 GT (im Standardtakt) manchmal leicht übertreffen, insgesamt liegt so weit ich weiß aber die 6600 GT selbst hier noch vorne. Die 9700 und 9700 Pro wird von einer 6600 GT meiner Kenntnis nach weggebügelt – argumentiert man mit gut übertaktbaren Radeons, müsste mans sie gegen eine entsprechend übertaktete 6600 GT vergleichen.
Allerdings ist die 6600 GT in Kombination mit 4x AA imo eine grenzwertige Karte für 1280-er Auflösungen. Wer hohe Auflösungen mag und aktuelle, leistungsfressende Spiele spielt, sollte sich nach was stärkerem umsehen. Wer eine 9700 (Pro) bis heute behalten hat, sehnt sich wahrscheinlich nach einem gewaltigen Schub in Dingen Grafikleistung.
Mein PC ist aus Stabilitätsgründen im Moment etwa auf 2200+-Niveau untertaktet (eigentlich ist es ein 2800+) so dass ich fürchte, die 6600 GT nicht ausfahren zu können. (Da es kaum völlige GPU- oder CPU-Limitierung gibt, würde selbst bei recht hoher GPU-Limitierung eine stärkere CPU auch noch ein wenig bringen.)
Dunkeltier
2005-03-04, 03:37:01
Alles unter 85 FPS unspielbar?
Ich will dich nicht angreifen, aber entweder du hast ein SLI-System, spielst nur auf 1024x768, ohne AA und AF oder du spielst nur sehr alte Spiele. Ansonsten wirst du glaube ich nicht glücklich.
Ich habe kein Sli-System, bin aber trotzdem glücklich. Mit meinen derzeit stark übertakteten System ist es mir durchaus möglich, ständig die geforderten 85 FPS zu bekommen. Und das mit meinen Qualitätsoptionen (mind. 16x tri-aF mit 2x-6x MSAA) in der von mir bevorzugten Auflösung von 1280x960. Aber teilweise hast du Recht, mit der Geforce 6800 GT war damit das problemlose durchspielen von HL² nicht möglich. Da mußte ich auf die Kantenglättung verzichten, nun aber nicht mehr. Dafür muß man halt an manch anderer Stelle einstecken (Doom III), aber das nehme ich gerne in Kauf. Insbesondere da ich dieses Spiel eh nicht spiele.
Ich hatte übrigens auch einen R300 (9500@9700) und spielte damit FC mit 1152x864, max. Details (außer Schatten auf medium), 2xAA, 4xAF und es war einigermaßen angenehm spielbar. Wenn man nun noch ein wenig übertaktet und nur auf 1024x768 ohne AA spielt, kann ich mir kaum vorstellen, dass die Frames oft bzw. längere Zeit unter 30 FPS fallen, es sei denn an CPU-Limitierten Stellen. Außerdem ist FC imho auch noch mit >30 FPS gut spielbar.
Ne, für mich nicht. Da schalte ich die Schatten auf Mittel und fahre wenns sein muß die Kantenglättung etwas runter, dann klappts auch mit den 85 FPS (und dem Nachbarn).
HL2 war mit den selben Settings und sogar 4xAA noch sehr gut spielbar* und sebst Doom3 ging auf 1024x768 HQ noch sehr gut (ohne AA).
<...>
Bei manchen Spielen stören niedrige FPS einfach weniger, als bei anderen. Bei Painkiller z.B. empfinde ich schon 60 FPS als sehr störend.
Mich stören niedrige Bildwiederholraten ständig, da ich ganz im Gegensatz zu 95% der anderen User auf VSync setze. Mit Vsync aus fackel ich mir die Netzhaut ab, ich fahre mir immer mehr den Wahn das ich das Tearing einfach nicht abkann. Überhaupt verstehe ich die Menschen nicht, die sowas heutzutage noch billigend in Kauf nehmen, obwohl der Rest ja superscharf (16x tri-aF) und superglatt (2x-6x FSAA) aussehen soll. Das ist widersprüchlich.
Der R300 war auf jeden Fall ein sehr guter Chip, wenn nicht sogar einer der Besten.
Damit stimme ich überein, von der Leistung ähnlich legendär wie der Voodoo³ Chip. Allerdings kommt auch die R300 langsam in Regionen, wo sie nicht mehr schnell genug ist, insofern man es so definieren kann. Aber fürs Geld ist sie ein ähnlicher Kracher wie die Voodoo³ oder der aktuelle R430. Einfach unschlagbar gut.
mfg
Banshee
*Auf meiner jetzigen Graka (6800@16/6) geht kaum mehr.
<...>
Ich habe kein Sli-System, bin aber trotzdem glücklich. Mit meinen derzeit stark übertakteten System ist es mir durchaus möglich, ständig die geforderten 85 FPS zu bekommen. Und das mit meinen Qualitätsoptionen (mind. 16x tri-aF mit 2x-6x MSAA) in der von mir bevorzugten Auflösung von 1280x960. Aber teilweise hast du Recht, mit der Geforce 6800 GT war damit das problemlose durchspielen von HL² nicht möglich. Da mußte ich auf die Kantenglättung verzichten, nun aber nicht mehr. Dafür muß man halt an manch anderer Stelle einstecken (Doom III), aber das nehme ich gerne in Kauf. Insbesondere da ich dieses Spiel eh nicht spiele.
Ne, für mich nicht. Da schalte ich die Schatten auf Mittel und fahre wenns sein muß die Kantenglättung etwas runter, dann klappts auch mit den 85 FPS (und dem Nachbarn).
<...>
Mich stören niedrige Bildwiederholraten ständig, da ich ganz im Gegensatz zu 95% der anderen User auf VSync setze. Mit Vsync aus fackel ich mir die Netzhaut ab, ich fahre mir immer mehr den Wahn das ich das Tearing einfach nicht abkann. Überhaupt verstehe ich die Menschen nicht, die sowas heutzutage noch billigend in Kauf nehmen, obwohl der Rest ja superscharf (16x tri-aF) und superglatt (2x-6x FSAA) aussehen soll. Das ist widersprüchlich.Jein. WoW spiele ich neuerdings meist ohne VSync. Sonst ruckelt es zu stark. Auf 75 fps komme ich da praktisch nie, oft sinkt es sogar unter 37,5. Dann müsste ich mit 25 oder 19 fps spielen. Na danke.
Damit stimme ich überein, von der Leistung ähnlich legendär wie der Voodoo³ Chip. Allerdings kommt auch die R300 langsam in Regionen, wo sie nicht mehr schnell genug ist, insofern man es so definieren kann. Aber fürs Geld ist sie ein ähnlicher Kracher wie die Voodoo³ oder der aktuelle R430. Einfach unschlagbar gut.Ich möchte bezweifeln, dass die Radeon X8**-Serie ähnliche Langlebigkeit beschieden sein wird, wie der Radeon 9700-Serie (wenn man die 9800 mit dazu zählt.) Grund ist die Leistung ("nur" etwa Verdoppelung) und natürlich das (im Highend-Bereich) nicht mehr aktuelle Featureset.
FP16 kostet sichbar BQ, sollte also für einen Vergleich nicht herangezogen werden. Der default Modus ist eine Mischung aus FP32/16, da erreicht ein NV40 ungefair die werte eines R420, das stimmt (wenn man SM3.0 aktiviert). Im FP32 Modus siehts schon wieder ganz anders aus.
Aber es ist schon richtig das ein NV40 troz ziemlich wenig Takt eine ordentliche arithmetische Leistung erreicht.Was ihm allerdings im Vergleich zur Radeon nur dann nützt, wenn die Shader das hergeben. Einfach gesagt, kann die Radeon pro Takt addieren und multiplizieren. Der NV40 kann das auch, und bietet noch eine zusätzliche Multiplikation im gleichen Takt. Wenn ein Pixelshader nun gleich viele Additionen wie Multiplikationen hat, nützt dem NV40 seine MUL-Stärke nichts. Auf Radeon-HW optimierte Shader werden jedoch versuchen, so ein 1:1-Verhältnis anzustreben. Gäbe es ein ADD:MUL-Verhältnis von 1:2, würde der Shader auf dem NV40 noch gleich schnell laufen, auf der Radeon jedoch die doppelte Zeit benötigen. Ich nehme stark an, dass die Entwickler interessiert sind, die noch weit verbreitete R300-Generation nicht zu stark zu belasten und entsprechende Rücksicht nehmen. Womit der NV40 seine Stärken vorerst nicht ausspielen kann. (Bestimmte Multiplikationen, z. B. um Faktor 2, bietet der R300 ebenfalls im gleichen Takt. Das Beispiel hier bezieht sich auf freie Multiplikationen und Additionen. Tatsächlich sind die "besonderen" Multiplikationen aber gar nicht mal so selten.)
Der NV40 kann weiterhin Befehle, die nur zwei Komponenten beeinflussen, optimiert ausführen. Auf Radeon optimierte Shader werden sich jedoch möglichst darauf beschränken, entweder 3 oder 1 Komponente pro Befehl zu zu nutzen (oder alle 4 zusammen) so dass die im NV40 mögliche 2:2-Abarbeitung dann nichts bringt.
Ich bin gespannt, was der R520 bei diesen Punkten bringen wird. Anstatt purer Rohleistung (hat der NV35 im Überfluss) ist "Köpfchen" gefragt, also die Rechenleistung möglichst gezielt einzusetzen. Da ist beim NV40 noch Potenzial, der R520 könnte bei gleicher Rohleistung in der Praxis pro Takt und Pipe trotzdem schneller sein.
Dunkeltier
2005-03-04, 04:01:10
(...)
Ich möchte bezweifeln, dass die Radeon X8**-Serie ähnliche Langlebigkeit beschieden sein wird, wie der Radeon 9700-Serie (wenn man die 9800 mit dazu zählt.) Grund ist die Leistung ("nur" etwa Verdoppelung) und natürlich das (im Highend-Bereich) nicht mehr aktuelle Featureset.
Der gesamten Serie will ich ja nicht diese Leistung bescheinigen. Allerdings bieten "einige" Karten etwas mehr fürs Geld. Will sagen, es gibt halt ein paar echt heiße Kärtchen die entsprechend viel bieten. Die Voodoo³, Radeon 9500 Pro, Radeon 9700 und aktuelle die Radeon X800 XL bieten halt unheimlich viel.
Zudem muß ein aktuelles Featureset nicht gleich immer den Untergang bedeuten, siehe nur die ganzen 3dfx-Karten. Selbst zu Voodoo³ und Voodoo 5 Zeiten war man mit zwei Voodoo² immer noch gut mit dabei. Und selbst nach dem Untergang von 3dfx blieb vieles noch sehr lange im spielbaren Bereich. Die Karten waren halt echte Dauerbrenner. Ich weiß nicht, wie ich es sonst beschreiben sollte. Und das was gerade die X800 XL kostet, und in näherer Zukunft kosten wird (ich sehe sie bei besserer Verfügbarkeit auf die 250-270 Euro zugehen) - ist gelinde gesagt ein Witz!
Da greift man gerne blindlings zu, diese Serie hat das Zeug zur Legende zu werden. Natürlich wird man sich darauf nicht ewig ausruhen können, aber soviel Weitsicht traue ich ATI zu. SM3.0 ist ein ganz tolles "must have" - aber im Gegensatz zum endlich brauchbaren MSAA und tri-aF mit der R300 Einführung ein Witz. Denn letzteres kann der Anwender direkt nutzen (und das lange Zeit in sehr spielbaren Bereich), für SM3.0 sind die derzeitigen Karten schlichtweg zu langsam. Weswegen ich mir eh immer einen Ast ablache, wenn sich gerade deswegen jemand so eine Karte kauft. Ich spreche nicht aus der Sicht eines 3D-Gurus, sondern der eines Anwenders, der versucht sich selbst bestmöglich ein Bild des Marktes zu machen. Was kriege ich wo für mein Geld geboten, was ist für mich sinnvoll?
Esther Mofet
2005-03-04, 06:45:00
Ich hatte ~2Jahre die R300(360/340).
Farcry 1024x768 Max Details 4xAF ~40-50FPS
Doom 3 das gleiche
HL2 ebenso....
Die Karte läuft jetzt bei nem Freund im Rechner und ist trotz nem K7 mit 2200Mhz nedd viel langsamer...
Ich muss mich doch wundern das manche hier mit nem 350/360 nur 20Fps bei den Games haben???????(naja schaut man auf den Prozz....)
Bin jetzt auf ne x800 Pro umgestiegen und als Leistungsanstieg in Games kann ich jetzt halt alles in 1280x1024 4xAA 8xAF zoggen...Frames sind meistens 60FPS.
Also wenn ich für die 9700Pro nedd soviel bekommen hätte,und die x800Pro(Vivo) nedd so billig gewesen wäre,hätt ich es wahrscheinlich nedd gemacht.
Dafür hab ich ne Karte mit defekten Pipes erwischt(bei 16 Artefakte) :(
Mfg The Q
der r300 is einer der besten karten dies je gab find ich^^
ich selber hab ne 9500@9700 @ 360|290 ( 128mb, 256bit speicherinterface..8 pipes!) und man kann echt sehr viel spielen mit aa und af!
also hl2 hab ich meistens mit 4aa und 8af gezoggt auf 1024°768
ging einwandfrei!
doom3 habe ich mal auf 1024 und high details gespielt... allerdings noch im standart takt da liefs net so gut , sollte noch mal zoggn mit übertakteter graka!
fc lief auch auf höchste details sehr sehr gut!
ich bin zufrieden ;)
Cherubim
2005-03-04, 08:10:12
also, ich denke noch nicht über ein upgrade nach....
meine 9700Pro verrichtet tadellos ihren dienst bei 1280x1024 und ist immer im spielbaren bereich.
allerdings muss ich dazu sagen, das ich kein AA und AF fetischist bin. ist benutze es so gut wie nie, dafür aber bei 98% der spiele high-detail.
FarCry, HL2, DooM3...alles kein problem.
robbitop
2005-03-04, 08:28:10
Bandbreite. Die NV40-ROPs sind vermutlich nicht besonders billig, was Transistoren angeht, dafür ist das ROP-Array unter bestimmten Aspekten betrachtet auch effizienter pro Transistor als herkömmliche Lösungen.
fehlende Bandbreite meinst du.
Was die Transistorkosten der ROPs betrifft, warst du bist vor einiger Zeit (explizit NV43) da noch anderer Meinung :|
aths,
natürlich ist die 6600GT meist überlegen. Allerdings meine ich Fälle gesehen zu haben, wo eine standardmäßig getaktete 9800 Pro mithalten konnte. Wo genau, weiß ich nicht mehr -- ich gehe von Fällen aus, die Bandbreite fragen, da dort die Radeon dank 256Bit vorne ist.
Dennoch: Allein die Tatsache, dass erst jetzt - schlappe 2,5 Jahre nach Erscheinen der 9700 Pro - mit der 6600GT eine Karte kommt, die diese ehemalige High-End-Leistung für unter 200€ knapp schlägt, spricht IMHO Bände.
Was auch noch gesagt werden sollte: Ob die Leistung "reicht" ist natürlich extrem subjektiv (das zeigt dieser Thread) und auch nicht mit früher vergleichbar. Der Standard in Sachen Bildqualität ist enorm gestiegen in den letzten 5 Jahren. Damals "reichte" eine Karte noch, wenn sie 1024x768 in den neuesten Spielen flüssig bewältigen konnte, womöglich noch in 16 Bit. Heute hingegen wollen alle nicht nur höhere Auflösungen, sondern auch noch massig AA/AF, da haben die Karten natürlich schlechte Karten. ;)
Oder anders gesagt: Geht man nach anderen Standards, also beispielsweise nach obigen bzw. dem einer Person, die nicht derart verwöhnt von Eye-Candy und weniger gut betucht ist, dann reicht eine mit einem R300 bestückte Karte sicher noch 2 Jahre.
MfG,
Raff
robbitop
2005-03-04, 09:47:39
jetzt wo ich gerade mit meiner GF3 etwas herumexperimentiere, reicht sogar die noch. Natürlich mit Abstrichen, geringer Auflösung und NoAA/AF. Aber natürlich nur, wenn es einem um das Pure Spielvergnügen selbst geht und nicht um eyecandy.
HL2 läuft auch brauchbar.
In sofern wird R300 zur Not auch noch eine Weile genügen. Man muss nur seine Bedürfnisse anpassen können.
Mr. Lolman
2005-03-04, 12:12:13
Ich hab' nur gesehen, dass es sehr lahm abläuft und ein leichtes Ruckeln vernommen. Wegen ersterem fällt letzteres aber kaum auf -- ganz anders wär's wohl, wenn es schneller wäre.
MfG,
Raff
Ganz genau. Die Szene rennt mit 15fps und sollte nur das verdeutlichen, was ich schon am Beispiel von FC versucht hab zu erklären. Da man in Farcry eher langsam unterwegs ist (wo die riesigen Weiten der Inseln ihren Teil zubeitragen) können bei Farcry auch schon mal fps leicht über 20 ausreichen. Bei D³ sind mir 20fps definitv zuwenig und bei HL² gingen die fps nie soweit runter...
Ailuros
2005-03-04, 13:23:07
fehlende Bandbreite meinst du.
Was die Transistorkosten der ROPs betrifft, warst du bist vor einiger Zeit (explizit NV43) da noch anderer Meinung :|
Also ich kann mich genau ans Gegenteil erinnern, denn wir hatten schon Diskussionen ueber die Anzahl der ROPs auf NV43, und dabei ging es mir weniger um die 6600GTs; eher um die einfachen 6600.
Ich persoenlich haette eher 8 ROPs auf der NV43 bevorzugt (unter der Vorraussetzung dass auch NV43 ROP = NV40 ROP ist), um eben noch einen starken Verkaufspunkt im Vergleich zur X700-Linie zu haben. Zu der Zeit war natuerlich die ganze X700 Geschichte nicht bekannt und von dem was ich sehen kann verkaufen sich ueberhaupt die AGP 6600GTs momentan wie heisse Semmeln.
Das alles natuerlich nur im Raum des theoretischen, denn NV muss ja auch die halbwegs defekten NV40 irgendwie loswerden und dabei entstehen eben merkwuerdige Modelle wie die 6800LEs, die ein sehr zweifelhaftes Preis/Leistungsverhaeltnis zu einer NV43 haben.
Zurueck zum originalem Thema was ROPs betrifft, NVIDIA muss die-Flaeche verdammt nahe an NV40 halten in einem theoretischen Fall von 6 quads auf 110nm. Der NV43 zeigt dass man so einige Redundanz aus dem originalen NV40 Design entfernen konnte und das wohl nicht ausschliesslich auf ROP-Anzahl bezogen. 6 quads, (minus) Redundanz, (minus) ROPs, +2VS auf 110nm mit einer fast nicht nennenswerten Vergroesserung der die Flaeche kommt dann schon hin.
robbitop
2005-03-04, 13:53:26
Also ich kann mich genau ans Gegenteil erinnern, denn wir hatten schon Diskussionen ueber die Anzahl der ROPs auf NV43, und dabei ging es mir weniger um die 6600GTs; eher um die einfachen 6600.
Ich persoenlich haette eher 8 ROPs auf der NV43 bevorzugt (unter der Vorraussetzung dass auch NV43 ROP = NV40 ROP ist), um eben noch einen starken Verkaufspunkt im Vergleich zur X700-Linie zu haben. Zu der Zeit war natuerlich die ganze X700 Geschichte nicht bekannt und von dem was ich sehen kann verkaufen sich ueberhaupt die AGP 6600GTs momentan wie heisse Semmeln.
Das alles natuerlich nur im Raum des theoretischen, denn NV muss ja auch die halbwegs defekten NV40 irgendwie loswerden und dabei entstehen eben merkwuerdige Modelle wie die 6800LEs, die ein sehr zweifelhaftes Preis/Leistungsverhaeltnis zu einer NV43 haben.
Zurueck zum originalem Thema was ROPs betrifft, NVIDIA muss die-Flaeche verdammt nahe an NV40 halten in einem theoretischen Fall von 6 quads auf 110nm. Der NV43 zeigt dass man so einige Redundanz aus dem originalen NV40 Design entfernen konnte und das wohl nicht ausschliesslich auf ROP-Anzahl bezogen. 6 quads, (minus) Redundanz, (minus) ROPs, +2VS auf 110nm mit einer fast nicht nennenswerten Vergroesserung der die Flaeche kommt dann schon hin.
ein so hochparalleler Prozessor wie eine GPU ist voll von Redundanz. Ohne das müssten viele Dinge geshared werden und das kostet Performance (siehe Trident XP4). Was im Speziellen meinst du hier mit "Redundanz"? Und meinst du nicht, dass man die im NV40 gelassen hätte, wenn es nicht sinnvoll wäre (220Mio @130nm puuuhaaa)?
Gummikuh
2005-03-04, 13:56:23
R300----> :uup:
Ailuros
2005-03-04, 14:03:33
Heftig übertaktet, ja. Die 6600 GT ist allerdings auch oft ganz gut übertaktbar, dann liegt sie wieder spürbar vorne. Eine 9800 XT kann (im Standardtakt) eine 6600 GT (im Standardtakt) manchmal leicht übertreffen, insgesamt liegt so weit ich weiß aber die 6600 GT selbst hier noch vorne. Die 9700 und 9700 Pro wird von einer 6600 GT meiner Kenntnis nach weggebügelt – argumentiert man mit gut übertaktbaren Radeons, müsste mans sie gegen eine entsprechend übertaktete 6600 GT vergleichen.
Eben.
Mein PC ist aus Stabilitätsgründen im Moment etwa auf 2200+-Niveau untertaktet (eigentlich ist es ein 2800+) so dass ich fürchte, die 6600 GT nicht ausfahren zu können. (Da es kaum völlige GPU- oder CPU-Limitierung gibt, würde selbst bei recht hoher GPU-Limitierung eine stärkere CPU auch noch ein wenig bringen.)
Nun ja 2200+ ist auch ziemlich niedrig. Von dem abgesehen eine NV43 (ob einzeln oder 2@SLi) ist selbst immer noch mit einem AMD64 3800+ CPU limitiert, von dem was ich bis jetzt sehen konnte.
Raff,
Was auch noch gesagt werden sollte: Ob die Leistung "reicht" ist natürlich extrem subjektiv (das zeigt dieser Thread) und auch nicht mit früher vergleichbar. Der Standard in Sachen Bildqualität ist enorm gestiegen in den letzten 5 Jahren. Damals "reichte" eine Karte noch, wenn sie 1024x768 in den neuesten Spielen flüssig bewältigen konnte, womöglich noch in 16 Bit. Heute hingegen wollen alle nicht nur höhere Auflösungen, sondern auch noch massig AA/AF, da haben die Karten natürlich schlechte Karten.
Mir stehen ja 50% der Verantwortung fuer diese Debatte eigentlich zu. Ich behauptete auf jeden Fall nicht dass man keine Spiele auf einer R300 fluessig spielen kann heute. Ich setzte den Pegel ihrer Leistung eben niedriger als andere und ich hab guten Grund zu behaupten dass speziell fuer Far Cry >1152*864 mit einem kleinen Schuss AA/AF schon zu viel ist fuer eine solche Karte.
Bei Deiner radikal uebertakteten R350 koennte ich fluessige Spielbarkeit in 1280 noch durchaus in Kauf nehmen was Far Cry betrifft, aber ein paar kleine Reduktionen was in game settings betrifft wirst Du schon brauchen (bei 2xAA/4xAF) und dass eben genau fuer die Faelle wo FC dummerweise fuer jede Belichtung einen pass verschwendet auf diesen Karten; nicht gerade selten in dem Spiel (siehe vorigen Post).
Ich hab es nochmal erwaehnt und wiederhole es: behaupte ich heute dass UT2k4 voll spielbar ist mit 4xAA/8xAF in 1280 auf dem zeitigen System, muesste ich noch dazu erwaehnen dass ich theoretisch keine ONS-maps spiele. Spiele ich jetzt das Ding, logge ich doch nicht um Himmel's Willen aus sobald es zu einer ONS map kommen wuerde, um settings zu reduzieren. Ich suche normalerweise nach dem schlimmsten Fall und gehe auch davon aus, die absolute Spielbarkeit unter allen Faellen zu definieren.
Versuche ich heute Karten zu kategorisieren fuer jedes Spiel dort draussen und werde wohl von R420 von ganz oben, nach weiter unten skalieren. Jeglicher R3xx hat da natuerlich einen sehr bestimmten Platz, das Problem ist wahrscheinlich hier eher dass manche die wahre Leistung und Spielbarkeit der R4xx-Linie ueberschaetzen. Kein Wunder wenn einige Reviewer dort draussen mit 150+ fps Zahlen fuer hohe Aufloesungen ankommen, wobei man eben nur Fuell-raten limitierte Faelle abmisst.
Ich schiesse auch ueber die 100+fps Grenze mit 2xAA/16xAF/1600 in einem anspruchsvollen flyby timedemo in UT2k4 (4xAA = 70+fps); spielbar sind aber primaer die ONS-maps in einer Aufloesung tiefer (und nein ich meine nicht unbedingt das verkorkste Primeval).
Bei dieser Relativierung war die R300 (uebertaktet oder nicht) eben mit 2xAA/16xAF durchaus spielbar in 1280*960 in etwas anspruchsvolleren maps wie DM-Icetomb. Fuer ONS-Dawn als Beispiel musste ich schon auf 4xAF (bilinear) und blob shadows greifen. Ich zumindest hab nie behauptet dass die Leistung nach so langer Zeit schlecht waere, nur ist sie eben IMHO nicht hoeher als man mir sie praesentieren will.
Ailuros
2005-03-04, 14:08:16
ein so hochparalleler Prozessor wie eine GPU ist voll von Redundanz. Ohne das müssten viele Dinge geshared werden und das kostet Performance (siehe Trident XP4). Was im Speziellen meinst du hier mit "Redundanz"? Und meinst du nicht, dass man die im NV40 gelassen hätte, wenn es nicht sinnvoll wäre (220Mio @130nm puuuhaaa)?
Vorgestellt hab ich es mir auf jeden Fall nicht. Erwarte keine zu genauen Antworten.
robbitop
2005-03-04, 14:10:29
Vorgestellt hab ich es mir auf jeden Fall nicht. Erwarte keine zu genauen Antworten.
Ok ;)
Mr. Lolman
2005-03-04, 14:12:47
Vielleicht sollte ich um den Titel "biAF-Guru" ansuchen, aber auch UT2004 hab ich mit der 9700p@400/350 auch mit 1280 4xAA und 4xbiAF gespielt und es war wunderbar flüssig - nach ein paar ini-tweaks (LOD@0.0, div. Maussettings). Auch ONS-Maps. An triAF war jedoch nichtmehr zu denken.
Achja das CharakterLOD war auch Medium und Schatten auch auf Blob, aber sonst alles max.
Imo ist die Leistung immernoch ein Wahnsinn, und weitaus höher (mit AA/AF sogar bis 4x schneller) als die ner GF4600, wo das NV Lager anfangs noch anhand von diversen Treiberversprechungen seitens NV einen ungefähren Gleichstad sehen wollte. Dann wartete man auf die 5800, später auf die 5900 und hat jetzt u.U. erst ne 6600GT im Rechner. Oder man hat sich damals einfach ne 9700p gekauft, die mittlerweile etwas geoct und fast die gleiche Leistung :D
Hasto
2005-03-04, 14:20:03
Wie gesagt, ingame alles auf maximum...ich mache keine Abstriche um dafür dann AA oder AF nutzen zu können. Ich habe mit Sicherheit nichts falsch gemacht, weil es bei nem Freund mit nem Athlon XP 3200+ und Radeon 9800XT genauso lief.
Es mag zwar stellen geben, wo man locker flüssig spielen kann, aber es gab auch genügend Stellen, wo es für mich unspielbar war.
Btw. mein Freund fand das es nicht ruckelt und flüssig läuft...ist immer eine Sache des Maßstabes.
Ich habe ein a64 3500+ und eine 9800xt und das spiel farcry läuft absolut flüssig bei 1280x1024 @highest. Es gibt nur sehr wenige stellen wo die fps mal runter gehen. Ich habe auch eine x800xt pe und mit der habe ich auch in farcry "sehr selten" wenig fps.
Was sich ändert ist die höchste fps. An einer stelle wo ich vorher 55 fps hatte mit der 9800xt, habe ich dann mit der x800xt 105fps. Aber bei einer stelle z.B. wo ich mit der 9800xt 26fps habe ich mit der x800xt vll 3-4 fps mehr. Ich finde eh nicht die höchste fps ist wichtig, ob man jetze 55fps hat oder 105 ist ja eh schnuppe, sondern die niedrigste.
Warum du ein starkes ruckeln(lags), festgestellt hast ka. Ich habe auf jedenfall mit der 9800xt keine lags und sehr wenig stellen wo mal die fps sinkt...
Ailuros
2005-03-04, 14:22:54
Vielleicht sollte ich um den Titel "biAF-Guru" ansuchen, aber auch UT2004 hab ich mit der 9700p@400/350 auch mit 1280 4xAA und 4xbiAF gespielt und es war wunderbar flüssig - nach ein paar ini-tweaks (LOD@0.0, div. Maussettings). Auch ONS-Maps. An triAF war jedoch nichtmehr zu denken.
Achja das CharakterLOD war auch Medium und Schatten auch auf Blob, aber sonst alles max.
Imo ist die Leistung immernoch ein Wahnsinn, und weitaus höher (mit AA/AF sogar bis 4x schneller) als die ner GF4600, wo das NV Lager anfangs noch anhand von diversen Treiberversprechungen seitens NV einen ungefähren Gleichstad sehen wollte. Dann wartete man auf die 5800, später auf die 5900 und hat jetzt u.U. erst ne 6600GT im Rechner. Oder man hat sich damals einfach ne 9700p gekauft, die mittlerweile etwas geoct und fast die gleiche Leistung :D
Mich wundert nur in diesem Fall wieso das obrige irgendwie einen Unterschied machen sollte zu dem was ich vorher gepostet habe. Relativiere ich Deine Toleranz was Spielbarkeit betrifft und reduzierte settings kann ich heute auch Spielbarkeit mit 4xAA in 1600 behaupten; ergo sehe ich keinen Meinungs-Unterschied hier (was Du natuerlich auch nicht direkt behauptet hast).
Dr Hake
2005-03-04, 15:12:03
@ AiL
seh es mal von diesem Standpunkt: ein R300 reicht zwar nicht mehr um alle aktuellen Titel auf 1.280x1.024 mit AA/max AF zu spielen, und die aktuelle Midrange Reihe (GF6.600Gt, X700Pro) ist schneller, allerdings ist eben diese aktuelle Mittelklasse nicht soviel schneller dass man hierauf aktuelle Titel (Ausnahmen bestaetigen die Regel) mit hoeherer Aufloesung bei aktiviertem AA/AF fahren koennte. Ziehe bei diesem http://www.xbitlabs.com/articles/video/display/2004-27gpu2.html Review 10% der 9.800Pro Performance ab, und du siehst was ich meine.
robbitop
2005-03-04, 15:24:09
Ich habe ein a64 3500+ und eine 9800xt und das spiel farcry läuft absolut flüssig bei 1280x1024 @highest. Es gibt nur sehr wenige stellen wo die fps mal runter gehen. Ich habe auch eine x800xt pe und mit der habe ich auch in farcry "sehr selten" wenig fps.
Was sich ändert ist die höchste fps. An einer stelle wo ich vorher 55 fps hatte mit der 9800xt, habe ich dann mit der x800xt 105fps. Aber bei einer stelle z.B. wo ich mit der 9800xt 26fps habe ich mit der x800xt vll 3-4 fps mehr. Ich finde eh nicht die höchste fps ist wichtig, ob man jetze 55fps hat oder 105 ist ja eh schnuppe, sondern die niedrigste.
Warum du ein starkes ruckeln(lags), festgestellt hast ka. Ich habe auf jedenfall mit der 9800xt keine lags und sehr wenig stellen wo mal die fps sinkt...
klingt so als wären diese min FPS Stellen CPU limitiert. Du hast also fast die selben FPS ob nun mit oder ohne AA/AF.
Um die CPU ein wenig zu entlasten kannst du Geometric Instancing mittels ATI Tray tool aktivieren und den Patch 1.3 für Far Cry Installen. Besonders wenn Gegner kommen wird es smoother.
Gummikuh
2005-03-04, 15:26:06
Hab im Zweit-PC noch ne Radeon 9500@9700 und damit kann ich aktuelle Games in 1024x768 noch gut zocken und Prozzi is nen schnuckliger P4 mit 1,8 GHz...ok..AA und AF macht da keinen Sinn...aber wenn man sowas nicht braucht bzw. keinen Wert drauf legt, fährt man momentan mit nem R300 net so schlecht.
Mr. Lolman
2005-03-04, 15:26:25
@ AiL
seh es mal von diesem Standpunkt: ein R300 reicht zwar nicht mehr um alle aktuellen Titel auf 1.280x1.024 mit AA/max AF zu spielen, und die aktuelle Midrange Reihe (GF6.600Gt, X700Pro) ist schneller, allerdings ist eben diese aktuelle Mittelklasse nicht soviel schneller dass man hierauf aktuelle Titel (Ausnahmen bestaetigen die Regel) mit hoeherer Aufloesung bei aktiviertem AA/AF fahren koennte. Ziehe bei diesem http://www.xbitlabs.com/articles/video/display/2004-27gpu2.html Review 10% der 9.800Pro Performance ab, und du siehst was ich meine.
AFAIK wurde bei dem Review ATi Quality gg. NV Quality + Optimierungen getestet. Bei meiner 9700p war Quality seltsamerweise etwas langsamer als HQ. Außerdem tut sich Quality + Optimierungen eh kaum jemand freiweillig an, wo doch schon schnödes ATi-biAF zumindest bei Q3a deutlich besser aussieht...
Dr Hake
2005-03-04, 15:36:46
AFAIK wurde bei dem Review ATi Quality gg. NV Quality + Optimierungen getestet. Bei meiner 9700p war Quality seltsamerweise etwas langsamer als HQ. Außerdem tut sich Quality + Optimierungen eh kaum jemand freiweillig an, wo doch schon schnödes ATi-biAF zumindest bei Q3a deutlich besser aussieht...
ack, BRI koennte heutzutage auch R3(x)0 nicht schaden
xL|Sonic
2005-03-04, 15:46:42
Ich habe ein a64 3500+ und eine 9800xt und das spiel farcry läuft absolut flüssig bei 1280x1024 @highest. Es gibt nur sehr wenige stellen wo die fps mal runter gehen. Ich habe auch eine x800xt pe und mit der habe ich auch in farcry "sehr selten" wenig fps.
Was sich ändert ist die höchste fps. An einer stelle wo ich vorher 55 fps hatte mit der 9800xt, habe ich dann mit der x800xt 105fps. Aber bei einer stelle z.B. wo ich mit der 9800xt 26fps habe ich mit der x800xt vll 3-4 fps mehr. Ich finde eh nicht die höchste fps ist wichtig, ob man jetze 55fps hat oder 105 ist ja eh schnuppe, sondern die niedrigste.
Warum du ein starkes ruckeln(lags), festgestellt hast ka. Ich habe auf jedenfall mit der 9800xt keine lags und sehr wenig stellen wo mal die fps sinkt...
1. Du hast eine schnellere CPU
2. Sind bei mir auch wirklich alle Details auf maximum gewesen (nicht wie bei anderen die Shadows reduziert oder bilineares filtering etc.)
3. Gehe ich nach den MIN FPS, dass ich an einer Stelle 100 oder 150fps habe ist mir schnuppe, da es sich nicht aufs spielen auswirkt, 20fps im Gegensatz zu 40fps sich aber sehr wohl extrem auswirken.
Jeder hat einen anderen Maßstab, wenn es darum geht was flüssig ist. Manch einer spielt sogar nicht mit weniger als 85fps und für mich sind diese 24fps oder weniger einfach zu wenig, zumal es da nicht gerade wenige Stellen von gibt. Ich will durchweg ein rundes Ergebnis haben, so wie Ail schon gesagt hat und nicht wenn eine bestimmte Stelle kommt raus aus dem Spiel müssen um die Settings anzupassen.
Freu dich doch, dass du geringere Ansprüche hast, denn so kannst du länger mit den Settings und der Karte leben als ich. Weniger ist in dem Falle vielleicht doch mehr....zumindest hast du so mehr Geld im Geldbeutel, auch wenn sich die GrKa Hersteller nicht ganz so drüber freuen ;)
Der gesamten Serie will ich ja nicht diese Leistung bescheinigen. Allerdings bieten "einige" Karten etwas mehr fürs Geld. Will sagen, es gibt halt ein paar echt heiße Kärtchen die entsprechend viel bieten. Die Voodoo³, Radeon 9500 Pro, Radeon 9700 und aktuelle die Radeon X800 XL bieten halt unheimlich viel.
Zudem muß ein aktuelles Featureset nicht gleich immer den Untergang bedeuten, siehe nur die ganzen 3dfx-Karten. Selbst zu Voodoo³ und Voodoo 5 Zeiten war man mit zwei Voodoo² immer noch gut mit dabei. Und selbst nach dem Untergang von 3dfx blieb vieles noch sehr lange im spielbaren Bereich.Die Entwicklung war damals noch nicht so schnell. Seitdem Shader-Hochsprachen Einzug gehalten haben, ist es kein großes Problem, neue Shader-Versionen zu unterstützen.
Da greift man gerne blindlings zu, diese Serie hat das Zeug zur Legende zu werden. Natürlich wird man sich darauf nicht ewig ausruhen können, aber soviel Weitsicht traue ich ATI zu. SM3.0 ist ein ganz tolles "must have" - aber im Gegensatz zum endlich brauchbaren MSAA und tri-aF mit der R300 Einführung ein Witz. Denn letzteres kann der Anwender direkt nutzen (und das lange Zeit in sehr spielbaren Bereich), für SM3.0 sind die derzeitigen Karten schlichtweg zu langsam.Mit SM3 könnten bekannte Effekte verschnellert werden, bzw. bisher nicht in Echtzeit mögliche Effekte werden jetzt in Echtzeit möglich. Wieso sollten heutige Karten "zu langsam" für SM3 sein? Die langsamste Karte kann aus SM3 Nutzen ziehen. SM3-Anwendungen sind heute noch ziemlich rar, was aber nicht zuletzt daran liegt, dass ATI wegen mangelnden Entwicklungsressourcen für die R4xx-Serie auf die Technologiebremse gedrückt hat.
Hier und jetzt hat man von SM3-Support auf seiner Grafikkarte natürlich wenig bis gar nichts.
aths,
natürlich ist die 6600GT meist überlegen. Allerdings meine ich Fälle gesehen zu haben, wo eine standardmäßig getaktete 9800 Pro mithalten konnte. Wo genau, weiß ich nicht mehr -- ich gehe von Fällen aus, die Bandbreite fragen, da dort die Radeon dank 256Bit vorne ist.
Dennoch: Allein die Tatsache, dass erst jetzt - schlappe 2,5 Jahre nach Erscheinen der 9700 Pro - mit der 6600GT eine Karte kommt, die diese ehemalige High-End-Leistung für unter 200€ knapp schlägt, spricht IMHO Bände.Wann wurde z. B. die GeForce2 Pro von einer Midrange-Karte leistungsmäßig abgelöst, hätte es die Ausnahme-Erscheinung Kyro nicht gegeben?
Oder anders gesagt: Geht man nach anderen Standards, also beispielsweise nach obigen bzw. dem einer Person, die nicht derart verwöhnt von Eye-Candy und weniger gut betucht ist, dann reicht eine mit einem R300 bestückte Karte sicher noch 2 Jahre.Na ich weiß nicht. Die R300-Serie ist imo "moralisch verschlissen". In zwei Jahren, also 2007, sollte es auch schon längst Spiele geben, die SM3 und/oder FP16-Units brauchen. Viele Spiele kann man dann nur mit SM2-Effekten und in niedriger Auflösung spielen.
robbitop@work
2005-03-04, 16:00:20
Wann wurde z. B. die GeForce2 Pro von einer Midrange-Karte leistungsmäßig abgelöst, hätte es die Ausnahme-Erscheinung Kyro nicht gegeben?
Anfang 2002. Geforce ti4200 (midrange), Geforce 4MX (lowcost/midrange).
Also 1,5-2 Jahre nach ihrem Erscheinen. So what?
Hasto
2005-03-04, 16:07:52
1. Du hast eine schnellere CPU
2. Sind bei mir auch wirklich alle Details auf maximum gewesen (nicht wie bei anderen die Shadows reduziert oder bilineares filtering etc.)
3. Gehe ich nach den MIN FPS, dass ich an einer Stelle 100 oder 150fps habe ist mir schnuppe, da es sich nicht aufs spielen auswirkt, 20fps im Gegensatz zu 40fps sich aber sehr wohl extrem auswirken.
Jeder hat einen anderen Maßstab, wenn es darum geht was flüssig ist. Manch einer spielt sogar nicht mit weniger als 85fps und für mich sind diese 24fps oder weniger einfach zu wenig, zumal es da nicht gerade wenige Stellen von gibt. Ich will durchweg ein rundes Ergebnis haben, so wie Ail schon gesagt hat und nicht wenn eine bestimmte Stelle kommt raus aus dem Spiel müssen um die Settings anzupassen.
Freu dich doch, dass du geringere Ansprüche hast, denn so kannst du länger mit den Settings und der Karte leben als ich. Weniger ist in dem Falle vielleicht doch mehr....zumindest hast du so mehr Geld im Geldbeutel, auch wenn sich die GrKa Hersteller nicht ganz so drüber freuen ;)
Also ich habe oben glaube ich ganz deutlich geschrieben @ highest. Und unter 25fps hatt ich in farcry noch net. Das mit dem gefühl stimmt schon. Für einen sind 30fps genug und für den anderen viel zu wenig. Aber solche stellen kommen wie gesagt auch mit einer x800xt. Wenn man aa+af zuschaltet sieht man natürlich einen unterschied zwischen der 9800xt und der x800xt, aber die lags zum beispiel habe ich definitiv net. Spielgefühl hin oder her, lags bemerke ich auf jedenfall und sowas habe ich net.
Anfang 2002. Geforce ti4200 (midrange), Geforce 4MX (lowcost/midrange).
Also 1,5-2 Jahre nach ihrem Erscheinen. So what?Hat auch ne ziemlich lange Zeit gehalten. Die R300 ist da zwar einer der Glanzpunkte, aber auch keine extraordinäre Ausnahmeerscheinung, finde ich. Vielleicht kommt der Eindruck vor allem dadurch zustande, dass die Konkurrenz damals mit dem NV30 nur ein recht kurzlebiges Highend-Produkt ablieferte. Da steht der R300 natürlich im Kontrast zu da, 6 Monate früher auf dem Markt, und trotzdem viel länger gehalten.
Piffan
2005-03-04, 17:52:07
Doch, es ist eine absolute Ausnahme. Nenne mal einen Chip, der bei Erlangung der Marktreife absolut der Überflieger war und sich dennoch so krass übertakten ließ, so dass er selbst heute noch absolut zum Zocken neuer Titel geeignet ist. Meine 9700 geht von 275 Mhz (bei 8 Pipes, damals absolut WOW und mit voller 256bit- Speicheranbindung!1111) bis auf 390 Mhz ohne zu Murren.....
Dagegen war der NV30 niemals High- End! Zwar pralle Featureliste, aber mit berüchtigter Shader- Schwäche.
Was der R300 an Features bietet, ist auch zu gebrauchen.
mapel110
2005-03-04, 18:18:46
Hat auch ne ziemlich lange Zeit gehalten. Die R300 ist da zwar einer der Glanzpunkte, aber auch keine extraordinäre Ausnahmeerscheinung, finde ich. Vielleicht kommt der Eindruck vor allem dadurch zustande, dass die Konkurrenz damals mit dem NV30 nur ein recht kurzlebiges Highend-Produkt ablieferte. Da steht der R300 natürlich im Kontrast zu da, 6 Monate früher auf dem Markt, und trotzdem viel länger gehalten.
Nö, der Eindruck kam dadurch zustande, weil nvidia die User mit einem bisschen Pixelshader2.0 Performance und ein bisschen mehr dx8-Performance abgespeist hätte, wäre der R300 nicht gekommen oder sogut gewesen.
Nvidia wäre bei den Taktraten vielleicht bis max 400/350 (Core/Ram) gegangen und das wäre es gewesen, obendrein nur 128bit-Speicherinterface.
Da bot der R300 doch wesentlich mehr Power.
Doch, es ist eine absolute Ausnahme. Nenne mal einen Chip, der bei Erlangung der Marktreife absolut der Überflieger war und sich dennoch so krass übertakten ließ, so dass er selbst heute noch absolut zum Zocken neuer Titel geeignet ist. Meine 9700 geht von 275 Mhz (bei 8 Pipes, damals absolut WOW und mit voller 256bit- Speicheranbindung!1111) bis auf 390 Mhz ohne zu Murren.....
Dagegen war der NV30 niemals High- End! Zwar pralle Featureliste, aber mit berüchtigter Shader- Schwäche.
Was der R300 an Features bietet, ist auch zu gebrauchen.
Hmm also die Voodoo1 hat ähnlich lange gehalten. Da ich ab 1998 meinen Rechner verkauft habe (da ich keine Lust mehr auf PCs hatte und das Geld für meine Anlage brauchte) hab ich Mitte 2001 zum Schreibe den alten Rechner meiner Mutter bekommen. "Dank" Riva128ZX war das Ding untauglich zum Spielen, aber für ne UT-LAN hab ich dann ne Voodoo2 von einem Freund bekommen und ich konnte es spielen. Und eienige andere Spiele (mit einschränkungen) auch. Also ich denke, dass die ersten beiden Voodoos noch etwas länger hielten. Aber meine 9700np, die ich ende 2002 kaufte war ohne Zweifel eine der besten Grakas, die ich mir gekauft habe. Dass ich mir dann eine 9800pro kaufte lag nur daran, dass ich für das "Upgrade" nur 50 Euro bezahlt habe.
Aquaschaf
2005-03-04, 19:39:06
Ich glaube auch dass der Eindruck der extrem langen Lebensdauer der ersten Generation von R300-Karten einige Faktoren beitragen. Einerseits lag zum Erscheinungsdatum ein größerer technologischer Fortschritt schon lange zurück; die Geforce 4 war ja gegenüber ihrem Vorgänger nicht sehr viel mehr als ein Update an Rohleistung. Hinzu kommt natürlich dass der direkte Gegenspieler später erschien aber nicht mehr Leistung bot. Dazu noch der Kontrast zwischen dem (so kam es mir zumindest vor) relativ stillen Erscheinen des R300 und dem großen Hype der um den NV30 im Voraus gemacht wurde und eben die - nüchtern betrachtet - tatsächliche Langlebigkeit dieses Designs. Was man ja auch daran sieht dass ATI das Design für die R4xx-Chips einfach weiterverwenden konnte und damit gegen einen technisch fortgeschritteneren Chip von NVidia zumindest einen praktischen Gleichstand beibehalten kann.
Ich glaube auch dass der Eindruck der extrem langen Lebensdauer der ersten Generation von R300-Karten einige Faktoren beitragen. Einerseits lag zum Erscheinungsdatum ein größerer technologischer Fortschritt schon lange zurück; die Geforce 4 war ja gegenüber ihrem Vorgänger nicht sehr viel mehr als ein Update an Rohleistung. Hinzu kommt natürlich dass der direkte Gegenspieler später erschien aber nicht mehr Leistung bot. Dazu noch der Kontrast zwischen dem (so kam es mir zumindest vor) relativ stillen Erscheinen des R300 und dem großen Hype der um den NV30 im Voraus gemacht wurde und eben die - nüchtern betrachtet - tatsächliche Langlebigkeit dieses Designs. Was man ja auch daran sieht dass ATI das Design für die R4xx-Chips einfach weiterverwenden konnte und damit gegen einen technisch fortgeschritteneren Chip von NVidia zumindest einen praktischen Gleichstand beibehalten kann.
Ein gutes und durchdachtes Posting - dem kann ich voll und ganz zustimmen. :up:
Ailuros
2005-03-05, 04:02:54
@ AiL
seh es mal von diesem Standpunkt: ein R300 reicht zwar nicht mehr um alle aktuellen Titel auf 1.280x1.024 mit AA/max AF zu spielen, und die aktuelle Midrange Reihe (GF6.600Gt, X700Pro) ist schneller, allerdings ist eben diese aktuelle Mittelklasse nicht soviel schneller dass man hierauf aktuelle Titel (Ausnahmen bestaetigen die Regel) mit hoeherer Aufloesung bei aktiviertem AA/AF fahren koennte. Ziehe bei diesem http://www.xbitlabs.com/articles/video/display/2004-27gpu2.html Review 10% der 9.800Pro Performance ab, und du siehst was ich meine.
Erstens ging es hier eher um weniger AA/AF samples als 4xAA/8xAF und zweitens erwarte ich auch sowieso nicht selbst heute von einer mainstream Karte die knapp unter 200 euros kostet, dass ich damit mit 4xAA/8xAF in 1280 spielen kann.
Es steht auch nichts in Deinem obrigen Post dass dem was ich bis jetzt sagte entgegenspricht. Nicht dass es der R3xx/NV3x einen besonderen Unterschied machen wird bei >3200+, aber dieser Review wurde nur so nebenbei mit einem AMD64 4000+ ausgefuehrt.
Ailuros
2005-03-05, 04:13:18
AFAIK wurde bei dem Review ATi Quality gg. NV Quality + Optimierungen getestet. Bei meiner 9700p war Quality seltsamerweise etwas langsamer als HQ. Außerdem tut sich Quality + Optimierungen eh kaum jemand freiweillig an, wo doch schon schnödes ATi-biAF zumindest bei Q3a deutlich besser aussieht...
Um Missverstaendnissen zu entgehen "quality" bezieht sich bei Radeons auf den MIPmap LOD Level (im gegebenen Fall +0.5), wobei auf GeForces es sich um die AF-Optimierungen handelt.
Optimierungen waren in beiden Faellen eingeschaltet, nur gab man den Radeons einen minimalen Leistungs-Vorsprung, der IMHO nicht der Rede wert ist (man wird eben mit +0.5 so einiges aliasing los).
Du bist der erste von dem ich hoere dass auf einer R300 oder jeglichen anderen Karte +0.5 langsamer ist, als "0". Auf jeden Fall konnte ich nichts dergleichen bemerken und ein Gegenfall macht auch keinen Sinn.
Wo soll bi-AF "besser" in Q3A aussehen? Mein Gedaechtnis deutet eher auf abscheuliches MIPmap banding in dm15 und womoeglich noch andere einzelne Faelle an die ich mich nicht mehr erinnern kann.
Mrs. Lolman
2005-03-05, 04:29:24
Um Missverstaendnissen zu entgehen "quality" bezieht sich bei Radeons auf den MIPmap LOD Level (im gegebenen Fall +0.5), wobei auf GeForces es sich um die AF-Optimierungen handelt.
Optimierungen waren in beiden Faellen eingeschaltet, nur gab man den Radeons einen minimalen Leistungs-Vorsprung, der IMHO nicht der Rede wert ist (man wird eben mit +0.5 so einiges aliasing los).
Du bist der erste von dem ich hoere dass auf einer R300 oder jeglichen anderen Karte +0.5 langsamer ist, als "0". Auf jeden Fall konnte ich nichts dergleichen bemerken und ein Gegenfall macht auch keinen Sinn.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=1924537#post1924537 (ff.)
Wo soll bi-AF "besser" in Q3A aussehen? Mein Gedaechtnis deutet eher auf abscheuliches MIPmap banding in dm15 und womoeglich noch andere einzelne Faelle an die ich mich nicht mehr erinnern kann.
R300tri vs NV40 (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2780512#post2780512)
R300bi vs NV40 (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2780710#post2780710)
Wozu sind dort jeweils zwei Bilder unter einer Überschrift?
Mr. Lolman
2005-03-05, 12:25:33
Wozu sind dort jeweils zwei Bilder unter einer Überschrift?
Was meinst du?
Hamster
2005-03-05, 13:09:51
Doch, es ist eine absolute Ausnahme. Nenne mal einen Chip, der bei Erlangung der Marktreife absolut der Überflieger war und sich dennoch so krass übertakten ließ, so dass er selbst heute noch absolut zum Zocken neuer Titel geeignet ist. Meine 9700 geht von 275 Mhz (bei 8 Pipes, damals absolut WOW und mit voller 256bit- Speicheranbindung!1111) bis auf 390 Mhz ohne zu Murren.....
Dagegen war der NV30 niemals High- End! Zwar pralle Featureliste, aber mit berüchtigter Shader- Schwäche.
Was der R300 an Features bietet, ist auch zu gebrauchen.
ack!
hatte bis jetzt eine 9700@400|340 und konnte bisher alles mit high details @1024 spielen. ok auf aa und af mußte ich bei neueren games komplett verzichten, aber dennoch lief alles gut spielbar. lediglich bei riddick merkte ich, daß die 9700er langsam an ihre grenzen stößt. und für die anspruchsloseren gamer, wird der r300/r350 bestimmt noch 1-2 jahre reichen (wenn man sieht, daß viele von denen noch auf einer gf4mx unterwegs sind....).
Meine 9700 geht von 275 Mhz (bei 8 Pipes, damals absolut WOW und mit voller 256bit- Speicheranbindung!1111) bis auf 390 Mhz ohne zu Murren.....Ich weiß nicht was ihr gemacht habt, aber meine 9700 Pro der ersten Stunde ging nicht weiter als 340Mhz (absolut stabil natürlich)
hm..wakü vielleicht?! :D gg
oder voltmod ?! :biggrin:
Jesus
2005-03-05, 14:27:30
Machen wir es mal anders....
Far Cry
build 1337
patch 1.3
winXP PRO / SP2
DX9.0c
71.81
6800 (16p/6vs) @ 360/437MHz
max in game detail
1280*960*32
2xAA/4x high quality AF:
http://users.otenet.gr/~ailuros/factory.jpg
Ich zaehle 6 bots. Niedrigste Leistung wird im shot illustriert, hoechste war 27 fps bei der Ballerei.
Was hast du für ne CPU ?
9800 Pro @ 398/364, 1280x960 2xAA 4xAF, AI off
Ingame alles Very high /ultra high + EAX2.0 (sound auch High)
Super spielbar bei diesen Settings! (und ich finde das AA bei mir wesentlich besser :) )
http://nemesis.rushers.net/F4.jpg
http://nemesis.rushers.net/f5.jpg
Lightning
2005-03-05, 17:20:39
Was hast du für ne CPU ?
9800 Pro @ 398/364, 1280x960 2xAA 4xAF, AI off
Ingame alles Very high /ultra high + EAX2.0 (sound auch High)
Super spielbar bei diesen Settings! (und ich finde das AA bei mir wesentlich besser :) )
Zum einen finde ich bei deinem oberen Screen weniger Bots. Zum anderen: Was für ein AF ist das genau?
Die Qualität des AAs oder auch die allgemeine Bildqualität lässt sich aufgrund der sehr unterschiedlichen JPG-Kompression und Helligkeit leider nicht vergleichen.
Jesus
2005-03-05, 17:36:19
Zum einen finde ich bei deinem oberen Screen weniger Bots. Zum anderen: Was für ein AF ist das genau?
Stimmt sind nur 4 Bots sichtbar, sollten aber mehr im Hintergrund rumlaufen. Das AF ist 4x, trilinear. JPEG 100%.
Warum hast du A.I. off? Bringt bei gleicher Qualität noch mal ein paar Frames. =)
MfG,
Raff
Jesus
2005-03-05, 17:42:02
Warum hast du A.I. off? Bringt bei gleicher Qualität noch mal ein paar Frames. =)
MfG,
Raff
Naja er hatte High Quality, da sind doch auch Optimierungen off oder ?
Quasar
2005-03-05, 17:42:58
Bei vielen Bots könnte auch die CPU eine Rolle spielen, oder täusche ich mich da?
Gummikuh
2005-03-05, 19:22:03
Normalerweise schon...
Piffan
2005-03-05, 20:40:16
Bei vielen Bots könnte auch die CPU eine Rolle spielen, oder täusche ich mich da?
Gerade bei FC ist das auffällig. Level "Fort" ist anfangs eher weniger performant, solange es am Strand von den Söldnern nur so wimmelt.
Ebenfalls entscheidend ist die Einstellung unter den Spieloptionen, ob man denn über ein schnelles System verfügt. Hat Einfluss auf die KI und Performance....
Das Dumme an FC ist, dass in sehr vielen Bereichen ne CPU- Limitierung besteht und das LOD Differenzen verwischen kann.....Bei der UT- Engine war das früher ja auch so, es gab nen Regler für das LOD, welches dann auch die Effekte runterschraubte....Zum Benchen sind solche Dinge natürlich Gift...
Ailuros
2005-03-06, 14:11:17
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=1924537#post1924537 (ff.)
R300tri vs NV40 (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2780512#post2780512)
R300bi vs NV40 (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2780710#post2780710)
Ich sagte DM15. Das sind DM17 shots.
Zum MIPmap LOD verbleibe ich auf der Behauptung; normalerweise alles >0.0 (+) ist schneller und alles <0.0 (-) ist langsamer.
Mr. Lolman
2005-03-06, 14:23:50
Ich sagte DM15. Das sind DM17 shots.
Ja und? Glaubst du, dass NV bei DM15 aufeinmal besser filtert? Außerdem sind die Shots schon entstanden, bevor du was von DM15 gesagt hast.
Zum MIPmap LOD verbleibe ich auf der Behauptung; normalerweise alles >0.0 (+) ist schneller und alles <0.0 (-) ist langsamer.
Sollte eigentlich auch so sein. Nur haben halt Madmanniman und ich genau das Gegenteil feststellen müssen (auch beim AM3 ists so, und sonst hab ich damals nix getestet)
Ailuros
2005-03-06, 14:47:36
Ja und? Glaubst du, dass NV bei DM15 aufeinmal besser filtert? Außerdem sind die Shots schon entstanden, bevor du was von DM15 gesagt hast.
Faelle wie DM15 brauchen eben voll trilineares AF und im gegebenen Fall soll dass heissen dass eben bilineares AF nicht gut genug ist fuer Q3A, wenn man keine Nebeneffekte ertragen will.
Koennt ihr mal ausnahmsweise dieses alberne ATI vs. NVIDIA Zeug loswerden, wenn es zu solchen Themen kommt?
Du hast uebrigens auf einen Post von mir geantwortet, wo ich klipp und klar DM15 erwaehnte. Entweder hat Deine Antwort eben relevante Daten zu diesem oder eben nicht, was leider hier der Fall ist.
Sollte eigentlich auch so sein. Nur haben halt Madmanniman und ich genau das Gegenteil feststellen müssen (auch beim AM3 ists so, und sonst hab ich damals nix getestet)
In wievielen Faellen konntet ihr dieses Phaenomen feststellen? Ausnahme =! Regel.
Ailuros
2005-03-06, 14:56:42
Was hast du für ne CPU ?
9800 Pro @ 398/364, 1280x960 2xAA 4xAF, AI off
Ingame alles Very high /ultra high + EAX2.0 (sound auch High)
Super spielbar bei diesen Settings! (und ich finde das AA bei mir wesentlich besser :) )
http://nemesis.rushers.net/f5.jpg
Athlon XP3000+ (EAX2.0 und sound auf high bei mir genauso da Audigy2)
Ich hab mal mit Absicht den zweiten shot von Dir stehenlassen. Schoen ich stelle mich auf die Mitte der Bruecke (mit weniger bots) und versuche auch mich nicht erschiessen zu lassen (God mode ist Absicht hier).
1280*960/ 2xAA/4xAF
http://users.otenet.gr/~ailuros/2xAA1280.jpg
1280*960/ 4xAA/4xAF
http://users.otenet.gr/~ailuros/4xAA1280.jpg
1600*1200/ 2xAA/4xAF
http://users.otenet.gr/~ailuros/2xAA1600.jpg
1600*1200/ 4xAA/4xAF
http://users.otenet.gr/~ailuros/4xAA1600.jpg
Ausser der Tatsache dass im letzten Fall viel mehr agp texturing vorkommt, bemerkst Du sonst noch was?
Mr. Lolman
2005-03-06, 14:56:59
Faelle wie DM15 brauchen eben voll trilineares AF und im gegebenen Fall soll dass heissen dass eben bilineares AF nicht gut genug ist fuer Q3A, wenn man keine Nebeneffekte ertragen will.
Koennt ihr mal ausnahmsweise dieses alberne ATI vs. NVIDIA Zeug loswerden, wenn es zu solchen Themen kommt?
Du hast uebrigens auf einen Post von mir geantwortet, wo ich klipp und klar DM15 erwaehnte. Entweder hat Deine Antwort eben relevante Daten zu diesem oder eben nicht, was leider hier der Fall ist.
sorry, aber deine Frage war:
Wo soll bi-AF "besser" in Q3A aussehen? Mein Gedaechtnis deutet eher auf abscheuliches MIPmap banding in dm15 und womoeglich noch andere einzelne Faelle an die ich mich nicht mehr erinnern kann.
Ich hab dir gezeigt, wos besser aussieht. Das biAF für Q3a natürlich nicht unbedingt empfehlenswert ist, weiss man auch so. Aber kaum jemand wusste, dass NV Quality+Opts AF in Q3a schlechter aussieht. Das hab ich gezeigt, und wenn du dich jetzt auf DM15 versteifst, tuts mir leid. Man merkt einfach, dass bei Atis biAF die insgesamte Schärfe über alle Mips verteilt gleichmässiger ist, als bei NV, da ändern Mips mit besser sichtbaren Banding auch nix daran.
In wievielen Faellen konntet ihr dieses Phaenomen feststellen? Ausnahme =! Regel.
In 100% der getesteten Fälle (die sich leider auf 2 beschränken ;)) Wenn nicht mindestens 2 Gegenbeispiele kommen, muss man davon ausgehen, dass Q auf Atis langsamer ist, als HQ.
Ailuros
2005-03-06, 15:08:48
Bei vielen Bots könnte auch die CPU eine Rolle spielen, oder täusche ich mich da?
Das die Szene verdammt CPU limitiert ist, sollte man wohl sehen koennen. Ein AMD64 3000+ wird schon einen gewissen Unterschied machen im Vergleich zu einem XP 3000+, aber auch nicht zu einem Grad wo sich die Spielbarkeit aendern wuerde fuer solche Faelle. Dafuer braeuchte man dann schon zumindest einen =/> AMD64 3200+, wobei aber die CPU-Skalierung fuer R3xx/NV3x eigentlich schon auslauft.
Ich wartete mit Absicht lange genug bis 6 bots erscheinten auf dem 19 fps shot und die Ballerei heftig genug war. Wer einen Vergleich machen will sollte im gegebenen Fall auch anstaendigerweise etwa auf der gleichen Stelle stehen und auf eine analoge Anzahl von bots warten. Es ist nicht so dass ich nur einen shot zeigte, es gab auch Leistungsnummern von timedemos in meinem Post.
Ailuros
2005-03-06, 15:22:22
sorry, aber deine Frage war:
Ups das war tatsaechlich schlecht formuliert, da hast Du recht und ich entschuldige mich.
Ich hab dir gezeigt, wos besser aussieht. Das biAF für Q3a natürlich nicht unbedingt empfehlenswert ist, weiss man auch so. Aber kaum jemand wusste, dass NV Quality+Opts AF in Q3a schlechter aussieht. Das hab ich gezeigt, und wenn du dich jetzt auf DM15 versteifst, tuts mir leid. Man merkt einfach, dass bei Atis biAF die insgesamte Schärfe über alle Mips verteilt gleichmässiger ist, als bei NV, da ändern Mips mit besser sichtbaren Banding auch nix daran.
Um es klarer zu machen, die Affaere wird laecherlich bei einem Spiel wie Q3A auf heutigen Karten, weil das Spiel schon so verdammt schnell ist, dass es sowieso keinen Sinn mehr macht zu irgendwelchen Optimierungen ueberhaupt zu greifen. Du laesst doch auch nicht Textur-Kompression in dem Ding an oder?
Dass ATI's bi-AF in relativem Sinn sehr gut aussieht behauptete ich schon immer und es gab auch ein paar sehr hitzige Debatten in der Vergangenheit darueber.
In 100% der getesteten Fälle (die sich leider auf 2 beschränken ;)) Wenn nicht mindestens 2 Gegenbeispiele kommen, muss man davon ausgehen, dass Q auf Atis langsamer ist, als HQ.
Ich sagte von Angang an dass der Leistungsunterschied zwischen 0 und +0.5 minimal sein duerfte (da es ja um den Review ging). Nichtdestominder war die R300 bei mir um ein kleines Stueck schneller mit positiverem LOD in der Mehrzahl der Faelle; ich hatte ja sowieso in den meisten Spielen "quality" eingestellt um aliasing zu mindern und stellte es auf HQ hoch fuer benchmarks. Ich installier jetzt nicht noch mal um Himmel's Willen die Karte um das nachweisen zu koennen und schon gar nicht fuer Q3A, wo das multitexturing sowieso in gewissem Sinn verkorkst ist (wendet mehr als 2 Schichten oefters an, zwingt aber zu dual layer MT egal ob GPU ueber mehr layer von MT faehig ist AFAIK).
Jesus
2005-03-06, 15:33:25
Ausser der Tatsache dass im letzten Fall viel mehr agp texturing vorkommt, bemerkst Du sonst noch was?
Das es CPU limitiert ist ist mir auch klar (siehe mein Frage...). Wieso stellst du dann so ein Bild rein mit der Behauptung es wäre wohl nicht mehr spielbar mit r300 und Co ?
Selbst wenn ich mit 6xAA 16xAF an der Stelle spiele bekomme ich noch "relativ gute" Frameraten (zw. 25 und 18), mit meinem veralteten R350...
Mr. Lolman
2005-03-06, 15:46:58
Um es klarer zu machen, die Affaere wird laecherlich bei einem Spiel wie Q3A auf heutigen Karten, weil das Spiel schon so verdammt schnell ist, dass es sowieso keinen Sinn mehr macht zu irgendwelchen Optimierungen ueberhaupt zu greifen. Du laesst doch auch nicht Textur-Kompression in dem Ding an oder?
Das Problem ist, dass mit Q+opts gebencht wird. Ich schau grad, ob das Q+Opts Phänomen auch bei anderen Spielen auftritt. Blderweise geht Rddick nicht mit dem 3DA, und D³ verliert zwar 50% fps zeigt aber keine Colormips an...
BTW: Hier noch die DM17 Shots:
71.84,Q+Opts,4xAA/16xAF:
http://img79.exs.cx/img79/674/q3a7184qopts5pv.th.jpg (http://img79.exs.cx/my.php?loc=img79&image=q3a7184qopts5pv.jpg)
Softmod5.1, HQ, 4xAA/16xbiAF;
http://img79.exs.cx/img79/5682/q3a51bi7mj.th.jpg (http://img79.exs.cx/my.php?loc=img79&image=q3a51bi7mj.jpg)
Ich sagte von Angang an dass der Leistungsunterschied zwischen 0 und +0.5 minimal sein duerfte (da es ja um den Review ging). Nichtdestominder war die R300 bei mir um ein kleines Stueck schneller mit positiverem LOD in der Mehrzahl der Faelle; ich hatte ja sowieso in den meisten Spielen "quality" eingestellt um aliasing zu mindern und stellte es auf HQ hoch fuer benchmarks.
Hm, ich lass mal ein paar Benchmarks rennen...
Jesus
2005-03-06, 15:56:41
Machen wir es mal anders....
Far Cry
build 1337
patch 1.3
winXP PRO / SP2
DX9.0c
71.81
6800 (16p/6vs) @ 360/437MHz
max in game detail
1280*960*32
2xAA/4x high quality AF:
Regulator : avg 48.22 fps, min 22.54 fps, max 83.98 fps
9800Pro, 1280x960 2xAA 4xAF, AI=default (@398/364Mhz), alles very high ultra high + EAX:
Play Time: 101.07s, Average FPS: 30.12
Min FPS: 22.98 at frame 2414, Max FPS: 80.06 at frame 843
(man beachte das Fettgedruckte)
Edit: Mit AI auf advanced gibts noch 1 fps mehr im avg :)
Ob jetzt default 325 oder 360 oder mehr Taktrate auf der R300, bekam ich in diesem Fall (1280/ 2xAA/4xAF) zumindest in Regulator (sobald es nach aussen ging) miserable single-digit Frameraten. Nachvollziehen kann die obrigen Faelle jedermann leicht, denn die demos sind ja auf dem Netz verfuegbar.
Absolut nicht nachvollziehbar, die demo läuft absolut flüssig, und ruckelt zu keinem Zeitpunkt bei diesen Settings.
Ailuros
2005-03-06, 16:14:04
9800Pro, 1280x960 2xAA 4xAF, AI=default (@398/364Mhz), alles very high ultra high + EAX:
Play Time: 101.07s, Average FPS: 30.12
Min FPS: 22.98 at frame 2414, Max FPS: 80.06 at frame 843
(man beachte das Fettgedruckte)
Absolut nicht nachvollziehbar, die demo läuft absolut flüssig, und ruckelt zu keinem Zeitpunkt bei diesen Settings.
Aha! Hier muss ich natuerlich meinen vorigen Kommentar zuruecknehmen, da man hier wahrscheinlich schon einiges durch die Treiber optimiert hat. Und nein ich meine hier auf keinen Fall irgendwelche illegale Optimierung, aber beide IHVs haben es womoeglich in letzter Zeit geschafft den multipass-lighting Quatsch von FC (ohne SM2.0_b oder SM3.0 path) zu umgehen. Gleiches galt ebenso seit dem 61.7x fuer NV4x, wo der SM2.0 path komischerweise nicht mehr allzu viel entfernt war vom SM3.0 path.
Frage: AI=default heisst doch dass Optimierungen eingeschaltet sind oder? (viel mehr wird das am obrigen sowieso nicht aendern; nur rein theoretische Frage).
Ja, A.I. @ Default ist Standard, damit sind die Optimierungen und damit verbundenen Bugfixes an.
Wenn mir jemand ein Savegame schickt, kann ich gerne auch noch mal an dieser Stelle testen.
MfG,
Raff
Mr. Lolman
2005-03-06, 16:20:52
So wies aussieht, gibts unter OpenGL mit Q+Opts generell nur biAF (wie auch schon bei den Q3a Screenshots zu sehen)
Getestet mit 71.84 und folgenden Anwendungen:
Q3a
Serious Sam
Doom³
Call of Duty
Medal of Honor Pcaific Assault
Chronicles of Riddick
XMas Filtertest
Ailuros
2005-03-06, 16:25:09
Das Problem ist, dass mit Q+opts gebencht wird. Ich schau grad, ob das Q+Opts Phänomen auch bei anderen Spielen auftritt. Blderweise geht Rddick nicht mit dem 3DA, und D³ verliert zwar 50% fps zeigt aber keine Colormips an...
Natuerlich wird meistens mit quality gebencht auf GeForces, weil eben auch Radeon Treiber auf default mit Optimierungen eingestellt sind.
Von dem abgesehen fuer Q3A verbleibt es Bloedsinn die Optimierungen ueberhaupt zu benutzen. Ich will wetten dass Du mit dem System in Deiner Unterschrift um einiges ueber die 100fps Grenze schiesst in Q3A (1600 mit 4xAA/16x HQ AF), TC aus und Geometrie auf hoehere Werte als default (wenn's nicht gleich 150 oder mehr fps sind...).
Ailuros
2005-03-06, 16:27:24
Ja, A.I. @ Default ist Standard, damit sind die Optimierungen und damit verbundenen Bugfixes an.
Wenn mir jemand ein Savegame schickt, kann ich gerne auch noch mal an dieser Stelle testen.
MfG,
Raff
Fuer Regulator brauchst Du kein Savegame; falls Du das demo nicht haben solltest es gibt auf guruof3d eine FC Benchmark-Applikation die mehrere demos beinhaltet, unter diesen auch Regulator.
Jesus
2005-03-06, 16:31:58
Aha! Hier muss ich natuerlich meinen vorigen Kommentar zuruecknehmen, da man hier wahrscheinlich schon einiges durch die Treiber optimiert hat. Und nein ich meine hier auf keinen Fall irgendwelche illegale Optimierung, aber beide IHVs haben es womoeglich in letzter Zeit geschafft den multipass-lighting Quatsch von FC (ohne SM2.0_b oder SM3.0 path) zu umgehen. Gleiches galt ebenso seit dem 61.7x fuer NV4x, wo der SM2.0 path komischerweise nicht mehr allzu viel entfernt war vom SM3.0 path.
Frage: AI=default heisst doch dass Optimierungen eingeschaltet sind oder? (viel mehr wird das am obrigen sowieso nicht aendern; nur rein theoretische Frage).
ja richtig, mit AI = off siehts so aus:
Play Time: 95.58s, Average FPS: 31.85
Min FPS: 23.63 at frame 492, Max FPS: 75.63 at frame 868
noch schneller :) (liegt daran das ingame AA schneller ist, vorher wars CP geforced)
Was man allerdings tun sollte ist einmal kurz in den Desktop switchen per alt-tab und wieder zurück, oder die Auflösung kurz ändern und wieder rückgängig machen, sonst hat man wirklich miserable Frameraten wie diese:
Play Time: 137.08s, Average FPS: 22.21
Min FPS: 13.98 at frame 1165, Max FPS: 55.80 at frame 658
Keine Ahnung ob das ein Bug ist oder so, ist schon immer so gewesen bei FC.
Mr. Lolman
2005-03-06, 16:34:51
Natuerlich wird meistens mit quality gebencht auf GeForces, weil eben auch Radeon Treiber auf default mit Optimierungen eingestellt sind.
Was imo blödsinnig ist, wenn jedes OpenGl Spiel mit Atis biAF schon besser aussieht. (Optimierungen hin oder her)
Von dem abgesehen fuer Q3A verbleibt es Bloedsinn die Optimierungen ueberhaupt zu benutzen. Ich will wetten dass Du mit dem System in Deiner Unterschrift um einiges ueber die 100fps Grenze schiesst in Q3A (1600 mit 4xAA/16x HQ AF), TC aus und Geometrie auf hoehere Werte als default (wenn's nicht gleich 150 oder mehr fps sind...).
Stimm ich dir vollkommen zu. Es war halt die App. mit der man unter OpenGL am einfachsten zu Colormips kommt.
Wegen der fps: Das glaub ich dir gerne, denn meine 9700p hat in den von dir genannten Settings schon 120fps erreicht (Raffs 9800p sogar über 140fps :eek: ), und mit fastest, no sound waren sogar 515fps drinnnen!! Die 500fps werd ich wohl nicht mehr erreichen (CPU limitierte Szenen sind mit meiner 6800GT nun etwas langsamer als damals mit der 9700p), aber die 150 sollten locker drinnen sein :)
Ailuros
2005-03-06, 16:47:44
Was man allerdings tun sollte ist einmal kurz in den Desktop switchen per alt-tab und wieder zurück, oder die Auflösung kurz ändern und wieder rückgängig machen, sonst hat man wirklich miserable Frameraten wie diese:
Play Time: 137.08s, Average FPS: 22.21
Min FPS: 13.98 at frame 1165, Max FPS: 55.80 at frame 658
Keine Ahnung ob das ein Bug ist oder so, ist schon immer so gewesen bei FC.
Huh? Beim Durchlauf eines timedemos mit alt+tab zum desktop und wieder zurueck oder die Aufloesung aendern? Ich nix verstehen :D Meinst Du jetzt vor dem timedemo schnell die Aufloesung aendern? (ist ja sowieso egal Dein voriger Test beweisst ja dass ich nicht Recht hatte).
Ich kann mich nur daran erinnern auf der Radeon in game AA benutzt zu haben (mach ich sowieso in der Mehrzahl der Faelle egal welche Karte, ausser ich will irgendeinen merkwuerdigen modus der vom Spiel nicht unterstuetzt wird). Die minimalen Frameraten lagen damals unter der 10fps Grenze (was war der aktuellste Treiber ~Mai 2004?).
Jesus
2005-03-06, 16:51:13
Huh? Beim Durchlauf eines timedemos mit alt+tab zum desktop und wieder zurueck oder die Aufloesung aendern? Ich nix verstehen :D Meinst Du jetzt vor dem timedemo schnell die Aufloesung aendern? (ist ja sowieso egal Dein voriger Test beweisst ja dass ich nicht Recht hatte).
Ja vor dem Timedemo, nachdem man den Level geladen hat (sollte man auch im singleplayer modus tun dann gibts bessere FPS, einmal reicht). Ka ob das ein ATI Bug ist oder an FC liegt.
Ailuros
2005-03-06, 16:54:08
Was imo blödsinnig ist, wenn jedes OpenGl Spiel mit Atis biAF schon besser aussieht. (Optimierungen hin oder her)
Du willst mir doch nicht einreden, dass es keine Einsprueche geben wird, egal welche Methoden ein Reviewer benutzen wird oder?
Optimierungen vs. Optimierungen
oder
keine Optimierungen vs. keine Optimierungen
....klingt mir persoenlich als ziemlich fair. Man koennte auch wahlweise gewisse Optimierungen anlassen und andere ausschalten, aber am Ende wird immer gemeckert.
Wuerdest Du einen ATI bi-AF gegen einen NV high quality-AF vorschlagen? Au weia....das wuerde so manche Klagen hervorrufen und dazu waeren sie auch voll gerechtfertigt.
Ailuros
2005-03-06, 16:59:15
Ja vor dem Timedemo, nachdem man den Level geladen hat (sollte man auch im singleplayer modus tun dann gibts bessere FPS, einmal reicht). Ka ob das ein ATI Bug ist oder an FC liegt.
Ich renne die timedemos nicht aus dem Spiel (per call from console), deshalb ist mir das wohl auch nie aufgefallen.
Timedemos sollte man sowieso zweimal durchlaufen lassen nacheinander, wegen der Textur-ladezeit.
Quasar
2005-03-06, 17:05:12
So wies aussieht, gibts unter OpenGL mit Q+Opts generell nur biAF (wie auch schon bei den Q3a Screenshots zu sehen)
Getestet mit 71.84 und folgenden Anwendungen:
[...]
XMas Filtertest
Mit dem 75.90 ist das anders. Da gibt es reduziert-trilineares-AF. Spassigerweise wird das Tri-Band immer schmaler, je höher man den AF-Grad setzt. *gg*
Mir die ganzen anderen Games (Q3A, CoD, SeSam) nochmal auf die Platte zu schaufeln, habe ich keine Lust.
mapel110
2005-03-06, 17:09:52
Spassigerweise wird das Tri-Band immer schmaler, je höher man den AF-Grad setzt. *gg*
Ist ja im Prinzip richtig so, wenn man optimieren will, oder?
ich hoffe, ich gehe recht in der Annahme, dass ihr Ubisoft REgulator-Demo bencht?!
Resolution: 1600×1200
Ultra quality option, Direct3D renderer
Level: Regulator, demo: Regulator.tmd
Pixel shader: default model
Antialising: 4×
Anisotrophic filtering: 4×
HDR: disabled
Geometry Instancing: enabled
Normal-maps compression: disabled
Score = 36,21 FPS
XP 2400 Mhz GT@400/1100 ForceWarez 75.90
p.s. Allerdings deutsche Farcry-Version. Welche habt ihr?
Mr. Lolman
2005-03-06, 17:10:59
Wuerdest Du einen ATI bi-AF gegen einen NV high quality-AF vorschlagen? Au weia....das wuerde so manche Klagen hervorrufen und dazu waeren sie auch voll gerechtfertigt.
Nein, würd ich nicht. Anhand der Q3a Screenshots würd ich HQ der R3x0 Karten gegen HQ NV benchen. Auf RV3x0/R4x0 Screenshots wart ich immernoch, aber imo ist sicherm dass zumindest biAF gleich gut aussieht. Ich ein guter Kompromiss wär imo NV Quality ohne Optimierungen gegen ATi HQ mit Optimierungen. Am besten wär jedoch mal ein umfassender AF-Spielevergleichstest der endlich mal Klarheit in den AF-BQ Dschungel bringt...
Quasar
2005-03-06, 17:19:10
Ist ja im Prinzip richtig so, wenn man optimieren will, oder?
Jein. Wenn man winkelunabhängiges AF hätte, wäre dieser Schritt nachvollziehbar ("optimieren"), da mit steigendem AF-Grad ja auch der erste Mip-Übergang in weitere Ferne rückt und weniger stark auffallen würde.
Da man ja aber leider das grausame, winkelabängige AF anbietet, kannst du bei nicht-optimalen Winkeln auch mal sehr nahe am PoV ein Banding vor dir herschieben.
Das hat nichts mehr mit optimieren, sondern nur noch mit Balkenlänge zu tun.
380/340:
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 131.55s, Average FPS: 23.14
Min FPS: 14.20 at frame 1167, Max FPS: 54.47 at frame 840
Average Tri/Sec: 2458497, Tri/Frame: 106245
Recorded/Played Tris ratio: 0.96
450/400:
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 120.03s, Average FPS: 25.36
Min FPS: 15.25 at frame 1173, Max FPS: 54.21 at frame 631
Average Tri/Sec: 2699787, Tri/Frame: 106457
Recorded/Played Tris ratio: 0.95
Tbred @ ~ 2329 MHz (212x11), Radeon 9800 Pro 128MB @ obigen Takten, Catalyst 5.1, A.I. @ Standard, FarCry 1.3, Geometry Instancing an. Hatte keine Lust, die CPU extra auf 2450 MHz zu prügeln. Daher sieht man auch schön, dass die ~ 20% mehr GraKa-Power in nur ~ 10% mehr Speed resultieren.
Was sagt uns das nun? ;)
MfG,
Raff
Jesus
2005-03-06, 17:31:13
380/340:
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 131.55s, Average FPS: 23.14
Min FPS: 14.20 at frame 1167, Max FPS: 54.47 at frame 840
Average Tri/Sec: 2458497, Tri/Frame: 106245
Recorded/Played Tris ratio: 0.96
450/400:
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 120.03s, Average FPS: 25.36
Min FPS: 15.25 at frame 1173, Max FPS: 54.21 at frame 631
Average Tri/Sec: 2699787, Tri/Frame: 106457
Recorded/Played Tris ratio: 0.95
Tbred @ ~ 2329 MHz (212x11), Radeon 9800 Pro 128MB @ obigen Takten, Catalyst 5.1, A.I. @ Standard, FarCry 1.3, Geometry Instancing an. Hatte keine Lust, die CPU extra auf 2450 MHz zu prügeln. Daher sieht man auch schön, dass die ~ 20% mehr GraKa-Power in nur ~ 10% mehr Speed resultieren.
Was sagt uns das nun? ;)
MfG,
Raff
War das die Regulator.tmd demo ?
Die Werte sind ähnlich schlecht wie bei mir ohne den Auflösungswechsel/Taskswitch trick, aber auf jeden Fall zu schlecht
Piffan
2005-03-06, 17:32:00
380/340:
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 131.55s, Average FPS: 23.14
Min FPS: 14.20 at frame 1167, Max FPS: 54.47 at frame 840
Average Tri/Sec: 2458497, Tri/Frame: 106245
Recorded/Played Tris ratio: 0.96
450/400:
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 120.03s, Average FPS: 25.36
Min FPS: 15.25 at frame 1173, Max FPS: 54.21 at frame 631
Average Tri/Sec: 2699787, Tri/Frame: 106457
Recorded/Played Tris ratio: 0.95
Tbred @ ~ 2329 MHz (212x11), Radeon 9800 Pro 128MB @ obigen Takten, Catalyst 5.1, A.I. @ Standard, FarCry 1.3, Geometry Instancing an. Hatte keine Lust, die CPU extra auf 2450 MHz zu prügeln. Daher sieht man auch schön, dass die ~ 20% mehr GraKa-Power in nur ~ 10% mehr Speed resultieren.
Was sagt uns das nun? ;)
MfG,
Raff
Ich sage dazu: Die R300 ist noch lange nicht langsam. :D
Vor allem sage ich eins: Die Regulatordemo ist CPU- lastig wie alle Außenlevels. Ausnahme: man tappert durch den Jungle und macht auch noch die Taschenlampe an. Da wirds mit AF und FSAA auch für den R300 langsam eng....
Also wenn ihr euch kabbeln wollt, ob die GRAKA noch reicht, nehmt Innenlevels. Da werden die Unterschiede sicher deutlicher! Oder DOOM, da wird es noch klarer, wo auf die Graka Arbeit wartet....
Ja, genau, Jesus. Mit Ailuros' bzw. deinen Settings (1280x960x32 mit 2xAA und 4xTri bzw. HQ AF) -- über's CP forciert.
Und full Ack an Piffan. Oder wir fahren 1600x1200x32 mit 4xAA/16xAF. ;)
MfG,
Raff
Piffan
2005-03-06, 17:34:38
War das die Regulator.tmd demo ?
Die Werte sind ähnlich schlecht wie bei mir ohne den Auflösungswechsel/Taskswitch trick, aber auf jeden Fall zu schlecht
Cheffe! Du bist auf dem Holzweg. Er hat nen Tbred, du nen A 64. Die Unterschiede rühren von der CPU her. Siehe doch, dass er deftig übertaktet und deswegen trotzdem die WErte suboptimal bleiben. Regulator ist in erster Linie nen Test für die CPU.......ist denn das so schwer zu erkennen, nun kommt schon und lasst die R300 in Ruhe. :D
Jesus
2005-03-06, 17:34:54
Ja, genau. Mit Ailuros' bzw. deinen Settings (1280x960x32 mit 2xAA und 4xTri bzw. HQ AF) -- über's CP forciert.
MfG,
Raff
dann mach mal bevor die die demo startest (aber nachdem die Map geladen hat) kurz nen Taskswitch auf den Desktop und wieder zurück, und du wirst sehen dass du gleich viel flüssiger spielen/benchen kannst (etwa 50% flüssiger :) ).
Hab' oben noch etwas reineditiert bezügich des Benchens. Diese Settings sind aufgrund der CPU-Limitierung auf jeden Fall suboptimal. Dafür finde ich meine Werte gegen den A64 dennoch gut. :D
Doom³ vielleicht?
MfG,
Raff
Piffan
2005-03-06, 17:37:51
dann mach mal bevor die die demo startest (aber nachdem die Map geladen hat) kurz nen Taskswitch auf den Desktop und wieder zurück, und du wirst sehen dass du gleich viel flüssiger spielen/benchen kannst (etwa 50% flüssiger :) ).
Einspruch: Der Taskwechsel hilft nur bei bestimmten Systemen. Ist komisch, auf meinem Intel war das recht deutlich, beim Barton brachte der Taskwechsel nix.
Dieses Prob mit dem Taskwechsel kenne ich seit Jedi Outcast. Sind offensichtlich Macken der Speicherverwaltung (AGP- Texturing usw.)
Jesus
2005-03-06, 17:40:53
Einspruch: Der Taskwechsel hilft nur bei bestimmten Systemen. Ist komisch, auf meinem Intel war das recht deutlich, beim Barton brachte der Taskwechsel nix.
Dieses Prob mit dem Taskwechsel kenne ich seit Jedi Outcast. Sind offensichtlich Macken der Speicherverwaltung (AGP- Texturing usw.)
Ich denke in Raffs Fall würde es helfen, denn die Max FPS sind definitiv zu niedrig (genauso niedrig wie in meinem Fall ohne den Swap Trick, seite vorher) und die sollten nicht CPU limitiert sein (an der Stelle schaut man in den Himmel).
Ich denke in Raffs Fall würde es helfen, denn die Max FPS sind definitiv zu niedrig (genauso niedrig wie in meinem Fall ohne den Swap Trick) und die sollten nicht CPU limitiert sein (an der Stelle schaut man in den Himmel).
Ich denke, ich weiß, an welcher Stelle diese FPS kommen -- da, wo die Tür aufgeht. Kurzer Hänger ... der Trick könnte in der Tat helfen. Ich werde das nachher mal testen. Jetzt kann ich allerdings nicht.
Bin trotzdem für andere Benchmarks. ;)
MfG,
Raff
mapel110
2005-03-06, 19:07:03
Resolution: 1280×1024
Ultra quality option, Direct3D renderer
Level: Regulator, demo: Regulator.tmd
Pixel shader: default model
Antialising: 2×
Anisotrophic filtering: 4×
HDR: disabled
Geometry Instancing: enabled
Normal-maps compression: disabled
Score = 48,96 FPS (Run 1)
Score = 52,50 FPS (Run 2)
Average score = 50,72 FPS
so stark CPU-limitiert scheint der Bench doch nicht zu sein, wenns mtieiner besseren Graka nahezu 100 % Steigerung gibt. :)
Piffan
2005-03-06, 19:15:09
Resolution: 1280×1024
Ultra quality option, Direct3D renderer
Level: Regulator, demo: Regulator.tmd
Pixel shader: default model
Antialising: 2×
Anisotrophic filtering: 4×
HDR: disabled
Geometry Instancing: enabled
Normal-maps compression: disabled
Score = 48,96 FPS (Run 1)
Score = 52,50 FPS (Run 2)
Average score = 50,72 FPS
so stark CPU-limitiert scheint der Bench doch nicht zu sein, wenns mtieiner besseren Graka nahezu 100 % Steigerung gibt. :)
So ein Mist. Passt nun gar nicht in mein Bild von Farcry....Könnte es ne Rolle spielen, dass ich Geometry Instancing nicht aktiviert habe? Weiß gar nicht, wie man das macht und ob das was bei FC bringt. Ist das nicht eine Funktion, wo häufig vorkommende Objekte (Pflanzen) von den Vertex-Shaders beschleunigt werden?
deekey777
2005-03-06, 19:25:46
Wenn ihr die Grafikkartenleistung in Fra Cry 1.31 meßt, dann warum nicht mit der Research-Demo? Oder habe ich da was verpennt?
(Am besten gleich mit r_TexNormalMapCompressed = "1" ;) )
Meine 2 Cent:
Regulator-Demo, Athlon XP-M 3000+ (es war einmal ein 2500 Barton) mit 2167 MHz, 1024 MB DDR333 (konservativ), KT333, 9800Pro mit Standardtakt, WinXP SP2, CCC, MipLevel auf Hoch, sonst alles auf Standard.
Einstellungen in Far Cry:
1024x768 (da 15''TFT), Leistung auf Hoch, Grafikeinstellungen alle auf Hoch (!), 2xAA+4xAF (In game):
!TimeDemo Run 2 Finished.
Play Time: 108.11s, Average FPS: 28.16
Min FPS: 14.09 at frame 1160, Max FPS: 70.88 at frame 652
Average Tri/Sec: 2270866, Tri/Frame: 80649
Recorded/Played Tris ratio: 1.26
Da ich, ohne nachzudenken, alles auf Hoch eingestellt habe, war die Beleuchtung auch auf Hoch, ergo -> SM1.1.
Hier gleiche Einstellungen, aber Beleuchtung jetzt auf Sehr Hoch, also SM 2.0:
!TimeDemo Run 2 Finished.
Play Time: 97.11s, Average FPS: 31.35
Min FPS: 15.46 at frame 1087, Max FPS: 71.71 at frame 661
Average Tri/Sec: 2529974, Tri/Frame: 80712
Recorded/Played Tris ratio: 1.26
Ich würde sagen mit einer 9700 Pro kann man (noch) ganz gut spielen! Habe nun auch schon seit mehr als 2 Jahren eine 9700 Pro! :D
Ailuros
2005-03-07, 00:33:06
Ich sage dazu: Die R300 ist noch lange nicht langsam. :D
Vor allem sage ich eins: Die Regulatordemo ist CPU- lastig wie alle Außenlevels. Ausnahme: man tappert durch den Jungle und macht auch noch die Taschenlampe an. Da wirds mit AF und FSAA auch für den R300 langsam eng....
Also wenn ihr euch kabbeln wollt, ob die GRAKA noch reicht, nehmt Innenlevels. Da werden die Unterschiede sicher deutlicher! Oder DOOM, da wird es noch klarer, wo auf die Graka Arbeit wartet....
Die R300 ist ohne Zweifel immer noch ausgezeichnet fuer Spiele, aber fuer komplette Spielbarkeit in 1280 mit 2xAA/4xAF alles auf max, eben nicht mehr, zumindest fuer meinen Geschmack.
FC ist generell CPU-lastig und ist eben ein Spiel dass mehr Aussen- als Innen-Szenen hat. Ich hab uebrigens Resultate von Research, Regulator, Training und Volcano bereitgestellt; zwei Faelle davon sind ziemlich heftig, zwei davon etwas leichter (kann man ja auch von der Leistung sehen).
***edit: Raff,
wieviel Hauptspeicher hast Du eigentlich?
*****editNr2.:
Raff hast Du das timedemo zweimal nacheinander durchlaufen lassen? Timedemo Run0 koennte nur auf einen Durchlauf deuten.
Ailuros
2005-03-07, 00:38:58
Cheffe! Du bist auf dem Holzweg. Er hat nen Tbred, du nen A 64. Die Unterschiede rühren von der CPU her. Siehe doch, dass er deftig übertaktet und deswegen trotzdem die WErte suboptimal bleiben. Regulator ist in erster Linie nen Test für die CPU.......ist denn das so schwer zu erkennen, nun kommt schon und lasst die R300 in Ruhe. :D
Seine CPU Frequenz und FSB ist hoeher [2329 MHz (212x11)] als bei meinem XP3000+ (default 13*166).
Raff kann ja gerne mal Regulator ohne jegliches AA/AF in 1024*768*32 durchlaufen lassen und ich mach einen analogen Gegentest; mal sehen wie sehr CPU-limitiert das demo wirklich ist.
Sobald mal nach aussen kommt und die camera ins Gruenzeug kommt, schwirren so einige Lichter rum....
Aus dem Zeug hier:
http://www.mitrax.de/?cont=artikel&aid=24&page=15
ForceWare 65.73/1280+4xAA/4xAF
default 12*1/5VS@325/350MHz
Research: 43.09 fps
Regulator: 37.71 fps
Training: 40.65 fps
Volcano: 42.65 fps
unlocked 16*1/6VS@325/350MHz
Research: 50.10 fps (+16.26%)
Regulator: 41.84 fps (+10.95%)
Training: 44.90 fps (+10.45%)
Volcano: 47.72 fps (+11.88%)
16*1/6VS@350/435MHz
Research: 58.53 fps (+35.83%)
Regulator: 47.83 fps (+26.83%)
Training: 49.74 fps (+22.36%)
Volcano: 56.62 fps (+32.75%)
Ailuros
2005-03-07, 00:58:52
Einspruch: Der Taskwechsel hilft nur bei bestimmten Systemen. Ist komisch, auf meinem Intel war das recht deutlich, beim Barton brachte der Taskwechsel nix.
Dieses Prob mit dem Taskwechsel kenne ich seit Jedi Outcast. Sind offensichtlich Macken der Speicherverwaltung (AGP- Texturing usw.)
Falls es aber ein Speicherverwaltungs-problem waere, muesste das Problem irrelevant zur benutzten CPU auftreten. Bei den Radeons limitiert der Treiber bei <1GB system ram auf 64MB agp memory, bei >1GB system ram auf 128MB agp memory. Der Haken hier ist dass FC wahrscheinlich nicht mehr als schaetzungsweise 60-70MB agp memory im schlimmsten Fall auffordern wird (4xAA@1600).
deekey777
2005-03-07, 01:21:47
?
*****editNr2.:
Raff hast Du das timedemo zweimal nacheinander durchlaufen lassen? Timedemo Run0 koennte nur auf einen Durchlauf deuten.
Bzw. er hat gleich das erste Ergebnis gepostet, was nicht ganz gut ist:
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 103.30s, Average FPS: 29.47
Min FPS: 15.46 at frame 1087, Max FPS: 51.97 at frame 608
Average Tri/Sec: 2604402, Tri/Frame: 88384
Recorded/Played Tris ratio: 1.15
!TimeDemo Run 1 Finished.
Play Time: 98.12s, Average FPS: 31.02
Min FPS: 15.46 at frame 1087, Max FPS: 71.71 at frame 661
Average Tri/Sec: 2528860, Tri/Frame: 81517
Recorded/Played Tris ratio: 1.25
!TimeDemo Run 2 Finished.
Play Time: 97.11s, Average FPS: 31.35
Min FPS: 15.46 at frame 1087, Max FPS: 71.71 at frame 661
Average Tri/Sec: 2529974, Tri/Frame: 80712
Recorded/Played Tris ratio: 1.26
Nicht böse sein, weil ich darauf antworte und nicht Raff. Es wird seit dem Release des Spiels empfohlen, die Timedemos mehrmals durchlaufen zu lassen und dann einen Mittelwert zu nehmen. Seit dem Patch 1.3 hat auch dieser Befehl r_TexNormalMapCompressed den Weg in das Spiel gefunden, aus der ReadMe:
Geben Sie nach den Laden eines Levels in der Konsole r_TexNormalMapCompressed 1 ein, um es zu aktivieren.... Diese Einstellung wird beim nächsten Neustart des Spiels nicht gespeichert. Die Aktivierung der Normal-Kompression wird durch die erste Kompressionsphase, die in Echtzeit geschieht, bei der ersten Ausführung länger dauern. Wiederholtes Neuladen eines Levels wird zu besserer Leistung führen. Wir empfehlen daher, jeden Benchmark-Test zwei Mal auszuführen und die zweite Ausführung als Resultat zu verwenden, da dieses Ergebnis der normalen Spielerfahrung am nächsten kommt.
Oder so...
Um mal für Aufklärung zu sorgen: Ja, ich habe einfach die ersten beiden Runs mit den verschiedenen Takten genommen -- Zeitmangel sei "Dank". Morgen ... oder doch schon heute ;) werde ich das Ganze mal mit ~ 2450 MHz durchjagen, in 1280x960x32 mit 2xAA/4xAF sowie 1024x768x32 ohne alles. Und eben die Runs danach, ggf. mit Taskswitch.
Ich habe 2x 512 MB RAM, steht übrigens auch in meiner Sig. :)
Wegen der Normal-Map-Kompression: Irre ich mich, wenn ich meine gelesen zu haben, dass das nur ab R420 bzw. NV40 funktioniert? Daher habe ich das auch nie ausprobiert.
MfG,
Raff
Ailuros
2005-03-07, 01:35:38
deekey,
Kannst Du mal versuchen die R350 zu uebertakten und das Ganze nochmal durchlaufen lassen? (so weit wie es Dir eben keine Angst macht).
Ailuros
2005-03-07, 01:38:12
Um mal für Aufklärung zu sorgen: Ja, ich habe einfach die ersten beiden Runs mit den verschiedenen Takten genommen -- Zeitmangel sei "Dank". Morgen ... oder doch schon heute ;) werde ich das Ganze mal mit ~ 2450 MHz durchjagen, in 1280x960x32 mit 2xAA/4xAF sowie 1024x768x32 ohne alles. Und eben die Runs danach, ggf. mit Taskswitch.
Spar Dir die Zeit mit dem 1024 Durchlauf ohen AA/AF; das demo ist nicht rein CPU limitiert.
***edit: verbrennt mir jetzt bloss keine HW wegen dem Zeug; die CPU erscheint mir schon ziemlich hoch uebertaktet zu sein. Selbst bei 2.15GHz duerftest Du leicht auf Gleichstand mit einem XP3000+ kommen, durch den hoeheren fsb. 20% mehr fsb brachte mir in der Vergangenheit auf Athlons etwa 10% mehr CPU Leistung. +/- die anderen Vorteile eines Barton sollte das Ganze schon hinhalten.
Wegen der Normal-Map-Kompression: Irre ich mich, wenn ich meine gelesen zu haben, dass das nur ab R420 bzw. NV40 funktioniert? Daher habe ich das auch nie ausprobiert.
Auf der NV40 macht mir das Zeug keinen Unterschied, deshalb schalte ich es auch nicht ein.
deekey777
2005-03-07, 01:52:27
deekey,
Kannst Du mal versuchen die R350 zu uebertakten und das Ganze nochmal durchlaufen lassen? (so weit wie es Dir eben keine Angst macht).
Um zu übertakten, muß ich zuerst das schöne CCC deinstallieren und dann die Ati Tray Tools installieren (sicher ist sicher). :) Mache ich heute nachmittag.
Aber ich habe eben ohne AA/AF getestet und ohne/mit r_TexNormalMapCompressed + einmal ohne das GI (im CCC+per \r_GeomInstancing 0 im Spiel):
Jetzt wird's unübersichtlich!
Ohne "NormalMapCompression":
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 76.04s, Average FPS: 40.03
Min FPS: 23.18 at frame 1162, Max FPS: 83.20 at frame 618
Average Tri/Sec: 3541696, Tri/Frame: 88469
Recorded/Played Tris ratio: 1.15
!TimeDemo Run 1 Finished.
Play Time: 71.30s, Average FPS: 42.69
Min FPS: 23.18 at frame 1162, Max FPS: 83.20 at frame 618
Average Tri/Sec: 3485459, Tri/Frame: 81645
Recorded/Played Tris ratio: 1.24
!TimeDemo Run 2 Finished.
Play Time: 69.51s, Average FPS: 43.79
Min FPS: 23.18 at frame 1162, Max FPS: 83.26 at frame 633
Average Tri/Sec: 3522326, Tri/Frame: 80429
Recorded/Played Tris ratio: 1.26
==============================================================
Mit:
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 67.40s, Average FPS: 45.16
Min FPS: 28.73 at frame 2378, Max FPS: 74.94 at frame 615
Average Tri/Sec: 3992750, Tri/Frame: 88413
Recorded/Played Tris ratio: 1.15
!TimeDemo Run 1 Finished.
Play Time: 61.85s, Average FPS: 49.22
Min FPS: 28.73 at frame 2378, Max FPS: 74.94 at frame 615
Average Tri/Sec: 3997592, Tri/Frame: 81221
Recorded/Played Tris ratio: 1.25
!TimeDemo Run 2 Finished.
Play Time: 59.97s, Average FPS: 50.76
Min FPS: 28.73 at frame 2378, Max FPS: 80.69 at frame 618
Average Tri/Sec: 4076360, Tri/Frame: 80313
Recorded/Played Tris ratio: 1.26
==============================================================
Mit "NMC"+\r_GeomInstancing 0
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 69.10s, Average FPS: 44.05
Min FPS: 26.30 at frame 2468, Max FPS: 77.42 at frame 615
Average Tri/Sec: 3928886, Tri/Frame: 89183
!TimeDemo Run 1 Finished.
Play Time: 63.24s, Average FPS: 48.13
Min FPS: 26.30 at frame 2468, Max FPS: 77.42 at frame 615
Average Tri/Sec: 3956594, Tri/Frame: 82198
!TimeDemo Run 2 Finished.
Play Time: 60.74s, Average FPS: 50.12
Min FPS: 26.30 at frame 2468, Max FPS: 77.68 at frame 604
Average Tri/Sec: 4045117, Tri/Frame: 80715
Daß das GI (scheinbar) nichts bringt, liegt daran, daß \e_Vegetation_sprites_distance_ratio auf 1 war.
€: Der Leistungsprung ohne AA ist sehr einfach zu erklären - AA + Schatten auf Hoch = Pures Gift für meine 9800Pro. :D
€2: Man achte auch auf die Min FPS.
€3: Ich glaub, ich hätte vier Durchläufe machen sollen. ;( (Schaut mal auf die Max FPS.)
mapel110
2005-03-07, 02:25:18
€: Der Leistungsprung ohne AA ist sehr einfach zu erklären - AA + Schatten auf Hoch = Pures Gift für meine 9800Pro. :D
Jup, entweder AA oder SChatten auf max, beides ging nicht wirklich mit meiner 9800 Pro.
Die GT kostet das natürlich nur ein müdes Arschrunzeln. :biggrin:
Ailuros
2005-03-07, 02:52:59
Jup, entweder AA oder SChatten auf max, beides ging nicht wirklich mit meiner 9800 Pro.
Die GT kostet das natürlich nur ein müdes Arschrunzeln. :biggrin:
Deine vorigen 50+fps waren uebrigens von 1280*1024 und nicht 1280*960. Bei der Taktrate solltest Du leicht ueber die 60fps Grenze schiessen. Zu viele bekloppten Prozesse die im Hintergrund rennen vielleicht?
Also geht das Normal-Map-Komprimieren auch auf 'nem R350?! Warum sagt mir das keiner vorher. X-D Naja, probieren geht über studieren ...
Und Ailuros: Keine Angst, meine CPU ist das gewöhnt. Bei Wintertemperaturen ist das kein Problem. :)
MfG,
Raff
Also geht das Normal-Map-Komprimieren auch auf 'nem R350?! 3DC? Nein, das ist eigentlich ausgeschlossen. Aber Pseudo-Instancing sollte funktionieren.
3DC? Nein, das ist eigentlich ausgeschlossen. Aber Pseudo-Instancing sollte funktionieren.
Dachte ich ja auch. ;) Aber wenn man sich deekeys Werte so anschaut, kann man einen ~ 10-15%igen Vorsprung erkennen, wenn es aktiviert ist. Daher wundert mich das ... Und G.I. bringt garnichts.
MfG,
Raff
Klar bringt G.I. was...
... wenn man die Vegetation aufdreht. Hat er aber nicht, wie er schrieb.
Ich geh' wohl mal ans Testen, hab' ja noch etwas Zeit ... X-D
MfG,
Raff
deekey777
2005-03-07, 10:25:01
Also geht das Normal-Map-Komprimieren auch auf 'nem R350?! Warum sagt mir das keiner vorher. X-D Naja, probieren geht über studieren ...
...
MfG,
Raff
Keine Normal Map Kompression (darum "NMC"), sondern eher das:
NormalMaps compression: V8U8 (aus meiner Log); O-Ton der Entwickler:
"Dabei handelt es sich eher um ein Texturenformat und nicht um die richtige NMC."
Dh: Für die 3Dc fähigen Radeons gibt es auch 3Dc, für die Geforce ab FX gibt V8U8. Von der R3x0 steht nichts in der ReadMe, aber sie kann also etwas mit diesem V8U8 anfangen.
Mr. Lolman
2005-03-07, 11:28:05
Falls es aber ein Speicherverwaltungs-problem waere, muesste das Problem irrelevant zur benutzten CPU auftreten. Bei den Radeons limitiert der Treiber bei <1GB system ram auf 64MB agp memory, bei >1GB system ram auf 128MB agp memory. Das glaub ich nicht, denn wie könnts sonst einen deutlich merkbaren Leistungsuntershied zw 128MB und 256MB Aperture Size bei Ruby:Doublecross geben
deekey777
2005-03-07, 12:13:12
Ich habe mit dem reduzierten CPU-Takt getestet: 10xFSB167MHz=1,667 GHz (=entspricht einem "2200+", da Barton).
Ohne AA/AF (sonst wie oben):
!TimeDemo Run 3 Finished.
Play Time: 67.45s, Average FPS: 45.13
Min FPS: 23.46 at frame 2469, Max FPS: 78.88 at frame 660
Average Tri/Sec: 3618623, Tri/Frame: 80179
Recorded/Played Tris ratio: 1.27
Im Vergleich zu meinem oberen Ergebnis mit den gleichen Settings, aber 500 MHz CPU-Takt (XP-M 3000+ mit 2167 MHz) fehlen etwa 5 FPS.
Mit 2xAA/AF4x:
!TimeDemo Run 3 Finished.
Play Time: 98.10s, Average FPS: 31.03
Min FPS: 15.19 at frame 1155, Max FPS: 72.45 at frame 662
Average Tri/Sec: 2508173, Tri/Frame: 80831
Recorded/Played Tris ratio: 1.26
Im Vergleich zum Ergebnis(Nr. 180) mit den gleichen Settings, aber 500 MHz CPU-Takt (XP-M 3000+ mit 2167 MHz) ist das Ergebnis gleich.
deekey777
2005-03-07, 12:55:19
deekey,
Kannst Du mal versuchen die R350 zu uebertakten und das Ganze nochmal durchlaufen lassen? (so weit wie es Dir eben keine Angst macht).
Ich habe jetzt etwas übertaktet: 405/370 MHz (ein Paar Slots weiter unter ist eine Nova-S, deren Tuner ein richtiges Heizkraftwerk ist).
Ohne AA/AF:
!TimeDemo Run 3 Finished.
Play Time: 58.74s, Average FPS: 51.82
Min FPS: 29.29 at frame 2387, Max FPS: 86.35 at frame 662
Average Tri/Sec: 4131463, Tri/Frame: 79722
Recorded/Played Tris ratio: 1.27
Nichts aufegendes...
Mit 2xAA/AF4x
!TimeDemo Run 3 Finished.
Play Time: 96.63s, Average FPS: 31.50
Min FPS: 14.62 at frame 1123, Max FPS: 77.92 at frame 655
Average Tri/Sec: 2530739, Tri/Frame: 80336
Recorded/Played Tris ratio: 1.26
Mit aktiviertem AntiAliasing hilft auch etwas Übertakten relativ wenig, wenn Schatten auf Hoch sind.
€dit: Das mit den Schatten sollte doch etwas relativiert werden.
Schatten auf Mittel, 2xAA/AF4x, 405/370MHz:
!TimeDemo Run 3 Finished.
Play Time: 83.96s, Average FPS: 36.25
Min FPS: 16.60 at frame 1136, Max FPS: 72.06 at frame 640
Average Tri/Sec: 2564019, Tri/Frame: 70723
Recorded/Played Tris ratio: 1.44
Zum Vergleich ohne AF/AA, schatten auf Mittel:
!TimeDemo Run 3 Finished.
Play Time: 52.88s, Average FPS: 57.56
Min FPS: 32.54 at frame 2379, Max FPS: 83.29 at frame 665
Average Tri/Sec: 4056302, Tri/Frame: 70464
Recorded/Played Tris ratio: 1.44
Schatten auf Mittel bringt etwa 6 Avg. FPS.
Jetzt alles gleich bis auf die CPU (10x167, 1,67 GHz aka XP 2200+)
!TimeDemo Run 3 Finished.
Play Time: 85.87s, Average FPS: 35.45
Min FPS: 17.55 at frame 1138, Max FPS: 75.62 at frame 652
Average Tri/Sec: 2511876, Tri/Frame: 70859
Recorded/Played Tris ratio: 1.43
:confused: In etwa gleiches Ergebnis bei 500 MHz Unterschied beim CPU-Takt.
CPU@2200+
!TimeDemo Run 3 Finished.
Play Time: 89.51s, Average FPS: 41.63
Min FPS: 29.36 at frame 558, Max FPS: 66.11 at frame 1909
Average Tri/Sec: 5559367, Tri/Frame: 133554
Cpu@3000+
!TimeDemo Run 2 Finished.
Play Time: 78.04s, Average FPS: 47.74
Min FPS: 34.04 at frame 105, Max FPS: 74.37 at frame 1887
Average Tri/Sec: 6448513, Tri/Frame: 135061
Recorded/Played Tris ratio: 1.06
Recorded/Played Tris ratio: 1.07
Cpu@2200+&Grafikkarte@405/370MHz
!TimeDemo Run 2 Finished.
Play Time: 87.81s, Average FPS: 42.43
Min FPS: 28.76 at frame 808, Max FPS: 66.06 at frame 1913
Average Tri/Sec: 5645186, Tri/Frame: 133042
Recorded/Played Tris ratio: 1.07
Cpu@3000+&Grafikkarte@405/370
!TimeDemo Run 2 Finished.
Play Time: 77.15s, Average FPS: 48.29
Min FPS: 35.60 at frame 514, Max FPS: 74.23 at frame 1929
Average Tri/Sec: 6438151, Tri/Frame: 133311
Recorded/Played Tris ratio: 1.07
Cpu@2200+
!TimeDemo Run 3 Finished.
Play Time: 26.70s, Average FPS: 56.63
Min FPS: 38.50 at frame 444, Max FPS: 78.25 at frame 763
Average Tri/Sec: 2578476, Tri/Frame: 45530
Cpu@3000+
!TimeDemo Run 3 Finished.
Play Time: 24.14s, Average FPS: 62.64
Min FPS: 42.88 at frame 442, Max FPS: 77.06 at frame 702
Average Tri/Sec: 2852902, Tri/Frame: 45543
Recorded/Played Tris ratio: 0.93
Cpu@2200+&Grafikkarte@405/370
!TimeDemo Run 3 Finished.
Play Time: 26.38s, Average FPS: 57.32
Min FPS: 38.28 at frame 446, Max FPS: 85.58 at frame 747
Average Tri/Sec: 2621902, Tri/Frame: 45744
Recorded/Played Tris ratio: 0.93
Cpu@3000+&Grafikkarte@405/370
!TimeDemo Run 3 Finished.
Play Time: 23.56s, Average FPS: 64.17
Min FPS: 42.53 at frame 445, Max FPS: 84.77 at frame 761
Average Tri/Sec: 2925362, Tri/Frame: 45584
Recorded/Played Tris ratio: 0.93
Doch, es ist eine absolute Ausnahme. Nenne mal einen Chip, der bei Erlangung der Marktreife absolut der Überflieger war und sich dennoch so krass übertakten ließ, so dass er selbst heute noch absolut zum Zocken neuer Titel geeignet ist.Ok, Übertaktungspotenzial spielt bei mir nur eine untergeordnete Rolle.
Für die Frage, was "geeignet" ist, wird sich kaum eine gemeinsame Antwort finden lassen. Ich hielte die 5900 XT z. B. für "absolut zum Zocken neuer Titel geeignet" – wobei ich natürlich lange nicht alle neuen Titel kenne und mich nur auf das beziehen kann, was ich spiele.
Die berüchtigte Shader-Schwäche beim NV30 ist aus meiner Sicht beim Release praktisch irrelevant gewesen: Es gab nur eine verschwindend geringe Anzahl Spiele, wo das eine Rolle spielte. Natürlich ist die Fragestellung berechtigt, ob man von High-End auch High-End-Leistung bei High-End-Features erwarten darf. In diesem Sinne dürfte man die X800-Serie nicht mehr als High-End sehen, da sie die meisten High-End-Features gar nicht erst hat.
Was der NV30 an Features bietet, ist zu gebrauchen. Man kann, in Maßen, PS2.X-Programme laufen lassen ohne dass die Frameraten voll in den Keller gehen. Der R300 kann PS2.0-Programme deutlich (iirc, ca. Faktor 4) schneller laufen lassen als der NV30. Werden PS2-Shader in dem Maße eingesetzt, dass es auf R300 noch knapp flüssig spielbar bleibt, dann geht dem NV30, wie auch dem NV35, die Puste aus.
Aber lassen wir die FX-Serie, die ja gerade als Negativ-Beispiel dient, was Langlebigkeit im High-End-Segment angeht. Die GeForce2 war bei vielen sicherlich länger als 2 Jahre im PC. Wie auch die TNT2 bei anderen. Oder die GeForce2 MX, die nie High-End-Leistung bot, aber für viele ein langer Wegbegleiter war.
Die GeForce256 DDR bot ab dem Release imo mindestens 2 Jahre flüssige Grafik bei allen Effekten. Die Begeisterung betreffs der Radeon 9700 ist berechtigt, aber deren Langlebigkeit ist trotz Seltenheit imo nicht die "absolute Ausnahme".
Nö, der Eindruck kam dadurch zustande, weil nvidia die User mit einem bisschen Pixelshader2.0 Performance und ein bisschen mehr dx8-Performance abgespeist hätte, wäre der R300 nicht gekommen oder sogut gewesen.
Nvidia wäre bei den Taktraten vielleicht bis max 400/350 (Core/Ram) gegangen und das wäre es gewesen, obendrein nur 128bit-Speicherinterface.
Da bot der R300 doch wesentlich mehr Power.Ja. Ohne R300 hätten alle artig NV applaudiert, hach wie schön dass wir jetzt 128-Bit Studioqualität-Rendering hätten. NV als Platzhirsch hätte wahrscheinlich durchsetzen können, noch FX12 im PS2 mitbenutzen zu dürfen, so dass wir in Wahrheit von der Studioqualität nicht viel gesehen hätten. Der NV40 hätte dann die alte CineFX-Technik endlich "full-speeded" gebracht, und NV hätte sich für die dafür gleich noch mal beweihräuchern lassen. Vernünftiges AA-Grid ab 4x? Vielleicht würden wir da bei NV noch immer warten, denn das hätten sie auch schon vor dem NV40 längst verbessern können.
Sich zu trauen, den NV30 noch mit dem 128-Bit-Interface zu bringen zeigt eigentlich, wie wenig sich NV da um die Belange der Highend-Spiele-Freaks gekümmert hat.
Quasar
2005-03-07, 17:13:14
Sich zu trauen, den NV30 noch mit dem 128-Bit-Interface zu bringen zeigt eigentlich, wie wenig sich NV da um die Belange der Highend-Spiele-Freaks gekümmert hat.
Das 128Bit-Interface war IMO nicht das Problem. Für ein Pixelquad pro Takt (wenn denn überhaupt soviel hinten rauskam) genügt das selbst mit 2xAA problemlos.
Und 4xAA war ja laut Bekunden etlicher hier sowieso sinnlose Leistungsverschwendung.
MadManniMan
2005-03-07, 17:16:47
Das 128Bit-Interface war IMO nicht das Problem. Für ein Pixelquad pro Takt (wenn denn überhaupt soviel hinten rauskam) genügt das selbst mit 2xAA problemlos.
Und 4xAA war ja laut Bekunden etlicher hier sowieso sinnlose Leistungsverschwendung.
Man merkt ja als NV30 Besitzer :usweet: durchaus, daß die 128bit nichts Schlechtes waren. Der NV35/38 hat gar ganz schön wenig mit dem 256bittigen gewonnen.
Die FXen hatten ganz andere Probleme, 4*2 kackt z.B. schonmal ganz schön gegen 8*1 ab - und dann gibts es noch komplexe Zusammenhänge in der Pipe, die vielleicht gerade mal die Inges selbst verstehen können.
So, hier - wie versprochen - noch ein paar Werte von mir. Lassen wir erstmal die sprechen:
1024x768x32, kein AA/AF, NormalMapCompression = 0
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 65.86s, Average FPS: 46.22
Min FPS: 27.37 at frame 2298, Max FPS: 100.19 at frame 662
Average Tri/Sec: 4887091, Tri/Frame: 105734
Recorded/Played Tris ratio: 0.96
!TimeDemo Run 1 Finished.
Play Time: 61.71s, Average FPS: 49.33
Min FPS: 27.37 at frame 2298, Max FPS: 102.58 at frame 650
Average Tri/Sec: 4856102, Tri/Frame: 98443
Recorded/Played Tris ratio: 1.03
!TimeDemo Run 2 Finished.
Play Time: 60.70s, Average FPS: 50.15
Min FPS: 27.37 at frame 2298, Max FPS: 102.58 at frame 650
Average Tri/Sec: 4861892, Tri/Frame: 96951
Recorded/Played Tris ratio: 1.05
1024x768x32, kein AA/AF, NormalMapCompression = 1
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 60.91s, Average FPS: 49.98
Min FPS: 27.62 at frame 2465, Max FPS: 98.16 at frame 662
Average Tri/Sec: 5295373, Tri/Frame: 105952
Recorded/Played Tris ratio: 0.96
!TimeDemo Run 1 Finished.
Play Time: 57.58s, Average FPS: 52.86
Min FPS: 27.62 at frame 2465, Max FPS: 100.40 at frame 641
Average Tri/Sec: 5238680, Tri/Frame: 99100
Recorded/Played Tris ratio: 1.02
!TimeDemo Run 2 Finished.
Play Time: 56.29s, Average FPS: 54.08
Min FPS: 27.62 at frame 2465, Max FPS: 100.79 at frame 637
Average Tri/Sec: 5251126, Tri/Frame: 97107
Recorded/Played Tris ratio: 1.05
1280x96032, 2xAA/4xAF, NormalMapCompression = 0
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 122.02s, Average FPS: 24.95
Min FPS: 15.00 at frame 1160, Max FPS: 56.91 at frame 842
Average Tri/Sec: 2649262, Tri/Frame: 106195
Recorded/Played Tris ratio: 0.96
!TimeDemo Run 1 Finished.
Play Time: 119.04s, Average FPS: 25.57
Min FPS: 15.00 at frame 1160, Max FPS: 56.91 at frame 842
Average Tri/Sec: 2523788, Tri/Frame: 98697
Recorded/Played Tris ratio: 1.03
!TimeDemo Run 2 Finished.
Play Time: 118.01s, Average FPS: 25.79
Min FPS: 15.00 at frame 1160, Max FPS: 60.51 at frame 659
Average Tri/Sec: 2488048, Tri/Frame: 96457
Recorded/Played Tris ratio: 1.05
1280x96032, 2xAA/4xAF, NormalMapCompression = 1
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 119.72s, Average FPS: 25.43
Min FPS: 15.14 at frame 1171, Max FPS: 57.89 at frame 646
Average Tri/Sec: 2712130, Tri/Frame: 106665
Recorded/Played Tris ratio: 0.95
!TimeDemo Run 1 Finished.
Play Time: 116.00s, Average FPS: 26.24
Min FPS: 15.14 at frame 1171, Max FPS: 57.89 at frame 646
Average Tri/Sec: 2591051, Tri/Frame: 98738
Recorded/Played Tris ratio: 1.03
!TimeDemo Run 2 Finished.
Play Time: 115.56s, Average FPS: 26.34
Min FPS: 15.14 at frame 1171, Max FPS: 57.89 at frame 646
Average Tri/Sec: 2559929, Tri/Frame: 97181
Recorded/Played Tris ratio: 1.04
Testsystem:
Tbred @ ~ 2454 MHz (213x11,5)
2x 512MB MDT @ 213 MHz bei 2,5-3-2-11
Radeon 9800 Pro 128MB @ 450/380
Catalyst 5.2, A.I. @ Standard, G.I. aktiviert
Was auffällt: Die Komprimierung bringt auf meinem System nicht so viel wie bei deekey. Weiterhin sieht man schön, dass damit die MinFPS stets minimal höher und die MaxFPS minimal niedriger sind -- Average legt aber nicht mal 10% zu.
Nach mapels Werten musste ich auch stutzen ... aber die Timedemo ist doch nicht CPU-limitiert. Im Gegenteil, jetzt wundere ich mich über den enormen Einbruch von fast 100% ... ;)
MfG,
Raff
deekey777
2005-03-07, 17:25:14
Ich glaube, die Regulator-Demo ist ausgeglichener als zB die Pier-Demo.
Man sollte aus Spaß eine Archiv-Demo erstellen. :biggrin:
PS: Ich habe mein letztes Posting im Cat-Vergleichthread editiert. ;)
Nur zu. :D Ich bin leider nicht vertraut mit der Recording-Funktion von FC -- tauge nur zum Abspielen. ;)
Wegen dem Posting: Du hast 'ne Antwort. :)
MfG,
Raff
robbitop
2005-03-07, 18:27:56
Die FXen hatten ganz andere Probleme, 4*2 kackt z.B. schonmal ganz schön gegen 8*1 ab - und dann gibts es noch komplexe Zusammenhänge in der Pipe, die vielleicht gerade mal die Inges selbst verstehen können.
Das glaube ich nicht. Die Probleme lagen nicht in der Füllrate.
4*2 bringt nur bei bilinearem Single Texturing einen Nachteil. Und dank der 8 "optimierten" ROPs konnte man sogar 8 Z-Werte oder 8 Alphablend pro Takt raus hauen. Ich sehe in der Füllrate wirklich keine Probleme. Schau dir mal Benches von UT2004 an. Keine Benches und viele Texturschichten. Hier spielt soziemlich nur die Füllrate eine Rolle. Die hohe Cachehitrate sorgt dafür, dass 128 Bit nicht so schnell zum Flaschenhals wird. Die NV30U war hier schneller als eine R300, bis ihm mit AA die Bandbreite wegbrach.
Was Füllrate fraß, war natürlich das (fast) winkelunabhängige old school AF.
Ein Bench ohne AF zeigt das. Das gereichte den FXen damals sehr zum Nachteil. AF war auf den Radeons im Vergleich zu den Geforces quasi kostenlos. Natürlich ist das nur relativ gesehen. Niemand honorierte die höhere Filterqualität alle schauten auf die Balken.
edit: ein bisschen Vorteil bringen 2 unabhängige Quads: weniger Verschnitt. Ich denke aktuell sollte das aber nicht einen soo großen Unterschied machen (siehe GF 6600GT vs 5800U in UT2004 bei b3d).
Das Problem lag lediglich in den Pixelshadern. Die Pipelines waren "zu lang" und zu komplex -> hohe Latenzen und mögliche kostspielige Stalls. Es fehlte an Registerspeicher, die ALUs hatten zuwenig Durchsatz und waren nichtmal splittingfähig. Das kostete Leistung.
Piffan
2005-03-07, 18:58:31
Ja. Ohne R300 hätten alle artig NV applaudiert, hach wie schön dass wir jetzt 128-Bit Studioqualität-Rendering hätten. NV als Platzhirsch hätte wahrscheinlich durchsetzen können, noch FX12 im PS2 mitbenutzen zu dürfen, so dass wir in Wahrheit von der Studioqualität nicht viel gesehen hätten. Der NV40 hätte dann die alte CineFX-Technik endlich "full-speeded" gebracht, und NV hätte sich für die dafür gleich noch mal beweihräuchern lassen. Vernünftiges AA-Grid ab 4x? Vielleicht würden wir da bei NV noch immer warten, denn das hätten sie auch schon vor dem NV40 längst verbessern können.
Sich zu trauen, den NV30 noch mit dem 128-Bit-Interface zu bringen zeigt eigentlich, wie wenig sich NV da um die Belange der Highend-Spiele-Freaks gekümmert hat.
Interessant! So ähnlich habe ich damals auch den R300 gesehen: Es war der verdiente Tritt in den Hintern von NV, die volle Breitseite ins Kontor sozusagen.
Genauso ist die Athlon- Reihe der nötige Tritt in Intels Hintern gewesen. Wie würde uns Intel weiterhin völlig überteuerte Prozessoren mit marginalen Verbesserungen jahraus, jahrein präsentieren. Intel wollte gaaaanz gemütlich mit hoher Wertschöpfung den P4 in glitzekleinen Schüben auf Tempo bringen. Die Architectur war ja nur auf Taktzahl ausgelegt, was der Nutzer tatsächlich für Nutzen haben würde, war ja egal....Es ging ums jahrelange Kleckern und Melken.
Wie schön, dass es immer mal wieder Firmen gibt, die solche Pläne von den quasi- Monopolisten durchkreuzen und die Touren versauen........Danke Ati, danke AMD! :D
robbitop
2005-03-07, 19:05:42
nur, dass ATI seit Jahren auch in Punkto Innovation nichts mehr macht. ;(
Quasar
2005-03-07, 19:47:16
ATi bringt dem Gamer HIGH-DEFINITION Gaming und überragende Bilqualität!!! Und natives PCI-Express durch die gesamte Produktpalette. Ausserdem laufen ATi-Karten in allen Games super und nicht nur in Benchmarks. Und es gibt monatlich neue Treiber.
Das 128Bit-Interface war IMO nicht das Problem. Für ein Pixelquad pro Takt (wenn denn überhaupt soviel hinten rauskam) genügt das selbst mit 2xAA problemlos.
Und 4xAA war ja laut Bekunden etlicher hier sowieso sinnlose Leistungsverschwendung.Leider habe ich einen NV30 nie testen können. So kann ich den NV35 nur mit dem NV25 vergleichen. Der NV35 brachte mir deutlich mehr Leistung als ich vom Taktsprung von 300 auf 400 MHz erwartet habe. Insgesamt wirkt der NV35 auf mich einfach "belastbarer" – mehr Texturschichten, höhere AF-Stufen (ohne "Stage-Opitmierung), höhere Auflösung – alles Dinge, die eigentlich primär füllratenabhängig sind – und trotzdem noch eine höhere Framerate.
mapel110
2005-03-07, 19:49:33
ATi bringt dem Gamer HIGH-DEFINITION Gaming und überragende Bilqualität!!! Und natives PCI-Express durch die gesamte Produktpalette. Ausserdem laufen ATi-Karten in allen Games super und nicht nur in Benchmarks. Und es gibt monatlich neue Treiber.
Endlich sieht er es ein. :uup:
;)
Jesus
2005-03-07, 19:50:59
So, hier - wie versprochen - noch ein paar Werte von mir. Lassen wir erstmal die sprechen:
1024x768x32, kein AA/AF, NormalMapCompression = 0
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 65.86s, Average FPS: 46.22
Min FPS: 27.37 at frame 2298, Max FPS: 100.19 at frame 662
Average Tri/Sec: 4887091, Tri/Frame: 105734
Recorded/Played Tris ratio: 0.96
!TimeDemo Run 1 Finished.
Play Time: 61.71s, Average FPS: 49.33
Min FPS: 27.37 at frame 2298, Max FPS: 102.58 at frame 650
Average Tri/Sec: 4856102, Tri/Frame: 98443
Recorded/Played Tris ratio: 1.03
!TimeDemo Run 2 Finished.
Play Time: 60.70s, Average FPS: 50.15
Min FPS: 27.37 at frame 2298, Max FPS: 102.58 at frame 650
Average Tri/Sec: 4861892, Tri/Frame: 96951
Recorded/Played Tris ratio: 1.05
1024x768x32, kein AA/AF, NormalMapCompression = 1
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 60.91s, Average FPS: 49.98
Min FPS: 27.62 at frame 2465, Max FPS: 98.16 at frame 662
Average Tri/Sec: 5295373, Tri/Frame: 105952
Recorded/Played Tris ratio: 0.96
!TimeDemo Run 1 Finished.
Play Time: 57.58s, Average FPS: 52.86
Min FPS: 27.62 at frame 2465, Max FPS: 100.40 at frame 641
Average Tri/Sec: 5238680, Tri/Frame: 99100
Recorded/Played Tris ratio: 1.02
!TimeDemo Run 2 Finished.
Play Time: 56.29s, Average FPS: 54.08
Min FPS: 27.62 at frame 2465, Max FPS: 100.79 at frame 637
Average Tri/Sec: 5251126, Tri/Frame: 97107
Recorded/Played Tris ratio: 1.05
1280x96032, 2xAA/4xAF, NormalMapCompression = 0
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 122.02s, Average FPS: 24.95
Min FPS: 15.00 at frame 1160, Max FPS: 56.91 at frame 842
Average Tri/Sec: 2649262, Tri/Frame: 106195
Recorded/Played Tris ratio: 0.96
!TimeDemo Run 1 Finished.
Play Time: 119.04s, Average FPS: 25.57
Min FPS: 15.00 at frame 1160, Max FPS: 56.91 at frame 842
Average Tri/Sec: 2523788, Tri/Frame: 98697
Recorded/Played Tris ratio: 1.03
!TimeDemo Run 2 Finished.
Play Time: 118.01s, Average FPS: 25.79
Min FPS: 15.00 at frame 1160, Max FPS: 60.51 at frame 659
Average Tri/Sec: 2488048, Tri/Frame: 96457
Recorded/Played Tris ratio: 1.05
1280x96032, 2xAA/4xAF, NormalMapCompression = 1
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 119.72s, Average FPS: 25.43
Min FPS: 15.14 at frame 1171, Max FPS: 57.89 at frame 646
Average Tri/Sec: 2712130, Tri/Frame: 106665
Recorded/Played Tris ratio: 0.95
!TimeDemo Run 1 Finished.
Play Time: 116.00s, Average FPS: 26.24
Min FPS: 15.14 at frame 1171, Max FPS: 57.89 at frame 646
Average Tri/Sec: 2591051, Tri/Frame: 98738
Recorded/Played Tris ratio: 1.03
!TimeDemo Run 2 Finished.
Play Time: 115.56s, Average FPS: 26.34
Min FPS: 15.14 at frame 1171, Max FPS: 57.89 at frame 646
Average Tri/Sec: 2559929, Tri/Frame: 97181
Recorded/Played Tris ratio: 1.04
Testsystem:
Tbred @ ~ 2454 MHz (213x11,5)
2x 512MB MDT @ 213 MHz bei 2,5-3-2-11
Radeon 9800 Pro 128MB @ 450/380
Catalyst 5.2, A.I. @ Standard, G.I. aktiviert
Was auffällt: Die Komprimierung bringt auf meinem System nicht so viel wie bei deekey. Weiterhin sieht man schön, dass damit die MinFPS stets minimal höher und die MaxFPS minimal niedriger sind -- Average legt aber nicht mal 10% zu.
Nach mapels Werten musste ich auch stutzen ... aber die Timedemo ist doch nicht CPU-limitiert. Im Gegenteil, jetzt wundere ich mich über den enormen Einbruch von fast 100% ... ;)
MfG,
Raff
War das Regulator ? Kann mir irgendwie immer nohc nicht erklären wieso deine min FPS so in den Keller gehen. Hast du den Trick mit dem Auflösungändern/Desktop switch ausprobiert?
Quasar
2005-03-07, 19:51:02
Leider habe ich einen NV30 nie testen können. So kann ich den NV35 nur mit dem NV25 vergleichen. Der NV35 brachte mir deutlich mehr Leistung als ich vom Taktsprung von 300 auf 400 MHz erwartet habe. Insgesamt wirkt der NV35 auf mich einfach "belastbarer" – mehr Texturschichten, höhere AF-Stufen (ohne "Stage-Opitmierung), höhere Auflösung – alles Dinge, die eigentlich primär füllratenabhängig sind – und trotzdem noch eine höhere Framerate.
Bis inkl. 2xAA war eine FX5800u einer 5900u nur selten unterlegen.
robbitop
2005-03-07, 19:57:57
Bis inkl. 2xAA war eine FX5800u einer 5900u nur selten unterlegen.
Nur wenn kein FP Shading dabei ist, hm? ;)
Interessant! So ähnlich habe ich damals auch den R300 gesehen: Es war der verdiente Tritt in den Hintern von NV, die volle Breitseite ins Kontor sozusagen.Das sehe ich weniger ... emotional.
ATI hat sich mit dem R100 erstmals als ernstzunehmender Mitbewerber gezeigt. Den R200 betrachte ich trotz vergurktem AA und dem fragwürdigen AF insgesamt als Sahnestück (Vertexleistung, Pixelshader-Technik und Leistung.) Der R300, also der dritte Anlauf, traf NV in einer Zeit der Schwäche. Deshalb konnte ATI endlich mal gewinnen, was sie sich imo redlich verdient haben. NVs Schwäche ist von NV selbstverschuldet: GF2 = GF1 mit kleinen Verbesserungen, GF4 = GF3-Aufguss, GF FX = GF4 mit ShaderCore und neuen Vertexshadern. Und die GeForce3 ist mehr GeForce2, als manche glauben wollen.
ATI hätte ohne NVs damalige Marktführerschaft, die sich neben dem leider erfolgleichem Hype-Marketing und Benchmark-Cheating ja auch auf oft brauchbaren Produkten begründete (von einigen Ausreißern abgesehen) wohl keine so gute Radeon-Serie entwickelt.
Quasar
2005-03-07, 20:26:55
Nur wenn kein FP Shading dabei ist, hm? ;)
Deswegen schrieb ich "nur selten".
MadManniMan
2005-03-07, 20:47:20
Das glaube ich nicht. Die Probleme lagen nicht in der Füllrate.
Ja stimmt, so hat man meine Formulierung verstehen können ... es ging mir einzig um den Verschnitt!
Naja. Und eben um die Details, die wir nicht begreifen können ;)
Was Verschnitt betrifft, das sehe ich an meiner 6600 Go gegenüber der 9500 Pro gut - ein 4facher MC gegenüber dem 2fachen der 9500 Pro bringt schon eine Menge ... *an den Deltachrome denkt*
...und Q - made my day! :ucatch:
Piffan
2005-03-07, 20:47:34
Das sehe ich weniger ... emotional.
ATI hat sich mit dem R100 erstmals als ernstzunehmender Mitbewerber gezeigt. Den R200 betrachte ich trotz vergurktem AA und dem fragwürdigen AF insgesamt als Sahnestück (Vertexleistung, Pixelshader-Technik und Leistung.) Der R300, also der dritte Anlauf, traf NV in einer Zeit der Schwäche. Deshalb konnte ATI endlich mal gewinnen, was sie sich imo redlich verdient haben. NVs Schwäche ist von NV selbstverschuldet: GF2 = GF1 mit kleinen Verbesserungen, GF4 = GF3-Aufguss, GF FX = GF4 mit ShaderCore und neuen Vertexshadern. Und die GeForce3 ist mehr GeForce2, als manche glauben wollen.
ATI hätte ohne NVs damalige Marktführerschaft, die sich neben dem leider erfolgleichem Hype-Marketing und Benchmark-Cheating ja auch auf oft brauchbaren Produkten begründete (von einigen Ausreißern abgesehen) wohl keine so gute Radeon-Serie entwickelt.
Ja gut, dann ist es so, dass die wechselseitige Befeuerung durch kräftige Arschtritte die PC- Technik voranbringt. Das Rotationsprinzip sozusagen....:D
Natürlich emotionslos und rein sachlich.......
robbitop
2005-03-07, 21:24:27
Ja stimmt, so hat man meine Formulierung verstehen können ... es ging mir einzig um den Verschnitt!
Naja. Und eben um die Details, die wir nicht begreifen können ;)
Was Verschnitt betrifft, das sehe ich an meiner 6600 Go gegenüber der 9500 Pro gut - ein 4facher MC gegenüber dem 2fachen der 9500 Pro bringt schon eine Menge ... *an den Deltachrome denkt*
...und Q - made my day! :ucatch:
Auweia Manni!!
Daß deine 6600 schneller ist als eine 9500pro kann nicht am 4 fachen XBar liegen. Sie hat nur einen 2 fachen ;-).
Und wenn du pro Pixel pro Takt 8 Bit Z (ich gehe von einer 3:1 Z Kompression in der Praxis aus) und 32 Bit Farbe. Davon hast du 8. Also im Borst Case musst du 320 Bit schreiben. Im worst case 2 Farbwerte (da du 2 Quads hast). Also 80 Bit.
Du hast bei beim NV43 und bei der Radeon 9500pro nur 256 Bit (128 Bit DDR).
Wenn die Berechnung eines Pixels mehrere Takte dauert, hat das Interface "mehr Zeit".
Bei einer zweifachen Unterteilung also je 128 Bit. Das wäre im Worst Case Fall ein Verschnitt von 2* 48 Bit. Bei 2 Quads kommt das noch nicht so oft vor. Bei einem Quad wäre ein 4 fach unterteilter Controller noch wichtiger.
Bei AA steigt natürlich die nötige Bandbreite pro Takt (auch wenn die FB Compression gut wirkt).
Beim Deltachrome spielt der Verschnitt mit hinein. Aber nicht so sehr, wie du es dir vorstellst.
Dieser hat eben 8 Farbwerte zu übertragen und trilinear zu samplen. Da ist schon ein 256 Bit DDR Inferface nötig, um das auf die Straße zu bringen.
P.S. ich gehe von gleichem Takt Chip/Speicher aus.
deekey777
2005-03-07, 21:36:36
Nur zu. :D Ich bin leider nicht vertraut mit der Recording-Funktion von FC -- tauge nur zum Abspielen. ;)
Wegen dem Posting: Du hast 'ne Antwort. :)
MfG,
Raff
Ich würde auch gern eine vernünftige Timedemo für Far Cry aufnehmen, aber es nahezu unmöglich.
€: Ich habe eine Timedemo auf der Volcano Map aufgenommen (Speicherpunkt nach dem Kampf mit Dr. Krieger, bevor man rausgeht): Man läuft zu dem Aufzug und geht in die Halle, wo vorher der Kampf mit dem Dr. Krieger stattfand. Lustigerweise stehen Söldner und Dr. Krieger, wenn man die Demo abspielt. Leider verbrauchte ich zu viel Ziet mit dem Befehl \stopdemo, was das Ergebnis verfälscht (ich hätte den Befehl schon vor dem Recording eingeben sollen und dann am Ende einfach die Konsole öffnen). ;(
MadManniMan
2005-03-07, 21:39:52
Schön, jetz bringste mich in Verlegenheit :D
...wie dem auch sei - der NV43 transportiert mehr Rawpower durch ähnliche Bandbreite (300MHz gegenüber 320MHz 128bit bei meiner 9500 Pro) ... was mich beeindruckt! Bri-, den AF-Mist und den Stagemist habe ich zudem ausgeschaltet. Auf jeden Fall rockt das Ding :D
Zudem meinte ich beim DC nicht das 8*1 Design, sondern das Fehlen einer Xbar.
Schön, jetz bringste mich in Verlegenheit :D
...wie dem auch sei - der NV43 transportiert mehr Rawpower durch ähnliche Bandbreite (300MHz gegenüber 320MHz 128bit bei meiner 9500 Pro) ... was mich beeindruckt! Bri-, den AF-Mist und den Stagemist habe ich zudem ausgeschaltet. Auf jeden Fall rockt das Ding :D
Zudem meinte ich beim DC nicht das 8*1 Design, sondern das Fehlen einer Xbar.Bandbreite ist auch nicht alles. Dass die NV40-Architektur das bessere SM2-Design im Vergleich mit dem R300 ist, ist ja kein Geheimnis. Auch kein Wunder wenn man den Altersunterschied bedenkt.
robbitop
2005-03-07, 22:29:18
Zudem meinte ich beim DC nicht das 8*1 Design, sondern das Fehlen einer Xbar.
Das Fehlen eines XBars allein macht die Misere nicht aus. Selbst ein vierfach unterteilter XBar würde nicht genügen für 8 trilineare Samples. Das Teil giert nach einem 256 Bit DDR Interface.
btw: hat deine 6600Go nicht auch ein bisschen mehr Takt als deine 9500pro?
[...]
btw: hat deine 6600Go nicht auch ein bisschen mehr Takt als deine 9500pro?
375/300 (GF6600 Go) ggü. 275/320, IIRC.
MfG,
Raff
deekey777
2005-03-08, 00:05:20
Ich würde auch gern eine vernünftige Timedemo für Far Cry aufnehmen, aber es nahezu unmöglich.
€: Ich habe eine Timedemo auf der Volcano Map aufgenommen (Speicherpunkt nach dem Kampf mit Dr. Krieger, bevor man rausgeht): Man läuft zu dem Aufzug und geht in die Halle, wo vorher der Kampf mit dem Dr. Krieger stattfand. Lustigerweise stehen Söldner und Dr. Krieger, wenn man die Demo abspielt. Leider verbrauchte ich zu viel Ziet mit dem Befehl \stopdemo, was das Ergebnis verfälscht (ich hätte den Befehl schon vor dem Recording eingeben sollen und dann am Ende einfach die Konsole öffnen). ;(
Hab jetzt doch geschafft eine Timedemo aufzunehmen: Gleich nach dem Kampf mit Dr. Krieger geht der Protagonist zurück in die Halle, wo etwa 10 Söldner mit Schildern, Krieger und Val in der Ecke sind. Sie ist ziemlich anspruchsvoll: Auf Mittel hatte ich etwa 46 Average FPS, auf Hoch (Beleuchtung auf Sehr Hoch) schon 39 Average FPS. Die Demo selbst hat etwa 2400 Frames, also länger als Research (1500), aber kürzer als zB Pier (3500).
€: Die Min FPS sind aber bei beiden Durchläufen in etwa gleich - 20 Fps.
MadManniMan
2005-03-08, 00:09:24
Ich meinte auch nichtmal die unheimliche Tripower des DC, sondern allgemein, daß ein 2-Quader mit 128bit ohne XBar vollkommen überfordert ist.
Und daß - wie aths sagt - die Shaderpower beim NV43 größer ist, stimmt natürlich auch.
Ich habe die blöde Angewohnheit, Shooter zu bevorzugen - und da ich kein UTler bin, fallen mir auch eigentlich immer nur Grafikreißer in die Hände ;(
375/300 (GF6600 Go) ggü. 275/320, IIRC.
Fast ;) 375/300 gegenüber seit Ewigkeiten so laufenden 380/320 - recht ähnlich ist sich das tatsächlich, aber es ist mir natürlich ein Leichtes, bei Zeiten beide mit höheren Takten, als den Standardmäßigen 275/270 der 9500 Pro gegeneinander antreten zu lassen.
Besonders die Divergenz zwischen 1024 gegenüber 1280 ist in allen Reviews beim 6600 äußerst frapant - wenn ich wieder in den Nähe meines 17" TFTs bin, kann ich das mal Gegenchecken. Problem ist fast schon eher, den Dothan auf das 2.600+er Niveau runterzukriegen ;( ;)
Hab jetzt doch geschafft eine Timedemo aufzunehmen: Gleich nach dem Kampf mit Dr. Krieger geht der Protagonist zurück in die Halle, wo etwa 10 Söldner mit Schildern, Krieger und Val in der Ecke sind. Sie ist ziemlich anspruchsvoll: Auf Mittel hatte ich etwa 46 Average FPS, auf Hoch (Beleuchtung auf Sehr Hoch) schon 39 Average FPS. Die Demo selbst hat etwa 2400 Frames, also länger als Research (1500), aber kürzer als zB Pier (3500).
€: Die Min FPS sind aber bei beiden Durchläufen in etwa gleich - 20 Fps.
Könntest du das Teil irgendwo hochladen? Zur Not grad' bei Imageshack mit .jpg-Endung. :D
MfG,
Raff
deekey777
2005-03-08, 00:28:12
Könntest du das Teil irgendwo hochladen? Zur Not grad' bei Imageshack mit .jpg-Endung. :D
MfG,
Raff
http://img109.exs.cx/img109/6449/krieger8od.jpg
(Rechte Maustaste -> Ziel speichern -> krieger8od.jpg in krieger.tmd umbenennen.)
Ordner: X:\programme\Ubisoft\Crytek\Far Cry\Levels\Volcano
Zum Starten: Im -devmode starten, in der Konsole \map volcano eingeben und nach dem Laden \demo krieger
Vielen Dank ImageShack fürs Hochladen!!! Free Image Hosting (http://www.imageshack.us)
€: Bei mir hat's funktioniert. :D
mapel110
2005-03-08, 00:43:30
Resolution: 1024×768
Ultra quality option, Direct3D renderer
Level: Volcano, demo: krieger.tmd
Pixel shader: default model
Antialising: 2×
Anisotrophic filtering: 4×
HDR: disabled
Geometry Instancing: enabled
Normal-maps compression: enabled
Score = 48,00 FPS (Run 1)
Score = 50,17 FPS (Run 2)
Average score = 49,08 FPS
Resolution: 1280×1024
Ultra quality option, Direct3D renderer
Level: Volcano, demo: krieger.tmd
Pixel shader: default model
Antialising: 2×
Anisotrophic filtering: 4×
HDR: disabled
Geometry Instancing: enabled
Normal-maps compression: enabled
Score = 46,83 FPS (Run 1)
Score = 48,79 FPS (Run 2)
Average score = 47,81 FPS
Ich mach nochmal ohne AA und AF und diesmal 3 durchläufe. to be edited ...
/edit
Resolution: 1024×768
Ultra quality option, Direct3D renderer
Level: Volcano, demo: krieger.tmd
Pixel shader: default model
Antialising: None
Anisotrophic filtering: 1×
HDR: disabled
Geometry Instancing: enabled
Normal-maps compression: enabled
Score = 49,74 FPS (Run 1)
Score = 51,62 FPS (Run 2)
Score = 52,03 FPS (Run 3)
Average score = 51,13 FPS
Resolution: 1280×1024
Ultra quality option, Direct3D renderer
Level: Volcano, demo: krieger.tmd
Pixel shader: default model
Antialising: None
Anisotrophic filtering: 1×
HDR: disabled
Geometry Instancing: enabled
Normal-maps compression: enabled
Score = 47,98 FPS (Run 1)
Score = 50,46 FPS (Run 2)
Score = 50,50 FPS (Run 3)
Average score = 49,64 FPS
ehm, also bei mir scheints bis 1280x1024 2xAA/4xAF CPU-limitiert zu sein. :ugly:
deekey777
2005-03-08, 00:59:05
Zumindest liegt die CPU-Limitierung nicht an der Vegetation. ;D
Hier denke ich zB an die Fabrik, wo man Val, während sie die Atombombe aktiviert, beschützen soll (Horden von Söldnern greifen an) bzw. an den Kampf gegen Krieger selbst.
Es wäre eine weitere Timedemo möglich: Map Cooler, letzter Speicherpunkt (bevor man den riesiegen Raum flutet). Bei Abspielen dieser Timedemo bekämpfen sich "Springertrigege" mit den Söldnern, dabei gibt es Wasser, Lichtquellen, Bummapping ohne Ende...
War das Regulator ? Kann mir irgendwie immer nohc nicht erklären wieso deine min FPS so in den Keller gehen. Hast du den Trick mit dem Auflösungändern/Desktop switch ausprobiert?
Yep, Regulator. Switchen ging nicht, kam partout nicht auf den Desktop. :|
So, mal Werte von der Krieger-Timedemo:
1024x768x32, kein AA/AF:
TimeDemo Play Started , (Total Frames: 2409, Recorded Time: 34.08s)
!TimeDemo Run 0 Finished.
Play Time: 47.45s, Average FPS: 50.77
Min FPS: 24.81 at frame 420, Max FPS: 103.31 at frame 394
Average Tri/Sec: 3852817, Tri/Frame: 75882
Recorded/Played Tris ratio: 0.36
!TimeDemo Run 1 Finished.
Play Time: 45.74s, Average FPS: 52.67
Min FPS: 24.81 at frame 420, Max FPS: 103.31 at frame 394
Average Tri/Sec: 3937123, Tri/Frame: 74756
Recorded/Played Tris ratio: 0.37
!TimeDemo Run 2 Finished.
Play Time: 45.10s, Average FPS: 53.41
Min FPS: 24.81 at frame 420, Max FPS: 103.31 at frame 394
Average Tri/Sec: 3917697, Tri/Frame: 73349
Recorded/Played Tris ratio: 0.37
1280x960x32, kein AA/AF:
TimeDemo Play Started , (Total Frames: 2409, Recorded Time: 34.08s)
!TimeDemo Run 0 Finished.
Play Time: 53.85s, Average FPS: 44.74
Min FPS: 25.51 at frame 797, Max FPS: 69.15 at frame 1355
Average Tri/Sec: 3407998, Tri/Frame: 76176
Recorded/Played Tris ratio: 0.36
!TimeDemo Run 1 Finished.
Play Time: 52.64s, Average FPS: 45.77
Min FPS: 25.02 at frame 746, Max FPS: 70.45 at frame 1373
Average Tri/Sec: 3398699, Tri/Frame: 74263
Recorded/Played Tris ratio: 0.37
!TimeDemo Run 2 Finished.
Play Time: 51.94s, Average FPS: 46.38
Min FPS: 25.02 at frame 746, Max FPS: 70.94 at frame 366
Average Tri/Sec: 3372603, Tri/Frame: 72710
Recorded/Played Tris ratio: 0.38
1024x768x32, 2xAA/4xAF:
TimeDemo Play Started , (Total Frames: 2409, Recorded Time: 34.08s)
!TimeDemo Run 0 Finished.
Play Time: 56.65s, Average FPS: 42.52
Min FPS: 20.09 at frame 798, Max FPS: 74.88 at frame 344
Average Tri/Sec: 3231995, Tri/Frame: 76007
Recorded/Played Tris ratio: 0.36
!TimeDemo Run 1 Finished.
Play Time: 55.13s, Average FPS: 43.70
Min FPS: 20.09 at frame 798, Max FPS: 74.88 at frame 344
Average Tri/Sec: 3257835, Tri/Frame: 74556
Recorded/Played Tris ratio: 0.37
!TimeDemo Run 2 Finished.
Play Time: 54.77s, Average FPS: 43.98
Min FPS: 20.09 at frame 798, Max FPS: 77.82 at frame 377
Average Tri/Sec: 3263026, Tri/Frame: 74186
Recorded/Played Tris ratio: 0.37
1280x960x32, 2xAA/4xAF:
TimeDemo Play Started , (Total Frames: 2409, Recorded Time: 34.08s)
!TimeDemo Run 0 Finished.
Play Time: 76.35s, Average FPS: 31.55
Min FPS: 14.18 at frame 803, Max FPS: 54.19 at frame 347
Average Tri/Sec: 2402321, Tri/Frame: 76137
Recorded/Played Tris ratio: 0.36
!TimeDemo Run 1 Finished.
Play Time: 74.44s, Average FPS: 32.36
Min FPS: 14.18 at frame 803, Max FPS: 54.60 at frame 350
Average Tri/Sec: 2415298, Tri/Frame: 74636
Recorded/Played Tris ratio: 0.37
!TimeDemo Run 2 Finished.
Play Time: 74.43s, Average FPS: 32.37
Min FPS: 14.18 at frame 803, Max FPS: 56.18 at frame 395
Average Tri/Sec: 2390336, Tri/Frame: 73851
Recorded/Played Tris ratio: 0.37
System: Tbred @ 2308 MHz, GraKa @ 450/400, Cat 5.2.
Nun, nicht ganz so CPU-limitiert wie bei mapel. Aber dass eine gute alte 9800 Pro eine 6800GT hauen soll ... damit wollen wir besser garnicht anfangen. ;) Man merkt deutlich, dass ab 1280 mit AA/AF der GraKa die Puste ausgeht, da ist eine Grenze überschritten.
MfG,
Raff
mapel110
2005-03-08, 01:13:51
*snip*
System: Tbred @ 2308 MHz, GraKa @ 450/400, Cat 5.2.
Nun, nicht ganz so CPU-limitiert wie bei mapel. Aber dass eine gute alte 9800 Pro eine 6800GT hauen soll ... damit wollen wir besser garnicht anfangen. ;) Man merkt deutlich, dass ab 1280 der GraKa die Puste ausgeht, da ist eine Grenze überschritten.
MfG,
Raff
Der FSB scheint echt reinzuhauen. Okay, ich hatte auch noch den ein oder anderen Hintergrundtask laufen(mach ich nit extra fürs benchen aus, soll ja praxisnah sein). ;)
Der FSB scheint echt reinzuhauen. Okay, ich hatte auch noch den ein oder anderen Hintergrundtask laufen(mach ich nit extra fürs benchen aus, soll ja praxisnah sein). ;)
FSB war "nur" 209(x11). Und ok ... viel war nicht an, nur AntiVirus, Firewall, Lautstärke etc.
MfG,
Raff
Ailuros
2005-03-08, 11:35:32
Das glaub ich nicht, denn wie könnts sonst einen deutlich merkbaren Leistungsuntershied zw 128MB und 256MB Aperture Size bei Ruby:Doublecross geben
Nach Aussagen von OpenGL guy (ATI) in einem oeffentlichen Forum. Soll ich Dir die threads ausgraben oder reicht das?
Ailuros
2005-03-08, 11:40:54
Probiert mal folgendes: shortcut fuer farcry.exe und dann in die Command-line folgendes einfueren:
-DEVMODE “"#demo_num_runs=1" "#demo_quit=1" "map regulator" "demo regulator" "#r_Width=1280" "#r_Height=960"
Hier wird dann dass demo zweimal durchlaufen in 1280*960. Das man die Anzahl der loops, map/demo Namen und Aufloesung beliebig modifizieren kann, sollte selbstverstaendlich sein.
Und ok ... viel war nicht an, nur AntiVirus, Firewall, Lautstärke etc.
Schalt aber bitte fuer die timedemos Antivirus und Firewall ab.
Mr. Lolman
2005-03-08, 11:55:40
Nach Aussagen von OpenGL guy (ATI) in einem oeffentlichen Forum. Soll ich Dir die threads ausgraben oder reicht das?
Supi, dann steht Aussage gegen Aussage. (auch wenn der Typ von ATi ist, wird dir wohl jeder 128MB R3x0 Besitzer bestätigen können, dass es bei Ruby (mit colorless Wrapper) mit 128MB Aperture Size derbste Ruckler gibt, und mit 256MB Aperture Size, die ganze Sache vergleichsweise flüssig läuft. Kann schon sein, dass es irgendwann tatsächlich das von dir angesprochene Limit gab, dann wurde es aber spätestens beim Erscheinen des Ruby Wrappers beseitigt (Ruby ist aber iirc auch die einzige Anwendung die so enorm von 256MB AGP Size profitiert)
DrumDub
2005-03-08, 12:00:31
Supi, dann steht Aussage gegen Aussage. (auch wenn der Typ von ATi ist, wird dir wohl jeder 128MB R3x0 Besitzer bestätigen können, dass es bei Ruby (mit colorless Wrapper) mit 128MB Aperture Size derbste Ruckler gibt, und mit 256MB Aperture Size, die ganze Sache vergleichsweise flüssig läuft. Kann schon sein, dass es irgendwann tatsächlich das von dir angesprochene Limit gab, dann wurde es aber spätestens beim Erscheinen des Ruby Wrappers beseitigt (Ruby ist aber iirc auch die einzige Anwendung die so enorm von 256MB AGP Size profitiert)
vielleicht bezieht sich die aussage von opengl guy nur auf die aperture size unter opengl. :ulol:
und ja, ich kann deine feststellungen zu ruby auf meiner 9700 bestätigen.
Ailuros
2005-03-08, 13:01:03
Supi, dann steht Aussage gegen Aussage. (auch wenn der Typ von ATi ist, wird dir wohl jeder 128MB R3x0 Besitzer bestätigen können, dass es bei Ruby (mit colorless Wrapper) mit 128MB Aperture Size derbste Ruckler gibt, und mit 256MB Aperture Size, die ganze Sache vergleichsweise flüssig läuft. Kann schon sein, dass es irgendwann tatsächlich das von dir angesprochene Limit gab, dann wurde es aber spätestens beim Erscheinen des Ruby Wrappers beseitigt (Ruby ist aber iirc auch die einzige Anwendung die so enorm von 256MB AGP Size profitiert)
Na und? Wieso soll das was an dem Verhalten eines ATI demos aendern? Ich koennte mir leicht vorstellen dass der Treiber hier ein bisschen elastischer sein koennte.
Von dem abgesehen wieviel AGP memory gibt Dir SiSoft Sandra als Beispiel an?
Ailuros
2005-03-08, 13:08:30
vielleicht bezieht sich die aussage von opengl guy nur auf die aperture size unter opengl. :ulol:
und ja, ich kann deine feststellungen zu ruby auf meiner 9700 bestätigen.
OpenGL guy arbeitete mit OGL Treibern als er noch bei S3 arbeitete; bei ATI ist er im D3D team beschaeftigt.
Ob der Treiber auf gewisse agp Werte begrenzt oder nicht, kann man leicht herausstellen (siehe vorigen Post).
Demenstsprechende Links und Aussagen:
http://www.beyond3d.com/forum/viewtopic.php?t=20315&highlight=
http://rage3d.com/board/showthread.php?t=33679353&highlight=aperture
Currently, the driver limits the AGP aperture to 64 MB unless you have more than 1 GB of RAM. We're investigating changing this behavior, but have to be sure there are no side effects.
The driver determines how large an aperture to allocate based on several factors including system BIOS setting and the value recommended by the OS. If you have less than 1 GB of RAM, the OS won't recommend more than 64 MB so that is the current limit.
Kann sein dass sich daran was geaendert hat; koennt ihr aber selber herausfinden. Sandra oder VidMemory Tester lesen vom Treiber direkt ab.
Ailuros
2005-03-08, 13:11:00
Zum Krieger timedemo: nicht schlecht nur eben genauso CPU-limitiert wie auch HOC-River. Im letzteren schiesst die Poly Rate/Frame oefters nahe oder ueber die 250K Grenze.
deekey777
2005-03-08, 13:27:02
OpenGL guy arbeitete mit OGL Treibern als er noch bei S3 arbeitete; bei ATI ist er im D3D team beschaeftigt.
Ob der Treiber auf gewisse agp Werte begrenzt oder nicht, kann man leicht herausstellen (siehe vorigen Post).
Demenstsprechende Links und Aussagen:
http://www.beyond3d.com/forum/viewtopic.php?t=20315&highlight=
http://rage3d.com/board/showthread.php?t=33679353&highlight=aperture
....
Irgendwie kann ich daraus keine Schlüße ziehen, denn mein Lieblingsbeispiel Far Cry verlangt noch während der Installation, daß AGP Apertue Size mind. 64 MB beträgt, und fragt dabei nicht nach dem vorhandenen Arbeitsspeicher. :D
DrumDub
2005-03-08, 13:55:36
ailuros
eventuell stellt die aperture size im bios den maximalwert dar, der vom speicher abgezweigt wird, aber die verwaltung erfolgt dynamisch über den treiber. anders kann ich mir nämlich nicht erklären, warum die aperture size einstellung im bios eine solchen einfluss auf die performance bei ruby hat. gleiches ist übrings bei far cry zu beobachten, wie deekey777 schon anmerkte. mit 32mb ruckelts an einigen stellen (flugzeugträger innenraum<->dach), mit 64mb ist das ruckeln weg.
[...]Und Riddick, das laut Lolman auch arg lahmt. Werde ich mich bald selbst von überzeugen.[...]
Um darauf nochmal zurück zu kommen:
1024x768x32: 39,1 fps
1024x768x32 + 4xAA/8xTriAF: 20,0 fps
1280x1024x32: 25,6 fps
1280x1024x32 + 4xAA/8xTriAF: 13,2 fps
Tbred @ 2308 MHz (209x11), Radeon 9800 Pro 128MB @ 450/400, Catalyst 5.2, A.I. @ Standard.
Nachzulesen + mehr hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=197013).
Tja, was soll man sagen? Hier ist die Grenze. 2xAA/4xAF geht in 1024x768x32 geradeso. Doom³-Grafik unoptimiert.
MfG,
Raff
Ailuros
2005-03-10, 09:16:57
ailuros
eventuell stellt die aperture size im bios den maximalwert dar, der vom speicher abgezweigt wird, aber die verwaltung erfolgt dynamisch über den treiber. anders kann ich mir nämlich nicht erklären, warum die aperture size einstellung im bios eine solchen einfluss auf die performance bei ruby hat. gleiches ist übrings bei far cry zu beobachten, wie deekey777 schon anmerkte. mit 32mb ruckelts an einigen stellen (flugzeugträger innenraum<->dach), mit 64mb ist das ruckeln weg.
Koennt ihr freundlicherweise entweder durch SiSoft Sandra oder VidMemoryTester herausstellen, wieviel AGP memory entweder/oder durch den Catalyst Treiber angibt?
Was ihr hier hoechstwahrscheinlich nicht verstehen wollt, ist dass ich als ich die R300 noch im System hatte, bekam ich mit den letzten paar Treiber-Versionen mit 128MB BIOS aperture size eine Auslesung vom Treiber der mir 120+MB card memory + 120+MB aperture memory (total 240+MB texture memory) angab. Setzte ich aber die aperture size im BIOS auf entweder 256 oder 512MB, blieb die Groesse der agp memory die vom Treiber angegeben wurde auf den vorerwaehnten 120+MB stecken.
Auf das bezieht sich OpenGLguy und ja es war/ist(?) eine (Kompatibilitaets-) Limitierung die der Treiber selber gesetzt hat (der Thread im rage3D Link ist ziemlich alt, deshalb frage ich auch ob sich was geaendert hat und was genau vorerwaehnte Applikationen im ersten Paragraph genau auslesen auf heutigen Treibern).
Wenn ich auf der GeForce 512MB aperture einstelle, zeigt mir der Treiber auch ~503MB agp memory an; egal ob diese Menge je benutzt wird oder nicht. In Echtzeit bevor man erstmal zu einer groesseren Menge von agp memory Verbrauch kommt, schmeisst Dich der Treiber entweder zum desktop zurueck oder schaltet einfach den von mir eingeschalteten AA-modus nicht (oder nicht vollstaendig) ein. Ausser Du erwartest dass mir der Treiber erlaubt eine heutige Applikation mit 16xSSAA in 1600 mit nur 128MB onboard ram laufen zu lassen. Anstatt eben seconds per frame, zeigt mir der Treiber eben gleich den Mittelfinger :D
DrumDub
2005-03-10, 12:14:44
ailuros
ok, dass der treiber sich da selbst limitiert halte ich ja auch für möglich. die frage ist nur, warum macht eine aperture size von 256mb einen unterschied beim ruby-demo gegenüber 128mb auf einem r3x0?
ich werde das auf jeden fall heute abend mal mit den von dir genannten tools überprüfen.
deekey777
2005-06-25, 17:46:19
Zumindest liegt die CPU-Limitierung nicht an der Vegetation. ;D
Hier denke ich zB an die Fabrik, wo man Val, während sie die Atombombe aktiviert, beschützen soll (Horden von Söldnern greifen an) bzw. an den Kampf gegen Krieger selbst.
Es wäre eine weitere Timedemo möglich: Map Cooler, letzter Speicherpunkt (bevor man den riesiegen Raum flutet). Bei Abspielen dieser Timedemo bekämpfen sich "Springertrigege" mit den Söldnern, dabei gibt es Wasser, Lichtquellen, Bummapping ohne Ende...
Da ich wegen der Möglichkeit der Installation des amd64_ECU Patches für Far Cry ohne WinXP 64 viel gebencht hatte, bin auf die "Lösung" dieses Problems gestossen, das meine Kriegerdemo zur CPU-Limitierung neigt: Es liegt an Far Cry bzw. an seiner Timedemo-Funktion.
An sich ist die Aufnahme einer Timedemo in Far Cry sehr einfach, auch das Abspielen dieser: Man tippt in der Konsole zB \map research und dann \demo research ein - und es läuft. Leider besteht der Inhalt der Timedemo nur aus dem Pfad, den der Spieler während der aufnahme läuft, und nicht aus der "Gesamtsituation", wie zB vorher getötete Gegner.
Als Beispiel dient mein oberes Posting: Level Kühlraum vor dem letzten Speicherpunkt - Soldaten und Trigene bekämpfen sich, Jack tötet die Überlebenden, kann aber nicht weiter, worauf Doyle ihm empfiehlt den Raum zu fluten... Na, ihr wißt schon.
Kurz nach dem automatischen Speichern läuft Jack zurück zum Fahrstuhl, und hier beginnt die Aufnahme der Timedemo: Jack läuft zurück in den Raum, der geflutet werden soll. Die dabei entstandene Timedemo ist 4466 Frames lang.
Jetzt kommt das Testen dieser. In der "FarCry Benchmarking Readme.doc" (zu finden unter D:\Program Files\Ubisoft\Crytek\Far Cry\Support\Timedemo) gibt es eine Anleitung:
Start FarCry in DEVMODE (the timedemo will only work in devmode)
Load the level you wish to use in the timedemo using the \map <mapname> command
When you’re ready to begin recording, in the console type the following: \record <filename>, using the name of the file you wish to record.
Move around the area you wish to include in the timedemo, when you’re finished, type \stopdemo
A file will be created inside the map folder you recorded the demo on. For example, if you recorded the demo on Fort, the timedemo will be saved in levels/fort/yourtimedemo.tmd
To play the time demo, type \demo <demoname>. Once the demo has finished playing, a text file will be generated in the same folder as the timedemo file. This text file will contain the benchmarking results.
Folgt man dieser, dann sieht das ganze Prozedere etwa so aus:
Konsole öffnen, \map cooler eingeben, den Ladevorgang abwarten, in der Konsole dann \demo cooler eingeben. Während diese abgespielt wird, sieht man die kämpfenden Trigene und Söldner, die während der Aufnahme gar nicht dabei waren, da sie alle vorher getötet worden sind.
Das Ergebnis wäre:
TimeDemo Play Started , (Total Frames: 4466, Recorded Time: 78.23s)
!TimeDemo Run 0 Finished.
Play Time: 114.33s, Average FPS: 39.06
Min FPS: 23.23 at frame 4243, Max FPS: 58.74 at frame 1034
Average Tri/Sec: 2440004, Tri/Frame: 62466
Recorded/Played Tris ratio: 0.62
!TimeDemo Run 1 Finished.
Play Time: 111.32s, Average FPS: 40.12
Min FPS: 17.73 at frame 186, Max FPS: 62.17 at frame 1462
Average Tri/Sec: 2472884, Tri/Frame: 61637
Recorded/Played Tris ratio: 0.63
!TimeDemo Run 2 Finished.
Play Time: 104.60s, Average FPS: 42.70
Min FPS: 17.73 at frame 186, Max FPS: 64.44 at frame 1000
Average Tri/Sec: 2622580, Tri/Frame: 61423
Recorded/Played Tris ratio: 0.63
Wie man sieht, ändern sich die Durchschnittsframes mit jedem Durchgang. Warum? Ist einfach zu erklären, denn die Söldner und die Trigene starten ihren Kampf nicht mit jedem neuen Durchgang vom Anfang wieder neu, sondern setzen diesen fort, wobei man bemerken soll, daß dies ein wichtiges Element des Spiels ist.
Lädt man aber vorher den Speicherpunkt, dann fehlen alle NPCs(?), jeder Druchgang gleich dem anderen:
TimeDemo Play Started , (Total Frames: 4466, Recorded Time: 78.23s)
!TimeDemo Run 0 Finished.
Play Time: 80.92s, Average FPS: 55.19
Min FPS: 45.66 at frame 3863, Max FPS: 73.56 at frame 1833
Average Tri/Sec: 2126746, Tri/Frame: 38534
Recorded/Played Tris ratio: 1.01
!TimeDemo Run 1 Finished.
Play Time: 81.05s, Average FPS: 55.10
Min FPS: 45.64 at frame 3391, Max FPS: 73.56 at frame 1833
Average Tri/Sec: 2124103, Tri/Frame: 38548
Recorded/Played Tris ratio: 1.01
!TimeDemo Run 2 Finished.
Play Time: 81.03s, Average FPS: 55.11
Min FPS: 45.48 at frame 3850, Max FPS: 73.75 at frame 1817
Average Tri/Sec: 2124385, Tri/Frame: 38545
Recorded/Played Tris ratio: 1.01
Das gleiche gilt auch für die Krieger-Demo: Lädt man den letzten oder vorletzten Speicherpunkt, so fehlen die Söldner und Dr. Krieger, was die CPU-Last senken sollte.
Zum Glück haben die Macher der seit dem Patch 1.2 mitgelieferten Timedemos mitgedacht und haben dieses Problem vorausgesehen, denn das Nachladen eines Speicherpunkts, der nach der Timedemo erstellt wurde, was zur Folge hätte, daß keine Gegner in der Timedemo vorhanden sind und so das Ergebnis zum Besseren verfälschen könnte, hat keine nennenswerte Auswirkung!
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 87.58s, Average FPS: 34.76
Min FPS: 21.17 at frame 1707, Max FPS: 70.96 at frame 613
Average Tri/Sec: 3519271, Tri/Frame: 101258
Recorded/Played Tris ratio: 1.00
!TimeDemo Run 1 Finished.
Play Time: 84.55s, Average FPS: 36.00
Min FPS: 21.17 at frame 1707, Max FPS: 78.98 at frame 660
Average Tri/Sec: 3325091, Tri/Frame: 92353
Recorded/Played Tris ratio: 1.10
!TimeDemo Run 2 Finished.
Play Time: 83.39s, Average FPS: 36.50
Min FPS: 21.17 at frame 1707, Max FPS: 78.98 at frame 660
Average Tri/Sec: 3318277, Tri/Frame: 90907
Recorded/Played Tris ratio: 1.12
==============================================================
TimeDemo Play Started , (Total Frames: 3044, Recorded Time: 55.50s)
!TimeDemo Run 0 Finished.
Play Time: 82.93s, Average FPS: 36.70
Min FPS: 22.56 at frame 2664, Max FPS: 75.43 at frame 661
Average Tri/Sec: 3313726, Tri/Frame: 90283
Recorded/Played Tris ratio: 1.12
!TimeDemo Run 1 Finished.
Play Time: 82.93s, Average FPS: 36.70
Min FPS: 22.56 at frame 2664, Max FPS: 75.43 at frame 661
Average Tri/Sec: 3315117, Tri/Frame: 90320
Recorded/Played Tris ratio: 1.12
!TimeDemo Run 2 Finished.
Play Time: 82.80s, Average FPS: 36.76
Min FPS: 22.56 at frame 2664, Max FPS: 75.43 at frame 661
Average Tri/Sec: 3320943, Tri/Frame: 90336
Recorded/Played Tris ratio: 1.12
==============================================================
TimeDemo Play Started , (Total Frames: 2409, Recorded Time: 34.08s)
!TimeDemo Run 0 Finished.
Play Time: 56.08s, Average FPS: 42.96
Min FPS: 23.85 at frame 432, Max FPS: 91.72 at frame 358
Average Tri/Sec: 3263410, Tri/Frame: 75967
Recorded/Played Tris ratio: 0.36
!TimeDemo Run 1 Finished.
Play Time: 54.09s, Average FPS: 44.54
Min FPS: 23.85 at frame 432, Max FPS: 91.72 at frame 358
Average Tri/Sec: 3319267, Tri/Frame: 74522
Recorded/Played Tris ratio: 0.37
!TimeDemo Run 2 Finished.
Play Time: 53.56s, Average FPS: 44.98
Min FPS: 23.85 at frame 432, Max FPS: 91.72 at frame 358
Average Tri/Sec: 3302102, Tri/Frame: 73416
Recorded/Played Tris ratio: 0.37
==============================================================
TimeDemo Play Started , (Total Frames: 2409, Recorded Time: 34.08s)
!TimeDemo Run 0 Finished.
Play Time: 34.61s, Average FPS: 69.60
Min FPS: 49.68 at frame 425, Max FPS: 84.38 at frame 1360
Average Tri/Sec: 1780324, Tri/Frame: 25578
Recorded/Played Tris ratio: 1.07
!TimeDemo Run 1 Finished.
Play Time: 34.44s, Average FPS: 69.94
Min FPS: 49.68 at frame 425, Max FPS: 84.38 at frame 1360
Average Tri/Sec: 1785687, Tri/Frame: 25532
Recorded/Played Tris ratio: 1.07
!TimeDemo Run 2 Finished.
Play Time: 34.49s, Average FPS: 69.84
Min FPS: 49.68 at frame 425, Max FPS: 84.87 at frame 1382
Average Tri/Sec: 1783227, Tri/Frame: 25532
Recorded/Played Tris ratio: 1.07
SentinelBorg
2005-06-26, 00:37:05
Ui, alter Thread frisch aufgewärmt. Interessant aber, dass Ailuros mir seiner Einschätzung, dass der NV47 nur 16 ROPs bei 24 Shadern haben würde, recht behalten hat :D
Sentinel
Ailuros
2005-06-26, 08:40:46
Ui, alter Thread frisch aufgewärmt. Interessant aber, dass Ailuros mir seiner Einschätzung, dass der NV47 nur 16 ROPs bei 24 Shadern haben würde, recht behalten hat :D
Sentinel
Einschaetzung? :confused: :P
Es gibt mehrere hier in den Foren die genau das gleiche behauptet haben.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.