Archiv verlassen und diese Seite im Standarddesign anzeigen : VGA Charts 2004 @ THG
Exxtreme
2004-01-12, 00:09:43
http://www.tomshardware.de/graphic/20040105/index.html
Schön zu sehen, daß meine 1 Jahr "alte" R9700 Pro immer noch vorne mit dabei ist. :up:
MadMan2k
2004-01-12, 01:15:11
auch schön zu sehen ist, dass ich langsam aber sicher aufrüsten sollte.. ;)
Endorphine
2004-01-12, 01:18:02
Mittlerweile kommt der Speicherbandbreitenvorteil der R9700 ggü. der R9500P scheinbar auch zur Geltung. Eins muss man Lars "Borsti" Weinand ja lassen, die VGA-Charts sind ein guter Überblick über die Situation. :up:
Interessant ist aus meiner Sicht auch die deutliche Führung von nVidia-Karten über ATI in Q3A (http://www.tomshardware.de/graphic/20040105/vga-charts-05.html), die ja eigentlich nicht vorhanden sein dürfte. Auch wenn das wegen der niedrigen Anforderungen von Q3A für die Praxis irrelevant ist - ATI hat wohl immer noch Aufholbedarf beim OpenGL-Treiber?
Endorphine
2004-01-12, 01:20:54
Original geschrieben von MadMan2k
auch schön zu sehen ist, dass ich langsam aber sicher aufrüsten sollte.. ;) Wie wär's mit einer XGI Volari V3? 10 fps in UT2003 und 41 fps in Q3A:TA. ;D
XGI-Fans: SCNR. ;)
Exxtreme
2004-01-12, 01:51:45
Original geschrieben von Endorphine
Interessant ist aus meiner Sicht auch die deutliche Führung von nVidia-Karten über ATI in Q3A (http://www.tomshardware.de/graphic/20040105/vga-charts-05.html), die ja eigentlich nicht vorhanden sein dürfte. Auch wenn das wegen der niedrigen Anforderungen von Q3A für die Praxis irrelevant ist - ATI hat wohl immer noch Aufholbedarf beim OpenGL-Treiber?
Naja, Q3A war schon immer eine Domäne der GraKas von NV ... warum auch immer. Das war schon zu Radeon 64-Zeiten so.
Test ist für mich komplett wertlos, da nur 1024x768 gebencht wurde.
Wishnu
2004-01-12, 03:21:40
Original geschrieben von Endorphine
Interessant ist aus meiner Sicht auch die deutliche Führung von nVidia-Karten über ATI in Q3A (http://www.tomshardware.de/graphic/20040105/vga-charts-05.html), die ja eigentlich nicht vorhanden sein dürfte. Auch wenn das wegen der niedrigen Anforderungen von Q3A für die Praxis irrelevant ist - ATI hat wohl immer noch Aufholbedarf beim OpenGL-Treiber?
Frage eines Laien:
Kann das etwas damit zu tun haben, dass beim R3x0 intern - so weit ich richtig informiert bin - alles nach FP24 transformiert wird (der Chip also immer mit Fliesskommazahlen rechnet), die FXen hingegen hier weiterhin fröhlich mit FX12 (oder wie das heisst) rechnen können?
Oder stimmt meine Info bezüglich des R3x0 gar nicht, bzw. bringe ich da grade was durcheinander?
Aufklärung erbeten. ;)
[dzp]Viper
2004-01-12, 07:44:40
Original geschrieben von Endorphine
Interessant ist aus meiner Sicht auch die deutliche Führung von nVidia-Karten über ATI in Q3A (http://www.tomshardware.de/graphic/20040105/vga-charts-05.html), die ja eigentlich nicht vorhanden sein dürfte. Auch wenn das wegen der niedrigen Anforderungen von Q3A für die Praxis irrelevant ist - ATI hat wohl immer noch Aufholbedarf beim OpenGL-Treiber?
Ich denke mal, dass das an Q3 und den NV Optimierungen für Q3 liegt. Bei COD sieht die ganze sache schon völlig anders aus!
ausserdem interessiert es nun wirklich nicht mehr, ob man 210 oder 225 fps hat - dann schon eher ob man 50 oder 85 fps hat ;)
Demirug
2004-01-12, 08:30:23
Bei Q3 spielt es eine grosse Rolle wie viel CPU-Last der Treiber verursacht. Das Spiel ist eben eher CPU-lastig. Zudem macht die Engine auch massiv Gebrauch von den nVidia-Extensions. Und dann gibt es ja auch noch das Gerücht mit dem Codepfad Morphing in den Treibern.
[dzp]Viper
2004-01-12, 08:39:12
Original geschrieben von Demirug
Codepfad Morphing in den Treibern.
kannst du das mal erläutern? Kann mir darunter nix vorstellen :ratlos: (auch wenn es Offtopic ist)
Demirug
2004-01-12, 08:42:31
Original geschrieben von Wishnu
Frage eines Laien:
Kann das etwas damit zu tun haben, dass beim R3x0 intern - so weit ich richtig informiert bin - alles nach FP24 transformiert wird (der Chip also immer mit Fliesskommazahlen rechnet), die FXen hingegen hier weiterhin fröhlich mit FX12 (oder wie das heisst) rechnen können?
Oder stimmt meine Info bezüglich des R3x0 gar nicht, bzw. bringe ich da grade was durcheinander?
Aufklärung erbeten. ;)
Ja, R3XX können nur mit FP24 rechnen. Das Umrechnen kostet aber keine Leistung weil es dafür extra Einheiten gibt.
Da Q3 bei nVidia Karte die Register-Combiner Extension nutzt gibt sie dem Treiber/Karte klar zu verstehen ich bin mit FX9 zufrieden. FX12 ist dann ja sogar mehr als Q3 will.
Demirug
2004-01-12, 09:29:52
Original geschrieben von [dzp]Viper
kannst du das mal erläutern? Kann mir darunter nix vorstellen :ratlos: (auch wenn es Offtopic ist)
Das ist eine etwas merkwürdige Geschichte die auch durchaus in den Bereich der Mythen und Sagen gehören kann. Ich weiss auch nicht mehr wer das mal aufgebracht hat.
Das ganze baut auf einigen Annahmen auf wie der OpenGL-Treiber von nVidia intern arbeitet. Die Grundidee ist das er Veränderungen sammelt bis es zu einem Draw-Call kommt. Kommt der Call wird gebrüft was sich alles verändert hat die Steuercode dafür in einem Buffer gespeichert und am Ende das Draw-Commando hinzugefügt. Da sich Veränderungen durchaus an vielen Stellen auswirken können ist das Ermitteln der richtigen Steuercodes nicht ganz trivial. Braucht also CPU Leistung. Um das zu beschleunigen soll es nun angeblich Codepfade im Treiber geben welche so abgestimmt sind das sie nur die üblichen Anwendungsfälle überprüfen. Alternativ gibt es natürlich auch vollständige Prüfpfade. Die vollständigen Pfade werden allerdings nur aktiviert wenn der Treiber dafür Bedarf sieht. Diese Modifikationen des Prüfpfads zur Laufzeit wurde dann mal als Morphing beziechnet. Für bestimmte Anwendungen soll es genau abgestimmte Pfade geben die nur auf Veränderungen prüfen von denen man weiss das sie von der Anwendung vorgenommen werden andere Änderungen werden ignoriert. Kommt es allerdings zu abweichungen vom vordefinierten Schema wird wieder der standardpfad aktiviert.
Ob das aber wirklich mal so war oder auch noch so ist weiss aber keiner so genau. Die einzige Aussage von nVidia zu dem Thema ist das die häufig genutzte Codepfade im Treiber besonders optimiert seien. Das kann aber alles und auch nichts bedeuten.
[dzp]Viper
2004-01-12, 09:40:26
achso - hm klingt einleuchtend
danke @ demi
Viel Arbeit... aber warum wurde denn nur in 1024x768 gebencht? Alle der genannten Karten können mindestens 2xAA/2xAF. Naja, ansonsten zeigt der Test sehr gut, wie die Karten bei einer schnellen CPU skalieren.
Und seit wann beherrscht der NV25 DX8.1-Features? ;)
€dit: Ah, sehe gerade, dass da doch noch AA/AF kommt... :D
MfG,
Raff
Original geschrieben von Raff
Und seit wann beherrscht der NV25 DX8.1-Features? ;)Schon immer.
derJay
2004-01-12, 13:09:00
Nette Übersicht, macht mich glücklich mit dem Kauf meiner 9600XT und zeigt was ich eigentlich schon wusste: Gute Mittelklassekarte. :)
Black-Scorpion
2004-01-12, 13:14:20
Dann wird meine Karte ja noch ein weilchen reichen.
deekey777
2004-01-12, 13:34:47
Na ja, THG und die Grafikkartentests...
Zu Q3&nVidia: Hier liegt nVidia noch vorn, bei neueren auf der Kuh3-Engine basierten Spielen liegen auch Radeons mal in Führung. Dennoch: Spiele, die noch auf der Q3-Engine basieren, heute für 40-45 € zu veröffentlichen, ist Kundenverarschung, besonders, wenn sie wie ein Add-on mit hübscherer Grafik aussehen (-> siehe JK:JA), der Vorteil, dass die Hardwareanforderungen für diese nicht so hoch ist, ist aber ein Vorteil. Selbst CoD kann nicht immer überzeugen.
Zu dem Test selbst: Nett, aber auch nötig? Nein. Zum Glück ist er nicht so schlimm, wie die "grosse Kaufberatung" ( http://www.tomshardware.de/graphic/20030715/index.html ). Dennoch haben einige Tests hier nichts zu suchen, besonders Halo, auch Quake3 ist nicht mehr so taufrisch, CoD, RTCW:ET(da auch umsonst) und auch JA:JK sind da schon besser, anspruchsvoller und aktueller. Warum fehlt denn TR:AoD? Hier könnte doch Lars zeigen, dass die 50er Treiber ihren Zweck erfühlen.
Aber Halo...
LovesuckZ
2004-01-12, 16:05:30
Hm schon interessant, wie man aus 2003 einfach mal 2004 macht...
Ausserdem, Gott segne den Menschen, sind die AA/AF werte wohl ein kleinwenig gefaked, sonst verkaufe ich meine 5800 und kauf mir ne TI4400.
Und auch interessant, dass'ne 5200 einfach mal so auf TI4200 Niveau mit AA/AF liegt.
Ach'ne, ich segne Gott doch nicht, denn zuviel Intelligenz macht mistraurisch...
Tesseract
2004-01-12, 16:12:01
Original geschrieben von aths
Schon immer.
ich dachte DX8.1 definiert die PS1.4
Demirug
2004-01-12, 16:21:40
Original geschrieben von Tesseract
ich dachte DX8.1 definiert die PS1.4
Die auch. Aber auch 1.2 und 1.3.
GF4 ist ein PS 1.3 Chip.
deekey777
2004-01-12, 16:22:31
Original geschrieben von Tesseract
ich dachte DX8.1 definiert die PS1.4
Ab PS 1.3(+weitere Spielereien) ist schon DX8.1.
Oh, thx 4 info.
Und ich dachte, dass nur der R250 ein DX8.1-Chip ist, während der NV25 bei 8.0 rumdümpelt. Wieder was gelernt. :)
MfG,
Raff
mapel110
2004-01-12, 17:00:38
ps1.4 ist ein "kann-feature" für directx8.1, kein "muss-feature" :)
deekey777
2004-01-12, 17:10:59
Original geschrieben von mapel110
ps1.4 ist ein "kann-feature" für directx8.1, kein "muss-feature" :)
Aber ein sehr schönes :D
SKYNET
2004-01-12, 20:30:04
Original geschrieben von thop
Test ist für mich komplett wertlos, da nur 1024x768 gebencht wurde.
1280*960 währe intressant.
Mr. Lolman
2004-01-12, 20:32:38
Damit sich die Midrange User nochmehr ärgern? Der Unterschied ist so schon gross genug *eg*
deekey777
2004-01-12, 21:43:08
Original geschrieben von Mr. Lolman
Damit sich die Midrange User nochmehr ärgern? Der Unterschied ist so schon gross genug *eg*
Mir ist es egal. Da ich einen TFT-Bildschirm mit fester 1024x768er Auflösung habe, kann ich ja keine höheren Auflösungen haben.
Original geschrieben von LovesuckZ
Hm schon interessant, wie man aus 2003 einfach mal 2004 macht...
Ausserdem, Gott segne den Menschen, sind die AA/AF werte wohl ein kleinwenig gefaked, sonst verkaufe ich meine 5800 und kauf mir ne TI4400.
Und auch interessant, dass'ne 5200 einfach mal so auf TI4200 Niveau mit AA/AF liegt.
Ach'ne, ich segne Gott doch nicht, denn zuviel Intelligenz macht mistraurisch...
welchen bench meinst du genau ?
Hamster
2004-01-13, 10:40:28
Battlefield 1942 - Secret Weapons of WW2
Das Multiplayer-Online-Spiel Battlefield 1942 erlaubt kein Demo-Recording. Daher laufen wir einen festegelegten Pfad "von Hand" ab und ermitteln die Leistung mit FRAPS
:lol:
das ist doch nicht deren ernst, oder?
mapel110
2004-01-13, 10:42:59
bei nvidia-grakas sind sie offenbar einen anspruchsvolleren weg gelaufen :D
spass beiseite, wenn die werte halbwegs reproduzierbar waren, warum nicht?!
Hamster
2004-01-13, 10:48:18
Original geschrieben von mapel110
wenn die werte halbwegs reproduzierbar waren, warum nicht?!
du sagst es ja schon selbst..... um einen aussagekräftigen benchmark zu haben, müssen immer exxakt die gleichen situationen vorkommen. das ist beim benchmarken "von hand" einfach nicht gegeben.
davon abgesehen werden sie wohl ohne bots oder mitspieler gebencht haben (sonst wäre das ergebniss ja noch falscher), und somit das ergebniss (selbst wenn es denn stimmt) absolut nichtssagend. da is ja 3dmark aussagekräftiger....
Original geschrieben von Hamster
du sagst es ja schon selbst..... um einen aussagekräftigen benchmark zu haben, müssen immer exxakt die gleichen situationen vorkommen. das ist beim benchmarken "von hand" einfach nicht gegeben.
davon abgesehen werden sie wohl ohne bots oder mitspieler gebencht haben (sonst wäre das ergebniss ja noch falscher), und somit das ergebniss (selbst wenn es denn stimmt) absolut nichtssagend. da is ja 3dmark aussagekräftiger....
Das stimmt so nicht. Ohne "exakt gleiche Situationen" mit einer vernünftigen Anzahl von Test für eine Mittelung erhält man sogar noch aussagekräftigere Ergebnisse (sofern man diese ordentlich interpretieren kann). Beim Spielen eines Shooters geht man ja auch nicht immer exakt den gleichen Weg mit dem gleichen Blickwinkel.
Und ein ganz besonders interessanter Nebenmeffekt ist, daß so Benchmarkoptimierung und Chating gut unterbunden wird.
Hamster
2004-01-13, 12:02:04
Original geschrieben von Gast
Das stimmt so nicht. Ohne "exakt gleiche Situationen" mit einer vernünftigen Anzahl von Test für eine Mittelung erhält man sogar noch aussagekräftigere Ergebnisse (sofern man diese ordentlich interpretieren kann). Beim Spielen eines Shooters geht man ja auch nicht immer exakt den gleichen Weg mit dem gleichen Blickwinkel.
Und ein ganz besonders interessanter Nebenmeffekt ist, daß so Benchmarkoptimierung und Chating gut unterbunden wird.
damit magst du recht haben, in einem vergleich mit mehreren grafikkarten, bei denen ein benchmarkwert anhand gleicher situationen ermittelt werden soll, verbietet sich diese vorgehensweise.
und ohne "gegner" ist der bench eh aussagelos.
LovesuckZ
2004-01-13, 13:46:36
Original geschrieben von Gast
welchen bench meinst du genau ?
CoD, wo die T4400 auf dem Niveau der 5800 und die anderen beiden.
Ich bin ja bereit, meine Meinung zu aendern, dann müsste aber jemand eine rational vernünftige Erklaerung für dieses Phaenomen haben...
Tigerchen
2004-01-13, 13:51:38
Original geschrieben von LovesuckZ
Hm schon interessant, wie man aus 2003 einfach mal 2004 macht...
Ausserdem, Gott segne den Menschen, sind die AA/AF werte wohl ein kleinwenig gefaked, sonst verkaufe ich meine 5800 und kauf mir ne TI4400.
Und auch interessant, dass'ne 5200 einfach mal so auf TI4200 Niveau mit AA/AF liegt.
Ach'ne, ich segne Gott doch nicht, denn zuviel Intelligenz macht mistraurisch...
Borsti ist seit jeher nVIDIA-Fan. Ich denke nicht daß da was gefaked ist.
Hattest du nicht letztens behauptet COD würde schlecht laufen auf ATI Grafikkarten?
http://www.tomshardware.de/graphic/20040105/vga-charts-14.html
Und immer dran denken auf welcher Seite Borsti von jeher steht! :biggrin:
Original geschrieben von deekey777
Aber ein sehr schönes :D
Wie schnell die R8500 wohl geworden wäre, wenn ATi nativ PS1.1-1.3 eingebaut hätte und die damals überflüssiugen PS1.4 weggelassen hätte?
Bitte nicht hierauf eingehen. Eine Nacht drüber schlafen und mal auf die aktuelle Situation reflektiere...
Original geschrieben von Hamster
:lol:
das ist doch nicht deren ernst, oder?
Doch, sogar schon seit mehreren veröffentlichten Artikeln.
Original geschrieben von LovesuckZ
CoD, wo die T4400 auf dem Niveau der 5800 und die anderen beiden.
Ich bin ja bereit, meine Meinung zu aendern, dann müsste aber jemand eine rational vernünftige Erklaerung für dieses Phaenomen haben...
Ohne genaue Kenntnis der von THG verwendeten Settings könnte man auf die Idee kommen, das 128MB z.B. ein Faktor sind, der die FPS limitiert, ein anderer könnte die CPU sein und ein dritter eventuell der Treiber.
Davon abgesehen ist die FX5800 ~10-20% schneller, angesichts ihrer Taktraten wäre zwar etwas mehr zu erwarten gewesen, aber sicherlich keine absolute Deklassierung.
;Q
P.S.:
Bin ich froh, daß ich keine 'kastrierte' FX5800 habe!
LovesuckZ
2004-01-13, 14:11:00
Original geschrieben von Gast
ohne genaue Kenntnis der von THG verwendeten Settings könnte man auf die Idee kommen, das 128MB z.B. ein Faktor sind, der die FPS limitiert, ein anderer könnte die CPU sein und ein dritter eventuell der Treiber.
Davon abgesehen ist die FX5800 ~10-20% schneller, angesichts ihrer Taktraten wäre zwar etwas mehr zu erwarten gewesen, aber sicherlich keine absolute Deklassierung.
In anbetracht, dass meine 45% höher getaktete Karte bei 8QAF auf TI4400 Niveau (ich vertat mich) liegt, laesst mich weiter zweifeln.
Eine Limitierung aus den von dir angeführten Gründe bezweifel ich, da eine XT meisten deutlich schneller ist, jedoch durch die selben faktoren beeinflusst wird.
Ansonsten ist es interessant zu sehen, wie die Fanatiker nun THG als Argumente heranziehen, wurde diese doch früher als "gekauft" abgetan (das errinert mich an Hellbinder als er vor kurzem dem selben Test im NVNews.net Forum benutze und ihn als gut entfand...).
@Gast
P.S.:
Bin ich froh, daß ich keine 'kastrierte' FX5800 habe!
Die 5800 ist nicht kastriert...Sie ist nur niedriger als eine 5800ultra getaktet.Wenn die 5800/5800ultra jetzt rausgekommen wäre,wäre sie kastriert.
Ich finde den Test von THW ganz gut!!
Klärt gut auf.
:)
Original geschrieben von LovesuckZ
In anbetracht, dass meine 45% höher getaktete Karte bei 8QAF auf TI4400 Niveau (ich vertat mich) liegt, laesst mich weiter zweifeln.
Das ist in der Tat schwer zu glauben. (Sry, ich wußte vorhin nicht genau, auf welchen Teil du dich bezogst).
Gerade AF sollte den FXen....
Hm, moment. Es gab doch da bei der GF4 so eine Art OpenGL-AF-Beschleunigung... AF nur auf der ersten Stage oder sowas in der Art (erinnere mich jetzt nicht mehr genau).
Wenn die im 52.16er noch drin ist, bei der FX aber deaktiviert, könnte es fast hinkommen...
;Q
Original geschrieben von kiss
@Gast
P.S.:
Bin ich froh, daß ich keine 'kastrierte' FX5800 habe!
Die 5800 ist nicht kastriert...Sie ist nur niedriger als eine 5800ultra getaktet.Wenn die 5800/5800ultra jetzt rausgekommen wäre,wäre sie kastriert.
Nun, es gibt Leute in diesem Forum, die das als 'kastriert' ansehen...
;Q
Tesseract
2004-01-13, 16:38:03
Original geschrieben von Gast
Nun, es gibt Leute in diesem Forum, die das als 'kastriert' ansehen...
kastration bedeutet aber das entfernen bzw. ausschalten von bestimmten funktionseinheiten (zB keimdrüsen)
ergo das deaktivieren von teilen des chips oder der referenzplatine
runtertakten würde ich nicht so bezeichen
Quasar
2004-01-13, 18:07:47
Ich auch nicht, Tatsache ist aber, daß dieses Wort hier offenbar gut genug war, um damit eine FX5900XT ggü. einer FX5900 abzugrenzen, auch wenn der Verfasser sich später genauer erklärte. *shrugs*
Ich habe eine radeon 9800 Pro 128 MB saphhire
Warum ist die in den test schneller als eine 256 MB die hat ja ddr2 und 20 MHZ mehr speicher takt.
Mich freuts aber
[DH]Avenger
2004-01-18, 10:34:04
Original geschrieben von Gast
Ich habe eine radeon 9800 Pro 128 MB saphhire
Warum ist die in den test schneller als eine 256 MB die hat ja ddr2 und 20 MHZ mehr speicher takt.
Mich freuts aber
Aus 2. Gründen:
1. Weil die Speicherinterfacesegmentierung sowie Modulansteuerung (4x64 Bit) bei den 128MB und 256MB Karten gleich groß ist und daher der "Verschnitt" bei 256MB Speicher etwas größer ist.
2. Hat DDR2 höhere Latenzen (ATI hat DDR2 Speicher nur verwendet, weil nach dem FX5800/U Fiasko eine sehr hohe Stückzahl davon bei den Speicherherstellern auf Lager lag und zu Spottpreisen erwerbbar waren).
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.