PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia fürchtet sich vor'm 3DMark03


Unregistered
2003-02-27, 15:31:20
das folgende wurde auf Beyond3D von Dave Baumann gepostet :

Dave: 3DMark03 wil not be used in tests relating to a reference FX (not the case if we come across retail boards). Before anyone asks I had agreed to this as I thought it better the site gets the opportunity to test one without 3DM03 than not at all. I will keep my word on this.

schaut so aus, als ob wir keine 3DMark03 Tests mit der GFFx mehr sehen werden solange es keine normal zu kaufenden Karten gibt, da sich Nvidia anscheinend vor den schlechten Ergebnissen fürchtet.

Nvidia's Marketing Abteilung überrascht mich immer wieder. Da glaubt man, es kann nicht mehr schlechter werden und dann schaffen sie es doch wieder neue "Untiefen" im Marketing auszuloten. Ein großes :( dazu.

DrumDub
2003-02-27, 15:53:07
das ist allerdings ne frechheit. wie können die den jungs von b3d verbieten mit dem 3dmark03 zu testen? find ich ziemlich albern. bestätigt mich in meiner meinung, dass nvidia letzelich den erfolg übers marketing zu erzwingen versucht.... aber damit werden sie kläglich scheitern (bzw. sie sind schon dabei...).

Hui!
2003-02-27, 16:00:07
Das ist doch echt lächerlich, die GF FX wurde doch schon längst mit dem 3DM2003 gebencht und lag mit den 42.68 Treibern vor der R9700, zwar nur knapp, aber schneller ist schneller.
Der "Benchmark"(wenn man es noch so nennen kann) ist einfach völlig irrelevant und ich bin froh über jede Seite die den Müll nicht benutzt, besonders nicht die total schwachsinnige Overall Score.

DrumDub
2003-02-27, 16:05:54
sicherlich ist der overall score des 3dmark moch nie wirklich aussagekräftig gewesen, aber die einzeltests haben durchaus ihre berechtigung. besonders die pixel- und vertex-shader tests im neuen 3dmark gibts nirgendwo anders...
außerdem klatschen die junsg von b3d nicht mal eben nen paar graphen in ihre reviews, sondern sie erläutern sehr genau, wie die ergebnisse zu deuten sind und zeigen damit detaillliert die stärken und schwächen jeder grafikhardware...

bin aber trotz allem richtig gespannt auf den test. auch ohne 3dmark03... :)

Unregistered
2003-02-27, 16:09:47
Originally posted by DrumDub
sicherlich ist der overall score des 3dmark moch nie wirklich aussagekräftig gewesen, aber die einzeltests haben durchaus ihre berechtigung. besonders die pixel- und vertex-shader tests im neuen 3dmark gibts nirgendwo anders...
außerdem klatschen die junsg von b3d nicht mal eben nen paar graphen in ihre reviews, sondern sie erläutern sehr genau, wie die ergebnisse zu deuten sind und zeigen damit detaillliert die stärken und schwächen jeder grafikhardware...

bin aber trotz allem richtig gespannt auf den test. auch ohne 3dmark03... :)

Ich hab mal den Grund für mich markiert warum er eben IMO keine Berechtigung hat ;)
Da kann ich mir auch eine TechDemo anschauen.

Exxtreme
2003-02-27, 16:23:27
Originally posted by Unregistered


Ich hab mal den Grund für mich markiert warum er eben IMO keine Berechtigung hat ;)
Da kann ich mir auch eine TechDemo anschauen.
Hehe, beim 3DMark2001 hat es aber niemanden gestört als dieser rauskam. ;)

Merkste was?

Hui!
2003-02-27, 16:38:15
Originally posted by Exxtreme

Hehe, beim 3DMark2001 hat es aber niemanden gestört als dieser rauskam. ;)

Merkste was?
Der war aber auch erheblich realistischer und Spielenäher, außerdem konnte man damit auch einigermaßen Karten verschiedener Technologie Stufen vergleichen(z.B. GF4 MX mit TI). Beim 03er ist das ja einfach nur noch peinlich, wenn DX9 Karten die dreifache Punktzahl von DX8 Karten bekommen(und in RL Anwendungen wenige % auseinander liegen).
Mir aber relativ egal warum nVidia gegen den Bench ist, dass ihre GF4 Linie dort in keinem guten Licht dasteht könnte sicherlich einer sein.
Es könnte aber durchaus noch andere geben, z.B.:
nVidia hat eine Menge Geld da reingebuttert und am Ende kam nur eine Tech Demo raus und nicht wie versprochen ein Aussagekräftiger Benchmark, da wäre ich auch sauer.

LovesuckZ
2003-02-27, 17:43:55
Originally posted by Exxtreme
Hehe, beim 3DMark2001 hat es aber niemanden gestört als dieser rauskam. ;)

Merkste was?

Da war aber ne GF2MX nicht schneller als ne GF3...

Exxtreme
2003-02-27, 17:47:00
Originally posted by LovesuckZ


Da war aber ne GF2MX nicht schneller als ne GF3...
Dafür war aber die GF3 schneller als die GF2Ultra obwohl letztere mehr Rohpower hat.

Byteschlumpf
2003-02-27, 17:47:24
Das Durchführen von gewissen Benchmarks zu verbieten, da der Hersteller weiß, dass er bei diesen schlechter abschneidet, als die Konkurrenz, werte ich als Beschneidung der Pressefreiheit und Meisungsfreiheit!

Man stelle sich vor Mercedes-Benz hätte damals den Autotestern den "Elchtest" mit seinen Neuentwicklungen untersagt!!!

Es ist doch klar, wo sowas hinführt - Verschleierung von Tatsachen und Vorenthaltung wichtiger Informationen für den Verbraucher!



"Also hört mal zu Jungs, wenn Ihr über unsere Produkte keine 100%ig positiven Kritiken bringt, verklagen wir Euch, dass Ihr schneller pleite seid, als Ihr Euch den *Hintern abwischen* könnt!!!"




Byteschlumpf

LovesuckZ
2003-02-27, 17:49:19
Originally posted by Exxtreme
Dafür war aber die GF3 schneller als die GF2Ultra obwohl letztere mehr Rohpower hat.

War die GF2ULTRa im 3DMark2001 schneller als ne GF3 (Test 1-3)?

Exxtreme
2003-02-27, 17:51:59
Originally posted by LovesuckZ


War die GF2ULTRa im 3DMark2001 schneller als ne GF3 (Test 1-3)?
Nein, weil für diese Tests der Vertex-Shader benutzt wird.

LovesuckZ
2003-02-27, 17:52:44
Originally posted by Exxtreme
Nein, weil für diese Tests der Vertex-Shader benutzt wird.

Danke.

[dzp]Viper
2003-02-27, 17:56:13
Originally posted by LovesuckZ


War die GF2ULTRa im 3DMark2001 schneller als ne GF3 (Test 1-3)?

nein nicht das ich wüsste - bei der geforce 3 wurden halt die neuen features genutzt .. wie jetzt bei dx9 karten

3dmark03 ist ein dx9 benchmark der zeigen soll wie sich die heutigen grafikkarten in spielen verhalten welche in ca. einem jahr rauskommen - UND NICHT JETZT ....
Das hat futuremark auch schon oft genug gesagt ..

LovesuckZ
2003-02-27, 17:59:32
Originally posted by [dzp]Viper
3dmark03 ist ein dx9 benchmark der zeigen soll wie sich die heutigen grafikkarten in spielen verhalten welche in ca. einem jahr rauskommen - UND NICHT JETZT ....


Ein DX9 benchmark der nur ein DX9 'Spieletest' hat? Ein Widerspruch. Oer ist der 3DMark2003 ein DX7 Benchmark, wegen Test1?

Und ich glaube nicht, dass eine 9500 in Doom3 (was fruehsten in einen jahr kommt wird meiner Meinung) wird nicht schneller sein als ne TI4600. Somit eruebrigt sich dies, dass man die Leistung von Karten in bezug auf Spiele einschaetzen moechte, die erst in einen Jahr erscheinen werden.

Mehrpack
2003-02-27, 18:13:03
Originally posted by Hui!

Der war aber auch erheblich realistischer und Spielenäher, außerdem konnte man damit auch einigermaßen Karten verschiedener Technologie Stufen vergleichen(z.B. GF4 MX mit TI). Beim 03er ist das ja einfach nur noch peinlich, wenn DX9 Karten die dreifache Punktzahl von DX8 Karten bekommen(und in RL Anwendungen wenige % auseinander liegen).
Mir aber relativ egal warum nVidia gegen den Bench ist, dass ihre GF4 Linie dort in keinem guten Licht dasteht könnte sicherlich einer sein.
Es könnte aber durchaus noch andere geben, z.B.:
nVidia hat eine Menge Geld da reingebuttert und am Ende kam nur eine Tech Demo raus und nicht wie versprochen ein Aussagekräftiger Benchmark, da wäre ich auch sauer.

hi,
kann ich nicht sagen das er realistischer war von den entpunkten her.
ich hatte damals als er rauskam noch eine geforce2 gts und bekam, uff lang, so um die 1000 bis 1500 punkte.
als ich dann später die geforce3 reingesteckt habe, hab ich dann 5000 bis 6000 punkte bekommen beim gleichen system.

und damals hat es niemanden gejuckt ....

Mehrpack

Nerothos
2003-02-27, 18:18:54
Bei 1000-1500 Punkten haste aber ganz sicher was falsch gemacht. Mein Brother hat noch ein Sys mit Geforce2 GTS und der bekommt da 4000 Punkte!

Richthofen
2003-02-27, 18:30:50
"
das ist allerdings ne frechheit. wie können die den jungs von b3d verbieten mit dem 3dmark03 zu testen?
"

was heisst verbieten. Beyond3D kann nach den Regeln spielen oder muss warten bis sie ne FX aus nem Laden oder von nem Hersteller bekommen.
Es gab bei Hardware Tests schon immer Agreements bzw. spezielle terms, unter denen getestet wurde.
So bestand AMD zum Beispiel drauf den T-Bred B mit nForce2 zu testen und Intel hat zu Beginn schön Druck ausgeübt, dass die Großen mit Rambus den P4 testen obwohl 90% der Systeme die verkauft wurden jämmerliche SDRAM Systeme waren.

Ich geb dem 3DMark2003 noch bis Ende 2003, dann wird er seinem Namen gerecht und wohl völlig in der Versenkung verschwinden.
Angesichts der hirnrissen Ergebnisse stört mich das nicht.
Dabei meine ich gar nicht die FX. Die liegt ja sogar mit den recht frühen Treibern sehr locker vor der 9700pro.
Mich kotzt mehr an, dass billigste DX9 Ware hier punktemäßig vor DX8 HIgh End Ware liegt.
Dann liegt der NV34, der ja kaum für den Gamer geeignet sein dürfte vor einer Ti4600. Bravo.....

Mehrpack
2003-02-27, 18:35:16
Originally posted by Commander Larve
Bei 1000-1500 Punkten haste aber ganz sicher was falsch gemacht. Mein Brother hat noch ein Sys mit Geforce2 GTS und der bekommt da 4000 Punkte!

hi,
das war vor etwas mehr als 2 jahren, das war aber ungefähr die punktzahl.
ich glaube kaum das er genau das selbe-system hat wie ich damals.
also kann man net seine punktzahl mit meiner von damals vergleichen.
bloss mir ist das schnuppe, ich hab 3DMark sowieso nur als grafikdemo oder zum checken genommen obs stabil läuft.
die zahlen hab ich mir nur am ende anschaut und weggeklickt.
ich wollte es bloss als beispiel bringen das es auch solche sprünge schon früher gab.

Mehrpack

Riptor
2003-02-27, 18:39:18
Originally posted by LovesuckZ
Und ich glaube nicht, dass eine 9500 in Doom3 (was fruehsten in einen jahr kommt wird meiner Meinung) wird nicht schneller sein als ne TI4600.

Hmmmm Bei nem Kumpel von mir läuft jedenfalls die Demo mit ner R9500 Pro schneller, als bei seinem Nachbar mit ner Ti4600... Dass ne 9500er langsamer sein wird, ist meiner Meinung nach klar. ;) Aber warum über Aliens reden, die erst in 1000 Jahren auf der Erde landen werden? :D ;)

ow
2003-02-27, 18:43:40
Originally posted by Mehrpack


ich wollte es bloss als beispiel bringen das es auch solche sprünge schon früher gab.

Mehrpack

Gab´s aber nicht. In keinem der 3DMarks. 1600 Punkte hat selbst eine dmals schon veraltete TNT2 im 2001 gebracht und im 2003 soll das jetzt die Leistung einer GF4 widerspiegeln?

Achill
2003-02-27, 19:07:30
Also ich finde es gibt schon parallen zwischen 3DMark2k1 und 2k3...

Immerhin konnte man den Nature-Test auch nicht auf jeder Hardware laufen lassen, und das hat dazu geführt, dass man mit älterer Hardware niemals an die Werte von DX 8 fähiger hardware rankommen hätte können, weil ja die Test 1-3 alle CPU limitiert sind.

Ich hatte damals eine R100 und nachdem MS die Pixel- und Vertexspec. nochmal verändert hatte, durfte sie alles nur in software machen, was natürlich punkte kostete.

Es hat damals niemanden interessiert, dass dies in gewisser weise unfair war, dass dies den wirklich vorhanden spielen egal war, weil damlas noch kein vertex/pixelshader genutzt wurde - und damals wurde viel mit 3DMurks argumentiert.

Madonion oder Futuremark haben einfach nur einen drauf gesetzt, indem sie das Punktesystem weiter verschärft haben (abstufung der Grafikkarten bzgl. ihren Fähigkeiten).

Und ich denke, dass 3DMark 2k3 sehr wohl aussagekraft hat, würde ein spiel erscheinen, welches wirklich stark Pixel- und Vertexshader nutzt und auch entsprechend koplexe, so würde eine "billig Radeon9500(Pro)" sicher eine GF4600 töten, in spielen die dies nicht nutzen ist natürlich die 4600 stärker.
Aber genau dieser Vergleich war schon etwas weiter oben, in dem es um die GF2 Ultra und die GF3 ging, in den verfügbaren spielen war meist die GF2Ultra schneller. In heutigen spielen (wo ansatzweise pixel und vertexshader genutzt werden) wird sicherlich die GF3 besser Abschneiden, weil die GF2 es emulieren müsste.

Und ähnlich wird es auch mit den DX9 Karten werden, die analogie ist ja da...

LovesuckZ
2003-02-27, 19:49:00
Originally posted by Achill
Und ich denke, dass 3DMark 2k3 sehr wohl aussagekraft hat, würde ein spiel erscheinen, welches wirklich stark Pixel- und Vertexshader nutzt und auch entsprechend koplexe, so würde eine "billig Radeon9500(Pro)" sicher eine GF4600 töten, in spielen die dies nicht nutzen ist natürlich die 4600 stärker.


Im Nature ist eine TI4600 deutlich schneller. Oder Aquanox (http://www.hartware.net/review.html?id=287&page=6). Ne, der 3dmark2003 ist auch in Sachen zukunftsaussagend eher ne enttaeuschung...

Aquaschaf
2003-02-27, 19:52:47
was mich am 3d mark 2003 stört ist :
- es wird sehr wenig DX9 verwendet
- ich hab noch nie so langsame und hässliche demos gesehen

3d mark 2001 war schon etwas aussagekräftiger , da noch eine spiele-engine verwendet wurde .

Achill
2003-02-27, 20:52:08
Erst einmal, ich habe nicht umsonst in meiner Sig stehen, das man bitte mich nicht zusammenhangslos zittier!!

1. Dadurch, dass die CPU und der Speicher nichts beeinflust, sondern die ganze arbeit von der GPU gemacht wird, denke ich sehr wohl, dass man aussagen treffen kann, bei welchem Chip die Vertex- und Pixeleinheit stärker ist und bei welchem sie schwächelt.

Und somit wird in Spielen, die dies dann nutzen, sich ein ähnliches Bild ergeben, wenn nicht vorher etwas anderes limitiert.

Und ich denke mal die ergebnisse von UT2003 lassen schon einen Schluss in diese Richtung zu, dort wird ja Vertx und Pixelschäder genutzt, um die GPU zu entlassten, und dort liegt eine R300 Karte vorn (bis auf die 9500NP)...

http://www.hartware.net/review.html?id=287&page=10

und je mehr spiele es geben wird, die Vertex- und Pixelschäder nutzen um Effekt günstiger zu machen, um so mehr werden GPUs die darin stärker sind, sich nach vorn arbeiten - genauso GF-FX...

Mr. Lolman
2003-02-27, 21:44:07
Originally posted by ow


Gab´s aber nicht. In keinem der 3DMarks. 1600 Punkte hat selbst eine dmals schon veraltete TNT2 im 2001 gebracht und im 2003 soll das jetzt die Leistung einer GF4 widerspiegeln?

Gabs aber doch !! Selbst eine veraltete TNT2 brachte schon 1600 Punkte. Meine Voodoo5 hatte auf einem 1500+ Prozessor auch nur 2200 Punkte. Ich finds seltsam, dass jetzt die Leute alle über die grossen Leistungssprünge meckern (ATI steht viel besser als NV da)

Das ist ein Technologie Benchmark, und da steht ATi halt besser als NV da. Es war auch immerschon ein Technologie Benchmark und das die 3dfx Karten total dabei abkackten lag halt an der starken T&L Nutzung des 3dmark. (Mit WickedGL Treibern war eine Voodoo5 schneller als so manche Geforce 2 GTS, und in d3d war bei den meisten damaligen Spielen die Leistung beider Karten auch ungefähr gleich)

Mich hats schon damals gestört, dass die Spieletauglichkeit einer GraKa anhand einer Technologiedemo, die sich Benchmark schimpft entschieden wird, aber NVler fanden dass OK weil damit ja gezeigt werden konnte, warum man sich eine 1500 Mark teure Geforce 2 Ultra gekauft hat.

Jetzt ist ATi am Zug, und statt dass sich die NVler freuen, dass die FX mit neuen Treibern ganz plötzlich doppelt so schnell ist, und damit schneller als ATi, wird immernoch am schlechten Abschneiden der Geforce4 Karten herumgehackt. Das ist ein Technologiebenchmark, und Technologie hatte die Radeon8500 schon eine bessere als GF4 Karten. Nochmal: Das hat nichts, oder nur eingeschränkt, mit der tatsächlichen Leistungsfähigkeit/Spieletauglichkeit der Karten zu tun.
Ich finds nur lustig, dass das manche NVler erst jetzt bemerken.

just my 2 cents.


P.S.: bezüglich Zukunftstauglichkeit des Benchmarks. IMHO ist es schon eine Indikation für die benötigte Leistung in den nächsten 2 Jahren. Halt bei besserer Grafik, weil die Engine ziemlich verhunzt ist.

P.P.S.: Manche bemängeln dass zuwenig DX9 Tests dabei sind. R300 Karten hätten einen noch größeren Leistuntgsvorsprung bei mehr DX9 Tests. Die wären dann praktisch ausser Konkurrenz und Richthofen hätte sich womöglich noch umgebracht.

Salvee
2003-02-28, 04:20:57
Der Inquirer (und ja, es ist auch noch Fuad ;) ) scheint ein paar Infos an der Hand zu haben, die es immer verständlicher werden lassen, warum nV den 3DMark schlechtredet (hmm, toll isser ja wirklich nicht).

Benchmarkscores 3DMark03

NV31: 2389
NV34: 879 (!!)

NV31 scheint schon auf GF4Ti Niveau zu liegen, aber NV34 wäre mit dem Wert fast schon eine Katastrophe, oder ?
(oder handelt es sich um einen DX8-Chip ?)


Link (http://www.theinquirer.net/?article=8031)

Demirug
2003-02-28, 07:38:54
Originally posted by Salvee
Der Inquirer (und ja, es ist auch noch Fuad ;) ) scheint ein paar Infos an der Hand zu haben, die es immer verständlicher werden lassen, warum nV den 3DMark schlechtredet (hmm, toll isser ja wirklich nicht).

Benchmarkscores 3DMark03

NV31: 2389
NV34: 879 (!!)

NV31 scheint schon auf GF4Ti Niveau zu liegen, aber NV34 wäre mit dem Wert fast schon eine Katastrophe, oder ?
(oder handelt es sich um einen DX8-Chip ?)


Link (http://www.theinquirer.net/?article=8031)

Wenn die Gerüchte stimmen ist der NV34 schon ein DX9 Chip. Allerdings wurde dort angeblich bei den Vertexshader massiv gespart so das hier viel von der CPU gemacht werden muss. Das GF4MX Prinzip also. Beim 3DMark der ja sehr verschwenderisch mit Vertexshader power umgeht kann ich mir diesen Einbruch deshalb gut vorstellen.

Desti
2003-02-28, 13:35:21
Originally posted by Richthofen
[...]
So bestand AMD zum Beispiel drauf den T-Bred B mit nForce2 zu testen [...]

AMD hat empfohlen mit nForce2 zu testen, aber niemanden erpresst, die c't hat zusätzlich mit KT400 getestet und trotzdem weiterhin Samples bekommen (beim Barton auch wieder zusätzlich KT400 Benchs).

Unregistered
2003-02-28, 13:58:24
Originally posted by Achill
Erst einmal, ich habe nicht umsonst in meiner Sig stehen, das man bitte mich nicht zusammenhangslos zittier!!

1. Dadurch, dass die CPU und der Speicher nichts beeinflust, sondern die ganze arbeit von der GPU gemacht wird, denke ich sehr wohl, dass man aussagen treffen kann, bei welchem Chip die Vertex- und Pixeleinheit stärker ist und bei welchem sie schwächelt.

.


Nö. Kann man nicht.

Oder denkst du auch eine kyro2 ist stärker als eine GF4 weil sie diese im FableMark schlägt??

Unregistered
2003-02-28, 14:43:56
Originally posted by Unregistered



Nö. Kann man nicht.

Oder denkst du auch eine kyro2 ist stärker als eine GF4 weil sie diese im FableMark schlägt??

Ich seh irgendwie den Zusammenhang nicht mehr.:(

Quasar
2003-02-28, 14:55:19
Möglicher Zusammenhang:
Es kommt ganz auf den Test an. Wenn dieser nur geschickt genug ausgewählt wird, unabhängig davon, wieviel er mit real-world-szenarien zu tun hat, kann beinahe jede Karte gegen beinahe jede andere ziemlich gut aussehen.

DrFreaK666
2003-02-28, 19:02:13
Nvidia verbietet es mit dem neuen 3D-Mark zu testen.
Also sowas ist doch echt erbärmlich.
Es gibt auch andere benchamrks, die auf NV-karten zugeschnitten sind (DroneZ-Bench und Vulpine GL-Mark) und trotzdem wurden damit auch ATI-Grakas getestet.
Ist das etwa fair?? Neeee.
Hat sich deswegen ATI darüber aufgeregt?? meines Wissens nicht.

Also was soll der Scheizzzz???

Doomtrain
2003-03-01, 14:31:43
Originally posted by DrFreaK666
Nvidia verbietet es mit dem neuen 3D-Mark zu testen.


Wie bitte sollen sie das verbieten? Wenn ein Tester den Test machen will dann macht er den auch. Es kann schließlich jeder mit seiner Karte machen was er will, oder?

Unregistered
2003-03-01, 14:38:02
Originally posted by Doomtrain


Wie bitte sollen sie das verbieten? Wenn ein Tester den Test machen will dann macht er den auch. Es kann schließlich jeder mit seiner Karte machen was er will, oder? Das kann man sicherlich vertraglich aushandeln oder den Reviewer entsprechend erpressen/unter Druck setzen: "Wenn Du nicht..., dann bekommst du beim nächsten Launch gar nichts, bevor es nicht im Lädle steht."

Achill
2003-03-01, 15:15:59
Originally posted by Quasar
Möglicher Zusammenhang:
Es kommt ganz auf den Test an. Wenn dieser nur geschickt genug ausgewählt wird, unabhängig davon, wieviel er mit real-world-szenarien zu tun hat, kann beinahe jede Karte gegen beinahe jede andere ziemlich gut aussehen.

Jup gebe ich euch ja recht aber ich habe ja von UT2003 gesprochen und dort sind die R300 (bis auf 9500np) auch im botmatch schnell und auch schneller. ich denke schon, das sich dort die UT-Engien auswirkt, die ja Vertex- und Pixelshader nutzt um die GPU und evtl. somit auch die CPU entlastet.
Und ich denke auch nicht, dass die Treiber von NV nur schlecht programmiert sind.

aths
2003-03-02, 01:11:28
Originally posted by Exxtreme
Dafür war aber die GF3 schneller als die GF2Ultra obwohl letztere mehr Rohpower hat. *Hust* Nur im 16-Bit-Modus hat die GF2U mehr Rohpower.

aths
2003-03-02, 01:14:24
Originally posted by ow
Gab´s aber nicht. In keinem der 3DMarks. 1600 Punkte hat selbst eine dmals schon veraltete TNT2 im 2001 gebracht und im 2003 soll das jetzt die Leistung einer GF4 widerspiegeln? Imo ist der "tatsächliche" Leistungsunterschied GF4 Ti 4600 vs. Radeon 9700 Pro durchaus korrekt wiedergegeben. Den "tatsächlichen" Unterschied merkt man heute noch nicht so stark (CPU-Limitierung, keine Verwendung von DX9-Shadern etc.) aber von den technischen Daten her ist er imo in gleicher Größenordnung vorhanden, wie der 3DMark03 aussagt.

ow
2003-03-02, 11:27:37
Originally posted by aths
Imo ist der "tatsächliche" Leistungsunterschied GF4 Ti 4600 vs. Radeon 9700 Pro durchaus korrekt wiedergegeben. Den "tatsächlichen" Unterschied merkt man heute noch nicht so stark (CPU-Limitierung, keine Verwendung von DX9-Shadern etc.) aber von den technischen Daten her ist er imo in gleicher Größenordnung vorhanden, wie der 3DMark03 aussagt.


Der 3DMark verwendet doch kaum DX9 Shader und von tatsächlichem Leistungsunterschied könnie man selbst dann nicht reden, weil DX9 Shader auf GF4 Karten nicht darstellbar sind.

aths
2003-03-02, 14:06:59
Originally posted by ow
Der 3DMark verwendet doch kaum DX9 Shader und von tatsächlichem Leistungsunterschied könnie man selbst dann nicht reden, weil DX9 Shader auf GF4 Karten nicht darstellbar sind. Shader ließen sich mit Multipass fast immer auch irgendwie mit DX8-HW darstellen. Letztlich ists auch egal, wie der 3DM03 zu seinem Urteil kommt, solange es einigermaßen hinhaut. So wie ich das sehe behauptet der 3DM03, dass eine 9700 Pro ganz grob 3x so gut ist wie meine Ti 4600. Dem stimme ich zu.

LovesuckZ
2003-03-02, 14:21:42
Originally posted by aths
So wie ich das sehe behauptet der 3DM03, dass eine 9700 Pro ganz grob 3x so gut ist wie meine Ti 4600. Dem stimme ich zu.

Stimmst du dann auch zu, dass eine 9500 'besser gut' ist als deine TI4600?

Major J
2003-03-02, 14:24:41
Originally posted by aths
... dass eine 9700 Pro ganz grob 3x so gut ist wie meine Ti 4600. Dem stimme ich zu.

Gut ist aber nicht gleich schnell. ;)

Was verstehst du denn unter gut ??? Die AF und AA-Qualität oder nur das DX9, welches, wie du schon sagtest im Moment noch nicht ausgereizt wird.

Gruß Jan

Matrix316
2003-03-02, 14:25:39
Originally posted by aths
Imo ist der "tatsächliche" Leistungsunterschied GF4 Ti 4600 vs. Radeon 9700 Pro durchaus korrekt wiedergegeben. Den "tatsächlichen" Unterschied merkt man heute noch nicht so stark (CPU-Limitierung, keine Verwendung von DX9-Shadern etc.) aber von den technischen Daten her ist er imo in gleicher Größenordnung vorhanden, wie der 3DMark03 aussagt.

Aber von 4 Tests, werden nur in einem überhaupt DX9 Shader genutzt. Zwei benutzen die 1.4er von DX8.1 (afaik) und der erste ist ein DX7 Test.

Und nach den verwendeten Shadern, sollte WENN, auch eine Radeon 8500 und nicht nur die 9500+ Karten der GF3/4 wegrennen. Tut sie aber nicht.

aths
2003-03-02, 14:45:30
Originally posted by LovesuckZ
Stimmst du dann auch zu, dass eine 9500 schneller ist als eine TI4600? Ich stimme zu, dass eine 9500 der Ti 4600 überlegen ist: DX9-Tauglichkeit, bessere AA-Methoden.

LovesuckZ
2003-03-02, 14:48:17
Originally posted by aths
Ich stimme zu, dass eine 9500 der Ti 4600 überlegen ist: DX9-Tauglichkeit, bessere AA-Methoden.

Speed scheint dann fuer dich gleichgueltig zu sein?
Da DX-X+1* features, die Karte ist fast schon fuer ATI's demos zu langsam, ein Kaufgrung ist...

* Deine X= deine karte + 1

aths
2003-03-02, 14:50:38
Originally posted by Major J
Gut ist aber nicht gleich schnell. ;)

Was verstehst du denn unter gut ??? Die AF und AA-Qualität oder nur das DX9, welches, wie du schon sagtest im Moment noch nicht ausgereizt wird.DX9 spielt im Moment keine Rolle, das stimmt. Trotzdem ist DX9 besser als DX8 :) und kann, bei entsprechender Nutzung, gegenüber DX8 Multipass Pixelshading massive Vorteile bringen. Von der Rechengenauigkeit ganz zu schweigen. 3DMark sagt, was die Karte leisten kann, nicht was sie in heutigen Spielen leistet :)

Originally posted by Matrix316
Und nach den verwendeten Shadern, sollte WENN, auch eine Radeon 8500 und nicht nur die 9500+ Karten der GF3/4 wegrennen. Tut sie aber nicht. Da habe ich mich auch gewundert. Offenbar rendert die GF4 Ti deutlich effizienter als die Radeon 8500. Multipass zieht auch vorwiegend an der Bandbreite, die von LMA2 offensichtlich effektiv verwaltet wird.

aths
2003-03-02, 14:52:09
Originally posted by LovesuckZ
Speed scheint dann fuer dich gleichgueltig zu sein?
Da DX-X+1* features, die Karte ist fast schon fuer ATI's demos zu langsam, ein Kaufgrung ist...

* Deine X= deine karte + 1 Was ist Speed? Ohne AA und AF ist meine Karte CPU-limitiert. Mit 2x AA und 2x AF ist es dann aber die Karte, die hinterher hechelt. Für wirklich gutes AA muss ich hier dann schon 8xS einstellen, und für exzellentes AF dann 8x - und hier kackt das Teil einfach ab.

ice cool69
2003-03-02, 15:37:25
dann schalt halt nur AA ein. dann haste ein leicht geglättetes bild und ein optimales cpu/graka-verhältnis was die meisten frames verspricht bei trotzdem guter qualität

aths
2003-03-02, 15:43:42
Originally posted by ice cool69
dann schalt halt nur AA ein. dann haste ein leicht geglättetes bild und ein optimales cpu/graka-verhältnis was die meisten frames verspricht bei trotzdem guter qualität Ich schalte in aller Regel 2x AA ein und "optimiertes" AF dann 2x - 8x, je nach Leistung. Reine trilineare Filterung genügt meinen Ansprüchen nicht mehr :)