PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce6 - 3DMark05 - X800 - Catalyst 4.11b ... Fragen!


Seiten : [1] 2

EL_Mariachi
2004-09-29, 22:52:43
Der Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=172984) im Benchmarking Forum wurde wohl prophylaktisch von der Moderation geschlossen ...

Mich interessiert trotzdem die Diskussion folgenden Sachverhaltes!
( ich beziehe mich hauptsächlih auf den kürzlich erschienen Computerbase Artikel Performance Report (http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance-report) )

Eine X800XTPE kommt auf ~ 5800 Pkt und eine 6800 Ultra "nur" auf ~ 5000 Pkt ( bei ansonsten identischer Hardware ) ...

Meine Frage ... Warum?

Ich kann mir beim Besten Willen nicht vorstellen, dass es ein BUG bei 256 MB X800 Karten gewesen sein soll, der diese nun mit dem 4.11b Treiber diesen unglaublichen Performance Gewinn beschert!

Sonstige Tests (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra) der beiden TopModelle von ATI und NV sehen da eigentlich anders aus ( zumindest liegen die Ergebnisse da keine ~20 % auseinander )

Der 4.11b Catalyst wurde von Futuremark getestet und freigegeben ... von Cheating kann doch also keine Rede sein?!

Wie ham die das gemacht? 1200 mehr als beim 3.9er *voreinemRätselsteh*
Ebenso soll der 4.11er auf X800 Karten rund 10% mehr Doom3 Leistung bringen!

sehr beachtlich ... nur versteh ichs net!
Hat sich jemand den 4.11b schon mal genauer angesehen? Sind da wirklich keine Neuen Optimierungen, die meiner Meinung nach schon notwendig sind um solche Spünge zu machen???

Falls nicht, dann gäbe es nach dem 4.11er Treiber nun ja endlich wieder einen Klaren Sieger in der High End Grafikkarten Welt ;)

Was hat es mit der grösseren CPU abhängigkeit beim 4.11er auf sich?
Eigentlich sollte doch die CPU keine Grosse Rolle spielen?

Bitte Bitte nicht flamen ... Sachlich bleiben, Fakten Fakten und an die Leser denken :)

.
.
.

BlackBirdSR
2004-09-29, 22:55:24
Ich habe auch eine Frage..

warum liegt Prescott so weit vor Northwood?
Die Sache von wegen "besseren Hyperthreading" kaufe ich niemandem ab...

EL_Mariachi
2004-09-29, 22:58:50
mhmmm auch ne gute Frage ... doppelt so grosser 2nd L Cache vielleicht?

Der Prescott ist dem Northwood in D3 ebenfalls voraus, was er da wohl wirklich dem grössenen Cache zu verdanken hat ...

3dm2k5 sieht imho doom3 sehr ähnlich ( game1 ) also wäre das für mich der wohl naheliegendste bzw. logischste Grund!

( alles nur spekulation meinerseit :) )

r@h
2004-09-29, 23:04:20
<snip>
Der 4.11b Catalyst wurde von Futuremark getestet und freigegeben ... von Cheating kann doch also keine Rede sein?!
<snap>
Was hat es mit der grösseren CPU abhängigkeit beim 4.11er auf sich?
Eigentlich sollte doch die CPU keine Grosse Rolle spielen?Ist doch wohl offensichtlich, was da passiert, oder?

Der Prozessortakt wird von 3,4GHz auf 2,4GhZ gesenkt (-29%) und die Radeon verliert ausschließlich (!) mit dem neuen 'Wundertreiber' mal eben 12% Leistung. Würde man den Takt noch weiter absenken, dürfte der Unterschied sogar noch größer werden...

ATI wird halt (illegaler weise ;-) einen Teil der GPU-Last auf die CPU abwälzen und so Performance schinden.

Warum ein solcher Treiber von FM freigegenben wurde?
Das wird wohl nur FM beantworten können...

Und es zu präzisieren: ganz klar ein Cheat !
Vermutlich sieht ATI langsam seine Fälle wegschwimmen...

Razor

P.S.: Ich vermute mal, dass der "Perfromance-Vorteil" des neuen Treibers bei ATI so bei 2Ghz zu 3,4Ghz verschwinden wird. Ist halt 'schön', wenn die CPU voll genutzt werden kann, wenn man weiß, dass diese nicht mit so etwas unnützem wie KI oder ähnlichem beschäftigt ist... ;)

dildo4u
2004-09-29, 23:05:51
Ich finde nicht das die 6800U zu weit hinter der X800XT liegt wenn man sich noch mal die chip taktrate zum vergleich zieht 400 gegen 525 der unterschied ist halt hier ersichtlich da der bench logischerweise extrem GK lastig ist was nicht unbedingt mit heutigen games vergleichbar ist war der 3Dmark03 aber auch nicht.

Sphinx
2004-09-29, 23:09:01
Und es zu präzisieren: ganz klar ein Cheat !
Vermutlich sieht ATI langsam seine Fälle wegschwimmen...



Und drum ist meine alte ausgediente /\Ti R97ooP fast doppelt so schnell wie einige FX Karten der Series 5 von NVidia... wo sie doch technologisch überlegener sind...

Merlin31
2004-09-29, 23:09:31
Ich finde nicht das die 6800U zu weit hinter der X800XT liegt wenn man sich noch mal die chip taktrate zum vergleich zieht 400 gegen 525 der unterschied ist halt hier ersichtlich da der bench logischerweise extrem GK lastig ist was nicht unbedingt mit heutigen games vergleichbar ist war der 3Dmark03 aber auch nicht.

Mag sein ,das du Recht hast, das NV pro Mhz besser da steht.

Aber insgesamt intressiert den Endkunden die gesamte Leistung.
Beide KArte kosten ungefähr das gleiche, also sollte man erwarten das default mässig beide auch gleich laufen sollte. Wenn NV mit den Taktraten hinter hinkt, sind sie es doch selber schuld.

Oder sehe ich das so falsch ???

StefanV
2004-09-29, 23:11:11
Ist doch wohl offensichtlich, was da passiert, oder?

Der Prozessortakt wird von 3,4GHz auf 2,4GhZ gesenkt (-29%) und die Radeon verliert ausschließlich (!) mit dem neuen 'Wundertreiber' mal eben 12% Leistung. Würde man den Takt noch weiter absenken, dürfte der Unterschied sogar noch größer werden...

ATI wird halt (illegaler weise ;-) einen Teil der GPU-Last auf die CPU abwälzen und so Performance schinden.
Da du ja solch wilde Behauptungen aufgestellt hast, wirst du sicher auch in der Lage sein, uns allen an deiner Weisheit teilzuhaben und uns erklären, wie ATI das ganze hinbekommen haben soll.

Wir sind schon alle gespannt auf deine Ausführungen...

BUG
2004-09-29, 23:12:44
..jo, ich denke auch es liegt am hohen Chiptakt der XT. Eine Graka Limitierung ist bei dem Bench viel eher als in irgend einem anderne Spiel oder Anwedung vorhanden. Vermutlich kann sich die X800 deswegen so "weit" absetzen. Wenn man den NV40 auch auf 520 MHz Chiptakt prügeln würde, würde sie mit hoher vermutlichkeit wieder vor der X800 XT PE liegen. :)

Was jetzt nun wirklich am Treiber gemacht wurde bzw wo der Fehler im alten war?! ..k.a. ..vieleicht findet man aber noch des rätzels Lösung (hat vieleicht was auch was mit AI zu tun?!). Die PCIe Version der X800 XT war ja mit dem 4.9 auch um einiges schneller als die AGP Version.

cu
BUG

dildo4u
2004-09-29, 23:13:35
Mag sein ,das du Recht hast, das NV pro Mhz besser da steht.

Aber insgesamt intressiert den Endkunden die gesamte Leistung.
Beide KArte kosten ungefähr das gleiche, also sollte man erwarten das default mässig beide auch gleich laufen sollte. Wenn NV mit den Taktraten hinter hinkt, sind sie es doch selber schuld.

Oder sehe ich das so falsch ???
Da kein spiel das zur zeit erhältlich ist das die Engine vom 3Dmark05 nutzt kann es dem kunden eigentlich egal sein welche karte mher punkte hat es sei den er kauft die karte zum 3Dmark testen;-)

Sackgesicht
2004-09-29, 23:15:16
Ist doch wohl offensichtlich, was da passiert, oder?


Und es zu präzisieren: ganz klar ein Cheat !
Vermutlich sieht ATI langsam seine Fälle wegschwimmen...

Razor



ich würde eher vorsichtig mit dem Begriff Cheat sein und mal die grüne Brille abnehmen

Gruß Sackgesicht

EL_Mariachi
2004-09-29, 23:15:56
leute ... BITTE NICHT FLAMEN!

das mit dem höheren GPU Takt ist schon irgendwie logisch ...

Nur wieso brechen die X800 Karten bei reduzierung des CPU Taktes drastisch ein ( bei verwendung des 4.11er Catalysts ) ?
Den höheren Chiptakt hat die X800XT ja nicht erst seit release des 4.11er Treibers ;)

siehe CPU Skalierung (http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance-report/8/#benchmarks) des Computerbase Artikels!

Sackgesicht
2004-09-29, 23:17:48
..jo, ich denke auch es liegt am hohen Chiptakt der XT. Eine Graka Limitierung ist bei dem Bench viel eher als in irgend einem anderne Spiel oder Anwedung vorhanden. Vermutlich kann sich die X800 deswegen so "weit" absetzen. Wenn man den NV40 auch auf 520 MHz Chiptakt prügeln würde, würde sie mit hoher vermutlichkeit wieder vor der X800 XT PE liegen. :)

cu
BUG

nur leider geht das nicht, da ArchitekturbedingtWuerdest du einen Athlon auf Frequenzen hochprügeln würde der auch schön alt aussehen Es handelt sich halt um grundverschieden Architekturen

Jesus
2004-09-29, 23:18:20
mglw ( wie ich schon gestern geschrieben hab ;D ) ist es das G.I. Denn dazu passt die CPU belastung ( das wird bei ATI über die hauptsächlich über die CPU/den Treiber gemacht ) und Return to proxyaosidfoiasjdf weil da viele gleiche objekte gleichzeitig gerendert werden

? :rolleyes:

Merlin31
2004-09-29, 23:20:02
Ist doch wohl offensichtlich, was da passiert, oder?

Der Prozessortakt wird von 3,4GHz auf 2,4GhZ gesenkt (-29%) und die Radeon verliert ausschließlich (!) mit dem neuen 'Wundertreiber' mal eben 12% Leistung. Würde man den Takt noch weiter absenken, dürfte der Unterschied sogar noch größer werden...

ATI wird halt (illegaler weise ;-) einen Teil der GPU-Last auf die CPU abwälzen und so Performance schinden.

Warum ein solcher Treiber von FM freigegenben wurde?
Das wird wohl nur FM beantworten können...

Und es zu präzisieren: ganz klar ein Cheat !
Vermutlich sieht ATI langsam seine Fälle wegschwimmen...

Razor

P.S.: Ich vermute mal, dass der "Perfromance-Vorteil" des neuen Treibers bei ATI so bei 2Ghz zu 3,4Ghz verschwinden wird. Ist halt 'schön', wenn die CPU voll genutzt werden kann, wenn man weiß, dass diese nicht mit so etwas unnützem wie KI oder ähnlichem beschäftigt ist... ;)


Wenn das mit der Auslagerung zur CPU stimmen sollte (was natürlich sein kann), dann wundere ich mich aber, wieso die ca 10-12 % mehr Leistung bei den meisten Spielen auch gibt?!?!
Grade Doom3 würde doch auch einbrechen wenn etwas Leistung bei der CPU geklaut würde.

[WEISSBIER]Moff
2004-09-29, 23:20:48
Allerdings ist es schon interessant, daß der "Wundertreiber" auf einmal so krass mit der CPU skaliert.
Bei einem Bench ohne KI oder ähnlichem müssten die Ergebnisse auf verschiedenen CPUs meiner Meinung nach eher so aussehen wie das bei nVIDIA der Fall ist und bei den bisherigen Catalysts der Fall war ... nur son Gedanke :confused:

r@h
2004-09-29, 23:21:29
Da du ja solch wilde Behauptungen aufgestellt hast, wirst du sicher auch in der Lage sein, uns allen an deiner Weisheit teilzuhaben und uns erklären, wie ATI das ganze hinbekommen haben soll.

Wir sind schon alle gespannt auf deine Ausführungen...Mit 'wir' meinst Du doch wohl nur Dich, oder?
Und wohl auch nur, weil Du den Inhalt meines Posts offenbar gar nicht umgesetzt hast...

Wie dem auch sei, es gibt selbst im Murks(05) einen kleinen Schalter mit dem Namen "force software vertex shader". Dies wäre zum beispiel auch ohne weiteres über den Treiber zu realisieren, um diese 'anderweitig' zu nutzen. Und ganz sicher gibt es da noch einige andere Dinge, von denen weder Du noch ich Ahnung haben, die sich mit solcherart 'Einsparungen' bewirken lassen würden. Ist halt von Vorteil, wenn man jahrelanges Mitglied im Beta-Programm bei FM ist, gell? So hatten sie ja genug Zeit, "Plan B" vorzubereiten.

Aber...

Vielleicht erhellst Du uns ja mal mit einer Erklärung, warum ausschließlich dieser neue "Wundertreiber" so dermaßen CPU-lastig ist und offenbar mit abnehmender CPU-Leistung auch kräftig an Performance einbüßt, obwohl das weder beim Vorgänger noch bei den Treibern des Konkurrenten der Fall ist.

Manche Dinge scheinen für einige unter uns vielleicht einfach zu 'klar'...
:D

Razor

hmx
2004-09-29, 23:23:50
Hmmm bring HT wirklich so viel bei Spielen? Der P4E 3,4 ist ja so schnell wie ein FX53. Oder ist das da einfach nur so "reingebacken" um HT zu benutzen. Hätte man das nicht ohne HT auch genausogut hinbekommen? Hat man es einfach so gebaut, dass HT schneller ist?
Dass die x800pe schneller etwas als die Ultra war mir auch klar. Aber wie siehts mit der GT gegen dir x800pro aus. Da hat ATi denn ja keinen Taktvorteil mehr. Und warum bringt sm3.0 so wenig? Dachte eigendlich, dass sm3.0 den Taktvorteil der x800pe etwas ausgleichen müsste und dass die gt gegen die x800pro schneller sein müsste...

Edit:

Sehe grade, dass die 6800gt im PS Test ca 20% schneller ist als die x800pro. Diese ist im GT 1(Proxicon) aber seit dem Betatreiber schneller ( ca 10%) schneller - warum? Füllrate kanns auch nicht sein da liegen beide gleich auf.

nochmal Edit:

Die VS der x800 Serie sind schneller als die des nv40, wie erwartet. (höherer Takt und bei der x800pro sind die vs nicht abgespeckt). Aber warum ist die
9800xt bei den vs Tests fast genauso schnell wie die x800pro? Die x800er haben doch mehr vs Einheiten (6 statt 4) und dann noch den höheren Takt.

Irgendwie wirft der neue 3DMark mehr Fragen auf als er beantwortet... ;(


Die Testergebnisse beruhen auf dem Test von Computerbase.

Seraf
2004-09-29, 23:24:26
Unsere ATI User sollen nicht so scheinheilig tun.
Im Cat 4.11b ist standardmäßig AI an!
Find ich für Spiele nicht schlecht, ist aber für Benchmarks kontraproduktiv.
Bei mir steht z.B. CatalystAI_DEF nach der Installation auf "1". Auf 0 sollte AI aus sein.

Was der Catalyst bei aktiviertem AI treibt weiß im Moment ja auch niemand so richtig.

r@h
2004-09-29, 23:25:40
Wenn das mit der Auslagerung zur CPU stimmen sollte (was natürlich sein kann), dann wundere ich mich aber, wieso die ca 10-12 % mehr Leistung bei den meisten Spielen auch gibt?!?!
Grade Doom3 würde doch auch einbrechen wenn etwas Leistung bei der CPU geklaut würde.Doom3 ist GPU limitiert...
Da würden mich schon eher heftige Botmatches unter UT2004 oder FarCry interessieren.

Razor

Jesus
2004-09-29, 23:26:31
Wie dem auch sei, es gibt selbst im Murks(05) einen kleinen Schalter mit dem Namen "force software vertex shader". Dies wäre zum beispiel auch ohne weiteres über den Treiber zu realisieren, um diese 'anderweitig' zu nutzen. Und ganz sicher gibt es da noch einige andere Dinge, von denen weder Du noch ich Ahnung haben, die sich mit solcherart 'Einsparungen' bewirken lassen würden. Ist halt von Vorteil, wenn man jahrelanges Mitglied im Beta-Programm bei FM ist, gell? So hatten sie ja genug Zeit, "Plan B" vorzubereiten.


is ja klar alles Cheat... was solle bitte software vertex shader bringen ? stimmt mit sicherheit mehr Performance als die 6 HW Vertexshader die ne X800 hat... oh je.

Bitte lass den Fanboy erstmal zu hause;) Blos weil NV Seit dem 3dmark2000 bescheisst heisst das noch lange nicht das ATI das jetzt auch tun muss ;)

Also erstmal abwarten und Teetrinken :tongue:

Sackgesicht
2004-09-29, 23:28:45
leute ... BITTE NICHT FLAMEN!

das mit dem höheren GPU Takt ist schon irgendwie logisch ...

Nur wieso brechen die X800 Karten bei reduzierung des CPU Taktes drastisch ein ( bei verwendung des 4.11er Catalysts ) ?
Den höheren Chiptakt hat die X800XT ja nicht erst seit release des 4.11er Treibers ;)

siehe CPU Skalierung (http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance-report/8/#benchmarks) des Computerbase Artikels!

Kann es nicht sein dass vorher die Graka limitierte und jetzt die CPU? Interessant wäre es sowohl die Radeon als auch die GF mit unterschiedliche CPUs bis auf +- Ghz zu testen um zu sehen wie weit die Radeon abfällt und ab wann die GF an Punkt verliert.

r@h
2004-09-29, 23:29:56
Also erstmal abwarten und Teetrinken :tongue:Red' nicht so einen Stuß und versuche lieber mal dieses 'merkwürdige' Verhalten des Treibers zu erklären.
Dass Du tatsächlich an einen 'Bug' glaubst, sagt eigentlich schon alles...

Razor

mapel110
2004-09-29, 23:30:28
Razor, wo kommen denn die 500 points her, die der 66.51 gegenüber älteren Treibern bringt?

Jesus
2004-09-29, 23:31:13
Red' nicht so einen Stuß und versuche lieber mal dieses 'merkwürdige' Verhalten des Treibers zu erklären.
Dass Du tatsächlich an einen 'Bug' glaubst, sagt eigentlich schon alles...

Razor

hab ich doch schon weiter vorne :)

r@h
2004-09-29, 23:32:08
Kann es nicht sein dass vorher die Graka limitierte und jetzt die CPU? Interessant wäre es sowohl die Radeon als auch die GF mit unterschiedliche CPUs bis auf +- Ghz zu testen um zu sehen wie weit die Radeon abfällt und ab wann die GF an Punkt verliert.Wurde in dem Artikel doch schon gemacht...

Mit alten Treibern bei ATI: keine Veränderung.
Mit alten und neuen Treibern bei nVidia: keine Veränderung.
Mit neuem "Wundertreiber" von ATI: 12% Verlust bei 1GHz Taktreduzierung.

Dieser Fall ist mehr als eindeutig, würde ich sagen...

Razor

deekey777
2004-09-29, 23:33:18
Unsere ATI User sollen nicht so scheinheilig tun.
Im Cat 4.11b ist standardmäßig AI an!
Find ich für Spiele nicht schlecht, ist aber für Benchmarks kontraproduktiv.
Bei mir steht z.B. CatalystAI_DEF nach der Installation auf "1". Auf 0 sollte AI aus sein.

Was der Catalyst bei aktiviertem AI treibt weiß im Moment ja auch niemand so richtig.


Und was heisst das jetzt?

StefanV
2004-09-29, 23:33:41
Wurde in dem Artikel doch schon gemacht...

Mit alten Treibern bei ATI: keine Veränderung.
Mit alten und neuen Treibern bei nVidia: keine Veränderung.
Mit neuem "Wundertreiber" von ATI: 12% Verlust bei 1GHz Taktreduzierung.

Dieser Fall ist mehr als eindeutig, würde ich sagen...

Razor
ROFL; aber das sagt garnichts, Razorle...

Aber ist schon klar, daß du auf ATi rumhackst, wenn sie mal, öhm, mit nV, 'gleichziehen', nicht wahr??

Dir ist schon bekannt, was für, öhm, tolle, Optimierungen nV nutzt, oder??

r@h
2004-09-29, 23:34:08
Razor, wo kommen denn die 500 points her, die der 66.51 gegenüber älteren Treibern bringt?Wenn ich recht entsinne, verliert der 66.51 gegenüber dem 66.29, der zuvor benutzt wurde... wenn auch im Rahmen der Meßungenauigkeit (ca. 50 Punkte, also ein knapper Prozentpunkt).

Der 'Vorteil' des 66.51 liegt in der SLI-Unterstützung für den Murks05.

Razor

r@h
2004-09-29, 23:35:18
ROFL; aber das sagt garnichts, Razorle...Und Du offenbar auch nicht...
Oder was ist mit Deiner Erklärung für dieses "Wunderverhalten" (tm@Razor ;-) ?

Razor

tRpii
2004-09-29, 23:36:23
Unsere ATI User sollen nicht so scheinheilig tun.
Im Cat 4.11b ist standardmäßig AI an!
Find ich für Spiele nicht schlecht, ist aber für Benchmarks kontraproduktiv.
Bei mir steht z.B. CatalystAI_DEF nach der Installation auf "1". Auf 0 sollte AI aus sein.

Was der Catalyst bei aktiviertem AI treibt weiß im Moment ja auch niemand so richtig.

AI ist auf default und dieses beinhaltet nur die sachen die auch vorher schon integriert waren bzw. aktiv waren.. es gibt 3 stufen (off/default/high) und high ist nicht aktiviert, von daher haltlos

StefanV
2004-09-29, 23:36:56
Och, das sagt eigentlich nur, daß ATi was gefunden hat, wo sie etwas Performance rauskitzeln konnte.

Also das, was nV dauernd macht, nur schon klar, daß das bei ATI 'böse' ist, nicht wahr Razorle?!

mapel110
2004-09-29, 23:38:09
Wenn ich recht entsinne, verliert der 66.51 gegenüber dem 66.29, der zuvor benutzt wurde... wenn auch im Rahmen der Meßungenauigkeit (ca. 50 Punkte, also ein knapper Prozentpunkt).

Der 'Vorteil' des 66.51 liegt in der SLI-Unterstützung für den Murks05.

Razor

ich hab mit 66.32 ca 4500 points @410/1130(mehr als ultra takt). sollten doch wohl eigentlich ca 5000 sein. :)

btw der 66.29 ist so ein misteriöses ding, den offenbar nur Futuremark und die Tester haben. deswegen würd ich den mal ganz aussen vor lassen. keiner weiss, was sich wirklich hinter der Versionsnummer verbirgt.

[WEISSBIER]Moff
2004-09-29, 23:38:26
Verzeiht bitte meine Unwissenheit, aber was meint Seraf mit AI? :O

tRpii
2004-09-29, 23:38:36
Och, das sagt eigentlich nur, daß ATi was gefunden hat, wo sie etwas Performance rauskitzeln konnte.

Also das, was nV dauernd macht, nur schon klar, daß das bei ATI 'böse' ist, nicht wahr Razorle?!

eben, was nv die ganze zeit gemacht hat - macht ati nun nach, optimiert hier und da - und was bei nv legitim ist bzw. geduldet wird soll nun bei ati falsch sein? da fehlt irgendwo die logik

r@h
2004-09-29, 23:39:46
AI ist auf default und dieses beinhaltet nur die sachen die auch vorher schon integriert waren bzw. aktiv waren.. es gibt 3 stufen (off/default/high) und high ist nicht aktiviert, von daher haltlosWeißt Du denn, was unter diesen 'Stufen' zu verstehen ist und inwieweit diese überhaupt auf den Murks 'wirken'?

Etwas 'haltlos' finde ich solche Kommentare, die durch nichts gestützt werden.
Schließlich handelt es sich bei dem Treiber ja um einen niegel-nagel-neuen Beta-Treiber, der ja durchaus noch (Performance bringende ;-) Bugs beinhalten könnte...

Wohlgemerkt: ich sage NICHT, dass dem so ist.
Nur ausschließen würde ich dies erst nach intensivsten Tests.

Razor

StefanV
2004-09-29, 23:40:23
Weißt Du denn, was unter diesen 'Stufen' zu verstehen ist und inwieweit diese überhaupt auf den Murks 'wirken'?
Geh doch morgen mal 'ne X800 kaufen und teste es selbst, dann weißt du es ;-)

Seraf
2004-09-29, 23:42:15
Moff']Verzeiht bitte meine Unwissenheit, aber was meint Seraf mit AI? :O

Hier steht was dazu.
Sollte erst im Cat 4.10 kommen läuft aber jetzt im Cat4.11beta auch schon mit!!!
Und das "angeblich" synthetische Benchmarks nicht erkannt werden soll wohl ein Witz sein.

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/atis_radeon_x700-serie/15/#catalyst_a_i

Wahrscheinlich steht die standardmäßig aktivierte 1 in der Registry für low.

Gast
2004-09-29, 23:42:37
ich hab mit 66.32 ca 4500 points @410/1130(mehr als ultra takt). sollten doch wohl eigentlich ca 5000 sein. :)Wus?
Du hast den 66.51 nicht einmal selbst ausprobiert?
Hoffe inständig, dass ich Dich hier mißverstanden habe...

btw der 66.29 ist so ein misteriöses ding, den offenbar nur Futuremark und die Tester haben. deswegen würd ich den mal ganz aussen vor lassen. keiner weiss, was sich wirklich hinter der Versionsnummer verbirgt.Der 66.29 war vorher von FM und nVidia für solcherart Tests freigegeben, wie es jetzt auch der 66.51 ist (analog den von ATI verwendeten Teibern).

Razor

tRpii
2004-09-29, 23:42:50
Etwas 'haltlos' finde ich solche Kommentare, die durch nichts gestützt werden.
Schließlich handelt es sich bei dem Treiber ja um einen niegel-nagel-neuen Beta-Treiber, der ja durchaus noch (Performance bringende ;-) Bugs beinhalten könnte...


da müsste ja nvidia sehr viele "bugs" in ihren treibern verbergen

naja, sollen die fanatischen nvidia-jünger sich weiter muckieren (viel spass)

- und weg -

r@h
2004-09-29, 23:45:54
eben, was nv die ganze zeit gemacht hat - macht ati nun nach, optimiert hier und da - und was bei nv legitim ist bzw. geduldet wird soll nun bei ati falsch sein? da fehlt irgendwo die logikBist Du sicher, dass Du die hier zugrunde liegende Problematik erfasst hast?

Hier geht es nicht um irgendwelche 'Optimierungen', sondern schlicht um eine schon recht extreme CPU-Abhängigkeit des neuen "Wundertreibers".

Razor

EL_Mariachi
2004-09-29, 23:47:01
naja, sollen die fanatischen nvidia-jünger sich weiter muckieren (viel spass)

- und weg -

achje... ist es nicht möglich eine Diskussion zu führen ohne ausfällig zu werden?
Bitte betrachtet das als Negativ Beispiel und bleibt diesem Thread lieber fern, wenn es euch zu sehr ans Gemüt geht, dass sich hier ATI und NVidia User in ein und dem selben Thread befinden!

StefanV
2004-09-29, 23:47:39
Bist du sicher, daß du die hier zugrunde liegende Problematig erfasst hast, Razor??

Hier geht es nämlich 'nur' um irgendwelche 'optimierungen'...

tRpii
2004-09-29, 23:47:39
Bist Du sicher, dass Du die hier zugrunde liegende Problematik erfasst hast?

Hier geht es nicht um irgendwelche 'Optimierungen', sondern schlicht um eine schon recht extreme CPU-Abhängigkeit des neuen "Wundertreibers".

Razor

Du kannst mir schon soviel Hirn zutrauen dass ich schon den Thread verfolgen kann und weiss worum es geht, aber wenn immer gegen ATi gewettert wird ohne wirklich den Hintergrund zu wissen und dann nVIDIA in den Himmel gelobt wird, dann sehe ich keinen Sinn solch einer Diskussion beizuwohnen.

Verstanden?

Seraf
2004-09-29, 23:49:19
AI ist auf default und dieses beinhaltet nur die sachen die auch vorher schon integriert waren bzw. aktiv waren.. es gibt 3 stufen (off/default/high) und high ist nicht aktiviert, von daher haltlos

So wie ich den computerbase Artikel verstehe kann AI auch auf low App spezifische Sachen machen. Vorher gab es ja nur globale Optimierungen.

Sphinx
2004-09-29, 23:51:02
Bist Du sicher, dass Du die hier zugrunde liegende Problematik erfasst hast?

Hier geht es nicht um irgendwelche 'Optimierungen', sondern schlicht um eine schon recht extreme CPU-Abhängigkeit des neuen "Wundertreibers".

Razor

Ich verweise mal auf diese Page...

http://www.futuremark.com/community/drivers/?approved

Von Futuremark freigegebene Treiber die für den Einsatz des 3DMarks05 getestet worden sind...

Komisch das wir sowas von Nvidia nie sehen werden...

Update July 26th, 2004: Upon ATI's request, we have removed our approval for the Catalyst 4.7 drivers (Win2000 & WinXP) due to the issues in 3DMark03 GameTest3. ATI has posted information about the issue here.

Das geilste

For the launch of 3DMark05 we have approved the following NVIDIA drivers:

» BETA ForceWare 66.29 Drivers

» BETA ForceWare 66.51 Drivers

Notes: The BETA ForceWare Drivers are approved for the launch previews of 3DMark05 only and are not available for download. The drivers have been tested with the GeForceFX and GeForce6 series.

r@h
2004-09-29, 23:52:08
Verstanden?Nein.

Oder ist von Dir oder Payne schon irgendetwas 'Vernünftiges' gekommen?
Offenbar reicht es euch ja, dass von ATI ein "Wunder" vollbracht wurde...

...aber einige hier sind vielleicht doch an den Hintergründen interessiert.
Und diese lassen sich schwerlich ermittlern, wenn man nicht darüber spricht, oder?

Razor

aths
2004-09-29, 23:52:27
is ja klar alles Cheat... was solle bitte software vertex shader bringen ? stimmt mit sicherheit mehr Performance als die 6 HW Vertexshader die ne X800 hat... oh je.So ist es – indem die CPU Vertexshading übernimmt, wird es nicht um so vieles schneller. Um genauer sagen zu können wie der Speedup zu erklären ist, müsste man erst mal wissen, wo der Flaschenhals sitzt. Die Pro-Version bietet ja sone Overlay-Anzeigen, wenn ich mich nicht verlesen habe.

Black-Scorpion
2004-09-29, 23:54:27
Etwas 'haltlos' finde ich solche Kommentare, die durch nichts gestützt werden.
Schließlich handelt es sich bei dem Treiber ja um einen niegel-nagel-neuen Beta-Treiber, der ja durchaus noch (Performance bringende ;-) Bugs beinhalten könnte...

Wohlgemerkt: ich sage NICHT, dass dem so ist.
Nur ausschließen würde ich dies erst nach intensivsten Tests.

Razor
Und wie findest du dann deine eigenen Kommentare?
Aber das kann man ja zitieren.

Und es zu präzisieren: ganz klar ein Cheat !
Vermutlich sieht ATI langsam seine Fälle wegschwimmen...

Razor
Quelle: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2294381&postcount=4

Sorry, aber bevor du anderen haltlose Kommentare vorhältst, solltest du bei dir anfangen.

Denn solange es keinen Beweis für einen Cheat gibt, ist es keiner.

tRpii
2004-09-29, 23:56:44
Die Pro-Version bietet ja sone Overlay-Anzeigen, wenn ich mich nicht verlesen habe.

ich hab die Pro sehe aber nichts dergleichen

edit: color mipmaps

EL_Mariachi
2004-09-29, 23:56:55
Nein.

...aber einige hier sind vielleicht doch an den Hintergründen interessiert.
Und diese lassen sich schwerlich ermittlern, wenn man nicht darüber spricht, oder?

Razor

Jup, deswegen hatte ich den Thread ursprünglich aufgemacht ...
Ich dachte es lässt sich vernünftig darüber reden!

Naja, hab ich mich wohl geirrt :(

Könntet Ihr bitte bitte bitte aufhören euch gegenseitig anzudissen! Danke!

aths
2004-09-29, 23:57:17
Ich habe auch eine Frage..

warum liegt Prescott so weit vor Northwood?
Die Sache von wegen "besseren Hyperthreading" kaufe ich niemandem ab...Besteht nicht die Möglichkeit, dass Intel mit dem Prescott-Desing nicht nur falsche Entscheidungen traf? Ich habe leider nicht den Überblick, was außer der Pipe-Verlängerung sonst noch geändert wurde.

deekey777
2004-09-29, 23:58:09
So ist es – indem die CPU Vertexshading übernimmt, wird es nicht um so vieles schneller. Um genauer sagen zu können wie der Speedup zu erklären ist, müsste man erst mal wissen, wo der Flaschenhals sitzt. Die Pro-Version bietet ja sone Overlay-Anzeigen, wenn ich mich nicht verlesen habe.


OT: Machst du einen kleinen Artikel zu 3D 2005? Zwar hat sich X-bit sehr ausführlich mit 3D 2005 befasst, aber mein Englisch kam schnell an seine Grenzen.

r@h
2004-09-29, 23:59:00
Ich verweise mal auf diese Page...
<snippel>Und?

Das war doch nun schon bekannt... 66.29 und 66.51 sind von FM (und selbstverständlich nVidia) für dem Murks05 freigegeben und gelten somit (aus Sicht von FM) als unbedenklich.

Und klar sind das Beta-Treiber und der 66.29 ist im übrigen noch immer nicht zu bekommen...

Razor

betasilie
2004-09-29, 23:59:26
Ich finde es wirklich peinlich, wie einige NV-Fanboys wieder reagieren. ATI released einen Treiber, der ordentlich Performance bringt und sofort wird Cheat gerufen. Nicht, dass ich es für ausgeschlossen halte, aber bevor man sowas behauptet, sollte man Beweise haben.

Ich selber habe eine 6800GT und muss sagen, dass mir die ATI Treiber durch die häufigen offiziellen Updates wesentlich mehr zugesagt haben, als die von NV, die scheinbar nur auf die Benchmark relevanten Games optimiert werden und nur wenige male im Jahr erscheinen.

Ich frage mich bloß wie die Leute, die ATI Cheating vorwerfen, reagieren, wenn NV nächste Woche nen Treiber bringt, der das selbe vollbringt. :rolleyes:

StefanV
2004-09-30, 00:03:12
Besteht nicht die Möglichkeit, dass Intel mit dem Prescott-Desing nicht nur falsche Entscheidungen traf? Ich habe leider nicht den Überblick, was außer der Pipe-Verlängerung sonst noch geändert wurde.
SSE3, vergrößerte L1 Caches (sowohl Trace als auch Daten Cahce), vergrößerter L2 Cache.

Das wars aber auch schon...

Der Rest ist noch deaktiviert (EMT64)

r@h
2004-09-30, 00:03:23
Denn solange es keinen Beweis für einen Cheat gibt, ist es keiner.Blödsinn.
Wenn es nicht bewiesen ist, nennt man das 'unbewiesen'.
Cheat bleibt Cheat... wenn es denn einer ist.

Oder eben ein Irrtum meinerseits...
(was nicht auszuschließen ist!)

Trotzdem wird man ja wohl noch mal fragen dürfen, was es mit der 'pötzlich' extremen CPU-Abhängigkeit auf sich hat... und das bei einem bench, der sich auf die Fahne geschrieben hat, gerade im 'score' weitestgehend CPU-unabhängig zu sein (deswegen ja auch die extra CPU-Tests).

Razor

aths
2004-09-30, 00:04:50
OT: Machst du einen kleinen Artikel zu 3D 2005? Ist nicht vorgesehen, aber ich überlege Fragen für ein Interview. FM hat noch nicht zugesagt (hab sie noch nicht mal gefragt :)) aber wäre da an gewissen Details zum Rendering interessiert.

Nerothos
2004-09-30, 00:05:07
Mich würde die Frage nach dem "Woher?" auch brennend interessieren, aber wir sind schon wieder an einer Stelle angekommen, an der ich keinen Bock mehr habe weiter zu lesen.

Müsst ihr euch immer in den Haaren, bzgl. ATI und NVIDIA, haben? Es macht einfach keinen Spaß mehr, nein schlimmer: Es KOTZT mich an!

Jesus
2004-09-30, 00:05:21
Blödsinn.
Wenn es nicht bewiesen ist, nennt man das 'unbewiesen'.
Cheat bleibt Cheat... wenn es denn einer ist.

Oder eben ein Irrtum meinerseits...
(was nicht auszuschließen ist!)

Trotzdem wird man ja wohl noch mal fragen dürfen, was es mit der 'pötzlich' extremen CPU-Abhängigkeit auf sich hat... und das bei einem bench, der sich auf die Fahne geschrieben hat, gerade im 'score' weitestgehend CPU-unabhängig zu sein (deswegen ja auch die extra CPU-Tests).

Razor

nur das du nicht fragst, sondern gleich "CHEAT, CHEAT!" rumposaunts ...

dildo4u
2004-09-30, 00:05:59
Ich finde es wirklich peinlich, wie einige NV-Fanboys wieder reagieren. ATI released einen Treiber, der ordentlich Performance bringt und sofort wird Cheat gerufen. Nicht, dass ich es für ausgeschlossen halte, aber bevor man sowas behauptet, sollte man Beweise haben.

Ich selber habe eine 6800GT und muss sagen, dass mir die ATI Treiber durch die häufigen offiziellen Updates wesentlich mehr zugesagt haben, als die von NV, die scheinbar nur auf die Benchmark relevanten Games optimiert werden und nur wenige male im Jahr erscheinen.

Ich frage mich bloß wie die Leute, die ATI Cheating vorwerfen, reagieren, wenn NV nächste Woche nen Treiber bringt, der das selbe vollbringt. :rolleyes:
Naja ich find computerbase hat das ganze doch schon recht gut aufgeschlüsselt wenn man daraus keine eigenen schlüsse ziehn kann tuts mir leid.

StefanV
2004-09-30, 00:06:05
Blödsinn.
Wenn es nicht bewiesen ist, nennt man das 'unbewiesen'.
Cheat bleibt Cheat... wenn es denn einer ist.

Nein, solang es nicht bewiesen ist, ists kein Cheat, das siehst du doch bei nV Treibern genauso, warum siehst das bei ATIs Treibern anders?!


Oder eben ein Irrtum meinerseits...
(was nicht auszuschließen ist!)

Die Wahrscheinlichkeit ist relativ hoch...


Trotzdem wird man ja wohl noch mal fragen dürfen, was es mit der 'pötzlich' extremen CPU-Abhängigkeit auf sich hat... und das bei einem bench, der sich auf die Fahne geschrieben hat, gerade im 'score' weitestgehend CPU-unabhängig zu sein (deswegen ja auch die extra CPU-Tests).

Razor
Ja, aber du fragst nicht, du brüllst gleich 'CHEAT!!'...

tRpii
2004-09-30, 00:06:55
Blödsinn.
Wenn es nicht bewiesen ist, nennt man das 'unbewiesen'.
Cheat bleibt Cheat... wenn es denn einer ist.

Oder eben ein Irrtum meinerseits...
(was nicht auszuschließen ist!)

Trotzdem wird man ja wohl noch mal fragen dürfen, was es mit der 'pötzlich' extremen CPU-Abhängigkeit auf sich hat... und das bei einem bench, der sich auf die Fahne geschrieben hat, gerade im 'score' weitestgehend CPU-unabhängig zu sein (deswegen ja auch die extra CPU-Tests).

Razor

Und mit so einen soll man dann großartig Diskutieren? Nein Danke - da rede ich lieber gegen eine Wand, hat man mehr von

Mcdave
2004-09-30, 00:07:13
Ist doch wohl offensichtlich, was da passiert, oder?

Der Prozessortakt wird von 3,4GHz auf 2,4GhZ gesenkt (-29%) und die Radeon verliert ausschließlich (!) mit dem neuen 'Wundertreiber' mal eben 12% Leistung. Würde man den Takt noch weiter absenken, dürfte der Unterschied sogar noch größer werden...

ATI wird halt (illegaler weise ;-) einen Teil der GPU-Last auf die CPU abwälzen und so Performance schinden.

Warum ein solcher Treiber von FM freigegenben wurde?
Das wird wohl nur FM beantworten können...

Und es zu präzisieren: ganz klar ein Cheat !
Vermutlich sieht ATI langsam seine Fälle wegschwimmen...

Razor

P.S.: Ich vermute mal, dass der "Perfromance-Vorteil" des neuen Treibers bei ATI so bei 2Ghz zu 3,4Ghz verschwinden wird. Ist halt 'schön', wenn die CPU voll genutzt werden kann, wenn man weiß, dass diese nicht mit so etwas unnützem wie KI oder ähnlichem beschäftigt ist... ;)

Diese Behauptung ist -zumindest auf einer 9800pro- widerlegt. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2294361&postcount=193

Eventuell hat im Forum noch jemand Lust, das in Verbindung mit einer X800er Karte zu prüfen.

PS: Du merkst, dass Du den Thread zum kochen bringst, oder? Muss doch nicht sein.

tRpii
2004-09-30, 00:08:48
Das Gegenteil dieser Behauptung ist -zumindest auf einer 9800pro- widerlegt. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2294361&postcount=193

Eventuell hat im Forum noch jemand Lust, das in Verbindung mit einer X800er Karte zu prüfen.

PS: Du merkst, dass Du den Thread zum kochen bringst, oder? Muss doch nicht sein.

ja, ich teste es eben mal.. also machn zweiten bench mit weniger CPU-Frequenz

r@h
2004-09-30, 00:09:12
Ich finde es wirklich peinlich, wie einige NV-Fanboys wieder reagieren. ATI released einen Treiber, der ordentlich Performance bringt und sofort wird Cheat gerufen. Nicht, dass ich es für ausgeschlossen halte, aber bevor man sowas behauptet, sollte man Beweise haben. Du findest diese plötzliche CPU-Abhängigkeit also nicht 'merkwürdig'?
Würde dieser neue "Wundertreiber" einfach nur schneller sein, ohne solch eine Merkwürdigkeit zu zeigen, bliebe ich stumm, da ich mich in so etas i.d.R. gar nicht einmische, bis eben Fakten auf dem Tisch liegen. Hier aber scheint ein ganz klarer Hinweis aif diesen Performance-Sprung vorzuliegen, der nicht anders zu erklären ist... zumindest aber hat hier noch niemand auch nur versucht, dieses merkwürdige Verhalten des Treibers zu erklären.

Razor

Sphinx
2004-09-30, 00:10:08
PS: Du merkst, dass Du den Thread zum kochen bringst, oder? Muss doch nicht sein.

Ich glaub der merkt nur noch wie grün ,) seine Tapeten sind.

Drum sei schluß an dießer Stelle und auf eine frohe und sinnlose Diskussion ala Romeo und Julia ~ sein oder nicht sein das ist hier die Frage...

aths
2004-09-30, 00:11:16
Ich finde es wirklich peinlich, wie einige NV-Fanboys wieder reagieren. ATI released einen Treiber, der ordentlich Performance bringt und sofort wird Cheat gerufen. Nicht, dass ich es für ausgeschlossen halte, aber bevor man sowas behauptet, sollte man Beweise haben. Oder starke Indizien. Jedenfalls gibt es viele "Verdachtsmomente". Ich werde da mal nachfragen, ob die genauere Infos rausrücken inwiefern der Treiber 'optimiert' wurde.

r@h
2004-09-30, 00:11:28
Und mit so einen soll man dann großartig Diskutieren? Nein Danke - da rede ich lieber gegen eine Wand, hat man mehr vonJa, das ist mir bei Dir und Payne auch gerade klar geworden...
Von Euch kommt ja nicht einmal ein Versuch einer Erklärung.

Razor

Black-Scorpion
2004-09-30, 00:13:05
Gegen fragen hat bestimmt keiner was.
Aber gleich mit der Aussage zu kommen "ganz klar ein Cheat" ist mit Sicherheit keine Frage.
Das ist eine Vorverurteilung ohne jegliche Beweise.

r@h
2004-09-30, 00:13:21
Das Gegenteil dieser Behauptung ist -zumindest auf einer 9800pro- widerlegt. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2294361&postcount=193Auch das wurde bereits auf Computerbase beschrieben... die R3x0 profitieren nicht von diesen "Wundertreibern"... was das Ganze noch suspekter macht.

Razor

mapel110
2004-09-30, 00:14:38
nvidia cheat treiber ahoi :P

5015 Points @410/1130 und FW 66.51
(vorher 4474 points mit 66.32)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2292561&postcount=9

deekey777
2004-09-30, 00:15:55
Du findest diese plötzliche CPU-Abhängigkeit also nicht 'merkwürdig'?
Würde dieser neue "Wundertreiber" einfach nur schneller sein, ohne solch eine Merkwürdigkeit zu zeigen, bliebe ich stumm, da ich mich in so etas i.d.R. gar nicht einmische, bis eben Fakten auf dem Tisch liegen. Hier aber scheint ein ganz klarer Hinweis aif diesen Performance-Sprung vorzuliegen, der nicht anders zu erklären ist... zumindest aber hat hier noch niemand auch nur versucht, dieses merkwürdige Verhalten des Treibers zu erklären.

Razor


Ich bin zwar nicht Beta, aber eigentlich sollte man bei einem niedrigeren CPU-Takt auch ein schlechteres Ergebnis bekommen.
Man sollte sich die Ergebnnise auf CB doch etwas genauer anschauen und den Sinn dieses Threads neuüberlegen.

Aus dem CB Artikel:
"Ein gänzlich anderes Bild ergibt sich dagegen beim Einsatzes des neuen ATi-Treibers Catalyst 4.11 (Beta). Hier hat der Prozessortakt durchaus einen Einfluss auf das Ergebnis. Knapp 700 Punkte (5817 vs. 5144) verliert ATi beim Herabsenken des Prozessortakts. Ganz offensichtlich kommt dem Prozessor mit dem neuen Treiber eine größere Bedeutung zu. Welches neue „Feature” mag dafür wohl verantwortlich sein? "

Mit dem Cat. 4.9 waren es immer 4.529.

Sphinx
2004-09-30, 00:18:24
Auch das wurde bereits auf Computerbase beschrieben... die R3x0 profitieren nicht von diesen "Wundertreibern"... was das Ganze noch suspekter macht.

Razor

Warum PROFITIERT der 3DMARK2001 davon ebenfalls ? -> Wiederspricht das nicht dem was du ATI vorwirfst ? da 3DMark2001 STARK System abhängig ist und durch die Verteilung bestimmter Aufgaben an die CPU eher abnehmen müßte bei diesem ?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2294399&postcount=109

Mr. Lolman
2004-09-30, 00:19:48
Auch das wurde bereits auf Computerbase beschrieben... die R3x0 profitieren nicht von diesen "Wundertreibern"... was das Ganze noch suspekter macht.

Razor

Hm, irgendwie müsste man diese Optimierung auch am R3x0 aktivieren können. Thomas? Demi? Kann das mal jemand machen? :D

r@h
2004-09-30, 00:20:03
Gegen fragen hat bestimmt keiner was.
Aber gleich mit der Aussage zu kommen "ganz klar ein Cheat" ist mit Sicherheit keine Frage.
Das ist eine Vorverurteilung ohne jegliche Beweise.Ich frage hier laufend... schau' Dir doch einfach mal einen der (unzählichen ;-) letzten Posts an...

Klar, mein initialer Post war recht provokant gefasst... aber wer mich kennt, weiß, dass ich so etwas öfters tue, um die Leuts hier ein wenig aus der Reserve zu locken.

Auffällig ist auf jeden Fall, dass hier eine bestimmte Fraktion nicht einmal versucht, für dieses sonderbare Verhalten des Treibers eine Erklärung zu finden und lieber dazu über gehen, beleidigend zu werden. Und Sphinx geht gleich noch einen Schritt weiter und schreibt hier nur Müll ohne auch nur einen einzigen Bezug zum Thread zu haben.

Also Frage ich nunmehr auch Dich:
Was hat es Deiner Meinung nach mit dieser hohen CPU-lastigkeit auf sich?
:confused:

Razor

fizzo
2004-09-30, 00:21:37
Auch das wurde bereits auf Computerbase beschrieben... die R3x0 profitieren nicht von diesen "Wundertreibern"... was das Ganze noch suspekter macht.

Razor

9800pro@420/380mhz

doom3 - timedemo demo1
1024/764 hq - 2xaa 8xaf
cat. 4.8 - 32,0 fps
cat. 4.11b - 41,6 fps

3dmark05
cat. 4.8 - 2.300
cat. 4.11b - 2.500

:wave2:

StefanV
2004-09-30, 00:22:14
Ich frage hier laufend... schau' Dir doch einfach mal einen der (unzählichen ;-) letzten Posts an...

Klar, mein initialer Post war recht provokant gefasst... aber wer mich kennt, weiß, dass ich so etwas öfters tue, um die Leuts hier ein wenig aus der Reserve zu locken.

Auffällig ist auf jeden Fall, dass hier eine bestimmte Fraktion nicht einmal versucht, für dieses sonderbare Verhalten des Treibers eine Erklärung zu finden und lieber dazu über gehen, beleidigend zu werden. Und Sphinx geht gleich noch einen Schritt weiter und schreibt hier nur Müll ohne auch nur einen einzigen Bezug zum Thread zu haben.

Also Frage ich nunmehr auch Dich:
Was hat es Deiner Meinung nach mit dieser hohen CPU-lastigkeit auf sich?
:confused:

Razor
Shadercompiler?!

Jesus
2004-09-30, 00:22:31
nvidia cheat treiber ahoi :P

5015 Points @410/1130 und FW 66.51
(vorher 4474 points mit 66.32)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2292561&postcount=9

achwas ! Das sind doch nur bugfixes! :rolleyes:

@aths, jetz kannst du auch gleich fragen was NV da macht in diesem "Wundertreiber"...

merkt ihr wies langsam immer lächerlicher wird ? ;D

r@h
2004-09-30, 00:22:31
nvidia cheat treiber ahoi :P

5015 Points @410/1130 und FW 66.51
(vorher 4474 points mit 66.32)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2292561&postcount=9Dein 66.32 war ja für dem Murks gar nicht zugelassen...
Wer weiß, was damit "im argen" lag?
:P

Razor

P.S.: war eher als Scherz gemeint... ;)

Sphinx
2004-09-30, 00:23:24
Und Sphinx geht gleich noch einen Schritt weiter und schreibt hier nur Müll ohne auch nur einen einzigen Bezug zum Thread zu haben.

Razor

? -> Diskussion ist hiermit beendet - Als einem Typen wie diesem Cheatschreier - "ließ dir Deine Aussagen in Ruhe nochmals durch" - eine im entferntesten ruhige Diskussion zu führen...

r@h
2004-09-30, 00:24:52
Shadercompiler?!Der Shader-Compiler verursacht zur Laufzeit eine dermaßen hohe CPU-last?
Ist nicht Dein ernst...
:confused:

Razor

P.S.: Aber Danke für die Teilnahme am eigentlichen Thema dieses Threads.

mapel110
2004-09-30, 00:24:54
Dein 66.32 war ja für dem Murks gar nicht zugelassen...
Wer weiß, was damit "im argen" lag?
:P

Razor

P.S.: war eher als Scherz gemeint... ;)

zumindest kann man jetzt schon mal sagen, dass der 66.29 wohl "neuer" ist, als der 66.32 :)

aths
2004-09-30, 00:25:55
achwas ! Das sind doch nur bugfixes! :rolleyes:

@aths, jetz kannst du auch gleich fragen was NV da macht in diesem "Wundertreiber"...Nvidia gibt (mehr oder minder) offen zu, applikationsspezifisch zu optimieren. Dazu muss ich sie nicht extra noch mal fragen.

Mich würde eher mal der Vergleich 9800 Pro vs. X700 Pro interessieren ...

r@h
2004-09-30, 00:26:19
? -> Diskussion ist hiermit beendet - <snip>Gut so...

Razor

StefanV
2004-09-30, 00:27:05
Der Shader-Compiler verursacht zur Laufzeit eine dermaßen hohe CPU-last?
Ist nicht Dein ernst...
:confused:
Dir ist schon klar, daß CB mit 'nem Preskopp und nicht mit 'nem A64 getestet hat, oder??

r@h
2004-09-30, 00:27:27
zumindest kann man jetzt schon mal sagen, dass der 66.29 wohl "neuer" ist, als der 66.32 :)Jep... davon ist auszugehen.
Zumindest das scheint 'gewiß'...
;)

Razor

aths
2004-09-30, 00:27:41
SSE3, vergrößerte L1 Caches (sowohl Trace als auch Daten Cahce), vergrößerter L2 Cache.Ah, mehr Cache. Es könnte doch sein, dass bestimmte Routinen jetzt ganz in den L1 passen.

tRpii
2004-09-30, 00:28:24
Das Gegenteil dieser Behauptung ist -zumindest auf einer 9800pro- widerlegt. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2294361&postcount=193

Eventuell hat im Forum noch jemand Lust, das in Verbindung mit einer X800er Karte zu prüfen.

PS: Du merkst, dass Du den Thread zum kochen bringst, oder? Muss doch nicht sein.

so, habs mal getestet..

A64 @ 2200 -> 6341 -> http://service.futuremark.com/compare?3dm05=14378

A64 @ 2600 -> 6413 -> http://service.futuremark.com/compare?3dm05=8976

also so groß ist der unterschied nicht.. da der A64 viel Pro-MHZ Performance hat sollte es schon mehr bringen wenn Teile auf die CPU ausgelagert werden würde..

r@h
2004-09-30, 00:28:34
Dir ist schon klar, daß CB mit 'nem Preskopp und nicht mit 'nem A64 getestet hat, oder??Wen interessiert das?
:confused:

Razor

Jesus
2004-09-30, 00:28:52
Der Shader-Compiler verursacht zur Laufzeit eine dermaßen hohe CPU-last?
Ist nicht Dein ernst...
:confused:

Razor

P.S.: Aber Danke für die Teilnahme am eigentlichen Thema dieses Threads.

Dann sags ich nochmal weils entweder keiner gesehen hat oder es bullshit war ;) :

ATI´s OI( Object instancing ) läuft über den Treiber / CPU => CPU abhängig => neuer Treiber => OI Aktiviert => Return to PRoxyron( viele Raumschiffe etc. ) => O.I.

meine Theorie ;)

+ die Tatsache das der Treiber wohl mit aktiviertem O.I. ein WHQL zertifikat bekommt was ja vorher angeblich( lt. NV) nicht gehen sollte. Vielleicht kann das Feature nun auch im 3dmark genutzt werden...

Allerdings erklärt das nicht wieso es bei R3xx wohl keine CPU abhängigkeit gibt...( und das wiederum widerspricht der cheat theorie ;) )


wen intressiert das ?

=>

so, habs mal getestet..

A64 @ 2200 -> 6341 -> http://service.futuremark.com/compare?3dm05=14378

A64 @ 2600 -> 6413 -> http://service.futuremark.com/compare?3dm05=8976

also so groß ist der unterschied nicht.. da der A64 viel Pro-MHZ Performance hat sollte es schon mehr bringen wenn Teile auf die CPU ausgelagert werden würde..

;D

EDIT:

der oben angegeben r3xx Vergleich war übrigens auch ein nicht Pentium System ;) ... sieht so aus als ob der Treiber dann wohl nur auf Pentiums cheatet!!!! :eek:

StefanV
2004-09-30, 00:29:19
Mich würde eher mal der Vergleich 9800 Pro vs. X700 Pro interessieren ...
'nen 'ordentlichen' Vergleich kannst vergessen...

9800 und X700 kann nicht wirklich gegeneinander antreten lassen, da es die 9800 nicht als PCIe und die X700 nicht als AGP Version gibt.

Somit könnte man nur 2 ähnliche Systeme miteinander vergleichen.

Dummerweise macht das aber nur auf 'nem K8 mit VIA K8T800 und K8T890 Sinn, nicht aber bei i865/875 gegen i915/925...

r@h
2004-09-30, 00:31:07
Wen interessiert das?
:confused:Ahhh.... sorry.
Langsam scheine ich zu verstehen...

Aber das würde letzlich ebenfalls auf einen Cheat hinaus laufen, oder?

Razor

StefanV
2004-09-30, 00:31:18
Wen interessiert das?
:confused:

Razor
Öhm, uns?!

Wie wärs damit, daß der 3Dmark nur eine gewisse CPU Performance benötigt, wenns darunter ist, dann brichts weg und dieser Treiber aus mysteriösen Umständen mehr CPU Leistung frisst...

StefanV
2004-09-30, 00:31:42
Aber das würde letzlich ebenfalls auf einen Cheat hinaus laufen, oder?

Razor
Nein, höhere CPU Last des Treibers.

aths
2004-09-30, 00:32:49
ATI wird halt (illegaler weise ;-) einen Teil der GPU-Last auf die CPU abwälzen und so Performance schinden.An anderer Stelle (aber im gleichen Zusammenhang) verlangst du, dass man erst mal fragen sollte.

Fragen wir uns also:

- Macht es Sinn, GPU-Last auf die CPU zu schieben? Wie aufwändig wäre es, die beiden Streams zu synchronieren?

- Wenn der Beta-Treiber Dinge macht, die eigentlich nicht erlaubt sind, müsste ATI einen kräftigen Performance-Rückgang bei der späteren WHQL-Version erklären. Macht das Sinn?

- Gegenüber der 9800 hat die X800 nicht nur deutlich mehr Pixel-, sondern auch deutlich mehr Vertexpower. Inwiefenr sollte ein 20%-iger Schub erklärbar sein, wenn der 6-fache VS durch die CPU entlastet wird?

r@h
2004-09-30, 00:34:30
Wie wärs damit, daß der 3Dmark nur eine gewisse CPU Performance benötigt, wenns darunter ist, dann brichts weg und dieser Treiber aus mysteriösen Umständen mehr CPU Leistung frisst...Klar...

Bei den alten Treibern ist's nicht so... bei den alten und neuen Treibern nVidias ebenfalls nicht. Aber bei dem "Wundertreiber" ist's plötzlich so, so daß er bei ca. 1.2GHz Verlust auf Seiten der CPU auf sein alten Niveau zurück fällt?

Neee...

Razor

StefanV
2004-09-30, 00:34:50
Achja, irgendwie scheint der neue Treiber auch in Far Cry schneller zu sein.

Benches kann ich momentan leider nicht liefern...

Black-Scorpion
2004-09-30, 00:35:53
Wen interessiert das?
:confused:

Razor
Ich habe zwar keinen blassen Schimmer was die CPU Last verursachen könnte.
Aber zu SPs Einwand eine Frage.
Kommen die nVidia Treiber nicht mit Intel besser klar und ATI Treiber mit AMD CPUs?
Wenn ja, sollte man das ganze nochmal mit beiden CPUs überprüfen.
Vielleicht passiert das auch bei nVidia mit einer AMD CPU.
Währe zumindest einen Versuch wert.

TheGood
2004-09-30, 00:36:03
Auch das wurde bereits auf Computerbase beschrieben... die R3x0 profitieren nicht von diesen "Wundertreibern"... was das Ganze noch suspekter macht.

Razor
naja dem kann ich widersprechen mit 4.9 hatte iach 1400 3dmarks und mit 4.11 hab ich auf einmal 2100.
allerdings sieht die grafik jetzt unter trackmania dermaßen beschissen aus dass ich kotzen könnte. da ist irgendwie alles unscharf. Aniso filter scheint anzu sein, aber die texturen sind nur in der ersten stufe wirklich scharf rest ist alles unscharf...

r@h
2004-09-30, 00:36:19
- Wenn der Beta-Treiber Dinge macht, die eigentlich nicht erlaubt sind, müsste ATI einen kräftigen Performance-Rückgang bei der späteren WHQL-Version erklären. Macht das Sinn?Wir werden sehen...
Zu den technischen Aspekten kannst Du oder Demirug bestimmt eher was sagen.

Razor

mapel110
2004-09-30, 00:46:31
So, und jetzt gesittet weiter ...

predprey
2004-09-30, 00:48:18
allerdings sieht die grafik jetzt unter trackmania dermaßen beschissen aus dass ich kotzen könnte. da ist irgendwie alles unscharf. Aniso filter scheint anzu sein, aber die texturen sind nur in der ersten stufe wirklich scharf rest ist alles unscharf...


Wäre das nicht eine Auffälligkeit, welcher nachgegangen werden sollte ?!

EL_Mariachi
2004-09-30, 00:54:30
also ich habe grade nochmal bissl rumgebenched ...

66.70 ... 4985 pkt
66.51 ... 4902 pkt

das wird alles immer seltsamer ... ich geh etz erstma schlafen!

immer dran denken Leute! Kein Streit, Kein geflame und nicht persönlich werden/nehmen!

bis denne

FPSn00b
2004-09-30, 04:36:52
Mmh, diese CPU-Sache kommt mir auch komisch vor und nach dem was bisher geschrieben wurde, glaube ich auch, daß es sich um einen "Cheat" handeln könnte, wobei mir schleierhaft ist, was für eine Aufgabe der VPU denn in dem Zusammenhang sinnvollerweise auf die CPU ausgelagert werden könnte.
Auch finde ich den hier von z.B: "Razor" angeschlagenen Ton ein wenig zu hetzerisch (rein von den Formulierungen her), besonders -wie auch schon geschrieben wurde- wegen nVidias allseits bekannter Einstellung zu Anwendungs-spezifischen "Optimierungen" wie z.B. Shaderreplacements.

Naja, jedenfalls hier eine Auflistung der Dinge, die mir nach dem Durchforsten diverser Foren zu den 4.11-Beta-Treiber aufgefallen sind, vielleicht ist irgendwas dabei, was zur (wie auch immer gearteten) Aufklärung dieser Anschuldigungen beiträgt:
.
.
AI:
-ATI gibt an, bei aktiviertem "AI" zwar Anwendungs-spezifische Optimierungen zu nutzen, davon aber Benchmarks auszunehmen.
-Häufig wird die Meinung vertreten, "AI" ließe sich durch Einstellen von "CatalystAI_DEF" von "1" auf "2" aktivieren, andernorts wird davon geredet, ein neuer Eintrag namens "CatalystAI" müsse neu erstellt werden.
-"AI" soll laut dem ATI-Betatester "spyre" selbst durch manuelles Aktivieren in der Registry in diesen Beta-Versionen nicht vollständig freischaltbar sein.
.
.
256MB-Fix
-Die Leistungsschübe durch den Beta-Treiber sollen durch einen Bugfix im Zusammenhang mit 256MB-Karten kommen.
-Die meisten Benutzer, die über Leistungsverbesserungen berichteten besitzen laut ihren Angaben eine R420-Karte, einige eine R3*0 mit 256MB und ein paar eine R3*0 mit 128MB.
-Ein paar Benutzer mit R3*0-256MB-Karten klagen über das Fehlen jeglicher Veränderung bezüglich der Geschwindigkeit in z.B. gängigen Benchmarks.
-3DMark05 gab mir (R360 mit 256MB) mit der ersten Beta deutlich über 400 Punkte mehr, als ich nach den Angaben von "mydriver.com" erwartet habe.
.
.
Diverses:
-Die zweite Version des Beta-Treibers soll nur den Support für die X700er nachschieben, ansonsten seien keine Veränderungen im Vergleich zur ersten Version eingebaut.
-Diverse Benutzer beschwerten sich über sekundenlange Verzögerungen in einigen Spielen, die erstmalig mit den Betas aufgetreten zu sein scheinen.
-Geometric Instancing scheint ausgeschaltet und nicht aktivierbar zu sein.
-Einige berichten von Grafikfehlern bei FarCry (mit SM2.0b), andere von neuerdings gefixten Grafikfehlern in FarCry.
-Auf der ATI-Seite, von der aus sich der Treiber direkt herunterladen läßt, gab es zwei Versionen von diesem, Futuremark linkt nur auf die Seite und nicht direkt auf die Installations-Routine des Treibers, ich frage mich, ob beide Treiber für 3DMark "approved" sind, oder nur einer von ihnen.
-Wenn Futuremark ein "approved" verteilt, sollte doch eigentlich sichergestellt sein, daß der Treiber keine Anwendungs-spezifischen Optimierungen durchführt, denn die Checksumme und den Namen der EXE und die verschiedenen Shader zu ändern dürfte für FM wohl sicher Problem darstellen und gleichzeitig jegliche derartige Cheat-Versuche des gestesteten Treibers verhindern, oder übersehe ich etwas? :O
-Mit folgenden Anwendungen soll zumindest jeweils eine Person verbesserte Performance wahrgenommen haben:
--3DMark 200*
--Aquamark
--Battlefield
--Call of Duty
--Counterstrike Source
--Doom3
--Farcry
--Halo
--Neverwinter Nights
--Quake2
--Quake3
--Return to Castle Wolfenstein
--Rome total War
--Splintercell
--SW: Kotor
--Tribes 5 Demo
--Unreal Tounament 2004
--Warhammer: Dawn of War
--Valve VST
--X2

Gast
2004-09-30, 07:03:19
Mahlzeit: P4c 2,8GHz GF6800GT

FW61.77: 3827
FW66.51: 4543

Die Performance sollte man doch mit anderen Spielen mal nachmessen, die meisten Spiele müsten doch im Schnitt 5-8fps mit dem FW66.51 schneller sein, oder zumindest "Shaderlastige" sollten schneller laufen, wenn nur der 3dmark schneller wurde kann man doch davon ausgehen das was gedreht wurde oder?

Gast
2004-09-30, 07:21:09
wow...der aquamark hat bei mir durch die neuen 4.11er ebenfalls enorm zugelegt...war ja bisher auch ein aushängeschild der nvidia 6er karten...mit meinem 3400+, 1gig, x800xtpe stieg der score von 60000 auf rund 65500 punkte

Gast
2004-09-30, 07:30:24
oha...ohne programme im hintergrund jetz sogar 67500 im aquamark...also profitiert nicht nur der 3dmark05 von den neuen betatreibern...auch in doom3 hab ich knappe 10% mehr frames festgestellt...far cry werd ich mir als nächstes anschaun

Seraf
2004-09-30, 08:11:47
Im neuen beta Catalyst gibts die Schlüssel:
GI_Def "0"
CatalystAI_DEF "1"

Steht das Def für Default dann müssen noch die Schlüssel
GI "1" oder "0" und CatalystAI "1","2" oder "0" zum testen generiert werden.

EL_Mariachi
2004-09-30, 09:24:21
nun die "Diskussion" hier scheint so langsam einzuschlafen obwohl wir eigentlich kein Stück weiter sind ... :ugly:

die neuen Ergebnisse auf X800 Karten sind wirklich beeindruckend ...

Etwas weiter oben ( oder wars in einem anderen Thread :kratz2: ) hat jemand was von "matschige bildquali" beim 4.11b geschrieben!

Kann das jemand bestätigen oder ist auch beim 4.11b die BQ ATI typisch gut?

Kann mal jemand mit diversen GI / AI Settings testen plz?

Demirug
2004-09-30, 09:34:17
Also mit GI braucht ihr nicht zu testen. Der 3DMark05 nutzt kein GI obwohl es da eigentlich schon Anwendungsfälle dafür geben würde.

Was ATI da am Treiber gedreht hat kann ich leider nicht testen weil meine X800 sich dummerweise nicht mit meinem Motherboard verträgt. Ich habe da zwar durchaus eine Idee aber das wird schwer nachzuweisen sein.

BTW: Computerbase wundert sich ja das mit 2.B kein Performancegewinn rauskommt. 2.B bringt allerdings nur bei Shadern was die mit 2.0 zu lang für einen Pass sind. Solche gibt es aber beim 3D Mark nicht. Der Speedgewinn beim SM3 entsteht daher auch durch dynamisches Branching und nicht durch Passreduktion.

BlackBirdSR
2004-09-30, 09:35:24
Ah, mehr Cache. Es könnte doch sein, dass bestimmte Routinen jetzt ganz in den L1 passen.

Der Trace Cache wurde noch nicht vergrößert.
Und der L1 Cache ist zwar jetzt doppelt so groß, hat dafür aber auch doppelt so hohe Latenz.

Ich glaube nicht, dass wir hier eine Situation sehen, die im Alltag oft auftreten wird.

Gast
2004-09-30, 10:08:57
in jedem Fall muss man der Sache auf den Grund gehen. Normal sieht mir das nicht aus. Aber das werden schon einige mit R4xx Karten untersuchen.
Das Thema ist momentan sowieso für die Tonne, da in den nächsten Wochen beide noch diverse Stellen entdecken werden, wo sie drehen können. Erst dann wird man sich beim Optimierungsgrad wohl angenähert haben.

Ich glaube trozdem, dass die ein oder andere Optimierung im Nachhinein betrachtet nicht zulässig sein wird. Das FM irgendwelche Treiber approved hat für mich keine Relevanz. Die haben auch bei Nvidia schon Treiber approved, die irgendwelche tollten Performancesprünge hergezaubert haben.

Was mir am meissten Bauchschmerzen bereitet ist die Tatsache, dass man in der Filterecke eigentlich keine exakt gleichen Bedingungen herstellen kann. FM approved zwar Treiber wegen ganz bestimmter Bewertungskriterien aber wie die einzelnen IHVs das Bild filtern wird dabei nicht berücksichtigt. Hier lässt sich schön Fillrate sparen. Eigentlich müsste FM eine Richtlinie einführen, die Optimierungen in diesem Feld für unzulässig erklären, da die BQ leidet.

HOT@Work
2004-09-30, 10:14:00
Dass die FX Serie so abloost könnte ja daran liegen, dass der Bench volle 32Bit Präzision verlangt, oder liege ich da komplett daneben? Mich überrascht das schlechte Abschneiden auch ein wenig, da dieser Bench ja eigentlich von erweiterter Technologie dank HLSL profitieren sollte. Schneidet die FX Serie beim HLSL M$ Compiler so beschissen ab, oder sind die Effekte und Techniken so komisch gewählt, dass die FXen dabei keine Schnitte haben?

Jesus
2004-09-30, 10:25:24
Mahlzeit: P4c 2,8GHz GF6800GT

FW61.77: 3827
FW66.51: 4543

Die Performance sollte man doch mit anderen Spielen mal nachmessen, die meisten Spiele müsten doch im Schnitt 5-8fps mit dem FW66.51 schneller sein, oder zumindest "Shaderlastige" sollten schneller laufen, wenn nur der 3dmark schneller wurde kann man doch davon ausgehen das was gedreht wurde oder?

Sieht ganz nach nem neuen Wundertreiber aus und riecht verdammt nach Chaet ! :ucrazy3: Das muss untersucht werden! Und die verantwortlichen auf dem Scheiterhaufen verbrannt werden ! :biggrin:

BTW: Computerbase wundert sich ja das mit 2.B kein Performancegewinn rauskommt. 2.B bringt allerdings nur bei Shadern was die mit 2.0 zu lang für einen Pass sind. Solche gibt es aber beim 3D Mark nicht. Der Speedgewinn beim SM3 entsteht daher auch durch dynamisches Branching und nicht durch Passreduktion.

Allerdings sind die 0.2 FPS mehr ( bzw. sogar weniger) durch dynamisches Branching auch nicht gerade der Bringer... ( im Vgl. zu SM2.0b) hier

http://www.ati-news.de/HTML/Berichte/3DMark/05/3DMark05-Seite5.shtml

HOT@Work
2004-09-30, 10:26:16
Razor, du vergleichst überigens Äpfel mit Birnen. Vergleiche den 4.9 mit dem 61.77 und den 4.11b mit den 66.xx Treibern um objektiv zu bleiben. Dort hat nämlich NV auch plötzlich auf wundersame Weise 20% schneller.
Desweiteren müsste man die Theorie mit dem 256MB bug anhand weiterer Spiele mit deaktivierten Optimierungen überprüfen.
Eine höhere CPU Last gleich als Cheat zu deklarieren halte ich für voreilig, erstmal weiter Untersuchen die Sache.

Gast
2004-09-30, 10:32:03
Dass die FX Serie so abloost könnte ja daran liegen, dass der Bench volle 32Bit Präzision verlangt, oder liege ich da komplett daneben? Mich überrascht das schlechte Abschneiden auch ein wenig, da dieser Bench ja eigentlich von erweiterter Technologie dank HLSL profitieren sollte. Schneidet die FX Serie beim HLSL M$ Compiler so beschissen ab, oder sind die Effekte und Techniken so komisch gewählt, dass die FXen dabei keine Schnitte haben?
das mit den 32 bit kan nicht sein, weil die atis dann nicht funzen da sie nur 24 bit können;)

Also ist es das nicht

Gast
2004-09-30, 10:32:31
das mit den 32 bit kan nicht sein, weil die atis dann nicht funzen da sie nur 24 bit können;)

Also ist es das nicht
bzw währe es unfair

StefanV
2004-09-30, 10:35:23
das mit den 32 bit kan nicht sein, weil die atis dann nicht funzen da sie nur 24 bit können;)

Also ist es das nicht
Das ist so nicht korrekt ;)

Borsti-THG
2004-09-30, 10:38:48
Eigentlich ist die CPU-Abhängigkeit durchaus erklärbar, siehe ATI A.I. Whitepaper:

"This technology analyzes individual textures as they are loaded to determine the best and fastest way to display them. The CATALYST A.I. slider, as seen in Figure 1, includes two available settings (Standard and Advanced) which control the choice of algorithms used by the Texture Analyzer. The default standard analysis algorithm is fast and effective, but the more complex advanced algorithm can also be used to achieve even better performance. Since the Advanced algorithm requires more computational overhead, there is a small possibility it may cause a performance reduction in certain applications with frequent texture loads or on slower systems".

Lars - THG

Jesus
2004-09-30, 10:44:26
OT: Kennt jemand die registry einträge fürs AI ( ohne CCC) ? will mal was testen ;)

r@w
2004-09-30, 10:44:42
Razor, du vergleichst überigens Äpfel mit Birnen. Vergleiche den 4.9 mit dem 61.77 und den 4.11b mit den 66.xx Treibern um objektiv zu bleiben. Dort hat nämlich NV auch plötzlich auf wundersame Weise 20% schneller.Wus? 20%? Wo?
:D

Also bei dem Beispiel vom Gast sind's immerhin 15%...
Sollte auch geklärt werden, woran das denn liegt.

Ich vermute einfach mal, dass der Treiber-interne Shader-Compiler noch nicht vernünftig mit dem Murks05 'funktioniert'... was auch immer man darunter verstehen mag... ein Schelm, wer dabei böses denkt.

Desweiteren müsste man die Theorie mit dem 256MB bug anhand weiterer Spiele mit deaktivierten Optimierungen überprüfen.
Eine höhere CPU Last gleich als Cheat zu deklarieren halte ich für voreilig, erstmal weiter Untersuchen die Sache.Es wurde extra darauf hingewiesen, dass das ATI CCC nicht installiert wurde und scheidet somit als Ursache aus. Offenbar muss der Treiber ja die CPU 'beschäftigen', was ebenso offenbar vorher nicht der Fall war. Und dass der neue Treiber die CPU einfach nur nicht so rum-idlen lassen will, damit sie sich nicht 'langweilt' - glaube ich einfach nicht!
;D

Augenscheinlich ist dies auf jeden Fall.
Und wenn ATI nicht selber dazu Stellung nimmt, warum das so ist, müssen sie sich nicht wundern...

Mich würde im übrigen auch interessieren, warum eine X800 mit dem alten Treiber und 2,4GHz ein nahezu gleiches Ergebnis zu einer X800 mit neuem Treiber und 2,4GHz erreicht, obwohl in dem alten Treiber der 'Bug' ja noch gar nicht beseitigt wurde.

Irgend etwas stimmt da überhaupt nicht!

Razor

Demirug
2004-09-30, 10:46:42
Allerdings sind die 0.2 FPS mehr ( bzw. sogar weniger) durch dynamisches Branching auch nicht gerade der Bringer... ( im Vgl. zu SM2.0b) hier

http://www.ati-news.de/HTML/Berichte/3DMark/05/3DMark05-Seite5.shtml

Merkwürdig:

Eigentlich dürfte 2.B gegenüber 2.0 auf einem NV40 überhaupt nichts bringen.

EL_Mariachi
2004-09-30, 10:48:42
Der Trace Cache wurde noch nicht vergrößert.
Und der L1 Cache ist zwar jetzt doppelt so groß, hat dafür aber auch doppelt so hohe Latenz.


das ist schon richtig, allerdings gibt es schon einige anwendungen/spiele die vom doppelten Cache profitieren ...

in Doom3 merkt man den groesseren Cache des Prescotts z.B. schon ... ( finde die Benchmarks grade leider nicht )

in seti ist ein 3 ghz prescott sogar ein ganz klein wenig schneller als ein 3.4 Ghz Northwood!
Es kommt schon sehr stark auf die Applikation an!
Evtl. laufen aber in zukunft neue Games basierend auf der Doom3 Engine auf Prescotts etwas besser als auf Northwoods ;) wäre das schlimm? nö :)


naja reden wir nicht über CPUs ...
finden wir lieber heraus, ob ein Wunder geschehen ist oder nicht ;)

Demirug
2004-09-30, 10:50:18
Eigentlich ist die CPU-Abhängigkeit durchaus erklärbar, siehe ATI A.I. Whitepaper:

"This technology analyzes individual textures as they are loaded to determine the best and fastest way to display them. The CATALYST A.I. slider, as seen in Figure 1, includes two available settings (Standard and Advanced) which control the choice of algorithms used by the Texture Analyzer. The default standard analysis algorithm is fast and effective, but the more complex advanced algorithm can also be used to achieve even better performance. Since the Advanced algorithm requires more computational overhead, there is a small possibility it may cause a performance reduction in certain applications with frequent texture loads or on slower systems".

Lars - THG

Nein, das erklärt es nicht wirklich. Diese Textureanalyse läuft beim erzeugen der Texturen ab. Der 3DMark erzeugt nun aber nur vor dem Benchmarklauf seine Texturen. In der eigentlichen Messschleife sollte es daher zu keiner Textureanalyse mehr kommen.

r@w
2004-09-30, 10:50:33
Eigentlich ist die CPU-Abhängigkeit durchaus erklärbar, siehe ATI A.I. Whitepaper:

"This technology analyzes individual textures as they are loaded to determine the best and fastest way to display them. The CATALYST A.I. slider, as seen in Figure 1, includes two available settings (Standard and Advanced) which control the choice of algorithms used by the Texture Analyzer. The default standard analysis algorithm is fast and effective, but the more complex advanced algorithm can also be used to achieve even better performance. Since the Advanced algorithm requires more computational overhead, there is a small possibility it may cause a performance reduction in certain applications with frequent texture loads or on slower systems".

Lars - THGDu meinst ernsthaft, dass ATI JEDE Textur beim Laden analysiert?
Ist nicht Dein ernst, oder?

Schließlich hat ATI das ja auch schon damals behauptet und ComputerBase (aka q ;-) hat dargelegt, dass dem nicht so ist und der Treiber sogar ganz profan 'optimiert'... nur eben nicht, wenn colored mips aktiviert wurden... ;)

Wie dem auch sei, wie aths ja schon angemerkt hat, müsste man erst einmal feststellen, wo denn überhaupt der Bottleneck beim Murks05 zu sehen ist. Würde das geklärt, dann ließe sich vielleicht auch ein Rückschluß auf die hier beobachteten Merkwürdigkeiten ziehen.

Razor

Jesus
2004-09-30, 10:55:28
Du meinst ernsthaft, dass ATI JEDE Textur beim Laden analysiert?
Ist nicht Dein ernst, oder?


lies was demirug über dir geschrieben hat ...

Demirug
2004-09-30, 10:56:20
Du meinst ernsthaft, dass ATI JEDE Textur beim Laden analysiert?
Ist nicht Dein ernst, oder?

Schließlich hat ATI das ja auch schon damals behauptet und ComputerBase (aka q ;-) hat dargelegt, dass dem nicht so ist und der Treiber sogar ganz profan 'optimiert'... nur eben nicht, wenn colored mips aktiviert wurden... ;)

Wie dem auch sei, wie aths ja schon angemerkt hat, müsste man erst einmal feststellen, wo denn überhaupt der Bottleneck beim Murks05 zu sehen ist. Würde das geklärt, dann ließe sich vielleicht auch ein Rückschluß auf die hier beobachteten Merkwürdigkeiten ziehen.

Razor

Ja, Razor analysiert wird jede Texture. Man muss ja irgendwie die colored mips finden. Das Verfahren ist allerdings recht quick and dirty. Wobei man es mit dem 4.10 schon verbessert haben zu scheint weil der Treiber jetzt auch "spezielle" colored mips erkennt bei denen er vorher versagt hat.

Das kann aber wie schon aufgeführt eigentlich nichts mit der höheren CPU last beim Bench zu tun haben weil die Ladezeiten da normalerweise nicht mit eingehen.

r@w
2004-09-30, 11:00:10
Ja, Razor analysiert wird jede Texture. Man muss ja irgendwie die colored mips finden. Das Verfahren ist allerdings recht quick and dirty. Wobei man es mit dem 4.10 schon verbessert haben zu scheint weil der Treiber jetzt auch "spezielle" colored mips erkennt bei denen er vorher versagt hat.Ah ja... thx4Info!
Und wieder was dazu gelernt...

Das kann aber wie schon aufgeführt eigentlich nichts mit der höheren CPU last beim Bench zu tun haben weil die Ladezeiten da normalerweise nicht mit eingehen.Tjo, dann also weiter im Konzept.

Vielleicht schaffen wir es ja, Dir ein X800-kompatibles Mobo zu organisieren.
Ein Spendenaufruf vielleicht?
:D

Razor

Demirug
2004-09-30, 11:06:35
Tjo, dann also weiter im Konzept.

Vielleicht schaffen wir es ja, Dir ein X800-kompatibles Mobo zu organisieren.
Ein Spendenaufruf vielleicht?
:D

Razor

Ich muss sowieso erst mal die Stellen im 3dmark suchen wo man was sparen kann. Mit dem vielen Render2Texturen und den paar tausend Anweisungen pro Frame dauert sowas aber etwas.

Wobei "extremes Preshaden" mal wieder verlockend aussieht.

MikBach
2004-09-30, 11:09:53
Wus? 20%? Wo?
:D

Also bei dem Beispiel vom Gast sind's immerhin 15%...
Sollte auch geklärt werden, woran das denn liegt.

Ich vermute einfach mal, dass der Treiber-interne Shader-Compiler noch nicht vernünftig mit dem Murks05 'funktioniert'... was auch immer man darunter verstehen mag... ein Schelm, wer dabei böses denkt.
Das ist doch bei ATI bestimmt genauso... ;)
Wenn ATI optimiert(ohne die BQ zu opfern) ist es bei dir Cheat, wenn Nvidia auf einmal 15% schneller ist es eine Optimierung...
Merkst du was?
Mit dir zu diskutieren ist genauso, als ob man einen parteischen Politiker fragen würde, welche Partei man wählen sollte. ;)


Irgend etwas stimmt da überhaupt nicht!

Razor
Solange die BQ stimmt, stimmt für den Gamer alles. ;)
Ich habe nichts gegen Optimierungen die die BQ nicht beeinflussen, weder bei Nvidia noch bei ATI.

Borsti-THG
2004-09-30, 11:12:10
Ja, Razor analysiert wird jede Texture. Man muss ja irgendwie die colored mips finden. Das Verfahren ist allerdings recht quick and dirty. Wobei man es mit dem 4.10 schon verbessert haben zu scheint weil der Treiber jetzt auch "spezielle" colored mips erkennt bei denen er vorher versagt hat.

Das kann aber wie schon aufgeführt eigentlich nichts mit der höheren CPU last beim Bench zu tun haben weil die Ladezeiten da normalerweise nicht mit eingehen.

Seit Einführung von A.I. gibt es nun zwei Settings, die unterschiedlich analysieren. Wenn dem so ist, sollte es einen Performance-Unterschied zwischen beiden bei unterschiedlichen CPUs geben. Verwunderlich ist, dass die PCIe Modelle vorher schon etwas schneller waren und trotzdem vom 8.07 profitieren.

Lars - THG

[WEISSBIER]Moff
2004-09-30, 11:14:14
Die Leistungsgewinne auf beiden Seiten, die mit den Beta-Treibern schon wieder erzielt werden lassen eigentlich nur ein vernünftiges Vorgehen zu: Den 3DMurks runterladen, einmal anschauen und über die Grafik freuen ... dann wieder deinstallieren und Benches mit Timedemos echter Spiele fahren!!!

Jesus
2004-09-30, 11:27:15
so ich hab mir jetzt auch mal den berüchtigten Cat 4.11 beta gesaugt:

CAT4.9:

2424 3dmarks
3699 CPU Score


Cat 4.11beta (A64@ 2.0GHz):

2498 3dmarks
3732 CPU Score


Cat 4.11beta (A64@ 1.25GHz = 125 Mhz x 10 ):

2339 3dmarks
2296 CPU Score

von CPU abhängigkeit (so gut wie) keine Spur. zumindest auf einem r350 ( und einem AMD System, wie viele andere vorher auch ... ).

EDIT: Aber cool, ein 1,25Ghz A64 ist fast so schnell wie ein 2,5 GHz Pentium 4 :)

Demirug
2004-09-30, 11:39:16
Seit Einführung von A.I. gibt es nun zwei Settings, die unterschiedlich analysieren. Wenn dem so ist, sollte es einen Performance-Unterschied zwischen beiden bei unterschiedlichen CPUs geben. Verwunderlich ist, dass die PCIe Modelle vorher schon etwas schneller waren und trotzdem vom 8.07 profitieren.

Lars - THG

Die zwei Stufen habe ich auch gesehen. Da die X800 leider in dem dämlichen Motherboard nicht will bin ich leider noch nicht dazu gekommen die vollmündigen Aussagen von ATI vollständig zu überprüfen.

Gefärbte Mips erkennt der Treiber aber immer noch. Vielliecht sollte man mal mit diesen den Bench laufen lassen.

Wenn ATI was an den Shader dreht ist es nicht verwunderlich wenn alle Karten zulegen.

Jesus
2004-09-30, 11:40:27
Wenn ATI was an den Shader dreht ist es nicht verwunderlich wenn alle Karten zulegen.

siehe benchmarks oben ... Cat 4.11 mit default ( =1 ? ) einstellungen.
(Weiss leider noch immer nicht wie man AI in der Registry ändert)

StefanV
2004-09-30, 11:45:56
Öhm, Demi, schon mein Posting gelesen? ;)
http://forum-3dcenter.de/vbulletin/showpost.php?p=2291611&postcount=6

Hast du noch irgendwo 'ne alte PCI GraKa??
Sowas wie 'ne S3 Vision 868 oder Trio32??

Gast
2004-09-30, 11:55:58
Mich würde im übrigen auch interessieren, warum eine X800 mit dem alten Treiber und 2,4GHz ein nahezu gleiches Ergebnis zu einer X800 mit neuem Treiber und 2,4GHz erreicht, obwohl in dem alten Treiber der 'Bug' ja noch gar nicht beseitigt wurde.

Irgend etwas stimmt da überhaupt nicht!

Razor

Beim 4.9 Graka Limitierung, beim 4.11beta CPU limitierung die so ziemlich genau beim 2.4 die selben Resultate bringt?
Interessant waere es folgende Skalierungen zu sehen:
4.9 + 4.11beta auf 1,6 -> falls 4.9 schneller erledigt die CPU beim 11er etliche Dinge die (evtl) nicht sollte
4.11 beta auf 3,4 3,6 3,8 um mal zu sehen wieweit der 11er weiterskaliert.
Komischerweise [b]scheint[b/] es auf AMD ja keine CPU Skalierung zu geben (SSE3? -> Gegentest auf Northwood?)

Jesus
2004-09-30, 12:02:13
UPDATE

Hab eben alle CatalystAI_DEF Einträge in der Registry von 1 auf 0 gestellt, das heisst deaktiviert, jetzt:

3dmark Score: 2507
CPU Score: 3755


D.h. mit deaktiviertem AI höheren Score als vorher ( was auch von diversen Benchmarken bestätigt worden ist im Vorfeld, nämlich das AI oft genau das gegenteil bewirken kann !)

Tjell
2004-09-30, 12:10:12
UPDATE

Hab eben alle CatalystAI_DEF Einträge in der Registry von 1 auf 0 gestellt, das heisst deaktiviert, jetzt:

3dmark Score: 2507
CPU Score: 3755


D.h. mit deaktiviertem AI höheren Score als vorher ( was auch von diversen Benchmarken bestätigt worden ist im Vorfeld, nämlich das AI oft genau das gegenteil bewirken kann !)
Ich weiß nicht, inwiefern das unter Meßungenauigkeit fällt, aber Deine CPU-Score hat zugelegt... :|

Jesus
2004-09-30, 12:12:53
Ich weiß nicht, inwiefern das unter Meßungenauigkeit fällt, aber Deine CPU-Score hat zugelegt... :|

um ganze 23 punkte ;) naja beides scheint wohl eher im Rahmen der Messungeauigkeit zu leigen. Allerdings bringt AI wohl rein gar nichts, eher im Gegenteil (in diesem Fall)

Tjell
2004-09-30, 12:18:35
um ganze 23 punkte ;) naja beides scheint wohl eher im Rahmen der Messungeauigkeit zu leigen. Allerdings bringt AI wohl rein gar nichts, eher im Gegenteil (in diesem Fall)
Du willst Dir nicht zufällig eine X800er zulegen, um zu sehen, wie es sich bei der Karte darstellt? :D

Im Übrigen wünsche ich mir mittlerweile, ich wüßte von den "Bugbeseitungen, Optimierungen, Cheats, Shaderreplacements usw." garnichts, denn so werde ich immer mehr gefrustet, weil man nicht weiß, welchem Braten man noch trauen kann. Eigentlich garkeinem. :(

Jesus
2004-09-30, 12:19:51
Du willst Dir nicht zufällig eine X800er zulegen, um zu sehen, wie es sich bei der Karte darstellt? :D(

nicht wirklich ;) werde wohl eher auf die nächste Generation warten, denn im Moment gibts eigentlich keinen Grund (und kein Geld) aufzurüsten weil alles noch gut läuft ( mal vom 3dmark abgesehen ;) )

aths
2004-09-30, 12:21:24
ATI sagte dass ein Problem mit 256 MB Boards gefixt wurde. Alle Anwendungen, die so viel Framebuffer gebrauchen, sollten vom neuen Treiber profitieren. Die CPU-Skalierung würde nur bei Intel P4-Systeme auftreten, nicht beim AMD A64. Warum das so ist, erstaunt ATI selbst, dies wird derzeit untersucht.

Die GI-These kann man damit wohl zu den Akten legen.

Seraf
2004-09-30, 12:24:04
UPDATE

Hab eben alle CatalystAI_DEF Einträge in der Registry von 1 auf 0 gestellt, das heisst deaktiviert, jetzt:

3dmark Score: 2507
CPU Score: 3755


D.h. mit deaktiviertem AI höheren Score als vorher ( was auch von diversen Benchmarken bestätigt worden ist im Vorfeld, nämlich das AI oft genau das gegenteil bewirken kann !)

Das ist doch Messungenauigkeit!
Die Registryschlüssel mit _DEF am Ende haben keine Bedeutung.
Wenn ich alternatives Pixelzentrum aktiviere siehts nämlich nichtmehr so aus


Pixelcenter "0"
Pixelcenter_DEF "0"


sondern so aus

Pixelcenter "1"
Pixelcenter_DEF "0"


Am besten du erstellst einen neuen Schlüssel damit es so aussieht:

GI "1"
GI_DEF "0"
CatalystAI "0"
CatalystAI_DEF "1"


Dann sollte GI oder wie du es nennst OI wieder funzen.
Natürlich mußt du wahrscheinlich einmal neu starten oder die Auflösung wechseln damit der Treiber die Einstellungen übernimmt.

Jesus
2004-09-30, 12:25:43
ATI sagte dass ein Problem mit 256 MB Boards gefixt wurde. Alle Anwendungen, die so viel Framebuffer gebrauchen, sollten vom neuen Treiber profitieren. Die CPU-Skalierung würde nur bei Intel P4-Systeme auftreten, nicht beim AMD A64. Warum das so ist, erstaunt ATI selbst, dies wird derzeit untersucht.

Die GI-These kann man damit wohl zu den Akten legen.

Vielleicht im Zsh. mit 256 MB Graka Speicher und dem Hypertransport Bus bzw onboard Speichercontroller der ja immer gleich schnell läuft und so die Daten schneller bzw gleich schnell in die Karten schaufeln kann ? CMIIMW...

Jesus
2004-09-30, 12:28:24
@seraf:

Es gibt keinen eintrag mit 'CatalystAI' in der Registry, nur ungefähr 10 mit 'CatalystAI_DEF', alle hab ich auf 0 gesetzt.
( Das Stand so im ATI Forum .. )

Demirug
2004-09-30, 12:37:55
ATI sagte dass ein Problem mit 256 MB Boards gefixt wurde. Alle Anwendungen, die so viel Framebuffer gebrauchen, sollten vom neuen Treiber profitieren. Die CPU-Skalierung würde nur bei Intel P4-Systeme auftreten, nicht beim AMD A64. Warum das so ist, erstaunt ATI selbst, dies wird derzeit untersucht.

Die GI-These kann man damit wohl zu den Akten legen.

Eine GI-These war schon von Anfang an unbrauchbar weil der 3dmark kein GI benutzt.

Vielliecht sollte man bei P4 mal HTT ausschalten und prüfen ob es dann auch noch eine CPU-Skalierung gibt. Möglicherweise blockieren sich da ein paar Threads gegenseitig.

deekey777
2004-09-30, 12:42:58
@seraf:

Es gibt keinen eintrag mit 'CatalystAI' in der Registry, nur ungefähr 10 mit 'CatalystAI_DEF', alle hab ich auf 0 gesetzt.
( Das Stand so im ATI Forum .. )


10x? Da hast du wohl öfters de- und neuinstalliert? :biggrin:

Es würde mich nicht wundern, wenn es in Kürze einen weiteren Treiber von nVidia gibt, der das gleiche Ergebnis und die gleiche Wirkung zeigt wie 8.07 von ATi - und das mit FM approved Gütesiegel.
Und der 3D 2005 zeige dann die Leitung des gesamten Systems - abhängig von allen Komponenten.


€: Schon mit dem 66.29 getestet???

Jesus
2004-09-30, 12:44:15
10x? Da hast du wohl öfters de- und neuinstalliert? :biggrin:


Eigentlich nicht, habe nur vorhin einmal den 4.11 b installiert ( und nicht mehr deinstalliert ). Vielleicht war der Eintrag ja schon vom CCC drauf, das hab ich nämlich wieder deinstalliert :)

Seraf
2004-09-30, 12:45:29
@seraf:

Es gibt keinen eintrag mit 'CatalystAI' in der Registry, nur ungefähr 10 mit 'CatalystAI_DEF', alle hab ich auf 0 gesetzt.
( Das Stand so im ATI Forum .. )

Dann erstell doch mal eine neue Zeichenfolge.
Ich glaube das erst das kommende CCC die Einträge in die Registry schreiben wird.

_DEF hat soviel ich weiß überhaupt keine Wirkung. Ob es nun TextureOpt_DEF TextureLod_DEF TruformMode_DEF AnisoDegree_DEF oder AnisoType_DEF. Immer hat nur der Key ohne _DEF was zu sagen.

r@w
2004-09-30, 12:49:11
Wobei "extremes Preshaden" mal wieder verlockend aussieht.Könnte glatt eine neue Sportart werden: "Extreme Preshading"
:D

Razor

r@w
2004-09-30, 12:55:47
so ich hab mir jetzt auch mal den berüchtigten Cat 4.11 beta gesaugt:
<schipp>
von CPU abhängigkeit (so gut wie) keine Spur. zumindest auf einem r350 ( und einem AMD System, wie viele andere vorher auch ... ).Und wieder ein 'Beleg', dass die R3x0 offenbar nicht profitieren...
Hast allerdings auch 'ne 128MB-Karte.
(was für die 'Erklärung' ATIs sprechen würde)

Razor

Jesus
2004-09-30, 12:59:03
Und wieder ein 'Beleg', dass die R3x0 offenbar nicht profitieren...
Hast allerdings auch 'ne 128MB-Karte.
(was für die 'Erklärung' ATIs sprechen würde)

Razor

aber was Aths oben geschrieben hat hast du gelesen oder ? Dann erklär mir mal wieso ATI´s "Cheat" nur auf Pentiums CPU abhängig ist und nicht auf A64 ? (womit deine komplette Argumentation fürn A**** ist, vom Threadbeginn an)

r@w
2004-09-30, 13:08:08
aber was Aths oben geschrieben hat hast du gelesen oder ? Dann erklär mir mal wieso ATI´s "Cheat" nur auf Pentiums CPU abhängig ist und nicht auf A64 ?Und Du hast offenbar Demirugs Kommentar dazu verpaßt.
Und wenn ATI bestimmte SSE3-Funktionen benutzt, um - was auch immer - zu 'treiben', ist das Thema noch lange nicht vom Tisch. Auch hat ATI schon immer 'viel' erzählt... so von wegen: "Ich weiß von nix!"
;)

Razor

tRpii
2004-09-30, 13:13:48
Und wieder ein 'Beleg', dass die R3x0 offenbar nicht profitieren...
Hast allerdings auch 'ne 128MB-Karte.
(was für die 'Erklärung' ATIs sprechen würde)

Razor

Ich habs gestern getestet und es war auch nicht anders als bei Jesus, und nun?

Seraf
2004-09-30, 13:17:40
Jesus probiers mal aus...
Der von mir genannte Key funzt anscheinend.
Habs gerade in UT2003 getestet. AI scheint ja wirklich nicht schlimm zu sein :D
Ist UT03 auch im Flyby CPU limitiert? (Oder liegts am Nordwald?) Würde ja das abfallen bei A.I. = 2 erklären.

UT2003 1024*768 1*AA 1*AF auf R9800pro Cat4.11b:

A.I. "0" Flyby: 205,24 Botmatch: 67,17
A.I. "1" Flyby: 202,07 Botmatch: 66,68
A.I. "2" Flyby: 193,12 Botmatch: 65,83

Jesus
2004-09-30, 13:21:50
Und Du hast offenbar Demirugs Kommentar dazu verpaßt.
Und wenn ATI bestimmte SSE3-Funktionen benutzt, um - was auch immer - zu 'treiben', ist das Thema noch lange nicht vom Tisch. Auch hat ATI schon immer 'viel' erzählt... so von wegen: "Ich weiß von nix!"
;)

Razor

Ja hab ich(gelesen), aber das hat überhaupt nichts mit SSE3 zu tun. Er schreibt was vom Hyperthreading und dass sich mglw. ein paar Threads blockieren, aber du scheints ja immer wieder was neues erfinden zu müssen um die sinnlose Diskussion aufrecht zu erhalten.


@ Seraf:

Hab jetzt mal den RegKey erstellt für CatalystAI (und auf 0) und den _DEF key wieder auf 1 gesetzt ( und den REchner nochmal neu gestartet ):

2495 3dmarks
3798 CPU marks

keine änderung.

Seraf
2004-09-30, 13:24:49
Ja hab ich, aber das hat überhaupt nichts mit SSE3 zu tun. Er schreibt was vom Hyperthreading und dass sich mglw. ein paar Threads blockieren, aber du scheints ja immer wieder was neues erfinden zu müssen um die sinnlose Diskussion aufrecht zu erhalten.


@ Seraf:

Hab jetzt mal den RegKey erstellt für CatalystAI (und auf 0) und den _DEF key wieder auf 1 gesetzt:

2495 3dmarks
3798 CPU marks

keine änderung.

Naja dann hat ATI entweder eine feste oder garkeine Optimierung für 3DMArk05 :D
Vielleicht hats ATI ja wirklich geschafft das letzte Quäntchen aus der Karte zu holen obwohl ich mir das immer noch nicht richtig vorstellen kann.

Jesus
2004-09-30, 13:29:19
ich teste mal eben noch mit CAT AI auf 2 ( high)

aber wies aussieht glaube ich ATI erstmal ( besserung nur für 256mb karten, wie man auch sieht). :rolleyes:

EDIT:
so CatalystAI auf High:

2513 3dmarks
3704 CPU


*dass die CPU jetzt wieder etwas niedriger ist mag daran liegen dass ich C&Q wieder aktiviert habe

Seraf
2004-09-30, 13:36:57
Jesus kannst du FarCry mal testen ob es schneller mit aktiviertem GI Registry Key läuft?

Jesus
2004-09-30, 13:43:37
Jesus kannst du FarCry mal testen ob es schneller mit aktiviertem GI Registry Key läuft?

hab leider weder ein Benachmarkprog für FC, noch weiss ich meine Scores davon vor dem 4.11er ;)

r@w
2004-09-30, 13:45:58
Ja hab ich(gelesen), aber das hat überhaupt nichts mit SSE3 zu tun. Er schreibt was vom Hyperthreading und dass sich mglw. ein paar Threads blockieren, ...Es könnte entweder was mit HTT (Demirug), oder mit SSE3 (weiß nicht mehr, wer das geschrieben hat) zu tun haben.

Jetzt verstanden?
:confused:

Und versuche Dich bitte etwas verträglicher auszudrücken.
Oder soll ich Dich vielleicht mal richtig anfahren?
Glaube mir, dass kann ich auch sehr gut...

Razor

Jesus
2004-09-30, 13:47:21
Es könnte entweder was mit HTT (Demirug), oder mit SSE3 (weiß nicht mehr, wer das geschrieben hat) zu tun haben.

Jetzt verstanden?
:confused:

Und versuche Dich bitte etwas verträglicher auszudrücken.
Oder soll ich Dich vielleicht mal richtig anfahren?
Glaube mir, dass kann ich auch sehr gut...

Razor

Das tust du doch schon die ganze Zeit. Als Gast ist das ja auch sehr einfach ...

EDIT:

hier nochmal die Einstellungen in der Registry:
http://nemesis.rushers.net/Unbenannt1.png

r@w
2004-09-30, 13:48:52
Das tust du doch schon die ganze Zeit. Als Gast ist das ja auch sehr einfach ...Nein, tue ich nicht.
Auch möchte ich mein (aktives) Account hier nicht ewinbüßen.

Razor

aths
2004-09-30, 13:53:05
Nein, tue ich nicht.
Auch möchte ich mein (aktives) Account hier nicht ewinbüßen.

RazorAuch wenn mal als Gast schreibt kann man auf seinen echten Account Punkte kriegen.

chrisihamm
2004-09-30, 13:53:10
Ist ja merkwürdig,das die fx karten so zulegen können,wenn man ps2.a aktiviert anstatt ps2.0!!!!Der Benchmark ist doch der letzte Müll,im3Dmark05 Ergebnisse tread hat einer einen A1400Mhz und ne G4Ti4200 mit 1452Punkten im 3d Teil und sagenhafte 7000Punkte im Cpu Teil!!!!!

http://service.futuremark.com/compare?3dm05=28438


mfg

deekey777
2004-09-30, 13:55:33
Auch wenn mal als Gast schreibt kann man auf seinen echten Account Punkte kriegen.


Und das auch doppelt??? :|

Crushinator
2004-09-30, 14:16:33
Wenn man sich nicht zu erkennen gibt, ja, ansonsten wird normal bepunktet. Nun aber Schluß mit OT, danke. :)

deekey777
2004-09-30, 14:29:47
@Jesus:
CatalystAI Eintrag findest du noch unter Class. :wink:

Ich habe bei mir alle AI Einträge auf 0 eingestellt:
2304 zu 2356 (gleiche Einstellungen) - die Null gewinnt. :biggrin:

€€€: Wichtiger - die CPU:
2387 CPUMarks zu 2296 CPUMarks - die Null verliert.

Und mein aktuelles Ergebnis@60 Hz&der Null:
3DMark Score 2365 3DMarks & CPU Score 2356 CPUMarks
3D 2005 hat 'ne Macke!!!


Na, hat jemand schon ausgiebig mit 66.29 getestet?

Seraf
2004-09-30, 14:37:31
Noch ein paar UT2003 Werte!


Legende
A.I. "0" = off
A.I. "1" = low
A.I. "2" = high



UT2003 auf R9800pro Cat4.11b:

1024*768 1*AA 1*AF

A.I. "0" Flyby: 205,24 ,Botmatch: 67,17
A.I. "1" Flyby: 202,07 ,Botmatch: 66,68
A.I. "2" Flyby: 193,12 ,Botmatch: 65,83


1024*768 1*AA 16*CP-AF

A.I. "0" Flyby: 160,60 ,Botmatch: 67,16
A.I. "1" Flyby: 159,31 ,Botmatch: 66,60
A.I. "2" Flyby: 165,46 ,Botmatch: 65,98


Jetzt wirds aber krass. 4*AA mit 8*AF über rtool geforced.
Anscheinend schmeckt AI triAF über alle Stages. Kann man wohl mehr optimieren. :ugly:

1024*768 4*AA 8*APP-AF

A.I. "0" Flyby: 103,96 ,Botmatch: 64,89
A.I. "1" Flyby: 127,28 ,Botmatch: 65,90
A.I. "2" Flyby: 130,18 ,Botmatch: 65,56

Ich hab extra AI "0" ein paar mal nachgemessen.
Eine Steigerung um 27fps oder um ~30% im Flyby ist schon lustig :D

CB|Chris
2004-09-30, 14:58:45
So, habe eben mal den ganzen Thread durchgelesen - hui... :)

So, zum Thema:

Undzwar habe ich diese CPU-Abhängigkeit auch nur auf meinem P4 EE 3,4 GHz finden können. Habe dann mit ATi über diese Sache gesprochen und sie waren selber drüber erstaunt. Deren Ingenieure konnten diese Sache auch auf ihren P4-Systemen nachvollziehen. Danach schnappte ich mir nochmal einen Athlon 64 FX und testete das ganze dort mit dem 8.07er-Treiber. Von einer größeren CPU-Bleastung keine Spur.

Ich glaube auch, dass es sich bei den Performancezuwächsen durch den neuen ATI-Treiber nicht um einen "Cheat" (vorsicht mit diesem Wort!) handelt. Hier wirken wohl vielmehr die Behebung des 256-MB-Bugs bei AGP-Karten und einige allgemeine Verbesserungen zusammen. Doom 3 gewinnt mit dem 4.11er ja auch an Performance, und ist - bekanntlich - ja auch recht Video-RAM-Intensiv. Dass ATi-Karten schneller sein können, haben ja meine Messungen auf einem PCI-Express-Board ergeben. Hier erreichte eine X800 XT (500/500) mit Catalyst 4.9 schon knapp 5000 Punkte, während die XT PE auf AGP nur 4500 schaffte (gleiche CPU). Da konnte also etwas nicht richtig sein...

Btw, vielen Dank für das Lob für meinen Artikel :) Hat mich einige schlaflose Nächte gekostet...


Christoph - ComputerBase

HOT
2004-09-30, 15:26:00
Wus? 20%? Wo?
:D

Also bei dem Beispiel vom Gast sind's immerhin 15%...
Sollte auch geklärt werden, woran das denn liegt.



Ich vermute einfach mal, dass der Treiber-interne Shader-Compiler noch nicht vernünftig mit dem Murks05 'funktioniert'... was auch immer man darunter verstehen mag... ein Schelm, wer dabei böses denkt.


vermutung <> Klarheit. Wenn auch NV solche Geschwindigkeitsteigureungen zustandebringt, in exakt dem gleichen Zeitrahmen wie ATI überigens, heisst das auch nicht unbedingt, dass hier gecheatet wurde. Das einzige Zweifelhafte bei der Sache ist die CPU-Abhängigkeit, sonst nichts.


Es wurde extra darauf hingewiesen, dass das ATI CCC nicht installiert wurde und scheidet somit als Ursache aus. Offenbar muss der Treiber ja die CPU 'beschäftigen', was ebenso offenbar vorher nicht der Fall war. Und dass der neue Treiber die CPU einfach nur nicht so rum-idlen lassen will, damit sie sich nicht 'langweilt' - glaube ich einfach nicht!
;D

Augenscheinlich ist dies auf jeden Fall.
Und wenn ATI nicht selber dazu Stellung nimmt, warum das so ist, müssen sie sich nicht wundern...

Mich würde im übrigen auch interessieren, warum eine X800 mit dem alten Treiber und 2,4GHz ein nahezu gleiches Ergebnis zu einer X800 mit neuem Treiber und 2,4GHz erreicht, obwohl in dem alten Treiber der 'Bug' ja noch gar nicht beseitigt wurde.

Irgend etwas stimmt da überhaupt nicht!

Razor

Dieses Sache ist in der Tat zweifelhaft, aber die Ursache ist bisher nicht ergründet. Du kannst ATI erst des Cheatens bezichtigen, wenn du überhaupt weiss ob das überhaupt ein Cheat ist ;) bisher hast du keine schlüssige Begründung dafür geliefert.

Raver
2004-09-30, 16:28:47
Ist ja merkwürdig,das die fx karten so zulegen können,wenn man ps2.a aktiviert anstatt ps2.0!!!!Der Benchmark ist doch der letzte Müll,im3Dmark05 Ergebnisse tread hat einer einen A1400Mhz und ne G4Ti4200 mit 1452Punkten im 3d Teil und sagenhafte 7000Punkte im Cpu Teil!!!!!

http://service.futuremark.com/compare?3dm05=28438


mfg

das ist doch dreck...ich schaffe mit meiner 6600GT "nur" 3062 in high quality und alle optimieeungen aus. das der mit einer 5900xt schneller sein soll..???

evtl. ein bug.?

BUG
2004-09-30, 16:31:25
das ist doch dreck...ich schaffe mit meiner 6600GT "nur" 3062 in high quality und alle optimieeungen aus. das der mit einer 5900xt schneller sein soll..???

evtl. ein bug.?
..klar is das nen bug, schau doch mal in die "Description". ;)

cu
BUG

seahawk
2004-09-30, 17:16:07
ATI sagte dass ein Problem mit 256 MB Boards gefixt wurde. Alle Anwendungen, die so viel Framebuffer gebrauchen, sollten vom neuen Treiber profitieren. Die CPU-Skalierung würde nur bei Intel P4-Systeme auftreten, nicht beim AMD A64. Warum das so ist, erstaunt ATI selbst, dies wird derzeit untersucht.

Die GI-These kann man damit wohl zu den Akten legen.

Und wenn man mit diesem Treiber mal nicht nur den 3DMark benchen wird, dann wird man auch in anderen Anwendungen erhebliche Gewinne feststellen.

seahawk
2004-09-30, 17:17:16
Und wieder ein 'Beleg', dass die R3x0 offenbar nicht profitieren...
Hast allerdings auch 'ne 128MB-Karte.
(was für die 'Erklärung' ATIs sprechen würde)

Razor

Das Problem bestand bei der alten Generation auch bei den 256MB-Karten nicht.

FPSn00b
2004-09-30, 17:50:02
Das Problem bestand bei der alten Generation auch bei den 266MB-Karten nicht.
Wer sagt das? - Z.B. "Zardon" hat im Driverheaven.net-Forum etwas Gegenteiliges geschrieben...

Raver
2004-09-30, 18:56:08
..klar is das nen bug, schau doch mal in die "Description". ;)

cu
BUG

du muss es ja wissen. :D ;)

Gast
2004-09-30, 19:28:19
Da Futuremark den Beta-Treiber zugelassen hat, gehe ich für meinen Teil nicht von einem Cheat-Treiber aus. Vielmehr halte ich die These von "The Inquirer" für durchaus plausibel, welche denn besagt, daß die Performance des X800 wohl bewußt eingeschränkt wurde, um dem NV40 ab Release 3dk05 die Schranken aufzuzeigen. Ähnlich verlief es ja einst mit dem DetonatorXP 20.81....

Hauwech
2004-09-30, 20:18:16
Da Futuremark den Beta-Treiber zugelassen hat, gehe ich für meinen Teil nicht von einem Cheat-Treiber aus. Vielmehr halte ich die These von "The Inquirer" für durchaus plausibel, welche denn besagt, daß die Performance des X800 wohl bewußt eingeschränkt wurde, um dem NV40 ab Release 3dk05 die Schranken aufzuzeigen. Ähnlich verlief es ja einst mit dem DetonatorXP 20.81....

Hmm macht irgendwie keinen Sinn. Damals wurde ja auf den Chip vom Wettbewerb gewartet und dann die Hosen runtergelassen. In diesem Fall ist der NV40 schon früher rausgekommen, warum sollte man durch Warten auf einen synthetischen Benchmark Käufer an den Wettbewerb verlieren?
Weihnachten ist zwar nicht mehr fern aber durch Testberichte, Mund-zu-Mund Propaganda und vielleicht sogar Packungsaufdrucke kann man schon von Anfang an potentielle Käufer auf seine Seite ziehen.

Kein Flame aber seit wann gibt es von ATI 256MB Karten? Und erst jetzt ein Bugfix? Hmmm

Gast
2004-09-30, 20:34:08
Kein Flame aber seit wann gibt es von ATI 256MB Karten? Und erst jetzt ein Bugfix? Hmmm

An einen Bugfix@256MB VRam möchte ich aber nicht so recht glauben - eher, daß der Bug bereits zu R360-Zeiten bekannt war und dies aus marketingtechnischen Gründen bewußt zurückgehalten wurde, da ja der NV38 relativ gut in Schach gehalten werden konnte. Das insbesondere der X800 von diesem Fixing profitiert dürfte imo auf Grund der Specs klar sein. Und wie du schon sagtest: Weihnachten steht vor der Tür und erst dann wird Kohle gemacht, da vermutlich dann auch ausreichend viele XT_PE´s - als auch 6800 Ultra-Chips zur Verfügung stehen werden.

Gast
2004-09-30, 20:45:05
also allein der 256MB-fix kann nicht für den performanceanstieg des 4.11beta verantwortlich sein, da ich eine 128MB 9800Pro habe (mit R360), und bei exakt gleichen bedingungen wie bisher habe ich in Doom3 z.b. satte 5+ frames mehr, und bei FarCry sind´s auch 3-4 fps mehr, und die spiele fühlen sich auch ein stück smoother an (ja, die wenigen fps sind spürbar in diesem fall, da beide spiele mit meinen settings knapp über 30 (FarCry pier), bzw. knappe 40fps (Doom3 demo1) laufen, also sind auch fps-zuwächse von 3-5 fps unter diesen umständen spürbar) getestet habe ich mit CatalystAI auf 0, es scheint aber keinen unterschied zu machen. nicht schlecht also für einen treiber, der sich weder mit verbessertem opengl, noch mit GI oder sonstigem lobt (wie frühere Catalyst betas), sondern nur mit einem speicherverwaltungsfix für 256MB karten; woher kommt dann der performancesprung selbst auf 128MB karten mit chips aus der vorgängergeneration ? meine meinung ist daß CatalystAI standardmäßig aktiv ist, und weiterhin aktiv bleibt selbst wenn der wert auf 0 gesetzt wird, denn anders kann ich mir das nicht erklären.

BodyLove
2004-09-30, 20:49:57
Ist doch wohl offensichtlich, was da passiert, oder?

Der Prozessortakt wird von 3,4GHz auf 2,4GhZ gesenkt (-29%) und die Radeon verliert ausschließlich (!) mit dem neuen 'Wundertreiber' mal eben 12% Leistung. Würde man den Takt noch weiter absenken, dürfte der Unterschied sogar noch größer werden...

ATI wird halt (illegaler weise ;-) einen Teil der GPU-Last auf die CPU abwälzen und so Performance schinden.

Warum ein solcher Treiber von FM freigegenben wurde?
Das wird wohl nur FM beantworten können...

Und es zu präzisieren: ganz klar ein Cheat !
Vermutlich sieht ATI langsam seine Fälle wegschwimmen...

Razor

P.S.: Ich vermute mal, dass der "Perfromance-Vorteil" des neuen Treibers bei ATI so bei 2Ghz zu 3,4Ghz verschwinden wird. Ist halt 'schön', wenn die CPU voll genutzt werden kann, wenn man weiß, dass diese nicht mit so etwas unnützem wie KI oder ähnlichem beschäftigt ist... ;)

Razor, Christoph von CB hat gesagt, dass dieses Phänomen nur mit Intel Prozessoren auftritt, nicht aber mit dem von AMD...

seahawk
2004-09-30, 21:20:08
Auch eine 128MB Karte kann durchaus von einer Optimierung der Nutzung des Speichers bzw. des Controllers erheblich profitieren. Ich halte diese Erklärung für sehr wahrscheinlich, da die X800 Serie bisher im Vergleich zur Taktung / Füllrate schwach performant war.

Ein Cheat kann es nicht sein, da Futuremark den Treiber frei gibt.

Demirug
2004-09-30, 21:28:25
Auch eine 128MB Karte kann durchaus von einer Optimierung der Nutzung des Speichers bzw. des Controllers erheblich profitieren. Ich halte diese Erklärung für sehr wahrscheinlich, da die X800 Serie bisher im Vergleich zur Taktung / Füllrate schwach performant war.

Ein Cheat kann es nicht sein, da Futuremark den Treiber frei gibt.

... und der Osterhase versteckt die Eier?

Die Jungs bei ATI und nVidia lernen ja auch dazu. Es ist wird immer komplizierter Cheats zu entdecken.

seahawk
2004-09-30, 21:31:32
Es geht mir gar nicht um technische Änderungen im Treiber. Wenn Futuremark den Treiber freigibt, dann ist es kein Cheat.

Wer die Leistung von Grafikkarten über den §dMark mißt, der ist selber Schuld.

Demirug
2004-09-30, 21:37:47
Es geht mir gar nicht um technische Änderungen im Treiber. Wenn Futuremark den Treiber freigibt, dann ist es kein Cheat.

Wer die Leistung von Grafikkarten über den §dMark mißt, der ist selber Schuld.

Das sowieso.

Aber jetzt ist mir klar wie es gemeint war. Unabhängig davon was nVidia und ATI da treiben solange FM den Treiber freigibt sind die Punkte gültig und der Treiber ist für FM cheatfrei.

mapel110
2004-09-30, 21:40:27
gibts irgendwo eigentlich benchmarks mit eingefärbten mipmaps (ATI-Grakas im 3dmark05)?

FPSn00b
2004-09-30, 21:55:55
Mmh? - Es gibt doch die "Color Mipmaps"-Option im 3DMark05:
The Color mipmaps check box colors mipmaps red, green and blue. Mipmaps allow textures to be decreased in resolution if they are further away from the camera, thus saving GPU processing power and reducing annoying flickering of sub-pixel texels. Colering mipmaps produces a samewhat distorted rendering, but it is a useful feature for inspecting texture filtering quality. The full size textures are not colored.Hab`s nicht getestet, aber das sollte doch funzen?

Gast
2004-09-30, 22:19:30
... und der Osterhase versteckt die Eier?

Die Jungs bei ATI und nVidia lernen ja auch dazu. Es ist wird immer komplizierter Cheats zu entdecken.

Neudefinition von Zweckpessimismus? Ich kann mich nicht erinnern, daß jemals so spezifisch nach Cheats in performanten Treibern gesucht wurde, wie es derzeit der Fall ist. Wenn die BQ nicht drunter leidet - bitte schön, kann uns doch imo nur recht sein. Von dem her fand ich den "Cheat" seitens NV in Bezug auf Doof3 weniger tragisch, als viel mehr willkommen. Ich möchte nicht wissen, wie noch zu Voodoo5, Geforce1+2 gecheatet wurde (die Radeon 64 lasse ich hier mal außen vor, da - soweit ich mich erinnern kann, die Treiber unter aller Kanone waren). Ich denke, daß der 3dk05 nix an der Tatsache ändert, daß beide Kontrahenten sehr leistungsfähige Beschleuniger anzubieten haben. Für den NV40 spricht imo SM3.0 und dank 6800GT das bessere P/L-Verhältnis, für die X800XT die wohl etwas bessere Performance (die SLI-Variante mal außen vor gelassen).

Quasar
2004-09-30, 22:19:45
Soweit ich das bisher gesehen habe, scheint der neue Murks nicht gerade an der Texelfillrate zu hängen. Die paar Punkte sollten es nicht wert sein, hier noch ungefragt zu optimieren.

Demirug
2004-09-30, 23:24:51
Neudefinition von Zweckpessimismus? Ich kann mich nicht erinnern, daß jemals so spezifisch nach Cheats in performanten Treibern gesucht wurde, wie es derzeit der Fall ist. Wenn die BQ nicht drunter leidet - bitte schön, kann uns doch imo nur recht sein. Von dem her fand ich den "Cheat" seitens NV in Bezug auf Doof3 weniger tragisch, als viel mehr willkommen. Ich möchte nicht wissen, wie noch zu Voodoo5, Geforce1+2 gecheatet wurde (die Radeon 64 lasse ich hier mal außen vor, da - soweit ich mich erinnern kann, die Treiber unter aller Kanone waren). Ich denke, daß der 3dk05 nix an der Tatsache ändert, daß beide Kontrahenten sehr leistungsfähige Beschleuniger anzubieten haben. Für den NV40 spricht imo SM3.0 und dank 6800GT das bessere P/L-Verhältnis, für die X800XT die wohl etwas bessere Performance (die SLI-Variante mal außen vor gelassen).

Kein Zweckpessimismus sondern die Erfahrung der letzten Tage.

Im Prinzip habe ich nicht gegen Optimierungen. Das Problem ist eben nur wenn man gezwungen ist aus der Leistung von einigen Spielen auf die Gesamtperformance einer Karte zu schliessen. Performance ist nun mal meist das wichtigste Argument für oder wieder einer Karte. Das war jetzt aus der Sicht des Pressemitarbeiters.

Aus der Sicht des Entwicklers möchte ich gerne die Tricks kennen die benutzt werden um dieses oder jenes schneller zu machen weil ich sie dann vielleicht auch selbst nutzen kann ohne das der Treiber nachträglich optimiert werden muss. Wobei ich natürlich den Verdacht habe das so einige der Tricks gar nicht über die API realisiert werden können.

Das schon immer versucht wird bei den Treibern zu "cheaten" ist wahrlich nichts neues. Aber daraus muss sich ja nicht unbedingt ein Gewohnheitsrecht ableiten.

Tigerchen
2004-10-01, 15:56:06
Mit 'wir' meinst Du doch wohl nur Dich, oder?
Und wohl auch nur, weil Du den Inhalt meines Posts offenbar gar nicht umgesetzt hast...

Wie dem auch sei, es gibt selbst im Murks(05) einen kleinen Schalter mit dem Namen "force software vertex shader". Dies wäre zum beispiel auch ohne weiteres über den Treiber zu realisieren, um diese 'anderweitig' zu nutzen. Und ganz sicher gibt es da noch einige andere Dinge, von denen weder Du noch ich Ahnung haben, die sich mit solcherart 'Einsparungen' bewirken lassen würden. Ist halt von Vorteil, wenn man jahrelanges Mitglied im Beta-Programm bei FM ist, gell? So hatten sie ja genug Zeit, "Plan B" vorzubereiten.

Aber...

Vielleicht erhellst Du uns ja mal mit einer Erklärung, warum ausschließlich dieser neue "Wundertreiber" so dermaßen CPU-lastig ist und offenbar mit abnehmender CPU-Leistung auch kräftig an Performance einbüßt, obwohl das weder beim Vorgänger noch bei den Treibern des Konkurrenten der Fall ist.

Manche Dinge scheinen für einige unter uns vielleicht einfach zu 'klar'...
:D

Razor

Vielleicht ist der neue Treiber so maschinennah programmiert daß er so gut skaliert. Wäre das keine Möglichkeit. Deine wilde Verschwörungstheorie finde ich nicht sehr glaubwürdig.

xL|Sonic
2004-10-01, 19:13:21
Jep, warum soll es denn ATI nicht auch möglich sein einen sehr guten Treiber zu entwickeln und warum soll dieses Privileg nur nvidia haben?
Zur Zeit sieht es irgendwie eher so aus, dass man aus dem betakten Chip wohl mehr heraus holen kann als nvidia aus ihrem topmodernen grafikchip.
Mal abgesehen davon, dass die nv treiber in meinen Augen doch sehr an Qualität abgenommen haben und im nachhinein ärgere ich mich auch irgendwie, dass ich nicht auf ne verfügbare xt pe gewartet habe

MikBach
2004-10-02, 09:25:14
Der Cat 4.11 ist klasse. In anderen Foren habe ich auch nur positives gelesen.
Mit dieser Karte (http://www.mad-moxx.de/view_artikel.php?id=453) hatte ich bei Murks2005 mit dem 4.9 2477 Punkte. Mit 4.11 2922.
Habe die Karte noch bisschen gekitzelt ;)
460/360: 3180 Punkte.

Gast
2004-10-02, 09:35:40
... und der Osterhase versteckt die Eier?

Die Jungs bei ATI und nVidia lernen ja auch dazu. Es ist wird immer komplizierter Cheats zu entdecken.


Demirug,

deine Argumnetation wird jetzt aber trotzig*ggg*

Ich dacht du bist GURU

Jesus
2004-10-02, 10:39:02
Der Cat 4.11 ist klasse. In anderen Foren habe ich auch nur positives gelesen.
Mit dieser Karte (http://www.mad-moxx.de/view_artikel.php?id=453) hatte ich bei Murks2005 mit dem 4.9 2477 Punkte. Mit 4.11 2922.
Habe die Karte noch bisschen gekitzelt ;)
460/360: 3180 Punkte.

womit wieder einmal mehr bewiesen ist dass es ein Fix für 256MB Karten ist. Bei mir (siehe Sig) bringt er nicht einmal 100 Punkte mehr.

Quasar
2004-10-02, 11:18:17
Die Frage ist nur, was er mit den 128 ungenutzten MB veranstaltet, der Treiber. ;)

Hat mal jemand probiert, wie es auf 9600-Karten mit 256MB ausschaut?

MikBach
2004-10-02, 11:22:13
womit wieder einmal mehr bewiesen ist dass es ein Fix für 256MB Karten ist. Bei mir (siehe Sig) bringt er nicht einmal 100 Punkte mehr.
Jo, sieht so aus.
Nur, wie kann es sein, dass ATI erst jetzt einen Fix für 256MB Karten bringt?
256MB Karten sind doch schon lange auf dem Markt.
Was mich noch interessieren würde. Kann mal jemand einen Test mit einer 9600PRO/XT-256MB mit Cat 4.9 und 4.11 machen?

edit: Quasar war schneller. :rolleyes:

Quasar
2004-10-02, 12:14:02
http://www.techreport.com/etc/2004q3/3dmark05/img/3dm-gt1.gif

Wenn ich mir dieses Bild anschaue, wundern mich ein paar Widersprüche. ;)
Quelle (http://www.techreport.com/etc/2004q3/3dmark05/index.x?pg=5)

1.) GT1 scheint nicht sehr bandbreitenlastig zu sein.
Indizien:
a) X800Pro schlägt 6800GT
b) X700XT schlägt R9800p
c) 5900XT kann sich nur wenig von 5700u absetzen
d) 9600XT und 9800p liegen shaderfüllratenbereinigt kaum auseinander

2.) GT1 scheint nicht per se von mehr als 128MB zu profitieren.
Indizien:
a) FX5950 und FX5900XT liegen nicht viel weiter auseinander, als ihre Taktfrequenz vermuten lassen würde
b) 6800 und 6800GT dito.
c) 6800 liegt vor 9800XT


Trotzdem gewinnt die 9800XT gegenüber der 9800p einen Vorsprung von 37,6% - der in keinem Verhältnis zum Mehrtakt steht. Und auch gegenüber der X700XT, die ansonsten (ohne AA!) in nahezu allen Fällen deutlich schneller sein dürfte. :|

Jesus
2004-10-02, 12:47:05
naja x700xt 128 MB, 9800 Pro 128MB

9800XT - 256 MB. merkst du was ? ;)

Andererseits liegt eine 6600GT hinter eine 9800 PRo, als wird die Speicherbandbreite doch recht viel ausmachen ...
aber irgendwie versteh ichs net so ganz :) ( vielleicht liegts auch am 4x2 hier)

LovesuckZ
2004-10-02, 13:06:05
Andererseits liegt eine 6600GT hinter eine 9800 PRo, als wird die Speicherbandbreite doch recht viel ausmachen ...
aber irgendwie versteh ichs net so ganz :) ( vielleicht liegts auch am 4x2 hier)

4x2?!
Achja, der erste Test scheint auch nicht durch den VS zu limitieren.

Quasar
2004-10-02, 13:17:27
4x2?!
Achja, der erste Test scheint auch nicht durch den VS zu limitieren.

Ja, hat doch Dave Baumann in seinem 6600-Review gemutmaßt und auch eine Spec von 2GPix/s als Maximum angegeben.
Liegt an den nur 4 ROPS.

Jesus
2004-10-02, 13:23:41
also ich hab mal den Speichertakt von 360 auf 300 zurückgeschraubt eben:

dadurch verlier ich ca. 100 Punkte im 3dmark aber nur 0.3 fps im GT1 ( in den anderen beiden isses mehr )

Quasar
2004-10-02, 13:24:07
naja x700xt 128 MB, 9800 Pro 128MB

9800XT - 256 MB. merkst du was ? ;)
Ja, mehr, als du vielleicht denkst.
256MB bringen einen Vorteil in einem Test, der sich laut FM bequem mit 128MB-Karten begnügt. :|
(Quelle: PCGH, 10/2004, s.25 Nick Renquist)


Andererseits liegt eine 6600GT hinter eine 9800 PRo, als wird die Speicherbandbreite doch recht viel ausmachen ...
aber irgendwie versteh ichs net so ganz :) ( vielleicht liegts auch am 4x2 hier)
Wenn das so wäre, mit der Speicherbandbreite, dann müsste auch die X700XT durch ihren 128Bit-DDR-Bus hinter der 9800p liegen. Tut sie aber nicht.
Ausserdem:

1.) GT1 scheint nicht sehr bandbreitenlastig zu sein.
Indizien:
a) X800Pro schlägt 6800GT
b) X700XT schlägt R9800p
c) 5900XT kann sich nur wenig von 5700u absetzen
d) 9600XT und 9800p liegen shaderfüllratenbereinigt kaum auseinander

Quasar
2004-10-02, 13:25:53
also ich hab mal den Speichertakt von 360 auf 300 zurückgeschraubt eben:

dadurch verlier ich ca. 100 Punkte im 3dmark aber nur 0.3 fps im GT1 ( in den anderen beiden isses mehr )

Und ich hab mit meiner nV30u mehr 3DMarks, als eine 5900XT, die neben dem FP16-Vorteil noch über deutlich mehr (~40%) Bandbreite verfügt.
Können wir uns jetzt mal dem 256MB-'Phänomen' widmen? ;)

Jesus
2004-10-02, 13:25:56
Wenn das so wäre, mit der Speicherbandbreite, dann müsste auch die X700XT durch ihren 128Bit-DDR-Bus hinter der 9800p liegen. Tut sie aber nicht.
Ausserdem:

Vertexshader ?

LovesuckZ
2004-10-02, 13:26:43
Ja, hat doch Dave Baumann in seinem 6600-Review gemutmaßt und auch eine Spec von 2GPix/s als Maximum angegeben.
Liegt an den nur 4 ROPS.

Du meinst bestimmt das hier (http://pics.computerbase.de/news/8778/5.gif), Quelle (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/september/ati_pdf-praesentation_nvidia).
Nun, dass Jesus da auch noch glaubt...

Jesus
2004-10-02, 13:33:27
Ja, mehr, als du vielleicht denkst.
256MB bringen einen Vorteil in einem Test, der sich laut FM bequem mit 128MB-Karten begnügt. :|
(Quelle: PCGH, 10/2004, s.25 Nick Renquist)


btw:

Minimum System Recommendations

DirectX 9 compatible graphics adapter with support for Pixel Shader 2.0 or later, and graphics memory of 128 MB or above.

aths
2004-10-02, 14:15:58
Nun, dass Jesus da auch noch glaubt...Das Bild da ist gar nicht mal falsch. Mit dem Text bin ich aber nicht einverstanden. Allerdings enthält der Text keine direkte Lüge.

xL|Sonic
2004-10-02, 14:29:19
Es wäre auch mal interessant zu sehen, wie eine x700 pro mit 256MB abschneidet.
Und wer weiss...vielleicht hat ATI den Fix absichtlich zurückgehalten um später dann nochmal deutliche Argumente für die r420 Reihe zu liefern. Der 3dmark ist schließlich extrem populär und viele Leute werden sicher auch ihre Kaufentscheidung auf Grund dieses Benchmarks fällen + Weihnachten steht kurz vor der Tür + der Fix beitet sich auch ideal ja um jede Performancesteigerung die eine 6800 Karte durch SM3.0 bekommt regelrecht zu pulverisieren. Konnte man ja nicht genau abschätzen, wieviele Spiele mit dem Support nun wirklich erscheinen.

Quasar
2004-10-02, 15:21:26
btw:

Minimum System Recommendations

DirectX 9 compatible graphics adapter with support for Pixel Shader 2.0 or later, and graphics memory of 128 MB or above.

Entweder es passt rein, oder es passt nicht rein. Wenn es reinpasst, bringt mehr VRAM nur bei AA oder hoher Auflösung etwas.

Quasar
2004-10-02, 15:32:03
Vertexshader ?
Eine Limitierung durch den VS oder der VS als Erklärung, daß eine X700XT knapp vor einer R9800p liegt?

Eine generelle Limitierung dürfte hier nicht gegeben sein, denn dann würden:
- X800 XTPE und Pro höchstens 10% auseinander liegen (Takt 475 vs. 520)
- 9800XT nicht vor X700XT liegen (~72% mehr VS-Leistung)
- 6800GT und X800 Pro weiter auseinander liegen
- 6800 und 9800XT deutlich weiter auseinander liegen

Und die 6800GT mit einem abgeschaltetem VS meßbar an Leistung verlieren.


Bitte versuch doch selbst mal das Bild anzuschauen und zu interpretieren - die Eckzahlen dazu kennst du ja sicherlich auch.

Quasar
2004-10-02, 15:33:56
Das Bild da ist gar nicht mal falsch. Mit dem Text bin ich aber nicht einverstanden. Allerdings enthält der Text keine direkte Lüge.

Der Text ist korrekt - leider im Zusammenhang sowohl unscharf formuliert als auch leicht mißzuverstehen. 4x2 ist definitiv 'anders', aber diesen Schuh darf sich IMO Dave Baumann anziehen, wenn er sich derart aus dem Zusammenhang zitieren und instrumentalisieren läßt.

Jesus
2004-10-02, 15:36:05
Eine Limitierung durch den VS oder der VS als Erklärung, daß eine X700XT knapp vor einer R9800p liegt?

Eine generelle Limitierung dürfte hier nicht gegeben sein, denn dann würden:
- X800 XTPE und Pro höchstens 10% auseinander liegen (Takt 475 vs. 520)
- 9800XT nicht vor X700XT liegen (~72% mehr VS-Leistung)
- 6800GT und X800 Pro weiter auseinander liegen
- 6800 und 9800XT deutlich weiter auseinander liegen

Und die 6800GT mit einem abgeschaltetem VS meßbar an Leistung verlieren.


Bitte versuch doch selbst mal das Bild anzuschauen und zu interpretieren - die Eckzahlen dazu kennst du ja sicherlich auch.

tja was soll man da grossartig interpretieren. Ich denke da Spielt halt einiges zusammen, 256MB,256bit, Vertex Shader Takt. etc...

Mich würde eher intressieren wieso die Füllrate der 6800 GT viel höher ist imTest (Singletexturing) als die der X800pro.

Quasar
2004-10-02, 15:36:33
Es wäre auch mal interessant zu sehen, wie eine x700 pro mit 256MB abschneidet.
Das könnte viele Fragen klären - ja. :)
Möglicherweise reicht ja auch eine 9600 mit 256MB aus, obwohl ich denke, dass hier zuwenig Pixelleistung vorhanden ist.

Ausserdem würden mich ein paar Screenshots auf ATi-Hardware mit den neuen Treiber, also quasi vorher-nachher Vergleiche mal interessieren.


Und wer weiss...vielleicht hat ATI den Fix absichtlich zurückgehalten um später dann nochmal deutliche Argumente für die r420 Reihe zu liefern.
Möglich, aber unwahrscheinlich, denn die Kunden, die in der Zwischenzeit bereits zur Konkurrenz gegriffen hätten, wären bestimmt nicht wieder von einer gerade neuen Karte zurückgewechselt.

Jesus
2004-10-02, 15:38:45
Das könnte viele Fragen klären - ja. :)
Möglicherweise reicht ja auch eine 9600 mit 256MB aus, obwohl ich denke, dass hier zuwenig Pixelleistung vorhanden ist.

Welche Frage könnte das klären?

Mikbach hat mit seiner 9800 Pro mit 256MB durch den Cat 4.11 ca. 400 Punkte mehr vgl.mit dem 4.9er. Ich dagegen ungefähr 80 mit meiner 128MB 9800Pro.

Edit: Mikbach könntest du mal dein Scores in den einzelnen Tests posten ( am besten auf Pro default takt :) ) Dann könnten wir die letzten unklarheiten beseitigen.

MikBach
2004-10-02, 16:00:23
Edit: Mikbach könntest du mal dein Scores in den einzelnen Tests posten ( am besten auf Pro default takt :) ) Dann könnten wir die letzten unklarheiten beseitigen.
Ja, allerdings erst am Montag. Hab zu Hause zur Zeit kein I-net, da ich umgezogen bin.

@Quasar
Was die BQ angeht, habe ich keine Unterschiede gesehen, und ich habe die Tests paar mal betrachtet(auch 20cm vor dem CRT), nachdem ich gesehen habe, dass der 4.11 so viel bringt. ;)

Quasar
2004-10-02, 16:04:43
tja was soll man da grossartig interpretieren. Ich denke da Spielt halt einiges zusammen, 256MB,256bit, Vertex Shader Takt. etc...

Mich würde eher intressieren wieso die Füllrate der 6800 GT viel höher ist imTest (Singletexturing) als die der X800pro.

Ich sehe nur, daß gegen jede deiner bisherigen Vermutungen eindeutige Argumente aus dem TR-Test direkt zu entnehmen waren.

Du meinst also, daß der Test primär durch 'nur' 128MB VRAM limitiert ist, direkt dahinter massive Speicherbandbreite verbraten wird (von dir selbst i.Ü. widerlegt) und man dann noch massiv Vertexleistung verbrät, so daß beim Wegfall einer dieser Limitierungen... moment, daß passt doch vorn und hinten nicht ;)

Jesus
2004-10-02, 16:28:27
Ich würd mich nich zu sehr an irgendeinen 08/15 Test klammern zumal die Ergebnisse der User hier eine deutliche Sprache sprechen.

Du hast selbst geschrieben du möchtest dich dem "256 MB - Phänomen" widmen , willst einen Vergleich von 9600 256MB zu 128MB, aber scheints den vorhandenen Vergleich (9800pro) völlig zu ignorieren...

seahawk
2004-10-02, 16:35:22
Die Diskussion ist müßig. Die ATI Karten der neuen X-Generation sind im 3DMark der Konkurrenz meilenweit überlegen. Da beide zugelassene Treiber benutzen und der 3DMark entworfen wurde um die Leistung und Zukunftstauglichkeit der Karten zu testen muss man festhalten, dass ATI weiter den Markt in allen Leistungsbereichen deutlich dominiert.

Alles andere ist Wunschdenken.

Oder spielt hier jemand was anderes als den 3DMark ???

Quasar
2004-10-02, 17:48:52
Ich würd mich nich zu sehr an irgendeinen 08/15 Test klammern zumal die Ergebnisse der User hier eine deutliche Sprache sprechen.

Du hast selbst geschrieben du möchtest dich dem "256 MB - Phänomen" widmen , willst einen Vergleich von 9600 256MB zu 128MB, aber scheints den vorhandenen Vergleich (9800pro) völlig zu ignorieren...

Nein, ich ignoriere ihn nicht völlig - aber vielleicht bringen weitergehende Tests mit anderen Karten neue Erkenntnisse?

s.u.

Quasar
2004-10-02, 17:50:10
Die Diskussion ist müßig. Die ATI Karten der neuen X-Generation sind im 3DMark der Konkurrenz meilenweit überlegen.
Die Diskussion, daß es so ist ja. Die Diskussion, warum es so ist, beginnt aber gerade erst.

Wer daran kein Interesse hat, dem steht es frei, andere Threads zu lesen und diesen hier zu ignorieren.

deekey777
2004-10-02, 18:17:42
Die Diskussion, daß es so ist ja. Die Diskussion, warum es so ist, beginnt aber gerade erst.

...


Und wie lange es noch so bleibt.*



*Ich wollte nur etwas mehr Pfeffer in die Diskussion streuen.

Jesus
2004-10-02, 18:42:56
Und wie lange es noch so bleibt.*



*Ich wollte nur etwas mehr Pfeffer in die Diskussion streuen.

tja, version 1.1.0 haben wir ja schon und der cheat funktioniert immer noch !

*pfefferstreu* :rolleyes:

seahawk
2004-10-02, 18:58:17
Die Diskussion, daß es so ist ja. Die Diskussion, warum es so ist, beginnt aber gerade erst.

Wer daran kein Interesse hat, dem steht es frei, andere Threads zu lesen und diesen hier zu ignorieren.

Die Antwort dürfte wohl aplikationsspezifische Optimierungen sein.

Jesus
2004-10-02, 19:39:00
Die Antwort dürfte wohl aplikationsspezifische Optimierungen sein.

glaube ich in diesem Fall ( zumindest bei ATI, mglw. ja beim NV Wundertreiber 61.77 der ja auch einen Riesen performancesprung gemacht hat, aber das wird von den Nvidioten hier ja gerne hingenommen) nicht, denn was den Cat4.11 beta betrifft nochmal Zusammengefasst (die 3 Haupt Cheat Argumente):

- CPU Abhängigkeit: Nur bei Intel Prozessoren, nicht aber bei A64 macht also keinen Sinn.
- Geschwindigkeitsgewinne nur für 256MB Karten so gut wie keine bei 128MB Karten (wie meiner), auch irgendwie unlogisch, sollte es ein Cheat sein
- AI bringt im 3dmark ebenfalls nur was innerhalb der Messungenauigkeit ( und zwar positiv wie negativ), egal welche Stufe (oder ganz aus)
- Patch 1.1.0 für den 3dmark draussen, keine Änderung bisher


Aber vielleicht kommt ja noch was :rolleyes:

seahawk
2004-10-02, 20:12:25
Komisch nur, dass es besonders beim 3DMark auffällt. :D

xL|Sonic
2004-10-02, 20:42:15
Warum ? Nochmal 10% mehr bei Doom 3 ist auch nicht ohne, nur ist Doom 3 schon lange nicht mehr so aktuell und deswegen halt auch nicht mehr so interessant. Der 3DMark ist aber neu und erfreut sich einer riesigen Fangemeinde, kein Wunder warum das dann dort eher auffällt.

MikBach
2004-10-02, 21:41:05
Sodele,

9800PRO 256 MB 380/340
Cat 4.9
VGA 2445
G1 9,7 fps
G2 7,1 fps
G3 13,5 fps

Cat 4.11
VGA 2722
G1 12,9 fps
G2 7,5 fps
G3 13,3 fps

BTW ich werde auch noch Spiele testen, auch ältere. Mal sehen was da wirklich los ist. ;)

Gast
2004-10-03, 11:54:50
und die bildquali wird auch nicht schlechter.
mfg

Gast
2004-10-03, 12:05:32
Wenn Ati es geschafft haben sollte, die Last auch auf die CPU
zu verteilen - Na und?
Wenn ein Spiel oder was auch immer für eine Anwendung
davon profitiert (natürlich ohne Verschlechterung der Qualität) und CPU Leistung nicht brach rumliegt kann ich doch nur sagen : Prima Leistung von Ati.

Ausserdem: Wenn es wirklich so funktioniert, sollte es NVidia
wohl nicht schwerfallen ihren Treiber auch derart umzustricken und
Leistungsmässig aufzuholen.

Mantikor
2004-10-03, 12:22:33
Ich wette, dass beide Karten auf default Takt noch über 1000 Punkte "wie durch ein Wunder" hinzugewinnen werden....

Mfg Der Mantikor

Gast
2004-10-03, 18:19:51
@rah: doom3 ist auch -sehr- Cpu lastig. physik, ai, schattenvolumen, world->texturepspace-transformationen etc. einzig die timedemos kann man getrost als Gpu-lastig bezeichnen.

und es heisst "er sieht die *felle* davon schwimmen". von tierfell. ;)

mfg und so
fps / stefan

Sphinx
2004-10-05, 14:19:15
Ich wette, dass beide Karten auf default Takt noch über 1000 Punkte "wie durch ein Wunder" hinzugewinnen werden....

Mfg Der Mantikor

Ein kleiner Überblick : http://www.hardforum.com/showthread.php?t=813910

+/- 600 Points sind keine Meßungenauigkeiten...

r@w
2004-10-05, 16:11:35
Komisch nur, dass es besonders beim 3DMark auffällt. :DWohl wahr...
*mitpfefferstreu*
:D

Razor

r@w
2004-10-05, 16:16:54
Wenn Ati es geschafft haben sollte, die Last auch auf die CPU
zu verteilen - Na und?
Wenn ein Spiel oder was auch immer für eine Anwendung davon profitiert (natürlich ohne Verschlechterung der Qualität) und CPU Leistung nicht brach rumliegt kann ich doch nur sagen : Prima Leistung von Ati.Eben nicht...
Der Unterschied von RealWorld zu synthetischer Applikation (wie dem Murks) ist doch, dass die CPU in der synthetischen Umgebung meist nicht viel zu tun bekommt, dies in der RealWorld aber anders aussieht, da hier oftmals die Hauptlast auf der CPU liegt (vor allem im Multi-Player).

Gerade DAS wäre absolut unschön, da hier nur so etwas wie der Murks richtig profitieren könnte.
(und damit den Aussagegehalt der "Murkser" ad absurdum führt)

Merkwürdig ist dieses Verhalten schon... bin mal gespannt, was dabei heraus kommt.

Razor

r@w
2004-10-05, 16:18:53
und es heisst "er sieht die *felle* davon schwimmen". von tierfell. ;)Oder eben "Fälle" von "Vorfall"...
:up:

Razor

xL|Sonic
2004-10-05, 16:20:55
@r@h wie erklärst du denn den Leistungssprung der Forceware Treiber, die man ja schön auf der von Sphinx geposteten Seite sehen kann?
Cheat?

r@w
2004-10-05, 16:22:03
Ein kleiner Überblick : http://www.hardforum.com/showthread.php?t=813910

+/- 600 Points sind keine Meßungenauigkeiten...Hatten wir schon...
Sortier den 66.29 einfach vor den 66.51 und nach den 66.32 ein, da er von Datum her eben genau dazwischen paßt. Und die "Leistung" ab 66.29 (mit 66.51 in Folge ;-) ist absult konsistent und bewegt sich im Rahmen der Meßungenauigkeit...

Razor

r@w
2004-10-05, 16:23:36
@r@h wie erklärst du denn den Leistungssprung der Forceware Treiber, die man ja schön auf der von Sphinx geposteten Seite sehen kann?
Cheat?Klar!
Oder 'Optimierung'... ganz wie Du willst.

AFAIK war der 66.29 der erste Treiber, der von nVidia für den Murks05 "freigegeben" und von FM dafür "approved" wurde.

Razor

xL|Sonic
2004-10-05, 16:28:02
Und jetzt meine Frage dazu, warum gehst du nicht genauso auf die nvidia Treiber los wie auf die ATI Treiber und versuchst herauszufinden was da nun genau optimiert wurde, ist es zu Lasten der BQ usw. also genau das gleiche Prozedere?

tRpii
2004-10-05, 16:32:14
ati ist halt nicht nvidia.. :| ist doch bei fanboy's immer so

r@w
2004-10-05, 16:37:18
Und jetzt meine Frage dazu, warum gehst du nicht genauso auf die nvidia Treiber los wie auf die ATI Treiber und versuchst herauszufinden was da nun genau optimiert wurde, ist es zu Lasten der BQ usw. also genau das gleiche Prozedere?Weil es bei nVidia nicht diese augenscheinliche CPU-Abhängigkeit bei Intel-(HT?)CPU's gibt.
Normalerweise sollte das "Ergenis" nicht, bzw. nicht in dem Maße von der CPU abhängig sein, wie es ja auch bei allen anderen Karten und im Falle von ATI mit dem vorherigen Treiber (!) ja auch der Fall ist.

Nun bringt ATI einen neuen Treiber und schwupps, geht die Performance nach oben... aber bei Intel nur mit den 3.4GHz CPU's... denn taktet man diesen zurück auf ca. 2.4Ghz... o Wunder... bringt die gleiche Karte ungefähr das, was sie auch mit dem vorherigen Treiber brachte.

Und nocheinmal: mit vorherigen Treibern und bei der Konkurrenz ist dem nicht so!
Gerade DAS finde ich - gelinde ausgedrückt - seltsam...

Du nicht auch?
:D

Razor

xL|Sonic
2004-10-05, 16:39:00
Sicher, aber schonmal an einen Bug dabei gedacht?
Ich meine, warum tritt es denn nicht bei AMD CPU's aus und warum gibt es dort nicht diesen Leistungsverlust?

tRpii
2004-10-05, 16:44:30
Weil es bei nVidia nicht diese augenscheinliche CPU-Abhängigkeit bei Intel-(HT?)CPU's gibt.
Normalerweise sollte das "Ergenis" nicht, bzw. nicht in dem Maße von der CPU abhängig sein, wie es ja auch bei allen anderen Karten und im Falle von ATI mit dem vorherigen Treiber (!) ja auch der Fall ist.

Nun bringt ATI einen neuen Treiber und schwupps, geht die Performance nach oben... aber bei Intel nur mit den 3.4GHz CPU's... denn taktet man diesen zurück auf ca. 2.4Ghz... o Wunder... bringt die gleiche Karte ungefähr das, was sie auch mit dem vorherigen Treiber brachte.

Und nocheinmal: mit vorherigen Treibern und bei der Konkurrenz ist dem nicht so!
Gerade DAS finde ich - gelinde ausgedrückt - seltsam...

Du nicht auch?
:D

Razor

dann teste mal die IQ bei den Performance-Treibern von nvidia und teste es auf verschiedenen Systemen (AMD/Intel) mit unterschiedlicher Taktung.. relativ unbegrünget auf ati schiessen wenn man vor der "eigenen" tür genug zu kehren hat, ist ja bekanntlich ganz leicht..

Jesus
2004-10-05, 16:44:52
Sicher, aber schonmal an einen Bug dabei gedacht?
Ich meine, warum tritt es denn nicht bei AMD CPU's aus und warum gibt es dort nicht diesen Leistungsverlust?

jo das ignoriert er halt leider immer noch... bzw erfindet eine neue Verschwörungstheorie mit SSE3 ( hat doch nur der Prescott odeR ?! ) etc...

Quasar
2004-10-05, 16:53:37
Performance-Anstieg auf allen Karten gegenüber einem Performance-Anstieg nur auf 256MB-Karten (und da würde mich nach wie vor die 9600 interessieren...). Dazu...upsala... ein Hotfix für einen Memory-Management Bug... und *hui* die neuentdeckte Liebe zu applikationsspezifischen Optimierungen. ;)
Die 'seltsame' CPU-Abhängigkeit eines grafikkarten-Benchmarks noch dazu und nicht zu vergessen das Ausmass des Zuwaches (~400 Punkte ggü. >1000 Punkten.

BTW, das andere-Leute-als-Fanboy-titulieren hilft der Glaubwürdigkeit nicht gerade auf die Sprünge.



Wie stark steigen denn die ShaderMark-Scores mit dem neuen Hotfix und bei nV mit dem neuen FW an? ;) Immerhin benutzt der SM auch mehr als 128MB - dann und wann...


edit:
Oh, bevor ich's vergesse, und ihr Punkte kriegt, weil ihr mich auch Fanboy nennt: Bei nVidia bezweifelt niemand, daß es sich um eine Trickserei/ASO/Cheat handelt - ist das vielleicht der Unterschied? Daß 'man' ATi direkt erstmal glaubt, wenn sie hier oder dort noch einen dicken fetten Bug finden? Einen Brain-Bug sozusagen? ;)

r@w
2004-10-05, 16:59:08
Sicher, aber schonmal an einen Bug dabei gedacht?
Ich meine, warum tritt es denn nicht bei AMD CPU's aus und warum gibt es dort nicht diesen Leistungsverlust?Darüber reden wir hier ja gerade, oder nicht?

Razor