PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Firingsquad benutzt "Custom demos for benchmarks"


Gast
2003-06-16, 17:40:10
http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/page8.asp

Netter Effekt

Die R9800Pro ist durch die anderen Demo's in SS2 und Quake3 fast immer schneller als die FX5900Ultra

Exxtreme
2003-06-16, 17:42:03
Das ist eine verdammt gute Idee, was FS da macht. :up:

Leo macht das auch schon seit längeren.

Mr. Lolman
2003-06-16, 17:43:31
:bigl2: :bigl2:


Wusst ichs doch. Hat sich ja beim Pyramid Demo schon ziemlich böse abgezeichnet. Mal sehen, wie langs dauert, bis jemand meint dass die Demos alle hin auf ATI Karten optimiert wurden. :tröst2:

LovesuckZ
2003-06-16, 17:43:55
Die testen auch mit 4AF.
Wenn die im Spiel Quality eingestellt haben, dann testen sie auch mit 4AF, was wiederumg keinf airer Vergleich ist, gehen doch die ATi in vielen Faellen auf 2 zurueck.

LovesuckZ
2003-06-16, 17:44:42
Hehe, dafuer siegt nvidia in Nascar :D

http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/page6.asp

Nice review von denen, endlich testen sie auch alle Spiele mit AA/AF.
Ein interessantes Ergebniss liegt auch beim IL-2 Sturmovik: Forgotten Battles Test vor: Unter normalen Einstellungen -also kein AA/AF- liegt die FX Familie deutlich hinter ATi, mit AA/AF holen sie deutlich auf...

http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/page13.asp

Exxtreme
2003-06-16, 17:45:57
Original geschrieben von LovesuckZ
Hehe, dafuer siegt nvidia in Nascar :D

http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/page6.asp

Scheint ja böse auf NV optimiert zu sein.

LovesuckZ
2003-06-16, 17:47:41
Original geschrieben von Exxtreme
Scheint ja böse auf NV optimiert zu sein.

tuerlich...

/edit: Und IL-2 Sturmovik wohl auf ATi... :bonk:

Aqualon
2003-06-16, 18:04:56
Custom Demos find ich voll gut :up:

Es stellt sich zwar auch hier wieder die Frage der Vergleichbarkeit z.B. liefert mein Rechner bei Serious Sam Karnak viel niedrigere Frameraten als im Spiel selbst (wohl wegen der Multiplayerberechnungen).

Und das ist auch der große Kritikpunkt an dem Review. Bei Serious Sam 2 steht nicht, ob das ne Singleplayer oder Multiplayer-Demo war. Am besten fände ich natürlich ne Demo im Single und im Multiplayermodus.

Die Gefahr, dass ein Demo nicht spieltypisch ist, besteht natürlich auch. Aber das ist mir lieber, als dass Hersteller bei bekannten Demos rumpfuschen.

Aqua

LovesuckZ
2003-06-16, 18:15:47
Die Werte in SeSam2 und Q3 sind mit denen vom vorigeren Test nicht vergleichbar, da man in SeSam2 nun in Quality gebencht hat (vormals in normal) und bei Q3 die neuste Version genommen hat.

AlfredENeumann
2003-06-16, 18:31:44
Original geschrieben von LovesuckZ
Die testen auch mit 4AF.
Wenn die im Spiel Quality eingestellt haben, dann testen sie auch mit 4AF, was wiederumg keinf airer Vergleich ist, gehen doch die ATi in vielen Faellen auf 2 zurueck.


Die testen auch mit 4AA.
Wenn die im Spiel AA eingestellt haben, dann testen sie auch mit 4AA, was wiederumg keinf airer Vergleich ist, gehen doch die Nvidia in vielen Faellen auf eine miesere Qualität als ATI zurueck.

LovesuckZ
2003-06-16, 18:32:50
Original geschrieben von AlfredENeumann
Die testen auch mit 4AA.
Wenn die im Spiel AA eingestellt haben, dann testen sie auch mit 4AA, was wiederumg keinf airer Vergleich ist, gehen doch die Nvidia in vielen Faellen auf eine miesere Qualität als ATI zurueck.

Aha, wo testen sie denn SeSam2 mit 4AA? zeige das mal bitte.

Richthofen
2003-06-16, 18:49:55
also erstmal find ich Custom Timedemos geil!
Diese erfordern natürlich auch ein gewisses Know How beim Reviewer, da die Ergebnisse richtig interpretiert werden müssen.
Zb. ist die Demo eher CPU lastig, eher Grakalastig, fordert sie mehr PS oder VS oder gar nix von beiden etc..

Generell find ich den Trend aber gut!
Wenns nach mir ginge:
Alle synthetischen Benchmarks raus,
Nur noch Games benchen und zwar so viele wie möglich und nicht nur die Standardteile.
Wo es nur geht auf Custom Demos setzen.

Was jetzt das FS Review angeht, so sind die Ergebnisse leider nicht so ohne weiteres vergleichbar.
Man hat wie lovesucky schon gesagt hat eine andere Einstellung gebencht und die alten Werte übernommen und bei Quake3 isses glaub ich eine andere Built Version.
Aus sowas muss man natülich aufpassen.

Ansonsten find ich es interessant, dass bei Nascar NV deutlich vorn liegt und auch bei IL-2 in den Quality Benchmarks mit AA und AF.
IL-2 ohne würd ich sowieso nicht spielen.
AA und AF müssen da schon sein.

Iceman346
2003-06-16, 19:08:29
Original geschrieben von LovesuckZ
Aha, wo testen sie denn SeSam2 mit 4AA? zeige das mal bitte.

Wo steht denn das sie Serious Sam mit AF testen?

LovesuckZ
2003-06-16, 19:13:13
Original geschrieben von Iceman346
Wo steht denn das sie Serious Sam mit AF testen?

in der SeSam2 demo schaltet er bei mir mit Quality 4AF dazu...

mapel110
2003-06-16, 19:48:50
Original geschrieben von LovesuckZ
in der SeSam2 demo schaltet er bei mir mit Quality 4AF dazu...

na und ? ich denke mit dem supa dupa deto 44.03 soll die AF performance bei den FXn einfach nur goil sein ?
selbst unter applikation oder quality, wie es jetzt heisst.

seahawk
2003-06-16, 19:51:32
Guter Test. Ausgeglichen und gut.

Ein hin und her zwischen NV und ATI. Sehr gut.

(PS heimlicher Gewinner ist imo die 9700pro da bestes Preis-/Leistungsverhältnis)


Mal ne Theorie zu Nascar:

Ist es denkbar, dass die NV Karten da überwiegend im 8X1 Modus arbeiten können ??

nagus
2003-06-16, 19:55:13
Original geschrieben von LovesuckZ
Die testen auch mit 4AF.
Wenn die im Spiel Quality eingestellt haben, dann testen sie auch mit 4AF, was wiederumg keinf airer Vergleich ist, gehen doch die ATi in vielen Faellen auf 2 zurueck.

und bei wievielen fällen schaut Nvidias 4xFSAA schlechter aus als ATis 2xFSAA? 100%?

PS: endlich kommen die vielen kleinen versteckten nvidia-optimierungen auf spezielle spiele-timedemos ans tageslicht.

Richthofen
2003-06-16, 19:56:33
Original geschrieben von Exxtreme
Scheint ja böse auf NV optimiert zu sein.

Kann sein muss aber nicht.
Ich könnte jetzt auch eine gegenteilige These aufstellen und behaupten, dass ATI sich mehrheitlich wohl nur um die standard Benchmark Games kümmert und nicht um andere.

Es kann natürlich auch sein das Nascar erheblich auf NV ausgerichtet ist. Aber da muss ich mal sagen, dass wird bei der Mehrheit der Spiele meisstens der Fall sein.
NV ist nicht umsonst Marktführer und die logische Konsequenz daraus wird sein, dass es wohl deutlich mehr Games gibt, die bisserl auf NV ausgerichtet sind als auf ATI.

Aber was hat das mit mir als Kunde zu tun? Also ganz ehrlich das ist mir ziemlich egal, weil mich halt nur interessiert wo das Spiel gut läuft und wo nicht. Wieso warum weshalb das so ist, dürfte mir herzlich egal sein. Wenn wir jetzt also mal mehr nicht standard Games benchen und feststellen, dass diese auf NV besser laufen, dann kann das 2 Gründe haben:

A) ATI kümmert sich kaum um Spiele die nicht Standard sind wie Q3
B) die Entwickler berücksichtigen in erster Linie Nvidia.

Welche Möglichkeit nun zutreffen würde, ist mir aber als Kunde dann egal. Ich stelle dann nur fest IHV A ist schlechter als IHV B und demuzfolge kaufe ich die Produkte von IHV B. Wie IHV A mit dem Problem zurecht kommt, kann nicht mein Bier sein. Wie gesagt es ist nicht meine Aufgabe als Kunde IHV A auf die Beine zu helfen.

Exxtreme
2003-06-16, 19:56:59
Die bei B3D haben's jetzt auch mitgekriegt:
http://www.beyond3d.com/forum/viewtopic.php?t=6459

Reverends Posting ist wirklich sehr interessant...

Richthofen
2003-06-16, 19:58:15
Original geschrieben von nagus
und bei wievielen fällen schaut Nvidias 4xFSAA schlechter aus als ATis 2xFSAA? 100%?

keinem

Exxtreme
2003-06-16, 20:02:45
Richthofen,

Nascar2003 ist ein EA-Spiel. Weitere Kommentare spare ich mir dazu.

Und bezüglich "ATi optimiert nur auf Standard-Bench-Spiele" sage ich:
Klick (http://www.3dcenter.org/artikel/r7500_vs_gf2ti/index3_z2.php)

Kommando zurück... Nascar 2003 Season ist ein Spiel von Papyrus und nicht von EA.

Gast
2003-06-16, 20:03:01
Original geschrieben von Exxtreme
Die bei B3D haben's jetzt auch mitgekriegt:
http://www.beyond3d.com/forum/viewtopic.php?t=6459

Reverends Posting ist wirklich sehr interessant...


Ouch...

eigentlich ist es umgekehrt. Ich habe den Link auf Beyond3D gefunden, aber leider vergessen die Quelle, also Beyond3D mit anzugeben. :(

Exxtreme
2003-06-16, 20:03:47
Original geschrieben von Gast
Ouch...

eigentlich ist es umgekehrt. Ich habe den Link auf Beyond3D gefunden, aber leider vergessen die Quelle, also Beyond3D mit anzugeben. :(
OK, dann hat sich's wohl erledigt. :D

MadManniMan
2003-06-16, 20:05:52
ist denke ich ein endeutiges zeichen.

bemerkenswert finde ich, daß sich einige daran zu stören scheinen, nur eben damit ein problem haben, daß keine "logische erklären" für die verschobenen fronten greifbar ist ;)

hauptsache der leo übernimmt das prinzip

nagus
2003-06-16, 20:06:51
Original geschrieben von Richthofen
keinem

*LOL* der war echt gut.

Radeon 2X http://www.ukgamer.com/picture.php4?source=reviews/msi/5900/iq/fin/ati/2xfsaa.bmp

GFFX 4X http://www.ukgamer.com/picture.php4?source=reviews/msi/5900/iq/fin/msi/4xfsaa.bmp

ok, ich muß zugeben manchmal ist nvidias 4x wirklich schöner als atis 2x.


abgesehen davon ist ab 4x aufwärts jede x-belibige Nvidia fsaa einstellung schlechter als atis "einfacher" 4xModus.

seahawk
2003-06-16, 20:08:00
Bevor hier jemand auf Grund von Herstellern auf eine Optimierung für eine Karte schliessen, sollten wir andere Gründe diskutieren. Z.B. Ist es denkbar, dass die FX in Nascar 2003 überwiegend als 8X1 arbeiten kann ??


PS. Nascar Racing 2003 Season ist von Papyrus Games - Sierra nicht EA.

BlackBirdSR
2003-06-16, 20:10:28
Original geschrieben von Exxtreme
Richthofen,

Nascar2003 ist ein EA-Spiel. Weitere Kommentare spare ich mir dazu.

Und bezüglich "ATi optimiert nur auf Standard-Bench-Spiele" sage ich:
Klick (http://www.3dcenter.org/artikel/r7500_vs_gf2ti/index3_z2.php)

und ich sage
Klick (httP://www.hardware.fr/articles/468/page12.html)

MadManniMan
2003-06-16, 20:16:40
Original geschrieben von nagus
ok, ich muß zugeben manchmal ist nvidias 4x wirklich schöner als atis 2x.


hm... ich wollte grade sagen "naa... übertreibs jetz nich: 4*og beinhaltet auch immer 2*rg, von daher kann 2*rg gar nicht besser aussehen!" - aber ich habe mich präkorrigiert:

die gammakorrektur läßt einige stellen wirklich besser aussehen :up: <- den daumen gibts, weil meine karte davon profitiert :D ...hätt ich mir doch ne konkurrierende NV-karte geholt, der daumen ginge nach unten :eyes:

Aqualon
2003-06-16, 20:23:25
Original geschrieben von nagus
Radeon 2X http://www.ukgamer.com/picture.php4?source=reviews/msi/5900/iq/fin/ati/2xfsaa.bmp

GFFX 4X http://www.ukgamer.com/picture.php4?source=reviews/msi/5900/iq/fin/msi/4xfsaa.bmp


Und? Ich will Screenshots aus Games in realer Auflösung und keine hochgezoomten theoretischen FSAA-Tester Pics (Wobei ich auf Screenshots eh viel mehr Fehler entdecke als im realen Spiel)

Aqua

LovesuckZ
2003-06-16, 20:25:08
Original geschrieben von seahawk
Bevor hier jemand auf Grund von Herstellern auf eine Optimierung für eine Karte schliessen, sollten wir andere Gründe diskutieren. Z.B. Ist es denkbar, dass die FX in Nascar 2003 überwiegend als 8X1 arbeiten kann ??


Nein, Nvidia schaltet beim Singletexturing nicht auf 8*1 um (kann nur die 5600).

LovesuckZ
2003-06-16, 20:26:34
Original geschrieben von nagus
abgesehen davon ist ab 4x aufwärts jede x-belibige Nvidia fsaa einstellung schlechter als atis "einfacher" 4xModus.

hm, tausche aa durch af und 4 durch 2 und wie sind beim nachteil der ATi Hardware...

LovesuckZ
2003-06-16, 20:36:12
Original geschrieben von nagus
Radeon 2X http://www.ukgamer.com/picture.php4?source=reviews/msi/5900/iq/fin/ati/2xfsaa.bmp
GFFX 4X http://www.ukgamer.com/picture.php4?source=reviews/msi/5900/iq/fin/msi/4xfsaa.bmp
ok, ich muß zugeben manchmal ist nvidias 4x wirklich schöner

Es gibt ein paar stellen, wo es schoener ist, doch im ganzen ist Nvidia's 4AA schoener als das von ATi:

http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zz_fsaatest_nv30_aa04.php

http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zz_fsaatest_r300_aa02.php

nagus
2003-06-16, 20:36:41
Original geschrieben von LovesuckZ
hm, tausche aa durch af und 4 durch 2 und wie sind beim nachteil der ATi Hardware...

der unterschied zwischen ATis und NVs AF qualität ist bei weitem nicht so gewaltig wie beim FSAA.

LovesuckZ
2003-06-16, 20:38:04
Original geschrieben von nagus
der unterschied zwischen ATis und AF qualität ist bei weitem nicht so gewaltig wie beim FSAA.

Das beschreitet keiner, nur nehmen die Unterschiede mit zunehmender Aufloesung ab. Daher sind auch alle Therorietester nicht aussagekraeftig.

Exxtreme
2003-06-16, 20:42:54
Original geschrieben von LovesuckZ
Das beschreitet keiner, nur nehmen die Unterschiede mit zunehmender Aufloesung ab.
Das gilt aber auch für den AF. =)

LovesuckZ
2003-06-16, 20:44:15
Original geschrieben von Exxtreme
Das gilt aber auch für den AF. =)

jap. Sah man schoen an den schraeken Haeuserdachern in der battlefielddemo - leider war's dann nimmer mehr spielbar.

AlfredENeumann
2003-06-16, 20:52:50
Original geschrieben von LovesuckZ
Aha, wo testen sie denn SeSam2 mit 4AA? zeige das mal bitte.


Das war ein Beispiel du nase. Hast du meinen Text genau gelesen und deinen den ich gequotet habe?

Aber die anderen Games haben die mit AA gebencht.

Richthofen
2003-06-16, 20:54:24
Original geschrieben von Exxtreme
Richthofen,

Nascar2003 ist ein EA-Spiel. Weitere Kommentare spare ich mir dazu.

Und bezüglich "ATi optimiert nur auf Standard-Bench-Spiele" sage ich:
Klick (http://www.3dcenter.org/artikel/r7500_vs_gf2ti/index3_z2.php)

Kommando zurück... Nascar 2003 Season ist ein Spiel von Papyrus und nicht von EA.

Hätte jetzt auch angenommen das es ein Spiel von EA ist.
Ok ist es nicht aber egal. Ich weiss schon was du meinst nur EA ist eben der größte Spielepublisher.
Und ich gehe fest davon aus, dass mehrheitlich Games eher auf NV optimiert sind als auf ATI. Manche sicher weil sie gekauft sind, viele aber auch, weil NVs Developer Support besser ist, ihre Karten prolemloser und hauptsächlich weil sie Marktführer sind.

Exxtreme ich bestreite nicht, dass dies der Fall ist mit dem optimieren. Ich bin mir auch sicher, das nicht jede Instabilität die ATI Karten haben auf ATIs Konto gehen nur weisst mir als Kunde kann das egal sein. Es ist einfach nicht mein problem. Ich kauf halt das was problemloser ist und das in Games besser abschneidet. Ob das besser abschneiden nur durch bessere Optimierung seitens der Spielehersteller erkauft wird, ist mir ziemlich egal und dem Markt auch.
Es ist einfach nicht das Problem der Kunden sondern ATIs Problem.
Es ist ihre Aufgabe diesen Umstand zu korrigieren, nicht meine als Kunde ihnen dabei zu helfen.

Insofern geh ich fest davon aus, dass solche Dinge wie Nascar viel häufiger vorkommen, sowie wir uns abseits der Standardbenchmarks bewegen. Alleine bei EA dürfte das recht häufig schon vorkommen, und die bringen verdammt viele Games raus.

LovesuckZ
2003-06-16, 21:02:52
Original geschrieben von AlfredENeumann
Das war ein Beispiel du nase. Hast du meinen Text genau gelesen und deinen den ich gequotet habe?


Das problem an der Sache ist, dass du meinen Text nicht gelesen hast. Mir jez irgendwas in die Schuhe zu schieben, ist ziehmlich dreist...

Mr. Lolman
2003-06-16, 21:03:30
.

Mr. Lolman
2003-06-16, 21:03:48
Es macht aber natürlich einen Unterschied ob nun auf Demos optimiert wird, und eine Leistung vorgegeben wird, die im tatsächlichem Spiel nicht erreicht wird, ob die Optimierung ich im Spiel zu tragen kommt, oder ob das Spiel generell auf eine bestimmte HW hin optimiert wurde.NASCAR2003 meiner Meinung nach ein Kanditat für Punkt 2 oder sogar 3 von den oben angesprochenen.

Normalerweise sind es ja die Standardbenchmarks die auf NV HW besser(bzw gleichgut) laufen (Q3,UT2003). Da man hier den Schritt gegangen ist, die Demos einfach auzuwechseln ermöglicht natürlich ein viel objektieveres Bild über die tatsächliche Leistung der Karten. :up:

LovesuckZ
2003-06-16, 21:05:44
Original geschrieben von Mr. Lolman
NASCAR2003 meiner Meinung nach ein Kanditat für Punkt 2 oder sogar 3 von den oben angesprochenen.


Also heißt es, dass jedes Spiel, wo ATi einen kleinen Druchhaenga habe, sei auf nvidia Karten optimiert, und wo Nvidia einen Durchhaenga habe, sei die ATi Karte besser?
Ne einseitige Sicht...

seahawk
2003-06-16, 21:08:00
Besonders wo Nascar von Sierra ist - Publisher für Valve.

Mr. Lolman
2003-06-16, 21:09:22
Original geschrieben von seahawk
Besonders wo Nascar von Sierra ist - Publisher für Valve.

Stimmt Valve - CS: läuft auf ATi Karten nicht immer gut *eg*

StefanV
2003-06-16, 21:10:42
Original geschrieben von LovesuckZ
Also heißt es, dass jedes Spiel, wo ATi einen kleinen Druchhaenga habe, sei auf nvidia Karten optimiert, und wo Nvidia einen Durchhaenga habe, sei die ATi Karte besser?
Ne einseitige Sicht...

Hm, das ganze könnte man jetzt aber auch umdrehen und auf ein bestimmtes Benchmark Programm anwenden :eyes:

LovesuckZ
2003-06-16, 21:15:59
Original geschrieben von Stefan Payne
Hm, das ganze könnte man jetzt aber auch umdrehen und auf ein bestimmtes Benchmark Programm anwenden :eyes:

???

aeh, was hat ein "bestimmtes Benchmark programm" mit dem zu tun, worueber wir hier reden?
Wen interessiert es bitte als Nvidia user, wenn man in diesem "bestimmten Benchmark programm" kein Land sieht, doch alle Spiele vollkommen in Ordnung laufen?
Was hat ein ATi User davon, wenn er in einem Spiel Probleme hat, dafuer aber dieses "bestimmte benchmark" Programm vollkommen in ordnung durchlaufen kann?

Black-Scorpion
2003-06-16, 21:23:48
Original geschrieben von seahawk
Besonders wo Nascar von Sierra ist - Publisher für Valve.

Nascar ist von Papyrus.

http://www.papy.com/

Gast
2003-06-16, 21:31:34
Original geschrieben von LovesuckZ
nur nehmen die Unterschiede mit zunehmender Aufloesung ab.

das halte ich für ein gerücht - pixeltreppe gleibt pixeltreppe
nur wenn das bild die größe beibehält wirds praktisch künstlich supergesampelt - das dann FSAA subjektiv weniger bringt wenns schon "supergesampelt" würde ist wohl klar oder?

oder hab ich was falsch verstanden?

SShock3
2003-06-16, 21:45:47
Finde ich auch sehr vernünftig, was FS da machen, die Seite war mir aber auch vorher schon symphatisch.

Xmas
2003-06-16, 21:53:22
Original geschrieben von Anonym_001
Nascar ist von Papyrus.

http://www.papy.com/
Ja, und das schicke Sierra-Logo links auf der Seite ist nur Dekoration ;)

nagus
2003-06-16, 22:26:59
komisch dass sich keiner das wort "cheat" in den mund nehmen traut. für mich ist dieses review wieder nur ein bestätigung dafür, dass nvidia bei den standard-q3 und SSSE timedeos cheatet was das zeug hält.

oder erinnert sich keiner an die ersten Q3 benchmarks bei denen auf wundersame weise die 5900ULTRA plötzlich doppelt so schnell ist wie eine 9700pro?

Quasar
2003-06-16, 23:06:00
Ja, nagus. nV cheatet immer und überall. Wahrscheinlich zeigen sie sogar den Desktop in Wirklichkeit nur in 24Bit statt "echten" 32Bit an.

Vielleicht liegt's aber auch nur an der verwendeten Demo, die lt. Firingsquad ja ein bisschen anspruchsvoller ist...

nagus
2003-06-16, 23:35:25
zum Vergleich:

"standard" Timedemo

http://firingsquad.gamers.com/hardware/nvidia_geforce_fx_5900_ultra/page18.asp

"custom" Timedemo

http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/page9.asp


... also IMHO ist der Unterschied etwas zu krass, oder?

Beim normalen Timedemo rund 40% schneller, beim neuen auf einmal 7% langsamer (in 1600x1200)?? Aber hallo! Das richt förmlich nach Cheat. Und wie uns die Vergangenheit gelehrt hat, ist nVidia durchaus zu soetwas fähig!

Das witzige ist, dass plötzlich selbst in niedrigen Auflösungen die ATI Karten vorne sind... und eine 10 Monate alte 9700 pro quasi gleich schnell, wie eine gut 50% teure 5900er ULTRA mit 256MB ist...

nagus
2003-06-16, 23:38:21
Original geschrieben von Quasar
Ja, nagus. nV cheatet immer und überall. *SPAM*


nicht immer und überall, aber oft. und das ist leider eine tatsache.

Cenmocay
2003-06-16, 23:53:27
Original geschrieben von nagus
nicht immer und überall, aber oft. und das ist leider eine tatsache.

Is doch voll Rille
Hauptsache die Games laufen richtig schnell.

nagus
2003-06-17, 00:02:17
Original geschrieben von Cenmocay
Is doch voll Rille
Hauptsache die Games laufen richtig schnell.

also ich finde das nicht "Rille" wenn eine firma ihre kundschaft durch tricks und manipuliation betrügt. noch dazu da diese gewisse firma anscheinend aus den letzten wochen und monaten der "aufdeckphase" nichts gelernt hat. sehr traurig.

MadManniMan
2003-06-17, 00:03:34
Original geschrieben von Cenmocay
Hauptsache die Games laufen richtig schnell.

da springt ja grad der punkt.

dem anschein nach performen die NV-karten vielleicht nicht so schnell, wie es die ganzen benches andeuten :(

AlfredENeumann
2003-06-17, 00:09:03
Original geschrieben von LovesuckZ
Das problem an der Sache ist, dass du meinen Text nicht gelesen hast. Mir jez irgendwas in die Schuhe zu schieben, ist ziehmlich dreist...

Ne wieso. Du kommst immer mit dem gleichen AF einwand genauso wie Razor und Richthofen, dann lass dir gefälligst auch den AA Einwand gefallen.

Salvee
2003-06-17, 00:10:04
Original geschrieben von Cenmocay
Is doch voll Rille
Hauptsache die Games laufen richtig schnell.

:|

Ok, habe auf die schnelle ein Review für dich geschrieben:

FX5800 : Spiele laufen richtig schnell
FX5800Ultra: Spiele laufen richtig schnell
FX5900: Spiele laufen richtig schnell
FX5900U: Spiele laufen richtig schnell
R9700: Spiele laufen richtig schnell
R9700Pro: Spiele laufen richtig schnell
R9800Pro: Spiele laufen richtig schnell

Hurra, ich bin ein echter Reviewer ;)

nagus
2003-06-17, 00:11:37
noch was zum 4xfsaa der FX... es gibt inzwischen screenshots


"Editor's Note: We've received emails from a few of you questioning whether the GeForce FX cards are performing anti-aliasing in IL-2 Sturmovik or not. In light of the Splinter Cell AA issue, we felt it best to provide you with screenshots (http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/media/il2screens.zip) directly from IL-2 demonstrating AA in action on the GeForce FX 5900 Ultra reference board. As you can see, AA is working (4xAA with 8xAF, in one shot, just like our test conditions) but just barely for a "4x" setting. Please download the bitmaps to see for yourself (http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/media/il2screens.zip). "

sieht mir eher nach qunincunxx FSAA oder villeicht 2x aus, aber das ist mit sicherheit kein normales 4xfsaa.

PS: die screenshots am besten mit einem bildbearbeitungsprogramm öffnen und die helligkeit erhöhen sonst sieht man überhaupt nix... alles ziehmlich finster hier :)

AlfredENeumann
2003-06-17, 00:12:45
Original geschrieben von Quasar
Vielleicht liegt's aber auch nur an der verwendeten Demo, die lt. Firingsquad ja ein bisschen anspruchsvoller ist...


Wenn dem wirklich so ist wie du da schreibst, dann ist es ja für NV noch viel schlimmer. Da wo nix los ist liegen sie in Führung und ATI hat das nachsehen (besonders bei SS:SE) und dann kommt mal was Action ins Spiel geht die Leistung gegenüber dem Wettbewerb so dermaßen in den Keller ?

MadManniMan
2003-06-17, 00:14:35
Original geschrieben von nagus
sieht mir eher nach qunincunxx FSAA oder villeicht 2x aus, aber das ist mit sicherheit kein normales 4xfsaa.

PS: die screenshots am besten mit einem bildbearbeitungsprogramm öffnen und die helligkeit erhöhen sonst sieht man überhaupt nix... alles ziehmlich finster hier :)

wenn ich nicht ganz blöd bin, ist das nicht mehr und nicht weniger, als das übliche 4*MSAA screenshot-problem der fx 5900

AlfredENeumann
2003-06-17, 00:17:13
Original geschrieben von nagus
sieht mir eher nach qunincunxx FSAA oder villeicht 2x aus, aber das ist mit sicherheit kein normales 4xfsaa.



Oder ist das wieder eines dieser Screenshots die nicht richtig gemacht wurden ?
Weil es sieht zu scheiße aus. Das müßte sofort im Spiel auffallen wenn es so mieserabel aussieht.

Quasar
2003-06-17, 01:09:36
Original geschrieben von AlfredENeumann
Wenn dem wirklich so ist wie du da schreibst, dann ist es ja für NV noch viel schlimmer. Da wo nix los ist liegen sie in Führung und ATI hat das nachsehen (besonders bei SS:SE) und dann kommt mal was Action ins Spiel geht die Leistung gegenüber dem Wettbewerb so dermaßen in den Keller ?

Nö, wieso? Es ist doch kein Geheimnis, dass man auch in ein und derselben Engine Situationen schaffen kann, die entweder der einen oder der anderen Architektur mehr liegen.

edit:
Ich möchte mich ehrlich gesagt, auch nicht ausgerechnet um Q3A-Resultate streiten. Das Spiel ist mittlerweile immer und überall schnell genug... Serious Sam SE da schon weniger.

seahawk
2003-06-17, 07:49:01
Original geschrieben von Anonym_001
Nascar ist von Papyrus.

http://www.papy.com/


Habe ich doch vorher gesagt.

Entwicklet von Papyrus - Publisher ist Sierra

nagus
2003-06-17, 07:58:30
Original geschrieben von MadManniMan
wenn ich nicht ganz blöd bin, ist das nicht mehr und nicht weniger, als das übliche 4*MSAA screenshot-problem der fx 5900

vielleicht. hatt nvidia nicht gesagt das problem wird in den nächsten treibern gefixt? wann war das, vor 12 wochen?

LovesuckZ
2003-06-17, 08:00:07
Original geschrieben von nagus
vielleicht. hatt nvidia nicht gesagt das problem wird in den nächsten treibern gefixt? wann war das, vor 12 wochen?

hm, lebst du innen Zeitloch?

seahawk
2003-06-17, 08:14:44
Original geschrieben von AlfredENeumann
Wenn dem wirklich so ist wie du da schreibst, dann ist es ja für NV noch viel schlimmer. Da wo nix los ist liegen sie in Führung und ATI hat das nachsehen (besonders bei SS:SE) und dann kommt mal was Action ins Spiel geht die Leistung gegenüber dem Wettbewerb so dermaßen in den Keller ?

Full ACK

nggalai
2003-06-17, 08:27:33
Hola,
Original geschrieben von Salvee
:|

Ok, habe auf die schnelle ein Review für dich geschrieben:

FX5800 : Spiele laufen richtig schnell
FX5800Ultra: Spiele laufen richtig schnell
FX5900: Spiele laufen richtig schnell
FX5900U: Spiele laufen richtig schnell
R9700: Spiele laufen richtig schnell
R9700Pro: Spiele laufen richtig schnell
R9800Pro: Spiele laufen richtig schnell

Hurra, ich bin ein echter Reviewer ;) Stimmt. ;D

Die einzigen Leute, die sich über die komischen Werte einen Kopf machen müssen sind a) die Reviewer ("habe ich denn wirklich getestet, oder wurde ich verarscht?"), b) Leute, die auf Vergleichsreviews schaun und c) Freaks. Dem normalen Kunden kann das eigentlich ziemlich egal sein.

93,
-Sascha.rb

Tarkin
2003-06-17, 08:28:08
vorher:

http://www.3dvelocity.com/reviews/5900u/5900u_4.htm

nachher:

http://www.3dvelocity.com/reviews/5900u/5900u_16.htm


"Run using ToMMTi-Systems revised PS2.0 shader code. These new shaders will be made available at http://www.tommti-systems.com from June 25th. In the words of author Thomas Bruckschlegel these 2.0 and 2.0 partial precision shaders deliver the same image as the old ones, but they have some shuffled instructions, which makes them invisible for current driver optimisations. Unlike in the review, these were run using DX8 Mip Filter Reflections due to some apparent problems with DX9 Mip Filter Reflections as reported by ToMMTi."

Ich spar mir jedes Kommentar ... ist einfach lächerlich was nVidia hier aufführt.

seahawk
2003-06-17, 08:36:43
Danke für den Link @ Tarkin

Bin mal gespannt wie das zu begründen ist.

Eigentlich wird es Zeit, dass eine Website vor der 5900Ultra warnt. Alle Benchmarkergebnisse sind imo mit Vorsicht zu betrachten.

(Nach diesen Vorfällen wird meine R300 erst von der R420 abgelöst - NV lieber nicht)

Demirug
2003-06-17, 08:48:11
Original geschrieben von Tarkin
vorher:

http://www.3dvelocity.com/reviews/5900u/5900u_4.htm

nachher:

http://www.3dvelocity.com/reviews/5900u/5900u_16.htm


"Run using ToMMTi-Systems revised PS2.0 shader code. These new shaders will be made available at http://www.tommti-systems.com from June 25th. In the words of author Thomas Bruckschlegel these 2.0 and 2.0 partial precision shaders deliver the same image as the old ones, but they have some shuffled instructions, which makes them invisible for current driver optimisations. Unlike in the review, these were run using DX8 Mip Filter Reflections due to some apparent problems with DX9 Mip Filter Reflections as reported by ToMMTi."

Ich spar mir jedes Kommentar ... ist einfach lächerlich was nVidia hier aufführt.

Das habe ich doch schon damals wärend der 3dmark 330 Afäre gesagt das auch der Shader des Shadermarks optimiert werden.

Man wollte eben nicht zu schlecht darstehen also hat man die Shader auf die eigene Architektur angepasst.

seahawk
2003-06-17, 09:01:06
Hmm,

sowas habe ich mir gedacht. Also ist es das Gleiche wie beim 3DMark.

Also hat NV Probleme mit allen Shadern die nicht auf Ihre Hardware optimiert sind. Bis das neue DX9 SDK die BETA Phase verläst ist die Karte also theoretisch bei jeder Shaderoperation im Nachteil.

Meinst Du, dass dieser erhebliche Unterschied nur an einer Optimierung der Shader liegt ??

Leonidas
2003-06-17, 09:01:58
Original geschrieben von Richthofen
also erstmal find ich Custom Timedemos geil!
Diese erfordern natürlich auch ein gewisses Know How beim Reviewer, da die Ergebnisse richtig interpretiert werden müssen.




Sie erfordern als allererstes ein gewisses KnowHow beim Aufnehmer - und ich behaupte mal, daß das nicht mehr als 2-3 Leute auf der Welt haben. ich muß ehrlich sagen, ich bin mörderisch vorsichtig bei Ergebnissen mit Demos, die kein Mensch außer dem Verfasser je gesehen hat.

Leonidas
2003-06-17, 09:06:10
Original geschrieben von nagus
zum Vergleich:

"standard" Timedemo

http://firingsquad.gamers.com/hardware/nvidia_geforce_fx_5900_ultra/page18.asp

"custom" Timedemo

http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/page9.asp


... also IMHO ist der Unterschied etwas zu krass, oder?

Beim normalen Timedemo rund 40% schneller, beim neuen auf einmal 7% langsamer (in 1600x1200)?? Aber hallo! Das richt förmlich nach Cheat. Und wie uns die Vergangenheit gelehrt hat, ist nVidia durchaus zu soetwas fähig!

Das witzige ist, dass plötzlich selbst in niedrigen Auflösungen die ATI Karten vorne sind... und eine 10 Monate alte 9700 pro quasi gleich schnell, wie eine gut 50% teure 5900er ULTRA mit 256MB ist...



Reicht IMO nicht als *Beweis*, da es nicht derselbe Tests, nicht die selbe Q3A-Version, nicht dieselben gfx-Settings sind. Ist natürlich ein *Indiz*. Schönes wäre es aber gewesen, wenn sich die FS diesem Effekt genauer angenommen hätte, anstatt es sang und klanglos einfach zu machen.

Exxtreme
2003-06-17, 09:16:35
Original geschrieben von AlfredENeumann
Das müßte sofort im Spiel auffallen wenn es so mieserabel aussieht.
Quack, Quack, Quack... ;)

Hat auch beschissen ausgesehen und trotzdem ist es niemanden aufgefallen.

Erst nachdem NV [H] wegen der Sache benachrichtigt hat, kam die Sache ans Licht.

Demirug
2003-06-17, 09:25:22
Original geschrieben von seahawk
Hmm,

sowas habe ich mir gedacht. Also ist es das Gleiche wie beim 3DMark.

Also hat NV Probleme mit allen Shadern die nicht auf Ihre Hardware optimiert sind. Bis das neue DX9 SDK die BETA Phase verläst ist die Karte also theoretisch bei jeder Shaderoperation im Nachteil.

Meinst Du, dass dieser erhebliche Unterschied nur an einer Optimierung der Shader liegt ??

Ja NV hat definitive ein Problem mit normalen 2.0 Shadern was sich solange äussern wird bis man einen Treiber mit einem entsprechenden Crosscompiler baut oder die Anwendungen eben entsprechende Shader-Targets benutzten.

Wenn ich mir die unterschiede zwischen einem 2_0 und einem 2_A (das NV3X Target) anschauen so sind diese so heftig das ich gerne bereit bin zu glauben das diese eine ganze menge ausmachen kann. Man muss sich das wie bei den ersten Pentiums vorstellen. Der Chip ist zwar in der Lage mehrer Anweisungen gleichzeitig auszuführen aber nur wenn diese in der richtigen Rheienfolge kommen. Eine automatische out of order execution ist nicht möglich.

Im Falle des Shadermarks kommt aber sicherlich auch noch ein zweiter Effekt dazu. Die Shader die Thomas geschrieben hat lassen soweit ich mir das angeschaut habe durchaus noch Raum für allgemeine optimierungen und die hat nv sicherlich auch gleich mit durchgeführt.

BlackBirdSR
2003-06-17, 09:39:26
Ist das Ganze nicht eigentlich ein Problem für Printmagazine?

Ok, PCGHW hat vielleicht die Zeit und eventuell die Mittel um geeignete Custom Demos aufzunhemen. Aber Gamestar, Chip, PCWelt, C't und wie sie Alles heissen, deren Benchmarks sind doch damit quasi disqualifiziert. Gerade dort testet man ja fast nur mit Q3, §dMark, und SS:SE.

@Demirug: was passiert eigentlich aller Wahrscheinlichkeit, wenn so ein 2_A Shadercode auf die R300 losgelassen wird? Darf man wirklich davon ausgehen, dass die Entwickler 2x kompellieren, oder muss man sich darauf Einstellen dass aus Zeit/Geld/Platz Mangel auch die Radeons auf absehbare Zeit übermäßig 2_A Code vorgesetzt bekommen?

Demirug
2003-06-17, 09:49:52
Original geschrieben von BlackBirdSR
@Demirug: was passiert eigentlich aller Wahrscheinlichkeit, wenn so ein 2_A Shadercode auf die R300 losgelassen wird? Darf man wirklich davon ausgehen, dass die Entwickler 2x kompellieren, oder muss man sich darauf Einstellen dass aus Zeit/Geld/Platz Mangel auch die Radeons auf absehbare Zeit übermäßig 2_A Code vorgesetzt bekommen?

2_A & R300? Da schreit der Catalyst nur: BLEIB MIR WEG MIT DEM SCHEISS.

Der R300 ist technisch nicht in der Lage 2_A Shader auszuführen.

Das mit dem 2x kompilieren ist kein grosses Problem da das sowieso als Batchjob durchläuft bzw erst zur Laufzeit gemacht wird.

IMHO wird es deswegen wohl so ausgehen weil sich der aufwand in grenzen hält.

R3XX bekommen 2_0
NV3X bekommen 2_A
???? bekommen 2_B
...

Mehr Sorgen macht mir da von Hand in Shaderassembler programmierter Code. Denn kann man nicht mal so einfach auf ein anderes Target ziehen. Vorallem die 1.4 Shader könnten sich da noch als Tiefschlag für nv erweisen wenn jemand anfängt diese massive zu benutzten.

Gast
2003-06-17, 10:09:49
Original geschrieben von MadManniMan
wenn ich nicht ganz blöd bin, ist das nicht mehr und nicht weniger, als das übliche 4*MSAA screenshot-problem der fx 5900

Denke ich nicht. Der Typ bei Firingquad scheint schon genau zu wissen, wie man bei der FX5900 / NV3x korrekte 4xAA-Screenshots macht.


UPDATE: We've also received requests for Nascar 2003 screenshots with the GeForce FX 5900 Ultra card. Unlike IL-2 Sturmovik, the use of AA is quite apparent on all cards we tested with. Unfortunately however, Hypersnap and our copy of Nascar 2003 refuse to cooperate with each other, with either program crashing with the other in use. To improvise, we've taken pictures of the monitor with a digital camera. It's not the best solution, but we're not aware of another screen capture program that supports NV35's post-processing for taking accurate screenshots with AA. As you can see in the photos, 4xAA works with NVIDIA's reference card, but please refrain from judging texture quality based on these pictures as they appear to be blurrier than what we're seeing on the screen (probably caused by a slight camera movement). Essentially, we just wanted to prove that the FX 5900 card is running with AA enabled.


Also die IL-2 Screenshots scheinen schon das zu zeigen, was man auch auf dem Monitor sieht.

MadManniMan
2003-06-17, 10:18:51
Original geschrieben von Gast
Also die IL-2 Screenshots scheinen schon das zu zeigen, was man auch auf dem Monitor sieht.

danke :up: bin also einfach zu blöd zum lesen... und NV, nicht zu verarschen!

Axel
2003-06-17, 10:26:29
Wie muss man eigentlich nv-eigene Demo "Dawn" einordnen, die auf einem R300 am Ende sogar schneller lief. Da kann man doch von ausgehen, daß der Code für die nv-Architektur optimal ist.

Gast
2003-06-17, 10:28:30
Original geschrieben von nagus
"standard" Timedemo

http://firingsquad.gamers.com/hardware/nvidia_geforce_fx_5900_ultra/page18.asp

"custom" Timedemo

http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/page9.asp


Der Unterschied ist bei 1024x768 sogar noch schlimmer :

"standard" : 326 / 264 +23,5%
"custom" : 152 / 183,5 -17,2%

Unterschied : 1,235 * (1/0,828) = 1,50 !

Also in einer Standardauflösung mit jeweils 4xAA + 8xAF cheated (sorry aber was anderes fällt mir dazu nicht mehr ein) Nvidia um 50%.

Wo sind den jetzt bitte alle, wie ow und Lovesucks, die behaupten cheating spiele keine Rolle, da 3DMark03 ja nur ein synthetischer Benchmark ist.

Nvidia, du siehst kein Geld mehr von mir. Das ist die einzige Sprache die diese Idioten verstehen. Dagegen ist das Quake/Quak-Debakel der R8500-Karten ein kleiner Klacks, verglichen mit dieser riesigen Scheiße.

Gast
2003-06-17, 10:32:18
Das einzige was mir noch dazu einfällt :

ATi könnte gar nicht soviel Geld für Werbung ausgeben wie ihnen dieses von Nvidia verursachte Debakel an positiver Publicity einbringt.

Oder, anders rum : Nvidia hat wohl sehr viele ATi-Aktien, weil sie die Konkurrenz unterstützen und sich selber kaputt machen.

Demirug
2003-06-17, 10:34:55
Original geschrieben von Axel
Wie muss man eigentlich nv-eigene Demo "Dawn" einordnen, die auf einem R300 am Ende sogar schneller lief. Da kann man doch von ausgehen, daß der Code für die nv-Architektur optimal ist.

Das ganze kann man so leider nicht vergleichen. Zum einen sollen "angeblich" bei der ATI Version Effekte fehlen. Aber davon abgesehen macht der spezielle OpenGL Wrapper auch nichts anderes als die für die NV-Extension vorgesehenen Shader gegen Shader zu tauschen die der R300 versteht. Das was der R300 da also vorgesetzt bekommt hat mit den NV-Originalshader nur noch den Effekt gemeinsam. Deswegen funktioniert der Wrapper ja auch nur für Dawn weil er nur für die von Dawn verwendeten Shadern über R300 taugliche Versionen verfügt. Da das ganze von Studenten gemacht wurde gehe ich davon aus das die Austausch Shader gut für den R300 optimiert wurden. Man will ja schliesslich zeigen was man kann.

Gast
2003-06-17, 10:52:40
Original geschrieben von Demirug
Das ganze kann man so leider nicht vergleichen. Zum einen sollen "angeblich" bei der ATI Version Effekte fehlen. Aber davon abgesehen macht der spezielle OpenGL Wrapper auch nichts anderes als die für die NV-Extension vorgesehenen Shader gegen Shader zu tauschen die der R300 versteht. Das was der R300 da also vorgesetzt bekommt hat mit den NV-Originalshader nur noch den Effekt gemeinsam. Deswegen funktioniert der Wrapper ja auch nur für Dawn weil er nur für die von Dawn verwendeten Shadern über R300 taugliche Versionen verfügt. Da das ganze von Studenten gemacht wurde gehe ich davon aus das die Austausch Shader gut für den R300 optimiert wurden. Man will ja schliesslich zeigen was man kann.

Es sagt aber schon was aus über die Leistungsfähigkeit einer Architektur. Und bei diesen shaderlastigen Demos sollte bei entsprechender Effizienz der Taktratenvorteil voll durchschlagen, auch wenn das bei derzeitigen Games keine so große Rolle spielt. Find ich also schon ein wenig peinlich für nVidia, mit Hinblick auf die anfängliche Argumentation von wegen "der Shaderüberchip".

PS, die Ing. von nVidia wollte sicher auch zeigen, was sie drauf haben. Und die sollten ein wenig mehr knowhow besitzen als ein paar Studenten mit Programmierambitionen. Ergo, ziemlich peinlich für NV und ganz schnell eine neue DawnDemo releasen:D.

Quasar
2003-06-17, 11:09:58
Hm....


Der alte Test: Q3 v1.17, kein Timedemo angegeben, wahrscheinlich "demo_four".

Der neue Test: Q3 v1.32, "custom" Timedemo angegeben.


Performance:
FX5800u R9700p
alt,1024, std. 417,4 385,1
alt,1024, 4x/8x 231,5 224,3


neu,1024, std. tjo, die fehlen leider
neu,1024, 4x/8x 128,0 163,3


Was ich sehe:
- im alten Demo, was wir wohl alle kennen, in dem wenig los ist, führt nV auch unter FSAA/AF knapp
- im neuen Test, wo wohl mehr los sein soll, liegt nV zurück.

Was ich _nicht_ sehe:
- das nV cheatet (innocent until proven otherwise)

Was ich für möglich halte:
- Durch das "mehr" an Aktion wirken sich die 8x1 Pipelines der R3x0 stärker aus
- Durch das "mehr" an Aktion wirkt sich die AF-Optimierung der nV3x weniger stark aus
- Durch das "mehr" an Action (ist Q3DM1 eine Map mit freiem Himmel?) geht die Bandbreite schneller zur neige, als im engen und geschlossenen Demo_four.
- Das nV hier auch unerlaubt optimiert, i.e. gecheatet hat.

Iceman346
2003-06-17, 11:20:10
Original geschrieben von Quasar
- Durch das "mehr" an Action (ist Q3DM1 eine Map mit freiem Himmel?) geht die Bandbreite schneller zur neige, als im engen und geschlossenen Demo_four.

Q3DM1 hat in einem Teilbereich einen offenen Himmel. Der Grossteil der Map ist aber geschlossen. Die gesamte Karte ist aber nicht sehr gross.

BlackBirdSR
2003-06-17, 11:22:42
Original geschrieben von Quasar
Hm....


Der alte Test: Q3 v1.17, kein Timedemo angegeben, wahrscheinlich "demo_four".

Der neue Test: Q3 v1.32, "custom" Timedemo angegeben.


Performance:
FX5800u R9700p
alt,1024, std. 417,4 385,1
alt,1024, 4x/8x 231,5 224,3


neu,1024, std. tjo, die fehlen leider
neu,1024, 4x/8x 128,0 163,3


Was ich sehe:
- im alten Demo, was wir wohl alle kennen, in dem wenig los ist, führt nV auch unter FSAA/AF knapp
- im neuen Test, wo wohl mehr los sein soll, liegt nV zurück.

Was ich _nicht_ sehe:
- das nV cheatet (innocent until proven otherwise)

Was ich für möglich halte:
- Durch das "mehr" an Aktion wirken sich die 8x1 Pipelines der R3x0 stärker aus
- Durch das "mehr" an Aktion wirkt sich die AF-Optimierung der nV3x weniger stark aus
- Durch das "mehr" an Action (ist Q3DM1 eine Map mit freiem Himmel?) geht die Bandbreite schneller zur neige, als im engen und geschlossenen Demo_four.
- Das nV hier auch unerlaubt optimiert, i.e. gecheatet hat.

@Demi: thx

@Thema:
Im Falle für den Angeklagten -> gehen wir mal davon aus, dass Nvidia nicht cheatet, und die Q3 benches auf Grund der veränderten Action so unterschiedlich ausfallen.
Das ist für trotzdem ein Grund für mich zu fordern, mindestens 2 Szenen pro Game zu Benchen. Es kann nicht angehen, dass ein Timedemo nicht repräsentativ für ein Spiel ist, man es aber so behandelt. PUNKT!

Richthofen
2003-06-17, 11:33:08
Original geschrieben von BlackBirdSR
@Demi: thx

@Thema:
Im Falle für den Angeklagten -> gehen wir mal davon aus, dass Nvidia nicht cheatet, und die Q3 benches auf Grund der veränderten Action so unterschiedlich ausfallen.
Das ist für trotzdem ein Grund für mich zu fordern, mindestens 2 Szenen pro Game zu Benchen. Es kann nicht angehen, dass ein Timedemo nicht repräsentativ für ein Spiel ist, man es aber so behandelt. PUNKT!

na also wenn du was anderes erwartet hast, dann warst aber ganz schön naiv.
Wie kann denn bitte schön eine einzige Timedemo repräsentativ für alle möglichen auftretenden Szenarien im Spiel sein. Das geht einfach nicht. Die Maps sind zu unterschiedlich und auch die Action ist nicht vergleichbar.

VoodooJack
2003-06-17, 11:35:31
Original geschrieben von Gast
Der Unterschied ist bei 1024x768 sogar noch schlimmer :

"standard" : 326 / 264 +23,5%
"custom" : 152 / 183,5 -17,2%

Unterschied : 1,235 * (1/0,828) = 1,50 !

Also in einer Standardauflösung mit jeweils 4xAA + 8xAF cheated (sorry aber was anderes fällt mir dazu nicht mehr ein) Nvidia um 50%.

Wo sind den jetzt bitte alle, wie ow und Lovesucks, die behaupten cheating spiele keine Rolle, da 3DMark03 ja nur ein synthetischer Benchmark ist.

Nvidia, du siehst kein Geld mehr von mir. Das ist die einzige Sprache die diese Idioten verstehen. Dagegen ist das Quake/Quak-Debakel der R8500-Karten ein kleiner Klacks, verglichen mit dieser riesigen Scheiße.

Ganz deiner Meinung. Jetzt reicht's. Nvidia kriegt von mir auf absehbare Zeit kein Geld mehr.

Kaum werden die ersten Customized Timedemos verwendet, schon fallen Nvidias Wunderwaffen auf die ihnen gebührenden Plätze zurück. Sogar hinter die 9700Pro. Also mich wundert das überhaupt nicht.

Wie man sieht, opti-cheatet Nvidia nicht nur in synthetischen Benchmarks a la 3DMark auf Teufel-komm-raus, sondern auch in anderen werbeträchtigen Spielebenchmarks.

Und was Nascar anbetrifft, warten wir mal einen customized Benchmark für Nascar ab. Wie werden die Ergebnisse dann aussehen? Na, wie wohl? Auf Beyond3D wird bereits davon gemunkelt, dass Nascar zwar mit 4xAA, aber 0xAF gelaufen sein könnte.

Und vergesst nicht, wir stehen erst ganz, ganz am Anfang des "Custom-Benchmarkings". Es schaut düster aus für Nvidia.

Demirug
2003-06-17, 11:46:59
Original geschrieben von Richthofen
na also wenn du was anderes erwartet hast, dann warst aber ganz schön naiv.
Wie kann denn bitte schön eine einzige Timedemo repräsentativ für alle möglichen auftretenden Szenarien im Spiel sein. Das geht einfach nicht. Die Maps sind zu unterschiedlich und auch die Action ist nicht vergleichbar.

Wie sagte doch schon JC so schön:

I can set up scenes and parameters where either card can win,...

Leonidas
2003-06-17, 12:10:23
Original geschrieben von Quasar
Hm....


Der alte Test: Q3 v1.17, kein Timedemo angegeben, wahrscheinlich "demo_four".

Der neue Test: Q3 v1.32, "custom" Timedemo angegeben.


Performance:
FX5800u R9700p
alt,1024, std. 417,4 385,1
alt,1024, 4x/8x 231,5 224,3


neu,1024, std. tjo, die fehlen leider
neu,1024, 4x/8x 128,0 163,3


Was ich sehe:
- im alten Demo, was wir wohl alle kennen, in dem wenig los ist, führt nV auch unter FSAA/AF knapp
- im neuen Test, wo wohl mehr los sein soll, liegt nV zurück.

Was ich _nicht_ sehe:
- das nV cheatet (innocent until proven otherwise)

Was ich für möglich halte:
- Durch das "mehr" an Aktion wirken sich die 8x1 Pipelines der R3x0 stärker aus
- Durch das "mehr" an Aktion wirkt sich die AF-Optimierung der nV3x weniger stark aus
- Durch das "mehr" an Action (ist Q3DM1 eine Map mit freiem Himmel?) geht die Bandbreite schneller zur neige, als im engen und geschlossenen Demo_four.
- Das nV hier auch unerlaubt optimiert, i.e. gecheatet hat.



Sehe och 100%ig gleich. Diese Demos zeigen nur, daß NV unter Last in Q3A langsamer ist als wenn man eine dummen Mittelwert nimmt. wahrscheinlich würde sich dieser Effekt auch mit einigen anderen bekannten Last-Demos für Q3A ergeben (Q3Cusher etc.)

Leonidas
2003-06-17, 12:11:16
Original geschrieben von BlackBirdSR
Das ist für trotzdem ein Grund für mich zu fordern, mindestens 2 Szenen pro Game zu Benchen. Es kann nicht angehen, dass ein Timedemo nicht repräsentativ für ein Spiel ist, man es aber so behandelt. PUNKT!


Sowas kannste nicht fordern! Das würde ja Mitdenken von den HW-Testern erfordern!

Leonidas
2003-06-17, 12:12:42
Original geschrieben von Demirug
Wie sagte doch schon JC so schön: I can set up scenes and parameters where either card can win,...


Womit es die Aufgabe des Demo-Aufnehmenden ist, eine Demo zu finden, welche so gut wie möglich dem Spiel entspricht. Und die Aufgabe des HW-Testers, diese Demo auch zu benutzen und nicht das, was im mundgerecht von HW-Herstellern vorgelegt wird. Womit wir wieder beim Thema wären: Das würde ja Mitdenken von den HW-Testern erfordern!

Leonidas
2003-06-17, 12:15:53
Original geschrieben von BlackBirdSR
Ist das Ganze nicht eigentlich ein Problem für Printmagazine?

Ok, PCGHW hat vielleicht die Zeit und eventuell die Mittel um geeignete Custom Demos aufzunhemen. Aber Gamestar, Chip, PCWelt, C't und wie sie Alles heissen, deren Benchmarks sind doch damit quasi disqualifiziert. Gerade dort testet man ja fast nur mit Q3, §dMark, und SS:SE.



Ich gestehe Gamestar, Chip, PCWelt, C't & Co. gern zu, nicht all zu viel Zeit für die Benchmark-Suche oder -Erstellung aufzuwenden, die wollen schließlich zum Schluß kommen und haben auch noch andere Probleme. Dennoch muß ich fordern, daß man dort das Gehirn einschaltet und sich wenigstens einmal nach Alternativen umsieht. Niemand muß Benchmarks selber erstellen - aber man kann doch das web absuchen und man wird sicherlich fündig bei der Suche nach alternativen Benchmarks.

MadManniMan
2003-06-17, 12:16:34
Original geschrieben von Leonidas
Sowas kannste nicht fordern! Das würde ja Mitdenken von den HW-Testern erfordern!

:lol:

...kann man ergo davon ausgehen, daß du zukünftig mehrere szenen pro app heranziehst? ist imho so wichtig, daß man als "lastausgleich" auf die eine oder andere app verzichten könnte - aber am besten wär natürlich doppelte demozahl mit alter app-zahl :D

aths
2003-06-17, 12:22:02
Original geschrieben von MadManniMan
da springt ja grad der punkt.

dem anschein nach performen die NV-karten vielleicht nicht so schnell, wie es die ganzen benches andeuten :( Ja, so ein Bench mit vielen Balken sieht objektiv aus. Was oft fehlt ist, dass der Reviewer mit den Karten auch spielt, am besten, _bevor_ er bencht, und seine Eindrücke aufschreibt, ob die Leistung auch beim Spielen so ist wie es die Bench-Gewinner-Reihenfolge dann angibt.

Aqualon
2003-06-17, 12:27:34
Original geschrieben von MadManniMan
...kann man ergo davon ausgehen, daß du zukünftig mehrere szenen pro app heranziehst? ist imho so wichtig, daß man als "lastausgleich" auf die eine oder andere app verzichten könnte - aber am besten wär natürlich doppelte demozahl mit alter app-zahl :D

Und am besten noch Full-Level-Demos, hm? Ich glaub bei Serious Sam könnte man auch das gesamte Spiel mitzeichnen, das wär dann wirklich repräsentativ!

Mit dem kleinen Haken, dass das Benchen eines Settings gut und gerne 10-15h dauern würde also 4 Settings * 10 Grakas * 15h = 600h; 600h/24 = 25 Tage, mit den Grakawechseln wär man also fast nen Monat nur mit einem Game beschäftigt :rofl:

Aber zumindest 2 kurze oder auch eine längere Demo sollte man schon benchen.

Wobei mich bei Serious Sam eh nur interessieren würde, was im Schwierigkeitsmodus Serious mit ca. 100 Monstern, die auf dich zukommen, noch an min. Framerate übrigbleibt. Durchschnitt und Max interessieren da wirklich nicht.

Aqua

MadManniMan
2003-06-17, 12:30:17
Original geschrieben von Aqualon

Wobei mich bei Serious Sam eh nur interessieren würde, was im Schwierigkeitsmodus Serious mit ca. 100 Monstern, die auf dich zukommen, noch an min. Framerate übrigbleibt. Durchschnitt und Max interessieren da wirklich nicht.


richtig spaß würde mir das lesen eines reviews erst machen, wenn ich verlaufskurven zu gesicht bekäme...

[dzp]Viper
2003-06-17, 12:32:27
Original geschrieben von Aqualon
Wobei mich bei Serious Sam eh nur interessieren würde, was im Schwierigkeitsmodus Serious mit ca. 100 Monstern, die auf dich zukommen, noch an min. Framerate übrigbleibt. Durchschnitt und Max interessieren da wirklich nicht.


da reicht doch das letzte level - da kommen 500 oder 600 gegner auf dich zu - wo man den ewig langen und breiten gang entlanggehen muss ...

dauert vielleicht 45 - 60 minuten ...

Aqualon
2003-06-17, 12:32:48
Original geschrieben von aths
Ja, so ein Bench mit vielen Balken sieht objektiv aus. Was oft fehlt ist, dass der Reviewer mit den Karten auch spielt, am besten, _bevor_ er bencht, und seine Eindrücke aufschreibt, ob die Leistung auch beim Spielen so ist wie es die Bench-Gewinner-Reihenfolge dann angibt.

Wobei dann wohl das Ergebnis von Salvee rauskommt, dass alle Highend-Karten gut zum Spielen geeignet sind.

Aber grundsätzlich wären solche Spieleindrücke viel wertvoller als Unterschiede um wenige Frames bei Benchmarks. Hab auch mal ein Review der Matrox Parhelia gesehen, wo der Reviewer gemeint hat, dass die Triple Head Funktion immer noch spielbar ist auch wenn die Benchmarks manchmal vernichtende Ergebnisse im Vergleich zu anderen Karten ausgespuckt haben.

Und sowas bringt mir mehr als die ganzen theoretischen Vergleiche. Die sind zwar schön und gut, aber ich will wissen, wie ein Spiel auf ner Grafikkarte rüberkommt. Nur dürfte das nicht wirklich gut auszuwerten sein und halt auch viel mehr Arbeit machen als ne Demo zu starten und am Ende ne Zahl abzulesen.

Aqua

Aqualon
2003-06-17, 12:35:19
Original geschrieben von MadManniMan
richtig spaß würde mir das lesen eines reviews erst machen, wenn ich verlaufskurven zu gesicht bekäme...

Das wär natürlich etwas. Verlaufskurven mit Screenshot zu jedem Messpunkt, damit man auch schön analysieren kann, wo der Performanceeinbruch herkommt. Aber solche Teile könnte dann niemand online stellen, sondern würden sich nur für nähere Betrachtungen bei nem Review eignen.

Aqua

Aqualon
2003-06-17, 12:37:19
Original geschrieben von [dzp]Viper
da reicht doch das letzte level - da kommen 500 oder 600 gegner auf dich zu - wo man den ewig langen und breiten gang entlanggehen muss ...

dauert vielleicht 45 - 60 minuten ...

Dann wären wir aber immer noch bei 3-4 Stunden pro Graka (wenn man 4 Settings nimmt, oder 1,5-2h bei 2 Settings).

Aber das wär mal ne gute Idee :up:

Aqua

MadManniMan
2003-06-17, 12:39:25
Original geschrieben von Aqualon
Verlaufskurven mit Screenshot zu jedem Messpunkt, damit man auch schön analysieren kann, wo der Performanceeinbruch herkommt.

naja, man kann imho bei verlaufskurven immer gut ausmachen, wo die großen einbrüche sind und diese sind dann auch bei allen karten erkennbar. von daher braucht man auch nur kurz zu konstatieren, was da abgeht...

[dzp]Viper
2003-06-17, 12:40:13
da müsste man da eine spieltypische auflösung nehmen (wer spielt schon in 1600x1280 mit 6 AA und 16 AF :bonk: )

Z.b. 1280x960 mit 4 AA und 8 AF - das nenne ich eine spieltypsiche auflösung + bildverschönerungsmittel im gesunden maße ...

Aqualon
2003-06-17, 13:14:45
Original geschrieben von [dzp]Viper
da müsste man da eine spieltypische auflösung nehmen (wer spielt schon in 1600x1280 mit 6 AA und 16 AF :bonk: )

Z.b. 1280x960 mit 4 AA und 8 AF - das nenne ich eine spieltypsiche auflösung + bildverschönerungsmittel im gesunden maße ...

Wer spielt schon in 1280*960 mit 4 AA und 8 AF? ;)

Ich wär dann für 3 Settings:

[list=1]
1024*768 0 AA 0 AF
1024*768 2 AA 4 AF
1280*1024 max. AA, max AF
[/list=1]

Das dürfte wohl den meisten Spielern entgegenkommen.

Man könnte natürlich auch noch nach spielbaren Settings benchen. Niemandem bringen Benches mit 6 AA und 16 AF etwas, wenn die getesten Grakas allesamt unter 20fps rumtuckern.

Aqua

nggalai
2003-06-17, 13:15:13
Hola,
Original geschrieben von Leonidas
Sehe och 100%ig gleich. Diese Demos zeigen nur, daß NV unter Last in Q3A langsamer ist als wenn man eine dummen Mittelwert nimmt. wahrscheinlich würde sich dieser Effekt auch mit einigen anderen bekannten Last-Demos für Q3A ergeben (Q3Cusher etc.) Nee, noch viel weniger: Die Nummern zeigen nur, dass in einem bestimmten Q3-Demo, welches sich nichtmal zum Nachprüfen und/oder Analysieren runterladen lässt, die NV langsamer ist. Daraus lassen sich weder über die generelle Performance bei Q3A noch die generelle Performance der FX Rückschlüsse ziehen. Demiurg hat's ja auch schon gepostet.

Und eben: eine Demo ist keine Demo, ein Demo-Durchlauf ist kein Demo-Durchlauf. Benchmarks, auch mit eigen aufgenommenen Demos, sagen nur aus, wie sich die Karten in der einen Demo rumschlagen und lassen nur beschränkt Rückschlüsse auf generelle Performance zu--besonders dann, wenn man die Demos nichtmal selbst nachvollziehen, anschaun und analysieren kann. Ich beführworte zwar auch "eigene" Game-Demos für Benchmarks, aber das da bei Firingsquad ist eher unnütz.

Wenn schon, dann bitte mehrere Timedemos pro Spiel, mit Download des verwendeten Demos und Benchmark-Hinweise, damit man's auch nachvollziehen und vergleichen kann. Und im Idealfall bitte endlich keine direkten Vergleiche mehr zwischen verschiedenen Architekturen. Das nervt mich schon seit 3 Jahren.

93,
-Sascha.rb

Aqualon
2003-06-17, 13:15:52
Original geschrieben von MadManniMan
naja, man kann imho bei verlaufskurven immer gut ausmachen, wo die großen einbrüche sind und diese sind dann auch bei allen karten erkennbar. von daher braucht man auch nur kurz zu konstatieren, was da abgeht...

Stimmt, das würde auch Sinn machen. Gibt es eigentlich ein Game, das so Verlaufskurven aufzeichnen kann? Oder das wenigstens alle Einzelmesswerte abspeichert?

Aqua

AlfredENeumann
2003-06-17, 13:24:56
Original geschrieben von Exxtreme
Quack, Quack, Quack... ;)

Hat auch beschissen ausgesehen und trotzdem ist es niemanden aufgefallen.

Erst nachdem NV [H] wegen der Sache benachrichtigt hat, kam die Sache ans Licht.


Oder Produzieren die NV-Karten immer noch ein schlechtes Monitorbild das diese unschärfe nicht auffällt? *duckundindeckunggeh*

Aqualon
2003-06-17, 13:28:45
Original geschrieben von AlfredENeumann
Oder Produzieren die NV-Karten immer noch ein schlechtes Monitorbild das diese unschärfe nicht auffällt? *duckundindeckunggeh*

Das nicht, aber hättest du als Reviewer Bock 40 Durchläufe ein und desselben Demos anzuschauen? Da wartet man doch nur noch, dass es vorbei ist und man nen Zahlenwert hat.

Aqua

MadManniMan
2003-06-17, 13:33:10
Original geschrieben von Aqualon
Stimmt, das würde auch Sinn machen. Gibt es eigentlich ein Game, das so Verlaufskurven aufzeichnen kann? Oder das wenigstens alle Einzelmesswerte abspeichert?

Aqua

im moment fällt mir da nur SS ein

Mr. Lolman
2003-06-17, 13:34:04
Original geschrieben von Aqualon
Wer spielt schon in 1280*960 mit 4 AA und 8 AF? ;)

Aqua

Ich :D (Naja meist ists nur 1152x864 dafür aber auch mit 6xAA (GTA VC z.B.))


x) Die Highend Karten muss man vernünftig ausreizen. Wenn sie in hohen Auflögunen gut perfomen, dann sind sie auch in niedrigen schnell. Natürlich bin ich dafür auch einen CPU limiterten Test zu machen,um zu sehen wie es mit der CPU Last der Treiber aussieht.

Aber benchen würde ich nur mehr bei vergleichbarer Quali. (Wenn von der GraKa X das 5xAA in Spiel Y gleichgut aussieht wie das 3x AA von GraKa Z, dann sollte man auch 3xAA gegen 5xAA in diesem Spiel benchen. (Genau das Gleiche gilt fürs AF)

Dazu sei gesagt, dass man die korrekte natürlich fürs jeweilige Spiel abwiegen muss, und genauestens vergleich, ob die Screenshotquali wirklich der jenigen im Spiel entspricht. (ATi z.B. übernimmt bei der 'Druck' Taste nicht immer die Gammasettings, und da legte sich mir z.B. schon der Verdacht nahe, dass u.U. überhaupt etwas anderes in den Screeschot gerndert würde. (War aber zum Glück nicht so))


x) Fastet Einstellungen würde ich überhaupt mal gleich bleiben lassen. Keiner kauft sich eine 500 Euro Karte nur um im Treiber dann die Qualität runter zu stellen.


x) Man sollte mal einen Aufruf zum Demo aufnehmen starten. Die Leute könnten dann alle ihre Demos an Leo schicken, und de sucht für seinen nächsten Test die Besten raus, und lässt bei der Gelgenheit gleich alle Standardbenchmarktimedemos links liegen.

Damit ermittelt man dann die Gameperfomance. Die theoretische DX9 Perfomance kann meinetwegen sperat ermittelt werden, da man ja auch wissen will wie die neue DX9 Karte in ihe´rem 'Spezialgebiet' abschneidet.

Für ein abschliessendes Fazit sollte man natürlich die reale Gameperfomance viel stärker als die theoretische DX9 Perfomance werten.

AlfredENeumann
2003-06-17, 13:34:48
Original geschrieben von Aqualon
Das nicht, aber hättest du als Reviewer Bock 40 Durchläufe ein und desselben Demos anzuschauen? Da wartet man doch nur noch, dass es vorbei ist und man nen Zahlenwert hat.

Aqua

Nein. Würde ich auch nicht machen, ABER bei den Karten heutzutage sind Bildverbessernde maßnahmen in Spielbaren Bereichen und da sollte man diese schon vergleichen inweit eine Bildverbesserung eintritt, gerade wenn man weis das ATI das schönere AAF bietet, und NV das schönere AF.

Leonidas
2003-06-17, 14:46:57
Original geschrieben von MadManniMan
:lol:

...kann man ergo davon ausgehen, daß du zukünftig mehrere szenen pro app heranziehst? ist imho so wichtig, daß man als "lastausgleich" auf die eine oder andere app verzichten könnte - aber am besten wär natürlich doppelte demozahl mit alter app-zahl :D


Mal schauen. Ich werde mir auf jeden Fall meine Gedanken machen.

Leonidas
2003-06-17, 14:48:41
Original geschrieben von MadManniMan
naja, man kann imho bei verlaufskurven immer gut ausmachen, wo die großen einbrüche sind und diese sind dann auch bei allen karten erkennbar. von daher braucht man auch nur kurz zu konstatieren, was da abgeht...


Das Problem an Verlaufskurven ist, daß ich noch kein Game gesehen habe, wo die Verlaufskurven unterschiedlicher gfx wirklich unterschiedlich waren.

MadManniMan
2003-06-17, 14:56:25
Original geschrieben von Leonidas
Das Problem an Verlaufskurven ist, daß ich noch kein Game gesehen habe, wo die Verlaufskurven unterschiedlicher gfx wirklich unterschiedlich waren.

naja, das isses ja auch. die meisten vorteile der "großen karten" merkt man an den höheren frames in den eh schon ausreichend performenden szenen...

:ratlos: so what?

Endorphine
2003-06-17, 15:15:09
Unterm Strich der ganzen Diskussion kommt ja doch nur eines heraus: Benchmarks messen die Leistung eines Produkts "x", welches es in exakt dem Testszenario erbringen kann. Eine Demo ist eine Demo ist eine Demo und lässt kaum Rückschlüsse auf die real-world performance zu.

Man sollte Grafikkarten also auch weiterhin hauptsächlich nach der Rohleistung und nach effizienzsteigernden Features kaufen, also eben Füllrate, Speicherbandbreitenschonmassnahmen, AA-Samples/Takt, mögliche AA/AF-Modi, Treibersituation etc.

Wenn die Karte dann noch in ein paar pseudo-Praxisbenchmarks (-> Demos aus Spielen) gut performt - prima. Alle Benchmarks dieser Welt die nicht die Rohleistung ermitteln zeigen ja nichts weiter als die Leistung für diesen einen Benchmark, nicht mehr und nicht weniger. Da aber niemand mit der Grafikkarte nur Demos ablaufen lassen will sind diese Werte wohl hart an der Grenze zur Irrelevanz IMHO.

Ich bin für eine stärkere Gewichtung von Messungen zur Rohleistung, die dem Programmierer zur Verfügung steht. Wenn die stimmt kann nur noch wenig schief gehen. Wenn die Karte aber schon nur eine winzige Füllrate hat brauch man nicht mehr auf Pseudopraxisbenchmarks schauen.

Gast
2003-06-17, 15:20:26
Original geschrieben von Leonidas
Das Problem an Verlaufskurven ist, daß ich noch kein Game gesehen habe, wo die Verlaufskurven unterschiedlicher gfx wirklich unterschiedlich waren.

Tja, so habe ich das auch in Erinnerung ( bei SS2 ).

Um so seltsamer ist es, das die FX5900-U bei hoher Last plötzlich wesentlich stärker einbrechen soll als die R9800Pro.

Da die Last für beide Karten im gleichen Maß gesteigert wurde (durch das neue Demo) sollten IMHO auch die Frameraten gleichmäßig einbrechen (+- 20% wegen der unterschiedlichen Architektur) aber nicht gleich um 50%.

Gast
2003-06-17, 15:26:50
Original geschrieben von Endorphine
Unterm Strich der ganzen Diskussion kommt ja doch nur eines heraus: Benchmarks messen die Leistung eines Produkts "x", welches es in exakt dem Testszenario erbringen kann. Eine Demo ist eine Demo ist eine Demo und lässt kaum Rückschlüsse auf die real-world performance zu.

Man sollte Grafikkarten also auch weiterhin hauptsächlich nach der Rohleistung und nach effizienzsteigernden Features kaufen, also eben Füllrate, Speicherbandbreitenschonmassnahmen, AA-Samples/Takt, mögliche AA/AF-Modi, Treibersituation etc.

Wenn die Karte dann noch in ein paar pseudo-Praxisbenchmarks (-> Demos aus Spielen) gut performt - prima. Alle Benchmarks dieser Welt die nicht die Rohleistung ermitteln zeigen ja nichts weiter als die Leistung für diesen einen Benchmark, nicht mehr und nicht weniger. Da aber niemand mit der Grafikkarte nur Demos ablaufen lassen will sind diese Werte wohl hart an der Grenze zur Irrelevanz IMHO.

Ich bin für eine stärkere Gewichtung von Messungen zur Rohleistung, die dem Programmierer zur Verfügung steht. Wenn die stimmt kann nur noch wenig schief gehen. Wenn die Karte aber schon nur eine winzige Füllrate hat brauch man nicht mehr auf Pseudopraxisbenchmarks schauen.

Wie misst du die "Rohleistung"?

Liest du dir die Spec's der Karte durch?

Nutzt du synthetische Benchmarks wie 3DMark03 oder Shadermark?

Oder?


Ohne Leistungstest (=Benchmarks) hast du keinen Durchblick wie gut die Karte wirklich ist. Die Xabre400 zB. ist von den Spec's her gut. Trotzdem ist es eine ziemlich schlechte Gamer-Karte. Ohne Benchmarks etc. wüsstest du das aber gar nicht und wärst der Meinung "He ich hab eine Tolle Karte mit vielen Features zu einem sehr guten Preis"

Genausogut kannst du ein Auto alleine nach den Hochglanzprospekten der OEM's beurteilen. Da ist auch jeder der beste und baut die tollsten und besten Auto's.

Demirug
2003-06-17, 15:31:47
Original geschrieben von Endorphine
Ich bin für eine stärkere Gewichtung von Messungen zur Rohleistung, die dem Programmierer zur Verfügung steht. Wenn die stimmt kann nur noch wenig schief gehen. Wenn die Karte aber schon nur eine winzige Füllrate hat brauch man nicht mehr auf Pseudopraxisbenchmarks schauen.

Genau hier haben wir aber ein Problem. Welche Rohleistung? Je programmierbare die Chips werden desto mehr Alternative gibt es. Welche davon will man da zur Bewertung der Rohleistung heranziehen?

Dazu kommt dann noch das Problem das es inzwischen so viele Stellen gibt die zum Flaschenhals werden können und dieser von Pixel zu Pixel wandern kann.

BlueRaven
2003-06-17, 15:38:25
Ich weiß net ob es hier erwähnt wurde aber...


hab ihr auch gemerkt das von GeForceFX 5800 Ultra zur GeForceFX 5900 Ultra net so ein großer unterschied gibt nur einpaar pünktchen so 5-15 Punte nur und das wars auch.


hmm...


MFG
BlueRaven

Endorphine
2003-06-17, 15:43:48
Original geschrieben von Gast
Wie misst du die "Rohleistung"? Mit zeckensack's Archmark zum Beispiel :) Original geschrieben von Gast
Liest du dir die Spec's der Karte durch? Ja, das ausserdem. Dann natürlich ein Abgleich der angegebenen Leistung z.B. mit Archmark-Resultaten. Der Archmark spiegelt ja dann das wieder, was der Programmierer an Leistung nutzen kann. Wenn die stimmt hat man schon mal das gesamte Gerüst aus Treiber, OS und API hinter sich und kann auf eine Erkenntnis zur Rohleistung vertrauen IMHO. Was dann die Progger in den einzelnen Anwendungen daraus machen muss man dann sehen. Der wichtigste Wert ist aber immer noch die Rohleistung finde ich. Wenn die stimmt ist die Chance sehr hoch, dass die real-world performance auch in Ordnung ist. Ist sie schlecht kann es in der Realität nur noch schlechter werden. Original geschrieben von Gast
Nutzt du synthetische Benchmarks wie 3DMark03 oder Shadermark? Ja, zum Spass aber nur ehrlich gesagt. Darauf aufbauend würde ich _niemals_ eine Kaufentscheidung treffen. Benchmarkergebnisse aus solchen Programmen überblättere ich in Reviews auch immer, da praktisch irrelevant. Original geschrieben von Gast
Ohne Leistungstest (=Benchmarks) hast du keinen Durchblick wie gut die Karte wirklich ist. Die Xabre400 zB. ist von den Spec's her gut. Trotzdem ist es eine ziemlich schlechte Gamer-Karte. Ohne Benchmarks etc. wüsstest du das aber gar nicht und wärst der Meinung "He ich hab eine Tolle Karte mit vielen Features zu einem sehr guten Preis" Eben. Wenn man die Rohleistung messen würde käme man viel schneller zu dieser Erkenntnis, ohne erst mit irgendwelchen pseudo-Praxisbenchmarks oder gar grausigen Synthesetests etwas ableiten zu müssen. Wieder: wenn die Rohleistung stimmt ist die Chance hoch, dass die Anwenungsleistung auch i.O. ist. Wenn die Rohleistung mies ist wird auch in den schönsten Benchmarks kein überragendes Ergebnis rauskommen, in der Realität erst recht nicht. Original geschrieben von Gast
Genausogut kannst du ein Auto alleine nach den Hochglanzprospekten der OEM's beurteilen. Da ist auch jeder der beste und baut die tollsten und besten Auto's. Ist zwar sehr OT, aber nen Auto suche ich ganz bestimmt nicht nach irgendwelchen Prospekten aus, sondern eher nach harten technischen Fakten und auch ein wenig nach dem Aussehen... Der Vergleich ist irgendwie sehr weit hergeholt.

Gast
2003-06-17, 15:48:02
Original geschrieben von Endorphine
Mit zeckensack's Archmark zum Beispiel :)

Ahh; also doch ein Benchmark. ;D

OK, ich hatte das ganze etwas anders verstanden.

PCGH_Thilo
2003-06-17, 15:51:18
Original geschrieben von Leonidas
Sie erfordern als allererstes ein gewisses KnowHow beim Aufnehmer - und ich behaupte mal, daß das nicht mehr als 2-3 Leute auf der Welt haben. ich muß ehrlich sagen, ich bin mörderisch vorsichtig bei Ergebnissen mit Demos, die kein Mensch außer dem Verfasser je gesehen hat.

danke leo. endlich mal ein ordentliches posting zum thema custom demo. scheint ja jeder zu glauben, so was macht man zwischen 20 uhr und tagesschau.

ich weiß noch gut, wie lange ich an jedi knight 2, alice, ST Voyager usw. saß, um ein "anständiges" demo hinzubekommen. das problem ist doch: jeder, der ein demo aufnimmt, hat schon eine gewisse intention (soll es ein vga-benchmark werden oder ein cpu-benchmark?). das allein macht ein custom demo schon fragwürdig.

das auswählen einer zwischenszene fürs fraps-benchen ist auch nicht besser. man muss immer berücksichtigen, ob die Szene a) fürs Spiel repräsentativ und b) für die Performance der Karte übers ganze Spiel hinweg repräsentativ ist.

natürlich nutzen wir bei pcgh weitgehend eigene demos/zwischensequenzen, aber die "streuung" der ergebnisse über verschiedene spiele geben einem doch zu denken.

Endorphine
2003-06-17, 15:55:36
Original geschrieben von Demirug
Genau hier haben wir aber ein Problem. Welche Rohleistung? Den Durchsatz der einzelnen Funktionen, die dem Programmierer zur Verfügung stehen. Und natürlich die gängigsten Kombinationen davon. Original geschrieben von Demirug
Welche davon will man da zur Bewertung der Rohleistung heranziehen?
Ich schaue in erster Linie auf Füllrate, Speicherbandbreite und Geometrieleistung. Wenn die auch aus einem Theoriebenchmark heraus eine grosse Leistung versprechen kann der Rest keine so schlechte real-world Performane abliefern behaupte ich mal.

Zur Verfeinerung der Erkenntnisse muss man natürlich auch den Rest betrachten und kann dann z.B. auch etwas ableiten aus den AA/AF-Modi, Speicherbandbreitenschonmassnahmen etc. Original geschrieben von Demirug
Dazu kommt dann noch das Problem das es inzwischen so viele Stellen gibt die zum Flaschenhals werden können und dieser von Pixel zu Pixel wandern kann. Wenns danach geht kann man die Realität sowieso nicht nachstellen. Man kann nie die Leistung für einen Zeitpunkt "t" theoretisch ermitteln, an dem jemand Counterstrike auf Server y mit der Latenz z und Auslastung x, mit der CPU "blabla" und mit der Soundkarte "blubb" spielt. Und so weiter. Man misst sowieso immer nur eine Teilleistung des Gesamtsystems. Wenn die Grafikkarte dann ständig darauf wartet, dass die CPU mit der Soundkodierung fertig wird hat man auch nichts gewonnen. Und wenn man die Leistung in 20.000 schönen Benchmarkszenen misst und dabei alles dagewesene in den Schatten gestellt wird und dann der User nur Szene xy spielt, in der ausgerechnet eine nie dagewesene Schwäche voll zum tragen kommt hat man auch nichts gewonnen. Ich denke, dass ist eher ein Problem aller Benchmarks.

Endorphine
2003-06-17, 15:56:40
Original geschrieben von Gast
Ahh; also doch ein Benchmark. ;D

OK, ich hatte das ganze etwas anders verstanden. Datenblätter allein nützen ja nichts. Es zählt ja das, was der Programmierer am Ende zur Verfügung hat :)

Endorphine
2003-06-17, 16:02:47
@Mods: Kann mal jemand diesen furchtbaren Threatitel auf normales Deutsch umbiegen?

-> "Firingsqud benutzt "Custom Demo's for Benchmarks" Der Plural von "Demo" heißt immer noch "Demos". Danke, wäre nett.

Oder wenn, dann sollte es wenigstens gleich so aussehen: "Firing'squa'd benutz't "Custom' Demo's for Benchmark's" ;)

Aqualon
2003-06-17, 16:12:33
Original geschrieben von PCGH_Thilo
das problem ist doch: jeder, der ein demo aufnimmt, hat schon eine gewisse intention (soll es ein vga-benchmark werden oder ein cpu-benchmark?). das allein macht ein custom demo schon fragwürdig.


Warum dann überhaupt so kurze Demos aufnehmen, die nach ner Minute durch sind? Warum nicht einfach mal jemanden nen Level komplett durchspielen lassen für ein Timedemo? Das würde dann beim Benchen zwar ziemlich lange dauern, aber man könnte mehr daraus ablesen als aus einer 2 Minutendemo.

Original geschrieben von PCGH_Thilo
das auswählen einer zwischenszene fürs fraps-benchen ist auch nicht besser. man muss immer berücksichtigen, ob die Szene a) fürs Spiel repräsentativ und b) für die Performance der Karte übers ganze Spiel hinweg repräsentativ ist.


Klar muss das abgewägt werden, aber mich interessiert bei nem Grafikkartentest kein Durchschnittswert aus irgendeinem Timedemo. Als Spieler ist mir wichtiger, ob die Grafikkarte auch in den anspruchsvollen Szenen noch durchhält oder ich zum Weiterkommen die Grafikqualität runterschalten muss.

Deswegen würden mich min. Frames in sehr anspruchsvollen Szenen sehr interessieren. Inwieweit das realisierbar ist, kann ich natürlich auch schlecht abschätzen.

Aqua

PCGH_Thilo
2003-06-17, 16:17:20
Original geschrieben von Aqualon
Warum dann überhaupt so kurze Demos aufnehmen, die nach ner Minute durch sind? Warum nicht einfach mal jemanden nen Level komplett durchspielen lassen für ein Timedemo? Das würde dann beim Benchen zwar ziemlich lange dauern, aber man könnte mehr daraus ablesen als aus einer 2 Minutendemo.



Klar muss das abgewägt werden, aber mich interessiert bei nem Grafikkartentest kein Durchschnittswert aus irgendeinem Timedemo. Als Spieler ist mir wichtiger, ob die Grafikkarte auch in den anspruchsvollen Szenen noch durchhält oder ich zum Weiterkommen die Grafikqualität runterschalten muss.

Deswegen würden mich min. Frames in sehr anspruchsvollen Szenen sehr interessieren. Inwieweit das realisierbar ist, kann ich natürlich auch schlecht abschätzen.

Aqua

hört sich alles schön an, ist aber leider realitätsfremd.
Beispiel:
15 Grafikkarten (normale Auswahl)
3 Settings (No AF, Quality, Extreme Quality)
5 Benchmarks
x1,5 für zweiten Durchlauf
=330 Benchmarkdurchgänge

wenn ich automatisiert benchen könnte, wäre das noch erträglich. aber wenn ich auch noch für jedes setting jede szene in echtzeit spielen muss...

wenn jemand den 72-stunden-tag erfindet, no prob =)

Legende
2003-06-17, 16:21:58
Hmm...Thilo hattet ihr mal die Gelegenheit Aquanox oder UT2003 so für 2-3 Stunden einfach mal so zu spielen? Jeweils mit der 5900Ultra und der 9800Pro und ohne dabei auf die FPS zu schauen. Ist es nicht eigentlich das was den Kunden im Endeffekt interessiert? Einfach mal 2-3 Stunden entspannt dadeln. Ich finden so sollte man das machen. Erst entspannt ein paar Spiele "antesten" (sofern man Zeit dafür hat), sich aufschreiben was positiv und was negativ auffiel und DANACH erst benchmarken. :)

Aqualon
2003-06-17, 16:23:12
Original geschrieben von PCGH_Thilo
wenn ich automatisiert benchen könnte, wäre das noch erträglich. aber wenn ich auch noch für jedes setting jede szene in echtzeit spielen muss...

wenn jemand den 72-stunden-tag erfindet, no prob =)

In Echtzeit spielen erwartet ja niemand, ausserdem wär das wohl sehr schlecht vergleichbar (ausser ihr habt in der Redaktion jemanden, der 100%ig immer denn gleichen Weg nimmt ;))

Aber ein Timedemo über 20-30 min müsste doch mal drin sein. In Serious Sam z.B. würde das locker für nen Level ausreichen.

Aqua

Leonidas
2003-06-17, 16:23:17
Original geschrieben von MadManniMan
naja, das isses ja auch. die meisten vorteile der "großen karten" merkt man an den höheren frames in den eh schon ausreichend performenden szenen...

:ratlos: so what?


Das habe ich nicht gemeint: Die meisten Verlaufskurven sind trotz unterschiedlicher gfx sehr gleichförmig: Dort, wo nix los ist im Spiel sehr hoch, dort, wo die Bude raucht im Spiel, alles unten. Schnellere gfx haben generell etwss höher gelagerte Kurven, erreichen ihre höhere ds-fps aber nicht nur durch höhere Werte bei den schnellen Szenen, sondern auch durch höhere Werte bei den langsamen Szenen.

PCGH_Thilo
2003-06-17, 16:25:21
Original geschrieben von Aqualon
In Echtzeit spielen erwartet ja niemand, ausserdem wär das wohl sehr schlecht vergleichbar (ausser ihr habt in der Redaktion jemanden, der 100%ig immer denn gleichen Weg nimmt ;))

Aber ein Timedemo über 20-30 min müsste doch mal drin sein. In Serious Sam z.B. würde das locker für nen Level ausreichen.

Aqua

ich denke nicht, dass sich über einen längeren zeitraum zwangsweise andere ergebnisse zeigen. müsste man mal ausprobieren.

BlueRaven
2003-06-17, 16:26:18
Original geschrieben von Legende
Hmm...Thilo hattet ihr mal die Gelegenheit Aquanox oder UT2003 so für 2-3 Stunden einfach mal so zu spielen? Jeweils mit der 5900Ultra und der 9800Pro und ohne dabei auf die FPS zu schauen. Ist es nicht eigentlich das was den Kunden im Endeffekt interessiert? Einfach mal 2-3 Stunden entspannt dadeln. Ich finden so sollte man das machen. Erst entspannt ein paar Spiele "antesten" (sofern man Zeit dafür hat), sich aufschreiben was positiv und was negativ auffiel und DANACH erst benchmarken. :)


da würde ich auch meinen das die leute sich eher für realitische sachen interessieren und nicht für Benchmarks Technick die eh fast in keinen Spiel zur verwendung kommt.

Darum würden wir schon gerne sehen wie die Karten in UT2003 oder sonstiges läufen


MFG
BLueRaven

PCGH_Thilo
2003-06-17, 16:27:55
Original geschrieben von Legende
Hmm...Thilo hattet ihr mal die Gelegenheit Aquanox oder UT2003 so für 2-3 Stunden einfach mal so zu spielen? Jeweils mit der 5900Ultra und der 9800Pro und ohne dabei auf die FPS zu schauen. Ist es nicht eigentlich das was den Kunden im Endeffekt interessiert? Einfach mal 2-3 Stunden entspannt dadeln. Ich finden so sollte man das machen. Erst entspannt ein paar Spiele "antesten" (sofern man Zeit dafür hat), sich aufschreiben was positiv und was negativ auffiel und DANACH erst benchmarken. :)

keine sorge, wir zocken mit den testkarten auch und erfreuen uns nicht nur an der schicken verpackung ;-)

siehe z.B. aktuelle ausgabe Spiele-Kompatibilität bei NV35 vs 9800 Pro. da haben wir nämlich genau das gemacht.

Leonidas
2003-06-17, 16:29:09
Original geschrieben von Aqualon
Deswegen würden mich min. Frames in sehr anspruchsvollen Szenen sehr interessieren. Inwieweit das realisierbar ist, kann ich natürlich auch schlecht abschätzen.

Aqua


Min Werte = Wert einer einzelnen Zehntelsekunde, welche CPU-limitiert sein kann oder einfach eine Fehler im Spiel. Zudem keine mathematisch/statistisch *haltbare* Aussage zur Performance, da eben nur ein einzelner Wert. Zum Vergleich: Ein normales Timedemo erzeugt ca. 2000 bis 5000 Werte -> DAS ist dann eine vernünftige Arbeitsbasis, alles andere ist statistisch gesehen *vollkommen* unseriös.

Sprich: Bitte Min fps, welche als mindestens 100 Werten bestehen, beispielsweise die schlechtesten 100 Werte eines Demo-Durchlaufs. Alles andere ist Blödsinn.

Legende
2003-06-17, 16:30:39
Original geschrieben von PCGH_Thilo
keine sorge, wir zocken mit den testkarten auch und erfreuen uns nicht nur an der schicken verpackung ;-)

siehe z.B. aktuelle ausgabe Spiele-Kompatibilität bei NV35 vs 9800 Pro. da haben wir nämlich genau das gemacht.

Oh. Das ist schön. Hab mir die heute gekauft bin aber noch nicht zum lesen gekommen. Werd ich mal heute abend durchlesen =)

ram
2003-06-17, 16:31:24
Original geschrieben von Aqualon
Warum dann überhaupt so kurze Demos aufnehmen, die nach ner Minute durch sind? Warum nicht einfach mal jemanden nen Level komplett durchspielen lassen für ein Timedemo? Das würde dann beim Benchen zwar ziemlich lange dauern, aber man könnte mehr daraus ablesen als aus einer 2 Minutendemo. Klar muss das abgewägt werden, aber mich interessiert bei nem Grafikkartentest kein Durchschnittswert aus irgendeinem Timedemo. Als Spieler ist mir wichtiger, ob die Grafikkarte auch in den anspruchsvollen Szenen noch durchhält oder ich zum Weiterkommen die Grafikqualität runterschalten muss.

Mit einem Timedemo, das den ganzen Level abspielt, hast du aber genau diesen Durchschnittseffekt. Eine kurze Sequenz in der fillratemässig mächtig was los ist erscheint da am geeignetsten.

Leonidas
2003-06-17, 16:35:11
Original geschrieben von Aqualon
In Echtzeit spielen erwartet ja niemand, ausserdem wär das wohl sehr schlecht vergleichbar (ausser ihr habt in der Redaktion jemanden, der 100%ig immer denn gleichen Weg nimmt ;))

Aber ein Timedemo über 20-30 min müsste doch mal drin sein. In Serious Sam z.B. würde das locker für nen Level ausreichen.

Aqua


Der Punkt bei Timedemos ganzer Levels ist: Man nimmt haufenweise Leerlauf mit auf, den ich persönlich aber gar nicht benchen will. Ich erwarte von einem Benchmark/Timedemo einen fps-Wert für die heißen Szenen, nicht für diese, wo meilenweit kein Gegner ist. Eine Timedemo aufzunehmen, wo die Action *ständig* abgeht, ist aber eine größere Aufgabe - und hat vor allem den Nachteil, daß sich ein solches Timedemo nicht unendlich in die Länge ziehen lässt. Die große Kathedrale in SS:TSE (letztes Level) hat ein geübter Spieler in weniger als 5 Minuten durch, aber das ist IMO auch die längste Non-Stop-Action-Szene, die mir so einfällt, wenn man an Action-Shooter denkt.

PS: Bei non-Shooter spielt "viel Action" natürlich keine Rolle, da kann man gewöhnlich mitten aus dem Leben aufnehmen. Nur muß es dann auch wieder nicht unendlich lang sein, da es dort ja keine großen Last-Unterschiede gibt.

Aqualon
2003-06-17, 16:36:45
Original geschrieben von Leonidas
Min Werte = Wert einer einzelnen Zehntelsekunde [...] ist statistisch gesehen *vollkommen* unseriös.

Sorry, hab ich mich wohl ein wenig undeutlich ausgedrückt. Klar bringt ein einzelner min-Wert nix und man muss das über mehrere Werte betrachten um was aussagen zu können.

Also entweder wie von dir gesagt die 100 schlechtesten Werte eines Benches nehmen oder was ich bevorzugen würde, die schlechtesten aufeinanderfolgenden Werte, die man im Spiel auch bemerken kann (also eine min. 1 sec lange Stelle)

Aqua

Leonidas
2003-06-17, 16:37:59
Original geschrieben von PCGH_Thilo
ich denke nicht, dass sich über einen längeren zeitraum zwangsweise andere ergebnisse zeigen. müsste man mal ausprobieren.


PS Thilo: Pyramid-Demo! Pyramid-Demo! Pyramid-Demo! :laola:
http://www.3dcenter.org/downloads/ut2003-pyramid2003.php

Rockt IMO - und reißt viele gfx in den Tod, weil trotz Botmatch-Frameraten immer noch gfx-limitiert wie die Flybys.

Endorphine
2003-06-17, 16:38:43
Original geschrieben von ram
Mit einem Timedemo, das den ganzen Level abspielt, hast du aber genau diesen Durchschnittseffekt. Eine kurze Sequenz in der fillratemässig mächtig was los ist erscheint da am geeignetsten. Warum dann nicht gleich die Füllrate selbst testen?

Leonidas
2003-06-17, 16:39:27
Original geschrieben von Aqualon
Sorry, hab ich mich wohl ein wenig undeutlich ausgedrückt. Klar bringt ein einzelner min-Wert nix und man muss das über mehrere Werte betrachten um was aussagen zu können.





Fast kein Spiel ist in der Lage, diesen Wert zu liefern. Nur diese Spiel, welche laufend alle Werte erfassen und notieren (SS1/2, UT2003 im Benchmark-Modus, nicht bei Timedemos) können das.

Leonidas
2003-06-17, 16:40:37
Original geschrieben von Aqualon
Also entweder wie von dir gesagt die 100 schlechtesten Werte eines Benches nehmen oder was ich bevorzugen würde, die schlechtesten aufeinanderfolgenden Werte, die man im Spiel auch bemerken kann (also eine min. 1 sec lange Stelle)

Aqua


Es gibt da verschiedene Modelle, aber so ungefähr sollte es sein.

PCGH_Thilo
2003-06-17, 16:40:41
Original geschrieben von Leonidas
PS Thilo: Pyramid-Demo! Pyramid-Demo! Pyramid-Demo! :laola:
http://www.3dcenter.org/downloads/ut2003-pyramid2003.php

Rockt IMO - und reißt viele gfx in den Tod, weil trotz Botmatch-Frameraten immer noch gfx-limitiert wie die Flybys.

jaja *in der wunde stocher* ;-)

ab nächsten monat habe ich dafür wieder zeit, da vga-"nachwuchs" ins haus steht =)

Aqualon
2003-06-17, 16:46:15
Original geschrieben von Leonidas
Fast kein Spiel ist in der Lage, diesen Wert zu liefern. Nur diese Spiel, welche laufend alle Werte erfassen und notieren (SS1/2, UT2003 im Benchmark-Modus, nicht bei Timedemos) können das.

Das ist ja das nachteilige an den meisten Spielen.

Wobei ehrlich gesagt ein kurzzeitiger Einbruch auf nicht spielbare Raten, wohl nur bei Shootern und anderen "Realtime"-Games wirkliche Auswirkungen hat. Es wird kaum jemand bei nem Strategie oder Sportspiel deswegen verlieren, weil er mal für ne Sekunde nur 10fps hat.

Aqua

Aqualon
2003-06-17, 16:50:17
Original geschrieben von Endorphine
Warum dann nicht gleich die Füllrate selbst testen?

Ist aber auch wirklich gesagt, wenn Graka A im Archmark 20% mehr Füllrate als Graka B hat, diese auch in realen Spielen (sofern rein Füllratenlimitiert) um 20% schneller ist?

Aqua

Endorphine
2003-06-17, 17:06:49
Original geschrieben von Aqualon
Ist aber auch wirklich gesagt, wenn Graka A im Archmark 20% mehr Füllrate als Graka B hat, diese auch in realen Spielen (sofern rein Füllratenlimitiert) um 20% schneller ist? Natürlich nicht, da in realen Spielen ja nicht nur die Grafikkarte beansprucht wird, sondern auch die Soundkarte, die CPU, die Bussysteme, der Hauptspeicher und nicht zuletzt evtl. ein Server im Internet, die Strecke dahin, die Netzwerkkarte etc.

Damit schliesst sich der Kreis dann wieder. Mit synthetischen Demobenchmarks misst man die Leistung beim abspielen dieser Demos, nicht mehr und nicht weniger. Für die realworld-performance geradezu irrelevant.

Deshalb: warum dann nicht gleich nur einen intelligent zusammengestellten Mix aus den wichtigsten Rohleistungsdaten messen? Damit weiss man dann immerhin, was die Programme dann an Grafikkartenleistung zur Verfügung haben. Oder kauft sich etwa jemand Grafikkarten, um synthetische Demos möglichst schnell ablaufen zu lassen?

Aqualon
2003-06-17, 17:16:08
Original geschrieben von Endorphine
Deshalb: warum dann nicht gleich nur einen intelligent zusammengestellten Mix aus den wichtigsten Rohleistungsdaten messen? Damit weiss man dann immerhin, was die Programme dann an Grafikkartenleistung zur Verfügung haben.

Ok, das macht soweit Sinn.

Aber angenommen 2 unterschiedliche Grafikkarten sind in den theoretischen Werten genau gleich. Kann man das dann direkt auf Realworld-Applikationen übertragen? Oder kann die Programmierweise der verwendeten Engine, der einen Grafikkarte einen Strich durch die Rechnung machen und die andere bevorteilen?

Nur weil 2 Grafikkarten theoretisch das gleiche leisten können, muss das doch noch lange nicht heissen, dass sie das auch praktisch tun. Oder unterlieg ich da einem Denkfehler?

Aqua

Original geschrieben von Endorphine
Oder kauft sich etwa jemand Grafikkarten, um synthetische Demos möglichst schnell ablaufen zu lassen?

Naja, wenn man manche Diskussionen so anschaut, könnte man fast darauf kommen...

Endorphine
2003-06-17, 17:25:29
Original geschrieben von Aqualon
Aber angenommen 2 unterschiedliche Grafikkarten sind in den theoretischen Werten genau gleich. Kann man das dann direkt auf Realworld-Applikationen übertragen? Oder kann die Programmierweise der verwendeten Engine, der einen Grafikkarte einen Strich durch die Rechnung machen und die andere bevorteilen? Das kann man natürlich nicht voraussehen. Aber dafür hat man die Gewissheit, dass die Leistung nicht grottenschlecht sein kann, wenn die Engine halbwegs hardwareneutral programmiert ist. Und auch der Umkehrschluss gilt: wenn eine Grafikkarte eine sehr niedrige Rohleistung bietet wird sie in der Praxis keine Bäume ausreissen, auch mit allen Optimierungen dieser Welt nicht. Wenn eine GPU nur 200 Millionen trilinear gefilterte Pixel pro Sekunde rastern kann dann wird das mit den schönsten Anwendungen nicht besser. Eine Grafikkarte mit für die Anwendung nutzbaren 20 GPixel/s, ordentlicher Speicherbandbreite etc. wird aber zwangsweise praktisch immer besser dastehen.
Original geschrieben von Aqualon
Nur weil 2 Grafikkarten theoretisch das gleiche leisten können, muss das doch noch lange nicht heissen, dass sie das auch praktisch tun. Oder unterlieg ich da einem Denkfehler? Hier geht es ja nicht um Theorie :) Ich spreche ja die ganze Zeit davon, die für den Programmierer nutzbare Rohleistung zu messen :) Und angenommen diese sollte wirklich in jeder Funktion und jeder nur erdenklichen Kombination von Funktionen mit einer anderen Karte eines anderen Herstellers gleich sein - dann _müsste_ ja die real-world Leistung auch gleich sein (nur Theorie). Es sei denn, irgend jemand hat ein Interesse daran, bestimmte Hardware in Software zu erkennen und auszubremsen. Das wird in realen Anwendungen sicher nicht vorkommen.

Aqualon
2003-06-17, 17:27:43
Original geschrieben von ram
Mit einem Timedemo, das den ganzen Level abspielt, hast du aber genau diesen Durchschnittseffekt. Eine kurze Sequenz in der fillratemässig mächtig was los ist erscheint da am geeignetsten.

Ich würd aber sagen, je länger eine Timedemo ist, desto eher treten Situationen auf, in denen eine Grafikkarte einbricht. Wenn man natürlich die anspruchsvollste Szene eines Games kennt, macht das mehr Sinn die zu benchen. Aber das wird wohl nie der Fall sein.

Aqua

PCGH_Thilo
2003-06-17, 17:31:56
Original geschrieben von Aqualon
Ich würd aber sagen, je länger eine Timedemo ist, desto eher treten Situationen auf, in denen eine Grafikkarte einbricht. Wenn man natürlich die anspruchsvollste Szene eines Games kennt, macht das mehr Sinn die zu benchen. Aber das wird wohl nie der Fall sein.

Aqua

je länger eine timedemo, desto wahrscheinlicher ist ein verinzelter einbruch, desto geringer ist statistisch gesehen die auswirkung auf die durchschnittsrate =)

Aqualon
2003-06-17, 17:33:57
Original geschrieben von Endorphine
Hier geht es ja nicht um Theorie :) Ich spreche ja die ganze Zeit davon, die für den Programmierer nutzbare Rohleistung zu messen :)

Das meinte ich mit theoretischer Leistung. Nicht die Leistung auf dem Papier, sondern die dem Programmierer zur Verfügung stehende. Die ist zwar gemessen, aber trotzdem ist das für mich nur ein theoretischer Wert, aus dem man nicht unbedingt 1:1 was für die Praxis ableiten kann.

Du misst vielleicht ne verfügbare Speicherbandbreite von 20GB/s, aber was dann echte Spiele damit anfangen, kann man dadurch ja nicht wissen.

Aber ich geb dir Recht, dass eine Grafikkarte die in den theoretischen Benches gut dasteht, auch in den meisten Realworld-Applikationen auch gut dastehen wird.

Aqua

P.S. Ein wenig OT, aber kann man die theoretische Leistungsfähigkeit der Pixel- und Vertexshader überhaupt so messen wie die Füllrate oder Speicherbandbreite?

Iceman346
2003-06-17, 17:36:24
Original geschrieben von PCGH_Thilo
keine sorge, wir zocken mit den testkarten auch und erfreuen uns nicht nur an der schicken verpackung ;-)

siehe z.B. aktuelle ausgabe Spiele-Kompatibilität bei NV35 vs 9800 Pro. da haben wir nämlich genau das gemacht.

Jo, da habt ihr euch auch gleich nen Schnitzer erlaubt.

Einerseits heisst das Spiel "Rise of Nations" ohne the. Andererseits geht in diesem Spiel sehr wohl AA und AF, da alles ausser den Gebäuden ganz normale Polygon 3D Grafik ist.

Aqualon
2003-06-17, 17:38:08
Original geschrieben von PCGH_Thilo
je länger eine timedemo, desto wahrscheinlicher ist ein verinzelter einbruch, desto geringer ist statistisch gesehen die auswirkung auf die durchschnittsrate =)

Schon klar und darum gehts mir ja. Mich interessieren nicht die 300fps die auftreten, wenn ich ne Wand anstarre oder die 100fps im Durchschnitt bei 50% Leerlauf des Demos, sondern die vielleicht nur 20fps, wenn es richtig zur Sache geht (oder auch nur ein Mangel in der Engine zutage tritt, die mit ner bestimmten Situation nicht mehr klarkommt).

Und solche Einbrüche treten meiner Einschätzung nach desto eher auf, je länger eine Demo ist. Dass das statistisch gesehen auf die Gesamtlaufzeit bezogen nicht gerade signifikant ist, ist klar. Aber trotzdem können solche Einbrüche spielentscheidend sein.

Aqua

Endorphine
2003-06-17, 17:40:56
Original geschrieben von PCGH_Thilo
je länger eine timedemo, desto wahrscheinlicher ist ein verinzelter einbruch, desto geringer ist statistisch gesehen die auswirkung auf die durchschnittsrate =) Wer kauft sich Grafikkarten, um damit irgendwelche Timedemos möglichst schnell ablaufen zu lassen ???

Da kann man die Demos auch noch so lange vermessen, die Aussagekraft für die Praxis ist doch sehr begrenzt.

PCGH_Thilo
2003-06-17, 17:46:19
Original geschrieben von Iceman346
Jo, da habt ihr euch auch gleich nen Schnitzer erlaubt.

Einerseits heisst das Spiel "Rise of Nations" ohne the. Andererseits geht in diesem Spiel sehr wohl AA und AF, da alles ausser den Gebäuden ganz normale Polygon 3D Grafik ist.

mit dem ohne "the" kann ich leben.
the rest: Da werde ich gleich meinen kollegen töten müssen.

PCGH_Thilo
2003-06-17, 18:06:40
Original geschrieben von Iceman346
Jo, da habt ihr euch auch gleich nen Schnitzer erlaubt.

Einerseits heisst das Spiel "Rise of Nations" ohne the. Andererseits geht in diesem Spiel sehr wohl AA und AF, da alles ausser den Gebäuden ganz normale Polygon 3D Grafik ist.

sicher, dass RON FSAA/AF nutzt?

ich habe hier beweis-screenshots, die deiner aussage widersprechen.

Iceman346
2003-06-17, 18:31:51
Original geschrieben von PCGH_Thilo
sicher, dass RON FSAA/AF nutzt?

ich habe hier beweis-screenshots, die deiner aussage widersprechen.

FSAA: Definitiv

AF: Ich gehe mal schwer davon aus. Würde aber bei dem Sichtwinkel nicht auffallen denke ich.

Edit: Beweis gefällig *g*

http://www.withingames.de/pics/Vergleich.png

Links kein AA, rechts 6x AA. Aus nem 1024er Bild ausgeschnitten.

Sollte man im Spiel aber auch deutlich an sämtlichen Einheiten sehen. (Tue ich zumindestens ;))

Omnicron
2003-06-17, 18:50:26
Original geschrieben von Iceman346
FSAA: Definitiv

AF: Ich gehe mal schwer davon aus. Würde aber bei dem Sichtwinkel nicht auffallen denke ich.

Edit: Beweis gefällig *g*

http://www.withingames.de/pics/Vergleich.png

Links kein AA, rechts 6x AA. Aus nem 1024er Bild ausgeschnitten.

Das ist aber nur ein Shot aus der Weltkarte - ein Shot aus dem eigentlichen Spiel wäre interessanter (weil man da vielleicht auch AF erkennen könnte.).

Iceman346
2003-06-17, 19:00:52
Original geschrieben von Omnicron
Das ist aber nur ein Shot aus der Weltkarte - ein Shot aus dem eigentlichen Spiel wäre interessanter (weil man da vielleicht auch AF erkennen könnte.).

Ich schau mal ob ich noch nen Speicherstand hab. Bei Shots aus dem Spiel ist das Problem 2 gleiche hinzubekommen ;)

Der Sichtwinkel ist aber relativ nah an 90° darum schätze ich das AF nicht sichtbar ist.

Exxtreme
2003-06-17, 20:37:06
Mädelz,

es gibt ein Update für Nascar2003:
http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/page6.asp

Die haben für den Test ein Nforce2-Board benutzt.

Diesmal gewinnt die R9800Pro die meisten Tests.

seahawk
2003-06-17, 20:42:39
After countless hours troubleshooting the 875P/RADEON combination with CATALYST 3.4 with no success, we finally decided to try an nForce2 setup. Voila, the RADEON scores jumped significantly!

Aber im Vergleich zu der Aussage, waren mir die schlechten Ergebnisse noch lieber. Da haben die Radeon Karten / Treiber wohl ein leichtes Problem mit dem Canterwood 875P.

Exxtreme
2003-06-17, 20:44:42
Original geschrieben von seahawk
Aber im Vergleich zu der Aussage, waren mir die schlechten Ergebnisse noch lieber. Da haben die Radeon Karten / Treiber wohl ein leichtes Problem mit dem Canterwood 875P.
Ja, das wundert mich auch.

Terry Makedon hat das Problem erkannt und wird sich dessen annehmen. :up:

Aqualon
2003-06-17, 20:47:58
Original geschrieben von Exxtreme
es gibt ein Update für Nascar2003:
http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/page6.asp

Die haben für den Test ein Nforce2-Board benutzt.

Diesmal gewinnt die R9800Pro die meisten Tests.

Was mir etwas seltsam vorkommt sind die 4AA, 8AF Ergebnisse:

Bei 1024*768 liegt die R9800Pro 256MB um 5,1 fps vor der FX5900 Ultra, bei 1280*1024 liegt sie dagegen 7,9fps dahinter, während sie bei 1600*1200 wieder um 3,1 fps vorne liegt.

Wie ist denn das zu erklären?

Aqua

Omnicron
2003-06-17, 20:49:04
Original geschrieben von seahawk
Aber im Vergleich zu der Aussage, waren mir die schlechten Ergebnisse noch lieber. Da haben die Radeon Karten / Treiber wohl ein leichtes Problem mit dem Canterwood 875P.

Mit dem Springdale 865 haben sie doch auch ein leichtes Problem, wenn ich mich an die "grottenlahmes BIOS" Berichte erinnere.
:kratz2:

LovesuckZ
2003-06-17, 20:58:03
Warum nimmt FS die ersten Ergebnisse nicht dazu?

/edit: mann koennte ihnen Vorwerfen, sie seien fuer eine Partei, da sie die ersten nascar Ergebnisse nicht mehr mit einbringen...

Quasar
2003-06-17, 21:00:48
Original geschrieben von Exxtreme
Mädelz,

es gibt ein Update für Nascar2003:
http://firingsquad.gamers.com/hardware/msi_geforce_fx5900-td128_review/page6.asp

Die haben für den Test ein Nforce2-Board benutzt.

Diesmal gewinnt die R9800Pro die meisten Tests.

Hm...
Ich frage mich, ob ein nForce2-Board (welch' Ironie!!!) nicht bei IL2-FB der GeForce ein wenig helfen würde...

Exxtreme
2003-06-17, 21:04:48
Original geschrieben von Quasar
Hm...
Ich frage mich, ob ein nForce2-Board (welch' Ironie!!!) nicht bei IL2-FB der GeForce ein wenig helfen würde...
Finde ich auch. Die sollten alles auch mit dem Nforce2 testen.

So hat das einen leichten Pro-ATi-Nachgeschmack.

Aqualon
2003-06-17, 21:07:19
Original geschrieben von Quasar
Hm...
Ich frage mich, ob ein nForce2-Board (welch' Ironie!!!) nicht bei IL2-FB der GeForce ein wenig helfen würde...

Soviel auch zum Thema NForce2 bremst ATI aus ;)

Aber wie man da auch wieder schön sieht, kann man die Ergebnisse eines Tests auf einem Intelsystem nicht auf ein AMD-System und umgekehrt übertragen.

-> Ergo müssten Reviewer auf beiden Plattformen testen.

Aqua

Black-Scorpion
2003-06-17, 22:00:31
Sorry wenns hier nicht reinpast.

Ein Test der FX5200 und 5600.

http://www.hartware.net/review.html?id=313

LovesuckZ
2003-06-17, 22:01:17
Original geschrieben von Anonym_001
Sorry wenns hier nicht reinpast.
Ein Test der FX5200 und 5600.
http://www.hartware.net/review.html?id=313

passt hier wirklich nich rein *eg*

Omnicron
2003-06-17, 22:39:48
Original geschrieben von Anonym_001
Sorry wenns hier nicht reinpast.

Ein Test der FX5200 und 5600.

http://www.hartware.net/review.html?id=313

Nein passt echt nicht, aber vielleicht ist das das richtige für den neuen NV News Thread ?
:naughty:

PCGH_Thilo
2003-06-18, 14:08:29
Original geschrieben von Iceman346
FSAA: Definitiv

AF: Ich gehe mal schwer davon aus. Würde aber bei dem Sichtwinkel nicht auffallen denke ich.

Edit: Beweis gefällig *g*

http://www.withingames.de/pics/Vergleich.png

Links kein AA, rechts 6x AA. Aus nem 1024er Bild ausgeschnitten.

Sollte man im Spiel aber auch deutlich an sämtlichen Einheiten sehen. (Tue ich zumindestens ;))

bei uns ging fsaa weder auf ner nv35 noch auf ner 9800 pro.

allerdings hatten wir auch nicht die verkaufsversion von RON. vielleicht lags daran?

Iceman346
2003-06-18, 14:27:51
Original geschrieben von PCGH_Thilo
bei uns ging fsaa weder auf ner nv35 noch auf ner 9800 pro.

allerdings hatten wir auch nicht die verkaufsversion von RON. vielleicht lags daran?

Ich hab auch keine Verkaufsversion. Ist die US Marketing Gold. FSAA ging bei mir durchgehend auf der 9700Pro mit Catalyst 3.4

PCGH_Thilo
2003-06-18, 14:44:46
Original geschrieben von Iceman346
Ich hab auch keine Verkaufsversion. Ist die US Marketing Gold. FSAA ging bei mir durchgehend auf der 9700Pro mit Catalyst 3.4

das ist spaßig. wie gesagt: auf den screenshots sieht man nix. weder bei 9800 pro/256 (cat 3.4) noch auf nv35 (det. 44.03).

Exxtreme
2003-06-19, 01:36:08
Ein anderes Review mit eigenen Demos:
http://www.gamepc.com/labs/view_content.asp?id=fx5900u&page=1

Auch hier ist das Bild ähnlich, die GFFX gewinnt zwar in der Summe der Spiele in den Quality-Settings aber der Vorsprung ist bei Weitem nicht so groß wie mit den Standarddemos.

Mr. Lolman
2003-06-19, 04:07:55
Original geschrieben von Exxtreme
Ein anderes Review mit eigenen Demos:
http://www.gamepc.com/labs/view_content.asp?id=fx5900u&page=1

Auch hier ist das Bild ähnlich, die GFFX gewinnt zwar in der Summe der Spiele in den Quality-Settings aber der Vorsprung ist bei Weitem nicht so groß wie mit den Standarddemos.

Gegen wen gwinnt sie? Gegen die 9800pro verliert sie ziemlich eindeutig. In gerade in den 2 Benches wo sie mit 4xAA um 7% vorne ist, kommen mir die Zahlen auch etwas seltsam vor...

Die fps sind sowohl bei GTA VC als bei, UPT relativ hoch und von 2x AA auf 4xAA bricht die Fx bei Vice City nur um 7% ein, beim UPT sinds sogar nur 5%. Beim offensichtlich stark Grafiklimierten WC3 bricht sie jedoch um mehr als 20% ein. Anscheinend ist sowohl GTA VC (bei 1600x1200) als auch der UPT (bei 1024x768) beim 4xAA nicht Füllraten limitiert. Schade ist auch, dass diese einzigen beiden Benches, wo die FX einen deutlichen Sieg von 7.1% (resp.6.9%) einfahren konnte (in anderen Benchmarks liegt sie bis zu 20% hinten), nur mit einer Auflösung getestet wurden.

Cenmocay
2003-06-19, 04:30:53
Hey Leute keine anderen Sorgen außer - die gewinnt, nein die gewinnt ?
Hauptsache man hat eine GK die schnell genug ist.

Exxtreme
2003-06-19, 11:02:59
Original geschrieben von Mr. Lolman
Gegen wen gwinnt sie? Gegen die 9800pro verliert sie ziemlich eindeutig. In gerade in den 2 Benches wo sie mit 4xAA um 7% vorne ist, kommen mir die Zahlen auch etwas seltsam vor...

Die fps sind sowohl bei GTA VC als bei, UPT relativ hoch und von 2x AA auf 4xAA bricht die Fx bei Vice City nur um 7% ein, beim UPT sinds sogar nur 5%. Beim offensichtlich stark Grafiklimierten WC3 bricht sie jedoch um mehr als 20% ein. Anscheinend ist sowohl GTA VC (bei 1600x1200) als auch der UPT (bei 1024x768) beim 4xAA nicht Füllraten limitiert. Schade ist auch, dass diese einzigen beiden Benches, wo die FX einen deutlichen Sieg von 7.1% (resp.6.9%) einfahren konnte (in anderen Benchmarks liegt sie bis zu 20% hinten), nur mit einer Auflösung getestet wurden.
Deswegen habe ich extra noch geschrieben,"in den Quality-Settings". :stareup:

Die normalen Settings interessieren mich ehrlich gesagt nicht. :)

NightRain
2003-06-19, 12:49:58
Original geschrieben von Exxtreme
Deswegen habe ich extra noch geschrieben,"in den Quality-Settings". :stareup:

Die normalen Settings interessieren mich ehrlich gesagt nicht. :)

wobei sich streiten lässt ob 1600x1200 2xAA 2XAF normale settings sind :O

aber richtig in 1600x1200 4xAA 4xAF gewinnt die fx 3:2 :)

Mr. Lolman
2003-06-19, 13:22:25
Original geschrieben von Exxtreme
Deswegen habe ich extra noch geschrieben,"in den Quality-Settings". :stareup:

Die normalen Settings interessieren mich ehrlich gesagt nicht. :)


Wobei ich von den 3 Siegen zumindest 2 anzweifle, weil der Speedverlust zum 2xAA imo viel zu gering ist.

/edit: Und ich nochmal sagen muss, dass NVs 4xAA in meinen Augen kein Quality Setting ist. (Bei 4xS oder 8xS wäre das was anderes ;))

LovesuckZ
2003-06-19, 16:52:49
Original geschrieben von Mr. Lolman
/edit: Und ich nochmal sagen muss, dass NVs 4xAA in meinen Augen kein Quality Setting ist. (Bei 4xS oder 8xS wäre das was anderes ;))

ohman, ATi's af ist auch kein Quality Feature (wodran wird as eigentlich verglichen, dass 4AA kein "Quality Setting" sei?).

Quasar
2003-06-19, 17:26:06
Original geschrieben von Mr. Lolman
Wobei ich von den 3 Siegen zumindest 2 anzweifle, weil der Speedverlust zum 2xAA imo viel zu gering ist.

/edit: Und ich nochmal sagen muss, dass NVs 4xAA in meinen Augen kein Quality Setting ist. (Bei 4xS oder 8xS wäre das was anderes ;))
*amkopfkratz* Gibt's 'nen Smiley für *amkopfkratz*?

Naja, egal. Mr. Lolman, was glaubst du, passiert, wenn du eine 4x2-Architektur, die nichtmal übermässig auf "Legacy" optimiert ist, mit einer Bandbreite von ~27GB/s kombinierst?

Richtig, 4xFSAA wird beinahe for free.

Und den "Unsinn" mit dem 4xFSAA sei kein Quality-Feature könntest du gern mal näher ausführen? Wegen dem Ordered Grid? Komisch, beim R200 hat das OG auch keine Sau gestört, da hiess es nur "supersampling rockz".
Winkelabhäniges AF, welches nur Stage0 trilinear filtert ist aber in deinen Augen doch sicher ein Quality-Feature, oder?

:lol: - man
Was ist so schlimm daran, mal einzugestehen, dass es nicht das rundum perfekte Produkt gibt? Beim FSAA hat ATi die Nase vorn, beim AF eben nV, aber das wollen etliche wohl nicht verknusen.

LovesuckZ
2003-06-19, 17:33:48
Original geschrieben von Quasar
Winkelabhäniges AF, welches nur Stage0 trilinear filtert ist aber in deinen Augen doch sicher ein Quality-Feature, oder?


Ist das sicher? Ich glaube eher, dass das im beyond3d.com Forum eher ne Ente war, da Jamm0r seinen Post editiert hat.

Quasar
2003-06-19, 17:38:17
Original geschrieben von LovesuckZ
Ist das sicher? Ich glaube eher, dass das im beyond3d.com Forum eher ne Ente war, da Jamm0r seinen Post editiert hat.

nggalai hat folgendes gequotet:
JammOr:
Well, got the final answer from ATI today:
"In a multitexturing situation, only texture 0 will have trilinear filtering and AF when quality AF is enabled from the control panel. All other textures will get bilinear filtering plus AF.
If AF and bilinear/trilinear options are specified in code, and the AF setting in the control panel is left at "Application", then the texturing options will be exactly as specified in code."
Und benchmark Ergebnisse von tEd:
ut2003 anatalus flyby
1024*768@32 cat3.4 r9700pro
no aa
16x quality AF driver forced
0.886894 / 119.158989 / 367.623199 fps -- Score = 119.180992
16x AF application
0.872876 / 91.345520 / 299.989349 fps -- Score = 91.370117

Scheint also was dran zu sein, wenn ATi das wohl bestätigt hat.

LovesuckZ
2003-06-19, 17:46:16
Ja, ich kenne diese Zahlen und den Kommentar. Nur hat jamm0r diesen Kommentar von ATi wieder wegeditiert und Mr.Lolman konnte keinen Performanceverlust beim AF feststellen, wenn es die App. regelt.

In dem Thread steht auch dies hier geschriebene von mczak :
This would also perfectly explain why 3dmark03 gets higher scores if you force aniso in the driver than setting it in 3dmark03 itself - pretty close to what I suspected why there is a difference.

http://www.beyond3d.com/forum/viewtopic.php?p=129311#129311

Ich weiß net, ob das stimmt.

Quasar
2003-06-19, 17:53:55
Hm, das war also das, was Jamm0r wieder löschte?

Komisch, wieso ATi das "angeblich" erst bestätigt und hinterher ein Bug im Code der App verantwortlich sein soll.

Wie dem auch sei, es ändert nichts an der Tatsache, dass ATis AF demjenigen von nV genauso unterlegen ist (bei höheren Levels als "2), wie es, spassigerweise auch bei höheren Levels als "2", umgekehrt auch beim FSAA ist.

Mr. Lolman
2003-06-19, 18:22:14
Hab gestern noch ein bisschen gebencht, um dieses angebliche UT2k3 Problem ein für allemal aus der Welt zu schaffen:


Benchmark.exe, Flyby (fps) @1024x768,0xAA,16xqAF - Cat.3.4

Application Controlpanel
400/350MHz
1.Versuch: 152.999039 153.205032
2.Versuch: 153.200851 153.043503
3.Versuch: 153.120773 153.162262

275/270MHz
1.Versuch: 121.087036 121.072052
1.Versuch: 121.066605 121.072052
1.Versuch: 121.097847 121.080223



Antalus alleine zeigt auch keine Unterschiede.

Crushinator
2003-06-19, 19:22:51
Original geschrieben von Quasar
*amkopfkratz* Gibt's 'nen Smiley für *amkopfkratz*? :kratz: oder :kratz2: wobei :grübel: auch nicht schlecht ist.

AlfredENeumann
2003-06-19, 19:57:04
Original geschrieben von Mr. Lolman
Hab gestern noch ein bisschen gebencht, um dieses angebliche UT2k3 Problem ein für allemal aus der Welt zu schaffen:


Benchmark.exe, Flyby (fps) @1024x768,0xAA,16xqAF - Cat.3.4

Application Controlpanel
400/350MHz
1.Versuch: 152.999039 153.205032
2.Versuch: 153.200851 153.043503
3.Versuch: 153.120773 153.162262

275/270MHz
1.Versuch: 121.087036 121.072052
1.Versuch: 121.066605 121.072052
1.Versuch: 121.097847 121.080223



Antalus alleine zeigt auch keine Unterschiede.


womit hast du werte im CP geändert? Direkt im CP oder mit dem rTool ?

Mr. Lolman
2003-06-20, 03:08:19
Hmm, rTool. Aber ich hab bei der 'deaktiviert' Einstellung im rTool garantiert nur normales trilineares Filtering gehabt (solange ich nicht im Spiel AF geforzt hab)

Ausserdem glaub ich wirklich nicht, dass im rTool oder im atuner der Fehler zu suchen ist. IMHO kommt der Fehler wirklich vom Cat. CP, welches es unter gewissen Umständen einfach nicht schafft, den AA/AF Level zu übernehmen.

LovesuckZ
2003-06-20, 17:18:15
Was passiert, wenn man die alten custom demo gegen neue austauscht? Tja, dass sieht man sehr schoen am Firingsquad Review der eVGA 5900 Ultra karte:

http://firingsquad.gamers.com/hardware/evga_e-geforce_fx_5900_ultra_review/page6.asp

In Nascar Racing 2003 Season sind die GF Karten wieder deutlich vorne.
In SeSam2 scheint die neue timedemo die GF FX Karten deutlich zu "bevorteieln", eben so in IL-2 Sturmovik: Forgotten Battles.
In q3 holen die FX Karten wieder auf mit der neuen Demo. Splinter Cell kann man sich ne 5900 non Ultra sogar vor die 9800pro setzen, trotz schwaechere Pro - MHZ - Leistung.
Damit stellt sich der ganze Sinn von Benchmark in Frage, denn anhand einer Demo, kann die eine oder auch die andere karte benachteiligt werden...

Exxtreme
2003-06-20, 17:24:51
Original geschrieben von LovesuckZ
Damit stellt sich der ganze Sinn von Benchmark in Frage, denn anhand einer Demo, kann die eine oder auch die andere karte benachteiligt werden...
Nicht ganz.

Das Testsetup ist ein ganz anderes.

Anscheinend harmoniert die GFFX mit diesem System besser.

Quasar
2003-06-20, 17:36:02
Jep, so isses (bei beiden, Lovesuckz und Exxtreme).

Insofern: Was ändert sich im Vergleich zu vor zwei oder drei Monaten?

DrumDub
2003-06-20, 17:36:40
der ganze test ist irgendwie komisch. mit 4xaa/8xaf ist die 9800pro wieder schneller:

http://firingsquad.gamers.com/hardware/evga_e-geforce_fx_5900_ultra_review/page12.asp

ich dachte bei 4xaa sei die 5900ultra schneller ls die 9800pro...

edit: liegt wohl performancehungrigerem, da besseren, af der fxen...

LovesuckZ
2003-06-20, 17:39:42
Original geschrieben von DrumDub
der ganze test ist irgendwie komisch. mit 4xaa/8xaf ist die 9800pro wieder schneller:

http://firingsquad.gamers.com/hardware/evga_e-geforce_fx_5900_ultra_review/page12.asp

ich dachte bei 4xaa sei die 5900ultra schnller ls die 9800pro...

Dank dem AF kann sich ATi meisten immer an die Spitze setzen. Ist auch klar, wenn man nur einen kleinen Teil wirklich mit 8fach AF berechnet...

LovesuckZ
2003-06-20, 17:40:31
Original geschrieben von Quasar
Insofern: Was ändert sich im Vergleich zu vor zwei oder drei Monaten?

Das man unterschiedliche Karten nicht miteinander vergleichen kann? :D

Hm, also muessen nun Tester mit 2 Systemen benchen, wenn man ein vergleichbares Ergebnis wolle...
Puh, dass is ja nen richtiger Knochenjob.

Quasar
2003-06-20, 17:41:56
Original geschrieben von DrumDub
der ganze test ist irgendwie komisch. mit 4xaa/8xaf ist die 9800pro wieder schneller:

http://firingsquad.gamers.com/hardware/evga_e-geforce_fx_5900_ultra_review/page12.asp

ich dachte bei 4xaa sei die 5900ultra schnller ls die 9800pro...

Das ist wohl auch so. Nur wurde immer gleichzeitig mit AF gebencht. Da scheint, je nach Game wohl die Implementation des AF den Ausschlag zu geben.

Quasar
2003-06-20, 17:44:02
Original geschrieben von LovesuckZ
Das man unterschiedliche Karten nicht miteinander vergleichen koennte? :D

Jein, man kann sie schon vergleich, wenn man nicht künstlich den Test auf eine mathematische Präzision und Fehlerfreiheit von Optimierungen und/oder guten/bösen Demos trimmen will.

Wie sagte noch der Dichter: "Tand, tand ist das Gebilde von Menschenhand."

Es gibt keinen perfekten Vergleichstest und es wird auch nie einen geben.

Crushinator
2003-06-20, 17:55:14
Original geschrieben von Quasar (...)
Es gibt keinen perfekten Vergleichstest und es wird auch nie einen geben. Doch, den gibt es und nennt sich IMHO Preis/Leistungs-Vergleich. ;)

Demirug
2003-06-20, 18:00:31
Original geschrieben von crushinator
Doch, den gibt es und nennt sich IMHO Preis/Leistungs-Vergleich. ;)

OK den Preis kann man ja einfach ermitteln aber wie ermittelt man die korrekte Leistung einer Grafikkarte?

Quasar
2003-06-20, 18:09:21
Original geschrieben von crushinator
Doch, den gibt es und nennt sich IMHO Preis/Leistungs-Vergleich. ;)

Jein.

Erstens s. Demirugs Posting und zweitens könnte es ihn selbst dann nur geben, wenn der Maßstab für alle User gleich wäre.

SP z.B. scheint stark auf einen tollen TV-out wert zu legen, aths und andere wollen unbedingt RGMS, Exxtreme hätte gern SSAA (auch RG), ow will fehlerfreie Treiber, wieder andere wollen Linux-Treiber, noch ander mögen einfach ein bestimmte Firma nicht, Demirug möchte bestimmt umfangreichen Dev-Support, ich mag gern ordentliches AF und scharfe Texturen.

Aus alledem läßt sich immer nur ein Mittelwert, eine Näherung bilden. Und das ist.... richtig: Weit entfernt von Perfektion.

Crushinator
2003-06-20, 18:18:27
Original geschrieben von Demirug
OK den Preis kann man ja einfach ermitteln aber wie ermittelt man die korrekte Leistung einer Grafikkarte? Ich verstehe unter Leistung nicht nur die Schnelligkeit, sondern auch die gebotene Qualität, den Stromverbrauch/Abwärme, MHz-Leistung usw. Wenn ich das alles miteinander vergleiche, steht der moralische Sieger puncto Leistung ziemlich schnell fest.

Ich persönlich gehe beim Kauf allerdings einwenig anders vor und gebe zu, oft die Entscheidung aus anderen Gründen zu treffen. :)

@Quasar
OK, P/L-Vergleich ist zwar auch nicht absolut perfekt, aber IMHO wenigstens die objektivste.

Quasar
2003-06-20, 18:20:57
Original geschrieben von crushinator
@Quasar
OK, P/L-Vergleich ist zwar auch nicht absolut perfekt, aber IMHO wenigstens die objektivste.

Jo, die beste Näherung.

zeckensack
2003-06-20, 19:03:40
*threadtitelaugenfreundlichermach*

Carlo28
2003-06-20, 21:12:32
Die ganzen Diskussionen hier sind ja sehr nett zu lesen , nur sollte man beachten das Nvidia nicht wie ATI fast 1 Jahr Zeit hatte um vernünftige Treiber zu programmieren. Die derzeitigen NV Treiber sind wohl sehr BETA und demnach sind auch einige Probleme nicht von der Hand zu weisen. Daher sollte man nicht zu kritisch beurteilen da Nvidia schon in der Vergangenheit das Gegenteil bewiesen hat...

Mfg Carlo

LovesuckZ
2003-06-20, 21:42:51
Der 44.03 hatte ein paar schwere Fehler, der neuste beta Treiber (44.65) laeuft dagegen bei vielen Usern fehlerfrei.

Aquaschaf
2003-06-21, 10:21:14
Original geschrieben von Carlo28
Die ganzen Diskussionen hier sind ja sehr nett zu lesen , nur sollte man beachten das Nvidia nicht wie ATI fast 1 Jahr Zeit hatte um vernünftige Treiber zu programmieren. Die derzeitigen NV Treiber sind wohl sehr BETA und demnach sind auch einige Probleme nicht von der Hand zu weisen. Daher sollte man nicht zu kritisch beurteilen da Nvidia schon in der Vergangenheit das Gegenteil bewiesen hat...

Mfg Carlo

"Beta" halte ich doch für etwas übertrieben. Soo wenig Zeit hat NVidia wirklich nicht zum optimieren der Treiber gehabt.

MadManniMan
2003-06-23, 20:25:34
@carlo:

stört dich, daß die GF nicht haushoch gewinnt, oder woher nimmst du diese überlegung

*nichtflamewaranfangenmöcht* -> ;)


@all:

mich wundert eigentlich schon, daß hier derlei verwunderung über die probleme der FX mit streßsituationen besteht.
"streßsituationen" definieren sich zumeist über massiven transparenten overdraw -> schlecht für 4*2, gut für 8*1

Quasar
2003-06-23, 20:47:29
Original geschrieben von MadManniMan
@all:

mich wundert eigentlich schon, daß hier derlei verwunderung über die probleme der FX mit streßsituationen besteht.
"streßsituationen" definieren sich zumeist über massiven transparenten overdraw -> schlecht für 4*2, gut für 8*1

Hm, soo schlecht schneidet die FX im Fablemark doch gar nicht ab...

Demirug
2003-06-23, 21:00:11
Original geschrieben von MadManniMan
@all:

mich wundert eigentlich schon, daß hier derlei verwunderung über die probleme der FX mit streßsituationen besteht.
"streßsituationen" definieren sich zumeist über massiven transparenten overdraw -> schlecht für 4*2, gut für 8*1

???

Transparenter Overdraw hat doch nichts mit 4*2 oder 8*1 zu tun. Ausser der Bandbreite die zusätzlich zum einlesen des Framebuffers verbraucht wird ist Alphablendig (das braucht man für transparenten Overdraw) umsonst zu haben. (Der P10/P9 ist da eine Ausnahme).

Der unterschied zwischen 8*1 und 4*2 tritt nur dann zu tage wenn die Pixelshader überhaupt nicht benutzt werden oder eine ungerade Anzahl von Texturesamples gebraucht werden. Wobei das mit den Texturesamples sowieso Makulatur ist wenn man tri oder AF benutzt.

Endorphine
2003-06-23, 21:07:09
Original geschrieben von Demirug
Der unterschied zwischen 8*1 und 4*2 tritt nur dann zu tage wenn die Pixelshader überhaupt nicht benutzt werden oder eine ungerade Anzahl von Texturesamples gebraucht werden. Wobei das mit den Texturesamples sowieso Makulatur ist wenn man tri oder AF benutzt. Bin zwar nicht MMM, finde das aber trotzdem interessant. Hattest du nicht gesagt, für DX9-Beschleuniger ist eine n*1-Architektur das einzig sinnvolle?

Und wenn es doch ab TF so herzlich wenig bringt, wieso ist ATI dann nicht bei 4x2 geblieben?

Demirug
2003-06-23, 21:27:20
Original geschrieben von Endorphine
Bin zwar nicht MMM, finde das aber trotzdem interessant. Hattest du nicht gesagt, für DX9-Beschleuniger ist eine n*1-Architektur das einzig sinnvolle?

Und wenn es doch ab TF so herzlich wenig bringt, wieso ist ATI dann nicht bei 4x2 geblieben?

Ich sagte das bei 8*1 der Verschnitt geringer ist. Dadurch hat ATI in extremen Situationen auch noch einen kleinen Vorteil. Zudem hatte ich da auch noch Hoffung das man endlich Tri-TMUs verbaut.

Aus designtechnischen Gründen war es logisch bei einem 256 Bit Bus auf 8*1 zu wechseln. Man muss immer bedenken das die NV3X Chips eigentlich für einen 128 Bit Bus ausgelegt worden sind.

EDIT: PS: und deshalb musste sich nv auch ganz schön einen gegeben haben um eine gute 4*2 Pipeline hinzubekommen.

MadManniMan
2003-06-23, 22:22:00
@quasar und demi:

huppala... ich meinte eigentlich "halbtransparenten" ... usw

soll heißen, alles mögliche rumexplodiere, rum-corona-e, rumgerauche und rumgesplatter frißt sigle-tex-füllrate (und bandbreite)

vollkommen transparenter overdraw zieht natürlich keine füllrate ?-)

Quasar
2003-06-23, 22:31:47
Original geschrieben von MadManniMan
@quasar und demi:

huppala... ich meinte eigentlich "halbtransparenten" ... usw

soll heißen, alles mögliche rumexplodiere, rum-corona-e, rumgerauche und rumgesplatter frißt sigle-tex-füllrate (und bandbreite)

Ja, wenn sie nur bilinear gefiltert wird.... uppsala. ;-)

Demirug
2003-06-23, 22:37:24
Original geschrieben von MadManniMan
@quasar und demi:

huppala... ich meinte eigentlich "halbtransparenten" ... usw

soll heißen, alles mögliche rumexplodiere, rum-corona-e, rumgerauche und rumgesplatter frißt sigle-tex-füllrate (und bandbreite)

vollkommen transparenter overdraw zieht natürlich keine füllrate ?-)

OK wir reden über Objekte die nur aus einer Textureschicht bestehen die zu allem übel auch noch den hintergrund etwas durchscheinen läst?

Taschenrechner anwerfen:

- Pro Pixel 32 Bit aus dem Framebuffer lesen
- Pro Pixel 32 Bit in den framebuffer schreiben.

Macht 64 Bit nur für den Framebuffer. Wenn man das jetzt mit 8 Pixel gleichzeitig macht sind das 512 bit. Und wir haben noch keine Daten in den texturecache geladen oder den Z-Buffer ausgelesen. Bei diesem Szenario wird bei 8*1 daher mal wieder ganz schnell die Bandbreite knapp.

PS: auch vollkommen transparenter overdraw overdraw kostet Fillrate und Bandbreite. Im besten fall ist der Chip schlau genug und untersrückt das lesen und das schreiben des eigentlich ja nicht veränderten Framebuffers. Das berechnen der Transparenz läuft aber wie vorher auch. Erst die PS 3.0 werden daran etwas ändern können.

Gast
2003-06-23, 22:38:16
Original geschrieben von Quasar
Ja, wenn sie nur bilinear gefiltert wird.... uppsala. ;-)

Wer sagt denn, daß es bei Nvidias adaptiven AF nicht genau so läuft?! Eventuell werden Spiele/Benchmarks analysiert und dann festgelegt, welche Stages bilinear/trilinear und mit welchem Grad sie gefiltert werden.

Die 'Auffälligkeiten' der FXen beim AF im 3dMark, sobald man die *.exe umenennt, lassen darauf schliessen.

Demirug
2003-06-23, 22:47:42
Original geschrieben von Gast
Wer sagt denn, daß es bei Nvidias adaptiven AF nicht genau so läuft?! Eventuell werden Spiele/Benchmarks analysiert und dann festgelegt, welche Stages bilinear/trilinear und mit welchem Grad sie gefiltert werden.

Die 'Auffälligkeiten' der FXen beim AF im 3dMark, sobald man die *.exe umenennt, lassen darauf schliessen.

hehe das ganze läuft ein wenig anders ab. Es wird der Inhalt der Texturen analysiert und dann aufgrund des ergebnisses wird festgelegt welcher filter für diese Texture benutzt wird. Das ganze iat aber unter D3D noch nicht generrel aktiviert sondern wird nur für einzelne Applikationen eingeschaltet.

Bei den Chips vor NV30 kann der Filter nur pro Texture festgelegt werden. Bei den NV3X fähigen Chips kommt da aber scheinbar eine neue Spielerei zum Einsatz. Es wird dabei nicht die Wahl der Mipmaps verändert bzw AF einfach abgesenkt. man sampelt einfach aus Bereichen der texture mit weniger Samples bei dennen die Analyse ergeben hat das es dort nicht notwendig ist voll durchzufiltern weil der Kontrast sowieso nur gering ist. Das es dann aber zu dem 3dmark Problem kamm hängt wohl schlicht und ergreifen damit zusammen das die Analyse sich bei der Kontrastwirkung von bestimmten Farbkombinationen einfach vertan hat.

Gast
2003-06-23, 23:32:33
Original geschrieben von Demirug
...
Das es dann aber zu dem 3dmark Problem kamm hängt wohl schlicht und ergreifen damit zusammen das die Analyse sich bei der Kontrastwirkung von bestimmten Farbkombinationen einfach vertan hat.

ähh..., ich sprach eigentlich von dem Performanceeinbruch bei aktiviertem AF und umbenannter 3dmark03.exe.

Quasar
2003-06-24, 00:13:15
Original geschrieben von Gast
Wer sagt denn, daß es bei Nvidias adaptiven AF nicht genau so läuft?! Eventuell werden Spiele/Benchmarks analysiert und dann festgelegt, welche Stages bilinear/trilinear und mit welchem Grad sie gefiltert werden.

Die 'Auffälligkeiten' der FXen beim AF im 3dMark, sobald man die *.exe umenennt, lassen darauf schliessen.

Lieber Gast,
Wer sagt denn, dass ich von ATi und/oder nVidia spreche? Wieso muss in jede Äußerung, die man hier tut, gleich ein Anti-diesunddas hineininterpretiert werden???

Ich rede lediglich von einer 8x1-Architektur im Vergleich zu einer 4x2-Architektur, wobei beide Designs über bilineare TMUs verfügen.

Der von MadManniMan postulierte Vorteil einer bilinearen 8x1-Architektur bestünde nur dann, wenn diese halbtransparenten Objekte bilinear gefiltert würden, da man bei trinlinearer Filterung ja wieder die TMUs zweier Pipelines zu einer virtuellen Tri-TMU verschalten müsste, ebenso wie auch die jeweils zwei TMUs des 4x2-Designs.
Am Ende stünden dann hüben wie drüben 4 trilinear gefilterte Pixel.

edit:
Das Ganze natürlich unbenommen deiner Ausführungen zur FX, AF, dem 3DMark und sonstigem. :)

Razor
2003-06-24, 00:39:43
Original geschrieben von Gast
ähh..., ich sprach eigentlich von dem Performanceeinbruch bei aktiviertem AF und umbenannter 3dmark03.exe.
Bitte lies die Kommentare von Demirug genau:
Das ganze ist aber unter D3D noch nicht generell aktiviert sondern wird nur für einzelne Applikationen eingeschaltet.
Wie meinst Du denn, dass nVidia eine zu 'optimierende' Applikation erkennt ?
???

Razor

Ikon
2003-06-24, 14:52:47
Original geschrieben von Razor
Wie meinst Du denn, dass nVidia eine zu 'optimierende' Applikation erkennt ?
???

Anhand des Dateinamens und der Quersumme, das hat Unwinder bei seinen Pixelshader-Präzisionstests herausgefunden. Der Treiber erkennt auch bestimmte Shader und ersetzt diese durch "optimierte" (also muss nicht unbedingt die komplette Anwendung "erkannt" werden).

Razor
2003-06-24, 16:47:14
Original geschrieben von Ikon
Anhand des Dateinamens und der Quersumme, das hat Unwinder bei seinen Pixelshader-Präzisionstests herausgefunden. Der Treiber erkennt auch bestimmte Shader und ersetzt diese durch "optimierte" (also muss nicht unbedingt die komplette Anwendung "erkannt" werden).
Hmmm...
Nur zur Info:
Original geschrieben von Gast
ähh..., ich sprach eigentlich von dem Performanceeinbruch bei aktiviertem AF und umbenannter 3dmark03.exe.
Das kam erst nach dem 330-Patch und damit der Deaktivierung der optimierten Shader bis Version 44.10...

Razor

Demirug
2003-06-24, 17:16:44
Original geschrieben von Razor
Hmmm...
Nur zur Info:

Das kam erst nach dem 330-Patch und damit der Deaktivierung der optimierten Shader bis Version 44.10...

Razor

Der 330 Patch hat eben nicht alle Erkennungsmechanismen ausgehebelt. Das Intellisample AF wird eben anders aktiviert. In UT2K3 wird es wahrscheinlich auch benutzt.

Razor
2003-06-24, 22:17:22
Original geschrieben von Demirug
Der 330 Patch hat eben nicht alle Erkennungsmechanismen ausgehebelt. Das Intellisample AF wird eben anders aktiviert. In UT2K3 wird es wahrscheinlich auch benutzt.
Das wird am Namen der EXE festgemacht sein (wie beim Murks ja bereits nachgewiesen), so, wie es auch alle andern Proggi's machen, die irgendwelchen applikationsspezifischen Einstellungen vornehmen.

Habe mich da vielleicht unglücklich ausgedrücht, gemient habe ich aber folgendes:
- Patch 330 deaktivierte die Shader-Erkennung und damit die einhergehenden Shader.'optimierungen'
- Das umbenenennen der EXE deaktivierte auch die Aäälikationsspezifische AF-'Optimierung'

Ich hoffen, dass es jetzt klarer ist...
(und die Shader-'Optimierungen' sind mit dem 44.65 wieder da ;-)

Razor

Demirug
2003-06-24, 22:30:28
Razor, da meinte wir beide das gleiche. Und das die Optimierungen wieder da sind war doch klar. Bleibt nur die Frage ob es mit dem 44.65 schon ein automatischer Optimizer ist (glaube ich nicht) oder ob es bald einen 340 Patch gibt. :D

Aqualon
2003-06-24, 22:51:34
Original geschrieben von Demirug
Bleibt nur die Frage ob es mit dem 44.65 schon ein automatischer Optimizer ist (glaube ich nicht) oder ob es bald einen 340 Patch gibt. :D

Und dann beginnt der kalte Krieg zwischen 3DMark Patches und den Treiberprogrammierern von Nvidia?

Da dürfte Futurmark wohl deutlich unterliegen. Soviele Möglichkeiten die Shader umzuschreiben, dürfte es auch nicht geben. Sollen ja das gleiche Ergebnis wie bisher liefern.

Wahrscheinlich gibts dann bald ne Liste, welcher Treiber für welchen Patch am besten geeignet ist ;D

Aqua

Pinhead
2003-06-24, 23:49:19
also irgendwie hab ich durch die ganze Benchmarkcheatgeschichte gar keine Lust mehr mir ne neue Graka zu kaufen, wer weiß den wie schnell die Karten zu ihren Vorgängern wirklich sind

ich sehs schon kommen, ne TNT 1 mit dem 200 MB großen Spezialtreiber von Nvidia rult alle aktuellen Karten in allen Benches weg, (klar etwas übertrieben, aber ich denke das drückt es ganz gut aus) (achja hätte jetzt auch ein Ati Beispiel nehmen können, soll kein Flame sein)

:(