PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3DMark-Splashscreen-Bug (Teil 1: Diskussion zum eigentlichen Thema)


Seiten : 1 [2]

Quasar
2002-06-15, 13:57:56
...ein AGP-Speicherleck.

Exxtreme
2002-06-15, 14:01:56
Originally posted by Quasar
...ein AGP-Speicherleck.
Dann wären aber die anderen Tests auch betroffen. Und wenn es so wäre dann müsste eine grosse AGP-Aperture-Size das Problem dann minimieren oder auch umgehen. Vielleicht testet es jemand?

Gruß
Alex

Demirug
2002-06-15, 14:02:27
Wenn es wirklich ein Speicherleck (Kernel, AGB, GraKA) wäre müsste die Ergebnisse ja eher umgekehrt sein. Mit Screen werden ja mehr Daten (Geometrie, Texturen) als ohne verwendet.

Razor
2002-06-15, 14:02:30
@Quasar

"Nee, daran liegt's beim 3DMark nicht."

Kann ich mir eigentlich auch nicht vorstellen...
Deshalb ja meine Frage.
;-)

"Nö, auch unter Win2k, Razorle."

Einigen wir uns auf WinNT 5.x !
;-)

"Vielleicht hat der Detonator ja 'n lütsches Speicherleck?"

Das glaube ich eher nicht...
Sonst würde ein solches Prob auch in ganz anderen Situationen auftreten.

Ich starte meinen Rechner vielleicht einmal in der Woche neu (und das auch nur, damit ich mal 5 Minuten 'Ruhe' habe ;-). Und dazwischen wird gebencht,gezockt, gearbeitet und was weiß ich nicht alles...

Aber vielleicht hat das Murkserl ja ein Prob mit dem W32-DX ?
Wäre doch 'ne Überlegung wert, oder ?
Was nicht erklären würde, warum das Prob nicht bei anderen...
Hmmm...

Und warum nur beim Murks ?
Hmmmmmmmm........

"...ein AGP-Speicherleck."

Ein Zwiebel-Leck !
:D

@Exxtreme

"Vielleicht erkennen die Treiber der anderen Hersteller die Benchmarkabschnitte nicht am Splash-Screen? ;)"

Witzig !
;-)

"Wenn Daniel recht hat und sich die Treiber nicht um Texturmanagement kümmern, dann wäre hier auch Platz für Optimierungen, oder?"

Bin mir nicht sicher, ob es Aufgabe der Treiber ist, die Texturen zu managen. Kann doch gut sein, daß die Applikation einen Grund dafür hat, warum sie Texturen im Speicher beläßt. Wenn die Engine dann damit 'rechnet', kostet es umso mehr Zeit, diese wieder in den Speicher zu laden und schon haben wir genau das, was wir doch eigentlich all nicht wollen: Ruckeln !

Aber wenn Du mit der Optimierung die Game-Engines oder generell die 3D-Applikationien meinst, dann kann ich Dir nur zu 100% (das zweite mal heute ;-) Recht geben. Nicht nur einfach irgendetwas 'zusammen zimmern', sondern auch 'sauber' programmieren (wie es sich Epic, zumindest aber der Herr Vogel, offensichtlich vorgenommen hat ;-) !

Dann gibt's villeicht auch nicht so viele Fehler, wenn ein Game released wird...
(siehe Aquanox oder dieses grausame <ich sach's net> ;-)

Schaun' wir mal !

Bis denne

Razor

HOT
2002-06-15, 14:11:00
Razor, es ist nahezu offensichtlich, dass bei allen leuten, die eine Geforce3 TI oder höher besitzen nahezu alle Tests mit SC höhere Resultate ergeben. Das ist KEINE Messungenauigkeit mehr.
@ Vogel:
Schöner erklärungsversuch, aber warum tritt das nur ab TI auf und nicht bei der normalen Geforce3?

Razor
2002-06-15, 14:32:02
OK, HOT, da hab' ich Dich dann wohl komplett mißverstanden...
Aber warum dann Dein Kommentar zu meinem Bench ?
:D

Und ja, warum mit gf3ti/gf4 und nicht mit ur-gf3 ?
???

Hoffen wir mal nicht, daß da was 'verschlimmbessert' wurde !
(ich kann mir beim besten Willen nicht vorstellen, was das sein sollte)

Bis denne

Razor

Leonidas
2002-06-15, 19:47:00
Zusammenfassung aller bisherigen Ergebnisse (mit/ohne Splashscreen):


Modulor - KYRO II - kein Unterschied
ow - Radeon DDR - kein Unterschied


Zeckensack - Radeon 8500LE - kein Unterschied
Labberlippe - Radeon 8500LE - kein Unterschied
mibi - Radeon 8500LE - kein Unterschied
Labberlippe (2) - Radeon 8500 (9039) - kein Unterschied
Wodde - Radeon 8500 (6094) - kein Unterschied
[DH]Avenger - Radeon 8500 (6094) - 8326 zu 8359 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284613#post284613)


Demirug - GeForce2 MX - kein Unterschied
Pirx - GeForce2 MX (28.32) - 2678 zu 2637
skampi - GeForce2 MX (28.32) - kein Unterschied
Matthias2x - GeForce2 Pro (28.32) - 4446 zu 4405


mirage - GeForce4 MX440 (28.80) - kein Unterschied


Kennung Eins - GeForce3 (29.42) + 16xAF - 4606 zu 4629
nggalai - GeForce3 (29.42) - 6238 zu 6208 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284670#post284670)
Razor - GeForce3 (29.42) - 7229 zu 7038 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=286223#post286223)
mirage - GeForce3 Ti200 - 6958 zu 6558
skampi (2) - GeForce3 Ti200 (29.42) - 6178 zu 5968
Unregistered (3) - GeForce3 Ti200 (28.32) - kein Unterschied (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284653#post284653)
Unregistered (4) - GeForce3 Ti200 (27.51) - 3303 zu 3278 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284653#post284653)
Frank - GeForce3 Ti200 (28.32) - 5187 zu 4971 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285639#post285639)
Piffan - GeForce3 Ti200 - 7684 zu 7432 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285958#post285958)


Unregistered (1) - GeForce4 Ti4200 (29.42) - 7689 zu 7529
Andre - GeForce4 Ti4200 (29.42) - 5542 zu 5098 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284164#post284164)
Thowe - GeForce4 Ti4400 - 9370 zu 8890 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284639#post284639)
Unregistered (2) - GeForce4 Ti4600 (29.42) - 10442 zu 10082 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284372#post284372)
turboschlumpf - GeForce4 Ti4600 (28.32) - 10493 zu 10134
aths - GeForce4 Ti4600 - 10078 zu 9712 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285253#post285253)
Quasar - GeForce4 Ti4600 (29.60) - 10296 zu 9827 (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285331#post285331)

Desti
2002-06-15, 22:03:30
Hat irgend jemand mal versucht eine offizielle Stellungnahme von böse Zwiebel oder nVidia zu bekommen?

Unregistered
2002-06-15, 22:18:23
öhm müsste das nicht "verrückte" Zeiwbel heißen??? (klugscheiß)

Haarmann
2002-06-15, 22:20:38
Unregged

Nein, auch böse Zwiebel is ne optionale Übersetzung... und in diesem Kontext irgendwie passend ;)

Salvee
2002-06-15, 23:35:59
Wenn ein Game auf einer ATi-Karte Darstellungsfehler zeigt, sind die ATi-Treiber dran schuld.
Wenn ein Benchmark NUR auf nV-Karten Unregelmässigkeiten aufweist, ist es plötzlich unklar, welche Seite den Fehler zu verantworten hat.
Entweder stehe ich tierisch auf dem Schlauch, oder diverse Individuen hier messen nach Gutdünken mit zweierlei Mass...

Edit: Ein Fragezeichen im Topic ist aber imho bislang angebracht ;)

Quasar
2002-06-15, 23:40:21
Darstellungsfehler sind etwas anderes als Performance-Schwankungen, Salvee.

Unregistered
2002-06-16, 00:11:45
Originally posted by Quasar
ATi erkaufte die zusätzliche Performance mit dem ungewollten aktivieren der 16Bit-Texturen, was eine teilw. deutliche Verschlechterung der BQ nach sich zog.


Bei ATI war die Manipulation beabsichtigt, und das haben sie letztendlich ja auch zugeben müssen. War ja sowieso offensichtlich, denn kein Treiber sucht unabsichtlich nach dem String "Quake" und führt die Manipulation nur in diesem Fall durch. Die Sache ist erledigt.

Quack, Quack.

Thowe
2002-06-16, 00:15:23
Originally posted by Quasar

Auch wenn du im nicht mehr mitgequoteten Teil keinen Betrug vermuten willst, so gibt es doch (bislang!) noch einen deutlich Unterschied zum "Quack"-Cheat und der (noch!) 3DMark-Unregelmäßigkeit.


Was aber immer noch eine Interpretationsfrage ist, ob ATi hier "geschummelt" hat oder ob das im Sinne des Nutzers war. Wenn ich mir die typsiche Quake 3 Spieler anschaue, kann ich ATi Argumentation durchaus nachvollziehen. Ich denke es geht hier in erster Linie um Geschwindigkeit und weniger um Optik. Aber auch das mag jeder sehen wie er will.

Erwähnte ich schon das du mit "Cheat" und "Unregelmäßigkeit" eine Bewertung vorgenommen hast? Ok, lassen wir das, denn auch das kann jeder individuell sehen.

Birdman
2002-06-16, 00:20:32
@Thowe
Das zieht imho absolut nicht.
Klar spielt der Qauker mit LowQuali-settings, aber der stellt diese ja bei jeder karte manuell runter, ned nur bei der Ati. Ergo hat er auch auf allen andern karten nochmals 10% speed mehr...ausser eben bei der Ati, denn da hat er diese 10% schon zum vornherein und runterschrauben bringt keinen zusätzlichen speed mehr.

Salvee
2002-06-16, 00:23:59
Birdman, der Tempus Präsens ist eindeutig falsch gewählt. Imperfekt ist passender, da die Quack-Zeiten gottlob vorbei sind.

Unregistered
2002-06-16, 00:25:47
Und bei den ATI-Treibern hatte der Spieler ja gar keine Wahl zum Einstellen der Settings, denn es wurden ihm vom ATI-Treiber falsche vorgegaukelt. Wenn jemand in Quake3 16bit haben will, dann stellt er 16bit ein. Und wenn er 32bit haben will, dann stellt er 32bit ein. Wenn er aber mit seiner ATI-Karte 32bit einstellt, aber nur 16bit bekommt, dann ist das üble Manipulation und Vorspielung falscher Tatsachen. Da ATI aber inzischen diese absichtliche Manipulation ja zugeben musste (sie konnten ja nicht anders), ist diese Sache sowieso klar.

Voodoo3Killer
2002-06-16, 00:26:50
Zurück zum Thema:

ohne:

3DMark Score 9702
Game 1 - Car Chase - Low Detail 143.3 fps
Game 1 - Car Chase - High Detail 48.5 fps
Game 2 - Dragothic - Low Detail 185.2 fps
Game 2 - Dragothic - High Detail 100.2 fps
Game 3 - Lobby - Low Detail 134.6 fps
Game 3 - Lobby - High Detail 62.1 fps
Game 4 - Nature 42.7 fps
Fill Rate (Single-Texturing) 1082.3 MTexels/s
Fill Rate (Multi-Texturing) 2336.9 MTexels/s
High Polygon Count (1 Light) 43.5 MTriangles/s
High Polygon Count (8 Lights) 7.8 MTriangles/s
Environment Bump Mapping 181.6 fps
DOT3 Bump Mapping 153.4 fps
Vertex Shader 102.4 fps
Pixel Shader 124.5 fps
Advanced Pixel Shader 89.9 fps
Point Sprites 23.6 MSprites/s


mit:


3DMark Score 10117
Game 1 - Car Chase - Low Detail 156.3 fps
Game 1 - Car Chase - High Detail 50.5 fps
Game 2 - Dragothic - Low Detail 190.9 fps
Game 2 - Dragothic - High Detail 103.5 fps
Game 3 - Lobby - Low Detail 140.7 fps
Game 3 - Lobby - High Detail 64.2 fps
Game 4 - Nature 43.7 fps
Fill Rate (Single-Texturing) 1082.4 MTexels/s
Fill Rate (Multi-Texturing) 2337.1 MTexels/s
High Polygon Count (1 Light) 49.7 MTriangles/s
High Polygon Count (8 Lights) 12.6 MTriangles/s
Environment Bump Mapping 181.8 fps
DOT3 Bump Mapping 153.3 fps
Vertex Shader 102.4 fps
Pixel Shader 124.4 fps
Advanced Pixel Shader 89.9 fps
Point Sprites 32.5 MSprites/s

Quasar
2002-06-16, 00:59:49
Originally posted by Thowe
Was aber immer noch eine Interpretationsfrage ist, ob ATi hier "geschummelt" hat oder ob das im Sinne des Nutzers war. Wenn ich mir die typsiche Quake 3 Spieler anschaue, kann ich ATi Argumentation durchaus nachvollziehen. Ich denke es geht hier in erster Linie um Geschwindigkeit und weniger um Optik. Aber auch das mag jeder sehen wie er will.
Erwähnte ich schon das du mit "Cheat" und "Unregelmäßigkeit" eine Bewertung vorgenommen hast? Ok, lassen wir das, denn auch das kann jeder individuell sehen.

Thowe,
bei aller Liebe, aber quality-Features wider der gewählten Einstellungen des Users soll im Sinne des Gamer sein? Es ist ja nun nicht so, daß die Texture-Quality im Quake-3 Menü danach auf 16Bit gestellt worden wäre, sonder es wurde einfach so getan, als wäre alles auf den gewählten Einstellungen abgelaufen.

Und das ist, wie du mir zu Recht unterstellst, in meiner (durchaus beabsichtigten) Wertung, ein Cheat, möglicherweise mehr.

Schade, ich hatte gerade von dir eine etwas objektivere Argumentation erwartet. Lassen wir das, eigentlich gehört das ja nicht in diesen Thread, obwohl du damit angefangen hast.

edit:
Wenn nachgewiesen ist, daß die 3DMark-Unregelmäßigkeit durch unterlegen Bildqualität erkauft worden ist, werde ich mich sicher nicht scheuen, auch bei diesem "Vorgang" von einem Cheat zu sprechen.

Voodoo3Killer
2002-06-16, 01:00:43
Häää?

Ein paar Seiten vorher könnt ihr sehen, dass bei mir der Nature Test außerordentlich zugelegt hatte, bei aktivierten Screens.

Jetzt sieht es schon wieder ganz anders aus. Durchweg bessere Ergebnisse, vor allem beim ersten Test...

???

Andre
2002-06-16, 01:06:59
Um auch mal wieder einen Beitrag zum (fast) OT-Thema zu leisten:

Ich finds erstaunlich, was hier abgeht.
Als ich mich an diesem Thread beteiligte, da wollte ich einer Unregelmäßgkeit auf die Spur kommen - und rausfinden, wo sie herkommt.
Lieder rutscht das Thema jetzt wieder in einen Bereich ab, wo sich Halbwahrheiten mit Sensationslust paaren und preisegegeben werden.

@ Thowe, Exxtreme und was weiß ich, wer sonst noch

Das geht so nicht.
Ihr könnt nicht behaupten, dass ein Cheat vorliegt, solange das nicht bewiesen ist - bei ATI ists nunmal erwiesen, da kommt ihr nicht drum herum.
Bei NV und Madonion siehts da soch etwas anders aus - vor allem, weil keiner weiß, welcher Score nun der Richtige ist.
Solange da nichts definitiv erwiesen ist, bitte ich Euch, die Propaganda-Aussagen zu überdenken.
Das was ihr behauptet, müsst ihr beweisen, so läufts immer und so wirds immer laufen - und bisher haben wir nur Vermutungen und keinen Beweis, also wäre ich da etwas vorsichtig.

@ Thowe persönlich


Was aber immer noch eine Interpretationsfrage ist, ob ATi hier "geschummelt" hat oder ob das im Sinne des Nutzers war. Wenn ich mir die typsiche Quake 3 Spieler anschaue, kann ich ATi Argumentation durchaus nachvollziehen. Ich denke es geht hier in erster Linie um Geschwindigkeit und weniger um Optik. Aber auch das mag jeder sehen wie er will.

Dummerweise bin ich so ein Q3-Spieler - und nicht jeder Q3-Zocker spielt den detailgrad von lego-Quake.
Seit wann bestimmt der Hersteller eines Treibers, wie ich mein Game zu spielen habe?
Mit einer modernen Karte ist Q3 easy mit 200 FPS zu spielen, warum also der Eingriff von ATI?
Wenn ich 32 Bit, 2xFSAA oder sonstwas einstelle, dann hat der Treiber das gefälligst so umzusetzen und nicht, weils ja mehr Scores bringt, intern die Deatils zu verändern.

@ Leo, oder wer den Thread-Titel auch immer geändert hat

Das geht IMHO auch nicht in Ordnung.
Sonst schreibe ich demnächst bei jedem ATI-Thread, der vermeindliche Treiber-Bugs behandelt auch immer ein (ATI-Schummelversuch) rein.

@ all

Anstatt sich hier über solche schwachsinnigen Dinge aufzuregen, sollte man mal lieber weiterüberlegen, wo das Problem liegt.
Die die daran nicht interssiert sind, können den Thread ja auch nicht lesen.

Thowe
2002-06-16, 01:20:46
Originally posted by Quasar


Thowe,
bei aller Liebe, aber quality-Features wider der gewählten Einstellungen des Users soll im Sinne des Gamer sein? Es ist ja nun nicht so, daß die Texture-Quality im Quake-3 Menü danach auf 16Bit gestellt worden wäre, sonder es wurde einfach so getan, als wäre alles auf den gewählten Einstellungen abgelaufen.



Nein, ich habe keinerlei Bewertung vorgenommen, nur gesagt das dies jeder sehen kann wie er will. Meine Meinung war dazu nur das ich ATI Argumentation nachvollziehen kann, sofern es nicht ein simpler Treiberfehler war. Muss gestehen das ich das Thema nicht weiter verfolgt habe, da es mich nicht betrifft. Quake 3 ist für mich weder ein Spiel noch ein Benchmark. (Das ist meine Wertung :) )

Mir geht es einzig und alleine darum, ganz deutlich klar zustellen, das jeder eine persönliche Wertung vornimmt. Ich denke wer ATi Betrug vorwirft, muss auch fair genug sein im Bedarfsfall nVidia genau so kritisch zu sehen.

Was ich damit "freundlich" andeuten will (nicht unbedingt für dich, da ich dich nicht als blinden Fan sehe) ist, hätte hier gestanden das die Radeon 8500 eine Diskrepanz bei den Ergebnissen hat, dann hätten hier einige Postings gestanden wie "Was soll man von ATi erwarten seit den Betrug mit Quack, die können nur bei Benchmarks betrügen, ansonsten würde sie nie das hohe Niveau von nVidia erreichen". Und ich denke absolut niemand hätte sich über die 3DMark Schummeleien aufgeregt, wenn doch, ist eh nur ein FanATiker.

Mir persönlich sind Benchmarks eh wurscht, ich will in vernüftiger Qualität meine Spiele spielen können, weder 3DMark, noch Quake oder UT gehören dazu. Da bleibe ich lieber bei Morrowind.

Quasar
2002-06-16, 01:23:32
So, habe nun nocheinmal meine altehrwürdige GF3 eingebaut und gebencht:

Ohne Splash: 7453
Mit Splash: 7672

Nennenswerte Unterschiede: Car Chase LQ mit Splash +2,2fps (ca. 1.5%), Nature mit Splash +9,4fps, alles andere im Nachkommabereich.

Wenn ich wirklich Ahnung von Programmierung und Treibern hätte, würde ich fast vermuten, der Detonator versucht vorab zu erkennen, ob PS genutzt werden oder nicht und verändert entsprechend seine Einstellungen, was möglicherweise Speicher- bzw. Cache-Zuordnung angeht. (Ist es möglich, daß z.B. Buffer für Pixelshader auch für den Vertex-Shader umzufunktionieren und vice versa?).

Ach ja, bitte jetzt nicht mit dem zurückschalten auf 2xFSAA bei zu hohen FSAA-Einstellungen kommen....was technisch nicht möglich ist, kann auch nicht gemacht werden.

Quasar
2002-06-16, 01:28:57
Originally posted by Thowe
Nein, ich habe keinerlei Bewertung vorgenommen, nur gesagt das dies jeder sehen kann wie er will. Meine Meinung war dazu nur das ich ATI Argumentation nachvollziehen kann, sofern es nicht ein simpler Treiberfehler war. Muss gestehen das ich das Thema nicht weiter verfolgt habe, da es mich nicht betrifft. Quake 3 ist für mich weder ein Spiel noch ein Benchmark. (Das ist meine Wertung :) )

Trotz allem denke ich, daß es in diesem Falle einigermaßen eindeutig erwiesen ist. Von Betrug zu sprechen halte ich für juristisch auch ein wenig zu gewagt, ein Cheat ist da weitaus unverfänglicher.


Mir geht es einzig und alleine darum, ganz deutlich klar zustellen, das jeder eine persönliche Wertung vornimmt. Ich denke wer ATi Betrug vorwirft, muss auch fair genug sein im Bedarfsfall nVidia genau so kritisch zu sehen.

..was ich auch tun werde, sobald die Sachlage entsprechend geklärt ist.


Was ich damit "freundlich" andeuten will (nicht unbedingt für dich, da ich dich nicht als blinden Fan sehe) ist, hätte hier gestanden das die Radeon 8500 eine Diskrepanz bei den Ergebnissen hat, dann hätten hier einige Postings gestanden wie "Was soll man von ATi erwarten seit den Betrug mit Quack, die können nur bei Benchmarks betrügen, ansonsten würde sie nie das hohe Niveau von nVidia erreichen". Und ich denke absolut niemand hätte sich über die 3DMark Schummeleien aufgeregt, wenn doch, ist eh nur ein FanATiker.

Ja, da hast du sicher recht, und auch, wenn es nicht wirklich fair ist, muss man denjenigen zugestehen, daß sie eher Anlaß hätten dieses zu glauben. (Wie gesagt, daß rechtfertig auch keine Vorverurteilung)

Thowe
2002-06-16, 01:35:46
Originally posted by Andre

@ Thowe, Exxtreme und was weiß ich, wer sonst noch

Das geht so nicht.
Ihr könnt nicht behaupten, dass ein Cheat vorliegt, solange das nicht bewiesen ist - bei ATI ists nunmal erwiesen, da kommt ihr nicht drum herum.
Bei NV und Madonion siehts da soch etwas anders aus - vor allem, weil keiner weiß, welcher Score nun der Richtige ist.
Solange da nichts definitiv erwiesen ist, bitte ich Euch, die Propaganda-Aussagen zu überdenken.
Das was ihr behauptet, müsst ihr beweisen, so läufts immer und so wirds immer laufen - und bisher haben wir nur Vermutungen und keinen Beweis, also wäre ich da etwas vorsichtig.



*grummel*

Ich werfe nVidia keinen Cheat vor

Hoffe ist jetzt klarer, das einzige was ich sagte ist, das jemand es als Schummelei sehen kann, ist letztendlich sein recht.

La Junta
2002-06-16, 02:19:39
Es ist ein Bug von 3DMark , der allen Grafikkarten Herstellern anscheinend bekant war(ist) . Alle anderen (ATI....) haben diesen Bug durch ihre Treiber gefixt , Nvidia nicht . Meiner Meinung nach kann man da getrost von Schumelei reden .NVidia war halt schlau genug diesen Bug zu nutzten . Jetzt können sie immer noch behaupten dass sie es nicht wussten (wers glaubt wird selig) . Aber mal ehrlich , ist es nicht komisch , dass es nur mit der GF-3 und Gf-4 Serie vorkommt .

Originally posted by Piffan

Solange nichts feststeht, da ist das Wort Schummelei nur mit einem Fragezeichen statthaft, eigentlich überhaupt nicht, da es eine Vorverurteilung beinhaltet. Wer es aber so benutzt ohne es belegen zu können, verleumdet und setzt sich selbst ins Unrecht....

Man kann es NVidia eben nicht beweissen , weil sie ja diesen Bug aus 3DMark zu ihren Gunsten ausnutzen , ob absichtlich oder nicht kann man nicht beweisen . Sie sind ja wohl nicht zu blöd es selber zuzugen . Und ausserdem trifft deine deffinition von schumelei eher auf Betrug zu und nicht Schumelei zu .

Aber letztendlich weiss man ja nicht welcher der richtige Score ist , ich glaube aber Kaum das es der ohne Splashscreens ist . NVidia (und alle anderen ) bencht wie Blöd mit 3DMark , jedesmal werden die 100 zusätzlichen 3DMarks Hochgelobt . Wenn der Bench mit Splashscreens der richtige wäre hätte es NVidia schon lange mit einer neueren Version der Treiber gefixt , aber da se eben nicht so zu sein scheint ,nutzt man den Bug aus bis es einer bemerkt . Wenn es einer bemerkt hat , bestreiten sie dass sie was davon wussten . also was solls , beweissen kann man es ihnen eh nicht das es vorsätzlich war und von Schumelei kann schon gar nicht die rede sein(es war ja nicht vorsätzlich), oder etwa nicht Piffan .

Meiner Meinung nach ist es Schumelei (Cheat oder wie auch immer ).

La Junta
2002-06-16, 02:55:50
Originally posted by Piffan


Ich bin da völlig anderer Ansicht. Wie ich vor ca. 200 Post klar festgestellt habe (und auch von anderen bestätigt wurde, z.B. Razor, der es sehr detailiert durchgetestet hat, auch unter verschiedenen OS), kommen die Schwankungen fast ausschließlich vom Naturetest. Und das Interessante: Nach dem subjektiven Eindruck gibt der Counter die reale Performance wieder, dh. es kommt ohne Splash zu einem starken Performanceeinbruch.....Wenn nun aber die Zahlen die Performance korrekt widerspiegeln, kann ich doch nicht von einem Täuschungsversuch ausgehen. Da muß ich eher davon ausgehen, daß aufgrund eines Bugs die Performance ohne Splash einknickt!

Ich weiß, das der Thread sehr lang ist, es wurde aber alles schon lang und schmutzig durchgekaut. Kann verstehen, wenn ein "Späteinsteiger" keinen Bock hat, den ganzen Mist zu lesen. Umso schlimmer ist die "Zusammenfassung" von Leo, sie ist unter aller Kanone, weil sie gar nix zusammenfasst, sondern nur die Zahlenwerte rauspickt und mit der geänderten Threadüberschrift die Schummeltheorie zu belegen versucht.

Ich kann die Änderung der Threadüberschrift auch nicht wirklich lustig finden, wäre es eine Urkunde, hätte Leo Urkundenfälschung betrieben. So aber hat der dem Threadstarter etwas untergeubelt, was er so nie gesagt hat. Irgndwo ist das ganze faul!

edit: habe eben Hots Post gelesen. Ok, jetzt sagt er, dass er das sowieso so geschrieben hätte. Hat er aber nicht, das ist Fakt. Wie auch immer, ein Webmaster hat an dem Inhalt der Post nichts zu fummeln, es sei denn, er zensiert Beschimpfungen etc....

Sei es wie es auch immer ist :D , wissen tut es eh keiner genau was der richtige Score ist und all das was hier geschrieben wurde ist eh Speculation . Man kann es eben auch wie du sehen : Performanceeinbruch . NVidia wird es letztendlich selber beweissen müssen , dass es kein Cheat ist . Indem es bei den neuen Treibern keine Schwankungen im Naturetest mehr gibt . Sofern sie dies nicht tun , ist es für mich ein Cheat . Bis jetzt konnten sie ja behaupten nichts gewusst zu haben , aber spätestens jetzt wissen sie es .

Ich bin nicht erst jetzt eingestigen , war schon dabei als der Thread eröffnet wurde , hab aber trotzdem vielleicht nur 1/4 gelesen :D .Normalerweisse mach ich bei solchen Threads einfach nicht mit , sondern lese sie nur durch .

Ich finde nur das jemand das Recht hat seine eigene Meinung zu äussern (Moderatoren inbegriffen) . Meine Meinung steht schon im obigen Post .

aths
2002-06-16, 03:03:32
La Junta,

Cheat ist ein hartes Wort. Ich würde nicht von Cheat sprechen, da die Punktezahl auch beim Nature-Test bekanntlich aus den inscene fps resultiert. Diese liegen mit Splash Screen unbestreitbar höher. "Irgendwie" sind die Treiber so programmiert, dass bei Splash Screens mehr Leistung freigesetzt wird. Ganz offenbar ist diese aber da.

Der Nature-Test ist zumindest bei modernen nV-Karten eh recht komisch. So stellte ich z.B. eine überproportionale (!!) fps-Steigerung fest, wenn ich übertaktete. Diese fps waren aber auch real vorhanden. "Bug" trifft es wohl eher als Cheat.

Piffan
2002-06-16, 03:06:39
Originally posted by skampi


Werte es doch als Denkanstoß.

Autsch! War das ein harter Stoss!

Gut, dann denke ich mal folgendes: Die SAche gleitet tatsächlich immer mehr ins Lächerliche ab. Habe neulich den Begriff "Muppetshow" gebraucht. Da meinte ich aber folgendes: DA wurde gebencht und gebencht und fleissig Zahlen gesammelt. Aber niemand hat das offensichtliche gesehen (von meiner Wenigkeit abgesehen): Der Übeltäter ist nahezu der Naturetest allein, und zwar wirkt der Zahlenwert mit Splash stimmig und glaubwürdig, der ohne Splash ebenfalls: total ruckelig und zäh. Also war für mich klar, daß die Werte wohl stimmen und somit kein Täuschungsversuch vorliegt, sondern ein fetter Bug im Deto oder 3dMark.

Nun war die Frage: Ist die Bildqualität in beiden Fällen die gleiche? Die Beantwortung dieser Frage ist essentiell; wäre sie verschieden, würde es sehr nach Beschiss riechen.... Ich habe dann wieder probiert und getestet und bin auf meinem System zu dem Schluß gekommen, daß sie gleich ist, ferner dass krasse Änderung am LOD- Bias, am Z-Buffer oder der Farbtiefe niemal so starke Differenzen beim Naturetest auslösen konnten.
Folgender Befund hat mich bestätigt: Es ist unmöglich, den Einbruch, der durch den Wegfall des Splashscreens auftritt, durch miese Bildqualität aufzufangen.....

Hier noch mal der Naturewert mit Splash: 36 FPS
Ohne Splash nur noch magere 26. Wobei sich die Zahlen mit dem subjektiven Eindruck decken. Dazu muß ich sagen, dass ich intensiv spiele und sehr oft den Framcounter laufen lasse (UT, Jedi, RCTCw). Gewisse Erfahrung darf vorausgesetzt werden....

Am nächsten Tag haben andere, vor allem Razor, genau das bestätigt, was mir auffiel: Der Naturetest ist buggy, ob vom Treiber oder 3dMark, kann selbstverständlich keiner von uns Usern klären.....


Es ist lächerlich und schade, daß die Qualität dieses Threads ins Bodenlose gesunken ist. Die Krönung des Ganzen ist dann die Änderung der Threadüberschrift.....

Nochmal: Es ist nichts klar, es sieht so aus, als ob der Wert mit Splash der Korrekte ist, während der niedrige zwar nicht falsch ist, aber einen Einbruch der Performance aufgrund eines Fehlers belegt

La Junta
2002-06-16, 03:17:26
Originally posted by aths
La Junta,

Cheat ist ein hartes Wort. Ich würde nicht von Cheat sprechen, da die Punktezahl auch beim Nature-Test bekanntlich aus den inscene fps resultiert. Diese liegen mit Splash Screen unbestreitbar höher. "Irgendwie" sind die Treiber so programmiert, dass bei Splash Screens mehr Leistung freigesetzt wird. Ganz offenbar ist diese aber da.

Der Nature-Test ist zumindest bei modernen nV-Karten eh recht komisch. So stellte ich z.B. eine überproportionale (!!) fps-Steigerung fest, wenn ich übertaktete. Diese fps waren aber auch real vorhanden. "Bug" trifft es wohl eher als Cheat.

Ich solls nicht Schumelei und auch nicht cheat nennen ,dann ists halt ein Bug(von wem auch immer) .
"Irgendwie" sind die Treiber so programmiert, dass bei Splash Screens mehr Leistung freigesetzt wird (Bug eben ).


Nacht allen .

skampi
2002-06-16, 03:17:53
Originally posted by Piffan


Autsch! War das ein harter Stoss!

Gut, dann denke ich mal folgendes: Die SAche gleitet tatsächlich immer mehr ins Lächerliche ab. Habe neulich den Begriff "Muppetshow" gebraucht. Da meinte ich aber folgendes: DA wurde gebencht und gebencht und fleissig Zahlen gesammelt. Aber niemand hat das offensichtliche gesehen (von meiner Wenigkeit abgesehen): Der Übeltäter ist nahezu der Naturetest allein, und zwar wirkt der Zahlenwert mit Splash stimmig und glaubwürdig, der ohne Splash ebenfalls: total ruckelig und zäh. Also war für mich klar, daß die Werte wohl stimmen und somit kein Täuschungsversuch vorliegt, sondern ein fetter Bug im Deto oder 3dMark.

Nun war die Frage: Ist die Bildqualität in beiden Fällen die gleiche? Die Beantwortung dieser Frage ist essentiell; wäre sie verschieden, würde es sehr nach Beschiss riechen.... Ich habe dann wieder probiert und getestet und bin auf meinem System zu dem Schluß gekommen, daß sie gleich ist, ferner dass krasse Änderung am LOD- Bias, am Z-Buffer oder der Farbtiefe niemal so starke Differenzen beim Naturetest auslösen konnten.
Folgender Befund hat mich bestätigt: Es ist unmöglich, den Einbruch, der durch den Wegfall des Splashscreens auftritt, durch miese Bildqualität aufzufangen.....

Hier noch mal der Naturewert mit Splash: 36 FPS
Ohne Splash nur noch magere 26. Wobei sich die Zahlen mit dem subjektiven Eindruck decken. Dazu muß ich sagen, dass ich intensiv spiele und sehr oft den Framcounter laufen lasse (UT, Jedi, RCTCw). Gewisse Erfahrung darf vorausgesetzt werden....

Am nächsten Tag haben andere, vor allem Razor, genau das bestätigt, was mir auffiel: Der Naturetest ist buggy, ob vom Treiber oder 3dMark, kann selbstverständlich keiner von uns Usern klären.....
....


Halt Dich doch nicht am Nature fest. Was mich vielmehr fasziniert sind die Polygon-counts. Was wiederum Gerhardts These stützt.

Leonidas
2002-06-16, 04:08:49
Wer sich wundert, wo denn die ganzen "lockeren Sprüche" wegen des geänderten Threadnamens sind, ich hab den Thread gesplittet, hier sind sie:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&goto=lastpost&threadid=23342

Leonidas
2002-06-16, 04:26:26
Zusammenfassung aller bisherigen Ergebnisse (mit/ohne Splashscreen):


Modulor - KYRO II - kein Unterschied
ow - Radeon DDR - kein Unterschied


Zeckensack - Radeon 8500LE - kein Unterschied
Labberlippe - Radeon 8500LE - kein Unterschied
mibi - Radeon 8500LE - kein Unterschied
Labberlippe (2) - Radeon 8500 (9039) - kein Unterschied
Wodde - Radeon 8500 (6094) - kein Unterschied
[DH]Avenger - Radeon 8500 (6094) - 8326 zu 8359
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284613#post284613)


Demirug - GeForce2 MX - kein Unterschied
Pirx - GeForce2 MX (28.32) - 2678 zu 2637
skampi - GeForce2 MX (28.32) - kein Unterschied
Matthias2x - GeForce2 Pro (28.32) - 4446 zu 4405


mirage - GeForce4 MX440 (28.80) - kein Unterschied


Kennung Eins - GeForce3 (29.42) + 16xAF - 4606 zu 4629
nggalai - GeForce3 (29.42) - 6238 zu 6208
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284670#post284670)
Razor - GeForce3 (29.42) - 7229 zu 7038
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=286223#post286223)
mirage - GeForce3 Ti200 - 6958 zu 6558
Quasar (2) - GeForce3 - 7672 zu 7453
skampi (2) - GeForce3 Ti200 (29.42) - 6178 zu 5968
Unregistered (3) - GeForce3 Ti200 (28.32) - kein Unterschied
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284653#post284653)
Unregistered (4) - GeForce3 Ti200 (27.51) - 3303 zu 3278
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284653#post284653)
Frank - GeForce3 Ti200 (28.32) - 5187 zu 4971
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285639#post285639)
Piffan - GeForce3 Ti200 - 7684 zu 7432
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285958#post285958)


Unregistered (1) - GeForce4 Ti4200 (29.42) - 7689 zu 7529
Andre - GeForce4 Ti4200 (29.42) - 5542 zu 5098
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284164#post284164)
Thowe - GeForce4 Ti4400 - 9370 zu 8890
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284639#post284639)
Voodoo3Killer - GeForce4 Ti4400 (28.32) - 10117 zu 9702
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=287227#post287227)
Unregistered (2) - GeForce4 Ti4600 (29.42) - 10442 zu 10082
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284372#post284372)
turboschlumpf - GeForce4 Ti4600 (28.32) - 10493 zu 10134
aths - GeForce4 Ti4600 - 10078 zu 9712
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285253#post285253)
Quasar - GeForce4 Ti4600 (29.60) - 10296 zu 9827
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285331#post285331)









Zusammenfassung der reinen Nature-Tests (mit/ohne Splashscreen):


nggalai - GeForce3 (29.42) - 24,0 zu 23,6
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284670#post284670)
Razor - GeForce3 (29.42) - 34,4 zu 25,3
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=286223#post286223)
Unregistered (3) - GeForce3 Ti200 (28.32) - 24,8 zu 24,5
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284653#post284653)
Unregistered (4) - GeForce3 Ti200 (27.51) - 24,8 zu 24,5
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284653#post284653)
Frank - GeForce3 Ti200 (28.32) - 28,9 zu 21,8
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285639#post285639)
Piffan - GeForce3 Ti200 - 36,1 zu 27,5
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285958#post285958)


Andre - GeForce4 Ti4200 (29.42) - 35,5 zu 33,9
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284164#post284164)
Thowe - GeForce4 Ti4400 - 45,6 zu 39,7
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284639#post284639)
Voodoo3Killer - GeForce4 Ti4400 (28.32) - 43,7 zu 42,7
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=287227#post287227)
Unregistered (2) - GeForce4 Ti4600 (29.42) - 50,3 zu 43,7
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=284372#post284372)
aths - GeForce4 Ti4600 - 57,8 zu 50,4
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285253#post285253)
Quasar - GeForce4 Ti4600 (29.60) - 48,5 zu 43,6
(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=285331#post285331)





Beachtet bitte, daß diese Auflistung nicht aussagt (gar nicht aussagen kann), wer denn nun an diesem Bug Schuld hat oder ob überhaupt einer Schuld hat.

Quasar
2002-06-16, 10:31:11
Originally posted by Leonidas
Wer sich wundert, wo denn die ganzen "lockeren Sprüche" wegen des geänderten Threadnamens sind, ich hab den Thread gesplittet, hier sind sie:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&goto=lastpost&threadid=23342


Sehr gute Lösung, Leo!

Unregistered
2002-06-16, 10:37:53
Ich frage mich, WAS soll hier noch bewiesen werden? Ob es eine absichtliche Leistungsoptimierung ist oder nicht? Wieso sollte der Treiber sonst überhaupt erkennen wollen, ob der Spalsh-Screen gezeigt wird oder nicht?

Applikationserkennung für die Optimierung der Treibercodepfade ist ja nichts Neues. PowerVR und ATI tun dies über den Dateinamen. nVidia offenbar unter anderem über die Erkennung von Splash-Screens. Es gibt noch X andere Wege im Treiber zu erkennen, welches Programm (oder welcher Teil der Applikation) gerade läuft, nicht nur über den Splash-Screen. Diese Applikationserkennung ist bei Spielen auch unbedingt nötig, weil man für gewisse vermurkste Hacks von unfähigen 3D-Programmierern Speziallösungen im Treiber haben muss.

Nvidia hat nun einen optimierten Treiberpfad für den Nature-Test eingebaut, vermutlich weil die NV20er-Serie in dem Test stark hinter dem Radeon8500 lag (der vielleicht ebenfalls einen optimierten Treiberpfad für den Nature-Test hat). Das "Problem" wird in Zukunft wahrscheinlich behoben, indem im künftigen Treiber nicht mehr der Splash-Screen zur Applikationserkennung nutzt, sondern was anderes, das sich von aussen nicht mehr erkennen lässt. Beispielsweise das Shader-Program für den Nature-Test, das wohl ziemlich einzigartig sein dürfte.

public String application="";

public void applicationDetectionByShader(VertexShader vs) {
if ((vs[0].equals("dp4 oPos.x, v0, c0")) && (vs[6]].equals("add r2, c10, -r1")) && (vs[20]].equals(("add r2, c10, -r1")) && ....)) {
application="3DMARK2001_NATURE_SCENE")
else if (....) {
application="AQUAMARK"
}
}

:D :D :D

gbm31
2002-06-16, 11:01:47
etwas verspätet:

DISPLAY
Platform NVIDIA GeForce4 Ti 4400
CPU Optimization D3D Pure Hardware T&L
Width 1024
Height 768
Depth 32 bit
Z-Buffering 24 bit
Texture Format Compressed
Buffering Double
Refresh Rate 100 Hz
FSAA Mode None

OPTIONS
Show Title Screens Yes

RESULTS
3DMark Score 9662
Game 1 - Car Chase - Low Detail 146.3 fps
Game 1 - Car Chase - High Detail 50.3 fps
Game 2 - Dragothic - Low Detail 167.9 fps
Game 2 - Dragothic - High Detail 99.6 fps
Game 3 - Lobby - Low Detail 138.1 fps
Game 3 - Lobby - High Detail 64.1 fps
Game 4 - Nature 43.0 fps

DISPLAY
Platform NVIDIA GeForce4 Ti 4400
CPU Optimization D3D Pure Hardware T&L
Width 1024
Height 768
Depth 32 bit
Z-Buffering 24 bit
Texture Format Compressed
Buffering Double
Refresh Rate 100 Hz
FSAA Mode None

OPTIONS
Show Title Screens No

RESULTS
3DMark Score 9449
Game 1 - Car Chase - Low Detail 147.4 fps
Game 1 - Car Chase - High Detail 52.6 fps
Game 2 - Dragothic - Low Detail 167.7 fps
Game 2 - Dragothic - High Detail 92.8 fps
Game 3 - Lobby - Low Detail 136.2 fps
Game 3 - Lobby - High Detail 63.5 fps
Game 4 - Nature 37.9 fps


xp pro, 29.42, 1152x864x32bit @ 85hz + wallpaper desktop, aniso 1x (bilinear), keine mipmap-tricks, ti4400@275/275, tb1400@1594, 512mb.

alle werte außer nature (-11,9%) ok, wobei ich von ruckeln nicht wirklich sprechen kann ;)

Razor
2002-06-16, 11:42:05
@Thowe

Das was ATI da getrieben hat, war definitiv ein Cheat (nucht unbedingt Betrug). Auf einen 'Bug' schließe ich da eher nicht, da sonst das Verhalten am Namen der Startdatei (siehe Quack = korrekte Verarbeitung, aber erwartungskonforme Performance / Quake = flasche Verarbeitung und zu hohe Perofrmance) nicht erklärbar wäre. Zumal es ATI ja auch (indirekt) zugegeben hat.

Aber hier geht's nicht um ATI, sondern um 3DMurk's und NV !
(vielen DAnk auch, für dieses nette Abseitsthema :()

@La Junta

Wenn es nur ein Rechenfehler beim Murs wäre, würde ich Dir ja zustimmen, aber:

DIE PERFORMANCE IST MASSIV UNTERSCHIEDLICH !

Vielleicht hätte ich in meinen Darstellungen zur Nature-Performance darstellen sollen, daß die Geschwindigkeit tatsächlich (wie bei Piffan ja auch fest gestellt) extrem abnimmt. So ruckelts bei den durchschnittlichen 23-25fps mächtig, während es überwiegend flüssig bei den 34fps läft.

Ergo: Die Performance ist bei Nature-Test definitiv unterscheidlich !
(und wird dann ja auch in Zahlen ausgedrückt)

Insofern sollten wir Quasars Ansatz weiter verfolgen und versuchen, heruaszufinden, warum die Performance ohne Spalsh-Screens (bei mir auch bei Zuschaltung der anderen Geame-Tests) so derbe abnimmt. Dennn offensichtlich ist ja meine gf3 z.Bsp. in der Lage (sichtbare= 34fps zu liefern... aber eben nicht immer.

Einen nVidia-Cheat (oder was auch immer) ist nach derzeitigem Stand fast auszuschließen !
Es ist offensichtlich ein Prob' im Zusamenspiel vom Murks und den DX8-Karten nVidia's...

""Irgendwie" sind die Treiber so programmiert, dass bei Splash Screens mehr Leistung freigesetzt wird (Bug eben )."

Du begreifst es einfach nicht, oder ?
Die Herkunft dieses Verhaltens ist nicht geklärt und auch die Ursache nicht.
Tatsache ist allerdings, daß es eine reale (!) Performance-Steigerung gibt (ohne Qualitätsverlust). Und somit sowohl 3DMurks, die Treiber und auch die Hardware in der Lage ist, diese Performance zu erreichen. Aber irgendetwas bei abgeschalteten Spash-Screens dafür sorgt, daß dem nicht mehr so ist.

@Piffan

"Aber niemand hat das offensichtliche gesehen (von meiner Wenigkeit abgesehen): Der Übeltäter ist nahezu der Naturetest allein, und zwar wirkt der Zahlenwert mit Splash stimmig und glaubwürdig, der ohne Splash ebenfalls: total ruckelig und zäh."

Da hast Du zu 100% recht !
Man kann das Haupt-Prob fast eindetig auf den Nature-Test zurück führen.

"Ist die Bildqualität in beiden Fällen die gleiche?"

Definitiv !
Es gibt keine Unterscheide...
(habe die ELSA-Pro-Version, die einen Bildvergleich erlaubt)

"Nochmal: Es ist nichts klar, es sieht so aus, als ob der Wert mit Splash der Korrekte ist, während der niedrige zwar nicht falsch ist, aber einen Einbruch der Performance aufgrund eines Fehlers belegt"

Korrekt !
Es gilt jetzt heraus zu finden, wie die heftige Performance-Steigerung (real, ohne Qualitätsverlust !) mit Slash-Screen oder eben der massive Perofrmance-Verlust ohne zu erklären ist.

Und ja, auch die Herkunft (3DMurks oder Deto) ist zu klären...
Bin mal gespannt, was dabei heraus kommt !
;-)

@skampi

"Halt Dich doch nicht am Nature fest. Was mich vielmehr fasziniert sind die Polygon-counts. Was wiederum Gerhardts These stützt."

KEINE Veränderungen (ob mit oder ohne Spash-Screen) !
Wovon redest Du hier ?
???

@Leo

Cool !
(beides, i.e. Splittung und Zusammenfassung ;-)

Siehe auch nächsten Post !

Razor

Razor
2002-06-16, 11:48:00
Werde nun Leo's Zusammenfassung noch mal ein wenig in Form bringen:
(bezogen auf den reinen Nature-Test, da der Gesamtwert nun überhaupt nicht interesssiert ;-)

User GraKa Deto "mit" "ohne" Verl. OS Prozzi
------------------------------------------------------------------------------

nggalai (ur-)gf3 29.42 24,0 23,6 -> - 1,7%
razor (ur-)gf3 29.42 34,4 25,3 -> -26,5% Win98SE AthlonXP 1,53GHz
razor (ur-)gf3 29.42 34,2 25,2 -> -26,3% WinXP AthlonXP 1,53GHz
unreg3 gf3ti200 28.32 24,8 24,5 -> - 1,2%
unreg4 gf3ti200 27.51 24,8 24,5 -> - 1,2%
Frank gf3ti200 28.32 28,9 21,8 -> -24,6%
Piffan gf3ti200 36,1 27,5 -> -23,8%

------------------------------------------------------------------------------

Andre gf4ti4200 29.42 35,5 33,9 -> - 4,5%
Thowe gf4ti4400 45,6 39,7 -> -12,9%
V3Killer gf4ti4400 28.32 43,7 42,7 -> - 2,3%
gbm31 gf4ti4400 29.42 43,0 37,9 -> -11,9% WinXP Athlon 1,4 @ 1,6
unreg2 gf4ti4600 29.42 50,3 43,7 -> -13,1%
aths gf4ti4600 57,8 50,4 -> -12,8%
Quasar gf4ti4600 29.60 48,5 43,6 -> -10,1%

Wäret Ihr bitte so nett, die fehlenden Info's zu ergänzen, damit sich ein Bild abzeichnet ?
(Deto-Version, OS, Prozzi)

Und @Voodoo3-Killer, könntest Du nich mal konsistente Scores Zeigen ?
(3xgepostet, 3xunterschiedlich - habe nun den wahrscheinlichsten genommen ;-)

Habe da so einen Verdacht, möchte diesen aber zum jetzigen Zeitpunkt nicht äussern (fehlen noch Info's ;-)...

Bis denne

Razor

Unregistered
2002-06-16, 12:00:13
Originally posted by Razor

@skampi

"Halt Dich doch nicht am Nature fest. Was mich vielmehr fasziniert sind die Polygon-counts. Was wiederum Gerhardts These stützt."

KEINE Veränderungen (ob mit oder ohne Spash-Screen) !
Wovon redest Du hier ?
???


Razor


z.B. davon:

Thowe:

High Polygon Count (1 Light) 46.0 MTriangles/s
High Polygon Count (8 Lights) 11.5 MTriangles/s

zu

High Polygon Count (1 Light) 40.0 MTriangles/s
High Polygon Count (8 Lights) 7.1 MTriangles/s

oder

Frank:

High Polygon Count (1 Light) 17.1 MTriangles/s
High Polygon Count (8 Lights) 4.4 MTriangles/s

zu

High Polygon Count (1 Light) 13.7 MTriangles/s
High Polygon Count (8 Lights) 2.7 MTriangles/s


Sollte der Treiber die Applikation erkennen und dafür einen eigenen Path haben ist das nichts anderes als die Quack-Geschichte.

skampi
2002-06-16, 12:03:43
That's me.

Quasar
2002-06-16, 12:04:50
.

Quasar
2002-06-16, 12:05:00
User GraKa Deto "mit" "ohne" Verl. OS Prozzi
------------------------------------------------------------------------------

nggalai (ur-)gf3 29.42 24,0 23,6 -> - 1,7%
razor (ur-)gf3 29.42 34,4 25,3 -> -26,5% Win98SE AthlonXP 1,53GHz
razor (ur-)gf3 29.42 34,2 25,2 -> -26,3% WinXP AthlonXP 1,53GHz
unreg3 gf3ti200 28.32 24,8 24,5 -> - 1,2%
unreg4 gf3ti200 27.51 24,8 24,5 -> - 1,2%
Frank gf3ti200 28.32 28,9 21,8 -> -24,6%
Piffan gf3ti200 36,1 27,5 -> -23,8%
Quasar (ur-)gf3 29.40 35,5 25,9 -> -26,5% Win2k AthlonXP

------------------------------------------------------------------------------

Andre gf4ti4200 29.42 35,5 33,9 -> - 4,5%
Thowe gf4ti4400 45,6 39,7 -> -12,9%
V3Killer gf4ti4400 28.32 43,7 42,7 -> - 2,3%
gbm31 gf4ti4400 29.42 43,0 37,9 -> -11,9% WinXP Athlon 1,4 @ 1,6
unreg2 gf4ti4600 29.42 50,3 43,7 -> -13,1%
aths gf4ti4600 57,8 50,4 -> -12,8%
Quasar gf4ti4600 29.60 48,5 43,6 -> -10,1% Win2k AthlonXP

Razor
2002-06-16, 12:05:27
Falsch, skampi...
Wenn die Bildquali nicht leidet, ist es eine ganz normale Optimierung, deren Hintergrund aber geklärt werden sollte...

Und außerdem:
Wie erkläsrt Du Dir, daß dieses (Poly's) nicht bei allen auftritt ?
???

In diesem Sinne

Razor

Razor
2002-06-16, 12:14:17
Jup Quasar...
;-)

Und noch ein paar Ergänzungen, die ich fand.

Update aller bsiherigen Nature-Splash-Ergebnisse:

User GraKa Deto "mit" "ohne" Verl. OS Prozzi
--------------------------------------------------------------------------------

Quasar (ur-)gf3 29.40 35,5 25,9 -> -27,0% Win2k AthlonXP ?,??
nggalai (ur-)gf3 29.42 24,0 23,6 -> - 1,7%
razor (ur-)gf3 29.42 34,4 25,3 -> -26,5% Win98SE AthlonXP 1,53
razor (ur-)gf3 29.42 34,2 25,2 -> -26,3% WinXP AthlonXP 1,53
Piffan gf3ti200 36,1 27,5 -> -23,8% AthlonXP ?,??
unreg4 gf3ti200 27.51 24,8 24,5 -> - 1,2%
unreg3 gf3ti200 28.32 24,8 24,5 -> - 1,2%
Frank gf3ti200 28.32 28,9 21,8 -> -24,6% Athlon 0,9

--------------------------------------------------------------------------------

Thowe gf4ti4400 45,6 39,7 -> -12,9%
aths gf4ti4600 57,8 50,4 -> -12,8% Pentuim4 1,8 @ 2.0
V3Killer gf4ti4400 28.32 49,9 44,2 -> -11,4% Win2kSP2 AthlonXP 1,4 @ 1,6
Andre gf4ti4200 29.42 35,5 33,9 -> - 4,5% Win98a
gbm31 gf4ti4400 29.42 43,0 37,9 -> -11,9% WinXP Athlon 1,4 @ 1,6
unreg2 gf4ti4600 29.42 50,3 43,7 -> -13,1%
Quasar gf4ti4600 29.60 48,5 43,6 -> -10,1% Win2k AthlonXP ?,??

Und nun seit Ihr wieder dran !

Bis denne

Razor


Noch a bissl gesorted ;-)

Quasar
2002-06-16, 12:20:08
Wenn du noch die Takte meiner XPs eintragen willst: bei der Ti4600 kam ein 1700+@1900+ zum EInsatz, bei der GF3 ein XP2100+.

Thowe
2002-06-16, 12:20:42
Bitte die Diskrepanz bei Dragothic High nicht übersehen, das ist keine Messungenauigkeit. 98.2 fps zu 91.7 fps !

Thowe
2002-06-16, 12:23:21
Bei mir XP1800+, Windows XP und als Treiber der 27.51

ow
2002-06-16, 12:26:40
Originally posted by Unregistered

Sollte der Treiber die Applikation erkennen und dafür einen eigenen Path haben ist das nichts anderes als die Quack-Geschichte.


Der Treiber erkennt die Applikation aber nicht.

Oder wie erklärst du dir, dass bei Nutzung von Sw T&L das Problem nicht auftritt? Treiber erblindet?;)

Ich wundere mich ausserdem, dass einige hier NV fuer extrem daemlich zu halten scheinen.
Wenn die wirklich cheaten wollten, dann sicher nicht auf eine Art, die jeder DAU im ersten Benchdurchlauf feststellen kann.

ow
2002-06-16, 12:33:11
Ach ja, hab da nochmal meine Gf2MX gebencht.

Treiber 29.42, Win98a, HW T&L

mit spl.: 2587
ohne spl.: 2584

und dann nochmal mit 3DAnalyzer, also inkl. Nature

mit spl.:2719
ohne spl.: 2721

Quasar
2002-06-16, 12:43:38
Originally posted by Razor
Habe da so einen Verdacht, möchte diesen aber zum jetzigen Zeitpunkt nicht äussern (fehlen noch Info's ;-)...

Einen Verdacht habe ich auch. Kann es sein, daß der Grund dafür in etwa mit dem Detonator XP begann?

Für meine These wär's wichtig zu wissen, ob durchgehend dieselbe Engine bei allen Tests benutzt wird....

Unregistered
2002-06-16, 12:51:11
Unreg2 bin in der Liste ich :)
Cpu ist ein Athlon XP1700+ auf Standardtakt ,
Os ist Win2k inkl. aller Updates.

MfG
Kami =)

Unregistered
2002-06-16, 12:54:11
Originally posted by ow
Oder wie erklärst du dir, dass bei Nutzung von Sw T&L das Problem nicht auftritt? Treiber erblindet?;)

Bei Sw T&L wird der Vertex Shader-Teil des Treibers nicht durchlaufen, weil die Calls von Direct3D direkt übernommen werden.

ow
2002-06-16, 13:08:08
???

Und was soll man daraus ableiten?

Dass die Applikation nur erkannt wird, wenn VS genutzt wird?

Ziemlich unwahrscheinlich.


Zumal der Fehler auch unter D3D T&L auch auftritt. Also ohne VS Nutzung.

Exocet
2002-06-16, 13:09:36
Originally posted by Razor
@Thowe


""Irgendwie" sind die Treiber so programmiert, dass bei Splash Screens mehr Leistung freigesetzt wird (Bug eben )."

Du begreifst es einfach nicht, oder ?
Die Herkunft dieses Verhaltens ist nicht geklärt und auch die Ursache nicht.
Tatsache ist allerdings, daß es eine reale (!) Performance-Steigerung gibt (ohne Qualitätsverlust). Und somit sowohl 3DMurks, die Treiber und auch die Hardware in der Lage ist, diese Performance zu erreichen. Aber irgendetwas bei abgeschalteten Spash-Screens dafür sorgt, daß dem nicht mehr so ist.


Razor

genau, und wie du ach sagst, das ist eine optimierung, da die bildquali nicht leidet. also ist es im prinzip kein schummeln, cheaten, besch***** oda was weiss ich ;)

Haarmann
2002-06-16, 13:11:30
Falsch Razor

Ne Optimierungs ists bei Games oder Applikationnen, bei reinen Benches ist jede Optimierung auf diesen Bench hin (oder zu DE er fragt ab obs genau dieser Bench ist) ein Cheat, da der User absolut keinen Nutzendieser Optimierung hat, ihm aber eine höhere Leistung als vorhanden vorgegaukelt wird. Ziel von Benches sind nicht hohe Scores, sondern der Versuch die Leistung zu messen und zu vergleichen. Jeder Vergleich schlägt aber fehl, wenn ein Hersteller nur für diesen Bench schnellere Routinen einbaut.

Das mit den Polys liegt ev daran, dass ned jedes System am Limit läuft.

ow

Bei SW T+L wird einfach der Teil des Treibers nicht angesprungen ;). Immerhin deutet Dein echt kluger SW Modus Schachzug auf nen Problem/Bug/Cheat auf die T+L/VS Einheit hin.

Ev liegt ja der Boost darin, dass man den Polygon Durchsatz optimiert hat.

Wenn Du mal ne alte GF DDR nimmst und nen alten Treiber auf die Polys loslässt, wirste nur etwa 10% der 15 mio Polys erreichen - mit den XP Detonatoren erstaunlicherweise genau diese 15 möglichen... (Naja eigentlich sind die auch nicht möglich... aber das lass ich mal weg - erreicht werdens und das ist verdächtig genug)

Unregistered
2002-06-16, 13:20:35
Originally posted by ow
Und was soll man daraus ableiten?

Dass die Applikation nur erkannt wird, wenn VS genutzt wird?

Zumal der Fehler auch unter D3D T&L auch auftritt. Also ohne VS Nutzung.

Sobald Software T&L genutzt wird, werden grosse Teile des Direct3D-Treibers einfach umgangen. Direct3D übernimmt die Berechnungen selbst. Optimierte Codepfade im Geometrieteil des Herstellertreibers (T&L und Vertex Shading) werden im Software T&L-Mode einfach nicht berücksichtigt.

Die Charakteristik deutet klar darauf hin, dass der Detonator die Nature Szene am Splash-Screen erkennt und einen aktivierten Codepfad im T&L/Vertex Shader-Teil des Treibers aktiviert. Nur wird dieser im Software T&L-Mode nicht durchlaufen.

Unregistered
2002-06-16, 13:25:03
Ergänzen wollt ich noch, dass dies voraussichtlich auch der Grund ist, weshalb GF2-Karten dieses Verhalten nicht zeigen. Bei GF3 und neuer wird HW T&L ja bekanntlich über Vertex Shader gemacht.

Voodoo3Killer
2002-06-16, 13:28:05
Originally posted by Razor
Und @Voodoo3-Killer, könntest Du nich mal konsistente Scores Zeigen ?
(3xgepostet, 3xunterschiedlich - habe nun den wahrscheinlichsten genommen ;-)

Habe da so einen Verdacht, möchte diesen aber zum jetzigen Zeitpunkt nicht äussern (fehlen noch Info's ;-)...


Hmm

Sorry, aber ich weiß auch nicht woran es liegt.

Ich könnte höchstens alls mal auf Standard-Takt bringen und nochmal benchen, wenn ihr das für richtig haltet.

Kann es mit allerdings auch nicht ganz erklären...

ow
2002-06-16, 13:42:53
Originally posted by Unregistered


Sobald Software T&L genutzt wird, werden grosse Teile des Direct3D-Treibers einfach umgangen. Direct3D übernimmt die Berechnungen selbst. Optimierte Codepfade im Geometrieteil des Herstellertreibers (T&L und Vertex Shading) werden im Software T&L-Mode einfach nicht berücksichtigt.

Die Charakteristik deutet klar darauf hin, dass der Detonator die Nature Szene am Splash-Screen erkennt und einen aktivierten Codepfad im T&L/Vertex Shader-Teil des Treibers aktiviert. Nur wird dieser im Software T&L-Mode nicht durchlaufen.




Auf garnichts deutet derzeit dieses Verhalten hin.

zeckensack
2002-06-16, 14:14:46
Originally posted by Quasar


Einen Verdacht habe ich auch. Kann es sein, daß der Grund dafür in etwa mit dem Detonator XP begann?

Für meine These wär's wichtig zu wissen, ob durchgehend dieselbe Engine bei allen Tests benutzt wird.... Ja, diese hier (http://www.remedy.fi/technology/index.html).

edit: Der Beweis dafür findet sich übrigens unter "Licensing MAX-FX" (http://www.remedy.fi/technology/licensing_max_fx.html).

nggalai
2002-06-16, 15:10:56
Update aller bsiherigen Nature-Splash-Ergebnisse:

User GraKa Deto "mit" "ohne" Verl. OS Prozzi
--------------------------------------------------------------------------------

Quasar (ur-)gf3 29.40 35,5 25,9 -> -27,0% Win2k AthlonXP ?,??
nggalai (ur-)gf3 29.42 24,0 23,6 -> - 1,7% Win98SE PIII-S 1.26 @ 1.35
razor (ur-)gf3 29.42 34,4 25,3 -> -26,5% Win98SE AthlonXP 1,53
razor (ur-)gf3 29.42 34,2 25,2 -> -26,3% WinXP AthlonXP 1,53
Piffan gf3ti200 36,1 27,5 -> -23,8% AthlonXP ?,??
unreg4 gf3ti200 27.51 24,8 24,5 -> - 1,2%
unreg3 gf3ti200 28.32 24,8 24,5 -> - 1,2%
Frank gf3ti200 28.32 28,9 21,8 -> -24,6% Athlon 0,9

--------------------------------------------------------------------------------

Thowe gf4ti4400 45,6 39,7 -> -12,9%
aths gf4ti4600 29.42 57,8 50,4 -> -12,8% Pentuim4 1,8 @ 2.0
V3Killer gf4ti4400 28.32 49,9 44,2 -> -11,4% Win2kSP2 AthlonXP 1,4 @ 1,6
Andre gf4ti4200 29.42 35,5 33,9 -> - 4,5% Win98a
gbm31 gf4ti4400 29.42 43,0 37,9 -> -11,9% WinXP Athlon 1,4 @ 1,6
unreg2 gf4ti4600 29.42 50,3 43,7 -> -13,1%
Quasar gf4ti4600 29.60 48,5 43,6 -> -10,1% Win2k AthlonXP ?,??


OK, hab meins eingetragen. Wenn man sich die Ur-GF3/Ti200-Gruppe anschaut, wird's ganz lustig--die beiden mit den grössten Ausreissern nach unten mit deaktiviertem Splash-Screen sind auch die mit den grössten Ausreissern nach OBEN mit aktivieren Screens . . . weird.

ta,
-Sascha.rb

Edit: aths' Detos reingemacht.rb ;)

aths
2002-06-16, 15:12:07
nggalai, ich habe Deto 29.42 verwendet.

Voodoo3Killer
2002-06-16, 15:42:27
So wie es ausschaut, hat es weder mit dem OS, noch mit der Treiber-Version etwas zu tun...

Sehr komisch...

Wie schauts denn mit der AGP Aperture Size aus, oder Fast Writes oder was weis ich noch alles?! ;)

skampi
2002-06-16, 15:59:09
@ow

Da jetzt schon diskutiert wird ob man es als Bug, Cheat oder gar Schummelei betiteln sollte, möchte ich Dich gerne nochmal auf Deine oft geäußerte Anschauung zum Grakamarkt hinweisen:

Nv: Sauberer Code auf sauberen Treibern.

So wie's jetzt ausschaut müßte es wohl heißen:

Angepaßter Code auf optimiertem Treiberpath.

Das gilt für's gesamte Business.

Quasar
2002-06-16, 16:06:08
Originally posted by nggalai
OK, hab meins eingetragen. Wenn man sich die Ur-GF3/Ti200-Gruppe anschaut, wird's ganz lustig--die beiden mit den grössten Ausreissern nach unten mit deaktiviertem Splash-Screen sind auch die mit den grössten Ausreissern nach OBEN mit aktivieren Screens . . . weird.

Bis auf Frank's Ergebnis scheint's ja zu passen....

Razor
2002-06-16, 16:06:46
HiHo...
;-)

Habe wa interessantes auf 3DGPU (http://www.3dgpu.com/) gelesen:
Posted by Matt Burris on June 15th, 2002 - Saturday 2:31 pm

I got an email from a contact who used to work with Real3D in the drivers department, and he seems to think the 3DMark 2001SE "bug" with the Detonator drivers is really an optimization, based on his experience. Here's what he wrote to me:
Saw your comment on the nVidia "bug" that causes results to drop in 3DMark 2001 without splash screens. That's an optimization for sure, we used to do the same sort of tricks at Real3D in Winbench 2D and 3D. We would detect the splash screen (check for a texture of a certain size and format, etc) and at that time we would flush all our buffers and stuff. At that point you know that your scores aren't being measured so that's a REAL good time to do any critical "clean up and get ready" work or anything that takes more time then normal.
The question is, is that a good thing, or a bad thing? You be the judge.
Irgendwer hier in diesem Thread (war es Exxtreme ?) hatte mal etwas ähnliches abgelassen, was ich einfach so abgetan hatte. Aber möglicher weise ist da doch was dran.

Wenn das wirklich der Fall ist ("Flush" in einer Pause), heißt dies doch konkret, daß der Murks 'vermurkst' ist, oder ? Sollte es nicht seine Aufgabe sein, die GraKa bzw. de Treiber einen kompletten Reinit durchlaufen zu lassen, bevor die nächste Engine gebencht wird ? Anscheinend tut das der Murks nicht und so bauen alle Treiber-Entwickler 'Erkennungsmechanismen' ein, um solche 'Fehler' zu beheben ? Hmmm...

Muß ja nicht sein, daß dies hinkommt, aber interessant ist es allemal...

@Thowe

Das mit dem Polys (da gebe ich Haarmann eindeutig recht), kann auch an anderen Dingen liegen. Diese von Dir genannte Abweichung ist nur ein einziges mal aufgetraten, hat also keinen repräsentativen Wert. Das Nature-Prob kann offenbar von sehr vielen nachvollzigen werden, deswegen wollen wir dem ja auch auf den Grund gehen...

@Haarmann

Es wird dem Nutzer keine höhere Leistung 'vorgegaukelt', sondern vielmehr die reale Leistung gezeigt !
Oder hast Du das Phänomen dies Nature-Testes nicht richtig verstanden ?

Tatsächlich spürbare (sichtbare !) höhere Leitung ohne Qualitätsverlust !
Die Frage ist doch nur, was bei den Benches ohne Splash-Sreen falsch läuft, oder ?

"Jeder Vergleich schlägt aber fehl, wenn ein Hersteller nur für diesen Bench schnellere Routinen einbaut."

Ah ja...
Und Du bist also der Meinung, daß sich ALLE Treiber-Herteller daran halten ?
Laß mich die These aufstellen, daß sich KEINER daran hält !
;-)

Aber, und das finde ich interessant, es scheinst sich heraus zu kristallisieren, daß die gf4ti dank doppelt ausgelegtem VS wohl auch 'nur' die Hälte (im Gegensatz zu einer gf3) verliert. Wenn jetzt noch die OS, die Treiberversionen und vor allem die CPU ins Kalkül gezogen werden, könnte es das Prob (wenn es denn eines ist) ein wenig mehr einkreisen...

Schaun' wir mal !
;-)

-

Hier noch mal die 'gesammelten Werte':
(hoffe die XP-Ratings richtig übersetzt zu haben ;-)

User GraKa Deto "mit" "ohne" Verl. OS Prozzi
----------------------------------------------------------------------------------

Quasar (ur-)gf3 29.40 35,5 25,9 -> -27,0% Win2k AthlonXP 1,73
nggalai (ur-)gf3 29.42 24,0 23,6 -> - 1,7% Win98SE PIII-S 1.26 @ 1.35
razor (ur-)gf3 29.42 34,4 25,3 -> -26,5% Win98SE AthlonXP 1,53
razor (ur-)gf3 29.42 34,2 25,2 -> -26,3% WinXP AthlonXP 1,53
Piffan gf3ti200 36,1 27,5 -> -23,8% AthlonXP ?,??
unreg4 gf3ti200 27.51 24,8 24,5 -> - 1,2%
unreg3 gf3ti200 28.32 24,8 24,5 -> - 1,2%
Frank gf3ti200 28.32 28,9 21,8 -> -24,6% Athlon 0,9

--------------------------------------------------------------------------------

Thowe gf4ti4400 27.51 45,6 39,7 -> -12,9% WinXP AthlonXP 1,53
V3Killer gf4ti4400 28.32 49,9 44,2 -> -11,4% Win2kSP2 AthlonXP 1,40 @ 1,58
Andre gf4ti4200 29.42 35,5 33,9 -> - 4,5% Win98a
aths gf4ti4600 29.42 57,8 50,4 -> -12,8% Pentuim4 1,80 @ 2.00
gbm31 gf4ti4400 29.42 43,0 37,9 -> -11,9% WinXP Athlon 1,40 @ 1,60
Kami gf4ti4600 29.42 50,3 43,7 -> -13,1% Win2kSP2 AthlonXP 1,47
Quasar gf4ti4600 29.60 48,5 43,6 -> -10,1% Win2k AthlonXP 1,47 @ 1,60

Langsam wird's interessant !

Bis denne

Razor

P.S.: nggalai, könntest Du ev mal NUR den Nature-Test alleine durchlaufen lassen (am besten nach Rechner-Neustart). Also erst "mit" und dann "ohne" ? Würd' mich wirklich interessieren...

Exxtreme
2002-06-16, 16:25:05
Originally posted by Razor

Irgendwer hier in diesem Thread (war es Exxtreme ?) hatte mal etwas ähnliches abgelassen, was ich einfach so abgetan hatte. Aber möglicher weise ist da doch was dran.

Naja, ich schrieb:

Vielleicht erkennen die Treiber der anderen Hersteller die Benchmarkabschnitte nicht am Splash-Screen?
;)

War aber sarkastisch gemeint. Ich denke ATi hat seit Quack/Quake dazugelernt, was das Erkennen von Dingen in Applikationen angeht und wie man es am besten versteckt.
;)

Das Vorgehen von nVidia wäre in diesem Fall irgendwie plump. Wobei ich nVidia sehr gut verstehen könnte, warum sie sowas einbauen würden. Wenn die GraKa durch einen Fehler im Benchmark ausgebremst wird und sie in Wirklichkeit schneller könnte, baut man normalerweise einfach einen Workaround rein.

Gruß
Alex

Edit:
Letzter Absatz in eine Wahrscheinlichkeitsform umgewandelt, da keine Beweise vorliegen.

Voodoo3Killer
2002-06-16, 16:29:52
So meine Ergebnisse mit dem System im Link unten, aber CPU auf standard Takt und 133Mhz FSB/166Mhz RAM, sowie Grafikkarte unübertaktet. Sonst unverändert. AGP 4x, Fast Writes und SBA enabled, sowie eine AGP Aperture Size von 128MB.

erstmal mit:

3DMark Score 9397
Game 1 - Car Chase - Low Detail 146.1 fps
Game 1 - Car Chase - High Detail 47.6 fps
Game 2 - Dragothic - Low Detail 171.4 fps
Game 2 - Dragothic - High Detail 94.9 fps
Game 3 - Lobby - Low Detail 135.3 fps
Game 3 - Lobby - High Detail 62.4 fps
Game 4 - Nature 38.5 fps
Fill Rate (Single-Texturing) 948.0 MTexels/s
Fill Rate (Multi-Texturing) 2113.1 MTexels/s
High Polygon Count (1 Light) 45.2 MTriangles/s
High Polygon Count (8 Lights) 11.5 MTriangles/s
Environment Bump Mapping 167.0 fps
DOT3 Bump Mapping 134.0 fps
Vertex Shader 92.7 fps
Pixel Shader 112.5 fps
Advanced Pixel Shader 79.9 fps
Point Sprites 28.1 MSprites/s

...und dann ohne:

3DMark Score 9191
Game 1 - Car Chase - Low Detail 141.7 fps
Game 1 - Car Chase - High Detail 47.6 fps
Game 2 - Dragothic - Low Detail 167.8 fps
Game 2 - Dragothic - High Detail 92.7 fps
Game 3 - Lobby - Low Detail 131.1 fps
Game 3 - Lobby - High Detail 61.2 fps
Game 4 - Nature 37.7 fps
Fill Rate (Single-Texturing) 948.0 MTexels/s
Fill Rate (Multi-Texturing) 2112.9 MTexels/s
High Polygon Count (1 Light) 39.7 MTriangles/s
High Polygon Count (8 Lights) 7.1 MTriangles/s
Environment Bump Mapping 167.3 fps
DOT3 Bump Mapping 133.9 fps
Vertex Shader 92.6 fps
Pixel Shader 112.4 fps
Advanced Pixel Shader 79.9 fps
Point Sprites 21.5 MSprites/s

Kaum Unterschiede, wenn dann nur sehr leicht und überall gleich.

->

Nature Test steigt bei mir mit Screens nur wenn die Grafikkarte übertaktet ist.



[EDIT: Ich habe den PC extra neu gestartet, nach jedem Durchlauf.]

Quasar
2002-06-16, 16:31:31
Originally posted by Razor
HiHo...
;-)

Irgendwer hier in diesem Thread (war es Exxtreme ?) hatte mal etwas ähnliches abgelassen, was ich einfach so abgetan hatte. Aber möglicher weise ist da doch was dran.

Wenn das wirklich der Fall ist ("Flush" in einer Pause), heißt dies doch konkret, daß der Murks 'vermurkst' ist, oder ? Sollte es nicht seine Aufgabe sein, die GraKa bzw. de Treiber einen kompletten Reinit durchlaufen zu lassen, bevor die nächste Engine gebencht wird ? Anscheinend tut das der Murks nicht und so bauen alle Treiber-Entwickler 'Erkennungsmechanismen' ein, um solche 'Fehler' zu beheben ? Hmmm...

Nee, ich war das glaube ich. Mittlerweile (-> PM) scheint mir ein simpler Bufferflash aber nicht mehr auszureichen. Gerade in Anbetracht dessen, daß durchgehen dieselbe Engine genutzt wird....

ow
2002-06-16, 16:31:39
Originally posted by skampi
@ow

Da jetzt schon diskutiert wird ob man es als Bug, Cheat oder gar Schummelei betiteln sollte, möchte ich Dich gerne nochmal auf Deine oft geäußerte Anschauung zum Grakamarkt hinweisen:

Nv: Sauberer Code auf sauberen Treibern.

So wie's jetzt ausschaut müßte es wohl heißen:

Angepaßter Code auf optimiertem Treiberpath.

Das gilt für's gesamte Business.


Das halte ich für Quatsch.

Der Treibercode von NV ist mit hoher Wahrscheinlichkeit sauber, wenn die da mit irgendwelchen Applikations-spezifischen Codepfaden anfangen würden, dann kannst du davon ausgehen, dass die Treiber nicht so problemlos auf ALLEN NVidia Chips laufen würden, wie sie das tun.

Und auch der 29.42 verrichtet klaglos seinen Dienst auf meiner RivatTNT.

ow
2002-06-16, 16:35:26
Originally posted by Exxtreme


Das Vorgehen von nVidia war in diesem Fall irgendwie plump. Wobei ich nVidia sehr gut verstehen kann, warum sie sowas einbauen. Wenn die GraKa durch einen Fehler im Benchmark ausgebremst wird und sie in Wirklichkeit schneller könnte, baut man einfach einen Workaround rein.

Gruß
Alex


Na Exxtreme, wo sind denn die Beweise für diese als Tatsachen hingestellten Unterstellungen?

Exxtreme
2002-06-16, 16:37:00
Originally posted by ow
Na Exxtreme, wo sind denn die Beweise für diese als Tatsachen hingestellten Unterstellungen?
OK, ich war doch zu voreilig. Ich ändere es. :)
Sorry.

Gruß
Alex

Razor
2002-06-16, 16:41:10
@Exxtreme

Ah ja, Du warst das !
;-)
Das Vorgehen von nVidia wär [<- korrigiert ;-)] in diesem Fall irgendwie plump. Wobei ich nVidia sehr gut verstehen kann, warum sie sowas einbauen. Wenn die GraKa durch einen Fehler im Benchmark ausgebremst wird und sie in Wirklichkeit schneller könnte, baut man einfach einen Workaround rein.
Wei vermutlich auch alle anderen Treiber-Entwickler...
Wenn (!) dem so wäre, selbstverständlich !

V3K's Ergebnisse finde ich dagegen schon sehr aufschlußreich...
Aber es langt noch nicht ganz.

@Voodoo3Killer

Hab' Deine neuen Ergebnisse (jetzt sind's 4 verschiedene ;-) mal mit aufgenommen...

-

Hir also das 'neue' Update:

User GraKa Deto "mit" "ohne" Verl. OS Prozzi
----------------------------------------------------------------------------------

Quasar (ur-)gf3 29.40 35,5 25,9 -> -27,0% Win2k AthlonXP 1,73
nggalai (ur-)gf3 29.42 24,0 23,6 -> - 1,7% Win98SE PIII-S 1.26 @ 1.35
razor (ur-)gf3 29.42 34,4 25,3 -> -26,5% Win98SE AthlonXP 1,53
razor (ur-)gf3 29.42 34,2 25,2 -> -26,3% WinXP AthlonXP 1,53
Piffan gf3ti200 36,1 27,5 -> -23,8% AthlonXP ?,??
unreg4 gf3ti200 27.51 24,8 24,5 -> - 1,2%
unreg3 gf3ti200 28.32 24,8 24,5 -> - 1,2%
Frank gf3ti200 28.32 28,9 21,8 -> -24,6% Athlon 0,9

--------------------------------------------------------------------------------

Thowe gf4ti4400 27.51 45,6 39,7 -> -12,9% WinXP AthlonXP 1,53
V3Killer gf4ti4400 28.32 38,5 37,7 -> - 2,1% Win2kSP2 AthlonXP 1,40
V3Killer @300/325 28.32 49,9 44,2 -> -11,4% Win2kSP2 AthlonXP 1,40 @ 1,58
Andre gf4ti4200 29.42 35,5 33,9 -> - 4,5% Win98a
aths gf4ti4600 29.42 57,8 50,4 -> -12,8% Pentuim4 1,80 @ 2.00
gbm31 gf4ti4400 29.42 43,0 37,9 -> -11,9% WinXP Athlon 1,40 @ 1,60
Kami gf4ti4600 29.42 50,3 43,7 -> -13,1% Win2kSP2 AthlonXP 1,47
Quasar gf4ti4600 29.60 48,5 43,6 -> -10,1% Win2k AthlonXP 1,47 @ 1,60

Bis denne

Razor

ow
2002-06-16, 16:43:27
Originally posted by Voodoo3Killer

->

Nature Test steigt bei mir mit Screens nur wenn die Grafikkarte übertaktet ist.




Interessanter Aspekt des Nature.

Könnte hierzu: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=23063 passen


/edit:

@ Exxtreme

ja so find ich´s besser, solange wir nicht wissen, was es mit diesem Phänomen auf sich hat.:)

und wenn jetzt noch die seltsamen OC-Reaktionen (s.o. Link) des Nature hinzukommen, wird´s nicht unbedingt durchschaubarer, was da falsch läuft.

Voodoo3Killer
2002-06-16, 16:45:42
Originally posted by Razor
V3K's Ergebnisse finde ich dagegen schon sehr aufschlußreich...
Aber es langt noch nicht ganz.

@Voodoo3Killer

Hab' Deine neuen Ergebnisse (jetzt sind's 4 verschiedene ;-) mal mit aufgenommen...


Ja, interessant, aber was sagt uns das jetzt.

Ich kann immer noch keine Parallelen feststellen?!

nggalai
2002-06-16, 16:49:56
Hi Razor,

ja, ich kann mal nur den Nature laufenlassen--ich setzte heute Nachmittag mein System neu auf, und wollte eh anschliessend mal noch Benchen. ;)

Dabei kam das folgende raus:

mit Splash / ohne Splash : 31.4 / 24.6 fps = -21.7%

Und ich fragte mich schon, weshalb mein Nature-Ergebnis vor der Neuinstallation soviel niederiger als deines war--wir übertakten ja beide unsere GF3s nicht.

Mit einer sauberen Installation habe ich also dasselbe Phänomen wie die meisten anderen GF >= 3 Benutzer. Hier die aktualisierte Tabelle:


User GraKa Deto "mit" "ohne" Verl. OS Prozzi
----------------------------------------------------------------------------------

Quasar (ur-)gf3 29.40 35,5 25,9 -> -27,0% Win2k AthlonXP 1,73
nggalai (ur-)gf3 29.42 24,0 23,6 -> - 1,7% Win98SE PIII-S 1.26 @ 1.33 (alte Installation)
nggalai (ur-)gf3 29.42 31,4 24,6 -> -21,7% Win98SE PIII-S 1.26 @ 1.33 (Neuinstallation)
razor (ur-)gf3 29.42 34,4 25,3 -> -26,5% Win98SE AthlonXP 1,53
razor (ur-)gf3 29.42 34,2 25,2 -> -26,3% WinXP AthlonXP 1,53
Piffan gf3ti200 36,1 27,5 -> -23,8% AthlonXP ?,??
unreg4 gf3ti200 27.51 24,8 24,5 -> - 1,2%
unreg3 gf3ti200 28.32 24,8 24,5 -> - 1,2%
Frank gf3ti200 28.32 28,9 21,8 -> -24,6% Athlon 0,9

--------------------------------------------------------------------------------

Thowe gf4ti4400 27.51 45,6 39,7 -> -12,9% WinXP AthlonXP 1,53
V3Killer gf4ti4400 28.32 38,5 37,7 -> - 2,1% Win2kSP2 AthlonXP 1,40
V3Killer @300/325 28.32 49,9 44,2 -> -11,4% Win2kSP2 AthlonXP 1,40 @ 1,58
Andre gf4ti4200 29.42 35,5 33,9 -> - 4,5% Win98a
aths gf4ti4600 29.42 57,8 50,4 -> -12,8% Pentuim4 1,80 @ 2.00
gbm31 gf4ti4400 29.42 43,0 37,9 -> -11,9% WinXP Athlon 1,40 @ 1,60
Kami gf4ti4600 29.42 50,3 43,7 -> -13,1% Win2kSP2 AthlonXP 1,47
Quasar gf4ti4600 29.60 48,5 43,6 -> -10,1% Win2k AthlonXP 1,47 @ 1,60


ta,
-Sascha.rb

Edit: LOL, verrechnet. Guten Morgen, Sascha.rb ;)

Piffan
2002-06-16, 16:58:30
Dann von mir noch mal ein paar Takte: Der Naturetest ist von der Prozileistung nicht so abhängig wie andere Tests: Ich kann den Prozzi innerhalb gewisser Grenzen rauf oder runtertakten, der Score ändert sich wenig..... Wenn ich aber am Takt der GPU schraube, habe ich eine Veränderung im nahezu gleichen Verhältnis......

Vorletzte Nacht (oder war es noch davor ? :D ) hatte ich mal den Verdacht geäußert, daß das Prob mit der Vertex- Einheit zu tun hat. Noch mal zur Erinnerung: Die schlechte Performance beim Natur ohne Splash ist dann am augenfälligsten, wenn der Blick über die wogenden Gräser geht bzw. die Blätter zeigt, die sich im Winde bewegen... Da fällt die Performance bei mir auf das Niveau eines reinen Software- TLs zurück....Beim Blick über den See, wo ja der Pixelshader arbeitet, da ist kein Unterschied zwischen Test mit Splash oder ohne...

Was in die gleiche Kerbe haut: Auch bei mir fällt der Highpoly drastisch in den Keller, wenn ich den Splash abschalte... Wieder ein Hinweis auf ein Prob mit der Vertex- Einheit.

Und noch ein Hieb in die gleiche Kerbe: WEnn ich mit Hardware D3d-TL benche (also nicht pure Hardware), dann ist der Bug auch da.... Schlußfolgerung: Es ist wahrscheinlich die Geometrieberechnung der GPU, die unter dem Splash- Effekt leidet!...

Habe ich alle schon getestet und auch die Zahlen gepostet, ist aber leider schon ca 300 Post her....;)

Also sage ich als Vermutung, was ich schon vor zwei Tagen postuliert habe: Durch irgendeinen seltsamen Bug wird ohne Splash die Geometrieeinheit ("Vertexshader") beeinträchigt! Hat sich scheinbar kein neuer Erkenntnisstand ergeben! Habe auch schon vor zwei Tagen vermutet, dass der Schlamassel mit dem neuen Deto XP aufgetreten sein könnte. Denn der XP- Deto hat einen gewaltigen Schub beim Nature- Test gebracht, so als ob er erst die Geometrieeinheit für diesen Test initialisieren konnte.... Falls das so wäre, liegt für mich der Bug beim 3dMark.....

Der Mist an diesem Thread ist, dass hier zu viele Kapital aus dem Bug schlagen wollen, aber die wenigsten an der Sache selbst interessiert sind....Siehe die Fetzerei wegen der Änderung der Threadüberschrift...

Quasar
2002-06-16, 17:13:41
Genau Piffan.

Dann will ich mal meine These hier posten:

1) Seit den 20.xx Detos gingen die Nature Scores um sportliche 10 fps nach oben

2) Es wurde gemutmaßt, daß zur internen Entlastung des Chips eine Art Load-Balancing zwischen CPU und GPU im Vertex-Bereich vorgenommen wurde

3)Dieses Load-Balancing wird nur vorgenommen, wenn sowohl Pixel- als Auch Vertex-Shader genutzt werden, weil bei nur einer der beiden Einheiten die interne Logik schneller wäre.

4)Der 3DMark verwendet durchgehen dieselbe Engine

5)Die Engine wird bei den Splash-Screens neu initialisiert, der Treiber bekommt die Chance, das Load-Balancing zu aktivieren.

6) Ohne Splash-Screen bleibt die Engine durchgehend aktiv (ich meine einen minimal (ca. 1-2 sek) schnelleren Ladevorgang zwischen den einzelnen Tests ohne den Screen zu beobachten), das Load-Balancing kann also nicht aktiviert werden.

Labberlippe
2002-06-16, 17:17:35
Hi

Wow da wurde ja fleissig gepostet. :)
Sieht mir nach einen verbugten Vertex Shader Teil bei nVIDIA aus.
Wobei Andre auch Problme im Dragotic Bench hat.

Amgenommen es wäre der 3DMark verbuggt warum funzt dann die Software Lösung?
Wenn die anderen Hersteller gleich eine Quasi vorab erkennung des Bugs einbauen, wieso macht das nVIDIA nicht.
Warum nur die 3er und 4er Serie???

Also vermutlich ein Hardwarefehler bei nVIDIA.

Gruss Labberlippe

Voodoo3Killer
2002-06-16, 17:27:30
@Andre

Ist dieser "Abfall" (:D) im Dragothic Test bei dir rekonstruierbar?

Frank
2002-06-16, 17:38:04
Nachtrag:
benutze W98SE und die TI200 läuft im Standardtakt (175/200 ??? )

Piffan
2002-06-16, 17:39:10
Originally posted by Labberlippe
Hi

Wow da wurde ja fleissig gepostet. :)
Sieht mir nach einen verbugten Vertex Shader Teil bei nVIDIA aus.
Wobei Andre auch Problme im Dragotic Bench hat.

Amgenommen es wäre der 3DMark verbuggt warum funzt dann die Software Lösung?
Wenn die anderen Hersteller gleich eine Quasi vorab erkennung des Bugs einbauen, wieso macht das nVIDIA nicht.
Warum nur die 3er und 4er Serie???

Also vermutlich ein Hardwarefehler bei nVIDIA.

Gruss Labberlippe

Dein Post zeigt exemplarisch das, was ich vorhin anprangerte: Viele, viel zu viele sind an der Sache einen Dreck interessiert und wollen nur Kapital draus schlagen.
Deine Frage, warum die Softwarelösung den Bug nicht hat, zeigt entweder Igoranz deinerseits oder es gut Dir nur um Miesmacherei, wenn es gegen NV geht...Lies die relevanten Posts in diesem Thread falls es dich wirklich interessiert....

Postings in deinem Stil versauen jede sachliche Auseinandersetzung... bis zum nächsten Spalt dieses Threadss.......*eg*

Labberlippe
2002-06-16, 17:53:07
Originally posted by Piffan


Dein Post zeigt exemplarisch das, was ich vorhin anprangerte: Viele, viel zu viele sind an der Sache einen Dreck interessiert und wollen nur Kapital draus schlagen.
Deine Frage, warum die Softwarelösung den Bug nicht hat, zeigt entweder Igoranz deinerseits oder es gut Dir nur um Miesmacherei, wenn es gegen NV geht...Lies die relevanten Posts in diesem Thread falls es dich wirklich interessiert....

Postings in deinem Stil versauen jede sachliche Auseinandersetzung... bis zum nächsten Spalt dieses Threadss.......*eg*

Davon distanziere ich mich ganz klar und sehe es als eine Anschuldigung.
Wo mache ich eine Hetze gegen nVIDIA ???

Ich stelle Fragen und habe sie auch am Anfang des Threads gestellt.
Ich habe auch meherer Varianten in Betracht gezogen.

Mein erstes Posting im Thread.
Die Grundfrage bleibt halt offen.
Wenn es beim 3DMark liegt, warum tritt der Fehler nicht bei anderen Karten auf oder doch ein Cheatversuch (vorsichtig ausgesprochen) von nVIDIA?

Oder nur ein HOAX Versuch von den anderen Fraktionen?

Dannach haben wir alle zum Benchen begonnen.

Hier sehe ich noch immer keine deutlich Lösung weil einfach zu viele Widersprüche vorhanden sind.

Wo siehtst Du in meinen letzten Posting einen (vorsichtig ausgedrückt) Flame.?

Ich habe darauf hingewiesen das es nicht nur den Nature Test betrifft da Andre z.B. auch Probs mit Dragothic hat.

Dann habe ich die Frage aufgeworfen ob der 3DMark Schuld ist, da bei den anderen Herstellern dieser Bug nicht auftritt.
Auch dürfte es mit SW T&L dieses Problem nicht geben.

Daraufhin stelle ich mal vorsichtig die Frage ob es ein Hardware Fehler bei den nVIDIA Karten sein kann.
Ich habe nichts von Cheat oder Betrug gesagt.
Ich denke das die von mir gestellten Fragen schon passen.

Anscheinend ziehst Du es aber vor mir eine Anti-nVIDA Haltung reinzuwürgen anstatt meine Fragen zu versuchen nachzuvollziehen.

Das ist eine ganz linke Aktion von Dir Piffan.

Gruss Labberlippe

Gruss Labberlippe

La Junta
2002-06-16, 17:55:33
Originally posted by Labberlippe
Hi

Wow da wurde ja fleissig gepostet. :)
Sieht mir nach einen verbugten Vertex Shader Teil bei nVIDIA aus.
Wobei Andre auch Problme im Dragotic Bench hat.

Amgenommen es wäre der 3DMark verbuggt warum funzt dann die Software Lösung?
Wenn die anderen Hersteller gleich eine Quasi vorab erkennung des Bugs einbauen, wieso macht das nVIDIA nicht.
Warum nur die 3er und 4er Serie???

Also vermutlich ein Hardwarefehler bei nVIDIA.

Gruss Labberlippe

NVidia muss es durch neue Treiber beweissen , dass es nicht so ist .

@Razor:
Du glaubst wohl selber nicht das NVidia nichts von dem wusste(weiss), eine Erklärung von deren Seite wäre angebracht .
Im Moment erscheint mir Quasars Theorie am logischsten . Was aber nichts anderes ist als Ausnutzung eines 3DMark Bugs zu ihren Gunsten ist . Meiner Meinung nach , sollte man einen Bug nicht ausnutzen sondern beseitigen . Differierende werte sagen einem Kunden nicht viel aus über die Performance des Produkts aus , weil er ja nicht weiss welches das richtige ist . NVidia muss also diesen Bug entfernen und nicht ausnutzen , sonst schadets das deren Ruf . Und sobald sie den Bug eliminieren bleibt der GPU keine Zeit mehr diesen Load-Balancing zwischen CPU und GPU im Vertex-Bereich vorzunemmen und dann stimmt welcher Wert?
Ob man es Cheaten , Schumelei oder Optimierung nennt , muss es jeder für sich entscheiden . Eine Optimierung ist hier jedoch wahrscheinlich schon angebracht .

Haarmann
2002-06-16, 17:56:30
So ein kleiner Vorschlag an die NV User am Rande... Kann mal wer mit ner minimalen AGP Apreture Size benchen? Laut meiner Vorhersage müssten die Scores dann auch einbrechen.

Für mich ists jedenfalls klar, dass es sich um ne Optimierung handelt. Ich sage nicht, dass nur NV optimiert... aber 11es Gebot.

nggalai
2002-06-16, 18:03:08
Hi there,Originally posted by La Junta

@Razor:
Du glaubst wohl selber nicht das NVidia nichts von dem wusste(weiss), eine Erklärung von deren Seite wäre angebracht .
Das sind die zwei Sachen, die ich nicht verstehe:

1) der "BugCheat" ist bereits seit November 2001 bekannt und schon längere Zeit in der Madonion FAQ (Bereich nVIDIA) erwähnt. Aber nichts ist passiert, obwohl zwischendurch auch noch der SE und neue Treiber kamen.

2) Plötzlich interessieren sich viele viele Leute für dieses Phänomen. Weshalb? Nur weil der Inquirer was drüber geschrieben hat?

ta,
-Sascha.rb

La Junta
2002-06-16, 18:05:58
Originally posted by nggalai
Hi there,Das sind die zwei Sachen, die ich nicht verstehe:

1) der "BugCheat" ist bereits seit November 2001 bekannt und schon längere Zeit in der Madonion FAQ (Bereich nVIDIA) erwähnt. Aber nichts ist passiert, obwohl zwischendurch auch noch der SE und neue Treiber kamen.

2) Plötzlich interessieren sich viele viele Leute für dieses Phänomen. Weshalb? Nur weil der Inquirer was drüber geschrieben hat?

ta,
-Sascha.rb


Das meinte ich ja auch :bier:

Piffan
2002-06-16, 18:09:58
Aus diesem Anlass (LLs und Haarmanns Posting) nochmal: Wenn der Splash fehlt, fällt der Naruretest auf einen so eklatant tiefen tiefen Wert, (Bei unveränderter Bildqualität!!), dass der Einbruch ganz klar das Produkt eines Bugs ist. Punkt.

Wieso wird hier immer wieder behauptet, dass NV einen Nutzen aus diesem Bug zieht und es darum wohl eher Schummelei ist??? Kann mir das endlich mal jemand schlüssig erklären?

"Nv optimiert!" - Höre ich da immer wieder die These heraus, daß der Benchwert ohne den Einbruch (also mit Screen) durch unzulässige Maßnahmen erreicht wird, das also der niedrige Wert der "richtige" ist???

Es ist solange kein Cheat oder eine Schummelei, bis klipp und klar bewiesen oder eingeräumt wird, dass die hohe Performance erkauft wird durch versteckte Mängel in der Bildqualität!

Meine Definition von Schummeln: In den Optionsmenüs des Treibers oder eines Spieles wird etwas anderes vorgetäuscht, also dann real vom Treiber oder dem Chip geboten wird, und zwar zum alleinigen Zwecke, einen besseren Performance-Core zu erzielen. Punkt. Alle anderen Maßnahmen zur Leistungssteigerung sind erlaubt und im Sinne des Users. Und genau dies machen hoffentlich alle Treiberprogrammierer so, sonst sind es Pfeifen....

skampi
2002-06-16, 18:24:56
Originally posted by ow



Das halte ich für Quatsch.

Der Treibercode von NV ist mit hoher Wahrscheinlichkeit sauber, wenn die da mit irgendwelchen Applikations-spezifischen Codepfaden anfangen würden, dann kannst du davon ausgehen, dass die Treiber nicht so problemlos auf ALLEN NVidia Chips laufen würden, wie sie das tun.

Und auch der 29.42 verrichtet klaglos seinen Dienst auf meiner RivatTNT.

Das ist überhaupt kein Argument. Wo ist der Zusammenhang?

nggalai
2002-06-16, 18:25:46
Zum Thema Schummeln:

Ich persönlich freue mich über jeden Treiber, der ein wenig besser mitm Vue d'Esprit OpenGL-Preview klar kommt, oder unter der Lithtech-Engine schneller läuft--Optimierungen auf die Applikationen finde ich gut. Ich spiele und Arbeite ja mit der Software, und die Hardware soll meine Arbeit gefälligst so gut wie möglich unterstützen.

Das Problem ist, dass viel zuviele Leute Benchmarkergebnisse über Hersteller- und Produkt-Grenzen zum Vergleichen heranziehen. Und dass dafür der 3DMark nicht geeignet ist, sollte spätestens seit Kyro vs/ MX klar sein, und auch sonst jeder etwas klarer denkenden Person einleuchten: ich schreibe das in letzter Zeit recht häufig, aber eben, Benchmarks messen genau eine Sache--wie gut ein System mit dem Benchmark klar kommt. Wenn da wer ohne grosses Nachdenken auf andere Applikationen oder Gesamtleistung Rückschlüsse zieht, ist das sein Problem.

Geschummelt wird für mich genau dann, wenn falsche Tatsachen vorgespiegelt werden. Das ist hier nicht der Fall--die höhere Performance ist faktisch da, ohne dass bisher wer einen Qualitätseinbruch nachweisen konnte. Der Benchmark wird also sauber abgearbeitet, ob jetzt "optimiert" oder nicht ist eigentlich nicht sonderlich interessant. Daher sehe ich den Effekt bis auf weiteres als "Bug" an--übrigens wie schon beim Quack-Problem.

Täuschung jedoch, da wird's interessanter. Das, was ich da oben geschrieben habe zum Thema "Benchmarks" ist, wie wohl auch allen hier klar sein sollte, leider nicht der übliche Ansatz, weder in der Fachpresse noch unter diskutierenden Leuten wird gross über die Praxisnähe des 3DMarks nachgedacht, ganz zu schweigen vom üblichen, unreflektierten Herstellervergleich.
Leute vergleichen Hardware verschiedener Hersteller untereinander aufgrund des Benchmarks, und Leute erwarten auch, dass der Benchmark ihnen erzählt, wie "gut" eine Karte effektiv für Spiele geeignet ist. Man kann also argumentieren, dass dem IHV eine gewisse Verantwortung aufliegt, keine verzerrten Resultate zu forcieren, oder zumindest die Resulate ein wenig zu relativieren. Aber welcher marktorientierte Hersteller würde sowas machen wollen?

ta,
-Sascha.rb

Piffan
2002-06-16, 18:25:54
Zu den "Optimierungen" fällt mir noch ein anderes Beispiel ein:

Der Kyro hat aufgrund seines Prinzips mit manchen Spielen Probs.... Zum Glück ist der Treiber aber in sehr vielen Punkten gut zu tweaken, also läuft es nach einiger Einstellarbeit dann doch mit den allermeisten Spielen ordentlich.

Nun wäre es doch denkbar, dass die Treibergurus nun für manche Spiele einen Erkennungsmechanismus einbauen, so dass ein Paket von Presets dem User die ganze Tweakerei abnimmt! Wäre dies nun gut oder unzulässig? Wären bei einem Bench die ungetweakten oder getweakten Ergebnisse die "korrekten"? Jeder, der alle Tassen im Schrank hat, würde diese Sache zweifellos gutheißen....

Nun der Deto/G3/G4: Hat vielleicht ein Prob mit dem Nature, die Geometrieverarbeitung scheint irgendwie nicht richtig zu ticken... Dies ist natürlich NV nicht verborgen geblieben, die haben sich vielleicht sogar mit Madonion zusammengesetzt. Vielleicht war es schwieriger, das Prob im 3dmark zu lösen, also arbeitete man am eigenen Treiber...Vielleicht war auch dies schwer, weil NV es mit dem unified Treiber nicht schaffte, den G2 und G3/G4 unter einen Hut zu bringen (bis jetzt).

Also baute man einen "Sondercode" in den Deto ein, um diese gewisse "Inkompatibilität" zwischen der Geometrieeinheit des G2 und G3/G4 zu "überbrücken".... Wie auch immer, jetzt war man nur noch darauf angewiesen, dass der G3/G4 den problematischen Naturetest erkennt.... Offensichtlich kam man da auf den Splashscreen....

So, soviel zur Fantasie (ist ja alles nur eine Idee, was da los sein könnte). Woran es nun wirklich krankt, ob vielleicht das Flushing des Speichers während des Screens erfolgt, was für mich auch eine gute Idee zu sein scheint, oder ob wirklich "geschummelt" wird, weiß hier bis jetzt keiner. Darum sollte das Unschuldsprinzip gelten...

Beim Quack war die Sache eindeutig: DA wurde die Performance durch Verschlechterung der Bildqualität erkauft, der User in den Menüs aber darüber hinweggetäuscht.... Das, und nur so etwas ist für mich Schummelei!

Voodoo3Killer
2002-06-16, 18:32:41
Originally posted by Piffan
Wenn der Splash fehlt, fällt der Naruretest auf einen so eklatant tiefen tiefen Wert, (Bei unveränderter Bildqualität!!), dass der Einbruch ganz klar das Produkt eines Bugs ist. Punkt.

Und warum bricht dann bei mir nichts?

Andre
2002-06-16, 18:37:36
Originally posted by Voodoo3Killer


Und warum bricht dann bei mir nichts?

Weil du noch nicht genug gesoffen hast :D

Piffan
2002-06-16, 18:38:19
Originally posted by nggalai
Zum Thema Schummeln:


Geschummelt wird für mich genau dann, wenn falsche Tatsachen vorgespiegelt werden. Das ist hier nicht der Fall--die höhere Performance ist faktisch da, ohne dass bisher wer einen Qualitätseinbruch nachweisen konnte. Der Benchmark wird also sauber abgearbeitet, ob jetzt "optimiert" oder nicht ist eigentlich nicht sonderlich interessant. Daher sehe ich den Effekt bis auf weiteres als "Bug" an--übrigens wie schon beim Quack-Problem.

Täuschung jedoch, da wird's interessanter. Das, was ich da oben geschrieben habe zum Thema "Benchmarks" ist, wie wohl auch allen hier klar sein sollte, leider nicht der übliche Ansatz, weder in der Fachpresse noch unter diskutierenden Leuten wird gross über die Praxisnähe des 3DMarks nachgedacht, ganz zu schweigen vom üblichen, unreflektierten Herstellervergleich.
Leute vergleichen Hardware verschiedener Hersteller untereinander aufgrund des Benchmarks, und Leute erwarten auch, dass der Benchmark ihnen erzählt, wie "gut" eine Karte effektiv für Spiele geeignet ist. Man kann also argumentieren, dass dem IHV eine gewisse Verantwortung aufliegt, keine verzerrten Resultate zu forcieren, oder zumindest die Resulate ein wenig zu relativieren. Aber welcher marktorientierte Hersteller würde sowas machen wollen?

ta,
-Sascha.rb

Da sind wir offensichtlich einer Meinung :)

Nur: Es täuscht sich derjenige immer, der irgendeinen Bench nimmt und daraus die allgemeine Leistungsfähigkeit seiner Hardware ableiten will. Ist von vornherein ein Holzweg.....

Es muß schon ein ganzer Cocktail von Benches her, vor allem mit der Engine, die man selbst bevorzugt! Die Techniken der Grakas sind einfach zu heterogen, als dass es die "Eierlegendewollmilchsau" geben wird, also die Graka, die in allen Disziplinen optimal ist....

Der Markt ist hart, darum werden auch etliche Treiberkorrekturen nur durchgeführt, um in den populärsten Benches gut abzuschneiden.... Auch eine Form der "Täuschung".

Dies ist alles statthaft und nicht ehrenrührig. Der Käufer selbst täuscht sich halt, wenn er Einzelergebnisse in Benches generell auf andere Anwendungen überträgt.

Eine andere Dimension ist echte Schummelei nach meiner Definition (gerade erst gepostet). Das finde ich fies und wäre auch extrem rufschädigend, wenn NV dabei ertappt wird... Wenn!

Haarmann
2002-06-16, 18:56:30
nggalai

Genau... Zwiebelmark kann nur gleiches mit gleichem vergleichen - aber ich verstehe unter gleich auch ne GF3 und ne R200 - beide sollten DX8 können. Wenn man das nicht vergleichen kann, dann brauchst den Bench gar nimmer...

Thowe
2002-06-16, 19:09:36
Es gibt sehr viele Personen, die sich eine Grafikkarte nur nach den längsten Balken beim 3D Mark kaufen. Das man 3D Mark austricksen kann, auf den ein oder anderen Weg (Gruss an tb) mal aussen vor gelassen.

Für mich sieht ein typischer 3DMark Vergleich wie folgt aus

1. Windows installieren
2. Grafikkarten-Treiber installieren
3. Mit default benchen

Das Ergebnis ist das was dann gewertet wird. Klar, meine Kyro II hat somit keinerlei Chance und ist durch den 3DMark eigentlich komplett disqualifiziert.


Mich stört es nicht wenn möglichst viele von der Diskrepanz erfahren. Im besten Fall könnte es sein, dass der 3DMark an "Glaubwürdigkeit" verliert, würde mir persönlich sehr gefallen.

Piffan
2002-06-16, 19:11:23
Originally posted by Haarmann
nggalai

Genau... Zwiebelmark kann nur gleiches mit gleichem vergleichen - aber ich verstehe unter gleich auch ne GF3 und ne R200 - beide sollten DX8 können. Wenn man das nicht vergleichen kann, dann brauchst den Bench gar nimmer...

Dx8 können beide. Aber eine Engine besteht aus weit mehr als einer API....So kann eine Engine extrem Geometrielastig sein, eine andere quält mit einer Vielzahl von Texturlayern.......

Du hattest doch mal angefragt, ob die Größe der AGP- Aperture einen Einfluss auf den Splashbug hat... Auf meinem System hat es bis runter auf 32mb keinen Einfluss, höher als 128 kann ich auch nicht, bei 256 erscheint der Splashscreen erst gar nicht und es ruckelt fürchterlich...

Erbebnis: Der Splash ist scheinbar selbst ein Prob, oder warum verschwindet er ganz bei 256 AGP- Aperture? (523 DDR, Athlon XP, Deto 27.42)
Andere Spiele wie NFS Porsche oder UT funzen bei AGP 256......

Irgendwas haut da ganz gewaltig nicht hin beim Zwiebelgemüse :(

Piffan
2002-06-16, 19:13:36
Originally posted by Voodoo3Killer


Und warum bricht dann bei mir nichts?


Originally posted by Andre

Weil du noch nicht genug gesoffen hast :D

W

as willst Du denn jetzt damit wieder behaupten ??? Etwa dass ich saufe ;D

Demirug
2002-06-16, 20:00:10
So ich habe mir jetzt mal die Mühe gemacht und diesen blöden 3D Mark ein bischen getraced.

Ergebnis:

MadOnion gehört erst mal in den Hintern getreten. Die Gamebenches (die anderen habe ich nicht untersucht) machen alle den gleichen Fehler den man jedem DX programmier in der ersten woche abgewöhnt. Beim Anlegen der Vertex und Indexbuffer zwingen sie den Treiber diese absolute ungünstig zu plazieren. Dies wirkt sich allerdings wie einige ja bereits festgestellt haben nur bei Hardware VS aus.


Der Detonator erkennt den 3dmark und korrekiert die Bufferplazierung selbstständig.

Exxtreme
2002-06-16, 20:10:41
Originally posted by Demirug
Beim Anlegen der Vertex und Indexbuffer zwingen sie den Treiber diese absolute ungünstig zu plazieren. Dies wirkt sich allerdings wie einige ja bereits festgestellt haben nur bei Hardware VS aus.

Und welche negativen Auswirkungen hat es dann? Ich habe mal irgendwo gelesen, daß die Geometriedaten irgendwie geordnet für die GraKa geschickt werden müssen, damit die T&L-Einheit sie auch richtig verarbeiten kann. Meinst du vielleicht das?

Gruß
Alex

Piffan
2002-06-16, 20:10:59
Hallo, ich bins wieder :D

Habe noch mal den Einfluss der AGP- Aperture getestet. Die Zahlen geben die FPS im Nature an...


AGP- Aperture 4 8 16

FPS mit Splash 24,1 25,8 35

FPS ohne Splash 23,2 25,4 27,3


So wie es aussieht, legt die Geometrieleistung ab 16 Mb AgP-Speicher erst richtig los, aber nur mit Splash!
Was noch wichtig ist: Die Performance bei 16 MB ist unrund mit Splash: Zeitweise ganz glatt und sauber, dann wieder Hänger/heftige Ruckler! Wenn der Splash fehlt, bricht die Performance wieder ein....

Nun habe ich bei der gleichen niedrigen AGP- Öffnung von 16MB noch mal im Software- TL- Modus gebencht: 35,4 FPS bei runder Performance, keine Hänger! Mit deaktiviertem Splash brach die Performance nicht ein! (35.4 zu 35.3 )

Scheint also zu stimmen: Wenn der Splash fehlt, ist die Geometrieverarbeitung auf der GPU absolut mangelhaft. Darum bricht bei mir wohl auch der Highpoly ein!

Bei AGP- Apertures unter 16 MB ist es die Effektivität der Geometrieverarbeitung durch die GPU immer schlecht, wird vom Splash kaum verändert!

Übrigens: Bei Software-TL ist die Performance bei AGP unter 16 auch immer schlecht, ob mit oder ohne Ssslplash...

Keine Ahnung, ob diese Befunde helfen.... Jetzt habe ich aber alles ausprobiert, was mir so einfiel bzw. hab Haarmanns Idee noch umgesetzt. Langsam habe auch ich die Schnauze voll und will nix mehr hören von dem Schwachsinn hier!

Piffan
2002-06-16, 20:12:01
Habs gelöscht

Piffan
2002-06-16, 20:17:12
Habs auch gelöscht :D

Exxtreme
2002-06-16, 20:19:12
Piffan,
willst du etwa Postings schinden? Leo hat kein Problem damit, mal eben -500 Postings dazu zuaddieren.
;)

Gruß
Alex

Piffan
2002-06-16, 20:23:35
Originally posted by Exxtreme
Piffan,
willst du etwa Postings schinden? Leo hat kein Problem damit, mal eben -500 Postings dazu zuaddieren.
;)

Gruß
Alex

So ein Quatsch! Wenn ich das nächste Mal ne Tabelle posten will, muß ich die wohl in einem Texteditor oder Word erstellen und dann rüberkopieren.... Mensch, ist das peinlich :(

Demirug
2002-06-16, 20:23:52
Originally posted by Exxtreme

Und welche negativen Auswirkungen hat es dann? Ich habe mal irgendwo gelesen, daß die Geometriedaten irgendwie geordnet für die GraKa geschickt werden müssen, damit die T&L-Einheit sie auch richtig verarbeiten kann. Meinst du vielleicht das?

Gruß
Alex

Was du meinst ist die Anordnung der Daten um möglichst viele post Shader Chache hits zu haben und die verwendung von Trianglestipes. Das habe ich nicht untersucht (ist ein höllischer Aufwand).

Was ich meine ist folgendes:

Wenn man bei DX einen Vertex oder Index Buffer anlegt teilt man dem Treiber zusätzlich mit was man damit machen will. Aufgrund dieser Informationen kann der Treiber den Buffer in den dafür günstigsten Speicherbereich legen. Eines der wichtigsten Flags dabei ist D3DUSAGE_WRITEONLY setzte man diese Flag nicht (wie der 3DMark) zwingt man den Treiber die Daten in einem Lesefreundlichen Speicher (z.b. keine GraKaRam) abzulegen. Dies führt dann zu einem Performancen einbruch beim Rendern dieser Daten da der CPU Lesefreundliche Speicher leider nicht sehr Lesefreundlich aus Sicht der GPU ist. Beim Software VS ist das vollkommen egal da dabei die Daten immer im normalen Systemspeicher abgelegt werden.

zeckensack
2002-06-16, 20:35:21
Demirug,

Der absolute Oberhammer wäre es, wenn du das mal mit Max Payne versuchen könntest =)

PS: Ich kenn' da über eine halbe Ecke jemanden, der ganz zufällig Markus Stein heißt :D

Demirug
2002-06-16, 20:39:17
Originally posted by zeckensack
Demirug,

Der absolute Oberhammer wäre es, wenn du das mal mit Max Payne versuchen könntest =)

PS: Ich kenn' da über eine halbe Ecke jemanden, der ganz zufällig Markus Stein heißt :D

Kann ich leider nicht machen. Ich habe kein Max Payne. Ich spiele im Moment sowieso nur sehr wenig (Zeitmangel) und FPS sind nicht mein Ding.

Piffan
2002-06-16, 20:51:53
Originally posted by Demirug


Was du meinst ist die Anordnung der Daten um möglichst viele post Shader Chache hits zu haben und die verwendung von Trianglestipes. Das habe ich nicht untersucht (ist ein höllischer Aufwand).

Was ich meine ist folgendes:

Wenn man bei DX einen Vertex oder Index Buffer anlegt teilt man dem Treiber zusätzlich mit was man damit machen will. Aufgrund dieser Informationen kann der Treiber den Buffer in den dafür günstigsten Speicherbereich legen. Eines der wichtigsten Flags dabei ist D3DUSAGE_WRITEONLY setzte man diese Flag nicht (wie der 3DMark) zwingt man den Treiber die Daten in einem Lesefreundlichen Speicher (z.b. keine GraKaRam) abzulegen. Dies führt dann zu einem Performancen einbruch beim Rendern dieser Daten da der CPU Lesefreundliche Speicher leider nicht sehr Lesefreundlich aus Sicht der GPU ist. Beim Software VS ist das vollkommen egal da dabei die Daten immer im normalen Systemspeicher abgelegt werden.

Habe ich das richtig gecheckt: Madonion hat diese Flags vergessen, darum macht das NV das via Erkennung anhand des Splashs? Also liegt kein Bug und kein Cheat vor, sondern NV macht ein Workaround anhand des Splashs?!

Warum nur so dämlich, wie machen es denn die anderen Treiber? Hört sich ehrlich gesagt nach starkem Tobak an.... Aber nichts ist unmöglich...;)

Controllator
2002-06-16, 20:56:38
Da sich einige die Mühe gemacht haben, hier meine Werte:

WIN XP Neuinstall, Deto 29.42, ASUS V8200T2 Deluxe GF3 TI-200,
Athlon XP 1700 @ 11 * 145 MHz, ASUS A7V266E, 2 * 512 MB DDR CAS 2,
3D Mark 2001 SE Build 330, D3D Pure Hardware T&L, 1024 * 768 * 32
Z-Buffering 24 bit, Texture Format Compressed, Buffering Double

175/400 MHz, 60 Hz mit Title Screens
3DMark Score 6990
Game 1 - Car Chase - Low Detail 102.4 fps
Game 1 - Car Chase - High Detail 46.7 fps
Game 2 - Dragothic - Low Detail 100.5 fps
Game 2 - Dragothic - High Detail 56.3 fps
Game 3 - Lobby - Low Detail 114.2 fps
Game 3 - Lobby - High Detail 56.3 fps
Game 4 - Nature 31.6 fps
Fill Rate (Single-Texturing) 585.7 MTexels/s
Fill Rate (Multi-Texturing) 1211.3 MTexels/s
High Polygon Count (1 Light) 20.9 MTriangles/s
High Polygon Count (8 Lights) 4.5 MTriangles/s
Environment Bump Mapping 108.5 fps
DOT3 Bump Mapping 92.0 fps
Vertex Shader 60.4 fps
Pixel Shader 67.9 fps
Advanced Pixel Shader 54.2 fps
Point Sprites 13.0 MSprites/s

175/400 MHz, 60 Hz ohne Title Screens
3DMark Score 6831
Game 1 - Car Chase - Low Detail 102.5 fps
Game 1 - Car Chase - High Detail 47.1 fps
Game 2 - Dragothic - Low Detail 100.8 fps
Game 2 - Dragothic - High Detail 56.5 fps
Game 3 - Lobby - Low Detail 114.2 fps
Game 3 - Lobby - High Detail 56.4 fps
Game 4 - Nature 22.8 fps
Fill Rate (Single-Texturing) 586.3 MTexels/s
Fill Rate (Multi-Texturing) 1210.1 MTexels/s
High Polygon Count (1 Light) 20.8 MTriangles/s
High Polygon Count (8 Lights) 4.5 MTriangles/s
Environment Bump Mapping 108.3 fps
DOT3 Bump Mapping 92.0 fps
Vertex Shader 60.4 fps
Pixel Shader 67.9 fps
Advanced Pixel Shader 54.2 fps
Point Sprites 13.0 MSprites/s

175/400 MHz, 60 Hz mit Title Screens, Test 2
Game 4 - Nature 31.6 fps

175/400 MHz, 60 Hz ohne Title Screens, Test 2
Game 4 - Nature 22.8 fps

Umschaltung auf 230/520 MHz mit PowerStrip, kein Reset

230/520 MHz, 60 Hz mit Title Screens
3DMark Score 8045
Game 1 - Car Chase - Low Detail 124.0 fps
Game 1 - Car Chase - High Detail 49.3 fps
Game 2 - Dragothic - Low Detail 119.0 fps
Game 2 - Dragothic - High Detail 66.4 fps
Game 3 - Lobby - Low Detail 126.8 fps
Game 3 - Lobby - High Detail 61.4 fps
Game 4 - Nature 40.3 fps
Fill Rate (Single-Texturing) 764.7 MTexels/s
Fill Rate (Multi-Texturing) 1588.3 MTexels/s
High Polygon Count (1 Light) 25.2 MTriangles/s
High Polygon Count (8 Lights) 5.9 MTriangles/s
Environment Bump Mapping 128.3 fps
DOT3 Bump Mapping 120.4 fps
Vertex Shader 65.2 fps
Pixel Shader 88.0 fps
Advanced Pixel Shader 70.9 fps
Point Sprites 17.0 MSprites/s

230/520 MHz, 60 Hz ohne Title Screens
3DMark Score 7850
Game 1 - Car Chase - Low Detail 124.3 fps
Game 1 - Car Chase - High Detail 49.6 fps
Game 2 - Dragothic - Low Detail 118.7 fps
Game 2 - Dragothic - High Detail 66.5 fps
Game 3 - Lobby - Low Detail 127.4 fps
Game 3 - Lobby - High Detail 61.5 fps
Game 4 - Nature 29.7 fps
Fill Rate (Single-Texturing) 764.7 MTexels/s
Fill Rate (Multi-Texturing) 1589.8 MTexels/s
High Polygon Count (1 Light) 25.3 MTriangles/s
High Polygon Count (8 Lights) 5.9 MTriangles/s
Environment Bump Mapping 128.2 fps
DOT3 Bump Mapping 120.4 fps
Vertex Shader 65.1 fps
Pixel Shader 88.0 fps
Advanced Pixel Shader 70.9 fps
Point Sprites 17.0 MSprites/s

230/520 MHz, 60 Hz mit Title Screens, Test 2
Game 4 - Nature 40.3 fps

230/520 MHz, 60 Hz ohne Title Screens, Test 2
Game 4 - Nature 29.7 fps

Umschaltung auf 85 Hz brachte keine Änderung.

Ich wollte auch mal zu Piffans Vergleich mit Jedi Knight 2 sagen. Wie man dem Spielforum entnehmen kann, gibt es große Performance-Einbrüche nach dem Laden von Levels. Bei einigen Leuten (so wie bei mir) hilft das kurze Aktivieren/Deaktivieren des Nachtsichtbrille. Die FPS schnellt sofort um über 30 % in die Höhe.
Vielleicht haben ja genau die Leute dieses Phänomen, die auch die Einbrüche beim Nature-Bench haben.
Erklärbar wäre dies z.B. durch die angesprochene Erkennung des Title-Screens, die irgendwie auch bei der Nachtsichbrille greift (ok sehr mau)

Oder die Programmierer haben sowohl bei der Darstellung des Title-Screens von 3DMark als auch bei der Umschaltung auf die Nachtsichtbrille in JK2 irgendeinen D3D-Befehl verwendet, der den Treiber optimal auf eine Engine anpaßt.

ow
2002-06-16, 20:59:55
Originally posted by Controllator

Oder die Programmierer haben sowohl bei der Darstellung des Title-Screens von 3DMark als auch bei der Umschaltung auf die Nachtsichtbrille in JK2 irgendeinen D3D-Befehl verwendet, der den Treiber optimal auf eine Engine anpaßt.


JK2 läuft unter OpenGL und nicht D3D, es besteht da also kein Zusammenhang zwischen diesen Fehlern.

Unregistered
2002-06-16, 21:00:53
*hust* JK2 benutzt OpenGL :D

MfG
Kami =)

Demirug
2002-06-16, 21:02:15
Originally posted by Piffan


Habe ich das richtig gecheckt: Madonion hat diese Flags vergessen, darum macht das NV das via Erkennung anhand des Splashs? Also liegt kein Bug und kein Cheat vor, sondern NV macht ein Workaround anhand des Splashs?!

Warum nur so dämlich, wie machen es denn die anderen Treiber? Hört sich ehrlich gesagt nach starkem Tobak an.... Aber nichts ist unmöglich...;)

Was ich sicher weiss ist folgendes:
-MadOnion hat das Flag nicht gesetzt
-NVidia sagt da das die Nichtbenutzung dieses Flags zu Performance einbrüchen führt. (was für mich auch vollkommen klar ist)

Der Workaround ist eine spekulation.

Was nun die anderen Hersteller angeht bin ich auch hier zu einer gewagten spekulation bereit.

Im Moment trift es ja nur noch die R200 Chips. Ich traue es ATi durchaus zu das man diese Flag überhaupt nicht berücksichtigt sonder davon ausgeht das es gesetzt ist (was auch jede ordentlich programmierte Engine tun sollte). Das ganze würde wahrscheinlich auch niemals auffallen da es IMO sowieso keinen Anwendungsfall für das weglassen diese Flags gibt.

zeckensack
2002-06-16, 21:14:39
Demirug,

Dann werde ich das wohl oder über persönlicht tracen müssen. Was muß ich tun? Was muß ich mir runterladen? Das DX8-SDK? Will nur einen kurzen Hinweis, einlesen muß ich mich dann eh selbst.

Ich habe deswegen gefragt, weil Zwiebelmark die Technologie von Max Payne einsetzt. Und der "Boss" (Lead Programmer) ist bewußter, mir nicht gänzlich unbekannter Markus Stein. Vielleicht krieg ich da ja was raus, ich will ihn aber wirklich nur dann damit behelligen (den Arsch voll Arbeit, der arme Kerl), wenn Max Payne den gleichen Fehler macht.

Piffan
2002-06-16, 21:23:14
Originally posted by Demirug


Was ich sicher weiss ist folgendes:
-MadOnion hat das Flag nicht gesetzt
-NVidia sagt da das die Nichtbenutzung dieses Flags zu Performance einbrüchen führt. (was für mich auch vollkommen klar ist)

Der Workaround ist eine spekulation.

Was nun die anderen Hersteller angeht bin ich auch hier zu einer gewagten spekulation bereit.

Im Moment trift es ja nur noch die R200 Chips. Ich traue es ATi durchaus zu das man diese Flag überhaupt nicht berücksichtigt sonder davon ausgeht das es gesetzt ist (was auch jede ordentlich programmierte Engine tun sollte). Das ganze würde wahrscheinlich auch niemals auffallen da es IMO sowieso keinen Anwendungsfall für das weglassen diese Flags gibt.

Nun noch eine Frage: Warum beschränken sich die starken Einbrüche auf den Nature und Highpoly? Sind die Flags bei den anderen Benches korrekt gesetzt?
Irgendwie mysteriös das Ganze :D

Demirug
2002-06-16, 21:29:36
Originally posted by zeckensack
Demirug,

Dann werde ich das wohl oder über persönlicht tracen müssen. Was muß ich tun? Was muß ich mir runterladen? Das DX8-SDK? Will nur einen kurzen Hinweis, einlesen muß ich mich dann eh selbst.

Ich habe deswegen gefragt, weil Zwiebelmark die Technologie von Max Payne einsetzt. Und der "Boss" (Lead Programmer) ist bewußter, mir nicht gänzlich unbekannter Markus Stein. Vielleicht krieg ich da ja was raus, ich will ihn aber wirklich nur dann damit behelligen (den Arsch voll Arbeit, der arme Kerl), wenn Max Payne den gleichen Fehler macht.

Für den Buffer D3DUSAGE_WRITEONLY Test braucht man folgende Dinge:

-DX8 SDK Installieren der DEBUG Version
-Einen Windows Debug Monitor mit grossem Log (z.b. von Sysinternals)

Über das Systemsteuerungs applet D3D auf maximalen Debugoutput stellen.

Spiel starten und ein bischen spielen.

Nach dem Beenden den Trace auswerten. Wenn das Problem aufgetreten ist erkennt man das an einer entsprechenden Warnung von DX.

Viel Spass. Am Ergebniss bin ich auch interesiert.

Demirug
2002-06-16, 21:31:43
Originally posted by Piffan


Nun noch eine Frage: Warum beschränken sich die starken Einbrüche auf den Nature und Highpoly? Sind die Flags bei den anderen Benches korrekt gesetzt?
Irgendwie mysteriös das Ganze :D

Die Flags sind immer falsch. Aber gerade Nature und Highpoly (sagt ja schon der Name) sind sehr geometrielastig. Deshalb wirkt sich ein Problem mit den Geometriedatenfluss dort besonders extrem aus.

Demirug
2002-06-16, 21:52:51
Mir fällt gerade auf das ich unter Umständen ATi zu unrecht beschuldigt habe inkorrekte Treiber zu schreiben. Es wäre also auch möglich das der R200 ebenfalls unter dem 3dMurks Buffer Problem zu leiden hat und in wirklichkeit mehr Punkte haben könnte.

Man müsste eben mal einen Test schreiben der die Auswirkung diese Flags bei den verschiedenen Karten/Treiber prüft.

Quasar
2002-06-16, 22:04:49
Dragothic HQ hat aber einen durchschnittlich höheren Polycount als Nature....und dort gibt es nur einen, der einen deutlichen Absacker hat.

Exxtreme
2002-06-16, 22:06:07
Originally posted by Demirug
Mir fällt gerade auf das ich unter Umständen ATi zu unrecht beschuldigt habe inkorrekte Treiber zu schreiben. Es wäre also auch möglich das der R200 ebenfalls unter dem 3dMurks Buffer Problem zu leiden hat und in wirklichkeit mehr Punkte haben könnte.

Beim Nature-Test ist mir mit der Radeon8500 Folgendes aufgefallen: der Test zeigt ganz am Anfang ca. 28 fps an und eine Sekunde später schnellt er auf ca. 39 fps hoch. Und das Ganze mit und ohne Splash-Screen. Vielleicht hat ATi auch eine Erkennung eingebaut, die aber erst zur Laufzeit des Tests greift.

Kann das jemand mit einer Radeon 8500 auch nachvollziehen? Und wie sieht's aus bei Leuten mit einer GF3/4Ti aus?

Gruß
Alex

zeckensack
2002-06-16, 22:08:31
Originally posted by Quasar
Dragothic HQ hat aber einen durchschnittlich höheren Polycount als Nature....Das glaubst du doch nicht wirklich, oder? All die Blätter und Gräser ???

zeckensack
2002-06-16, 22:09:31
Originally posted by Exxtreme

Beim Nature-Test ist mir mit der Radeon8500 Folgendes aufgefallen: der Test zeigt ganz am Anfang ca. 28 fps an und eine Sekunde später schnellt er auf ca. 39 fps hoch. Und das Ganze mit und ohne Splash-Screen. Vielleicht hat ATi auch eine Erkennung eingebaut, die aber erst zur Laufzeit des Tests greift.

Kann das jemand mit einer Radeon 8500 auch nachvollziehen? Und wie sieht's aus bei Leuten mit einer GF3/4Ti aus?

Gruß
Alex Werde das in 7 Minuten (nachdem das DX8.1 SDK eingetrudelt ist) mal testen.

Demirug
2002-06-16, 22:10:48
Originally posted by zeckensack
Das glaubst du doch nicht wirklich, oder? All die Blätter und Gräser ???

Also rein optisch kann ich bei Dragothic HQ noch Polys erkennen bei Nature ist das schon schwerer. Ich weis aber nicht wie hoch der overdraw bei Dragothic HQ im Vergleich zu Nature ist.

Quasar
2002-06-16, 22:12:29
Originally posted by zeckensack
Das glaubst du doch nicht wirklich, oder? All die Blätter und Gräser ???

Doch, das glaube ich wirklich. Lies mal die Readme.

Außerdem sind die meisten Blätter in "Wedeln" zusammengefasst, ebenso die Gräser.

HQ Dragothic:
Rendered triangles per frame (min/avg/max): 81596/99806.7/342341

Nature:
Rendered triangles per frame (min/avg/max): 55601/81722.5/180938

Quasar
2002-06-16, 22:16:02
Originally posted by Exxtreme

Beim Nature-Test ist mir mit der Radeon8500 Folgendes aufgefallen: der Test zeigt ganz am Anfang ca. 28 fps an und eine Sekunde später schnellt er auf ca. 39 fps hoch. Und das Ganze mit und ohne Splash-Screen. Vielleicht hat ATi auch eine Erkennung eingebaut, die aber erst zur Laufzeit des Tests greift.
Kann das jemand mit einer Radeon 8500 auch nachvollziehen? Und wie sieht's aus bei Leuten mit einer GF3/4Ti aus?

Gut beobachtet, Alex.

Mit Splash: kurze Anzeige von 51fps, dann normal weiter mit 44...
Ohne Splash: Von Anfang an ca. 38 fps...

zeckensack
2002-06-16, 22:16:44
Originally posted by Quasar


Doch, das glaube ich wirklich. Lies mal die Readme.

Außerdem sind die meisten Blätter in "Wedeln" zusammengefasst, ebenso die Gräser.

HQ Dragothic:
Rendered triangles per frame (min/avg/max): 81596/99806.7/342341

Nature:
Rendered triangles per frame (min/avg/max): 55601/81722.5/180938 Krass :o

Dann behaupte ich jetzt einfach mal, daß bei Nature dafür die Vertex Shader komplexer sind und durch zusätzliche Inputs (Keyframe0, Keyframe1, Weight, Yaddayadda) effektiv die Vertices größer sind/mehr Bandbreite verblasen/wasauchimmer.

Salvee
2002-06-16, 22:17:13
Originally posted by Exxtreme

Beim Nature-Test ist mir mit der Radeon8500 Folgendes aufgefallen: der Test zeigt ganz am Anfang ca. 28 fps an und eine Sekunde später schnellt er auf ca. 39 fps hoch. Und das Ganze mit und ohne Splash-Screen. Vielleicht hat ATi auch eine Erkennung eingebaut, die aber erst zur Laufzeit des Tests greift.

Kann das jemand mit einer Radeon 8500 auch nachvollziehen? Und wie sieht's aus bei Leuten mit einer GF3/4Ti aus?

Gruß
Alex

Habe den neuesten Catalyst-Treiber drauf, und bei mir ist es beim Nature recht ähnlich. Für den Bruchteil einer Sekunde steht der Framecounter bei 0, dann wechselt es auf 20, danach auf 40. Passiert immer, sowohl mit als auch ohne Splash-Screen.

zeckensack
2002-06-16, 22:22:05
Genau. Der fängt bei mir in Dragothic High 1280x960 (Desktop-Auflösung, um die Monitor-Totzeit zu vermeiden) bei 0 an, geht dann über 42 auf 52 hoch, ohne daß sich der Geschwindigkeitseindruck ändert. Hängt wohl mit der Art und Weise zusammen, wie der Murks den Framecounter berechnet.

Bei Dragothic Low gehts auch 0 -> 97 -> 112.

Exxtreme
2002-06-16, 22:25:00
Originally posted by zeckensack
Bei Dragothic Low gehts auch 0 -> 97 -> 112.
Probiere mal den Nature-Test. Bei Quasar ist es übrigens andersrum. Zuerst hoch, dann geht's runter.

Gruß
Alex

Quasar
2002-06-16, 22:27:23
Originally posted by zeckensack
Krass :o

Dann behaupte ich jetzt einfach mal, daß bei Nature dafür die Vertex Shader komplexer sind und durch zusätzliche Inputs (Keyframe0, Keyframe1, Weight, Yaddayadda) effektiv die Vertices größer sind/mehr Bandbreite verblasen/wasauchimmer.

Dann behaupte ich mal, daß es bei Nature deutlich weniger Overdraw gibt, da ja pro Szene nur ein geringer Teil der Szene gezeigt wird. Dragothic hingegen wird einen hohen Overdraw haben, da ja oft ein großer Teil des Dorfes zu sehen ist.

Da greift dann natürlich das HSR der Chips.

Demirug
2002-06-16, 22:34:16
Originally posted by Quasar


Dann behaupte ich mal, daß es bei Nature deutlich weniger Overdraw gibt, da ja pro Szene nur ein geringer Teil der Szene gezeigt wird. Dragothic hingegen wird einen hohen Overdraw haben, da ja oft ein großer Teil des Dorfes zu sehen ist.

Da greift dann natürlich das HSR der Chips.

HSR greift aber normalerweise erst nach dem VS. Mir fallen aber spontan einige gründe ein warum bei Nature der Einbruch stärker ist:

Die Geodaten bei Nature sind für den Post VS Cache ungünstig angeordnet. Das würde eventuel auch den geringeren Einbruch bei GF4 erklären den dort ist der Cache größer.

Nature verwendet eventuel Trianglelist und Dragothic strips.

Exxtreme
2002-06-16, 22:40:01
@ Demirug
Wäre es möglich dieses D3DUSAGE_WRITEONLY-Dingsbums ála 3D-Analyze (zu beziehen hier (http://www.tommti-systems.com/main-Dateien/TOOLS/dontlinkthefile_3danalyzer-v14beta.zip)) zu setzen? Wenn ja, nehme ich Kontakt mit tb von www.tommti-systems.de auf und sage ihm, daß er es in die nächste Version einbauen möge. Mit diesem Programm ist es möglich diverse DX-Sachen zu setzen, ohne daß es die GraKa unterstützt.

Gruß
Alex

Demirug
2002-06-16, 22:45:30
Originally posted by Exxtreme
@ Demirug
Wäre es möglich dieses D3DUSAGE_WRITEONLY-Dingsbums ála 3D-Analyze (zu beziehen hier (http://www.tommti-systems.com/main-Dateien/TOOLS/dontlinkthefile_3danalyzer-v14beta.zip)) zu setzen? Wenn ja, nehme ich Kontakt mit tb von www.tommti-systems.de auf und sage ihm, daß er es in die nächste Version einbauen möge. Mit diesem Programm ist es möglich diverse DX-Sachen zu setzen, ohne daß es die GraKa unterstützt.

Gruß
Alex

3D-Analyze ist mir ein Begriff. Wenn das Programm so arbeitet wie ich das machen würde sollte es möglich sein sich in die CreateIndexBuffer und CreateVertexBuffer einzuhängen und das Flag zu setzen.

Exxtreme
2002-06-16, 22:46:33
Originally posted by Demirug


3D-Analyze ist mir ein Begriff. Wenn das Programm so arbeitet wie ich das machen würde sollte es möglich sein sich in die CreateIndexBuffer und CreateVertexBuffer einzuhängen und das Flag zu setzen.
OK, dann werde ich es tb sagen, er möge es probieren. Danke.

Gruß
Alex

Haarmann
2002-06-16, 22:57:24
Piffan

Danke - hab eben genau das erwartet - müsste sich am Ende sogar angleichen der Score mit und ohne Splash. Tats ja bei Dir auch fast - bei reinem PCI Mode würds ev sogar keine Rolle mehr spielen.

Ev müsste der Unterschied auch schrumpfen, wenn man den AGP auf 1x begrenzt.

zeckensack
2002-06-16, 23:10:04
Originally posted by Quasar


Dann behaupte ich mal, daß es bei Nature deutlich weniger Overdraw gibt, da ja pro Szene nur ein geringer Teil der Szene gezeigt wird. Dragothic hingegen wird einen hohen Overdraw haben, da ja oft ein großer Teil des Dorfes zu sehen ist.

Da greift dann natürlich das HSR der Chips. Und ich wiederum behaupte, daß bei Nature der Overdraw durch die Tonnen von dicht aneinander plazierten Grasbüscheln und Äste recht extrem ausfallen dürfte. :P

zeckensack
2002-06-16, 23:17:03
Sodele, nachdem ich mich durch diverse Crashes von DbgView recht angepisst fühlte, hab ich's dann doch noch hinbekommen, mir die Debug-Infos von 3DMark und Max Payne reinzuziehen.

Max Payne macht nicht dieses Dings von wegen ... ähD:\TOOLS\DbgView\Nature.LOG(6357):00006356 15.39413680 [3dmark20] Direct3D8: (WARN) :Vertexbuffer created with POOL_DEFAULT but WRITEONLY not set. Performance penalty could be severe. Iss klar, ne?
Dafür macht es das:(55566):00086757 54.83498880 [Maxpayne] Direct3D8: (WARN) :Static index buffer locked more than once per frame. Could have severe performance penalty.
D:\TOOLS\DbgView\Max.LOG(55580):00086771 54.83561280 [Maxpayne] Direct3D8: Dynamic index buffer locked twice or more in a row without D3DLOCK_NOOVERWRITE or D3DLOCK_DISCARD. Could have severe performance penalty.
Die MP-Warnings gehören eigentlich nicht zum Thread, es sei denn, der gute Demirug hat dazu was zu sagen :)
Interessant ist halt nur, daß der MurksSE eigentlich von der Engine her mindestens auf dem gleichen Stand sein sollte wie Max Payne (der Max Payne Patch, den ich benutze, ist vom letzten Jahr, also schon reichlich alt. Btw, gibt's einen neueren? Ach egal ...). Trotzdem verhält er sich dümmer :|

Demirug
2002-06-16, 23:47:08
@zeckensack:

Also mich machen Warnings in Verbindung mit Buffer immer hellhörig. Diese Sache gehen immer bis zur Treiberebene runter und da kann es ganz leicht passieren das die Performance mit einem neuen Treiber plötzlich einbricht oder das eine optimierung wegen solchen Dingen nicht greifen kann.

Da ich die nächsten 5 Tage kein Internet habe:...( schreib ich für den Fall das es dich interresiert noch ein paar Details zu den beiden Warnings.

Static index buffer...:

Die normale Vorgehensweise wäre:
Buffer Locken
Alle Werte ändern
Buffer Unlocken

Macht man das nicht kann (mus aber nicht) unter anderem folgendes passieren:
- Daten werden unnötigerweise doppelt kopiert
- Wird der Buffer gelockt ungelockt und dann zum rendern benutzt und dann gleich wieder gelockt kann das zum blockieren der CPU führen da diese Warte muss bis der Buffer nicht mehr zum rendern gebraucht wird.

Dynamic index buffer locked...:
Dazu kann ich nur sagen das da wohl jemand das Konzept der dynamischen Buffer nicht richtig verstanden hat. Entweder wird hier ein Dynamischer Buffer als Statischer Missbraucht (und selbst dann auf die falsche Art s.o) oder der Programmiere hat es ganz einfach falsch gemacht.

Die richtige Verwendung von dynamischen Buffer jetzt aber hier zu erklären ginge doch etwas zu weit ins Offtopic und interesiert wohl auch nicht wirklich jemanden hier. Falls doch NVidia hat im Developerbereich massenhaft Dokumente dazu da es immer wieder falsch gemacht wird.

Exxtreme
2002-06-17, 00:45:05
So Herrschaften,
eine aktualisierte Version des 3D-Analyze-Tools (http://www.tommti-systems.com/main-Dateien/files.html) ist jetzt verfügbar (thanks @tb). Bei der R8500 soll es laut tb nicht viel bringen. Bin jetzt gespannt ob es bei der GF3/4Ti-Serie was nützt.

Gruß
Alex

Quasar
2002-06-17, 00:47:17
Wofür soll's bitte was nützen?

Um D3DUSAGE_WRITEONLY an- und abzuschalten? Wofür?

Ikon
2002-06-17, 00:49:35
Hab den ganzen Thread noch nicht gelesen aber hier mal meine Ergebnisse vom Nature Test:

ohne Splashscreens: 24-27 FPS
mit Splashscreens: 33-61 FPS
auf: GF3-Ti200@240/480MHz + Deto 29.17

Irrsinn - wäre echt interessant wer das mal verbockt hat ...

Unregistered
2002-06-17, 16:11:43
Originally posted by Piffan
Aus diesem Anlass (LLs und Haarmanns Posting) nochmal: Wenn der Splash fehlt, fällt der Naruretest auf einen so eklatant tiefen tiefen Wert, (Bei unveränderter Bildqualität!!), dass der Einbruch ganz klar das Produkt eines Bugs ist. Punkt.

Wieso wird hier immer wieder behauptet, dass NV einen Nutzen aus diesem Bug zieht und es darum wohl eher Schummelei ist??? Kann mir das endlich mal jemand schlüssig erklären?

"Nv optimiert!" - Höre ich da immer wieder die These heraus, daß der Benchwert ohne den Einbruch (also mit Screen) durch unzulässige Maßnahmen erreicht wird, das also der niedrige Wert der "richtige" ist???

Es ist solange kein Cheat oder eine Schummelei, bis klipp und klar bewiesen oder eingeräumt wird, dass die hohe Performance erkauft wird durch versteckte Mängel in der Bildqualität!

Meine Definition von Schummeln: In den Optionsmenüs des Treibers oder eines Spieles wird etwas anderes vorgetäuscht, also dann real vom Treiber oder dem Chip geboten wird, und zwar zum alleinigen Zwecke, einen besseren Performance-Core zu erzielen. Punkt. Alle anderen Maßnahmen zur Leistungssteigerung sind erlaubt und im Sinne des Users. Und genau dies machen hoffentlich alle Treiberprogrammierer so, sonst sind es Pfeifen....

Ich warte noch immer auf eine Antwort von Dir.

Andere Frage warum sollte nVIDIA den Bug beheben wenn beim Testen bis zu 400 Punkte mehr rausspringen.

Wo liegt jetzt der Fehler ???
MadOnion hat einen Patch rausgebracht und das Problem ist nach wie vor vorhanden.
Also dürfte der nVIDIA Treiber einen Fehler haben oder die anderen Hersteller haben schon früher reagiert.

So sieht für mich der aktuelle Stand aus.
Es ist noch immer nicht klar wo der Fehler liegt.
Beim Treiber, beim 3DMark.
Warum nur bei der Ti Serie und GeForce4 Serie.

Kann sein das Du das als Hetze gegen nVIDIA siehst aber dem ist nicht so.
Auch andere Hersteller wurden gleich mal getreten wenn solche ähnlichen Fehler oder Cheatversuche aufgedeckt wurden.

Wenn das ein Bug ist, mein Gott dann ist es halt ein Bug.
Hauptsache er wird korrigiert und die User können dann beruhigt sein das nicht geschummelt wird.

Es ´kann nicht sein das einige Hersteller gleich niedergemacht werden und bei anderen die Samthandschuhe ausgepackt werden.
Fakt ist das ein Fehler vorhanden ist.
Fakt ist das noch keiner weiss was genau los ist.
Fakt ist das dieses urgiert gehört.

PS: Fakt ist auch das keine Hetze gegen nVIDIA getrieben wird aber dafür berechtigte Zweifel gestellt werden können.

Ich bin mir sicher das wenn dieser Fehler bei anderen Hersteller aufgetreten wäre das gleich ein Skandal und Cheatversuch unterstellt wird.
Auch das ist Fakt und wurde in den lezten Monaten immer wieder festgestellt.

Gruss Labberlippe

Andre
2002-06-17, 16:15:11
Originally posted by Unregistered
Es ´kann nicht sein das einige Hersteller gleich niedergemacht werden und bei anderen die Samthandschuhe ausgepackt werden.
Fakt ist das ein Fehler vorhanden ist.
Fakt ist das noch keiner weiss was genau los ist.
Fakt ist das dieses urgiert gehört.


Sehr gut zusammengefasst, LL.

Quasar
2002-06-17, 16:47:39
@Exxtreme:
Ich wiederhole meine Frage: Wofür soll die neue Version nun gut sein? Ich nehme an, diese D3D-Option zu forcieren, aber wo stellt man das ein?

@Haari:
Tjo, so wie's ausschaut, gibt's noch immer keine wirklich Klärung, auch wenn Demirug einen interessanten Ansatz geliefert hat. Schaun' mer mal, würde ich sagen.

Xmas
2002-06-17, 17:35:28
Originally posted by Unregistered
Andere Frage warum sollte nVIDIA den Bug beheben wenn beim Testen bis zu 400 Punkte mehr rausspringen.
Hm, dann wohl doch in die andere Richtung.
Also, wenn man von einem Bug ausgeht (und das tue ich im Moment), dann muss man auch davon ausgehen dass er die Performance reduziert.

Ein "Bug" der, ohne die Bildqualität oder die Stabilität anzutasten, die Performance erhöht, ist kein Bug.

Quasar
2002-06-17, 17:43:26
Das verstehe ich nicht Xmas. Du gehst von einem Bug aus, aber verneinst gleichzeitig die Symptome eines Bugs für diesen Fall.

BQ und Stabilität sind, soweit bekannt, nicht beeinträchtigt.

aths
2002-06-17, 18:03:11
Quasar,

angesichts der Tatsache dass ein Splash-Screen dermaßen Einfluss auf den Bench hat, was ja bestimmt nicht so von Madonion gedacht war, müsste man doch von einem Bug (also ungewollter Fehlfunktion) reden, oder?

Quasar
2002-06-17, 18:12:19
aths,
hast du den Thread auch gelesen? Besonders XMas letztes Posting?

Labberlippe
2002-06-17, 18:33:35
Originally posted by Xmas

Hm, dann wohl doch in die andere Richtung.
Also, wenn man von einem Bug ausgeht (und das tue ich im Moment), dann muss man auch davon ausgehen dass er die Performance reduziert.

Ein "Bug" der, ohne die Bildqualität oder die Stabilität anzutasten, die Performance erhöht, ist kein Bug.

ok ist mir schon klar worauf Du hinaus willst.
Angenommen ist kommt ein Game mit der 3DMark Engine welches auch den PS und VS nutzt.
Da ist am Anfang kein Titlescreen und die Performance ist niedriger als beim Benchmark.
Was sagt Ihr dann ???
Es gibt Gott sei Dank noch kaum Games welche einen wirklich vernünftigen Einsatz von VS oder PS haben.
Ausser Aquanox aber wie gut das Game ist wissen wir mittlerweile ja schon.
Sollte hier ein massiver Treiber oder HW Bug vorliegen dann ist das nicht gut.

Nix da das gehört geklärt alleine schon damit die nVIDIA User sicher sein können das bei kommende Games dieser Fehler nicht plötzlich auftaucht.

@ ngglai
Der Bug ist laut Dir b.z.w. FAQ schon seit Nvember 2001 bekannt.
Dann stellt sich jetzt die Berechtigte Frage warum der Bug noch vorhanden ist.
Ein halbes Jahr vergeht und nichts passiert.
MadOnion hat einen Patch geliefert und gebracht hat es nichts.
Jetzt werden sich einige Fragen warum nichts weitergeht und ob das bewusst von nVIDIA ist.

Auf der anderen Seiten haben einige ja beim Testen auch subjetiv gemerkt das die Karte langsamer wird.
Kurz ohne Splashscreen wird die Karte langsamer dargestellt als Sie wirklich ist.
Nur was passiert wenn das bei einen Game auftritt.
Das wäre dann schlecht und wenn das auch ein halbes Jahr dauert oder länger, dann sage ich nur darauf. Sauber.

Gruss Labberlippe

Bringhimup
2002-06-17, 18:39:17
Hier dann auch mal meine Ergebnisse.

System ist: AMD Athlon 1200 C, 512 MB DDR CL2, Geforce 4 Ti 4400 @275/550, 29.41er Treiber, WinME, 3DMark 2001 mit dem neuen Patch.

Ich habe nur Nature getestet. Davor wurde neu gebootet.

Mit Splash = 42,4 fps

Ohne Splash = 38,4 fps

also grob 10% weniger Leistung.

Gruss
Maik

jedi
2002-06-17, 18:48:12
Originally posted by Labberlippe
Auf der anderen Seiten haben einige ja beim Testen auch subjetiv gemerkt das die Karte langsamer wird.
Kurz ohne Splashscreen wird die Karte langsamer dargestellt als Sie wirklich ist.
Nur was passiert wenn das bei einen Game auftritt.
Das wäre dann schlecht und wenn das auch ein halbes Jahr dauert oder länger, dann sage ich nur darauf. Sauber.


Es gibt eben grundsätzlich keine 100% perfekte und 100% optimierte Software. Und ob man seine Ressourcen mit höchster Priorität ausgerechnet auf 3DMurks-Optimierung ansetzen sollte, ist sicher zweifelhaft.

Ich finde, hier steigern sich einfach ein paar Leute in eine völlig unwichtige Sache, dass sie den Sinn für Prioritäten verlieren. Es gibt sicher auch bei allen DX8-Spielen noch einige spezielle Stellen, wo man aus manchen Karten (gerade mit DX8-Shadern) noch ein paar Prozent Leistungssteigerung rausholen kann. Sowohl durch Optimierung der Treiber als auch durch Optimierung des Spielecodes. So was passiert dauernd. Nur kann man es eben nicht so differenziert nachmessen wie bei 3DMurks.

Fazit:

- 3DMurks ist für die Tonne. Aber das wussten wir auch schon vorher.

- Viel Lärm um nichts.

Labberlippe
2002-06-17, 18:52:04
Originally posted by jedi


Es gibt eben grundsätzlich keine 100% perfekte und 100% optimierte Software. Und ob man seine Ressourcen mit höchster Priorität ausgerechnet auf 3DMurks-Optimierung ansetzen sollte, ist sicher zweifelhaft.

Ich finde, hier steigern sich einfach ein paar Leute in eine völlig unwichtige Sache, dass sie den Sinn für Prioritäten verlieren. Es gibt sicher auch bei allen DX8-Spielen noch einige spezielle Stellen, wo man aus manchen Karten (gerade mit DX8-Shadern) noch ein paar Prozent Leistungssteigerung rausholen kann. Sowohl durch Optimierung der Treiber als auch durch Optimierung des Spielecodes. So was passiert dauernd. Nur kann man es eben nicht so differenziert nachmessen wie bei 3DMurks.

Fazit:

- 3DMurks ist für die Tonne. Aber das wussten wir auch schon vorher.

- Viel Lärm um nichts.

Das der 3DMurks für die Tonne ist wissen wir alle.
Tatsache ist aber das sogut wie alle Seiten den 3DMark zum Testen nehmen und das die Ergebnisse in der Bewertung mit einbezogen werden.

Gruss Labberlippe

Voodoo3Killer
2002-06-17, 18:54:05
Originally posted by jedi
Fazit:

- 3DMurks ist für die Tonne. Aber das wussten wir auch schon vorher.

- Viel Lärm um nichts.

1. Ja.

2. Nein.

Solange dieser Fehler nur im 3DMurks auftritt, von mir aus kein Problem, für andere aber auch schon dann.

jedi
2002-06-17, 18:55:30
Originally posted by Labberlippe
Das der 3DMurks für die Tonne ist wissen wir alle.
Tatsache ist aber das sogut wie alle Seiten den 3DMark zum Testen nehmen und das die Ergebnisse in der Bewertung mit einbezogen werden.


Das ist das Problem der "Seiten" und der Tester. Selber schuld, kann man da nur sagen.

jedi
2002-06-17, 18:58:57
Originally posted by Voodoo3Killer
Solange dieser Fehler nur im 3DMurks auftritt, von mir aus kein Problem, für andere aber auch schon dann.

Du hast mein Posting nicht ganz verstanden. Was meinst Du, wieviele unzähligen kleinen "Fehler" in allen Spielen vorkommen? Du kriegst davon nur nicht so viel mit wie in 3DMurks, wo Du jedes Detail in einem Output differenziert bis auf die Nachkommastelle präsentiert bekommst.

Labberlippe
2002-06-17, 18:59:23
Originally posted by jedi


Das ist das Problem der "Seiten" und der Tester. Selber schuld, kann man da nur sagen.

Schon Recht Jedi.
Wenn massiver Fehler ignoriert werden, finde ich das nicht witzig.
Die nVIDIA User sollten solche Probleme auch nicht mit blöder 3DMark abtun.

Gruss Labberlippe

Quasar
2002-06-17, 19:03:51
Originally posted by Labberlippe
Nur was passiert wenn das bei einen Game auftritt.
Das wäre dann schlecht und wenn das auch ein halbes Jahr dauert oder länger, dann sage ich nur darauf. Sauber.

AFAIR hat Demirug ja schon dargelegt, daß jeder vernünftige Progger diesen "Fehler" zu kennen und zu umgehen scheint, den er beim 3DMark und Z-Bag bei Max-Payne nachgewiesen haben.


Außerdem, AFAIK gibt's bei diversen Games auf diversen Karten anfangs Performance-Probleme, die dann durch einen (Wochen später) releasten Treiber gefixt werden. Sowas passiert, wenn man eine entsprechende Erkennung eben nicht im Treiber vernünftig integriert, sondern sie für jedes Game einzeln nachliefern muss.

ow
2002-06-17, 19:27:08
Falls jemand Interesse an weiteren merkwürdigen Deto-Erscheinungen hat: :D:D

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=23511

Xmas
2002-06-17, 19:40:29
Originally posted by Quasar
Das verstehe ich nicht Xmas. Du gehst von einem Bug aus, aber verneinst gleichzeitig die Symptome eines Bugs für diesen Fall.

BQ und Stabilität sind, soweit bekannt, nicht beeinträchtigt.
Nein, da hast du was falsch verstanden. Meine Antwort ist im Zusammenhang zu LLs Kommentar
"Andere Frage warum sollte nVIDIA den Bug beheben wenn beim Testen bis zu 400 Punkte mehr rausspringen."
zu sehen.

Wenn es ein Bug ist, dann sorgt er ohne Splashscreen für eine Reduzierung der Performance, und es liegt dann wohl auch im Interesse von NVidia, auch ohne Splashscreen die gleiche hohe Performance zu erreichen. Dann stellt sich eben die Frage, ob der Fehler bei MadOnion, NVidia oder Remedy liegt und wo die Prioritäten liegen.

Wenn es wirklich nur an dem D3DUSAGE_WRITEONLY-Flag liegt, dann weiß ich echt nicht mehr was ich davon halten soll...

Quasar
2002-06-17, 19:41:55
AH, jetzt ja!

ow
2002-06-17, 20:05:20
Ok, also zu meiner GF2MX mit deto 28.32 oder 29.42 (andere noch nicht getestet, hab den Fehler erst jetzt bemerkt):


mit screen

highpoly 1light 17.1 Mio
highpoly 8light 4.1 Mio

ohne screen

highpoly 1light 12.5 Mio
highpoly 8light 2.5 Mio


Nicht schlecht. Über 50% mehr polys bei 8 Lichtern. Hätte der MX soviel T&L Power gar nicht zugetraut.

ow
2002-06-17, 20:08:56
Originally posted by Xmas

Wenn es ein Bug ist, dann sorgt er ohne Splashscreen für eine Reduzierung der Performance ...


Nach meinen gerade gewonnene Erkenntnissen denke ich: es ist ein Bug.

Piffan
2002-06-17, 20:25:48
Originally posted by Labberlippe


Schon Recht Jedi.
Wenn massiver Fehler ignoriert werden, finde ich das nicht witzig.
Die nVIDIA User sollten solche Probleme auch nicht mit blöder 3DMark abtun.

Gruss Labberlippe

Du wolltest von mir eine Antwort. Aber worauf eigentlich?! ???

Ich habe dich angemacht, weil mir Deine Art auf den Sack geht, wie du eine sachliche Diskussion durch Hetze und Stimmunngsmache versaust bzw. Stunk machen willst....
Mit dem Inhalt will und muß ich mich nicht beschäftigen, weil ich meine Meinung schon zum 100ertsten Mal wiederholt habe: Ein Bug, keine Schummelei.

Dein aktuelles Post zeigt welch Geistes Kind Du bist.... Nur stänkern......

Es besstreitet niemand, das NV auch Scheiße baut, vom unsymphatischen Marketing (Bashing des Kyros) bis hin zu nicht einlösbaren Versprechen (ich erinnere noch mal, dass der G3 7x schneller war als der GTS),genauso ist es klar, daß der 3dMark nur zu Analysezwecken taugt, der Gesamtwert auch nix sagt, höchstens wie gut eine Graka mit einer betimmten Engine klarkommt..

Nv wird sicher nicht mit Samthandschuhen angefasst, es wird hier nur sachlich nach dem Grund der zugegebenermaßen peinlichen Affaire gesucht... Nv ist mir keineswegs sympathisch, allerdings schätze ich die Hardware sehr, weil sie mich noch nie enttäuscht hat :) Sogar der kritische aths ist entzückt von der Bildqualität bei hervorragender Praxistauglichkeit :)

Nur die Leute deiner Fraktion beharren stur auf der Schummelthese....Hast du nicht auch mal gesagt, dass einiges auf einen Hardwarefehler hindeute?! Eben solche Sprüche nerven total, sind Kinderkram und ziehen das Niveau vom Sachlichen in einen Kiddyflamewar....

Es ist eine Schlappe ohne Frage für NV, aber weil es letztlich togal ist, es handelt sich ja nur um den 3dMurks, muß man nicht tagelang darauf herumreiten. Mit dem Quack habe ich auch erst wieder angefangen, weil die üblichen Verdächtigen sofort von Schummelei sprachen....

Aber um auf dem Niveau noch zu verharren: Du meinst also, wenn der 3dMark einen Bug hat, dann würden auch andere Spiele betroffen sein? Ja dann nenne mir doch mal eins, wo es sowas vergleichbares gibt! Ich weiß nicht, wie es anderen Nv- Usern geht, aber ich kann trotzdem gut schlafen und freue mich über die tadellose Performance in allen Spielen, die ich besitze. (eine ganze Menge, kannste glauben) Den 3dMark benutze ich zu dem Zweck, zu dem er taugt: Zum Benchen nach Tweaking oder Übertaktungen....

Piffan
2002-06-17, 20:29:11
Originally posted by Xmas


Wenn es wirklich nur an dem D3DUSAGE_WRITEONLY-Flag liegt, dann weiß ich echt nicht mehr was ich davon halten soll...

Genau so geht es mir auch. Es passt nicht zusammen. Soviel Blödheit kann man einfach nicht unterstellen :D

Piffan
2002-06-17, 20:38:16
Originally posted by Labberlippe


Das der 3DMurks für die Tonne ist wissen wir alle.
Tatsache ist aber das sogut wie alle Seiten den 3DMark zum Testen nehmen und das die Ergebnisse in der Bewertung mit einbezogen werden.

Gruss Labberlippe

Ja und, was willste damit sagen? Schon wieder unterschwellig von der Schummelthese ausgehen? Nochmal: Der Bug verringert die Performance und tritt üblicherweise nicht auf, weil kaum einer auf den Bolzen kommt, den Splash abzuschalten!

Das ist das Perverse: Da liegt ein Bug vor, der die Performance für jeden deutlich sichtbar drückt (sogar meine Oma würde es sehen), da wird davon ausgegangen, dass der korrekte Wert erschummelt ist, der falsche, niedrige der Richtige sei.
Ist da nicht eindeutig der Wunsch der Vater des Gedanken?
Wer anderen Schummelei unterstellt, ist selbst schmutziger Tricks nicht abgeneigt, wie sonst sollte er es bei anderen immer mutmaßen? Zu schmutzigen Tricks gehört für mich auch das sture Beharren auf der Schummelthese ohne stichhaltige Beweise, oder wenn das nicht mehr klappt, dann redet man den Gegner anders mies "Was kann das nur für ne Firma sein, die solch einen Fehler nicht behebt, höhöhö"....

Es ekelt mich an...:(

Gerhard
2002-06-17, 20:47:15
@ow, interessant.
Wäre es möglich einmal mit deutlich reduzierten(halben oder/und viertelten) Core Takt zu benchen, sowohl mit als auch ohne Splashcreen.
Vielleicht sieht man dann ob es sich hierbei um eine Bandbreitensache oder Aufteilung der T&L arbeit zwischen Prozessor und GPU handelt.
Habe hier "nur" eine geforce2go, wo Taktänderungen (wohl wegen des Powermanagment) nicht möglich sind (aber auch das gleiche Verhalten festzustellen ist).

edit:
Zum downclock: habe den rivatuner gefunden, der zumindest bei mir eine Einstellung auf 80MHz erlaubt.
http://www.guru3d.com/files/rivatuner/

jedi
2002-06-17, 20:49:14
Leonidas,

Du hast ja gesagt, dass es Dir um die Sache ("3DMark-Splashscreen-Bug") geht und nicht gegen einen bestimmten Chiphersteller.

Warum verschiebst Du dann diesen Threads nicht dahin, wo er hingehört, nämlich ins Benchmarking-Forum?

Das wäre nur konsequent.

ow
2002-06-17, 20:54:28
Also da muss sich erst nach Tools kramen. Unter 155/145 Core/RAM geht´s mit dem Deto nicht.

Reduziert den Wert von

17,3 auf 15,5 mit Splash und
12,5 auf 11,1 ohne Splash


/edti: womit krieg ich den Takt denn tiefer? NVMax scheint nicht zu funzen, oder kann ich das nur nicht bedienen?

zeckensack
2002-06-17, 20:55:13
Originally posted by Piffan
Genau so geht es mir auch. Es passt nicht zusammen. Soviel Blödheit kann man einfach nicht unterstellen :D Dann bitte ich dich (und andere NVIDIA-User), doch mal die neue Version von 3DAnalyze auf den Murks zu kloppen. Damit sollten wir der Frage "liegt's jetzt an diesem WRITE_ONLY Flag ???" auf den Grund gehen können.

Wenn's tatsächlich an der 'Dummheit' der Murks-Programmierung liegt, dann können wir die Sache endlich eintüten und zu den Akten legen :)

Piffan
2002-06-17, 21:02:10
Originally posted by zeckensack
Dann bitte ich dich (und andere NVIDIA-User), doch mal die neue Version von 3DAnalyze auf den Murks zu kloppen. Damit sollten wir der Frage "liegt's jetzt an diesem WRITE_ONLY Flag ???" auf den Grund gehen können.

Wenn's tatsächlich an der 'Dummheit' der Murks-Programmierung liegt, dann können wir die Sache endlich eintüten und zu den Akten legen :)

Ja, eine gute Idee. "Abe isch habe keine Anung"........Andere sind da wohl fitter. Als Spieler und User (:D) ist mir das Einarbeiten in die Materie verwehrt, habe auch noch Beruf und Kinder (liegen zwar schon im Bett, aber nun will ich Zocken!).....

Aber eines ist klar: Leute wie LL geben eh keine Ruhe, die ziehen sich dann immer noch an der Sache hoch....

Labberlippe
2002-06-17, 21:09:31
Du wolltest von mir eine Antwort. Aber worauf eigentlich?! ???

Das habe ich schon geschreiben.


Ich habe dich angemacht, weil mir Deine Art auf den Sack geht, wie du eine sachliche Diskussion durch Hetze und Stimmunngsmache versaust bzw. Stunk machen willst....
Mit dem Inhalt will und muß ich mich nicht beschäftigen, weil ich meine Meinung schon zum 100ertsten Mal wiederholt habe: Ein Bug, keine Schummelei.

Meinereiner hat Fragen gestellt und keine plumpen anmachen in den Raum gestellt.
Auch ich habe erwähnt das es ein Bug ist.
Das kannst Du auch hier nachlesen, ich habe immer mehrer Varianten in Betracht gezogen.
Meine Postings lesen und versuchen zu verstehen worum es mir geht.
Ich habe auch hier sehr wohl mitgebencht und versucht mit Fragen das ganze beurteilen.
Was kam raus eine Sachlich Diskussion.


Dein aktuelles Post zeigt welch Geistes Kind Du bist.... Nur stänkern......
Deine direkten Beleidungen kannste mal gleich sein lassen.
Wo habe ich gestänkert ???
Ich habe Fragen aufgeworfen und diese mittlerweile begründet.


Es besstreitet niemand, das NV auch Scheiße baut, vom unsymphatischen Marketing (Bashing des Kyros) bis hin zu nicht einlösbaren Versprechen (ich erinnere noch mal, dass der G3 7x schneller war als der GTS),genauso ist es klar, daß der 3dMark nur zu Analysezwecken taugt, der Gesamtwert auch nix sagt, höchstens wie gut eine Graka mit einer betimmten Engine klarkommt..

Dann hoffen wir mal das der bestimmte Fehler nicht auf andere Engine übertragbar ist.
Um das geht es mir.
Fakt ist da ist ein Bug vorhanden.


Nv wird sicher nicht mit Samthandschuhen angefasst, es wird hier nur sachlich nach dem Grund der zugegebenermaßen peinlichen Affaire gesucht... Nv ist mir keineswegs sympathisch, allerdings schätze ich die Hardware sehr, weil sie mich noch nie enttäuscht hat :) Sogar der kritische aths ist entzückt von der Bildqualität bei hervorragender Praxistauglichkeit :)
Auch ich habe mehrmals erwähnt das die GeForce4 Serie eine Top Karte ist.
Was das aths Argument jetzt hier zu tun.
Das die nVIDIA Hardware nicht die schlechteste ist habe ich nie behauptet.


Nur die Leute deiner Fraktion beharren stur auf der Schummelthese....Hast du nicht auch mal gesagt, dass einiges auf einen Hardwarefehler hindeute?! Eben solche Sprüche nerven total, sind Kinderkram und ziehen das Niveau vom Sachlichen in einen Kiddyflamewar....

Ich gehöre keiner Fraktion an.
Ich kaufe die HW welche ich benötige.
Wenn ich irgendwo einen Fehler sehe dann möchte es gerne hinterfragen.
Deine Fraktion hingegen sieht alles gleich als persönlichen angriff an.


Es ist eine Schlappe ohne Frage für NV, aber weil es letztlich togal ist, es handelt sich ja nur um den 3dMurks, muß man nicht tagelang darauf herumreiten. Mit dem Quack habe ich auch erst wieder angefangen, weil die üblichen Verdächtigen sofort von Schummelei sprachen....
Ob es eine schlappe ist werden wir noch sehen.
Wenn der Bug behoben wird ist alles ok.
Richtig wurde mit Quack angefangen.
Klar ablenken und als letzte Alternative wird 3DCenter Direkt und die Mods angegriffen.
Grund?? Keine Ahnung allerdings haben am Anfang alle versucht zu helfen und zu benchen.


Aber um auf dem Niveau noch zu verharren: Du meinst also, wenn der 3dMark einen Bug hat, dann würden auch andere Spiele betroffen sein?

Nein habe ich nicht gesagt.
Ich sagte das wenn eine solche ähnliche Situtation bei einen Game wäre, dann würden die GeForce Karten unter Ihrer Leistung sein.


Ja dann nenne mir doch mal eins, wo es sowas vergleichbares gibt! Ich weiß nicht, wie es anderen Nv- Usern geht, aber ich kann trotzdem gut schlafen und freue mich über die tadellose Performance in allen Spielen, die ich besitze. (eine ganze Menge, kannste glauben) Den 3dMark benutze ich zu dem Zweck, zu dem er taugt: Zum Benchen nach Tweaking oder Übertaktungen....

Ich sagte wenn so etwas auftritt.
Es freut mich für Dich wenn Du Dich über deine Karte freust aber wenn jemand eine andere Meinung hast dann brauchst nicht gleich auf die provokative Seite kommen.

Gruss Labberlippe

aths
2002-06-17, 21:15:34
Originally posted by Quasar
aths,
edit: Hat sich ja geklärt.

Piffan
2002-06-17, 21:33:52
Originally posted by Labberlippe




Meinereiner hat Fragen gestellt und keine plumpen anmachen in den Raum gestellt.
Auch ich habe erwähnt das es ein Bug ist.
Das kannst Du auch hier nachlesen, ich habe immer mehrer Varianten in Betracht gezogen.
Meine Postings lesen und versuchen zu verstehen worum es mir geht.
Ich habe auch hier sehr wohl mitgebencht und versucht mit Fragen das ganze beurteilen.
Was kam raus eine Sachlich Diskussion.




Na dann.... Habe wohl manche Äußerungen total in den falschen Hals bekommen.... Dann tut es mir sehr leid für die gemeinen Unterstellungen.... Wie du schon sagst, eine ganz linke Tour von mir...Wo Du so sauber und frei von unterschwelligen Tönen schreibtst, haste so eine plumpe Tour echt nicht verdient.... :stareup:

Genauso bin ich tief zerknirscht, dass ich Kritik an Leo geübt habe... Ist unerhört und kommt nicht wieder vor. Für heute zumindest *eg*

Quasar
2002-06-17, 22:25:33
So, ich habe jetzt zum zweiten Mal die 3D-Analyze Beta runtergeladen und nachgemessen (falls denn die fragliche Option Force Write-only VB's war).

Ergebnis: dasselbe wie vorher.

Der Unterschied zwischen "mit" und "ohne" ist nach wie vor vorhanden, entweder funzt das Tools also noch immer nicht richtig, oder es liegt nicht an der o.g. Option.

ow
2002-06-17, 22:28:48
Hilft auf meiner MX auch nichts.

Unregistered
2002-06-17, 22:37:19
Originally posted by Labberlippe
Wenn der Bug behoben wird ist alles ok.


Du meinst, wenn die Applikationserkennung nicht mehr über den Splash-Screen erfolgt, ist alles OK?

Sicher, solange das Fussvolk nichts von Optimierungen (in diesem Fall bei einem Benchmark, wo applikationsspezfische Optimierungen im Gegensatz zu z.B. Quake nichts bringen) merkt, ist die Welt ja in Ordnung, gell.

Quasar
2002-06-17, 22:46:23
Mal ehrlich: Meinst du im Ernst, die Hersteller nehmen sich was in Bezug auf Optimierungen und so? ...

edit:
Und wenn du dich wirklich mit der Sache beschäftigt hättest, würdest du wissen, das der Quack-Cheat dem Spieler eine schlechtere BQ aufgezwungen hat.

Xmas
2002-06-17, 23:45:07
Ich hatte mir in der Zwischenzeit schon ein paar Gedanken zum Thema gemacht und wollte die auch Posten, allerdings kam vorher Demirug mit seiner Vermutung, und wenn die sich Ursache herausgestellt hätte wären meine Überlegungen über den Haufen geworfen worden. Aber da das Writeonly-Flag doch keinen Unterschied zu machen scheint, poste ich das jetzt doch.

Also, warum ich denke dass es sich hier nicht um eine 3DMark-spezifische Optimierung handelt:
Irgendwie ist das schizophren. Man traut den NVidia-Treiberprogrammierern zu eine Optimierung zu finden die den Nature-Test um 1/3(!) schneller laufen lässt, gleichzeitig hält man sie aber für so blöd, den 3DMark an einem abschaltbaren Feature erkennen zu wollen? (Und ich stimme hier mit ow's Meinung überein, dass zumindest ein paar "professionelle" Reviewer den Splashscreen abschalten)
Finde ich sehr unrealistisch. Wenn sie es hinbekommen würden, den 3DMark am Splashscreen zu erkennen (was ich für gar nicht so einfach halte), dann würden sie auch noch Dutzende andere Möglichkeiten finden, die viel simpler sind und die man nicht abschalten kann, selbst wenn es nicht um das Erkennen der Applikation sondern des jeweiligen Tests geht.

Zudem betrifft es nicht nur den Nature-Test. In manchen Ergebnissen die hier gepostet wurden gibt es auch noch andere signifikante Unterschiede. Aber nicht überall dieselben. Was soll das denn sein? Optimierung auf Zufallsbasis? Ein solch unregelmäßiges Verhalten ist ein sehr guter Indikator für einen Bug.

Quasar
2002-06-17, 23:51:40
Gerade die Abfälle im Hi-Poly-Count und bei André im Dragothic-High (höchster Polycount in den Game-Benches) spräche eigentlich für eine Nicht-Initialisierung (oder Fehlinitialisierung) im Load-Balancing der Vertex-Shader.

Piffan
2002-06-18, 00:20:42
Originally posted by Quasar
Gerade die Abfälle im Hi-Poly-Count und bei André im Dragothic-High (höchster Polycount in den Game-Benches) spräche eigentlich für eine Nicht-Initialisierung (oder Fehlinitialisierung) im Load-Balancing der Vertex-Shader.

Irgendwie kommt mir das alles so bekannt vor :D

Naja, ich habe ja nur spekuliert und weis nix genaues, sprach auch nicht vom Balancing, sondern von fehlerhafter Funktion der Vertexshader... aber vielleicht habe ich ja doch die richtige Nase... Mir kam es jedenfalls auch putzig vor, daß beim Nature der Einbruch durch den Splash dann augenfällig ist, wenn die wogenden Gräser zu sehen sind, also bei Vertexshader- Tätigkeit.....Beim "Seeblick" ist die Framezahl dann wieder unauffällig, also bei Pixelshader- Aktivität...

An dem Flag muß man schon deswegen Zweifeln, weil es schlicht zu simpel wäre und außerdem dann nicht nur einige bestimmte Benches zersemmelt hätte....

Was mir auch auffiel: Ich hatte mal eine Menge Probs mit den Treibern, konnte einfach keinen Treiber der Version 23.11 oder höher aufspielen, war schlicht unbrauchbar. Unter anderem fiel mir mehrfach auf, dass dann auch der Splash erst gar nicht auftauchte, im Bench dann extreme Hänger und Ruckler waren bis hin zu Grafikfehlern...

Gestern habe ich die AGP- Aperture mal auf 256 erhöht (sonst immer 128). Die Folge war wieder das alte Leiden: Splash weg und Performance katastrophal mit Ruckelei und Standbildern.....

Die Sache ist so chaotisch, dass man mit "Hausmittelchen" der Krankheit wohl nicht zu Leibe rücken kann.....Selbst die Profis vom verrückten Gemüse und Nv haben es bis heute ja nicht geschnallt...

aths
2002-06-18, 00:33:39
Originally posted by Xmas
Ein solch unregelmäßiges Verhalten ist ein sehr guter Indikator für einen Bug. Öhm, ja. Die Frage ist doch aber, was ruft diesen Bug hervor? Warum kann das Abschalten der Splash-Screens die Leistung so drastisch drücken?

Ein Cheat von NV anhand der Screen ist tatsächlich nicht anzunehmen, da man über den Namen der EXE-Datei oder auf anderen Wegen den 3DMark viel einfacher erkennen kann.

Und warum steigen die fps beim Nature-Test bei oc überproportional an? Ist der gesamte Nature-Test so verbuggt das man den kein bisschen mehr ernst nehmen kann? Aber es betrifft ja eben nicht nur Nature, sondern auch die anderen Tests; wenn auch nur sehr wenig. (Bis auf einige Ausnahmen allerdings.)

Fragen über Fragen, und keine Antworten. Da könnte man glatt melancholisch werden.

tb
2002-06-18, 00:34:06
Hat mal jemand 3D-Mark 2001 SE + GeForce 3/4 Karte mit den verschiedenen "Rendering Pipeline" Einstellungen(Pure HW, HW TnL, SW TnL) getestet, ob der Splash Screen auf alle die gleiche Wirkung hat?

Gruß
Thomas

Piffan
2002-06-18, 00:43:33
Originally posted by aths
Und warum steigen die fps beim Nature-Test bei oc überproportional an? Ist der gesamte Nature-Test so verbuggt das man den kein bisschen mehr ernst nehmen kann? Aber es betrifft ja eben nicht nur Nature, sondern auch die anderen Tests; wenn auch nur sehr wenig. (Bis auf einige Ausnahmen allerdings.)

Fragen über Fragen, und keine Antworten. Da könnte man glatt melancholisch werden.

Wenn der Naturetest so völlig buggy wäre, warum hat dann der Radeon diese Probs nicht?

Piffan
2002-06-18, 00:47:31
Originally posted by tb
Hat mal jemand 3D-Mark 2001 SE + GeForce 3/4 Karte mit den verschiedenen "Rendering Pipeline" Einstellungen(Pure HW, HW TnL, SW TnL) getestet, ob der Splash Screen auf alle die gleiche Wirkung hat?

Gruß
Thomas

Jepp, habe ich gestern gemacht. Da tritt der Bug nicht auf bei Software- TL, bei den anderen Hardwaremodi schon! Lustig ist auch, daß auf meinem AthlonXP-System der Softwaremodus unerheblich langsamer ist als der Hardwaremodus....



Bei einer AGP- Aperture von unter 16 mb tritt er auch nicht deutlich auf, da ist die Performance mit und ohne Splash gleich miserabel (um die 24 FPS), bei großer Aperure bei 36/27.....

Controllator
2002-06-18, 08:37:34
Moin zusammen,

habe dies gerade bei http://www.nvnews.net/index.shtml gefunden:

Just received an email from reader Rob Barrow concerning the 3D Mark 2001 bug in NVIDIA's drivers.
This was a bug with our drivers. The bug has been fixed. We are sorry but we can not get into the details of the bug however it was not a cheat. The fix should be introduced in our next driver release.

NVIDIA Support

ow
2002-06-18, 09:13:55
Originally posted by Xmas
(Und ich stimme hier mit ow's Meinung überein, dass zumindest ein paar "professionelle" Reviewer den Splashscreen abschalten)


:bawling:

Und ich hab noch nie die volle Power meiner Gf2MX erfahren, weil ich den Splash noch NIE eingeschaltet hatte.


btw: hab gestern die MX noch mal intensiver gebencht:


Einschalten des Splashs beeinflusst scheinbar ALLE Game-Szenen, die Werte steigen um nichts;) bis geringfuegig.
Der Score mit Splash: 2690/2691 und ohne Splash 2620/2630.

Diese 4 Scores wurden ohne PC- oder 3DMark-Neustart hintereinander ermittelt.


/edit:


Selbiger Effekt tritt uebrigens bei mir auch im originalen 3DM2k1 (also ohne SE) exakt genauso auf.

Unregistered
2002-06-18, 12:15:27
Originally posted by Piffan


Na dann.... Habe wohl manche Äußerungen total in den falschen Hals bekommen.... Dann tut es mir sehr leid für die gemeinen Unterstellungen.... Wie du schon sagst, eine ganz linke Tour von mir...Wo Du so sauber und frei von unterschwelligen Tönen schreibtst, haste so eine plumpe Tour echt nicht verdient.... :stareup:

Genauso bin ich tief zerknirscht, dass ich Kritik an Leo geübt habe... Ist unerhört und kommt nicht wieder vor. Für heute zumindest *eg*

Gut dann betrachten wir die Sache als erledigt.

:)

Man dankt für einen Hauch Ironie. :D

Gruss Labberlippe

Unregistered
2002-06-18, 12:17:49
Hi

Neue Variante.

Angenommen nVIDIA verlässt sich einfach bei der Treiberprogrammierung auf den Standart von D3D.
Die anderen Hersteller versuchen einfach zu optimieren und haben diesen Bug im vorhinein ausgeschlossen.

Dann könnte es auch ein Fehler von MadOnion sein und nVIDIA hat sich einfach bis jetzt nicht darum gekümmert da laut D3D Spec. eh alles in Ordnung ist.

Hmmmmm

Gruss Labberippe

Birdman
2002-06-18, 12:29:00
Wenn man bedenkt, dass die Ati8500 damals mit einer treiberversion gleich mal massig mehr fps im Nature Mark rausgeholt war (weiss aber nimmer welche Version das mitbrachte) kann man schon annehmen dass in diesem test ein BUG (oder eben dieses Flag) drin ist.
Ati hatte das mit diesem einem Treiber behoben, evtl. auch an einer Erkennung oder einfach dass der Treiber die Daten immer zuerst vorsortiert, egal ob das die App auch macht oder ned.
NV war evtl. so schusselig, diese ganze Sache an den Splashscreen zu knüpfen oder davon abhängig zu machen.

Das wäre imho auch eine Erklärung, wieso die Ati8500 mit den ersten treibern so saumies im nature bench war, und mittlwerweile auf NVniveau ist....

Piffan
2002-06-18, 13:03:29
Originally posted by Unregistered


Gut dann betrachten wir die Sache als erledigt.

:)

Man dankt für einen Hauch Ironie. :D

Gruss Labberlippe

Ein "Hauch" Ironie :lol::lol:

Danke ebenfalls :D

Piffan
2002-06-18, 13:09:17
Originally posted by Unregistered
Hi

Neue Variante.

Angenommen nVIDIA verlässt sich einfach bei der Treiberprogrammierung auf den Standart von D3D.
Die anderen Hersteller versuchen einfach zu optimieren und haben diesen Bug im vorhinein ausgeschlossen.

Dann könnte es auch ein Fehler von MadOnion sein und nVIDIA hat sich einfach bis jetzt nicht darum gekümmert da laut D3D Spec. eh alles in Ordnung ist.

Hmmmmm

Gruss Labberippe

Glaube ich nicht. Wahrscheinlich sind die Ati- Progger doch besser als ihr Ruf und haben einen anderen Indikator als ausgerechnet des Splashscreen gewählt! Nv hats halt versaut, soll vorkommen sowas!

Nee, im Ernst: Ich kann mir auch vorstellen, dass der Nature besonders buggy ist. Denn wie hier eben Birdman postete, gabs auch bei Ati mal einen kräftigen Schub mit einem neuen Treiber, so wie bei NV ja auch...Da habe beide den Bug vom Nature ausgebügelt, nur war Ati nicht gar so dämlich... Andererseits: Es ist nicht anzunehmen, dass man bei NV soooo blöd sein kann. Also für mich ist die Sache spannend! :D

Haarmann
2002-06-18, 20:32:48
OW hat doch auch mit seiner MX eigenartige Polygonwerte mit resp ohne Splash erhalten... Es hängt kaum nur am Nature Teil...

ow
2002-06-18, 22:25:30
Das ist richtig. Es betrifft die T&L Einheit generell.

Die Einzelbenche, Gf2MX, Xp1700, Det 28.32:

3DMark2k1SE default
mit/ohne/mit/ohne

Score: 2690/2620/2691/2630

Gamesszenen:
car chase
42.1/41.2/41.9/41.3
23.4/22.6/23.2/22.9

dragothic
45.1/42.9/45.0/43.0
22.9/22.6/22.9/22.5

lobby
41.4/40.7/41.6/40.8
23.9/23.4/24.3/23.6

fillrate

immer
188,2
328,6

poly count
17.4/12.7/17.4/12.7
4.1/2.5/4.1/2.5

DOT3

immer 24.6

VS

immer 31.3

point sprites

5.2/4.9/5.2/4.9


Ist schon durchweg leicht unterschiedlich (und reproduzierbar).:D

Unregistered
2002-06-22, 20:50:01
der bug soll mit den nächsten treibern behoben sein!!!

http://www.theinquirer.net/21060214.htm

Alien
2002-06-23, 21:19:35
Hi, ich glaub fast, da sind 2 Bugs, zum einen die niedrigere Punktzahl, wenn man die Splashscreens ausschält, hier sind dann alle Benchs etwas niedriger, o.k. der Nature besonders.
Dann gibt´s da noch nen anderen Nature-Bug:
Damals war´s bei mir so, dass ich sobald ich die HZ-Zahl von 60 auf 100 änderte einen enormen Leistungseinbruch im Naturetest zu verzeichnen hatte (ca. 10FPS weniger), das war allerdings mit ner GF3, nun mit GF4ti4600 spielt das keine Rolle mehr, welche HZ-Zahl mein Monitor darstellen muss, aber ich hab gestern den VIA_AGP_420 Treiber installiert und was soll ich sagen, der Naturetest-Bug ist wieder da (auch F1 2002 lief deutlich langsamer, laut Fraps), also den VIA_AGP_410b drauf und der Naturebug ist wieder weg.
Mit der GF4Ti4600 hab ich mit AGP410b=52.1FPS, AGP420=43FPS.
Vieleicht hat da noch ein Dritter seine Finger mit im Spiel?

[BlizZarD]
2002-06-27, 03:17:18
alien den nature bug hab ich auch

deto 29,42 und 29,80 beim 3dmark;
bug beim nature bench wenn ich windows neu starte 3dmark 2001 an und nur den nature bench fahre habe ich 36 fps avg nun kommts wenn ich aber den kompletten bench fahre alle benchs habe ich beim nature nur noch 25 fps avg wenn ich dann wieder nur alleine den nature fahre auch nur noch 25 fps avg voll lol wenn ich nun von t&l hardware auf software stelle habe ich 36 fps und wenn ich dann wieder win neustarte und nur nature fahre habe ich wieder 36 fps avg hä mit
hardware TL und das gleiche spiel von vorne selbst wenn ich gleich nach win neustart den kompletten mark druchlaufen lasse nature = 25 fps avg

ist beim deto 23,11 nicht

Alien
2002-06-27, 09:13:02
Hi, da bin ich auch noch am ausprobieren, jetzt hab ich festgestellt (hab Terratec DMXXfire 1024), dass wenn ich von Quadspeed Lautsprecher auf Stereolautsprecher umschalte, das das bei z.B. F12002 ca. 15% Leistung bringt.
Bei 3DMark ist das natürlich nicht ausschlaggebend.

Ich kann jetzt eigentlich nur raten:

-versuch mal andere Versionen des VIA AGP Treibers.
-Lass 3DMark2001 mal mit 60Hz laufen und stell davor im Windows den Monitor auch mal auf 60Hz.
Ich nehm an, du hast ne GF3Ti200, hatte ich auch mal, da waren die Hz-Einstellungen schuld, jetzt bei der GF4Ti4600 ist´s der VIA Treiber.

Alien
2002-06-27, 09:17:46
Oh Gott Quadspeed Lautsprecher??????, die schnellsten Lautsprecher seit es Töne gibt, das sollte dann nur Quadlautsprecher heissen.
Ha, in deinem Posting steht ja die Hardware, mmhhh, gut getippt.

Unregistered
2002-07-20, 22:31:10
scheint ja niemanden mehr zu interessieren, aber mit dem 30.30 treiber wurde (zumindest bei mir) der splashscreenbug endgültig behoben, die ergebnisse sind mit und ohne nun bis auf ein paar pünktchen identisch

ow
2002-07-20, 22:59:09
:D

Ist doch klar: gefixte Bugs interessieren keinen mehr und der Cheat-Vorwurf gegen NV ist nun auch nicht mehr haltbar.


btw. auch auf meiner Gf2MX wurde der Bug mit dem 30.30 gefixt.
Die Polygon-Tests (s. auch oben) laufen jetzt viel flüssiger ohne Splashscreen (mit Bug 12,5/2,5Mio, ohne Bug 17,5/4,1Mio)

Voodoo3Killer
2002-07-21, 00:04:51
Allerdings sollte NV dann auch offiziell einen Treiber anbieten der gefixt ist.

ow
2002-07-21, 00:29:09
Der 30.30 ist offiziell.

Einfach mal den Kartenhersteller fragen.
NV ist nicht für Treiber zuständig.