PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3DMark 05 alles nur gelogen!?


r3ptil3
2005-01-16, 04:38:37
Hi! ich denke und bin mir da ziemlich sicher das 3D Mark 05 nicht die eigentlich leistung der Hardware testet sondern alles nur simuliert, warum ich darauff gekommen bin ? einfach aus dem Grund weil z.b. wie schafft es ATI auf einmal über 1000punkte+ mit einem treiber zu erzielen (das ist aber nicht das hauptsächliche wiso ich das meine) , und wen man z.b. 25fps hat läufts noch flüssig und wen es auf 24fps rutscht dan ruckelt es aufeinmal, normalerweis sollte es weich schon bei so ca. 28 und dan langsam immer mehr ruckeln bei 27 26 25 24, doch bei 3d mark 05 ist es nur wen es unter 25fps fällt dan ruckelts richtig! --||| oder einmal als ich 3d mark 05 laufen liess lief alles FLÜSSIG echt butterflüssig in jedem einzelnen benchmark, und da war es wohl klar für mich warum dieser benchmark nicht die wirkliche power des system testet, nicht das ich denke das man mehr power erzielt oder so! z.b. eine X800 PRO kam mit dem cat. 4.9 bei 3d mark nur auf 4000 punkte ca. und mit dem catalyst 4.10 aufeimal auf über 5000 das ist schon verdammt komisch da ja die eingentliche power in der hardware liegt und nicht in den treiber, treiber sollten ja normal nur da sein falls es fehler in spielen gibt oder so! und wirklich grafikhungrig sieht doch die engine von 3d mark 05 auch wieder nicht aus (es sieht sehr gut aus) doch wie z.b. doom 3 oder so kann man auch sehr flüssig auf einer 9800 PRO spielen!

was denkt ihr dazu?
ps: ich bin nicht ATI feindlich weil ich ja selber eine X800 PR0 habe, nur denke ich das ATi irgendwelche beziehungen hat mit den entwicklern von 3d mark , so ein gerücht hat man ja auch schon bei 3d mark 03 mal gehört weil ja die FX reihe so schlecht abschnitt und Nvidia dan mit einem entsprechenden "treiber" wieder eine ordentlich leistung erzielte!

Cenmocay
2005-01-16, 05:10:24
die ati´s sind in direct 3d so gut wie immer sieger also gibts nix zu meckern

ist doch normal das man aufeinmal mehr punkte hat denn man kann hardware auf eine bestimmte software optimieren

r3ptil3
2005-01-16, 05:16:54
ich habe es schon erwähnt das es mir nicht um die treiber geht sondern das 3d mark 05 kein richtiger benchmark ist wie aquamark, weil alles nur simuliert wird! 3D Mark 05 ist in meinen augen nur ein benchmark der werte ausspuckt die festeingestellt worden sind!

tombman
2005-01-16, 08:16:59
da ja die eingentliche power in der hardware liegt und nicht in den treiber,

FALSCH!

wirklich grafikhungrig sieht doch die engine von 3d mark 05 auch wieder nicht aus (es sieht sehr gut aus) doch wie z.b. doom 3 oder so kann man auch sehr flüssig auf einer 9800 PRO spielen!

Also wenn du 3dm05 mit Doom3 vergleichst hast du nicht viel Ahnung was viel Rechenleistung erfordert und was wenig. 3dm05 sieht um Welten besser als D3 aus.

Muh-sagt-die-Kuh
2005-01-16, 09:29:32
ich habe es schon erwähnt das es mir nicht um die treiber geht sondern das 3d mark 05 kein richtiger benchmark ist wie aquamark, weil alles nur simuliert wird! 3D Mark 05 ist in meinen augen nur ein benchmark der werte ausspuckt die festeingestellt worden sind!Die Formel für den 3DMark Wert sollte bekannt sein, das ist nicht mehr als eine gewichtete Summe der der durchschnittlichen FPS alls Game-Tests. Die FPS werden am Ende ausgespuckt, du kannst sie mit Fraps näherungsweise überprüfen. Mal sehen ob du danach immer noch der Meinung bist, dass das Programm einfach nur Werte ausspuckt.

Kladderadatsch
2005-01-16, 10:05:15
FALSCH!


:confused:

Majestic
2005-01-16, 11:26:33
Ich denke mal schon das ATI mit den X800 Karten nen kleinen Punktebonus bei 3DMurks05 hat (warum auch immer). Was aber meiner Meinung nach nicht viel mit der Spielewirklichkeit zu tun hat. Denn dort geben sich NV und ATI nicht wirklich viel Sachen Performance..... 3dmurks ist und wird immer nur ein "Schwanzlängenvergleich" sein. Nicht mehr und nicht weniger....

Spasstiger
2005-01-16, 11:37:02
Die Treibergeschichte war doch bei Nvidia genau so. Mit einem Schlag wurden plötzlich 500-1000 Punkte mehr erzielt.
Dies hat ganz einfache Gründe: Die Treiber, die zum Release von 3DMark 05 verfügbar waren, waren die ersten Treiber, die die neue Grafikkarten-Generation unterstützten. In den nachfolgenden Treibern wurde das Leistungspotential besser ausgenutzt. Bei den X800 Karten mit GDDR3-Ram gab es zudem nach Aussagen von ATI einen Bug bei der Verwaltung des Speichercontrollers, der behoben wurde. Und tatsächlich profitierte nicht nur 3DMark05 davon. Vergleiche z.B. die Performance in Doom 3 mit einem älteren Treiber, der noch keine aktuellen Optimierungen für die X800 Reihe enthielt (z.B. Cat. 4.7) mit dem aktuellsten. An der Bildqualität dir mit bloßem Auge dabei wahrscheinlich gar nichts auffallen.

TheCounter
2005-01-16, 12:26:20
:confused:

Es liegt an beiden, ist der Treiber unoptimiert oder voller Bugs kann die Karte ihre Vorteile nicht ausspielen. Ich glaub das wollte er damit sagen ;)

Ailuros
2005-01-16, 12:34:14
Ein heutiges Spiel a la 3dmark05 waere quasi unspielbar, ausser man hat einen bestimmten Koller fuer niedrige Aufloesungen, unendliches Gruseln und verwaschene Texturen.

Wie oft purzelt ein heutiges high end System genau in den "single-digit-framerate" Bereich und das bei 1024 ohne AA/AF?

Ob FutureMark sich mit 3dmark05 nun in den Fuss geschossen hat oder nicht, werden wir wohl in der Zukunft sehen. Ich will trotz allem bezweifeln dass Entwickler so stark die VS Einheiten ueberfoerdern werden in der absehbaren Zukunft....

r3ptil3
2005-01-16, 12:38:34
ihr versteht mich nicht ganz wie ich das gemeint habe! ich denke und bin mir da ziemlich sicher das 3d mark extra ruckelt , nur um zeigen zu können das der benchmark auch für die zukunft ist...

Spasstiger
2005-01-16, 12:53:02
ihr versteht mich nicht ganz wie ich das gemeint habe! ich denke und bin mir da ziemlich sicher das 3d mark extra ruckelt , nur um zeigen zu können das der benchmark auch für die zukunft ist...

Nein, der Benchmark ruckelt aufgrund der anspruchsvollen Technik (z.B. über 1 Mio. Polygone/Frame, Softshadows in Echtzeit, elend lange Shader-Codes).

Shagnar
2005-01-16, 13:02:51
Der Mark ist nur gut um das System nach dem Übertakten auf Stabilität zu testen... wobei, wenn man ne neue Graka in seinen PC einpflanzt dann lässt sich mit 3d Mark schon rausfinden wieviel Mehrleistung die neue Graka hat in etwa...

Ailuros
2005-01-16, 13:36:28
Nein, der Benchmark ruckelt aufgrund der anspruchsvollen Technik (z.B. über 1 Mio. Polygone/Frame, Softshadows in Echtzeit, elend lange Shader-Codes).

Mit einer etwas verdrehten/vereinfachten Logik hat er aber auch nicht unbedingt unrecht. Wie lang sind denn ueberhaupt die Shader-codes? Die Uebertreibung liegt im eher im Vertex-Bereich und wie gesagt wird es sich zeigen ob FutureMarks "Spekulation" realistisch war oder nicht.

Von dem was ich von Entwicklern generell bis jetzt lesen kann, sieht es wohl doch eher nach einer Uebertreibung aus und diesem sehr relativem Sinn hat man tatsaechlich die Anwendung synthetisch ueberfoerdert.

Zwar will ich von den eckigen Koepfen in sagen wir mal Doom3 nicht mehr viel in der Zukunft sehen, aber es gibt auch bessere Wege die Bildqualitaet zu erhoehen als gnadenlos mit VS zu uebertreiben.

-error-
2005-01-16, 13:47:27
Ich würde lieber mal erklärt haben, warum die Nvidias mit Intelprozessoren eine höhere Performance abgeben, als wenn man einen A64 nehmen würde.

aths
2005-01-16, 17:28:38
Ich würde lieber mal erklärt haben, warum die Nvidias mit Intelprozessoren eine höhere Performance abgeben, als wenn man einen A64 nehmen würde.Hängt das mit Intel oder mit HTT zusammen?

3d
2005-01-17, 14:53:30
mich würde mal interessieren wann der CPU test flüssig laufen wird (also etwa 25FPS)
meint ihr wir werden es noch erleben?

ich hab mit nem xp3200 im durchschnitt 1 FPS, ist das nicht geil? :rolleyes:

nichts gegen hardware-intensive programme, aber man kanns auch übertreiben.

Mr. Lolman
2005-01-17, 15:12:00
Ich glaub kaum , dass irgendein GraKahersteller beim 3dmark für irgendwas Extrapunkte bekommen sollte. Die Leistungsunterschiede finden sich je nach Spiel(situation) tw. 1:1 wieder...

MadManniMan
2005-01-17, 21:07:18
Also wenn du 3dm05 mit Doom3 vergleichst hast du nicht viel Ahnung was viel Rechenleistung erfordert und was wenig. 3dm05 sieht um Welten besser als D3 aus.

Ist Aussehen tatsächlich sooo objektivierbar :|

TheGood
2005-01-17, 23:10:55
Mit einer etwas verdrehten/vereinfachten Logik hat er aber auch nicht unbedingt unrecht. Wie lang sind denn ueberhaupt die Shader-codes? Die Uebertreibung liegt im eher im Vertex-Bereich und wie gesagt wird es sich zeigen ob FutureMarks "Spekulation" realistisch war oder nicht.

Von dem was ich von Entwicklern generell bis jetzt lesen kann, sieht es wohl doch eher nach einer Uebertreibung aus und diesem sehr relativem Sinn hat man tatsaechlich die Anwendung synthetisch ueberfoerdert.

Zwar will ich von den eckigen Koepfen in sagen wir mal Doom3 nicht mehr viel in der Zukunft sehen, aber es gibt auch bessere Wege die Bildqualitaet zu erhoehen als gnadenlos mit VS zu uebertreiben.
Was die Bewertung der Grakas btraf lagen sie mit dem 03 mal ned soo schlecht. mal schauen wie es jetzt aussieht.
andererseits ist auch nur ein benchmark der fantastisch aussieht, ich denke man sollte nicht imemr alles überbewerten.

Ailuros
2005-01-19, 13:55:50
Was die Bewertung der Grakas btraf lagen sie mit dem 03 mal ned soo schlecht. mal schauen wie es jetzt aussieht.
andererseits ist auch nur ein benchmark der fantastisch aussieht, ich denke man sollte nicht imemr alles überbewerten.

Generell war das Resultat der jeweiligen Karten in 3dmark03 mehr oder weniger schon getroffen, wobei man aber wiederrum sehr leicht den Weg der zu diesem Resultat fuehrte bezweifeln koennte.

Game Test 2 und 3 sollten quasi eine Emulation von Doom3-aehnlichen Spielen (early Z -optimiert/dynamische stencil Schatten) sein. Das dumme ist dabei natuerlich dass Doom3 nicht so umstaendlich rendert und schon gar nicht so stark die VS belastet wie diese beiden Tests und es wird wohl in der Zukunft auch nicht viel anders sein als in Doom3 (hoffentlich!).

Ich weiss zwar nicht wann Futuremark mit der Entwicklung dieser demos begonnen hat, aber mehr oder weniger wie Doom3 rendern wird, war wohl schon seit sehr langem bekannt.

deekey777
2005-01-19, 14:11:21
Mit einer etwas verdrehten/vereinfachten Logik hat er aber auch nicht unbedingt unrecht. Wie lang sind denn ueberhaupt die Shader-codes? Die Uebertreibung liegt im eher im Vertex-Bereich und wie gesagt wird es sich zeigen ob FutureMarks "Spekulation" realistisch war oder nicht.

Von dem was ich von Entwicklern generell bis jetzt lesen kann, sieht es wohl doch eher nach einer Uebertreibung aus und diesem sehr relativem Sinn hat man tatsaechlich die Anwendung synthetisch ueberfoerdert.

Zwar will ich von den eckigen Koepfen in sagen wir mal Doom3 nicht mehr viel in der Zukunft sehen, aber es gibt auch bessere Wege die Bildqualitaet zu erhoehen als gnadenlos mit VS zu uebertreiben.


So, wie ich dich verstehe, übertreibt 3D 2005 im Vertex-Bereich, sprich, der Benchmark setzt hohe VS-Leistung voraus?

http://www.3dnews.ru/documents/9123/grafik/raundap/3DMark2005Prover1106800LE.gif

(Das Bild ist aus einem Roundup der 6600GT AGP, hier (http://www.3dnews.ru/video/roundup2agp/) zu finden - OMG, es ist in Russich!)
Man sieht die Steigerungen der Punktzahl mit jeder weiteren freigeschalteten "Vertex Unit". (Die RV410er haben auch um die 6 VS.)

DrumDub
2005-01-19, 14:19:00
deekey777

na ja, der unterste wert ist ja mit nur 8 pipes. ansonsten ist die steigerung pro zusätzlichem vs ca. 100 punkte. das geht ja eigentlich.

Ailuros
2005-01-19, 14:28:10
deekey777

na ja, der unterste wert ist ja mit nur 8 pipes. ansonsten ist die steigerung pro zusätzlichem vs ca. 100 punkte. das geht ja eigentlich.

Warum schlagen R4xx normalerweise besser ab in 3dmark05? (denk mal an die Verbindung von Taktrate und VS).

ShadowXX
2005-01-19, 14:30:19
deekey777

na ja, der unterste wert ist ja mit nur 8 pipes. ansonsten ist die steigerung pro zusätzlichem vs ca. 100 punkte. das geht ja eigentlich.

Nur das man bei vorhandenen Games, diese Steigerung pro dazugeschalteten Vertex-Shader wohl nicht erleben würde.....

DrumDub
2005-01-19, 15:00:56
Nur das man bei vorhandenen Games, diese Steigerung pro dazugeschalteten Vertex-Shader wohl nicht erleben würde.....

wie gesagt erhebt futuremark ja auch nicht den anspruch mit ihrem 3dmark den leistungshunger aktueller spiele zu reflektieren, sondern den zukünftiger. natürlich können sie damit falsch liegen, aber auf grund dessen, dass spiele schon heute häufig cpu limitiert sind, wie die vs-leistung in den nächsten jahren schon eine größere rolle spielen.

Spasstiger
2005-01-19, 16:06:30
Nur das man bei vorhandenen Games, diese Steigerung pro dazugeschalteten Vertex-Shader wohl nicht erleben würde.....

Ich finds gar nicht schlecht, dass es einen Benchmark gibt, der auch die Vertex-Shader-Leistung berücksichtigt, aber nicht allein darauf fixiert ist. Irgendwann wird sicherlich auch in Games verstärkt Vertex-Shader-Leistung gefragt sein bzw. eine schnelle Geometriebeschleunigung. Denn ewig kann es nicht weitergehen mit Lowpoly-Models und Bumpmapping.
Auch schon in Unreal-Engine-3-Spielen werden wir offenbar eine deutliche Steigerung der Polygonzahl je Szene erleben gegenüber anderer Engines mit Realtime-Shadowing.

Gabber[CH]
2005-01-19, 23:51:04
Mal ne allgemeine Frage über dieses Thema allgemein :

Wozu ist der 3DMurks da?
IMHO ist das ein virtuelle Penisprotesse in Punkteform..

Ich verwende denn eigentlich nur, um zu schauen ob mein Sys so läuft wie es soll, mal eben Benchen, auf's web, ähnliche Konfig --> ähnliche Punkte?
Wenn nein .. Hacken suchen
sonst Bier holen ;)

Kann einen doch kalt lassen ob Ati/NV ihre Treiber verbessern und dadurch 25% mehr Leistung rausholen .. Schade nur, dass es für 3DMurks war und nicht für eine App mit "Sinn".
Da sieht man worauf in der heutigen kapitalistischen Welt wert gelegt wird :
PR und nicht den Nutzen beim Anwender.
Traurig und ein anderes Thema.

Sorry für OT, fühlte mich grad genötigt das ins Äther zu stellen

Ailuros
2005-01-20, 04:38:50
Ich finds gar nicht schlecht, dass es einen Benchmark gibt, der auch die Vertex-Shader-Leistung berücksichtigt, aber nicht allein darauf fixiert ist. Irgendwann wird sicherlich auch in Games verstärkt Vertex-Shader-Leistung gefragt sein bzw. eine schnelle Geometriebeschleunigung. Denn ewig kann es nicht weitergehen mit Lowpoly-Models und Bumpmapping.
Auch schon in Unreal-Engine-3-Spielen werden wir offenbar eine deutliche Steigerung der Polygonzahl je Szene erleben gegenüber anderer Engines mit Realtime-Shadowing.

Tim Sweeney zu UE3:

PS 3.0 utilizes a wide range of optimizations, from 64-bit frame-buffer blending to looping and dynamic conditionals for rendering multiple light interactions in a single pass without requiring a combinatorical explosion of precompiled shaders.

Our pixel shaders in the Unreal Engine 3 demos are typically 50-200 instructions in length, and are composed from a wide range of artist-controlled components and procedural algorithms.

Our vertex shaders are quite simple nowadays, and just perform skeletal blending and linear interpolant setup on behalf of the pixel shaders. All of the heavy lifting is now on the pixel shader side -- all lighting is per-pixel, all shadowing is per-pixel, and all material effects are per-pixel.

Once you have the hardware power to do everything per-pixel, it becomes undesirable to implement rendering or lighting effects at the vertex level; such effects are tessellation-dependent and difficult to integrate seamlessly with pixel effects.

Groessere Aenderungen in diesem Bereich wuerde ich eher ab WGF2.0 erwarten. Leider ist die Tesselations-Einheit in WGF2.0 anscheinend optional.

Aliet
2005-01-20, 07:37:46
Gelogen ist 3dmark05 nicht aber eindeutig von de polys her übertrieben :P :mad: :P

mfg Aliet

ShadowXX
2005-01-20, 08:43:56
']Mal ne allgemeine Frage über dieses Thema allgemein :

Wozu ist der 3DMurks da?
IMHO ist das ein virtuelle Penisprotesse in Punkteform..

Ich verwende denn eigentlich nur, um zu schauen ob mein Sys so läuft wie es soll, mal eben Benchen, auf's web, ähnliche Konfig --> ähnliche Punkte?
Wenn nein .. Hacken suchen
sonst Bier holen ;)

Kann einen doch kalt lassen ob Ati/NV ihre Treiber verbessern und dadurch 25% mehr Leistung rausholen .. Schade nur, dass es für 3DMurks war und nicht für eine App mit "Sinn".
Da sieht man worauf in der heutigen kapitalistischen Welt wert gelegt wird :
PR und nicht den Nutzen beim Anwender.
Traurig und ein anderes Thema.

Sorry für OT, fühlte mich grad genötigt das ins Äther zu stellen


Jupps....du triffst voll ins schwarze.

Wenn wir mal von unseren Wahnsinnigen OCern absehen, benutzt den wohl jeder genauso wie du.

Ausserdem ist er ganz nett anzuschauen....erinnert mich immer ein bisserl an alte Amiga-Grafikdemos....

Wusset gar nicht, das da auch "Ergebnisse" hintern rauskommen ;)

Peleus1
2005-01-20, 17:24:00
naja ich weiss net so ganz ob das in reality auch so ist aber:
ne x800 pro schafft im 05er doch sicher 5200 punkte oder ?
( also mit nem normalem system 1gb ram 3 ghz)

ist aber laut pcgames nur in etwa gleichschnell wie ne 6800 nu ?
wie kann das sein ? ( das agnze in doom , gut das ist für nvidia aber doch schon krass)

Gabber[CH]
2005-01-20, 17:39:20
naja ich weiss net so ganz ob das in reality auch so ist aber:
ne x800 pro schafft im 05er doch sicher 5200 punkte oder ?
( also mit nem normalem system 1gb ram 3 ghz)

ist aber laut pcgames nur in etwa gleichschnell wie ne 6800 nu ?
wie kann das sein ? ( das agnze in doom , gut das ist für nvidia aber doch schon krass)

2 Problemstellen, erstens sagt der 3DMurks aus, wie schnell eine GraKa ist .... im 3DMurks.
Zweitens würd ich PCGames nicht grad als Referenz ansehen :rolleyes:


Unter Doom3 ist X800XT ~ne 6600GT
Unter FarCry ist X800XT ñe 6800Ultra!
QUELLE (http://www.hardwareluxx.de/cms/artikel.php?action=show&id=101&seite=19)
Kommt granz drauf an, was man bevorzugt spielt, aber ich hab noch keinen 3DMurks spielen gesehen ;D

3dfx Voodoo5 5500
2005-01-24, 01:35:26
mich würde mal interessieren wann der CPU test flüssig laufen wird (also etwa 25FPS)
meint ihr wir werden es noch erleben?

ich hab mit nem xp3200 im durchschnitt 1 FPS, ist das nicht geil? :rolleyes:

nichts gegen hardware-intensive programme, aber man kanns auch übertreiben.


auch der Multi-Lightning Test des 3DMurks 2001SE hat Jahre gebraucht, um endlich in ruckelfreier Geschwindigkeit erlebt zu werden (der mit dem Karussell mit den Pferden dran)

also wird es irgendwann, imo auch wieder in 3 - 4 Jahren möglich sein, den CPU Test einigermaßen schnell zu rechnen.

PS:

Wie sieht es denn eigentlich mit dem CPU test des 3dMurks 03 aus? ist der einigermaßen nutzbar?

Ich selber verabscheue 3dmurks ab der 03er version, für mich ist die 99er immer noch der Favorit.

SKYNET
2005-01-24, 03:08:34
Hängt das mit Intel oder mit HTT zusammen?


nö, weil der reine CPU score ist bei den A64's höher.


ist halt weil intel dafür geld gibt und AMD net.

Gaestle
2005-01-24, 13:09:00
So, wie ich dich verstehe, übertreibt 3D 2005 im Vertex-Bereich, sprich, der Benchmark setzt hohe VS-Leistung voraus?
[...]
Man sieht die Steigerungen der Punktzahl mit jeder weiteren freigeschalteten "Vertex Unit". (Die RV410er haben auch um die 6 VS.)

Und überhaupt wird's irgendwann anscheinend grenzwertig. Während in Deiner Grafik das freischalten eines Quads noch etwa 400punkte bringt, ist der Gewinn (bei mir) von 3 auf 4 Quads nur noch ca. 250Punkte:

GF6800nu@325/350 (Standard)
12x1,5vp = 3150
16x1,5vp = 3400
16x1,6vp = 3500

Grüße

Ailuros
2005-01-26, 01:27:39
Und überhaupt wird's irgendwann anscheinend grenzwertig. Während in Deiner Grafik das freischalten eines Quads noch etwa 400punkte bringt, ist der Gewinn (bei mir) von 3 auf 4 Quads nur noch ca. 250Punkte:

GF6800nu@325/350 (Standard)
12x1,5vp = 3150
16x1,5vp = 3400
16x1,6vp = 3500

Grüße

Dann vergleich aber erstmal die Bandbreiten in jeglichem Fall.

Hier mal im Gegensatz ein paar Tests von 3dmark03:

6800LE (8p/4vp@325/350MHz)

6870 points

GT1: 187.4 fps
GT2: 52.2 fps
GT3: 44.2 fps
GT4: 38.5 fps

6800 (12p/5vp@325/350MHz)

8343 points

GT1: 199.0 fps
GT2: 66.5 fps
GT3: 56.1 fps
GT4: 46.2 fps


6800 (16p/6vp@325/350MHz)

9147 points

GT1: 202.2 fps
GT2: 74.0 fps
GT3: 62.4 fps
GT4: 51.6 fps


6800 (16p/6vp@350/435MHz)

10135 points

GT1: 207.6 fps
GT2: 84.2 fps
GT3: 70.2 fps
GT4: 56.8 fps

------------------------------------------------------------------

6800LE (8p/4vp)

VS2.0: 19.7 fps
PS2.0: 84.4 fps

6800 (12p/5vp)

VS2.0: 23.2 fps
PS2.0: 113.5 fps

6800 (16p/6vp)

VS2.0: 26.1 fps
PS2.0: 134.1 fps

6800 (16p/6vp@350/435MHz)

VS2.0: 28.7 fps
PS2.0: 150.2 fps

-----------------------------------------------------------------------



Display resolution: 1280*960*32
Antialiasing: 2x
Anisotropic filtering: 4x


6800LE (8p/4vp)

4159 points

GT1: 139.2 fps
GT2: 28.6 fps
GT3: 23.9 fps
GT4: 24.8 fps

6800 (12p/5vp)

5161 points

GT1: 154.8 fps
GT2: 35.9 fps
GT3: 30.8 fps
GT4: 32.4 fps

6800 (16p/6vp)

5727 points

GT1: 161.2 fps
GT2: 39.8 fps
GT3: 34.5 fps
GT4: 37.6 fps

6800 (16p/6vp@350/435MHz)

6432 points

GT1: 171.1 fps
GT2: 46.4 fps
GT3: 39.5 fps
GT4: 41.5 fps

Gaestle
2005-01-26, 12:23:07
Dann vergleich aber erstmal die Bandbreiten in jeglichem Fall.[...]



Super Idee! :wave2:
Da hab' ich gar nicht dran gedacht, obwohl's ja naheliegend ist. :hammer:

Danke für die Mühe!

Grüße

Ailuros
2005-01-26, 13:24:48
Super Idee! :wave2:
Da hab' ich gar nicht dran gedacht, obwohl's ja naheliegend ist. :hammer:

Danke für die Mühe!

Grüße

Bin jetzt nicht absolut sicher mit welchen genauen Taktraten eine 6800LE laeuft aber ich glaube dass es 300/350MHz sind.

350MHz DDR1 @256bit = 22.4GB/sec

6800LE
8*300 = 2400 MPixels/sec
12*300 = 3600 MPixels/sec

6800nonU
12*325 = 3900 MPixels/sec
16*325 = 5200 MPixels/sec

Die Bandbreite ist in allen vier Faellen gleich und obwohl eigentlich die Steigerung der Fuellrate im Fall der LE oben groesser ist, stoesst man im Fall der 6800nonU ueber den 4GPixels wohl auf eine Bandbreiten-Grenze. Einfach mal den Speicher mit Vorsicht so weit uebertakten wie moeglich; kann sein dass die Unterschiede in 3dmark05 nicht besonders groesser werden, aber in echten Spielen und ueberhaupt in hohen Aufloesungen kann man den Unterschied dann schon sehen mit allen 4 quads.

Gaestle
2005-01-26, 16:31:26
[...]
Einfach mal den Speicher mit Vorsicht so weit uebertakten wie moeglich [...]


Danke nochmal!

ABER:
Übertakten und freischalten werde ich erst dann, wenn die Karte für den normalen Daddel-Betrieb zu langsam wird, also in zwei Jahren oder so ... ;D

Ich frag' dann (wenn's an der Zeit ist) nochmal nach...


BTW: Ich häng' im vierten Level von 3Dmark05 fest! Gleich nach der Brücke ins Kloster! Kann mir jemand sagen, wie ich den Endgegner plattmachen kann??? ;D

Grüße

Ailuros
2005-01-27, 13:25:40
ABER:
Übertakten und freischalten werde ich erst dann, wenn die Karte für den normalen Daddel-Betrieb zu langsam wird, also in zwei Jahren oder so ...

Im Idealfall (Aufloesungen =/>1280 mit jeglicher Anzahl von MSAA+AF) bekommst Du ~+30% mit 4 quads und hoeheren Taktraten. Ob dieses Prozentual wirklich fuer 2 Jahre aushalten kann will ich ernsthaft bezweifeln. Ich wuerde eher schaetzen dass der einfachen 6800 zuerst mal der Framebuffer zu kurz wird in mehr als einem Jahr von heute und dafuer gibt es wohl leider keine Rettung.

Mr. Lolman
2005-01-27, 14:27:20
']2 Problemstellen, erstens sagt der 3DMurks aus, wie schnell eine GraKa ist .... im 3DMurks.
Zweitens würd ich PCGames nicht grad als Referenz ansehen :rolleyes:


Unter Doom3 ist X800XT ~ne 6600GT
Unter FarCry ist X800XT ñe 6800Ultra!
QUELLE (http://www.hardwareluxx.de/cms/artikel.php?action=show&id=101&seite=19)
Kommt granz drauf an, was man bevorzugt spielt, aber ich hab noch keinen 3DMurks spielen gesehen ;D

Die hätten besser alles neu gebencht. so ist ne x800xl durch die Bank schneller als ne x850xt pe. Welche da noch grauenhaft langsam ist. Mittlerweile ist die x850xtpe auf 6800GT Niveau, was imo ganz ok ist.

godess
2005-01-27, 23:01:42
ich hatte auch mal einen fall von betrug bei 3dmark.
ich hatte mal getestet, wie sich fp16 bei 3dm05 auf die performance auslöst. und was kam? wie erwartet war die performence während des benchmarkdurchlaufs um gute 2-4 fps besser. auch sah deutlich flüssiger aus( was beim unterschied von 3 zu 6 fps deutlcih auffällt). doch am ende war die verwunderung groß, denn meine "3DMarks" hatten sich überhaupt nich verändert. wie wollt ihr euch das erklären? ich kanns mir nich erklären, außer das 3dmark eine riesen schwindellei ist.

123456789
2005-01-28, 17:02:37
http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance-report/8/
guckt hier mal ganz unten bei der cpu skalierung. warum profitiert ati mehr von der cpu als nvidia? hat sich das mittlerweile geändert? wenn ja, was war die ursache?
und wenn nein, warum ist das überhaupt so?

godess
2005-01-28, 18:34:03
bei ca. 1180 punkten skaliert denke ich die CPU noch nich.
mein cpu: p4 2,4B ghz

23186
2005-01-28, 21:14:31
http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance-report/8/
guckt hier mal ganz unten bei der cpu skalierung. warum profitiert ati mehr von der cpu als nvidia? hat sich das mittlerweile geändert? wenn ja, was war die ursache?
und wenn nein, warum ist das überhaupt so?

angeblich macht ati eine art load-balancing der vertex-programme zwischen cpu und gpu.

bei übermäßiger vertex-shader-belastung und gleichzeitig geringer cpu-belastung werden vertex-programme also teilweise wieder von der cpu berechnet, wodurch (so lange die cpu schnell genug ist) die leistung ansteigt.

dass die skalierung beim p4 stärker als beim a64 ist dürfte vor allem an hyper-threading liegen. dadurch lässt sich die tatsächliche cpu-belastung schwer ermitteln und es wird teilweise mehr auf die cpu ausgelagert als ideal (für die maximale leistung) wäre.

ansich wohl ein ganz nützliches feature, da jede anwendung mit starker vertex-belastung bei gleichzeitig geringer cpu-belastung davon profitieren sollte.
ein fader beigeschmack bleibt allerdings, da 3dmark wohl die einzige anwendung ist die ein derartiges anforderungsprofil an die hardware hat und folglich auch die einzige ist die davon profitiert ;)

Polak
2005-01-28, 21:17:31
http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance-report/8/
guckt hier mal ganz unten bei der cpu skalierung. warum profitiert ati mehr von der cpu als nvidia? hat sich das mittlerweile geändert? wenn ja, was war die ursache?
und wenn nein, warum ist das überhaupt so?
Das hatten wir schon mal. Ist nur bei Intel so, bei AMD kein Unterschied. Intel cheatet. ;)