PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia GeForce 6800 Ultra (NV40) Review


Leonidas
2004-04-14, 12:56:22
Link (gültig ab 15 Uhr!): www.3dcenter.org/artikel/nv40_benchmarks/ (http://www.3dcenter.org/artikel/nv40_benchmarks/)

Update: Artikel ist online.


Note: Artikel ist sehr sehr schnell entstanden. Muß noch mal drübergelesen werden.



/Update 15.4., 21:50
Nochmal komplett drübergelesen und Fehler korrigiert + in seltenen Fällen Text hinzugefügt.

/Update 16.4., 01:10
Kommentierung zu den Benchmarks hinzugefügt.

/Update 16.4., 01:40
Komprimierte Ergebnis-Übersicht im Fazit hinzugefügt.

/Update 16.4., 12:20
Kapitel "Links zu anderen Artikeln" hinzugefügt, entspricht im übrigen den News des 16.4.

/Update 17.4., 17:20
Falscher Preis der 6800U sowie falsche Angabe zu den zu verwendenden Stromkabeln korrigiert.

gast erster
2004-04-14, 12:57:13
erster

ForbiddenSkill
2004-04-14, 12:58:01
Da bin ich aber mal gespannt *g*

Gast
2004-04-14, 15:12:07
Auch um exakt 15:11 kriege ich einen time out :(

Flolle
2004-04-14, 15:29:53
Original geschrieben von Gast
Auch um exakt 15:11 kriege ich einen time out :(

Server überlastet. Musst ein wenig warten.

Exxtreme
2004-04-14, 16:01:04
Gibt es auch einen englischen Artikel?

007
2004-04-14, 16:09:28
hhmm, also NV40 technik wude übersetzt, dann schätze ich mal das die benches auch übersetzt wuden

winter
2004-04-14, 16:28:22
Die Mainpage läuft inzwischen wieder stabil, wie wärs jetzt mit den Benchmarks ;)

huha
2004-04-14, 16:42:11
Ich denke, daß 17:00 der richtige Zeitpunkt ist, mit den Benchmarks anzukommen.

Kurze Frage an die Benchmarker: Wie ist denn die Lautstärkeentwicklung der Karte?

-huha

pt3
2004-04-14, 16:44:52
der Artikel ist online :)

LovesuckZ
2004-04-14, 16:50:45
Ich, auf den Artikel geklickt, staune nicht schlecht, was einen da auf der rechten Seite auf tut.
Zwar noch nicht gelesen, aber ich denke, man kann jetzt schon ein: sehr gut aussprechen!

huha
2004-04-14, 16:57:04
Oh Gott! 30 Seiten! :O :O :O :O :O :O

den muß ich mir durchlesen, Fehler werd' ich aber keine mehr posten ;)
Die Einleitung ist schonmal sehr gut gelungen.

-huha

MechWOLLIer
2004-04-14, 16:59:11
So, die ersten 5 Seiten sind schonmal erste Sahne...:D

*weiterlesengehe*

LovesuckZ
2004-04-14, 16:59:45
Seite 11 ist falsch verlinkt: Statt auf "Index 11" zu verlinken, geht es auf "Index 5" zurueck.

huha
2004-04-14, 17:01:05
Die 3. Seite kann ich auch nicht aufrufen, da geht's immer zur Einleitung, sprich zur 1. Seite?

-huha

thop
2004-04-14, 17:04:54
Also ich verstehe wirklich nicht wieso CS:CZ gebencht wurde, diese uralte Engine die auch mit ner GF2MX schon gut spielbar ist. Ausserdem verstehe ich nicht wieso bei der 9800XT immer "Setting nicht verfügbar" steht wenns ganz normale AA/AF Settings sind :???:

Irgendwie hebt sich die 6800U insgesamt auch weniger von der 9800XT ab als bei anderen Reviews im Netz hab ich das Gefühl :???: Bei Dungeon Siege ist die 9800XT sogar durchweg schneller. 2.5Ghz P4 zu schwach?

Sephiroth
2004-04-14, 17:12:18
Insbesondere bei höheren AG-Modi bleiben somit die GeForce 3/4/FX Karten diejenigen mit der besten AF-Qualität - und nicht die GeForce 6800 /Ultra:
AF-modi wär doch besser - nicht wahr? ;)

jetzt werd ich ihn erstmal weiter geniesen :]

good work :up:

Kenny1702
2004-04-14, 17:14:56
2 minimale Fehlerchen sind mir aufgefallen:D.

Im Fazit:

"Doch wir wollen nich übermäßig auf dieser Schwäche unter 8x Anti-Aliasing herumhacken" Da fehlt wohl ein t;).

Und bei Max Payne 2 paßt irgendwie die Beschriftung des Ergebnisses bei 1600*1200 auf der FX im 3. Setting nicht zum Balken, wobei die Beschriftung dabei offensichtlich falsch ist;).

winter
2004-04-14, 17:35:07
Eeerm ist es absicht, dass da beim UT2k3 Benchmark ein Call of Duty (oder ist es Wolfenstein) Screenshot ist :freak:

Iceman346
2004-04-14, 17:38:30
Original geschrieben von thop
Ausserdem verstehe ich nicht wieso bei der 9800XT immer "Setting nicht verfügbar" steht wenns ganz normale AA/AF Settings sind :???:

Jo, wundert mich auch. Vor allem da AA/AF beim normalen CS wunderbar funktionieren. CZ habe ich allerdings nicht.

Überhaupt wundert mich, dass bei Leonidas in so vielen Spielen das AA auf der Radeon nicht ging. Ich hab den 4.4er erst grade eben draufgeschmissen, aber mit dem 4.3er hatte ich keinerlei Probleme in Max Payne 2, PoP, Spellforce und Tron 2.0 AA zu aktivieren, egal in welcher Auflösung.

Iceman346
2004-04-14, 17:39:34
Original geschrieben von winter
Eeerm ist es absicht, dass da beim UT2k3 Benchmark ein Call of Duty (oder ist es Wolfenstein) Screenshot ist :freak:

Also bei mir ist beim UT2003 Bench ein UT2003 Bild ;)

ähh?
2004-04-14, 17:44:25
Mal eine Frage,sind eure ganzen Benchmarks nicht fuer die Katz,denn mit einer 2.5 giga hängt doch der NV 40 immer am CPU Limit,ausser bei hoher Auflösung,aber selbst dort würde eine starke CPU noch etwas rausholen.

Wenn ich mir Benchmarks von anderen Seiten anschaue,sehen dise etwas klarer aus.


?

robbitop
2004-04-14, 17:45:37
wie auch bei aths schon gesagt, ein erstklassiges Review.
Dieses Jahr ist euch wirklich ein wahnsinns Feuerwerk gelungen.
Imo der beste NV40 Artikel bis jetzt.
Erste Sahne!!!

Xmas
2004-04-14, 17:56:15
Ich hätte mir ausführlichere Kommentare zu den Ergebnissen gewünscht. Aber das war wohl in der Zeit nicht zu machen.

mofhou
2004-04-14, 18:12:51
Original geschrieben von Xmas
Ich hätte mir ausführlichere Kommentare zu den Ergebnissen gewünscht. Aber das war wohl in der Zeit nicht zu machen.
vlt gibt es ja mal ein Update...

deekey777
2004-04-14, 18:37:08
Original geschrieben von Xmas
Ich hätte mir ausführlichere Kommentare zu den Ergebnissen gewünscht. Aber das war wohl in der Zeit nicht zu machen.

Die meisten Leute schlagen sich im Grafikkarten-Bereich.
Zu der Review selbst: Wessen Idee war es mit Setting 3 zu benchen?

Dann an die Tester: Kann es sein, dass ihr etwas entäuscht seid - keine Freudetänze, keine Huraa-Rufe, gar nichts? Und was ist mit dem Vorwurf, dass die 6800 Ultra in anderen Reviews wegen ihrer Lautstärke kräftig kritisiert wurde, hier aber für leise befunden wurde - anderer, "fertigerer" Treiber als bei den anderen?

Gerade bemerkt: Ich bin Platinum Member :bounce: :jump2: :jump4: :jump3:

Sephiroth
2004-04-14, 18:42:05
Original geschrieben von deekey777
Zu der Review selbst: Wessen Idee war es mit Setting 3 zu benchen?

Was spricht dagegen die max. mögliche Option auch zu testen?

Original geschrieben von deekey777
Dann an die Tester: Kann es sein, dass ihr etwas entäuscht seid - keine Freudetänze, keine Huraa-Rufe, gar nichts? Und was ist mit dem Vorwurf, dass die 6800 Ultra in anderen Reviews wegen ihrer Lautstärke kräftig kritisiert wurde, hier aber für leise befunden wurde - anderer, "fertigerer" Treiber als bei den anderen?
Die anderen hatten bestimmt auch den 60.72, denn dies ist bisher der einzige mit nv40 Support. Und wenn Leo einen neueren gehabt hätte, dann hätte er es auch gesagt(auf Seite 4 beim Testsystem).

Thomas_B
2004-04-14, 18:45:59
Sehr guter Bericht!

Zitat: ....Unter 1024x768 bei 8x Anti-Aliasing kann die GeForce 6800 Ultra zumeist noch halbwegs mithalten, aber unter höheren Auflösungen wird sie bei eben jenem 8x Anti-Aliasing von der Radeon 9800XT zumeist mit einigem Abstand abserviert - angesichts des Unterschieds an Rohpower schon frapierend.....

Das hätte ich nicht gedacht!

starfish
2004-04-14, 18:52:36
bremmst der prozessor nicht ein bisschen?

ansonsten: gefällt mir ziemlich gut der artikel.

Gast
2004-04-14, 18:57:04
Hallo Leo,

sehr gut und ausführlich :up:

Aber: ich wünsche mir ein one on one zwischen NV40 und R420 auf einem AMD64/FX. Der Pentium Schrott ist der Geforce 6800 Ultra einfach nicht würdig; auch wenn du es im Artikel erwähnt hast.

BodyLove
2004-04-14, 19:09:21
Original geschrieben von Thomas_B
Sehr guter Bericht!

Zitat: ....Unter 1024x768 bei 8x Anti-Aliasing kann die GeForce 6800 Ultra zumeist noch halbwegs mithalten, aber unter höheren Auflösungen wird sie bei eben jenem 8x Anti-Aliasing von der Radeon 9800XT zumeist mit einigem Abstand abserviert - angesichts des Unterschieds an Rohpower schon frapierend.....

Das hätte ich nicht gedacht!

mit dem Mix-Mode auch nicht verwunderlich. Imho müsste das 8xAA von NV ein wenig besser als die 6xAA von ATi aussehen.

Ansonsten, ich kann den Review nicht lesen. Ich komme nicht auf die Seite!

BodyLove
2004-04-14, 19:50:44
Emh, wann soll es denn soweit sein? Ich komme nicht zur Seite. Ich muss bald arbeiten gehen. Und ich will nicht weg, ohne zumindest ein paar Benches von euch gesehen zu haben. Kann mal einer eine Zeit schätzen, wann es wieder gehen sollte. so stark kann doch der Ansturm gar nicht sein.:eyes:

Xmas
2004-04-14, 20:06:30
Original geschrieben von deekey777
Die meisten Leute schlagen sich im Grafikkarten-Bereich.
Zu der Review selbst: Wessen Idee war es mit Setting 3 zu benchen?
Ich meinte Kommentare im Artikel von Leo, nicht Kommetare von Lesern hier im Forum :)

Setting 3 war natürlich Leos Idee. Und keine schlechte, allerdings auch IMO keine wirklich gute. Ein Test ist nun mal nicht dazu da, ein Produkt ins beste Licht zu rücken, sondern um es auf Herz und Nieren zu testen. Anhand dieser Ergebnisse kann man abschätzen, was 8x an Performance kostet, wo es einsetzbar ist und wo nicht. Die Vergleichbarkeit zur R9800XT ist aber bei dieser Einstellung IMO weniger gegeben, denn das Einsatzgebiet von 8x ist etwas anders als das von ATIs 6x. So sieht es oberflächlich betrachtet leider schlechter aus, als wenn es diesen 8x Modus gar nicht gäbe, was natürlich nicht der Sinn sein kann.

Mr. Lolman
2004-04-14, 20:15:01
Original geschrieben von Xmas
..., als wenn es diesen 8x Modus gar nicht gäbe, ...

Dann würd man einfach leere Balken mit der Aufschrift: "Modus funktioniert nicht" zu sehen sein. Oder man stellt die Auflösung einfach eine Stufe höher...

deekey777
2004-04-14, 20:39:11
Klugscheissermodus: In MP2 funktioniert bei die interne AA Funktion (habe aber den aktuellen Omega) in der 1024er Auflösung.

Editchen: Welcher Chipsatz war denn auf dem Mainboard: 845 PE (http://www.3d-center.de/artikel/nv40_benchmarks/index4.php) (?) oder der 865PE (http://www.3d-center.de/artikel/nv40_benchmarks/index17.php) ?

Master-of-Desaster
2004-04-14, 21:18:54
Bin zwar noch nicht durch aber auf Seite 3 ist ein kleiner Satzbaufehler.

"Dungeon Siege wie auch SpellForce hängten sich dagegen unter unter 1280x1024 und 1600x1200 jeweils unter 8x Anti-Aliasing beim Starten des Benchmarks bzw. schon beim Startbildschirm auf, so daß diese jeweiligen Benchmarks ebenfalls ausfallen mussten."

2 mal unter hintereinander und dann gleich nochmal unter hinterher. :D

Cu

Robbson
2004-04-14, 21:35:15
Hallo!

Ich finde die NV40 Artikel nicht schlecht, doch sind meiner Meinung nach die Benchmarks zum Teil realitätsfremd,
weil keine Benchmarks ohne AA und AF getestet werden.

Dazu ist in dem Artikel zu lesen:
"... Die heutigen HighEnd-Grafikkarten bringen auch einfach schon so viel Rohpower mit sich, daß ein Einsatz dieser Features fast zur Pflicht wird. Zumindestens ist der Kauf einer HighEnd-Karte, ohne diese dann für Anti-Aliasing oder/und anisotropen Filter nutzen zu wollen, fast sinnbefreit, da ohne diese beiden Features auch die derzeitigen Mainstream-Karten schon ähnliche Leistungen bringen. ..."

Genau diesen Blödsinn habe ich hier bei den 3DCenter-Seiten schon früher gelesen, z.B. bei der Ti4600 oder etwa der Radeon 9700/9800er Reihe.

Denn die Aussage gilt ausschließlich für ältere oder weniger grafisch aufwendige Spiele. Z.B. läuft Colin Mc Rae Rally 4 auf einer 9700 Pro mit 1024x768 fantastisch flüssig, während es bei einer Hinzunahme von nur 4x anisotropischen Filtering schon zu deutlich spürbaren Geschwindigkeitseinbußen kommt und an diversen Stellen nicht mehr spielbar ist. Genausogut könnte ich hier auch ArxFatalis oder besser noch UT2003 nehmen, daß mit <30 frames an objektreichen Szenen nicht mehr so richtig smooth zu spielen ist und bei der Hektik in dem Game bleibt sowieso keine Zeit das tolle Filtering zu geniessen.

Und von FarCry will ich garnicht erst reden.

Also: AF und AA sind ok, aber deren Einsatz nur in älteren Games sinnvoll, wie UT Classic, Counterstrike, Q3, CMR2, TR-Reihe, 18 Wheels of Steel, etc.

So, das mußte ich jetzt mal los werden...
Ansonsten zwei sehr umfangreiche Artikel, das gefällt mir.
Oops, Server lag schonwieder...

Grüße,
Robbson.

deekey777
2004-04-14, 22:05:08
@Tester: Könntet ihr uU die die Log.txt von Far Cry&der 6800 Ultra veröffentlichen, insbesondere diese Zeilen:

"Vertex Shaders version xxx
Pixel Shaders version xxx
Use Hardware Shaders for xxx
Pixel shaders usage: PS.xxx and PS.xxx
Vertex shaders usage: VS.xxx and VS.xxx" ?

Reine Neugier, ob die 6800 Ultra von FC schon erkannt wird.

Gast
2004-04-14, 22:06:10
Beim Anti-Aliasing hat nVidia endlich einen alten Schwachpunkt beseitigt - das 4x Anti-Aliasing bieted

>>> bietet


, aber das ist der GeForce 6800 Ultra wol auch kaum anzukreiden.

>>> wohl


Doch wir wollen nich übermäßig auf dieser Schwäche unter 8x Anti-Aliasing herumhacken.


>>> nicht


deren absolut humane Geräuchentwicklung,

:-))) hoffentlich keine Geräuche >>> Geräusch

Karümel
2004-04-14, 22:17:12
Darf man Fragen wie lange Ihr die Karte zum Testen hattet?
Besteht die möglichkeit das es in absehbarer Zeit einen "Nachtest" gibt wenn neue Treiber verfügbar sind? (falls es bald einen R420 Test gibt dann hoffentlich *ja*)

deekey777
2004-04-14, 22:19:02
Spam: Durftet ihr den schönen Alukoffer behalten, in dem die 6800 Ultra geliefert wurde? ;D

n Leser
2004-04-14, 22:50:34
nichts gegen euer bemühen da ein vernünftiges preview zu erstellen, aber ihr glaubt doch nicht im ernst das ihr mit so einem ranzprozessor auch nur annähernd die wahre leistung des nv40 repräsentieren könnt. da ->> http://www.de.tomshardware.com/graphic/20040414/index.html

kucken und staunen

deekey777
2004-04-14, 23:19:57
Original geschrieben von n Leser
nichts gegen euer bemühen da ein vernünftiges preview zu erstellen, aber ihr glaubt doch nicht im ernst das ihr mit so einem ranzprozessor auch nur annähernd die wahre leistung des nv40 repräsentieren könnt. da ->> http://www.de.tomshardware.com/graphic/20040414/index.html

kucken und staunen

Bist du jetzt glücklich?

Gast
2004-04-14, 23:32:56
Original geschrieben von n Leser
nichts gegen euer bemühen da ein vernünftiges preview zu erstellen, aber ihr glaubt doch nicht im ernst das ihr mit so einem ranzprozessor auch nur annähernd die wahre leistung des nv40 repräsentieren könnt. da ->> http://www.de.tomshardware.com/graphic/20040414/index.html

kucken und staunen
Tom´s Hardware... DU bist ja der totale Expert ROFL
Als nächstes verweiste wohl auf einen Artikel von Giga *FG*

numb
2004-04-14, 23:35:15
Original geschrieben von n Leser
nichts gegen euer bemühen da ein vernünftiges preview zu erstellen, aber ihr glaubt doch nicht im ernst das ihr mit so einem ranzprozessor auch nur annähernd die wahre leistung des nv40 repräsentieren könnt. da ->> http://www.de.tomshardware.com/graphic/20040414/index.html

kucken und staunen

du experte - auf die Idee, dass die CPU-Limitierung aufhört, sobald 4xFSAA/16xAF verwendet werden biste nich gekommen, oder ?

007
2004-04-14, 23:37:26
@Gast, was willst du uns mit deinem Link auf THG veranschaulichen? Wie grottenschlecht der Artikel von THG ist oder wie überdurchschnittlich gut unserer ist? ;D

numb hat dir die Begründung auf deine tatsächliche Frage schon gegeben.

Zur Kompetenz voN THG möchte ich mich an dieser Stelle nicht weiter äußern...

Gast
2004-04-15, 00:07:09
Ich finds sogar ganz gut, dass ein "langsamer" Prozessor zum Testen verwendet wurde, und Tests mit 3GHz+ gibts ja genug (eigentlich alle anderen Tests).
Anandtech machte damals im August 2002 zur R300 noch einen kleinen Test zum CPU-Scaling:
http://anandtech.com/video/showdoc.html?i=1683&p=22
Beim NV40 hat er darauf leider verzichtet.

Zu den Spielen, die in den letzten zwei Jahren erschienen sind: Nach meinen Erfahrungen gibt es darunter eine ganze Menge, die schon ab einer 1 GHz-CPU akzeptabel laufen. Mein System hat auch nur eine langsame CPU. Wenn man Scisoft glauben darf, ist meine CPU etwa halb so schnell wie ein P4-3,2. Bei hohen Auflösungen und AA / AF geht selbst die R300 in die Knie. Deshalb könnte die NV40 auch für ein langsames Sys etwas sein.

Splinter Cell profitiert zwar sehr von einer schnelleren CPU, mit einer langsamen ist es aber noch spielbar. FarCry und sicherlich alles danach wird mit einer 1.x-CPU nicht mehr auskommen. Für Comanche und Morrowind fehlen die notwendigen CPUs bis heute.

Leonidas
2004-04-15, 00:25:10
Original geschrieben von Exxtreme
Gibt es auch einen englischen Artikel?


Davon wohl nicht. Das Übersetzungsteam liegt derzeit auch ein wenig darnieder.

Leonidas
2004-04-15, 00:25:35
Original geschrieben von LovesuckZ
Seite 11 ist falsch verlinkt: Statt auf "Index 11" zu verlinken, geht es auf "Index 5" zurueck.


Gefixt.

Leonidas
2004-04-15, 00:25:57
Original geschrieben von huha
Die 3. Seite kann ich auch nicht aufrufen, da geht's immer zur Einleitung, sprich zur 1. Seite?

-huha



Ist mir unklar, was Du meinst. Ich kann den Fehler nicht nachvollziehen.

Leonidas
2004-04-15, 00:28:04
Original geschrieben von thop
Also ich verstehe wirklich nicht wieso CS:CZ gebencht wurde, diese uralte Engine die auch mit ner GF2MX schon gut spielbar ist. Ausserdem verstehe ich nicht wieso bei der 9800XT immer "Setting nicht verfügbar" steht wenns ganz normale AA/AF Settings sind :???:

Irgendwie hebt sich die 6800U insgesamt auch weniger von der 9800XT ab als bei anderen Reviews im Netz hab ich das Gefühl :???: Bei Dungeon Siege ist die 9800XT sogar durchweg schneller. 2.5Ghz P4 zu schwach?



Gegenfrage: Warum nicht CZ? Ich suche mir meine Benchmarks nicht danach aus, ob sie besonder hip oder besonder gfx-limitiert sind. Interessant sind in Benutzung befindliche Spiele, je neuer desto besser. Und ich hab nun bei noch keinem Artikel von uns mit so vielen brandneuen Spielen gebencht. CZ wird halt gespielt, warum also nicht? Ob ich das Teil nochmal verwende, steht auf einem anderem Blatt :-).


Zum P4: Ja, der ist zu schwach. Dazu steht aber auch in der Testumgebung eine Anmerkung.

Leonidas
2004-04-15, 00:29:00
Original geschrieben von Sephirot
AF-modi wär doch besser - nicht wahr? ;)



Gefixt.

Leonidas
2004-04-15, 00:29:21
Original geschrieben von Kenny1702
2 minimale Fehlerchen sind mir aufgefallen:D.

Im Fazit:

"Doch wir wollen nich übermäßig auf dieser Schwäche unter 8x Anti-Aliasing herumhacken" Da fehlt wohl ein t;).

Und bei Max Payne 2 paßt irgendwie die Beschriftung des Ergebnisses bei 1600*1200 auf der FX im 3. Setting nicht zum Balken, wobei die Beschriftung dabei offensichtlich falsch ist;).



Beides gefixt.

Leonidas
2004-04-15, 00:30:29
Original geschrieben von winter
Eeerm ist es absicht, dass da beim UT2k3 Benchmark ein Call of Duty (oder ist es Wolfenstein) Screenshot ist :freak:



Es bildet ungemein, den dazugehörigen Text zu lesen. Ist ein Screenie von Red Orechestra. Dös ist ein WW2-Mod für UT2003/4, welche ich ein wenig unterstütze, weil ich ihn selber spiele.

Leonidas
2004-04-15, 00:31:29
Original geschrieben von thop
Ausserdem verstehe ich nicht wieso bei der 9800XT immer "Setting nicht verfügbar" steht wenns ganz normale AA/AF Settings sind :???:





Wenn eien ganze Benchmark-Serie fehlt, steht im Begleittext eine Anmerkung. Die R9800XT hatte einige Games, wo sie unter 10x7 kein AA darstellen wollte.

Leonidas
2004-04-15, 00:32:04
Original geschrieben von Iceman346
Ich hab den 4.4er erst grade eben draufgeschmissen, aber mit dem 4.3er hatte ich keinerlei Probleme in Max Payne 2, PoP, Spellforce und Tron 2.0 AA zu aktivieren, egal in welcher Auflösung.


Aktivieren ist nicht das Problem. Wird es denn auch dargestellt?

Leonidas
2004-04-15, 00:33:49
Original geschrieben von robbitop
wie auch bei aths schon gesagt, ein erstklassiges Review.
Dieses Jahr ist euch wirklich ein wahnsinns Feuerwerk gelungen.
Imo der beste NV40 Artikel bis jetzt.
Erste Sahne!!!



Na so gut isses nun auch nicht - es sei denn Du meinst den Technik-Artikel.

Der Benchmark-Artikel ist inhaltlich gut, aber deutlich zu schnell geschrieben.

Leonidas
2004-04-15, 00:34:02
Original geschrieben von Xmas
Ich hätte mir ausführlichere Kommentare zu den Ergebnissen gewünscht. Aber das war wohl in der Zeit nicht zu machen.



Kommt noch.

Leonidas
2004-04-15, 00:36:17
Original geschrieben von ähh?
Mal eine Frage,sind eure ganzen Benchmarks nicht fuer die Katz,denn mit einer 2.5 giga hängt doch der NV 40 immer am CPU Limit,ausser bei hoher Auflösung,aber selbst dort würde eine starke CPU noch etwas rausholen.

Wenn ich mir Benchmarks von anderen Seiten anschaue,sehen dise etwas klarer aus.
?



Für die Katz nicht, aber suboptimal. Siehe dazu aber auch die Anmerkung in der Testumgebung.


Allerdings ist das prinzipielle Kräfteverhältnis auch so sehr gut zu erkennen. Die meisten anderen Artikel haben auch deswegen so deutlich eindeutigere Werte, weil sie zumeist nur den für die 6800 günstigsten Modus benchen: 8xAF + 4xAA. Wenn man unseren Artikel auf diese Zahlen reduziert, sieht es auch eindeutiger aus als jetzt.

Leonidas
2004-04-15, 00:38:26
Original geschrieben von deekey777
Zu der Review selbst: Wessen Idee war es mit Setting 3 zu benchen?

Dann an die Tester: Kann es sein, dass ihr etwas entäuscht seid - keine Freudetänze, keine Huraa-Rufe, gar nichts? Und was ist mit dem Vorwurf, dass die 6800 Ultra in anderen Reviews wegen ihrer Lautstärke kräftig kritisiert wurde, hier aber für leise befunden wurde - anderer, "fertigerer" Treiber als bei den anderen?



1. Meine.

2. Wieso, daß Fazit übergibt doch den Lorbeerkranz an den NV40 - was bei uns eine sehr seltene Handlung ist.

3. Ich habe ein sehr sehr empfindliches Gehör - ich höre Sachen, die dürfte ich als Mensch längst nicht mehr hören. Wenn ich also "leise" sage, dann ist das so. Allerdings ist mir zu Ohren gekommen, daß es zumindestens eine fehlerhafte Karte gegeben hat, die die ganze Zeit mit vollen Umdrehungen lief.

3. Selber Treiber wie alle anderen: 60.72

Leonidas
2004-04-15, 00:40:10
Original geschrieben von Gast
Hallo Leo,

sehr gut und ausführlich :up:

Aber: ich wünsche mir ein one on one zwischen NV40 und R420 auf einem AMD64/FX. Der Pentium Schrott ist der Geforce 6800 Ultra einfach nicht würdig; auch wenn du es im Artikel erwähnt hast.


Wünsche ich mir auch. Wenn die Jungs den endlich ausm Knick kommen würden und den Sockel 939 nebst Prozessoren + Mobos vorstellen. Das nächste Testsystem wird auf jeden Fall ein A64 - doppelte Performance unter UT2003/2004.

Leonidas
2004-04-15, 00:41:53
Original geschrieben von deekey777
Klugscheissermodus: In MP2 funktioniert bei die interne AA Funktion (habe aber den aktuellen Omega) in der 1024er Auflösung.

Editchen: Welcher Chipsatz war denn auf dem Mainboard: 845 PE (http://www.3d-center.de/artikel/nv40_benchmarks/index4.php) (?) oder der 865PE (http://www.3d-center.de/artikel/nv40_benchmarks/index17.php) ?



845PE. Wird gefixt.

Leonidas
2004-04-15, 00:43:38
Original geschrieben von Master-of-Desaster
Bin zwar noch nicht durch aber auf Seite 3 ist ein kleiner Satzbaufehler.

"Dungeon Siege wie auch SpellForce hängten sich dagegen unter unter 1280x1024 und 1600x1200 jeweils unter 8x Anti-Aliasing beim Starten des Benchmarks bzw. schon beim Startbildschirm auf, so daß diese jeweiligen Benchmarks ebenfalls ausfallen mussten."

2 mal unter hintereinander und dann gleich nochmal unter hinterher. :D

Cu


Gefixt.

Gast
2004-04-15, 00:44:19
Top-Review :) *lob*

Doch auch ne kleine Kritik: Hätte mich beim OC über 467/467 gefreut ;) und dann evt. auch ob die performance evt. einbußen hat wenn man ein paar takte davon abweicht. Also z.B. 467/470. Naja, wie ihr so schön sagtet: "Man kann nicht alles haben" :D

Noch ne kleine Kritik: Im Fazit ist das AA8X suxx bissel zu oft ;) 3 mal hätte gereicht *g*

Auf jeden Fall bin ich mal gespannt auf die Mainstream-Karten. Besonders was Performance/Stromhunger/Preis angeht. Aber das dauert wohl noch ein wenig.

So denn.. Weiter so :)

z3c



P.s.: Rechtschreibfehler sind doch Schnuppe wenn se net den Sinn verfäschen

Leonidas
2004-04-15, 00:44:38
Original geschrieben von Robbson
Ich finde die NV40 Artikel nicht schlecht, doch sind meiner Meinung nach die Benchmarks zum Teil realitätsfremd,
weil keine Benchmarks ohne AA und AF getestet werden.




Mmh. Ich denke eher, daß eine NV40 ohne AA/AF realitätsfremd ist.

Leonidas
2004-04-15, 00:45:50
Original geschrieben von Robbson
Genau diesen Blödsinn habe ich hier bei den 3DCenter-Seiten schon früher gelesen, z.B. bei der Ti4600 oder etwa der Radeon 9700/9800er Reihe.

Denn die Aussage gilt ausschließlich für ältere oder weniger grafisch aufwendige Spiele. Z.B. läuft Colin Mc Rae Rally 4 auf einer 9700 Pro mit 1024x768 fantastisch flüssig, während es bei einer Hinzunahme von nur 4x anisotropischen Filtering schon zu deutlich spürbaren Geschwindigkeitseinbußen kommt und an diversen Stellen nicht mehr spielbar ist. Genausogut könnte ich hier auch ArxFatalis oder besser noch UT2003 nehmen, daß mit <30 frames an objektreichen Szenen nicht mehr so richtig smooth zu spielen ist und bei der Hektik in dem Game bleibt sowieso keine Zeit das tolle Filtering zu geniessen.

Und von FarCry will ich garnicht erst reden.

Also: AF und AA sind ok, aber deren Einsatz nur in älteren Games sinnvoll, wie UT Classic, Counterstrike, Q3, CMR2, TR-Reihe, 18 Wheels of Steel, etc.

So, das mußte ich jetzt mal los werden...
Ansonsten zwei sehr umfangreiche Artikel, das gefällt mir.
Oops, Server lag schonwieder...




Na ok. Es war aber auch eine Entscheidung des Aufwandes. Ohne AA/AF hätte den Benchmark-Aufwand (mehrere Tage+Nächte) um glatt 33% gesteigert.

Leonidas
2004-04-15, 00:46:34
Original geschrieben von deekey777
@Tester: Könntet ihr uU die die Log.txt von Far Cry&der 6800 Ultra veröffentlichen, insbesondere diese Zeilen:

"Vertex Shaders version xxx
Pixel Shaders version xxx
Use Hardware Shaders for xxx
Pixel shaders usage: PS.xxx and PS.xxx
Vertex shaders usage: VS.xxx and VS.xxx" ?

Reine Neugier, ob die 6800 Ultra von FC schon erkannt wird.



Da waren inzwischen andere gfx im Testrechner. Bringt es jetzt noch was, da nochmal reinzusehen?

Leonidas
2004-04-15, 00:47:28
Original geschrieben von Gast
Beim Anti-Aliasing hat nVidia endlich einen alten Schwachpunkt beseitigt - das 4x Anti-Aliasing bieted

>>> bietet


, aber das ist der GeForce 6800 Ultra wol auch kaum anzukreiden.

>>> wohl


Doch wir wollen nich übermäßig auf dieser Schwäche unter 8x Anti-Aliasing herumhacken.


>>> nicht


deren absolut humane Geräuchentwicklung,

:-))) hoffentlich keine Geräuche >>> Geräusch


Gefixt.

Leonidas
2004-04-15, 00:48:12
Original geschrieben von Karümel
Darf man Fragen wie lange Ihr die Karte zum Testen hattet?
Besteht die möglichkeit das es in absehbarer Zeit einen "Nachtest" gibt wenn neue Treiber verfügbar sind? (falls es bald einen R420 Test gibt dann hoffentlich *ja*)



Donnerstag eingetroffen, Dienstag wieder weg. Und das war unplanmäßig lang und nur ein glücklicer Oster-Zufall. Normalerweise nur 2-3 Tage.



Nachtest: Ich hoffe, mit R420 zusammen einen ausführlicheren Test machen zu können.

betasilie
2004-04-15, 00:48:44
Mal wieder das typische 3DCenter-Niveau. Für mich ein nahezu ideales Review. :up:

Die CPU finde ich ggf. auch etwas zu schwach, aber wie jemand anders schon schrieb, heben sich die Benchmarks so von den anderen Reviews ab.

Original geschrieben von Leonidas
Mmh. Ich denke eher, daß eine NV40 ohne AA/AF realitätsfremd ist.
Ack. Schon zu Zeiten des NV3x und R3xx waren Tests zumindest ohne AF realitätsfremd.

Leonidas
2004-04-15, 00:49:07
Original geschrieben von deekey777
Spam: Durftet ihr den schönen Alukoffer behalten, in dem die 6800 Ultra geliefert wurde? ;D



Wir hatten keinen solchen.

AlfredENeumann
2004-04-15, 00:52:07
Original geschrieben von Xmas
Ich hätte mir ausführlichere Kommentare zu den Ergebnissen gewünscht. Aber das war wohl in der Zeit nicht zu machen.


Die habe ich auch sehr vermisst in dem Review.
Ich hoffe LEO kann diese noch in einem Update nachreichen.

Iceman346
2004-04-15, 01:05:04
Original geschrieben von Leonidas
Aktivieren ist nicht das Problem. Wird es denn auch dargestellt?

Ich konnt jetzt wegen Zeitmangels nur Spellforce (v1.11) und Max Payne 2 testen aber bei beiden Spielen wird bei mir mit dem 4.4er Catalyst in 1024 AA problemlos dargestellt. (eingestellt übers Control Panel) Tron 2.0 kann ich morgen auch mal testen (liegt momentan bei meinem Bruder rum).
PoP hab ich leider nicht mehr da.

zeckensack
2004-04-15, 01:11:43
*gelesenhat*

Grosses, dickes, fettes Lob!
:massa:

Leonidas
2004-04-15, 01:14:42
Original geschrieben von AlfredENeumann
Die habe ich auch sehr vermisst in dem Review.
Ich hoffe LEO kann diese noch in einem Update nachreichen.



Ja, kommt morgen. Normalerweise hätte das zum Launch fertig sein sollen, aber ich hab es nicht mehr geschafft. Der letzte Benchmark war erst 13 Uhr fertig ...

Leonidas
2004-04-15, 01:17:47
Original geschrieben von Iceman346
Ich konnt jetzt wegen Zeitmangels nur Spellforce (v1.11) und Max Payne 2 testen aber bei beiden Spielen wird bei mir mit dem 4.4er Catalyst in 1024 AA problemlos dargestellt. (eingestellt übers Control Panel) Tron 2.0 kann ich morgen auch mal testen (liegt momentan bei meinem Bruder rum).



Sicher? Man kann sich da täuschen. Ich benutze da einen einfachen Test, um das todsicher zu ermitteln: 1024x768 mit 6xAA gegen 800x600 mit gleichem Setting. Wenn 1024x768 schneller ist, dann funtzt das AA nicht.



Ansonsten könne es durchaus an meinem System liegen - doch woran zum Henker? Dem Monitor sollte es egal sein und ich habe das auch schon bei vielen ATi-Treibern festgestellt. Ansonsten ist das Testsystem sehr aufgeräumt und federleicht + schnell. Das das einen dauerhaften Fehler macht, kann ich mir kaum vorstellen.

FormatC
2004-04-15, 01:33:19
War es eine Designentscheidung das NVIDIA-GeForce Logo groß auf der Titelseite zu präsentieren?

Denniss
2004-04-15, 02:20:26
Kleinere Textfehler :

Seite 3 :
Wer Markennetzteilen hantiert, wo die Nennleistung dann auch real erbracht wird und/oder seinen Rechner nicht vollkommen mit weiterer Hardware zugelegt hat, kommt sicherlich auch mit teilweise deutlich geringer dimmensionierten Netzteilen aus.
Wer mit Markennetzteilen hantiert
Fehler in der Grafikdarstellung gab es ebenfalls nur ein äußerst seltenen Fällen.
nur in äußerst
Beispielsweise hängt sich der ShaderMark 2.0 in seinem Benchmark-Modus gleich beim Anwärmen der Chaches ("warming caches") auf,
Anwärmen der Caches
Für eine erste Karte aus einer neuen Chip-Generation ist dies jedoch relativ wenig und sicherlich schon mit den nächsten Treiber-Veröffentlichtungen zu fixen.
Veröffentlichungen

MadManniMan
2004-04-15, 02:53:26
Feinfein! Die Erläuterungen würde ich mir ehrlich gesagt noch eher für den Vergleich mit dem R420 aufgehoben sehen ;)

Ahja: :massa:

Denniss
2004-04-15, 03:02:51
Seite 9 :
Zwar bietet die GeForce 6800 Ultra nun einen 16x anisotropen Modus, doch dieser dürfte letztlich durch die sehr starke Winkeabhängigkeit nicht besser als
Winkelabhängigkeit


Seite 10 :
denn die Bildqualität von zwischen ATi und nVidia gleichnamiger Modi ist
gleichnamigen


Seite 16 :
Die integrierte Demo-Squenz zeigt den kompletten Durchlauf eines Levels mit sehr abwechslungsreicher Gestaltung,
Demo-Sequenz

mit welcher sich die Spieler-Figur automatisch durch das Levle bewegt.
Level

Daraus resultieren jedoch bei jedem Durchlauf minimal Abweichungen des Demoablaufs,
minimale

Seite 20 :
Die Grafik-Engine zeichnet sehr geschmeidige und stimmungsvolle Bilder auf den Bildschirm und gehört sicherlich mit zum besten, was es derzeit in diesem Genre gibt.
Komma zuviel ?!?

Seite 21 :
Hauptmerkmal der Engine ist sicherlich die - im Shooter-Bereich wohl einzigartige - Möglichkeit, wie wahren Gegnerhorden ohne wesentlichen Performance-Verlust fertigzuwerden.
"mit" statt "wie"

welches eben diese anrendenden Gegnerhorden in all der Vielfalt der in diesem Spiel
anrennenden

Denniss
2004-04-15, 03:21:43
Seite 22 :
Allerdings konnten wir zwischen beiden Darstellung keinen wirklichen Performance-Unterschied
Darstellungen


Seite 24 :
Dem normalen Spielablauf dürfte dieses Effekte-Feuerwerk nur teilweise entsprechend,
entsprechen


Seite 25 :
Abschlußsequenz den Spielabschnitts "Kommandomodul",
"des" statt "den"


Seite 26 :
reizt dafür aber die Möglichkeiten von Grafikkarten der DirectX7-Technikklasse bravös aus.
bravourös


Seite 27 :
Timedemo eines realen Internet-Gefechte
Gefechtes


Seite 28 :
Enemy Territory ist das kostenlose Multiplayer-Fortsetzung des originalen Return to Castle Wolfenstein seitens Mad Doc Software und Splash Damage im Mai 2003 veröffentlicht wurden.
als kostenlose + veröffentlicht worden


Seite 28 :
angesichts des Unterschieds an Rohpower schon frapierend
frappierend

Denniss
2004-04-15, 03:28:06
Uff - harter Tobak .
Viel zu lesen und sehr interessant

Sehr guter Artikel mit viel Hintergrundinfo und nicht so ein Wischi-Waschi wie bei THG

Mehrpack
2004-04-15, 07:34:36
hi,
schönes review.
bloss ich hab mal ne frage und zwar:


Beachtenswert sind die zwei Stromanschlüsse auf der Karte, welche auch beide belegt werden müssen. Zudem sollten an dem dafür verwendeten Stromkabel keine anderen Verbraucher wie Festplatten oder CD/DVD-Geräte hängen. Allerdings reicht ein einzelnes Stromkabel mit Y-Adapter für die beiden Stromanschlüsse auf der Karte - keiner braucht also in Sorge zu sein, für die zwei Stromanschlüsse zwei unbelegte Stromkabel zu benötigen.

geht das wirklich auf dauer gut mit dem Y-Adapter?
ok ich bin kein elektriker und in physik bin ich bei dem thema irgendwie net so mitgekommen.
aber irgendwie müsste doch auf der einen seite des apapters genauso viel storm über den einen stecker wie über beide an der grafikkarte zusammen.
deswegen mach ich mir ein paar gedanken ob das auch wirklich so geht.
nicht das es dann mal komisch riecht im rechner nach paar wochen.

Mehrpack

kmf
2004-04-15, 08:48:46
Hab die Berichte in 3 Anläufen jetzt zu Ende gelesen.

Jungs, die Nachtschichten haben sich gelohnt! :D

Habt ihr wirklich top zu Papier gebracht. Ganz dickes Lob.

Jetzt würde mich noch brennend interessieren, inwieweit die Karte mit einem besseren Prozessor skaliert.

Karümel
2004-04-15, 09:12:37
Was mich ein wenig verwundert ist die Tatsache das die 9800XT bzw. der Cat. 4.4 bei 5 Games zicken gemacht hat. Und das auch noch bei der Meißtgenutzen-Auflösung von 1024 x 768. Das finde ich schon etwas komisch?

robbitop
2004-04-15, 09:24:32
@Leo
nein ich meine diesmal deinen Artikel und die Gesamtheit beider Artikel. Dein Benchartikel allein ist schon Platz 1 imo. Aber dann noch der Techartikel ...also wahnsinn was ihr dieses Jahr geleistet habt. Ich kann nur ungefähr nachvollziehn was das für Arbeit war.

Was den Mod von UT2003 angeht: der zieht ordendlich an der Grafikleistung imo.

Gast
2004-04-15, 09:50:45
*räusper* Ich würd mal etwas objektiver testen und nicht Pro-NVidia...

Und wenn ihr die Benchmarks schon faken müsst, dann bitte nicht so auffällig *gg*

Hörn
2004-04-15, 09:59:20
toller Review!: Übersichtlich, keine übertriebene Hardwareplattform, alle wesentlichen Infos dabei, schöne Screens.

Hatte Eurer Testsample auch noch eine handgelötete Litze?

robbitop
2004-04-15, 09:59:21
ui da hat sich jemand gerade selbst disquallifiziert...:|

deekey777
2004-04-15, 10:38:49
Original geschrieben von Leonidas
Da waren inzwischen andere gfx im Testrechner. Bringt es jetzt noch was, da nochmal reinzusehen?

Nein, macht euch keine Mühe, die 6800 Ultra wieder einzubauen. Aber es wäre schon interessant, ob FC die 6800 Ultra schon erkennt (weil die 9800XT immernoch mehr PS 2.0 Effekte als die 6800 Ultra darstellt, was aber angesicht der "etwas" besseren Shaderleistung der 6800 schon nicht ganz nett ist).

Exxtreme
2004-04-15, 11:44:45
Original geschrieben von Gast
*räusper* Ich würd mal etwas objektiver testen und nicht Pro-NVidia...

Und wenn ihr die Benchmarks schon faken müsst, dann bitte nicht so auffällig *gg*
Goil. Andere wiederum meinen, 3DC wäre Pro-ATi. Aber selektive Wahrnehmung ist schon was Feines. :D X-D

Iceman346
2004-04-15, 12:08:45
Original geschrieben von Leonidas
Sicher? Man kann sich da täuschen. Ich benutze da einen einfachen Test, um das todsicher zu ermitteln: 1024x768 mit 6xAA gegen 800x600 mit gleichem Setting. Wenn 1024x768 schneller ist, dann funtzt das AA nicht.

Funktioniert definitiv hier. Allerdings altmodisch übers hingucken verifiziert ;)

Ansonsten könne es durchaus an meinem System liegen - doch woran zum Henker? Dem Monitor sollte es egal sein und ich habe das auch schon bei vielen ATi-Treibern festgestellt. Ansonsten ist das Testsystem sehr aufgeräumt und federleicht + schnell. Das das einen dauerhaften Fehler macht, kann ich mir kaum vorstellen.

Gute Frage. Hast du vielleicht AA/AF mit dem rTool eingestellt? Die letzten Versionen davon funktionieren bei mir leider nicht mehr immer allzu zuverlässig mit den neuen Treibern.

deekey777
2004-04-15, 12:25:20
Original geschrieben von Leonidas
...
Ansonsten könne es durchaus an meinem System liegen - doch woran zum Henker? Dem Monitor sollte es egal sein und ich habe das auch schon bei vielen ATi-Treibern festgestellt. Ansonsten ist das Testsystem sehr aufgeräumt und federleicht + schnell. Das das einen dauerhaften Fehler macht, kann ich mir kaum vorstellen.

Das ist zwar OT pur, aber es kotzt mich langsam an, dass meine 9800 Pro in einigen Spielen kein AA darstellen will - besonders in Raven Shield, was an sich ein einiziges Treppenartifakt ist, selbst wenn ich es erzwinge (entweder per CP oder rtool), ist AA beim Mapwechsel bzw. Ableben des Protagonisten wieder weg. HIer sollte nachgebessert werden - entweder von ATi selbst oder von den Programmierern.

Zu der Review: Ach Mist, immernoch nichts ernstes gefunden, was bemängelt werden kann/darf.
Bis auf das (es kann aber an meiner Unwissenheit liegen):

UT2003/Seite 26 (http://www.3d-center.de/artikel/nv40_benchmarks/index26.php)

Ist das zweite Bild aus UT2003 bzw. aus einem auf der U2 basierten Spiel?

zeckensack
2004-04-15, 12:33:09
Original geschrieben von deekey777
Zu der Review: Ach Mist, immernoch nichts ernstes gefunden, was bemängelt werden kann/darf.
Bis auf das (es kann aber an meiner Unwissenheit liegen):

UT2003/Seite 26 (http://www.3d-center.de/artikel/nv40_benchmarks/index26.php)

Ist das zweite Bild aus UT2003 bzw. aus einem auf der U2 basierten Spiel? Einfach mal den Text lesen :freak:

SpecialTrooper
2004-04-15, 12:40:11
Sehr schönes Benchmark-Review!

Nur ich hätte auch gerne Test ohne AA/AF gehabt, obwohl das sicherlich bei einer solchen Karte realitätsfremder ist!

Das liegt aber daran, dass mir sowas bei einer Auflösung von 1280 einfach nicht wichtig ist, und ich es im Spielgeschehen sowieso nicht sehe, ist aber nur eine persönliche Randmeinung meinerseits!

deekey777
2004-04-15, 12:53:44
Original geschrieben von zeckensack
Einfach mal den Text lesen :freak:

Hm, wer lesen kann, ist klar im Vorteil.

Xmas
2004-04-15, 13:03:36
Das Pattern zu reg18 ist falsch!
Das sollte 4xRGMS + 2x1 OGSS sein, also eine EER von 8x4.

----*-------*--
*--^----*--^---
---v--*----v--*
--*-------*----


die ^v sollen andeuten dass der Textursamplepunkt jeweils dort in der Mitte liegt.

LovesuckZ
2004-04-15, 13:12:50
Original geschrieben von Xmas
Das Pattern zu reg18 ist falsch!
Das sollte 4xRGSS [...]

Könnte es den Modus auch einzeln geben?

deekey777
2004-04-15, 13:42:26
Wieder OT von mir: Können wir uns auf einen Artikel auf 3D Center am 26. April freuen?

Xmas
2004-04-15, 14:11:24
Original geschrieben von LovesuckZ
Könnte es den Modus auch einzeln geben?
Ups, Tippfehler. Natürlich ist RGMS gemeint.

HOT
2004-04-15, 14:12:52
Original geschrieben von Exxtreme
Goil. Andere wiederum meinen, 3DC wäre Pro-ATi. Aber selektive Wahrnehmung ist schon was Feines. :D X-D

Na ja wenn man sowas für beide Marken um die Ohren gehauen bekommt ist doch alles ok ;) dann ist man ja wieder objektiv :D

aths
2004-04-15, 14:30:12
Original geschrieben von Xmas
Das Pattern zu reg18 ist falsch!
Das sollte 4xRGMS + 2x1 OGSS sein, also eine EER von 8x4.

----*-------*--
*--^----*--^---
---v--*----v--*
--*-------*----


die ^v sollen andeuten dass der Textursamplepunkt jeweils dort in der Mitte liegt. Um 90° gedreht wäre es sinnvoller.

Mackg
2004-04-15, 14:44:50
"Schau man in die Geschichte der Unreal-Engine zurück, so wurde allerdings das originale Unreal-Spiel alleinig für 3dfx´ Glide-Engine entwickelt, resultierend aus der Tatsache, daß zum Entwicklungsbeginn einzig allein 3dfx mit den Voodoo-Karten ernstzunehmende 3D-Beschleuniger anbot. "Erst als im Laufe der langjährigen Entwicklung dieses Spiels ATi, nVidia und S3 mit ebenfalls brauchbaren 3D-Beschleunigern nachzogen, baute man bei Epic einen OpenGL-Support ein. OpenGL war deshalb so einfach zu realisieren, weil Glide letztlich aus OpenGL entstanden war, grob gesehen eine Untermenge von OpenGL oder auch eine 3dfx-Vereinfachung von OpenGL war.

Unreal wurde schließlich anno 1998 mit OpenGL als Standard-API ausgeliefert, wobei natürlich genauso auch Glide zur Verfügung stand. Doch seinerzeit waren die OpenGL-Treiber einiger Grafikchip-Entwickler noch nicht gut genug für die Anforderungen der Unreal-Engine - und da sich das Spiel zu einem Riesenhit entwickelte, drängten die Hersteller Epic darauf, ebenfalls einen Support für das damals schon aufkommende Direct3D zu schreiben. Dieser Direct3D-Support wurde mittels Patches also nachgeliefert, am Anfang noch rudimentär und Absturz-anfällig, zum Schluß aber ganz brauchbar. Zudem wurde seitens Epic sogar ein MeTaL-Support für diese S3-eigene API der Savage 3/4 Grafikchips eingebaut."


Das ist nicht richtig. Ich bin mir ziemlich sicher, dass Unreal mit Glide als Standart-Api ausgeliefert wurde. Zusätzlich war noch eine PowerVR Api und der SoftwareModus auswählbar. OpenGl wurde soweit ich das in Erinnerung habe nicht unterstützt.(Erst später)

Mackg
2004-04-15, 15:10:28
Außerdem muss ich noch das 3. Qualitätssetting kritisieren. Beide Geforces sind klar im Nachteil, da sie die bessere Bildqualität bieten, besonders die 5950. Fairer wäre imho :

9800 16x AF + 6x AA
5950: 4x AF + 8xS AA
6800 8x AF + 8x AA

Durch den 4x Supersamplinganteil im AA der Geforces entsteht ein 2x AF Effekt.Die 5950 bietet mit nur 4x AF eine Texturquälitat wie mit 8AF(sogar etwas besser). Damit ist die Texturqualität besser als die der 9800 ,während das AA minimal schlechter ist.

Die Texturqualität der 6800 ist auch besser als die der 9800 XT, da die Winkelabhängigikeit durch den SS Anteil deutlich geringer wird und das AF der 6800 ohnehin leicht besser ist.
(Bei reg 18 AA würde ich von einem Gleichstand der AF Qualität sprechen). Das AA ist bei 8xS etwas schlechter als das von ATI ,bei reg 18 (durch höheres EER) minimal besser, so dass ich zum Schluss komme ,dass das obenstehende Setting besser geeignet wäre. (Als Hinweis für die weiteren Reviews)

Besuch
2004-04-15, 15:34:44
Original geschrieben von Mackg Das ist nicht richtig. Ich bin mir ziemlich sicher, dass Unreal mit Glide als Standart-Api ausgeliefert wurde. Zusätzlich war noch eine PowerVR Api und der SoftwareModus auswählbar. OpenGl wurde soweit ich das in Erinnerung habe nicht unterstützt.(Erst später) so war es auch: erstauslieferung: glide, powervr und software; später dann opengl, danach direct3d (oder auch zeitgleich mit opengl)

robbitop
2004-04-15, 16:50:34
hm XMas
ich habe gehört die Hybriden seien unverändert...bist du dir sicher dass das neue 8x aus 4xRGMS und 2xOGSS besteht?
Das wäre wirklich ein sehr feiner Modus =)

Xmas
2004-04-15, 16:58:11
Schau dir die fast-vertikalen Kanten an. 8 fast gleichmäßig verteilte Stufen. Sowas bekommst du mit OG nicht hin.

edit: Nein, das neue 8x ist natürlich 2xRG + 4xOGSS. Ich meinte den "reg18"-Modus.

DerUngläubigeThomas
2004-04-15, 17:07:14
Hi,
guter Artikel, aber was mich stutzig macht ist dieser enorm grosser Wert im 3DMark03!Ca.70% mehr Leistung als die bisherigen Karten wenn bei den Spielen durchschnittlich 20-30% zu verzeichnen ist!
Ich kriege aus meinen Kopf nicht raus das da etwas faul ist! Ich wette nvidia hat hier bis zum geht nicht mehr optimiert! Wie findet man es heraus ob das der Fall ist?!

Der ungläubige Thomas

Mackg
2004-04-15, 17:31:32
Original geschrieben von robbitop
hm XMas
ich habe gehört die Hybriden seien unverändert...bist du dir sicher dass das neue 8x aus 4xRGMS und 2xOGSS besteht?
Das wäre wirklich ein sehr feiner Modus =)

Angesichts der höheren Performance ist das doch sehr stark zu vermuten. Was für Möglichkeiten soll es für einen Hybrid 8x Modus denn noch geben? (wenn man mal reines SS und MS auschliesst)

robbitop
2004-04-15, 17:49:33
andere Konfigurationen
früher max 2xRGMS jetz käme eben noch 4xRGMS hinzu

@xmas
reg18 wäre dann aber auch ein 8xAA oder? :)

Leonidas
2004-04-15, 18:41:49
Original geschrieben von FormatC
War es eine Designentscheidung das NVIDIA-GeForce Logo groß auf der Titelseite zu präsentieren?


Was sprach dagegen? Unsere Artikel sind ansonsten recht bilderlos, deswegen kann man ruhig mal ein Bild zur Auflockerung bringen.

Leonidas
2004-04-15, 18:49:28
Original geschrieben von Denniss
Kleinere Textfehler :

Seite 3 :

Wer mit Markennetzteilen hantiert

nur in äußerst

Anwärmen der Caches

Veröffentlichungen




Original geschrieben von Denniss
Seite 9 :

Winkelabhängigkeit


Seite 10 :

gleichnamigen


Seite 16 :

Demo-Sequenz


Level


minimale

Seite 20 :

Komma zuviel ?!?

Seite 21 :

"mit" statt "wie"


anrennenden



Original geschrieben von Denniss
Seite 22 :

Darstellungen


Seite 24 :

entsprechen


Seite 25 :

"des" statt "den"


Seite 26 :

bravourös


Seite 27 :

Gefechtes


Seite 28 :

als kostenlose + veröffentlicht worden


Seite 28 :

frappierend



Gefixt. Danke - bist besser als jede Schreibkorrektur.

Leonidas
2004-04-15, 18:50:28
Original geschrieben von Mehrpack
geht das wirklich auf dauer gut mit dem Y-Adapter?
ok ich bin kein elektriker und in physik bin ich bei dem thema irgendwie net so mitgekommen.
aber irgendwie müsste doch auf der einen seite des apapters genauso viel storm über den einen stecker wie über beide an der grafikkarte zusammen.
deswegen mach ich mir ein paar gedanken ob das auch wirklich so geht.
nicht das es dann mal komisch riecht im rechner nach paar wochen.



Diese Lösung ist so von nVidia empfohlen. Ich habe extra nachgefragt, ob man nicht 2 extra Kabel nehmen soll - nein, nicht notwendig.

deekey777
2004-04-15, 18:51:13
Nachdem ich die Review 10.000 mal durchgelesen habe, kann ich nur eins sagen: Warum haben Printmedien keine solchen Artikel?

Leonidas
2004-04-15, 18:51:44
Original geschrieben von robbitop
Was den Mod von UT2003 angeht: der zieht ordendlich an der Grafikleistung imo.


Red Orchestra? Ja, der ist teils ziemlich heftig - andererseits kann man dort mit 25 fps auch noch vernüftig spielen.

Leonidas
2004-04-15, 18:52:09
Original geschrieben von Gast
*räusper* Ich würd mal etwas objektiver testen und nicht Pro-NVidia...

Und wenn ihr die Benchmarks schon faken müsst, dann bitte nicht so auffällig *gg*


Bla!

Leonidas
2004-04-15, 18:52:39
Original geschrieben von Hörn
toller Review!: Übersichtlich, keine übertriebene Hardwareplattform, alle wesentlichen Infos dabei, schöne Screens.

Hatte Eurer Testsample auch noch eine handgelötete Litze?



Hab ich nicht so genau draufgeschaut. Sah für mich aber gut aus die Testkarte, sehr solide.

Leonidas
2004-04-15, 18:53:19
Original geschrieben von deekey777
Nein, macht euch keine Mühe, die 6800 Ultra wieder einzubauen. Aber es wäre schon interessant, ob FC die 6800 Ultra schon erkennt (weil die 9800XT immernoch mehr PS 2.0 Effekte als die 6800 Ultra darstellt, was aber angesicht der "etwas" besseren Shaderleistung der 6800 schon nicht ganz nett ist).


Die 6800 ist schon seit Di nicht mehr bei uns, sonst hätte ich die natürlich wieder eingebaut.

Leonidas
2004-04-15, 18:54:41
Original geschrieben von Iceman346

Gute Frage. Hast du vielleicht AA/AF mit dem rTool eingestellt? Die letzten Versionen davon funktionieren bei mir leider nicht mehr immer allzu zuverlässig mit den neuen Treibern. [/SIZE]



Über rTool eingestellt. Dös wäre allerdings böse, wenn rTool überall funktioniert und dann per Zufall in 5 Games in einer bestimmten Auflösung nicht. Ist fast ein Ding der Unmöglichkeit.

Leonidas
2004-04-15, 18:55:40
Original geschrieben von deekey777
Bis auf das (es kann aber an meiner Unwissenheit liegen):

UT2003/Seite 26 (http://www.3d-center.de/artikel/nv40_benchmarks/index26.php)

Ist das zweite Bild aus UT2003 bzw. aus einem auf der U2 basierten Spiel?



Ich hab Dir dazu schon mal geantwortet: Red Orchestra, Mod für UT2003. Siehe den Begleittext zu diesen Screenies!

Leonidas
2004-04-15, 18:56:43
Original geschrieben von SpecialTrooper
Nur ich hätte auch gerne Test ohne AA/AF gehabt, obwohl das sicherlich bei einer solchen Karte realitätsfremder ist!


Jo klar. War eine Frage der zeitlichen Möglichkeiten. Ich habe die Zeit, die ich die Karte hatte, absolut maximal ausgeschöpft, am Ende wurde sie mir von UPS aus dem Rechner gerissen :-)).

Leonidas
2004-04-15, 18:57:17
Original geschrieben von Xmas
Das Pattern zu reg18 ist falsch!
Das sollte 4xRGMS + 2x1 OGSS sein, also eine EER von 8x4.

----*-------*--
*--^----*--^---
---v--*----v--*
--*-------*----


die ^v sollen andeuten dass der Textursamplepunkt jeweils dort in der Mitte liegt.



Deswegen stand dort überall: Unter Vorbehalt.

Leonidas
2004-04-15, 18:57:48
Original geschrieben von deekey777
Wieder OT von mir: Können wir uns auf einen Artikel auf 3D Center am 26. April freuen?



Derzeit noch nicht, denn es ist ungewiss, ob wir eine Karte bekommen werden.

BUGFIX
2004-04-15, 18:59:17
" ... Das heißt im Klartext, nVidia verschlechter bei der NV40 die (wichtige) Qualität des anisotropen Filters gegenüber den NV2x- und NV3x-Karten. ..."

bin zwar nicht so der Fan von RÄCHTSCHREIP Kontrolle aber:
IMO müsste es da :
verschlechtert
heißen .

MfG

BUGFIX

winter
2004-04-15, 18:59:34
Original geschrieben von Leonidas
Die 6800 ist schon seit Di nicht mehr bei uns, sonst hätte ich die natürlich wieder eingebaut.

Hat sich NV die Samples wieder zurückgehohlt? Wenn ja, was machen die dann mit den ganzen Vorserienkarten? Vielleicht ja selber verwenden :freak:

Leonidas
2004-04-15, 19:00:11
Original geschrieben von Mackg
Das ist nicht richtig. Ich bin mir ziemlich sicher, dass Unreal mit Glide als Standart-Api ausgeliefert wurde. Zusätzlich war noch eine PowerVR Api und der SoftwareModus auswählbar. OpenGl wurde soweit ich das in Erinnerung habe nicht unterstützt.(Erst später)



Nein. U1 wurde seinerzeit mit Glide und OGL ausgeliefert - oder OGL kam im ersten Patch. Deswegen mussten plötzlich NV + ATI schnelle OGL-Treiber entwickeln, die über die für Q2 eingesetzten MiniGLs hinausgingen. D3D kam erst später hinzu und lief lange Zeit instabil und langsamer.

Leonidas
2004-04-15, 19:03:42
Original geschrieben von Mackg
Außerdem muss ich noch das 3. Qualitätssetting kritisieren. Beide Geforces sind klar im Nachteil, da sie die bessere Bildqualität bieten, besonders die 5950. Fairer wäre imho :

9800 16x AF + 6x AA
5950: 4x AF + 8xS AA
6800 8x AF + 8x AA

Durch den 4x Supersamplinganteil im AA der Geforces entsteht ein 2x AF Effekt.Die 5950 bietet mit nur 4x AF eine Texturquälitat wie mit 8AF(sogar etwas besser). Damit ist die Texturqualität besser als die der 9800 ,während das AA minimal schlechter ist.

Die Texturqualität der 6800 ist auch besser als die der 9800 XT, da die Winkelabhängigikeit durch den SS Anteil deutlich geringer wird und das AF der 6800 ohnehin leicht besser ist.
(Bei reg 18 AA würde ich von einem Gleichstand der AF Qualität sprechen). Das AA ist bei 8xS etwas schlechter als das von ATI ,bei reg 18 (durch höheres EER) minimal besser, so dass ich zum Schluss komme ,dass das obenstehende Setting besser geeignet wäre. (Als Hinweis für die weiteren Reviews)


Ein vernünftiger Einwand.

Allerdings habe ich festgestellt, daß die Zuschaltung von SS nur wirkliche Effekte bezüglich der Texturenqualität bietet, wenn kein AF im Spiel ist. Sobald man AF zuschaltet, sinkt die durch SS erreichbare Verbesserung der Texturenqualität wieder.

Ansonsten überlege ich ständig in diese Richtung weiter, wie man die Vergleiche verbessern könnte. In der Tat könnte man eventuell den 4x AF + 8xS AA Modus benchen gegen ATi´s Maximal-Modus.

Leonidas
2004-04-15, 19:06:20
Original geschrieben von DerUngläubigeThomas
Hi,
guter Artikel, aber was mich stutzig macht ist dieser enorm grosser Wert im 3DMark03!Ca.70% mehr Leistung als die bisherigen Karten wenn bei den Spielen durchschnittlich 20-30% zu verzeichnen ist!
Ich kriege aus meinen Kopf nicht raus das da etwas faul ist! Ich wette nvidia hat hier bis zum geht nicht mehr optimiert! Wie findet man es heraus ob das der Fall ist?!

Der ungläubige Thomas



Ich habe das aus Zeitgründen nicht beachtet. Rechnen wir nach (gegenüber 9800):

3DMarks: +76%
Game1: +16%
Game2: +110%
Game3: +101%
Game4: +61%

Passt IMO.

Mehrpack
2004-04-15, 19:06:54
Original geschrieben von Leonidas
Diese Lösung ist so von nVidia empfohlen. Ich habe extra nachgefragt, ob man nicht 2 extra Kabel nehmen soll - nein, nicht notwendig.

hi,
na wenns die sagen.
danke für die information.

Mehrpack

Mehrpack
2004-04-15, 19:08:32
Original geschrieben von Leonidas
Nein. U1 wurde seinerzeit mit Glide und OGL ausgeliefert - oder OGL kam im ersten Patch. Deswegen mussten plötzlich NV + ATI schnelle OGL-Treiber entwickeln, die über die für Q2 eingesetzten MiniGLs hinausgingen. D3D kam erst später hinzu und lief lange Zeit instabil und langsamer.

hi,
himmel ist das lange her.
aber ich denke mich dunkel errinnern zu können das es am anfang hiess es gibt nur software renderin und glide.
aber das ist ganz dunkel, sau dunkel :D.

Mehrpack

Leonidas
2004-04-15, 19:12:59
Original geschrieben von Besuch
so war es auch: erstauslieferung: glide, powervr und software; später dann opengl, danach direct3d (oder auch zeitgleich mit opengl)


Hast Recht, ich ändere das.

deekey777
2004-04-15, 19:13:07
Original geschrieben von Leonidas
Ich hab Dir dazu schon mal geantwortet: Red Orchestra, Mod für UT2003. Siehe den Begleittext zu diesen Screenies!

Doppelt hält besser. ;D

PS: Es gibt jetzt eine zum Teil heftige Diskussion zu Far Cry auf 6800 Ultra bzw. 9800XT, da seit dem Patch 1.1 die Bildqualität von Far Cry auf einer 5950 und damit leider auf der 6800 Ultra (obwohl eigentlich ein anderer Path für die NV40 Hardware) herabgesetzt wurde, was zu keiner 100%igen Vergleichbarkeit mit der 9800XT führt.
Leider steht dazu nichts in eurer Review (http://www.3d-center.de/artikel/nv40_benchmarks/index17.php).

Leonidas
2004-04-15, 19:13:51
Original geschrieben von deekey777
Warum haben Printmedien keine solchen Artikel?


Ganz einfach Platzprobleme. Mach das Review in Printformat und Du belegst 1/3 des Hefts.

Leonidas
2004-04-15, 19:14:45
Original geschrieben von BUGFIX
" ... Das heißt im Klartext, nVidia verschlechter bei der NV40 die (wichtige) Qualität des anisotropen Filters gegenüber den NV2x- und NV3x-Karten. ..."

bin zwar nicht so der Fan von RÄCHTSCHREIP Kontrolle aber:
IMO müsste es da :
verschlechtert
heißen .

MfG

BUGFIX


Gefixt.

Leonidas
2004-04-15, 19:15:15
Original geschrieben von winter
Hat sich NV die Samples wieder zurückgehohlt? Wenn ja, was machen die dann mit den ganzen Vorserienkarten? Vielleicht ja selber verwenden :freak:


Na die ging sofort weiter zum nächsten Tester. Meine Karte ging direkt zur Computerbild Spiele.

Leonidas
2004-04-15, 19:16:32
Original geschrieben von deekey777
Doppelt hält besser. ;D

PS: Es gibt jetzt eine zum Teil heftige Diskussion zu Far Cry auf 6800 Ultra bzw. 9800XT, da seit dem Patch 1.1 die Bildqualität von Far Cry auf einer 5950 und damit leider auf der 6800 Ultra (obwohl eigentlich ein anderer Path für die NV40 Hardware) herabgesetzt wurde, was zu keiner 100%igen Vergleichbarkeit mit der 9800XT führt.
Leider steht dazu nichts in eurer Review (http://www.3d-center.de/artikel/nv40_benchmarks/index17.php).



Ich hab auf den ersten Blick nix gesehen. Leider wusste ich nix von der Diskussion (ich bin 0,0 dazu gekommen, das Spiel zu spielen), sonst hätte ich mir das genauer angesehen.

Mehrpack
2004-04-15, 19:22:20
Original geschrieben von Leonidas
Na die ging sofort weiter zum nächsten Tester. Meine Karte ging direkt zur Computerbild Spiele.

hi,
die arme karte :D.
weisst du auch wer die karte hatte bevor du sie bekommen hast?

Mehrpack

BUGFIX
2004-04-15, 19:30:11
Original geschrieben von Leonidas
Diese Lösung ist so von nVidia empfohlen. Ich habe extra nachgefragt, ob man nicht 2 extra Kabel nehmen soll - nein, nicht notwendig.

Naja - wäre auch etwas zu extrem, wenn man 2 unabhängige 12V (bzw 5V) Stränge bräuchte. Das hieße ja, dass man mehr als 100W in die Karte reinsteckt ...
*Gedankenspiel:*
Demnächst werden die Dinger dann im extra 300W Gehäuse ausgeliefert und via USB3 ang.... - ach nein lassen wir das
*:Gedankenspiel*

MfG

BUGFIX

deekey777
2004-04-15, 19:36:22
Original geschrieben von Leonidas
Ich hab auf den ersten Blick nix gesehen. Leider wusste ich nix von der Diskussion (ich bin 0,0 dazu gekommen, das Spiel zu spielen), sonst hätte ich mir das genauer angesehen.

Die Vergleichsscreenshots auf HarOCP (http://www.hardocp.com/article.html?art=NjA2LDU=) zeigen es sehr deutlich, dass a) die 6800 Ultra einen anderen "Renderpfad" als die 5950 benutzt (ich muss mich jetzt überall korrigieren :D ), und b) die 9800XT die meisten PS 2.0 "Effekte" zeigt, welche aber erfahrungsgemäß nur dargestellt werden, wenn die Qualität der Beleuchtung auf sehr hoch ist.
PS: HardOCP gehärt neben euch zu den wenigen Seiten, die sich getraut haben, FC auch unter 2xAA bzw. 4xAA zu testen.

Edit: Die von mir erwähnte Diskussion ist nicht empfehlenswert.

DerUngläubigeThomas
2004-04-15, 19:44:17
Original geschrieben von Leonidas
Ich habe das aus Zeitgründen nicht beachtet. Rechnen wir nach (gegenüber 9800):

3DMarks: +76%
Game1: +16%
Game2: +110%
Game3: +101%
Game4: +61%

Passt IMO.

Ich meinte natürlich im Vergleich zu den Spiele-Benchmarks (Farcry,CoD,MP2 etc)!In Farcry gibt es sogar fast keine Differenz und in den anderen Spielen relativ "klein" verglichen mit dem Leistungssprung beim 3DMark03!Suspekt!

Der ungläubige Thomas

Quasar
2004-04-15, 20:08:24
Original geschrieben von DerUngläubigeThomas
Ich meinte natürlich im Vergleich zu den Spiele-Benchmarks (Farcry,CoD,MP2 etc)!In Farcry gibt es sogar fast keine Differenz und in den anderen Spielen relativ "klein" verglichen mit dem Leistungssprung beim 3DMark03!Suspekt!

Der ungläubige Thomas

Nein, ungläubiger Thomas, nicht suspekt, sondern eine logische Folge des 3DMark03.

Letztes Jahr irgendwann gab's da mal eine heftige Diskussion, inwieweit der noch die Ansprüche eines "Gamers Benchmark" erfüllt, da er fast keine Rücksicht auf die CPU nimmt, sprich zu 95% Grafiklimitiert ist.

Das ist natürlich von den Machern so gewollt, aber andererseits bei kaum einem realen Spiel so gegeben.
Es ging sogar so weit, daß jemand eine R9800p auf einem P2-400 testete, die dann ein besseres Ergebnis abgeliefert hat, als eine GF4 (IIRC) auf einem aktuellen System.

Das hat dem Anspruch, wirklich einen Teil der Spielerealität zu repräsentieren, doch ziemlich geschadet - erklärt aber gleichzeitig dieses "abnorme" Resultat.

Ähnliches wirst du in reinen Shader-Test, Füllraten- oder Bandbreitenmessungen beobachten können - eben überall dort, wo anders als in echten Spielen, die Grafikleistung isoliert wird.

Leonidas
2004-04-15, 20:23:09
Original geschrieben von Mehrpack
weisst du auch wer die karte hatte bevor du sie bekommen hast?



Sie kam direkt aus den USA.

DerUngläubigeThomas
2004-04-15, 20:43:43
Original geschrieben von Quasar
Nein, ungläubiger Thomas, nicht suspekt, sondern eine logische Folge des 3DMark03.

Letztes Jahr irgendwann gab's da mal eine heftige Diskussion, inwieweit der noch die Ansprüche eines "Gamers Benchmark" erfüllt, da er fast keine Rücksicht auf die CPU nimmt, sprich zu 95% Grafiklimitiert ist.

Das ist natürlich von den Machern so gewollt, aber andererseits bei kaum einem realen Spiel so gegeben.
Es ging sogar so weit, daß jemand eine R9800p auf einem P2-400 testete, die dann ein besseres Ergebnis abgeliefert hat, als eine GF4 (IIRC) auf einem aktuellen System.

Das hat dem Anspruch, wirklich einen Teil der Spielerealität zu repräsentieren, doch ziemlich geschadet - erklärt aber gleichzeitig dieses "abnorme" Resultat.

Ähnliches wirst du in reinen Shader-Test, Füllraten- oder Bandbreitenmessungen beobachten können - eben überall dort, wo anders als in echten Spielen, die Grafikleistung isoliert wird.

Mit anderen Worten , die neue NV40 bietet ca. 80% rohe Grafikkartenleistung mehr als alle bisherigen Hi-End Grakas , ist es das was du sagen willst?!
Irgenwie habe ich da meine Zweifel!

Der ungläubige Thomas

BodyLove
2004-04-15, 20:47:41
@Tom

sagen wir mal so. Wir sehen hier die Erkenntnis, dass die jetzige Grakageneration noch immer völlig ausreichend ist, speziell wenn man die Gesamtperformence sich anschaut. Die Prozessorhersteller sind imho einfach nicht so schnell, wie die GPU-Hersteller.

Wenn man sieht, dass eine 9800xt in Spielen fast genauso schnell ist, wie eine GF6800U, dann liegt es nur am Rest des Systems. Besitzte man einen 5Ghz Prescott wäre der Unterschied imho viel größer. Auch in Realgames. Der 3dmark zeigt das Potential der Karte. Nicht des Gesamtsystems.

WTC
2004-04-15, 20:58:52
Original geschrieben von Leonidas
Na die ging sofort weiter zum nächsten Tester. Meine Karte ging direkt zur Computerbild Spiele.

und was wäre wenn du die karte ausversehen geschrottet hättest?? musst du solche "Testmuster" eigentlich dann aus eigener Tasche bezahlen??

007
2004-04-15, 20:59:38
ich würde eher auf haftpflichtversicherung tippen :)

dildo4u
2004-04-15, 21:37:40
bei giga zeigen sie grad euren test

Darkstar
2004-04-15, 21:37:42
Original geschrieben von Leonidas
Nein. U1 wurde seinerzeit mit Glide und OGL ausgeliefert - oder OGL kam im ersten Patch. Deswegen mussten plötzlich NV + ATI schnelle OGL-Treiber entwickeln, die über die für Q2 eingesetzten MiniGLs hinausgingen. D3D kam erst später hinzu und lief lange Zeit instabil und langsamer. Wie Mackg und Besuch schon richtig bemerkt haben, wurde Unreal mit folgenden drei APIs ausgeliefert: Glide, PowerSGL und Software. Alles andere (MeTaL, OpenGL und Direct3D) wurde erst später mit Patches nachgereicht, die PowerSGL-Unterstützung wurde sogar „weggepatcht“.

aths
2004-04-15, 22:06:29
Original geschrieben von Mehrpack
hi,
die arme karte :D.
weisst du auch wer die karte hatte bevor du sie bekommen hast?

Mehrpack Ich weiß es :) Direkt von Nvidia. Nvidia Deutschland brachte sie aus den Vereinigten Staaten mit, und sendete sie dann an Leo.

aths
2004-04-15, 22:07:53
Original geschrieben von Leonidas
Derzeit noch nicht, denn es ist ungewiss, ob wir eine Karte bekommen werden. Japp. Und ich bin doch ein klein wenig erstaunt, mit welcher Gelassenheit uns ATI ignoriert. Wir haben derzeit besseren Kontakt zu S3 oder XGI, als zu ATI :freak:

aths
2004-04-15, 22:11:08
Original geschrieben von DerUngläubigeThomas
Hi,
guter Artikel, aber was mich stutzig macht ist dieser enorm grosser Wert im 3DMark03!Ca.70% mehr Leistung als die bisherigen Karten wenn bei den Spielen durchschnittlich 20-30% zu verzeichnen ist!
Ich kriege aus meinen Kopf nicht raus das da etwas faul ist! Ich wette nvidia hat hier bis zum geht nicht mehr optimiert! Wie findet man es heraus ob das der Fall ist?!

Der ungläubige Thomas Durch nachdenken ;) Der 3DMark'03 ist vor allem Shader- und auch Geometrie-limitiert. Spiele sind überwiegend Füllraten- bzw. Bandbreitenlimitiert. Beim 3DMark konnte der NV40 seine Shader- und Geometrie-Power ganz gut ausspielen.

In Spielen kommt aber auch viel Mehrleistung an – wenn man "richtig" bencht. Bei Leonidas' CPU wird die Grafikkarte in mittelhohen Auflösungen bei mittleren AA/AF-Einstellungen eben noch nicht ganz ausgereizt.

LovesuckZ
2004-04-15, 22:13:36
Original geschrieben von aths
Japp. Und ich bin doch ein klein wenig erstaunt, mit welcher Gelassenheit uns ATI ignoriert. Wir haben derzeit besseren Kontakt zu S3 oder XGI, als zu ATI :freak:

Ihr könntet ja mal bei S3 anfragen, wenn sie denn den Deltachrome in Deutschland veröffentlichen wollen :)
Ansonsten, auch mit der Danksagung, habt ihr gezeigt, dass Nvidia gar nicht so übel ist, wie man von einigen hört.

robbitop
2004-04-15, 22:31:18
@aths
sei froh, die Arbeit die ihr beim NV40 hattet und dann nochmal für R420 oha...danach wärt ihr reif für die Insel und nur so habt ihr solche ein Feuerwerk für NV40 bieten können.
Ich denke mal, dass die NV40 Vorstellenden in den seltensten Fällen einen R420 bekommen...nach dem was man so hört.

THG Leser
2004-04-15, 22:40:19
Das 3dc Review hätte auch auf das Shaderproblem bei Far Cry eingehen koennen finde ich,denn mich würde es wirklich mal interessieren,warum der NV 40 eine so schlechte Shaderqualität hat.

Jedenfalls nach denn Screenshots im THG Review...

robbitop
2004-04-15, 22:42:20
@THG
tja mangelnde Zeit könnte da ein Faktor sein

ich tippe auf bandbreite oder CPU Leistung..vieleicht ne mischung

thop
2004-04-15, 23:30:59
Original geschrieben von Leonidas
Na die ging sofort weiter zum nächsten Tester. Meine Karte ging direkt zur Computerbild Spiele.
So eine Schande deine schöne Karte solchen Banausen zu schicken :-(

aths: Wie sind denn die Kontakte zu PowerVR? :naughty: ;)

Seti
2004-04-15, 23:38:09
HM.. wann ist denn diese Karte erhältlich?

kmf
2004-04-15, 23:45:31
Original geschrieben von aths
Japp. Und ich bin doch ein klein wenig erstaunt, mit welcher Gelassenheit uns ATI ignoriert. Wir haben derzeit besseren Kontakt zu S3 oder XGI, als zu ATI :freak:

Anflug von Ignoranz oder Überheblichkeit seitens ATI? Oder die kriegen den Termin, aus welchen Gründen auch immer, nicht gepeilt.

thop
2004-04-15, 23:46:47
Vermutlich in 3-5 Wochen, so genau weiß das niemand.

PS. Falls 3DC den R420 bekommt sollte der aber unbedingt im gleichen System gebencht werden, und nicht im angekündigten A64 System!

nggalai
2004-04-15, 23:52:28
Original geschrieben von aths
Japp. Und ich bin doch ein klein wenig erstaunt, mit welcher Gelassenheit uns ATI ignoriert. Wir haben derzeit besseren Kontakt zu S3 oder XGI, als zu ATI :freak: Jaja. Ich weiss. Muss da noch nachfassen, kam aber diese Woche noch ned dazu. :( Ich mach glaub' echt noch zwei Threads dazu öffentlich auf, andererseits haben die Leute nachm Präsentations-Leak und Toronto eh Stress wie blöde ...

93,
-Sascha.rb

aths
2004-04-16, 00:01:41
Original geschrieben von thop
So eine Schande deine schöne Karte solchen Banausen zu schicken :-(

aths: Wie sind denn die Kontakte zu PowerVR? :naughty: ;) PowerVR? Kann man von denen – theoretisch – 'ne aktuelle Karte kriegen?

nggalai
2004-04-16, 00:03:44
Original geschrieben von aths
PowerVR? Kann man von denen – theoretisch – 'ne aktuelle Karte kriegen? Ja und nein. ;) Ich arbeite daran.

93,
-Sascha.rb

aths
2004-04-16, 00:12:31
Original geschrieben von kmf
Anflug von Ignoranz oder Überheblichkeit seitens ATI? Oder die kriegen den Termin, aus welchen Gründen auch immer, nicht gepeilt. Ok, mal etwas aus dem Nähkästchen geplaudert.

NV briefte 3dc vorab in München. (Seit dem 26. 2. musste ich mein Maul halten und diese Spekulationen in den Foren ertragen. Schrecklich, wenn man schon weiß, was kommen wird.) NV zerrte uns förmlich auf der CeBit ins Hinterzimmer. Auf NVs Kosten vertrat ich 3DCenter beim Editor's Day 2004. (Und trotzdem dürfte der Artikel nicht nach NVs Geschmack sein :)) Aber zur CeBit: Leo sprach mit einem ATI-PR aus Deutschland. Irgendwie hatte ich den Eindruck, dass der Mann entweder überarbeitet, oder desinteressiert war. Natürlich sind wir jetzt nicht das entscheidende Medium, aber nun auch nicht sooo klein, dass auf der CeBit kein "Techniker" Zeit für uns fand. S3 und XGI behandelten uns höflich, und hatten einen da, der von Technik durchaus Ahnung hatte (wenn auch natürlich nicht jedes Detail parat.)

Da wird es natürlich, sobald ich dazu die Zeit habe, für S3 und für XGI jeweils einen Artikel geben. Sonderlich groß werden die wohl nicht, aber ich denke auch die "kleinen" IHVs haben durchaus interessante Sachen, die einen Artikel lohnen. Auch über ATIs neues Werk werden wir schreiben, was wir an Informationen zusammentragen können. ATI wird also nicht "abgestraft", weil sie uns ignorieren. Die Behandlung wird ebenso kritisch-fair sein. Klar ist aber auch, mit einem brauchbaren ATI-Kontakt, der echte Infos rausrückt, würden die Artikel länger (einfach weil man mehr hat, worüber sich schreiben lässt.)

thop
2004-04-16, 00:24:19
Original geschrieben von aths
PowerVR? Kann man von denen – theoretisch – 'ne aktuelle Karte kriegen?
Das war eigentlich die Frage die ich damit stellen wollte ;)

Leonidas
2004-04-16, 01:45:43
/Update 16.4., 01:10
Kommentierung zu den Benchmarks hinzugefügt.

/Update 16.4., 01:40
Komprimierte Ergebnis-Übersicht im Fazit hinzugefügt.

Leonidas
2004-04-16, 01:47:39
Original geschrieben von Willi the champ
und was wäre wenn du die karte ausversehen geschrottet hättest?? musst du solche "Testmuster" eigentlich dann aus eigener Tasche bezahlen??


Dann hätte ich wohl ein Problem mit dem Hersteller. Wobei es darauf ankommen würde, ob ich sie schuldhaft oder nicht schuldhaft kaputt gemacht habe. Wenn eine Beta-Karte kaputt geht, kann das schließlich auch an der Karte selber liegen, hierfür haben die Hersteller Verständnis.

Leonidas
2004-04-16, 01:49:55
Original geschrieben von robbitop
@THG
tja mangelnde Zeit könnte da ein Faktor sein



Exakt. Plus der Punkt, daß ich von dem Shader-Problem in FC bisher nix wusste. Aber dafür sind die anderen Reviews im Web da: Das zu machen, was wir nicht gemacht haben. Thema der News.

Leonidas
2004-04-16, 01:53:47
Original geschrieben von Seti
HM.. wann ist denn diese Karte erhältlich?


Oops. Eine der wichtigsten Angaben glatt vergessen.


nVidia-offizielle Aussage: Innerhalb der nächsten 45 Tage.

Leonidas
2004-04-16, 01:54:41
Original geschrieben von thop
PS. Falls 3DC den R420 bekommt sollte der aber unbedingt im gleichen System gebencht werden, und nicht im angekündigten A64 System!


Auf jeden Fall. Bis zu diesem Zeitpunkt hab ich auch gar keine Zeit, ein neues System zusammenzustellen und einzurichten.

Eliot
2004-04-16, 05:48:12
Was mich bei allen Reviews immens stört ist, daß niemand auch nur 1x darauf eingeht, welche Power diese neue Grafikkarte zieht... 2x 12V Stecker, anzunehmende 120W-160W Verlustleistung unter Volllast, verglichen mit einer Radeon 9800XT, die wohl bei unter 60W liegt...

Alle wollen "silent", aber dann werden solche Monster gezüchtet... von doppelter Leistung kann nur in den seltensten Fällen gesprochen werden ... von der Umweltbelastung gar nicht zu reden...


Eliot.

Leonidas
2004-04-16, 05:54:15
Mmh. Power ist mir ehrlicherweise wurscht, so lange die Karte leise ist.

BodyLove
2004-04-16, 06:32:54
Original geschrieben von aths
Japp. Und ich bin doch ein klein wenig erstaunt, mit welcher Gelassenheit uns ATI ignoriert. Wir haben derzeit besseren Kontakt zu S3 oder XGI, als zu ATI :freak:

Wie wäre es, wenn sich die Forumsuser mal aktiv daran beteiligen, und ATI Germany mit Mailanfragen förmlich höflich "bombadieren"?

Mehrpack
2004-04-16, 09:05:43
Original geschrieben von BodyLove
Wie wäre es, wenn sich die Forumsuser mal aktiv daran beteiligen, und ATI Germany mit Mailanfragen förmlich höflich "bombadieren"?

hi,
mhh gute idee, aber was sollte man denn schreiben?
geht ja schlecht karte für 3DC raus oder wir stürmen den laden :D.

@aths/leo: thx, also hattet ihr eine jungfreuliche karte in die hände bekommen oder schätz ihr das sie schon vorher in amerika rumgereicht wurde?

Mehrpack

robbitop
2004-04-16, 09:29:06
doch bei THG und Gamestar wurde die Leistungsaufnahme gemessen. Laut Gamestar rangierte die Karte unter Volllast zwischen 80 und 95W.
Laut THG hat NV40 rund 25W mehr Leistungsaufnahme als NV38 und R360 (beide ffast gleich).
TDP der NV40 soll laut David Kirk 120W sein, was bisher noch nicht erreicht wurde. THG sagt 110W. Per Differenzmessung lässt sich das nicht so genau sagen.
R9800XT und 5950 sollten bei max 100W liegen. Alles unter 80-90W ist auf für die Karten der letzten Generation Utopie.
Nur 25W mehr, das ist erträglich und für mich besser als erwartet.
ATi wird sicher auch nicht soo weit darunter liegen.

robbitop
2004-04-16, 09:31:04
ich denke mal die Karte war jungfräulich. Wenn man bedenkt, dass die Karte erst in 1-1,5 Monaten erscheint und sich Leos Artikel anschaut dann glaube ich kaum, dass zeitlich vor ihnen schon jmd überhaupt Karten gehabt haben.
Ich finde es klasse, dass man 3dc dieses Jahr endlich mal die verdiente Aufmerksamkeit leistet.

aths
2004-04-16, 09:56:14
Original geschrieben von Mehrpack
hi,
mhh gute idee, aber was sollte man denn schreiben?
geht ja schlecht karte für 3DC raus oder wir stürmen den laden :D.

@aths/leo: thx, also hattet ihr eine jungfreuliche karte in die hände bekommen oder schätz ihr das sie schon vorher in amerika rumgereicht wurde?

Mehrpack Die war so frisch, dass sie fast noch nass war =) Wir kamen in die weltweit erste Charge rein :) (Was die Pressefuzzis angeht. Einige Entwickler hatten ein Sample wohl schon deutlich früher.)

nggalai
2004-04-16, 10:17:37
Original geschrieben von BodyLove
Wie wäre es, wenn sich die Forumsuser mal aktiv daran beteiligen, und ATI Germany mit Mailanfragen förmlich höflich "bombadieren"? Wir sind mitlerweilen mit 3 (wichtigen) Mützen von ATI in relativ engem Kontakt, i.e. wir arbeiten daran. Mailingaktion wäre momentan eher kontraproduktiv. Können wir ja später immernoch machen. *eg*

93,
-Sascha.rb

Mehrpack
2004-04-16, 11:31:26
Original geschrieben von aths
Die war so frisch, dass sie fast noch nass war =) Wir kamen in die weltweit erste Charge rein :) (Was die Pressefuzzis angeht. Einige Entwickler hatten ein Sample wohl schon deutlich früher.)

hi,
nass ;D.
mensch da muss man sich doch wie zu weihnachten als 5 jähriger fühl der gerade die erste eisenbahn bekommt =).

Mehrpack

Leonidas
2004-04-16, 12:25:03
Original geschrieben von Mehrpack
@aths/leo: thx, also hattet ihr eine jungfreuliche karte in die hände bekommen oder schätz ihr das sie schon vorher in amerika rumgereicht wurde?



Glaube nicht. Die war druckfrisch.

Leonidas
2004-04-16, 12:26:17
Original geschrieben von Mehrpack
mensch da muss man sich doch wie zu weihnachten als 5 jähriger fühl der gerade die erste eisenbahn bekommt =).



Habe von Donnerstag bis Mittwoch fast durchgehend an dem Teil gearbeitet, da gibt es nicht viel Freude.

dreas
2004-04-16, 12:40:17
Original geschrieben von Leonidas
Diese Lösung ist so von nVidia empfohlen. Ich habe extra nachgefragt, ob man nicht 2 extra Kabel nehmen soll - nein, nicht notwendig.

Der Vorteil der 2 Stromanschlüsse liegt in der Verteilung der Last. Der Anschluss beider Buchsen an ein Stromkabel hat den großen Vorteil das keine Potenzialunterschiede
(aufgrund z.B. unterschiedlicher Last bei verschiedenen sonstigen angeschlossenen Geräten) aufteten, welche die Karte schon empfindlich stören könnten.

gruesse dreas

Gast
2004-04-16, 13:53:56
Original geschrieben von dreas
Der Vorteil der 2 Stromanschlüsse liegt in der Verteilung der Last. Der Anschluss beider Buchsen an ein Stromkabel hat den großen Vorteil das keine Potenzialunterschiede
(aufgrund z.B. unterschiedlicher Last bei verschiedenen sonstigen angeschlossenen Geräten) aufteten, welche die Karte schon empfindlich stören könnten.

gruesse dreas

IMO ist der Potentailunterschied nicht so bedeutend (Masse wird eh im NT auf ein Level gezogen) vielmehr deutet es darauf hin das die Leiterbahnen den hohen Stromfluss einfach nicht verkraften und man deswegen lieber 2 Anschlüse nimmt.
Auf jeden fall kann man davon ausgehen, dass eine solche Graka (bzw Grafik Chip) nicht so schnell in mobilen geräten verwendung findet. Bei 120W Leistungsgenuß allein für Grafik-Subsystem werden die Batterien nicht lange mitmachen.
Wird also Zeit, dass ATI bzw nVidia die Brennstoffzelle für Laptops und PDAs zur Marktreife entwickeln, damit sie auch ihre Hochleistungschips in "moblie" Varianten verkaufen können.

MfG
BUGFIX

dreas
2004-04-16, 14:10:29
Original geschrieben von Gast
IMO ist der Potentailunterschied nicht so bedeutend (Masse wird eh im NT auf ein Level gezogen)

Der Potenzialunterschied liegt sicher im positiven Bereich.
Durch eventuell verschieden starke Verbraucher an den zwei Anschlüssen kommt es dann zu unterschiedlich starkem Spannungsabfall und damit differierendem Stromfluss.

Original geschrieben von Gast Auf jeden fall kann man davon ausgehen, dass eine solche Graka (bzw Grafik Chip) nicht so schnell in mobilen geräten verwendung findet. Bei 120W Leistungsgenuß allein für Grafik-Subsystem werden die Batterien nicht lange mitmachen.
Wird also Zeit, dass ATI bzw nVidia die Brennstoffzelle für Laptops und PDAs zur Marktreife entwickeln, damit sie auch ihre Hochleistungschips in "moblie" Varianten verkaufen können.

MfG
BUGFIX


Siehe http://www.heise.de/newsticker/meldung/46431

deekey777
2004-04-16, 14:27:05
Diese Frage bringt euch bestimmt zum Kochen, aber: Mit welchen Control Panel Einstellungen - sprich Einstellungen für die Texturen und die Mipmap Detailebene,- bzw. äquivalentes bei nVidia wurde getestet? Die Frage erscheint bestimmt trivial, aber interessant wäre das schon, da aus eigener Erfahrung die Testergebnisse infolge unterschiedlicher oben genannter Einstellungen relativ stark auseinander liegen können.

Gast
2004-04-16, 14:34:39
Original geschrieben von dreas
...
Durch eventuell verschieden starke Verbraucher an den zwei Anschlüssen kommt es dann zu unterschiedlich starkem Spannungsabfall und damit differierendem Stromfluss.

Spannungsabfall hättest du nur dann wenn dein NT schlapp macht. Die 12V Leitungen sind untereinander verbunden - kann man nachmessen.
Gemäß der Physik zieht man die maximale Leistung aus einer Spannungsquelle, wenn man sie mit einem Widerstand belastet wird der dem Innenwidertstand entspricht.
Einen Spannungsabfall hättest du nur dann wenn die Geräte so viel Strom ziehen, dass der Innenwiderstand deutlich zum tragen kommt (nahe Kurzschlussfall). Und selbst für den fall das die Spannung schwankt, tut sie das auf allen Strängen gleich.



Siehe http://www.heise.de/newsticker/meldung/46431

Leider schreiben die nicht dazu welche Nennleistung die Brennstoffzelle hat.

MfG
BUGFIX

Gast
2004-04-16, 15:11:18
Mal ein bisschen OT:

Habe gerade GigaHelp gesehen (habs auf Video aufgenommen, um mal zu sehen wie Daus über den NV40 denken).

Die haben doch tatsächlich euren Bench-Artikel erwähnt und natürlich ein paar Benchs gezeigt. Allerdings haben sich die beiden sehr gewundert, dass die NV40 im Setting 3 so stark einbricht. Also haben sie kurz auf das Sternchen bei den Settings geschaut und reg18 gelesen. Die haben das tatsächlich als 18xAA interpretiert und es natürlich als sehr unfair empfunden mit diesem Setting zu testen.

Dannach haben sie noch die Benchs von ihrem Liebling Borsti von Tomshardware gezeigt.

Also wiedermal wahnsinnig kompetent.

Gast
2004-04-16, 15:12:47
Zur Info. Die Sendung war vom Donnerstag (21 Uhr).

Gast
2004-04-16, 16:49:55
Original geschrieben von Gast
Mal ein bisschen OT:

Habe gerade GigaHelp gesehen (habs auf Video aufgenommen, um mal zu sehen wie Daus über den NV40 denken).

Die haben doch tatsächlich euren Bench-Artikel erwähnt und natürlich ein paar Benchs gezeigt. Allerdings haben sich die beiden sehr gewundert, dass die NV40 im Setting 3 so stark einbricht. Also haben sie kurz auf das Sternchen bei den Settings geschaut und reg18 gelesen. Die haben das tatsächlich als 18xAA interpretiert und es natürlich als sehr unfair empfunden mit diesem Setting zu testen.

Dannach haben sie noch die Benchs von ihrem Liebling Borsti von Tomshardware gezeigt.

Also wiedermal wahnsinnig kompetent.

:lolaway: ist ja gigaschlecht :freak:

thop
2004-04-16, 17:01:01
Original geschrieben von Gast
Die haben das tatsächlich als 18xAA interpretiert und es natürlich als sehr unfair empfunden mit diesem Setting zu testen.
Irgendwie klingt mir das zu haarsträubend. 18AA? ;D

BodyLove
2004-04-16, 17:19:00
18xAA bei NV = 4xAA bei ATI.:spock:

;D

Mehrpack
2004-04-16, 17:26:03
Original geschrieben von Leonidas
Habe von Donnerstag bis Mittwoch fast durchgehend an dem Teil gearbeitet, da gibt es nicht viel Freude.

hi,
schon klar, ansonsten wärs ja nicht arbeit und so nen artikel schreibt sich net von selbst.
aber ich meinte das wo man das teil ausgepackt und eingebaut hat, nicht nen bischen freude darauf zusehn was das teil denn nun kann?


Mal ein bisschen OT:

Habe gerade GigaHelp gesehen (habs auf Video aufgenommen, um mal zu sehen wie Daus über den NV40 denken).

Die haben doch tatsächlich euren Bench-Artikel erwähnt und natürlich ein paar Benchs gezeigt. Allerdings haben sich die beiden sehr gewundert, dass die NV40 im Setting 3 so stark einbricht. Also haben sie kurz auf das Sternchen bei den Settings geschaut und reg18 gelesen. Die haben das tatsächlich als 18xAA interpretiert und es natürlich als sehr unfair empfunden mit diesem Setting zu testen.

Dannach haben sie noch die Benchs von ihrem Liebling Borsti von Tomshardware gezeigt.

Also wiedermal wahnsinnig kompetent.


das kommt davon wenn man das teil nicht liest und nur auf die benchmarks glotzt....

Mehrpack

Leonidas
2004-04-16, 20:14:17
Original geschrieben von deekey777
Diese Frage bringt euch bestimmt zum Kochen, aber: Mit welchen Control Panel Einstellungen - sprich Einstellungen für die Texturen und die Mipmap Detailebene,- bzw. äquivalentes bei nVidia wurde getestet?


default-Setting, da eh auf Max. Nur die trilineare Optimierung deaktiviert.

deekey777
2004-04-16, 22:16:02
Original geschrieben von Leonidas
default-Setting, da eh auf Max. Nur die trilineare Optimierung deaktiviert.

Danke!

Gast
2004-04-16, 22:45:29
wie waere es mal wenn man auch bei 3dcenter bei kommenden reviews versucht den framerate verlauf anzugeben statt nur den mittelwert, bzw. zumindest wenn moeglich minimalwerte. mit meiner FX5950 habe ich z.b. in comanche sobald AF aktiviert wird bei bestimmten stellen enorme dropdowns. [jede menge alphatest buesche] sowas ist leider nicht an einem mittelwert zu erkennen.

WeyounTM
2004-04-17, 09:44:36
Ohne den Thread jetzt hier durchgelesen zu haben, wollte ich Leo und der Crew zu den beiden guten Artikeln gratulieren. Das 3DC ist und bleibt imho der Gralshüter der Grakatechnik :up: (und ich fand das Benchen auf dem "kleinen" P4 sehr gut, weil ich auch "nur" einen Xp1700@2200MHz habe)!

/edit einmal ein vorwitzig doppeltes "bleibt" entfernt :bonk:

Karümel
2004-04-17, 10:47:51
Was für eine Firma ist eigentlich "Interprom" ?

aths
2004-04-17, 11:12:48
Original geschrieben von Karümel
Was für eine Firma ist eigentlich "Interprom" ? Arbeitet für Nvidia Deutschland.

zeckensack
2004-04-17, 11:59:44
Original geschrieben von Gast
Spannungsabfall hättest du nur dann wenn dein NT schlapp macht. Die 12V Leitungen sind untereinander verbunden - kann man nachmessen.
Gemäß der Physik zieht man die maximale Leistung aus einer Spannungsquelle, wenn man sie mit einem Widerstand belastet wird der dem Innenwidertstand entspricht.*hup*
Diesen Merksatz solltest du im Interesse der eigenen Gesundheit nur bei induktiven Generatoren beherzigen, ansonsten viel Spass beim Steckdosen-Kurzschliessen :freak:
Einen Spannungsabfall hättest du nur dann wenn die Geräte so viel Strom ziehen, dass der Innenwiderstand deutlich zum tragen kommt (nahe Kurzschlussfall).*nochmalhup*
Einen Spannungsabfall hat man immer dann, wenn über einen Leiter mit Widerstand >0 ein Strom fliesst. Also praktisch immer. In PCs werden AFAIK nicht besonders häufig Supraleiter verbaut.

Kannst du dir ja mal ausrechnen. Kupfer hat einen spezifischen Widerstand von 0,017 Ohm*mm²/m IIRC. Macht für 1mm² Kabelquerschnitt und 40cm Leiterlänge 0,0425 Ohm. Bei 5A stellt sich auf der Leitung tatsächlich - und darauf bestehe ich - ein Spannungsabfall von 0,2125 Volt ein.
Und selbst für den fall das die Spannung schwankt, tut sie das auf allen Strängen gleich.Nur wenn bei allen Strängen das Produkt aus Zuleitungswiderstand und übertragenem Strom (hui, U=R*I) gleich ist. Zugegeben, das ist hier durchaus wahrscheinlich (zumindest annähernd) :|

Gast
2004-04-17, 14:39:14
Zum Topic:
Beim Benchmark Unreal Tournament 2003 wird die Geschichte der Unreal Engine erläutert, da fehlt AFAIK die Erwähnung des PowerVR-API Supports in der 1. Engine. Nur der Vollständigkeit halber...

Benedikt
2004-04-17, 15:57:35
Original geschrieben von aths
Die war so frisch, dass sie fast noch nass war =) Wir kamen in die weltweit erste Charge rein :) (Was die Pressefuzzis angeht. Einige Entwickler hatten ein Sample wohl schon deutlich früher.)

Hi,

was wird denn mit solch einer Presse-/Testkarte gemacht, nachdem die Karte ihre Runde gemacht hat? Geht die zurück nach Amerika? Oder wird sie demjenigen gegeben, der das "netteste" Review geschrieben hat? :)
Wird sowas dann noch verkauft, oder nicht?

MFG,
BW

Leonidas
2004-04-17, 16:23:27
Original geschrieben von Gast
Zum Topic:
Beim Benchmark Unreal Tournament 2003 wird die Geschichte der Unreal Engine erläutert, da fehlt AFAIK die Erwähnung des PowerVR-API Supports in der 1. Engine. Nur der Vollständigkeit halber...


Wo war der genau drin?

Leonidas
2004-04-17, 16:24:18
Original geschrieben von Benedikt
Hi,

was wird denn mit solch einer Presse-/Testkarte gemacht, nachdem die Karte ihre Runde gemacht hat? Geht die zurück nach Amerika? Oder wird sie demjenigen gegeben, der das "netteste" Review geschrieben hat? :)
Wird sowas dann noch verkauft, oder nicht?

MFG,
BW



Verbleibt bei NV für spätere Review-Anforderungen.

Leonidas
2004-04-17, 16:28:47
Original geschrieben von Gast
wie waere es mal wenn man auch bei 3dcenter bei kommenden reviews versucht den framerate verlauf anzugeben statt nur den mittelwert, bzw. zumindest wenn moeglich minimalwerte. mit meiner FX5950 habe ich z.b. in comanche sobald AF aktiviert wird bei bestimmten stellen enorme dropdowns. [jede menge alphatest buesche] sowas ist leider nicht an einem mittelwert zu erkennen.



Ich halte erst einmal prinzipiell nichts von Min-Werten. Min- und ds-Werte in einer Tabelle halte ich für mathematisch/statistischen Ober-Frevel, weil der eine Wert für eben einen einzelnen Wert steht und der andere Wert für den ds aus tausenden Werte. Anders formuliert: Das eine ist ein Einzelwert, daß andere eigentlich eine Wertemenge. Das ist unvergleichbar.

Daraus ergibt sich auch, daß ich Min-Werte für Blödsinn halte, eben weil es nur ein einzelner Wert ist. Um zu einem sinnvollen Minimum zu kommen, müsste man beispielsweise die niedrigsten 20 Prozent nehmen, die niedrigsten 3 Prozent davon abziehen und dann daraus einen ds bilden. Sozusagen ein Minimum-ds. Vorher werden Minimum-Werte bei mir kein Thema sein, da sträubt sich mein mathematischer Verstand dagegen.

Zum Thema Frameverlauf: Wäre nur mit den Fraps-gebenchten Games sowie UT2004 + DS möglich, also nicht einmal 1/3 des Testfeldes. Zudem habe ich bisher noch nie gesehen, daß solche Kurven deutlich andere Verläufe ergeben hätten, Ausnahme: PowerVR-Beschleuniger. Aber das Thema bleibt im Hinterkopf.

Leonidas
2004-04-17, 17:21:35
Zwei Fehler trug unser Benchmark-Artikel zur GeForce 6800 Ultra noch, welche nun korrigiert sind: Zum einen beträgt der Listenpreis der Karte nicht 399 Dollar, sondern 499 Dollar (vor MwSt) bzw. hierzulande 549 Euro (inkl. MwSt). An dem Preis der "normalen" GeForce 6800 mit 299 Dollar (vor MwSt) ändert sich nichts, deren deutscher Listenpreis liegt im übrigen bei 349 Euro (inkl. MwSt). Der 499-Dollar-Startpreis ist im übrigen als normal zu betrachten, nahezu alle HighEnd-Beschleuniger der letzten Zeit traten mit diesem Startpreis an. Angesichts des nun 200 Dollar/Euro hohen Preisunterschiedes zwischen GeForce 6800 und GeForce 6800 Ultra wird die non-Ultra-Version natürlich wieder etwas attraktiver, wobei - ohne das Wissen über deren Taktraten - eine endgültige Beurteilung noch nicht erfolgen kann.

Der zweite Fehler betrifft die Stromzufuhr zur Karte: Wir schrieben hierzu in der originalen Fassung des Artikels, daß die Empfehlung von nVidia ein Stromkabel mit Y-Adapter sei - was ein Fehler ist. Die richtige Empfehlung seitens nVidia lautet: Zwei extra Stromkabel, welche ansonsten unbelegt sind. Zwar funktioniert technisch die Karte laut nVidia auch in der von uns genannten (und eingesetzten) Variante, allerdings will man für die Lösung mit nur einem Stromkabel samt Y-Adapter keine Garantie für den Dauereinsatz übernehmen. Wir bitten diese beiden Fehler zu entschuldigen, im Artikel wurden die entsprechenden Stellen korrigiert.

Gast
2004-04-17, 18:38:13
Unreal 1 unterstüzte in der Release Version 3-Renderpfade:
1. 3dfx Glide
2. PowerVR SGL
3. Software Rendering

per Patch kamen dann noch S3Metal, D3D und OpenGL dazu.

Karümel
2004-04-17, 18:54:43
Original geschrieben von Leonidas

Der zweite Fehler betrifft die Stromzufuhr zur Karte: Wir schrieben hierzu in der originalen Fassung des Artikels, daß die Empfehlung von nVidia ein Stromkabel mit Y-Adapter sei - was ein Fehler ist. Die richtige Empfehlung seitens nVidia lautet: Zwei extra Stromkabel, welche ansonsten unbelegt sind. Zwar funktioniert technisch die Karte laut nVidia auch in der von uns genannten (und eingesetzten) Variante, allerdings will man für die Lösung mit nur einem Stromkabel samt Y-Adapter keine Garantie für den Dauereinsatz übernehmen. Wir bitten diese beiden Fehler zu entschuldigen, im Artikel wurden die entsprechenden Stellen korrigiert.

Das mit den zwei Stromanschlüssen finde ich "so toll" :(
Auch wenn das mit einem Y-Stecker wohl bei den meißtens Karten funktionieren würde.

Leonidas
2004-04-18, 00:35:19
Original geschrieben von Gast
Unreal 1 unterstüzte in der Release Version 3-Renderpfade:
1. 3dfx Glide
2. PowerVR SGL
3. Software Rendering

per Patch kamen dann noch S3Metal, D3D und OpenGL dazu.



Stimmt. Ist gefixt. Wobei S3 IMO erst bei UT dazukam.

Gast
2004-04-18, 00:55:29
Weis ich nicht mehr genau, aber Unreal 1 hat bei mir (auf Version 2.26) eine S3 MeTaL Unterstützung (soll nicht in Besserwisserrei ausarten)

Gast
2004-04-18, 02:55:42
Der PowerVR Support wurde afaik eingebaut, weil es damals neben der großen 3dfx Schwemme auch die Apocalypse-3D mit PowerVR Chip gab. Dieser Chip wurde ja auch in etlichen Arcade Geräten eingebaut, damals dachte man wohl der hat Zukunft, auserdem sah Unreal damit auch recht ansehnlich aus

Aqualon
2004-04-18, 08:59:14
Was ich auch noch sehr interessant finde, ist die gute Performance des NV40 bei niedriger Taktung.

Selbst bei 200MHz Core-Takt hätte er noch einen theoretischen Füllraten-Vorteil von 50% gegenüber dem NV38 bzw. R360.

Wenn man mal die Übertaktungsergebnisse (http://3dcenter.de/artikel/nv40_benchmarks/index11.php) betrachtet (bei 300MHz Speichertakt), kann man auch interessantes feststellen. Bei einer Steigerung des Chip-Taktes um 33% von 300MHz auf 400MHz, skaliert die Framerate nur um 13,5% (bzw. anders gesehen ist 300MHz nur ~12% langsamer als 400MHz).

D.h. 25% weniger Takt ergeben nur 12% weniger Leistung. Wenn man das jetzt noch weiter nach unten rechnet, kommt man bei 200MHz, trotz 50% weniger Chip-Takt nur auf ~25% weniger Leistung. Dies würden immerhin noch 54fps sein, was verglichen mit den Standardtaktraten von 400MHz/550MHz immer noch 55% der Normal-Leistung ist.

Selbst wenn diese Rechnung praktisch nicht ganz haltbar sein sollte (mangels Karte kann ich das schlecht nachprüfen), dürfte der NV40 ein super Underclocking-Kandidat sein. Der Stromverbrauch dürfte sich bei 200MHz/300MHz auch in um einiges geringeren Bereichen bewegen, als die momentanen 100-120W.

Aqua

(del676)
2004-04-18, 11:08:19
Original geschrieben von Aqualon
Was ich auch noch sehr interessant finde, ist die gute Performance des NV40 bei niedriger Taktung.

Selbst bei 200MHz Core-Takt hätte er noch einen theoretischen Füllraten-Vorteil von 50% gegenüber dem NV38 bzw. R360.

Wenn man mal die Übertaktungsergebnisse (http://3dcenter.de/artikel/nv40_benchmarks/index11.php) betrachtet (bei 300MHz Speichertakt), kann man auch interessantes feststellen. Bei einer Steigerung des Chip-Taktes um 33% von 300MHz auf 400MHz, skaliert die Framerate nur um 13,5% (bzw. anders gesehen ist 300MHz nur ~12% langsamer als 400MHz).

D.h. 25% weniger Takt ergeben nur 12% weniger Leistung. Wenn man das jetzt noch weiter nach unten rechnet, kommt man bei 200MHz, trotz 50% weniger Chip-Takt nur auf ~25% weniger Leistung. Dies würden immerhin noch 54fps sein, was verglichen mit den Standardtaktraten von 400MHz/550MHz immer noch 55% der Normal-Leistung ist.

Selbst wenn diese Rechnung praktisch nicht ganz haltbar sein sollte (mangels Karte kann ich das schlecht nachprüfen), dürfte der NV40 ein super Underclocking-Kandidat sein. Der Stromverbrauch dürfte sich bei 200MHz/300MHz auch in um einiges geringeren Bereichen bewegen, als die momentanen 100-120W.

Aqua

:lolaway:

und bei 0 mhz hätte die karte wär die karte dann nur 50% langsamer oder wie :D

Schnitzl
2004-04-18, 12:12:17
hi,

wenn die Karte wenig Strom verbrauchen soll, muss unbedingt auch die Spannung abgesenkt werden.
Da aber nicht bekannt ist, welche Spannung für den Standard-Takt anliegt, kann man schlecht prognostizieren wie groß die Einsparung sein kann.
Gaube nicht wirklich, dass bei 220Mio Transistoren viel Spielraum ist...

MfG

MadManniMan
2004-04-18, 13:47:52
Original geschrieben von Aqualon
Selbst bei 200MHz Core-Takt hätte er noch einen theoretischen Füllraten-Vorteil von 50% gegenüber dem NV38 bzw. R360.

:| Wir reden aber schon vom gleichen Chip?

NV40 @ 200MHz -> 3.200 MTexel/s
NV38 / 475MHz -> 3.800 MTexel/s
R360 / 412MHz -> 3.296 MTexel/s

...50% mehr Füllrate ergäben eher runde 5.000MTexel/s

BUGFIX
2004-04-19, 00:09:29
Original geschrieben von zeckensack
*hup*
Diesen Merksatz solltest du im Interesse der eigenen Gesundheit nur bei induktiven Generatoren beherzigen, ansonsten viel Spass beim Steckdosen-Kurzschliessen :freak:

Gilt für alle arten von Kraftwerks-Generatoren (die grundsätzlich induktiv sind ) oder Spannungsquellen seitens Photoelektrischemeffekt (Solarzelle) oder chmeischer EMK (Batterie)
beimk Steckdosenkurzschließen hat man halt mitunter die gesammte Nennleistung des Kraftwerks über dem "Verbraucher" hängen, was dieser einem bestimmt übel nimmt - trotzdem wiederspricht es dem Merksatz nicht



*nochmalhup*
Einen Spannungsabfall hat man immer dann, wenn über einen Leiter mit Widerstand >0 ein Strom fliesst. Also praktisch immer. In PCs werden AFAIK nicht besonders häufig Supraleiter verbaut.

Das ist schon richtig - allerding sollte man Leiterwiederstände im eigenen Interesse zu den Last Widerständen rechnen.


Kannst du dir ja mal ausrechnen. Kupfer hat einen spezifischen Widerstand von 0,017 Ohm*mm²/m IIRC. Macht für 1mm² Kabelquerschnitt und 40cm Leiterlänge 0,0425 Ohm. Bei 5A stellt sich auf der Leitung tatsächlich - und darauf bestehe ich - ein Spannungsabfall von 0,2125 Volt ein.



Nur wenn bei allen Strängen das Produkt aus Zuleitungswiderstand und übertragenem Strom (hui, U=R*I) gleich ist. Zugegeben, das ist hier durchaus wahrscheinlich (zumindest annähernd) :|

Zum ersten Abschnitt - full ACK (bis auf die Temperaturabhängigkeit aber seis drum)
Beim Zweiten hast Du was übersehen:
wenn nämlich die Spannung wirklich "einseitig" sinkt, geht auch der Laststrom runter. Allerdings möchte ich hier bezweifeln , dass die Grafikkartenhersteller sich dessen nicht bewusst sind. Im "Notfall" stablilisiert man die Spannung intern.
IMO lasst sich nVidia mit der Aussage - 2 verschiedene Stränge benutzen - das Hintertürchen offen für den Fall das bei einer Einzelstrangabsicherung seitens des Netzteils die Gesammtlast der Grafikkarte füer einen Strang zu hoch ist.

MfG

BUGFIX

BUGFIX
2004-04-19, 00:13:48
OT:
jaja ich weiß:
Widerstände und widersprechen

Frage:
Warum hat das Forum eingentlich keine Rechtschreibprüfung?

MfG

BUGFIX

deekey777
2004-04-19, 00:25:31
Original geschrieben von BUGFIX
OT:
jaja ich weiß:
Widerstände und widersprechen

Frage:
Warum hat das Forum eingentlich keine Rechtschreibprüfung?

MfG

BUGFIX

Haben wir doch: aths, Exxtreme.......

Im Test der c't ist dieser schöne Satz zu finden:"In reinen Grafikdemos ohne CPU-Limitierung erzielt der GeForce 6800 Ultra einen besonders hohen Vorsprung -- so ewa bei ATIs Pipedream mit 86 zu 26 fps." Stimmt das, zumindest bei der 5950?

Xmas
2004-04-19, 12:52:09
Leo, wo bleibt das AA-Pattern-Update?

BUGFIX
2004-04-19, 12:58:35
Original geschrieben von deekey777
Haben wir doch: aths, Exxtreme.......



Naja man soll den Leuten doch nicht noch mehr Arbeit auftischen , als sie eh' schon haben.
Außerdem lässt sich sowas doch - im gegenastz zum Artikel schreiben - prima automatisieren.

MfG

BUGFIX

BodyLove
2004-04-19, 13:07:14
Original geschrieben von BUGFIX
Naja man soll den Leuten doch nicht noch mehr Arbeit auftischen , als sie eh' schon haben.
Außerdem lässt sich sowas doch - im gegenastz zum Artikel schreiben - prima automatisieren.

MfG

BUGFIX

Ist es doch. Jeder Stammleser von 3dcenter liest auch zur Korrektur durch. Imho haben sich die Stammleser daran gewöhnt und können nachvollziehen, wie schwer es sein kann, einen Artikel zu schreiben und dazu auch Korrektur zu lesen.

Ich sehe da keinen nennenswerten Nachteil. Und aths ist imho der letzte, der leichtsinnig fehler übersieht.

BUGFIX
2004-04-19, 15:10:03
OT:
Es ging mir nicht um das Korrekturlesen der Artikel im allgemeinen - das ist schon OK so.
IMO könnte man doch Allerweltsfehler - wie sie beim Forumspost auftreten automatisch korregieren lassen.

Das wäre dann Service made by 3DCenter

MfG

BUGFIX

deekey777
2004-04-19, 15:52:31
Original geschrieben von BUGFIX
OT:
Es ging mir nicht um das Korrekturlesen der Artikel im allgemeinen - das ist schon OK so.
IMO könnte man doch Allerweltsfehler - wie sie beim Forumspost auftreten automatisch korregieren lassen.

Das wäre dann Service made by 3DCenter

MfG

BUGFIX

"korrigieren" =)
Das, was von mir geschrieben wurde, ist ironisch gemeint. Die Mods weisen fast in jedem Post zB "währe" ohne "h", Standart mit d (hier kann man sich aber streiten) und ähnliches hin...

aths
2004-04-19, 16:17:42
Original geschrieben von BodyLove
Ich sehe da keinen nennenswerten Nachteil. Und aths ist imho der letzte, der leichtsinnig fehler übersieht. Na in der deutschen Version von "Inside NV40" habe ich massenhaft Schreibfehler übersehen. Eigene Fehler zu finden, ist irgendwie besonders schwer.

Original geschrieben von deekey777
Standart mit d (hier kann man sich aber streiten) Kann man nicht :)

deekey777
2004-04-19, 16:31:47
Original geschrieben von aths
Na in der deutschen Version von "Inside NV40" habe ich massenhaft Schreibfehler übersehen. Eigene Fehler zu finden, ist irgendwie besonders schwer.

Kann man nicht :)

Daran ist nur Microsoft schuld.

Leonidas
2004-04-19, 19:12:41
Original geschrieben von Xmas
Leo, wo bleibt das AA-Pattern-Update?



Als extra Artikel, ich bin noch dabei.

Leonidas
2004-04-19, 19:16:37
Original geschrieben von Gast
Weis ich nicht mehr genau, aber Unreal 1 hat bei mir (auf Version 2.26) eine S3 MeTaL Unterstützung (soll nicht in Besserwisserrei ausarten)


Thx, gefixt.

Xmas
2004-04-19, 19:54:50
Original geschrieben von Leonidas
Als extra Artikel, ich bin noch dabei.
Dafür ein extra Artikel? Die Informationen sind doch eigentlich ein wenig karg. Oder hast du noch weitere Vergleichsshots? Es wäre aber schön wenn du jetzt schon ein Mini-Update machen könntest das sagt dass die Pattern falsch sind und ein weiteres Update folgt, sonst kommen noch einige weitere auf die Schlussfolgerung dass 16xOGSS schneller als 8xS ist...

Aqualon
2004-04-19, 22:05:53
Original geschrieben von MadManniMan
:| Wir reden aber schon vom gleichen Chip?

NV40 @ 200MHz -> 3.200 MTexel/s
NV38 / 475MHz -> 3.800 MTexel/s
R360 / 412MHz -> 3.296 MTexel/s

...50% mehr Füllrate ergäben eher runde 5.000MTexel/s
Ich hab das auf die MPixel/s bezogen, in dem Fall würde der Vorteil von 50% stimmen. Wenn man die MTexel/s betrachtet hast du natürlich recht, da ist der NV40@200MHz leicht im Nachteil. Da bräuchte er schon gut über 300 MHz, um 50% Vorteil zu haben.

Dass meine Leistungs-Rückrechnung so nicht ganz stimmen kann, ist mir mittlerweile auch gekommen :sulkoff:

Aqua

MadManniMan
2004-04-20, 02:27:14
Original geschrieben von Aqualon
Ich hab das auf die MPixel/s bezogen, in dem Fall würde der Vorteil von 50% stimmen. Wenn man die MTexel/s betrachtet hast du natürlich recht, da ist der NV40@200MHz leicht im Nachteil. Da bräuchte er schon gut über 300 MHz, um 50% Vorteil zu haben.

Dass meine Leistungs-Rückrechnung so nicht ganz stimmen kann, ist mir mittlerweile auch gekommen :sulkoff:

Aqua

So gesehen hattest du natürlich recht - rein theoretisch. Wenn auch noch lange nicht praxisnah, so ist doch immernoch die Texelleistung eher ein Indikator für die praktische Leistung in ~DX7 Apps.
IMHO ist das gut am NV40-Murks-Test zu erkennen, dort kommt der NV40 auf etwa 1,7fache ST-Leistung des R360, schafft jedoch rund die 2fache MT-Leistung - was IIRC eher den tatsächlichen Rawpowerverhältnissen der Karten entspricht.

Wer andere Erfahrungen hat - er korrigiere mich!

Gast
2004-04-20, 10:13:08
Hi!

Bin leider auf einem Rechner der nicht mir gehört - deswegen unreg. Ich kann jetzt auch aus Zeitgründen nicht die ganze Diskussion durchlesen.
Habe aber so um Seite 6 die Unreal Diskussion um die unterstützten APis mitverfolgt. Habe ein Original (aus UK) Unreal - zwei Tage nachdem es rauskam - gekauft und verstaubt im Regal liegen... Bin mir nicht sicher aber ich kann mich dunkel erinnern, dass ich in meinem neuen Rechner mit Riva TNT nur Software auswählen konnte, da OpenGL NICHT zur Verfügung stand - nur glide und Software.
Wenn sich die Frage noch immer nicht geklärt hat und noch immer ein Interesse besteht, könnte ich es raufspielen und nachsehen.
Ansonsten ist mir das Entstauben zu mühselig :)


Ansonsten: Guter Artikel auf gewohntem Level!!

MfG

Gast
2004-04-23, 17:25:00
http://www.driverheaven.net/articles/driverIQ/

Gast
2004-04-23, 17:35:00
http://www.theinquirer.net/?article=15502

betasilie
2004-04-23, 17:39:05
Original geschrieben von Gast
http://www.driverheaven.net/articles/driverIQ/
The final issue is why have Futuremark stated that these drivers should be considered as approved? Its very clear to me that the 6800Ultra is not rendering the reference image as desired by 3Dmark, regardless of any performance impact and therefore isnt comparable to any other card. This in result is no different to the optimisations in previous drivers which Futuremark have frowned upon
:o

DerUngläubigeThomas
2004-04-23, 18:06:28
Original geschrieben von Gast
http://www.driverheaven.net/articles/driverIQ/

Ha! Wusst ich doch! Nvidia bleibt Nvidia!
NiVida!

BodyLove
2004-04-23, 18:58:16
Original geschrieben von Gast
http://www.driverheaven.net/articles/driverIQ/

Das kann doch nicht wahr sein. Man, dass man bei diesem Benchmark mit dieser Karte soviel Optimieren muss? Und Futuremark sitzt mit im Boot. Sehr schade. Dieser Versuch von nicht optimierungen seitens FM ist wohl nur eine Finte gewesen. Echt schade.

LovesuckZ
2004-04-23, 19:38:50
Original geschrieben von BodyLove
Das kann doch nicht wahr sein. Man, dass man bei diesem Benchmark mit dieser Karte soviel Optimieren muss? Und Futuremark sitzt mit im Boot. Sehr schade. Dieser Versuch von nicht optimierungen seitens FM ist wohl nur eine Finte gewesen. Echt schade.

Kannst du auch erklären, was dort optimiert wurde?
Zeckensack hat im beyond3d.com (http://www.beyond3d.com/forum/viewtopic.php?p=264990#264990) Forum dazu ein interessantes Posting abgegeben.

BodyLove
2004-04-23, 20:09:10
Original geschrieben von LovesuckZ
Kannst du auch erklären, was dort optimiert wurde?
Zeckensack hat im beyond3d.com (http://www.beyond3d.com/forum/viewtopic.php?p=264990#264990) Forum dazu ein interessantes Posting abgegeben.

Nope, weiss ich natürlich nicht. im Artikel wird aber auch keine Details genannt. Viel eher sprechen die Bilder. Nun gut, Zeckensack sieht es also mit Recht anders.

robbitop
2004-04-24, 01:50:30
naja mit 3DMarks kann man am besten Eindruck schinden. Und da jeder IHV optimiert, will man sich wohl nicht ins eigene Bein schiessen.

Gast
2004-04-24, 16:54:12
Original geschrieben von LovesuckZ
Kannst du auch erklären, was dort optimiert wurde?
Zeckensack hat im beyond3d.com (http://www.beyond3d.com/forum/viewtopic.php?p=264990#264990) Forum dazu ein interessantes Posting abgegeben.
Nun, wenn du die Bilder der 3 Chips vergleichst, dann sieht man, dass das "Muster" der 6800 nun ein nahezu perfekten Kreis ergibt, wohingegen die "Muster" der anderen 2 Karten eher 4 kleinen überlagerten Kreisen entspricht.
Mit anderen Worten: die 6800 arbeitet nun bei jedem Winkel quasi mit dem gleichen LOD, während die anderen 2 Chips bei 45° noch einen besseren LOD benutzen.

zumindest ist das mein Reim auf die Geschichte. Möge mich keiner von den Gurus enthaupten. :)

Power
2004-06-06, 11:16:41
Ich finde den Artikel recht gut nur die leicht Schwache CPU (2,53 nicht euer ernst ?)
Und ein 3,06 für Tests wird sich wohl von so einer Hardware Seite organisieren lassen.
Bin überzeugt das die 6800 erst mit nem 3 Ghz so richtig in fahrt kommt.
Es wird 6x AA von ATI mit 8x AA bei NV verglichen ?
Wenn entweder 6x gegen 6x oder 8x gegen 8x, wenn kein gemeinsamer Nenner dann last es doch, irgendwelche Mutmaßungen der ATI 6x entspricht dem NV 8x sind Spekulation.

mfg

Power

Exxtreme
2004-06-06, 11:30:55
Original geschrieben von Power
Ich finde den Artikel recht gut nur die leicht Schwache CPU (2,53 nicht euer ernst ?)
Und ein 3,06 für Tests wird sich wohl von so einer Hardware Seite organisieren lassen.
Glaubst du tatsächlich, daß die 500 MHz mehr das Kraut richtig fett machen? Der 3000'er hat eine ca. 20% höhere Taktfrequenz als der 2500'er. In der Praxis kommt aber meist eh' nur die Hälfte der Taktfrequenzerhöhung als Leistung an... also ca. 10%. Und 10% mehr spürst du in der Praxis nicht.

aths
2004-06-06, 12:41:34
Original geschrieben von Exxtreme
Glaubst du tatsächlich, daß die 500 MHz mehr das Kraut richtig fett machen? Der 3000'er hat eine ca. 20% höhere Taktfrequenz als der 2500'er. In der Praxis kommt aber meist eh' nur die Hälfte der Taktfrequenzerhöhung als Leistung an... also ca. 10%. Und 10% mehr spürst du in der Praxis nicht. 10% merkt man schon, imo.

Exxtreme
2004-06-06, 12:49:08
Original geschrieben von aths
10% merkt man schon, imo.
Vielleicht bei SETI oder bei extrem rechenintensiven Dingen wie Raytracing etc. Im Alltag wirst du das IMHO kaum merken. Untertakte mal deine CPU. Ich habe mal Ausschnitte aus einer Studie gelesen. Da stand drinn, daß man erst ca. 30% Unterschied merkt.

Quasar
2004-06-06, 13:02:25
Abgesehen davon laufen auch auf einem P4-3,0c etliche Games noch am Systemlimit bis einschließlich 2xAA/2xAF.

aths
2004-06-06, 13:11:29
Original geschrieben von Exxtreme
Vielleicht bei SETI oder bei extrem rechenintensiven Dingen wie Raytracing etc. Im Alltag wirst du das IMHO kaum merken. Untertakte mal deine CPU. Ich habe mal Ausschnitte aus einer Studie gelesen. Da stand drinn, daß man erst ca. 30% Unterschied merkt. Zumindest wenn man eine bestimmte Geschwindigkeit gewohnt ist, und man sich nicht schon in extrem hohen Sphären bewegt, sollten auch deutlich kleinere Unterschiede spürbar sein.

Dass von einer Takterhöhung nur die Hälfte ankäme, halte ich für eine zu grobe Vereinfachung. Wie viel ankommt hängt davon ab, wie stark die enstprechende Anwendung CPU-limitiert ist, bzw. wann und wo neue Flaschenhälse wie stark auftreten. Ob ich hier beim browsen +-30% CPU-Takt merke, hielte ich z. B. für fraglich, da hier ein 2800+ drin steckt, der so oder so "schnell genug" ist.

Exxtreme
2004-06-06, 13:17:55
Original geschrieben von aths
Dass von einer Takterhöhung nur die Hälfte ankäme, halte ich für eine zu grobe Vereinfachung. Wie viel ankommt hängt davon ab, wie stark die enstprechende Anwendung CPU-limitiert ist, bzw. wann und wo neue Flaschenhälse wie stark auftreten.
Die 50% waren mehr oder weniger mein persönlicher Erfahrungswert. Wobei das IMHO sogar ziemlich optimistisch gewählt wurde. Und mir ging es eher darum, daß der Unterschied 2500 MHz -> 3000 MHz in der Praxis IMHO nicht weltbewegend ist.

Hehe, was meinst du warum ich meinen 2600+'er AthlonXP nicht an den Nagel hänge? Das schnellste heutzutage verfügbare "normale" System dürfte maximal 30% schneller sein. Und dafür gebe ich keine Hunderte von € aus. :)