PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Performance-Verlust durch HDR beim NV40


Gaestle
2004-10-29, 12:42:08
Hallo,

laut NV soll der NV40 HDR in Hardware beherrschen ( http://www.nvidia.com/object/feature_HPeffects.htmlm ).

Warum bricht dann die Leistung bei HDR-Nutzung in FarCry um 40-50% ein (siehe test bei www.hardocp.com)?

Grüße

Tjell
2004-10-29, 13:05:09
Worin anders als in Hardware solle eine Grafikkarte üblicherweise Grafik berechnen (also auch HDR)? :uconf:

mapel110
2004-10-29, 13:17:49
Worin anders als in Hardware solle eine Grafikkarte üblicherweise Grafik berechnen (also auch HDR)? :uconf:

Ist garnicht unüblich zb bei mobile Grafikchips, dass einige Funktionen von der CPU berechnet werden, die normalerweise die Graka macht. Einige Vertexshaderdinge zb.

HDR soll angeblich den Speicherbandbreitenhunger verdoppeln, wenn ich da was nicht falsch verstanden habe.

Doc_Nitro
2004-10-29, 13:18:12
Hab irgendwie den Eindruck dass bei den FC Videos/Screenshots mit HDR bei NVidia enabled alles zu hell wird, da kriegt man fast schon Augenkrebs.

Nicht alles was technisch machbar ist muss auch einen Nutzen/Vorteil bringen oder ist das ganze noch Beta Status?

DrumDub
2004-10-29, 13:21:30
HDR soll angeblich den Speicherbandbreitenhunger verdoppeln, wenn ich da was nicht falsch verstanden habe.

u.a. und afaik für bilineares af braucht die gpu jetzt zwei takte, statt einem. für trilineares af also vier.

mapel110
2004-10-29, 13:22:11
Nicht alles was technisch machbar ist muss auch einen Nutzen/Vorteil bringen oder ist das ganze noch Beta Status?

Naja, es ist halt nicht per default eingeschaltet und wird auch nicht offiziell supported. Ist halt ein Goddie. Aber richtig implementiert ists schon. Es lässt sich ja noch über 4 Parameter justieren.
Ingame sieht HDR wirklich gut aus, nur in innenleveln wirkts hier und da übertrieben, aber in Aussenleveln kommts sehr gut an.

DrumDub
2004-10-29, 13:25:29
Hab irgendwie den Eindruck dass bei den FC Videos/Screenshots mit HDR bei NVidia enabled alles zu hell wird, da kriegt man fast schon Augenkrebs.


das ist der sinn der sache, weil es eben ein natürlicher effekt ist, der bisher nicht in spielen realisiert werden konnte. tatsächlich passt sich ja das auge einer überbelichtung nach einiger zeit an, was im spiel genauso geschieht. kommste aus nem dunklen raum, blendet dich die sonne in der realität auch. dieser effekt wird mittels hdr hier realisiert.

Tjell
2004-10-29, 13:34:11
Hab irgendwie den Eindruck dass bei den FC Videos/Screenshots mit HDR bei NVidia enabled alles zu hell wird, da kriegt man fast schon Augenkrebs...
Schonmal in die Sonne gestarrt?

Genau das wird, wie man in einem Video schön sehen kann, simuliert.
Die Intensität nach "Blick" in die Helligkeit bleibt kurz als Blendung sichtbar und schwächt sich nach ein paar Sekunden ab! Äußerst cool. :cool:

Manche sagen, daß sei nun alles viel zu hell, wirke zu künstlich usw., das ist dann eher die Wiedergabe subjektiver Begutachtung, denn den Leuten gefällt sicher eher ein "düsterer" Look (der aber nicht unbedingt etwas mit hellerem aber realerem Look zu tun haben muß ;) ).

ShadowXX
2004-10-29, 13:55:48
u.a. und afaik für bilenaeres af braucht die gpu jetzt zwei takte, statt einem. für trilineares af also vier.

was ziemlich logisch ist, da nun in einen fp64-Framebuffer geschrieben wird....

(Also doppelte Bandbreite + doppelte Filterzugriffe)

Aber zumindest auf der 6800Ultra ist die Geschwindigkeit zum Daddeln durchaus noch hoch genug....

Gaestle
2004-10-29, 15:27:30
Also naja, mißverständnisse allerorten.

1.) Mir geht's überhaupt nicht darum, ob HDR Eurer Meinung nach gut oder schlecht aussieht, da hat wohl jeder eine andere Meinung.

2.) Ist mir klar, dass alles in (irgendwelcher) Hardware gemacht wird. DArüber hinaus können die Radeons auch HDR handhaben, aber nicht in GPU-Hardware, hier macht das AFAIK die CPU. Ansonsten ist mir (in diesem Thread) Wurst wie die Radeons das machen, mir gehts hier explizit um die Funktionsweise des HDR und die Hardware-Implementation bei NV.

3.) Sind der Post mit Bandbreitenhunger und die Antwort von aths bzw.shadowXX dazu, die ersten Ansätze einer Antwort, die ich mit von meiner Frage erhoffte, deswegen stand das auch im Technologieforum, weil explizit eine "Wie funktioniert HDR auf NV40"-Frage (dachte ich zumindest).

Also nochmal meine Frage( n ) etwas deutlicher:
Warum schluckt das HDR, soviel Leistung (bzw. Bandbreite?), wenn der NV40 doch extra Hardware dafür hat?
Wenn die Bandbreite ein/DER Grund ist: warum braucht HDR soviel davon?
Gibt es außer der Bandbreite noch andere Faktoren?
Wenn ja: Warum, Weshalb, Wieso?

Ich hoffe, dass ich mich jetzt ein bißchen verständlicher ausgedrückt habe.

Grüße

DrumDub
2004-10-29, 15:44:37
hier wirds erklärt: http://www.3dcenter.org/artikel/nv40_technik/index4.php

hdr ist nicht hardwareseitig beim nv40 implementiert. die art des hdr (laut aths definition ist es nur mdr), welches in farcry genutzt wird, ist nur auf grund des 64bit framebuffer des nv40 möglich. das hdr in farcry wird über openexr (http://www.openexr.org) realisiert, welches für die berechnung in echtzeit einen 64bit framebuffer voraussetzt. af kann in diesem fall genutzt werden, weil die tmus 16fp-texturfilterung unterstützen. die r(v)3x0/4x0 haben nur einen klassichen 32bit framebuffer.

aths
2004-10-29, 17:27:14
2.) Ist mir klar, dass alles in (irgendwelcher) Hardware gemacht wird. DArüber hinaus können die Radeons auch HDR handhaben, aber nicht in GPU-Hardware, hier macht das AFAIK die CPU. Nein, auch da macht es der Grafikchip. Allerdings sind dort bei vielen Teilen "Umwege" zu nehmen, wo der NV40 "direkt" rechnen kann.

Also nochmal meine Frage( n ) etwas deutlicher:
Warum schluckt das HDR, soviel Leistung (bzw. Bandbreite?), wenn der NV40 doch extra Hardware dafür hat?
Wenn die Bandbreite ein/DER Grund ist: warum braucht HDR soviel davon?Na weil man statt mit 32 Bit pro Pixel arbeiten zu können dann schon 64 Bit braucht.

das hdr in farcry wird über openexr (http://www.openexr.org) realisiertOpenEXR ist lediglich ein Standard, der u. a. das FP16-Format genau so definiert, wie CineFX das ebenfalls handhabt.

Jesus
2004-10-29, 23:49:40
Hallo,

laut NV soll der NV40 HDR in Hardware beherrschen ( http://www.nvidia.com/object/feature_HPeffects.htmlm ).

Warum bricht dann die Leistung bei HDR-Nutzung in FarCry um 40-50% ein (siehe test bei www.hardocp.com)?

Grüße


lt. NV kann der nv40 sogar ...




Mit NVIDIAs 64-Bit-Technologie für Texturfilterung und Blending, einem auf dem OpenEXR-Standard der Hollywood-Effekteschmiede Industrial Light & Magic basierten Ansatz, fallen diese hardwareseitigen Einschränkungen jedoch ab sofort weg. Entwicklern stehen jetzt umfassende Shading-, Misch-, Filter- und Texturfunktionen zur Verfügung, mit denen sich Effekte wie irisierende Oberflächen, Bewegungsunschärfe und Soft Shadows äußerst wirklichkeitsgetreu realisieren lassen. Für eine genauere Pixelfarbdarstellung bieten die GeForce 6-Grafikprozessoren zudem ein neues Antialiasing-System, das sich eines gedrehten Rasters bedient.

Also quasi AA und HDR mit 64bit framebuffer ? Scheint nur leider in der Realität nicht zu funktionieren (siehe FC)...

Die Überschrift des Artikels lautet übrigens:

64-Bit-Filterung und Blending für Texturen

Gast
2004-10-29, 23:58:36
Ney, genauer lesen, die Erwähnung hier "Für eine genauere Pixelfarbdarstellung bieten die GeForce 6-Grafikprozessoren zudem ein neues Antialiasing-System, das sich eines gedrehten Rasters bedient" weist nur auf das Veränderte AA Verfahren hin, von HDR und AA ist da nix zu lesen meines Verständisses nach.

Jesus
2004-10-30, 00:15:50
Ney, genauer lesen, die Erwähnung hier "Für eine genauere Pixelfarbdarstellung bieten die GeForce 6-Grafikprozessoren zudem ein neues Antialiasing-System, das sich eines gedrehten Rasters bedient" weist nur auf das Veränderte AA Verfahren hin, von HDR und AA ist da nix zu lesen meines Verständisses nach.

könnte man meinen, allerdings gehts in dem ganzen Artikel um eben diese 64bit framebuffer (blending & texture filtering) und es wird AA als tolles Feature dazu angepriesen. (sowas nennt man auch Täuschung ;) )

Das ganze "Werbeplakat" könnt ihr hier sehen: http://www.nvidia.de/object/feature_HPeffects_de.html

Coda
2004-10-30, 00:20:59
OpenEXR ist sogar nur ein Dateiformat, da hat HardOCP mal wieder einen rießen Scheiß verzapft.

Xmas
2004-10-30, 05:43:52
Ach ja, das leidige Thema HDR...

Nein, R300 (bis R4xx) kann auch FP16 Rendertargets (sogar FP32, ebenso wie NV40), und er kann auch aus FP16 oder FP32-Texturen lesen.

Der NV40 kann dazu aber noch bei FP16-Rendertargets blenden und FP16-Texturen filtern, was ATI-Chips bisher nicht können. Aber das heißt noch lange nicht, dass diese FP16-Operationen genauso schnell wie die entsprechenden FX8-Operationen sind. Das sind sie nicht, sondern genau halb so schnell. Entsprechend ist anspruchsvolles HDR-Rendering eben auch langsamer. Daran werden aber auch die kommenden Generationen wenig ändern, da dies hauptsächlich eine Bandbreitenfrage ist. Lediglich bei TBDR lässt sich etwas Bandbreite sparen.

aths
2004-10-30, 06:12:32
könnte man meinen, allerdings gehts in dem ganzen Artikel um eben diese 64bit framebuffer (blending & texture filtering) und es wird AA als tolles Feature dazu angepriesen. (sowas nennt man auch Täuschung ;) )

Das ganze "Werbeplakat" könnt ihr hier sehen: http://www.nvidia.de/object/feature_HPeffects_de.htmlZitat: "Entwicklern stehen jetzt umfassende Shading-, Misch-, Filter- und Texturfunktionen zur Verfügung, mit denen sich Effekte wie irisierende Oberflächen, Bewegungsunschärfe und Soft Shadows äußerst wirklichkeitsgetreu realisieren lassen. Für eine genauere Pixelfarbdarstellung bieten die GeForce 6-Grafikprozessoren zudem ein neues Antialiasing-System, das sich eines gedrehten Rasters bedient."

Liest man genau, wird nicht ausdrücklihg gesagt, dass AA im Zusammenhang mit FP64-Alphablending funktioniert. (Allerdings wird dieser möglichen Interpretation auch nicht explizit widersprochen – MSAA kann aber nur beim 16- oder 32-Bit-Fixpoint-Target gemacht werden.) Solche Dinge findet man auch in ATIs Werbetexten.

Ailuros
2004-10-30, 07:28:13
Ach ja, das leidige Thema HDR...

Nein, R300 (bis R4xx) kann auch FP16 Rendertargets (sogar FP32, ebenso wie NV40), und er kann auch aus FP16 oder FP32-Texturen lesen.

Der NV40 kann dazu aber noch bei FP16-Rendertargets blenden und FP16-Texturen filtern, was ATI-Chips bisher nicht können. Aber das heißt noch lange nicht, dass diese FP16-Operationen genauso schnell wie die entsprechenden FX8-Operationen sind. Das sind sie nicht, sondern genau halb so schnell. Entsprechend ist anspruchsvolles HDR-Rendering eben auch langsamer. Daran werden aber auch die kommenden Generationen wenig ändern, da dies hauptsächlich eine Bandbreitenfrage ist. Lediglich bei TBDR lässt sich etwas Bandbreite sparen.

Wieviel waere schaetzungsweise "etwas"?

DrumDub
2004-10-30, 18:50:24
OpenEXR ist lediglich ein Standard, der u. a. das FP16-Format genau so definiert, wie CineFX das ebenfalls handhabt.

stimmt. habs vielleicht etwas missverständlich ausgrdrückt.


xmas

ahh.. gut mal den unterschied zu wissen.

Xmas
2004-10-31, 03:23:37
Wieviel waere schaetzungsweise "etwas"?
Da kommt es wohl auf das Verhältnis Texturbandbreite zu Framebuffer-Bandbreite an. Wenn wir mal annehmen, dass für HDR-Rendering dieselben Texturen verwendet werden, dann ergibt sich:

B: Gesamtbandbreite
T: Texturbandbreite beim IMR
F: Framebuffer-Bandbreite beim IMR ohne HDR
Z: Z-Buffer-Bandbreite
x: Einsparfaktor für T beim TBDR
y: Einsparfaktor für F beim TBDR
P: Postprocessing-Bandbreite für HDR

IMR ohne HDR: B = T + F + Z
IMR mit HDR: B = T + 2 * F + Z + P
TBDR ohne HDR: B = x * T + y * F
TBDR mit HDR: B = x * T + 2 * y * F + P

Danach sinkt der relative Bandbreitenvorteil eines TBDR bei HDR sogar eher... hmmm.

Gaestle
2004-11-05, 17:26:50
Sorry, aber einen hab' ich noch....

Warum ist dann eine 6600GT mit HDR bei drei von fünf Situationen in exakt der gleichen Liga wie eine 6800Ultra?

Macht der Takt die die fehlenden Quads wirklich unter Umständen 1:1 wett?

Beispiel:
http://www.xbitlabs.com/images/video/farcry13/training_hdr.gif

Grüße

Quasar
2004-11-05, 17:32:43
Die Frage habe nicht nur ich mir auch schon gestellt.

Das hatte Anton Shilov zu sagen (ich denke nicht, daß es irgendwie geheim ist, deswegen hier ein Auszug):
OpenEXR actually sports different compression methods for the HDR. I believe the 6600 and 6800 series may use different compression
patterns. We did not compare image quality between both, but we are
planning to do this one of these days. The second possibility - there
are certain things that slowdown NV40 speed is also possible. And the
third thing can be correct as well Even though I'm pretty confident
that Alexei and Yaroslav did everything correctly.

That's my assumptions, not something that should be considrered as reality.

Ich hatte drei Möglichkeiten zu bedenken gegeben, die mir eingefallen waren:

Three factors remain, i could not rule out:
- an internal problem of the GPU, slowing down HDR on nV40 more than it should
- a problem with Far Cry not doing the same thing with nV43, as not filtering the FP-Rendertarget at all (don't know, if FP-Filtering is done at
all)
- a problem with your measurements (sorry to say that, but it's at least a _possibility_)

DrumDub
2004-11-05, 17:36:46
die 6600gt lief auf nem anderen system wegen pci-e. obs daran liegt? http://www.xbitlabs.com/articles/video/display/farcry13_5.html

deekey777
2004-11-05, 17:37:56
Das mit den NV43ern&HDR ist ein "Mysterium", welches Quasar schon einem anderen Thread aufgefallen ist.
Entweder ist es nur ein X-bit Ausrutscher, oder es liegt am System (ein P4 560 gegen AMD 4000+), was ich aber nicht glaube. Bisher wollte das hier keiner erklären... ;(

PS: In den Comments steht, dass die 70er ForceWare-Generation mit HDR besser klar kommen soll. Kann das einer bestätigen bzw. dementieren?


€:
Das ist so fies: Wenn ich ein Posting verfasse, bei dem ich mir nicht ganz sicher bin, lasse ich mir viel Zeit und schaue auch auf andere Seiten, und andere schreiben zT, was ich schreiben wollte. ;(

Quasar
2004-11-05, 17:39:03
PS: In den Comments steht, dass die 70er ForceWare-Generation mit HDR besser klar kommen soll. Kann das einer bestätigen bzw. dementieren?
Auf meinem nV40 hab ich nur 10-20% Verlust durch HDR in 1024 - das führte ich aber ehrlich gesagt eher auf mein niedriges CPU-Limit zurück.

mapel110
2004-11-05, 17:39:59
die 6600gt lief auf nem anderen system wegen pci-e. obs daran liegt? http://www.xbitlabs.com/articles/video/display/farcry13_5.html

Wemm HDR aktiv ist, sollte es wirklich die Grafikkarte auf solchen Systemen sein, die limitiert.

PS: In den Comments steht, dass die 70er ForceWare-Generation mit HDR besser klar kommen soll. Kann das einer bestätigen bzw. dementieren?

subjektiv hatte ich auch den Eindruck. hatte erst den 70.41 drauf, aber der hatte probs mit Men of Valor, und nun 66.77 scheint nicht wirklich so perfomant bei farcry HDR zu sein.

DrumDub
2004-11-05, 17:58:24
Wemm HDR aktiv ist, sollte es wirklich die Grafikkarte auf solchen Systemen sein, die limitiert.

eiegntlich nicht. das ist mir schon klar. ob pci-e da einen einfluss hat? macht aber auch irgendwie keinen sinn.


deekey777

ist ja schon gut... :comfort:

Demirug
2004-11-05, 18:02:36
Wemm HDR aktiv ist, sollte es wirklich die Grafikkarte auf solchen Systemen sein, die limitiert.

Bei HDR ohne AF wäre ich mir da nicht so sicher. Die Implementierung nutzt sehr CPU-lastige DirectX Calls.

Quasar
2004-11-05, 18:04:44
Das müsste meinen P3 ja absolut töten...

DanMan
2004-11-05, 18:21:44
Wemm HDR aktiv ist, sollte es wirklich die Grafikkarte auf solchen Systemen sein, die limitiert.
Naja, weiter oben im Thread wird aber ständig darüber geredet, dass HDR jede Menge Bandbreite beansprucht. Und das ist ja der große (einzige?) Vorteil von PCIe.

Demirug
2004-11-05, 18:22:21
Das müsste meinen P3 ja absolut töten...

So schlimm ist es auch nicht. Ich wollte nur zu bedenken geben das wenn man ohne HDR CPU limiert ist man auch mit HDR noch CPU limiert sein kann obwohl die FPS geringer sind.

Quasar
2004-11-05, 18:24:20
Solange nichts auszulagern ist, ist damit aber lokale Speicherbandbreite gemeint, von der die 6800u mehr als doppelt soviel hat, wie die 6600GT.

Demirug
2004-11-05, 18:28:12
Naja, weiter oben im Thread wird aber ständig darüber geredet, dass HDR jede Menge Bandbreite beansprucht. Und das ist ja der große (einzige?) Vorteil von PCIe.

HDR braucht viel Bandbreite zwischen GPU und Videospeicher. Die Bandbreite zwischen Hauptspeicher und GPU spielt da eigentlich keine Rolle. Allerdings braucht HDR auch zusätzlich Videospeicher was dazu führen könnte das dieser nicht mehr reicht. Bei sowas könnte PCIe und AGP durchaus einen Unterschied verursachen.

Quasar
2004-11-05, 18:30:52
In diesem Falle halte ich das eher für unwahrscheinlich, denn dann müsste die 6600GT massiv über den PCIe auslagern, da sie schon von Hause aus nur halb soviel VRAM hat, wie die 6800GT/ultra.

Und das bereits in 1024 plain vanilla.

Demirug
2004-11-05, 18:46:31
In diesem Falle halte ich das eher für unwahrscheinlich, denn dann müsste die 6600GT massiv über den PCIe auslagern, da sie schon von Hause aus nur halb soviel VRAM hat, wie die 6800GT/ultra.

Und das bereits in 1024 plain vanilla.

Das war auch nur auf den Fall bezogen das die AGP und PCIe Karte über die gleiche Menge VRAM verfügt.

Quasar
2004-11-05, 19:29:19
Schon klar, aber es gibt ja etliche Leutz hier im Forum, die gern mal was in den falschen Hals kriegen - von wegen "native PCIe" als Alleinstellungsmerkmal. ;)

DanMan
2004-11-05, 20:11:35
Öhm, ist die Bandbreite zwischen Graka und CPU nicht auch höher durch PCIe? Alleine dadurch, dass die Übertragung nun wirklich bidirektional ist? Oder hab ich da was falsch mitbekommen?

mapel110
2004-11-05, 20:17:49
Öhm, ist die Bandbreite zwischen Graka und CPU nicht auch höher durch PCIe? Alleine dadurch, dass die Übertragung nun wirklich bidirektional ist? Oder hab ich da was falsch mitbekommen?

http://www.hardwareluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=3&t=000016&p=6
da wirds recht gut erklärt.

Demirug
2004-11-05, 20:17:53
Öhm, ist die Bandbreite zwischen Graka und CPU nicht auch höher durch PCIe? Alleine dadurch, dass die Übertragung nun wirklich bidirektional ist? Oder hab ich da was falsch mitbekommen?

Ja, sie ist höher nur bringt das in der Regel nichts weil dort kaum ein Flaschenhals auftritt.

deekey777
2004-11-05, 21:03:16
PCI Express durchleuchtet: Alle Modi im Test (http://www.de.tomshardware.com/graphic/20041105/index.html)

Ziemlich interessant. :)

Wenn noch ein AGP-System miteingezogen worden wäre, wäre die Welt perfekt. Aber die Unterschiede 4x, 8x und 16x sind sehr gering.

DanMan
2004-11-05, 22:31:32
PCI Express durchleuchtet: Alle Modi im Test (http://www.de.tomshardware.com/graphic/20041105/index.html)

Ziemlich interessant. :)

Wenn noch ein AGP-System miteingezogen worden wäre, wäre die Welt perfekt. Aber die Unterschiede 4x, 8x und 16x sind sehr gering.
Hmm, ja. Für Spiele scheint PCIe keine große Rolle zu spielen i.M. Wahrscheinlich wegen den vielen Kompressionsverfahren, die da im Einsatz sind?
Wenn ja, könnte man denn nicht theoretisch Geschwindigkeit hinzugewinnen, wenn man auf bestimme Kompressionen verzichtet, und diese Daten dann unkomprimiert über den viel "breiteren" PCIe Bus schickt? "Platz" wäre ja im Moment genug, und die Rechenzeit fürs De- und Komprimieren könnte man sparen. Mir ist aber schon klar, dass das ein technologischer Rückschritt wäre. Nur mal so als laienhaftes Hirngespinnst.

mapel110
2004-11-05, 22:42:16
PCIe hat max 4 GB/s(2x2GB), das Graka-interne Speicherinterface einer aktuellen High end Karte hat ca 35 GB/s.

Macht also keinen Sinn, besonderen Wert auf das Auslagern von Texturen und Daten in den Systemspeicher zu legen. Vorallem wäre das abschalten von Komprimierungen wenig hilfreich bzw kontraproduktiv. :)

DanMan
2004-11-05, 23:52:40
PCIe hat max 4 GB/s(2x2GB), das Graka-interne Speicherinterface einer aktuellen High end Karte hat ca 35 GB/s.

Macht also keinen Sinn, besonderen Wert auf das Auslagern von Texturen und Daten in den Systemspeicher zu legen. Vorallem wäre das abschalten von Komprimierungen wenig hilfreich bzw kontraproduktiv. :)
Ok. :)

MechWOLLIer
2004-11-06, 09:40:13
PCI Express durchleuchtet: Alle Modi im Test (http://www.de.tomshardware.com/graphic/20041105/index.html)
Ziemlich interessant. :)
Wenn noch ein AGP-System miteingezogen worden wäre, wäre die Welt perfekt. Aber die Unterschiede 4x, 8x und 16x sind sehr gering.
Mhm, sogar sehr interessant:)
Jetzt würde mich nur mal interessieren, warum der NV40 bei PCI-E X1 deutlich mehr Performance verliert als der R423.

Jesus
2004-11-06, 14:21:33
Danke fürs Löschen meines Posts. Aber hier ist die Frage erneut: Warum hat die 6800 GT nur 3000 Punkte im 3dmark05 , als PCIe Variante ?

(soviel zur Meinungsfreiheit :mad: ...)

BvB123
2004-11-06, 14:29:05
Der Treiber 61.77

Gruß

Jesus
2004-11-06, 14:37:18
Der Treiber 61.77

Gruß

oh sorry, ich dachte der 61.77 wäre einer der neuen und die AGP version wäre schneller...
naja dennoch ein krasser Sprung um knapp 2000 Punkte, böse Zungen könnten da schnell auf dumme Gedanken kommen und das S****************- Wort benutzen.

(was dazu führt dass der Post einfach gelöscht wird, es sei denn es geht um einen ATI Wundertreiber, dann macht man nen 20-seitigen Thread darüber und alle sind glücklich ... )

BvB123
2004-11-06, 14:56:49
So groß ist der unterschied nicht eine GT schafft ca 4500 Punkte mit dem 66.81

Also sinds nur noch 1200

bei mir warens auch nur 700 Punkte warum der unterschied dort so groß ist

Gruß

Quasar
2004-11-06, 15:03:04
Nutzt der 3DMark05 HDR?
AFAIK nicht - also OT.
Und wenn ein 20seitiger-Thread zum Thema Treiber gewünscht wird: Macht einen auf.