PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 8800 GTX und GTS-Version Review-Thread (Links im #1)


Seiten : 1 2 [3] 4 5

r00t
2006-11-08, 21:06:49
bin mal gespannt auf den G80 (oder dann G81?) mit GDDR 4 dann sollten ja mindestens 1400mhz ramtakt drin sein!

AnarchX
2006-11-08, 21:06:53
Auch das sind bei der GTX nur 13% beim Chip. Ok, für absolutes High-End ist das gar nicht soo übel. Eine GTS mit 650+ MHz könnte mir gefallen ...


Für 681Mio Transistoren in 90nm nicht übel! ;)

Gast
2006-11-08, 21:07:28
Wie gesagt: Zeig mir mal ne Ingameszene wo das sichtbar ist.

BTW:

R580 16xHQ AF:
http://666kb.com/i/aj2qtjhx2ywrbr7li.jpg

wolltest Du eigendlich nicht mehr hier sein?
Geh ins ATI Forum hier geht es um den G80!

Mr. Lolman
2006-11-08, 21:09:56
wolltest Du eigendlich nicht mehr hier sein?
Geh ins ATI Forum hier geht es um den G80!

Habs mir anders überlegt, nachdem man mich nicht sperren wollte :P

Raff
2006-11-08, 21:10:40
Für 681Mio Transistoren in 90nm nicht übel! ;)

Hrhr. Eigentlich ist doch erst eine "8800 GT(O)" in 80 nm auf G81-Basis so richtig interessant. GT(O) @ GTX. :naughty:
Aber erst mal abwarten, ob die Hybriden bald gehen.

MfG,
Raff

DrumDub
2006-11-08, 21:11:20
Und auf einen fairen Test 8800GTS vs 1950XTX warten sicher viele um eine brauchbare Kaufentscheidung zu treffen müssen beide schon mit [b]WuAF[b] getestet werden. nun ja, die 8800gts dürfte in jedem falle schneller sein, wenn die 8800gtx mehr als doppelt so viel fill rate bei 16xtriaf hat:

http://www.techreport.com/reviews/2006q4/geforce-8800/rm3d-filtering.gif

bestätigen ja auch die gametests bisher. der gegner der 8800gts ist die x1950xtx. wobei die 8800gts eigentlich überall, wenn auch teilweise nur minimal, schneller ist...

dargo
2006-11-08, 21:12:56
Du musst von den 79.6 wegrechnen und damit bleiben 86, 3%. Wären dann ~26.8 fps. Trotzdem eigentlich ein großer Unterschied...
Schau dir das nochmal an und rechne noch einmal.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4966194&postcount=459

Du musst bei der G8800GTX natürlich auch entsprechend die Frames abziehen, wären dann 36,7 (90,1%). Habs oben editiert.

Mastermind
2006-11-08, 21:15:27
Toll. Ich hab mich auf einen 3DC-Bericht gefreut aber das wird wohl nix. :(

@Aths: Bist du immer noch wegen der NDA-Sache beleidigt? :confused: Jetzt wo die NDA wieder weg ist kannst du ja wieder "normal" reden. :smile:

AnarchX
2006-11-08, 21:15:28
Du musst bei der G8800GTX natürlich auch entsprechend die Frames abziehen, wären dann 36,7 (90,1%). Habs oben editiert.

Wieso das denn?:|
Die GTX läuft doch schon mit dem "richtigen" 16xAF, also muss man an dem Wert nix ändern...

Zudem hat Lolman recht, du musst die 16xAF Werte der ATI *0.86 rechnen, da hier 100% = 16x AF sind => (68.7/79.6 =0.86)

Also 26.8 zu 40FPS.

maddawn
2006-11-08, 21:20:56
nvidia geforce 8800gtx test auf hardwareluxx.de (http://hardwareluxx.de/story.php?id=4819)

Gast
2006-11-08, 21:22:55
Habs mir anders überlegt, nachdem man mich nicht sperren wollte :P

na dann gib dich zufrieden hiermit....

Noch mehr begeistern konnte allerdings der anisotrope Filter, der auf einer GeForce 8800 in allen Qualitätseinstellungen durch die Bank winkelunabhängig ist. Darüber hinaus fallen die „Optimierungen“, im Gegensatz zum G71, kaum negativ auf. Ebenso hat nVidia dem Texturflimmern mit dem G80 den Kampf angesagt. Bereits in der Default-Einstellung des Treibers flimmern die Texturen weniger als auf einer GeForce 7900 oder einer ATi Radeon X1000. Die GeForce 8800 bietet somit bereits in der Default-Einstellung eine deutlich bessere Bildqualität als die GeForce 7900 in der Einstellung Hohe Qualität. Vor einer Radeon X1000 muss sich der G80 genauso wenig verstecken. Und noch mehr, er kann die ATi-Karte in diesem Punkt problemlos ausstechen. Für diese Verbesserungen müssen wir nVidia ein großes Lob aussprechen!

Auch Abseits der Performance und der Bildqualität gibt es an der nVidia GeForce 8800 GTX kaum etwas zu bemängeln. Als positiv kann man die Kühlkonstruktion ansehen, die in allen Lebenslagen zu überzeugen weiß, was längst nicht bei jeder High-End-Karte der Fall ist. Einzig der Stromverbrauch fällt bei der GeForce 8800 GTX sowohl unter Last als auch im 2D-Modus überdurchschnittlich hoch aus und belastet somit zusätzlich den eigenen Geldbeutel und die Umwelt. Bei der nächsten Generation wäre es schön, wenn man eine leichte Rückentwicklung erkennen könnte.

Schlussendlich lässt sich neben dem Stromverbrauch eigentlich kein wirklicher Schwachpunkt entdecken, egal wie intensiv man sucht. Das GeForce-Modell ist zweifellos die schnellste Grafikkarte auf dem Markt, bietet die beste Bildqualität und ist mit der Unterstützung von Direct3D 10 sowie der Möglichkeit, Effektphysik schnell zu berechnen, bestens für die Zukunft geeignet. Zwar fällt der Preis mit 600 Euro sehr hoch aus, jedoch ist die GeForce 8800 GTX allen anderen 3D-Beschleunigern zweifellos ein gutes Stück voraus und zudem werden bei guter Verfügbarkeit die Preise relativ schnell sinken. Alles in allem ein sehr beeindruckendes Stück Hardware, das es sich verdient hat, mit unserem „Hardware-Hammer“ ausgezeichnet zu werden.

und troll dich :D

aber nein! Bleib und ärgere dich weiter es ist richtig schön zu sehen wie Du leidest.

Gast
2006-11-08, 21:23:52
Toll. Ich hab mich auf einen 3DC-Bericht gefreut aber das wird wohl nix. :(

@Aths: Bist du immer noch wegen der NDA-Sache beleidigt? :confused: Jetzt wo die NDA wieder weg ist kannst du ja wieder "normal" reden. :smile:
Er sagte doch das es ohne karte keinen Bericht von ihm gibt oder?

Fals ich mich da recht errinere wrd das nix da er keine karte hat :(

Gast
2006-11-08, 21:26:44
Auf Nvidia.com wurde auch einige geändert jetzt gerade... FREIGESCHALTET nun .... ahh, wie ich das liebe !

Hat schon jemand die Videos der neuen Techdemos gefunden, gibt es da schon welche ?

Gruß
SIL

Gast
2006-11-08, 21:29:11
Von Gast zu Gast: nur weil wer eine andere Meinung hat oder kritisch ist zu sagen troll dich, ist lächerlich. Das hier ist ein Diskussionsforum und nicht ein Ausschlussforum. So funktioniert Meinungsbildung nicht.

Mr. Lolman
2006-11-08, 21:30:30
Schau dir das nochmal an und rechne noch einmal. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4966194&postcount=459

Du musst bei der G8800GTX natürlich auch entsprechend die Frames abziehen, wären dann 36,7 (90,1%). Habs oben editiert.
Bei der 8800GTX muss man garnix abziehen. Die filtert ja schon per default wu und wird deswegen nicht auf HQ gesestzt. Du darfst auch nicht die 100% des 1xAF verwenden, wenn die 31fps mit 16xAF erreicht wurden. Das einzige was in dem Zusammenhang interessant wäre, ist ob sich die Prozentzahlen von Computerbase auf 16xAF mit aktivem 4xAA beziehen, oder nicht. Und wenn nein, inwieweit das einen Unterschied machen würde ;)

Zapat
2006-11-08, 21:30:47
Die werte sind ja schon wirklich der Hammer.Aber mall ehrlich,die X1950 XTX kann abundzu mit der 8800 GTX mithalten bzw manchmall sind es nur 20 FPS unterschied.Der R600 müsste jetzt mall ehrlich wirklich denn G80 in die schranken weissen.Kommt Gurus gibt mir recht?Oder liege ich falsch?Das kann ich mir garnicht vorstellen das ich bei der Spekulation falsch liege.

Mr. Lolman
2006-11-08, 21:32:47
aber nein! Bleib und ärgere dich weiter es ist richtig schön zu sehen wie Du leidest.

Was spinnst du dir da zusammen?

Ich finds toll, dass die leidige BQ Scheisse anscheinend ein Ende gefunden hat!

aths
2006-11-08, 21:33:50
Aths du hast vergessen den Artikel auf der Startseite zu verlinken :biggrin:Ich habe gar keinen Artikel veröffentlicht.

Gast
2006-11-08, 21:34:11
http://www.nvidia.com/page/geforce8.html

Ein paar kleine Videos mit den neuen Features und Adriane Cury in Bikini

Gruß
SIL

dargo
2006-11-08, 21:34:19
Wieso das denn?:|
Die GTX läuft doch schon mit dem "richtigen" 16xAF, also muss man an dem Wert nix ändern...

Oh man, ich bin schon ganz durcheinander mit den ganzen Benchmarks. :usad:

Ich gehe die ganze Zeit von den 1600x1200 ohne AA/AF Werten aus.

Also:

G8800GTX = 54,4 fps | 49fps (90,1%) mit 16x WU-AF
X1950XTX = 58,4 fps | 40,1fps (68,7%) mit 16x WU-AF

Godmode
2006-11-08, 21:34:56
Die werte sind ja schon wirklich der Hammer.Aber mall ehrlich,die X1950 XTX kann abundzu mit der 8800 GTX mithalten bzw manchmall sind es nur 20 FPS unterschied.Der R600 müsste jetzt mall ehrlich wirklich denn G80 in die schranken weissen.Kommt Gurus gibt mir recht?Oder liege ich falsch?Das kann ich mir garnicht vorstellen das ich bei der Spekulation falsch liege.

Das kommt teilweise durch die starke CPU Limitierung, aber ich bin auch schon gespannt was der R600 bringen wird. Ich denke aber nicht das er den G80 in die Schranken weisen wird, eher ein Gleichstand.

http://www.nvidia.com/page/geforce8.html :biggrin:

Henroldus
2006-11-08, 21:35:17
(-__-)[]']Heilige Scheiße!

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/20/
ich muss also noch auf die nächste generation warten um Oblivion auf nem lumpigen 20" widescreen mit 8xAA(A) 16AF UND HDR flüssig spielen zu können ;( aber trotzdem schon mal respekt an nvidia
PS: SLI kommt mir nicht ins Haus bzw. den Rechner

The_Invisible
2006-11-08, 21:41:01
ich muss also noch auf die nächste generation warten um Oblivion auf nem lumpigen 20" widescreen mit 8xAA(A) 16AF UND HDR flüssig spielen zu können ;( aber trotzdem schon mal respekt an nvidia
PS: SLI kommt mir nicht ins Haus bzw. den Rechner

tsaa ausschalten und es dürfte kein problem sein

die üppige vegetation zieht die fps mit tsaa/aaa eben enorm in den keller, wird sich so schnell auch nicht ändern

mfg

boxleitnerb
2006-11-08, 21:42:21
Schlagt mich, wenn das eine doofe Frage ist, aber ich blick bei den AA Modi grad net durch.
Man hat das normale MSAA, dann das etwas performantere VCAA.
Gibt es TAA als extra Modus oder ist das schon mit drin? Und wie schaut es mit SSAA/Mischmodi aus, werden diese evtl. mit einem neuen Treiber nachgeliefert?

r00t
2006-11-08, 21:42:48
Was spinnst du dir da zusammen?

Ich finds toll, dass die leidige BQ Scheisse anscheinend ein Ende gefunden hat!

jup...ich auch jetzt können die ati fanboys nicht mehr meckern :D

K4mPFwUr$t
2006-11-08, 21:46:47
kann ich nur zustimmen.
nV hat gut aufgeholt in sachen BQ, die paar bildfehler sind nur eine treibersache ;)

wie es scheint hat es nV eingesehen, das gemogelte performance keiner will :rolleyes:

Gast
2006-11-08, 21:46:48
Schlagt mich, wenn das eine doofe Frage ist, aber ich blick bei den AA Modi grad net durch.
Man hat das normale MSAA, dann das etwas performantere VCAA.
Gibt es TAA als extra Modus oder ist das schon mit drin? Und wie schaut es mit SSAA/Mischmodi aus, werden diese evtl. mit einem neuen Treiber nachgeliefert?

Da steht alles: http://www.3declipse.com//content/view/34/9/

Ob man TSAA ausschalten kann wird man abwarten müssen bis die Leute hier im Forum die Karten in der Hand haben, also Freitag.

deekey777
2006-11-08, 21:50:40
Aus dem iXBT-Review:
http://img108.imageshack.us/img108/1705/d3drmps5oz7.png
Vorläufige Meinung: Die 8800GTX wie auch die GTS haben mehr als genug arithmetische Power, dumm nur, dass nur wenige Spiele von dieser profitieren. Aber die 8800er haben nicht umsonst Tex-Power.:biggrin:
War jemand auf den nVidia Editor's Days?
Da wurde ua auch ein AMD 4x4 Mainboard gezeigt, dss auf dem 680-Chipsatz basiert.
http://www.ixbt.com/video2/g80-part4.shtml

Gast
2006-11-08, 21:50:47
Q: Will there be other NVIDIA GeForce 8 Series-based dual-GPU boards soon?
A: We cannot discuss unannounced products.

Ummm

-SIL

Godmode
2006-11-08, 21:54:32
Q: Will there be other NVIDIA GeForce 8 Series-based dual-GPU boards soon?
A: We cannot discuss unannounced products.

Ummm

-SIL

8800 GX2, schwer vorstellbar in 90nm

Demirug
2006-11-08, 21:55:38
Aus dem iXBT-Review:
http://img108.imageshack.us/img108/1705/d3drmps5oz7.png
Vorläufige Meinung: Die 8800GTX wie auch die GTS haben mehr als genug arithmetische Power, dumm nur, dass nur wenige Spiele von dieser profitieren. Aber die 8800er haben nicht umsonst Tex-Power.:biggrin:

Da kommt ja noch hinzu das der Treiber die zweite MUL FPU in den prozessoren nur selten nutzt.

Johnny Rico
2006-11-08, 21:57:26
Das kommt teilweise durch die starke CPU Limitierung, aber ich bin auch schon gespannt was der R600 bringen wird. Ich denke aber nicht das er den G80 in die Schranken weisen wird, eher ein Gleichstand.

http://www.nvidia.com/page/geforce8.html :biggrin:

Today NVIDIA announced the hard launch and immediate availability of our new flagship GeForce 8800 GPUs. Some recent reports on the web mention a BOM error (wrong resistor value) on initial GeForce 8800 GTX boards. All boards with this problem were purged from the production pipeline. Product on shelves is fully qualified and certified by NVIDIA and its board partners. We and our board partners stand behind these products and back them with our full warranty.

Pffffffffff. Na klar und Blaze war ein Zufall!.... Ich habe nun von 4 normalen Leuten mit GTXen gelesen und alle haben das Problem.

Cleric
2006-11-08, 21:57:36
ah zum G8x>G80 ... letztens wurde berichtet das nvidia erste chips in 65nm fertigen lassen würde ;) wäre doch mal ein schöner refresh... vielleicht mit 700Mhz? ;)
oh falscher thread!

gibs schon einen test mit GTS und allem drum und dran mit wuAF für alle Karten (also keine G7x etc. ) ? ggf. mit GTS und GTX ;)

Gast
2006-11-08, 21:58:13
8800 GX2, schwer vorstellbar in 90nm

Die 681 Mio. Transistoren, hätten wir auch nicht gedacht ;) Und das in 90nm

deekey777
2006-11-08, 21:59:00
Ich habe gar keinen Artikel veröffentlicht.
Dazu ergänzend:
Eine genauere Betrachtung zum G80-Chip sowie eigene Benchmark-Ergebnisse zu den G80-basierenden Karten werden wir an dieser Stelle leider noch nicht bieten können, hierfür fehlen uns schlicht noch die entsprechenden Testsamples seitens nVidia. So ist zum einen ein recht ausführlicher Theorie-Artikel zum G80-Chip an sich (im Prinzip fertig) in der Pipeline, welchen wir allerdings erst veröffentlichen werden, wenn uns die Ergebnisse diverser theoretischer Benchmarks bzw. von entsprechenden Bildqualitäts-Testern vorliegen - was wie gesagt erst nach dem Eintreffen eines G80-Testsamples passieren wird. Und gleichzeitig ist ein Benchmark-Artikel zu GeForce 8800 GTS & GTX geplant, welchen wir aber wohl erst im Dezember mit dann inzwischen schon halbwegs ausgereiften Treiber (und mit viel mehr Ruhe) antreten werden. Der heutige Artikel wird demzufolge "nur" eine Begleitung des G80-Launches sein können, unsere eigentlichen G80-Artikel folgen später.
Zum Launch des nVidia G80-Chips (http://www.3dcenter.org/artikel/2006/11-08.php)

seahawk
2006-11-08, 22:00:13
Ganz nett. Man sollte ATI danken, dass auch NV nun ne brauchbare BQ hat.

Ronny145
2006-11-08, 22:01:01
Warum bekommt eine Seite wie das 3dcenter keine Karte rechtzeitig? Ist für mich unerklärlich, denn andere mittelprächtige Seiten haben eine bekommen.

Godmode
2006-11-08, 22:01:58
Da kommt ja noch hinzu das der Treiber die zweite MUL FPU in den prozessoren nur selten nutzt.

Warum dass den?

Mr. Lolman
2006-11-08, 22:04:11
Aus dem iXBT-Review:
http://img108.imageshack.us/img108/1705/d3drmps5oz7.png
Vorläufige Meinung: Die 8800GTX wie auch die GTS haben mehr als genug arithmetische Power, dumm nur, dass nur wenige Spiele von dieser profitieren.
http://www.ixbt.com/video2/g80-part4.shtml

Die hier sind auch interessant. Nicht nur dass ATi da viel schneller, ist, sondern dass der G80 da gar ein bisschen zu schwächeln scheint...

http://www.ixbt.com/video2/images/g80/d3drm-hsr-2.png

Anarchy-HWLUXX
2006-11-08, 22:04:20
Aus dem iXBT-Review:
http://img108.imageshack.us/img108/1705/d3drmps5oz7.png
Vorläufige Meinung: Die 8800GTX wie auch die GTS haben mehr als genug arithmetische Power, dumm nur, dass nur wenige Spiele von dieser profitieren. Aber die 8800er haben nicht umsonst Tex-Power.:biggrin:
War jemand auf den nVidia Editor's Days?
Da wurde ua auch ein AMD 4x4 Mainboard gezeigt, dss auf dem 680-Chipsatz basiert.
http://www.ixbt.com/video2/g80-part4.shtml


Gibt es den Artikel auch in english ohne babelfish benutzen zu müssen ?

4711
2006-11-08, 22:04:20
kann ich nur zustimmen.
nV hat gut aufgeholt in sachen BQ, die paar bildfehler sind nur eine treibersache ;)

wie es scheint hat es nV eingesehen, das gemogelte performance keiner will :rolleyes:

aufgeholt aja.....;D

gemogel im gegensatz zu ATI,nochmal aja....öh ne oha...und keiner will...nagut dann nur die,die sie haben.....sind ja kaum Käufer......

manmnanman mir fällt bald nix mehr ein.....

;D

Die gelbe Eule
2006-11-08, 22:07:17
Das einzige was nun fehlt:

T E C H D E M O !!!

Gast
2006-11-08, 22:08:02
Juchuhhhhhhh Qualitäääääät.

http://www.3dcenter.de/artikel/2006/11-08.php

Gast
2006-11-08, 22:10:20
Juchuhhhhhhh Qualitäääääät.

http://www.3dcenter.de/artikel/2006/11-08.php

Mist ihr habt echt keine Karte :(


Mfg









humpf ...

AnarchX
2006-11-08, 22:10:38
Das einzige was nun fehlt:

T E C H D E M O !!!
http://www.nvidia.com/page/geforce8.html
;)

gguru
2006-11-08, 22:12:08
Forceware 97.02 ist draußen. GeForce 8 only! Muss sich also einiges getan haben. :)

Die ganzen Benchmarks sollte man neu machen.

dildo4u
2006-11-08, 22:12:25
Oblivion HDR+AA


http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/aamts1600.gif

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page19.asp

Farcry HDR+AA

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/fc1600.gif

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page21.asp

HL2 LostCost HDR+AA

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/c2048.gif

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page11.asp

Eine weitere G80 Techdemo

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/04.jpg

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/10.jpg

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/images/09.jpg

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/

Demirug
2006-11-08, 22:12:39
Warum dass den?

Den Grund dsfür kenne ich auch nicht. Vielleicht sind die Jungs die den Shadercompiler schreiben noch nicht so weit.

Banshee18
2006-11-08, 22:17:23
Da kommt ja noch hinzu das der Treiber die zweite MUL FPU in den prozessoren nur selten nutzt.
D.h., dass noch jede Menge ungenutztes Potenzial im G80 steckt?

Godmode
2006-11-08, 22:18:55
Den Grund dsfür kenne ich auch nicht. Vielleicht sind die Jungs die den Shadercompiler schreiben noch nicht so weit.

Dadurch müsste dann nochmals ordentlich FP Performance frei werden!

Demirug
2006-11-08, 22:19:05
D.h., dass noch jede Menge ungenutztes Potenzial im G80 steckt?

Jede Menge ist wohl übertreiben aber etwas ungenutzte Rechenleistung ist da scheinbar schon noch vorhanden.

4711
2006-11-08, 22:20:15
ich denke mal mit DX10 bekommen wir nochmal große Augen...aber mir reicht es auch so..kein DX10,kein Vista,datt Kärtchen issen Gedicht watt will ich mehr :D

Gast
2006-11-08, 22:24:02
Ganz nett. Man sollte ATI danken, dass auch NV nun ne brauchbare BQ hat.Nsja ATI hat mit dem winkelabhängigen af angefangen insofern sollte man ATi verfluchen mit soetwas begonen zu haben aber wayne

Gast
2006-11-08, 22:25:20
Die hier sind auch interessant. Nicht nur dass ATi da viel schneller, ist, sondern dass der G80 da gar ein bisschen zu schwächeln scheint...

http://www.ixbt.com/video2/images/g80/d3drm-hsr-2.png

ati ist viel schneller als die 7900er - ja. das wars aber auch schon und bei steep parallax mapping müsste das am branching liegen - ergo nichts neues.

Mr. Lolman
2006-11-08, 22:28:46
ati ist viel schneller als die 7900er - ja. das wars aber auch schon und bei steep parallax mapping müsste das am branching liegen - ergo nichts neues.

Für mich ists schon neu, dass sich die HSR Performance mit der neuen Generation tw. deutlich verschlechtert hat (dafür ist die HDR Performance umso besser ;))

dildo4u
2006-11-08, 22:31:22
Die 8800GTX ist ein echter SLI/Crossfire Killer.*g*


http://techreport.com/reviews/2006q4/geforce-8800/graw.gif

http://techreport.com/reviews/2006q4/geforce-8800/oblivion.gif

http://techreport.com/reviews/2006q4/geforce-8800/hl2-1600.gif



http://techreport.com/reviews/2006q4/geforce-8800/index.x?pg=1

Gast
2006-11-08, 22:37:30
Für mich ists schon neu, dass sich die HSR Performance mit der neuen Generation tw. deutlich verschlechtert hat (dafür ist die HDR Performance umso besser ;))
schade. kann ich weder aus link noch bild ersehen und russisch kann ich auch nicht. :(

deekey777
2006-11-08, 22:38:51
Gibt es den Artikel auch in english ohne babelfish benutzen zu müssen ?

iXBT ist eine russische Seite, weiß jeder. Deren englische Version ist Digit-Life, zu finden unter www.digit-life.com. Es dauert etwas, bis der Artikel übersetzt wird.

Mailwurm
2006-11-08, 22:39:12
http://hardtecs4u.com/reviews/2006/nvidia_g80/

WEGA
2006-11-08, 22:41:45
http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_16_8.gif
und die GTS braucht unter last weniger saft als ne X1950XTX :O

tombman
2006-11-08, 22:42:56
Willkommen in der Stromhölle ;)

http://img113.imageshack.us/img113/9325/bvtgfvfvfvfvfvfvfvfy7.jpg (http://imageshack.us)

Gast
2006-11-08, 22:43:02
Da kommt ja noch hinzu das der Treiber die zweite MUL FPU in den prozessoren nur selten nutzt.

wieso denn das denn? noch probleme mit dem treiber?

Godmode
2006-11-08, 22:44:49
wieso denn das denn? noch probleme mit dem treiber?

Ja, er meinte dass vielleicht der Shadercompiler noch nicht optimal arbeitet.

AnarchX
2006-11-08, 22:45:55
http://hardtecs4u.com/reviews/2006/nvidia_g80/

Savegames anstatt Timedemos und ATI mit HQ-AF und AI=on/AI=off :up:

Gast
2006-11-08, 22:47:43
iXBT ist eine russische Seite, weiß jeder. Deren englische Version ist Digit-Life, zu finden unter www.digit-life.com. Es dauert etwas, bis der Artikel übersetzt wird.anscheinend weiß die nicht jeder!
Ein link mit dem mit dem hinweis "wen dan hier" hätte gereicht sowas von nem MOd also wirklich muss das sein?

Ronin2k
2006-11-08, 22:48:48
wie schauts denn mit dem ganzen post processing und hdr+aa nu aus mit g80? is nen kraut gewachsen dagegen oder net:confused:

dargo
2006-11-08, 22:49:35
Savegames anstatt Timedemos und ATI mit HQ-AF und AI=off :up:
HQ-AF ok, aber A.I off?
Naja, dafür können die Tester halt nichts wenn ATI es nicht trennen kann.

Gast
2006-11-08, 22:49:43
Willkommen in der Stromhölle ;)

http://img113.imageshack.us/img113/9325/bvtgfvfvfvfvfvfvfvfy7.jpg (http://imageshack.us)

irgendwas kann da nicht stimmen, entweder ist der wert ohne SLI zu niedrig, oder mit zu hoch.

AnarchX
2006-11-08, 22:50:19
HQ-AF ok, aber A.I off?
Naja, dafür können die Tester halt nichts wenn ATI es nicht trennen kann.
HQ+AI on/HQ+AI off - beides gibt HT4u an als Wert.... ;)
So muss es sein!

dildo4u
2006-11-08, 22:50:43
wie schauts denn mit dem ganzen post processing und hdr+aa nu aus mit g80? is nen kraut gewachsen dagegen oder net:confused:
Funzt und ist recht flott oder was meinst du?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4966647#post4966647

Gast
2006-11-08, 22:51:00
HQ-AF ok, aber A.I off?
Naja, dafür können die Tester halt nichts wenn ATI es nicht trennen kann.

wenn es stimmt dass der G80@default weniger flimmert als die R5xx-serie in HQ, warum nicht?

dargo
2006-11-08, 22:51:35
irgendwas kann da nicht stimmen, entweder ist der wert ohne SLI zu niedrig, oder mit zu hoch.
Meinst du beim G80? Der stimmt.

Godmode
2006-11-08, 22:52:03
Savegames anstatt Timedemos und ATI mit HQ-AF und AI=off :up:

Wahnsinn, da wird er Unterschied zur X1950 XTX noch viel deutlicher! 79xx kann man damit aber nicht mehr gut vergleichen.

dargo
2006-11-08, 22:54:23
wenn es stimmt dass der G80@default weniger flimmert als die R5xx-serie in HQ, warum nicht?
Weil A.I mehr beinhaltet als nur den Filter. Wird Zeit, dass ATI wirklich die Sachen mal trennt.

PS: das WU-AF funzt bei ATI auch mit standard A.I. Dazu muss man nicht A.I auf "off" stellen.

Ronin2k
2006-11-08, 22:54:48
ist es jetzt möglich bei games die post processing und hdr nutzen AA zu nutzen :) das mein ich. sprich splinter cell 3 zb. oder andere games wo man bloom aktiviert und zack kein AA möglich. aber eher net was ohne support seitens der gameprogger :frown:


Funzt und ist recht flott oder was meinst du?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4966647#post4966647

Mr. Lolman
2006-11-08, 22:55:33
wenn es stimmt dass der G80@default weniger flimmert als die R5xx-serie in HQ, warum nicht?

Eben. Ich finds auch gut, dass sie beides gebencht haben. Andererseits ist der BQ unterschied zw. AIon und off mE minimal. Dass es insgesamt noch besser geht war klar und dass NV dies nun mit der neuen Generation auch anbietet ist eine sehr erfreuliche Entwicklung. :D

dildo4u
2006-11-08, 22:56:22
ist es jetzt möglich bei games die post processing und hdr nutzen AA zu nutzen :) das mein ich. sprich splinter cell 3 zb. oder andere games wo man bloom aktiviert und zack kein AA möglich. aber eher net was ohne support seitens der gameprogger :frown:Theoretisch ja aber bei dem ein oder anderen Game muss mit einem Patch oder Treiberupdate nachgeholfen werden wie bei ATI auch.In zukünftigen Games wird whol gleich drauf geachtet das es funzt.(Hoffentlich)

Gast
2006-11-08, 22:57:11
Meinst du beim G80? Der stimmt.

wie kann eine 8800GTX 26W mehr als eine X1950XTX braucht, 2 8800GTX aber 137W mehr als 2 X1950XTX brauchen?

irgendwas kann da nicht stimmen.

Gast
2006-11-08, 22:58:18
...und dass NV dies nun mit der neuen Generation auch anbietet ist eine sehr erfreuliche Entwicklung. :D

Ich koennt wetten, das viel dir schwer ;)
der smile sagt alles :D

mfg

Gast
2006-11-08, 22:58:32
Weil A.I mehr beinhaltet als nur den Filter. Wird Zeit, dass ATI wirklich die Sachen mal trennt.

das ist doch deren problem, ein reviewer kann eben nicht mehr machen als der treiber zulässt um für möglichst vergleichbare werte zu sorgen.

The_Invisible
2006-11-08, 22:58:35
Savegames anstatt Timedemos und ATI mit HQ-AF und AI=on/AI=off :up:

ui, A.I. off haut ja schön rein, hier im forum hört man ja anderweiliges dazu

das sollte ati jetzt nach g80 schnellstmöglich "fixen" (also opts. und filt. trennen)

mfg

Ronin2k
2006-11-08, 22:59:08
das baby gefällt mir :smile: nu heißt es grübeln und weihnachten kaufen oder frühjahr^^


Theoretisch ja aber bei dem ein oder anderen Game muss mit einem Patch oder Treiberupdate nachgeholfen werden wie bei ATI auch.In zukünftigen Games wird whol gleich drauf geachtet das es funzt.(Hoffentlich)

der Lustige
2006-11-08, 22:59:30
Die 8800GTX ist ein echter SLI/Crossfire Killer.*g*


http://techreport.com/reviews/2006q4/geforce-8800/graw.gif

http://techreport.com/reviews/2006q4/geforce-8800/oblivion.gif

http://techreport.com/reviews/2006q4/geforce-8800/hl2-1600.gif



http://techreport.com/reviews/2006q4/geforce-8800/index.x?pg=1


Ganz schön utopische Werte. Der Test auf Computerbase ist da deutlich besser. Kauf dir doch die Karte und teste selber. Ich habe mit dem CF in Oblivion auf jeden Fall mehr FPS bei den Test-Settings.

Außerdem sind das die Max. FPS. Im Wald mit viel Grass und Schatten sieht es da schon wieder anders aus.

Gast
2006-11-08, 23:00:20
ist es jetzt möglich bei games die post processing und hdr nutzen AA zu nutzen :) das mein ich. sprich splinter cell 3 zb. oder andere games wo man bloom aktiviert und zack kein AA möglich. aber eher net was ohne support seitens der gameprogger :frown:

technisch kann es die karte, wenn es die programmierer nicht umsetzen kann NV auch nichts machen (einzelne treiberanpassungen werden auf beiden seiten die außnahme bleiben)

Gast
2006-11-08, 23:00:36
Für mich ists schon neu, dass sich die HSR Performance mit der neuen Generation tw. deutlich verschlechtert hat (dafür ist die HDR Performance umso besser ;))
ich nochmal: wo finde ich denn nun deine hsr-benchmarks?

bislang hab ich nur dieses hier gesehen und das widerspricht deiner these diametral: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/11/#abschnitt_theoretische_benchmarks
ganz unten den rightmark aufklappen.

The_Invisible
2006-11-08, 23:01:17
Ganz schön utopische Werte. Der Test auf Computerbase ist da deutlich besser. Kauf dir doch die Karte und teste selber. Ich habe mit dem CF auf in Oblivion auf jeden Fall mehr FPS bei den Test-Settings.

Außerdem sind das die Max. FPS. Im Wald mit viel Grass und Schatten sieht es da schon wieder anders auf.

dann schau dir halt andere reviews an, dort wird es aber nicht anders aussehen ;)

mfg

4711
2006-11-08, 23:01:18
was mir noch richtig gut gefällt ist das dies Kärtchen kaum zu ocen geht und damit dies leidige :D Thema auch vom Tisch ist.
Einbauen>abfahren>und das wars dann :tongue:
und zwei dieser Monster (Verbrauch)müssen es auch nicht sein.

Banshee18
2006-11-08, 23:04:58
ich nochmal: wo finde ich denn nun deine hsr-benchmarks?

bislang hab ich nur dieses hier gesehen und das widerspricht deiner these diametral: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/11/#abschnitt_theoretische_benchmarks
ganz unten den rightmark aufklappen.
Er meint wahrscheinlich so Zeugs wie Villagemark oder Fablemark.

dargo
2006-11-08, 23:06:09
wie kann eine 8800GTX 26W mehr als eine X1950XTX braucht, 2 8800GTX aber 137W mehr als 2 X1950XTX brauchen?

irgendwas kann da nicht stimmen.
Gut, beim ATIs CF sieht es allerdings merkwürdig aus. Aber der G8800GTX SLI passt ausgehend von einer G8800GTX.

der Lustige
2006-11-08, 23:07:42
dann schau dir halt andere reviews an, dort wird es aber nicht anders aussehen ;)

mfg

Doch, die 8800 ist zwar auf CF Niveau bei Oblivion bei max. FPS, aber nicht erheblich schneller, wie im o.g. Review angepriesen.

Da ich selbst Oblivion spiele, weiß ich, dass die max. FPS uninteressant sind.

Min. FPS um die 60 FPS mit CF oder der 8800 könnt ihr ganz sicher vergessen, wie im Review angegeben.

Achtet auf den Computerbase oder HWLuXX Review.

Außerdem war CF oder die X1900XTX in Oblivion schon immer schneller als SLI bzw. 7900GTX. Das Review ist eben nicht unparteiisch.

Nightspider
2006-11-08, 23:07:58
LOOOL:

http://download.nvidia.com/downloads/nZone/videos/Overclocker_Priceless_360P.wmv

;D ;D ;D
:D :D :D
:biggrin: :biggrin: :biggrin:

dargo
2006-11-08, 23:09:13
das ist doch deren problem, ein reviewer kann eben nicht mehr machen als der treiber zulässt um für möglichst vergleichbare werte zu sorgen.
1.
Naja, dafür können die Tester halt nichts wenn ATI es nicht trennen kann.
2. Ein Tester sollte eigendlich wissen was sich hinter A.I verbirgt.

Gast
2006-11-08, 23:10:42
Gut, beim ATIs CF sieht es allerdings merkwürdig aus. Aber der G8800GTX SLI passt ausgehend von einer G8800GTX.

schwer zu sagen was da nicht stimmt, aber ich würde sagen es ist mehr ;)

der verbrauch von der GX2 ist imo auch zu niedrig.

Mastermind
2006-11-08, 23:12:09
http://www.nvidia.com/page/geforce8.html
;)Wann gibts endlich HDWMV in 720p von den aktuellen Techdemos? Sowas muss man hochaufgelöst und in Bewegung sehen! :( :( :(

Mr. Lolman
2006-11-08, 23:12:52
Ich koennt wetten, das viel dir schwer ;)
der smile sagt alles :D

mfg

Aber geh. Ich hab ja nix davon, wenn NV miese BQ anbietet. Ist nur toll, dass sie sich endlich besonnen haben und die AF-BQ nun auch verbessern, anstatt sie mit der neuen Generation abzusenken. Klar das hätten sie sich jetzt eh nichtmehr leisten können, aber dass sie per default sogar die Messlatte noch oben legen war imo garnichtmal so fix und ist deswegen äußerst positiv. (y)

Und trotzdem sieht man bei der ganzen Euphorie wiedermal, dass ein brilinearer Filter vom Performancestandpunkt garnichtmal so verkehrt ist. Nur an den Samplegenauigkeit sollte man nicht herumpfuschen...

Mr. Lolman
2006-11-08, 23:14:55
ich nochmal: wo finde ich denn nun deine hsr-benchmarks?

bislang hab ich nur dieses hier gesehen und das widerspricht deiner these diametral: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/11/#abschnitt_theoretische_benchmarks
ganz unten den rightmark aufklappen.



Ja reicht dir der eine Link nicht? Da sieht man dass die HSR Effizienz bei der neuen Generation geringer ist, als bei der alten:

http://www.ixbt.com/video2/images/g80/d3drm-hsr-2.png

/edit: Und wenn du dir deinen Link ansiehst, merkst du dass die 8800gtx in 1600x1200 gar langsamer ist, als die 7900GTX. Erst mit AA/AF kann sie sich vor X1950XTX (5%) und 7900GTX (15%) bugsieren.

Spasstiger
2006-11-08, 23:15:05
Wann gibts endlich HDWMV in 720p von den aktuellen Techdemos? Sowas muss man hochaufgelöst und in Bewegung sehen! :( :( :(
Gibts bei den ATI-Techdemos doch schon seit mind. 2 Jahren.

Gast
2006-11-08, 23:18:02
Ja reicht dir der eine Link nicht? Da sieht man dass die HSR Effizienz bei der neuen Generation geringer ist, als bei der alten:

http://www.ixbt.com/video2/images/g80/d3drm-hsr-2.png

welcher eine link? wenn ich einen gesehen hätte, hätte ich ja nicht gefragt. danke jedenfalls. komisch nur, dass sich viele resultate gegenseitig zu widersprechene scheinen. vielleicht noch ein treiberproblem,

Ronin2k
2006-11-08, 23:18:40
zum thema idle stromverbrauch :) das wird doch net so bleiben oder?^^

Gast
2006-11-08, 23:20:32
Und trotzdem sieht man bei der ganzen Euphorie wiedermal, dass ein brilinearer Filter vom Performancestandpunkt garnichtmal so verkehrt ist. Nur an den Samplegenauigkeit sollte man nicht herumpfuschen...

wo wurde das denn verglichen? auch wieder bei den russen? ich lese keine reviews, wo ich nur die balken anstarren kann.

Ronny145
2006-11-08, 23:21:12
Jetzt mal ein paar games, die nicht so häufig getestet werden:


http://img395.imageshack.us/img395/5786/1zt8.gif

http://img501.imageshack.us/img501/2096/3ml3.gif

http://img501.imageshack.us/img501/9945/4az4.gif

http://www.hardware.fr/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html


Besonders Pacific Fighters sieht nett aus.

dargo
2006-11-08, 23:21:18
zum thema idle stromverbrauch :) das wird doch net so bleiben oder?^^
Das weiß noch keiner, warte erstmal paar finale Treiber ab.

Gast
2006-11-08, 23:21:21
zum thema idle stromverbrauch :) das wird doch net so bleiben oder?^^

hoffentlich nicht. sonst kommt mir so ein ding nicht in den rechner.

The_Invisible
2006-11-08, 23:26:58
Jetzt mal ein paar games, die nicht so häufig getestet werden:


http://img395.imageshack.us/img395/5786/1zt8.gif

http://img501.imageshack.us/img501/2096/3ml3.gif

http://img501.imageshack.us/img501/9945/4az4.gif

http://www.hardware.fr/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html


Besonders Pacific Fighters sieht nett aus.

totale vernichtung, wenn man es so nennen darf ;)

mfg

Blaire
2006-11-08, 23:30:17
Ja das ist mal krass. :D Vor allem das Tomb Raider bei CF1950 liegt aber sicher am Profil

Gast
2006-11-08, 23:32:13
zieh mir grad den compubase artikel rein und musste über folgendes schmunzeln :
>>das Gerücht, dass der G80 über keine Unified Shader verfügen wird, wurde übrigens absichtlich zur Täuschung im Internet verbreitet<<

Mr. Lolman
2006-11-08, 23:34:22
welcher eine link? wenn ich einen gesehen hätte, hätte ich ja nicht gefragt. danke jedenfalls. komisch nur, dass sich viele resultate gegenseitig zu widersprechene scheinen. vielleicht noch ein treiberproblem,

Siehe mein edit.

wo wurde das denn verglichen? auch wieder bei den russen? ich lese keine reviews, wo ich nur die balken anstarren kann.

Naja zumindest bei ATI ist das ja der Fall (AIon vs. Off bei Hardtecs4u). Beim G80 ist HQ in 1600x1200 zwar nicht soviel langsamer als default (Computerbase) aber ich wette, dass das in 2560x1600 deutlicher sichtbar ist..

dildo4u
2006-11-08, 23:36:26
zieh mir grad den compubase artikel rein und musste über folgendes schmunzeln :
>>das Gerücht, dass der G80 über keine Unified Shader verfügen wird, wurde übrigens absichtlich zur Täuschung im Internet verbreitet<<Nicht nur im Internet ich kann mich an einige Nvidia Interviews in der PCGH erinnern wo gesagt wurde es wär noch zu früh für eine US PC High-End Karte.

Gast
2006-11-08, 23:41:32
Nicht nur im Internet ich kann mich an einige Nvidia Interviews in der PCGH erinnern wo gesagt wurde es wär noch zu früh für eine US PC High-End Karte.

waren sie involviert oder wurden sie auch nur belogen ?

dildo4u
2006-11-08, 23:44:09
waren sie involviert oder wurden sie auch nur belogen ?Die PCGH wurde sicherlich auch gezielt fehlinformiert.Um ATI in Sicherheit zu wiegen die haben ja gleich reagiert und AntiNV PR gemacht US sei das einzig ware für eine D3D10 Karte.*g*

Gouvernator
2006-11-08, 23:48:06
Die PCGH wurde sicherlich auch gezielt fehlinformiert.Um ATI in Sicherheit zu wiegen die haben ja gleich reagiert und AntiNV PR gemacht US sei das einzig ware für eine D3D10 Karte.*g*
Naja... jetzt glauben deshalb immernoch viele das G80 hat keine US Architektur ... :wink:

WEGA
2006-11-08, 23:48:17
ist die gts ein kaputter, beschnittener oder eigener chip?

Spasstiger
2006-11-08, 23:49:02
Nvidia wird sicherlich auch mehrere Entwicklerteams beschäftigt haben, die an verschiedenen Chipdesigns gearbeitet haben. Und dann kann es auch mal sein, dass der Chefentwickler von Team A was ganz anderes im Kopf hat als der Chefentwickler von Team B. Und die Geschäftsführung wird bei der parallelen Entwicklung mehrerer Designs wohl auch nur von dem Design reden, das am aussichtsreichsten für baldige Serienreife ist.

dildo4u
2006-11-08, 23:52:49
Naja... jetzt glauben deshalb immernoch viele das G80 hat keine US Architektur ... :wink:Ja und und wenn wenns kein US wäre und die Karte würde trotzdem diese Performance bringen wärs auch egal.Was zählt ist was hinten an FPS und Blidqualität rauskommt.

Gast
2006-11-08, 23:55:18
Siehe mein edit.

hab doch vom rightmark gesprochen - da gibts keine verschiedenen auflösungen.

Odal
2006-11-08, 23:57:27
interessant finde ich das die karten mit AA nun kaum an leistung verlieren...das war ja immer die typ. NV schwäche das sie bei gamereinstellungen zurücklagen

alles in allem schon eine top karte...der hohe stromverbrauch ist zwar störend aber bei der leistung die raus kommt noch akzeptabel und würde ich jetzt nicht so sehr als kritikpunkt sehen

bleibt nur noch der hohe preis....

würde NV wenigstens gleich midrangekarten für ca. 200€ nachschieben mit der halben leistung einer 8800gtx würde eine breite käuferschicht sicher gleich bestens bedient...

da dies nicht der fall ist wandert vermutlich eine x1950pro unter meinen gabentisch ^^

Gouvernator
2006-11-08, 23:57:40
ist die gts ein kaputter, beschnittener oder eigener chip?
GeForce 8800 GTX GeForce 8800 GTS
Chip-Basis nVidia G80
681 Millionen Transistoren in 90nm bei TSMC
Scheint ein Chip zu sein. Es wurden nur Pipelines beschnitten und Speicher/Mem. Controller. Die Pipelines kann man wahrscheinlich noch irgendwie freischalten aber nicht den 384bit Bus, dafür müsste man noch ein Speicherchip anlöten.

Gast
2006-11-09, 00:07:38
Naja... jetzt glauben deshalb immernoch viele das G80 hat keine US Architektur ... :wink:
wenn sie die pcgh lesen, sicher nicht.

Gasthaus
2006-11-09, 00:09:17
HQ-AF ok, aber A.I off?
Naja, dafür können die Tester halt nichts wenn ATI es nicht trennen kann.

Da hat sich ATI sich wohl selbst ein altes Ei gelegt.Denn HQ wird wohl nun zum Standard um sich mit dem G80 vergleichen lassen zu können bzw der R600 muss kräftig nachlegen.Ein Wettsteit um die bessere BQ!Vielleicht werden wir nun belohnt den vergangenen Mist nicht kritiklos hingenommen zu haben:)

Eigentlich hat NV alles richtig gemacht mit HDR+AA,sehr hoher BQ,sehr gutem Speed unter DX9 sowie einen scheinbar fähigen Kühler.Besonders das AF hat mich sehr überascht,wie sieht es denn im Vergleich zu einer GF3/4 aus?
Wenn unter 16xAF bis 8x vollstständig gefiltert wird,reicht mir das schon aus.Im Hinterkopf das mein NV40 nur 2x korrekt filtert obwohl ich doch den Regler auf 16x gestellt habe.Und der G70 soll noch schlechter sein?
Da wird wohl nix mehr aus meinem Schnäppchenkauf ala 7900GTO:(

(+44)
2006-11-09, 00:09:32
Wow, die Benchmarks erinnern mich stark an den Launch der 6800Ultra, die die 5950Ultra TOTAL deklassiert hat.

Geschichte wiederholt sich :( (Weil ich jetzt zwanghaft aufrüsten muss, fragt sich nur was als erstes kommt, ne 8800 oder n Core 2 Duo...)

Gast
2006-11-09, 00:09:38
Nicht nur im Internet ich kann mich an einige Nvidia Interviews in der PCGH erinnern wo gesagt wurde es wär noch zu früh für eine US PC High-End Karte.
iirc stand da, ein usc würde erst kommen, wenn es sinnvoll ist.

Mastermind
2006-11-09, 00:11:28
Gibts bei den ATI-Techdemos doch schon seit mind. 2 Jahren.
Ich weiß! Deswegen erwarte ich sowas von nVidia zum Launchday! Und nicht diese Furzfenster!

Oder bin ich etwa blind und sie sind da und ich find nur den Button/Link nicht? :confused:

Riplex
2006-11-09, 00:17:30
TechDemos gabs von Nvidia immer erst ein paar Tage nach dem release.

Gasthaus
2006-11-09, 00:17:31
Weil A.I mehr beinhaltet als nur den Filter. Wird Zeit, dass ATI wirklich die Sachen mal trennt.

PS: das WU-AF funzt bei ATI auch mit standard A.I. Dazu muss man nicht A.I auf "off" stellen.

Es gäbe diesen Schalter wohl nicht wenn doch nicht etwas getrickst wird auch wenn es kaum sichtbar ist.
Ich jedenfalls möchte selber entscheiden wie ich meine teure HighEnd-Karte nutzen will.Treiberoptimierungen sind ja ok oder Shader-Replacement unter HQ(gabs das überhaupt?) ,doch wenn ich wirklich MAX zocken will,dann soll es auch gefälligst möglich sein.

Spasstiger
2006-11-09, 00:18:22
Es wurden nur Pipelines beschnitten und Speicher/Mem. Controller. Die Pipelines kann man wahrscheinlich noch irgendwie freischalten aber nicht den 384bit Bus, dafür müsste man noch ein Speicherchip anlöten.
Es gibt keine klassischen Pipelines mehr und es wird hier glaub noch ein harter Kampf werden, bis man den Leuten den Begriff der Pipeline aus den Köpfen geprügelt hat bzw. eine angemessene Neudefinition vermitteln kann.
Der G80 hat physikalisch 8 ALU/TMU-"Gruppen" mit je 16 US-Stream-ALUs, 8 TMUs und 4 TAs. Diese Gruppen sind über eine Crossbar gekoppelt an die ROP-Cluster, wovon insgesamt physikalisch 6 vorhanden sind. Jedes ROP-Cluster kann 4 vollständige Pixel mit z-Wert je Takt schreiben. Außerdem ist jedes ROP-Cluster direkt an ein 64 Bit Speicherinterface gekoppelt, welches wiederum mit je zwei Speicherchips kommuniziert.

Eine klassische Pipeline hätte ALUs, TMUs und ROPs seriell in einer Linie (was beim G80 ja nicht der Fall ist).

Bei der GeForce 8800 GTS werden ein ROP-Cluster und zwei ALU/TMU-Gruppen deaktiviert. Durch die Deaktivierung eines ROP-Clusters entfällt natürlich auch eines der 64-Bit-Speicherinterfaces und die daran angeschlossenen zwei Speicherchips kann man sich auch sparen.
Ich nehme mal an, dass bei der 8800 GTS sowohl teilweise defekte als auch vollwertige G80-Chips zum Einsatz kommen und die zu deaktivierenden Funktionseinheiten einfach mit einem Lasercut lahmgelegt werden.

Gast
2006-11-09, 00:25:10
Ich weiß! Deswegen erwarte ich sowas von nVidia zum Launchday! Und nicht diese Furzfenster!

Oder bin ich etwa blind und sie sind da und ich find nur den Button/Link nicht? :confused:

Falls es die Demos gibt wird man sie wohl hier saugen können:
http://www.nzone.com/object/nzone_downloads_nvidia.html

The_Invisible
2006-11-09, 00:27:32
Wow, die Benchmarks erinnern mich stark an den Launch der 6800Ultra, die die 5950Ultra TOTAL deklassiert hat.

Geschichte wiederholt sich :( (Weil ich jetzt zwanghaft aufrüsten muss, fragt sich nur was als erstes kommt, ne 8800 oder n Core 2 Duo...)

nö, das ist was ganz anderes...

mfg

Spasstiger
2006-11-09, 00:29:04
Ich weiß! Deswegen erwarte ich sowas von nVidia zum Launchday! Und nicht diese Furzfenster!

Oder bin ich etwa blind und sie sind da und ich find nur den Button/Link nicht? :confused:
Mad Mod Mike: http://download.nvidia.com/downloads/nZone/videos/nvidia/MadModMike_720p_8Mbits.wmv
Luna: http://download.nvidia.com/downloads/nZone/videos/nvidia/Luna_720p_8mbits.wmv
Von anderen Demos gibts offenbar keine hochauflösenden Videos.

Gast
2006-11-09, 00:56:18
Was mich wundert bzw. wo ich staune is. Das die troz der vielen Transistoren
so "wenig" strom verbraucht gegen über das alte Transistor Monster X1950 XTX. Hut ab NV.

Gast
2006-11-09, 01:03:42
Im Hinterkopf das mein NV40 nur 2x korrekt filtert obwohl ich doch den Regler auf 16x gestellt habe.Und der G70 soll noch schlechter sein?
Da wird wohl nix mehr aus meinem Schnäppchenkauf ala 7900GTO:(NV40 und G70 nutzen die gleiche Mipmapstufe, also den gleichen AF-Grad bei identischem Winkel. G70 nutzt nur weniger Samples als NV40, d.h. er unterfiltert noch stärker als NV40, was sich in stärkerer Flimmerneigung äußert. Den Schnäppchenkauf würde ich an deiner Stelle vergessen... natürlich nur, wenn du wie ich von Flimmern Kopfschmerzen bekommst (weshalb ich auch nie eine PS2 kaufen würde). Spar lieber auf eine G8x, die flimmert nicht und hat auch zum Mehrpreis passende Mehrleistung.

Gast
2006-11-09, 01:30:54
viele händler bekommen erst ende nov karten,nur bei uns so ?

Mastermind
2006-11-09, 02:21:19
Mad Mod Mike: http://download.nvidia.com/downloads/nZone/videos/nvidia/MadModMike_720p_8Mbits.wmv
Luna: http://download.nvidia.com/downloads/nZone/videos/nvidia/Luna_720p_8mbits.wmv
Von anderen Demos gibts offenbar keine hochauflösenden Videos.
Danke. :smile:
Aber ich meinte natürlich die Techdemos des G80. :wink:

Aber Riplex meinte ja, die gibt es erst später. Das wusste ich nicht. Also warte ich erst mal ab.

Ailuros
2006-11-09, 04:51:03
Keine Ahnung ob schon gepostet:

http://www.3declipse.com//content/view/34/9/

Tests in hoeheren Aufloesungen kommen bald noch und hoffentlich noch etwas von mir.

Viel Spass ;)

Palpatin
2006-11-09, 04:53:51
Ich fass mal kurz zusammen wie ichs imo sehe:
Performance mäsig bin ich von der 8800 GTX leicht entäuscht. ca 60% mehr performance (zur XTX) ist zwar ordentlich aber irgendwo auch das mindeste da gabs in der Vergangenheit schon größere Sprünge vielleicht geht ja Treibermäsig noch was.
Sehr postiv überrascht bin hingegen von der BQ.
Verbrauch Idle = Horror Last = weniger als erwartet also postiv wobeis mir warscheinlich ziemlich egal sein wird.
BQ Super; Performance bissel weniger als erhofft insgesamt sehr attraktive Karte mal schauen ob ich bis zum R600 release wiederstehen kann wobei das sicher auch vom Preis abhängt :).

Die GTS ist in sachen Performance ne große Entäuschung für mich und kommt net in Frage.

Ailuros
2006-11-09, 05:13:00
Falls Beyond3D auf dem richtigen Pfad ist, dann liegt noch mehr als gesundes Prozentual an Leistung in den Treibern.

Momentan erscheinen die Stream Prozessoren nur MADD auszufuehren was fuer 2 FLOPs zaehlt. Der zusaetzliche dritte FLOP der vom MUL kommen sollte fehlt.

Theoretische (leicht nutzlose) Mathe:

128 * 3 FLOPs (MADD+MUL) * 1.35GHz = 518.4 GFLOPs

128 * 2 FLOPs (MADD) * 1.35GHz = 345.6 GFLOPs

Ailuros
2006-11-09, 07:12:52
Aber geh. Ich hab ja nix davon, wenn NV miese BQ anbietet. Ist nur toll, dass sie sich endlich besonnen haben und die AF-BQ nun auch verbessern, anstatt sie mit der neuen Generation abzusenken. Klar das hätten sie sich jetzt eh nichtmehr leisten können, aber dass sie per default sogar die Messlatte noch oben legen war imo garnichtmal so fix und ist deswegen äußerst positiv. (y)

G80 Entwicklung ist so alt wie die ersten D3D10 drafts.

Und trotzdem sieht man bei der ganzen Euphorie wiedermal, dass ein brilinearer Filter vom Performancestandpunkt garnichtmal so verkehrt ist. Nur an den Samplegenauigkeit sollte man nicht herumpfuschen...

Bei dem eher mickrigen Leistungsverlust muss man wirklich nicht alle Tassen im Schrank haben wenn man ueber 600 euro auf den Ladentisch legt und nicht gleich HQ einschaltet; und da Du weiter unten 2560*1600 erwaehnst ja klar, nur sollte es eher hier heissen dass wenn man einen LCD hat der eine solche native Aufloesung unterstuetzt dann auch gleich zwei G80 einbauen sollte um erstmal Spielbarkeit in heutigen und noch mehr in zukuenftigen Spielen zu garantieren.

G80 und IMHO auch R600 wurden dafuer ausgelegt dass sie heutige und zukuenftige Spiele in 1600*1200 mit 4xAA aufnehmen koennen. Verrueckt hohe Aufloesungen sind ja schoen und gut zum testen, aber wer jetzt den Eindruck hat dass man Spiele wie Crysis oder UT2k7 in >16*12 spielen werden kann auf den GPUs sollte mal ein bisschen den Kopf schuetteln.

seahawk
2006-11-09, 07:21:52
ui, A.I. off haut ja schön rein, hier im forum hört man ja anderweiliges dazu

das sollte ati jetzt nach g80 schnellstmöglich "fixen" (also opts. und filt. trennen)

mfg

AI-off ist aber für die BQ praktisch irrelevant.

Blaze
2006-11-09, 07:27:31
LOOOL:

http://download.nvidia.com/downloads/nZone/videos/Overclocker_Priceless_360P.wmv


So true :D

san.salvador
2006-11-09, 07:45:06
AI-off ist aber für die BQ praktisch irrelevant.
Find ich nicht, grad in z.B. GTR 2 fällt es auf.

AnarchX
2006-11-09, 08:28:23
Sparkle gives the G80 a cold reception
First INQpression Sparkle's Calibre P880+ the first Peltier Junction cooled GF 8800GTX card
http://www.theinquirer.net/default.aspx?article=35616
However, there was a definite difference in the noise. Sparkle claims to have reached over 20 deg C heat benefit (60 C working temperature instead of 80C) and 12 decibels less working noise compared to the reference card.

Kladderadatsch
2006-11-09, 08:29:00
Da kommt ja noch hinzu das der Treiber die zweite MUL FPU in den prozessoren nur selten nutzt.
es ist doch auch möglich, dass der thread-prozessor noch ordentlich und vor allem spezifisch optimiert werden kann? da dürfte doch auch noch einiges an performance zu holen sein.

Godmode
2006-11-09, 08:30:21
Falls Beyond3D auf dem richtigen Pfad ist, dann liegt noch mehr als gesundes Prozentual an Leistung in den Treibern.

Momentan erscheinen die Stream Prozessoren nur MADD auszufuehren was fuer 2 FLOPs zaehlt. Der zusaetzliche dritte FLOP der vom MUL kommen sollte fehlt.

Theoretische (leicht nutzlose) Mathe:

128 * 3 FLOPs (MADD+MUL) * 1.35GHz = 518.4 GFLOPs

128 * 2 FLOPs (MADD) * 1.35GHz = 345.6 GFLOPs

Demirug hat das gestern schon angesprochen.

Wenn man diese Rechnung nachrechnet, dann sieht man deutlich dass die MUL Operation nicht ins Endergebnis einfließt. 345.6 / 2 = 172.8 * 3 = 518,4 sorry Denkfehler

Die entscheidende Frage die sich mir jetzt stellt: Warum ist das so, kann nicht immer eine MUL berechnet werden weil sie was blockiert? Oder ist der Shadercompiler noch nicht optimial wie Demirug meinte? Und wieviel Zuwachs ist zu erwarten, 10 GFLOPs oder 100?

Coda
2006-11-09, 09:17:07
NV40 und G70 nutzen die gleiche Mipmapstufe, also den gleichen AF-Grad bei identischem Winkel. G70 nutzt nur weniger Samples als NV40, d.h. er unterfiltert noch stärker als NV40, was sich in stärkerer Flimmerneigung äußert.

Mit HQ ist das nicht der Fall.

Gast
2006-11-09, 09:28:18
Mit HQ ist das nicht der Fall.Aber auch mit HQ flimmern G70 ein wenig mehr als NV40. Könnte aber auch an der falschen Gewichtung der Samples liegen, wie Demirug meinte. Aber dieser Kasperkram sollte mit G80 ja Vergangenheit sein.

BTW:
Mag etwas verspätet sein aber schön dich wieder öfters hier zu sehen.

NiCoSt
2006-11-09, 10:07:21
muha, hab mir eben erst die benches angeguckt -->

NVIDIA, ihr seid so pevers ;D

sobald die Graka der ausschlaggebende Faktor is rennt der G80 meilen weit weg ^^ einfach hammer. Nicht zu vergessen das sie teils nem 7900GTX SLIsystem wegrennt! Und die AA/AF-Skalierung spricht auch ne deutliche sprache. Nvidia scheint diesmal echt auf unsere bedürfnisse eingegangen zu sein ;D

Gast
2006-11-09, 10:10:35
Das Design ist fast 4 Jahre alt, die werden sicherlich nicht in der letzten Zeit einen Furz auf das gegeben haben was die User gefordert haben. Das Design stand schon fest als der NV40 rauskam.
Die WA des NV40 war Architekturbedingt da die alten Pipes oft leer liefen.

Ailuros
2006-11-09, 10:14:00
Das Design ist fast 4 Jahre alt, die werden sicherlich nicht in der letzten Zeit einen Furz auf das gegeben haben was die User gefordert haben. Das Design stand schon fest als der NV40 rauskam.
Die WA des NV40 war Architekturbedingt da die alten Pipes oft leer liefen.

Genau!

BAGZZlash
2006-11-09, 10:14:22
Nvidia scheint diesmal echt auf unsere bedürfnisse eingegangen zu sein ;D

Naja, ein effizientes Supersampling hätte ich mir noch gewünscht, sparse grid oder zumindest rotated grid, vierfach ohne zusätzliches Multisampling.
Aber das neue AF ist schon vorbildlich, Hammer!

Ailuros
2006-11-09, 10:15:36
Die entscheidende Frage die sich mir jetzt stellt: Warum ist das so, kann nicht immer eine MUL berechnet werden weil sie was blockiert? Oder ist der Shadercompiler noch nicht optimial wie Demirug meinte? Und wieviel Zuwachs ist zu erwarten, 10 GFLOPs oder 100?

So wie es aussieht wird die MUL Sub-Einheit momentan gar nicht genutzt; falls das stimmen sollte dann eben 518-345= +173

Gast
2006-11-09, 10:19:09
Naja, ein effizientes Supersampling hätte ich mir noch gewünscht, sparse grid oder zumindest rotated grid, vierfach ohne zusätzliches Multisampling.Warum so bescheiden? Mit G80 wäre auch 8xSGSSAA problemlos drin, NV muss es nur in den Treiber integrieren.

Godmode
2006-11-09, 10:30:39
So wie es aussieht wird die MUL Sub-Einheit momentan gar nicht genutzt; falls das stimmen sollte dann eben 518-345= +173

Könnte mir gut vorstellen, dass sie die 2. Mul Einheit erst mit DX10 freisschalten!

NiCoSt
2006-11-09, 10:31:29
Das Design ist fast 4 Jahre alt, die werden sicherlich nicht in der letzten Zeit einen Furz auf das gegeben haben was die User gefordert haben. Das Design stand schon fest als der NV40 rauskam.
Die WA des NV40 war Architekturbedingt da die alten Pipes oft leer liefen.

mag sein, aber darauf hab cih mich ja nicht bezogen. ich meinte eben vA die AA und AF performance... ich meine wenn man sich die benches ansieht muss man von nunan kaum noch überlegen, ob man nun doch eine AA-Stufe höher gehn kann oder ob der einbrauch dann zu groß ist

Mark3Dfx
2006-11-09, 10:35:43
Da wird wohl nix mehr aus meinem Schnäppchenkauf ala 7900GTO:(

Gibt ja eh keine GTOs mehr, also gräm Dich nicht.

Gast
2006-11-09, 10:35:46
Könnte mir gut vorstellen, dass sie die 2. Mul Einheit erst mit DX10 freisschalten!

Quatsch, versuch mal einen Grund dafür zu finden.
Das einzige was sicher ist, die Treiber sind noch sehr sehr frisch, in den letzten 4 Wochen sind 5 Treiber für den G80 rausgekommen, der neueste und erste mit 97er Bezeichnung gestern abend.
Somit kann man nichtmal Absicht unterstellen sie würden die 2. MUL Einheit absichtlich unausgelastet fahren (von freischalten kann keine Rede sein).

BAGZZlash
2006-11-09, 10:40:55
Warum so bescheiden? Mit G80 wäre auch 8xSGSSAA problemlos drin, NV muss es nur in den Treiber integrieren.

Nee, sparse grid und rotated grid brauchen extra Logik, per Treiber ist nur ordered grid erreichbar.

Godmode
2006-11-09, 10:47:48
Quatsch, versuch mal einen Grund dafür zu finden.
Das einzige was sicher ist, die Treiber sind noch sehr sehr frisch, in den letzten 4 Wochen sind 5 Treiber für den G80 rausgekommen, der neueste und erste mit 97er Bezeichnung gestern abend.
Somit kann man nichtmal Absicht unterstellen sie würden die 2. MUL Einheit absichtlich unausgelastet fahren (von freischalten kann keine Rede sein).

Sie könnten dann behaupten dass sie in D3D10 noch schneller sind, aber du hast schon recht, klingt reichlich unlogisch.

Hab gerade das Review von THG durchgelesen und sag nur ;D Teilweise wurde in 1024 ohne AA/AF gebencht ^^

Ailuros
2006-11-09, 10:49:58
Quatsch, versuch mal einen Grund dafür zu finden.
Das einzige was sicher ist, die Treiber sind noch sehr sehr frisch, in den letzten 4 Wochen sind 5 Treiber für den G80 rausgekommen, der neueste und erste mit 97er Bezeichnung gestern abend.
Somit kann man nichtmal Absicht unterstellen sie würden die 2. MUL Einheit absichtlich unausgelastet fahren (von freischalten kann keine Rede sein).

Ein guter Grund koennte Konkurrenz heissen. Du willst mir doch auch nicht allen Ernstes einreden dass das NV Treiber team sich nur einen Monat mit den Treibern beschaeftigt?

Mancko
2006-11-09, 10:54:18
Die PCGH wurde sicherlich auch gezielt fehlinformiert.Um ATI in Sicherheit zu wiegen die haben ja gleich reagiert und AntiNV PR gemacht US sei das einzig ware für eine D3D10 Karte.*g*

Man kann es auch anders sehen. ATI hat sich mächtig ins Zeug gelegt und bestens Presales-Werbung für Unified Shader gemacht.
Nvidia bietet es an nur ATI eben nicht :=)

Der G80 wird weggehen wie warme Semmeln und ATI/AMD wird mächtig unter Druck geraten. Sind sie eh schon, da die G7x Serie ATI total outgeselled hat.
Wenn der R600 nicht rechtzeitig genug kommt und Nvidia dann nachlegen kann steigt die Wahrscheinlichkeit, dass es der letzte HIgh End Chip von ATI war. Es kann nämlich gut sein, dass AMD sich gut damit arrangieren kann, wenn Nvidia High End Grafik alleine bietet. AMD werden Plattformen - also IGPs und vielleicht bisserl low-end Zeug reichen.

Gast
2006-11-09, 10:58:43
Nee, sparse grid und rotated grid brauchen extra Logik, per Treiber ist nur ordered grid erreichbar.Welches Abtastmuster hat denn das SSAA, wenn es über TSSAA adaptiv zugeschaltet wird ;)
Einfach einen Modus einführen, der auf die Adaptivität pfeift, dann funzts. Dazu braucht man nicht einen Transistor mehr, der nicht bereits an der richtigen Stelle verbaut wäre.

dargo
2006-11-09, 10:59:12
Was mich wundert bzw. wo ich staune is. Das die troz der vielen Transistoren
so "wenig" strom verbraucht gegen über das alte Transistor Monster X1950 XTX. Hut ab NV.
Völlig anderes Design, deswegen ist der Stromverbrauch mit älteren Generationen nicht vergleichbar.

BAGZZlash
2006-11-09, 11:01:17
Welches Abtastmuster hat denn das SSAA, wenn es über TSSAA adaptiv zugeschaltet wird ;)
Einfach einen Modus einführen, der auf die Adaptivität pfeift, dann funzts. Dazu braucht man nicht einen Transistor mehr, der nicht bereits an der richtigen Stelle verbaut wäre.

Stimmt. Aber welche Maske das TSSAA verwendet, würde ich auch gern mal wissen. Hat da jemand was parat?

Gast
2006-11-09, 11:02:01
Nee, sparse grid und rotated grid brauchen extra Logik, per Treiber ist nur ordered grid erreichbar.

RGSSAA alá TSSAA wäre mit so ziemlich jeder graka ohne extra-logik erreichbar.

im prinzip könnte das sogar die anwendung selbst machen.

dargo
2006-11-09, 11:02:23
Ich fass mal kurz zusammen wie ichs imo sehe:
Performance mäsig bin ich von der 8800 GTX leicht entäuscht. ca 60% mehr performance (zur XTX) ist zwar ordentlich aber irgendwo auch das mindeste da gabs in der Vergangenheit schon größere Sprünge vielleicht geht ja Treibermäsig noch was.

Darf ich fragen wie du auf diese ~60% kommst?

Find ich nicht, grad in z.B. GTR 2 fällt es auf.
In GTR2 kann man auch ruhig A.I off fahren:

1. Es kostet praktisch keine Leistung.
2. Das Game ist total cpu-limitiert (wodurch es dann wahrscheinlich zum Punkt 1 kommt :D).

Gast
2006-11-09, 11:08:20
Stimmt. Aber welche Maske das TSSAA verwendet, würde ich auch gern mal wissen. Hat da jemand was parat?

OB das wirklich TSSAA ist oder nur TMSAA wissen wir leider nicht 100% aber hier gibts die richtigen Infos, hab ich allerdings auch schon vor ein paar Seiten gepostet.

http://www.3declipse.com//content/view/34/9/

Gast
2006-11-09, 11:09:48
Stimmt. Aber welche Maske das TSSAA verwendet, würde ich auch gern mal wissen. Hat da jemand was parat?Ohne jetzt auf die schnelle einen Link parat zu haben:
Es ist das gleiche wie beim MSAA.

dargo
2006-11-09, 11:09:51
Könnte mir gut vorstellen, dass sie die 2. Mul Einheit erst mit DX10 freisschalten!
Versteckte Werbung für D3D10?

Gast
2006-11-09, 11:14:35
Könnte mir gut vorstellen, dass sie die 2. Mul Einheit erst mit DX10 freisschalten!

Blödsinn. Sie müssen jetzt Benchmarks gewinnen um das Ding zu verkaufen.

BAGZZlash
2006-11-09, 11:15:55
OB das wirklich TSSAA ist oder nur TMSAA wissen wir leider nicht 100% aber hier gibts die richtigen Infos, hab ich allerdings auch schon vor ein paar Seiten gepostet.

http://www.3declipse.com//content/view/34/9/

Hmm, schöne Antwort, danke. Aber passt die wirklich zu meiner Frage? Nochmal: Auf meiner 7900GT kann ich TSSAA oder TMSAA auswählen. Wenn ich TSSAA auswähle, gehe ich davon aus, daß auch wirklich Supersampling verwendet wird. Mit welcher Maske?
Ich denke mal, 8800GTX/S verwenden dieselbe Maske, oder? Die Maske, die bei 3DEclipse angegeben wird, ist ja auch eine 8xSG-Maske, ob nun SS oder MS. G71 und sicher auch G80 verwenden für TAA sicherlich kein 8xSG. Also, ob nun G71 oder G80: Transparentes Supersampling - Wieviele Subpixel, welche Maske?

Ailuros
2006-11-09, 11:19:58
Wenn man TSAA zu Multisampling dazuschaltet dann wird die gleiche Sample-anzahl und Maske wie beim MSAA verwendet afaik. Was jetzt coverage mask und Transparenz-AA betrifft hab ich keine Ahnung.

Gast
2006-11-09, 11:21:59
Auf NV4x inkl. G7x und r3xx, r4xx und r5xx ist es immer die gleiche Abtastmaske wie beim MSAA, die ATI-Chips können auch nur Teile der MSAA-Abtastmaske fürs SSAA nutzen im AAA-Performance-Modus. Ich sehe keinen Grund, warum G8x ein anderes Muster als das MSAA-Muster nutzen sollte.

Gast
2006-11-09, 11:22:16
Es ist anscheinend kein Supersampling Transparent Antialiasing zu sein, welches Grid das verwendet KA.

Sieht man an den SS2 Screenshots da die Palme nicht bearbeitet wird:
http://www.3declipse.com/images/stories/G80/AA/SS2/8xqss2.jpg

@Ailuros, vieleicht kann ChrisRay mal ein Screenshot von HalfLife2 machen? Dort gibts diese sehr prägnanten Gitter die nur mit TSSAA verbessert werden da TMSAA dort nicht wirkt.

dargo
2006-11-09, 11:23:15
Blödsinn. Sie müssen jetzt Benchmarks gewinnen um das Ding zu verkaufen.
So blöd klingt das gar nicht. Vielleicht lässt sich NV einen Jocker für den R600 frei?
Die Benchmarks kann der G80 auch so schon mehr als deutlich gewinnen, wie man sehen kann.

Ailuros
2006-11-09, 11:27:29
Es ist anscheinend kein Supersampling Transparent Antialiasing zu sein, welches Grid das verwendet KA.

Sieht man an den SS2 Screenshots da die Palme nicht bearbeitet wird:
http://www.3declipse.com/images/stories/G80/AA/SS2/8xqss2.jpg

@Ailuros, vieleicht kann ChrisRay mal ein Screenshot von HalfLife2 machen? Dort gibts diese sehr prägnanten Gitter die nur mit TSSAA verbessert werden da TMSAA dort nicht wirkt.

Huh? Wer sagt denn dass die shots alle mit TSAA eingeschaltet sind? Man muss TSAA dazuschalten, was Chris aber hier nicht gemacht hat.

http://www.anandtech.com/video/showdoc.aspx?i=2870&p=13

Als Antwort und ich werde es auf die User-Wunschliste von Chris hinzufuegen ;)

Gast
2006-11-09, 11:32:57
Mich würde mal interessieren, ob der G80 der erste Chip ist, der ein besseres AA als die Voodoo 5 liefert. Ist zwar kein Supersampling, aber der 16x Modus müsste es doch packen?

Gast
2006-11-09, 11:34:57
Huh? Wer sagt denn dass die shots alle mit TSAA eingeschaltet sind? Man muss TSAA dazuschalten, was Chris aber hier nicht gemacht hat.


Achso! Ich dachte da er es so beschrieben hat, das TSAA immer aktiv ist!
Sollte man vieleicht anmerken das mans über 4xAA immer noch selbst aktivieren muss und kein Automatismus ist :)

Gast
2006-11-09, 11:36:47
Mich würde mal interessieren, ob der G80 der erste Chip ist, der ein besseres AA als die Voodoo 5 liefert. Ist zwar kein Supersampling, aber der 16x Modus müsste es doch packen?

Besseres AA als die Voodoo5 liefert schon jeder NV4x oder R3x0.

Gast
2006-11-09, 11:39:30
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=13


Danke für den Link, der stellts klar , TSSAA in allen Modi möglich :)

Da haben se sich aber ein krasses Beispiel rausgesucht was Gamma AA falsch machen kann. Hat man so bisher nicht gesehen.

dargo
2006-11-09, 11:40:19
Keine Ahnung ob schon gepostet:

http://www.3declipse.com//content/view/34/9/

Tests in hoeheren Aufloesungen kommen bald noch und hoffentlich noch etwas von mir.

Was ich nicht so ganz verstehe ist folgendes:

http://www.3declipse.com/images/stories/G80/AA/FEAR/fearperf.png

http://www.3declipse.com/images/stories/G80/AA/Oblivion/hdraaperf.png

Gibts dafür einen plausiblen Grund wieso die GTX in F.E.A.R. mit 8xAA/16xAF um ~32% langsamer als mit 0xAA/16xAF ist und bei Oblivion (incl. HDR) nur ~16%?

Gast
2006-11-09, 11:43:03
Mich würde mal interessieren, ob der G80 der erste Chip ist, der ein besseres AA als die Voodoo 5 liefert. Ist zwar kein Supersampling, aber der 16x Modus müsste es doch packen?Wenn es kein SSAA ist, dann ist es auch nicht besser. MSAA plus AF plus TSAA plus CSAA wäre in Spielen, die auch auf der Voodoo laufen, zwar besser. Im Shaderzeitalter ist aber eine neue Aliasingquelle dazugekommen, die auf Hardware mit Shadern zwangsläufig auch glattgebügelt werden muss.
No SGSSAA, no better-than-Voodoo5-6000-award. Denn zu ihrer Zeit hat die sich um alle damals vorhandenen Aliasingquellen gekümmert.

Gast
2006-11-09, 11:46:02
Gibts dafür einen plausiblen Grund wieso die GTX in F.E.A.R. mit 8xAA/16xAF um ~32% langsamer als mit 0xAA/16xAF ist und bei Oblivion (incl. HDR) nur ~16%?

Naja bei Serious Sam 2 verliert man im selben fall ~25%, ist also Spiel/Szenen Abhängig.
Oder, Vermutung!, es liegt an der Arbeitsweise des G80 und die fehlende MUL Operation macht sich in F.E.A.R bemerkbar, da das ja das Shaderlastigste Game ATM sein soll. ?

Mr.Magic
2006-11-09, 11:46:11
Mal eine Frage am Rande. Gibt es ein Review das sich ausführlich mit der Bildqualität befasst oder muss ich auf B3D warten? Ich habe nämlich ein paar Review durchgeklickt und nur haufenweise (für mich) uninteressante Benchmarkbalken vorgefunden, und verlor dann schnell die Lust weiterzugucken.

Gast
2006-11-09, 11:47:03
Um ShaderAA sollten sich auch die Entwickler kümmern und nicht die IHVs. Die haben dafür ja schon die nötigen Befehlssätze implementiert, wenn ich die SM3-Folien noch richtig im Kopf habe.

Gast
2006-11-09, 11:54:33
Mal eine Frage am Rande. Gibt es ein Review das sich ausführlich mit der Bildqualität befasst oder muss ich auf B3D warten? Ich habe nämlich ein paar Review durchgeklickt und nur haufenweise (für mich) uninteressante Benchmarkbalken vorgefunden, und verlor dann schnell die Lust weiterzugucken.

Was meinst du damit? Bei xBit Labs, Anandtech und dem erwähnten Artikel von ChrisRay auf 3declipse sind viele Bilder zum Thema Bildqualität abgelichtet. Auch mit Benchmark Balken ;)

Gast
2006-11-09, 11:56:04
Um ShaderAA sollten sich auch die Entwickler kümmern und nicht die IHVs. Die haben dafür ja schon die nötigen Befehlssätze implementiert, wenn ich die SM3-Folien noch richtig im Kopf habe.Damit machst du aber zu oft den Bock zum Gärtner. Guck dir doch nur die ganzen Betaversionen an, die als angeblich vollendetes Produkt im Laden stehen. Und bereits bevor sie dort standen gabs den ersten Patch. QA wird da nur betrieben, bis Screenshots vernünftig aussehen, flimmern sieht man da nicht. Auch nicht in den Videos auf Mag-DVDs, da geht das in den Komprimierungsartefakten unter. Ja, die ISVs sollten sich darum kümmern. Tun sie aber viel zu oft nicht, weswegen wir eine Lösung durch die IHVs brauchen.

Mr.Magic
2006-11-09, 12:01:26
Was meinst du damit? Bei xBit Labs, Anandtech und dem erwähnten Artikel von ChrisRay auf 3declipse sind viele Bilder zum Thema Bildqualität abgelichtet. Auch mit Benchmark Balken ;)

Ich will nicht irgendwelche Bilder sehen, ich will einen Artikel der eine ausführliche Analyse der neuen Modi beinhaltet.

Gast
2006-11-09, 12:04:05
Dann les doch mal die erwähnten Artikel, hier Anandtech ab Seite 9: http://www.anandtech.com/video/showdoc.aspx?i=2870&p=9

3declipse: http://www.3declipse.com//content/view/34/9/

P.S.: Vieleicht wenn ein Mod mal Zeit hat, sollte man im 1. Posting die Artikel die die neuen AA Modi Beschreiben und gesondert Bildqualität behandeln irgendwie hervorheben, die Frage kommt ja dauernd.

Mr.Magic
2006-11-09, 12:13:47
@Gast

Danke!

Yup, das wäre von Vorteil.

robbitop@work
2006-11-09, 12:25:33
Eben. Ich finds auch gut, dass sie beides gebencht haben. Andererseits ist der BQ unterschied zw. AIon und off mE minimal.
Dann bist du aber ziemlich flimmerresistent. Raff und meine Beobachtungen mit unseren R5xx überschneiden sich, was A.I. angeht so ziemlich.


Man darf beim G80 nicht vergessen, dass dieser anscheinend noch relativ unoptimiert (nicht im negativem Sinne) hat. SLI hapert ein wenig, der 2D Verbrauch ist auch sehr seltsam hoch, das 2. MUL geht noch nicht. Wer weiß, was noch alles nicht optimiert ist. Ein späterer Test ist in der Tat nicht zu verachten. Vieleicht sieht die Sache im Dezember deutlich besser aus. Bei bisherigen Karten waren durch Treiberverbesserungen immer ~30 % mehr drin.

Vieleicht ist es gar nicht soo schlecht, dass wir kein Launchsample bekommen haben. ;)

ShadowXX
2006-11-09, 12:33:25
Dann bist du aber ziemlich flimmerresistent. Raff und meine Beobachtungen mit unseren R5xx überschneiden sich, was A.I. angeht so ziemlich.

Man darf beim G80 nicht vergessen, dass dieser anscheinend noch relativ unoptimiert (nicht im negativem Sinne) hat. SLI hapert ein wenig, der 2D Verbrauch ist auch sehr seltsam hoch, das 2. MUL geht noch nicht. Wer weiß, was noch alles nicht optimiert ist. Ein späterer Test ist in der Tat nicht zu verachten. Vieleicht sieht die Sache im Dezember deutlich besser aus. Bei bisherigen Karten waren durch Treiberverbesserungen immer ~30 % mehr drin.

Vieleicht ist es gar nicht soo schlecht, dass wir kein Launchsample bekommen haben. ;)
Ich hab nach einigen Andeutungen die ich so gelesen habe das dumpfe Gefühl, das wir beim G80 das 2te MUL nie zu sehen bekommen werden.

nV will demnach demnächst ein Statement rausgeben, in dem u.a. auch das mit dem 2D-Verbrauch angesprochen wird (der scheinbar so wie er jetzt ist "normal" sein soll) aber auch noch 1-2 anderen Sachen.

seahawk
2006-11-09, 12:35:24
Dann bist du aber ziemlich flimmerresistent. Raff und meine Beobachtungen mit unseren R5xx überschneiden sich, was A.I. angeht so ziemlich.


Man darf beim G80 nicht vergessen, dass dieser anscheinend noch relativ unoptimiert (nicht im negativem Sinne) hat. SLI hapert ein wenig, der 2D Verbrauch ist auch sehr seltsam hoch, das 2. MUL geht noch nicht. Wer weiß, was noch alles nicht optimiert ist. Ein späterer Test ist in der Tat nicht zu verachten. Vieleicht sieht die Sache im Dezember deutlich besser aus. Bei bisherigen Karten waren durch Treiberverbesserungen immer ~30 % mehr drin.

Vieleicht ist es gar nicht soo schlecht, dass wir kein Launchsample bekommen haben. ;)

Oder es ist nicht nutzbar, weil der Chip einen Defekt hat. Gab es ja öfters bei NV Chips der ersten Serie einer neuen Generation.

robbitop@work
2006-11-09, 12:38:33
Ich hab nach einigen Andeutungen die ich so gelesen habe das dumpfe Gefühl, das wir beim G80 das 2te MUL nie zu sehen bekommen werden.

nV will demnach demnächst ein Statement rausgeben, in dem u.a. auch das mit dem 2D-Verbrauch angesprochen wird (der scheinbar so wie er jetzt ist "normal" sein soll) aber auch noch 1-2 anderen Sachen.

Interessant! Wo hast du das her? Angeblich soll G80 auch noch in 80 nm aufgelegt werden. Vieleicht könne sie dort mögliche Hardwaredefekte lösen (und den Verbrauch senken und evtl GDDR4 nutzen)

dargo
2006-11-09, 12:46:30
Oder es ist nicht nutzbar, weil der Chip einen Defekt hat. Gab es ja öfters bei NV Chips der ersten Serie einer neuen Generation.
Sehr interessant:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4968220&postcount=380

Das war wohl nix mit dem G80 Launch. :(

eXistence
2006-11-09, 12:47:29
Ich hab mich jetzt noch nicht durch die Masse an Reviews gewühlt, aber ist mittlerweile geklärt, wozu der kleine Chip auf dem PCB da ist?

MikBach
2006-11-09, 12:48:07
Bei der AF Blume sicherlich. Die Frage ist nur ob man es noch in Games sieht?

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_6_5_l.png

Ich kann hier zumindest keinen Unterschied zwischen G80 16x default und R580 16x HQ erkennen. Aber wie schon Anarchy-HOCP sagte, man muss den G80 @ Default und den R5x0 mit WU-AF demnächst beim Benchen vergleichen. Alles andere macht keinen Sinn mehr.
Lol, endlich gefunden.
Konnte gestern ja nichts zu sagen, da ich gesperrt war. :redface:

Geht´s beim G80 noch besser?
Weil es gibt Stellen da ist das HQ-AF der ATI besser (schärfer).

So ziemlich in der Mitte unter dem Zielkreuz und von dieser Stelle aus etwas nach rechts und nach unten.

Scheisse, dass ich hier auf der Arbeit keine vernünftigen Bildprogramme habe (nur Paint), sonst würde ich die Stellen markieren.

Falls dies schon erwähnt wurde, dann sorry, habe gestern bei Seite 18 aufgehört.

Gruß M_B

Mr.Magic
2006-11-09, 12:53:17
@MikBach

Ich dachte schärferes AF würde zu Flimmern führen. Entscheidet euch doch mal was ihr wollt.

MikBach
2006-11-09, 12:56:54
@MikBach

Ich dachte schärferes AF würde zu Flimmern führen. Entscheidet euch doch mal was ihr wollt.
Nein, wenn es unter bestimmten Winkeln matschiger aussieht, ist dies nicht gut.
Es soll natürlich nicht flimmern, aber möglichst scharf sein.

Gruß M_B

edit: kann anhand der Bilder leider nicht sehen, ob´s bei der ATI flimmert.

Gast
2006-11-09, 12:59:14
Geht´s beim G80 noch besser?
Weil es gibt Stellen da ist das HQ-AF der ATI besser (schärfer).



Nicht besser sondern flimmriger.

Ailuros
2006-11-09, 13:02:09
Ich hab nach einigen Andeutungen die ich so gelesen habe das dumpfe Gefühl, das wir beim G80 das 2te MUL nie zu sehen bekommen werden.

Gehe aber bitte keine Wette ein ;)

nV will demnach demnächst ein Statement rausgeben, in dem u.a. auch das mit dem 2D-Verbrauch angesprochen wird (der scheinbar so wie er jetzt ist "normal" sein soll) aber auch noch 1-2 anderen Sachen.

Obwohl ich nicht ausschliessen will dass sie den 2D Verbrauch vielleicht noch etwas nach unten druecken koennen, aber es ist dann schon so dass es auch tatsaechlich normal ist. Es sind auch 681M Transistoren und das Ding ist von Grund auf auch ziemlich kompliziert.

Mr.Magic
2006-11-09, 13:02:18
Nein, wenn es unter bestimmten Winkeln matschiger aussieht, ist dies nicht gut.
Es soll natürlich nicht flimmern, aber möglichst scharf sein.

Gruß M_B

edit: kann anhand der Bilder leider nicht sehen, ob´s bei der ATI flimmert.

Oddly enough, ATI's 16xAF is more likely to cause shimmering with the High Quality AF box checked than without. Even when looking at an object like a flat floor, we can see the issue pop up in the D3DAFTester. NVIDIA has been battling shimmering issues due to some of their optimizations over the past year or so, but these issues could be avoided through driver settings. There isn't really a way to "fix" ATI's 16x high quality AF issue.

(auf Screenshots) Schärfer ist nicht immer besser. Die Screenshots zur Flimmerzeit des G70 waren auch besser/schärfer, im Spiel war es dann ein Graus.

Godmode
2006-11-09, 13:04:38
Gehe aber bitte keine Wette ein ;)



Obwohl ich nicht ausschliessen will dass sie den 2D Verbrauch vielleicht noch etwas nach unten druecken koennen, aber es ist dann schon so dass es auch tatsaechlich normal ist. Es sind auch 681M Transistoren und das Ding ist von Grund auf auch ziemlich kompliziert.


Warum hat man den 2D Teil eigentlich nicht in den NVIO gegeben, somit könnte man das Monster einfach völlig vom Netz nehmen?

4711
2006-11-09, 13:06:09
einfach dem Kerl nicht mehr antworten,der will doch nur provozieren.
Igno Liste und fertisch.

Ailuros
2006-11-09, 13:07:13
Warum hat man den 2D Teil eigentlich nicht in den NVIO gegeben, somit könnte man das Monster einfach völlig vom Netz nehmen?

Du hast Vorstellungen....LOL

robbitop@work
2006-11-09, 13:08:09
Warum hat man den 2D Teil eigentlich nicht in den NVIO gegeben, somit könnte man das Monster einfach völlig vom Netz nehmen?
Der NVIO ist nicht an den Speicher angebunden. Also muss man zwangsläufig den Memorycontroller des G80 nutzen, weshalb man den G80 nicht ausschalten kann ;-)

Ailuros
2006-11-09, 13:10:29
@MikBach

Ich dachte schärferes AF würde zu Flimmern führen. Entscheidet euch doch mal was ihr wollt.

Er hat keinen guten Grund zum meckern mehr, deshalb meckert er weil er keinen Grund mehr zum meckern hat ;D :|

Gast
2006-11-09, 13:29:02
Wieso werdet Ihr immer gleich persönlich? Es war nur eine Frage. Wenn Ihr diese beantworten könnt, meinetwegen inklusiver Darlegung der dahinterstehenden mathematischer Operationen, dann ists doch gut. Wenn nicht, dann eben keine Antwort.

Stattdessen fangt ihr immer an aufeinander herumzuhacken. Das ist etwas, was einem dieses Forum manchmal schwer zu lesen macht und vielleicht den Eindruck einer gewissen Interessenslastigkeit hinterlässt.

Coda
2006-11-09, 13:31:27
Die G80 unterfiltert nicht mehr. Die Radeon tut es definitiv, G7x macht es noch stärker (der Unterschied ist aber sehr gering, A.I. low und HQ nehmen sich nichts). Unterfilterung führt immer zu einer höheren Bildfrequenz und damit einem "schärferen" Eindruck.

Oder anders: Wenn ihr besonders "scharfe" Bilder wollt, dann dreht den LOD auf -100 und stellt AA aus. Das ist scharf ;)

Ich kann mir vorstellen dass einige wieder ankommen und das G80-AF als "matschig" bezeichnen obwohl es perfekt abtastet, genauso wie manche behaupten AA würde zu einem matschigen Bild führen.

Gast
2006-11-09, 13:34:26
Danke, es geht doch :)

Gast
2006-11-09, 13:40:17
Geht´s beim G80 noch besser?
Weil es gibt Stellen da ist das HQ-AF der ATI besser (schärfer).


Gruß M_B

Es gibt mittlerweile hunderte von Reviews, in jedem von ihnen steht, daß die NV-Karte die deutlich bessere AF- und auch sonstige Bildqualität abliefert. Nur du siehst wieder mal was Anderes. Da fällt mir nur eins ein: Fielmann!

deekey777
2006-11-09, 13:43:45
Die PCGH wurde sicherlich auch gezielt fehlinformiert.Um ATI in Sicherheit zu wiegen die haben ja gleich reagiert und AntiNV PR gemacht US sei das einzig ware für eine D3D10 Karte.*g*
Niemand wurde fehlinformiert, sondern die knappen Infos von nVidia wurden missinterpretiert. nVidia und bzw. deren Denker haben folgendes erreicht. Mit ihren Aussagen wie "USA, wenn die Zeit reif dazu ist" haben sie ein perfektes Marketing betrieben: Wir und nur wir entscheiden, wann es Zeit für USA ist. Mit dem G80 haben sie ihre Aussage verwirklich: Jetzt ist Zeit für einenb USA-Chip.
Natürlich kann man noch auch unbequeme Fragen stellen, ob der heutige G80 die einzige Option war oder doch eine von mehreren?
Und ATi AMD? Tja, sie haben bei nVidias Marketing einfach mitgemacht (ihr glaubt doch nicht, dass ATi keine Ahnung vom G80 hat(-te) oder nVidia vom R600?). Beide IHVs wissen in etwa, was der andere vorhat (sucht mal im Grafikchips-Forum nach R400, da findet ihr zwei sher interessante Threads zum Ur-NV30 und dem R400 (Von welchem NV30 will ATi gewusst haben?), auch steht in den beiden Threads die Aufklärung der Urban-Legend über ArtX&R300).
ATi hat mit dem Xenos seit einem Jahr einen USA-Chip, auch weiß man aus den Infos zum R400, dass ATi schon lange dabei ist, einen USA-Chip zu entwickeln. David Kirk hat zum Launch des G80 bestimmt eine Email von Orton bekommen: "Willkommen im Club der Unified Shader Architektur.":biggrin:

MikBach
2006-11-09, 13:45:48
Nicht besser sondern flimmriger.
Und das siehst du anhand des Screens?
Reife Leistung, das kann ich nichtmal.
Für mich sieht es auf dem Screen bei ATI schärfer aus.

Muss aber zugeben, dass ich noch kein Review gelesen habe, da ich nach Umzug immernoch kein I-Net zu Hause habe.

Gruß M_B

Gast
2006-11-09, 13:48:57
Für mich sieht es auf dem Screen bei ATI schärfer aus.

Japp. Das sehen hunderte von Reviews und all deine Vorposter genauso


Muss aber zugeben, dass ich noch kein Review gelesen habe
Gruß M_B
Ist dringend zum empfehlen. Vermeidet Sätze und Aussagen wie das Erstzitat in diesem Post.

MikBach
2006-11-09, 13:50:23
einfach dem Kerl nicht mehr antworten,der will doch nur provozieren.
Igno Liste und fertisch.
Meinst du mich?

Ich habe doch nur Screens verglichen!
Es ist sehr schwierig anhand eines Screens zu sehen, ob´s flimmert oder nicht.
Du musst natürlich wieder gleich persönlich werden.

Aber auf dein Niveau gehe ich nicht.
Hab kein Bock wegen dir gesperrt zu werden. :wink:

Mr.Magic
2006-11-09, 13:50:40
Niemand wurde fehlinformiert, sondern die knappen Infos von nVidia wurden missinterpretiert. nVidia und bzw. deren Denker haben folgendes erreicht. Mit ihren Aussagen wie "USA, wenn die Zeit reif dazu ist" haben sie ein perfektes Marketing betrieben: Wir und nur wir entscheiden, wann es Zeit für USA ist. Mit dem G80 haben sie ihre Aussage verwirklich: Jetzt ist Zeit für einenb USA-Chip.
Natürlich kann man noch auch unbequeme Fragen stellen, ob der heutige G80 die einzige Option war oder doch eine von mehreren?
Und ATi AMD? Tja, sie haben bei nVidias Marketing einfach mitgemacht (ihr glaubt doch nicht, dass ATi keine Ahnung vom G80 hat(-te) oder nVidia vom R600?). Beide IHVs wissen in etwa, was der andere vorhat (sucht mal im Grafikchips-Forum nach R400, da findet ihr zwei sher interessante Threads zum Ur-NV30 und dem R400 (Von welchem NV30 will ATi gewusst haben?), auch steht in den beiden Threads die Aufklärung der Urban-Legend über ArtX&R300).
ATi hat mit dem Xenos seit einem Jahr einen USA-Chip, auch weiß man aus den Infos zum R400, dass ATi schon lange dabei ist, einen USA-Chip zu entwickeln. David Kirk hat zum Launch des G80 bestimmt eine Email von Orton bekommen: "Willkommen im Club der Unified Shader Architektur.":biggrin:

Der G80 hätte eigentlich letztes Jahr erscheinen sollen. Der G70 war nur eine Notlösung (und die Zeit nicht reif für einen NV-Chip mit USA).

Yes, we tried to get it out last year. But it was just too big. So it’s late by our own standards. In the end, it cost us 4 years. It was important to get it right. There were 600 man years total. We started with 10 people working on it and grew to 300 eventually.

Quelle (http://blogs.mercurynews.com/aei/2006/11/nvidia_launches.html)

Mr. Lolman
2006-11-09, 14:03:34
Dann bist du aber ziemlich flimmerresistent. Raff und meine Beobachtungen mit unseren R5xx überschneiden sich, was A.I. angeht so ziemlich.


Man darf beim G80 nicht vergessen, dass dieser anscheinend noch relativ unoptimiert (nicht im negativem Sinne) hat. SLI hapert ein wenig, der 2D Verbrauch ist auch sehr seltsam hoch, das 2. MUL geht noch nicht. Wer weiß, was noch alles nicht optimiert ist. Ein späterer Test ist in der Tat nicht zu verachten. Vieleicht sieht die Sache im Dezember deutlich besser aus. Bei bisherigen Karten waren durch Treiberverbesserungen immer ~30 % mehr drin.

Vieleicht ist es gar nicht soo schlecht, dass wir kein Launchsample bekommen haben. ;)

Hab mir gestern GTR2 angesehen:

1. Ich hab nie behaupetet, dass AIlow flimmerfrei ist, sondern nur, dass der Unterschied zw. Aioff und Ailow minimal ist.

2. In der Cockpitperspektive konnte ich nach noch so genauem hinsehen keinen Unterschied zw. AIlow und off entdecken.

3. In der Stossstangenkamera sehe ich schon einen Unterschied zw. off und low. Jetzt nachdem ich in GTR2 entdeckt hab, an welchen Stellen AIon schlechtere BQ liefert als AIoff, fallen mir die Unzulänglichkeiten von AIlow natürlich sofort auf. Aber:

4. Ich hatte mit R580 und AIlow (im Ggs zum NV40 im default Modus) keine Szene, wo mir das Flimmern mit AIlow (ohne Vergleich zu AIoff) ins Auge gesprungen ist und ich aufgrunddessen eine bessere BQ wollte.

5. Dementsprechend streite ich auch nicht ab, dass es sichtbare Unterschiede zw. low und off gibt, aber im Vgl. zu NV40 default und NV40 HQ sind sie eben minimal.

deekey777
2006-11-09, 14:04:14
Der G80 hätte eigentlich letztes Jahr erscheinen sollen. Der G70 war nur eine Notlösung.



Quelle (http://blogs.mercurynews.com/aei/2006/11/nvidia_launches.html)
Auch der R400 hätte irgendwann 2003 erscheinen sollen. Und was ist passiert? Zu ambitioniert, es musste schnell ein Ersatz her: R420.
Ich würde nicht viel Wert auf die Aussage legen, was geplant war, sondern wann er kam (gestern) und wie lange er entwickelt wurde (vier Jahre).
Aber auch das ist lustig: vier Jahre? Also 2002? Da wurde auch ein Chip entwickelt, der zwar in seiner Form eingestampft wurde, aber sein Konzept weiterentwickelt.

Gast
2006-11-09, 14:07:29
G80 = NV50 :) Zumindest so in etwa, da überarbeitet.

MikBach
2006-11-09, 14:08:33
4. Ich hatte mit R580 und AIlow (im Ggs zum NV40 im default Modus) keine Szene, wo mir das Flimmern mit AIlow (ohne Vergleich zu AIoff) ins Auge gesprungen ist und ich aufgrunddessen eine bessere BQ wollte.
Bei Gothic 2 flimmert es mit AI-low minimalst, aber nur an wenigen Stellen, die mir ins Auge gesprungen sind.
Wobei winkelabhängiges AF hier deutlich mehr an der BQ nagt.
Ich will natürlich auch zocken, deswegen fielen mir vielleicht nicht so viele Stellen auf.
Vor dem Durchgang zwischen Khorinis und Minental ist es recht gut sichtbar.

Gruß M_B

Mr. Lolman
2006-11-09, 14:16:52
muha, hab mir eben erst die benches angeguckt -->

NVIDIA, ihr seid so pevers ;D

sobald die Graka der ausschlaggebende Faktor is rennt der G80 meilen weit weg ^^ einfach hammer. Nicht zu vergessen das sie teils nem 7900GTX SLIsystem wegrennt! Und die AA/AF-Skalierung spricht auch ne deutliche sprache. Nvidia scheint diesmal echt auf unsere bedürfnisse eingegangen zu sein ;D

Kommt immer auf die Benchmarks draufan. Die 8800GTX ist klarerweise zwar immer am schnellsten, aber die 8800GTS hat tw. schon schwer mit der X1950XTX zu kämpfen:


http://www.hardware.fr/medias/photos_news/00/18/IMG0018390.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018392.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018407.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13531.png http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13530.png http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl604_thumb.jpg

Mr.Magic
2006-11-09, 14:16:53
Auch der R400 hätte irgendwann 2003 erscheinen sollen. Und was ist passiert? Zu ambitioniert, es musste schnell ein Ersatz her: R420.
Ich würde nicht viel Wert auf die Aussage legen, was geplant war, sondern wann er kam (gestern) und wie lange er entwickelt wurde (vier Jahre).
Aber auch das ist lustig: vier Jahre? Also 2002? Da wurde auch ein Chip entwickelt, der zwar in seiner Form eingestampft wurde, aber sein Konzept weiterentwickelt.

Man muss mit solchen Marketingaussagen vorsichtig sein, oder vielmehr wie man sie interpretiert. Als NV meinte
"die Zeit wäre noch nicht reif für Unified Shader" hatten sie noch Probleme einen Chip mit der Architektur herzustellen. Das erfährt man eben erst in Retrospekt. Ich habe Dir also eigentlich nur zustimmen wollen. Das nächste mal halt dann wieder ausführlicher ;).

Mr. Lolman
2006-11-09, 14:29:06
NVIDIA G80 - GeForce 8800 im Test (http://hardtecs4u.com/reviews/2006/nvidia_g80/) bei HT4U


Falls jemand von HT4U mitliest. Das heisst: anisotroper Filter, nicht -tropisch! ;)

deekey777
2006-11-09, 14:29:33
Man muss mit solchen Marketingaussagen vorsichtig sein, oder vielmehr wie man sie interpretiert. Als NV meinte
"die Zeit wäre noch nicht reif für Unified Shader" hatten sie noch Probleme einen Chip mit der Architektur herzustellen. Das erfährt man eben erst in Retrospekt. Ich habe Dir also eigentlich nur zustimmen wollen. Das nächste mal halt dann wieder ausführlicher ;).
Aber es ist so interessant ältere News zu lesen:
http://www.vr-zone.com/?i=2492 (achtet auf die Specs)
http://www.bit-tech.net/bits/2005/07/11/nvidia_rsx_interview/4.html

"We will do a unified architecture in hardware when it makes sense. When it's possible to make the hardware work faster unified, then of course we will. It will be easier to build in the future, but for the meantime, there's plenty of mileage left in this architecture."
Eine klare Aussage von DK (:biggrin:).

robbitop@work
2006-11-09, 15:22:33
Hab mir gestern GTR2 angesehen:

1. Ich hab nie behaupetet, dass AIlow flimmerfrei ist, sondern nur, dass der Unterschied zw. Aioff und Ailow minimal ist.


Also ich brauche das gar nicht extra zu untersuchen. Das fällt mir schon beim Zocken nebenbei auf. Einige Texturen neigen AI Low zum leichten Flimmern. Das stört die Homogenität und stört mich. In Mafia, in Oblivion und auch in Max Payne 2. Frag' mal Raff, der weiß da einige Geschichten zu erzählen. Der Gute zockt nicht umsonst @AI=Off. Naja vieleicht sind wir auch einfach zu empfindlich.

NiCoSt
2006-11-09, 15:23:36
Kommt immer auf die Benchmarks draufan. Die 8800GTX ist klarerweise zwar immer am schnellsten, aber die 8800GTS hat tw. schon schwer mit der X1950XTX zu kämpfen:


http://www.hardware.fr/medias/photos_news/00/18/IMG0018390.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018392.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018407.gif http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13531.png http://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13530.png http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl604_thumb.jpg


warum hat beim BF2-bench die 8800GTX single ne bessere performance als 8800GTX SLI? :hammer:

MikBach
2006-11-09, 15:26:26
warum hat beim BF2-bench die 8800GTX single ne bessere performance als 8800GTX SLI? :hammer:
Weil hier anscheinend SLI nicht richtig funktioniert, aber eine höhere CPU-Last erzeugt als eine einzelne Karte.

Gast
2006-11-09, 15:27:07
warum hat beim BF2-bench die 8800GTX single ne bessere performance als 8800GTX SLI? :hammer:

Oh man... weils SLI Profil für die G80 noch net fertig is, darum. So langsam sollte es sich rumgesprochen haben das NV Profile für Spiele anfertig (oder man machts selbst) damit SLI aktiv geht.

Spasstiger
2006-11-09, 15:28:04
warum hat beim BF2-bench die 8800GTX single ne bessere performance als 8800GTX SLI? :hammer:
Evtl. CPU-Limitierung und erhöhter Overhead durch SLI. Der G80 scheint generell eine hohe CPU-Last zu erzeugen, in CPU-limitierten Szenarien liegt er stets hinter den ATI-Karten.

Gast
2006-11-09, 15:42:29
Und das siehst du anhand des Screens?
Reife Leistung, das kann ich nichtmal.
Für mich sieht es auf dem Screen bei ATI schärfer aus.

Muss aber zugeben, dass ich noch kein Review gelesen habe, da ich nach Umzug immernoch kein I-Net zu Hause habe.

Gruß M_B

Ja, das Textur-Aliasing (=Textur-Flimmern in Bewegung) sieht man anhand des Screens. Das was du als Schärfe bezeichnest ist Aliasing. Besoders gut zu sehen an den dunklen Begrenzungen der Steinplatten(?), Treppeneffekte bei ATI, nahezu keine Treppeneffekte bei Nvidia.

Gast
2006-11-09, 15:59:04
warum hat beim BF2-bench die 8800GTX single ne bessere performance als 8800GTX SLI? :hammer:

vermutlich weil die tester zu faul waren ein entsprechendes SLI-profil anzulegen.

Mr. Lolman
2006-11-09, 16:09:41
Also ich brauche das gar nicht extra zu untersuchen. Das fällt mir schon beim Zocken nebenbei auf. Einige Texturen neigen AI Low zum leichten Flimmern. Das stört die Homogenität und stört mich. In Mafia, in Oblivion und auch in Max Payne 2. Frag' mal Raff, der weiß da einige Geschichten zu erzählen. Der Gute zockt nicht umsonst @AI=Off. Naja vieleicht sind wir auch einfach zu empfindlich.

Glaub ich der gern. Allerdings spiel ich Oblivion nur mit AIlow (HDR+AA) und hab mir noch garnicht angesehen, wies mit AIoff aussieht. Wirklich störend ist AIlow imo nicht, aber mein geübtes Auge erkennt ab und an schon Szenen, die mit AIoff besser aussehen dürften. :)

Mafia und Max Payne 2 spiel ich mit SGSSAA =)

up¦²
2006-11-09, 17:00:03
Gab es irgendwo schon UE3-Benchmark-Vergleiche?

dildo4u
2006-11-09, 17:10:56
Gab es irgendwo schon UE3-Benchmark-Vergleiche?Mit was bitte halbfertige Techdemos oder Roboblitz?*g*

Gast
2006-11-09, 17:16:28
Schade dass keine neue Spiele-Engine mit dem G80 vorgestellt wurde.
Ich hab mich schon auf Videos einer neuen id-engine gefreut

up¦²
2006-11-09, 17:29:14
Mit was bitte halbfertige Techdemos oder Roboblitz?*g*
Naja Roboblitz lieber nicht, aber wenn die Engine damit real belastet wird, wäre auch sowas interessant :biggrin:

Hier wird übrigens gerade fleißig Vista 'gratis' verteilt: Motto, wer will noch mal wer hat noch nicht?
Das Dumme ist nur: keinerlei 3d-Demo drauf!
Ja - außer dem OS natürlich :biggrin:
Langsam werd ich mißtrauisch, ein Bluff mit "T&L" reicht mir eigentlich ...

DrumDub
2006-11-09, 17:33:00
Langsam werd ich mißtrauisch, ein Bluff mit "T&L" reicht mir eigentlich ... ich glaub eher, dass vista ein einziger bluff ist (bis auf d3d10...)... ;D

up¦²
2006-11-09, 17:44:52
BTW, für die G80 natürlich interessant:
heute kam sogar im Radio (DLF) die Meldung, daß Vista an die Hersteller ausgeliefert wurde und ab Januar auf PCs verkauft wird.
Bin gespannt! :biggrin:

vinacis_vivids
2006-11-09, 17:47:08
Ist der winkelunabhängige anisotropische Filter ein explizites G80 Feature oder nur eine Treibersache? Wenn es nur der Treiber ist, dann freu ich mich. Bei steigender Bildqualität dürfe die Leistung der G70er Generation noch weiter schmälern.

Gast
2006-11-09, 17:56:31
Ist der winkelunabhängige anisotropische Filter ein explizites G80 Feature oder nur eine Treibersache?

das ist nicht nur eine treibersache.

MikBach
2006-11-09, 18:00:45
Ist der winkelunabhängige anisotropische Filter
Anisotrop(e), nicht -tropisch.

Raff
2006-11-09, 18:51:13
Besseres AA als die Voodoo5 liefert schon jeder NV4x oder R3x0.

Ach wie wäre das doch schön ...
Die AA-Qualität der Voodoo5 5500 wurde in der Tat etwa erreicht (16xS). Aber nichts kommt an das 8x SGSSAA der Voodoo5 6000 heran, egal wie oft es behauptet wird. Nur S3s Chromes bieten 9x RGSSAA ... aber das funktioniert offenbar noch immer nicht im Vollbild.

Gibt's denn Neues zum Thema Hybriden @ G80? Da wären extrem leckere neue Dinger machbar.

Bei Gothic 2 flimmert es mit AI-low minimalst, aber nur an wenigen Stellen, die mir ins Auge gesprungen sind.
Wobei winkelabhängiges AF hier deutlich mehr an der BQ nagt.
Ich will natürlich auch zocken, deswegen fielen mir vielleicht nicht so viele Stellen auf.
Vor dem Durchgang zwischen Khorinis und Minental ist es recht gut sichtbar.

Gruß M_B

Gutes Beispiel. Ich sehe das allerdings extremer: A.I. Off flimmert dort minimal, A.I. Low ist inakzeptabel. Man sollte aber hinzusagen, dass - zumindest in Gothic 2 - so störende Stellen wie diese eher selten sind. Es gibt aber noch zig andere Spiele, die flimmern, von daher ...

MfG,
Raff

MikBach
2006-11-09, 18:57:27
Gutes Beispiel. Ich sehe das allerdings extremer: A.I. Off flimmert dort minimal, A.I. Low ist inakzeptabel.

MfG,
Raff
Du meinst aber die Steintexturen (Boden)?

PS Schönes Wochenende an alle, bin die nächsten paar Tage im Ausland, also habt ihr Ruhe vor mir. :wink:

Gruß M_B

Raff
2006-11-09, 18:58:56
Genau. "Böser" Content ist das Stichwort. Man sieht aber, dass ein guter Texturfilter (=> A.I. Off) das fast flimmerfrei bekommt, wohingegen der Geiz-ist-Geil-Filter (=> A.I. On) übel flimmert.

MfG,
Raff

Mr. Lolman
2006-11-09, 19:58:26
Ach wie wäre das doch schön ...
Die AA-Qualität der Voodoo5 5500 wurde in der Tat etwa erreicht (16xS).
Raff

Naja, Ansichtssache:

Voodoo5 Glide, 4xAA/LOD-5/16bit, 8bit Textures:
http://img156.imageshack.us/img156/7385/u93dfx4x8hy8vb.th.jpg (http://img156.imageshack.us/my.php?image=u93dfx4x8hy8vb.jpg)

6800GT Direct3D, 16xS/4x(HQ)AF/32bit, 16bit Textures:
http://img217.imageshack.us/img217/6595/u9nv16xs1jq5xe.th.jpg (http://img217.imageshack.us/my.php?image=u9nv16xs1jq5xe.jpg)

Raff
2006-11-09, 19:59:45
Ich sagte ja "etwa". ;) Das 2x2 OGSSAA in 16xS ist eben kein 4x SGSSAA.

MfG,
Raff

Fallacy
2006-11-09, 20:01:37
http://hardtecs4u.com/reviews/2006/nvidia_g80/
Savegames anstatt Timedemos und ATI mit HQ-AF und AI=on/AI=off :up:

Wir sind sogar einen Schritt weiter gegangen als nur Savegames zu verwenden ;).

Aus diesen Grund haben wir uns dazu entschieden eine möglichst anspruchsvolle und zugleich repräsentative Stelle im jeweiligen Spiel herauszusuchen und anschließend einen kleinen Durchlauf durch den Level von etwa 40-60 Sekunden zu starten. Wir versuchten uns hierbei die Laufweg möglichste exakt einzuprägen und zu rekonstruieren, wobei wir uns zumeist an bestimmten Objekten orientierten. Aus insgesamt drei solcher Durchläufe bildeten wir anschließend den Mittelwert um ein möglichst aussagekräftiges Ergebnis zu erhalten.
http://hardtecs4u.com/reviews/2006/nvidia_g80/index6.php

Das ganze war natürlich sehr zeitaufwändig, und wir haben das Testsample leider erst äußerst knapp vor dem Launch erhalten. Deshalb wurden es effektiv nur fünf Spiele die wir auf diese Weise testen konnten. 9-10 Benches mit Timedemos hätten wohl mehr klicks für den Artikel gebracht und wären weniger stressig gewesen ;). Aber ich denke es war letztendlich die richtige Entscheidung.

Falls jemand von HT4U mitliest. Das heisst: anisotroper Filter, nicht -tropisch! ;)

Gnarf. Ist allerdings nur in der Bildunterschrift falsch gewesen, die wohl der Lektor ergänzt hatte - im restlichen Artikel war es richtig geschrieben :P. Aber danke für den Hinweis :).

Grüße,
Leander HT4U

Gast
2006-11-09, 20:05:45
Nur so mal nebenbei IHR SEIT OFFTOPIC. Splittet euch raus, is schon wieder diese Ultima Screenshots und das Voodoo gebabbel. Is echt nicht nachzuvollziehen wie ihr in sovielen Threads das Thema damit sprengt.

Mr. Lolman
2006-11-09, 20:11:05
Ich sagte ja "etwa". ;) Das 2x2 OGSSAA in 16xS ist eben kein 4x SGSSAA.

MfG,
Raff

Und ich sagte "Ansichtssache" und bin der Meinung, dass sie auch nicht "in etwa" erreicht wurde, da bei AT dass 2x2EER gegen das 4x4EER deutlich abstinkt.

Nur so mal nebenbei IHR SEIT OFFTOPIC. Splittet euch raus, is schon wieder diese Ultima Screenshots und das Voodoo gebabbel. Is echt nicht nachzuvollziehen wie ihr in sovielen Threads das Thema damit sprengt.

Du bist mit deinem Gebrabbel auch Offtopic. Hättest schon wieder was bezügl .G80 posten können.
Ich wundere mich hier z.B. gerade welches EER die neuen AA Modi beim G80 haben... :wink:

deekey777
2006-11-09, 20:12:49
Nur so mal nebenbei IHR SEID OFFTOPIC. Splittet euch raus, is schon wieder diese Ultima-Screenshots und das Voodoo-Gebabbel. Is echt nicht nachzuvollziehen, wie ihr in sovielen Threads das Thema damit sprengt.
*unterschreib*

Raff
2006-11-09, 20:13:12
Nur so mal nebenbei IHR SEIT OFFTOPIC. Splittet euch raus, is schon wieder diese Ultima Screenshots und das Voodoo gebabbel. Is echt nicht nachzuvollziehen wie ihr in sovielen Threads das Thema damit sprengt.

Damit magst du recht haben. Aber ist es nicht diskussionswürdig, dass fettestes High-End in bestimmten Gebieten noch immer nicht so gut ist wie 6 Jahre alte Hardware? €dit: Ok, deekey. ;) Parallel-Schrieb.

Und ich sagte "Ansichtssache" und bin der Meinung, dass sie auch nicht "in etwa" erreicht wurde, da bei AT dass 2x2EER gegen das 4x4EER deutlich abstinkt.

Akzeptiert. :biggrin: Und damit eben Schluss ...

MfG,
Raff

up¦²
2006-11-09, 20:57:39
Was sagt ihr dazu? :biggrin:
http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page23.asp

AnarchX
2006-11-09, 21:00:58
Was sagt ihr dazu? :biggrin:
http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page23.asp

Da hat wohl nV noch etwas Treiberarbeit vor sich...;)
Die 8800GTX liegt in diesen Benches generell zu nah an der GTS.