PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 8800 GTX und GTS-Version Review-Thread (Links im #1)


Seiten : 1 2 3 4 [5]

Gast
2006-11-14, 08:19:27
Ailuros, das könnte immer noch bedeuten, daß es anstatt OGSSAA-/Hybridmodi SGSSAA geben wird. Wäre zwar zwei Schritte vorwärts, einer zurück, aber dennoch ein Fortschritt. Vielleicht ja auch ein Marketingtrick, um Leute, denen Bildqualität wichtig ist und die mit dem Kauf einer neuen Graka auf G80 gewartet haben, zweimal abkassieren zu können: Einmal G7x im Schlussverkauf und in ein, zwei Monaten dann SGSSAA-/OGSSAA-/Hybridmodi auch für G80.
Toll, eigentlich wollte ich direkt nach dem Quadfatherlaunch ein schickes kleines SLI-System aufbauen, jetzt wird erst mal abgewartet *grummel*

Gast
2006-11-14, 09:04:55
Ich weiß ich wundere mich nur das das "Profi" Magazin C't solchen Murks schreibt.Brauchbare 3D Beschleuniger gab schon 3 Jahre vor der Geforce.


Wieso schreiben die Murks? Offensichtlich ist doch hier keiner in der Lage richtig zu zählen:

NV1
NV3
NV4/5
NV1x
NV2x
NV3x
NV4x/G7x
G8x

sind wieviele Genrationen?

robbitop@work
2006-11-14, 09:49:55
Ist das als 3dfx Flame anzusehen? 3dfx war auf dem richtigen Weg, mit Rampage hätten sie wieder komplett aufgeschlossen, sogar vorbeiziehen hätten sie können!
Nein. ;)

|MatMan|
2006-11-14, 11:17:06
das würde im umkehrschluss ja heißen, dass an der stelle der G80 eine fehlkonstruktion ist (sofern es wirklich eine limitierung ist)

unter dem umständen überlegt man doch lieber 2x ob man für eine sich selbst limitierende hardware 600€ ausgibt

kauf ja auch kein porsche der 300 fährt aber nur 180 darf, weil die reifen nur soviel abkönnen
was ist denn das für ein Schwachsinn/ geflame? Wo ist denn der G80 langsam? Wo steht denn auf der Packung dass die Streamprozessoren ein MAD und ein MUL in einem Takt können müssen?

Ich weiß zwar nix genaues, aber so wie es aussieht (reine Speku), ist das MUL nur unter gewissen Bedingungen verfügbar (ist evtl. so eine Art Hilfs-ALU wie bei ATI oder dem NV40?) und da kann man sicherlich noch einiges am Shadercompiler optimieren um das gelegentliche MUL besser nutzen zu können.
Aber den G80 deshalb als Fehlkonstruktion zu bezeichnen... :|

Zippi
2006-11-14, 11:41:49
wo ist das bitte schön geflame!?
wo ist die aussage, dass der g80 langsam ist?

ich habe jediglich das aufgegriffen, was ein paar seiten vorher stand!?

und falls du RICHTIG lesen könntest, steht da, dass an der stelle der g80 ne fehlkonstruktion ist (nicht der gesamte g80), ist ja auch logisch, wenn etwas nicht ausgenutzt wird, weil ein teil davor der limitierende faktor ist, dann ist es schlicht weg fehlkonstruiert

um nochmal das bsp mit dem porsche aufzugreifen, wenn der motor 300km/h schafft, aber das getriebe nicht die entsprechenden voraussetzungen bringt, dann ist der porsche an dieser stelle eine fehlkonstruktion, nicht das gesamte produkt, alles klar!?

komm also mal bisschen runter und bezeichne nicht alles kontra G80 als geflame

Gast
2006-11-14, 12:25:12
wo ist das bitte schön geflame!?


Hier:

"unter dem umständen überlegt man doch lieber 2x ob man für eine sich selbst limitierende hardware 600€ ausgibt"

Ein G80 ist locker mehr als 600 Euro wert und die gebe ich gerne dafür aus, da brauch ich nicht 2x zu überlegen.

Gast
2006-11-14, 12:46:04
Hier:

"unter dem umständen überlegt man doch lieber 2x ob man für eine sich selbst limitierende hardware 600€ ausgibt"

Ein G80 ist locker mehr als 600 Euro wert und die gebe ich gerne dafür aus, da brauch ich nicht 2x zu überlegen.

vor allem wenn man sieht wie die bisherigen Produkte in Punkto Performance und Bildqualität geownt werden. Da ist DX10 allenfalls ein netter Bonus, den man aber nicht haben muss. Der Rest reicht ja schon. ATI ist unter Druck - mehr muss man nicht sagen.

Dirty-Sánchez
2006-11-14, 13:06:17
Nach dem Wechsel von ATI mal wieder zu NVIDIA bräuchte ich ein bischen Aufklärungarbeit.
Wie kann man die 8800 übertakten. Das NVIDIA Control Panel hat sich ja ganz schön geändert im laufe der Zeit. Früher gab es doch coolbits um die Übertaktungsfunktionen im CP frei zu schalten. Gibt es das noch oder würdet ihr ein extra Tool empfehlen? Wenn ja welches?

Ailuros
2006-11-14, 13:06:26
Ailuros, das könnte immer noch bedeuten, daß es anstatt OGSSAA-/Hybridmodi SGSSAA geben wird. Wäre zwar zwei Schritte vorwärts, einer zurück, aber dennoch ein Fortschritt. Vielleicht ja auch ein Marketingtrick, um Leute, denen Bildqualität wichtig ist und die mit dem Kauf einer neuen Graka auf G80 gewartet haben, zweimal abkassieren zu können: Einmal G7x im Schlussverkauf und in ein, zwei Monaten dann SGSSAA-/OGSSAA-/Hybridmodi auch für G80.
Toll, eigentlich wollte ich direkt nach dem Quadfatherlaunch ein schickes kleines SLI-System aufbauen, jetzt wird erst mal abgewartet *grummel*

Ich waere froh wenn sie selbst die alten modi wieder-einschalten wuerden; alles andere klingt mir viel zu optimistisch.

Ailuros
2006-11-14, 13:15:49
Hab ja immer gesagt, dass es bisher die Hybridmodi nur deswegen gibt/gab, weil die Chips zuwenig Multisamples prouzieren konnten. Jetzt gibts halt 16xMSAA, dafür aber keine Hybridmodi mehr. (Wobei OGSS ohnehin ne Verschwendung war)

Eine AA Methode ist nicht nutzvoll oder nutzlos wegem dem benutzten grid; ein gutes sparsed sampled Muster ist eben in der Mehrzahl der Faelle um einiges effizienter.

Erstens versetzt OGSS in etwa genausoviel den LOD wie andere grids und zweitens ist das resultierende EER in den hybriden modi zwar nicht perfekt aber auch nicht fuer die Tonne. Fuer die sehr wenigen Faelle wo man SSAA wirklich braucht, braucht man es sowieso nicht wegen dem Grid sondern eher wegem dem LOD.

Zu guter letzt lieber die hybriden modi als gar nichts.

Naja, SGMSAA, SM 1.0 und ne höhere Pixelfüllrate als ne GF4 Ti4200 hätte da schon was reissen können. (sofern ers zu GF3-Zeiten auf den Markt geschafft hätte)

Schon wieder OT und nein man war sich bewusst dass es sich leider nicht um die original geplante "Rampage-Revolution" handelte; diese haette dann eher anstatt Avenger oder Napalm ankommen muessen.

Mr. Lolman
2006-11-14, 13:32:09
Eine AA Methode ist nicht nutzvoll oder nutzlos wegem dem benutzten grid; ein gutes sparsed sampled Muster ist eben in der Mehrzahl der Faelle um einiges effizienter.

Erstens versetzt OGSS in etwa genausoviel den LOD wie andere grids und zweitens ist das resultierende EER in den hybriden modi zwar nicht perfekt aber auch nicht fuer die Tonne. Fuer die sehr wenigen Faelle wo man SSAA wirklich braucht, braucht man es sowieso nicht wegen dem Grid sondern eher wegem dem LOD.


Naja, das LOD sollte dank dem besseren AF nun ja in Ordnung sein, TSSAA gibts auch, also bräuchte man Hybridmodi nurmehr um das EER zu verbessern. Dafür gibts jetzt auch MSAA, weswegen ein Hybridmodus imo nur mehr für den Sonderfall - alphablendet Texturen zu glätten, interessant ist. Und da wär ein RG/SG Modus sicher nicht allzu verkehrt...

Zu guter letzt lieber die hybriden modi als gar nichts.

Das hatte sich NV wohl auch gedacht. Jetzt hat man endlich die 4 Sample Hürde überschritten, und deswegen braucht man auch keine Mixedmodi mehr um das EER zu erhöhen. (Die LOD-Verbesserung war für NV wohl nur ein angenehmer Nebeneffekt aber nie primär ausschlaggebend für die Existenz von MS/SS Mixedmodi)

Ailuros
2006-11-14, 13:48:52
Naja, das LOD sollte dank dem besseren AF nun ja in Ordnung sein, TSSAA gibts auch, also bräuchte man Hybridmodi nurmehr um das EER zu verbessern. Dafür gibts jetzt auch MSAA, weswegen ein Hybridmodus imo nur mehr für den Sonderfall - alphablendet Texturen zu glätten, interessant ist. Und da wär ein RG/SG Modus sicher nicht allzu verkehrt...

Nur etwas weniger nutzlos als OGSS und das lediglich auf den EER bezogen.


Das hatte sich NV wohl auch gedacht. Jetzt hat man endlich die 4 Sample Hürde überschritten, und deswegen braucht man auch keine Mixedmodi mehr um das EER zu erhöhen. (Die LOD-Verbesserung war für NV wohl nur ein angenehmer Nebeneffekt aber nie primär ausschlaggebend für die Existenz von MS/SS Mixedmodi)

Man kann auch den LOD ueberhaupt nicht versetzen oder einfacher weniger versetzen und somit sogar Leistung sparen. Unter normalen Bedingungen sollte man Supersampling schon fuer jede 2x SSAA samples um -0.5 versetzen. Als Voodoo-Meister weisst Du ja wohl selber dass man Supersampling auch mit 0.0 vermarkten kann und dann spaeter einen LOD slider einbaut :P

Superheld
2006-11-14, 14:10:52
hi hier Spezialisten
was denkt hier wird das mit den Stromverbrauch in idle besser oder
bleibt das so

DrumDub
2006-11-14, 14:24:58
hi hier Spezialisten
was denkt hier wird das mit den Stromverbrauch in idle besser oder
bleibt das so könnte etwas besser werden, aber wird aber defintiv über dem idle-verbrauch der alten generation liegen. allein schon wegen der leckströme bei 681 mio. transistoren. ich schätze mal, dass sie den idle-verbrauch auf ca. 50w (von aktuell 70w) drücken können...

LovesuckZ
2006-11-14, 14:46:23
das würde im umkehrschluss ja heißen, dass an der stelle der G80 eine fehlkonstruktion ist (sofern es wirklich eine limitierung ist)


Wohl eher eine Limitierung aufgrund on Kompromissen.
Eine Fehlkonstruktion wäre es, wenn die MUL - Einheiten nie zur Verwendung kommen würden.

dildo4u
2006-11-14, 16:20:56
Neuer Single Card WR.

http://resources.vr-zone.com/Shamino/g80/g8800/59.jpg

http://resources.vr-zone.com/Shamino/g80/g8800/17597.jpg

http://forums.vr-zone.com/showthread.php?t=105774

Skinny12
2006-11-14, 17:08:48
1280x1024 16xQ 16xHQ-AF
TRSSAA, Gamma-Korrektur, Trillinear

8800GTS @ 630/870

http://img98.imageshack.us/img98/6690/gtr216xq16xaftrssaa8800yg2.jpg

Also ich weiss nicht, wie Du das so geil hinbekommst...ich habe das alte NVidia Problem, entweder verwaschene Linien oder fieses Flimmern an den Randsteinen, Streckenrändern.

8800 GTS, 16AF, 8Q AA

Gruss Nils

DrumDub
2006-11-14, 17:24:22
3dfx, Rampage, V5 OT-Gelabere und Hilfsmods findet ihr jetzt hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=333031

Raff
2006-11-14, 19:16:18
Naja, das LOD sollte dank dem besseren AF nun ja in Ordnung sein, TSSAA gibts auch, also bräuchte man Hybridmodi nurmehr um das EER zu verbessern. Dafür gibts jetzt auch MSAA, weswegen ein Hybridmodus imo nur mehr für den Sonderfall - alphablendet Texturen zu glätten, interessant ist. Und da wär ein RG/SG Modus sicher nicht allzu verkehrt...

Die Fälle, in denen FSSSAA etwas zur besseren Qualität als nur mit MSAA + AF beitragen kann, vermehren sich meiner Meinung nach eher, anstatt auszusterben. Früher hatte man matschigere Texturen und keine Pixel-Shader auf Objekten, was heute immer mehr die (flimmernde) Regel wird. Insofern sehe ich 16xQ-AA keineswegs als Fortschritt im Vergleich mit dem schicken 16xS. Hoffentlich kommen die Hybriden wieder. Naja, ein Gutes hat's: Ich muss nicht schon wieder Geld ausgeben ... ;D

MfG,
Raff

Ailuros
2006-11-14, 20:14:28
Die Fälle, in denen FSSSAA etwas zur besseren Qualität als nur mit MSAA + AF beitragen kann, vermehren sich meiner Meinung nach eher, anstatt auszusterben. Früher hatte man matschigere Texturen und keine Pixel-Shader auf Objekten, was heute immer mehr die (flimmernde) Regel wird. Insofern sehe ich 16xQ-AA keineswegs als Fortschritt im Vergleich mit dem schicken 16xS. Hoffentlich kommen die Hybriden wieder. Naja, ein Gutes hat's: Ich muss nicht schon wieder Geld ausgeben ... ;D

MfG,
Raff

Wenn Dich die Aufloesung zu stark begrenzt klar. Die Bilder sind noch vom G70, aber eigentlich ein Augenoeffner fuer manche:

http://users.otenet.gr/~ailuros/ssse1280.jpg
http://users.otenet.gr/~ailuros/ssse2048.jpg

Erster Fall ist 16xS+16xAF, der zweite mit 4xMSAA+TSAA+16xAF. Ich erreiche im zweiten Fall einen >130dpi Wert auf der einen Achse und vom framecounter kann man ja sehen welche Situation noch dazu spielbarer ist in dem eher veralteten Spiel.

dildo4u
2006-11-14, 23:57:12
Die letze on the spot Sendung 9.11.06 zeigt so ab Minute 17 die 3 neuen 8800GTX Techdemos.Crysis wird auch gezeigt.


http://www.gamespot.com/videos.html?type=videos&category=On+the+Spot

jojo4u
2006-11-15, 00:00:03
Die letze on the spot Sendung 9.11.06 zeigt so ab Minute 17 die 3 neuen 8800GTX Techdemos.
[/url]

Die gibt's auch einzeln: http://www.gamespot.com/videos.html?type=videos&category=Video+Features&dlx_type=all&sortdir=asc

Gast
2006-11-15, 03:00:20
Ach komm schon Ailuros, du bist dir genau wie Raff, Lolman, ich und einige andere sehr wohl bewusst, daß man Flimmern auf Screenshots nicht sehen, sondern bestenfalls erahnen kann. Eine Graka ohne jegliche Form von SSAA ist für mich im Shaderzeitalter einfach inakzeptabel, und wenn die Balken auch noch so lang werden. Eigentlich gerade dann, wenn man die Balken von der Länge her als Kabel für einen Weltraumlift benutzen könnte. Was soll man denn mit dem ganzen Tempo, wenn man keinerlei Möglichkeit hat, es in Flimmerfreiheit umzusetzen? Ich bekomme von Geflimmer nur Kopfschmerzen, für Epileptiker ist SSAA oder nicht der Unterschied zwischen barrierefreiem Spielvergnügen oder einem Schädelbasisbruch als Folge flimmerinduzierter Anfälle. Und nein, das ist nicht polemisch gemeint sondern absoluter Ernst.

Ailuros
2006-11-15, 04:27:10
Ach komm schon Ailuros, du bist dir genau wie Raff, Lolman, ich und einige andere sehr wohl bewusst, daß man Flimmern auf Screenshots nicht sehen, sondern bestenfalls erahnen kann. Eine Graka ohne jegliche Form von SSAA ist für mich im Shaderzeitalter einfach inakzeptabel, und wenn die Balken auch noch so lang werden. Eigentlich gerade dann, wenn man die Balken von der Länge her als Kabel für einen Weltraumlift benutzen könnte. Was soll man denn mit dem ganzen Tempo, wenn man keinerlei Möglichkeit hat, es in Flimmerfreiheit umzusetzen? Ich bekomme von Geflimmer nur Kopfschmerzen, für Epileptiker ist SSAA oder nicht der Unterschied zwischen barrierefreiem Spielvergnügen oder einem Schädelbasisbruch als Folge flimmerinduzierter Anfälle. Und nein, das ist nicht polemisch gemeint sondern absoluter Ernst.

Gut dann motz die Entwickler an, denn die sind die einzige Hoffnung eigentliches shader-aliasing effizient zu loesen.

Ich muss und werde nicht dass einsehen was Du mich einsehen lassen willst; fuer mich ist und bleibt Vollbild-Supersampling eine enorme Verschwendung an Fuellrate und das eben weil meine Echtzeit-Erfahrung durch die Jahre gezeigt hat dass die paar Flecken nicht so viel Fuellrate wert sind.

Im besten Fall kauf Dir einen besseren Bildschirm, denn Supersampling zu wollen weil jemand hartnaeckig darauf besteht auf einem medium zu spielen dass gar nicht fuer Spiele eigentlich geeignet ist, ist schon weit ueber der Laecherlichkeit. Und ja es tut mir aufrichtig leid, aber man kann auch nicht anders reagieren, wenn bei Debatten ueber Debatten kein einziger Franzen an Beweismaterial sondern nur Humbug gegengerichtet wird.

Gast
2006-11-15, 04:59:27
Gut dann motz die Entwickler an, denn die sind die einzige Hoffnung eigentliches shader-aliasing effizient zu loesen.Da ich keinen Bock auf Kopfschmerzen habe ist mir die Effizienz relativ egal, die Effektivität nicht. Und damit bin ich nicht allein.
Ich muss und werde nicht dass einsehen was Du mich einsehen lassen willst; fuer mich ist und bleibt Vollbild-Supersampling eine enorme Verschwendung an Fuellrate und das eben weil meine Echtzeit-Erfahrung durch die Jahre gezeigt hat dass die paar Flecken nicht so viel Fuellrate wert sind.Schön, du bekommst davon keine Kopfschmerzen und kannst es deswegen nur als minderqualitative Grafik beurteilen. Ich will dich auch nicht einsehen lassen, daß DU es unbedingt bräuchtest, sondern daß ANDERE wie z.B. ich es bräuchten.
Im besten Fall kauf Dir einen besseren Bildschirm, denn Supersampling zu wollen weil jemand hartnaeckig darauf besteht auf einem medium zu spielen dass gar nicht fuer Spiele eigentlich geeignet ist, ist schon weit ueber der Laecherlichkeit. Und ja es tut mir aufrichtig leid, aber man kann auch nicht anders reagieren, wenn bei Debatten ueber Debatten kein einziger Franzen an Beweismaterial sondern nur Humbug gegengerichtet wird.Und ein Bildschirm mit höherer Auflösung ändert am Geflimmer bitte was? Soll ich das dergestalt interpretieren, daß ich mir einen Uralt-TFT mit Ultraschmier(TM) besorgen soll? Es war wirklich nicht polemisch gemeint. Ich freue mich für jeden, dem bei Shadergeflimmer nicht der Schädel platzt. Mir gehts halt anders.

StefanV
2006-11-15, 05:12:55
Gut dann motz die Entwickler an, denn die sind die einzige Hoffnung eigentliches shader-aliasing effizient zu loesen.
Naja, die meisten Entwickler sind entweder zu blöd (=unfähig/unwissend) oder aber zu faul, dafür zu sorgen.

Nur ein kleiner Teil würd das gern machen, nur steht hier wieder der Kosten/Nutzen Faktor...

Oder andersrum:
Am Ende haben die IHVs den Schuh wieder am Hals, ähnlich wie beim Anti Aliasing, das ja schon die Voodoo2 konnte...

Ailuros
2006-11-15, 05:21:25
Da ich keinen Bock auf Kopfschmerzen habe ist mir die Effizienz relativ egal, die Effektivität nicht. Und damit bin ich nicht allein.

Schoen. Dann sammelt Euch und schreibt an die Quelle direkt; jeden beliebigen Thread mit dem gleichen wiedergekauten Zeug zu verpestern hilft auch nicht unbedingt.

Schön, du bekommst davon keine Kopfschmerzen und kannst es deswegen nur als minderqualitative Grafik beurteilen. Ich will dich auch nicht einsehen lassen, daß DU es unbedingt bräuchtest, sondern daß ANDERE wie z.B. ich es bräuchten.

Weil Du darauf bestehst auf dem unterdurchschnittlichen Dingsbums darstellen zu wollen.

Und ein Bildschirm mit höherer Auflösung ändert am Geflimmer bitte was? Soll ich das dergestalt interpretieren, daß ich mir einen Uralt-TFT mit Ultraschmier(TM) besorgen soll? Es war wirklich nicht polemisch gemeint. Ich freue mich für jeden, dem bei Shadergeflimmer nicht der Schädel platzt. Mir gehts halt anders.

Wenn die Aufloesung zu klein fuer die insgesamte Bildflaeche ist, darfst Du gerade mal raten wieso jegliche Kleinigkeit mehr ins Auge sticht. Wenn jeder Pixel so gigantisch ist ist es auch kein Wunder.

Nebenbei ich hab sowieso immer noch einen CRT und ein LCD in seiner nativen Aufloesung schmiert auf jeden Fall erstmal nicht.

Ailuros
2006-11-15, 05:25:07
Naja, die meisten Entwickler sind entweder zu blöd (=unfähig/unwissend) oder aber zu faul, dafür zu sorgen.

Nur ein kleiner Teil würd das gern machen, nur steht hier wieder der Kosten/Nutzen Faktor...

Supersampling wird jede GPU auf niedrigere Aufloesungen begrenzen; es ist Bloedsinn SSAA als Allerheilmittel hinzustellen und es schon so oft wiedergekaut dass es nicht mehr schoen ist.

Oder andersrum:
Am Ende haben die IHVs den Schuh wieder am Hals, ähnlich wie beim Anti Aliasing, das ja schon die Voodoo2 konnte...

Was fuer AA genau? :|

Gast
2006-11-15, 05:48:17
Schoen. Dann sammelt Euch und schreibt an die Quelle direkt; jeden beliebigen Thread mit dem gleichen wiedergekauten Zeug zu verpestern hilft auch nicht unbedingt.Jeden beliebigen Thread verpesten? Bisher waren Grakas von NV für mich ohne Konkurrenz, weil ich dank SSAA ohne Kopfschmerzen zocken konnte. G80 bietet mit aktuellen Treibern eben das nicht mehr. Inwiefern ist dann die Diskussion darüber in einem Thread über G80 falsch verortet?
Weil Du darauf bestehst auf dem unterdurchschnittlichen Dingsbums darstellen zu wollen.Weil ich darauf bestehe, auch ohne flimmerinduzierte Kopfschmerzen zocken zu können. Ist dies gewährleistet drehe auch ich die Auflösung gerne höher.
Wenn die Aufloesung zu klein fuer die insgesamte Bildflaeche ist, darfst Du gerade mal raten wieso jegliche Kleinigkeit mehr ins Auge sticht. Wenn jeder Pixel so gigantisch ist ist es auch kein Wunder.Mit SSAA ist sie nicht zu klein, um Kopfschmerzen zu vermeiden. Ohne SSAA kann auch eine hohe Auflösung mich nicht vor flimmerinduzierten Kopfschmerzen retten.
Nebenbei ich hab sowieso immer noch einen CRT und ein LCD in seiner nativen Aufloesung schmiert auf jeden Fall erstmal nicht."Uralt-TFT mit Ultraschmier(TM)"
Die Reaktionszeiten sind gemeint, also temporales Schmieren. Alternativ böte sich noch ein CRT mit lächerlich grober Lochmaske (weil Streifenmaske kein horizontales SSAA böte) im Vergleich zu den unterstützten Auflösungen an, um das SSAA durchs Überfahren der Maske zu erreichen. Beides absolute Notlösungen, die doch eigentlich nicht nötig wären, wenn NV ein Einsehen hätte. Denn mit einer dieser Notlösungen könnte ich genau so gut zu Hardware der Konkurrenz greifen, und wirklich schön wären die Notlösungen beide nicht.

StefanV meinte Edge-AA

Ailuros
2006-11-15, 08:20:44
Jeden beliebigen Thread verpesten? Bisher waren Grakas von NV für mich ohne Konkurrenz, weil ich dank SSAA ohne Kopfschmerzen zocken konnte. G80 bietet mit aktuellen Treibern eben das nicht mehr. Inwiefern ist dann die Diskussion darüber in einem Thread über G80 falsch verortet?

Weil konstant der gleiche Mist wiedergekaut wird. Wenn Dir G80 nicht passen sollte, hol Dir einfach 2*7950GX2.

Weil ich darauf bestehe, auch ohne flimmerinduzierte Kopfschmerzen zocken zu können. Ist dies gewährleistet drehe auch ich die Auflösung gerne höher.
Mit SSAA ist sie nicht zu klein, um Kopfschmerzen zu vermeiden. Ohne SSAA kann auch eine hohe Auflösung mich nicht vor flimmerinduzierten Kopfschmerzen retten.

Auf Deinem Ausgabegeraet kannst Du sowieso nicht die Aufloesung erhoehen.

"Uralt-TFT mit Ultraschmier(TM)"
Die Reaktionszeiten sind gemeint, also temporales Schmieren.

Welches konstant besser wird mit der Zeit. Es gibt kein perfektes AA und schon gar nicht einen perfekten Bildschirm.

Alternativ böte sich noch ein CRT mit lächerlich grober Lochmaske (weil Streifenmaske kein horizontales SSAA böte) im Vergleich zu den unterstützten Auflösungen an, um das SSAA durchs Überfahren der Maske zu erreichen. Beides absolute Notlösungen, die doch eigentlich nicht nötig wären, wenn NV ein Einsehen hätte. Denn mit einer dieser Notlösungen könnte ich genau so gut zu Hardware der Konkurrenz greifen, und wirklich schön wären die Notlösungen beide nicht.

Ach im einen Fall ist das quasi oversampling eines CRTs (das sogar umsonst kommt) eine Notloesung, waehrend die Verschwendung der Fuellrate durch Supersampling das absolute Optimum darstellt?

Optimal ist in diesem Fall auch nichts, man kann aber auf einem CRT sehr hohe Aufloesungen in Relation zur Bildflaeche erreichen. Mit Transparenz-AA werden die alpha test Texturen erstmal geglaettet und fuer die wirklich krankhaften Faelle die auch wirklich ins Auge stechen bei shader aliasing hilft Supersampling nicht so VIEL wie Ihr es darstellen wollt. Ich bin auf Stellen mehrere Male gestossen wo selbst 4*4SSAA nur um einen kleinen Stich half.

Jegliches Gegenbeispiel oder detaillierte Dokumentation (nach auch der Erfahrung von aelteren Debatten) kann man von Dir sowieso nicht erwarten.

Was Du jetzt kaufen wirst oder nicht sollte eigentlich NV oder ATI scheren. Ich hab NV meinen Wunsch fuer Supersampling und/oder hybride modi schon zugeteilt, mehr kann ich als einfacher User auch nicht machen und nein fuer mich ist SSAA auch keine Kaufsentscheidung.

Merkwuerdig ist dass auf der GTX nur 256MB System Speicher (momentan?) freigelegt ist und die Treiber brauchen insgesamt noch enorme Arbeit. Ausserhalb der benchmark "key applications" sieht es eher duester aus.

StefanV meinte Edge-AA

Nutzlos N^10.

Gast
2006-11-15, 09:17:53
->GX2x2:
Wenn sich bei G80 nix mehr ändert und die Dinger dann verramscht werden, schaun mer mal. Noch sind die G80-Treiber ja mit gutem Willen im Betastadium.
->Ausgabegerät:
Auf dem einen nicht, auf dem anderen schon.
->CRT-Oversampling-Notlösung:
Bietet halt recht beschränkte effektiv ausgegebene Auflösung, wenn das Maskenüberfahren hinreichenden Effekt ergeben soll, der auch recht beschränkt ist, weil sich die Maske meist nicht sonderlich weit überfahren lässt.
->Uralt-TFT-Notlösung:
Flimmern wird durchs temporale Vermatschen unterdrückt, daher wäre das, was du als besser postulierst (was es für den Normalfall auch ist), für den hier angerissenen Verwendungszweck schlechter.
->relativ geringe Effektivität von OGSSAA:
SG hat halt weit bessere Möglichkeiten, Aliasing in dezentem Rauschen untergehen zu lassen. Dafür hast du doch selbst gute Hinweise geliefert.
->Edge-AA:
Es war ein Beispiel um zu zeigen, daß man meist den Bock zum Gärtner macht, wenn man auf die Kooperation der ISVs bei der Bildqualität hofft.
->GTX-Speicher:
Wenn ich da nichts falsch verstanden habe wird dies gemacht, um auf 32bit-Betriebssystemen nicht mehr RAM als unbedingt nötig mit dem Addressbereich der Grafikkarte(n) zu überdecken.

Da auch du den Wunsch nach SSAA-/Hybridmodi hast verstehe ich ehrlich gesagt nicht, warum wir uns hier rumstreiten. Wir setzen doch nur unterschiedliche Prioritäten.

Raff
2006-11-15, 14:52:45
Mit Transparenz-AA werden die alpha test Texturen erstmal geglaettet und fuer die wirklich krankhaften Faelle die auch wirklich ins Auge stechen bei shader aliasing hilft Supersampling nicht so VIEL wie Ihr es darstellen wollt. Ich bin auf Stellen mehrere Male gestossen wo selbst 4*4SSAA nur um einen kleinen Stich half.

Schon dieser "kleine Stich" kann bei empfindlichen Zeitgenossen über Augenkrebs oder Spielfreude entscheiden.

Fakt ist: Gerade der G80 schreit durch seine Power förmlich nach SSAA. Man kriegt das Ding doch kaum klein, gerade mit einem Non-Core-2-Duo. Was nützt mir das - zugegeben schicke - 16xQ-AA, wenn es damit noch immer Fälle gibt, die flimmern? Warum nicht zum (nicht hauen, das ist ganz grob geschätzt) selben Preis etwas 16xS? =)

MfG,
Raff

aths
2006-11-15, 15:01:02
Supersampling wird jede GPU auf niedrigere Aufloesungen begrenzen; es ist Bloedsinn SSAA als Allerheilmittel hinzustellen und es schon so oft wiedergekaut dass es nicht mehr schoen ist.So ist es.


das würde im umkehrschluss ja heißen, dass an der stelle der G80 eine fehlkonstruktion ist (sofern es wirklich eine limitierung ist)

unter dem umständen überlegt man doch lieber 2x ob man für eine sich selbst limitierende hardware 600€ ausgibt

kauf ja auch kein porsche der 300 fährt aber nur 180 darf, weil die reifen nur soviel abkönnenHrm? Der G80 ist auch mit dieser Limitierung das schnellste was man im Moment bekommen kann.

aths
2006-11-15, 15:02:21
Schon dieser "kleine Stich" kann bei empfindlichen Zeitgenossen über Augenkrebs oder Spielfreude entscheiden.

Fakt ist: Gerade der G80 schreit durch seine Power förmlich nach SSAA. Man kriegt das Ding doch kaum klein, gerade mit einem Non-Core-2-Duo. Was nützt mir das - zugegeben schicke - 16xQ-AA, wenn es damit noch immer Fälle gibt, die flimmern? Warum nicht zum (nicht hauen, das ist ganz grob geschätzt) selben Preis etwas 16xS? =)

MfG,
Raff?? 16xQ kostet ungefähr so viel wie 8xQ, 16xS würde die Füllrate glatt vierteln. Wo man bei dem AF noch Supersampling braucht, hätte ich gerne gewusst.

Raff
2006-11-15, 15:03:29
So ist es.

Tut niemand. Es ist ein Heilmittel für die bekannten Probleme, ruft aber ein anderes auf den Plan: niedrige Fps. Aber mit einem G80 dürfte auch das nicht mehr ganz so schlimm sein.

Wo man bei dem AF noch Supersampling braucht, hätte ich gerne gewusst.

Du willst es nicht verstehen.

MfG,
Raff

aths
2006-11-15, 15:18:41
Du willst es nicht verstehen. Bei einem AF, das nicht unterfiltert, und einem AA, das Alphatesting-Artefakte behandelt, braucht man kein SSAA für Bildruhe. Genau dafür wurden ja Texturfilter und Antialiasing-Modi mit Transparency-Glättung erfunden.

G80-Leistung hin oder her. Bei halbwegs modernen Spielen reichts vielleicht für 4x sparse Supersampling. Das bringt wenig. Noch mehr Supersampling bringt bezogen auf die Rechenkosten noch weniger. Sinnvoller wäre, alternative Downfilter-Verfahren zu fordern.

Hvoralek
2006-11-15, 15:19:48
Bei einem AF, das nicht unterfiltert, und einem AA, das Alphatesting-Artefakte behandelt, braucht man kein SSAA für Bildruhe. Genau dafür wurden ja Texturfilter und Antialiasing-Modi mit Transparency-Glättung erfunden.Wenn man kein Shader- Aliasing hat.

aths
2006-11-15, 15:47:06
Wenn man kein Shader- Aliasing hat.Shader-Aliasing sollte im Shader verhindert werden. Wenn ein Entwickler da schlampt sollte sein Produkt mit entsprechend niedrigen Verkaufszahlen abgestraft werden.

Gouvernator
2006-11-15, 15:49:12
Schon dieser "kleine Stich" kann bei empfindlichen Zeitgenossen über Augenkrebs oder Spielfreude entscheiden.

Fakt ist: Gerade der G80 schreit durch seine Power förmlich nach SSAA. Man kriegt das Ding doch kaum klein, gerade mit einem Non-Core-2-Duo. Was nützt mir das - zugegeben schicke - 16xQ-AA, wenn es damit noch immer Fälle gibt, die flimmern? Warum nicht zum (nicht hauen, das ist ganz grob geschätzt) selben Preis etwas 16xS? =)

MfG,
Raff
G80 mag in Shadern und allem was noch so ist sehr schnell sein, nur für Supersampling ist es immernoch zu schwach =) Ich kann euch von einer Stelle in Vietcong diesem alten Spiel berichten wo die ganze Szene scheint nach FPS Einbruch aus Alphatests zu bestehen so das überall mit 6xFSAA+6xSSAA gerendert wird. Ich hab mit meiner Radeon unter 16/12 etwa 30(!) FPS, was mit einer G80 etwa zwei mal soviel wäre. Und das ist nur Vietcong !

Hvoralek
2006-11-15, 16:02:15
Shader-Aliasing sollte im Shader verhindert werden. Wenn ein Entwickler da schlampt sollte sein Produkt mit entsprechend niedrigen Verkaufszahlen abgestraft werden.An sich vollkommen richtig. Leider besteht zwischen "sollen" und "sein" kein zwingender Kausalzusammenhang.

Kaufboykott wegen Shaderaliasing halte ich weder für besonders praktikabel noch für sinnvoll. Das stellt man meist erst beim Spielen fest und ich persönlich würde dafür auch nicht auf ein gutes Spiel verzichten (Bsp. Chronicles of Riddick, von dem ich das vorher schon gehört hatte). In der Branche haben bisher mW Boykottaufrufe selten etwas gebracht, auch mit populäreren Themen als Shaderaliasing. Das könnte nur etwas bewirken, wenn Du die Masse der Spieler dafür interessieren kannst. Und vielen davon müsstest Du wohl erst einmal erklären, was AA überhaupt ist und sie dazu bringen, Geld für Hardware mit genügend Reserven auszugeben. Schließlich wird bei schlechten Absätzen eines Spiels wohl nicht zuerst vermutet, dass es gerade daran lag.

Die Hoffnung, dass wirklich alle oder zumindest die meisten Entwickler den Aufwand für "saubere" Shader betreiben werden, habe ich nicht. Warum sollen dann nicht zumindest die Leute mit High- End- Systemen die Möglichkeit des SGSSAA bekommen? Der Transistoraufwand dürfte so groß nicht sein.

aths
2006-11-15, 17:14:42
Hvoralek,

ich bin nicht gegen eine Treiber-Option für sparse grid Supersampling. Das würde keinen zusätzlichen Transistor kosten und wer will, kanns dann nutzen. Aber Supersampling ist kein Allheimittel. Supersampling ist verdammt ineffizient, so dass es sinnvoller ist nach vernünftigem Content zu rufen als für Supersampling hunderte Euro extra auszugeben.

WoW spiele ich neuerdings wieder mit 4xS-Antialiasing – weil die Schatten am Boden somit fast gar nicht mehr flimmern.

Mastermind
2006-11-15, 17:21:27
Die gibt's auch einzeln: http://www.gamespot.com/videos.html?type=videos&category=Video+Features&dlx_type=all&sortdir=asc
Die neuen Techdemos sind als HD-Videos online seh ich das richtig??? Die Seite macht allerdings Probleme bei mir, ich konnte sie nicht runterladen. Gibts die sonst noch irgendwo??????? Auf nzone ist noch nichts!!! :frown: :frown: :frown:

Hvoralek
2006-11-15, 18:58:48
ich bin nicht gegen eine Treiber-Option für sparse grid Supersampling. Das würde keinen zusätzlichen Transistor kosten und wer will, kanns dann nutzen. Aber Supersampling ist kein Allheimittel. Supersampling ist verdammt ineffizient, so dass es sinnvoller ist nach vernünftigem Content zu rufen als für Supersampling hunderte Euro extra auszugeben.Dann habe ich Dich falsch verstanden. Wie gesagt, flächendeckend flimmerfreie Shader sind die bessere Lösung, aber mMn keine besonders realistische.

SGSSAA ist allein über den Treiber machbar? Warum verwendet Nvidia dann für ihre SS- und Hybrid- Modi OG? Einfacher umzusetzen?

jojo4u
2006-11-15, 19:00:09
Die neuen Techdemos sind als HD-Videos online seh ich das richtig??? Die Seite macht allerdings Probleme bei mir, ich konnte sie nicht runterladen.

400 x 224 matschig. Für ein paar Dollar im Monat gibts allerdings HD ;)

Ailuros
2006-11-15, 21:01:03
Tut niemand. Es ist ein Heilmittel für die bekannten Probleme, ruft aber ein anderes auf den Plan: niedrige Fps. Aber mit einem G80 dürfte auch das nicht mehr ganz so schlimm sein.

Dann hol Dir eine und probier mal FarCry (so jung ist das Ding nun auch wieder nicht) mit nur Transparenz-SSAA und dann koennen wir weiterreden ob ein Schritt weiter fuer Vollbild-SS eigentlich in einer anstaendigen Aufloesung moeglich ist.

Ailuros
2006-11-15, 21:15:43
Schon dieser "kleine Stich" kann bei empfindlichen Zeitgenossen über Augenkrebs oder Spielfreude entscheiden.

Der Stich gegen um einiges hoehere Aufloesungen. Und nein Supersampling kann mir keine hoeheren Aufloesungen ersetzen.

Fakt ist: Gerade der G80 schreit durch seine Power förmlich nach SSAA. Man kriegt das Ding doch kaum klein, gerade mit einem Non-Core-2-Duo. Was nützt mir das - zugegeben schicke - 16xQ-AA, wenn es damit noch immer Fälle gibt, die flimmern? Warum nicht zum (nicht hauen, das ist ganz grob geschätzt) selben Preis etwas 16xS? =)


Zuerst in die Hand legen und dann zu solchen Schlussfolgerungen kommen. Spiele wie UT2k4 ausserhalb den ONS Maps sind gerade noch spielbar mit 4xSupersampling in 1280 und danach die Sintflut.

Es wird immer Faelle geben wo shader flimmern werden selbst mit adaptivem oder Vollbild-SS und andere Faelle wo die Verbesserung von SS minimal ist. Fuer den Grad und die Anzahl der Verbesserungen im direkten Vergleich zur Fuellraten-verschendung ist SS nicht der Rede wert.

Ich benutzte die hybriden modi hauptsaechlich fuer uralte Spiele die auf spezifische Aufloesungen begrenzt sind; da macht es auch absolut Sinn alles moegliche einzuschalten da man sowieso nur einen mickrigen Schnipsel an Fuellrate fuer diese braucht.

Soll ich SS vielleicht in FarCry, Fear oder sogar Oblivion (und jeglichen dergleichen) einsetzen? Jetzt nimm mal Oblivion als Beispiel, lass FRAPS im Hintergrund laufen und zeig mir wie die Leistung in einer Aussenszene mit nur 4xSS aussieht; oder noch besser zeig mir in wie vielen Stellen und wie oft SS auch einen wirklichen Unterschied macht.

Ailuros
2006-11-16, 05:47:26
So und jetzt zurueck zum Thema:

http://boards.slackercentral.com/showpost.php?p=1325029&postcount=22

Mr. Lolman
2006-11-16, 13:02:16
So und jetzt zurueck zum Thema:

http://boards.slackercentral.com/showpost.php?p=1325029&postcount=22

Wieso ist HQ-AF bei ihm brilinear?

Gast
2006-11-16, 13:54:26
Die Fälle, in denen FSSSAA etwas zur besseren Qualität als nur mit MSAA + AF beitragen kann, vermehren sich meiner Meinung nach eher, anstatt auszusterben. Früher hatte man matschigere Texturen und keine Pixel-Shader auf Objekten, was heute immer mehr die (flimmernde) Regel wird.

eher umgekehrt, ab SM3 ist es endlich recht einfach möglich antialiasing bereits in den shader zu integrieren, was um ein vielfaches effizienter als supersampling ist.

der grund dass wir aktuell noch recht viel shaderflimmern sehen ist eigentlich dass größtenteils immer noch für SM2 programmiert wird.

Gast
2006-11-16, 14:06:50
Tut niemand. Es ist ein Heilmittel für die bekannten Probleme, ruft aber ein anderes auf den Plan: niedrige Fps. Aber mit einem G80 dürfte auch das nicht mehr ganz so schlimm sein.


die TSSAA-benchmarks von oblivion zeigen dass selbst ein G80 für FSSSAA nicht wirklich ausreicht, und hier werden auch nur die AT-polygone mit SS behandelt, was in diesen szenen zwar schon recht viel ausmacht aber immer noch nicht alles ist, mit FSSAAA dürfte der einbruch nochmal um 30% höher sein.

Gast
2006-11-16, 14:12:42
SGSSAA ist allein über den Treiber machbar? Warum verwendet Nvidia dann für ihre SS- und Hybrid- Modi OG? Einfacher umzusetzen?

ja, das ist einfacher, für SGSSAA müsste das gesamte bild mehrmals gerendert werden(wie es z.b. auch bei den SLI-AA-modi gemacht wird), für OGSSAA wird einfach das rendertarget vergrößert.

Hvoralek
2006-11-16, 18:31:18
ja, das ist einfacher, für SGSSAA müsste das gesamte bild mehrmals gerendert werden(wie es z.b. auch bei den SLI-AA-modi gemacht wird), für OGSSAA wird einfach das rendertarget vergrößert.Wäre das auch langsamer oder nur schwieriger zu implementieren?

Gast
2006-11-16, 22:27:50
Wäre das auch langsamer oder nur schwieriger zu implementieren?

es kann, vor allem bei einer US-architektur auch langsamer sein.

bei einem vergrößerten rendertarget muss nur der pixelteil mehrfach ausgeführt werden, für SGSSAA müssten wirklich alle berechnungen für das bild mehrfach durchgeführt werden, einschließlich vertexshader, trisetup etc.

sogar die cpu-belastung wäre höher da die gleichen renderbefehle mehrfach zur cpu geschickt werden müssten, da das ganze aber auf treiberebene und nicht auf API-eben geschehen würde, wäre der aufwand immerhin in überschaubaren bereichen.

Gast
2006-11-16, 22:44:35
wo bleiben die spieletests von xbitslabs,die beste seite fehlt

Ailuros
2006-11-16, 23:11:30
Wieso ist HQ-AF bei ihm brilinear?

Weil "er" (also ich) dummerweise die falschen shots hochgeladen habe vielleicht? :biggrin:

deekey777
2006-11-16, 23:30:22
NVIDIA GeForce 8800 GTX & 8800 GTS (http://www.behardware.com/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html) bei Be Hardware

Tomb Raider Legend (http://www.behardware.com/articles/644-15/nvidia-geforce-8800-gtx-8800-gts.html)
Verdammte USA. :biggrin:
Wird auf der 8800GTX in AoE3 der gleiche Modus wie auf der X1x00er Serie benutzt (1010102)?

Raff
2006-11-17, 06:43:35
Ich nochmal:

R580, 6xAA, 16xHQAF, AIoff, EATM, Raffs Save: http://www.myloads.de/upload2/25975.png

http://img223.imageshack.us/img223/5863/31ez0.th.jpg (http://img223.imageshack.us/my.php?image=31ez0.jpg)

Na? Welche Karte und welche Settings? ;) Die Texturqualität an den Schrägen ist perfekt.

MfG,
Raff

Mr.Soapdown
2006-11-17, 06:56:39
Die Geländer (oben) sehen aber nicht so dolle aus.

Ronin2k
2006-11-17, 08:51:49
wow also der TR Legend Bench spricht Bände :)


NVIDIA GeForce 8800 GTX & 8800 GTS (http://www.behardware.com/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html) bei Be Hardware

Tomb Raider Legend (http://www.behardware.com/articles/644-15/nvidia-geforce-8800-gtx-8800-gts.html)
Verdammte USA. :biggrin:
Wird auf der 8800GTX in AoE3 der gleiche Modus wie auf der X1x00er Serie benutzt (1010102)?

Gast
2006-11-17, 09:49:02
Wäre das auch langsamer oder nur schwieriger zu implementieren?Guck dir AAA/TSAA an, implementiert ist es schon längst. Es fehlt nur eine Option, die Adaptivität auszuschalten, damit nicht nur alphazertestete Objekte SSAA übergebraten bekommen sondern das ganze Bild, was auch gegen Shaderaliasing helfen würde.

robbitop@work
2006-11-17, 10:25:21
für SGSSAA müssten wirklich alle berechnungen für das bild mehrfach durchgeführt werden, einschließlich vertexshader, trisetup etc.


Soweit ich das weiß, wird bei ATI und bei NV für TSAA/AAA nur in der Pixelpipe geloopt. Alles andere wäre Performanceverschwendung (bzw würde ein riesen Optimierungspotenzial bieten, was jeder Idiot längst ausschöpfen würde).

Coda
2006-11-17, 10:28:38
Soweit ich das weiß, wird bei ATI und bei NV für TSAA/AAA nur in der Pixelpipe geloopt.

Da weißt du ziemlich sicher falsch. Außer sie machen irgendwas mit R2VB - was aber auch nur theoretisch sein kann.

robbitop@work
2006-11-17, 10:29:38
NVIDIA GeForce 8800 GTX & 8800 GTS (http://www.behardware.com/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html) bei Be Hardware

Tomb Raider Legend (http://www.behardware.com/articles/644-15/nvidia-geforce-8800-gtx-8800-gts.html)
Verdammte USA. :biggrin:
Wird auf der 8800GTX in AoE3 der gleiche Modus wie auf der X1x00er Serie benutzt (1010102)?

Hier scheinen sich viele Architurverbesserungen bemerkbar zu machen. Gerade bei HDR+AA+AF+Shading+hohe Auflösungen müssen die "alten" Karten Federn lassen. Und das ist, was die Nextgenspiele nunmal alle mitbringen werden (die dann reiferen G80 Treiber noch nicht mitgezählt). Gerade bei MinFPS Werten, die Spiele unerträglich machen können, sollte sich ein G80 deutlich besser anfühlen als eine alte Karte.

DrumDub
2006-11-17, 11:19:33
schönes beispiel bei dem viele alphatests bei der 8800gtx mit 4xtrssaa fett leistung (63%!) kostet: http://www.behardware.com/articles/644-14/nvidia-geforce-8800-gtx-8800-gts.html

der verlust ist bei der x1950xtx identisch, aber die 8800gtx ist immer noch fast doppelt so schnell...

robbitop@work
2006-11-17, 11:27:43
Ist doch normal, dass (T)SSAA linear an Leistung kostet. Es frisst ja im Gegensatz zur AF nicht nur Füllrate, sondern alles was da ist.

DrumDub
2006-11-17, 11:31:14
Ist doch normal, dass (T)SSAA linear an Leistung kostet. Es frisst ja im Gegensatz zur AF nicht nur Füllrate, sondern alles was da ist. es ging mir lediglich darum zu zeigen, warum tssaa letztlich auch keine lösung (für die zukunft) ist... viele alphatests sind einfach böse. es liegt also in erster linie daran, dass der die spielentwickler alternativen nutzen.

Slipknot79
2006-11-17, 11:31:26
TR Legend Test ist schon beeindruckend, mich juckt es immer mehr in den Fingern ^^

Gast
2006-11-17, 12:11:07
es ging mir lediglich darum zu zeigen, warum tssaa letztlich auch keine lösung (für die zukunft) ist... viele alphatests sind einfach böse. es liegt also in erster linie daran, dass der die spielentwickler alternativen nutzen.Je nachdem, wie G8x denn nun seine 16 SPs pro Cluster verwenden kann, könnten kleinere Poligone aber weit übler sein, da etliche SPs dann leer laufen würden. Da wäre mir Alphatesting mit TSSAA wesentlich lieber, da die SPs da wenigstens was zu tun haben.

robbitop@work
2006-11-17, 12:28:14
es ging mir lediglich darum zu zeigen, warum tssaa letztlich auch keine lösung (für die zukunft) ist... viele alphatests sind einfach böse. es liegt also in erster linie daran, dass der die spielentwickler alternativen nutzen.
Es sollte nie eine Lösung sein, sondern eher ein Premiumfeature.
Was wäre denn günstiger als TSAA mit AT? Stell dir mal vor alles was in der Szene wäre, wäre mit Alphablending oder besser ausmodelliert. Das wäre von der Performance noch schlechter.

Raff
2006-11-17, 14:50:49
Die Geländer (oben) sehen aber nicht so dolle aus.

Ja, aber ihr sollt ja auf die Texturen achten. ;)

MfG,
Raff

Grestorn
2006-11-17, 15:01:28
Ja, aber ihr sollt ja auf die Texturen achten. ;)

MfG,
Raff

Das Geländer ist auch eine Textur. Das ist ja das Problem :)

aths
2006-11-17, 16:11:27
Da weißt du ziemlich sicher falsch. Außer sie machen irgendwas mit R2VB - was aber auch nur theoretisch sein kann.Hä? Wieso Render-to-Vertexbuffer?

Die_Allianz
2006-11-17, 18:43:34
gabs eigentlich schon irgendwo ein foto vom nackten DIE des G80?
nicht dass das irgendeinen informationsgehalt für mich hätte; ich mag nur die fotos:D

The_Invisible
2006-11-17, 18:55:30
Wird auf der 8800GTX in AoE3 der gleiche Modus wie auf der X1x00er Serie benutzt (1010102)?

auf geforce8 wird immer noch mit fp16+ssaa gerendert

mfg

Raff
2006-11-17, 19:14:13
Ich nochmal:



http://img223.imageshack.us/img223/5863/31ez0.th.jpg (http://img223.imageshack.us/my.php?image=31ez0.jpg)

Na? Welche Karte und welche Settings? ;) Die Texturqualität an den Schrägen ist perfekt.

MfG,
Raff

Um das mal aufzuklären (mal sehen, ob es jemand liest): Es sind Lollis Settings, mit einem kleinen Zusatz. 2x2 OGSSAA via DXTweaker. Ergo 32x Fast-wu-AF. ;) Übrigens habe ich damit an der Stelle noch immer 70 Fps.

Fazit: 32x AF braucht das Land. Und da der G80 noch immer kein SSAA bietet ... ;(

MfG,
Raff

Gortha
2006-11-17, 19:18:04
Wenn ich die Leistungsaufnahme dieser Monster sehe, wird mir schlecht. :eek:

http://www.anandtech.com/video/showdoc.aspx?i=2873&p=7

Wenn wenigstens der "Idle-Strom" unter 100 Watt, ach was sage ich, unter 50
fallen würde...

Also ich warte auf die neue Ati, wenn die bei ähnlicher Leistung nen Stück
weniger schluckt, ist das meine Wahl.

MfG

Hvoralek
2006-11-17, 19:50:39
auf geforce8 wird immer noch mit fp16+ssaa gerendertWarum das? Das Ding kann doch auch MSAA auf FP16. Kann es sein, dass die Passage "Even if it is based on FP16 for the GeForce, HDR can be coupled to AntiAliasing" aus früheren Tests übernommen wurde und man vergaß, hinter die Geforce noch eine Sieben zu setzen?

dargo
2006-11-17, 21:57:49
Wenn ich die Leistungsaufnahme dieser Monster sehe, wird mir schlecht. :eek:

http://www.anandtech.com/video/showdoc.aspx?i=2873&p=7

Wenn wenigstens der "Idle-Strom" unter 100 Watt, ach was sage ich, unter 50
fallen würde...

Also ich warte auf die neue Ati, wenn die bei ähnlicher Leistung nen Stück
weniger schluckt, ist das meine Wahl.

MfG
Du weißt aber schon, dass dort der Gesamtverbrauch gemessen wurde oder?

The_Invisible
2006-11-17, 22:36:07
Warum das? Das Ding kann doch auch MSAA auf FP16. Kann es sein, dass die Passage "Even if it is based on FP16 for the GeForce, HDR can be coupled to AntiAliasing" aus früheren Tests übernommen wurde und man vergaß, hinter die Geforce noch eine Sieben zu setzen?

naja, das spiel wirds halt einfach nicht unterstützen schätz ich mal, also müsste entweder ein patch seitens spielehersteller oder nvidia kommen. aber auch so kann die leistung überzeugen, auch wenns nur 1.5x1.5SSAA ist

mfg

Hvoralek
2006-11-17, 23:27:55
naja, das spiel wirds halt einfach nicht unterstützen schätz ich mal, also müsste entweder ein patch seitens spielehersteller oder nvidia kommen. aber auch so kann die leistung überzeugen, auch wenns nur 1.5x1.5SSAA istWas heißt "nur"? 2,25xSS dürfte meist stärker belasten als 4xMS. Letzteres vervierfacht die Anforderungen an die Framebufferbandbreite und die (bei AoE III wohl unwichtige) Pixel- und z- Leistung, das SS hingegen erhöht die Anforderungen an die gesame Bandbreite (Framebuffer und Texturen) sowie die Texel- Pixel- und z- Füllrate und die Fragmentshader auf das 2,25- fache. Bei starker z/St- oder (stark framebufferlastiger) Bandbreitenlimitierung könnte das MS mal mehr kosten, bei AoE III dürfte es aber günstiger sein.

Wenn die Ergebnisse da wirklich mit FP16 + 2,25xSS gegen FX10 + 4xMS sind, kann man den 8800ern bei der Einschätzung der abstrakten Leitsungsfähigkeit gedanklich einen kräftigen Bonus ggü der X1950 verpassen.

Gast
2006-11-17, 23:34:38
Ja, AoE3 eignet sich wirklich nicht zum herstellerübergreifenden Vergleich von aktuellen Grakas. Computerbase zumindest hat es aus ihren Tests rausgenommen, was ich prinzipiell begrüße. Vielleicht haben sie sich die Kritik zu Herzen genommen oder sie sind selbst drauf gekommen, dass man AoE3-Ergebnisse von ATI- und NV-Karten einfach nicht zusammen in ein Balkendiagramm packen kann.

Coda
2006-11-17, 23:35:04
Hä? Wieso Render-to-Vertexbuffer?

Weil man um TSSAA zu machen mit ziemlicher Sicherheit den Framebuffer maskiert und dann das Polygon n-Mal für jedes Sample leicht verschoben durch die ganze Pipeline drückt.

Das heißt normal müsstest du die Vertexshader n-Mal durchlaufen lassen und am Ende ne Addition mit dem Offset anfügen. Oder eben das ganze Gedöns erstmal innen Vertexbuffer rechnen und dann von da an n-Mal das Offset ranhängen.

Kapisch?

(Das ist natürlich eine Theorie, aber eine sehr plausible, weil sie u.A. auch die Fehlerchen in FEAR usw. erklärt)

deekey777
2006-11-17, 23:37:20
auf geforce8 wird immer noch mit fp16+ssaa gerendert

mfg
Aber warum?
Abgesehen davon, dass mit dem CP möglich wäre, 4xMSAA zu erzwingen, wäre mit der 8800 auch die Nutzung des 1010102-Formats möglich.

Coda
2006-11-17, 23:41:36
Die Programmierer haben wahrscheinlich mal wieder "vergessen" die Caps abzufragen und verlassen sich stattdessen auf Device- und Vendor-ID.

Wie ich es hasse. Siehe ungepatchtes Far Cry auf NV40.

Hvoralek
2006-11-17, 23:44:53
Ja, AoE3 eignet sich wirklich nicht zum herstellerübergreifenden Vergleich von aktuellen Grakas. Computerbase zumindest hat es aus ihren Tests rausgenommen, was ich prinzipiell begrüße. Vielleicht haben sie sich die Kritik zu Herzen genommen oder sie sind selbst drauf gekommen, dass man AoE3-Ergebnisse von ATI- und NV-Karten einfach nicht zusammen in ein Balkendiagramm packen kann.Das ist insofern schon zynisch, als die Nvidias da trotz ihrer Nachteile nicht schlecht abschnitten, zumindest im Vergleich zu R520 (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/16/).

CB hat leider später die Testmethoden geändert. Wahrscheinlich sind sie von einer Cutscene auf ein Savegame umgestiegen. Das ist bei GraKa- Benchmarks wenig sinnvoll: Timedemos verfälschen dort die Ergenisse nicht. Vielmehr entlasten sie den Prozessor, sodass Unterschiede zwischen den GraKaen deutlicher hervortreten. Nach dieser Änderung sind die CB- AoE- Benches leider nicht mehr wirklich zu gebrauchen, weil sie zu stark an der CPU- Leistung kleben.

Gortha
2006-11-18, 13:37:43
Du weißt aber schon, dass dort der Gesamtverbrauch gemessen wurde oder?

ohhhohhhhhh, wie peinlich. *wegrenn*

xfire
2006-11-18, 20:39:31
So, mir war gerade mal ein wenig langeilig, deshalb hab ich mal ein bißchen mit Excel rumgespielt:
http://img374.imageshack.us/img374/9135/verbarauchcp3.jpg
http://img374.imageshack.us/img374/7721/wlms1.jpg
Die Verbrauchswerte stammen von www.xBitlabs.com.

Die Angabe Watt/ Spieleleistung wurde mit den Verbrauchswerten von xBitlabs und den
Performanceratings ("1280*1024 4AA/16Af" und "1600*1200 4AA/16Af")
aus dem www.Computerbase.de G80-Artikel errechnet.

BvB123
2006-11-18, 21:17:02
Dabei sind die Werte des G80 nichtmal nachgemesen sondern direkt von nvidia.. aber die GX2 wurde doch mit 110W gemessen?

Gruß

aths
2006-11-19, 06:26:56
Weil man um TSSAA zu machen mit ziemlicher Sicherheit den Framebuffer maskiert und dann das Polygon n-Mal für jedes Sample leicht verschoben durch die ganze Pipeline drückt.

Das heißt normal müsstest du die Vertexshader n-Mal durchlaufen lassen und am Ende ne Addition mit dem Offset anfügen. Oder eben das ganze Gedöns erstmal innen Vertexbuffer rechnen und dann von da an n-Mal das Offset ranhängen.

Kapisch?

(Das ist natürlich eine Theorie, aber eine sehr plausible, weil sie u.A. auch die Fehlerchen in FEAR usw. erklärt)Könntest du an deinem Tonfall arbeiten? Einerseits ist "kapisch" ziemlich harsch, andererseits missfällt mir, dass du erst hochtrabend von Framebuffer-Maskierung sprichst und dann lässig davon, was durch die Pipeline zu drücken – als ob du voll der Pro bist.

Natürlich müssen die Batches mehrfach durchlaufen werden, aber ich sehe nicht wo da der Vertexshader ins Spiel kommen soll. Erst recht nicht, dass in einen Vertexbuffer gerendert werden soll. Er muss doch nur für jedes Subsample einmal die Pipe durchlaufen. Welche Subsamples im Pixel vom Polygon bedeckt sind, wird beim Multisampling eh bestimmt. Karten die Centroid Sampling können, können auch die Textursampling-Position verschieben.

Gast
2006-11-19, 08:43:07
So, mir war gerade mal ein wenig langeilig, deshalb hab ich mal ein bißchen mit Excel rumgespielt:

Die Verbrauchswerte stammen von www.xBitlabs.com.

Die Angabe Watt/ Spieleleistung wurde mit den Verbrauchswerten von xBitlabs und den
Performanceratings ("1280*1024 4AA/16Af" und "1600*1200 4AA/16Af")
aus dem www.Computerbase.de G80-Artikel errechnet.


LoL. Mach doch mal nen Diagramm mit Leistungsaufnahme/Bildqualität. ...Oops, das läßt sich ja gar nicht so leicht nominal skalieren, dumm aber auch.

Gast
2006-11-19, 10:11:59
LoL. Mach doch mal nen Diagramm mit Leistungsaufnahme/Bildqualität. ...Oops, das läßt sich ja gar nicht so leicht nominal skalieren, dumm aber auch.
Weil Bildqualität ja auch eine solch objektive Sache ist.

Gast
2006-11-19, 10:47:38
LoL. Mach doch mal nen Diagramm mit Leistungsaufnahme/Bildqualität. ...Auch da würde der G80 sehr gut da stehen. Bei der 8800GTX gibt es eigentlich kaum Kritikpunkte. Die Karte ist in jeder Hinsicht besser als die Vorgängermodelle, was für eine neue Generation aber auch nicht verwunderlich ist. Einzig und allein die (noch?) nicht verfügbaren SSAA- und Hybridmodi trüben das ansonsten ausgezeichnete Bild für mich ein wenig.

Gast
2006-11-19, 10:53:04
Weil Bildqualität ja auch eine solch objektive Sache ist.

Blitzmerker. Deshalb ist ja auch ein Divident "Spieleleistung" (der sich nur auf Anzahl gerenderter Bilder in einer bestimmten Zeit bei fester Auflösung bezieht) in Relation zu Leistungsaufnahme auch reichlich sinnfrei. Das sollte spätestens seit der Einführung der GF8-Serie durchgedrungen sein.

AnarchX
2006-11-21, 06:53:24
8800GTX@ 939MHz
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f165%2f165280.shtml

Gaestle
2006-11-21, 10:20:10
Blitzmerker. Deshalb ist ja auch ein Divident "Spieleleistung" (der sich nur auf Anzahl gerenderter Bilder in einer bestimmten Zeit bei fester Auflösung bezieht) in Relation zu Leistungsaufnahme auch reichlich sinnfrei. Das sollte spätestens seit der Einführung der GF8-Serie durchgedrungen sein.

Gut gebrüllt, Löwe.
Dieses Problem ist aber häufig Gegenstand von Diskussionen. Und da nunmal die halbe Grafikkarten-Welt für alle nicht-Developer und nicht-Programmierer aus Balkenlängen besteht (egal ob ich oder Du das gut finden), passt das von xfire gezeigte Diagramm hervorragend und kann sicher einiges zur Debatte beitragen.
So what?

PS: Dass Balkenlänge nicht alles ist, wußte man schon Jahre (oder gar Jahrzenhte?) vor dem G80 Aber es ist EINES (von mehreren) Merkmalen, welche die Grafikleistung beschreiben. Zufrieden?

The_Invisible
2006-11-21, 19:15:27
8800GTX@ 939MHz
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f165%2f165280.shtml

einfach nur krank, wie kann man so ein transistoren monster nur so hoch prügeln und dann jemals wieder normal schlafen?

mfg

Hvoralek
2006-11-21, 20:48:04
einfach nur krank, wie kann man so ein transistoren monster nur so hoch prügeln und dann jemals wieder normal schlafen?

mfgUnd ich dachte schon, ich wäre der einzige, der bei so etwas immer Mitleid mit den armen, geschundenen Chips empfindet :wink:

dargo
2006-11-21, 22:42:12
Und ich dachte schon, ich wäre der einzige, der bei so etwas immer Mitleid mit den armen, geschundenen Chips empfindet :wink:
Ich finde diese extreme Übertakterei völlig sinnlos. Mit Alltagtauglichkeit hat das rein gar nichts zu tun. Ist aber bei CPUs genau das selbe.

AnarchX
2006-11-22, 13:07:22
Ich finde diese extreme Übertakterei völlig sinnlos. Mit Alltagtauglichkeit hat das rein gar nichts zu tun. Ist aber bei CPUs genau das selbe.
Natürlich hat es keine wirkliche Alltagstauglichkeit, aber hier gelangt man schon einen kleinen Blick in die Zukunft, was die kritschen Pfade unter guten Umständen jetzt schon erreichen können und was uns dann bei einem Refresh erwarten könnte.;)
Ich finde 939MHz(Shaderclock ~2.2GHz) für fast 700Mio Transistoren in 90nm doch schon ein sehr stolzes Ergebnis.

:edit:
Mittlerweile hat er schon die 1GHz-Marke durchbrochen...:O
http://www.xtremesystems.org/forums/showpost.php?p=1852200&postcount=35

Hvoralek
2006-11-22, 13:12:52
Ich finde 939MHz(Shaderclock ~2.2GHz) für fast 700Mio Transistoren in 90nm doch schon ein sehr stolzes Ergebnis.Für 700 Mio zum größten Teil Logiktransistoren :wink:

Gast
2006-11-22, 13:14:19
Für 700 Mio zum größten Teil Logiktransistoren :wink:

Toll 3dmark 03?01?Der sollte lieber 3dmark 05 oder 6 testen.

Hvoralek
2006-11-22, 13:16:34
Toll 3dmark 03?01?Der sollte lieber 3dmark 05 oder 6 testen.Was hat das mit meinem letzten Beitrag zu tun? :confused:

Gast
2006-11-22, 13:17:41
Für 700 Mio zum größten Teil Logiktransistoren :wink:

Für nicht-Logik Transistoren (z.B. im RAM) wäre es noch wesentlich beachtlicher, denn solche Frequenzen sind da nicht zu erreichen.

deekey777
2006-11-22, 13:33:44
Für 700 Mio zum größten Teil Logiktransistoren :wink:
Leider nicht, so groß sollen die Caches nicht sein. ;(
http://www.beyond3d.com/reviews/nvidia/g80-arch/index.php?p=05

Hvoralek
2006-11-22, 13:44:06
Für nicht-Logik Transistoren (z.B. im RAM) wäre es noch wesentlich beachtlicher, denn solche Frequenzen sind da nicht zu erreichen.Was ist mit Montecito? 1,7 Mrd. Transistoren (fast komplett Cache) in 90nm. Die Dinger takten iirc mit etwa 1,5-1,6 GHz in Serie.

Leider nicht, so groß sollen die Caches nicht sein. ;(
http://www.beyond3d.com/reviews/nvid...index.php?p=05"Nicht so große Caches" und "zum größten Teil Logiktranistoren" deckt sich doch. Oder meintest Du, "zum allergrößten Teil" wäre besser ausgedrückt?

Andreas12
2006-11-22, 16:18:19
hier sieht man nochmal schön die CPU Limitierung
der 8800er

http://www.theinquirer.net/default.aspx?article=35618

Gast
2006-11-22, 16:47:35
Was ist mit Montecito? 1,7 Mrd. Transistoren (fast komplett Cache) in 90nm. Die Dinger takten iirc mit etwa 1,5-1,6 GHz in Serie.


Der Cache selbst taktet höchstens mit 200-300MHz, den Rest machen die Logik-Transistoren (Multiplexer etc.).

AnarchX
2006-11-22, 16:53:09
Der Cache selbst taktet höchstens mit 200-300MHz, den Rest machen die Logik-Transistoren (Multiplexer etc.).
Nein, der sollte auch mit dem Prozessortakt laufen, wie bisher bei allen Itaniums.
Ist aber hier OT.:wink:

Der Pole
2006-11-22, 16:57:09
http://www.xtremesystems.org/forums/showthread.php?t=123836

1Ghz 8800GTX :)

MFG Der Pole

Nightspider
2006-11-22, 18:34:16
Langsam mach ich mir bei meinem Dualcore Opteron165 @ 2.6 Ghz wirklich sorgen, ob er für eine 8800 GTX reichen wird.

Ich zocke zwar auf 1600*1200 und 2048*1600 aber selbst da soll ja die CPU limitieren ???? :confused: :confused: :confused:

Gast
2006-11-22, 18:48:14
Langsam mach ich mir bei meinem Dualcore Opteron165 @ 2.6 Ghz wirklich sorgen, ob er für eine 8800 GTX reichen wird.

Ich zocke zwar auf 1600*1200 und 2048*1600 aber selbst da soll ja die CPU limitieren ???? :confused: :confused: :confused:

Denke nicht, wenn die GF8800 bei 16xAA um bis zu 80% einbricht brauchst du dir keine Sorgen machen dass dein Prozesor nicht reicht.

Diese "was ist wenn meine CPU limitiert -Geschichte" ist eh Käse, irgendwas läuft immer am Anschlag, nur dass das auch bei einem normalen Game ständig wechselt.

Ailuros
2006-11-22, 18:49:38
Langsam mach ich mir bei meinem Dualcore Opteron165 @ 2.6 Ghz wirklich sorgen, ob er für eine 8800 GTX reichen wird.

Ich zocke zwar auf 1600*1200 und 2048*1600 aber selbst da soll ja die CPU limitieren ???? :confused: :confused: :confused:

Sogar mit 4xAA verliert mein FX-53@2.6GHz gegen einen Core 2 Duo in 1600 an die 30% und in 2048*1536 an die 25%.

Gast
2006-11-22, 18:55:06
Sogar mit 4xAA verliert mein FX-53@2.6GHz gegen einen Core 2 Duo in 1600 an die 30% und in 2048*1536 an die 25%.

Gegen einen Core 2 Duo (in Releation) verliert man gar nichts.

Gast
2006-11-22, 18:58:40
Ich zocke zwar auf 1600*1200 und 2048*1600 aber selbst da soll ja die CPU limitieren ???? :confused: :confused: :confused:

spätestens bei oblivion mit 8xTSSAA limitiert garantiert keine cpu mehr ;)

Nightspider
2006-11-22, 19:08:44
Gibt es komplette G80 Benchmarcks, die sich nur auf die CPU Limitierung konzentrieren, wo die CPUs mit unterschiedlichem Takt gegenübergestellt werden ?

Swp2000
2006-11-22, 19:12:45
hier sieht man nochmal schön die CPU Limitierung
der 8800er

http://www.theinquirer.net/default.aspx?article=35618Dachte immer bevor die 8800GTX kam das die vorhergehenden Karte kein HDR konnten, das stimmt dann wohl nicht!?

AnarchX
2006-11-22, 19:38:27
Dachte immer bevor die 8800GTX kam das die vorhergehenden Karte kein HDR konnten, das stimmt dann wohl nicht!?
Nein, FP16-HDR gibt es bei nV ab GeForce 6600 und bei ATi ab Radeon X1... .
Nur FP16-HDR+MSAA konnte bisher nur Radeon X1... .
G80 kann nun sogar FP32-HDR und dazu auch noch MSAA.

Ailuros
2006-11-22, 19:41:30
Gegen einen Core 2 Duo (in Releation) verliert man gar nichts.

Ich bin jetzt nicht so bloed und veroeffentliche meine Resultate bevor mein Artikel an die Luft geht, aber ich nehm Dir den Hut ab wenn Du es schaffst auf einem FX-53@2.6GHz 80-84fps in Fear in 1600 mit 4xAA zu erreichen.

Das "gar nichts" basiert bei Dir auf welchen Resultaten genau?

Ailuros
2006-11-22, 19:47:03
spätestens bei oblivion mit 8xTSSAA limitiert garantiert keine cpu mehr ;)

8xQ +TSAA in 1600? In optimalen Faellen liegt man gerade noch um die 30fps Durchschnitt, wobei in extremen Stellen die Leistung ziemlich stark reinhaut und das alles sogar nicht mit den hoechsten Einstellungen. Stichwort: Spielbarkeit.

***edit: http://users.otenet.gr/~ailuros/Oblivion8xQ.jpg

Steve1
2006-11-22, 20:37:22
Hier findet man einen Test zu einer ersten Serienkarte. Karte ist eine Geforce 8800 GTS von XFX.

http://hardware.thgweb.de/2006/11/22/xfx-nvidia-geforce-8800gts-grafikkarte-vergleichstest/

Raff
2006-11-25, 16:51:44
Gibt's mittlerweile was Neues zum SSAA? Bei mir juckt's (temporärer Geldüberschuss), aber ohne bekommt Nvidia meine Kohlen so schnell sicher nicht. ;)

MfG,
Raff

MechWOLLIer
2006-11-25, 17:10:35
Dann wirst du wohl ewig warten müssen

Raff
2006-11-25, 17:16:14
Mehr Infos bitte. ;)

MfG,
Raff

deekey777
2006-11-25, 21:55:13
GeForce 8800 GTX/8800 GTS Performance with Athlon 64 (http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/default.asp) bei Firing Squad

System Setup

AMD Athlon 64 FX-62
AMD Athlon 64 X2 5000+
AMD Athlon 64 X2 4600+
AMD Athlon 64 X2 3800+

Ein sehr aufschlussreicher Test.:smile:

Gast
2006-11-25, 22:41:46
Ein sehr aufschlussreicher Test.:smile:

Auch in bezug auf X1950 XTX vS. 8800 GTS :D

Hvoralek
2006-11-25, 23:23:32
Erstaunlich, wie stark bei den 3DMark- SM2/3- Ergebnisse der Einfluss der CPU doch sein kann bei entsprechenden GraKaen.

Aber warum ist die GTX bei Q4 in 1920x1200 mehr als 80% schneller als die GTS? :|

dargo
2006-11-25, 23:27:05
Aber warum ist die GTX bei Q4 in 1920x1200 mehr als 80% schneller als die GTS? :|
Vielleicht geht ihr bei diesen Settings der Vram aus. Immerhin wurde in UQ getestet.

Hvoralek
2006-11-25, 23:28:32
Vielleicht geht ihr bei diesen Settings der Vram aus. Immerhin wurde in UQ getestet.So ein Abstand bei diesem relativ geringen Weniger an RAM wäre schon krass.

Gast
2006-11-25, 23:29:13
Aber warum ist die GTX bei Q4 in 1920x1200 mehr als 80% schneller als die GTS? :|

ich tippe mal dass der GTS der speicher ausgeht.

dargo
2006-11-25, 23:32:51
So ein Abstand bei diesem relativ geringen Weniger an RAM wäre schon krass.
Wieso? Wenn der Vram ausgeht muss ausgelagert werden. Dementsprechend ist der Einbruch hoch. Anscheinend hat man das Setting gefunden wo um die 700-750MB Vram nötig sind.

The_Invisible
2006-11-26, 00:23:53
Auch in bezug auf X1950 XTX vS. 8800 GTS :D

ja, bin neugierig was sich die "die xtx ist schneller als gts" leute (siehe entsprechenden thread) jetzt für ne ausrede einfallen lassen.

man sieht aber auch sehr schön das selbst bei 1600x1200/aa/af bei der gtx noch die cpu limitiert. so stehen die schwächeren grafikkarten nämlich besser da als sie eigentlich sind wenn nicht ne entsprechende cpu fürn test genommen wird.

mfg

Slipknot79
2006-11-26, 03:24:53
GeForce 8800 GTX/8800 GTS Performance with Athlon 64 (http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/default.asp) bei Firing Squad

System Setup

AMD Athlon 64 FX-62
AMD Athlon 64 X2 5000+
AMD Athlon 64 X2 4600+
AMD Athlon 64 X2 3800+

Ein sehr aufschlussreicher Test.:smile:

Super Test, wäre aber noch besser wenn der C2D mitgetest worden wäre oO

Gast
2006-11-26, 09:26:12
Gibt's mittlerweile was Neues zum SSAA?Ja, ich finde es auch sehr bedauerlich, dass man mit G80 kein SSAA nutzen kann. Es würde mir ja reichen, wenn man die alten Hybridmodi einfach inoffiziell anbieten würde, sodass man sie mit dem Nhancer o.ä. aktivieren könnte. Das sollte kein großer Aufwand für NV sein, für inoffizielle Modi müssen sie ja keinen Support geben.

Sehr schade. Die stärksten Grafikkarten am Markt können nichtmal OGSSAA. Dass ATI uns beim R600 mit SSAA beglückt, halte ich auch für höchst unwahrscheinlich.

Die 8800GTX ist eigentlich die perfekte Karte. Sie vereint sämtliche Vorteile der Vorgängergenerationen in einer Karte, bietet SM4 und ist dabei auch noch verdammt schnell. Das einzige, was mein Bild trübt, ist das fehlende SSAA.

HolyMoses
2006-11-26, 09:35:57
würde mein x2 @ 3ghz mit einer gtx limitieren?

Gast
2006-11-26, 09:49:03
würde mein x2 @ 3ghz mit einer gtx limitieren?Warum liest du nicht einfach den Thread oder benutzt die Suchfunktion? Diese Frage wird hier im Forum alle 2 Stunden gestellt.

Außerdem kann man sie auch nicht so generell beantworten. Ein X2 mit 3 GHz ist eigentlich eine verdammt schnelle CPU. Ich sehe da kein Problem ihn mit einer GTX zu kombinieren. Wenn dir die CPU jetzt ausreicht, wird sie es auch mit einer GTX tun. Die CPU wird ja nicht langsamer, nur weil du eine G80-Karte einbaust. Die 8800GTX wirst du meist ohne Probleme auslasten können, wenn du nicht in 800x600 in low details und ohne AA/AF spielst.

HolyMoses
2006-11-26, 10:07:47
Warum liest du nicht einfach den Thread oder benutzt die

weil ich keine lust habe knapp 60 seiten zu lesen?

Gast
2006-11-26, 10:09:53
weil ich keine lust habe knapp 60 seiten zu lesen?Suchfunktion -> Treffer als Beiträge anzeigen.

Superheld
2006-11-26, 10:13:00
Super Test, wäre aber noch besser wenn der C2D mitgetest worden wäre oO

der liegt sowieso vorn

Armaq
2006-11-26, 10:23:24
würde mein x2 @ 3ghz mit einer gtx limitieren?
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/default.asp

Nicht wirklich. :)

Gast
2006-11-26, 12:16:11
würde mein x2 @ 3ghz mit einer gtx limitieren?

blöde frage, kommt natürlich auf die einstellungen an, sowie auf die verwendete software.

in 1024x768 ohne FSAA/AF wird die cpu in den meisten fällen limitieren, in 2048x1536@16xQAA+16xHQ-AF wohl in dem meisten fällen die grafikkarte.

WEGA
2006-11-26, 13:51:10
blöde frage, kommt natürlich auf die einstellungen an, sowie auf die verwendete software.

in 1024x768 ohne FSAA/AF wird die cpu in den meisten fällen limitieren, in 2048x1536@16xQAA+16xHQ-AF wohl in dem meisten fällen die grafikkarte.
solche fragen sieht man tag täglich :(

Slipknot79
2006-11-26, 15:59:10
der liegt sowieso vorn

Daran hab ich keinen Zweifel, ging nur um die Frage, wieviel vorn.

Hvoralek
2006-11-26, 16:12:51
Daran hab ich keinen Zweifel, ging nur um die Frage, wieviel vorn.Warum möchtest Du das in einem GraKa- Artikel untersucht haben? Zum Thema Conroe vs Toledo gab es im Juni wirklich genug Material.

Ph0b0ss
2006-11-26, 16:42:36
Warum möchtest Du das in einem GraKa- Artikel untersucht haben? Zum Thema Conroe vs Toledo gab es im Juni wirklich genug Material.

Einen Conroe mitzutesten wär gerade interessant, weil die 8800GTX mit den schnellsten A64 bei vielen Spielen selbst in hohen Auflösungen mit AA/AF noch nicht limitiert.

Interessant wäre nun, ob es die schnellsten A64 in diesen Spielen nun gerade so nicht schaffen die 8800GTX auszulasten, also z.B. die Karte zu 90% auslasten oder z.B. nur zu 60-70%. Hier kommt dann der Conroe ins Spiel.

Schön wäre, wenn dann noch ein Conroe@3600Mhz mit in den Test einbezogen würde.:tongue:

Slipknot79
2006-11-26, 16:43:52
Warum möchtest Du das in einem GraKa- Artikel untersucht haben? Zum Thema Conroe vs Toledo gab es im Juni wirklich genug Material.


Wieso Graka-Artikel? Hier werden offensichtlich verschiedene CPUs getestet mit der selben Graka. Obs eni Grakaartikel ist oder nicht, spielt auch keine Rolle. Mich interessiert es wie die GTX auf nem C2D zieht im Vgl zum nem flotten X2 oder FX. Im Juni kann es solche Artikel nicht gegeben haben, da es keine GTX gab.

deekey777
2006-11-26, 16:49:42
Super Test, wäre aber noch besser wenn der C2D mitgetest worden wäre oO
Darum heißt der Test auch Performance with Athlon 64.
Mich würde es nicht wundern, wenn in Kürze entsprechender Artikel mit verschiedenen C2D kommt.

Slipknot79
2006-11-26, 16:51:12
Darum heißt der Test auch Performance with Athlon 64.
Mich würde es nicht wundern, wenn in Kürze entsprechender Artikel mit verschiedenen C2D kommt.


Ein C2D Test würde meine Frage auch nicht wirklich klären, da ich nicht weiß ob ein C2D Test die gleichen Timedemos verwendet wie sie beim A64 Test verwendet worden sind. Vermutlich wird man auch andere RAM Module verwenden. Bei FEAR und Lost Coast wurden vllt die internen Benchmarks verwendet, aber sonst? kA...

deekey777
2006-11-26, 16:52:30
Ein C2D Test würde meine Frage auch nicht wirklich klären, da ich nicht weiß ob ein C2D Test die gleichen Timedemos verwendet wie sie beim A64 Test verwendet worden sind. Bei FEAR und Lost Coast wurden vllt die internen Benchmarks verwendet, aber sonst? kA...
Aus welchem Grund sollen FS-Tester verschiedene Timedemos verwenden?

Slipknot79
2006-11-26, 16:57:56
Aus welchem Grund sollen FS-Tester verschiedene Timedemos verwenden?

kA ob ich mich darauf verlassen kann.

Hvoralek
2006-11-26, 17:03:38
Wieso Graka-Artikel? Hier werden offensichtlich verschiedene CPUs getestet mit der selben Graka. Obs eni Grakaartikel ist oder nicht, spielt auch keine Rolle. Mich interessiert es wie die GTX auf nem C2D zieht im Vgl zum nem flotten X2 oder FX. Im Juni kann es solche Artikel nicht gegeben haben, da es keine GTX gab.An der Relation X2 - Conroe hat sich seit Juni nichts geändert. Die tritt mit einem G80 auch in höheren Einstellungen zu Tage, klar, aber das ist auch alles.

Inwieweit in einzelnen Einstellungen und Konfigurationen der Prozessor einen Einfluss hat, kann man grob abschätzen, wenn man zwei "benachbarte" Konfigurationen vergleicht. ZB bei DoMM (http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/page6.asp) ist in der höchsten Auflösung bei der GTS der Prozessor nie ein nennenswertes Problem. Bei der GTX gibt es ab dem 4600+ nur noch geringe Zuwächse, anscheinend genügt in dem Fall der, um die GraKa so ziemlich auszulasten.

Anhand dessen kannst Du die Conroes bis zum 6400 ganz gut einschätzen, darüber wird es ungenau.

Bei solchen Artikeln geht es aber nicht darum, was spielbar ist und was nicht. Dazu müsste man sich natürlich ausführlicher mit einem einzelnen Spiel beschäftigen.

Ailuros
2006-11-27, 21:11:03
Da ich zu faul bin meine eigenen Posts zu finden und mehrere edits vorzunehmen, eine oeffentliche Entschuldigung was meine bisherigen Resultate von der 8800GTX betrifft.

So dumm hab ich mich noch nie gefuehlt, denn es haette mir klar sein sollen dass im zweiten PCIe slot die GPU nur in PCIe x1 und nicht x16 laeuft (haette ich Depp nur das mobo Handbuch frueher zur Hand genommen).

Cliff notes: ich unterliege selbst einem Core 2 Duo@2.9GHz mit dem FX-53 um nur 5% in Fear 1600/4xAA und nicht die bisher angegebenen 30%. Ich koennte an meiner Dummheit manchmal verzweifeln... :frown:

----------------------------------------------------------------------------
Hier geht's weiter.