PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 8800 GTX und GTS-Version Review-Thread (Links im #1)


Seiten : 1 [2] 3 4 5

Gaestle
2006-11-08, 15:40:00
Die Benchmarks sind ja derbe! Das erinnert an die NV-Dominanz beim NV40 Release gegenüber dem R3x0 oder an die ATI Dominanz vom R3x0 zum NV25

Ich finde das jetzt nicht soooo ungewöhnlich (lasse mich aber gerne korrigieren). Es ist ja KEIN Refresh, sondern eine neue Generation.

ShadowXX
2006-11-08, 15:43:34
Ist das der Grund für den Performanceunterschied?

Was sagen unsere Profis?

Link (http://www.xtremesystems.org/forums/showpost.php?p=1822814&postcount=12)

Ich bin zwar kein Profi, aber das ist BS.....

Banshee18
2006-11-08, 15:53:59
Das Problem bei den ganzen Artikeln sind die Timedemos. Da lobe ich mir die Vorgehensweise vom 3DC. Nur schade, dass die wahrscheinlich wieder keine Karte bekommen haben.:(
Nehmen wir als Beispiel Fear: Ich habe da in 1280x960 mit 4xAA und 16xAF im eingebauten Benchmark auch ca. 70 fps. Man könnte meinen, das ist perfekt spielbar, ist es aber nicht, ich habe sehr oft starke Einbrüche. Noch weitaus schlimmer ist es bei Extraction Point.
Oder Quake 4: Timedemo-Wert von weit über 100 fps, aber dennoch ab und zu starke Einbrüche.

Deshalb zeigen die ganzen Tests nur die halbe Wahrheit. Es gibt einige Spiele, wo auch in diesen relativ niedrigen Einstellungen eine 8800GTX Pflicht (z.B. Fear Extraction Point) oder ein "sehr schöner Luxus" (z.B. Titan Quest, Quake 4) ist.

Doomi
2006-11-08, 16:00:04
Das Problem bei den ganzen Artikeln sind die Timedemos. Da lobe ich mir die Vorgehensweise vom 3DC. Nur schade, dass die wahrscheinlich wieder keine Karte bekommen haben.:(
Nehmen wir als Beispiel Fear: Ich habe da in 1280x960 mit 4xAA und 16xAF im eingebauten Benchmark auch ca. 70 fps. Man könnte meinen, das ist perfekt spielbar, ist es aber nicht, ich habe sehr oft starke Einbrüche. Noch weitaus schlimmer ist es bei Extraction Point.
Oder Quake 4: Timedemo-Wert von weit über 100 fps, aber dennoch ab und zu starke Einbrüche.

Deshalb zeigen die ganzen Tests nur die halbe Wahrheit. Es gibt einige Spiele, wo auch in diesen relativ niedrigen Einstellungen eine 8800GTX Pflicht (z.B. Fear Extraction Point) oder ein "sehr schöner Luxus" (z.B. Titan Quest, Quake 4) ist.


genau da gebe ich dir Recht. Ich hab eine 7800 GTX mit 2 GB Ram und einen imaginären A 64 3900+ ... Fear fängt manchmal derbe an einzubrechen schon bei 1280 x 960 mit 2x AA und 4 x AF .. dann wiederum läuft das Spiel woanders wieder schön flüssig. Ich denk auch mal das man um konstant flüssige FPS Raten zu haben man schon mind. eine 7950 GX2 oder 8800 GTS für dieses Spiel benötigt.. 8800 GTX ist dann noch besser :)

Gaestle
2006-11-08, 16:02:09
Das Problem bei den ganzen Artikeln sind die Timedemos. Da lobe ich mir die Vorgehensweise vom 3DC. Nur schade, dass die wahrscheinlich wieder keine Karte bekommen haben.:(


Bei 'nem NV-Launch scheinen die Chancen für's 3DC besser zu stehen, als bei ATi (gab ja mal 'n Thread dazu, außerdem wird es aber ganz sicher auch auf die allgemeine Anzahl von Testmustern ankommen, und hier soll NV ja reichlich G80 ausgeteilt haben).
Außerdem glaube ich im Speku-Thread zum G80 Andeutungen gefunden zu haben (die Klage von aths über das Brechen des NDAs), die (zumindest mich) auf einen G80 - Artikel zeitnah zu Launch hoffen lassen.

The_Invisible
2006-11-08, 16:04:52
Sieht so ein Hardlaunch aus?

ähm, das nda ist noch immer nicht abgelaufen, normalerweise wüssten wir jetzt noch garnix von der karte

mfg

Banshee18
2006-11-08, 16:07:40
Außerdem glaube ich im Speku-Thread zum G80 Andeutungen gefunden zu haben (die Klage von aths über das Brechen des NDAs), die (zumindest mich) auf einen G80 - Artikel zeitnah zu Launch hoffen lassen.
aths hat aber auch gesagt, er habe keinen G80.
genau da gebe ich dir Recht. Ich hab eine 7800 GTX mit 2 GB Ram und einen imaginären A 64 3900+ ... Fear fängt manchmal derbe an einzubrechen schon bei 1280 x 960 mit 2x AA und 4 x AF .. dann wiederum läuft das Spiel woanders wieder schön flüssig. Ich denk auch mal das man um konstant flüssige FPS Raten zu haben man schon mind. eine 7950 GX2 oder 8800 GTS für dieses Spiel benötigt.. 8800 GTX ist dann noch besser :)
Bei Fear oder Quake 4 würde auch eine GX2 reichen, aber dann gibt es wieder so Ausreiser, wie z.B. Oblivion oder Call of Juarez, wo auch die total abkackt. Mit dem G80 hat man ein rundum Sorglospaket.

Gast
2006-11-08, 16:07:42
Warum bekommen wir die Tests erst um 20.00Uhr zu sehen ?

dargo
2006-11-08, 16:13:55
Warum bekommen wir die Tests erst um 20.00Uhr zu sehen ?
Weil erst dann das NDA abläuft.

AnarchX
2006-11-08, 16:14:42
MSI GeForce 8800GTS is here - Hello DX10
http://www.tweaktown.com/articles/977/1/page_1_introduction/index.html

Gaestle
2006-11-08, 16:18:49
aths hat aber auch gesagt, er habe keinen G80.

Oh, hab'sch überlesen. Dann sieht's natürlich eher ungünstig aus... *schnüff* :(

Mr.Soapdown
2006-11-08, 16:21:22
genau da gebe ich dir Recht. Ich hab eine 7800 GTX mit 2 GB Ram und einen imaginären A 64 3900+ ... Fear fängt manchmal derbe an einzubrechen schon bei 1280 x 960 mit 2x AA und 4 x AF .. dann wiederum läuft das Spiel woanders wieder schön flüssig. Ich denk auch mal das man um konstant flüssige FPS Raten zu haben man schon mind. eine 7950 GX2 oder 8800 GTS für dieses Spiel benötigt.. 8800 GTX ist dann noch besser :)

Wobei das Einbrechen der FPS nicht unbedingt an der Karte liegt. Solche Einbrüche schreibe ich eher dem nicht optimiertem Game zu. Diese Ungereimtheiten bügle ich dann wieder mit einer fetten HW aus, naja, so wirklich toll ist das auch wieder nicht. Läuft dann zwar gut, kostet aber ne Menge Geld.

dargo
2006-11-08, 16:25:50
MSI GeForce 8800GTS is here - Hello DX10
http://www.tweaktown.com/articles/977/1/page_1_introduction/index.html

http://images.tweaktown.com/imagebank/msi8800gts_g_07.gif

Das gefällt mir schon viel besser. :up:

Gast
2006-11-08, 16:27:47
Also ne 8800er mit 1280er auflösung fahrn ist vollends daneben - da muss scho 1600er+ her ...

Deswegen spare ich auch auf einen 24" und eine 8800er :eek:

Ob ich nun in alten Games 200 oder 400 fps habe ist mir recht egal.
Auch AA+AF und hohe auflösungen sind egal, zwar nett aber egal.

Aber in einem halben Jahr, da wollen sich die meisten sicher nicht schon wieder neue hardware kaufen und wollen dennoch QW, UT07 und Crysis zocken.
Da muss es dann für flüssige 1024* ohne aa/af bei höchsten ingame einstellungen reichen.

BvB123
2006-11-08, 16:30:31
MSI GeForce 8800GTS is here - Hello DX10
http://www.tweaktown.com/articles/977/1/page_1_introduction/index.html

Da tritt die GTS der X1950XTX aber schön in den Arsch :)

Gruß

gguru
2006-11-08, 16:31:03
Aber in einem halben Jahr, da wollen sich die meisten sicher nicht schon wieder neue hardware kaufen und wollen dennoch QW, UT07 und Crysis zocken.
Da muss es dann für flüssige 1024* ohne aa/af bei höchsten ingame einstellungen reichen.

So soll es sein! :up:

Doomi
2006-11-08, 16:31:05
Wobei das Einbrechen der FPS nicht unbedingt an der Karte liegt. Solche Einbrüche schreibe ich eher dem nicht optimiertem Game zu. Diese Ungereimtheiten bügle ich dann wieder mit einer fetten HW aus, naja, so wirklich toll ist das auch wieder nicht. Läuft dann zwar gut, kostet aber ne Menge Geld.

jaja so hab ich das bisher auch immer gemacht.. wollte aber nach der teuren GTX nicht wieder ne neue Karte kaufen.. jetzt steh ich allerdings wieder vor der Entscheidung.. naja ich warte noch bis die GTX leicht unter 430 € geht.. soviel hab ich für meine 7800 GTX damals vor einem Jahr auch gezahlt .. auch wenn das dauern kann.. :(

Ronny145
2006-11-08, 16:31:58
MSI GeForce 8800GTS is here - Hello DX10
http://www.tweaktown.com/articles/977/1/page_1_introduction/index.html



Die GTS sieht dort recht gut aus, es scheinen auch verschiedene Treiberversionen im Umlauf zu sein. Dort wurde mit dem 96.97 getestet, von einem 96.89 und 96.94 mit G80 Unterstützung war schon zu lesen.

Banshee18
2006-11-08, 16:34:51
Wobei das Einbrechen der FPS nicht unbedingt an der Karte liegt. Solche Einbrüche schreibe ich eher dem nicht optimiertem Game zu. Diese Ungereimtheiten bügle ich dann wieder mit einer fetten HW aus, naja, so wirklich toll ist das auch wieder nicht. Läuft dann zwar gut, kostet aber ne Menge Geld.
Selbst wenn das so ist: Man hat halt keine andere Wahl.
Das Problem bei den ganzen Artikeln sind die Timedemos. Da lobe ich mir die Vorgehensweise vom 3DC. Nur schade, dass die wahrscheinlich wieder keine Karte bekommen haben.:(
Nehmen wir als Beispiel Fear: Ich habe da in 1280x960 mit 4xAA und 16xAF im eingebauten Benchmark auch ca. 70 fps. Man könnte meinen, das ist perfekt spielbar, ist es aber nicht, ich habe sehr oft starke Einbrüche. Noch weitaus schlimmer ist es bei Extraction Point.
Oder Quake 4: Timedemo-Wert von weit über 100 fps, aber dennoch ab und zu starke Einbrüche.

Deshalb zeigen die ganzen Tests nur die halbe Wahrheit. Es gibt einige Spiele, wo auch in diesen relativ niedrigen Einstellungen eine 8800GTX Pflicht (z.B. Fear Extraction Point) oder ein "sehr schöner Luxus" (z.B. Titan Quest, Quake 4) ist.
Nochwas: Damit widerspreche ich den Leuten, die meinen, man brauche unbedingt einen 3-3,5 Ghz Conroe.:tongue:

dargo
2006-11-08, 16:35:02
Da tritt die GTS der X1950XTX aber schön in den Arsch :)

Nicht nur der X1950XTX. ;)

Gast
2006-11-08, 16:35:44
http://images.tweaktown.com/imagebank/msi8800gts_g_07.gif

Das gefällt mir schon viel besser. :up:

die werte können aber nich stimmen....jedenfals nich die von der gx2 da fear ja eigentlich extrem von 2 gpus profitiert!

Coda
2006-11-08, 16:35:46
http://images.tweaktown.com/imagebank/msi8800gts_g_07.gif

Das gefällt mir schon viel besser. :up:

Das war abzusehen. Bei den Min-FPS ist die Lastverteilung einer U.S.A. natürlich sehr vorteilhaft (der Bottleneck ist immer die ganze Karte und nicht ein Teil der Pipeline).

Gast
2006-11-08, 16:37:23
die werte können aber nich stimmen....jedenfals nich die von der gx2 da fear ja eigentlich extrem von 2 gpus profitiert!

wie auch hier zb zu sehen

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/13/#abschnitt_fear

Mr.Soapdown
2006-11-08, 16:38:31
Ob ich nun in alten Games 200 oder 400 fps habe ist mir recht egal.
Auch AA+AF und hohe auflösungen sind egal, zwar nett aber egal.

Aber in einem halben Jahr, da wollen sich die meisten sicher nicht schon wieder neue hardware kaufen und wollen dennoch QW, UT07 und Crysis zocken.
Da muss es dann für flüssige 1024* ohne aa/af bei höchsten ingame einstellungen reichen.

Das sehe ich anders. Die meisten die sich diese HW kaufen werden die ersten sein, die sich den ReFresh in die Kiste bauen und die "Alte" auf dem MArktplatz anbieten. Wir sprechen hier über Freaks.

dargo
2006-11-08, 16:39:05
Das war abzusehen. Bei den Min-FPS ist die Lastverteilung einer U.S.A. natürlich sehr vorteilhaft (der Bottleneck ist immer die ganze Karte und nicht ein Teil der Pipeline).
Nanu, dann würde ich in Zukunft eher auf die min. fps achten.
Wobei die wieder kaum jemand messen wird. :cool:

Anarchy-HWLUXX
2006-11-08, 16:41:28
Ob ich nun in alten Games 200 oder 400 fps habe ist mir recht egal.
Auch AA+AF und hohe auflösungen sind egal, zwar nett aber egal.

Aber in einem halben Jahr, da wollen sich die meisten sicher nicht schon wieder neue hardware kaufen und wollen dennoch QW, UT07 und Crysis zocken.
Da muss es dann für flüssige 1024* ohne aa/af bei höchsten ingame einstellungen reichen.

Mir würde im Traum nicht einfallen ein Game ohne AA und AF zu zocken !

Und der 24er macht auf jeden fall sinn, da kann man ne kleinere Auflösung interpolieren lassen oder eben mit schwarzem Rahmen spielen - bei nem Moni mit 1280er Auflösung geht einfach nicht mehr.

Für mein jetzigen 18" TFT seh ich einfach kein sinn JETZT eine 8800 zu kaufen wo ne 7900GTO nur die Hälfte kostet und genug power hat für die kleine auflösung - nur um die Quali Regler ans Limit zu drehen zahl ich net das Doppelte ...


Nanu, dann würde ich in Zukunft eher auf die min. fps achten.
Wobei die wieder kaum jemand messen wird. :cool:

Die tests wo nur die Avg. FPS zahl gezeigt wird sollte man wirklich schnellstmöglich abschiessen ... HardOCP liefert schon seit langem ein Diagramm zu den Gaming Benchmarks in dem der FPS verlauf dargestellt wird.

Kladderadatsch
2006-11-08, 16:42:06
wie schauts denn hier aus? dürfen wir uns auf einen technik-artikel freuen, aths?=)

oder gar auf einen hardware-test, leo?

dargo
2006-11-08, 16:43:27
die werte können aber nich stimmen....jedenfals nich die von der gx2 da fear ja eigentlich extrem von 2 gpus profitiert!
Da ist was dran, anscheinend hat das SLI Profil nicht gefunzt. ;(

Für mein jetzigen 18" TFT seh ich einfach kein sinn JETZT eine 8800 zu kaufen wo ne 7900GTO nur die Hälfte kostet und genug power hat für die kleine auflösung - nur um die Quali Regler ans Limit zu drehen zahl ich net das Doppelte ...
Lass mich raten, du hast mit Sicherheit noch kein Call of Juarez mit HDR+AA und Full Details gezockt oder?

PHuV
2006-11-08, 16:44:22
Leider testet kaum jemand Oblivion und Gothic 3, die eigentlich für mich momentan die Referenzen sein sollten, da diese die HW am meisten fordern.

Wenn ein Spiel 50 oder 100 Fps haben, das juckt doch nicht mehr, aber ob ein Spiel bei 15 oder 30 FPS rumdümpelt, sehr wohl.

Moralelastix
2006-11-08, 16:46:31
http://www.tweaktown.com/articles/977/12/page_12_final_thoughts/index.html
"They are all getting done at a single location,...."


Kommen alle von Asus, was?

Kladderadatsch
2006-11-08, 16:47:26
Leider testet kaum jemand Oblivion und Gothic 3, die eigentlich für mich momentan die Referenzen sein sollten, da diese die HW am meisten fordern.

gerade die finde ich noch recht uninteressant, so lange man alle nase lang auf extrem cpu-limitierte stellen stößt..
gerade bei gothic 3, da hat ja bez. der realen game-performance der 3dmark eine größere aussagekraft;)

dildo4u
2006-11-08, 16:47:46
Leider testet kaum jemand Oblivion und Gothic 3, die eigentlich für mich momentan die Referenzen sein sollten, da diese die HW am meisten fordern.
Die Shader in Oblivion sind rund 4 mal so komplex wie die von G3(Quelle PCGH) G3 ist auch einfach nur extrem CPU limitiert.Aber Rollenspiele würde ich allgemein wegen CPU und Ram Lastigkeit nicht als Referenz zum testen von neuen Grafikkarten nehmen.Zumal G3 nicht mal AA unterstützt.

Gast
2006-11-08, 16:48:10
Das sehe ich anders. Die meisten die sich diese HW kaufen werden die ersten sein, die sich den ReFresh in die Kiste bauen und die "Alte" auf dem MArktplatz anbieten. Wir sprechen hier über Freaks.

Ich glaube es gibt merh leute wie mich als Freaks wie du sie beschrieben hast.

Noch habe ich ne x800xtpe und 2gig und nen p4 3c ghz.
Anfang 2007 kommt dann ein Komplett neuer Rechner an den Start.
Der wird dann nur wenn es sich wirklich lohnt nem update unterzogen, ansonsten wir er wieder eine längere Zeit mitspielen.

Wie du siehst kaufe ich mir die g80 jetzt noch nicht und bin damit wohl kein Freak.
Immo sehe ich keinen sinn in der Karte für mich. Spielen kann ich alles mit meinem Sys und wenn Ati den r600 raushaut kann ich mich immernoch entscheiden. Wenige monate später kommen dann auch die Spiele für diese Hardware.

Aber es ich erwarte von so einer Karte ist ganz einfach: Alte wie kommende Spiele sollen 1024* ohne AA/Af flüssig spielbar sein und das bei höchsten ingame einstellungen. Ob ich ein altes game mit 1600* mit 16aa etc. mit 300fps spiele kann ist mir egal, auch wenns nett ist und einen die alten spiele nochmal rauskramen lässt.

Anarchy-HWLUXX
2006-11-08, 16:51:16
Lass mich raten, du hast mit Sicherheit noch kein Call of Juarez mit HDR+AA und Full Details gezockt oder?

Ich find das game net so pralle und hab auch nicht vor es zu spielen ...

Spasstiger
2006-11-08, 16:51:38
Leider testet kaum jemand Oblivion und Gothic 3, die eigentlich für mich momentan die Referenzen sein sollten, da diese die HW am meisten fordern.

Wenn ein Spiel 50 oder 100 Fps haben, das juckt doch nicht mehr, aber ob ein Spiel bei 15 oder 30 FPS rumdümpelt, sehr wohl.
Bei dem Benchmark wird auch über Spielbarkeit und Unspielbarkeit entschieden: http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl607_thumb.jpg.
Die 19 fps der 7900 GTX sind bei einem Rennspiel imo schon unspielbar, eigentlich sind erst die 51 fps mit der 8800 GTX wirklich flüssig.
Glücklicherweise ist Need for Speed Carbon nicht so CPU-hungrig wie Oblivion oder Gothic 3, so dass es sich bei NFS Carbon mit der passenden Grafikkarte meist auch erledigt hat (trotzdem sind die Grafikkarten-Anforderungen für volle Details überzogen angesichts der Durchschnittsgrafik).

dargo
2006-11-08, 16:56:27
Bei dem Benchmark wird auch über Spielbarkeit und Unspielbarkeit entschieden: http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl607_thumb.jpg.
Die 19 fps der 7900 GTS sind bei einem Rennspiel imo schon unspielbar, eigentlich sind erst die 51 fps mit der 8800 GTX wirklich flüssig.

NfS:Carbon und eventuell SC4 würde ich nicht als Massstab nehmen. Beides Xbox 360 Games. Und wir wissen alle wer die Grafikeinheit produziert hat. ;)

misterh
2006-11-08, 16:58:29
morgen kriege ich GTS

und viel später hol ich 2. GTS

wenn gehackte Treiber für Intel gibt

Banshee18
2006-11-08, 16:58:37
Bei dem Benchmark wird auch über Spielbarkeit und Unspielbarkeit entschieden: http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl607_thumb.jpg.
Die 19 fps der 7900 GTS sind bei einem Rennspiel imo schon unspielbar, eigentlich sind erst die 51 fps mit der 8800 GTX wirklich flüssig.
Glücklicherweise ist Need for Speed Carbon nicht so CPU-hungrig wie Oblivion oder Gothic 3, so dass es sich bei NFS Carbon mit der passenden Grafikkarte meist auch erledigt hat.
Ich finde NFS ist auch mit 35 fps noch ganz gut spielbar, ich würde sogar sagen flüssig. Zumindest bei den älteren Teilen war das in meinen Augen so. Eigentlich habe ich sehr hohe Anforderungen an die fps, siehe dazu auch diesen Thread (eine Seite davor?).
jaygee spielt z.B. Fear in 1280x1024 mit 4xAA und 8xAF, mir wäre das zu unflüssig. Quake 4 spielt er in gleicher Auflösung mit 6xAA und Parallax-Mod, für mich ist es mit 4xAA und ohne Parallax-Mod gerade noch okay.
(sorry jaygee, dass ich gerade dich herausgegriffen habe, es gibt mehrere, die die Einstellungen noch als flüssig empfinden. Das soll auch kein Angriff sein.)

Superheld
2006-11-08, 17:13:24
BFGTech GeForce 8800 GTX and 8800 GTS

http://enthusiast.hardocp.com/article.html?art=MTIxOCwxLCxoZW50aHVzaWFzdA==

FluFFy80
2006-11-08, 17:13:26
aths hat aber auch gesagt, er habe keinen G80.



Natürlich hat Aths 'ne Karte. Ständig verweist auf das NDA, nach dem achten Verweis aufs NDA hat er schnell nachgeschoben, daß er keine Karte hat, damit niemand zu fragen anfängt...lest doch mal zwischen den Zeilen. Punkt 20:00 geht doch eh der Artikel auf 3dCenter online.

dildo4u
2006-11-08, 17:17:41
BFGTech GeForce 8800 GTX and 8800 GTS

http://enthusiast.hardocp.com/article.html?art=MTIxOCwxLCxoZW50aHVzaWFzdA==
Hier muss man mal wieder alle vorwarnen! die Seite vergleicht die Karten mit unterschiedlichen Auflösungen und Qualitäts Einstellungen das heißt die GTX und GTS haben viel mher Last als die ATI.

Banshee18
2006-11-08, 17:17:46
Natürlich hat Aths 'ne Karte. Ständig verweist auf das NDA, nach dem achten Verweis aufs NDA hat er schnell nachgeschoben, daß er keine Karte hat, damit niemand zu fragen anfängt...lest doch mal zwischen den Zeilen. Punkt 20:00 geht doch eh der Artikel auf 3dCenter online.
Ich habe das mitverfolgt, glaube aber trotzdem nicht, dass er eine hat. Aber lass uns einfach noch ein wenig warten, dann sind wir schlauer. Ich würde mich freuen, wenn er gelogen hat.=)

Johnny Rico
2006-11-08, 17:19:10
Thx für den Link. Die Framesübersicht ist gut, dann weis ich, ob ich mich trotz G80 in bestimmten Situationen auf extreme <25fps slowdowns gefasst machen muss.

dargo
2006-11-08, 17:19:18
Man beachte das Default 16xAF des G80. :O

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_6_4_l.png

Johnny Rico
2006-11-08, 17:20:32
Wie jetzt default, geht das noch besser?

Anarchy-HWLUXX
2006-11-08, 17:21:56
Man beachte das Default 16xAF des G80. :O




Ja holla die Waldfee ;D

HQ per default - des ist mal nice :D Da müsste man ja die ATI beim vergleich auch immer im HQ mode testen ;)

Zapat
2006-11-08, 17:21:57
ist ja lolig.:mad: Sonst hängt Harocp immer Bildvergleich unten mit drann.:wink:

FluFFy80
2006-11-08, 17:22:32
Man beachte das Default 16xAF des G80. :O

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_6_4_l.png

Muha...pwn3d. Jetzt muss sogar BikMach eine NVidia kaufen.
@Rico: In einem der vorab veröffentlichten Reviews stand, daß diese Qualität die Treibervoreinstellung ist.
http://enthusiast.hardocp.com/article.html?art=MTIxOCw2LCxoZW50aHVzaWFzdA==
Kleine Auszüge sind afaik ja erlaubt:
"While those numbers are nice and all what you guys really want to hear about is whether or not the anisotropic filtering quality has been fixed. (It can be argued that all current generations GPUs AF is broken.) We are so very happy to tell you that by DEFAULT, NVIDIA is employing a level of AF that is higher in quality to even ATI’s current “HQ” AF on their flagship GPU.


That’s right, no special check boxes or drop down lists to select, by default, without any interaction from you, AF will look better at ALL ANGLES than even the latest ATI video cards. There is nothing else we can do but to show you side-by-side what our experiences are. We are going to start by showing the typical and overused (but relevant to drive the point across) filter tunnel. "
Ach was ich noch sagen wollte: Muha...pwn3d
Müssten jetzt nicht die Threads aus dem Boden spriessen: "Buhäää Buhäää ATI bescheisst bei den Texturen"

Godmode
2006-11-08, 17:23:11
Das Default AF ist wirklich beeindruckend! Blöd das die Karte nicht in meinen Shuttle passt.

dargo
2006-11-08, 17:25:20
Wie jetzt default, geht das noch besser?
Laut hardocp.com ist das G80 Default AF besser als das WU-AF des R580, wenn ich es richtig verstanden habe. :ujump2:

Johnny Rico
2006-11-08, 17:26:48
Das sieht man sogar ^^ Ich freue mich immer mehr auf den Artikel von Aths.

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_6_3_l.png

Godmode
2006-11-08, 17:27:31
Laut den Benchmarks ist die GTX mit höhen Qualitätseinstellungen immer um einiges schneller als GTS und x1950 XTX, einfach nur beeindruckend. :eek:

Anarchy-HWLUXX
2006-11-08, 17:27:55
Das Default AF ist wirklich beeindruckend! Blöd das die Karte nicht in meinen Shuttle passt.

Dremel hilft :D

Wobei ... ich hätte gern so nen Extrenes Quadroplex Gehäuse für meien GraKas :ulove:

PHuV
2006-11-08, 17:31:52
Hammer :eek:
http://enthusiast.hardocp.com/article.html?art=MTIxOCwxMCwsaGVudGh1c2lhc3Q=


Moving up to a higher resolution on the Widescreen LCD shocked us yet again. We were still able to run both the BFGTech GeForce 8800 GTX and GTS as the absolute highest in-game settings in Oblivion, despite the resolution increase. There was some performance loss moving up though, so we aren’t CPU limited at all in this game. We did have to back down on the antialiasing level settings to achieve playable performance. But with the AA settings being so high at 1600x1200 we had room to come down a notch and still have antialiasing enabled. In fact at 1920x1200 we were able to have 4X AA enabled on the BFGTech GeForce 8800 GTX with the maximum in-game settings.

Those kinds of settings make you go, “Wow!” The visual quality cannot be expressed in words, you literally have to see it in real time to understand how beautiful this game truly is when you can max out the settings with HDR and 4X AA enabled in a Widescreen resolution.

The BFGTech GeForce 8800 GTS was also a strong performer at 1920x1200, once again being able to run with the highest in-game settings possible. We did have to bring the AA level down to 2X, but at 1920x1200 with HDR enabled it still looked breathtaking.

The ATI Radeon X1950 XTX struggled a great deal at 1920x1200. We had to turn AA off, lower to 8X AF and turn off many things such as grass, shadows, and fade distances. The game looked quite bare on the Radeon X1950 XTX with all these features turned off, especially compared to the 8800 series with everything turned on to full.


Auf 1920 x 1200 alle Details auf Maximum, High und 4 MSAA und 16 AF mit 45,8 FPS, heftig :eek:

Godmode
2006-11-08, 17:31:53
Dremel hilft :D

Wobei ... ich hätte gern so nen Extrenes Quadroplex Gehäuse für meien GraKas :ulove:

OT: die kann man neuerdings in ein 19 " Rack einbauen ;D
http://www.nvidia.de/page/quadroplex.html

Banshee18
2006-11-08, 17:34:07
Noch viel beeindruckender:
http://666kb.com/i/aj2n4bojef110n64l.png
:eek:

Raff
2006-11-08, 17:34:55
Laut den Benchmarks ist die GTX mit höhen Qualitätseinstellungen immer um einiges schneller als GTS und x1950 XTX, einfach nur beeindruckend. :eek:

Eigentlich nicht. Es ist eine brandneue Architektur ... und diesmal sogar eine gute. Kann man erwarten, dass sowas den ganzen "alten" Kram in die Tasche steckt. Natürlich ändert dies nichts daran, dass die Leistungswerte sehr überzeugend sind. :) Nur sollte man eines nicht vergessen: Atis Antwort ist noch gar nicht draußen. In Sachen BQ scheint diesmal aber Nvidia vorne zu sein ...

Noch viel beeindruckender:
http://666kb.com/i/aj2n4bojef110n64l.png
:eek:

Wie frisst der Textufilter das Aliasing ohne dass SSAA an war? Naja, beim G80 wird offensichtlich wirklich nicht mehr unterfiltert.

MfG,
Raff

P.S: Diesen Thread zu verfolgen, wenn man noch etwas anderes am Tag tun will ... ein Ding der Unmöglichkeit. X-D

tombman
2006-11-08, 17:35:43
Der Artikel ist DOWN, habe aber genug zu sehen um zu sagen :eek: ^ :eek: ^ :eek:

Ich frage mich wozu man da überhaupt noch SLI braucht wenn EINE 8800GTX schon 1920x1200 maxed spielbar macht. OK, dann hat man eben statt 45fps, 80fps ;D;D

Gast
2006-11-08, 17:36:22
Also ich weiss net warum eine sagen die 8800GTS suckt?
Ich find sie gut. In Aktuellen Top Spiele Titeln, kann sie sich doch sehr gut in Szene setzen. Und ich wette im Jan.07 is sie für unter 400 euro zuhaben ;)

mfG

Anarchy-HWLUXX
2006-11-08, 17:36:39
Noch viel beeindruckender:
http://666kb.com/i/aj2n4bojef110n64l.png[/URL]
:eek:

Des ist mehr als nur fett - des grenzt an perfektion :eek:

Krustovsky
2006-11-08, 17:37:06
Der Artikel ist DOWN, habe aber genug zu sehen um zu sagen :eek: ^ :eek: ^ :eek:

Ich frage mich wozu man da überhaupt noch SLI braucht wenn EINE 8800GTX schon 1920x1200 maxed spielbar macht. OK, dann hat man eben statt 45fps, 80fps ;D;D

Sicher ist sicher;)

Seve11
2006-11-08, 17:37:27
Der Artikel ist nicht down.

http://enthusiast.hardocp.com/article.html?art=MTIxOCwxLCxoZW50aHVzaWFzdA==

Undertaker
2006-11-08, 17:38:18
Die Shader in Oblivion sind rund 4 mal so komplex wie die von G3(Quelle PCGH) G3 ist auch einfach nur extrem CPU limitiert.Aber Rollenspiele würde ich allgemein wegen CPU und Ram Lastigkeit nicht als Referenz zum testen von neuen Grafikkarten nehmen.Zumal G3 nicht mal AA unterstützt.

kommt aber immer auf die cpu an, bei mir läuft gothic mit 1280x1024 8xaf bei ~30fps klar an der grenze der 7900gtx (weil ich mit jedem % oc der graka mehr fps bekomme, praktisch linear)

tombman
2006-11-08, 17:38:43
Der Artikel ist nicht down.

http://enthusiast.hardocp.com/article.html?art=MTIxOCwxLCxoZW50aHVzaWFzdA==
Doch ist er, drück mal auf RELOAD (F5) ;)

Ronny145
2006-11-08, 17:39:27
Doch ist er, drück mal auf RELOAD (F5) ;)


Geht trotzdem bei mir.

Vertigo
2006-11-08, 17:39:42
Noch viel beeindruckender:
http://666kb.com/i/aj2n4bojef110n64l.png
:eek:
:eek: ... unglaublich. Aber ich will auf der 8800 erstmal GTR2 sehen, bevor ich in Euphorie ausbreche. ;)

Sonyfreak
2006-11-08, 17:42:02
Der Artikel ist nicht down.

http://enthusiast.hardocp.com/article.html?art=MTIxOCwxLCxoZW50aHVzaWFzdA==Bei mir ist er leider schon down. :frown:
Immerhin konnte ich mir einen großen Teil schon durchlesen, und ich bin begeistert vom G80. :smile:

mfg.

Sonyfreak

tombman
2006-11-08, 17:42:52
Natürlich ist er down :rolleyes:

Ronny145
2006-11-08, 17:44:04
Natürlich ist er down :rolleyes:



Keine Ahnung woran das bei dir liegt, ich kann alle Seiten aufrufen und neu laden.

Odal
2006-11-08, 17:44:26
bei mir isser nicht down...

aber allgemein...kommt mal runter jungs vom "hype"

klar ist der G80 schön performant und scheinbar auch sehr gut was BQ anbelangt...

aber für satte 650€ muss man das auch erwarten können. Die Verhältnismässigkeit bzgl. des Preises muss ja gegeben sein.

tombman
2006-11-08, 17:44:46
Keine Ahnung woran das bei dir liegt, ich kann alle Seiten aufrufen und neu laden.
Mehrere Leute haben bereits bestätigt, daß er down ist :rolleyes:

Vertigo
2006-11-08, 17:44:53
Natürlich ist er down :rolleyes:
Nö - eben zum ersten mal aufgerufen und sofort war alles da ...
Mehrere Leute haben bereits bestätigt, daß er down ist :rolleyes:
Du und Dein Schatten zählen nicht als Mehrzahl ... ;)

Ronny145
2006-11-08, 17:45:50
Mehrere Leute haben bereits bestätigt, daß er down ist :rolleyes:


Bei mir ist er nicht down!

tombman
2006-11-08, 17:46:11
Nö - eben zum ersten mal aufgerufen und sofort war alles da ...
Dann speicher alles, weil wenn dein Provider Cache leer ist, siehst nix mehr....

tombman
2006-11-08, 17:46:42
Du und Dein Schatten zählen nicht als Mehrzahl ... ;)
Blaire ist nicht mein Schatten ;)

FluFFy80
2006-11-08, 17:46:55
Ich frage mich wozu man da überhaupt noch SLI braucht wenn EINE 8800GTX schon 1920x1200 maxed spielbar macht.

So einen Satz aus deinem Munde hätte ich nie erwartet. Das klingt ja fast wie "Mein Auto muss mich nur von A nach B bringen". Wo ist der dekadente Tombman, die Geldvernichtungsmaschine, der Ressourcenabsorbierer?

tombman
2006-11-08, 17:47:12
JETZT ISSER WIEDER DA ;)

Seve11
2006-11-08, 17:47:57
@tombman
Du hattest recht er ist down. Schade!!!

Mancko
2006-11-08, 17:48:12
Muss sagen, dass ich mich auf die Reviews heute abend richtig freue. Richtig viel zum schmökern.

Das was bisher zu sehen war ist sehr beeindruckend, vor allem die wahnsinns Qualität. Ich finde es auch gut wenn Nvidia per Default auf volle Qualität setzt. Das AF ist ja wirklich mal wahnsinn. Wenn man das sieht ärgert man sich nur, wieso die ganzen letzten Jahre auf winkelabhängig gesetzt wurde - wenn auch von beiden - .

So stell ich mir Qualität vor. In jedem Fall muss so eine Karte bei mir rein. Sobald die Lieferfähigkeit gegeben ist und damit die Preise etwas moderater sind, schlage ich zu.

ATI ist jetzt ganz schön unter Zugzwang. Es lief schon rein businesstechnisch gegen die GF7 Reihe nicht wirklich prickelnd und jetzt hat Nvidia erstmal mindestens 3 Monate Vorsprung. Im Januar sehen wir noch keinen R600. 3 Monate oder eventuell sogar ein wenig mehr sind schon eine halbe Ewigkeit. Das gibt Nvidia einiges an Zeit sich gründlich darauf vorzubereiten - selbe Situation wie mit der GF7.

dildo4u
2006-11-08, 17:48:59
Is nich down gucke mir gerade in Ruhe die Verbrauchswerte an.

Stromverbrauch Gesamtsystem!

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_16_8.gif


Lautstärke

"Noise is not a problem with this video card. NVIDIA is using a very large centrifugal fan that spins slow enough that it does not have any wind noise or any whirring or wheezing, or squealing. Even during full load after a long while of gaming the video card still remains quiet."

http://enthusiast.hardocp.com/article.html?art=MTIxOCwxNiwsaGVudGh1c2lhc3Q=

dargo
2006-11-08, 17:50:56
Nicht so schön:

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_16_7.gif

Ich hoffe auf ein Treiberproblem.

Was mir aber gefällt ist der Stromverbrauch der GTS bei Last:

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_16_8.gif

Wenn man das mal umrechnet kommt die G8800GTS auf ~105W und die G8800GTX auf 135-140W.

Vertigo
2006-11-08, 17:52:30
Nicht so schön:

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_16_7.gif

Ich hoffe auf ein Treiberproblem.

Was mir aber gefällt ist der Stromverbrauch der GTS bei Last:

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_16_8.gif

Wenn man das mal umrechnet kommt die G8800GTS auf ~105W und die G8800GTX auf 135-140W.
Aber das ist doch absolut okay und im Rahmen des Vertretbaren.

FluFFy80
2006-11-08, 17:52:44
bei mir isser nicht down...

aber allgemein...kommt mal runter jungs vom "hype"

klar ist der G80 schön performant und scheinbar auch sehr gut was BQ anbelangt...

aber für satte 650€ muss man das auch erwarten können. Die Verhältnismässigkeit bzgl. des Preises muss ja gegeben sein.

Das ist richtig. Es geht aber nicht nur um den Preis der High-End Karten, sondern darum, daß es auch bald MidRange Lösungen geben wird, die das gleiche Featureset haben werden und an der High-End Schwelle kratzen und bezahlbar sind. Um Parallelen zu ziehen: Ich sehe die 8800GTX als 68U und die 8800GTS als 6800 (passt auch vom Abstand). Spätestens Ostern haben wir irgendwas wie die 68GT was es irgendwo zwischen 250€-300€ geben wird. Der absolute Preisleistungskiller. Was mal die 42Ti, die 98Pr, die 68GT, die X1800XT und die 79GT war. Das Produkt, was in diese Ahnenreihe passt, hat NV nämlich noch nicht vorgestellt.

dargo
2006-11-08, 17:54:07
Aber das ist doch absolut okay und im Rahmen des Vertretbaren.
Nein, der Idle-Verbrauch ist im Moment eine Katastrophe. Es lohnt sich aber nicht darüber zu diskutieren bis die nächsten 1-2 finalen Treiber erscheinen.

Banshee18
2006-11-08, 17:54:48
Wie frisst der Textufilter das Aliasing ohne dass SSAA an war? Naja, beim G80 wird offensichtlich wirklich nicht mehr unterfiltert.

MfG,
Raff

P.S: Diesen Thread zu verfolgen, wenn man noch etwas anderes am Tag tun will ... ein Ding der Unmöglichkeit. X-D
Das war auch mein erster Gedanke. Zudem kommt mir die Qualität auf dem R580 zu schlecht vor. Ich werde mal versuchen, die Szenen nachzustellen.
Wenn das wirklich so stimmt, dann muss ein G80 ins Haus, auch wenn dafür die Waschmaschine raus muss.:biggrin: ;)

Anarchy-HWLUXX
2006-11-08, 17:58:12
Wenn man das mal umrechnet kommt die G8800GTS auf ~105W und die G8800GTX auf 135-140W.

Muahahaha ... ich hatte scho lang auf ca. 140W +/- 10W real spekuliert !

Vertigo
2006-11-08, 17:59:49
Nein, der Idle-Verbrauch ist im Moment eine Katastrophe. Es lohnt sich aber nicht darüber zu diskutieren bis die nächsten 1-2 finalen Treiber erscheinen.
Okay, der Verbrauch im idle ist wirklich nicht schön, mehr aber auch nicht. Viel kritischer wäre - aus meiner Sicht - eine gigantische Leistungsaufnahme bei Höchstleistung und das ist ja offenbar nicht der Fall.

[](-__-)[]
2006-11-08, 18:00:26
Wo genau auf dem PCB willst du 16 Speicherchips verbauen ohne 20 Layer zu benötigen?

Fire GL V7350

http://www.geizhals.at/img/pix/194503.jpg

Superheld
2006-11-08, 18:01:06
EVGA 8800GTS/GTX

http://www.gamepyre.com/reviewsd.html?aid=783&p=10

dildo4u
2006-11-08, 18:04:02
EVGA 8800GTS/GTX

http://www.gamepyre.com/reviewsd.html?aid=783&p=10
Totale Zerstörung eine 8800GTX ist bei Quake4 so schnell wie ein 7950 GX2 Quad SLI bei FEAR sogar deutlich schneller. :eek: Sind beides Games wo Q-SLI auch wirklich funzt. ;)

Yups
2006-11-08, 18:05:54
Bei mir gehts auch, bei nem Kumpel nicht :confused:
Der Test ist ja ganz nett, hätte nicht gedacht das nvidia nochmal so die BQ überabeitet, meine Erwartung war eher das die BQ nur noch schlechter wird (die G7X waren ja schon so schlimm) Aber das gefällt mir echt gut :up:

jojo4u
2006-11-08, 18:06:12
Nein, der Idle-Verbrauch ist im Moment eine Katastrophe. Es lohnt sich aber nicht darüber zu diskutieren bis die nächsten 1-2 finalen Treiber erscheinen.

Vielleicht ist der 2D-Modus ja im Treiber deaktiviert wegen der kolportierten Widerstandsprobleme.

dargo
2006-11-08, 18:06:49
Das sieht man sogar ^^ Ich freue mich immer mehr auf den Artikel von Aths.

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_6_3_l.png
Bei der AF Blume sicherlich. Die Frage ist nur ob man es noch in Games sieht?

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_6_5_l.png

Ich kann hier zumindest keinen Unterschied zwischen G80 16x default und R580 16x HQ erkennen. Aber wie schon Anarchy-HOCP sagte, man muss den G80 @ Default und den R5x0 mit WU-AF demnächst beim Benchen vergleichen. Alles andere macht keinen Sinn mehr.

[](-__-)[]
2006-11-08, 18:06:52
Noch viel beeindruckender:
http://666kb.com/i/aj2n4bojef110n64l.png
:eek:

Respekt an nVidia, well done, well done!

Sollte sich das bewahrheiten, dann ist das schon eine kleine Sensation.

Kann das dann bitte jeman mal testen, mit Rennspielen und Half Life²?

Gast
2006-11-08, 18:09:13
*Hust*
http://www.gamepyre.com/images/reviews/783_p11_4.gif

16x AA ist also 16xCSAA während 16xQ AA wohl reines 16xAA ist? Frist deftig Leistung aber in der Auflösung darf die Karte auch schwitzen *g

Yups
2006-11-08, 18:10:08
(-__-)[]']Respekt an nVidia, well done, well done!

Sollte sich das bewahrheiten, dann ist das schon eine kleine Sensation.

Kann das dann bitte jeman mal testen, mit Rennspielen und Half Life²?

Mich hat es auch umgehauen :D Aber ich glaube das erst so richtig wenn ich das selber gesehen habe :D

FluFFy80
2006-11-08, 18:10:39
Bei der AF Blume sicherlich. Die Frage ist nur ob man es noch in Games sieht?

Ich kann hier zumindest keinen Unterschied zwischen G80 16x default und R580 16x HQ erkennen. Aber wie schon Anarchy-HOCP sagte, man muss den G80 @ Default und den R5x0 mit WU-AF demnächst beim Benchen vergleichen. Alles andere macht keinen Sinn mehr.

Das ist auch kein günstiger Screenshot für einen Vergleich. Einen kleinen Unterschied merkt man trotzdem: da wo der Weg den Knick nach links macht, wo der Baum mit dem auffallend grünen Stamm auf der gleichen Linie vertikal dahinter steht.

Raff
2006-11-08, 18:12:01
Bei der AF Blume sicherlich. Die Frage ist nur ob man es noch in Games sieht?

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_6_5_l.png

Ich kann hier zumindest keinen Unterschied zwischen G80 16x default und R580 16x HQ erkennen. Aber wie schon Anarchy-HOCP sagte, man muss den G80 @ Default und den R5x0 mit WU-AF demnächst beim Benchen vergleichen. Alles andere macht keinen Sinn mehr.

Ich denke, dass es nicht viele Fälle geben wird, wo man einen Unterschied offensichtlich erkennen kann. Es ist ab dieser Qualität eine Sache der Kosmetik. Aber wu-AF ist einfach hässlicher Mist, wie man sieht. Dass wir das jahrelang ertragen mussten ... schon krass.

Offenbar ist spätestens jetzt die Zeit, um A.I. Off zum Standard beim Benchen zu machen. Aber das ist vielleicht der Anstoß für Ati/AMD, Shader-Replacements und Sparfilter zu entkoppeln. :naughty:

MfG,
Raff

PHuV
2006-11-08, 18:12:40
Der Artikel ist DOWN, habe aber genug zu sehen um zu sagen :eek: ^ :eek: ^ :eek:

Ich frage mich wozu man da überhaupt noch SLI braucht wenn EINE 8800GTX schon 1920x1200 maxed spielbar macht. OK, dann hat man eben statt 45fps, 80fps ;D;D

Na ja, bei den 2560x1600 kann es schon wieder eng werden. :cool:

[](-__-)[]
2006-11-08, 18:12:50
Totale Zerstörung eine 8800GTX ist bei Quake4 so schnell wie ein 7950 GX2 Quad SLI bei FEAR sogar deutlich schneller. :eek: Sind beides Games wo Q-SLI auch wirklich funzt. ;)

Naja, aber schau mal, wie weit oben die X1950 XTX ist. In dem Spiel scheint nVidia schlecht zu performen.

Gast
2006-11-08, 18:14:54
Wie frisst der Textufilter das Aliasing ohne dass SSAA an war? Naja, beim G80 wird offensichtlich wirklich nicht mehr unterfiltert.

MfG,
Raff

P.S: Diesen Thread zu verfolgen, wenn man noch etwas anderes am Tag tun will ... ein Ding der Unmöglichkeit. X-D

wenn das hl2 ist, dann liegt das daran, dass bei ati treiber-af komische dinge in der entfernung macht u.a. auch zaundetails verschwinden läßt. mit app-af (auch hq im treiber) funktioniert das ordentlich. vermutlich ist hier dasselbe passiert.


q

Moralelastix
2006-11-08, 18:15:57
In Sachen übertakten soll auch was neues kommen.

"In fact in a future driver release of nTune software you will be able to individually overclock the stream processors, the core and the memory separately"


OMG lool damit sind dann drei Slots belegt oder vier?
http://www.vr-zone.com/?i=4271

Ronin2k
2006-11-08, 18:20:40
was denkt ihr ob einem 400watt enermax liberty die puste ausgeht bei der 8800gtx?^^

Coda
2006-11-08, 18:22:30
(-__-)[]']Fire GL V7350

http://www.geizhals.at/img/pix/194503.jpg

Das ist ein 256-Bit-SI.

[](-__-)[]
2006-11-08, 18:22:45
was denkt ihr ob einem 400watt enermax liberty die puste ausgeht bei der 8800gtx?^^

Quatsch. Nichtmal bei zwei im SLI Verbund.

dargo
2006-11-08, 18:22:49
Vielleicht ist der 2D-Modus ja im Treiber deaktiviert wegen der kolportierten Widerstandsprobleme.
AFAIK sollen nur die GTX Karten davon betroffen sein. Wie gesagt, die nächsten Treiber erst abwarten.

tombman
2006-11-08, 18:25:20
C compiler für den G80 :eek: :massa:

http://img479.imageshack.us/img479/909/11628543947eyehcawzu81lze6.jpg

[](-__-)[]
2006-11-08, 18:26:35
Mich hat es auch umgehauen :D Aber ich glaube das erst so richtig wenn ich das selber gesehen habe :D

Ja, denn SSAA kann man jetzt in der Pfeife rauchen. ;D ;D ;D

r00t
2006-11-08, 18:27:15
läuft der G80 auf nem 350Watt Enermax NT? :D

The_Invisible
2006-11-08, 18:28:28
wenn das hl2 ist, dann liegt das daran, dass bei ati treiber-af komische dinge in der entfernung macht u.a. auch zaundetails verschwinden läßt. mit app-af (auch hq im treiber) funktioniert das ordentlich. vermutlich ist hier dasselbe passiert.


q

das ist F.E.A.R. Extraction Point

http://enthusiast.hardocp.com/article.html?art=MTIxOCwxNCwsaGVudGh1c2lhc3Q=

g80 filter sehr viel schöner

mfg

tombman
2006-11-08, 18:28:42
]

Who needs Quad Core CPUs when you have 128 parallel processors right here waiting for you to use them?
:D:D

dargo
2006-11-08, 18:28:47
Offenbar ist spätestens jetzt die Zeit, um A.I. Off zum Standard beim Benchen zu machen. Aber das ist vielleicht der Anstoß für Ati/AMD, Shader-Replacements und Sparfilter zu entkoppeln. :naughty:

Jo, nieder mit A.I .;D
Wir brauchen einen neuen Namen. :D

Gast
2006-11-08, 18:30:07
NfS:Carbon und eventuell SC4 würde ich nicht als Massstab nehmen. Beides Xbox 360 Games. Und wir wissen alle wer die Grafikeinheit produziert hat. ;)

und genau diese grafikeinheit hat eine USA, warum sollte eine darauf optimierte engine nicht auch auf einem desktopchip mit USA gut laufen?

dargo
2006-11-08, 18:31:45
(-__-)[]']Quatsch. Nichtmal bei zwei im SLI Verbund.
Mit dieser Aussage wäre ich vorsichtig. ;)

tombman
2006-11-08, 18:32:54
Und wenn Luft nicht genug ist....

http://www.hummercommunity.com/files/hfpics/8800GTX_768_PCIe_WC.jpg

http://www.hummercommunity.com/files/hfpics/8800GTX_768_PCIe_WC_Side.jpg

Godmode
2006-11-08, 18:34:11
C compiler für den G80 :eek: :massa:

http://img479.imageshack.us/img479/909/11628543947eyehcawzu81lze6.jpg

Also das ist mal nice! Somit kann man diese GPU für alles mögliche benützen! Möcht mal wissen wie schnell der G80 zb beim Video Encoding ist im Vergleich zu einem Core Quadro?

Nvidia ist mit dem G80 ein wirklich großer Wurf gelungen! Da bin ich mal gespannt ob ATI das übertreffen wird?

Johnny Rico
2006-11-08, 18:34:39
Luft ist nicht genug, aber ich finde keine Hybrid :/

Jetzt ist die Seite aber down odeR?

Moralelastix
2006-11-08, 18:34:45
und wenn wasser net reicht:
http://resources.vr-zone.com//newspics/Nov06/08/Sparkle/card_P880_D.jpg

Black-Scorpion
2006-11-08, 18:34:53
@tombman

Pack die Bilder in den Spoiler.

A.Wesker
2006-11-08, 18:36:15
Und wenn Luft nicht genug ist....

'http://www.hummercommunity.com/files/hfpics/8800GTX_768_PCIe_WC.jpg

'http://www.hummercommunity.com/files/hfpics/8800GTX_768_PCIe_WC_Side.jpg

habe hier schon 2 Swiftech MCW60-T + TEC 19V Netzteil liegen ^^. Muß nurnoch die Lochabstände anpassen, dann kanns losgehen :)

tombman
2006-11-08, 18:37:31
So it comes down to, do you need a new power supply? I would suggest nothing less than a 500 watt PSU for our system in question and would feel a lot more comfortable with the headroom of 600 watt +.

SLI? I would not even consider anything less than a 700 watt beast that is certified on the “NVIDIA SLI Approved” list.
700 Watt meint [H] ;)

Gast
2006-11-08, 18:37:44
Noch viel beeindruckender:
http://666kb.com/i/aj2n4bojef110n64l.png
:eek:

wow, wirklich nicht schlecht, schade dass die ati-karten nicht mit AI-off getestet werden.

up¦²
2006-11-08, 18:37:44
Dann bist du wieder bei Mario angelangt, als Klemptner :rolleyes:
So schließt sich der kreis vom nintendo zum G80!
Ein fantastisches Set und eine wahre Herausforderung: auf nach 20000! :smile:

[](-__-)[]
2006-11-08, 18:38:18
Mit dieser Aussage wäre ich vorsichtig. ;)

Ne, geht schon. Wenn er kein Serverboard bzw. 2 CPUs hat, dann geht das.

Das Enermax Liberty habe ich auch, aber die 500 Watt Version. Das ist recht potent, auf den beiden 12V Schienen, es hat genug Ampare auf beiden Schienen und ist SLI Ready.

Gast
2006-11-08, 18:38:40
Wie frisst der Textufilter das Aliasing ohne dass SSAA an war? Naja, beim G80 wird offensichtlich wirklich nicht mehr unterfiltert.



ein ordentlicher texturfilter ist ja im prinzip schon antialiasing, da braucht man kein ineffizientes supersampling mehr.

SentinelBorg
2006-11-08, 18:41:52
(-__-)[]']Quatsch. Nichtmal bei zwei im SLI Verbund.
Jo, das Liberty hat sehr starke 12V Schienen.

Sentinel

Gast
2006-11-08, 18:42:15
:eek: ... unglaublich. Aber ich will auf der 8800 erstmal GTR2 sehen, bevor ich in Euphorie ausbreche. ;)

GTR verwendet negatives LOD, da nützt auch der beste texturfilter nix.

aber ich denke NV wird wohl nicht den clamp-schalter raushauen, dann kann man das LOD gottseidank auf 0.0 clampen.

tombman
2006-11-08, 18:42:42
(-__-)[]']und ist SLI Ready.
Das alte SLi Ready gilt sicher nicht für diese Monster, obwohl eine 8800GTX nur 15Watt mehr unter Last braucht als eine X1950XTX ...ROFL ;)

dildo4u
2006-11-08, 18:46:33
Die EVGA GTS wird hier fälschlicherweise als GTX ausgewiesen.

http://www.motherboards.org/reviews/graph_any.html?test=obliv06_3&d1=67.314&d2=36.037&d3=40.167&d4=67.862&d5=38.883&d6=22.942&d7=52.501&d8=90.238&d9=38.418&d10=50.033&d11=90.359&d12=89.783&lab1=ATX%20X1900%20XTX&lab2=ATI%20X1800%20GTO&lab3=XFX%207900GT%20Reference&lab4=ATI%20X1950XTX&lab5=Gigabyte%207900GS%20turboforce&lab6=Gigabyte%207600GS&lab7=Asus%20X1950%20Pro&lab8=XFX%208800GTX&lab9=XFX%207950%20GX2%20570M&lab10=XFX%207950%20GX2%20570M%20SLI&lab11=Asus%208800GTX&lab12=EVGA%208800GTX

http://www.motherboards.org/reviews/graph_any.html?test=cod06_8&d1=24.8&d2=13.1&d3=18.1&d4=26.3&d5=23.6&d6=7.9&d7=19.4&d8=42.9&d9=18.7&d10=30.1&d11=42.7&d12=28.1&lab1=ATX%20X1900%20XTX&lab2=ATI%20X1800%20GTO&lab3=XFX%207900GT%20Reference&lab4=ATI%20X1950XTX&lab5=Gigabyte%207900GS%20turboforce&lab6=Gigabyte%207600GS&lab7=Asus%20X1950%20Pro&lab8=XFX%208800GTX&lab9=XFX%207950%20GX2%20570M&lab10=XFX%207950%20GX2%20570M%20SLI&lab11=Asus%208800GTX&lab12=EVGA%208800GTX

http://www.motherboards.org/reviews/graph_any.html?test=fear06_4&d1=53&d2=24&d3=37&d4=55&d5=41&d6=14&d7=32&d8=87&d9=38&d10=76&d11=88&d12=58&lab1=ATX%20X1900%20XTX&lab2=ATI%20X1800%20GTO&lab3=XFX%207900GT%20Reference&lab4=ATI%20X1950XTX&lab5=Gigabyte%207900GS%20turboforce&lab6=Gigabyte%207600GS&lab7=Asus%20X1950%20Pro&lab8=XFX%208800GTX&lab9=XFX%207950%20GX2%20570M&lab10=XFX%207950%20GX2%20570M%20SLI&lab11=Asus%208800GTX&lab12=EVGA%208800GTX

http://www.motherboards.org/reviews/hardware/1671_1.html

Banshee18
2006-11-08, 18:46:45
Ich habe jetzt mal versucht, die Fear-Szenen nachzustellen. Das Bild auf dem R580 ist deutlich besser als in dem Artikel! Keine Ahnung, was die da verbockt haben.
http://666kb.com/i/aj2ow3uumnkngxyz1.jpg
Das ist nicht die gleiche Stelle und auch der Winkel ist ein anderer, aber schlimmer als auf meinem Bild kriege ich es nicht hin, egal, wie ich zur Wand stehe. Treiber ist der Catalyst 6.10, AF ist bei dem Bild nur auf 8x, A.I. Standard.

Gast
2006-11-08, 18:47:01
(-__-)[]']Fire GL V7350Und jetzt? Die hat auch nur ein 256 bittiges Speicherinterface.

Gast
2006-11-08, 18:49:20
wenn das hl2 ist, dann liegt das daran, dass bei ati treiber-af komische dinge in der entfernung macht u.a. auch zaundetails verschwinden läßt. mit app-af (auch hq im treiber) funktioniert das ordentlich. vermutlich ist hier dasselbe passiert.



das ist doch klar, wenn man AF auf AT-texturen anwendet dass diese viel schneller durchsichtig werden, das liegt einfach daran dass ingame-AF auf AT-oberflächen kein AF aktiviert, treiber-AF aber schon.

dargo
2006-11-08, 18:49:38
und genau diese grafikeinheit hat eine USA, warum sollte eine darauf optimierte engine nicht auch auf einem desktopchip mit USA gut laufen?
Der G80 performt auch sehr gut bei diesen Games wie man sehen konnte. Das erklärt aber noch nicht wieso die G7900GTX so schlecht abschneidet. Die X1950XTX hat auch kein USA. ;)

Super Grobi
2006-11-08, 18:52:57
Hi,
um 20 Uhr gibts ja wohl zig Reviews (oder hab ich das falsch verstanden?)

Ich hoffe das ein Mod oder fleisiger Member dann ein neuen Thread auf macht, und dann im Startposting alle URLs rein editiert. So ein Michmasch aus Diskusion und Links ist echt übel, sry.

SG

Razor
2006-11-08, 18:54:30
Wie jetzt default, geht das noch besser?

Könnte ich mir schon vorstellen... ja.

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_6_3_l.png

Das sieht mir sehr neach brilinearem Filter aus... in den Screenies fällt's halt nicht auf, weil die erste MipMap-Schwelle ziemlich weit hinten ist und eben keine Winkelabhängigkeit da ist.

Würde mich also nicht wundern, wenn das "Default-AF" vom G80 durchaus noch 'besser' sein kann.
Aber ob das gut ist?
:biggrin:

Zum Vergleich hier mal das GF7 2xAF... TriOpt on (brilinear) vs. TriOpt off (trilinear):

http://mitglied.lycos.de/razor3dc/pics/9371_2xAF_TriOpt-on-off.png

Und wenn man das nun mit dem Screen oben vergleicht, dürfte das offensichtliche offensichtlich werden!
:D

Bin echt mal gespannt auf den ersten unabhängigen Test, der hoffentlich von dieser Seite kommen wird!

Razor

Gast
2006-11-08, 18:54:54
Der G80 performt auch sehr gut bei diesen Games wie man sehen konnte. Das erklärt aber noch nicht wieso die G7900GTX so schlecht abschneidet. Die X1950XTX hat auch kein USA. ;)

nö erklärt es nicht, man sollte auch nicht vom XBOX360-grafikchip auf die performance der desktop-grafikchips schließen, da es hier momentan nix vergleichbares gibt.

nur weil ATI draufsteht heißt es noch lange nicht dass es auf einer anderen ATI-architektur auch schnell läuft bzw. nicht zwangsweise dass es auf einer NV-architektur schlecht läuft.

mit dieser logik müsste der G80 ja überall da schlecht abschneiden wo auch der G7x schlecht abschneidet ;)

tombman
2006-11-08, 18:55:05
Ich hoffe das ein Mod oder fleisiger Member dann ein neuen Thread auf macht, und dann im Startposting alle URLs rein editiert. So ein Michmasch aus Diskusion und Links ist echt übel, sry.
Da wär ich auch schwer dafür ;)

Gast
2006-11-08, 18:55:06
Der G80 performt auch sehr gut bei diesen Games wie man sehen konnte. Das erklärt aber noch nicht wieso die G7900GTX so schlecht abschneidet. Die X1950XTX hat auch kein USA. ;)

nö erklärt es nicht, man sollte auch nicht vom XBOX360-grafikchip auf die performance der desktop-grafikchips schließen, da es hier momentan nix vergleichbares gibt.

nur weil ATI draufsteht heißt es noch lange nicht dass es auf einer anderen ATI-architektur auch schnell läuft bzw. nicht zwangsweise dass es auf einer NV-architektur schlecht läuft.

mit dieser logik müsste der G80 ja überall da schlecht abschneiden wo auch der G7x schlecht abschneidet ;)

dargo
2006-11-08, 18:55:18
(-__-)[]']Ne, geht schon. Wenn er kein Serverboard bzw. 2 CPUs hat, dann geht das.

Das Enermax Liberty habe ich auch, aber die 500 Watt Version. Das ist recht potent, auf den beiden 12V Schienen, es hat genug Ampare auf beiden Schienen und ist SLI Ready.
Das Liberty 400 hat 30A combined 12V Power. Das wird verdammt knapp mit zwei G8800GTX und einer schnellen CPU. ;)
Und SLI Ready ist ein sehr dehnbarer Begriff. 2x G7600GT ist auch SLI. :rolleyes:

tombman
2006-11-08, 18:58:39
Ich hab 42A auf 12v combined auf meinem 650er Silverstone und ich weiß auch ned ob das reichen wird....

dargo
2006-11-08, 18:58:51
Ich habe jetzt mal versucht, die Fear-Szenen nachzustellen. Das Bild auf dem R580 ist deutlich besser als in dem Artikel! Keine Ahnung, was die da verbockt haben.
http://666kb.com/i/aj2ow3uumnkngxyz1.jpg
Das ist nicht die gleiche Stelle und auch der Winkel ist ein anderer, aber schlimmer als auf meinem Bild kriege ich es nicht hin, egal, wie ich zur Wand stehe. Treiber ist der Catalyst 6.10, AF ist bei dem Bild nur auf 8x, A.I. Standard.
Mach das ganze bitte nochmal mit 16xAF.

dargo
2006-11-08, 19:00:10
und wenn wasser net reicht:
http://resources.vr-zone.com//newspics/Nov06/08/Sparkle/card_P880_D.jpg
Sehr lecker. :)
Sowas würde mir gefallen, auch wenn die Slots bedeckt sind. Ich brauche sie ja nicht.

Ronin2k
2006-11-08, 19:00:34
ich meine doch nur eine 8800gtx :D net SLI ^^ kann ich doch die 2 kombinieren und dann wird die gute genügend befeuert oder^^

r00t
2006-11-08, 19:02:16
Sehr lecker. :)
Sowas würde mir gefallen, auch wenn die Slots bedeckt sind. Ich brauche sie ja nicht.

dir is schon aufgefallen das die so ein gammeliges peltier element verwenden?

ich persönlich mag die peltier elemente garnicht!! :|

Moralelastix
2006-11-08, 19:02:42
Sehr lecker. :)
Sowas würde mir gefallen, auch wenn die Slots bedeckt sind. Ich brauche sie ja nicht.

Also aber!!

Des is doch eher nen Witz!

Alleine der superschlechte Wirkungsgrad des Piezoelemets und dann erst die ääh vier belgegten Slots?

Und was die dafür wollen will ich garnet erst wissen, würg!

Zitronenfalter
2006-11-08, 19:03:18
Ich hab 42A auf 12v combined auf meinem 650er Silverstone und ich weiß auch ned ob das reichen wird....LOGISCH!

504 Watt für 12V alleine reichen niemals für ein System was insgesamt maximal 420 Watt verbraucht!

Gast
2006-11-08, 19:04:42
Ich habe jetzt mal versucht, die Fear-Szenen nachzustellen. Das Bild auf dem R580 ist deutlich besser als in dem Artikel! Keine Ahnung, was die da verbockt haben.
http://666kb.com/i/aj2ow3uumnkngxyz1.jpg
Das ist nicht die gleiche Stelle und auch der Winkel ist ein anderer, aber schlimmer als auf meinem Bild kriege ich es nicht hin, egal, wie ich zur Wand stehe. Treiber ist der Catalyst 6.10, AF ist bei dem Bild nur auf 8x, A.I. Standard.

du musst viel flacher zur wand stehen, wer weiß ob bei dieser texturverzerrung überhaupt schon der maximal eingestellte AF-grad zum tragen kommt.

dargo
2006-11-08, 19:07:53
nur weil ATI draufsteht heißt es noch lange nicht dass es auf einer anderen ATI-architektur auch schnell läuft bzw. nicht zwangsweise dass es auf einer NV-architektur schlecht läuft.

Es ist aber schon seltsam, dass zwei Xbox 360 Games so schlecht auf dem G7x performen oder? :rolleyes:

dir is schon aufgefallen das die so ein gammeliges peltier element verwenden?

ich persönlich mag die peltier elemente garnicht!! :|
Verdammt, das habe ich übersehen. Ich nehme meine Aussage zurück.

Banshee18
2006-11-08, 19:09:36
Mach das ganze bitte nochmal mit 16xAF.
Ich habe mir gedacht, dass das kommt wegen den LOD Problemen.:biggrin: Es sieht aber auch mit 16xAF nicht schlechter aus.
http://666kb.com/i/aj2pheqnkzu3sunnx.jpg
Es ist leider nicht exakt die gleiche Stelle, da ich da nicht gespeichert habe, aber da ist nichts gestellt. Die schlechte Qualität ist nicht zu erreichen.

Mr. Lolman
2006-11-08, 19:10:14
egal wie sie es gelöst haben solange es besser implementiert wurda als bei ati. die ständige treiberfrickelei würde mir beim gamen noch den letzten nerv rauben.

mfg

Was für eine Frickelei? Bisher hat man einfach den Chuck Treiber installiert, anstatt den normalen Catalyst.

Wieso sagt keiner was zu den Pics (Oblivion) hat es euch die Sprache verschlagen?
HQ AF.......

Weil die Pics absolut übel komprimiert sind.

Noch viel beeindruckender:
http://666kb.com/i/aj2n4bojef110n64l.png
:eek:Ich habe jetzt mal versucht, die Fear-Szenen nachzustellen. Das Bild auf dem R580 ist deutlich besser als in dem Artikel! Keine Ahnung, was die da verbockt haben.
http://666kb.com/i/aj2ow3uumnkngxyz1.jpg
Das ist nicht die gleiche Stelle und auch der Winkel ist ein anderer, aber schlimmer als auf meinem Bild kriege ich es nicht hin, egal, wie ich zur Wand stehe. Treiber ist der Catalyst 6.10, AF ist bei dem Bild nur auf 8x, A.I. Standard.

Wahrscheinlich wars wiedermal kaputtes App-AF. Mit Treiber-AF sieht die Szene garantiert astrein aus. Auch mit aktivem AI, da das (texturabhängig) ja 'bloß' einen brilinearen Filter aktiviert:


Das sieht mir sehr neach brilinearem Filter aus... in den Screenies fällt's halt nicht auf, weil die erste MipMap-Schwelle ziemlich weit hinten ist und eben keine Winkelabhängigkeit da ist.

Seh ich genauso. Ehrlich gesagt wundert es mich ein bisschen, dass du (quasi (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4955483#post4955483)) der Erste bist, dem das auffällt. :wink:

The_Invisible
2006-11-08, 19:13:23
Was für eine Frickelei? Bisher hat man einfach den Chuck Treiber installiert, anstatt den normalen Catalyst.

lies doch selber im ati forum

mit einer version gehts, mit der anderen nicht, dann muss man manchmal .exe renaming betreiben -> nein danke

mfg

Blaire
2006-11-08, 19:14:19
Ich habe mir gedacht, dass das kommt wegen den LOD Problemen.:biggrin: Es sieht aber auch mit 16xAF nicht schlechter aus.
Es ist leider nicht exakt die gleiche Stelle, da ich da nicht gespeichert habe, aber da ist nichts gestellt. Die schlechte Qualität ist nicht zu erreichen.

Achte mal auf die groben Stellen an der Wand...

Mr. Lolman
2006-11-08, 19:15:46
lies doch selber im ati forum

mit einer version gehts, mit der anderen nicht, dann muss man manchmal .exe renaming betreiben -> nein danke

mfg

Oblivion hat immer funktioniert. Mal abgesehen davon, dass es eigentlich Sache der Entwickler wäre, gleich das 'richtige' Rendertarget zu verwenden ;)

The_Invisible
2006-11-08, 19:16:53
Achte mal auf die groben Stellen an der Wand...

sieht aus wie hier wobei der kontrast höher ist -> http://enthusiast.hardocp.com/image.html?image=MTE2Mjg1NDM5NDdlWWVIY2F3WlVfMTRfN19sLnBuZw==

auch hier filtert g80 sauberer

mfg

dargo
2006-11-08, 19:16:57
lies doch selber im ati forum

mit einer version gehts, mit der anderen nicht, dann muss man manchmal .exe renaming betreiben -> nein danke

Genau das ist es was mich so aufregt. HDR+AA in Call of Juarez funzt nur mit Cat. 6.8 und Chucky. Momentan sind wir aber schon bald beim Cat. 6.11 angelangt.
Aber ich bin guter Hoffnung, dass sich ATI jetzt nach dem G80 Launch mehr Mühe diesbezüglich machen wird.

Gast
2006-11-08, 19:17:17
Es ist aber schon seltsam, dass zwei Xbox 360 Games so schlecht auf dem G7x performen oder? :rolleyes:



schon komisch dass wesentlich mehr xbox360-games keine probleme machen ;)

Mr. Lolman
2006-11-08, 19:17:49
Achte mal auf die groben Stellen an der Wand...

1. kann das am Shader liegen. Es ist wie gesagt nicht die gleiche Szene.
2. ist der Screenshot mit 100kB 1280x1024 viek zu stark komprimiert.

Gast
2006-11-08, 19:18:21
Ich habe mir gedacht, dass das kommt wegen den LOD Problemen.:biggrin: Es sieht aber auch mit 16xAF nicht schlechter aus.
Es ist leider nicht exakt die gleiche Stelle, da ich da nicht gespeichert habe, aber da ist nichts gestellt. Die schlechte Qualität ist nicht zu erreichen.

Es ist nicht die gleiche Stelle und der Winkel zur wand ist viel steiler als auf deinen Bildern..

dargo
2006-11-08, 19:18:52
schon komisch dass wesentlich mehr xbox360-games keine probleme machen ;)
Welche?

Banshee18
2006-11-08, 19:21:35
du musst viel flacher zur wand stehen, wer weiß ob bei dieser texturverzerrung überhaupt schon der maximal eingestellte AF-grad zum tragen kommt.
Das spielt keine Rolle. Schlechter als auf meinem Bild bekommt man die IQ mit Treiber-AF nicht hin.
Achte mal auf die groben Stellen an der Wand...
Und? Man bedenke, dass die JPG-Kompression die Bildqualität auch nochmal verschlechtert. Ein wenig schlechter scheint die IQ bei ATi aber dennoch zu sein. Ohne A.I. siehts vielleicht wieder ganz anders aus.
Wahrscheinlich wars wiedermal kaputtes App-AF. Mit Treiber-AF sieht die Szene garantiert astrein aus. Auch mit aktivem AI, da das (texturabhängig) ja 'bloß' einen brilinearen Filter aktiviert:
Der Kandidat erhält 99 Punkte. Mit 100 hätte es so viele Waschmaschinen gegeben, wie du nach Hause tragen kannst.;)
16xApp-AF
http://666kb.com/i/aj2pprl030izp3t59.jpg

dargo
2006-11-08, 19:24:49
Oje, also eine glatte Fehlinformation seitens hardocp.com. Naja, kann passieren.

Gast
2006-11-08, 19:26:15
Der Kandidat erhält 99 Punkte. Mit 100 hätte es so viele Waschmaschinen gegeben, wie du nach Hause tragen kannst.;)
16xApp-AF
http://666kb.com/i/aj2pprl030izp3t59.jpg

interessant, ATI optimiert bei APP-AF mehr, war eigentlich mal umgekehrt ;)

Banshee18
2006-11-08, 19:26:56
sieht aus wie hier wobei der kontrast höher ist ->
Nein, es sieht besser aus.

Razor
2006-11-08, 19:28:35
Seh ich genauso. Ehrlich gesagt wundert es mich ein bisschen, dass du (quasi (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4955483#post4955483)) der Erste bist, dem das auffällt. :wink:

Tjo... des kannte ich noch gar net.
Aber immerhin ein Beleg dafür, dass mich die GF7 noch nicht ganz 'verdorben' hat, gell?
:biggrin:

Aber scheint hier ja niemanden zu interessieren... schade eigentlich.
Für diejenigen, die es 'übersprungen' haben und es vielleicht doch noch interessiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4965809#post4965809

Der Rest ist mir eigentlich ziemlich wurscht, vor allem, weil noch keinerlei Aussagen zur Kompatibilität vorliegen. Offenbar gab es von nVidia wieder ein Game-"Portfolio", damit die Reviewer nicht über Games stolpern, bei denen es ganz offensichtlich noch Probleme gibt.

Und wenn ich das richtig sehe, wurde bis dato mit 3 verschiedenen Treibern getestet:
- 96.89
- 96.94
- 96.97
letzteren 'kenne' ich noch gar nicht... ;)

Aber auch das ist ein Zeichen dafür, dass hier noch "Instant-Entwicklung" betrieben wird.
Mal schaun', wann die ersten 'echten' User-Erfahrungen kommen, die noch mehr kennen, als mit dem Murks zu 'spielen', gell?

Razor

dargo
2006-11-08, 19:28:43
interessant, ATI optimiert bei APP-AF mehr, war eigentlich mal umgekehrt ;)
Ist nicht APP-AF = standard AF?
Das würde dann auch das gute Ergebnis vom G80 erklären.

F5.Nuh
2006-11-08, 19:31:01
Ich habe jetzt mal versucht, die Fear-Szenen nachzustellen. Das Bild auf dem R580 ist deutlich besser als in dem Artikel! Keine Ahnung, was die da verbockt haben.
http://666kb.com/i/aj2ow3uumnkngxyz1.jpg
Das ist nicht die gleiche Stelle und auch der Winkel ist ein anderer, aber schlimmer als auf meinem Bild kriege ich es nicht hin, egal, wie ich zur Wand stehe. Treiber ist der Catalyst 6.10, AF ist bei dem Bild nur auf 8x, A.I. Standard.

Das ist iergendwie immer so kurz vorm releas einer nv graka.. ist mir total aufgefallen... immer diese tollen reviews AAAAAHHH XXX MAL SCHNELLER UND XX MAL BESSERES AF UND AA UND PERFORMANCE... SCHACHSINNNNNNNNN

mich regt sowas total auf andere hersteller down zu machen mit nicht richtigen und echten ergebnissen... total lächerlich und typsich fanboy style.

P.S.

http://enthusiast.hardocp.com/images/articles/11628543947eYeHcawZU_6_4_l.png

Der standard AF von der ATi sieht 100%ig NICHT so aus.. naja ist immer wieder das selbe.

Ronny145
2006-11-08, 19:32:15
Und wenn ich das richtig sehe, wurde bis dato mit 3 verschiedenen Treibern getestet:
- 96.89
- 96.94
- 96.97
letzteren 'kenne' ich noch gar nicht... ;)

Aber auch das ist ein Zeichen dafür, dass hier noch "Instant-Entwicklung" betrieben wird.
Mal schaun', wann die ersten 'echten' User-Erfahrungen kommen, die noch mehr kennen, als mit dem Murks zu 'spielen', gell?

Razor


Den 96.41 auch noch.

http://www.gamepyre.com/reviewsd.html?aid=783&p=10

The_Invisible
2006-11-08, 19:33:47
Der standard AF von der ATi sieht 100%ig NICHT so aus.. naja ist immer wieder das selbe.

doch da

standard = winkelabhängig

mfg

dildo4u
2006-11-08, 19:33:57
.

Der standard AF von der ATi sieht 100%ig NICHT so aus.. naja ist immer wieder das selbe.
Wie sonst? das ATI AF ist halt nur bei HQ Winkelunabhänig mit dem Vergleich stimmt soweit eigentlich alles.

Banshee18
2006-11-08, 19:34:21
Ist nicht APP-AF = standard AF?
Das würde dann auch das gute Ergebnis vom G80 erklären.
Wie meinen?:confused:
Der standard AF von der ATi sieht 100%ig NICHT so aus.. naja ist immer wieder das selbe.
Doch, ich denke schon. Was sollte anders aussehen? Standard bei ATi ist stark winkelabhängiges AF.

Falls noch Zweifel an meinen Bildern besteht, kann ich gerne das Savegame hochladen, einfach melden.=)

AnarchX
2006-11-08, 19:34:39
und wenn wasser net reicht:
http://resources.vr-zone.com//newspics/Nov06/08/Sparkle/card_P880_D.jpg

Das ist doch der Kühler der GeCube X1950Pro FZ-Cool:
http://www.geizhals.at/deutschland/a224092.html
:|
War aber schon klar, dass dieser noch eine ganz andere Bestimmung hat..

btw. Die Quelle zu deinem Bild:
http://www.vr-zone.com/index.php?i=4271 ;)

Razor
2006-11-08, 19:36:04
Der standard AF von der ATi sieht 100%ig NICHT so aus.. naja ist immer wieder das selbe.

Aber natürlich!
Das "Standard"-AF von ATI ist genauso winkelabhängig, wie das von nVidia (bis GF7 ;-).

DAS war ja der Krux... wuAF hat man nur bekommen, wenn man ALLE "Optimierungen" (auch die 'guten' und damit Essentials, wie Gamefixes etc.) abschaltet... i.e. AI off.

Bin ja mal gespannt, ob ATI das jetzt endlich mal ändert.
Ist IMO eine Farce, die qualitätsbewußten ATI-User so zu gängeln.

Razor

Razor
2006-11-08, 19:38:02
Den 96.41 auch noch.
http://www.gamepyre.com/reviewsd.html?aid=783&p=10

Oh ha... wo ham 'se den den ausgegraben?
:confused:

Der Version nach ist der Uuuuuralt!

Razor

Zapat
2006-11-08, 19:38:28
Kann bitte einer alle Reviews auf der 1 Seiter beim anfangspoting verfassen.?

Banshee18
2006-11-08, 19:39:06
DAS war ja der Krux... wuAF hat man nur bekommen, wenn man ALLE "Optimierungen" (auch die 'guten' und damit Essentials, wie Gamefixes etc.) abschaltet... i.e. AI off.
Willst du diese Aussage nicht nochmal überdenken?;)

Razor
2006-11-08, 19:42:02
Kann bitte einer alle Reviews auf der 1 Seiter beim anfangspoting verfassen.?

Wozu?

Hier gibt's eine ganz gute Zusammenfassung:
http://www.nvnews.net/
http://www.warp2search.net/modules.php?name=News&file=article&sid=30532
(die meisten waren eben noch 'offline' ;-)
Und noch einer:
http://www.warp2search.net/modules.php?name=News&file=article&sid=30530

Razor

Willst du diese Aussage nicht nochmal überdenken?;)

Nö.

Razor

Black-Scorpion
2006-11-08, 19:43:01
DAS war ja der Krux... wuAF hat man nur bekommen, wenn man ALLE "Optimierungen" (auch die 'guten' und damit Essentials, wie Gamefixes etc.) abschaltet... i.e. AI off.
Razor
Falsch

Um das zu wissen brauch ich nichtmal eine X1x00er Karte.

Gast
2006-11-08, 19:44:06
DAS war ja der Krux... wuAF hat man nur bekommen, wenn man ALLE "Optimierungen" (auch die 'guten' und damit Essentials, wie Gamefixes etc.) abschaltet... i.e. AI off.


nicht ganz, WU-AF kann man unabhängig von den restlichen optimierungen ein- und ausschalten.

Banshee18
2006-11-08, 19:44:56
Nö.

Razor
Das solltest du aber, denn sie ist falsch. Für winkelunabhängigeres AF, auch Area-AF genannt, musst du keine "Optimierungen" ausschalten, das geht mit jeder A.I.-Stufe. Was du meinst, ist der brilineare Filter und andere Flimmerprobleme. Dafür muss man A.I. ausschalten.
€: Das geht zu schnell hier....

F5.Nuh
2006-11-08, 19:46:57
Wie sonst? das ATI AF ist halt nur bei HQ Winkelunabhänig mit dem Vergleich stimmt soweit eigentlich alles.

Also ich habs nicht so in errinerung... hab zwar nicht eine 1900xt aber eine x800xt PE.

Wenn ich wirklich falsch liegen sollte... (was ich gleich testen werde bei HL²) dann werde ich mich für meinen kleinen aufreger entschuldigen.. aber mal ehrlich es wird echt immer übertreiben bei Nvidia wenn es ums hypen geht.

dildo4u
2006-11-08, 19:47:16
Das Topic heißt übrigenz G80 Review Thread und nicht was macht A.I off oder warum kann ich mein R580 nicht richtig einstellen. :rolleyes:

Super Grobi
2006-11-08, 19:48:51
Das Topic heißt übrigenz G80 Review Thread und nicht was macht A.I off oder warum kann ich mein R580 nicht richtig einstellen. :rolleyes:

Da hast du recht, aber man findet leichter die Nadel im Heuhaufen, als hier die Reviews :|

SG

Raff
2006-11-08, 19:50:04
Seh ich genauso. Ehrlich gesagt wundert es mich ein bisschen, dass du (quasi (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4955483#post4955483)) der Erste bist, dem das auffällt. :wink:

Neben dem Ati-Shot, der ein ganz eigenartiges LOD hat, schaut das aber noch immer sehr gut aus. Wo bleiben Highres-Videos vom G80-AF?

Das solltest du aber, denn sie ist falsch. Für winkelunabhängigeres AF, auch Area-AF genannt, musst du keine "Optimierungen" ausschalten, das geht mit jeder A.I.-Stufe.

Sicher? ;)

€: Das geht zu schnell hier....

Allerdings ...

MfG,
Raff

d2kx
2006-11-08, 19:51:02
Bin mal gespannt ob es in 10 Minuten viele neue Reviews zu "The Beast" gibt. Auch wenn ich denke, dass die Radeon X2800 schneller sein wird.

Godmode
2006-11-08, 19:51:47
Neben dem Ati-Shot, der ein ganz eigenartiges LOD hat, schaut das aber noch immer sehr gut aus. Wo bleiben Highres-Videos vom G80-AF?



Sicher? ;)



Allerdings ...

MfG,
Raff

Und wo bleibem High-Res Videos der G80 Techdemo?

Gast
2006-11-08, 19:52:41
ein ordentlicher texturfilter ist ja im prinzip schon antialiasing, da braucht man kein ineffizientes supersampling mehr.Für vernünftige Texturen in Kombination mit vernünftigen Shadern? Nein, da wirklich nicht. Für zu hochfrequente Texturen in Apps, wo der Brifilter sich nicht abschalten lässt? Da schon. Für Flimmershader? Da wirkt nix anderes als SSAA. Effizienz ist immer das Erreichen hinreichender Effektivität bei geringerem Leistungsbedarf. Wird hinreichende Effektivität nicht erreicht ist etwas auch nicht effizient.

Moralelastix
2006-11-08, 19:53:53
Argg!

Wie machen die das bei HardOcp immer tröpfchenweise.....


Is aber bis jetzt der beste Artikel.
(Stand 19:55 ;D )


Anstrengen Aths!:biggrin:


Jetzt: http://www.guru3d.com/article/Videocards/391/

Mr. Lolman
2006-11-08, 19:59:39
Neben dem Ati-Shot, der ein ganz eigenartiges LOD hat, schaut das aber noch immer sehr gut aus.

Wie gesagt: Zeig mir mal ne Ingameszene wo das sichtbar ist.

BTW:

R580 16xHQ AF:
http://666kb.com/i/aj2qtjhx2ywrbr7li.jpg

Godmode
2006-11-08, 20:00:25
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/

endlich ;)

dildo4u
2006-11-08, 20:00:57
OMG :eek: Es ist passiert und die 20000 Grenze beim 3Dmark 06 wurde geradezu gesprennt.

23000 4.8Ghz Quad Core!!! 8800GTX SLI alles natürlich extrem gekühlt.


"NVIDIA 680i SLI motherboard
Kentsfield b3/ @1.75v actual vcore/-100c loaded temps.
2 x 8800gtx SLI -40c to -45c approx 850-870/1150 Tek-9 ln2
CORSAIR DOMINATOR 8888 2gb"

http://www.overclockingpin.com/23k%2006%20system%20clocks%20mark%201.jpg

Kein Witz das ist der 05 30000 Punkte :eek:

http://www.overclockingpin.com/30449%20system%20clocks%20screen%20mark%201.jpg

http://www.xtremesystems.org/forums/showthread.php?t=122394

[](-__-)[]
2006-11-08, 20:07:40
Bisle entäuschend, die Perfomance bei Computer Base.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/1/#abschnitt_einleitung

Banshee18
2006-11-08, 20:09:25
Sicher? ;)
Klär´ mich auf.

dildo4u
2006-11-08, 20:09:50
(-__-)[]']Bisle entäuschend, die Perfomance bei Computer Base.


Die Karte ist bei 1600*1200 4XAA 8XAF 40% schneller dabei nutzt CB "nur" ein FX60 mit einem Intel Core 2 Extreme wärs sicher mher.Man gucke sich mal z.B den BF2 Bench an von 1280*1024 no AA no AF auf 1600*1200 4XAA 8XAF verliert die 8800GTX ganze 3 fps CPU limit ahoi.

Super Grobi
2006-11-08, 20:11:33
Mmm,
in Oblivion rennt die GTX ja gut, wenn man kein AF und AA nutzt. Wenn man 4x16x nutzt, geht das Game selbst mit dieser Karte in den Keller.

SG

[](-__-)[]
2006-11-08, 20:11:58
Die Karte ist bei 1600*1200 4XAA 8XAF 40% schneller dabei nutzt CB "nur" ein FX60 mit einem Intel Core 2 Extreme wärs sicher mher.

Ja stimmt. Aber so richtig aufdrehen tut sie erst bei ulltra hohen Auflösungen.

Telema
2006-11-08, 20:12:26
Bei Standardauflösungen + AMD´s X2 = kein Grund für mich aufzurüsten

FluFFy80
2006-11-08, 20:15:51
Aths du hast vergessen den Artikel auf der Startseite zu verlinken :biggrin:

Gast
2006-11-08, 20:16:57
Anscheinend gibts kein TSSAA mehr über 4xAA?
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/8/#abschnitt_aa_und_af_skalierung

Hab bisher nirgends einen 8xAA +TSAA Bench gesehen... Obwohl ja Computerbase NUR mit TSAA Bencht.

@Grobi, das is wie bei Serious Sam2, TSAA killt jede Karte bei dem vielen Alphablending durch das Gras.

SKYNET
2006-11-08, 20:17:41
Und wenn Luft nicht genug ist....

http://www.hummercommunity.com/files/hfpics/8800GTX_768_PCIe_WC.jpg

http://www.hummercommunity.com/files/hfpics/8800GTX_768_PCIe_WC_Side.jpg

taktraten?

James Ryan
2006-11-08, 20:19:20
Na klingt doch alles recht gut:
Superbe Bildqualität, ein leiser Lüfter, gute Geschwindigkeit, NVIDIA ist wieder da! ;D

MfG :cool:

Razor
2006-11-08, 20:20:34
Das solltest du aber, denn sie ist falsch. Für winkelunabhängigeres AF, auch Area-AF genannt, musst du keine "Optimierungen" ausschalten, das geht mit jeder A.I.-Stufe. Was du meinst, ist der brilineare Filter und andere Flimmerprobleme. Dafür muss man A.I. ausschalten.

"winkelunabhängigeres AF"?
Ich meinte eigentlich die maximal mit ATI mögliche Winkelunabhängigkeit...
...so wie auf dem AF-Tester-Bildchen gezeigt.

Sollte es sein, dass ich das so falsch in Erinnerung habe?
Ist schon einige Zeit her, dass ich 'ne X1900XT im Rechner hatte... und das auch nur recht kurz.

€: Das geht zu schnell hier....

Jup.

Razor

Mr. Lolman
2006-11-08, 20:20:34
(-__-)[]']Bisle entäuschend, die Perfomance bei Computer Base.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/1/#abschnitt_einleitung

Schade dass sie keine GTS gebencht haben.

Die Karte ist bei 1600*1200 4XAA 8XAF 40% schneller dabei nutzt CB "nur" ein FX60 mit einem Intel Core 2 Extreme wärs sicher mher.Man gucke sich mal z.B den BF2 Bench an von 1280*1024 no AA no AF auf 1600*1200 4XAA 8XAF verliert die 8800GTX ganze 3 fps CPU limit ahoi.

Sieht man auch daran, dass sich der Abstand bei steigender Last/Auflösung vergrößert. Andererseits auch arg, wie ATI mittlerweile im GX2 Revier wütet:

[](-__-)[]
2006-11-08, 20:22:10
Für mich ist nur das interessant.

http://img103.imageshack.us/img103/1751/unbenanntcv9.png

dildo4u
2006-11-08, 20:24:11
Computerbase verspricht noch ein Nachtest mit einem Core 2 Extreme X6800


"Dabei tritt allerdings in niedrigen Qualitätseinstellungen ein Problem auf, mit dem sicher viele Käufer zu kämpfen haben werden: Die CPU limitiert selbst in jenen Settings, wo die bisherigen Spitzenmodelle schon anfingen einzubrechen. Dementsprechend werden wir in Kürze einen Nachtest mit einem Core 2 Extreme X6800 durchführen, um das Potenzial der Einzelkarte sowie die des SLI-Gespanns besser zeigen zu können."

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/36/#abschnitt_fazit

Gast
2006-11-08, 20:26:22
(-__-)[]']Für mich ist nur das interessant.

http://img103.imageshack.us/img103/1751/unbenanntcv9.png

Falsch diese Benchmarks aber mit 16xCSAA hät ich gerne, DAS ist interessant ^^

Super Grobi
2006-11-08, 20:26:42
Bin ich zu blöd GTS Reviews zu finden? Die GTX interessiert mich NICHT, den ich zahle keine +1200 DM für eine Graka ;)

SG

Raff
2006-11-08, 20:26:56
auf das hybride SSAA muss der G80-Käufer allerdings verzichten.


http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/4/

Whaaat!? Steht das noch woanders?

MfG,
Raff

Gast
2006-11-08, 20:27:10
(-__-)[]']Für mich ist nur das interessant.

http://img103.imageshack.us/img103/1751/unbenanntcv9.png

Kann man eine 8800GTS mit der 7950GX2 vergleichen? +/- %

dargo
2006-11-08, 20:27:23
Das finde ich auch sehr beeindruckend:

http://img529.imageshack.us/img529/2117/afrc9.png

Gast
2006-11-08, 20:30:04
Mmm,
in Oblivion rennt die GTX ja gut, wenn man kein AF und AA nutzt. Wenn man 4x16x nutzt, geht das Game selbst mit dieser Karte in den Keller.

SG

das liegt bei CB an TSSAA, bei oblivion wird da ja praktisch das ganze bild mit supersampling gerendert ;)

deekey777
2006-11-08, 20:30:55
Bestimmt nicht uninteressant: Nvidia G80 Image Quality Investigation (http://www.3declipse.com//content/view/34/9/) bei 3DEclipse
Achtet mal an das kleine Bildchen. ;)

Gast
2006-11-08, 20:31:14
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/4/

Whaaat!? Steht das noch woanders?

MfG,
Raff

Das einzige was bekannt ist, das die Hybriden nicht atm anwählbar sind, keins der Tweak Tools funktioniert und im Treiber sind nur die Standart Modi + CSAA vorhanden.
Du müsstest doch derjenige sein der sowas schneller rausfindet als die Ottonormalreview Leser ohne connections ^^

Gast
2006-11-08, 20:31:19
Sieht man auch daran, dass sich der Abstand bei steigender Last/Auflösung vergrößert. Andererseits auch arg, wie ATI mittlerweile im GX2 Revier wütet:

naja, wenn man G7x@HQ-AF gegenüber AI-standard vergleicht kein wunder.

AnarchX
2006-11-08, 20:31:33
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/4/

Whaaat!? Steht das noch woanders?

Naja im Panel ist es wohl nun deaktiviert sein, aber hoffen wir doch das Regestry-Schalter noch aktiv sind...;)

Mr. Lolman
2006-11-08, 20:32:05
Das finde ich auch sehr beeindruckend:

http://img529.imageshack.us/img529/2117/afrc9.png

ACK, wenn man sieht, wie stark ATI beim wuAF einbricht...

Andererseits kann man angesichts der Ergebnisse auch nachvollziehen, warum überhauptmal auf waAF gesetzt wurde.

Gast
2006-11-08, 20:32:27
Bestimmt nicht uninteressant: Nvidia G80 Image Quality Investigation (http://www.3declipse.com//content/view/34/9/) bei 3DEclipse
Achtet mal an das kleine Bildchen. ;)

Du meinst den AA Tester? Sieht man bei Beyond3d besser: http://www.beyond3d.com/reviews/nvidia/g80-arch/images/16xcsaa-samples.png

[](-__-)[]
2006-11-08, 20:32:34
Heilige Scheiße!

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/20/

Mr. Lolman
2006-11-08, 20:32:46
(-__-)[]']Heilige Scheiße!

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/20/

Was? Der Speed, oder der Einbruch mit TSAA?

naja, wenn man G7x@HQ-AF gegenüber AI-standard vergleicht kein wunder.

Ja warum nicht, wenns optisch vergleichbar ist... :rolleyes:

Gast
2006-11-08, 20:33:26
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/4/

Whaaat!? Steht das noch woanders?


dass die hybriden modi aus dem treiberpanel fliegen war doch zu erwarten, gibt ja schließlich beim G7x offiziell auch kein 4xS mehr.

Banshee18
2006-11-08, 20:33:56
"winkelunabhängigeres AF"?
Ich meinte eigentlich die maximal mit ATI mögliche Winkelunabhängigkeit...
...so wie auf dem AF-Tester-Bildchen gezeigt.

Sollte es sein, dass ich das so falsch in Erinnerung habe?
Ist schon einige Zeit her, dass ich 'ne X1900XT im Rechner hatte... und das auch nur recht kurz.



Jup.

Razor
Wir meinen schon das gleiche "wu-AF". 100% winkelunabhängiges AF gibts nicht, die AF-Blume müsste dazu ein perfekter Kreis sein. Klingt kleinlich, ist aber so. aths hat mich da auch mal angepflaumt.;)

The_Invisible
2006-11-08, 20:34:00
Computerbase: Somit bietet der G80-Grafikprozessor in der Default-Einstellung des Treibers die beste Texturfilterung von allen derzeit erhältlichen 3D-Beschleunigern. Eine Winkelabhängigkeit ist nicht vorhanden und das Flimmerproblem wurde beinahe gänzlich behoben. Zudem fallen die aktiven Optimierungen nur gering auf. Aufgrund dessen werden wir alle zukünftigen Grafikkarten, die mit einer G8x-GPU ausgerüstet sind, mit den Standardeinstellungen des Treibers testen. „High-Quality“ bietet zwar ein leicht besseres Bild, wäre aber noch weniger vergleichbar zu den restlichen Grafikkarten, was nicht Sinn eines fairen Vergleichstest sein kann. Da es auf dem R5x0 von ATi ebenfalls möglich ist, eine beinahe winkelunabhängige Texturfilterung zu aktiveren, werden wir dieses Feature in Zukunft nutzen, um die grafischen Unterschiede der einzelnen Karten möglichst gering zu halten. In diesem Artikel arbeiten die GPUs der Kanadier allerdings noch mit dem schnelleren anisotropen Filter, was wir in einem in Kürze erscheinenden Artikel aber ändern werden.

AF war bei ATI also noch winkelabhängig bei dem test, zudem könnte man da auch gleich mit A.I. off testen

mfg

[](-__-)[]
2006-11-08, 20:35:55
Was? Der Speed, oder der Einbruch mit TSAA?


Der Speed! Die 7950 GT, ganz unten nur mit 2.1 Frames. ;D

dildo4u
2006-11-08, 20:37:44
Computerbase: Somit bietet der G80-Grafikprozessor in der Default-Einstellung des Treibers die beste Texturfilterung von allen derzeit erhältlichen 3D-Beschleunigern. Eine Winkelabhängigkeit ist nicht vorhanden und das Flimmerproblem wurde beinahe gänzlich behoben. Zudem fallen die aktiven Optimierungen nur gering auf. Aufgrund dessen werden wir alle zukünftigen Grafikkarten, die mit einer G8x-GPU ausgerüstet sind, mit den Standardeinstellungen des Treibers testen. „High-Quality“ bietet zwar ein leicht besseres Bild, wäre aber noch weniger vergleichbar zu den restlichen Grafikkarten, was nicht Sinn eines fairen Vergleichstest sein kann. Da es auf dem R5x0 von ATi ebenfalls möglich ist, eine beinahe winkelunabhängige Texturfilterung zu aktiveren, werden wir dieses Feature in Zukunft nutzen, um die grafischen Unterschiede der einzelnen Karten möglichst gering zu halten. In diesem Artikel arbeiten die GPUs der Kanadier allerdings noch mit dem schnelleren anisotropen Filter, was wir in einem in Kürze erscheinenden Artikel aber ändern werden.

AF war bei ATI also noch winkelabhängig bei dem test, zudem könnte man da auch gleich mit A.I. off testen

mfg

Schade dann ist der komplette Benchteil des Artikels fürn Arsch. :(

Mr. Lolman
2006-11-08, 20:39:12
Schade dann ist der komplette Benchteil des Artikels fürn Arsch. :(

Warum? Nur weil man bei ATi mit waAF gebencht hat? Was vgl. zum G7x ja durchaus fair ist?

Imo darf man dann fortan die G7x nur mehr unter Vorbehalt in die Benchmarklisten mitaufnehmen, sollte man den R5x0 ab jetzt auch mit wuAF benchen...

Gast
2006-11-08, 20:39:20
Andererseits kann man angesichts der Ergebnisse auch nachvollziehen, warum überhauptmal auf waAF gesetzt wurde.

naja, wirklich stark ist der vorteil nicht.

Swp2000
2006-11-08, 20:42:16
Naja ich glaub nicht das es daran liegt weil das ohne AA dafür mit HDRR ist und das sollte locker passen.Außerdem gibts auf der Seite auch die Ergebnisse in 1600*1200

8800GTX 124fps fast 100% schneller als die ATI!
8800GTS 94fps
1950XTX 64fps

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744_27.htmlWann gibts den die Kärtchen offiziel?

Mr. Lolman
2006-11-08, 20:43:02
(-__-)[]']Der Speed! Die 7950 GT, ganz unten nur mit 2.1 Frames. ;D

Lol, stimmt. Das ist eigentlich schon arg! Fast 5x schneller als NVs Vorgänger GPU :O

The_Invisible
2006-11-08, 20:43:04
Warum? Nur weil man bei ATi mit waAF gebencht hat? Was vgl. zum G7x ja durchaus fair ist?

Imo darf man dann fortan die G7x nur mehr unter Vorbehalt in die Benchmarklisten mitaufnehmen, sollte man den R5x0 ab jetzt auch mit wuAF benchen...

die fahren eh schon auf HQ. aber wenn die grafikkarten die gleichen einstellungen schon bieten sollte man das auch nutzen

mfg

dargo
2006-11-08, 20:48:11
Schade dann ist der komplette Benchteil des Artikels fürn Arsch. :(
Genau, ich habe nur gewartet bis es einem auffällt. Anscheinend waren alle nur auf Balken heiß. :D

dildo4u
2006-11-08, 20:48:45
Warum? Nur weil man bei ATi mit waAF gebencht hat? Was vgl. zum G7x ja durchaus fair ist?

Imo darf man dann fortan die G7x nur mehr unter Vorbehalt in die Benchmarklisten mitaufnehmen, sollte man den R5x0 ab jetzt auch mit wuAF benchen...Was mich interresiert ist der G80 im vergleich zur ATI diese Kindische aber der G70 darf nicht mit rein könnt ihr doch in einem extra Bash Thread ausdiskutieren.Im übrigen hoffe ich das dieser dämliche Treibereinstellungs Kleinkrieg mit dem G80 ein Ende hat.

[](-__-)[]
2006-11-08, 20:49:30
In welchen Benchmarks ist wohl die Peformance den Unified Shader zuzuschreiben?

Kann man die jetzt flexibel programmieren, je nach Spiel?

Gast
2006-11-08, 20:51:09
Immer das selbe, könnt ihr das Thema mal lassen, das nervt echt. Macht eure eignene Reviews oder sagts denen die die Reviews machen, aber meckert nicht dauernd HIER, das bringt eh nix.

Der Artikel von ChrisRay is echt interessant: http://www.3declipse.com//content/view/34/9/

Zitat für 8xAA und 16xAA: "This mode also uses 4 samples to determine the transparency AA value."
Den knüller liefert dann 16xQ: "In this mode transparency AA values will use 8 samples. It also will apply a full 8x multisampling to stencil shadowing"


Muss man TSAA nicht mehr per Hand einschalten ^^ Sollte man bei Benchmarkbetrachtungen nich vergessen, fehlt nur noch die Angabe obs die Multisampling oder die Supersampling Variante ist!!

dildo4u
2006-11-08, 20:51:31
(-__-)[]']In welchen Benchmarks ist wohl die Peformance den Unified Shader zuzuschreiben?

In jedem.

Mr. Lolman
2006-11-08, 20:52:20
naja, wirklich stark ist der vorteil nicht.

Immerhin 15% in COJ. Und früher wo die Spiele texturlastiger und die Filter unoptimierter und demnach auch performancehungriger waren, war das imo durchaus für die Balkenlänge entscheident...

die fahren eh schon auf HQ. aber wenn die grafikkarten die gleichen einstellungen schon bieten sollte man das auch nutzen

mfg

Einerseits ja, andererseits würde das die Radeongeneration nur verlangsamen und die G7x gleichzeitig besser dastehen lassen. Klarerweise wär die BQ mit dem G80 vergleichbarer, jedoch ist der R5x0 ja eigentlich Gegner des G7x und mit dem sollte er auch verglichen werden.

Aber ich kann die Argumente der Gegenseite natürlich nachvollziehen und versteif mich jetzt auch nicht so auf meine Meinung. Da ist das letzte Gastpost eh weitaus interessanter ;)

Gast
2006-11-08, 20:55:06
(-__-)[]']
Kann man die jetzt flexibel programmieren, je nach Spiel?

du brauchst die shader-alus nicht irgendwie besonders programmieren, das sind einfach ALUs die rechnen können, für was diese rechnung gebraucht wird ist komplett egal.

dildo4u
2006-11-08, 20:55:07
Immerhin 15% in COJ. Und früher wo die Spiele texturlastiger und die Filter unoptimierter und demnach auch performancehungriger waren, war das imo durchaus für die Balkenlänge entscheident...



Einerseits ja, andererseits würde das die Radeongeneration nur verlangsamen und die G7x gleichzeitig besser dastehen lassen. Klarerweise wär die BQ mit dem G80 vergleichbarer, jedoch ist der R5x0 ja eigentlich Gegner des G7x und mit dem sollte er auch verglichen werden.So lange ATI kein Gegenstück hat ist die 1900 reihe die Konkkurenz.Und auf einen fairen Test 8800GTS vs 1950XTX warten sicher viele um eine brauchbare Kaufentscheidung zu treffen müssen beide schon mit WuAF getestet werden.

dargo
2006-11-08, 20:57:47
Immer das selbe, könnt ihr das Thema mal lassen, das nervt echt. Macht eure eignene Reviews oder sagts denen die die Reviews machen, aber meckert nicht dauernd HIER, das bringt eh nix.

...

r00t
2006-11-08, 20:58:12
wurde das schon gepostet ?:
http://www.overclockingpin.com/23k%2006%20system%20clocks%20mark%201.jpg

dildo4u
2006-11-08, 20:59:44
Jap.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4966098#post4966098

deekey777
2006-11-08, 21:00:26
Warum müsst ihr über X1950XTX&AI und 7900er diskutieren, wenn es um die 8800 geht? Ob die X1950XTX mit AI on, off oder advanced mit oder ohne HQ-AF läuft, ist die 8800GTX trotzdem schneller.

r00t
2006-11-08, 21:00:49
okay sry.ich bin langsam :D


kann man eigentlich ungefähr abschätzen wie viel unified shader , in pixelpipelines entspricht ?^^

Raff
2006-11-08, 21:01:48
Hm, laut Computerbase ist die Übertaktung quasi nicht möglich. Wie schaut es bei der GTS aus? Die sollte eigentlich ähnliche Reserven haben. Wurde das irgendwo getestet? Mit 600 MHz wäre sie sicher ein ganz nettes Teilchen. =)

Warum müsst ihr über X1950XTX&AI und 7900er diskutieren, wenn es um die 8800 geht? Ob die X1950XTX mit AI on, off oder advanced mit oder ohne HQ-AF läuft, ist die 8800GTX trotzdem schneller.

Also mir geht es aktuell nur um die BQ. Dass der G80 sauschnell ist, ist klar.

MfG,
Raff

Gast
2006-11-08, 21:02:06
okay sry.ich bin langsam :D


kann man eigentlich ungefähr abschätzen wie viel unified shader , in pixelpipelines entspricht ?^^

nein, aber man kann es ausrechnen. dann hat man wieder einen äpfel-birnen vergleich, so dass man es doch lieber gleich lassen sollte.

die maddleistung sind etwa 345 gflops, madd+mul sind ca. 520.

Mr. Lolman
2006-11-08, 21:02:35
So lange ATI kein Gegenstück hat ist die 1900 reihe die Konkkurenz.Und auf einen fairen Test 8800GTS vs 1950XTX warten sicher viele um eine brauchbare Kaufentscheidung zu treffen müssen beide schon mit WuAF getestet werden.

ACK. Damit hast du vollkommen recht. Andererseits steht die Kaufentscheidung auch in Relation zum Preis. Und da hat die 8800GTX ohnehin ihr eigenes Revier. Hab GTX anstatt GTS gelesen, sry Im Bereich der X19x0 Reihe liegen momenten eher div. G7x Karten. Deswegen ist das imo auch kein Trivialthema.

Es ist aber berechtigt!

Am Beispiel von Call of Duty 2. Laut CB sieht es so in 1600x1200 4xAA/16xAF aus:

G8800GTX = 40,4fps
X1950XTX = 31fps

Bei der ATI bleiben aber nur noch 68,7% von den 31fps über, würde man (gerechterweise) das 16x WU-AF nutzen.

40,7fps zu 22,3fps sieht schon ganz anders aus. ;)

Du musst von den 79.6 wegrechnen und damit bleiben 86, 3%. Wären dann ~26.8 fps. Trotzdem eigentlich ein großer Unterschied...

Black-Scorpion
2006-11-08, 21:03:11
wurde das schon gepostet ?:

Ja, du bist wie fast immer zu spät.
Das wurde auf Seite 22 (Post 440) gepostet.

AnarchX
2006-11-08, 21:04:09
Hm, laut Computerbase ist die Übertaktung quasi nicht möglich. Wie schaut es bei der GTS aus? Die sollte eigentlich ähnliche Reserven haben. Wurde das irgendwo getestet? Mit 600 MHz wäre sie sicher ein ganz nettes Teilchen. =)


CB scheint wohl eine OC-Krücke erwischt zu haben, anderswo(hier [H]ardOCP) schaffte die GTX 650/1000MHz und die GTS 620/1000MHz....:wink:
Musst halt mal die Reviewliste im ersten Post durchschauen.

Mr. Lolman
2006-11-08, 21:05:11
Warum müsst ihr über X1950XTX&AI und 7900er diskutieren, wenn es um die 8800 geht? Ob die X1950XTX mit AI on, off oder advanced mit oder ohne HQ-AF läuft, ist die 8800GTX trotzdem schneller.

Die 8800GTX ist ja hauptsächlich in Relation zu den anderen GraKas so interessant ;)

r00t
2006-11-08, 21:05:38
Ja, du bist wie fast immer zu spät.
Das wurde auf Seite 22 (Post 440) gepostet.

und du bist noch viell viel langsamer...ein andrer user hat mich schon darauf hingewiesen das es schon mal gepostet wurde :D


back to topic!

Raff
2006-11-08, 21:05:59
CB scheint wohl eine OC-Krücke erwischt zu haben, anderswo schaffte die GTX 650/1000MHz und die GTS 620/1000MHz....:wink:
Musst halt mal die Reviewliste im ersten Post durchschauen.

Auch das sind bei der GTX nur 13% beim Chip. Ok, für absolutes High-End ist das gar nicht soo übel. Eine GTS mit 650+ MHz könnte mir gefallen ...

MfG,
Raff

Gast
2006-11-08, 21:06:33
kann man eigentlich ungefähr abschätzen wie viel unified shader , in pixelpipelines entspricht ?^^

man kann nicht mal zwingend pipelines untereinander vergleichen und mittlerweile kann man einfach nicht mehr von pipelines sprechen, du solltest dich von diesem begriff in zusammenhang mit grakas verabschieden.