Archiv verlassen und diese Seite im Standarddesign anzeigen : G80: Versuch Nr. 3 (erstes Posting beachten!)
Seiten :
1
2
3
4
5
[
6]
7
8
9
gguru
2006-11-03, 19:29:38
Bilder verschiedenener GTS/GTX
Woher hast du die?
Spasstiger
2006-11-03, 19:50:14
Vorbildlich finde ich auch, dass anscheinend jeder Hersteller noch einen PCIe Stromadapter beilegt, auch wenn Dieser kaum noch was kostet.
Vielleicht auch gerade weil dieser kaum was kostet.
Aber 8800-GTX-kompatible Netzteile haben i.d.R. sowieso schon zwei PCIe-Stromstecker. ;)
Woher hast du die?
Steht doch unter seinem Post:
http://we.pcinlife.com/thread-647763-1-1.html
Asiatische Webseiten sind da sehr sehr fix.
Moralelastix
2006-11-03, 20:20:32
G80 meets 80y :biggrin:
Nvidia speeds up 80nm production schedule to beat ATI
http://www.digitimes.com/bits_chips/a20061103PB208.html
Edit: Ups!
Is oben schon gepostet worden, muh. ;)
Lecker, alle schwarz. Gefällt mir. =)
MfG,
Raff
bei geizhals gibts schon ein paar und die preise gefallen mir :)
http://www.geizhals.at/eu/?such=8800gts
http://www.geizhals.at/eu/?such=8800gtx
SentinelBorg
2006-11-03, 21:08:22
Zum vorhin geposteten schlechten Idle-Wert denke ich auch, dass da der Treiber noch nicht ganz fertig ist.
Denn wenn man sich das Design so anschaut, ist imho eher zu erwarten, dass der Chip im Idle einen ziemlich niedrigen Verbrauch erreichen kann. Ist ja alles so schön in einzelne Komponenten aufgeteilt, die man sicherlich alle je nach Bedarf abschalten kann. Könnte mir sogar vorstellen, dass die Karte in der Lage ist, die ROP-Cluster und die 64 Bit Speicherkanäle samt den jeweiligen Ramchips einzeln zu deaktivieren.
Sentinel
Spasstiger
2006-11-03, 21:21:17
bei geizhals gibts schon ein paar und die preise gefallen mir :)
http://www.geizhals.at/eu/?such=8800gts
http://www.geizhals.at/eu/?such=8800gtx
Naja, die GTS unter 400 Euro und die GTX für 550 Euro und die Welt ist in Ordnung. Dann braucht auch kein Mensch mehr die 7950 GX2. ;)
Die 7900 GTO wäre dann die einzig sinnvolle DX9-Alternative von NV. Und die X1950 XTX würde dann mächtigen Druck von oben bekommen und müsste auf 300 Euro fallen.
ShadowXX
2006-11-03, 21:34:54
Lecker, alle schwarz. Gefällt mir. =)
MfG,
Raff
Alle Launch-Karten werden von Asus produziert.....das einzige was die unterscheidet ist der Aufkleber auf dem Lüfter.
http://img75.imageshack.us/img75/1630/28819tl5.jpg
BFG GeForce 8800 GTX
Das ist keine BFG, sondern eine Asus...wie man auch unschwer am Aufkleber auf dem Lüfter erkennen kann (besser gesagt an beiden Aufklebern, auf dem kleinen steht sogar Asus drauf).
horn 12
2006-11-03, 21:36:06
Wozu braucht IHR denn nun die 8800 GTS/GTX
die Games (nun auch Crysis) wurde auf mind. April 2006 verschoben, bis dahin tut es eine 7900 GTO / X1950 PRO / XT 256 auch leicht.
Bis zum Erscheinen der wirklichen Top Spiele kann man dann den Preisvorteil beider Karten G80 + R600 wirklich nutzen und bis dahin wird man sehen welche Kartengeneration den richtigen Weg eingeschlagen hat. :tongue:
Nun eine 8800 GTS/ GTX noch vor Weihnachten zu kaufen halte ich für Geldausgeberei, wenn es Mitte Februar alles viel billiger gibt (Dank des R600) und somit auch der Druck vorhanden ist. (welchen es auch bei diesen Wirklichen TOP Grafikkarten braucht, dies vorweg ) :rolleyes:
Aber lasst mal NV richtig abkassieren, den die Ati Karten waren immer schon besser im P/L Verhältnis.:smile:
Die Karten werden nicht zu tausenden an den Start gehen, und was geschieht dann mit den Preisen----- sie steigen und steigen und .....
Damit rechne ich mit ca. 480-525 GTS und GTX 620-670 Euro-:( :(
Da bekomme ich ja fast nen kompletten PC montiert.:eek:
PS: Nur als Denkanstoß, - und möchte niemanden zu Nahe treten.:wink:
Spasstiger
2006-11-03, 21:43:10
@horn12: Ich sehe das recht ähnlich, es gehört schon ne gewisse Portion Freaksein dazu, sich eine High-End-Grafikkarte direkt bei Release zu kaufen. Denn in den ersten 6 Monaten erleben die Karten normal den größten Preissturz (mit Ausnahme z.B. der 7950 GX2, welche von Anfang an ein gutes P/L-Verhältnis bot und sich auch keiner ernsthaften Konkurrenz gegenüber sah).
Werde deshalb auch erst gegen März/April einen neuen Rechner kaufen und hoffe, dass es dann auch Karten mit sehr leiser Kühlung gibt. Außerdem kann ich dann mit der ATI-Alternative vergleichen. Jetzt hat eh erstmal die Uni oberste Priorität und für dafür anfallende Anwendungen (Java-Applets, Assembler-Programmierung, E-Mail, Surfen) reicht mein jetziger Rechner mehr als aus.
ShadowXX
2006-11-03, 21:45:40
Wozu braucht IHR denn nun die 8800 GTS/GTX
die Games (nun auch Crysis) wurde auf mind. April 2006 verschoben, bis dahin tut es eine 7900 GTO / X1950 PRO / XT 256 auch leicht.
Bis zum Erscheinen der wirklichen Top Spiele kann man dann den Preisvorteil beider Karten G80 + R600 wirklich nutzen und bis dahin wird man sehen welche Kartengeneration den richtigen Weg eingeschlagen hat. :tongue:
Nun eine 8800 GTS/ GTX noch vor Weihnachten zu kaufen halte ich für Geldausgeberei, wenn es Mitte Februar alles viel billiger gibt (Dank des R600) und somit auch der Druck vorhanden ist. (welchen es auch bei diesen Wirklichen TOP Grafikkarten braucht, dies vorweg ) :rolleyes:
Aber lasst mal NV richtig abkassieren, den die Ati Karten waren immer schon besser im P/L Verhältnis.:smile:
Die Karten werden nicht zu tausenden an den Start gehen, und was geschieht dann mit den Preisen----- sie steigen und steigen und .....
Damit rechne ich mit ca. 480-525 GTS und GTX 620-670 Euro-:( :(
Da bekomme ich ja fast nen kompletten PC montiert.:eek:
PS: Nur als Denkanstoß, - und möchte niemanden zu Nahe treten.:wink:
Es gibt mehr als ein Spiel, wo ich mit der x1900xt in 1680x1050 + 4xAA + AAA + 8xHQAF an die grenzen stosse.
Und glaube mir: Es werden noch allerhand DX9-Games erscheinen (vor Crysis), die für höchste Einstellungen + hohe Auflösung - AA + TSAA eine 8800GTX benötigen werden.
Und nebenbei kann ich dann alte Perlen mit gigantischer BQ spielen. Bin mal gespannt wie sich MP2 mit 16xMSAA + AAA + 16xHQAF (WU) so macht.
Unter anderem deshalb möchte ich eine 8800GTX.....
Wozu braucht IHR denn nun die 8800 GTS/GTX
die Games (nun auch Crysis) wurde auf mind. April 2006 verschoben, bis dahin tut es eine 7900 GTO / X1950 PRO / XT 256 auch leicht.
Bis zum Erscheinen der wirklichen Top Spiele kann man dann den Preisvorteil beider Karten G80 + R600 wirklich nutzen und bis dahin wird man sehen welche Kartengeneration den richtigen Weg eingeschlagen hat.
:
Na wozu den;)
Ich will beneidet werden, es ist schon ein geiles Gefühl wenn so ne Karte im Rechner steckt.
Vorallem in so einem Forum wie 3Dcenter wird man, sozusagen, "geadelt" mit so ne Karte.
Ich bekomme sicher als einer der ersten eine Karte, dann zeige ich euch wo der penissMark06hammer hängt.
gruss.
Riplex
2006-11-03, 21:48:01
Vielleicht alt, aber ich poste es doch mal ;)
http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=88&products_id=223
589 € für ne GTX ist find ich absolut OK.
ShadowXX
2006-11-03, 21:48:12
Na wozu den;)
Ich will beneidet werden, es ist schon ein geiles Gefühl wenn so ne Karte im Rechner steckt.
Vorallem in so einem Forum wie 3Dcenter wird man, sozusagen, "geadelt" mit so ne Karte.
Ich bekomme sicher als einer der ersten eine Karte, dann zeige ich euch wo der penissMark06hammer hängt.
gruss.
Den 3DMark06 werde ich genau 1x über die Karte laufen lassen.
a.) um zu sehen ob sie vernünftig läuft
b.) das alles funktioniert
Danach nie wieder und ich werde auf nirgendwo meine Murkse posten.....warum auch.
Spasstiger
2006-11-03, 21:48:51
Vielleicht alt, aber ich poste es doch mal ;)
http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=88&products_id=223
589 € für ne GTX ist find ich absolut OK.
Bin mal gespannt, ob du das im Februar noch genauso siehst, wenn die Karte vielleicht schon 150€ weniger kostet. ;)
xL|Sonic
2006-11-03, 21:51:03
Wozu braucht IHR denn nun die 8800 GTS/GTX
die Games (nun auch Crysis) wurde auf mind. April 2006 verschoben, bis dahin tut es eine 7900 GTO / X1950 PRO / XT 256 auch leicht.
Bis zum Erscheinen der wirklichen Top Spiele kann man dann den Preisvorteil beider Karten G80 + R600 wirklich nutzen und bis dahin wird man sehen welche Kartengeneration den richtigen Weg eingeschlagen hat. :tongue:
Nun eine 8800 GTS/ GTX noch vor Weihnachten zu kaufen halte ich für Geldausgeberei, wenn es Mitte Februar alles viel billiger gibt (Dank des R600) und somit auch der Druck vorhanden ist. (welchen es auch bei diesen Wirklichen TOP Grafikkarten braucht, dies vorweg ) :rolleyes:
Aber lasst mal NV richtig abkassieren, den die Ati Karten waren immer schon besser im P/L Verhältnis.:smile:
Die Karten werden nicht zu tausenden an den Start gehen, und was geschieht dann mit den Preisen----- sie steigen und steigen und .....
Damit rechne ich mit ca. 480-525 GTS und GTX 620-670 Euro-:( :(
Da bekomme ich ja fast nen kompletten PC montiert.:eek:
PS: Nur als Denkanstoß, - und möchte niemanden zu Nahe treten.:wink:
Du kommst heutzutage bei neuen Spielen sehr schnell an die Grenzen, wenn du mit maximalen Ingamesettings spielst und damit meine ich, dass du nicht mal eben die Schatten oder Texturqualität nach unter schraubst.
Dazu noch AA + AF und die MinFPS werden des öfteren in Bereiche fallen, wo bei vielen Leuten sich die Magen umdreht (je nach Spiel geht das schon ab <60fps los). Und dafür braucht man wiederum so eine schnelle Karte, wenn man hohe Ansprüche hat.
Jemand, der auch mit 20fps zufrieden ist, braucht mit Sicherheit nicht so eine teure Karte.
cl55amg
2006-11-03, 21:51:53
Es gibt mehr als ein Spiel, wo ich mit der x1900xt in 1680x1050 + 4xAA + AAA + 8xHQAF an die grenzen stosse.
Und glaube mir: Es werden noch allerhand DX9-Games erscheinen (vor Crysis), die für höchste Einstellungen + hohe Auflösung - AA + TSAA eine 8800GTX benötigen werden.
Und nebenbei kann ich dann alte Perlen mit gigantischer BQ spielen. Bin mal gespannt wie sich MP2 mit 16xMSAA + AAA + 16xHQAF (WU) so macht.
Unter anderem deshalb möchte ich eine 8800GTX.....
Das stimmt, leider.
Company of Hereos, Gothic 3, Oblivion (HDR+AA), Need for Speed Carbon, Anno 1701...
Alles Games die eine 7800GTX @ HQ und 1280x1024 4AA/AF unter 15fps drücken, abhängig von der Situation.
Ich werde mit dem G80 nicht einmal 3DMark laufen lassen....
Bin mal gespannt, ob du das im Februar noch genauso siehst, wenn die Karte vielleicht schon 150€ weniger kostet. ;)
Hardware verliert mal nun schnell an Wert, vielleicht ist sie verkauft bis Februar mit nur 100€ verlust...
Riplex
2006-11-03, 21:53:54
Bin mal gespannt, ob du das im Februar noch genauso siehst, wenn die Karte vielleicht schon 150€ weniger kostet. ;)
Wenn ich immer darauf warten wollte bis etwas billiger werden würde, würde ich ja ewig warten ;)
Die 8800 GTX wird etwas schneller sein wie eine GX2. Ich verkaufe meine GX2 für ca. 350 € und leg noch 250 € drauf und bin wieder der King :D
Und Ja, ich verdiene mein Geld selber :)
tombman
2006-11-03, 21:55:17
Ich verkaufe meine GX2 für ca. 350 € und leg noch 250 € drauf und bin wieder der King :D
Genauso mach ich es auch, nur daß ich 2x 8800GTX kaufe ;)
Riplex
2006-11-03, 21:57:46
Genauso mach ich es auch, nur daß ich 2x 8800GTX kaufe ;)
Nee, das wär mir dann doch zuviel des guten. Aber ich gehe mal davon aus, das wir mitte 2007 sowas wie eine 8950 GX2 sehen werden ;) Dann wird meine Zeit wieder kommen :D
Eigentlich ist es ein grosser fehler zu lange mit dem Kauf einer neuen Grafikkarte zu warten. Wartet man nämlich zu lange, wird´s richtig teuer.
dildo4u
2006-11-03, 21:57:59
Genauso mach ich es auch, nur daß ich 2x 8800GTX kaufe ;)Ebend von einer GX2 auf eine 8800GTX könnnte den High-End Freak leicht entäuchen selbst Nvidia spricht von teilweise nur 25% mher Speed je nach Game.
tombman
2006-11-03, 22:00:25
Ebend von einer GX2 auf eine 8800GTX könnnte den High-End Freak leicht entäuchen selbst Nvidia spricht von teilweise nur 25% mher Speed je nach Game.
Eben, der SPrung wäre zwar da, aber ned groß genug. Und es soll ja ordentlichen Effekt geben wenn ich umrüste ;) Quad-SLI hat wegen fehlendem AFR @ D3D ja nie richtig gefunkt, aber jetzt mit 2x 8800GTX kommt man mit der Leistung sogar noch locker über Quad-SLI, nur diesmal eben MIT funkendem AFR ;)
xL|Sonic
2006-11-03, 22:02:22
Mit was für einer CPU willst du das ganze denn befeuern? Ich meine, 2 von den GTX dürften ja nur bei wirklich sehr hohen AA Modi + Auflösungen limitieren.
Spasstiger
2006-11-03, 22:02:41
Wenn ich immer darauf warten wollte bis etwas billiger werden würde, würde ich ja ewig warten ;)
Klar, darum setze ich mir ein Preislimit. Ich bin bereit, für meine nächste Grafikkarte bis zu 400 Euro auszugeben, wenn ich für das Geld auch die entsprechende Leistung bekomme. Außerdem kommt nur High-End in Frage, will mal Gothic 3 auf max. Details (vielleicht sogar @pimped-details ;)) flüssig zocken. Habs mal auf meinem jetzigen Rechner ausprobiert und bin zum Schluss gekommen, dass ich Gothic 3 jetzt nicht spielen werde. Läuft einfach bescheiden bei brauchbarer Optik und ist zudem eh noch recht stark verbugt.
Und ich will ja auch noch weit mehr als nur Gothic 3 zocken. Da wären noch Crysis, UT2007, Oblivion will ich mal weiterspielen, Duke Nukem Forever ...
Kladderadatsch
2006-11-03, 22:06:02
Wenn ich immer darauf warten wollte bis etwas billiger werden würde, würde ich ja ewig warten ;)
Die 8800 GTX wird etwas schneller sein wie eine GX2. Ich verkaufe meine GX2 für ca. 350 € und leg noch 250 € drauf und bin wieder der King :D
Und Ja, ich verdiene mein Geld selber :)
sehe ich auch so. bei echtem high-end von preis/leistungs-verhältnis zu reden ist schon ein wenig absurd.
dargo
2006-11-03, 22:06:43
Mit was für einer CPU willst du das ganze denn befeuern? Ich meine, 2 von den GTX dürften ja nur bei wirklich sehr hohen AA Modi + Auflösungen limitieren.
Ein Conroe @~4Ghz dürfte da schon bei 1600x1200 4xAA für so einige Shooter reichen. :wink:
tombman
2006-11-03, 22:09:22
Ein Conroe @~4Ghz dürfte da schon bei 1600x1200 4xAA für so einige Shooter reichen. :wink:
Ne, 1920x1200, widescreen ned vergessen. Und wenn das ned reicht geht auch 2304x1440 noch mit meinem FW900 CRT ;D
Genauso mach ich es auch, nur daß ich 2x 8800GTX kaufe ;)
bist du krass,und ich kauf 4,was sagst nu.....ohman
tombman
2006-11-03, 22:10:58
bist du krass,und ich kauf 4,was sagst nu.....ohman
Du kaufst ned mal EINE :cool:
xL|Sonic
2006-11-03, 22:11:24
Wobei tombman sich doch bestimmt noch nen Kentsfield zu den 2 GTX holen wird oder? ;)
Spieletechnisch gesehen dürften 4 Cores aber eh keinen wirklichen Unterschied machen oder?
Du kaufst ned mal EINE :cool:
Da hast Du wohl Recht. Mir kann Keiner sagen, dass er nicht gerne zwei 8800GTX hätte. Wenn man das Geld, was sprich dagegen?
dargo
2006-11-03, 22:13:21
Ne, 1920x1200, widescreen ned vergessen. Und wenn das ned reicht geht auch 2304x1440 noch mit meinem FW900 CRT ;D
Stimmt, bei WS sollten die Grakas noch stärker bei Shootern belastet werden als bei den üblichen 4:3 oder 5:4 Auflösungen.
deekey777
2006-11-03, 22:26:00
Schränkt doch die Diskussion ein, wer sich was holt. =)
Slipknot79
2006-11-03, 22:52:31
Wobei tombman sich doch bestimmt noch nen Kentsfield zu den 2 GTX holen wird oder? ;)
Spieletechnisch gesehen dürften 4 Cores aber eh keinen wirklichen Unterschied machen oder?
Spieletechnisch machen die zu Release genau Null Unterschied.
Die Hälfte der CPU pennt herum wenn ein Dual-Core Game gespielt wird.
Warten auf A. Wake ist ratsamer, und das kommt erst Ende 2007 raus, frühestens.
misterh
2006-11-03, 22:52:47
jo wie ich auch auf GTX warte.
angst macht mir nur wegen gehäuse ob noch passt.
ist aber 27cm platz und sollte knapp werden für GTX.
Slipknot79
2006-11-03, 22:54:04
jo wie ich auch auf GTX warte.
angst macht mir nur wegen gehäuse ob noch passt.
ist aber 27cm platz und sollte knapp werden für GTX.
Was man mit einem Dremel so alles anstellen kann :) Schaut sicher stylisch aus wenn die Graka aus dem Gehäuse ragt, nur wehe wenn der Hund auf Gassitour in der Wohnung geht :(
xL|Sonic
2006-11-03, 22:57:09
Sind die neuen Karten genauso lang wie beispielsweise eine X1800XT?
Ailuros
2006-11-03, 22:58:25
:up:
Dann hatte ich doch recht mit den 130-140W für eine G8800GTX. :)
Gibt es schon Werte der G8800GTS?
Müsste bei ca. 100-110W liegen wenn NV die Spannung etwas gesenkt hat.
Natuerlich hattest Du recht; es ist eben stets verdammt gefaehrlich zu viel anzudeuten.
Ueber die GTS hab ich noch keine Einzelheiten aber im Bereich des moeglichen liegst Du schon.
Ailuros
2006-11-03, 23:12:43
Was jetzt die G80 generell betrifft als Ausruestung, handelt es sich um die Entscheidung eines jeden und wann er sich fuehlt dass er eine Aufruestung braucht oder will.
Ich persoenlich wuerde das Ding auch kaufen selbst wenn es D3D10 erst in 2008 geben wuerde und die GPU nur D3D9 kompliant waere. Ich kann die extrem geringe Winkelabhaengigkeit, die extrem reduzierten Filterungs-Optimierungen, das um einiges schnellere AA (und auch eventuell die mehr MSAA samples) und die Bandbreite fuer sehr hohe Aufloesungen sehr wohl gebrauchen.
Im Vergleich zur 7800GTX@490MHz die momentan hier drinhockt ist der Unterschied primaer in hoeherer Bildqualitaet bemerkenswert hoeher. Natuerlich sollte das obrige jetzt niemand beinflussen, aber es gibt fuer mich persoenlich schon guten Grund aufzuruesten.
Was viele von Euch zu verpassen scheinen ist dass fuer ein paar Verrueckte von uns es nicht um das Preis-/Leistungsverhaeltnis geht, sondern eher um das Preis-/Bildqualitaetsverhaeltnis. Ich hab zwei Wochen damals an dem 78.03/Filterungsartikel rumgewaerkelt und privat noch laenger mit NV darueber diskuttiert. Und um ganz ehrlich zu sein, waere im Sommer 2005 die R520 zur gleichen Zeit mit G70 erschienen, will ich ernsthaft bezweifeln dass ich nicht die Radeon gewaehlt haette.
Blackpitty
2006-11-03, 23:20:33
mir ist egal ob die GTX "nur" 25% Schneller ist als meine GX2, aber ich habe dann in jedem Game 100% Leistung, und keine Einstellerei mehr, und nicht den Gedanken, dass eine Karte nicht voll Ausgelastet ist, somit ist die 8800GTX genau das was ich will, genau gleich oder mehr Leistung wie ne GX2, bessere Bildqualli, und anderes neues, und meine GX2 verkaufe ich für über 400€ und lege 150.200€ drauf und fertig:smile:
Die neuen DX10 Karte sind geliset, einige sogar schon mit pries!!!
http://www.geizhals.at/deutschland/?...bote+anzeigen+
Leadtek
http://www.geizhals.at/deutschland/a224912.html
http://www.geizhals.at/deutschland/a224911.html
ASUS
http://www.geizhals.at/deutschland/a224910.html
http://www.geizhals.at/deutschland/a224909.html
Gigabyte
http://www.geizhals.at/deutschland/a224908.html
Hvoralek
2006-11-04, 03:27:55
Sind die neuen Karten genauso lang wie beispielsweise eine X1800XT?Zumindest die GTX ist länger. Etwa 26 cm, eine X1800XT misst 23.
xL|Sonic
2006-11-04, 04:02:21
Urghs. Es ist jetzt schon alles sehr eng in meinem Gehäuse :/
Naja mal schaun wie lang der R600 so wird.
SentinelBorg
2006-11-04, 04:36:02
Preis/Leistung ist übrigens mal gar nicht so schlecht. 7900GTO für 250€ war doch noch vor ner Woche der Hit. Eine 8800 GTX kostet 140% mehr, liefert aber auch ungefähr das gleiche Plus an Leistung. Dazu D3D10, die bessere Bildqualität usw.
Sentinel
Frank1974
2006-11-04, 08:22:04
Hallo
Bin auch ein wenig ein Freak(bin nicht stolz drauf, ist ja wenn man es genau nimmt ne Sucht nach immer mehr FPS und BQ), andere geben sich auch mit weniger zufrieden, naja wie auch immer, lohnt es von einer 1900XT auf 8800GTX zu gehen, CPU habe ich einen C2D@3200 und Spielen tu ich auf einem 21er WS mit 1680x1050, wie ist ungefähr die Steigerung, mehr als 50%, habe immer soviel AA+AF an wie geht, naja werde wahrscheinlich auch ohne Antwort eine GTX holen, es sei denn jemand treibt mir den Freak aus mir raus ;D.
mfg
Frank
Die gelbe Eule
2006-11-04, 08:59:48
Die PNY sieht bisher am geilsten aus, wirkt sehr edel, auch wenn es nur ein Aufkleber ist.
The_Invisible
2006-11-04, 09:02:24
Hallo
Bin auch ein wenig ein Freak(bin nicht stolz drauf, ist ja wenn man es genau nimmt ne Sucht nach immer mehr FPS und BQ), andere geben sich auch mit weniger zufrieden, naja wie auch immer, lohnt es von einer 1900XT auf 8800GTX zu gehen, CPU habe ich einen C2D@3200 und Spielen tu ich auf einem 21er WS mit 1680x1050, wie ist ungefähr die Steigerung, mehr als 50%, habe immer soviel AA+AF an wie geht, naja werde wahrscheinlich auch ohne Antwort eine GTX holen, es sei denn jemand treibt mir den Freak aus mir raus ;D.
mfg
Frank
laut den bisher veröffentlichten benchmarks ist sie doppelt so schnell wie ne x1950xtx, bei höheren auflösungen vielleicht sogar mehr. stromverbrauch solltest auch nicht mehr haben :D
mfg
AnarchX
2006-11-04, 09:13:11
8800GTX meets Shadermark
video mode / device info
(1600x1200) X8R8G8B8 (D24X8) vram used 168820736
HAL (pure hw vp): NVIDIA GeForce 8800 GTX (Anti-Detect-Mode: off, gamma correction: DAC)
options
pixel shader version: Pixel Shader 3_0
results:
shader 1 ( Pixel Shader Precision Test): pixel shader 1.1 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 1.4 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 2.0 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 2.0 partial precision: s23e8
( Pixel Shader Precision Test): pixel shader 3.0 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 3.0 partial precision: s23e8
shader 2 ( Per Pixel Diffuse Lighting - ps_3_0): 1860 fps 0.5376 mspf 9304 rendered frames
shader 3 ( Per Pixel Directional Light Shader (Phong) - ps_3_0): 1426 fps 0.7011 mspf 7134 rendered frames
shader 4 ( Per Pixel Point Light Shader (Phong) - ps_3_0): 1375 fps 0.7272 mspf 6878 rendered frames
shader 5 ( Per Pixel Spot Light Shader (Phong) - ps_3_0): 1178 fps 0.8487 mspf 5894 rendered frames
shader 6 ( Per Pixel Anisotropic Lighting - ps_3_0): 1455 fps 0.6875 mspf 7276 rendered frames
shader 7 ( Per Pixel Fresnel Reflections - ps_3_0): 1303 fps 0.7672 mspf 6520 rendered frames
shader 8 ( Per Pixel Car Surface Shader - ps_3_0): 967 fps 1.0339 mspf 4838 rendered frames
shader 9 ( Per Pixel Environment Mapping - ps_3_0): 2188 fps 0.4571 mspf 10942 rendered frames
shader 10 ( Per Pixel Environment Bump Mapping - ps_3_0): 1984 fps 0.5041 mspf 9922 rendered frames
shader 11 ( Per Pixel Bump Mapping - ps_3_0): 1335 fps 0.7491 mspf 6677 rendered frames
shader 12 ( Per Pixel Shadowed Bump Mapping - ps_3_0): 808 fps 1.2372 mspf 4043 rendered frames
shader 13 ( Per Pixel Veined Marble Shader - ps_3_0): 929 fps 1.0762 mspf 4648 rendered frames
shader 14 ( Per Pixel Wood Shader - ps_3_0): 1152 fps 0.8679 mspf 5763 rendered frames
shader 15 ( Per Pixel Tile Shader - ps_3_0): 720 fps 1.3883 mspf 3603 rendered frames
shader 16 ( Per Pixel Refraction and Reflection Shader with Phong Lighting - ps_3_0): 630 fps 1.5884 mspf 3149 rendered frames
shader 17 ( Per Pixel BRDF-Phong/Anisotropic Lighting - ps_3_0): 995 fps 1.0054 mspf 4975 rendered frames
performance impact of heavy alpha blending
shader 18 ( Fur Shader With Anisotropic Lighting - ps_3_0): 101 fps 9.8773 mspf 507 rendered frames
performance impact of multiple shaders switches
shader 19 ( Combination Effect - ps_3_0): 446 fps 2.2400 mspf 2233 rendered frames
performance impact of dynamic flow control
shader 20 ( Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_3_0): 168 fps 5.9452 mspf 842 rendered frames
shader 21 ( Dual Layer 8x8 PCF Shadow Mapping with Flow Control - ps_3_0): 201 fps 4.9859 mspf 1004 rendered frames
performance impact of floating point filtering
shader 22 ( High Dynamic Range Shader - low quality version without filtering - ps_3_0): 192 fps 5.2104 mspf 960 rendered frames
shader 23 ( High Dynamic Range Shader - high quality with fp filtering - ps_3_0): 192 fps 5.2124 mspf 960 rendered frames
shader 24 ( High Dynamic Range Shader - high quality without fp filtering - ps_3_0): 192 fps 5.2104 mspf 960 rendered frames
performance impact of multiple render targets
shader 25 ( Per Pixel Edge Detection And Hatching Shader using 1 RT and 2 Passes - ps_3_0): 255 fps 3.9185 mspf 1277 rendered frames
shader 26 ( Per Pixel Edge Detection And Hatching Shader using 2 RTs and 1 Pass - ps_3_0): 257 fps 3.8911 mspf 1286 rendered frames
http://www.beyond3d.com/forum/showthread.php?p=865937#post865937
Hier noch ein kleiner Vergleich:
http://img91.imageshack.us/img91/3885/26ki7.pnghttp://img120.imageshack.us/img120/2167/26wc0.png
Quelle: CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/5/#abschnitt_theoretische_benchmarks)
nicht schlecht aber trotzdem könnte sie schneller im 3dmark06 sein:-)
tombman
2006-11-04, 09:28:33
8800GTX meets Shadermark
video mode / device info
(1600x1200) X8R8G8B8 (D24X8) vram used 168820736
HAL (pure hw vp): NVIDIA GeForce 8800 GTX (Anti-Detect-Mode: off, gamma correction: DAC)
options
pixel shader version: Pixel Shader 3_0
results:
shader 1 ( Pixel Shader Precision Test): pixel shader 1.1 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 1.4 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 2.0 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 2.0 partial precision: s23e8
( Pixel Shader Precision Test): pixel shader 3.0 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 3.0 partial precision: s23e8
shader 2 ( Per Pixel Diffuse Lighting - ps_3_0): 1860 fps 0.5376 mspf 9304 rendered frames
shader 3 ( Per Pixel Directional Light Shader (Phong) - ps_3_0): 1426 fps 0.7011 mspf 7134 rendered frames
shader 4 ( Per Pixel Point Light Shader (Phong) - ps_3_0): 1375 fps 0.7272 mspf 6878 rendered frames
shader 5 ( Per Pixel Spot Light Shader (Phong) - ps_3_0): 1178 fps 0.8487 mspf 5894 rendered frames
shader 6 ( Per Pixel Anisotropic Lighting - ps_3_0): 1455 fps 0.6875 mspf 7276 rendered frames
shader 7 ( Per Pixel Fresnel Reflections - ps_3_0): 1303 fps 0.7672 mspf 6520 rendered frames
shader 8 ( Per Pixel Car Surface Shader - ps_3_0): 967 fps 1.0339 mspf 4838 rendered frames
shader 9 ( Per Pixel Environment Mapping - ps_3_0): 2188 fps 0.4571 mspf 10942 rendered frames
shader 10 ( Per Pixel Environment Bump Mapping - ps_3_0): 1984 fps 0.5041 mspf 9922 rendered frames
shader 11 ( Per Pixel Bump Mapping - ps_3_0): 1335 fps 0.7491 mspf 6677 rendered frames
shader 12 ( Per Pixel Shadowed Bump Mapping - ps_3_0): 808 fps 1.2372 mspf 4043 rendered frames
shader 13 ( Per Pixel Veined Marble Shader - ps_3_0): 929 fps 1.0762 mspf 4648 rendered frames
shader 14 ( Per Pixel Wood Shader - ps_3_0): 1152 fps 0.8679 mspf 5763 rendered frames
shader 15 ( Per Pixel Tile Shader - ps_3_0): 720 fps 1.3883 mspf 3603 rendered frames
shader 16 ( Per Pixel Refraction and Reflection Shader with Phong Lighting - ps_3_0): 630 fps 1.5884 mspf 3149 rendered frames
shader 17 ( Per Pixel BRDF-Phong/Anisotropic Lighting - ps_3_0): 995 fps 1.0054 mspf 4975 rendered frames
performance impact of heavy alpha blending
shader 18 ( Fur Shader With Anisotropic Lighting - ps_3_0): 101 fps 9.8773 mspf 507 rendered frames
performance impact of multiple shaders switches
shader 19 ( Combination Effect - ps_3_0): 446 fps 2.2400 mspf 2233 rendered frames
performance impact of dynamic flow control
shader 20 ( Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_3_0): 168 fps 5.9452 mspf 842 rendered frames
shader 21 ( Dual Layer 8x8 PCF Shadow Mapping with Flow Control - ps_3_0): 201 fps 4.9859 mspf 1004 rendered frames
performance impact of floating point filtering
shader 22 ( High Dynamic Range Shader - low quality version without filtering - ps_3_0): 192 fps 5.2104 mspf 960 rendered frames
shader 23 ( High Dynamic Range Shader - high quality with fp filtering - ps_3_0): 192 fps 5.2124 mspf 960 rendered frames
shader 24 ( High Dynamic Range Shader - high quality without fp filtering - ps_3_0): 192 fps 5.2104 mspf 960 rendered frames
performance impact of multiple render targets
shader 25 ( Per Pixel Edge Detection And Hatching Shader using 1 RT and 2 Passes - ps_3_0): 255 fps 3.9185 mspf 1277 rendered frames
shader 26 ( Per Pixel Edge Detection And Hatching Shader using 2 RTs and 1 Pass - ps_3_0): 257 fps 3.8911 mspf 1286 rendered frames
http://www.beyond3d.com/forum/showthread.php?p=865937#post865937
Hier noch ein kleiner Vergleich:
http://img91.imageshack.us/img91/3885/26ki7.pnghttp://img120.imageshack.us/img120/2167/26wc0.png
Quelle: CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/5/#abschnitt_theoretische_benchmarks)
DANKE!!!! Endlich mal gescheite Infos und nicht immer dieser beschissene 3dmark in default res...
Ich werd das gleich mal mit meiner 7950gx2 vergleichen ;)
Superheld
2006-11-04, 09:44:47
FEAR maxed out at 1600x1200 with 16xAF, 16xAA
MSI K8N SLI Platinum, AMD64 4000+, eVGA 8800GTX
http://img224.imageshack.us/img224/8306/16xaahk3.jpg (http://imageshack.us)
FEAR, 1600x1200, 4xAA, 16xAF, all settings maxed except soft shadows.
http://img224.imageshack.us/img224/5063/fearnoss1ma9.jpg (http://imageshack.us)
AnarchX
2006-11-04, 09:49:03
Na, da hätten wir ja schon den ersten Fall wo man ein 88GTX SLI brauch...;)
edit:
Die FEAR Ergebnisse scheinen ja doch nicht ganz so gut zu sein, da hat man wohl noch etwas Treiberarbeit vor sich.
tombman
2006-11-04, 09:50:32
HIER STAND ABSOLUT NIX ;)
Die gelbe Eule
2006-11-04, 09:51:03
Für x16WuAF sehr ordentliche Werte, wenn man bedenkt da es noch keine final Treiber sind.
@Tombi:
Das sind sehr gute Werte :up:
2 x 7900GTX wären 630€, nichtmal annähernd würden 85% Effizienz erreicht und hier kommt die 8800GTX mal eben mit 100% mehr Leistung daher. So einen Sprung hatten wir selten ...
Ronny145
2006-11-04, 09:51:18
Was schafft eine 7950gx2 mit den settings?
ups, 16xAA geht ja nicht.
Superheld
2006-11-04, 09:54:46
new processor pls:rolleyes:
MSI K8N SLI Platinum, AMD64 4000+, eVGA 8800GTX
http://img246.imageshack.us/img246/297/3d062sh0.jpg (http://imageshack.us)
Die gelbe Eule
2006-11-04, 09:58:05
Nimmst nen X2 dann haste auch Deine 10k+
dargo
2006-11-04, 10:08:54
Als CPU kam ein A64 Dual Core @ 2.6ghz zum Einsatz.
3dmark05: 2560x1600 4xAA TRSSA/16xAF
7900GTX: 2919
8800GTX: 6540
riddick: 2560x1600 4xAA/16xAF
x1950: 23,2 fps
8800gtx: 41 fps
fear: 1600x1200 4xAA/16xAF
7900GTX: 38 fps
8800gtx: 75 fps
serious sam2 : 2560x1600 0/0 mit HDR
7900gtx: 23,4 fps
8800gtx: 59 fps
Es ist schon seltsam, dass nur bei Riddick eine X1950XTX genommen wurde. ;)
Gerade bei Rididck ist eine ATI schon immer schwach gewesen und das hat sich bin heute nicht geändert. Ich denke mal, die G8800GTX wird knapp unter 100% in den nicht NV Games schneller sein wie eine X1950XTX, zumindest in den üblichen 4xAA Modis. Trotzdem eine sehr gute Steigerung.
AnarchX
2006-11-04, 10:10:58
Es ist schon seltsam, dass nur bei Riddick eine X1950XTX genommen wurde. ;)
Gerade bei Rididck ist eine ATI schon immer schwach gewesen und das hat sich bin heute nicht geändert.
Da wäre ich mir nicht so sicher bei 2560x1600 4xAA 16xAF:
http://img169.imageshack.us/img169/3812/r2560xg1.png
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/17/#abschnitt_the_chronicles_of_riddick
;)
Wenn es die gleiche Timedemo ist, wäre die 88GTX hier sogar fast 60% schneller als eine GX2...
dargo
2006-11-04, 10:17:16
Da wäre ich mir nicht so sicher bei 2560x1600 4xAA 16xAF:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/17/#abschnitt_the_chronicles_of_riddick
;)
Ok, mein Fehler. Ich habe die "schlechte" Leistung in Riddick mit dem R520 verwechselt.
The_Invisible
2006-11-04, 10:21:06
new processor pls:rolleyes:
MSI K8N SLI Platinum, AMD64 4000+, eVGA 8800GTX
http://img246.imageshack.us/img246/297/3d062sh0.jpg (http://imageshack.us)
schaff ich ja schon mehr :D
ich glaub unter x2 3000mhz bzw 6600e braucht man die karte erst garnicht einbauen...
mfg
Ailuros
2006-11-04, 10:24:00
Da wäre ich mir nicht so sicher bei 2560x1600 4xAA 16xAF:
http://img169.imageshack.us/img169/3812/r2560xg1.png
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/17/#abschnitt_the_chronicles_of_riddick
;)
Wenn es die gleiche Timedemo ist, wäre die 88GTX hier sogar fast 60% schneller als eine GX2...
Dumme Frage: wenden alle GPUs ausser der GX2 hier wirklich auch 4xAA in 2560*1600 an oder reduziert der Treiber im geheimen auf 2xAA?
Achtet mal ein klein bisschen vorsichtiger auf die 1xAA vs. 4xAA Resultate...
dargo
2006-11-04, 10:26:43
schaff ich ja schon mehr :D
ich glaub unter x2 3000mhz bzw 6600e braucht man die karte erst garnicht einbauen...
Dann glaubst du falsch. ;)
http://img155.imageshack.us/my.php?image=quake4wy3.png
http://img201.imageshack.us/my.php?image=cod2nv5.png
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=326362
AnarchX
2006-11-04, 10:27:05
Dumme Frage: wenden alle GPUs ausser der GX2 hier wirklich auch 4xAA in 2560*1600 an oder reduziert der Treiber im geheimen auf 2xAA?
Ja das ist eine schwierige Frage (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=330382), aber die Werte der nV-Karten sehen imo doch alle realistisch im Verhältnis zur GX2 aus, aber im Endeffekt steht ja die 88GTX somit noch besser da im Vergleich zu X19x0XTX.
Ailuros
2006-11-04, 10:31:36
FEAR maxed out at 1600x1200 with 16xAF, 16xAA
MSI K8N SLI Platinum, AMD64 4000+, eVGA 8800GTX
http://img224.imageshack.us/img224/8306/16xaahk3.jpg (http://imageshack.us)
FEAR, 1600x1200, 4xAA, 16xAF, all settings maxed except soft shadows.
http://img224.imageshack.us/img224/5063/fearnoss1ma9.jpg (http://imageshack.us)
Das ist der langsame 16xAA modus; interessanter waeren die Resultate vom schnelleren modus.
Die gelbe Eule
2006-11-04, 10:36:38
Schneller = gleich gute BQ aber mehr Performance?
Die Fear Ergebniss sind doch bei 1600x1200 4aa+16af und man bedenke SS absolut beachtlich.Mit meinem X1900XTX CF System habe ich nicht solche Werte mit SS.#
mfg
tombman
2006-11-04, 10:41:31
8800GTX meets Shadermark
video mode / device info
(1600x1200) X8R8G8B8 (D24X8) vram used 168820736
HAL (pure hw vp): NVIDIA GeForce 8800 GTX (Anti-Detect-Mode: off, gamma correction: DAC)
options
pixel shader version: Pixel Shader 3_0
results:
shader 1 ( Pixel Shader Precision Test): pixel shader 1.1 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 1.4 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 2.0 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 2.0 partial precision: s23e8
( Pixel Shader Precision Test): pixel shader 3.0 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 3.0 partial precision: s23e8
shader 2 ( Per Pixel Diffuse Lighting - ps_3_0): 1860 fps 0.5376 mspf 9304 rendered frames
shader 3 ( Per Pixel Directional Light Shader (Phong) - ps_3_0): 1426 fps 0.7011 mspf 7134 rendered frames
shader 4 ( Per Pixel Point Light Shader (Phong) - ps_3_0): 1375 fps 0.7272 mspf 6878 rendered frames
shader 5 ( Per Pixel Spot Light Shader (Phong) - ps_3_0): 1178 fps 0.8487 mspf 5894 rendered frames
shader 6 ( Per Pixel Anisotropic Lighting - ps_3_0): 1455 fps 0.6875 mspf 7276 rendered frames
shader 7 ( Per Pixel Fresnel Reflections - ps_3_0): 1303 fps 0.7672 mspf 6520 rendered frames
shader 8 ( Per Pixel Car Surface Shader - ps_3_0): 967 fps 1.0339 mspf 4838 rendered frames
shader 9 ( Per Pixel Environment Mapping - ps_3_0): 2188 fps 0.4571 mspf 10942 rendered frames
shader 10 ( Per Pixel Environment Bump Mapping - ps_3_0): 1984 fps 0.5041 mspf 9922 rendered frames
shader 11 ( Per Pixel Bump Mapping - ps_3_0): 1335 fps 0.7491 mspf 6677 rendered frames
shader 12 ( Per Pixel Shadowed Bump Mapping - ps_3_0): 808 fps 1.2372 mspf 4043 rendered frames
shader 13 ( Per Pixel Veined Marble Shader - ps_3_0): 929 fps 1.0762 mspf 4648 rendered frames
shader 14 ( Per Pixel Wood Shader - ps_3_0): 1152 fps 0.8679 mspf 5763 rendered frames
shader 15 ( Per Pixel Tile Shader - ps_3_0): 720 fps 1.3883 mspf 3603 rendered frames
shader 16 ( Per Pixel Refraction and Reflection Shader with Phong Lighting - ps_3_0): 630 fps 1.5884 mspf 3149 rendered frames
shader 17 ( Per Pixel BRDF-Phong/Anisotropic Lighting - ps_3_0): 995 fps 1.0054 mspf 4975 rendered frames
performance impact of heavy alpha blending
shader 18 ( Fur Shader With Anisotropic Lighting - ps_3_0): 101 fps 9.8773 mspf 507 rendered frames
performance impact of multiple shaders switches
shader 19 ( Combination Effect - ps_3_0): 446 fps 2.2400 mspf 2233 rendered frames
performance impact of dynamic flow control
shader 20 ( Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_3_0): 168 fps 5.9452 mspf 842 rendered frames
shader 21 ( Dual Layer 8x8 PCF Shadow Mapping with Flow Control - ps_3_0): 201 fps 4.9859 mspf 1004 rendered frames
performance impact of floating point filtering
shader 22 ( High Dynamic Range Shader - low quality version without filtering - ps_3_0): 192 fps 5.2104 mspf 960 rendered frames
shader 23 ( High Dynamic Range Shader - high quality with fp filtering - ps_3_0): 192 fps 5.2124 mspf 960 rendered frames
shader 24 ( High Dynamic Range Shader - high quality without fp filtering - ps_3_0): 192 fps 5.2104 mspf 960 rendered frames
performance impact of multiple render targets
shader 25 ( Per Pixel Edge Detection And Hatching Shader using 1 RT and 2 Passes - ps_3_0): 255 fps 3.9185 mspf 1277 rendered frames
shader 26 ( Per Pixel Edge Detection And Hatching Shader using 2 RTs and 1 Pass - ps_3_0): 257 fps 3.8911 mspf 1286 rendered frames
http://www.beyond3d.com/forum/showthread.php?p=865937#post865937
Hier noch ein kleiner Vergleich:
http://img91.imageshack.us/img91/3885/26ki7.pnghttp://img120.imageshack.us/img120/2167/26wc0.png
Quelle: CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/5/#abschnitt_theoretische_benchmarks)
Soda, hab jetzt die Werte meiner GX2- schön zum Vergleichen ;) Achtung: meine GX2 war auf 600/780 overclocked!
ShaderMark v2.1 - DirectX 9 HLSL Pixel Shader Benchmark - ToMMTi-Systems (http://www.tommti-systems.com)
video mode / device info
(1600x1200) X8R8G8B8 (D24X8) vram used 179306496
HAL (pure hw vp): NVIDIA GeForce 7950 GX2 (Anti-Detect-Mode: off, gamma correction: DAC)
options
pixel shader version: Pixel Shader 3_0
results:
shader 1 ( Pixel Shader Precision Test): pixel shader 1.1 full precision: s10e6
( Pixel Shader Precision Test): pixel shader 1.4 full precision: s10e6
( Pixel Shader Precision Test): pixel shader 2.0 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 2.0 partial precision: s10e5
( Pixel Shader Precision Test): pixel shader 3.0 full precision: s23e8
( Pixel Shader Precision Test): pixel shader 3.0 partial precision: s10e5
shader 2 ( Per Pixel Diffuse Lighting - ps_3_0): 1616 fps 0.6190 mspf 8079 rendered frames
shader 3 ( Per Pixel Directional Light Shader (Phong) - ps_3_0): 1360 fps 0.7352 mspf 6802 rendered frames
shader 4 ( Per Pixel Point Light Shader (Phong) - ps_3_0): 1360 fps 0.7353 mspf 6800 rendered frames
shader 5 ( Per Pixel Spot Light Shader (Phong) - ps_3_0): 1153 fps 0.8673 mspf 5766 rendered frames
shader 6 ( Per Pixel Anisotropic Lighting - ps_3_0): 1360 fps 0.7355 mspf 6799 rendered frames
shader 7 ( Per Pixel Fresnel Reflections - ps_3_0): 1226 fps 0.8159 mspf 6128 rendered frames
shader 8 ( Per Pixel Car Surface Shader - ps_3_0): 817 fps 1.2245 mspf 4085 rendered frames
shader 9 ( Per Pixel Environment Mapping - ps_3_0): 1699 fps 0.5887 mspf 8493 rendered frames
shader 10 ( Per Pixel Environment Bump Mapping - ps_3_0): 1366 fps 0.7320 mspf 6831 rendered frames
shader 11 ( Per Pixel Bump Mapping - ps_3_0): 1275 fps 0.7846 mspf 6374 rendered frames
shader 12 ( Per Pixel Shadowed Bump Mapping - ps_3_0): 850 fps 1.1760 mspf 4253 rendered frames
shader 13 ( Per Pixel Veined Marble Shader - ps_3_0): 785 fps 1.2741 mspf 3925 rendered frames
shader 14 ( Per Pixel Wood Shader - ps_3_0): 901 fps 1.1097 mspf 4506 rendered frames
shader 15 ( Per Pixel Tile Shader - ps_3_0): 252 fps 3.9702 mspf 1260 rendered frames
shader 16 ( Per Pixel Refraction and Reflection Shader with Phong Lighting - ps_3_0): 658 fps 1.5198 mspf 3290 rendered frames
shader 17 ( Per Pixel BRDF-Phong/Anisotropic Lighting - ps_3_0): 929 fps 1.0760 mspf 4648 rendered frames
performance impact of heavy alpha blending
shader 18 ( Fur Shader With Anisotropic Lighting - ps_3_0): 102 fps 9.7960 mspf 511 rendered frames
performance impact of multiple shaders switches
shader 19 ( Combination Effect - ps_3_0): 246 fps 4.0700 mspf 1229 rendered frames
performance impact of dynamic flow control
shader 20 ( Dual Layer 8x8 PCF Shadow Mapping without Flow Control - ps_3_0): 94 fps 10.6827 mspf 469 rendered frames
shader 21 ( Dual Layer 8x8 PCF Shadow Mapping with Flow Control - ps_3_0): 119 fps 8.4079 mspf 595 rendered frames
performance impact of floating point filtering
shader 22 ( High Dynamic Range Shader - low quality version without filtering - ps_3_0): 156 fps 6.4270 mspf 778 rendered frames
shader 23 ( High Dynamic Range Shader - high quality with fp filtering - ps_3_0): 170 fps 5.8787 mspf 851 rendered frames
shader 24 ( High Dynamic Range Shader - high quality without fp filtering - ps_3_0): 112 fps 8.9054 mspf 562 rendered frames
performance impact of multiple render targets
shader 25 ( Per Pixel Edge Detection And Hatching Shader using 1 RT and 2 Passes - ps_3_0): 43 fps 23.2095 mspf 216 rendered frames
shader 26 ( Per Pixel Edge Detection And Hatching Shader using 2 RTs and 1 Pass - ps_3_0): 43 fps 23.3653 mspf 214 rendered frames
Ich schreib mal die interessanten Sachen raus:
Shader 18 (einer der härtesten im SM), aniso. fur.
GX2@ 600/780: 102fps
8800GTX @ def.: 101fps
OMG, eine 8800GTX ist so schnell wie eine OVERCLOCKTE 7950GX2 ;)
Und jetzt der Hammer bei multiple render targets:
GX2: 43fps
8800GTX: 255fps ;D;D
Geil, geil, geil ;)
Ailuros
2006-11-04, 10:52:46
Schneller = gleich gute BQ aber mehr Performance?
An manchen Stellen auf 4xAA Nivaeu und auf dem Rest (die eigentliche Mehrzahl) reines 16xAA.
Die gelbe Eule
2006-11-04, 10:58:31
Eine "Optimierung" die keinem im Spielfluß auffällt, nicht schlecht ...
Spasstiger
2006-11-04, 11:02:42
Bei den Pixelshadertests muss man auch bedenken, dass der G80 theoretisch eigentlich gar nicht so das Monster ist gegenüber einer GeForce 7950 GX2.
Denn wenn Pixel mit 4 Komponenten (RGB + z) zum Einsatz kommen, dann entsprechen die 128 Skalar-ALUs auch nur 32 Vektor-ALUs (wie im G71). Man muss zwar noch den doppelten Shadertakt anrechnen, trotzdem hätte die 7950 GX2 zumindest bei MADD dann immer noch 50% mehr an theoretischer Power (nämlich 96 Vektor-ALUs).
Gouvernator
2006-11-04, 11:07:34
new processor pls:rolleyes:
MSI K8N SLI Platinum, AMD64 4000+, eVGA 8800GTX
http://img246.imageshack.us/img246/297/3d062sh0.jpg (http://imageshack.us)
Das finde ich sehr gut mit diesem Prozzi zu testen da kann ich ja 1:1 mit jetzigem System Vergleichen. Alles in allem ist 8800GTX etwa +1000 punkte im 2.0SM und 3.0sm so schnell wie die 1900XTX @800/900mhz
tombman
2006-11-04, 11:09:36
3dm06 mit schwacher cpu testen bringts ned, weil die Tests alle cpu limitiert sind mit ner G80...da kann man nix draus ableiten...
edit: OMG, die flow control herrscht ja mal derbe bei G80:
shader 21 ( Dual Layer 8x8 PCF Shadow Mapping with Flow Control - ps_3_0): 201 fps
Meine GX2 hat da nur 119fps :D
Ailuros
2006-11-04, 11:15:17
Bei den Pixelshadertests muss man auch bedenken, dass der G80 theoretisch eigentlich gar nicht so das Monster ist gegenüber einer GeForce 7950 GX2.
Denn wenn Pixel mit 4 Komponenten (RGB + z) zum Einsatz kommen, dann entsprechen die 128 Skalar-ALUs auch nur 32 Vektor-ALUs (wie im G71). Man muss zwar noch den doppelten Shadertakt anrechnen, trotzdem hätte die 7950 GX2 zumindest bei MADD dann immer noch 50% mehr an theoretischer Power (nämlich 96 Vektor-ALUs).
Ja und nein; mit welchem FP-Wert rechnet ein G7x und mit welchem ein G8x?
Ihr habt uebrigens offensichtlich erstmal die MRT Werte uebersehen oder?
Gouvernator
2006-11-04, 11:45:13
3dmark05: 2560x1600 4xAA TRSSA/16xAF
7900GTX: 2919
8800GTX: 6540
Bei mir will 2560x1600 irgendwie nicht gehen deshalb wollte ich mal versuchen mit was für Eintellung ich auf ähnliches Wert komme.
6876 @2400x2000,noAA,noAF@ 790/909mhz 1900XTX
http://666kb.com/i/aiyc9iddrgswcbh1t.gif
Es gibt nicht wirklich Bedarf...
Spasstiger
2006-11-04, 11:48:11
Ja und nein; mit welchem FP-Wert rechnet ein G7x und mit welchem ein G8x?
Kläre uns auf. :)
Ihr habt uebrigens offensichtlich erstmal die MRT Werte uebersehen oder?
Tombman hat doch drauf hingewiesen.
Ist die Diskrepanz zwischen theoretischer und realer Leistung beim G80 gegenüber dem G71 also noch größer, wie ich bereits festgestellt habe?
Bzw. ist der G80 noch effizienter als ich das unterstellt habe?
Bei mir will 2560x1600 irgendwie nicht gehen deshalb wollte ich mal versuchen mit was für Eintellung ich auf ähnliches Wert komme.
6876 @2400x2000,noAA,noAF@ 790/909mhz 1900XTX
http://666kb.com/i/aiyc9iddrgswcbh1t.gif
Es gibt nicht wirklich Bedarf...
Du sitzt auch nicht an einem 30-Zoll-Monitor.
Btw. gibts schon Oblivion-Benchmarks mit HDR+TRSAA+wuAF in mind. 1600x1200 4xAA?
Rente
2006-11-04, 11:49:16
Bei mir will 2560x1600 irgendwie nicht gehen deshalb wollte ich mal versuchen mit was für Eintellung ich auf ähnliches Wert komme.
6876 @2400x2000,noAA,noAF@ 790/909mhz 1900XTX
http://666kb.com/i/aiyc9iddrgswcbh1t.gif
Es gibt nicht wirklich Bedarf...
Äähm, du hast das 4xAA mit TRSSAA übersehen, das dürfte mal locker 40-50% Leistung kosten bei deiner X1900XTX...
tombman
2006-11-04, 11:51:26
Bei mir will 2560x1600 irgendwie nicht gehen deshalb wollte ich mal versuchen mit was für Eintellung ich auf ähnliches Wert komme.
6876 @2400x2000,noAA,noAF@ 790/909mhz 1900XTX
http://666kb.com/i/aiyc9iddrgswcbh1t.gif
Es gibt nicht wirklich Bedarf...
Und die 4x AA hast vergessen, oder wie?
edit: und schon wieder timeowned :D
Außerdem kann man auch eine G80 schwer ocen, so wie du deine X1900XTX... ;)
The_Invisible
2006-11-04, 11:52:04
Äähm, du hast das 4xAA mit TRSSAA übersehen, das dürfte mal locker 40-50% Leistung kosten bei deiner X1900XTX...
der vergleich ist eh unsinn, übertaktete karte vs unübertaktete, die gtx kann man ja nicht übertakten ;)
mfg
Gouvernator
2006-11-04, 11:53:12
Äähm, du hast das 4xAA mit TRSSAA übersehen, das dürfte mal locker 40-50% Leistung kosten bei deiner X1900XTX...
Ob man bei dieser Auflösung (bei meiner) noch AA braucht ... Ausserdem bei neueren Spielen hast du ganz schnell dein Speicher verbraucht bei dieser Auflösung +AA und 8800 bietet gar nicht so viel Speicher das ich Auflösung+AA ausfahren kann, 1Gb muss schon sein.
Superheld
2006-11-04, 11:53:16
16af mit AF tester
http://www.hardforum.com/showthread.php?t=1116603&page=10&pp=20
dargo
2006-11-04, 11:54:18
3dm06 mit schwacher cpu testen bringts ned, weil die Tests alle cpu limitiert sind mit ner G80...da kann man nix draus ableiten...
Auf die SM2.0 und SM3.0 Werte dürfte die CPU kaum Einfluss haben.
tombman
2006-11-04, 11:55:44
Auf die SM2.0 und SM3.0 Werte dürfte die CPU kaum Einfluss haben.
Doch, sogar massiven, irgendwer muß die Karten ja mit Daten füttern, bei all dieser Pracht.
Besonders die Waldszene mit den Leuchtkäfern frißt cpu ohne Ende..
tombman
2006-11-04, 11:57:01
16af mit AF tester
http://www.hardforum.com/showthread.php?t=1116603&page=10&pp=20
Da hat ein noob getestet... im Menu gibt es eine neue Einstellung wo die Winkelabhängigkeit ABSTELLEN kann, dann hast perfektes wu-AF bei der G80...
Superheld
2006-11-04, 12:00:20
hoffentlich macht er das noch=)
Da hat ein noob getestet... im Menu gibt es eine neue Einstellung wo die Winkelabhängigkeit ABSTELLEN kann, dann hast perfektes wu-AF bei der G80...
Definiere "perfekt". Ein Kreis? Wohl kaum. Ich wette, dass mindestens 16x AF sichtbare Einkerbungen hat ...
MfG,
Raff
Superheld
2006-11-04, 12:07:22
Tombman melde dich mal an und sage wie es richtig geht:tongue:
Ailuros
2006-11-04, 12:09:26
Definiere "perfekt". Ein Kreis? Wohl kaum. Ich wette, dass mindestens 16x AF sichtbare Einkerbungen hat ...
MfG,
Raff
Ein Kreis muss ganz rund sein. Wie "rund" ist 2xAF auf NV4x/G7x (nicht dass ich es zum ersten Mal andeute heh...)?
Wenn ich mich nicht irre wird es in offiziellen Treibern keine Variierung geben was Winkelabhaengigkeit betrifft.
Ailuros
2006-11-04, 12:11:16
Kläre uns auf. :)
Errr nein danke....nur noch ein paar Tage.
Ist die Diskrepanz zwischen theoretischer und realer Leistung beim G80 gegenüber dem G71 also noch größer, wie ich bereits festgestellt habe?
Bzw. ist der G80 noch effizienter als ich das unterstellt habe?
Benutzt die UE3 engine deferred shading bzw. MRTs oder nicht? ;)
Ein Kreis muss ganz rund sein. Wie "rund" ist 2xAF auf NV4x/G7x (nicht dass ich es zum ersten Mal andeute heh...)?
Wenn ich mich nicht irre wird es in offiziellen Treibern keine Variierung geben was Winkelabhaengigkeit betrifft.
Sehr rund, aber eben nicht ganz. X-D Na wenn man eine derart nichtige Winkelabhängigkeit auch bei 16x bietet, dann haben wir einen klaren BQ-König. Mist, ich brauche Geld. Doch halt ... erst will ich wissen, wie es ums Flimmern steht. ;)
MfG,
Raff
Ailuros
2006-11-04, 12:19:24
Sehr rund, aber eben nicht ganz. X-D Na wenn man eine derart nichtige Winkelabhängigkeit auch bei 16x bietet, dann haben wir einen klaren BQ-König. Mist, ich brauche Geld. Doch halt ... erst will ich wissen, wie es ums Flimmern steht. ;)
MfG,
Raff
Obwohl es nur noch sehr wenige Optimierungen gibt, ist der Leistungsunterschied so klein dass es nahezu Unsinn ist das Zeug ueberhaupt einzuschalten. Texturing-stage oder -sample Optimierungen kannst Du erstmal ganz vergessen, was auch heisst dass die beiden grossen "Schuldigen" fuer diverse obszoene Unterfilterungen erstmal weg vom Fenster sind.
AnarchX
2006-11-04, 12:28:54
Hier nochmal ein interessanter Vergleich:
ShaderMark 2.1 - X1950XTX vs X1950 CF vs 8800GTX
http://img244.imageshack.us/img244/2686/shaderresultszo7.jpg
http://www.beyond3d.com/forum/showpost.php?p=865988&postcount=8
Na dann zeigen wirs mal an:
NV40/G70 2xAF HQ
http://www.3dcenter.org/images/nv40_benchmarks/af-test_68_d3d_af02.png
Das wäre R520 2xAF HQ
http://pics.computerbase.de/1/3/7/1/4/61.png
Das 2xAF von NV auf 16xAF appliziert, mjami, da flimmerts nur wenn der Content scheiße ist oder der LOD im negativen ist.
dargo
2006-11-04, 12:30:19
Doch, sogar massiven, irgendwer muß die Karten ja mit Daten füttern, bei all dieser Pracht.
Besonders die Waldszene mit den Leuchtkäfern frißt cpu ohne Ende..
E6400@1,867Ghz und X1900XT 512MB
29402
E6400@3,296Ghz und X1900XT 512MB
29401
;)
Wahnsinnsunterschied bei ~90% mehr CPU-Leistung. :cool:
Außerdem wurde hier sogar nur in 1280x1024 ohne AA/AF gebencht.
Wahnsinnsunterschied bei ~90% mehr CPU-Leistung. :cool:
Außerdem wurde hier sogar nur in 1280x1024 ohne AA/AF gebencht.
Er spricht von einer Szene und du benchst gleich 4...
Zeig dochmal die FPS Werte vom GT2 - Firefly Forest!
AnarchX
2006-11-04, 12:51:54
coolaler mit 8800GTX - 3.8GHz Conroe 3DM03/05/06 (Einzelwerte)
http://publish.it168.com/2006/1103/images/173027.JPG
http://publish.it168.com/2006/1103/images/173031.JPG
http://publish.it168.com/2006/1103/images/173033.JPG
dargo
2006-11-04, 12:52:15
Er spricht von einer Szene und du benchst gleich 4...
Zeig dochmal die FPS Werte vom GT2 - Firefly Forest!
Dann hätte er gleich sagen können, dass er nur ein Game meint. :cool:
Ich und auch Gouvernator haben zumindest von den SM2.0 und SM3.0 Scores gesprochen.
Slipknot79
2006-11-04, 13:05:58
Naja, kann der ganzen Euphorie hier nicht ganz folgen oO. Ist aber interessant zu sehen wie realistisch man doch dabei bleibt, so passt man seine Erwartungen an das an was einem die G80 bietet und freut sich auch noch darüber. Oo
Wäre die G80 durchschnittlich 20% langsamer als es der Fall ist, so würde man sich genauso freuen. Witzig irgendwie :)
>serious sam2 : 2560x1600 0/0 mit HDR
Und schon der erste Cheat-Bench (an den man sich auch erfreut :) ), wo bleibt 16AF? Ne G80 gehört richtig gefordert und gequält.
Ailuros
2006-11-04, 13:06:23
Das 2xAF von NV auf 16xAF appliziert, mjami, da flimmerts nur wenn der Content scheiße ist oder der LOD im negativen ist.
Zum allerletzten Mal ES FLIMMERT NUR BEI JEGLICHER ART VON UNTERFILTERUNG und nicht ob ein Algorithmus mehr oder weniger Winkelabhaengig ist. Merci bien.
mr orange
2006-11-04, 13:06:29
http://www.theinquirer.net/default.aspx?article=35509
der leadtekkühler schaut einmal echt spitze aus.
http://www.theinquirer.net/images/articles/2nd-GTS.jpg
http://www.theinquirer.net/images/articles/2nd-GTX-Enlarged.jpg
falls schon gepostet einfach ignorieren.
Ailuros
2006-11-04, 13:12:27
Naja, kann der ganzen Euphorie hier nicht ganz folgen oO. Ist aber interessant zu sehen wie realistisch man doch dabei bleibt, so passt man seine Erwartungen an das an was einem die G80 bietet und freut sich auch noch darüber. Oo
Wäre die G80 durchschnittlich 20% langsamer als es der Fall ist, so würde man sich genauso freuen. Witzig irgendwie :)
Waere er um 20% langsamer, waeren die negativen Stimmen noch staerker.
>serious sam2 : 2560x1600 0/0 mit HDR
Und schon der erste Cheat-Bench (an den man sich auch erfreut :) ), wo bleibt 16AF? Ne G80 gehört richtig gefordert und gequält.
Wir werden wohl auf die ersten richtigen Reviews/Analysen in ein paar Tagen noch auswarten koennen oder?
Spasstiger
2006-11-04, 13:12:36
Naja, kann der ganzen Euphorie hier nicht ganz folgen oO. Ist aber interessant zu sehen wie realistisch man doch dabei bleibt, so passt man seine Erwartungen an das an was einem die G80 bietet und freut sich auch noch darüber. Oo
Wäre die G80 durchschnittlich 20% langsamer als es der Fall ist, so würde man sich genauso freuen. Witzig irgendwie :)
Der G80 ist schneller geworden als ich erwartet habe. Denn ich bin beim Topmodell (der GTX) von 7950 GX2 Speed bei D3D10-Support ausgegangen. Und ich hab auch nicht im Entferntesten mit dem jetzt vorliegenden Design gerechnet.
Moralelastix
2006-11-04, 13:17:08
@Raff
Ist es dann nicht auch Zeit die Voodoos in Rente zu schicken?
Spasstiger
2006-11-04, 13:18:39
@Raff
Ist es dann nicht auch Zeit die Voodoos in Rente zu schicken?
Eine Voodoo 5 6000 schickt man doch nicht in Rente, solange sie funktioniert. :eek:
Gibt ja auch viele Leute, die ihre Oldtime hegen und pflegen und auch am Wochenende mal spazieren fahren.
Moralelastix
2006-11-04, 13:20:03
Ich mein von Seiten der Bildqualität?!
Slipknot79
2006-11-04, 13:23:35
Wir werden wohl auf die ersten richtigen Reviews/Analysen in ein paar Tagen noch auswarten koennen oder?
Das sowieso, die einzigen ernst zu nehmenden.
>>Waere er um 20% langsamer, waeren die negativen Stimmen noch staerker.
Schauen wir mal.
7900 GTX 38fps und 8800GTX 75fps
75 - 20% = 60fps
38 zu 60 liest sich dich auch nicht schlecht und die Leute würde sich freuen. Der Grund: Es liegt über dem wichtigen Wert 60. Gründe wir man immer finden um sich aufzugeilen, egal ob die Karte nun 60 oder 75fps liefert. Ist doch bei jeder Generation so gewesen.
Das ganze erinniert mich an diese Grenzwerte von Emissionwerten, Autoabgase, Industrieemission usw... Man passt die Grenzwerte an die Anlagen an, also an das was technisch möglich ist, und nicht an die Bedürfnisse des Menschen.
Und bei der Graka passt sich eben der Mensch an das an was technisch möglich ist und freut sich eben darüber :) und nicht an etwa 32xAA und 16xFA bei einer Auflösung von 2XYZx1XYZ und das bei <100W.
Bleiben wir realistisch. Mag sein, dass der G80 in hohen Auflösungen sehr schnell ist, aber für die meisten normalen Highendanwender ist der G80 höchstens 20% schneller als der 7950Gx2.
Das zeigt zwar die wahre Leistung des G80 aber d.h. nicht das diese Leistung auch entfaltet werden kann.
SKYNET
2006-11-04, 13:34:28
Eine Voodoo 5 6000 schickt man doch nicht in Rente, solange sie funktioniert. :eek:
Gibt ja auch viele Leute, die ihre Oldtime hegen und pflegen und auch am Wochenende mal spazieren fahren.
dann kann er sie ja am WE einbauen... und unterhalb der woche die viper venom 1000TT fahren! :biggrin: :tongue: :wink:
AnarchX
2006-11-04, 13:36:37
Bleiben wir realistisch. Mag sein, dass der G80 in hohen Auflösungen sehr schnell ist, aber für die meisten normalen Highendanwender ist der G80 höchstens 20% schneller als der 7950Gx2.
Das zeigt zwar die wahre Leistung des G80 aber d.h. nicht das diese Leistung auch entfaltet werden kann.
Wer genug Grips hat, das Treiberpanel zu finden und dort die AA/AF-Einstellungen, der wird auch die Leistung des G80 entfalten können...:wink:
Zudem welcher HighEnd-Anwender verwendet Auflösungen unter 1600x1200 bzw. 1680x1050?
Ailuros
2006-11-04, 13:40:33
Das ganze erinniert mich an diese Grenzwerte von Emissionwerten, Autoabgase, Industrieemission usw... Man passt die Grenzwerte an die Anlagen an, also an das was technisch möglich ist, und nicht an die Bedürfnisse des Menschen.
Und bei der Graka passt sich eben der Mensch an das an was technisch möglich ist und freut sich eben darüber :) und nicht an etwa 32xAA und 16xFA bei einer Auflösung von 2XYZx1XYZ und das bei <100W.
Dass es mir persoenlich eher um das Preis-/Bildqualitaetsverhaeltnis geht hab ich schon vor einigen Seiten gepostet. Und wenn Du schon eine Antwort zum fettgedruckten haben willst, dann sag ich Dir mit voller Verantwortung dass G80 im einen 16xAA modus etwa so viel Leistung verliert wie eine G7x mit nur 4xAA und dass stets kombiniert mit um weites winkelunabhaengigerem AF.
Das ist auch natuerlich nur eine Perspektive, denn ich koennte mir noch einige alternative Faelle ausdenken. Nichtdestominder bleibt es dabei dass Du entweder 256xAA mit 60 fps brauchst um die besagte "Euphorie" zu teilen - sprich Du bist um zich Male anspruchsvoller als andere hier oder Du willst noch einfacher nicht einsehen was genau hier vorgeht. Denn einreden kann man sich vieles.
Ailuros
2006-11-04, 13:46:37
Bleiben wir realistisch. Mag sein, dass der G80 in hohen Auflösungen sehr schnell ist, aber für die meisten normalen Highendanwender ist der G80 höchstens 20% schneller als der 7950Gx2.
Das zeigt zwar die wahre Leistung des G80 aber d.h. nicht das diese Leistung auch entfaltet werden kann.
Bis zu 20%? So viel gewinnt eine G80 nur mit 4xAA vs. GX2 mit 4xAA; wenn nicht limitiert mal wieder etwas anderes. Ob diese Leistung entfaltet werden kann koennen Dir leider nur zukuenftige Spiele zeigen. Die Crytek Kerle sagten selber dass Crysis durch und durch ein D3D9.0 spielt ist aber man trotz allem eine D3D10 GPU braucht um es gut spielen zu koennen. Ja ich weiss April 2007 nach den letzten Angaben, aber zu der Zeit werden die Dinger auch um einiges weniger kosten fuer die Geduldigen die noch etwas warten koennen.
Slipknot79
2006-11-04, 13:55:07
>Denn einreden kann man sich vieles.
Genau das habe ich mit meinem Beitrag vorhin ausdrücken wollen. Man sucht sich eben Gründe wie zB "G80 im einen 16xAA modus etwa so viel Leistung verliert wie eine G7x mit nur 4xAA und dass stets kombiniert mit um weites winkelunabhaengigerem AF." Ob man nun 1280x800@4AA auf nem 19 Zöller oder 1920x1200@16xAA auf nem 30 Zöller spielt ist objektiv gesehen völlig egal, denn bläht man den Monitor auf, muss man zwangläufig die Auflösung auch aufblähen und gurkt unterm Strich mit 40fps herum auf nem 30 Zöller wie jemand mit 40fps auf nem 19 Zöller bei gleicher BQ trotz unterschiedlicher Auflösung. MaW: Ein G7x hat auf nem kleinen Monitor genausoviel Sinn wie ne G80 auf nem großen Ding.
Klar, die Karte die ich will, muss erst erfunden werden. Das heißt, egal ob ich zu einer G7x oder G80 greife, spielt alles keine Rolle und lässt mich einfach kalt.
Ailuros
2006-11-04, 14:00:18
>Denn einreden kann man sich vieles.
Genau das habe ich mit meinem Beitrag vorhin ausdrücken wollen.
Klar, die Karte die ich will, muss erst erfunden werden. Das heißt, egal ob ich zu einer G7x oder G80 greife, spielt alles keine Rolle und lässt mich einfach kalt.
Dann bist Du schlicht und einfach undankbar oder erwartest fuer eine paar hundert Euronen einen professionellen Flugsimulator ala Quantum3D. Es gibt nicht sehr viele Maerkte wo Produkte mit jeder neuen Generation bis zu zweimal schneller und zich Male besser werden.
Man sucht sich eben Gründe wie zB "G80 im einen 16xAA modus etwa so viel Leistung verliert wie eine G7x mit nur 4xAA und dass stets kombiniert mit um weites winkelunabhaengigerem AF.
Die XBox360 ist um einiges billiger; sie haelt 4-5 Jahre an und man braucht sich bei vermatschten Texturen und verzackten Kanten in 720p auch keine besondere Muehe geben um Gruende oder Entschuldigungen zu suchen.
Slipknot79
2006-11-04, 14:07:10
>Die XBox360 ist um einiges billiger; sie haelt 4-5 Jahre an und man braucht sich bei vermatschten Texturen und verzackten Kanten in 720p auch keine besondere Muehe geben um Gruende oder Entschuldigungen zu suchen.
Mühelos meine ich dazu: Auf nem 50 Zöller in 1920x1200 spielen? Dann bleibe ich doch gleich bei 1280x800 auf nem 19 oder 17 Zöller. Das ist noch billiger, denn sowas hat man ja schon.
>Es gibt nicht sehr viele Maerkte wo Produkte mit jeder neuen Generation bis zu zweimal schneller und zich Male besser werden.
Dann wirds eben Zeit, dass man auf Bedürfnisse hört :) Seit 20 Jahren hat sich da nicht sonderlich viel getan in dieser Richtung. Seit 20 Jahren sitzt man vor Monitoren rum, wo bleiben endlich die Quantums?
LovesuckZ
2006-11-04, 14:15:30
Ob man nun 1280x800@4AA auf nem 19 Zöller oder 1920x1200@16xAA auf nem 30 Zöller spielt ist objektiv gesehen völlig egal, denn bläht man den Monitor auf, muss man zwangläufig die Auflösung auch aufblähen und gurkt unterm Strich mit 40fps herum auf nem 30 Zöller wie jemand mit 40fps auf nem 19 Zöller bei gleicher BQ trotz unterschiedlicher Auflösung.
:confused:
"gleicher BQ"?
Erkläre das doch mal bitte.
cl55amg
2006-11-04, 14:19:20
E6400@1,867Ghz und X1900XT 512MB
29402
E6400@3,296Ghz und X1900XT 512MB
29401
;)
Wahnsinnsunterschied bei ~90% mehr CPU-Leistung. :cool:
Außerdem wurde hier sogar nur in 1280x1024 ohne AA/AF gebencht.
Danke für den Test.
Slipknot79
2006-11-04, 14:22:44
:confused:
"gleicher BQ"?
Erkläre das doch mal bitte.
*seufz*
Spiele mal ein Spiel in 1280x800 auf nem 19 Zöller und beobachte die Treppchen. Spiele ein Spiel in 1280x800 auf nem 30 Zöller und beobachte die Treppchen. Auf nem 30 Zöller werden dich die Treppchen mehr stören als auf nem 19 Zöller da dieser kompakter ist. Es bleibt also einem nicht erspart die Auflösung auf nem 30 Zöller zB auf 1920x1200 zu stellen damit diese Treppchen erträglicher sind. Was ändert sich hier in Sachen BQ? Nix.
Bleiben wir realistisch. Mag sein, dass der G80 in hohen Auflösungen sehr schnell ist, aber für die meisten normalen Highendanwender ist der G80 höchstens 20% schneller als der 7950Gx2.
Das zeigt zwar die wahre Leistung des G80 aber d.h. nicht das diese Leistung auch entfaltet werden kann.
Und? Dann hau ich halt AA oder AF drauf for free. Auch schön.
LovesuckZ
2006-11-04, 14:28:33
Spiele mal ein Spiel in 1280x800 auf nem 19 Zöller und beobachte die Treppchen. Spiele ein Spiel in 1280x800 auf nem 30 Zöller und beobachte die Treppchen. Auf nem 30 Zöller werden dich die Treppchen mehr stören als auf nem 19 Zöller da dieser kompakter ist. Es bleibt also einem nicht erspart die Auflösung auf nem 30 Zöller zB auf 1920x1200 zu stellen damit diese Treppchen erträglicher sind. Was ändert sich hier in Sachen BQ? Nix.
Ich könnte mich auch einfach weiter wegsetzen...:rolleyes:
Slipknot79
2006-11-04, 14:36:02
Ich könnte mich auch einfach weiter wegsetzen...:rolleyes:
Wie? 1m vom Tisch entfernt, die Tastatur auf dem linken Knie und die Maus auf dem rechten?
Ailuros
2006-11-04, 14:38:31
Man muss sich den unendlichen Zwischen-edits auch anpassen oder? ;)
Genau das habe ich mit meinem Beitrag vorhin ausdrücken wollen. Man sucht sich eben Gründe wie zB "G80 im einen 16xAA modus etwa so viel Leistung verliert wie eine G7x mit nur 4xAA und dass stets kombiniert mit um weites winkelunabhaengigerem AF." Ob man nun 1280x800@4AA auf nem 19 Zöller oder 1920x1200@16xAA auf nem 30 Zöller spielt ist objektiv gesehen völlig egal, denn bläht man den Monitor auf, muss man zwangläufig die Auflösung auch aufblähen und gurkt unterm Strich mit 40fps herum auf nem 30 Zöller wie jemand mit 40fps auf nem 19 Zöller bei gleicher BQ trotz unterschiedlicher Auflösung. MaW: Ein G7x hat auf nem kleinen Monitor genausoviel Sinn wie ne G80 auf nem großen Ding.
Der eigentliche Sinn von Multisampling ist dass man die hoechstmoegliche Aufloesung mit der hoechstmoeglichen AA sample Anzahl verwenden sollte; daher ist erstmal Deine Logik sowieso verdreht denn man wuerde in einem Fall wo die Aufloesung begrenzt mehr AA samples und in sehr hohen Aufloesungen weniger AA samples benutzen, weil eben zufaelligerweise irgendwann doch die Fuellrate bzw. Bandbreite am Ende ausgehen wird.
Man vergleicht sowieso AA Methoden in gleichen Aufloesungen, wobei je mehr samples fuer jede spezifische Aufloesung desto besseres AA. Anders 8xAA in 1600*1200 ist zwar nicht in Echtzeit um "2x mal" besser als 4xAA in 1600*1200, denn die meisten Unfeinheiten werden schon mit 4x geglaettet, aber der Unterschied ist schon da.
Weiterhin gibt es fundamentale Unterschiede was AF Qualitaet betrifft, die fuer mich persoenlich um einiges wichtiger sind als jegliche Steigerung der AA samples. Ich hab mir nicht umsonst in den letzten paar Jahren die Finger wund getippt ueber miserable Filterungs-Optimierungen und sehr hohe Winkelabhaengigkeit. Das muss ja auch nicht jedermann's Bier sein, aber ich brauch mir auch nicht genau einreden was ich haben will oder nicht und dass schon seit Jahren.
Zu guter letzt hat eine G7x eine Rechenkraft die man als X bezeichnen koennte; G8x hat in diesem Fall eine Rechenkraft zwischen X*2 bis zu X*4 die man mit absoluter Sicherheit in echten Spielen der Zukunft ausspielen kann. Noch dazu ein paar "Kleinigkeiten" wie HDR + MSAA die auf G7x erstmal gar nicht gehen.
Und nein zum letzten Mal es muss all dieses einem jedem nicht stehen; ueberhaupt wenn man solche Unterschiede schon gar nicht sehen kann oder wenn sie einen kalt lassen.
Ich mein von Seiten der Bildqualität?!
Hab ich was übersehen und der G80 bietet 16x SGSSAA?
MfG,
Raff
Spasstiger
2006-11-04, 14:43:16
dann kann er sie ja am WE einbauen...
Warum sollte er sie ausbauen? Gibt doch keinen Grund dafür, es ist die Hauptgrafikkarte in seinem Zweitrechner. Mit seinem Pentium M würde er die V5 6K eh nicht zusammenbekommen.
Ailuros
2006-11-04, 14:43:21
Wie? 1m vom Tisch entfernt, die Tastatur auf dem linken Knie und die Maus auf dem rechten?
Schon mal was von schnurlosen keyboards bzw. mice gehoert? Das wir mit der eher sinnlosen Debatte hier nur Zeit und Bandbreite verschwenden sollte klar sein, aber versuch mal ausnahmsweise mit etwas besserer Logik zu punkten.
Moralelastix
2006-11-04, 14:43:31
Das meinte ich, geht des auch net mit G80 SLI?
Ailuros
2006-11-04, 14:46:54
Das meinte ich, geht des auch net mit G80 SLI?
Mit etwas Phantasie kann ich mir leicht 32xS pro board vorstellen; ergo *2=? (wird aber nicht mehr oder weniger "nutzlos" sein als die bisherigen SLi-AA modi, aber wenn's unbedingt sein muss... ;) )
Weis man noch net, keiner hat bisher 2xG80 getestet. Das wird wohl erst am Mittwoch in erscheinung treten. Der Treiber sollte ja SLI Rdy sein für G80.
Was mich aber etwas bedröppelt, das es bisher keinen Release Treiber gibt, also wird der erst am Dienstag vieleicht rausgesendet und die Reviewer dürfen sich die nacht um die Ohren schlagen wenn sie am Mittwoch die besten Ergebnisse haben wollen.
Warum sollte er sie ausbauen? Gibt doch keinen Grund dafür, es ist die Hauptgrafikkarte in seinem Zweitrechner. Mit seinem Pentium M würde er die V5 6K eh nicht zusammenbekommen.
Leider. Erst mit einer CPU dieses Kalibers würde sie 100% am Limit rennen, in jeder Situation.
Fakt ist: Auch ein G80 bietet insgesamt kein besseres AA als die Voodoo5 6000. Die Polygone werden zwar glatter denn je, aber was ist mit den Tapeten? Multisampling ist schön, aber wer hochwertiges sparse grid SSAA in Aktion gesehen hat, der ist wenig beeindruckt. Denn heutige und kommende Spiele brauchen Textur-AA IMO sehr dringend.
Mit etwas Phantasie kann ich mir leicht 32xS pro board vorstellen; ergo *2=? (wird aber nicht mehr oder weniger "nutzlos" sein als die bisherigen SLi-AA modi, aber wenn's unbedingt sein muss... ;) )
Geniale BQ, aber wieder zum Schreien ineffizient.
MfG,
Raff
Slipknot79
2006-11-04, 14:57:09
Schon mal was von schnurlosen keyboards bzw. mice gehoert? Das wir mit der eher sinnlosen Debatte hier nur Zeit und Bandbreite verschwenden sollte klar sein, aber versuch mal ausnahmsweise mit etwas besserer Logik zu punkten.
omg, es geht nicht um die Kabellänge, sondern um die Bequemlichkeit. Wer hat hier jetzt mit mangelnder Logik gepunktet? ;) Spiel mal nen Egoshoter mit den Eingabegeräten auf dem Schoss...
Moralelastix
2006-11-04, 14:58:39
Also supersampling geht auch nur 8x beim G80?
Slipknot79
2006-11-04, 14:59:28
Man muss sich den unendlichen Zwischen-edits auch anpassen oder? ;)
Der eigentliche Sinn von Multisampling ist dass man die hoechstmoegliche Aufloesung mit der hoechstmoeglichen AA sample Anzahl verwenden sollte; daher ist erstmal Deine Logik sowieso verdreht denn man wuerde in einem Fall wo die Aufloesung begrenzt mehr AA samples und in sehr hohen Aufloesungen weniger AA samples benutzen, weil eben zufaelligerweise irgendwann doch die Fuellrate bzw. Bandbreite am Ende ausgehen wird.
Man vergleicht sowieso AA Methoden in gleichen Aufloesungen, wobei je mehr samples fuer jede spezifische Aufloesung desto besseres AA. Anders 8xAA in 1600*1200 ist zwar nicht in Echtzeit um "2x mal" besser als 4xAA in 1600*1200, denn die meisten Unfeinheiten werden schon mit 4x geglaettet, aber der Unterschied ist schon da.
Weiterhin gibt es fundamentale Unterschiede was AF Qualitaet betrifft, die fuer mich persoenlich um einiges wichtiger sind als jegliche Steigerung der AA samples. Ich hab mir nicht umsonst in den letzten paar Jahren die Finger wund getippt ueber miserable Filterungs-Optimierungen und sehr hohe Winkelabhaengigkeit. Das muss ja auch nicht jedermann's Bier sein, aber ich brauch mir auch nicht genau einreden was ich haben will oder nicht und dass schon seit Jahren.
Zu guter letzt hat eine G7x eine Rechenkraft die man als X bezeichnen koennte; G8x hat in diesem Fall eine Rechenkraft zwischen X*2 bis zu X*4 die man mit absoluter Sicherheit in echten Spielen der Zukunft ausspielen kann. Noch dazu ein paar "Kleinigkeiten" wie HDR + MSAA die auf G7x erstmal gar nicht gehen.
Und nein zum letzten Mal es muss all dieses einem jedem nicht stehen; ueberhaupt wenn man solche Unterschiede schon gar nicht sehen kann oder wenn sie einen kalt lassen.
>Man muss sich den unendlichen Zwischen-edits auch anpassen oder?
Naja, sonst haut mich ein Mod, wenn ich 100 Posts nacheinander erstelle :(
Du bist eindeutig der Theoretiker. Oder, warum spielt man auf nem 30 Zöller nicht in 1024x768? Weils einfach scheisse aussieht. Schlechter jedenfalls als 1024x768 auf nem 17 Zöller.
AF, HDRR+AA habe ich absichtlich nicht berücksichtig, da es in der Diskussion nur um AA ging. Dann denk dir statt der G7x ne 200EUR 8800GT.
HDRR+AA: Welches aktuelle Spiel bietet HDRR+AA? Da fällt mir mal spontan Oblivion ein, aber wer spielt das noch? Interessant wirds erst mit Unreal Engine 3 und Crysis. HDRR+AA ist schon dank Source-Engine möglich, auch wenn das HDR etwas low/pseudo sein mag. Double Agent ist der nächste Lichtblick, HDRR ohne AA auf nem G7x, was solls. Auf nem 17 oder 19 Zöller und 1280x1024 ist AA nicht wirklich notwendig. Bei nem 30 Zöller schauts da wieder anders aus.
Ich bleibe nachwievor bei meiner Meinung, denn wer spielt auf nem 30 Zöller in 1024x768?
Sonyfreak
2006-11-04, 15:06:31
Auf nem 17 oder 19 Zöller und 1280x1024 ist AA nicht wirklich notwendig.Ich spiele auf einem 19" CRT auf 1600x1200 und ärgere mich selbst mit 4xAA noch über die sichtbaren Kanten.
Da kann man dann wirklich nur sagen, dass du mit in der Hinsicht schlechten Augen gesegnet bist, wenn du da meinst, dass AA nicht wichtig ist. Ich muss wirklich sagen, dass ich dich da beneide, weil ich würde gerne auch immer "nur" auf 1280x1024 spielen müssen, um keine Kanten mehr zu sehen. (<= ernstgemeint)
mfg.
Sonyfreak
Ailuros
2006-11-04, 15:11:27
Und nochmal zurueck zur ueblen alten Theorie....Textur-AA ist schon bilinear bzw. trilinear. Was heisst dass man im Idealfall ein Treiber nie unterfiltern sollte sonst gruselt es tatsaechlich und da hilft der Zusatz von SSAA dann auch nichts mehr.
Den LOD offset den Supersampling mit steigender Sample Anzahl erreichen kann, ist relativ so mickrig im Vergleich zu dem was AF im Gegensatz liefern kann, dass Supersampling eine unendliche Verschwendung von Fuellrate darstellt. Fuer einen LOD offset der analog zu 4xAF liegen wuerde, braeuchte man 16xSS.
Geniale BQ, aber wieder zum Schreien ineffizient.
Ich weiss noch gar nichts was hybride modi betrifft. Aber da es maximal 8x Multisampling gibt und man dazu noch ohne besonderen Aufwand 2x oder 4xOGSS dazuschrauben koennte, spekuliere ich auf moegliches 32xS pro GPU.
Fuer die paar sehr seltene Faelle wo ich tatsaechlich FS-SSAA einsetzen wuerde ist mir sowieso 16xS + 16xAF gut genug (stets ohne Optimierungen auf G7x bitte heh). Supersampling versetzt mir den LOD um -1.0, 16xAF um zich Male mehr und ich hab auf Polygonkanten und intersections auch einen 8*8 EER. In Unreal1 (+ S3TC Texturen der 2en UT CD) laeuft eine G7x sowieso mit diesen settings in 1280 mehr als nur fluessig.
Slipknot79
2006-11-04, 15:12:50
Ich spiele auf einem 19" CRT auf 1600x1200 und ärgere mich selbst mit 4xAA noch über die sichtbaren Kanten.
Da kann man dann wirklich nur sagen, dass du mit in der Hinsicht schlechten Augen gesegnet bist, wenn du da meinst, dass AA nicht wichtig ist. Ich muss wirklich sagen, dass ich dich da beneide, weil ich würde gerne auch immer "nur" auf 1280x1024 spielen müssen, um keine Kanten mehr zu sehen. (<= ernstgemeint)
mfg.
Sonyfreak
Das ist rein subjektiv. Es ist ja nicht so, dass ich nach Kanten such wenn ich spiele. Es soll nur nicht soooooo aufällig sein, sonst kann ich gleich in 640x480 spielen. Du bist da wohl sensibler als ich.
dargo
2006-11-04, 15:13:59
HDRR+AA: Welches aktuelle Spiel bietet HDRR+AA? Da fällt mir mal spontan Oblivion ein, aber wer spielt das noch?
Da gibts noch zusätzlich:
1. Call of Juarez
2. Splinter Cell 3
3. Gothic 3 (afaik)
Die gelbe Eule
2006-11-04, 15:15:46
omg, es geht nicht um die Kabellänge, sondern um die Bequemlichkeit. Wer hat hier jetzt mit mangelnder Logik gepunktet? ;) Spiel mal nen Egoshoter mit den Eingabegeräten auf dem Schoss...
Cooller kann das mit Quake3/4 und das sehr erfolgreich ;)
http://img204.imageshack.us/img204/5295/2006010614511626nyk3.th.jpg (http://img204.imageshack.us/my.php?image=2006010614511626nyk3.jpg)
Ja der spielt echt so ...
Slipknot79
2006-11-04, 15:15:48
Da gibts noch zusätzlich:
1. Call of Juarez
2. Splinter Cell 3
3. Gothic 3 (afaik)
Gothic 3 leider nicht :(, zumindest was mir google rausgepsuckt hat.
Ailuros
2006-11-04, 15:15:53
omg, es geht nicht um die Kabellänge, sondern um die Bequemlichkeit. Wer hat hier jetzt mit mangelnder Logik gepunktet? ;) Spiel mal nen Egoshoter mit den Eingabegeräten auf dem Schoss...
Und was haelt Dich genau davon auf Dich mit einem KABEL-LOSEN keyboard+mouse auf einen Tisch oder Buero einige Meter entfernt vom Bildschirm zu setzen?
Slipknot79
2006-11-04, 15:16:49
Cooller kann das mit Quake3/4 und das sehr erfolgreich ;)
http://img204.imageshack.us/img204/5295/2006010614511626nyk3.th.jpg (http://img204.imageshack.us/my.php?image=2006010614511626nyk3.jpg)
Ja der spielt echt so ...
Der sitzt aber auch nicht 1m entfernt, zumindest sieht es auf dem Bild nicht so aus :( Da gehört dann zwangläufig die Maus auf sein Schoss.
dargo
2006-11-04, 15:18:01
Gothic 3 leider nicht :(, zumindest was mir google rausgepsuckt hat.
Ich habe im ATI Forum (glaube ich) mitbekommen, dass HDR+AA in Gothic 3 mit dem Chucky Treiber funzt.
Slipknot79
2006-11-04, 15:18:38
Und was haelt Dich genau davon auf Dich mit einem KABEL-LOSEN keyboard+mouse auf einen Tisch oder Buero einige Meter entfernt vom Bildschirm zu setzen?
Das Vor- und Zurückbewegen des Monitors beim Wechseln von Spiele- auf Arbeits-/Desktopbetrieb. Oder das ständige Hinstellen und Entfernen eines Tisches, extra für die Eingabegeärte.
Slipknot79
2006-11-04, 15:20:22
Ich spiele auf einem 19" CRT auf 1600x1200 und ärgere mich selbst mit 4xAA noch über die sichtbaren Kanten.
Da kann man dann wirklich nur sagen, dass du mit in der Hinsicht schlechten Augen gesegnet bist, wenn du da meinst, dass AA nicht wichtig ist. Ich muss wirklich sagen, dass ich dich da beneide, weil ich würde gerne auch immer "nur" auf 1280x1024 spielen müssen, um keine Kanten mehr zu sehen. (<= ernstgemeint)
mfg.
Sonyfreak
btw. Bevor mich da irgendwelche Kanten stören, würde mich da eher das Flimmern stören, oder hast du so nen guten CRT?
Rente
2006-11-04, 15:22:08
Also supersampling geht auch nur 8x beim G80?
Es müsste eigentlich 8x8 SuperSampling funktionieren (wobei ich nicht weiß ob der Speicher ausreicht), da das Rendertarget auf 8kx8k vergrößert wurde (Teil der D3D10-Spezifikation), wie es mit neuen Mischmodi aussieht (d.h. ob mehr als 16xS) ist mir nicht bekannt.
Den LOD offset den Supersampling mit steigender Sample Anzahl erreichen kann, ist relativ so mickrig im Vergleich zu dem was AF im Gegensatz liefern kann, dass Supersampling eine unendliche Verschwendung von Fuellrate darstellt. Fuer einen LOD offset der analog zu 4xAF liegen wuerde, braeuchte man 16xSS.
Zeig mir mal wie AF bei einer zur Projektionsfläche parallelen Fläche die Bildqualität verbessert.
SSAA tut dies.
Natürlich kann man auch das auch per Shader-AA lösen. Der Performancevorteil gegenüber SSAA geht dabei aber meistens gegen 0.
Ailuros
2006-11-04, 15:28:38
Du bist eindeutig der Theoretiker. Oder, warum spielt man auf nem 30 Zöller nicht in 1024x768? Weils einfach scheisse aussieht. Schlechter jedenfalls als 1024x768 auf nem 17 Zöller.
Natuerlich spielt keiner auf einem 30" in 1024. Je hoeher die Aufloesung desto weniger AA samples kann man anwenden und genauso umgekehrt; je kleiner die Aufloesung desto mehr samples kann man anwenden. Wenn mir eine GPU bis zu 16x samples liefern kann, dann schalt ich wohl eher wenn moeglich alle 16x in einer Aufloesung wie 1280 ein. Sonst bei 1920*1440 hab ich dann hoechstwahrscheinlich nicht mehr den Luxus mehr als 4x samples als Beispiel zu benutzen.
Was genau faellt Dir hier so schwer zu verstehen?
AF, HDRR+AA habe ich absichtlich nicht berücksichtig, da es in der Diskussion nur um AA ging. Dann denk dir statt der G7x ne 200EUR 8800GT.
Die Seiten-lange Diskussion ging und GEHT nicht nur um AA.
HDRR+AA: Welches aktuelle Spiel bietet HDRR+AA? Da fällt mir mal spontan Oblivion ein, aber wer spielt das noch? Interessant wirds erst mit Unreal Engine 3 und Crysis. HDRR+AA ist schon dank Source-Engine möglich, auch wenn das HDR etwas low/pseudo sein mag. Double Agent ist der nächste Lichtblick, HDRR ohne AA auf nem G7x, was solls. Auf nem 17 oder 19 Zöller und 1280x1024 ist AA nicht wirklich notwendig. Bei nem 30 Zöller schauts da wieder anders aus.
Also bei 1280 und einem 19" braucht man kein AA mehr?
Ich bleibe nachwievor bei meiner Meinung, denn wer spielt auf nem 30 Zöller in 1024x768?
*seufz*
Sonyfreak
2006-11-04, 15:31:42
btw. Bevor mich da irgendwelche Kanten stören, würde mich da eher das Flimmern stören, oder hast du so nen guten CRT?Mein CRT ist zwar kein Profigerät, aber in seiner Preisklasse doch ziemlich gut. Bei 1600x1200 packt er noch 85Hz, was mir reicht, und auch die meisten Menschen als annähernd flimmerfrei erachten.
mfg.
Sonyfreak
Slipknot79
2006-11-04, 15:33:32
>Also bei 1280 und einem 19" braucht man kein AA mehr?
Das soll jeder für sich entscheiden.
shadermark resultate, 8800GTX - RX1950 - RX1950 CF:
http://img244.imageshack.us/my.php?image=shaderresultszo7.jpg
gibs vergleichsbilder vom neuen AF ?
Ailuros
2006-11-04, 15:38:41
shadermark resultate, 8800GTX - RX1950 - RX1950 CF:
http://img244.imageshack.us/my.php?image=shaderresultszo7.jpg
Gott sei Dank zurueck zum Thema.....leider fehlt da eine G7x zum Vergleich fuer die branching Leistung.
Leider. Erst mit einer CPU dieses Kalibers würde sie 100% am Limit rennen, in jeder Situation.
Fakt ist: Auch ein G80 bietet insgesamt kein besseres AA als die Voodoo5 6000. Die Polygone werden zwar glatter denn je, aber was ist mit den Tapeten? Multisampling ist schön, aber wer hochwertiges sparse grid SSAA in Aktion gesehen hat, der ist wenig beeindruckt. Denn heutige und kommende Spiele brauchen Textur-AA IMO sehr dringend.
es gibt wieder vernünftiges AF, das gibt die wesentlich höhere bildqualität als SSAA bei wesentlich besserer leistung ;)
Slipknot79
2006-11-04, 15:47:20
Ich habe mal den FEAR Benchmark herangezogen und mit meinem System verglichen.
Zur Erinnerung: 8800GTX 1600x1200 (gut für nen 24/30 Zöller) alles max, 4xAA 16xAF, keine SS
41/81/185
Mein System in 1280x1024, kein AA (da nicht notwendig auf nem 17 Zöller), 16xAF, keine SS
41/73/164
Naja, ernüchtender Vorsprung der 8800GTX, selbst wenn ich meine Graka/CPU normal takten würde. (mache ich später)
(Und ja, mir ist klar dass mein System in 1600x1200 sucken würde, aber da ich keinen 24/30 Zöller besitze, erübrigt sich das Problem)
The_Invisible
2006-11-04, 15:47:58
Ich habe im ATI Forum (glaube ich) mitbekommen, dass HDR+AA in Gothic 3 mit dem Chucky Treiber funzt.
gothic 3 bietet aber kein HDRR
mfg
The_Invisible
2006-11-04, 15:52:06
Ich habe mal den FEAR Benchmark herangezogen und mit meinem System verglichen.
Zur Erinnerung: 8800GTX 1600x1200 (gut für nen 24/30 Zöller) allex max, 4xAA 16xAF, keine SS
41/81/185
Mein System in 1280x1024, kein AA (da nicht notwendig auf nem 17 Zöller), 16xAF, keine SS
41/73/164
Naja, ernüchtender Vorsprung der 8800GTX, selbst wenn ich meine Graka normal takten würde.
(Und ja, mir ist klar dass mein System in 1600x1200 sucken würde, aber da ich keinen 24/30 Zöller besitze, erübrigt sich das Problem)
und willst du das jetzt auf alle andere übertagen? auf nen 17" zu arbeiten ist ne qual, setz dich einmal vor nen >20" tft und du weißt was ich meine
kann man ja auch sagen das man auf nen 7" tft spielt und in 640x480 keine kanten sieht und dafür ne geforce 6200 reicht, was auch nonsense ist
mfg
dargo
2006-11-04, 15:54:07
@Slipknot79
Was ist das denn wieder für ein schwachsinniger Vergleich? :|
Slipknot79
2006-11-04, 15:55:27
>und willst du das jetzt auf alle andere übertagen?
Nein, ich meinte vorhin dass jeder für sich entscheiden soll was gut ist.
Slipknot79
2006-11-04, 15:55:50
@Slipknot79
Was ist das denn wieder für ein schwachsinniger Vergleich? :|
Keine Lust mich zu zitieren :(
Rente
2006-11-04, 15:57:24
@Slipknot79
Was ist das denn wieder für ein schwachsinniger Vergleich? :|
Er redet nur für sich selbst die 8800GTX schlecht...
Auf einem 17'' CRT braucht es genauso AA, außer die Maske ist schon total überfahren so, dass man den Unterschied nicht mehr sieht.
Nochmal zu SuperSampling: ist 8x8, also 64xSSAA mit 786MB VRam möglich und wieviel Füllrate bleibt dann noch übrig?
dildo4u
2006-11-04, 15:58:29
@Slipknot79
Was ist das denn wieder für ein schwachsinniger Vergleich? :|Jup warum sollte man kein AA brauchen auf einem 17er TFT? :|
Schon alleine TSAA für Zäune Bäume usw sind einer High-End Karte doch die beste Möglichkeit überschüssige Leistung in Bildqualität umzusetzen.
Ruhe jetzt mit dem Offtopic gequassel, ob man ein G80 brauch oder nicht sollte man für sich selbst entscheiden und nicht die Welt damit zuspämen wie unsinnig es ist so ne Karte in 1024 zu betreiben...
Slipknot79
2006-11-04, 16:00:29
>Er redet nur für sich selbst die 8800GTX schlecht...
An andere Stelle meinte ich: Es lässt mich kalt, folglich ist es egal ob ich ne G7x oder nen G80 besitze. Also warum nicht gleich den G7x lassen?
Krustovsky
2006-11-04, 16:00:58
Eins ist klar: G80 ist zunächst mal High End, das sollte auch für den Monitor gelten - 1280x1024 ist sicher nicht mehr die Premiumklasse unter den Bildschirmen;)
Slipknot79
2006-11-04, 16:03:54
Eins ist klar: G80 ist zunächst mal High End, das sollte auch für den Monitor gelten - 1280x1024 ist sicher nicht mehr die Premiumklasse unter den Bildschirmen;)
So ist es. An anderen Stellen wird angeraten, dass man ne G80 für 1024x768 nicht missbrauchen sollte. Kommt man dann mit Ergebnissen, passt aufeinmal das wieder nicht.
ShadowXX
2006-11-04, 16:04:09
Er redet nur für sich selbst die 8800GTX schlecht...
Das Gefühl habe ich auch......aber genug OT.
Nochmal zu SuperSampling: ist 8x8, also 64xSSAA mit 786MB VRam möglich und wieviel Füllrate bleibt dann noch übrig?
Ich weiß nicht ob 8x8 OGSSAA BQ-Technisch wirklich soooo sinnig ist.
So ist es. An anderen Stellen wird angeraten, dass man ne G80 für 1024x768 nicht missbrauchen sollte. Kommt man dann mir Ergebnissen, passt aufeinmal das wieder nicht.
Die meistens stören sich eher an deiner Meinung, das man auf einem 17" Monitor kein AA benötigt. Gerade bei einem 17" Monitor benötigt man AA. Bei einem 24-30" Gerät, auf dem man irgendwelche Auflösungen > 2000 fährt braucht man eher kein AA.
Und wenn du mal einen Augenblick darüber nachdenkst wofür AA ist und was es macht, wirst du zum selben Ergebnis kommen.
Krustovsky
2006-11-04, 16:13:15
AA braucht man immer ;D Auch auf 24-30":biggrin:
Rente
2006-11-04, 16:13:48
Ich weiß nicht ob 8x8 OGSSAA BQ-Technisch wirklich soooo sinnig ist.
Sinnig? Nein! Interessant? Sicherlich, auch wenn selbst 4x4 OGSSAA kaum nutzbar ist, dafür aber nicht wirklich besser aussieht als 16xS; allerdings dürfte 8x8 OGSSAA etwa auf dem BQ-Niveau einer Vodoo5 6000@8xRGSSAA liegen. :biggrin:
Nochmal zu SuperSampling: ist 8x8, also 64xSSAA mit 786MB VRam möglich und wieviel Füllrate bleibt dann noch übrig?Ein vierundsechzigstel der Füllrate bleibt dann noch übrig. Allerdings ist die Frage ob es überhaupt Sinn macht. Für ganz alte Spiele freue ich mich schon mal, dass 4x4 OGSSAA in Auflösungen >1024 möglich ist.
allerdings dürfte 8x8 OGSSAA etwa auf dem BQ-Niveau einer Vodoo5 6000@8xRGSSAA liegen. :biggrin:Wenn man nur die EER betrachtet, mag das sein. Allerdings ist ein OG zum Schärfen von Texturen fast schon besser geeignet. Die Bildqualität und Bildruhe von 8x8 OGSSAA wird das 8x SGSSAA der Voodoo5 deutlich übertreffen.
chrisihamm
2006-11-04, 16:16:42
Hi,
die FEAR Benchmarkwerte der 8800GTX sind doch mit SS oder nicht?
mfg
Hi,
hier noch ein Link zum Dailytech Preview:
http://www.dailytech.com/article.aspx?newsid=4812
Rick
Slipknot79
2006-11-04, 16:20:43
Hi,
die FEAR Benchmarkwerte der 8800GTX sind doch mit SS oder nicht?
mfg
Sind ohne SS.
misterh
2006-11-04, 16:21:21
hab auch nur 19er TFT jetzt und hol mir trotzdem 8800GTX
unter anderen wegen winkelunabhändige AF und HDR+MSAA.
für mich reicht zum zocken 12x10.
Wenn man nur die EER betrachtet, mag das sein. Allerdings ist ein OG zum Schärfen von Texturen fast schon besser geeignet. Die Bildqualität und Bildruhe von 8x8 OGSSAA wird das 8x SGSSAA der Voodoo5 deutlich übertreffen.
Deutlich? Nein, dazu sind beide zu nah an der "Perfektion". Vier Subsamples pro Achse sind schon sehr gut. Die Texturschärfe wird aber bei 64x OGSS besser sein, ja. Aber eben erkauft durch achtfachen Rechenaufwand.
Hm, ein Vierundsechzigstel von 18.400 MTex/s wären ... 288 MTex/s ... rofl. Also Wiederum Voodoo3-2000-Niveau. Dann doch lieber 8x SGSS ... oder aber 4x4 SSAA in höheren Auflösungen. Das geht ja dann sogar bis 2048x1536 ... :naughty:
MfG,
Raff
tombman
2006-11-04, 16:27:30
Ich habe mal den FEAR Benchmark herangezogen und mit meinem System verglichen.
Zur Erinnerung: 8800GTX 1600x1200 (gut für nen 24/30 Zöller) alles max, 4xAA 16xAF, keine SS
41/81/185
Mein System in 1280x1024, kein AA (da nicht notwendig auf nem 17 Zöller), 16xAF, keine SS
41/73/164
Naja, ernüchtender Vorsprung der 8800GTX, selbst wenn ich meine Graka/CPU normal takten würde. (mache ich später)
(Und ja, mir ist klar dass mein System in 1600x1200 sucken würde, aber da ich keinen 24/30 Zöller besitze, erübrigt sich das Problem)
Du vergleichst 1600x1200 MIT 4xAA gegen 1280x1024 ohne AA --> :uhammer:
p.S: ich hab in fear in oben genannten settings (1600x1200, maxxed, 4xAA, ohne SS): 58/83/335
(die 58min kommen vom 4ghz Conroe, und die GX2 war oced auf 600/780)
Dh, die 8800GTX ist so schnell wie eine octe GX2, also nochmal eine Bestätigung für die shadermark Werte. Außerdem ist die 8800GTX bei sejr hoher Belastung sogar noch deutlich schneller, also bei HDR usw... in Oblivion zb zieht sie die GX2 sowas von BÖSE ab ;)
Hvoralek
2006-11-04, 16:31:26
Nochmal zu SuperSampling: ist 8x8, also 64xSSAA mit 786MB VRam möglich und wieviel Füllrate bleibt dann noch übrig?Der Speicherverbrauch Kommt auf die Auflösung an. Technisch ist nur 1024x768 sicher möglich, deswegen rechne ich mal damit:
Pixel x Byte/Pixel (Color und z/St, in FP16) x AA-Grad
786432 x 8 x 2 x 64 = 768 GiB
Der Framebuffer alleine würde also genau in den Speicher passen :wink:
64x SS wäre aber leistungsmäßig ohnehin unteridisch.
Blackpitty
2006-11-04, 16:32:15
hab auch nur 19er TFT jetzt und hol mir trotzdem 8800GTX
unter anderen wegen winkelunabhändige AF und HDR+MSAA.
für mich reicht zum zocken 12x10.
Sehe ich auch so, Will bessere Bild Qualli, und vorallem die GX2-SLI los haben, keine Sinnlosen Einstellungen mehr, und vorallem 100% in Games.
Ich finde das "schlimme an SLI" ist, dass ich wirklich nicht zufrieden bin, denn man weis 1. immer, das die zweite Karte nicht 100% ausgelastet wird, und man wiederum so viel einstellen kann, und man schaut immer nur noch auf die FPS, ob die Leistung auch angemessen ist, stellt da und dort was ein, mir reichts.
Deshalb brauche ich ne Karte, die gleich-schneller ist als meine GX2, und da kommt die 8800GTX genau richtig, ich freu mich wahnsinnig endlich das dumme Gefühl los zu werden, und endlich wieder beruhigt Zocken zu können, denn sonst habe ich noch nie Fraps genutzt:rolleyes:
Sehe ich auch so, Will bessere Bild Qualli, und vorallem die GX2-SLI los haben, keine Sinnlosen Einstellungen mehr, und vorallem 100% in Games.
Ich finde das "schlimme an SLI" ist, dass ich wirklich nicht zufrieden bin, denn man weis 1. immer, das die zweite Karte nicht 100% ausgelastet wird, und man wiederum so viel einstellen kann, und man schaut immer nur noch auf die FPS, ob die Leistung auch angemessen ist, stellt da und dort was ein, mir reichts.SLI ist eben nichts für Daus. Hättest du dich besser mal vorher informiert, anstatt nach dem Kauf rumzuquaken. Es ist allgemein bekannt, dass man ein wenig mit dem Nhancer experimentieren muss, damit SLI sehr gute Ergebnisse bringt.
Deutlich? Nein, dazu sind beide zu nah an der "Perfektion". Vier Subsamples pro Achse sind schon sehr gut. Die Texturschärfe wird aber bei 64x OGSS besser sein, ja. Aber eben erkauft durch achtfachen Rechenaufwand.
dafür hat man aber auch locker die 8-fache leistung :D
ShadowXX
2006-11-04, 16:36:33
AA braucht man immer ;D Auch auf 24-30":biggrin:
Ist auch meine Meinung.....nur im Gegensatz zu 1024 bzw. 1280 bracht man es bei 2000++ eher nicht.
(Man beachte das Fette)
dafür hat man aber auch locker die 8-fache leistung :D
64x OGSS @ GTX = 288 MTex/s
8x SGSS @ V56k = 183 MTex/s
So viel schneller ist das nicht mehr. ;)
Ich könnte jedenfalls kotzen. 8x SGSSAA wäre auf einem G80 gut nutzbar. Man hätte bei der GTX noch 2,3 GTex/s zur Verfügung.
MfG,
Raff
AnarchX
2006-11-04, 16:40:14
64x OGSS @ GTX = 288 MTex/s
8x SGSS @ V56k = 183 MTex/s
So viel schneller ist das nicht mehr. ;)
Ich könnte jedenfalls kotzen. 8x SGSSAA wäre auf einem G80 gut nutzbar. Man hätte bei der GTX noch 2,3 GTex/s zur Verfügung.
4.6 GTex/s, die 8800GTX hat doch 64TMUs.
Bei 64x OGSS wäre es dann auch noch 575MTex/s, mit SLI über ein 1GTex/s...
Blackpitty
2006-11-04, 16:41:31
SLI ist eben nichts für Daus. Hättest du dich besser mal vorher informiert, anstatt nach dem Kauf rumzuquaken. Es ist allgemein bekannt, dass man ein wenig mit dem Nhancer experimentieren muss, damit SLI sehr gute Ergebnisse bringt.
Ich meckere nicht über die Leistung, und Dau kannst du Troll dich selber nennen, und desweiteren wollte ich "SLI" mal ausprobieren
Slipknot79
2006-11-04, 16:42:51
>>Du vergleichst 1600x1200 MIT 4xAA gegen 1280x1024 ohne AA -->
Der nächste. Ned aus dem Zusammenhang rausreissen, sondern alle meine Beiträge lesen. Zusammenfassung für dich: Ähnliche fps bei unterschiedlichen Auflösungen/AA aber gleicher Zufriedenstellung des Users.
tombman
2006-11-04, 16:47:25
...aber gleicher Zufriedenstellung des Users.
Seit wann reden wir hier über Zufriedenheit der user???
Der Nächste kommt her und sagt er ist von der G80 enttäuscht (du hast gesagt du bist ernüchtert von der Leistung!) weil er beim Spielen nicht mehr Spaß hätte als mit seiner PS2 :/
Slipknot79
2006-11-04, 16:49:17
>Seit wann reden wir hier über Zufriedenheit der user???
Seit es Grafikkarten überhaupt gibt.
Nazar
2006-11-04, 16:50:32
Wie? 1m vom Tisch entfernt, die Tastatur auf dem linken Knie und die Maus auf dem rechten?
Merkst du (und die anderen ;)) nicht, dass Du nur laberst!?
Du hast anscheinend nicht begriffen, worum es in den Thread nun noch geht!
Du hast Deine Meinung und forderst hier ständig dafür Verständnis ein, akzeptierst aber in keiner Weise die Meinung anderer!
Ich hoffe Du hattest nun genug Aufmerksamkeit und trollst Dich.
Slipknot79
2006-11-04, 16:53:13
>Du hast Deine Meinung und forderst hier ständig dafür Verständnis ein, akzeptierst aber in keiner Weise die Meinung anderer!
Zeige mir die Stelle, wo ich die Meinung von dem anderen nicht akzeptiere.
Ich bin der Meinung, dass man Egoshooter erschwert auf dem Schoss spielen kann, jemand anderer ist anderer Meinung, und?
Ich bin der Meinung, dass 1280x1024 genauso zufriedenstellend sein kann auf nem kleinen Monitor, wie 1600x1200 4xAA auf nem großen Monitor wegen ähnlicher fps. Ob das der Fall is, soll jeder für sich entscheiden. Wenn nicht, dann rennt mal los und legt sich eine G80 zu, kein Problem damit.
Andere sind hier andere Meinung, und? Zum Glück ist das so, sonst wären Diskussionen und das Forum hinfällig.
tombman
2006-11-04, 17:01:23
>Seit wann reden wir hier über Zufriedenheit der user???
Seit es Grafikkarten überhaupt gibt.
Nicht wenn es um OBJEKTIVE LEISTUNG geht :rolleyes:
Ronny145
2006-11-04, 17:02:06
shadermark resultate, 8800GTX - RX1950 - RX1950 CF:
http://img244.imageshack.us/my.php?image=shaderresultszo7.jpg
Du postest ständig Sachen, die eben auch schon gepostet wurden sind. In diesem Fall 2 Seiten.
Für dich:
http://forum-3dcenter.de/vbulletin/showpost.php?p=4947947&postcount=1344
Slipknot79
2006-11-04, 17:03:17
Nicht wenn es um OBJEKTIVE LEISTUNG geht :rolleyes:
Aus der objektiven Leistung resultiert gerade die Zufriedenheit.
Lustig wie WuAF, HDR+MSAA plötzlich als Kaufargument der GX2 Besitzer herhalten muss: "Ja ich kann die Leistung zwar nicht nutzen, aber ich will die Features auf meiner NV GraKa"
Wär man nicht so markenfixiert, hätte man die Features schon seit über 1 Jahr...
Mein CRT ist zwar kein Profigerät, aber in seiner Preisklasse doch ziemlich gut. Bei 1600x1200 packt er noch 85Hz, was mir reicht, und auch die meisten Menschen als annähernd flimmerfrei erachten.
mfg.
Sonyfreak
ichhatte nen crt mit 120hz aber wennman mal 3h am stück zockt merkt man nen schönen unterschied ;)
Omnicron
2006-11-04, 17:34:11
Hier sind einige pics der verschiedenen Hersteller
http://www.rage3d.com/board/showthread.php?t=33872272
Was ist eigentlich aus der Vielfalt der unterschiedlichen Kühler geworden, die noch bei den GeforceFX üblich war? Darf nur noch der Referenzkühler verwendet werden? Oder kriegen die Partner die Specs so spät das sie keine Zeit haben vor Launch was zu entwickeln?
AnarchX
2006-11-04, 17:36:33
Was ist eigentlich aus der Vielfalt der unterschiedlichen Kühler geworden, die noch bei den GeforceFX üblich war? Darf nur noch der Referenzkühler verwendet werden? Oder kriegen die Partner die Specs so spät das sie keine Zeit haben vor Launch was zu entwickeln?
Vielleicht, weil die Referenz von nV schon sehr nah am Optimum ist und es sich einfach nicht lohnt selbst Geld in die Entwicklung eines Designs zu stecken...;)
Moralelastix
2006-11-04, 17:39:15
Stand nicht wo das die ganzen Karten eh von Asus sind und nur die Aufkleber einen Unterschied machen(mal abgesehen dem Kühler von Leadek)?
dargo
2006-11-04, 17:47:04
Hier sind einige pics der verschiedenen Hersteller
http://www.rage3d.com/board/showthread.php?t=33872272
Was soll der Quatsch wieder mit den 80nm? :|
dildo4u
2006-11-04, 17:47:14
Noch ein paar 3Dmark Ergebnisse erstmals ist auch der Aquamark dabei man beachte die GFX Score. :eek:
Core 2 Duo@4.5Ghz 8800GTX@660/1030
http://666kb.com/i/aiyldq5jkus5tizjv.jpg
http://666kb.com/i/aiylf3r8rarygwk1n.jpg
http://666kb.com/i/aiylfzlmasdgb34or.jpg
http://666kb.com/i/aiylghcvfbgmfb52z.jpg
http://666kb.com/i/aiylh6qqtf0kmayyj.jpg
http://www.diskusjon.no/index.php?showtopic=653622&st=120
http://666kb.com/i/aiylk43506kwl82uz.jpg
AnarchX
2006-11-04, 17:50:46
Was soll der Quatsch wieder mit den 80nm? :|
Wieso Quatsch?
Es gibt aktuell jedenfalls viele Infos, dass der G80 doch in 80nm gefertigt werden soll.
Und es gibt keine Bestätigung für 90nm oder?
@dildo4u:
Kannst du bitte die Bilder in einen Spoiler-Tag schieben, auf Scroll-Orgien hat nicht jeder Lust... :)
dargo
2006-11-04, 17:52:32
Wieso Quatsch?
Es gibt aktuell jedenfalls viele Infos, dass der G80 doch in 80nm gefertigt werden soll.
Ups, dann habe ich wohl was "verschlafen". :tongue:
Noch ein paar 3Dmark Ergebnisse erstmals ist auch der Aquamark dabei man beachte die GFX Score. :eek:
Core 2 Duo@4.5Ghz 8800GTX@660/1030
http://666kb.com/i/aiyldq5jkus5tizjv.jpg
Auch wenn hier mal wieder die Angaben fehlen ("Sys in der Sig" :rolleyes: ): http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4851075&postcount=433
CPU-limitierte Benchmarks bringen einfach nichts. Und der Quarkmark sowieso nicht.
MfG,
Raff
dildo4u
2006-11-04, 17:55:39
Auch wenn hier mal wieder die Angaben fehlen ("Sys in der Sig" :rolleyes: ): http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4851075&postcount=433
CPU-limitierte Benchmarks bringen einfach nichts. Und der Quarkmark sowieso nicht.
MfG,
RaffPasst doch er hat mit zwei 7900GTX immer noch 5000Punkte weniger als eine 8800GTX bei der GFX Score.
tombman
2006-11-04, 18:05:52
Aus der objektiven Leistung resultiert gerade die Zufriedenheit.
Wie man bei dir sehen kann eben nicht. G80 ist doppelt so schnell, macht DICH aber nicht zufriedener und ernüchtert dich sogar...
Passt doch er hat mit zwei 7900GTX immer noch 5000Punkte weniger als eine 8800GTX bei der GFX Score.
Rechne mal 20% CPU-Takt drauf und der Vorsprung verpufft sicher. Dass die 8800 GTX etwa G71-SLI-Power hat, sollte aber immer sicherer werden.
MfG,
Raff
Lustig wie WuAF, HDR+MSAA plötzlich als Kaufargument der GX2 Besitzer herhalten muss: "Ja ich kann die Leistung zwar nicht nutzen, aber ich will die Features auf meiner NV GraKa"
Wär man nicht so markenfixiert, hätte man die Features schon seit über 1 Jahr...Mir sind diese Features auf einer NV-Grafikkarte einfach lieber.
G80 ist imho ein rundum-sorglos-Paket. Mehr arithmetische Leistung als R580, mehr Texturleistung als G71, AF mindestens auf R580-Niveau, wenn nicht besser. Hoffentlich brauchbarer Linux-Support. Funktionierende Skalierungseinstellungen im Treiber. Mit SLI die überlegene Multi-GPU-Lösung. Neue MSAA-Modi, sogar in Verbindung mit HDR-Rendering.
G80 vereint die Vorteile von G71 und R580 in einer Karte. Das beste aus beiden Welten sozusagen.
G80 vereint die Vorteile von G71 und R580 in einer Karte. Das beste aus beiden Welten sozusagen.
Full Ack! Dazu kommt eben noch der SSAA-Support, den ich sehr wichtig finde. Die Karte ist schon sehr nahe am Optimum (aktuell).
MfG,
Raff
Spasstiger
2006-11-04, 18:11:47
Hm, mit G80 SLI und einem Kentsfield @ 3,5 GHz sollten die 20k in 3DMark06 zu knacken sein.
Hier mal ein Diagramm, welche 3DMarks resultieren würden, wenn die CPU-Score zwischen 4000 und 5000 Punkten und der Durchschnitt aus SM2- und SM3-Score zwischen 8000 und 10.000 Punkten liegt:
http://img513.imageshack.us/img513/9297/3dm06g80aj9.th.png (http://img513.imageshack.us/my.php?image=3dm06g80aj9.png)
Die Skalierungen sind in diesem Bereich auf jeden Fall recht ausgewogen, mehr CPU-Power und mehr Grafikpower bringen hier gleichermaßen ein Plus an 3DMarks. Wenn Realworld-Anwendungen doch nur so skalieren würden. ;)
tombman
2006-11-04, 18:12:27
Dass die 8800 GTX etwa G71-SLI-Power hat, sollte aber immer sicherer werden.
Jo, je mehr benchmarks man sieht desto mehr festigt sich diese Aussage. Bei extremer Last zieht der G80 aber dann davon ;)
tombman
2006-11-04, 18:13:41
G80 vereint die Vorteile von G71 und R580 in einer Karte. Das beste aus beiden Welten sozusagen.
Und das mit dem DOPPELTEN speed auch noch :cool:
Full Ack! Dazu kommt eben noch der SSAA-Support, den ich sehr wichtig finde.Wie konnte ich bei meiner Aufzählung nur SSAA und die Hybridmodi vergessen. Diese sind natürlich auch mir sehr wichtig.
SKYNET
2006-11-04, 18:25:59
quad-sli und nen core auf 4GHz @ 3dmark 2001 ---> 80k?! :D
dildo4u
2006-11-04, 18:31:18
Nvidia kann sich echt glücklich schätzen das Intel den Core 2 Duo gebracht hat,hätte mal als High-End CPU nur ein 2.8GHz AMD wäre der G80 whol lange nicht so beieindruckend.Ein G80SLI würde man whol kaum sinnvoll ausnutzen können abseits von extremen SSAA.
misterh
2006-11-04, 18:33:03
Nvidia kann sich echt glücklich schätzen das Intel den Core 2 Duo gebracht hat,hätte mal als High-End CPU nur ein 2.8GHz AMD wäre der G80 whol lange nicht so beieindruckend.Ein G80SLI würde man whol kaum sinnvoll ausnutzen können abseits von extremen SSAA.
Sie haben schon länger als wir End-User. ;) Bestimmt!
dildo4u
2006-11-04, 18:35:59
Sie haben schon länger als wir End-User. ;) Bestimmt!Mir gehts eher um die Tests näste Woche hätte man für die Reviews nur X2 AMDs würde der G80 lange nicht so gut im Vergleich zur 1950XTX aussehen.
misterh
2006-11-04, 18:37:43
Mir gehts eher um die Tests näste Woche hätte man für die Reviews nur X2 AMDs würde der G80 lange nicht so gut im Vergleich zur 1950XTX aussehen.
jop ok
Krustovsky
2006-11-04, 18:38:32
Mir gehts eher um die Tests näste Woche hätte man für die Reviews nur X2 AMDs würde der G80 lange nicht so gut im Vergleich zur 1950XTX aussehen.
Kommt auf Auflösung und Settings an. Kann mich nur wiederholen 1280er Benches ohne Qualitysettings sind mehr als uninteressant.
dildo4u
2006-11-04, 18:40:50
Kommt auf Auflösung und Settings an. Kann mich nur wiederholen 1280er Benches ohne Qualitysettings sind mehr als uninteressant.Selbst bei 1600*1200 mit 4XAA bringt eine bessere CPU noch was beim G80.
Krustovsky
2006-11-04, 18:45:26
Mag sein aber für mich persönlich darfs ruhig noch mehr sein;) Darüberhinaus wird am 8. der erste (vernünftige!) Chipsatz für Intel-CPUs präsentiert auf dem SLI ohne ollen Hackedtreiber läuft. Und dieser ist mindestens genauso interessant wie der G80. Der 8.11. wird ein guter tag :)
dargo
2006-11-04, 18:51:44
Selbst bei 1600*1200 mit 4XAA bringt eine bessere CPU noch was beim G80.
Das ist doch von Spiel zu Spiel unterschiedlich.
Etwas ganz wichtiges fiel mir eben erst ein: Weiß jemand, ob TAA nun auch unter OpenGL geht? Bei Nvidia ist das dank FSSSAA zwar nicht zwingend nötig, wäre aber dennoch nett ...
MfG,
Raff
Du postest ständig Sachen, die eben auch schon gepostet wurden sind. In diesem Fall 2 Seiten.
Für dich:
http://forum-3dcenter.de/vbulletin/showpost.php?p=4947947&postcount=1344
Oberlehrer? ... und wieso ständig? gerne per mail spammen! Ronny 0815
Ronny145
2006-11-04, 19:25:08
Oberlehrer? ... und wieso ständig? gerne per mail spammen! Ronny 0815
Weil du ständig Sachen doppelt postest. Die letzten 1-2 Seiten zu überfliegen ist wohl zu viel verlangt? Und flamen willst du wohl auch noch?
Up2 die warst mall immer der schnellste mit news aber zurzeit kommts immer zu süät.;D
Selbst bei 1600*1200 mit 4XAA bringt eine bessere CPU noch was beim G80.
bei fear mit softshadows sollte auch hier ein deutlicher vorsprung gegenüber der vorgängergeneration gewährleistet sein ;)
4.6 GTex/s, die 8800GTX hat doch 64TMUs.
Bei 64x OGSS wäre es dann auch noch 575MTex/s, mit SLI über ein 1GTex/s...
AFAIK: 64 TMUs, die je zwei Bi-Samples generieren können. Oder einmal trilinear. Da nirgends mehr rein bilinear gefiltert wird (bzw. sollte), sind es praktisch 32. Korrigiert mich, wenn ich falsch liege. Ich warte eh noch auf Verifikation mit Final-Karten ... wie wir alle wohl.
MfG,
Raff
thade
2006-11-04, 21:11:12
Wieso lässt man sich von NV jetzt mit dem G80 ködern? Man kann ruhig noch 2 Monate auf den R600 warten, dann sind die G80 Karten auch schon günstiger.
Sinnlos sich jetzt so ein Teil zu kaufen, R600 sollte man doch mindestens abwarten...
ShadowXX
2006-11-04, 21:12:47
AFAIK: 64 TMUs, die je zwei Bi-Samples generieren können. Oder einmal trilinear. Da nirgends mehr rein bilinear gefiltert wird (bzw. sollte), sind es praktisch 32. Korrigiert mich, wenn ich falsch liege. Ich warte eh noch auf Verifikation mit Final-Karten ... wie wir alle wohl.
MfG,
Raff
Ich würde es genauso sehen......die "doppel" TMUs sind wohl eher dazu da das Filtering (speziell das AF) zu beschleunigen.
ecodriver
2006-11-04, 21:28:57
Durch die anscheinend gute IQ habe ich wieder die freie Wahl und das ist sehr schön.
Gut gemacht NV. Gespannt bin ich schon wie gut das AF tatsächlich ist.
Gruß ecodriver
Edit: Müll gelöscht
Blaire
2006-11-04, 21:40:52
Wieso lässt man sich von NV jetzt mit dem G80 ködern? Man kann ruhig noch 2 Monate auf den R600 warten, dann sind die G80 Karten auch schon günstiger.
Sinnlos sich jetzt so ein Teil zu kaufen, R600 sollte man doch mindestens abwarten...
Warum haste dir ne X1900 gekauft warum haste nicht auf den 8800GTX gewartet? :rolleyes:
thade
2006-11-04, 21:53:59
Warum haste dir ne X1900 gekauft warum haste nicht auf den 8800GTX gewartet? :rolleyes:
Was ist das für eine Logik?
Anscheinend verstehst du nichtmal ansatzweise was ich damit sagen wollte...
dargo
2006-11-04, 21:54:35
Warum haste dir ne X1900 gekauft warum haste nicht auf den 8800GTX gewartet? :rolleyes:
Ich würde keine G8800GTX kaufen. Lieber auf den G85 warten. Wobei, dann besser gleich den G90 abwarten. Oder doch lieber den G95? :uponder:
Nee, dann doch lieber auf den G100 warten usw. usf. :wink:
Was ist das für eine Logik?
Anscheinend verstehst du nichtmal ansatzweise was ich damit sagen wollte...
Er versteht dich schon sehr gut. :wink:
Nur, wenn du immer wartest kommst du zu nichts. Wenn man den R600 abwartet gibts dann bald wieder einen Refreshchip vom G80. Will man den abwarten gibts dann wieder bald den Refreshchip vom R600. Es wird immer so weiter laufen und kein Ende in Sicht.
thade
2006-11-04, 21:56:22
Man sollte doch besser erstmal das ATi Gegenstück abwarten, seid ihr wirklich so naiv oder siegt wieder mal die Hardwaresucht?
Manche Leute können einfach nicht anders als sich jedesmal eine neue Karte zu kaufen, obwohl es im Falle eines G80 totaler Blödsinn ist, da ATis Antwort nicht mehr lange auf sich warten lässt.
Aber einige haben halt wirklich nur ein Hobby :rolleyes:
Man sollte doch besser erstmal das ATi Gegenstück abwarten, seid ihr wirklich so naiv oder siegt wieder mal die Hardwaresucht?
Manche Leute können einfach nicht anders als sich jedesmal eine neue Karte zu kaufen, obwohl es im Falle eines G80 totaler Blödsinn ist, da ATis Antwort nicht mehr lange auf sich warten lässt.
Aber einige haben halt wirklich nur ein Hobby :rolleyes:
Die Firmen Liebhaber warten nicht auf das konkurenz produkt.Die normale user warten da natürlich drauf.;)Blaire zb hat genug kohle der kauft sich zb jede High end Karte von irgend einer Firma.;)
Man sollte doch besser erstmal das ATi Gegenstück abwarten, seid ihr wirklich so naiv oder siegt wieder mal die Hardwaresucht?
Manche Leute können einfach nicht anders als sich jedesmal eine neue Karte zu kaufen, obwohl es im Falle eines G80 totaler Blödsinn ist, da ATis Antwort nicht mehr lange auf sich warten lässt.
Aber einige haben halt wirklich nur ein Hobby :rolleyes:
So kannste nicht über andere Urteilen mit der schwachen Argumentation. Warum auf Ati warten wenn ich selbe Leistung jetzt schon haben kann. Meinste die Preise werden sinken wenn der R600 kommt?
Sie werden Garantiert gleichbleiben auch die Vendors die Ati Chips verbauen wollen absahnen.
Außerdem wen hindert es denn wenn der R600 kommt den G80 wieder zu verkaufen, also manchmal sollte man ein Pixel über den Horizont hinausdenken.
Ich will jetzt 16xAA Spielbar sehen in meinen eigenen Händen und nicht nochmal 3Monate warten.
Ich gehe davon aus das es wie bei jeder Generation sein wird, das NV und ATI Highend sich mehr oder minder nichts geben werden, Fanboys mögen sich um 5-10% Leistung pro/kontra in diesem und jenem Spiel/Benchmark streiten, ich hät halt gern, da nun verfügbar, max Quality. Nach meinen Maßstäben.
thade
2006-11-04, 22:01:59
Er versteht dich schon sehr gut. :wink:
Nur, wenn du immer wartest kommst du zu nichts. Wenn man den R600 abwartet gibts dann bald wieder einen Refreshchip vom G80. Will man den abwarten gibts dann wieder bald den Refreshchip vom R600. Es wird immer so weiter laufen und kein Ende in Sicht.
Er hat mich nicht verstanden!
Wenn es nichtmal 2 Monate sind, glaubt ihr ernsthaft NV wird im Januar schon wieder einen G80 Refresh nachschieben? Glaube ich nicht.
Was ATi heuer gemacht hat, war eine Ausnahme, resultierend durch die R520 Verzögerung.
G80 - R600, wer jetzt kauft ist ein Freak und kann nicht anders. R600 ist bald da und dann kann man sich immer noch einen G80 kaufen, sogar billiger.
thade
2006-11-04, 22:04:06
Außerdem wen hindert es denn wenn der R600 kommt den G80 wieder zu verkaufen, also manchmal sollte man ein Pixel über den Horizont hinausdenken.
Ja reines Verlustgeschäfft, aber redet so eine Sache nur gut, es ist Blödsinn und das weiß auch jeder vernünftig denkende Mensch.
Aber einige haben halt wirklich nur ein Hobby :rolleyes:
BTW, deine abwertende Meinung kannste getrost für dich behalten. Das ruft nur Trolle auf den Plan, also ruhig Blut pls. kthx
incurable_nli
2006-11-04, 22:04:53
Die Firmen Liebhaber warten nicht auf das konkurenz produkt.Die normale user warten da natürlich drauf.;)
Ich seh's genau umgekehrt. Es sind nur allzuoft die Firmenliebhaber, die bei übermächtiger Konkurrenz "erst mal die Antwort abwarten" wollen.
Alles totaler Unsinn, wer jetzt mehr Leistung möchte, der sucht halt unter den jetzt verfügbaren Produkten nach der Antwort. Und dass AMD erstmal keine solche zu bieten hat, hat ihnen ATi noch ganz allein eingebrockt.
thade
2006-11-04, 22:07:39
BTW, deine abwertende Meinung kannste getrost für dich behalten. Das ruft nur Trolle auf den Plan, also ruhig Blut pls. kthx
Das ist keine Meinung, sondern die Realtität! Oder meint ihr jeder Highend User hier kann sein Geld fürs Fenster rauswerfen? Die meisten krassen Highend User haben nur dieses eine Hobby..., weil sie auch nur "normal" verdienen!
incurable_nli
2006-11-04, 22:09:27
R600 ist bald da und dann kann man sich immer noch einen G80 kaufen, sogar billiger.
(1) Gibt's irgendeinen halbwegs verlässlichen Veröffentlichungszeitraum für den R600?
(2) Wie lange auch immer es noch dauert, wer nächste Woche zuschlägt hatte dann jedenfalls für diese Zeit schonmal die Leistung des G80 zur Verfügung, anstatt der seiner alten Karte. Auch in nicht geringer Vorteil.
dargo
2006-11-04, 22:11:28
Wenn es nichtmal 2 Monate sind, glaubt ihr ernsthaft NV wird im Januar schon wieder einen G80 Refresh nachschieben? Glaube ich nicht.
Ist der R600 Launch so sicher in 2 Monaten?
Außerdem meinte ich nicht, dass in 2 Monaten ein G80 Refresh erscheint sondern, dass man wieder ca. 3-4 Monate nach dem R600 mit dem Refresh des G80 rechnen kann.
thade
2006-11-04, 22:13:04
Vor allem es gibt ja soviele Mushave Games zZ :rolleyes:
Eine X1900XT reicht für alles was es im Moment gibt. Dann kommen einige mit den neuen AA Modi des G80, glaubt ihr tatsächlich ihr könnt alle Spiele damit super flüssig zocken? Ist wieder pure Träumerei.
Den meisten gehts auch nicht um die Games, sondern um die beschissenen 3D Marks ....
Blackpitty
2006-11-04, 22:14:39
Man sollte doch besser erstmal das ATi Gegenstück abwarten, seid ihr wirklich so naiv oder siegt wieder mal die Hardwaresucht?
Manche Leute können einfach nicht anders als sich jedesmal eine neue Karte zu kaufen, obwohl es im Falle eines G80 totaler Blödsinn ist, da ATis Antwort nicht mehr lange auf sich warten lässt.
Aber einige haben halt wirklich nur ein Hobby :rolleyes:
Das abwarten des Gegenstücks würde ja denke ich jeder machen, wenn das Gegenstück in der gleichen Zeit kommt, wie das andere, doch da ATI eben immer bissel länger braucht:D kommt man nicht dazu, auf das Gegenstück zu warten, denn wenn der R600 kommt, kommt danach gleich wieder was viel neueres von Nvidia, somit kaufen alle nur Nvidia, da ATI hinterher hinkt.
*vorsicht, ironie* ;D
Vor allem es gibt ja soviele Mushave Games zZ
Eine X1900XT reicht für alles was es im Moment gibt. Dann kommen einige mit den neuen AA Modi des G80, glaubt ihr tatsächlich ihr könnt alle Spiele damit super flüssig zocken? Ist wieder pure Träumerei.
Den meisten gehts auch nicht um die Games, sondern um die beschissenen 3D Marks
und wenns dir nicht passt, das sich andere bessere Hardware kaufen, wie du hast, dann verschone doch bitte den G80 Thread damit
Dann lass mal dein gestänker hier sein ;)
Is schließlich der Speku Thread, kannst dein eigenen Thread aufmachen und dich da über die sinnnlosigkeit von Grafikkarten ablassen, nach deiner Logik ist jede! Karte ein nicht sehr sinnvoller Kauf da es ja zu einem späteren Zeitpunkt was besseres gibt...
eol @ off topic gequassel
thade
2006-11-04, 22:16:58
ATi hinkt erst seit dem R520 hinterher und der R600 wird sicher keine 5 Montate auf sich warten lassen.
Außerdem vergisst du die Jahre 2002/2003.
Blackpitty
2006-11-04, 22:18:28
ATi hinkt erst seit dem R520 hinterher und der R600 wird sicher keine 5 Montate auf sich warten lassen.
Außerdem vergisst du die Jahre 2002/2003.
die Jahre 2002-2003 sind geschichte, was zählt ist jetzt:rolleyes:
thade
2006-11-04, 22:19:20
Dann lass mal dein gestänker hier sein ;)
Is schließlich der Speku Thread, kannst dein eigenen Thread aufmachen und dich da über die sinnnlosigkeit von Grafikkarten ablassen, nach deiner Logik ist jede! Karte ein nicht sehr sinnvoller Kauf da es ja zu einem späteren Zeitpunkt was besseres gibt...
eol @ off topic gequassel
Sag mal wollt ihr mich nicht verstehen? Ihr könnt den G80 immer noch im Januar kaufen, beim R600 Release, zumal es JETZT keinerlei Software gibt, mit einem R580/G71 kommt man bestens zurecht.
€dit;
ATi zeigt nVidia jedes Jahr wo der Hammer hängt. Jedes ATi Gegenstück war bisher schneller, NV musste schon auf 2 Chips umstellen um mitzuhalten, bzw um vorbeizuziehen, soviel dazu.
NV bringt es ja nichtmal fertig einen gscheiten Konsolenchip zu entwickeln :rolleyes:
Thade, lass die Leute doch das kaufen, was sie für richtig halten. Hätte ich das Geld, würde ich mir wohl zum Launch auch eine 8800GTX kaufen.
Für manche kommt ATI auch gar nicht erst in Frage, da sie keinen Linuxsupport bieten. Auch bezweifle ich, dass ATI mit dem R600 plötzlich SSAA anbietet. Was willst mit einem Riesen-TFT, wenn bei ATI die Skalierungseinstellungen nicht funktionieren und man dann bei Spielen, die nur 4:3-Auflösungen zulassen mit einem verzerrten Bild leben muss?
Der G80 ist doch eine feine Karte. Warum nicht jetzt Spaß haben? Wer das Geld hat, soll sich doch ruhig 1 oder 2 G80 kaufen.
Aber ehrlich gesagt wundert es mich bei dir kein Stück, dass du den Leuten den G80 madig reden willst und sie zum Warten auf R600 animieren willst.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.