PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 8800 GTX und GTS-Version Review-Thread (Links im #1)


Seiten : [1] 2 3 4 5

Gast
2006-11-07, 19:40:59
http://www.pconline.com.cn/diy/graphics/reviews/0611/898744.html

------------------------------------------------------------------------------------------
(P)Reviews:
BFGTech GeForce 8800 GTX and 8800 GTS (http://enthusiast.hardocp.com/article.html?art=MTIxOCwxLCxoZW50aHVzaWFzdA==) bei [H]ardOCP
EVGA 8800GTS (http://www.gamepyre.com/reviewsd.html?aid=783&p=1) bei GAMEPYRE
MSI GeForce 8800GTS is here - Hello DX10 (http://www.tweaktown.com/articles/977/2/page_2_new_technology/index.html) bei Tweak Town
NVIDIA G80: Place au GeForce 8800 et à DirectX 10 (http://www.clubic.com/article-61974-1-nvidia-g80-geforce-8800-gts-gtx.html) bei Clubic
NVIDIA G80: Architecture and GPU Analysis (http://www.beyond3d.com/reviews/nvidia/g80-arch/) bei B3D
nVidia GeForce 8800 GTX: der neue König unter den Grafikkarten (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/) bei CB
DirectX 10 на пороге или 128 калифорнийских стрелков в действии: NVIDIA GeForce 8800 GTX (G80) (http://www.ixbt.com/video2/g80-part1.shtml) bei iXBT
Ab jetzt auf Englisch: Say Hello To DirectX 10, Or 128 ALUs In Action: NVIDIA GeForce 8800 GTX (G80) (http://www.digit-life.com/articles2/video/g80-part1.html) bei Digit-Life
Nvidia G80 Image Quality Investigation (http://www.3declipse.com//content/view/34/9/) bei 3DEclipse
Nvidia's GeForce 8800 graphics processor (http://www.techreport.com/reviews/2006q4/geforce-8800/index.x?pg=1) bei The Tech Report
NVIDIA G80 - GeForce 8800 im Test (http://hardtecs4u.com/reviews/2006/nvidia_g80/) bei HT4U
GeForce 8800 GTX overclocking preview (http://www.nordichardware.com/Reviews/?skrivelse=493) bei Nordic Hardware
Scan International's 3XS Triad, featuring 8800 GTX (http://www.hexus.net/content/item.php?item=7179)
ASUS EN8800GTX Review (http://www.hexus.net/content/item.php?item=7188)
XFX GeForce 8800 GTX (http://www.hexus.net/content/item.php?item=7184)
GPU IQ and Performance Eval (http://www.hexus.net/content/item.php?item=7177) bei Hexus
NVIDIA GeForce 8800 GTX & 8800 GTS (http://www.behardware.com/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html) bei Be Hardware
GeForce 8800 GTX/8800 GTS Performance with Athlon 64 (http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/default.asp) bei Firing Squad mit unterschiedlichen X2

Dies und das:
[SPARKLE Calibre 8800 Series w/ TEC Cooling] (http://www.vr-zone.com/index.php?i=4271)
BFG GeForce 8800 GTX OC 768MB Silent WaterCooled GDDR3 HDTV/Dual DVI (PCI-Express) - Retail (GX-037-BG) (http://www.overclockers.co.uk/acatalog/8800_Series.html) bei OcUK
[Galaxy 8800 Premium Edition w/ Zalman Water Cooling] (http://www.vr-zone.com/?i=4281)
[ELSA GLADIAC 880 Series] (http://www.vr-zone.com/?i=4280)
[KingPin's Traumatising 3D Mark Records!] (http://www.vr-zone.com/?i=4279):D
[Inno3D GeForce 8800 Series] (http://www.vr-zone.com/?i=4275)
GeForce 8800 Roundup: The Best of the Best (http://www.anandtech.com/video/showdoc.aspx?i=2873&p=1) bei Anandtech

Wenn etwas fehlt, bitte per PM hinweisen und nicht hier im Thread.

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
Ich bin mal so frech und klaue was von Leo:
Nvidia GeForce 8800 GTX: Der schnellste Grafikchip der Welt (d) (http://www.chip.de/artikel/c1_artikel_22630651.html) [Chip]
nVidia GeForce 8800 GTX: Der neue König unter den Grafikkarten (d) (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/) [ComputerBase]
NVIDIA GeForce 8800 GTX (d) (http://www.hardwareluxx.de/pages/13599) [Hardwareluxx]
Nvidia Geforce 8800 GTX: 3D-Hammer für Direct X 10 (d) (http://www.pcwelt.de/tests/hardware-tests/pci-express-grafikkarten/63061/index.html) [PC-Welt]
Neuer NVIDIA GeForce 8800 GTX rast auf der Überholspur (d) (http://www.tec-channel.de/technologie/komponenten/455141) [tecChannel]
The Next Generation: Vorstellung und und Review von NVIDIAs 8800 GTX und GTS (d) (http://www.technic3d.com/?site=article&action=article&a=379&p=1) [Technic3D]
Der Dampfhammer: Geforce 8800 GTX (G80) (d) (http://hardware.thgweb.de/2006/11/08/nvidia-geforce-8800-gtx-g80-grafikkarte-test/) [Tom's Hardware Guide]
Nvidia G80 Image Quality Investigation (e) (http://www.3declipse.com//content/view/34/9/) [3DEclipse]
NVIDIA G80: Architecture and GPU Analysis (e) (http://www.beyond3d.com/reviews/nvidia/g80-arch/) [Beyond3D]
MSI NX8800GTX - was it worth the wait? (e) (http://www.bootdaily.com/index.php?option=com_content&task=view&id=178&Itemid=56) [Boot Daily]
NVIDIA GeForce 8800 GTX/GTS Performance Preview (e) (http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/) [FiringSquad]
EVGA 8800GTS (e) (http://www.gamepyre.com/reviewsd.html?aid=783&p=1) [Gamepyre]
GeForce 8800 GTS & GTX review (e) (http://www.guru3d.com/article/Videocards/391/) [Guru3D]
BFGTech GeForce 8800 GTX and 8800 GTS (e) (http://enthusiast.hardocp.com/article.html?art=MTIxOCwxLCxoZW50aHVzaWFzdA==) [HardOCP]
NVIDIA GeForce 8800 GTX (e) (http://www.hexus.net/content/item.php?item=7177) [Hexus]
NVIDIA GeForce 8800 GTX and 8800 GTS: Unified Powerhouses (d) (http://www.hothardware.com/viewarticle.aspx?articleid=903) [Hot Hardware]
XFX GeForce 8800GTX Video Card Review (e) (http://www.motherboards.org/reviews/hardware/1671_1.html) [Motherboards]
BFG GeForce 8800 GTS (d) (http://www.neoseeker.com/Articles/Hardware/Reviews/bfg8800gts/) [Neoseeker]
NVIDIA GeForce 8800 GTX Review - DX10 and Unified Architecture (d) (http://www.pcper.com/article.php?type=expert&aid=319) [PC Perspective]
NVIDIA GeForce 8800 Preview (e) (http://www.techpowerup.com/reviews/NVIDIA/G80) [techPowerUp!]
Nvidia's GeForce 8800 graphics processor (e) (http://techreport.com/reviews/2006q4/geforce-8800/index.x?pg=1) [The Tech Report]
MSI GeForce 8800GTS is here - Hello DX10 (e) (http://www.tweaktown.com/articles/977/2/page_2_new_technology/index.html) [TweakTown]
NVIDIA G80: Place au GeForce 8800 et à DirectX 10 (franz.) (http://www.clubic.com/article-61974-1-nvidia-g80-geforce-8800-gts-gtx.html) [Clubic]

san.salvador
2006-11-07, 19:53:26
So wird der Chinaschnickschnack wenigstens irgendwie verständlich: Übersetzung (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0611%2 F898744.html&langpair=zh-CN%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

Ich seh grad die Experten dort haben mit 1 GiB RAM getestet - so sieht High End aus. :ugly:


Wieso kann sich die 8800 GTS nicht von der X1950XTX absetzen? Die liegt sogar teilweise hinten.

derguru
2006-11-07, 20:04:50
also wenn bei der gts es nicht am treiber liegt dann ist die ja schwächer als die 1950xtx

gts hat sehr entäuchende werte muss ich sagen

Gast
2006-11-07, 20:06:50
Da reingugen und net hier spekulieren ;) http://www.forum-3dcenter.org/vbulletin/showthread.php?t=327560&page=105

Gast
2006-11-07, 20:12:19
Die GTX ist mir 681 Mio Transistoren in 90nm gefertigt. Da haben wir hier ja ganz schön daneben gelegen, als wir vermuteten, dass 381 Mio sehr viel für den Prozess wären.

Super Grobi
2006-11-07, 20:24:11
Die GTX ist mir 681 Mio Transistoren in 90nm gefertigt. Da haben wir hier ja ganz schön daneben gelegen, als wir vermuteten, dass 381 Mio sehr viel für den Prozess wären.

So ist das HIER IMMER! Viel bla bla und Threads wo jeder was weiss und vorallen BESSER und am ende ist das alles für die Tonne. Hauptsache man hat 958 Seiten lang Spekuliert. Such dir mal die Spekus zur NVs FX 5800 raus und lese das mal. Du wirst vom Stuhl fallen. So ist das aber immer hier!

Topic: Wenn die X1950XTX wirklich im GTS Gebiet räubert, hat NV nicht sehr gut gearbeitet. Ein neuer Treiber wird immer ETWAS bringen, aber auch keine Wunder bewirken.

Gruss und nichts für ungut @ all
SG

Doomi
2006-11-07, 20:40:45
na so ein quatsch.. dann wäre die GTS ja kaum schneller als die 7900 GTX .. sie muss schneller sein wie die X1950XTX

derguru
2006-11-07, 20:42:49
na so ein quatsch.. dann wäre die GTS ja kaum schneller als die 7900 GTX .. sie muss schneller sein wie die X1950XTX

quatsch nicht schau selbst

mapel110
2006-11-07, 20:44:33
na so ein quatsch.. dann wäre die GTS ja kaum schneller als die 7900 GTX .. sie muss schneller sein wie die X1950XTX
Wieso? Die Speicherbandbreite ist identisch.
800 Mhz x 320bit Speicherinterface
zu
1000 Mhz x 256bit Speicherinterface

Ronny G.
2006-11-07, 20:44:49
Bei den dort gezeigten differenzen zwischen GTS und GTX was die Benches angeht kann man nur von der GTS abraten.
Wollen wir mal abwarten.

Super Grobi
2006-11-07, 20:45:25
na so ein quatsch.. dann wäre die GTS ja kaum schneller als die 7900 GTX .. sie muss schneller sein wie die X1950XTX

Ist das der Vista-Preis für D3D-10? Ich mein CPU und Ram vom PC wird dabei ja auch unötig (da umstieg schwachsinn) unötig mehr gestresst. Vieleicht kostet DX9 auf eine solche Karte Leistung?

SG

dildo4u
2006-11-07, 20:46:55
Haut doch alles hin die GTS ist 1/3 langsammer als die GTX und kostet auch ca 1/3 weniger.

Doomi
2006-11-07, 20:49:53
das bedeutet dann auch das die GTX gerade mal ein drittel schneller als eine 1950 XTX ist.. bin etwas enttäuscht.. :(

dildo4u
2006-11-07, 20:52:49
das bedeutet dann auch das die GTX gerade mal ein drittel schneller als eine 1950 XTX ist.. bin etwas enttäuscht.. :(Nö je nach Game sind auch mal 2/3 nur das halt nicht alle Games so komplexe Shader nutzen wie z.B Oblivion.

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl600_thumb.jpg


Da kann sich auch die GTS deutlich absetzen.

Doomi
2006-11-07, 20:55:09
Nö je nach Game sind auch mal 2/3 nur das halt nicht alle Games so komplexe Shader nutzen wie z.B Oblivion.

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl600_thumb.jpg


Da kann sich auch die GTS deutlich absetzen.

hmm.. also da sieht es schon besser aus.. so in der Art hab ich mir das generell vorgestellt..

The_Invisible
2006-11-07, 20:55:31
wartet doch mal die review flut ab bevor man hier urteilt, bei den getesteten games/einstellungen braucht man eigentlich keinen g80

außerdem kann man nix über 16xAA oder wuaf entziffern, außer einer kann das hier übersetzen

mfg

Super Grobi
2006-11-07, 20:57:23
Nö je nach Game sind auch mal 2/3 nur das halt nicht alle Games so komplexe Shader nutzen wie z.B Oblivion.

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl600_thumb.jpg


Da kann sich auch die GTS deutlich absetzen.

Liegt das nicht am Ram? Die Auflösung ist ja schon heftig hoch. Hat man da evt. gerade die 512MB Vram überschritten und deshalb kann die Ati nicht so richtig?

SG

dildo4u
2006-11-07, 20:57:45
hmm.. also da sieht es schon besser aus.. so in der Art hab ich mir das generell vorgestellt..Ein Farcry oder ein HL2 Classic nicht Episode 1 ohne HDR belastet die Karte natürlich nicht sonderlich.

Liegt das nicht am Ram? Die Auflösung ist ja schon heftig hoch. Hat man da evt. gerade die 512MB Vram überschritten und deshalb kann die Ati nicht so richtig?

SGNö die GTS hat ja auch keine 768MB.

Super Grobi
2006-11-07, 21:00:19
Nö die GTS hat auch keine 768MB.

Klar, aber 640MB und das sind 128MB (es gab mal Karten damit ;)) mehr. Wenn z.B. 600MB benötigt werden, ist das für eine 512MB Karte schlecht.

SG

dildo4u
2006-11-07, 21:02:51
Naja ich glaub nicht das es daran liegt weil das ohne AA dafür mit HDRR ist und das sollte locker passen.Außerdem gibts auf der Seite auch die Ergebnisse in 1600*1200

8800GTX 124fps fast 100% schneller als die ATI!
8800GTS 94fps
1950XTX 64fps

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744_27.html

JFZ
2006-11-07, 21:51:38
Naja ich glaub nicht das es daran liegt weil das ohne AA dafür mit HDRR ist und das sollte locker passen.Außerdem gibts auf der Seite auch die Ergebnisse in 1600*1200

8800GTX 124fps fast 100% schneller als die ATI!
8800GTS 94fps
1950XTX 64fps

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744_27.html

Kann die 8800 eigentlich inzwischen HDR + AA (in Oblivion) ? Oder gilt immer noch entweder-oder?

dildo4u
2006-11-07, 21:53:30
Kann die 8800 eigentlich inzwischen HDR + AA (in Oblivion) ? Oder gilt immer noch entweder-oder?Zur Zeit noch nicht ist aber eher eine Treiber Sache wie bei ATI auch.

Gast
2006-11-07, 22:05:46
bin enttäuscht,NV hat wieder nur das nötigste gemacht. nur die teuerste karte setzt sich etwas ab aber das ist so wenig das man sich 600 euro sparen kann.

ich warte entspannt auf ati

paul.muad.dib
2006-11-07, 22:18:06
Die GTX sieht gut aus, aber die GTS wirkt im im Verhältnis wie eine Mittelklassekarte, da wäre die Bezeichnung GS wohl passender.
Naja, der G70 konnte ja anfangs auch nicht so viel Abstand zu einer X850 XT-PE machen.

bin enttäuscht,NV hat wieder nur das nötigste gemacht. nur die teuerste karte setzt sich etwas ab aber das ist so wenig das man sich 600 euro sparen kann.

ich warte entspannt auf ati

öhm, die GTX ist tw. mehr als doppelt so schnell wie eine X1950 XTX, so einen Sprung hatten wir schon lange nicht mehr. Was hast du erwartet, 4x Leistung?

der Lustige
2006-11-07, 22:39:37
Nö je nach Game sind auch mal 2/3 nur das halt nicht alle Games so komplexe Shader nutzen wie z.B Oblivion.

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl600_thumb.jpg


Da kann sich auch die GTS deutlich absetzen.

Ja mal AA und AF in Oblivion an machen und schon kackt die Karte ab...


öhm, die GTX ist tw. mehr als doppelt so schnell wie eine X1950 XTX, so einen Sprung hatten wir schon lange nicht mehr. Was hast du erwartet, 4x Leistung?

Tomaten auf den Augen? Im Durchschnitt ca. 30% schneller als die ATI, mehr war nicht zu erwarten.

LovesuckZ
2006-11-07, 22:47:05
Tomaten auf den Augen? Im Durchschnitt ca. 30% schneller als die ATI, mehr war nicht zu erwarten.

Jaja, nun kommen die ganzen Checker hervor, welche meinen, das Ergebnis schon immer gewusst zu haben...:rolleyes:
30% schneller als die X1950XTX war wirklich nicht zu erwarten, da das Ergebnis einfach zu langsam ist.
Mal sehen, was weitere Reviews für ein Ergebnis offenbaren.

dildo4u
2006-11-07, 22:47:38
Ja mal AA und AF in Oblivion an machen und schon kackt die Karte ab...

.Sagt wer haste die Karte schon zu Hause? und du solltest noch mal nachrechnen die GTX ist zwischen 40-70% schneller im extremfall Oblivion über 100%.

108% schneller
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl600_thumb.jpg

66% schneller
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl602_thumb.jpg

61% schneller.
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl605_thumb.jpg

45% schneller
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl607_thumb.jpg

44% schneller.
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg

Steve1
2006-11-07, 22:50:29
Wartet doch auf offizellen Reviews. Dann weiß man wie schnell die wirklich sind.:smile:

dargo
2006-11-07, 22:52:09
@dildo4u
Interessant, dass du dir nur die Rosinen rauspickst. Was ist denn damit?

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl599_thumb.jpg

Bin gespannt wie der G80 mit HDR+AA in Oblivion noch performt wenn der Treiber so weit ist.

Moralelastix
2006-11-07, 22:54:40
Haben die in den obigen Tests absichtlich die 7950GX2 vergessen?

dildo4u
2006-11-07, 22:55:54
@dildo4u
Interessant, dass du dir nur die Rosinen rauspickst. Was ist denn damit?

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl599_thumb.jpg

Bin gespannt wie der G80 mit HDR+AA in Oblivion noch performt wenn der Treiber so weit ist.Wurde doch geklärt die Geforce frisst den V-Ram bei diesem Bench bei 1600*1200 4XAA 8XAF sinds wieder die normalen Prozentabstände.

Mr. Lolman
2006-11-07, 22:56:36
68% schneller
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl607_thumb.jpg

68% schneller.
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg


Die GTX ist da um 45% bzw. 43% schneller als die X1950XTX. Oder andersrum ist die X195oXTX um 31% bzw. 30% langsamer. :|

deekey777
2006-11-07, 22:56:38
Jemand fragte nach Launch-Spielen. Ich frage lieber: Wo bleiben die 8800-Launch-Patches für Oblivion, Far Cry, SC3&4, G3... :biggrin:
Mag sein, dass ich übertreibe oder unter Paranoia leide, aber micht besticht das Gefühl, dass so manches TWIMTBP-Spiel einen HDR&AA-Patch bekommt.

der Lustige
2006-11-07, 22:57:21
Sagt wer haste die Karte schon zu Hause? und du solltest noch mal nachrechnen die GTX ist zwischen 40-60% schneller im extremfall Oblivion über 90%.

60% schneller
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl602_thumb.jpg

68% schneller
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl607_thumb.jpg

68% schneller.
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg

61% schneller.
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl605_thumb.jpg

Dann beachte auch die Ergebnisse in tabelarischer Form...

In SS2 sind es übringes nur 20 %. So bald AA unf AF im Spiel ist, steht der G80 nicht mehr so gut dar.

Durchschnitt um die 30%.

dildo4u
2006-11-07, 22:58:25
Die GTX ist da um 45% bzw. 43% schneller als die X1950XTX. Oder andersrum ist die X195oXTX um 31% bzw. 30% langsamer. :|Sorry jo stimmt wird gefixt.

Krustovsky
2006-11-07, 22:58:31
@DK777

Das wolen wir doch alle hoffen;D

Spasstiger
2006-11-07, 23:00:39
Falls hier schon wer eine der Karte zur Verfügung sehen hat, könnte er damit mal die Roboblitz-Demo (Unreal Engine 3) testen?
Benchmarks im Vergleich zu 7950 GX2, 7900 GTX und X1950 XTX wären sehr interessant.

cl55amg
2006-11-07, 23:01:49
Haben die in den obigen Tests absichtlich die 7950GX2 vergessen?

Vielleicht wollten sie nur Single Chip Karten vergleichen...

dargo
2006-11-07, 23:02:44
Wurde doch geklärt die Geforce frisst den V-Ram bei diesem Bench bei 1600*1200 4XAA 8XAF sinds wieder die normalen Prozentabstände.
Das ist doch Unsinn. Die X1950XTX hat noch weniger Vram!

AnarchX
2006-11-07, 23:03:53
Falls hier schon wer eine der Karte zur Verfügung sehen hat, könnte er damit mal die Roboblitz-Demo (Unreal Engine 3) testen?
Benchmarks im Vergleich zu 7950 GX2, 7900 GTX und X1950 XTX wären sehr interessant.

Ja, beim Deferred Shading der UE3 sollte die G80 ihre wahre Stärke zeigen...;)

dildo4u
2006-11-07, 23:04:27
Das ist doch Unsinn. Die X1950XTX hat noch weniger Vram!Ja und? vieleicht limitiert das nich mher bei so niedrigen FPS.Die Leistung bricht einfach zu krass ein bei der GTS noch mher als bei der GTX und die GTS hat ja bekanntermaßen weniger V-Ram als die GTX.

Gast
2006-11-07, 23:08:19
Muss am Spiel liegen oder sonstwas das da 50% auf einmal wegfliegen, Quake 4 in 2048*1536 4aa/16af bricht da nicht so extrem ein.

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744_26.html
Einfach n bissl runterscrollen unter SS2 ;)
Mich wundert eher das die 7900GTX fast immer gut mithalten kann *g

dargo
2006-11-07, 23:08:58
Ja und? vieleicht limitiert das nich mher bei so niedrigen FPS.
Schau dir nochmal das Diagramm an. Die G8800GTS ist ohne AA/AF ~35% schneller als die X1950XTX. Sobald AA/AF ins Spiel kommt wendet sich das Blatt. Da ist was anderes faul.

Muss am Spiel liegen oder sonstwas das da 50% auf einmal wegfliegen, Quake 4 in 2048*1536 4aa/16af bricht da nicht so extrem ein.

Quake4 hat doch kein HDR. Mich wundert eben die Leistung des G80 mit HDR+AA.

The_Invisible
2006-11-07, 23:11:15
Sagt wer haste die Karte schon zu Hause? und du solltest noch mal nachrechnen die GTX ist zwischen 30-60% schneller im extremfall Oblivion über 50%.

52% schneller
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl600_thumb.jpg


das sind über 100%...

mfg

Gast
2006-11-07, 23:14:28
Das mit der prozentrechnung üben wir aba nochmal :D

bvb

dildo4u
2006-11-07, 23:15:17
Ich bin langsam verwirrt sind das jetzt 52% mher oder nich bei Oblivion? ansonsten sinds bei fast allen Benches 60 bzw 99% bei Oblivion.

Merkor
2006-11-07, 23:15:53
Mich wundert eher das die 7900GTX fast immer gut mithalten kann *g

Und nun stelle man sich das in einer für die meisten hier limitierenden Auflösung von 1280x1024 mit einem nicht ganz so leistungsstarken Prozessor vor und schon sind 500-600€ aus dem Fenster geblasen...

dargo
2006-11-07, 23:16:12
Das mit der prozentrechnung üben wir aba nochmal :D

Genau. ;D
Es sind übrigens knapp 108% Vorsprung für die GTX.

knallebumm
2006-11-07, 23:16:58
das sind über 100%...

mfg

er meint wohl 8800gts vs x1950xt

edit: jetzt seh ich gerade, daß dann die Werte für die anderen Benchmarks überhaupt nicht hinkommen.
Jaja, die Prozentrechnung.

@dildo4u

http://www.schule-inside.de/html/mathematik.html

auf Klasse 7 klicken und dann Prozentrechnung auswählen :)

AnarchX
2006-11-07, 23:17:09
Ich bin langsam verwirrt sind das jetzt 50% mher oder nich? ansonsten sinds bei fast alle Benches 60 bzw 90% bei Oblivion.

(100/ FPS langsamere Karte * FPS schnellere Karte)-100 = Mehrleistung in % ;)

Gast
2006-11-07, 23:17:14
Und nun stelle man sich das in einer für die meisten hier limitierenden Auflösung von 1280x1024 mit einem nicht ganz so leistungsstarken Prozessor vor und schon sind 500-600€ aus dem Fenster geblasen...

Naja dafür kannste aber mit ner 8800er dann 16xAA laufen lassen. Hoffe ich zumindest, bin guter Dinge das das die Reviewer auch angeschaut haben.

dildo4u
2006-11-07, 23:18:49
(100/ FPS langsamere Karte * FPS schnellere Karte)-100 = Mehrleistung in % ;)Ich wollte es mir hier einfach machen wo muss ich welchen Wert eingeben?

http://www.arndt-bruenner.de/mathe/scripts/Prozentrechner.htm

dargo
2006-11-07, 23:19:28
(100/ FPS langsamere Karte * FPS schnellere Karte)-100 = Mehrleistung in % ;)
:|

Noch nie was vom Dreisatz gehört? :)

(Höhere FPS*100/niedrigere FPS)-100 :wink:

Gast
2006-11-07, 23:21:38
Grundwert sind die 47 Prozentwert die 97

p = P/G - 1
47/97 -1 = 1.0638 ;)

BvB123
2006-11-07, 23:23:08
Der gast war ich.

@ dargo kommt doch aufs selbe hinaus?!

Gruß

dargo
2006-11-07, 23:28:20
@ dargo kommt doch aufs selbe hinaus?!

Natürlich, habe nur gedacht der Dreisatz wäre einfacher. :)

deekey777
2006-11-07, 23:28:53
Jemand fragte nach Launch-Spielen. Ich frage lieber: Wo bleiben die 8800-Launch-Patches für Oblivion, Far Cry, SC3&4, G3... :biggrin:
Mag sein, dass ich übertreibe oder unter Paranoia leide, aber micht besticht das Gefühl, dass so manches TWIMTBP-Spiel einen HDR&AA-Patch bekommt.
Nr. 1? http://www.gamershell.com/news/34125.html
http://www.worthplaying.com/article.php?sid=38474&mode=thread&order=0
Splinter Cell Double Agent will reinvent the spy action genre by introducing a double agent concept and a new breed of game play that adds an exciting new dimension to the gaming experience. This v1.01 patch fixes some anti-aliasing hiccups, but mainly addresses multiplayer problems such as invitations, squad features, and disconnect issues.

dargo
2006-11-07, 23:31:02
Nr. 1? http://www.gamershell.com/news/34125.html
http://www.worthplaying.com/article.php?sid=38474&mode=thread&order=0
Das wird sich wohl eher auf die vielen Bugs des Spiels beziehen und weniger auf den G80.

Zapat
2006-11-07, 23:34:12
Splinter Cell DB wurde doch auf einer Xbox 360 entwickelt.In der Xbox 360 Arbeitet eine Ati Karte,warum sollten sich die SC macher Arbeit für denn G80 leisten und nicht für Ati?

dargo
2006-11-07, 23:36:56
Splinter Cell DB wurde doch auf einer Xbox 360 entwickelt.In der Xbox 360 Arbeitet eine Ati Karte,warum sollten sich die SC macher Arbeit für denn G80 leisten und nicht für Ati?
Weil die Performance mit NV so schlecht ist?
Nicht nur bei SC4 auch in NfS:Carbon und wohl in zukünftigen Xbox 360 Games.

deekey777
2006-11-07, 23:37:12
Das wird sich wohl eher auf die vielen Bugs des Spiels beziehen und weniger auf den G80.
Du hast den Patch ausprobiert?:|

Hier gibt's Bilder mit AA:
http://www.beyond3d.com/forum/showpost.php?p=868268&postcount=103

dargo
2006-11-07, 23:38:18
Du hast den Patch ausprobiert?:|

Hier gibt's Bilder mit AA:
http://www.beyond3d.com/forum/showpost.php?p=868268&postcount=103
Nein, meinst aber nicht es wäre etwas zu früh für den G80 Patch?

Edit:
Das scheint (unter anderem) ein intergrierter AA Patch für HDR+AA fähige Grakas zu sein. Endlich, nicht wieder so ein Kack wie mit Oblivion oder Call of Juarez.

TheGoD
2006-11-07, 23:39:45
Splinter Cell DB wurde doch auf einer Xbox 360 entwickelt.In der Xbox 360 Arbeitet eine Ati Karte,warum sollten sich die SC macher Arbeit für denn G80 leisten und nicht für Ati?

Keine Ahnung, frag mal die Devs von Oblivion;)

StefanV
2006-11-07, 23:42:07
:|

Noch nie was vom Dreisatz gehört? :)

(Höhere FPS*100/niedrigere FPS)-100 :wink:
Warum so schwer/kompliziert?!
groß / klein mal hundert und dann sieht man schon, was man machen muss...


PS: die Klammer ist bullshit, da überflüssig.

dargo
2006-11-07, 23:46:48
Warum so schwer/kompliziert?!
groß / klein mal hundert und dann sieht man schon, was man machen muss...

Ja, aber ich habe den Dreisatz erwähnt. :wink:



PS: die Klammer ist bullshit, da überflüssig.
Ich weiß. :)

PS: Jetzt aber zurück zum Thema, sonst mache(n ) ich(wir) den Thread wieder kaputt. :)

mkh79
2006-11-07, 23:48:58
Bei der Tabelle der FarCry Werte muss wohl irgendwas durcheinander gekommen sein.

Mehr fps bei 1024x768 4AA, 16AF als bei 1024x768 ohne AA und AF?

Ansonsten hätte ich jetzt für die GTS auch ein bisschen mehr erwartet, sodass sie sich deutlicher von der X1950XTX absetzen kann.

WEGA
2006-11-07, 23:53:15
echt genial, dass den thread ein gast aufgemacht hat :uup:

Gast
2006-11-08, 00:25:49
http://www.overclockers.at/showthread.php?threadid=171218&perpage=20&pagenumber=1


Hier ist ein kleiner "test"

Anarchy-HWLUXX
2006-11-08, 00:29:47
Zu den Gaming Benches der G80 gibt es in den Review noch am ende ein interesannten Teil, dieser wird auf B3D etwas besprochen :

http://www.beyond3d.com/forum/showpost.php?p=867963&postcount=2604

Ergo -> da ist noch einiges an power im Core die richtig genutzt werden will ...

Mastermind
2006-11-08, 01:06:56
Jemand fragte nach Launch-Spielen. Ich frage lieber: Wo bleiben die 8800-Launch-Patches für Oblivion, Far Cry, SC3&4, G3... :biggrin:
Mag sein, dass ich übertreibe oder unter Paranoia leide, aber micht besticht das Gefühl, dass so manches TWIMTBP-Spiel einen HDR&AA-Patch bekommt.
Was ist TWIMTBP?

Anarchy-HWLUXX
2006-11-08, 01:24:16
"The way it's meant to be played"

Mastermind
2006-11-08, 01:49:35
"The way it's meant to be played"
Achso! Danke. :smile:

(+44)
2006-11-08, 03:04:48
HDR und FSAA funktioniert auf meiner 7900 allerdings auch, hab den 1.01er Patch ausprobiert, FSAA funktioniert im Zusammenspiel mit HDR

Ändert an der Performance leider nichts, aber hey, FSAA und HDR *g*

PP
2006-11-08, 03:44:01
www.awardfabrik.de - Testbericht BFG nVidia 8800GTX (http://www.awardfabrik.de/index.php?p=reviewpages&id=68&seite=1)

StefanV
2006-11-08, 04:30:44
www.awardfabrik.de - Testbericht BFG nVidia 8800GTX (http://www.awardfabrik.de/index.php?p=reviewpages&id=68&seite=1)
Naja, nicht besonders toll, andersrum: der Test ist voll für die Hose weil nur 3DMark und Aquamark getestet wurde, nicht ein Spiel war dabei, nicht ein verwertbarer Bench...

Dazu kommt noch das die schreibe nicht so prickelnd ist....

Ailuros
2006-11-08, 04:49:45
Schoen dass einige schon enttaeuscht sind LOL...

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl599_thumb.jpg

Wenn etwas vorsichtiger liest sieht man was rechts an der Seite steht; die roten Resultate sehen verdammt nach dem langsamen 16xAA modus aus. Ein Tritt in den Hintern fuer den Author und einen fuer die Leser die nicht vorsichtig genug lesen.

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744_26.html

***edit: und nur ein Schnaeppchen mehr; da hier die G80 runde 70% verliert, duerfte der schnellere 16x modus etwa 35+% verlieren. Wenn Ihr ganz vorsichtig die anderen 1x vs. 4xAA betrachtet, ist es ein Kinderspiel zu sehen wieviel die GPU mit 4xAA eigentlich einbricht.

Bei den Q4 Resultaten in 1600 sind es 11% fuer die 8800GTX und 24% fuer die X1950XTX von 1x-->4xAA

Ailuros
2006-11-08, 04:53:42
Zu den Gaming Benches der G80 gibt es in den Review noch am ende ein interesannten Teil, dieser wird auf B3D etwas besprochen :

http://www.beyond3d.com/forum/showpost.php?p=867963&postcount=2604

Ergo -> da ist noch einiges an power im Core die richtig genutzt werden will ...

Was der bloedeste BS ueberhaupt ist; nicht nur macht es absolut keinen Sinn, sondern es gibt dementsprechende Tools von NV die erlauben das load balancing genau nachzupruefen.

Banshee18
2006-11-08, 05:06:45
HDR und FSAA funktioniert auf meiner 7900 allerdings auch, hab den 1.01er Patch ausprobiert, FSAA funktioniert im Zusammenspiel mit HDR

Ändert an der Performance leider nichts, aber hey, FSAA und HDR *g*
Ich weiß zwar nicht, von welchem Spiel du sprichst, aber echtes HDRR geht ganz sicher nicht mit AA auf deiner 7900GTX.

MadManniMan
2006-11-08, 06:35:41
Es ist doch wie schon so oft: ein einzelnes Review ist online und schon werden abschließende Urteile gefällt.

Ich sage nicht, daß man per se dem ersten Test nicht trauen könnte - aber die Erfahrung hat gezeigt, daß es zumindest nicht falsch ist, wenigstens ein halbes Dutzend zu lesen und dann erst wirklich ein Fazit zu ziehen.


Ich jedenfalls werde es so halten, mich aber allein schon deswegen aus der Diskussion heraushalten, weil nach Ende meiner Arbeit um die 87 Seiten schon geschrieben sein werden ;)

Summa Summarum: viel Spaß uns allen mit den Tests und den Käufern mit den Karten!

Gast
2006-11-08, 07:34:38
Schoen dass einige schon enttaeuscht sind LOL...

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl599_thumb.jpg

Wenn etwas vorsichtiger liest sieht man was rechts an der Seite steht; die roten Resultate sehen verdammt nach dem langsamen 16xAA modus aus. Ein Tritt in den Hintern fuer den Author und einen fuer die Leser die nicht vorsichtig genug lesen.

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744_26.html

***edit: und nur ein Schnaeppchen mehr; da hier die G80 runde 70% verliert, duerfte der schnellere 16x modus etwa 35+% verlieren. Wenn Ihr ganz vorsichtig die anderen 1x vs. 4xAA betrachtet, ist es ein Kinderspiel zu sehen wieviel die GPU mit 4xAA eigentlich einbricht.

Bei den Q4 Resultaten in 1600 sind es 11% fuer die 8800GTX und 24% fuer die X1950XTX von 1x-->4xAA

Hmmm, dann gibt es jetzt auch einen Tritt in den Hintern für dich, weil du zwar gelesen hast, aber das Gelesene gedanklich nicht richtig verarbeitet hast. Da steht "4 x AA 16 x AA". Ich denke es ist ein Tippfehler vom Author und soll heissen "4 x AA 16 x AF". Also lässt sich das durch einen langsamen AA Modus nicht erklären. Ich gebe dir aber Recht, wenn du sagst, daß der Leistungseinbruch eher nach 16 x AA als nach 4 x AA aussieht.

CyRuS
2006-11-08, 07:52:08
hab mal eine frage an alle die sich die 8800gtx bestellen werden:

wie bezahlt ihr? vorkasse? rechnung? kreditkarte? oder nachnahme?

ciao

cyrus

Gast
2006-11-08, 08:03:20
Na Vorkasse fällt weg, weil dauert zulange *g
Je nach Shop hat CreditCard oder per Nachnahme, auf Rechnung geht ja nur als Firma.
Bar nicht vergessen, für vor Ort kauf.

AnarchX
2006-11-08, 08:20:39
Adrianne Curry
http://bbs.expreview.com/attachments/1_k4PUO0M8R228.jpg
http://bbs.expreview.com/attachments/2_nuUKyOGolZo4.jpg

Ailuros
2006-11-08, 08:23:46
Hmmm, dann gibt es jetzt auch einen Tritt in den Hintern für dich, weil du zwar gelesen hast, aber das Gelesene gedanklich nicht richtig verarbeitet hast. Da steht "4 x AA 16 x AA". Ich denke es ist ein Tippfehler vom Author und soll heissen "4 x AA 16 x AF". Also lässt sich das durch einen langsamen AA Modus nicht erklären. Ich gebe dir aber Recht, wenn du sagst, daß der Leistungseinbruch eher nach 16 x AA als nach 4 x AA aussieht.

Ich hab es nicht uebersehen dass da tatsaechlich 4xAA/16xAA steht. Mein virtueller "Tritt in den Hintern" bezog sich auf das es mehr als nur offensichtlich war dass eine R580+ nur etwa 50% und eine G80 angeblich 70% mit 4xAA verliert.

Ich hab im vorigen Spekulations-thread mehrere Andeutungen gemacht wie relativ klein der Verlust fuer nur 4xAA ist. 16x coverage mask verliert im einen Fall bis zu 70% und im anderen an die 35%.

aths
2006-11-08, 08:29:02
Review-Thread? Mein NDA ist noch nicht ausgelaufen.

Gast
2006-11-08, 08:35:56
Man könnte den Thread noch für ein paar Stunden umbenennen in "leaked-Reviews" *g

Quasar
2006-11-08, 08:36:18
Jemand fragte nach Launch-Spielen. Ich frage lieber: Wo bleiben die 8800-Launch-Patches für Oblivion, Far Cry, SC3&4, G3... :biggrin:
Wieso bist du der Meinung, dass so etwas nötig sein wird?

Godmode
2006-11-08, 08:39:09
Review-Thread? Mein NDA ist noch nicht ausgelaufen.

Und wann ist es endlich so weit?

CyRuS
2006-11-08, 08:49:47
Und wann ist es endlich so weit?

auch wissen will :D

und was heißt NDA überhaupt?

AnarchX
2006-11-08, 08:52:10
und was heißt NDA überhaupt?
Non-Disclosure Agreement(dt. Vertraulichkeitsvereinbarung) (http://de.wikipedia.org/wiki/Non-Disclosure_Agreement)
:wink:

CyRuS
2006-11-08, 08:56:27
achso ....logisch!

und ich dachte das "n" in "nda" hat was mit nvidia zu tun :D

aths
2006-11-08, 08:56:37
bin enttäuscht,NV hat wieder nur das nötigste gemacht.Was fehlt dir denn?

dargo
2006-11-08, 08:57:10
@Ailuros
Hast du die Einzelergebnisse von SS2 beachtet? :)

1600x1200 4xAA/16xAF - 67,5fps
2048x1536 4xAA/16xAF - 38,1fps

Vielleicht nur ein Treiberproblem da hier afaik HDR+AA genutzt wird?

AnarchX
2006-11-08, 08:57:21
XFX 8800GTS Preview - La generación DirectX10 ya esta aqui!
http://www.mod-pc.com/modules.php?name=Content&pa=showpage&pid=46&page=1

dargo
2006-11-08, 09:02:55
XFX 8800GTS Preview - La generación DirectX10 ya esta aqui!
http://www.mod-pc.com/modules.php?name=Content&pa=showpage&pid=46&page=1
Danke. :)

In Call of Juarez sieht man erst das Potenzial des G80. Die Spiele für den G80 müssen also erst erscheinen. ;(

CyRuS
2006-11-08, 09:03:07
das p/l-verhältnis bei der gts passt überhaupt nicht. viel zu lahm für den preis....

dargo
2006-11-08, 09:05:52
das p/l-verhältnis bei der gts passt überhaupt nicht. viel zu lahm für den preis....

Wie waren die Preise nochmal?

G8800GTX = 650$
G8800GTS = 450$

???

Dann passt es doch.

CyRuS
2006-11-08, 09:09:51
noch passt es! aber was ist wenn die 7950gx² für weniger als 400€ zu haben ist?

Ailuros
2006-11-08, 09:09:59
@Ailuros
Hast du die Einzelergebnisse von SS2 beachtet? :)

1600x1200 4xAA/16xAF - 67,5fps
2048x1536 4xAA/16xAF - 38,1fps

Vielleicht nur ein Treiberproblem da hier afaik HDR+AA genutzt wird?

Ach ja und?

1600*1200

1xAA/1xAF = 180.5
4xAA/16xAF = 67.5
-----------------------
-63%

2048*1536

1xAA/1xAF = 127.9
4xAA/16xAF = 38.1
-----------------------
-70%

Nun denk mal ein klein bisschen schaerfer nach ob ich die Resultate nur so ueberschwemmt habe und ob ich eine Ahnung haben koennte was genau was ist. Ich bestehe darauf dass es sich hier um 16xAA handelt aus gutem Grund.

AnarchX
2006-11-08, 09:10:42
Nvidia GeForce 8800 GTX graphics card
http://www.reghardware.co.uk/2006/11/08/review_nvidia_geforce_8800_gtx/
Once the 8800 GTX was running, the first impression is that the enormous cooler works superbly well and is incredibly quiet. The fan is 72mm in diameter and stands some 20mm tall, so there's plenty of blade area. Throughout our testing the temperature didn't budge above 65° and the noise level was utterly negligible.
Our second observation is that the drivers - version 96.89 in the box - support both High Dynamic Range (HDR) and anti-aliasing (AA) at the same time on the 8800 GTX, and the AA settings go all the way up to 16x Q, thanks to the new Lumenex engine. Clearly Nvidia expects great things from the GeForce 8800 GTX so it was time to see it in action.

Ailuros
2006-11-08, 09:11:29
das p/l-verhältnis bei der gts passt überhaupt nicht. viel zu lahm für den preis....

Lies mal bitte meine Unterschrift unten genau durch. Etwas Geduld duerfte nicht schaden.

Gast
2006-11-08, 09:12:27
Schoen dass einige schon enttaeuscht sind LOL...

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl599_thumb.jpg

Wenn etwas vorsichtiger liest sieht man was rechts an der Seite steht; die roten Resultate sehen verdammt nach dem langsamen 16xAA modus aus. Ein Tritt in den Hintern fuer den Author und einen fuer die Leser die nicht vorsichtig genug lesen.

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744_26.html

***edit: und nur ein Schnaeppchen mehr; da hier die G80 runde 70% verliert, duerfte der schnellere 16x modus etwa 35+% verlieren. Wenn Ihr ganz vorsichtig die anderen 1x vs. 4xAA betrachtet, ist es ein Kinderspiel zu sehen wieviel die GPU mit 4xAA eigentlich einbricht.

Bei den Q4 Resultaten in 1600 sind es 11% fuer die 8800GTX und 24% fuer die X1950XTX von 1x-->4xAA

Mich würd mal interessieren was die da gebencht haben, bisher sah es in Benchmarks so aus als ob Serious Sam2 ohne HDR und MIT AA schon unspielbar langsam ist...

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/18/#abschnitt_serious_sam_2

und da ist nur 1600*1200 4xAA/16xAF ohne HDR gebencht worden.

AnarchX
2006-11-08, 09:14:06
Mich würd mal interessieren was die da gebencht haben, bisher sah es in Benchmarks so aus als ob Serious Sam2 ohne HDR und MIT AA schon unspielbar langsam ist...

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/18/#abschnitt_serious_sam_2

und da ist nur 1600*1200 4xAA/16xAF ohne HDR gebencht worden.

CB verwendet TRSSAA bei nV und ATI, was bei der Vegetation in SS2 der Perfomance nicht wirklich zuträglich ist...;)

paul.muad.dib
2006-11-08, 09:14:47
Tomaten auf den Augen? Im Durchschnitt ca. 30% schneller als die ATI, mehr war nicht zu erwarten.

Jetzt mal langsam. Etwas mehr sind es schon und ich erinnere nochmal an die Situation Geforce 7800 GTX vs. Radeon X850 XT. Da hatte erstere anfangs auch keinen alzu großen Vorsprung, aber durch Treiberverbesserungen und in neueren Spielen ist sie nun doppelt so schnell und keiner würde mehr eine X8xx einer 7800 gt vorziehen.

Die 8800 GTX ist für noch shaderintensivere Spiele gedacht und dann werden wahrscheinlich auch die Abstände steigen. Außerdem ist noch zu untersuchen, warum die Verluste unter AA/AF so hoch sind. Wurde hier wu AF gegen wa AF gebencht? Und eigentlich sollte die 8800 doch dank der größeren Speicherbandbreite und Menge einen Vorteil unter AA haben.

aths
2006-11-08, 09:16:26
das p/l-verhältnis bei der gts passt überhaupt nicht. viel zu lahm für den preis....Wenn das so ist, wird das sicher der Markt regeln.

Ailuros
2006-11-08, 09:19:18
Es gibt mehr als nur ein Demo in SS2 und eine endlose lange Liste an settings. So lange nicht bei jedem Test beisteht welches demo genau mit welchen genauen settings benutzt wurden, gelten die jeweiligen Resultate nur fuer die GPUs die im gleichen System verglichen wurden und nicht als Massstab oder Vergleich zu anderen Reviews.

Ich hab sogar benches von SS2 gesehen wo ein Depp den LOD auf 100% setzte; bloeder kann man ja gar nicht sein :rolleyes:

dargo
2006-11-08, 09:21:41
@Ailuros
Dann hat wohl pconline.com bei SS2 einigen Mist gebaut. Naja, warten wir andere Tests ab. Mich interessiert jetzt vorallem HDR+AA.


Ich hab sogar benches von SS2 gesehen wo ein Depp den LOD auf 100% setzte; bloeder kann man ja gar nicht sein :rolleyes:
Naja, er wollte halt alles auf max. haben. ;D

Ailuros
2006-11-08, 09:27:36
HDR+MSAA = screamingly fast :P

aths
2006-11-08, 09:28:29
@Ailuros
Dann hat wohl pconline.com bei SS2 einigen Mist gebaut. Naja, warten wir andere Tests ab. Mich interessiert jetzt vorallem HDR+AA.In Zukunft dürften MDR-Lösungen eine größere Rolle spielen. (Die werden vom Hersteller zwar "HDR" genannt, sind aber nach unserer Definition "nur" MDR, aber erfüllen auch ihren Zweck.)

AnarchX
2006-11-08, 09:38:19
http://we.pcinlife.com/attachments/forumid_206/FARCRY19204XAA_iwU9vDlPhD5m.gif
http://we.pcinlife.com/attachments/forumid_206/FARCRY19208XAA_Oxc3gPrvInbD.gif
http://we.pcinlife.com/attachments/forumid_206/FARCRY1920ATI_ZlL47B8It2u8.gif
http://we.pcinlife.com/thread-650334-1-1.html
:biggrin:

Gast
2006-11-08, 09:47:59
wenn ich mir das so die Taktraten ansehe.......

Gast
2006-11-08, 09:57:19
http://we.pcinlife.com/attachments/forumid_206/FARCRY19204XAA_iwU9vDlPhD5m.gif
http://we.pcinlife.com/attachments/forumid_206/FARCRY19208XAA_Oxc3gPrvInbD.gif
http://we.pcinlife.com/attachments/forumid_206/FARCRY1920ATI_ZlL47B8It2u8.gif
http://we.pcinlife.com/thread-650334-1-1.html
:biggrin:

Bei 6x ist der ATI dann wohl der VRAM ausgegangen...

Gast
2006-11-08, 10:03:30
Die GTX geht gut ab aber die GTS entäuscht derb. Wird zeit as der R600 kommt.

The_Invisible
2006-11-08, 10:05:05
Ich weiß zwar nicht, von welchem Spiel du sprichst, aber echtes HDRR geht ganz sicher nicht mit AA auf deiner 7900GTX.

doch, siehe AoE3 ;)

btw
die gts enttäuscht? ist im oberen far cry bench eh nur fast 200% schneller als ne x1950xtx...

mfg

Ailuros
2006-11-08, 10:06:47
btw
die gts enttäuscht? ist im oberen far cry bench eh nur fast 200% schneller als ne x1950xtx...

mfg

2.66x um ganz genau zu sein; deshalb hab ich auch um Geduld gebeten.

Gast
2006-11-08, 10:07:53
doch, siehe AoE3 ;)

btw
die gts enttäuscht? ist im oberen far cry bench eh nur fast 200% schneller als ne x1950xtx...

mfg

Na mal abwarten, in 5h werden wir schlauer sein, ist ja davon auszugehen das die NDA da abläuft, war ja bisher auch so ;)

Gast
2006-11-08, 10:08:01
Die GTX geht gut ab aber die GTS entäuscht derb. Wird zeit as der R600 kommt.

R600 wird wohl noch ne ganze weile auf sich warten lassen.
GTS enttäuscht nicht wenn man den preis berücksichtigt

BlackBirdSR
2006-11-08, 10:08:44
doch, siehe AoE3 ;)

mfg

Bei AoE3 wird im Very High Quality Modus mit Supersampling gearbeitet. Daher das AA auch in diesem Modus bei allen Karten.

aths
2006-11-08, 10:09:03
Die GTX geht gut ab aber die GTS entäuscht derb. Wird zeit as der R600 kommt.Warum das? Meinst du denn, dass der R600 zum GTS-Preis zu haben sein wird?

The_Invisible
2006-11-08, 10:16:42
Na mal abwarten, in 5h werden wir schlauer sein, ist ja davon auszugehen das die NDA da abläuft, war ja bisher auch so ;)

ja, bin auch schon auf englische/deutsche reviews gespannt, dann versteht man wenigstens was die so schreiben

@BlackBirdSR
ja, ich weiß. war nur ein beispiel das es doch möglich ist, auch wenns mit teurem SSAA bezahlt wird

mfg

aths
2006-11-08, 10:17:55
Na mal abwarten, in 5h werden wir schlauer sein, ist ja davon auszugehen das die NDA da abläuft, war ja bisher auch so ;)Bisher war es so. Das heißt nicht, dass es auch heute so ist.

AnarchX
2006-11-08, 10:18:36
8800GTX SLI mit nForce680IE
http://i14.tinypic.com/446yrl0.jpg
http://i13.tinypic.com/3y35uh0.png
Company of Heroes - All ingame options maxed-1920x1200
http://i14.tinypic.com/2vd0if8.png
F.E.A.R. - All ingame options maxed-1920x1200
http://i13.tinypic.com/2hds400.jpg

Oblivion Shots 1920x1200 with HDR and forced 4xAA/16xAF in the CP

http://i13.tinypic.com/44vwoev.jpg
http://i13.tinypic.com/4bsr9e8.jpg

http://we.pcinlife.com/thread-650458-1-1.html

Ailuros
2006-11-08, 10:18:56
So "teuer" sind <2x SSAA samples nun auch wieder nicht ;)

aths
2006-11-08, 10:23:25
So "teuer" sind <2x SSAA samples nun auch wieder nicht ;)Bei 1,5x1,5-SSAA hast du 2,25 Samples pro Pixel.

Ailuros
2006-11-08, 10:24:31
Auf Anarch's Links folgend; man sollte beachten dass auf dem SLi System der Verlust von 4xAA-->16xAA 15% betraegt und der Verlust von 4xAA-->16xQAA 59%.

Ailuros
2006-11-08, 10:25:13
Bei 1,5x1,5-SSAA hast du 2,25 Samples pro Pixel.

Verdammte Pfeile LOL :biggrin:

LovesuckZ
2006-11-08, 10:30:15
btw
die gts enttäuscht? ist im oberen far cry bench eh nur fast 200% schneller als ne x1950xtx...
mfg

Und unspielbar langsam.
In spielbarem Bereich liegt die GTS nur 5 FPS, nichtmal 20% vor der ATi Karte.
Das ist schon eine Enttäuschung.

Ailuros
2006-11-08, 10:38:39
Und unspielbar langsam.
In spielbarem Bereich liegt die GTS nur 5 FPS, nichtmal 20% vor der ATi Karte.
Das ist schon eine Enttäuschung.

Weder die eine noch die andere ist im Grund spielbar in dieser Aufloesung. Ob sie wirklich eine Enttaeuschung sein wird werden wir schon sehen.

Gast
2006-11-08, 10:50:00
8800GTX SLI mit nForce680IE

http://we.pcinlife.com/thread-650458-1-1.html

Wieso sagt keiner was zu den Pics (Oblivion) hat es euch die Sprache verschlagen?
HQ AF.......

The_Invisible
2006-11-08, 11:00:43
Wieso sagt keiner was zu den Pics (Oblivion) hat es euch die Sprache verschlagen?
HQ AF.......

ganz einfach, die die was sagen wollen können jetzt nichts mehr sagen und die anderen "genießen" einfach, wenn du verstehst was ich meine

mfg

aths
2006-11-08, 11:02:12
Wieso sagt keiner was zu den Pics (Oblivion) hat es euch die Sprache verschlagen?
HQ AF.......Ich sag dazu nix, weil erstens das NDA noch nicht ausgelaufen ist und ich zweitens keine Karte habe.

Gast
2006-11-08, 11:03:55
Daumen HOCH genau!
Und es geht runter wie ÖL.
Wer brauch da noch Vista und DX10,ich sach nochmal SUPER,ein User dem ein rießen Stein vom Herzen gefallen ist.

Cleric
2006-11-08, 11:04:00
wann genau ists denn soweit mit dem nda.. ?

Henroldus
2006-11-08, 11:04:06
jaaa,
hab gestern Oblivion mit 4xAA 16AF@ 1680x1050 "gespielt"
ok alles auf max(HDR aus weil es mit AA immernoch nicht funzt)
ich hatte etwa 12fps als ich gegen einen wolf kämpfte.
verdammt meine graka ist erst 2 Monate alt!

LovesuckZ
2006-11-08, 11:04:34
Weder die eine noch die andere ist im Grund spielbar in dieser Aufloesung.

Und genau hier liegt der entscheidene Punkt:
Wenn die Karte nur in unspielbaren Bereich deutlich schneller ist (ergo 5 -> 10fps...), dann bringt sie dem Spieler nichts.
Ich rede nicht von CPU - limitierenden Szenarien, sondern von denen, wo immer noch die Grafikkarte den Takt angibt. Und ein Ergebnis von 30 -> 40 fps ist dann nicht so beeindruckend, geschweige von den 80 -> 120fps...

Ailuros
2006-11-08, 11:07:49
Ich sag dazu nix, weil erstens das NDA noch nicht ausgelaufen ist und ich zweitens keine Karte habe.

Jeglicher normaler Tech-Freak (was heisst hier "normal"? :biggrin: ) der keine klaren Bevorzugungen hat was IHVs betrifft, spitzt Momentan Ohren und Augen.

DrumDub
2006-11-08, 11:08:36
Wieso sagt keiner was zu den Pics (Oblivion) hat es euch die Sprache verschlagen?
HQ AF....... jo. sieht genauso aus, wie wuaf aussehen sollte. zum vergleich mit dem wuaf des r5x0 reichts aber noch nicht aus... da müssen theoretische tests her. ich geh aber davon aus, dass das wuaf des g80 besser sein wird als jenes des r5x0. wobei man den unterschied wahrscheinlich in spielen meistens nicht wahrnimmt...

Gast
2006-11-08, 11:20:02
wobei man den unterschied wahrscheinlich in spielen meistens nicht wahrnimmt...
die meisten hier nehmen noch nicht mal den Unterschied zwischen wa und wu war. Aber egal...

ShadowXX
2006-11-08, 11:22:30
jo. sieht genauso aus, wie wuaf aussehen sollte. zum vergleich mit dem wuaf des r5x0 reichts aber noch nicht aus... da müssen theoretische tests her. ich geh aber davon aus, dass das wuaf des g80 besser sein wird als jenes des r5x0. wobei man den unterschied wahrscheinlich in spielen meistens nicht wahrnimmt...
Viel interessanter ist, das nV in seinen Treibern scheinbar ebenfalls einen "Chuck-Patch" mit eingebaut hat. Denn sonst würde HDR+AA nicht funktionieren.

Und wenn ich mir dann noch Quasars Bemerkung auf den Ruf (von DK777 AFAIR) nach HDR+AA-Patches (für eben Oblivion, Splinet Cell DA & Co) so durch den Kopf gehen lassen könnte es vielleicht sein, dass HDR+AA nicht nur bei Oblivion, sondern auch bei anderen Games "Out-Of-The-Box" funktioniert.

Gast
2006-11-08, 11:24:29
die meisten hier nehmen noch nicht mal den Unterschied zwischen wa und wu war. Aber egal...

die wa und wu Leutchen halten jetzt sowieso erstmal die Klappe und heulen irgendwo rum..wenn Du verstehst was ich meine :D

Cleric
2006-11-08, 11:31:34
ich finde es atm viel wichtiger das sich die bildquali verbessert.. texturgeflimmer macht echt das spielvergnügen kaputt ... außerdem lenkt es ab. und... ah egal erstmal echte tests abwarten :D

DrumDub
2006-11-08, 11:32:45
Viel interessanter ist, das nV in seinen Treibern scheinbar ebenfalls einen "Chuck-Patch" mit eingebaut hat. Denn sonst würde HDR+AA nicht funktionieren. das seh ich nicht so, denn der g80 kann anscheinend echtes hdr mit msaa. insofern wird es wohl eine komplett andere herangehensweise sein als bei ati.

Godmode
2006-11-08, 11:34:07
ich finde es atm viel wichtiger das sich die bildquali verbessert.. texturgeflimmer macht echt das spielvergnügen kaputt ... außerdem lenkt es ab. und... ah egal erstmal echte tests abwarten :D

Ich hoffe doch sehr dass es von 3D-Center später einen eigenen Artikel über die neuen bildqualitätsverbessernden Möglichkeiten des G80 geben wird! Und natürlich auch einen Inside G80 Artikel wo die Architektur genau betrachtet wird.

DrumDub
2006-11-08, 11:34:37
die meisten hier nehmen noch nicht mal den Unterschied zwischen wa und wu war. Aber egal... hängt ja auch von der szene im spiel ab, ob man einen unterschied sehen kann oder nicht. bei der szene aus oblivion, die oben verlinkt wurde, sollte jeder den unterschied sehen.

The_Invisible
2006-11-08, 11:35:21
das seh ich nicht so, denn der g80 kann anscheinend echtes hdr mit msaa. insofern wird es wohl eine komplett andere herangehensweise sein als bei ati.

egal wie sie es gelöst haben solange es besser implementiert wurda als bei ati. die ständige treiberfrickelei würde mir beim gamen noch den letzten nerv rauben.

mfg

ShadowXX
2006-11-08, 11:36:29
das seh ich nicht so, denn der g80 kann anscheinend echtes hdr mit msaa. insofern wird es wohl eine komplett andere herangehensweise sein als bei ati.
Das können r520 & r580 auch. Und ich glaube nicht, das die Vorgehensweise nachträglich (bzw. an den Entwicklern vorbei) HDR+AA zu ermöglichen so anders bei nV sein kann als bei ATI.

Davon abgesehen ist es doch egal, woran es nun liegt das nV bei Oblivion nun HDR+AA darstellt. Sie haben es auf jedenfall ebenfalls implementiert....was wohl nicht jeder wirklich erwartet hat (ich zumindest nicht bzw zumindest nicht in irgendwelchen Alpha-Treibern).

forumer
2006-11-08, 11:46:12
BFG GeForce 8800 GTX 768MB Review (http://www.awardfabrik.de/index.php?p=reviewpages&id=68&seite=1)

http://www.awardfabrik.de/images/review_pics/8800gtx/1/8.jpg

DrumDub
2006-11-08, 11:48:12
Das können r520 & r580 auch. Und ich glaube nicht, das die Vorgehensweise nachträglich (bzw. an den Entwicklern vorbei) HDR+AA zu ermöglichen so anders bei nV sein kann als bei ATI. bei ati ist es afaik doch was anders mit den texturformat bei hdr. kann mich aber täuschen.

Davon abgesehen ist es doch egal, woran es nun liegt das nV bei Oblivion nun HDR+AA darstellt. Sie haben es auf jedenfall ebenfalls implementiert....was wohl nicht jeder wirklich erwartet hat (ich zumindest nicht bzw zumindest nicht in irgendwelchen Alpha-Treibern). wie auch immer. ich seh jedenfalls beim g80 bisher keine schwachpunkte. das ist für mich das eigentlich überraschende, denn seit dem nv3x/r3x0 hatte die jeweils neue generation der hersteller immer einen vorteil, den der andere hersteller nicht hatte...

Merkor
2006-11-08, 11:50:37
BFG GeForce 8800 GTX 768MB Review (http://www.awardfabrik.de/index.php?p=reviewpages&id=68&seite=1)

Gähn, mit dem Link kannst du evt. in ein paar Tagen nochmal kommen...

ShadowXX
2006-11-08, 11:55:18
bei ati ist es afaik doch was anders mit den texturformat bei hdr. kann mich aber täuschen.

Ich schätze du hast das "Filtering-Problem" bei HDRR (bzw. den dazugehörenden Texturformaten) der r5x0-GPU im Kopf.

Ja, es könnte sein, das nV dadurch (sie können ja sowohl Filter als auch Blenden bei FP16-Formaten) es etwas einfacher hat bei der Umsetzung. Das Grundlegende Problem (aka die Devs haben es nicht berücksichtigt) bleibt ja aber trotzdem bestehen.

Es kann natürlich sein, dass ich mir das gerade zu kompliziert vorstelle und bei ATI das Problem tatsächlich nur so groß ist, weil Sie bei HDRR nicht Filtern können.


wie auch immer. ich seh jedenfalls beim g80 bisher keine schwachpunkte. das ist für mich das eigentlich überraschende, denn seit dem nv3x/r3x0 hatte die jeweils neue generation der hersteller immer einen vorteil, den der andere hersteller nicht hatte...
Sehe ich ähnlich....wobei dies wohl auch an den diesmal relativ restriktiven Vorgaben seitens MS für D3D10 liegt.

Godmode
2006-11-08, 11:57:19
Sehe ich ähnlich....wobei dies wohl auch an den diesmal relativ restriktiven Vorgaben seitens MS für D3D10 liegt.

Bist du dir sicher dass wu AF und 16 Sample AA vorgegeben war?

mapel110
2006-11-08, 11:58:19
R600 ist doch noch gar nicht da. Und bekannt ist von dem Teil auch fast nichts. Also würde ich da erstmal abwarten, was kommt. Derzeit kann man nicht sagen, dass keiner hier und da Vor- und Nachteile hat.

DrumDub
2006-11-08, 12:00:33
Ich schätze du hast das "Filtering-Problem" bei HDRR (bzw. den dazugehörenden Texturformaten) der r5x0-GPU im Kopf. jupp. das meinte ich.

Ja, es könnte sein, das nV dadurch (sie können ja sowohl Filter als auch Blenden bei FP16-Formaten) es etwas einfacher hat bei der Umsetzung. Das Grundlegende Problem (aka die Devs haben es nicht berücksichtigt) bleibt ja aber trotzdem bestehen.

Es kann natürlich sein, dass ich mir das gerade zu kompliziert vorstelle und bei ATI das Problem tatsächlich nur so groß ist, weil Sie bei HDRR nicht Filtern können. wir werdens wohl bald erfahren, wenn die entsprechenden tech-artikel dazu kommen. b3d werden wohl die ersten sein...


Sehe ich ähnlich....wobei dies wohl auch an den diesmal relativ restriktiven Vorgaben seitens MS für D3D10 liegt. kommt hin. wobei die neuen aa-modi beim g80 damit wohl nichts zu tun haben...

R600 ist doch noch gar nicht da. Und bekannt ist von dem Teil auch fast nichts. Also würde ich da erstmal abwarten, was kommt. Derzeit kann man nicht sagen, dass keiner hier und da Vor- und Nachteile hat. deshalb schrieb ich ja auch, dass ich bisher keine schwachpunkte beim g80 sehe. ;)

aths
2006-11-08, 12:01:43
Sehe ich ähnlich....wobei dies wohl auch an den diesmal relativ restriktiven Vorgaben seitens MS für D3D10 liegt.In die "Vorgaben" kommt nur rein, was die GPU-Hersteller ohnehin planen.

ShadowXX
2006-11-08, 12:10:00
In die "Vorgaben" kommt nur rein, was die GPU-Hersteller ohnehin planen.
Ja....aber diesmal müssen es auch beide (bzw. alle) IHVs 100%ig umsetzen um sich einen D3D10 (bzw. DX10) Sticker raufpappen zu können.

Es gibt also nicht solche Ausreißer wie z.B. fehlendes VTF bei ATI dank ungenauer Beschreibung in den DX9-Specs.

Das mehrere Sachen im G80 natürlich "freiwillig" von nV eingebaut wurden (z.B. 16XCMAA & Co.) streite ich ja auch gar nicht ab.
Ist das Verhalten des AF aber nicht (zumindest ab D3D10.1) genau festgelegt?

mapel110
2006-11-08, 12:18:55
In die "Vorgaben" kommt nur rein, was die GPU-Hersteller ohnehin planen.
Ja, und ich bin schon gespannt, wer diesmal das feauremäßige low end bekleidet. Vor einem Jahr etwa hieß es hier auf jedenfall, dass es wieder ATI sein wird.

san.salvador
2006-11-08, 12:20:37
Ja, und ich bin schon gespannt, wer diesmal das feauremäßige low end bekleidet. Vor einem Jahr etwa hieß es hier auf jedenfall, dass es wieder ATI sein wird.
Wenn sie schlau sind lassen sie NV wieder mit neuen Features herumspielen und "auf die Nase fallen", um selbst daraus zu lernen und am Ende die Krone zu tragen. Nicht wirklich fein, aber schlau.

The_Invisible
2006-11-08, 12:27:53
Wenn sie schlau sind lassen sie NV wieder mit neuen Features herumspielen und "auf die Nase fallen", um selbst daraus zu lernen und am Ende die Krone zu tragen. Nicht wirklich fein, aber schlau.

meinst du d3d10?

einer muss ja anfangen, bei dx9 wars ati, bei dx9c wars nv und diesmal ist es eben wieder nv

mfg

dargo
2006-11-08, 12:31:28
Davon abgesehen ist es doch egal, woran es nun liegt das nV bei Oblivion nun HDR+AA darstellt. Sie haben es auf jedenfall ebenfalls implementiert....was wohl nicht jeder wirklich erwartet hat (ich zumindest nicht bzw zumindest nicht in irgendwelchen Alpha-Treibern).
Habe ich was verpasst :confused:
Wo wurde Oblivion mit dem G80 und HDR+AA schon getestet?

ShadowXX
2006-11-08, 12:33:23
Habe ich was verpasst :confused:
Wo wurde Oblivion mit dem G80 und HDR+AA schon getestet?
Vor 1-2 Seiten war ein riesiges HDR+AA-Bild von Oblivion mit der 8800GTX zu sehen (in einem spoiler versteckt).

The_Invisible
2006-11-08, 12:33:35
Habe ich was verpasst :confused:
Wo wurde Oblivion mit dem G80 und HDR+AA schon getestet?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4963585&postcount=122

bildchen sind halt da im spoiler tag :D

mfg

Super Grobi
2006-11-08, 12:33:41
Hallo,
kann man den schon eine Aussage treffen, wie sich die 8800GTS im Vergleich zur X1950XTX schlägt?

Gruss
SG

Gast
2006-11-08, 12:36:45
R600 ist doch noch gar nicht da. Und bekannt ist von dem Teil auch fast nichts. Also würde ich da erstmal abwarten, was kommt. Derzeit kann man nicht sagen, dass keiner hier und da Vor- und Nachteile hat.

Doch kann man,und das was ich sehe reicht mir vollkommen denn ich bin bei einer BQ die endlich wieder paßt (wie vor langer Zeit einmal)und das reicht mir vorerst und nun ist es mir auch vollkommen wurst was ATI noch bringt denn NV kann jetzt locker nachziehen,wenn von Seiten ATIs noch was weltbewegendes kommen sollte was ich allerdings nicht glaube,ich rede jetzt nicht von Geschwindigkeit.

san.salvador
2006-11-08, 12:37:50
Hallo,
kann man den schon eine Aussage treffen, wie sich die 8800GTS im Vergleich zur X1950XTX schlägt?

Gruss
SG
Wenn man PC Online glauben schenken darf liegen beide gleichauf.

Coda
2006-11-08, 12:56:00
das seh ich nicht so, denn der g80 kann anscheinend echtes hdr mit msaa. insofern wird es wohl eine komplett andere herangehensweise sein als bei ati.

Nein ist es nicht. Da gibts keine "andere Herangehensweise". Das AA mit FP16-Rendertargets nicht aktivierbar ist ist ein Problem der Software. Das kann der Treiber nicht so einfach forsieren, weil es nicht mehr das primäre Rendertarget ist.

dargo
2006-11-08, 12:56:41
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4963585&postcount=122

bildchen sind halt da im spoiler tag :D

Ja, ja. Ich habs gefunden. Blöde spoiler. :P

Toppas:-)
2006-11-08, 13:04:49
ok, The Inquier hat mal wieder (wie so oft) die NDA nicht eingehalten (was sie auch immer wieder sagen) und ihr offizelles Review rausgegeben.
siehe hier:
http://www.theinquirer.net/default.aspx?article=35604

Ich denke es ist sehr aufschlußreich wenn man sieht wie die Benchmarks und die Spiele-Performance derzeit noch weit auseinanderliegen.Aber hier scheint auch eine CPU-Limitierung wieder vorzuliegen. Was ich interessant finde ist, das angeblich Flightsimulator X ein DX10 Spiel sein soll (laut Verpackung).Warum (Treiber für Vista wie im Artikel angegeben lagen bei) wird nicht mit Vista das mal probiert um zu schauen ob funktioniert und wie es aussieht???
Jetzt kann man gespannt sein, wann und wie ATI mit dem R600 kontern wird und wie sich die abweichende Architektur im gegensatz zum G80 schlagen kann.

Gaestle
2006-11-08, 13:12:07
Wenn man PC Online glauben schenken darf liegen beide gleichauf.

Eben, wenn ...

BTW: laut tweakpc.de hat NV das NDA von 15Uhr auf 20Uhr MEZ verlängert.

ShadowXX
2006-11-08, 13:14:43
Eben, wenn ...

BTW: laut tweakpc.de hat NV das NDA von 15Uhr auf 20Uhr MEZ verlängert.
Was auch erklärt, warum die großen Shops momentan keine 8800er Karten Listen (OK Mindfactory tuts, aber relativ versteckt)....das werden Sie wohl erst ab morgen tun.

cl55amg
2006-11-08, 13:14:58
ok, The Inquier hat mal wieder (wie so oft) die NDA nicht eingehalten (was sie auch immer wieder sagen) und ihr offizelles Review rausgegeben.
siehe hier:
http://www.theinquirer.net/default.aspx?article=35604

Ich denke es ist sehr aufschlußreich wenn man sieht wie die Benchmarks und die Spiele-Performance derzeit noch weit auseinanderliegen.Aber hier scheint auch eine CPU-Limitierung wieder vorzuliegen. Was ich interessant finde ist, das angeblich Flightsimulator X ein DX10 Spiel sein soll (laut Verpackung).Warum (Treiber für Vista wie im Artikel angegeben lagen bei) wird nicht mit Vista das mal probiert um zu schauen ob funktioniert und wie es aussieht???
Jetzt kann man gespannt sein, wann und wie ATI mit dem R600 kontern wird und wie sich die abweichende Architektur im gegensatz zum G80 schlagen kann.

In welchem Game siehst du ein CPU Limit?
Meinst du das man mit einem C2D bei Oblivion in 4aa/16AF+HDR
mehr Perfomance hätte?

Ich nicht...

dargo
2006-11-08, 13:16:13
Ich denke es ist sehr aufschlußreich wenn man sieht wie die Benchmarks und die Spiele-Performance derzeit noch weit auseinanderliegen.Aber hier scheint auch eine CPU-Limitierung wieder vorzuliegen.
Dieser Test ist echt für den :ass:. Wie du schon gesagt hast, in den Games durchgehend (außer FEAR und SS2) bis zu 1600x1200 4xAA/8xAF CPU-Limitierung.

Da fragt man sich wofür die noch SLI testen? :|

Gast
2006-11-08, 13:16:21
ich schon.

Toppas:-)
2006-11-08, 13:20:47
In welchem Game siehst du ein CPU Limit?
Meinst du das man mit einem C2D bei Oblivion in 4aa/16AF+HDR
mehr Perfomance hätte?

Ich nicht...

Im Bezug auf dem im Artikel erwähnten AMD-FX62 und das man gerne die Steigerungen durch den Core2Duo erwartet (obs so ist,wird man sehen)Denke mal gerade im SLI-Modus kann das dann durchaus noch was bringen.
Aber ab 20Uhr werden auch solche Benches mit Core2Duo auftauchen und man kann dann wirklich erst sehen was die Werte und Unterschiede sind, auch zwischen den Plattformen :smile:

@Dargo
Darum ja, in manchen Games ist der Unterschied zwischen einer Single und SLI-Config nicht sehr ausgeprägt-was aber bei den Benches schon anders wieder aussieht, so das durchaus für eine CPU-Limitierung spricht.Hier warte ich auf eine C2D-Config, dann wird mans sehen.

VoodooMaster
2006-11-08, 13:21:50
Gibt es auch Tests die auf die Lautstärke eingehen? So wie ich das sehe profitiert Oblivion recht stark von der neuen GPU, Benchmarks mit der G3 Engine würde ich gern sehen :eek:

DrumDub
2006-11-08, 13:22:49
Nein ist es nicht. Da gibts keine "andere Herangehensweise". Das AA mit FP16-Rendertargets nicht aktivierbar ist ist ein Problem der Software. Das kann der Treiber nicht so einfach forsieren, weil es nicht mehr das primäre Rendertarget ist. ok. danke für die aufklärung. aber es gab ja schon beim g7x eben noch eine hw-limitierung, die beim g80 nicht mehr existiert.

Gaestle
2006-11-08, 13:23:47
In welchem Game siehst du ein CPU Limit?


Doom3 (ca. 135fps)
Quake4 (ca. 185-190 fps)
HL2 (ca. 86fps)
FarCry (ca. 97fps => so wenig, hab schon Benches mit 110fps in FC gesehen?)
SS2 (ca. 162fps)

Die Auflösung steigt, die fps bleiben konstant => CPU Limit

Cleric
2006-11-08, 13:24:54
yo den test hätten sie sich auch sparen können ...

Coda
2006-11-08, 13:27:00
ok. danke für die aufklärung. aber es gab ja schon beim g7x eben noch eine hw-limitierung, die beim g80 nicht mehr existiert.

Ja. NV4x/G7x können eben kein Multisampling bei FP16-Rendertargets. Nothing new.

G80 kann es sogar mit FP32 btw.

cl55amg
2006-11-08, 13:27:01
Ich beschränke meine Aussage auf eine Single Karte!
Der SLI Mode ist ohnehin treiberseitig nicht ausgereift bei den Karten.

Doom3 (ca. 135fps)
Quake4 (ca. 185-190 fps)
HL2 (ca. 86fps)
FarCry (ca. 97fps => so wenig, hab schon Benches mit 110fps in FC gesehen?)
SS2 (ca. 162fps)

Die Auflösung steigt, die fps bleiben konstant => CPU Limit

Dann verstehen etwas anderes unter dem selben Begriff.

Moralelastix
2006-11-08, 13:27:40
Also wer bis jetzt noch nicht mitbekommen hat das man für den G80 mindestens nen Core Duo auf 3,5Ghz braucht??????

dargo
2006-11-08, 13:29:16
Was ich auch nicht verstehe, dass meistens nur mit 4xAA gebencht wird. Ich will 8x-16xAA sehen. :D

Gast
2006-11-08, 13:29:51
mindestens...????? etwas übertrieben,aber 3gig sollten es schon sein und das schaffen sie wohl so ziehmlich alle.

cl55amg
2006-11-08, 13:29:51
Also wer bis jetzt noch nicht mitbekommen hat das man für den G80 mindestens nen Core Duo auf 3,5Ghz braucht??????

Sonst ruckelt sogar Counter Strike, ich weiss...

The_Invisible
2006-11-08, 13:31:25
Also wer bis jetzt noch nicht mitbekommen hat das man für den G80 mindestens nen Core Duo auf 3,5Ghz braucht??????

für ne single g80 tun es 3ghz auch zur genüge, für sli kanns anscheinend schon mehr sein wenn man selbst in 2048/4aa/16af in ein cpu limit läuft

mfg

dargo
2006-11-08, 13:32:45
Also wer bis jetzt noch nicht mitbekommen hat das man für den G80 mindestens nen Core Duo auf 3,5Ghz braucht??????
Das ist doch Quark. Schau dir mal die Frames an. Fast alles weit über flüssig spielbar. Vielmehr sollte man den G80 quälen, zb. mit 8x-16xAA + TSAA usw.

Gast
2006-11-08, 13:33:25
Ach, noch bis 20Uhr warten :-(
http://tweakpc.de/news/10594/nvidia-verschiebt-geforce-8800/

Zapat
2006-11-08, 13:33:35
Viel interessanter ist, das nV in seinen Treibern scheinbar ebenfalls einen "Chuck-Patch" mit eingebaut hat. Denn sonst würde HDR+AA nicht funktionieren.

Und wenn ich mir dann noch Quasars Bemerkung auf den Ruf (von DK777 AFAIR) nach HDR+AA-Patches (für eben Oblivion, Splinet Cell DA & Co) so durch den Kopf gehen lassen könnte es vielleicht sein, dass HDR+AA nicht nur bei Oblivion, sondern auch bei anderen Games "Out-Of-The-Box" funktioniert.

Die Entwickler haben doch bestimmt nur auf Nvidia gewartet.:rolleyes: Jetzt braucht Ati dank Nvidia bestimmt auch kein CHuck Treiber mehr umd HDR-AA out of the box zu kriegen.:rolleyes:

Gaestle
2006-11-08, 13:33:38
Dann verstehen etwas anderes unter dem selben Begriff.


Was verstehst DU darunter?

Moralelastix
2006-11-08, 13:34:18
Na wir sind uns aber einig das Benchmarks mit nem FX auf 2,8 bestenfalls en Witz is!

Henroldus
2006-11-08, 13:35:00
Also wer bis jetzt noch nicht mitbekommen hat das man für den G80 mindestens nen Core Duo auf 3,5Ghz braucht??????
vollkommener quark
mit folgenden settings raucht auch der G80 noch:
Oblivion @1680*1050
details alle auf max
16xAF
8xS AA
HDR

da bremst kein conroe wetten..

VoodooMaster
2006-11-08, 13:36:37
Also wer bis jetzt noch nicht mitbekommen hat das man für den G80 mindestens nen Core Duo auf 3,5Ghz braucht??????

LOL ;D Sorry aber auf einem E6600 bringt die Karte keine Mehrleistung?

Gaestle
2006-11-08, 13:36:43
vollkommener quark
mit folgenden settings raucht auch der G80 noch:
Oblivion @1680*1050
details alle auf max
16xAF
8xS AA
HDR

da bremst kein conroe wetten..

Und was ist mit den anderen Benchmarks? Nicht dass die unwichtig sind, aber hier bremst die CPU z.T. sehr deutlich.

cl55amg
2006-11-08, 13:37:30
Na wir sind uns aber einig das Benchmarks mit nem FX auf 2,8 bestenfalls en Witz is!

Wir sind uns einig das deine Aussagen technisch unschlüssig sind,
und von der Artikulation her auch mehr oder weniger ein Witz.

Und was ist mit den anderen Benchmarks? Nicht dass die unwichtig sind, aber hier bremst die CPU z.T. sehr deutlich.

Nichts ist mit denen, die basieren auf älteren nicht Shaderlastigen Engines.
Quake 3 hätte noch stärker auf die CPU reagiert, aber das interessiert nicht.
Oblivion ist eher ein Maßstab.

aths
2006-11-08, 13:37:40
Ja, und ich bin schon gespannt, wer diesmal das feauremäßige low end bekleidet. Vor einem Jahr etwa hieß es hier auf jedenfall, dass es wieder ATI sein wird.Mit Unified Shadern gibt es keine Gründe, unterschiedliche Featuresätze zu implementieren. Alles, was in D3D10 vorgesehen ist, ist auch sinnvoll.

dargo
2006-11-08, 13:46:57
Na wir sind uns aber einig das Benchmarks mit nem FX auf 2,8 bestenfalls en Witz is!
Nein, sind wir uns nicht. ;)
Die Benchmark-Settings sind für einen G80 eher ein Witz.

Gast
2006-11-08, 13:50:36
Hi !

Lohnt der Umstieg auf eine 8800 GTX, wenn man einen AMD X2 2.2 GHz auf Sockel939 und eine 7800 GTX hat ??

Würde die AMD X2 2.2 GHz CPU noch bei einer 8800 GTX reichen oder würde sie auch schon _zu sehr_ das System ausbremsen ?

Gibt es da irgendwie schon Benchmarks zu mit dieser CPU ?

Dank und Gruß
SIL

Gaestle
2006-11-08, 13:50:50
Nichts ist mit denen, die basieren auf älteren nicht Shaderlastigen Engines.
Quake 3 hätte noch stärker auf die CPU reagiert, aber das interessiert nicht.
Oblivion ist eher ein Maßstab.

Ich glaube, dass in Oblivion noch ganz andere Sachen limitieren, als die "Shaderlastigkeit". Nichts desto trotz gehören die anderen Games schon zu einem Benchmarkparcour dazu, aber eben nicht mit dieser CPU.

Des Weiteren hatte ich Dich noch gefragt, was DU unter CPU Limitierung verstehst.


@dargo
Allerdings sollte es auch noch zu den "alten" Karten vergleichbar sein. Und die dürften ja ein geringeres Rendertarget (heißt das so?) haben und somit in höheren Auflösungen (>25xx) oder AA-Graden (bei hohen Auflösungen) Probleme bekommen.

Moralelastix
2006-11-08, 13:52:38
Kommt im Februar gar die G80 GX2?

More "G80" Derivatives in February
http://www.dailytech.com/article.aspx?newsid=4867


Sorry für OT aber:
300 Dollar fürn nForce 680i SLI? Hab ich was verpasst? *lol*
NVIDIA Announces nForce 600i Family
http://www.dailytech.com/article.aspx?newsid=4866

Gaestle
2006-11-08, 13:54:32
Kommt im Februar gar die G80 GX2?

More "G80" Derivatives in February
http://www.dailytech.com/article.aspx?newsid=4867

Ich dachte, in Q1/07 wird die Produktpalette nach unten komplettiert...

Moralelastix
2006-11-08, 13:56:36
Vielleicht eh nur nen Bluff zum R600 Launch?

Könnte aber sein das NV einen G80 in 80 nachschiebt.....

G80 meets ATI *lol*

Gast
2006-11-08, 13:59:16
abwarten Tee trinken,aber wenn,das wird waaarm in der Kiste..wenns zwei GTXen sind,bin sowieso mal gespannt aufs "normale" SLI mit Luft im geschlossenem Gehäuse.

Moralelastix
2006-11-08, 14:01:02
Wo sind denn die Freaks hier Tombman und blaire? Noch keine Karten?

cl55amg
2006-11-08, 14:01:57
Der Benchmark Parcour vom Inquirer ist gerade deshalb so schlecht, weil
sie CPU lastige Games\ Engines verwendet haben, um eine High End Karte zu testen.
Mit der Aussnahme Oblivion, es gäbe bessere Games mit denen man die Karte testen sollte. Anno 1701, Gothic 3, Company of Heros.
Das sind die aktuellen Engines, der Grund warum sich leute einen G80 kaufen, nicht wegen Quake 4, Half Life und Doom3, die bestens auf der alten Generation laufen.

Gast
2006-11-08, 14:02:54
Ich beschränke meine Aussage auf eine Single Karte!
Der SLI Mode ist ohnehin treiberseitig nicht ausgereift bei den Karten.



Dann verstehen etwas anderes unter dem selben Begriff.

nicht ausgereift???
Wie kommst Du darauf..SLI ist SLI obs 2 G80 oder 2 G71 sind.

Cleric
2006-11-08, 14:03:59
Der Benchmark Parcour vom Inquirer ist gerade deshalb so schlecht, weil
sie CPU lastige Games\ Engines verwendet haben, um eine High End Karte zu testen.
Mit der Aussnahme Oblivion, es gäbe bessere Games mit denen man die Karte testen sollte. Anno 1701, Gothic 3, Company of Heros.
Das sind die aktuellen Engines, der Grund warum sich leute einen G80 kaufen, nicht wegen Quake 4, Half Life und Doom3, die bestens auf der alten Generation laufen.
full ack

Die gelbe Eule
2006-11-08, 14:05:09
Vielleicht eh nur nen Bluff zum R600 Launch?

Könnte aber sein das NV einen G80 in 80 nachschiebt.....

G80 meets ATI *lol*

Kann nciht nur sein, ist auch so. Und der kommt dann auch wenn GDDR4 breiter verfügbar ist. Der R600 kann sich also warm anziehen ...

Blaire
2006-11-08, 14:05:11
Wo sind denn die Freaks hier Tombman und blaire? Noch keine Karten?

Ich hab noch keine bekommen...

cl55amg
2006-11-08, 14:06:07
nicht ausgereift???
Wie kommst Du darauf..SLI ist SLI obs 2 G80 oder 2 G71 sind.


Auf unserer Seite wurden viele SLI Tests gemacht, leider sklaliert SLI mit den aktuellen Treibern nicht ganz so gut.
Das habe ich schon mehrmals geschrieben, schau mal auf unsere Page...

full ack

Danke!

Gast
2006-11-08, 14:14:49
In die "Vorgaben" kommt nur rein, was die GPU-Hersteller ohnehin planen.

Bzw. der C1 schon erfüllt

Moralelastix
2006-11-08, 14:23:58
Könnte auch gut sein das im Februar einfach nur eine GT mit nur 11 Speicherchips kommt.

http://www.beyond3d.com/forum/showpost.php?p=868759&postcount=2718
"The hint in the driver .inf of a 8800 GT, I bet this is the Feb card.

I'd expect a GX2 much later when they drop to 65nm (if they even do a GX2 style card again)."

Inquisitor
2006-11-08, 14:24:12
Sorry, falls die Frage schon x mal beantwortet wurde. Habs bisher nicht gefunden. Hat denn jetzt die G80 eigentlich eine echte Unified Shader Architektur? Im Vorfeld hieß es ja immer wieder, dass die G80 zwar D3D10 könnte, aber eben doch noch nicht auf echte Unified Shader setzen würde. Ich spiele nämlich mit dem Gedanken, eine GTX zu ordern und würde das vorher gerne wissen.

Edit: thx

Mr.Soapdown
2006-11-08, 14:24:23
Der Benchmark Parcour vom Inquirer ist gerade deshalb so schlecht, weil
sie CPU lastige Games\ Engines verwendet haben, um eine High End Karte zu testen.
Mit der Aussnahme Oblivion, es gäbe bessere Games mit denen man die Karte testen sollte. Anno 1701, Gothic 3, Company of Heros.
Das sind die aktuellen Engines, der Grund warum sich leute einen G80 kaufen, nicht wegen Quake 4, Half Life und Doom3, die bestens auf der alten Generation laufen.

Bisher war ich beim Mitlesen deiner Einwände angetan.

Lustig war der Kommentar zu CounterStrike Source ........

.....und war es nicht immer so das eine aktuelle CPU, ob oc oder nicht, nie die neueste Generation der VGAs ausreizen konnte?

Beim 2ten Teil widerspreche ich mal, da für die meisten nachvollziebare Benches eben mit den letzt genannten Games gemacht werden. Ich möchte auch noch anfügen, daß es auch um Features der HW geht, die man evtl. nutzen möchte.

aths
2006-11-08, 14:26:37
Sorry, falls die Frage schon x mal beantwortet wurde. Habs bisher nicht gefunden. Hat denn jetzt die G80 eigentlich eine echte Unified Shader Architektur? Im Vorfeld hieß es ja immer wieder, dass Die G80 zwar D3D10 könnte, aber eben doch noch nicht auf echte Unified Shader setzen würde. Ich spiele nämlich mit dem Gedanken, eine GTX zu ordern und würde das vorher gerne wissen.Das ist doch eigentlich Wurst, so lange die Leistung stimmt.

Moralelastix
2006-11-08, 14:27:21
Sorry, falls die Frage schon x mal beantwortet wurde. Habs bisher nicht gefunden. Hat denn jetzt die G80 eigentlich eine echte Unified Shader Architektur? Im Vorfeld hieß es ja immer wieder, dass Die G80 zwar D3D10 könnte, aber eben doch noch nicht auf echte Unified Shader setzen würde. Ich spiele nämlich mit dem Gedanken, eine GTX zu ordern und würde das vorher gerne wissen.


Ja.

Aber davon haste eh noch nix ohne Vista.

Coda
2006-11-08, 14:28:04
Aber davon haste eh noch nix ohne Vista.

Falsch.

Moralelastix
2006-11-08, 14:28:37
weil?

Coda
2006-11-08, 14:29:46
Weil die Lastverteilung genauso unter Direct3D 1-9 funktioniert.

Moralelastix
2006-11-08, 14:31:48
Ich hatte irgendwo gelesen das NV diese Lastverteilung noch deaktiviert hat.
Aus Kompatibilitätsgründen.

Sorry hab keinen Link. Ich kuck mal....

Aber vom Geometrieshader hat man unter DX9 nix.

aths
2006-11-08, 14:32:34
Ich hatte irgendwo gelesen das NV diese Lastverteilung noch deaktiviert hat,
Aus kompatibilitätsgründen.Hä? Wie soll das denn gehen?

Anarchy-HWLUXX
2006-11-08, 14:32:50
Ich dachte, in Q1/07 wird die Produktpalette nach unten komplettiert...

In den Treibern war scho mal ein eintrag für die "8800GT" , also wohl eher nach unten abrunden ... würde mengentechnisch viel mehr sinn machen als eine GX2 - und bis dahin haben se auch genug cores mit zwei kaputten "Shaderblöcken".

Könnte auch gut sein das im Februar einfach nur eine GT mit nur 11 Speicherchips kommt.

http://www.beyond3d.com/forum/showpost.php?p=868759&postcount=2718
"The hint in the driver .inf of a 8800 GT, I bet this is the Feb card.

I'd expect a GX2 much later when they drop to 65nm (if they even do a GX2 style card again)."

Ehem ? 11 ?

Die GTS hat 10 Chips - eine GT müsse dann mit 8 auskommen da ein Shaderblock immer zwei Chips für sich bekommt ...


Hä? Wie soll das denn gehen?

Das war bei B3D ... allerdings meinen einige das es doch BS ist. Da der Artikel ja übersetzt wurde kann da was durcheinandergeraten sein ...

Hvoralek
2006-11-08, 14:33:20
Ich hatte irgendwo gelesen das NV diese Lastverteilung noch deaktiviert hat,
Aus kompatibilitätsgründen.Wo? Das klingt ziemlich seltsam.

Aber vom Geometrieshader hat man unter DX9 nix.Und was hat der mit US zu tun?

/edit: Du denkst wahrscheinlich an die Transistoren, die dafür "verschwendet" werden. Ist das nicht ziemlich egal, solange die Karte im Endeffekt schnell genug ist? Zumal mW Vertex- und Geometry- Shader ohnehin sehr ähnlich sind und man kaum zusätzliche Schaltungen benötigt, andere reine 3D310- Sachen dürften sich da stärker bemerkbar machen.

Coda
2006-11-08, 14:33:42
Ich hatte irgendwo gelesen das NV diese Lastverteilung noch deaktiviert hat.

Dann hast du Mist gelesen.

Aber vom Geometrieshader hat man unter DX9 nix.

Soviel Logik liegt dadurch auch nicht brach. Die ALUs sind ja für alle Stages die gleichen.

Gast
2006-11-08, 14:34:02
ok, The Inquier hat mal wieder (wie so oft) die NDA nicht eingehalten (was sie auch immer wieder sagen) und ihr offizelles Review rausgegeben.
siehe hier:
http://www.theinquirer.net/default.aspx?article=35604




Kannste doch total in die Tonne kloppen den Leak, genau wie der von pcland.cn ... Schonmal ne Geforce 7900 in Oblivion HDR+AA rendern sehen?
Vom Rest was Angaben bezüglich der Treibersettings und der verwendeten Timedemos mal abgesehen. Dafür hat die Tyan Serverwerbung da sich ausgezahlt *g

dargo
2006-11-08, 14:44:03
@dargo
Allerdings sollte es auch noch zu den "alten" Karten vergleichbar sein.
Natürlich, Vergleiche zur alten Generation sind wichtig. Ich möchte aber auch sehen was der G80 kann wenn er richtig gefordert wird. Ich meine, was soll ich mit 172fps in Quake4 mit 1280x1024 4xAA/8xAF?

Das ist nämlich meine native Auflösung.

[](-__-)[]
2006-11-08, 14:46:49
Kann nciht nur sein, ist auch so. Und der kommt dann auch wenn GDDR4 breiter verfügbar ist. Der R600 kann sich also warm anziehen ...

Naja, denke ich nicht. 512 Bit Speicherintface + 1024MB Ram.

Slipknot79
2006-11-08, 14:48:32
Natürlich, Vergleiche zur alten Generation sind wichtig. Ich möchte aber auch sehen was der G80 kann wenn er richtig gefordert wird. Ich meine, was soll ich mit 172fps in Quake4 mit 1280x1024 4xAA/8xAF?

Das ist nämlich meine native Auflösung.


Die G80 wird bei der Auflösung im Vgl zu deiner aktuellen Karte herumsucken. Sollte man den Werten hier: http://www.theinquirer.net/default.aspx?article=35604 glauben schenken, ist kaum Unterschied zu X1950 in niedrigen Auflösungen vorhanden.

Toppas:-)
2006-11-08, 14:53:23
Kannste doch total in die Tonne kloppen den Leak, genau wie der von pcland.cn ... Schonmal ne Geforce 7900 in Oblivion HDR+AA rendern sehen?
Vom Rest was Angaben bezüglich der Treibersettings und der verwendeten Timedemos mal abgesehen. Dafür hat die Tyan Serverwerbung da sich ausgezahlt *g

Ich habe nicht gesagt das nun dieser Test das nun plus ultra ist, aber es gibt einen Hinweis wie es ungefähr ausseiht aufn Athlon X2. Aber nachher kommen schon noch zuverlässigere Tests denke ich, die dann zeigen ob und wie er bei den Tests scaliert mit der CPU.
Besonders wenn mal einer hier kommt, weiß ich wirklich wie man dran ist mit der GTX.:smile:

Gast
2006-11-08, 14:56:49
Ist die genaue Länge der Gtx mittlerweile bekannt, weil irgendweie sieht die doch ein wenig kürzer aus auf den neueren Bildern als auf diesem alten vergleichs Bild mit den anderen Karten.

dargo
2006-11-08, 14:57:33
Die G80 wird bei der Auflösung im Vgl zu deiner aktuellen Karte herumsucken. Sollte man den Werten hier: http://www.theinquirer.net/default.aspx?article=35604 glauben schenken, ist kaum Unterschied zu X1950 in niedrigen Auflösungen vorhanden.
Meine Güte, wie oft denn noch?
Ich will kein 1280x1024 4xAA/8xAF sondern 1280x1024 16xAA/16xAF (zur Not auch 8xAA) und TSAA, wenns noch geht!

Sonst kann ich gleich bei meiner X1900XT bleiben.

Außerdem sollte man nicht nur von den alten Games ausgehen. Wozu der G80 in Call of Juarez und Oblivion fähig ist hatten wir schon gesehen.

Anarchy-HWLUXX
2006-11-08, 14:59:54
Also ne 8800er mit 1280er auflösung fahrn ist vollends daneben - da muss scho 1600er+ her ...

Deswegen spare ich auch auf einen 24" und eine 8800er :eek:

Zapat
2006-11-08, 15:01:46
Meine Güte, wie oft denn noch?
Ich will kein 1280x1024 4xAA/8xAF sondern 1280x1024 16xAA/16xAF (zur Not auch 8xAA) und TSAA, wenns noch geht!

Sonst kann ich gleich bei meiner X1900XT bleiben.

Außerdem sollte man nicht nur von den alten Games ausgehen. Wozu der G80 in Call of Juarez fähig ist hatten wir schon gesehen.

Bei denn COH test war aber leider keine Ati Karte dabei.Bei Call of Juarez sind die Ati Karten denn Nvidia karten überlegen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/10/#abschnitt_call_of_juarez

Slipknot79
2006-11-08, 15:02:23
Meine Güte, wie oft denn noch?
Ich will kein 1280x1024 4xAA/8xAF sondern 1280x1024 16xAA/16xAF (zur Not auch 8xAA) und TSAA, wenns noch geht!

Sonst kann ich gleich bei meiner X1900XT bleiben.

Außerdem sollte man nicht nur von den alten Games ausgehen. Wozu der G80 in Call of Juarez und Oblivion fähig ist hatten wir schon gesehen.

Dann schreib nicht "Das ist meine native Auflösung" sondern ein klares "Das ist nicht das gewünschte Setting" .

Inquisitor
2006-11-08, 15:07:49
so, 15 uhr durch. dann scheint das mit 20 uhr wohl eher zu stimmen :biggrin:

Gast
2006-11-08, 15:08:28
Also ne 8800er mit 1280er auflösung fahrn ist vollends daneben - da muss scho 1600er+ her ...

Deswegen spare ich auch auf einen 24" und eine 8800er :eek:

Den meisten TFT-Usern bleibt da keine Wahl. ;)
Darum halte ich an der selben Strategie fest wie Drago.
Wenn 1280 max ist, dann gehts mit dem FSAA hoch.
So konnte ich mein 6800 Ultra SLI-Paket gut ins Schwitzen bekommen. :)


t.b.d

The_Invisible
2006-11-08, 15:08:57
Bei denn COH test war aber leider keine Ati Karte dabei.Bei Call of Juarez sind die Ati Karten denn Nvidia karten überlegen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/10/#abschnitt_call_of_juarez

toll, und was hat das mit G80 zu tun?

mfg

Mr.Soapdown
2006-11-08, 15:08:59
Also ne 8800er mit 1280er auflösung fahrn ist vollends daneben - da muss scho 1600er+ her ...

Deswegen spare ich auch auf einen 24" und eine 8800er :eek:

Die Überlegung setzt sich im Moment auch immer weiter bei mir durch.

Ich bin von 3500+ mit x800 xtpe und 1GB RAM auf c2d 6600 mit x800 xt mit 2 GB RAM umgestiegen, bzw hab die Rechner alle eins nach rechts verschoben.

Ich habe jetzt schon ausreichend Leistung dazu bekommen. Geld zum Fenster rauswerfen muss man eigentlich auch nicht.

dargo
2006-11-08, 15:09:15
Bei denn COH test war aber leider keine Ati Karte dabei.Bei Call of Juarez sind die Ati Karten denn Nvidia karten überlegen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/10/#abschnitt_call_of_juarez
Hier nochmal im Detail (leider ohne AA beim G80) mit 1680x1050 16xAF:

http://www.mod-pc.com/reviews/8800GTS/preview/coj.gif

Wie wird dann die G8800GTX dabei erst abgehen.

Also ne 8800er mit 1280er auflösung fahrn ist vollends daneben - da muss scho 1600er+ her ...

Unsinn!
Wir reden nochmal wenn Crysis und UT07 draußen sind. :wink:

Zapat
2006-11-08, 15:11:06
toll, und was hat das mit G80 zu tun?

mfg

Liegt doch auf der Hand.

Die 8800 GTS ist vielleicht langsamer als eine X1950 XTX bei Coh.

Coda
2006-11-08, 15:11:20
(-__-)[]']Naja, denke ich nicht. 512 Bit Speicherintface + 1024MB Ram.

Wo genau auf dem PCB willst du 16 Speicherchips verbauen ohne 20 Layer zu benötigen?

ShadowXX
2006-11-08, 15:11:59
so, 15 uhr durch. dann scheint das mit 20 uhr wohl eher zu stimmen :biggrin:
Von mir aus kann das NDA auch erst in 2 Wochen fallen.

Die gelisteten Preise der großen Versender sind momentan sowieso alle viel zu hoch als das es sich lohnt die Karten zu kaufen (Alternate will 650Euronen für ne GTX (alle anbieter ausser Sparkle, die kostet "nur" 630) und für die GTS lächerliche 520Euronen (alle Anbieter). Dazu sind keine GTX-Karten lieferbar. Bei den Anderen großen siehts nicht großartig anders aus.).

san.salvador
2006-11-08, 15:12:04
Ohne X1950XTX find ich das Diagramm recht wertlos.

Zapat
2006-11-08, 15:12:59
Liegt doch auf der Hand.

Die 8800 GTS ist vielleicht langsamer als eine X1950 XTX bei Coh.

Mr.Soapdown
2006-11-08, 15:16:14
Unsinn!
Wir reden nochmal wenn Crysis und UT07 draußen sind. :wink:

....hab ich garnicht dran gedacht. DAs stimmt natürlich und die Zeit drückt den Preis, aber crysis ist doch verschoben?

Mein Gott ist es bis 20:00 noch lang

san.salvador
2006-11-08, 15:16:16
Liegt doch auf der Hand.

Die 8800 GTS ist vielleicht langsamer als eine X1950 XTX bei Coh.
Von einem vielleicht hat niemand was. :)

gguru
2006-11-08, 15:17:23
Sieht so ein Hardlaunch aus?

dargo
2006-11-08, 15:19:00
Ohne X1950XTX find ich das Diagramm recht wertlos.
Rechne in etwa 70% zu dem G7950GT Ergebnis dann hast du den Wert für eine X1950XTX.

Gast
2006-11-08, 15:28:34
Weiß man schon welche Beigaben bei welchem Hersteller beigelegt werden ?
Das würde mich mal interessieren, weil ja sonst alle sich am Referenzdesign halten.

Johnny Rico
2006-11-08, 15:33:06
Ist das der Grund für den Performanceunterschied?

Was sagen unsere Profis?

Link (http://www.xtremesystems.org/forums/showpost.php?p=1822814&postcount=12)


Im HWLUXX hat einer seine defekte Sparkle G80 zur RMA gegeben lool =( Hoffentlich ist das nur ein Sparkel Problem.

Gast
2006-11-08, 15:37:25
Die Benchmarks sind ja derbe! Das erinnert an die NV-Dominanz beim NV40 Release gegenüber dem R3x0 oder an die ATI Dominanz vom R3x0 zum NV25

Gaestle
2006-11-08, 15:38:38
Der Benchmark Parcour vom Inquirer ist gerade deshalb so schlecht, weil
sie CPU lastige Games\ Engines verwendet haben, um eine High End Karte zu testen.
Mit der Aussnahme Oblivion, es gäbe bessere Games mit denen man die Karte testen sollte. Anno 1701, Gothic 3, Company of Heros.
Das sind die aktuellen Engines, der Grund warum sich leute einen G80 kaufen, nicht wegen Quake 4, Half Life und Doom3, die bestens auf der alten Generation laufen.

Jedes Game ist irgendwann auch CPU limitiert, die Frage ist nur, wie weit man das CPU-Limit herausschieben kann.
Auch wenn die Engines vielleicht nicht mehr ganz taufrisch sind, so basiert ein aktuelles Spiel (Prey) auf der D3-Engine, außerdem wird mit QuakeWars:ET ein weiterer Titel mit gleichem Engine-Grundstock erwartet.
Natürlich wäre es besser, wenn die anderen Titel auch dabei wären, aber der Beginn der Diskussion war doch, dass Du bei den genannten Titeln keine CPU-Limitierung gesehen hast, und ich immer noch nicht weiß, was DU unter einem CPU-Limit verstehst. :biggrin:

Aber ich stimme mit Dir natürlich überein, dass für Q4, HL2 und D3 die aktuelle Generation der Karten vollends ausreicht.