PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800GTX- und 8800GTS-(P)Review-Thread (Links im #1)/Teil 2


Seiten : [1] 2

deekey777
2006-11-27, 21:30:13
Fortsetzung dieses Threads: Teil eins. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5032971#post5032971)
(P)Reviews:
BFGTech GeForce 8800 GTX and 8800 GTS (http://enthusiast.hardocp.com/article.html?art=MTIxOCwxLCxoZW50aHVzaWFzdA==) bei [H]ardOCP
EVGA 8800GTS (http://www.gamepyre.com/reviewsd.html?aid=783&p=1) bei GAMEPYRE
MSI GeForce 8800GTS is here - Hello DX10 (http://www.tweaktown.com/articles/977/2/page_2_new_technology/index.html) bei Tweak Town
NVIDIA G80: Place au GeForce 8800 et à DirectX 10 (http://www.clubic.com/article-61974-1-nvidia-g80-geforce-8800-gts-gtx.html) bei Clubic
NVIDIA G80: Architecture and GPU Analysis (http://www.beyond3d.com/reviews/nvidia/g80-arch/) bei B3D
nVidia GeForce 8800 GTX: der neue König unter den Grafikkarten (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/) bei CB
DirectX 10 на пороге или 128 калифорнийских стрелков в действии: NVIDIA GeForce 8800 GTX (G80) (http://www.ixbt.com/video2/g80-part1.shtml) bei iXBT
Ab jetzt auf Englisch: Say Hello To DirectX 10, Or 128 ALUs In Action: NVIDIA GeForce 8800 GTX (G80) (http://www.digit-life.com/articles2/video/g80-part1.html) bei Digit-Life
Nvidia G80 Image Quality Investigation (http://www.3declipse.com//content/view/34/9/) bei 3DEclipse
Nvidia's GeForce 8800 graphics processor (http://www.techreport.com/reviews/2006q4/geforce-8800/index.x?pg=1) bei The Tech Report
NVIDIA G80 - GeForce 8800 im Test (http://hardtecs4u.com/reviews/2006/nvidia_g80/) bei HT4U
GeForce 8800 GTX overclocking preview (http://www.nordichardware.com/Reviews/?skrivelse=493)bei Nordic Hardware
Scan International's 3XS Triad, featuring 8800 GTX (http://www.hexus.net/content/item.php?item=7179)
ASUS EN8800GTX Review (http://www.hexus.net/content/item.php?item=7188)
XFX GeForce 8800 GTX (http://www.hexus.net/content/item.php?item=7184)
GPU IQ and Performance Eval (http://www.hexus.net/content/item.php?item=7177) bei Hexus
NVIDIA GeForce 8800 GTX & 8800 GTS (http://www.behardware.com/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html) bei Be Hardware
GeForce 8800 GTX/8800 GTS Performance with Athlon 64 (http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/default.asp) bei Firing Squad mit unterschiedlichen X2
NVIDIA GeForce 8800 GTX SLI Performance Review (http://www.pcper.com/article.php?type=expert&aid=332) bei PC Perspective
nVidia GeForce 8800 GTX SLI: SLI, Core 2 Duo und mehr (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidia_geforce_8800_gtx_sli/) bei CB
MSI GeForce 8800 GTX 768MB PCI-E
Performance Analysis in 2560x1600. Product briefs for .. MSI RADEON X1950 XTX (RX1950 XTX-VT2D512E) 512MB PCI-E (http://www.digit-life.com/articles2/video/g80-4.html)
The NVIDIA GeForce 8800 GTX and GTS in SLI (http://www.hwupgrade.com/articles/video/13/the-nvidia-geforce-8800-gtx-and-gts-in-sli_index.html) bei Hardware Upgrade (8800GTS SLI!)
25 Signs of Perfection: Nvidia GeForce 8800 GTX in 25 Benchmarks (http://www.xbitlabs.com/articles/video/display/gf8800-games.html) bei Xbit
Dies und das:
[SPARKLE Calibre 8800 Series w/ TEC Cooling] (http://www.vr-zone.com/index.php?i=4271)
BFG GeForce 8800 GTX OC 768MB Silent WaterCooled GDDR3 HDTV/Dual DVI (PCI-Express) - Retail (GX-037-BG) (http://www.overclockers.co.uk/acatalog/8800_Series.html) bei OcUK
[Galaxy 8800 Premium Edition w/ Zalman Water Cooling] (http://www.vr-zone.com/?i=4281)
[ELSA GLADIAC 880 Series] (http://www.vr-zone.com/?i=4280)
[KingPin's Traumatising 3D Mark Records!] (http://www.vr-zone.com/?i=4279):D
[Inno3D GeForce 8800 Series] (http://www.vr-zone.com/?i=4275)
GeForce 8800 Roundup: The Best of the Best (http://www.anandtech.com/video/showdoc.aspx?i=2873&p=1) bei Anandtech
XFX stellt übertaktete GeForce 8800 vor (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/dezember/xfx_geforce_8800/)
The Invincibles: GeForce 8800 GTX Roundup (http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_6.html)

Das Wichtigste: Noise and Power Consumption (http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_6.html)

Ich hoffe, spästestens jetzt sind alle Unklarheiten bezüglich des Stromverbrauchs aus der Welt.:smile:
DVI+HDCP=Limitierung und kein 1080p? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=335937)
Nackter Die des G80 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5060022#post5060022)
Wenn etwas fehlt, bitte per PM hinweisen und nicht hier im Thread.

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
Ich bin mal so frech und klaue was von Leo:
Nvidia GeForce 8800 GTX: Der schnellste Grafikchip der Welt (d) (http://www.chip.de/artikel/c1_artikel_22630651.html) [Chip]
nVidia GeForce 8800 GTX: Der neue König unter den Grafikkarten (d) (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/) [ComputerBase]
NVIDIA GeForce 8800 GTX (d) (http://www.hardwareluxx.de/pages/13599) [Hardwareluxx]
Nvidia Geforce 8800 GTX: 3D-Hammer für Direct X 10 (d) (http://www.pcwelt.de/tests/hardware-tests/pci-express-grafikkarten/63061/index.html) [PC-Welt]
Neuer NVIDIA GeForce 8800 GTX rast auf der Überholspur (d) (http://www.tec-channel.de/technologie/komponenten/455141) [tecChannel]
The Next Generation: Vorstellung und und Review von NVIDIAs 8800 GTX und GTS (d) (http://www.technic3d.com/?site=article&action=article&a=379&p=1) [Technic3D]
Der Dampfhammer: Geforce 8800 GTX (G80) (d) (http://hardware.thgweb.de/2006/11/08/nvidia-geforce-8800-gtx-g80-grafikkarte-test/) [Tom's Hardware Guide]
Nvidia G80 Image Quality Investigation (e) (http://www.3declipse.com//content/view/34/9/) [3DEclipse]
NVIDIA G80: Architecture and GPU Analysis (e) (http://www.beyond3d.com/reviews/nvidia/g80-arch/) [Beyond3D]
MSI NX8800GTX - was it worth the wait? (e) (http://www.bootdaily.com/index.php?option=com_content&task=view&id=178&Itemid=56) [Boot Daily]
NVIDIA GeForce 8800 GTX/GTS Performance Preview (e) (http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/) [FiringSquad]
EVGA 8800GTS (e) (http://www.gamepyre.com/reviewsd.html?aid=783&p=1) [Gamepyre]
GeForce 8800 GTS & GTX review (e) (http://www.guru3d.com/article/Videocards/391/) [Guru3D]
BFGTech GeForce 8800 GTX and 8800 GTS (e) (http://enthusiast.hardocp.com/article.html?art=MTIxOCwxLCxoZW50aHVzaWFzdA==) [HardOCP]
NVIDIA GeForce 8800 GTX (e) (http://www.hexus.net/content/item.php?item=7177) [Hexus]
NVIDIA GeForce 8800 GTX and 8800 GTS: Unified Powerhouses (d) (http://www.hothardware.com/viewarticle.aspx?articleid=903) [Hot Hardware]
XFX GeForce 8800GTX Video Card Review (e) (http://www.motherboards.org/reviews/hardware/1671_1.html) [Motherboards]
BFG GeForce 8800 GTS (d) (http://www.neoseeker.com/Articles/Hardware/Reviews/bfg8800gts/) [Neoseeker]
NVIDIA GeForce 8800 GTX Review - DX10 and Unified Architecture (d) (http://www.pcper.com/article.php?type=expert&aid=319) [PC Perspective]
NVIDIA GeForce 8800 Preview (e) (http://www.techpowerup.com/reviews/NVIDIA/G80) [techPowerUp!]
Nvidia's GeForce 8800 graphics processor (e) (http://techreport.com/reviews/2006q4/geforce-8800/index.x?pg=1) [The Tech Report]
MSI GeForce 8800GTS is here - Hello DX10 (e) (http://www.tweaktown.com/articles/977/2/page_2_new_technology/index.html) [TweakTown]
NVIDIA G80: Place au GeForce 8800 et à DirectX 10 (franz.) (http://www.clubic.com/article-61974-1-nvidia-g80-geforce-8800-gts-gtx.html) [Clubic]

AnarchX
2006-11-28, 21:00:50
XFX kann es einfach nicht lassen - OC-Modelle der GF8 in Asien aufgetaucht
http://www.pcpop.com/doc/0/166/166560.shtml(maschinelle Übersetzung durch Babelfish) (http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f166%2f166560.shtml)

XFX 8800GTX 630/1000MHz (PV-T80F-SHD)
XFX 8800GTS 550/900MHz (PV-T80G-THD)

Na, wenn das mal keinen Ärger mit nV gibt.;)

Superheld
2006-11-28, 22:00:05
Hi hab grad Farcry mit Transparenz-Antialiasing gespielt

ist schon Hammer wie die 8800 damit abgeht, woran liegt das ?

AnarchX
2006-11-28, 22:00:59
Hi hab grad Farcry mit Transparenz-Antialiasing gespielt

ist schon Hammer wie die 8800 damit abgeht, woran liegt das ?
Leistungsfähige ROPs und TMUs in hoher Anzahl und zudem die hohe Speicherbandbreite die sich bei HDR+AA sehr positiv bemerkbar macht. ;)

Voodoo3Killer
2006-12-01, 23:59:00
Ohne jetzt alle Review Links angeschaut zu haben:

Weis jemand auf die Schnelle, wo die Lautstärke (gemessen) verglichen wird zu anderen Karten. Also mehr als "ist leise" oder "leiser als 7800GT".

Ich hab nämlich keine Nerven auf Radau, und alternative Kühler sind auch noch keine in Aussicht oder?

Grüße

dildo4u
2006-12-02, 00:07:44
Ohne jetzt alle Review Links angeschaut zu haben:

Weis jemand auf die Schnelle, wo die Lautstärke (gemessen) verglichen wird zu anderen Karten. Also mehr als "ist leise" oder "leiser als 7800GT".

Ich hab nämlich keine Nerven auf Radau, und alternative Kühler sind auch noch keine in Aussicht oder?

Grüßehttp://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/29/#abschnitt_lautstaerke

Voodoo3Killer
2006-12-02, 01:20:22
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/29/#abschnitt_lautstaerke

Ahh Danke, aber das ist nunmal auch recht wenig aussagekräftig...

"Nanu, ist der Rechner denn schon an? Ja, in der Tat. Denn die GeForce 8800 GTX agiert unter Windows flüsterleise."

Und oben messen sie 48db? Das ist ganz schön laut wenn ich mich da recht entsinne... Naja bleibt mir wohl außer einbauen und ausprobieren nix über...

xfire
2006-12-02, 11:44:50
Ahh Danke, aber das ist nunmal auch recht wenig aussagekräftig...

"Nanu, ist der Rechner denn schon an? Ja, in der Tat. Denn die GeForce 8800 GTX agiert unter Windows flüsterleise."

Und oben messen sie 48db? Das ist ganz schön laut wenn ich mich da recht entsinne... Naja bleibt mir wohl außer einbauen und ausprobieren nix über...

Die 48db beziehen sich auf das Gesamtsystem und nicht nur auf die Grafikkarte...


xFire

san.salvador
2006-12-02, 12:34:56
Die 48db beziehen sich auf das Gesamtsystem und nicht nur auf die Grafikkarte...


xFire
Und bei 48db wissen die nicht, ob der Rechner an ist?

Duran05
2006-12-02, 12:41:16
Und bei 48db wissen die nicht, ob der Rechner an ist?

Zitat: "Beide Messungen werden im Abstand von 15 cm zur Grafikkarte durchgeführt."

In der Regel sitzt niemand 15 cm neben der Grafikkarte im Gehäuse, womit sich der relevante Lautstärkepegel im Normalbetrieb erheblich reduziert.

Gast
2006-12-02, 13:31:02
Hi hab grad Farcry mit Transparenz-Antialiasing gespielt

ist schon Hammer wie die 8800 damit abgeht, woran liegt das ?

loL?Das schafft nicht nur die 8800 Serie.

Gast
2006-12-02, 13:36:06
loL?Das schafft nicht nur die 8800 Serie.

aber nicht in 1920*1200 ;)

san.salvador
2006-12-02, 14:01:42
Zitat: "Beide Messungen werden im Abstand von 15 cm zur Grafikkarte durchgeführt."

In der Regel sitzt niemand 15 cm neben der Grafikkarte im Gehäuse, womit sich der relevante Lautstärkepegel im Normalbetrieb erheblich reduziert.
Wieso sollte man dann mit diesem Abstand messen? Ziemlich hirnlos irgendwie.

Gast
2006-12-02, 14:06:47
Ganz einfach: je weiter weg die Messung stattfindet, desto größer der Einfluss von ungewollten Störgeräuschen!

Es dient lediglich als Vergleich, denn alle Karten wurden mit diesem Abstand vermessen.

Die realitätsnähe Lautstärke kann niemand messen. Das hängt vom Gehäuse, von der Umgebung und der Entfernung ab.
Wenn du einen guten Tower hast, der Rechner 2 m weit weg ist, dann hörste die Karte sicherlich kaum noch... ne Disco ist schließlich auch nicht mehr so laut, wenn du ein paar meter weit weg bist.

Gast
2006-12-02, 22:38:43
Hat grade wer irgendeinen Tipp parat wo es eine 8800 GTS für ~430 bei einem vernünftigen Shop gibt?

dildo4u
2006-12-03, 00:02:50
Ich hab heute die neue PCGH 1/2007 bekommem auf der Begleit DVD gibts zwei sher schöne AF Vergleichs Videos von HL2 und Oblivion 7900/1900/8800.Alle wurden mit der höst möglichen AF Qualität verglichen.

Slipknot79
2006-12-03, 01:49:38
Ich hab heute die neue PCGH 1/2007 bekommem auf der Begleit DVD gibts zwei sher schöne AF Vergleichs Videos von HL2 und Oblivion 7900/1900/8800.Alle wurden mit der höst möglichen AF Qualität verglichen.


Irgendwelche Unterschiede festgestellt zw 1900er und G80?

dildo4u
2006-12-03, 02:05:53
Irgendwelche Unterschiede festgestellt zw 1900er und G80?Nich wirklich der G80 und die 1900XT arbeiten hier auf einem etwa gleich hohem Niveau wobei das Video zwar eine gute Qualität hat aber nicht die Orginal Auflösung zeigt.

Spasstiger
2006-12-03, 03:17:12
Wieso sollte man dann mit diesem Abstand messen? Ziemlich hirnlos irgendwie.
Man muss bedenken, dass der Schalldruck mit der Entfernung zum Quadrat abnimmt. In 1 m Abstand wird man gegenüber 15 cm Abstand also nur noch das 0,0225-fache des Schalldrucks messen, das sind glatt 33 db weniger. Andere Geräusche können da natürlich sehr störend wirken, so dass das Geräusch der Grafikkarte gar nicht mehr rausgefiltert werden kann.
Die Anforderungen an das Messgerät steigen natürlich auch stark mit dem Messabstand bzw. die Genauigkeit der Messung nimmt ab.

Slipknot79
2006-12-03, 05:08:43
Man muss bedenken, dass der Schalldruck mit der Entfernung zum Quadrat abnimmt. In 1 m Abstand wird man gegenüber 15 cm Abstand also nur noch das 0,0225-fache des Schalldrucks messen, das sind glatt 33 db weniger. Andere Geräusche können da natürlich sehr störend wirken, so dass das Geräusch der Grafikkarte gar nicht mehr rausgefiltert werden kann.
Die Anforderungen an das Messgerät steigen natürlich auch stark mit dem Messabstand bzw. die Genauigkeit der Messung nimmt ab.


Der Schalldruckpegel nimmt nicht quadratisch ab sondern logarithmisch. Der Schalldruckpegel nimmt von 15 auf 100cm Entfernung um 16.4dB(A) ab. Bodenreflexionen noch nicht mal berücksichtigt.

Spasstiger
2006-12-03, 14:58:12
Der Schalldruckpegel nimmt nicht quadratisch ab sondern logarithmisch. Der Schalldruckpegel nimmt von 15 auf 100cm Entfernung um 16.4dB(A) ab. Bodenreflexionen noch nicht mal berücksichtigt.
Ok, ich hab den falschen Begriff verwendet. Der Schalldruck nimmt quadratisch mit der Entfernung ab. Der Schalldruckpegel verringert sich dann um 33 dB (Faktor 20 bei Schalldruck, Faktor 10 wäre bei Leistungen).

Slipknot79
2006-12-03, 15:01:38
Ok, ich hab den falschen Begriff verwendet. Der Schalldruck nimmt quadratisch mit der Entfernung ab. Der Schalldruckpegel verringert sich dann um 33 dB (Faktor 20 bei Schalldruck, Faktor 10 wäre bei Leistungen).


Weder Schalldruck noch der Schalldruckpegel verringern sich ums quadratische oO Der Schallpegel hängt mit dem Druck ebenfalls per log(10) zusammen.

Wie kommst du auf die 33dB?
Ich habe folgende Formel verwendet:

delta L = 20 x lg(r2/r1) = 20 x lg (100/15) = 16.4dB

Spasstiger
2006-12-03, 15:18:26
Weder Schalldruck noch der Schalldruckpegel verringern sich ums quadratische oO Der Schallpegel hängt mit dem Druck ebenfalls per log(10) zusammen.
Ok, du hast recht. Es ist die Schallintensität (Energiegröße), die mit der Entfernung im Quadrat abnimmt. Und bei Energiegrößen rechnet man wiederum mit Faktor 10, so dass man auf deine 16,4 db kommt.

Gast
2006-12-04, 14:37:02
Auf was für einen Preis werden die Preise für die 8800 GTS in nächster Zeit noch fallen, geht`s unter 400 €?

Slipknot79
2006-12-04, 14:41:32
Auf was für einen Preis werden die Preise für die 8800 GTS in nächster Zeit noch fallen, geht`s unter 400 €?

Solange kein R600 rauskommt, braucht man ned mit <400EUR zu rechnen.

Gast
2006-12-04, 14:42:08
Solange kein R600 rauskommt, braucht man ned mit <400EUR zu rechnen.

Dankeschön

deekey777
2006-12-06, 22:19:34
Und da ist das Schätzchen: http://sg.vr-zone.com/?i=4352

http://img182.imageshack.us/img182/3130/coresizeue4.jpg

Gast
2006-12-07, 15:43:56
Und da ist das Schätzchen:[/URL]
Jetzt müsste man nurnoch wissen, wie groß eine Ein-Dollar-Münze ist. ^^

deekey777
2006-12-07, 15:47:31
Jetzt müsste man nurnoch wissen, wie groß eine Ein-Dollar-Münze ist. ^^
Wozu soll man das wissen? Die Die-Größe ist längst bekannt.
http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=117&orderby=release_date&order=Order&cname=
So oder so: Der Durchmesser der Münze ist 22.4 mm.

Mastermind
2006-12-08, 15:50:58
Vielleicht hab ich was missverstanden, aber war es nicht so, dass es bisher mit den GFs möglich war SSAA zu nutzen (was manchen in diesem Forum ja extrem wichtig ist) und es bei der Einführung dann Aufregung gab, weil es nicht richtig ging? War das so? Wenn ja, wurde das im Treiber schon freigeschaltet? Es ist doch nur Treibersache und der Chip kann das, oder nicht? :confuesed:

crux2005
2006-12-08, 16:06:30
Vielleicht hab ich was missverstanden, aber war es nicht so, dass es bisher mit den GFs möglich war SSAA zu nutzen (was manchen in diesem Forum ja extrem wichtig ist) und es bei der Einführung dann Aufregung gab, weil es nicht ging?

ja


Wenn ja, wurde das im Treiber schon freigeschaltet?

nein

Es ist doch nur Treibersache und der Chip kann das, oder nicht? :confuesed:

Treibersache

Mastermind
2006-12-08, 16:16:28
ja

nein

Treibersache
:eek: Gab es von den Grünen denn schon sowas wie eine Erklärung, wenigstens unter der Hand, was ihre Gründe dafür sind?

Gast
2006-12-08, 17:03:41
:eek: Gab es von den Grünen denn schon sowas wie eine Erklärung, wenigstens unter der Hand, was ihre Gründe dafür sind?

nö, offiziell gab es auch nie supersampling, lediglich über inoffizielle reg-werte, deshalb braucht es dafür auch keine erklärung geben ;)

IceLord
2006-12-08, 17:49:40
nö, offiziell gab es auch nie supersampling, lediglich über inoffizielle reg-werte, deshalb braucht es dafür auch keine erklärung geben ;)
Aber 8xS gab es offiziell und das hat auch einen SS Anteil.

The_Invisible
2006-12-08, 17:59:13
vielleicht hatte man einfach angst das man mit dem langsamen 8xS/16xS testet

vielleicht gibt es bei erscheinen der neuen quadro wieder hoffnung

mfg

Gast
2006-12-08, 19:58:03
Aber 8xS gab es offiziell und das hat auch einen SS Anteil.

das wurde eben durch die neuen modi ersetzt, war eigentlich abzusehen, 4xS gab es offiziell auch nicht mehr seit man 4xRGMSAA beherrscht hat.

Noch ein Gast
2006-12-08, 20:42:30
das wurde eben durch die neuen modi ersetzt, war eigentlich abzusehen, 4xS gab es offiziell auch nicht mehr seit man 4xRGMSAA beherrscht hat.Die Ersetzung von 8xS durch 8xMSAA war abzusehen unter den offiziellen Modi, das ist schon klar. Nur dass die ganzen feinen inoffiziellen Schmankerl rausfliegen, das konnte doch nun wirklich keiner ahnen. Ob offiziell oder inoffiziell war vor G80 ziemlich egal, bisher gab es immer eine Menge Modi außerhalb der offiziellen welchen. 4xS gab es ja auch schon lange, bevor man es 4xS nannte und zum offiziellen Modus adelte.

Ohne die alten inoffiziellen Modi - wer hätte da schon SLI gebraucht? Wer braucht mit vierstelligen Zahlen dekorierte Balken? Ohne leistungshungrige, aber auch sehr effektive Modi kann man dem typischerweise auf 1280x1024 beschränkten Normalzocker kein High-End andrehen, er braucht es schlichtweg nicht. Außer natürlich die Schwanzmarkfraktion, aber die ist kleiner (:usweet:) als man denken würde...

Voodoo3Killer
2006-12-09, 00:47:13
Das ist Schade, dass es (im Moment) kein SSAA mit dem G80 gibt. Ich denke aber, dass das wieder möglich sein wird in gewisser Zeit. Ich werde eh noch etwas warten bis die Preise fallen.

Wollte schon bei einer GTX zu schlagen relativ kurz nach dem Release für 600.-, habe dann etwas überlegt und dann ist der Preis sogar noch gestiegen (bei den von mir präferierten Händlern) und das seh ich nun gar nicht ein.

Ich hoffe mal auf einen Preis von ~450-500 EUR sobald ATI die neue Karte bringt und etwas Zeit vergangen ist (2-3 Monate ab heute). Dann werde ich zuschlagen und vielleicht gibt es dann schon (wieder) SSAA und vielleicht sogar eine in irgendeiner Form besonders leise 8800er GTX. Habe zwar noch keine gehört, aber bin da noch sehr skeptisch.

Grüße

Gast
2006-12-09, 11:12:26
vielleicht hatte man einfach angst das man mit dem langsamen 8xS/16xS testet
mfg
mal ernsthaft welcher redaktuer hätte ernsthaft
6xAA gegen 8xS getestet wenn ein 8xmsaa vorhanden wär

das argument zieht überhaupt nicht
selbst beim nv40/g70 hat kaum einer die hybridmodi getestet

Grestorn
2006-12-09, 11:22:18
das argument zieht überhaupt nicht
selbst beim nv40/g70 hat kaum einer die hybridmodi getestet

3DCenter hat immer wieder 8xS gegen 6xAA antreten lassen.

deekey777
2006-12-09, 11:55:25
3DCenter hat immer wieder 8xS gegen 6xAA antreten lassen.
Nicht nur, auch iXBT aktivierten den "HQ-Modus" (sprich alles bis zum Einschlag), bis sie sich den Lesern beugen mussten.
Seit es das Transparenz-AA gibt, nutzen sie dieses. Dumm nur, dass sie bei nVidia die MS-Variante nutzen, ohne darauf hinzuweisen, dass bei den Radeon das Supersampling benutzt wird.

dildo4u
2006-12-10, 14:18:10
Neuer Computerbase Test: nVidia GeForce 8800 GTX SLI

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidia_geforce_8800_gtx_sli/

Slipknot79
2006-12-10, 15:09:56
Neuer Computerbase Test: nVidia GeForce 8800 GTX SLI

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidia_geforce_8800_gtx_sli/


Weiß ned was von den CB Tests halten soll...

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/18/#abschnitt_f_e_a_r


Hier erreicht in 1600x1200 4xAA/16xAF ne 7800GTX 28fps.

Hatte auf meinem System (X2@2600MHz, weniger Cache als der Testrechner von CB, FX-60) 33fps. 7800GTX war nicht oced, auch der RAM ist ein langsamerer als der im CB-Test verwendete. Natürlich fuhr ich High Quality, nahm die selbe Treiberversion und hatte die selben Settings in FEAR. Bei den anderen Auflösungen hatte ich prozentuall gesehen das gleiche Plus an Mehrleistung.


Ursachen? Faket CB um den 8800GTX besser aussehen zu lassen? ...

Gast
2006-12-10, 15:14:29
Ursachen? Faket CB um den 8800GTX besser aussehen zu lassen? ...

2 systeme sind trotzdem nicht identisch, ich denke der unterschied ist zu gering um zu sagen dass der eine oder andere test falsch ist.

Spasstiger
2006-12-10, 15:31:15
Neuer Computerbase Test: nVidia GeForce 8800 GTX SLI

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidia_geforce_8800_gtx_sli/
Da werden ja teilweise gänzlich neue Spielbarkeitsdimensionen erreicht.
Vierfache Framerate in Company of Heroes gegenüber GeForce 7950 GX2 (2560x1600, 4xAA, 16:1 AF), fünffache Framerate in Oblivion gegenüber GeForce 7950 GX2 (1600x1200, 4xAA, 16:1 AF).
Und das bei gleichzeitig besserer Bildqualität.

http://img242.imageshack.us/img242/2192/8800gtxslifh8.png

In diesen Fällen ist sogar der dreifache Anschaffungspreis gerechtfertigt.

Slipknot79
2006-12-10, 15:36:38
2 systeme sind trotzdem nicht identisch, ich denke der unterschied ist zu gering um zu sagen dass der eine oder andere test falsch ist.


Naja, ich weiß ned ob 17% Unterschied so gering sind oO Also ich finde, dass das schon ne Menge ist, das merkt man sogar subjektiv.


Hatte jetzt nochmnals gestestet, diesmal mit nem FX-60 (Opti 170@2600MHz). 1600x1200 kann ich nicht mehr testen, da ich meinen CRT abgesteckt habe und nen TFT habe wo max 1680x1050 gehen. Aber 1280x1024 spuckt nun 44fps raus. CB hatte 38... ALso rund 16% Unterschied, obwohl mein RAM sogar nur bei 182MHz getaktet hat, da kein gscheiterer RAM-Teiler zu finden ist :(

Gast
2006-12-10, 15:45:04
obwohl mein RAM sogar nur bei 182MHz getaktet hat, da kein gscheiterer RAM-Teiler zu finden ist :(Bei einem DFI? Glaub ich nicht. Der CPU-Multi ist doch nach unten offen und dem Referenztakt sind nach oben bei einem DFI NF4 auch keine Grenzen gesetzt. Da wird sich doch eine Kombination finden lassen, die deinem RAM volle 200 MHz gibt.

Wenn du faul bist, kannst du einfach mal ein bisschen mit xxmartins "OC Calculator" rumspielen.
http://home.arcor.de/xxmartin/Calculator/

Slipknot79
2006-12-10, 15:47:51
Bei einem DFI? Glaub ich nicht. Der CPU-Multi ist doch nach unten offen und dem Referenztakt sind nach oben bei einem DFI NF4 auch keine Grenzen gesetzt. Da wird sich doch eine Kombination finden lassen, die deinem RAM volle 200 MHz gibt.

Wenn du faul bist, kannst du einfach mal ein bisschen mit xxmartins "OC Calculator" rumspielen.
http://home.arcor.de/xxmartin/Calculator/


Ging leider nicht anders :(
260x0,7=182
Nächste Stufe sind: 260x5/6=216... 216 sind schon zu viel

Ich fahre aber standardmässig bei 280x0,7=196MHz. Daher habe ich mich da nicht großartig für 5min Tests unter 2600MHz rumgespielt und mal die 182MHz gelassen.

Der Calculator hat leider keine 140MHz (0.7). Dafür stehen mir 150MHz im BIOS nicht zur Verfügung und ich weiß ned wieso :(


Rechnet der Calculator überhaupt richtig?!?!
Bei 280MHz und 150MHz RAM Takt kommen 200MHz für den RAM-Takt raus?!?! Es sollten aber 280x150/200=210MHz sein und nicht 200?

Gast
2006-12-10, 16:03:55
Rechnet der Calculator überhaupt richtig?!?!
Bei 280MHz und 150MHz RAM Takt kommen 200MHz für den RAM-Takt raus?!?! Es sollten aber 280x150/200=210MHz sein und nicht 200?Bei mir zeigt er korrekt 210 MHz an.

AnarchX
2006-12-10, 16:08:20
Da werden ja teilweise gänzlich neue Spielbarkeitsdimensionen erreicht.
Vierfache Framerate in Company of Heroes gegenüber GeForce 7950 GX2 (2560x1600, 4xAA, 16:1 AF), fünffache Framerate in Oblivion gegenüber GeForce 7950 GX2 (1600x1200, 4xAA, 16:1 AF).
Und das bei gleichzeitig besserer Bildqualität.

http://img242.imageshack.us/img242/2192/8800gtxslifh8.png

In diesen Fällen ist sogar der dreifache Anschaffungspreis gerechtfertigt.

Und man sollte immernoch den Hintergedanken haben, dass mit zukünftigen Treibern noch einiges an Performance drin sein wird.;)

Slipknot79
2006-12-10, 16:37:42
Bei mir zeigt er korrekt 210 MHz an.



http://img88.imageshack.us/img88/5884/unbenanntfw3.jpg


:confused:

=Floi=
2006-12-10, 16:40:14
nur kapiert es CB noch immer nicht dass in battlefield die cpu limitiert :D
was soll der schund mit dem conroe?
zuerst steht die single karte nun bei 160fps an und dann wird nochmal mit sli nachgetestet ùm zu dem erstaunlichem ergebnis zu kommen dass es noch immer 160fps sind...
ich verstehe es nicht warum man da nicht mal 2cm in die zukunft denkt

zum glück gibt es in dem forum so fähige leute die C2Ds mit über 3,5ghz haben...

AnarchX
2006-12-10, 16:40:48
Ursachen? Faket CB um den 8800GTX besser aussehen zu lassen? ...
Hattest du auch TSSAA und (richtig) HQ aktiviert?;)

Slipknot79
2006-12-10, 16:43:33
Hattest du auch TSSAA und (richtig) HQ aktiviert?;)


Ja ist auch aktiviert.

FEAR is definitv stark GPU limitiert. Stelle ich von 2600 auf 2800MHz ändert das nix bei den Bechmarks. Auch CB hat keinen gewaltigen Unterschied zw FX-60 und Core 2.

Gast
2006-12-10, 16:59:14
http://img88.imageshack.us/img88/5884/unbenanntfw3.jpg


:confused:Sorry, ich hatte versehentlich den 9er-Multi eingestellt. Aber 10 x 280 MHz / 14 = 200 MHz -> stimmt doch.

Slipknot79
2006-12-10, 17:10:13
Sorry, ich hatte versehentlich den 9er-Multi eingestellt. Aber 10 x 280 MHz / 14 = 200 MHz -> stimmt doch.


Wieso durch 14? Ich hab immer so gerechnet:
280x150/200=210MHz !??!? Oder 280x0,75.

Gast
2006-12-10, 17:17:44
Wieso durch 14? Ich hab immer so gerechnet:
280x150/200=210MHz !??!? Oder 280x0,75.Ich zitiere mal aus dem K8-OC-Guide auf P3DNow!:
Das heißt, man muß den gewünschten CPU-Multiplikator mit 200 MHz multiplizieren und dann die jeweiligen Teiler finden, die bei diesem CPU-Takt 133, 166 oder 200 MHz Speichertakt generieren würden. Diese errechneten Teiler sind dann die tatsächlich anliegenden RAM-Teiler. Diese bleiben nun bei gleichem CPU-Multiplikator bei jeder veränderten Referenztakt-Einstellung konstant. Die gewonnen CPU-Takte müssen nun lediglich immer nur durch diesen ermittelten RAM-Teiler dividiert werden, um den real anliegenden Speichertakt zu ermitteln.

Fazit: der Speichertakt hängt direkt vom CPU-Takt ab und nur indirekt vom Referenztakt. Es besteht keine direkte Abhängigkeit von Referenztakt und Speichertakt.Dazu gibt es noch zu sagen, dass die Teiler immer aufgerundet werden um eine werksseitige Übertaktung des Speichers zu vermeiden.

Gast
2006-12-10, 17:20:09
Hier noch der Link dazu. Ist sehr lesenswert, da sehr gut erklärt wird wie die einzelnen Taktraten beim K8 zustande kommen.

http://www.planet3dnow.de/vbulletin/showthread.php?t=182086

Vielleicht kann ein Mod denn Offtopic-Teil ja raussplitten, damit der G80-Thread hier nicht so sehr gestört wird.

Spasstiger
2006-12-10, 17:30:20
Wieso durch 14?
Speicherteiler 14 und 2800/14=200. Passt also.
Wie der Speicherteiler 14 zustande kommt? 2000/150=13,333 => aufgerundet auf nächsten ganzzahligen Speicherteiler => 14.

Bei den 65-nm-A64 werden dann auch x,5er-Speicherteiler möglich sein, hier also 13,5, was dann in 207 MHz Speichertakt resultieren würde.

Ich hab immer so gerechnet:
280x150/200=210MHz !??!? Oder 280x0,75.
Das wäre eine Rechnung, die bei Intel-CPUs hinhauen würde (Speicher:FSB-Verhältnis = 3:4).
Bei den A64 ist der Speichercontroller aber Bestandteil der CPU, der Speichertakt somit unabhängig vom Referenztakt (und den FSB gibts auch nicht mehr).
Btw. ist das schon seit mehr als 3 Jahren so (so lange ist der A64 nämlich schon auf dem Markt).

Slipknot79
2006-12-10, 18:03:12
Ok, thx für die Erklärungen. Mein Mobo schafft so und so keine 312x9 oder 350x8. Egal wie niedrig der RAM-Teiler oder HTT-Teiler sein mag. Kann wohl froh sein dass die 280x10 gehen... CPU-Z 1.37 liest bei Memory nochdazu nen Blödsinn aus^^ CPU/20. Hab aufeinmal 140MHz RAM Takt? Bzw 70MHz bei C&Q... RAM ist im BIOS auf 140MHz eingestellt, Referenztakt auf 280...

The_Invisible
2006-12-10, 18:22:44
Da werden ja teilweise gänzlich neue Spielbarkeitsdimensionen erreicht.
Vierfache Framerate in Company of Heroes gegenüber GeForce 7950 GX2 (2560x1600, 4xAA, 16:1 AF), fünffache Framerate in Oblivion gegenüber GeForce 7950 GX2 (1600x1200, 4xAA, 16:1 AF).
Und das bei gleichzeitig besserer Bildqualität.

http://img242.imageshack.us/img242/2192/8800gtxslifh8.png

In diesen Fällen ist sogar der dreifache Anschaffungspreis gerechtfertigt.

ja, jetzt könnte man schon ernsthaft darüber nachdenken in 2560/4x(ts)aa/16xaf zu spielen, für oblivion reichts aber anscheinend noch immer nicht, da müsste man sich wohl mit tmaa begnügen.

schade das gothic3 nicht dabei ist.

mfg

Slipknot79
2006-12-10, 18:25:02
ja, jetzt könnte man schon ernsthaft darüber nachdenken in 2560/4x(ts)aa/16xaf zu spielen, für oblivion reichts aber anscheinend noch immer nicht, da müsste man sich wohl mit tmaa begnügen.

schade das gothic3 nicht dabei ist.

mfg


Irgendwo im Forum hat Wesker Gothic 3 gebencht. Die Ergebnisse waren recht beeindruckend im Vgl zur 7950GX2.


€dit:

System:

E6700 @ 4122 MHz
Intel D975XBX rev.304
4x512 MB Centon @ DDR2/825 3-3-2-8
Enermax Galaxy
eVGA 7950 GX2 @ Default
eVGA 7950 GX2 1.5V, wakü 730/875
XFX 8800 GTX




Gothic 3: 1600x1200 16AF HQ

7950 GX2 @ Default: 33 FPS
7950 GX2 @ 730/875: 39 FPS
8800 GTX @ Default: 64 FPS

MechWOLLIer
2006-12-10, 18:51:12
Bezüglich der CB-Benches in F.E.A.R.
Da will keiner die 8800 GTX besser darstehen lassen (ist auch so interessant gegen eine nicht aufgeführte 7800 GTX), sondern es wird einfach ein älterer Treiber verwendet, der in F.E.A.R. das ein oder andere FPS kostet;)

Slipknot79
2006-12-10, 18:59:27
Bezüglich der CB-Benches in F.E.A.R.
Da will keiner die 8800 GTX besser darstehen lassen (ist auch so interessant gegen eine nicht aufgeführte 7800 GTX), sondern es wird einfach ein älterer Treiber verwendet, der in F.E.A.R. das ein oder andere FPS kostet;)


Wird hier angeführt: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/18/#abschnitt_f_e_a_r

MechWOLLIer
2006-12-10, 19:01:14
Ach, den Artikel meintest du. Das ändert aber nichts an meiner Aussage. Der Treiber macht den Unterschied aus.

Slipknot79
2006-12-10, 19:06:59
Ach, den Artikel meintest du. Das ändert aber nichts an meiner Aussage. Der Treiber macht den Unterschied aus.


Ich habe aber den selben Treiber verwendet, 84.43 oO

Gast
2006-12-10, 21:26:45
3DCenter hat immer wieder 8xS gegen 6xAA antreten lassen.
:eek: das ist doch hyper unfair und unfassbar! und ausgerechnet ihr tretet dann immer als die paladine der hardwaretester auf, die als einzige fair benchmarks durchführen können, weil die anderen entweder unfähig oder parteiisch sind. dabei sieht man hier, ihr seid auch nicht besser!! :mad:

Grestorn
2006-12-10, 21:34:01
:eek: das ist doch hyper unfair und unfassbar! und ausgerechnet ihr tretet dann immer als die paladine der hardwaretester auf, die als einzige fair benchmarks durchführen können, weil die anderen entweder unfähig oder parteiisch sind. dabei sieht man hier, ihr seid auch nicht besser!! :mad:

Der Fairness halber muss natürlich dazu gesagt werden, dass im Text immer darauf hingewiesen wurde, dass die Modi nicht vergleichbar sind. Dennoch waren die Modi üblicherweise auf dem selben Graphen und damit im direkten Vergleich abgebildet.

Super Grobi
2006-12-10, 21:38:32
Hallo Leute,
wird mal langsam Zeit, daß NV das Tool nTune anpasst. Würde gerne mal etwas an den Takt rumspielen.

Hat die GTS eigentlich den selben Typ Ram auf dem PCB oder kommt dort ein langsamerer Ram zum einsatz?

Gruss
SG

Gast
2006-12-10, 21:50:54
Der Fairness halber muss natürlich dazu gesagt werden, dass im Text immer darauf hingewiesen wurde, dass die Modi nicht vergleichbar sind. Dennoch waren die Modi üblicherweise auf dem selben Graphen und damit im direkten Vergleich abgebildet.Jep. Ich habe auch oft genug in anderen Foren gesehen, dass auf die 3DC-Tests verlinkt wurde mit Kommentaren wie "die 7800GTX ist kaum schneller oder langsamer als die x850xt". ;)

Spasstiger
2006-12-10, 21:57:19
:eek: das ist doch hyper unfair und unfassbar! und ausgerechnet ihr tretet dann immer als die paladine der hardwaretester auf, die als einzige fair benchmarks durchführen können, weil die anderen entweder unfähig oder parteiisch sind. dabei sieht man hier, ihr seid auch nicht besser!! :mad:
Wenn man nicht in der Lage ist, den Text zu einem Diagramm zu lesen, dann kann einem auch nicht mehr geholfen werden. Viel schlimmer ist es, wenn gewisse Einstellungen gar nicht erwähnt werden (z.B. wird oft unterschlagen, dass der NV-Treiber im Test nur @quality und nicht @high-quality eingestellt war). In den 3DC-Reviews waren jedoch alle relevanten Einstellungen und deren Bedeutung für den Vergleich aufgeführt.

AnarchX
2006-12-11, 11:05:12
Overclocked G80 to come in January
Not under the Yule tree
http://www.theinquirer.net/default.aspx?article=36272

Gast
2006-12-11, 14:50:58
Overclocked G80 to come in JanuaryDas gefällt mir. Wenn diese Karten in vernünftigen Preisregionen angekommen sind, wirds wohl eine werksseitig übertaktete 8800GTX bei mir. Die Zeiten, in denen ich 600 € für eine Grafikkarte ausgegeben habe, sind vorbei. 250-300 € und G80GTX ist mein. ;)

Slipknot79
2006-12-11, 15:11:10
Das gefällt mir. Wenn diese Karten in vernünftigen Preisregionen angekommen sind, wirds wohl eine werksseitig übertaktete 8800GTX bei mir. Die Zeiten, in denen ich 600 € für eine Grafikkarte ausgegeben habe, sind vorbei. 250-300 € und G80GTX ist mein. ;)


Ich wage es zu bezweifeln, dass sich ne 300EUR Karte auf das Niveau einer GTX ocen lässt oO Oder willst du warten bis ne GTX 300EUR kostet dann ne octe Version kaufen? Kann mich aber nicht erinnern dass ne octe High-End Karte auf 300EUR gefallen ist...

Gast
2006-12-11, 17:04:20
Oder willst du warten bis ne GTX 300EUR kostet dann ne octe Version kaufen?So ist es.

Kann mich aber nicht erinnern dass ne octe High-End Karte auf 300EUR gefallen ist...Naja, wenn das nicht passieren sollte, wirds halt doch eine normale. Irgendwie finde ich ab Werk übertaktete Grafikkarten aber sexy. ;)

Slipknot79
2006-12-11, 17:27:38
So ist es.

Naja, wenn das nicht passieren sollte, wirds halt doch eine normale. Irgendwie finde ich ab Werk übertaktete Grafikkarten aber sexy. ;)


Naja, du kannst ne billigere normale GTX kaufen und sie soweit übertakten, bis sie die MHz einer ab Werk übertakteten erreicht. Ist normalerweise kein Problem.

robbitop
2006-12-11, 17:54:59
:eek: das ist doch hyper unfair und unfassbar! und ausgerechnet ihr tretet dann immer als die paladine der hardwaretester auf, die als einzige fair benchmarks durchführen können, weil die anderen entweder unfähig oder parteiisch sind. dabei sieht man hier, ihr seid auch nicht besser!! :mad:
Schön, alle Leute in eine Schublade zu tun, hm? :rolleyes: Solche unsinnigen Vergleiche hat allerhöchstens Leo gemacht. Dafür hat er von uns anderen Redakteuren auch immer ordentlich was zu hören bekommen. Anyway Madkiller != Leo.

WEGA
2006-12-12, 22:31:05
weiß einer, was mehr strom braucht, zwei 7900GTX SLI oder eine 8800GTX?

Coda
2006-12-12, 22:32:00
Zwei 7900GTX.

James Ryan
2006-12-13, 09:19:34
Seit es das Transparenz-AA gibt, nutzen sie dieses. Dumm nur, dass sie bei nVidia die MS-Variante nutzen, ohne darauf hinzuweisen, dass bei den Radeon das Supersampling benutzt wird.

AFAIK nutzt ATi bei Quality-TSAA kein Super-Sampling sondern ebenfalls nur Multi-Sampling allerdings mit doppelt sovielen Mustern wie unter Perfomance-TSAA.

MfG :cool:

Gast
2006-12-13, 10:49:49
AFAIK nutzt ATi bei Quality-TSAA kein Super-Sampling sondern ebenfalls nur Multi-Sampling allerdings mit doppelt sovielen Mustern wie unter Perfomance-TSAA.

MfG :cool:

nö, is schon SSAA...

deekey777
2006-12-13, 10:58:16
nö, is schon SSAA...
Ist schönes SSAA mit gleichen Mustern.:)

Es gibt zwar eine MSAA-Variante (Alpha-2-Coverage), aber sie hat mit Differing zu kämpfen.

Gast
2006-12-13, 12:50:25
3DCenter hat immer wieder 8xS gegen 6xAA antreten lassen.
ich bin der von dir zitierte gast
ich schrieb ja auch wenn ein 8xmsaa vorhanden wäre

bei g70 musste man halt so testen wenn man bessere modi als 4x testen wollte
ich glaube nciht ernsthaft das das jetzt einer gemacht hätte

deekey777
2006-12-13, 21:34:48
MSI GeForce 8800 GTX 768MB PCI-E
Performance Analysis in 2560x1600.
Product briefs for
MSI RADEON X1300 (RX1300) 256MB PCI-E
MSI RADEON X1300 PRO (RX1300 PRO-TD256E) 256MB PCI-E
MSI RADEON X1600 XT (RX1600 XT-T2D256E) 256MB PCI-E
MSI RADEON X1650 PRO (RX1650 PRO-T2D256E) 256MB PCI-E
MSI RADEON X1950 XTX (RX1950 XTX-VT2D512E) 512MB PCI-E (http://www.digit-life.com/articles2/video/g80-4.html)
Es gibt auch einen Vergleich zwischen Wide-Screen und 4:3.

Gast
2006-12-15, 20:18:48
http://www.hwupgrade.com/articles/video/13/the-nvidia-geforce-8800-gtx-and-gts-in-sli_index.html

http://www.xbitlabs.com/articles/video/display/gf8800-games.html

deekey777
2006-12-15, 20:45:06
http://www.hwupgrade.com/articles/video/13/the-nvidia-geforce-8800-gtx-and-gts-in-sli_index.html

http://www.xbitlabs.com/articles/video/display/gf8800-games.html
1. Einer der wenigen Tests mit 8800GTS SLI. :)

2. Xbit:
Big Trouble from a Small Resistor (http://www.xbitlabs.com/articles/video/display/gf8800-games_27.html)
As we found out, it is the R520 resistor, marked as 68C according to the EIA marking code table. It has a resistance of 49.900 Ohms, but there should have been a 25.500Ohm resistor in its place with a marking of 40C. Our samples of the GeForce 8800 GTX had the wrong resistor, too, but we corrected the resistance with an ordinary lead pencil. Nvidia claims that all GeForce 8800 GTX cards the users can buy have the right resistor on board, but at least a few users in the United States have reported they’ve bought defective samples of the GeForce 8800 GTX, as they claimed in some hardware forums (1, 2). Unfortunately, that was not the only issue with the GeForce 8800 GTX.
:biggrin:
Einer der wenigen Tests, der weitergeht: Man erfährt nicht nur über die Performance.

AnarchX
2006-12-16, 14:15:41
XFX kann es einfach nicht lassen - OC-Modelle der GF8 in Asien aufgetaucht
http://www.pcpop.com/doc/0/166/166560.shtml(maschinelle Übersetzung durch Babelfish) (http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f166%2f166560.shtml)

XFX 8800GTX 630/1000MHz (PV-T80F-SHD)
XFX 8800GTS 550/900MHz (PV-T80G-THD)

Na, wenn das mal keinen Ärger mit nV gibt.;)

nV scheint wohl nun ein OK gegeben zu haben:
http://www.theinquirer.net/default.aspx?article=36408

Nightspider
2006-12-16, 18:04:02
sieh auch Deutsch:
http://www.k-hardware.de/news.php?s=Kaad2ff326a630db79652acfc5bc533a2&news_id=6091

Wann können wir mit der in Europa rechnen ? Was denkt ihr wieviel die hier kostet ? 50 € mehr als eine normale Version ?

Und eine ganz wichtige Frage für mich: Ist der V-Core leicht angehoben im Gegensatz zur normalen Version ?

Sonst kann ich mir ja auch gleich eine normale kaufen und die übertakten!

EDIT:

NA WAS HABEN WIR DENN HIER ??

Eine EVGA WASSERGEKÜHLTE 8800GTX Black Pearl !?
http://geizhals.at/eu/a231726.html

Kennt die jemand ?

Mastermind
2006-12-16, 18:09:08
Und eine ganz wichtige Frage für mich: Ist der V-Core leicht angehoben im Gegensatz zur normalen Version ?

Sonst kann ich mir ja auch gleich eine normale kaufen und die übertakten!
Garantie... :rolleyes:

Slipknot79
2006-12-16, 18:12:22
sieh auch Deutsch:
http://www.k-hardware.de/news.php?s=Kaad2ff326a630db79652acfc5bc533a2&news_id=6091

Wann können wir mit der in Europa rechnen ? Was denkt ihr wieviel die hier kostet ? 50 € mehr als eine normale Version ?

Und eine ganz wichtige Frage für mich: Ist der V-Core leicht angehoben im Gegensatz zur normalen Version ?

Sonst kann ich mir ja auch gleich eine normale kaufen und die übertakten!

EDIT:

NA WAS HABEN WIR DENN HIER ??

Eine EVGA WASSERGEKÜHLTE 8800GTX Black Pearl !?
http://geizhals.at/eu/a231726.html

Kennt die jemand ?


Ich würde erst mal auf OC-Berichte warten. Speziell denke ich daran, dass man das BIOS der GTX XXX auf die eigene normale GTX draufspielt, inkl mehr Vcore (falls diese erhöht worden ist) und mehr MHz ^^

Gast
2006-12-16, 18:21:34
meine läuft seid dem ersten Tag mit dem orig.Bios mit höheren Werten wie diese XXX......

Nightspider
2006-12-16, 18:26:13
Mit welcher Temperatur ? Min-Max ?

Edit:

XFX 8800 GTS für nur 380 Euro !?

http://www.alternate-b2b.de/html/product/details.html?artno=jbxxga&showTechData=true

Super Grobi
2006-12-16, 18:35:22
Mit welcher Temperatur ? Min-Max ?

Meinst du jetzt wirklich, das ein paar Mhz GPU Takt die Temps hochtreibt? Nicht wirklich!

Auf so eine doofe OCed Version kann man eh verzichten. Das ist wirklich eine Karte für N00bs, sry. Das Teil wird bestimmt einiges mehr kosten, als die normale. Und wofür? Ein paar Punkte in Bechmark mehr, den in Games solte eine solche zarte Übertaktung fast nicht spürbar sein. Mal davon ab, das man mit sicherheit 99% aller Karten auf den Takt bringen kann.

SG

Nightspider
2006-12-16, 18:44:35
Aber eine wassergekühlte GTX wäre schon interessant. Wegen Garantie und besseren OC-Eigenschafte !?
Leider kosten die wohl 100-200 Euro zusätzlich -_-

Super Grobi
2006-12-16, 18:46:51
Aber eine wassergekühlte GTX wäre schon interessant. Wegen Garantie und besseren OC-Eigenschafte !?
Leider kosten die wohl 100-200 Euro zusätzlich -_-

Und dann könnte man schon fast überlegen, auf die GTX zu verzichten und zwei GTS für SLI zu kaufen. Ist logischerweise schneller, als ein OCed GTX und braucht garnichts ändern oder testen.

SG

Nightspider
2006-12-16, 18:50:39
Grooobiii ! Du machst es mir nicht leicht. :rolleyes: ;)



Edit:

Achja: Nur das eine wassergekühlte GTX lautlos ist und in jedem Spiel seine volle Leistung entfalten kann und ein GTS SLI System mehr Strom braucht, lauter ist als eine GTX und in manchmel Spielen Probleme macht und teilweise langsamer als eine GTX sind !

Slipknot79
2006-12-16, 19:44:10
Grooobiii ! Du machst es mir nicht leicht. :rolleyes: ;)



Edit:

Achja: Nur das eine wassergekühlte GTX lautlos ist und in jedem Spiel seine volle Leistung entfalten kann und ein GTS SLI System mehr Strom braucht, lauter ist als eine GTX und in manchmel Spielen Probleme macht und teilweise langsamer als eine GTX sind !


Grobi hat ja ned unrecht. Ob das Spiel nun 150 oder 165fps hat, is echt egal, weil mein Monitor ned mehr als 60/72 oder 75Hz darstellt.

Und später sind es 23 zu 25fps, auch schon egal, beides unspielbar.

Gast
2006-12-16, 19:49:46
Und später sind es 23 zu 25fps, auch schon egal, beides unspielbar.

würde ich nich sagen, in dem bereich zählt jedes frame, und nicht jedes spiel ist mit 25fps unspielbar.

Slipknot79
2006-12-16, 19:52:50
würde ich nich sagen, in dem bereich zählt jedes frame, und nicht jedes spiel ist mit 25fps unspielbar.



ich wette dass man den unterschied zwischen 23 und 25fps ned merkt ohne Fraps, vorallem schwankt die rate ziemlich. oO Dachte aber vorhin speziell an Shooter mit "unspielbar" :(

LovesuckZ
2006-12-16, 19:53:12
würde ich nich sagen, in dem bereich zählt jedes frame, und nicht jedes spiel ist mit 25fps unspielbar.

Dann wird das Spiel auch nicht mit 23FPS unspielbar sein. ;)

Gast
2006-12-16, 19:59:13
Dann wird das Spiel auch nicht mit 23FPS unspielbar sein. ;)

das nicht, allerdings ist zwischen 20-30fps bei vielen spielen der bereich, wo es noch nicht unspielbar aber auch noch nicht wirklich flüssig ist, wobei jeder frame mehr das ganze eine spur angenehmer gestaltet.

Slipknot79
2006-12-16, 20:03:26
das nicht, allerdings ist zwischen 20-30fps bei vielen spielen der bereich, wo es noch nicht unspielbar aber auch noch nicht wirklich flüssig ist, wobei jeder frame mehr das ganze eine spur angenehmer gestaltet.


Das Problem ist, dass wenn du ne Graka hast mit der die Spiele >80fps laufen, sind 25fps "unspielbar", also recht unzufriedenstellend :(

Nightspider
2006-12-16, 23:59:08
Naja, ich möchte schon jedes Spiel mit 2048*1600 (bei 85Hz) möglichst mit 4*AA und 16 AF flüssig spielen ! Auch Neuere Titel like Oblivion, Gothic 3 oder UT2007, welches ja schon auf Geforce 7 Karten sehr gut laufen sollte.

Mit anderen Worten, ich kann auch 15% Mehrleistung gebrauchen, die ich durchs OC einer 8800 GTX gewinnen würde.

Gast
2006-12-17, 00:07:19
Naja, ich möchte schon jedes Spiel mit 2048*1600 (bei 85Hz) möglichst mit 4*AA und 16 AF flüssig spielen ! Auch Neuere Titel like Oblivion, Gothic 3 oder UT2007, welches ja schon auf Geforce 7 Karten sehr gut laufen sollte.

Mit anderen Worten, ich kann auch 15% Mehrleistung gebrauchen, die ich durchs OC einer 8800 GTX gewinnen würde.
Dass neuere Titel auf G70 gut laufen, naja. Bei Oblivion und Gothic läuft das selbst in 1024x768 @High Details mit ner 7900 GTX alles andere als gut. Übelste Slowdowns, vor allem in Gothic haste in Wäldern mit vielen Blättern vor der Nase penetrantes Ruckeln.

Nightspider
2006-12-17, 00:10:10
Dass neuere Titel auf G70 gut laufen, naja. Bei Oblivion und Gothic läuft das selbst in 1024x768 @High Details mit ner 7900 GTX alles andere als gut. Übelste Slowdowns, vor allem in Gothic haste in Wäldern mit vielen Blättern vor der Nase penetrantes Ruckeln.

Sorry, ich hätte mich genauer ausdrücken sollen.
UT2007 sollte ab einer 6800GT gut laufen und auf einer 7800GTX sehr gut, das meinte ich.
Oblivion und Gothic 3 verbraten wesentlich mehr, denke ich.

Epic 4 efficience !

Gast
2006-12-17, 00:13:17
War wohl nichts mit der Ankündigung, das es keine übertakteten G80 vor dem R600 Launch geben würde!

XFX stellt übertaktete GeForce 8800 vor

Die Karten, von XFX mit dem Kürzel „XXX“ kenntlich gemacht, werden mit übertakteten Chip und Speicher ausgeliefert. So wurde bei der GeForce 8800 GTX XXX der Chiptakt von 575 MHz auf 630 MHz angehoben, während der Speichertakt von 900 MHz auf 1.000 MHz erhöht wurde. Die GeForce 8800 GTS XXX arbeitet durch die Erhöhung von 50 MHz nun mit 550 MHz Chiptakt, während der Speicher von 800 MHz auf das GTX-Niveau von 900 MHz erhöht wurde. Zusätzlich soll das BIOS der Karten optimiert worden sein.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/dezember/xfx_geforce_8800/

Wie haben die es denn geschafft, den vram so hoch zu takten???

Gmax
2006-12-17, 04:16:09
Und weg mit dem Headspreader:

Stripping The GeForce 8800 Heatspreader (http://www.vr-zone.com/?i=4352)

http://resources.vr-zone.com/yantronic/ihs/bam.jpg

The_Invisible
2006-12-17, 09:33:35
Dass neuere Titel auf G70 gut laufen, naja. Bei Oblivion und Gothic läuft das selbst in 1024x768 @High Details mit ner 7900 GTX alles andere als gut. Übelste Slowdowns, vor allem in Gothic haste in Wäldern mit vielen Blättern vor der Nase penetrantes Ruckeln.

aja, deswegen hatte ich auch beide in 1680x1050 mit max+ settings (höhere sichtweite bzw bessere sichtweite) durch, gothic 3 sogar 2mal

wenn man so eine karte nicht selber besitzt kann man sich die gerüchte von manchen usern sparen

in 1024 tut bei beiden spielen selbst ne x1600pro schon sehr gut

mfg

Gast
2006-12-17, 10:16:25
teilweise langsamer als eine GTX sind !8800GTS-SLI soll langsamer als eine einzelne GTX sein? Das glaube ich nicht. Wenn das so wirklich in irgendeinem Review stehen sollte, würde ich mal behaupten, dass der Redakteur absolut keinen Plan von SLI hat.

Gast
2006-12-17, 10:23:03
So wurde bei der GeForce 8800 GTX XXX der Chiptakt von 575 MHz auf 630 MHz angehoben, während der Speichertakt von 900 MHz auf 1.000 MHz erhöht wurde.Immerhin eine ganz ordentliche Taktsteigerung. Wären es jetzt nur 10 MHz gewesen, wäre die Karte wohl uninteressant, aber mit 630/1000 hört sich das schon lecker an. Hoffentlich wird sie nicht alllzu teuer.

Klar kann man auch selbst übertakten, aber bei einer 600€-Grafikkarte ist mir die Garantie/Gewährleistung schon wichtig.

IceLord
2006-12-17, 10:38:56
8800GTS-SLI soll langsamer als eine einzelne GTX sein?
Wenn SLI bei einem Spiel nicht funktioniert...

Gast
2006-12-17, 11:06:24
Wenn SLI bei einem Spiel nicht funktioniert...Und bei welchem Spiel ist das bitte der Fall? Mir ist noch nie ein Spiel untergekommen, dass nicht von SLI profitiert hat. Wenn nicht auf Anhieb, dann nach ein wenig "Profilfrickelei" mit dem Nhancer.

Gast
2006-12-17, 13:36:39
UT2007 sollte ab einer 6800GT gut laufen und auf einer 7800GTX sehr gut, das meinte ich.

6800GT wird für UT2k7 wohl eher das minimum darstellen um überhaupt halbwegs anständig spielen zu können, die 7800GTX wird wohl schon ganz gut laufen, aber von sehr gut (hohe auflösung+FSAA+AF) wohl noch immer weit entfernt sein.

WEGA
2006-12-17, 14:04:46
Und weg mit dem Headspreader:

Stripping The GeForce 8800 Heatspreader (http://www.vr-zone.com/?i=4352)

http://resources.vr-zone.com/yantronic/ihs/bam.jpg
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5060022#post5060022
;)

Coda
2006-12-17, 14:11:33
6800GT wird für UT2k7 wohl eher das minimum darstellen um überhaupt halbwegs anständig spielen zu können, die 7800GTX wird wohl schon ganz gut laufen, aber von sehr gut (hohe auflösung+FSAA+AF) wohl noch immer weit entfernt sein.

Vor allem fürchte ich dass D3D9-Karten bei UT2007 gar kein Anti-Aliasing darstellen können.

Gast
2006-12-17, 15:59:53
aja, deswegen hatte ich auch beide in 1680x1050 mit max+ settings (höhere sichtweite bzw bessere sichtweite) durch, gothic 3 sogar 2mal

wenn man so eine karte nicht selber besitzt kann man sich die gerüchte von manchen usern sparen

in 1024 tut bei beiden spielen selbst ne x1600pro schon sehr gut

mfg
Ich habe die 7900 GTX selber. Klar läufts ganz gut, aber es gibt Stellen die mit der Karte sehr stark ruckeln, und es lag nicht an der CPU. Z.B. sollte man in Gothic 3 irgendwo in Lago Lurkertrophäen besorgen. Bin dazu entlang einer Klippe mit extrem dichten Wald gelaufen. Man hat nichts gesehen als Gestrüpp.
Das hat dort so stark geruckelt, dass ich da fast nicht mehr heil rausgekommen wäre. Entweder wäre ich die Klippe heruntergestürzt oder die Lurker hätten mich gekillt. An koordinierte Action war mangels Frames nicht mehr zu denken.
Und das in 1024x768.

=Floi=
2006-12-19, 02:59:49
wie soll denn eigentlich das SLI mit 3 karten heissen?

AnarchX
2006-12-19, 06:48:19
wie soll denn eigentlich das SLI mit 3 karten heissen?

Tripple-SLI?

Aber imo ist dies eher nicht geplant, sondern SLI + eine weitere Karte für Effektphysik.

AnarchX
2006-12-22, 13:31:47
nVidia GeForce 8800 GTS (SLI)
Asus gegen Gainward: Duell zwischen Zwillingen

Einleitung

Fieberhaft wurde sie erwartet, die G80-GPU von nVidia, die neue Wunder vollbringen sollte. Auch wenn am achten November nach den etlichen Launch-Reviews deutlich wurde, dass es keine Wunder-GPU ist, so übertraf die GeForce 8800 GTX dennoch die Erwartungen der meisten Leser – unsere mit eingeschlossen. Die Grafikkarte ist schnell in allen Lebenslagen und überflügelt spielend das Doppelgespann GeForce 7950 GX2. Der viel wichtigere Faktor ist jedoch die Bildqualität, die auf dem G80 bei Nutzung des Anti-Aliasings sowie des anisotropen Filters stark zugelegt hat. Dadurch ist es auf einer GeForce 8800 GTX möglich, nicht nur spielbare Frameraten in hohen Auflösungen zu erreichen, sondern zugleich eine Bildqualität, die man bis jetzt noch nicht gekannt hat. Die Unterstützung von Direct3D 10 gerät da beinahe schon in Vergessenheit.

Die GeForce 8800 GTX war allerdings nicht die einzige G80-Grafikkarte, die nVidia am Veröffentlichungs-Tag der Öffentlichkeit präsentierte. Etwas in den Hintergrund neben den diversen Rekordwerten ist dabei die GeForce 8800 GTS, der kleinere Bruder des GTX-Modells, gedrängt worden. Zu Unrecht, da die GeForce 8800 GTS die Qualität des G80 mit einem günstigeren Preis, aber einer geringeren Leistung, verbindet. nVidia benutzt bei der GeForce 8800 GTS ein altbewährtes Rezept: Man nehme die schnellste GPU, deaktiviere einige (möglicherweise aufgrund von Produktionsfehlern defekte) Hardwarekomponenten, und schon kann man auch fehlerbehaftete Chips an den Mann bringen. Gut für den Kunden, da er Geld sparen kann und gut für den Hersteller, da er die GPUs nichtsdestotrotz verkaufen kann. [...]
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/

btw.
CB hat ihr Layout nun um geniales Feature erweitet, wenn man nämlich in einer Ergebnisübersicht die Maus auf eine Kartenbezeichnung hält so wird dieses Ergebnis als 100% dargestellt und alle anderen Ergebnisse im Verhältnis. :up:

Mr. Lolman
2006-12-22, 13:36:50
oder UT2007, welches ja schon auf Geforce 7 Karten sehr gut laufen sollte.

Wird es sicher nicht. Neuere Spiele sind auf ner X1900XTX jetzt schon fast doppelt so schnell wie auf 7900GTX Karten. Wenn UT2007 dann gut auf GF7 Karten laufen soll, wird sich Epic wohl den Vorwurf gefallen lassen müssen, aktuelle HW nicht vernünftig auszunutzen....

Gast
2006-12-22, 13:47:29
Lolman, es sind auch durchaus hardwarefordende Spiele denkbar, die auf GF7 schneller laufen als auf R580-Karten.

AnarchX
2007-01-02, 23:57:44
HardTecs4u: NVIDIA GeForce 8800 Roundup
Die NVIDIA GeForce 8800-Grafikkarten sind nun seit einigen Wochen auf dem Markt und die Leistung der Karten war durchaus überzeugend. In unserem ersten Artikel hatten wir uns dem Spitzenmodell 8800 GTX angenommen und - leider üblich für Grafikkarten-Vorstellungen - in kürzester Zeit darlegen müssen, wie leistungsfähig das neue NVIDIA Top-Modell ist. Rechts und links von Benchmarks, da blieb kaum Zeit, doch versprachen wir, dass wir hier noch einmal nachtesten werden.

Das haben wir getan und wir haben uns gleichzeitig, um das Bild abzurunden, weitere GeForce 8800 GTX-Modelle betrachtet - ebenfalls aber auch den "kleinen Bruder" mit Namen 8800 GTS. Dazu haben wir uns auch mit den Themen Bildqualität, Antialiasing, Anisotropic Filtering, Leistungsaufnahme und Übertaktung beschäftigt, um nun endlich ein rundes Bild zu den neuen "Überfliegern" liefern zu können.

Was letzten Endes bei unseren Tests herauskam, soll der aktuelle Artikel verraten.
http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/

BAGZZlash
2007-01-03, 00:48:22
Lolman, es sind auch durchaus hardwarefordende Spiele denkbar, die auf GF7 schneller laufen als auf R580-Karten.

[ ] "Denkbar"

oder

[ ] "Es gibt sie, sie heißen z.B. _______________"

LovesuckZ
2007-01-03, 01:41:29
http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/

Gefällt mir nicht. Die Ergebnisse werden durch TSAA leicht verfälscht.
Okay, ich als 8800GTX User kann ja nichts dafür, dass meine Karte 32 "Monster" TMUs hat, aber trotzdem wären Vergleiche auch ohne TSAA interessant.

Fallacy
2007-01-03, 10:27:03
Das ist natürlich Ansichtssache ob die Ergebnisse durch die Aktivierung oder eben durch die Deaktivierung von TSAA verfälscht werden. Für meine Einstellungen die ich persönlich wählen würde mit solchen Karten, würden eher Ergebnisse ohne TSAA das Bild verfälschen. Ausnahme Oblivion, da wäre es durchaus überlegenswert auf TSAA zu verzichten - da das selbst auf den G80 Karten nur schlecht spielbar ist unter diesen Einstellungen.

Davon ganz abgesehen, findet beispielsweise TSAA unter OpenGl keine Anwendung, weil es schlichtweg nicht funktioniert. Das betrifft von unseren Benchmarks Quake4 und Riddick. Call of Duty 2 und F.E.A.R. leiden kaum unter TSAA. Also begrenzt sich die von dir angesprochene Thematik schon wieder auf Serious Sam 2, FarCry und Oblivion.

Grüße,
Leander - HT4U

The_Invisible
2007-01-03, 10:29:06
HardTecs4u: NVIDIA GeForce 8800 Roundup

http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/

wenigstens kann man hier mal G80 HQ mit R580 AI off vergleichen

interessant finde ich auch das hier im forum oft die aussage fällt das ATI mit AI off nur wenig performance verliert, dabei sinkt sie oft wie ein stein im wasser

mfg

Gast
2007-01-03, 12:53:24
wenigstens kann man hier mal G80 HQ mit R580 AI off vergleichen


mfg

Für mich hinkt der vergleich gewaltig.

The_Invisible
2007-01-03, 12:57:51
Für mich hinkt der vergleich gewaltig.

ja stimmt, G80 hat bessere quali, aber gewaltig ist das trotzdem nicht, höchstens der performance unterschied

mfg

Gast
2007-01-03, 13:02:16
ja stimmt, G80 hat bessere quali, aber gewaltig ist das trotzdem nicht, höchstens der performance unterschied

mfg
Jo der G80 hat genau so wie der R580 gegenüber denn G71 die bessere Bildqualität.

Gast
2007-01-03, 13:11:53
wenigstens kann man hier mal G80 HQ mit R580 AI off vergleichen


Das ist auch der einzige zulässige Vergleich.


interessant finde ich auch das hier im forum oft die aussage fällt das ATI mit AI off nur wenig performance verliert, dabei sinkt sie oft wie ein stein im wasser

mfg

Je nachdem wie hoch die Texturlast ist (gegenüber arithmetischer Last) bringt ATIs brilinear eben ganz schön Leistung.
Bei mehr arithmetischen als Texturoperationen ist der Unterschied nicht so stark.

The_Invisible
2007-01-03, 14:55:14
Jo der G80 hat genau so wie der R580 gegenüber denn G71 die bessere Bildqualität.

ja, hätte man bei AI on das HQAF weggelassen wärs ein optimaler test zum vergleichen

mfg

Gast
2007-01-03, 15:08:40
ja, hätte man bei AI on das HQAF weggelassen wärs ein optimaler test zum vergleichen

mfg

Nein, nur A.I. off (= brilinear off) ohne HQAF bringt dieselbe BQ wie eine G7x.

Angiesan
2007-01-03, 15:14:53
Wirklich mal ein interessanter Vergleich,

G80 gegen R580 ist zwar nicht der der richtige Vergleich,aber mangels R600 wohl genehm. Aber ein Test mit Ai on und Ai off finde ich mal sehr gut.
Hatte vor meinem G80 auch eine x1900XTX und die IQ ist nicht zu vergleichen.

Ai an sieht man gerade sehr stark in den neuen Spielen, wo die ATi im Vergleich zu G70/71 sehr stark ist(z.B. Gothik 3). Und ich habe es schon mehrmals erwähnt, dort bekommt die Aussage es flimmert eine neue Definition, wohlgemerkt auf ATi.
Möchte aber auch nicht verschweigen, dass es Beispiele gibt wo man absolut nichts bemerkt zB Fear.

Ich hoffe, dass die Tester der "Neuen ATI Generation" R600 soweit Ai dort noch vorhanden und auch aktiv ist dies in der IQ endlich mal berücksichtigen.
Es währe wünschenswert genau wie man es bei NV auch gemacht hat mal nicht nur auf die Balkenlänge zu schauen sondern auch auf die IQ.
Bei NV hat der Druck der High End User und dieses und anderen Foren ja auch was gebracht.

Sorry für teilweise OT


Grüße

Gast
2007-01-03, 15:34:34
HardTecs4u: NVIDIA GeForce 8800 Roundup

http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/

http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/index13.php

Wurde da wirklich mit "MipMap Detaillevel: Quality" bei der Radeon gebencht oder ist das ein Tippfehler? Das entspräche ja LOD-Bias +0.5.

Gast
2007-01-03, 16:19:45
ja, hätte man bei AI on das HQAF weggelassen wärs ein optimaler test zum vergleichen

mfg

Ja, aber auch nur zwischen G71 und R580+. Das war aber nicht das Augenmerk dieses Arikels - steht aber alles auch im Text (http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/index13.php):

"Die X1950 XTX wurde auch diesmal mit den beiden Einstellung A.I Standard und A.I Off getestet. In beiden Fällen wurde allerdings zur besseren Vergleichbarkeit zur neuen GeForce-8800-Reihe das HQ-AF aktiviert. Die GeForce 7900 GTX wird hierdurch etwas bevorteilt, da hier ein sehr winkelabhängiger Filter sein Werk verrichtet. Da der Vergleich zwischen Radeon X1950 XTX und GeForce 7900 GTX allerdings nicht zentraler Punkt dieses Artikels ist, entschieden wir uns für eine Aktivierung dieses Features."

G80 gegen R580 ist zwar nicht der der richtige Vergleich,aber mangels R600 wohl genehm.
Das war auch unser Gedankengang.

Wurde da wirklich mit "MipMap Detaillevel: Quality" bei der Radeon gebencht oder ist das ein Tippfehler? Das entspräche ja LOD-Bias +0.5. Ouch. Da ist ein Fehler in der Tabelle, es müsste natürlich High-Quality dort stehen. Der Slider steht ja auch standardmäßig bereits ganz rechts auf der High-Quality-Position.

Die Tabelle hatte ich anhand eines Screenshots des CP erstellt, der Slider ist darauf noch zu erkennen, allerdings nicht die Bezeichnungen darunter - dachte der Modus ganz rechts hieße "Quality" - dem ist aber nicht so. Danke für den Hinweis, hab es an den Webmaster weitergeleitet.

Wäre aber schön, wenn solche Fehler aufallen, diese direkt in unserem Forum anzumerken oder dem jeweiligen Autor per E-Mail zu informieren. Letztendlich ist es dann auch wirklich sicher, dass wir es auch mitbekommen :).

Grüße,
Leander - HT4U

Fallacy
2007-01-03, 16:21:26
Obiger Post ist meiner Einer.

Grüße,
Leander - HT4U

Gast
2007-01-05, 11:41:52
Wann will nvidia die 10.xx version des Forceware bringen ?

Radeonator
2007-01-24, 03:22:45
Wann kommt eigentlich die ECS 8800er auf den Markt?
Würde mich schon interessieren was der breitere Bus bringt !

http://www.ecs.com.tw/ECSWebSite/Products/ProductsDetail.aspx?CategoryID=5&TypeID=34&DetailID=706&DetailName=Feature&MenuID=54&LanID=0

AnarchX
2007-01-24, 08:45:32
Wann kommt eigentlich die ECS 8800er auf den Markt?
Würde mich schon interessieren was der breitere Bus bringt !

http://www.ecs.com.tw/ECSWebSite/Products/ProductsDetail.aspx?CategoryID=5&TypeID=34&DetailID=706&DetailName=Feature&MenuID=54&LanID=0

Was für ein breiterer Bus?:|
Die ECS ist eine ganz normale 8800GTX.

Slipknot79
2007-01-24, 16:33:36
Was für ein breiterer Bus?:|



Er meint das vllt in Bezug auf die GTS.

dargo
2007-01-24, 20:37:06
Er meint das vllt in Bezug auf die GTS.
Und wie kommst du darauf, dass diese ein breiteres SI haben könnte?

Slipknot79
2007-01-24, 20:40:24
Und wie kommst du darauf, dass diese ein breiteres SI haben könnte?


Die GTS hat doch nen kleineren Bus.

Gast
2007-01-25, 12:54:15
Die GTS hat doch nen kleineren Bus.Ja, aber da wird sich die ECS 8800GTS nicht vom Rest unterscheiden. Und normale GTXen gibt es doch eh schon von zig verschiedenen Herstellern. Was also soll an der ECS so besonders sein?

Slipknot79
2007-01-25, 14:01:58
Ja, aber da wird sich die ECS 8800GTS nicht vom Rest unterscheiden. Und normale GTXen gibt es doch eh schon von zig verschiedenen Herstellern. Was also soll an der ECS so besonders sein?


Was an der ECS besonders sein soll ist ja nicht meine Fragestellung gewesen sondern: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5188208&postcount=138

Superheld
2007-02-10, 12:41:21
Geforce 8800 GTS mit GTX-Takt
http://hardware.thgweb.de/2007/02/07/foxconn_geforce_8800_gts_mit_gtx_taktraten/index.html

schöner Test wie ich finde, die GTS stinkt ganz schön ab gegenüber der GTX:|

puntarenas
2007-02-10, 12:54:46
Was genau soll denn das hier heißen?
ATI verliert Frames: Bei Warhammer Mark of Chaos wird in der 1024er Auflösung ohne Kantenglättung (AA) und perspektivischer Musterkorrektur (AF) das Vsync-Signal von Treiber oder Spiel aktiviert.
Quelle: Seite 5 (http://hardware.thgweb.de/2007/02/07/foxconn_geforce_8800_gts_mit_gtx_taktraten/page5.html)

dargo
2007-02-10, 13:02:02
schöner Test wie ich finde, die GTS stinkt ganz schön ab gegenüber der GTX:|
Welch ein Wunder. :rolleyes:

Gast
2007-02-17, 19:03:54
Hat von euch jemand zufällig einen Link wo die 640MB GTS mit 10 % höheren Taktraten (wie bei Gainward) gegen eine GTX antritt?

Denn das ist momentan die zweitgünstigste GTS640, habe dazu nichts gefunden.

dargo
2007-02-17, 19:10:29
Ist es so schwer die fps um ca. 10% zu erhöhen?

Gast
2007-02-17, 19:25:20
Ist es so schwer die fps um ca. 10% zu erhöhen?

Ja, Theorie ist nämlich ungleich Praxis.

10 % mehr Takt heißen nicht automatisch exakt 10 % mehr Leistung. Das eine Game profitiert mehr von GPU Power, das andere mehr vom Speicher... und da selbst das noch nicht alles ist, gibt es sogar Games, die gar nichts damit anfangen können. ;D

dargo
2007-02-17, 19:28:00
Ja, Theorie ist nämlich ungleich Praxis.

10 % mehr Takt heißen nicht automatisch exakt 10 % mehr Leistung.

Deswegen sagte ich ca. ;)
Mach daraus von mir aus 8%.


Das eine Game profitiert mehr von GPU Power, das andere mehr vom Speicher...
Es dürfte wohl klar sein, dass diese ~10% nur beim Graka-Limit auftreten.

Gast
2007-02-17, 19:30:38
Wenn du die Gainward GS meinst, die hat aber doch 550/880MHz?
http://geizhals.at/deutschland/a237979.html

Die lohnt sich auf jeden Fall!
10% mehr GPU- und RAM-Takt für gerade mal 3% Aufpreis, wer hier die normale Gainward GTS kauft, sollte man als unzurechnungsfähig einstufen. ;)

Gast
2007-02-17, 19:45:39
Zumindest einen halben Test ohne GTX:
http://www.tweaktown.com/reviews/1044/1/page_1_introduction/index.html

Letztes Google Ergebniss und davor hunderttausend Preisvergleiche. :rolleyes:

Da sieht man mal, was Benchmarks (nicht) "taugen":
http://images.tweaktown.com/imagebank/gain88gs_g_11.gif

http://images.tweaktown.com/imagebank/gain88gs_g_12.gif

Würden die doch endlich mal weniger mit 3D Schrott testen...

Für nur 8 € Aufpreis wohl eine sehr lohnenswerte Karte...

dargo
2007-02-17, 21:46:54
Zumindest einen halben Test ohne GTX:
http://www.tweaktown.com/reviews/1044/1/page_1_introduction/index.html

Letztes Google Ergebniss und davor hunderttausend Preisvergleiche. :rolleyes:

Da sieht man mal, was Benchmarks (nicht) "taugen":
http://images.tweaktown.com/imagebank/gain88gs_g_11.gif

http://images.tweaktown.com/imagebank/gain88gs_g_12.gif

Würden die doch endlich mal weniger mit 3D Schrott testen...

Für nur 8 € Aufpreis wohl eine sehr lohnenswerte Karte...
Was ich an den Benchmarks interessant finde - hat der ForceWare 97.92 gegenüber dem ForceWare 96.97 (http://www.tweaktown.com/articles/977/11/page_11_benchmarks_high_quality_aa_and_af/index.html) so stark zugelegt? :O
Das sind ja mal eben 33% Zuwachs. :eek:

Gast
2007-02-17, 21:55:29
Wenn dann noch das MUL für generelle Shaderberechnungen eingesetzt werden kann, wird es wohl noch mehr.
Momentan stehen ja da einer 8800GTS nur 230GFLOPs zur Verfügung.

Wobei so mancher bestimmt diese Leistung aber schon gerne direkt zum Launch gehabt hätte...

dargo
2007-02-17, 22:10:02
Hmm, bei näherer Betrachtung hat man anscheinend nur bei Prey (bzw. der Doom3 Engine) die "Handbremse" beim G80 gelöst. Die anderen Benchmarks sehen nahezu identisch aus. Kennst du zufällig andere Reviews mit dem Forceware 97.92?

Gast
2007-02-17, 22:14:52
CB scheint mit ihm zu testen:
Treiberversionen
* nVidia ForceWare 93.81 (G7x)
* nVidia ForceWare 97.92 (G8x)
* ATi Catalyst 7.1

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/4/#abschnitt_testsystem

dargo
2007-02-17, 22:19:56
Ach verdammt. Ich werde aus den Benchmarks einfach nicht schlau. Bei CB ist die GTS kaum schneller als eine XTX in Prey. :ucrazy3:

Edit:
Testet CB alle Games mit TSAA? Das würde Einiges erklären.

Blaire
2007-02-18, 01:02:24
Vermutlich weil bei NV trilinear gefiltert wird bzw. alle Optimierungen disabled. :wink:

reunion
2007-02-18, 09:31:48
Nope, bei nV wurde mit Quality plus Trilineare Optimierung getestet.

dargo
2007-02-18, 10:33:22
Nope, bei nV wurde mit Quality plus Trilineare Optimierung getestet.
Eben, außerdem macht es performacemäßig afaik kaum Unterschied beim G80 ob man mit Q oder HQ bencht.

Die gelbe Eule
2007-02-18, 11:03:13
Also darf man dann den Radeons A.I. low zugestehen, damit sie durch die brilineare Filterung Performance hinzugewinnen dürfen? Wie sinnfrei ist das denn ...

dargo
2007-02-18, 11:10:36
Also darf man dann den Radeons A.I. low zugestehen, damit sie durch die brilineare Filterung Performance hinzugewinnen dürfen? Wie sinnfrei ist das denn ...
Hör bitte endlich auf zu nerven. Wenn ich einen G80 kaufen möchte suche ich Vergleiche zwischen A.I standard und Q oder HQ beim G80. Ob dir das passt oder nicht juckt mich nicht die Bohne (stell dir mal vor, ich bin mit A.I standard zufrieden und wenn ich bei der nächsten Graka eine bessere BQ bekomme nehme ich diese gerne mit).

Zum Thema:
Hat noch jemand Links zu Tests mit dem ForceWare 97.92? Wichtig wäre halt ohne TSAA. Das nutze ich eh nicht.

Mr. Lolman
2007-02-18, 11:48:29
Also darf man dann den Radeons A.I. low zugestehen, damit sie durch die brilineare Filterung Performance hinzugewinnen dürfen? Wie sinnfrei ist das denn ...

NV HQ != Lehrbuch AF, Siehs endlich ein. Jeder optimiert wie er gerade lustig ist. Und dass jetzt erst der Kreuzzug gegen AIlow gemacht wird, ist eigentlich mehr als peinlich, wenn man bedenkt wie lang schon NV seine Kunden mit mieser Filterqualität verarscht hat.

Gast
2007-02-18, 11:54:36
Und dass jetzt erst der Kreuzzug gegen AIlow gemacht wird, ist eigentlich mehr als peinlich, wenn man bedenkt wie lang schon NV seine Kunden mit mieser Filterqualität verarscht hat.Wie du sicher weißt, prangere ich die miese Qualität von AI-low schon seit sehr langer Zeit an. Es ist einfach eine Zumutung bei einer teuren High-End-Karte. Noch viel schlimmer ist natürlich NV-Quality mit der Sample-Optimierung auf G70, aber das macht AI-low nicht besser. Es ist beides Dreck, den man ausschalten sollte.
NV HQ != Lehrbuch AFAuf G80 aber nah dran. Mir fällt da wirklich nichts störendes mehr auf. Allerdings spiele ich auch kein GTL. Wobei ich die Schuld in diesem Fall dem Spieleentwickler zuschreiben würde.

Mr. Lolman
2007-02-18, 12:08:52
Wie du sicher weißt, prangere ich die miese Qualität von AI-low schon seit sehr langer Zeit an. Es ist einfach eine Zumutung bei einer teuren High-End-Karte. Noch viel schlimmer ist natürlich NV-Quality mit der Sample-Optimierung auf G70, aber das macht AI-low nicht besser. Es ist beides Dreck, den man ausschalten sollte.

Ist auch dein gutes Recht das anzuprangern. Aber irgendwie fehlt mir die Verhältnismäßigkeit. Beim NV40 haben alle gekuscht (NV User, wollten dem interessierten Forenbesucher sogar einreden, dass NV Q schon besser ist als R4x0 AF, bis ich mir das Ding gekauft hab. Und es war übel - um nicht zu sagen - eine Frechheit.

Bilinear war auf NV fucking hässlich (bei ATi hingegen tw. nichtmal als bilinear erkennbar) und in OpenGL spielen gabs Treiberdefault den Zwang zu bilinear, zusammen mit ner Sampleoptimierung, sah der ganze Schmarrn in Q3a nicht nur hässlicher (in Form von Mipbanding) aus, als 3dfx 4xSGSSAA, bilinear und LOD-2 sondern hat auch noch mehr geflimmert (!!).

Dann das Controlpanel, was bei falscher Bedienung zufälligerweise miese Optmierungen dazugeschalten hat, und diverse Idiotenreviewer die das nicht nur nicht erkannt haben, sondern einem Bild mit bilinearem Filter auch ne höhere BQ zugestanden haben, als einem Bild mit trilinearem Filter.

Dann kam der G70 raus, alle hofften, dass es besser würde und die BQ war anfangs sogar so mies, dass sogar Foren wie Giga oder Gamestar voll mit Beschwerden waren. NV hat das dann langsam hingebogen (bis min. unter NV40 BQ) und G70 HQ war letztendendes am ehesten mit AIlow vergleichbar. Nun gibts den G80, der endlich den ganzen Flimmerscheiss nicht mehr mitbringt, und plötzlich soll AIlow nicht mehr ok sein (also praktisch auch die gesamte Hardware von NV bis auf G80?)


Auf G80 aber nah dran. Mir fällt da wirklich nichts störendes mehr auf. Allerdings spiele ich auch kein GTL. Wobei ich die Schuld in diesem Fall dem Spieleentwickler zuschreiben würde.

Auf HQ soll auch nix mehr störendes auffallen. Das LOD Poblem hast du nicht nur in GTL, sondern auch in GTR, LFS, F1-2001 und praktisch jedem Rennspiel was halbwegs realitische Grafik hat und irgendwo Seitenbegrenzungslinien darstellt. Um diese in der Entfernung scharf zu halten ist 16xAF zu wenig. Deswegen wird mit negativem LOD nachgeholfen.

BTW: Ich mach mit mit der Aussage jetzt wenig Freunde, aber gerade transparente Texturen (Bäume) können mit nem negativem LOD besser aussehen, was aber hauptsächlich daran liegt, dass die Mipmaps oft wichtige Transparenzdetails verschlucken.

The_Invisible
2007-02-18, 14:05:17
Hör bitte endlich auf zu nerven. Wenn ich einen G80 kaufen möchte suche ich Vergleiche zwischen A.I standard und Q oder HQ beim G80. Ob dir das passt oder nicht juckt mich nicht die Bohne (stell dir mal vor, ich bin mit A.I standard zufrieden und wenn ich bei der nächsten Graka eine bessere BQ bekomme nehme ich diese gerne mit).

Zum Thema:
Hat noch jemand Links zu Tests mit dem ForceWare 97.92? Wichtig wäre halt ohne TSAA. Das nutze ich eh nicht.

dann schalt einfach AI aus und du hast jetzt schon ne bessere bq

oder es war nur ne blöde "ausrede"

mfg

dargo
2007-02-18, 15:21:56
dann schalt einfach AI aus und du hast jetzt schon ne bessere bq

Wozu, wenn ich mit der BQ zufrieden bin?

Raff
2007-02-18, 16:27:33
Dann kam der G70 raus, alle hofften, dass es besser würde und die BQ war anfangs sogar so mies, dass sogar Foren wie Giga oder Gamestar voll mit Beschwerden waren. NV hat das dann langsam hingebogen (bis min. unter NV40 BQ) und G70 HQ war letztendendes am ehesten mit AIlow vergleichbar. Nun gibts den G80, der endlich den ganzen Flimmerscheiss nicht mehr mitbringt, und plötzlich soll AIlow nicht mehr ok sein (also praktisch auch die gesamte Hardware von NV bis auf G80?)

A.I. Low war IMO nie ok. Zumindest nie in den betroffenen Spielen (das sind einige) seit ich meine X1800 (April 2006) habe. Das macht G7x-HQ nicht besser, aber zu behaupten, dass A.I. Low jetzt erst niedergemacht wird, stimmt so nicht. Ich fand leider nie die Zeit, den Artikel dazu zuende zu schreiben. Na mal sehen ...

MfG,
Raff

Mr. Lolman
2007-02-18, 17:28:36
A.I. Low war IMO nie ok. Zumindest nie in den betroffenen Spielen (das sind einige) seit ich meine X1800 (April 2006) habe. Das macht G7x-HQ nicht besser, aber zu behaupten, dass A.I. Low jetzt erst niedergemacht wird, stimmt so nicht. Ich fand leider nie die Zeit, den Artikel dazu zuende zu schreiben. Na mal sehen ...

MfG,
Raff

Es geht ja darum von welcher Seite die Kritik kommt und nicht ob sie gerechtfertigt ist, oder nicht...

The_Invisible
2007-02-18, 17:36:52
Es geht ja darum von welcher Seite die Kritik kommt und nicht ob sie gerechtfertigt ist, oder nicht...

gerade von dir wurde AI eben oft in den himmel gelobt. und wenn es ATI mit dem R600 release noch immer nicht hinbekommen hat die "spreu vom weizen" zu trennen tun sie mir nicht leid wenn mit AI off gebencht wird.

mfg

dargo
2007-02-18, 17:42:39
gerade von dir wurde AI eben oft in den himmel gelobt. und wenn es ATI mit dem R600 release noch immer nicht hinbekommen hat die "spreu vom weizen" zu trennen tun sie mir nicht leid wenn mit AI off gebencht wird.

Wir wissen noch nicht mal ob es überhaupt ein A.I beim R600 geben wird, bzw. ob es nötig ist.

Mr. Lolman
2007-02-18, 17:46:41
gerade von dir wurde AI eben oft in den himmel gelobt. und wenn es ATI mit dem R600 release noch immer nicht hinbekommen hat die "spreu vom weizen" zu trennen tun sie mir nicht leid wenn mit AI off gebencht wird.

mfg

Ich hab nie in den Himmel gelobt, sondern bloß festgestellt, dass es ca. mit G70 HQ vergleichbar ist. Dass ATi besser filtern kann ist klar, dass NV das auch noch besser als HQ kann auch. Selbst das WA-AF beim NV40 war nicht designbedingt.

Die (komplizierte) Frage ist lediglich wo die Grenze gezogen werden soll. Die G70/R5x0 Generation wird korrekterweise mit HQ/AIlow gebencht. Wenn beim G80 auch mit HQ gebencht wird, muss zumindest noch AreaAF mitrein. Denn es ist im Grunde egal mit welcher Optimierung Samples gespart werden. Gespart werden sie, und das bei jedem aktuell verfügbaren Modus (auch bei AIoff!)

So hat G80 HQ vll kein Brilinearitätsproblem, dafür lässt er hinsichtlich LOD auch nicht soviel durchgehen wie AIlow (und AreaAF). 100% vergleichbar ist es nicht, aber imo das faireste was momentan möglich ist.

Raff
2007-02-18, 17:57:58
So hat G80 HQ vll kein Brilinearitätsproblem, dafür lässt er hinsichtlich LOD auch nicht soviel durchgehen wie AIlow (und AreaAF). 100% vergleichbar ist es nicht, aber imo das faireste was momentan möglich ist.

100% vergleichbar wird es wohl nie wieder sein. Aber mittlerweile ist es schon deutlich einfacher als noch zu Zeiten 3dfx', wo eine Voodoo5 fast immer schöner war als eine GF2. Oder 2003, als das superbe NV30-AF gegen das des R300 gebencht wurde bzw. letzterer ab 4x AA schöner glättete. Mittlerweile ist 16x AF und 4x AA wenigstens halbwegs vergleichbar.

Oh, fast vergessen: Wo filtert denn ein G80 schlechter als ein R5x0? Was ich bisher sah, ist durchgehend auf A.I.-Off-Niveacreme. Ergänzung: HQ selbstverständlich.

MfG,
Raff

Mr. Lolman
2007-02-18, 18:49:11
100% vergleichbar wird es wohl nie wieder sein. Aber mittlerweile ist es schon deutlich einfacher als noch zu Zeiten 3dfx', wo eine Voodoo5 fast immer schöner war als eine GF2. Oder 2003, als das superbe NV30-AF gegen das des R300 gebencht wurde bzw. letzterer ab 4x AA schöner glättete. Mittlerweile ist 16x AF und 4x AA wenigstens halbwegs vergleichbar.

Oh, fast vergessen: Wo filtert denn ein G80 schlechter als ein R5x0? Was ich bisher sah, ist durchgehend auf A.I.-Off-Niveacreme. Ergänzung: HQ selbstverständlich.

MfG,
Raff

Lt. Aussagen im Forum in manchen Rennspielen wie zB GTL und GTR....

up¦²
2007-02-19, 21:19:28
Nebenbei: schon erstaunlich das Preisspektrum
269 - 739€
http://geizhals.at/eu/?fs=8800&in=&x=13&y=10

Banshee18
2007-02-23, 13:05:58
Ich habe eine kurze Zwischenfrage. Die 8800GTX ist, wie ich herausgefunden habe, 26,7 cm lang. Ist das die Länge des PCBs oder wird da das Slotblech, das ja nach hinten noch einen "Auswuchs" hat, mitberechnet?
Anders gefragt: Weiß jemand sicher, ob die Karte in das Thermaltake Soprano passt?

crux2005
2007-02-23, 13:28:32
Ich habe eine kurze Zwischenfrage. Die 8800GTX ist, wie ich herausgefunden habe, 26,7 cm lang. Ist das die Länge des PCBs oder wird da das Slotblech, das ja nach hinten noch einen "Auswuchs" hat, mitberechnet?

26.7 cm sollte die länge des PCBs sein
ich kanns ja mal nachmessen ;)

deekey777
2007-04-18, 10:10:27
*push*
The Invincibles: GeForce 8800 GTX Roundup (http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_6.html)

Das Wichtigste: Noise and Power Consumption (http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_6.html)

Ich hoffe, spästestens jetzt sind alle Unklarheiten bezüglich des Stromverbrauchs aus der Welt.:smile:

DrumDub
2007-04-18, 11:19:23
Nebenbei: schon erstaunlich das Preisspektrum
269 - 739€
http://geizhals.at/eu/?fs=8800&in=&x=13&y=10 wieso? sind doch drei verschiedene grafikkarten:

8800 gtx (768MB) 498-600€ (wakü-editions mal ausgenommen)
8800 gts (640 MB) 344-430€
8800 gts 320 (320MB) 248-316€

up¦²
2007-04-20, 02:32:45
wieso? sind doch drei verschiedene grafikkarten:

8800 gtx (768MB) 498-600€ (wakü-editions mal ausgenommen)
8800 gts (640 MB) 344-430€
8800 gts 320 (320MB) 248-316€

naja - kommt sogar noch eine vierte dazu: die Ultra!
war voreilig bei dell zu finden, aber ist inzwischen verschwunden
http://www.nvnews.net/vbulletin/attachment.php?attachmentid=25138&d=1177003564

DrumDub
2007-04-20, 15:24:25
naja - kommt sogar noch eine vierte dazu: die Ultra!
war voreilig bei dell zu finden, aber ist inzwischen verschwunden
http://www.nvnews.net/vbulletin/attachment.php?attachmentid=25138&d=1177003564 schon richtig. allerdings ging es mir darum aufzuzeigen, dass imho das preisspektrum nicht besonders erstaunlich ist, wenn man die unterschiedlichen leistungsklassen betrachtet.

Gabbabytes
2007-04-21, 22:38:38
was ist eigentlich aus dem wundertreiber geworden, der die leistungsaufnahme im idle der großen karten rapide senken sollte??

Gast
2007-04-22, 00:07:35
was ist eigentlich aus dem wundertreiber geworden, der die leistungsaufnahme im idle der großen karten rapide senken sollte??
Das hat doch nur mal der PR Manager Jens Neuschäfer von nV angedeutet, dass evtl. versucht wird, die Leistungsaufnahme zu senken. Würde ich nicht für bare Münze nehmen, der würde dir auch seine eigene Oma verkaufen, wenn er dadurch finanziell einen Nutzen hätte.

crux2005
2007-04-25, 16:41:19
mich würde mal interessieren wie viele "FP32 Samplers" die G80 TMUs haben ? ich konnte es leider nirgends finden :(

Spasstiger
2007-06-02, 18:32:09
An alle PCGH-Abonennten:
Schau euch mal an, was unser lieber PCGH_Carsten (http://www.forum-3dcenter.org/vbulletin/member.php?u=17901) im Video "Fun-Video_-_Fun_with_GPUs 0707.wmv" auf der Heft-DVD mit der GeForce 8800 anstellt. ;D

Raff
2007-06-02, 18:42:19
Ja, Cascades in "Echtzeit" rockt einfach. =)

MfG,
Raff

Coda
2007-06-02, 19:00:00
Was macht er da denn?

Spasstiger
2007-06-02, 19:43:35
Ja, Cascades in "Echtzeit" rockt einfach. =)

MfG,
Raff
So kann mans ausdrücken. :biggrin:

@Coda: Er zeigt, wie die PCGH die Grakas für die Fotos ohne Kühler vorbereitet ... allerdings ganz in "don't try this at home"-Manier.

=Floi=
2007-06-02, 19:51:47
und wird dann mutwillig ne karte kaputt gemacht? :confused:

dildo4u
2007-06-18, 14:51:07
Alternate und einige andere Shops haben die Zotac 8800GTX(ab 442€) endlich auf Lager.


http://www.alternate.de//html/product/details.html?artno=JBXTG1&artno=JBXTG1&

http://geizhals.at/deutschland/Zotac_GeForce_8800_GTX_ZT-88XE760-FSP_a259454.html

Gast
2007-06-18, 16:03:30
noch ein bisschen billiger und ich könnte schwach werden

Gast
2007-06-18, 16:05:42
398,- wäre ein guter Preis ;D

Gast
2007-06-18, 22:33:04
Das hat doch nur mal der PR Manager Jens Neuschäfer von nV angedeutet, dass evtl. versucht wird, die Leistungsaufnahme zu senken. Würde ich nicht für bare Münze nehmen, der würde dir auch seine eigene Oma verkaufen, wenn er dadurch finanziell einen Nutzen hätte.
Geil, ich hab schonmal dem ne Mail geschickt und sogar ne antwort bekommen, geil eh, dem PR manager von NV.

Gast
2007-06-18, 22:33:57
Product PR

Jens Neuschäfer
Product PR Manager, Zentraleuropa
NVIDIA GmbH
Tel: +49 (0) 89 62 83 500-15
Email: jneuschafer@nvidia.com


PR-Kontakt NVIDIA Corporation

Susanna Tatar
PR-COM GmbH
Account Manager
Tel.: +49-89-59997-814
Fax: +49-89-59997-999
Email: susanna.tatar@pr-com.de

dildo4u
2007-08-28, 14:38:41
ForceWare 163.44 behebt VRAM-Bug auf G8x


"Zumindest laufen diverse Spiele, die vorher von dem VRAM-Bug geplagt waren, nun deutlich schneller und sind das erste Mal spielbar. Die GeForce-8-Modelle mit mehr als 320 MB profitieren dagegen nicht von dem neuen ForceWare-Treiber.

Ob der ForceWare 163.44 den VRAM-Bug vollständig oder nur teilweise behebt, ist bis jetzt noch unbekannt, da Nvidia zu dem Treiber gar keine entsprechende Anmerkung gemacht hat. Wir versuchen das so schnell wie möglich mit den kalifornischen GPU-Spezialisten zu klären. Ob jedoch vollständig behoben oder nicht, wir können nur empfehlen, den ForceWare 163.44 auf einer GeForce 8800 GTS 320 oder GeForce 8600 beziehungsweise GeForce 8500 zu installieren. Einige Spiele werden es mit einem massiven Performance-Gewinn danken."

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/

Damit wird die 8800GTS mit 320mb natürlich noch wesentlich interresanter vorallem für Leute die keine Monster Auflösungen fahren.Hoffentlich gibts noch mher Tests mit höheren Auflösungen und mher Games.

N0Thing
2007-08-28, 19:23:53
Auf weitere Tests warte ich auch.

70€ Aufpreis für 2-10 Frames fände ich etwas happing, wenn es mit dem neuen Treiber nun kaum einen Unterschied zwischen der 640MB und der 320MB-Version geben würde.

Wobei dieses Problem in Benchmarks fast nie dokumentiert wird, da dafür wohl nicht lang genug gespielt wird.

Darksteve
2007-08-29, 08:17:22
naja die GTS 320MB ist ja doch schon langsamer.. die Frage ist ob diese 10 Frames ausmachen ob es spielbar ist!? ;)
Nicht umsonst hat die 320er ein gutes P/L Verhältnis!
aber in den "neuen" Games bricht sie immer weiter ein (Bioshock, CMR-Dirt etc.)

N0Thing
2007-08-30, 00:47:18
Computerbase hat die News übrigens überarbeitet. Der Treiber beseitigt nicht den VRAM-Bug, sondern vermindert ihn nur, der nächste offizielle Treiber soll (angeblich) wirklich den Bug beseitigen.

@Darksteve

Hab bisher noch keinen Benchmark mit Colin McRae Dirt und Bioshock gelesen, wo sowohl die 320MB, als auch die 640MB-Version der 8800GTS getestet wurden. ;-)

Die 10 Frames Unterschied zwischen den beiden Versionen haben in den mir bekannten Benchmarks keinen Unterschied in der Spielbarkeit gemacht, allerdings waren die Benchmarks auch keine Savegame-Benchmarks mit der Angabe von min., max. und durschnittlicher Framerate.

Einen 3DCenter-Test über den praktischen Einfluß des Grafikkartenspeichers würde ich mich wirklich freuen und das würde sicherlich auch viele andere Leute interessieren.

Interessant fände ich Tests mit der 8800GTS, X1950XT und X1950pro, auch wenn die letzteren beiden bald nicht mehr erhältlich sein werden. Dennoch kann man anhand dieser Karten den Einfluß des Speichers sehr gut ablesen, da ansonsten nichts an Chip und Taktraten verändert wurde.
Besonderes Augenmerk auf Widescreenauflösungen von eine 19", 22" und 24" Monitor wäre interessant.

knallebumm
2007-08-30, 04:49:33
Firingsquad hat einige umfassende Vergleiche mit Bioshock durchgeführt:
DX9 vs DX10 mit Highendkarten (u.A. 8800gts 320 vs 640, GTX, 2900xt) mit min. FPS und allem drum und dran. (FW 163.44)
http://www.firingsquad.com/hardware/bioshock_directx10_performance/

Dann gibts noch einen ausführlichen mainstream-cards Test, wo auch unterschiedliche Settings getestet werden.
http://www.firingsquad.com/hardware/bioshock_mainstream_gpu_performance/

Mr. Lolman
2007-08-30, 07:33:02
Firingsquad hat einige umfassende Vergleiche mit Bioshock durchgeführt:
DX9 vs DX10 mit Highendkarten (u.A. 8800gts 320 vs 640, GTX, 2900xt) mit min. FPS und allem drum und dran. (FW 163.44)
http://www.firingsquad.com/hardware/bioshock_directx10_performance/

Dann gibts noch einen ausführlichen mainstream-cards Test, wo auch unterschiedliche Settings getestet werden.
http://www.firingsquad.com/hardware/bioshock_mainstream_gpu_performance/

Zumindest die DX9 Benchmarks der HD2900XT sind falsch: http://firingsquad.com/hardware/bioshock_mainstream_gpu_performance/page6.asp


Außerdem fände ichs nicht verkehrt, wenn man DX9 gleich mit XP testen würde. Niemand lässt Vista laufen um dann DX9 zu forcieren... ;)

k0nan
2007-08-30, 10:00:44
spinn ich? spinnen die? der unterschied zwischen der 320 & 640mb variante is ja für'n popo :|

http://www.firingsquad.com/hardware/bioshock_directx10_performance/images/bshock1600.gifhttp://www.firingsquad.com/hardware/bioshock_directx10_performance/images/bshock1920.gif

dildo4u
2007-08-30, 10:02:53
Die Benches sind ohne AA.Und wenn die Texturen in den Speicher der 8800GTS mit 320mb passen gibts natürlich kein fps Verlust.

Undertaker
2007-08-30, 10:07:56
wie erwartet bei einer konsolenumsetzung, es wurde ja nix an den texturen verbessert

chiller
2007-08-30, 10:22:21
wie erwartet bei einer konsolenumsetzung, es wurde ja nix an den texturen verbessert

ja die Texturen sind ziemlich niedrig aufgelöst

dargo
2007-08-30, 11:05:46
spinn ich? spinnen die? der unterschied zwischen der 320 & 640mb variante is ja für'n popo :|

http://www.firingsquad.com/hardware/bioshock_directx10_performance/images/bshock1600.gifhttp://www.firingsquad.com/hardware/bioshock_directx10_performance/images/bshock1920.gif
Was ist denn daran so ungewöhlich wenn alles noch in den Vram passt? Außerdem, wie oft denn noch? Avg.fps sagen nichts über die Spielbarkeit aus.

Armaq
2007-08-30, 11:26:48
bei 100 FPS im Mittel ist auch eine vernünftige Spielbarkeit zu erwarten. 40fps im Mittel sind dagegen schon kritisch.

dargo
2007-08-30, 11:47:57
bei 100 FPS im Mittel ist auch eine vernünftige Spielbarkeit zu erwarten. 40fps im Mittel sind dagegen schon kritisch.
Mit Spielbarkeit und avg.fps meinte ich es eher allgemein und nicht auf die Benchmarks von firingsquad.com bezogen. Dafür sind die Unterschiede bei avg.fps einfach zu klein. Hätte die 640MB GTS aber als Beispiel 50 und die 320MB GTS 35 avg.fps könnte es schon durchaus passiert sein, dass die 320MB GTS während des Benchmarks öfter bei <25fps lag, eben aus Mangel an Vram.

N0Thing
2007-08-30, 14:08:29
Im Test von firingsquad.com werden doch auch min. und max. Frames für 1600x1200x32 angegeben. Da finden sich auch keine relevanten Unterschied zwischen der 8800GTS 320 und der 8800GTS 640.

Gast
2007-08-30, 14:17:08
Im Test von firingsquad.com werden doch auch min. und max. Frames für 1600x1200x32 angegeben. Da finden sich auch keine relevanten Unterschied zwischen der 8800GTS 320 und der 8800GTS 640.

die min und max-angabe sagt noch weniger über die spielbarkeit als die durchschnittsangabe aus.

N0Thing
2007-08-30, 15:52:58
die min und max-angabe sagt noch weniger über die spielbarkeit als die durchschnittsangabe aus.


Und warum ist das so?

Coda
2007-08-30, 15:56:39
Naja schlechte Minimum-Werte können durch kurze Laderuckler oder sowas entstehen, die eigentlich nicht weiter stören.

Die müsste man eigentlich rausschneiden, dann wäre der Min-Wert eigentlich schon ganz nützlich.

AnarchX
2007-08-30, 16:27:57
Am sinnvollsten wäre ein AVG-FPS Angabe und dann noch eine Einteilung z.B.: Wieviel % der Demo unter 15FPS, zwischen 15 und 30FPS und über 30FPS wie es auch FEAR macht. Ansonsten halt die praxisnahen Savegamebenches. ;)

Gast
2007-08-30, 16:40:09
Und warum ist das so?


weil min und max FPS nur über einen einzigen, extrem kurzen zeitpunkt eine aussage treffen.

wenn in einem ganzen, 10h dauernden spiel einmal für 2s die framerate auf 5fps einbricht sind das minimum eben 5fps, obwohl das insgesamt kaum stört.

außerdem können kurze einbrüche auch durch einflüsse von außen entstehen.

gleiches wenn beispielsweise ein grafiktreiber nach dem laden des levels einen kurzen einbruch erzeugt, der den spielfluss aber nicht wirklich stört.

das einzige was wirklich sinn macht wäre aufzuzeichnen wieviel % der berechneten frames unter 10, 20, 30 etc. fps sind. daraus könnte man dann rückschlüsse auf die spielbarkeit ziehen.

Gast
2007-08-30, 16:43:05
Ansonsten halt die praxisnahen Savegamebenches. ;)

auch diese halte ich nicht wirklich sinnvoll, wenn es um die spielbarkeit geht, der betrachtete zeitraum ist einfach viel zu kurz.

wenn ein spiel mal für 5s nicht so toll läuft, ist das zwar nicht gut, spielt aber in den vielen stunden die man sich damit beschäftigt kaum eine rolle.

Henroldus
2007-08-30, 16:47:28
weil min und max FPS nur über einen einzigen, extrem kurzen zeitpunkt eine aussage treffen.

wenn in einem ganzen, 10h dauernden spiel einmal für 2s die framerate auf 5fps einbricht sind das minimum eben 5fps, obwohl das insgesamt kaum stört.

außerdem können kurze einbrüche auch durch einflüsse von außen entstehen.

gleiches wenn beispielsweise ein grafiktreiber nach dem laden des levels einen kurzen einbruch erzeugt, der den spielfluss aber nicht wirklich stört.

das einzige was wirklich sinn macht wäre aufzuzeichnen wieviel % der berechneten frames unter 10, 20, 30 etc. fps sind. daraus könnte man dann rückschlüsse auf die spielbarkeit ziehen.
Die AVG FPS besagen eben, dass das spiel zu 50% unter und 50% über diesem Wert liegen und sind somit eigentlich ganz brauchbar wenn sich die Ausschläge in beide Extreme dabei in Grenzen halten

Coda
2007-08-30, 16:54:33
Die Ausschläge sind aber oftmals ganz enorm.

Und das mit 50% unter und 50% über stimmt auch nicht.

Gast
2007-08-30, 17:10:49
Die AVG FPS besagen eben, dass das spiel zu 50% unter und 50% über diesem Wert liegen und sind somit eigentlich ganz brauchbar wenn sich die Ausschläge in beide Extreme dabei in Grenzen halten

Öhm, das ist natürlich falsch!

Wenn du 60 sekunden lang konstante 60fps hast, kommen 60fps avg dabei heraus.
Wenn du 30 sekunden lang 60fps hast und 30 sekunden lang 40fps hast, kommen 50 avg dabei heraus. Von den 50 % die du da erwähnt hast, keine Spur.

Es reichen schon geringe Abweichungen über einen längeren Zeitraum um das Ergebniss stark zu beeinflussen.

Gast
2007-08-30, 17:42:27
iXBT hat getestet, wie sich die Performance verhält, wenn die einzelnen "Arbeitsblöcke" per RivaTuner deaktiviert werden: http://www.ixbt.com/video3/g80_units.shtml
Die Zahl der ROP-Partitions bleibt dagegen gleich. Lustigerweise schreibt der Autor immer, dass der Performanceabfall auf die reduzierte Anzahl der Shader-Einheiten zurückzuführen ist, bis ihm wieder einfällt, dass auch pro Shader-Block auch die Textureneinheiten (mit-)deaktiviert werden und er die Kurve doch noch hinkriegt.

Und wehe einer beschwert sich über das Alter der Treiber!

Coda
2007-08-30, 18:53:02
Naja bei dem Artikel ist halt auch das Problem, dass auch die CPU limitieren könnte.

Henroldus
2007-08-30, 21:47:22
Öhm, das ist natürlich falsch!

Wenn du 60 sekunden lang konstante 60fps hast, kommen 60fps avg dabei heraus.
Wenn du 30 sekunden lang 60fps hast und 30 sekunden lang 40fps hast, kommen 50 avg dabei heraus. Von den 50 % die du da erwähnt hast, keine Spur.

Es reichen schon geringe Abweichungen über einen längeren Zeitraum um das Ergebniss stark zu beeinflussen.
mein gott, stell dich nicht so an, so schwer ist es doch nicht.
die FPS schwanken halt um den Mittelwert. wenn die Amplitude dabei im rahmen bleibt ist das durchaus ein guter anhaltspunkt.
ich kauf mir doch keine neue Grafikkarte wenn es zwischen durch mal nen kurzen einbruch auf 10 FPS gibt und es sonst bei konstanten 30 frames bleibt.

Gast
2007-08-30, 22:39:13
mein gott, stell dich nicht so an, so schwer ist es doch nicht.
die FPS schwanken halt um den Mittelwert. wenn die Amplitude dabei im rahmen bleibt ist das durchaus ein guter anhaltspunkt.
ich kauf mir doch keine neue Grafikkarte wenn es zwischen durch mal nen kurzen einbruch auf 10 FPS gibt und es sonst bei konstanten 30 frames bleibt.

Wenn du 50avg herausbekommen, kann es durchaus sein, das die Anzahl der frames stets bei 50 gelegen haben. Also keinerlei Schwankungen.

Es könnte aber auch sein, das der Wert einmal auf 10fps gefallen ist und dafür auf anderer Seite fünfmal so hoch lag und trotzdem kriegste diese 50avg heraus.

Mit avg-Werten kann niemand etwas anfangen der ernsthaft die Performance messen will.

Auch min und max-Werte sind nur Indizien, so lange man nicht weiß, WIE LANGE diese angelegen haben. Wenn es nur ein paar ms waren, könnte es ein Laderuckler gewesen sein oder dergleichen (das merkt man fast gar nicht in solch kurzen Intervallen).

Am besten wäre ein framediagramm, so wie es bei einigen Games schon aufgezeichnet wird... also eine kurve für jede abgelaufene sekunde, so kann man dann auch prima erkennen wo die Stärken einer Grafikkarte liegen und wo nicht.

k0nan
2007-08-31, 09:56:30
ist eigtl eine -zumindest eine leichte- preissenkung der GTX absehbar? wenn das so weiter geht, müssen wir ja alle auf den refresh warten, das die teile mal unter 400€ fallen, oder wie seht ihr das?

Henroldus
2007-08-31, 10:13:06
ist eigtl eine -zumindest eine leichte- preissenkung der GTX absehbar? wenn das so weiter geht, müssen wir ja alle auf den refresh warten, das die teile mal unter 400€ fallen, oder wie seht ihr das?
nvidia hat mangels konkurrenz keinen grund hier die preise zu senken.
wie lange ist es eigentlich her, dass wir eine grafikkartengeneration ein jahr lang ohne merklichen preisverfall auf dem Markt hatten?
die 8800GTS will ja auch partout nicht unter die 300eur marke rutschen.
wir müssen wohl die nächste generation zum jahresende abwarten.

k0nan
2007-08-31, 10:25:41
ja, das befürchte ich auch und das frustriert mich langsam schon a bissl ;) ich würd meine 1950pro gern durch eine GTX ersetzen, aber nicht für für 440€ - das is doch unverschämt!

AnarchX
2011-11-16, 18:35:35
5 Jahre und eine Menge Features in dieser Zeit für G80:

CUDA-Videoencoding
GPU-PhysX
OpenCL
SGSSAA für D3D9-Apps
Treiber-AO

Und eine AF-Implementierung, die AMD wohl im Bezug auf Bildruhe erst 2012 erreichen wird.
Malus im Nachhinein ist wohl der fehlende VP2 und das offenbar nicht richtig funktionierende Auslagern von Daten über den PCIe, was man erst mit GF100 lösen konnte.

G80 im Vergleich gegen alte und neue Konkurrenten in aktueller Software. (http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/3/#abschnitt_leistung_mit_aaaf)

Für eine vergleichbare Leistung zahlt man wohl heute 80-90€ - GTS 450.

Raff
2011-11-16, 18:39:45
Ergänzung: Grafikkarten-Übersicht: 80 Chips im Benchmark-Vergleich - Legenden von AMD/Ati und Nvidia im Direktvergleich (http://www.pcgameshardware.de/aid,850731/Grafikkarten-Uebersicht-80-Chips-im-Benchmark-Vergleich-Legenden-von-AMD/Ati-und-Nvidia-im-Direktvergleich-Test-des-Tages/Grafikkarte/Test/)

Yep, die 8800 GTX kann es noch mit der GTS 450 oder Radeon HD 4850 aufnehmen, die 8800 Ultra reicht vereinzelt an die HD 4870 heran.

MfG,
Raff

LovesuckZ
2011-11-16, 18:40:10
Jo - neben der Voodoo 1/2 wohl die kompletteste Grafikkarte der Geschichte. Vorallem da der Mehrwert sogar nach Verkaufstart noch gesteigert wurde.

ux-3
2011-11-16, 19:03:02
5 Jahre und eine Menge Features in dieser Zeit für G80:

CUDA-Videoencoding
GPU-PhysX
OpenCL
SGSSAA für D3D9-Apps
Treiber-AO

Und eine AF-Implementierung, die AMD wohl im Bezug auf Bildruhe erst 2012 erreichen wird.
Malus im Nachhinein ist wohl der fehlende VP2 und das offenbar nicht richtig funktionierende Auslagern von Daten über den PCIe, was man erst mit GF100 lösen konnte.

G80 im Vergleich gegen alte und neue Konkurrenten in aktueller Software. (http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/3/#abschnitt_leistung_mit_aaaf)

Für eine vergleichbare Leistung zahlt man wohl heute 80-90€ - GTS 450.


Da fehlt noch die integrierte Zimmerheizung.

Was mich am G80 heute stört, ist die nicht (mehr) funktionierende Skalierungsoption im Treiber.

Spasstiger
2011-11-16, 19:03:21
Die GTS 450 sollte schon eine Ecke schneller sein als die 8800 GTX. Immerhin schlägt die GTS 450 knapp die GTS 250 und die GTS 250 wiederum schlägt durchweg die 8800 GTX. Zumindest hab ich zum Release der GTS 250 kein Review gesehen, in dem die 8800 GTX in irgendeinem Benchmark schneller als die GTS 250 gewesen wäre.

Auf so alte Kamellen als Benchmarks wie im PCGH-Retro-Test (Far Cry, Prey, Fear 1, Counterstrike Source, 3DMark03) beziehe ich mich dabei nicht. Bei moderneren Spielen wird die 8800 GTX auch VRAM-mäßig gereizt und dann schlägt das suboptimale Speichermanagement durch.
Bei Call of Duty Black Ops, dem einzigen halbwegs modernen Benchmark in dem Retro-Test, liegt die GTS 450 um 26% vor der 8800 GTX, was auch meiner Einschätzung der Kraftverhältnisse entspricht.

mAxmUrdErEr
2011-11-16, 19:05:15
Ergänzung: Grafikkarten-Übersicht: 80 Chips im Benchmark-Vergleich - Legenden von AMD/Ati und Nvidia im Direktvergleich (http://www.pcgameshardware.de/aid,850731/Grafikkarten-Uebersicht-80-Chips-im-Benchmark-Vergleich-Legenden-von-AMD/Ati-und-Nvidia-im-Direktvergleich-Test-des-Tages/Grafikkarte/Test/)

Yep, die 8800 GTX kann es noch mit der GTS 450 oder Radeon HD 4850 aufnehmen, die 8800 Ultra reicht vereinzelt an die HD 4870 heran.

MfG,
Raff
Man beachte dieses Bild:
http://www.pcgameshardware.de/aid,850731/Grafikkarten-Uebersicht-80-Chips-im-Benchmark-Vergleich-Legenden-von-AMD/Ati-und-Nvidia-im-Direktvergleich-Test-des-Tages/Grafikkarte/Test/bildergalerie/?iid=1577521&vollbild

Das bestätigt meinen Eindruck, dass es einen vergleichbar mächtigen Generationensprung wie von 7900GTX zu 8800GTX nie wieder gegeben hat. Tatsächlich werkelt das Ding immer noch bei mir drinnen, es werden bald 5 Jahre. :ulol:

AnarchX
2011-11-16, 19:08:44
Die GTS 450 sollte schon eine Ecke schneller sein als die 8800 GTX. Immerhin schlägt die GTS 450 knapp die GTS 250 und die GTS 250 wiederum schlägt durchweg die 8800 GTX. Zumindest hab ich zum Release der GTS 250 kein Review gesehen, in dem die 8800 GTX in irgendeinem Benchmark schneller als die GTS 250 gewesen wäre.

Auf so alte Kamellen als Benchmarks wie im PCGH-Retro-Test (Far Cry, Prey, Fear 1, Counterstrike Source, 3DMark03) beziehe ich mich dabei nicht. Bei moderneren Spielen wird die 8800 GTX auch VRAM-mäßig gereizt und dann schlägt das suboptimale Speichermanagement durch.
Bei Call of Duty Black Ops, dem einzigen halbwegs modernen Benchmark in dem Retro-Test, liegt die GTS 450 um 26% vor der 8800 GTX, was auch meiner Einschätzung der Kraftverhältnisse entspricht.
Die GDDR5-Version ist wohl in der Tat etwas schneller. Da kann man wohl die um einiges günstigere DDR3 GTS 450 ansetzen. Aber die könnte wohl in alten Spielen mit höheren AA-Stufen wieder etwas langsamer sein.

Spasstiger
2011-11-16, 19:09:29
Man beachte dieses Bild:
http://www.pcgameshardware.de/aid,850731/Grafikkarten-Uebersicht-80-Chips-im-Benchmark-Vergleich-Legenden-von-AMD/Ati-und-Nvidia-im-Direktvergleich-Test-des-Tages/Grafikkarte/Test/bildergalerie/?iid=1577521&vollbild
Naja, wenn man von GTX 480 auf GTX 580 als Generationensprung bezeichnet (für mich ist das eher ein Bugfix), hätte man auch von 8800 GTX auf GTS 250 reinnehmen müssen.

Die GDDR5-Version ist wohl in der Tat etwas schneller. Da kann man wohl die um einiges günstigere DDR3 GTS 450 ansetzen. Aber die könnte wohl in alten Spielen mit höheren AA-Stufen wieder etwas langsamer sein.
Und wenns an PhysX oder CUDA geht, stellt sich die 8800 GTX im Vergleich mit der GTS 450 wahrscheinlich in die Ecke und schämt sich. ;)

Man sollte die Vergangenheit nicht so verklären, als dass man von der 8800 GTX zur GTS 450 keinen Fortschritt sieht. Für aktuelle Spiele ist die GTS 450 deutlich vorzuziehen. Und bei alten Spielen hat sie auch keinen Nachteil.

=Floi=
2011-11-16, 20:08:06
GTS 250 hat nen G92 und der ist ne ganz andere baustelle. :facepalm:

das bild mit dem 480er 580er vergleich ist auch :facepalm:

Raff
2011-11-16, 20:43:25
Die GTS 450 sollte schon eine Ecke schneller sein als die 8800 GTX. Immerhin schlägt die GTS 450 knapp die GTS 250 und die GTS 250 wiederum schlägt durchweg die 8800 GTX. Zumindest hab ich zum Release der GTS 250 kein Review gesehen, in dem die 8800 GTX in irgendeinem Benchmark schneller als die GTS 250 gewesen wäre.

Auf so alte Kamellen als Benchmarks wie im PCGH-Retro-Test (Far Cry, Prey, Fear 1, Counterstrike Source, 3DMark03) beziehe ich mich dabei nicht. Bei moderneren Spielen wird die 8800 GTX auch VRAM-mäßig gereizt und dann schlägt das suboptimale Speichermanagement durch.
Bei Call of Duty Black Ops, dem einzigen halbwegs modernen Benchmark in dem Retro-Test, liegt die GTS 450 um 26% vor der 8800 GTX, was auch meiner Einschätzung der Kraftverhältnisse entspricht.

Jetzt müssten wir nur noch klären, was denn die "korrektere" Software ist: zeitgenössische, auf die eine Architektur sogar ausgelegt sein kann, oder etwas, das eine halbe Dekade danach erscheint. ;) Ich bin für den Mittelweg, ohne den Fokus auf das Jahr 2011 zu tackern. Und klammert man ein paar Ausnahmen aus, kann sich eine 8800 GTX eben noch sehr gut gegen eine GTS 450 behaupten. Im Grunde ist das für eine Legende doch schon erbärmlich, oft von einer aktuellen Sub-100-Grafikkarte verhauen zu werden, hm? :naughty: Doch auch Legenden sind irgendwann am Sack.

MfG,
Raff

AnarchX
2011-11-16, 20:55:11
Um eine GeForce 3 Ti 500 (High-End Oktober 2001) hat eine passive 7600GS für ~80€ im Oktober 2006 auch ihre Kreise gezogen. Dagegen sieht die 8800 GTX noch relativ gut aus - wenn auch es das Dilemma mit den immer geringeren Leistungssteigerungen aufzeigt.

Hugo78
2011-11-16, 22:36:34
Ich muss gestehen ich war schon 6 Monate nach dem Kauf meiner 1050DM GF3 "Classic" (200Mhz),
ganz froh eine Geforce 4400 Ti gehabt zuhaben, allein wegen Aquanox 1, aber auch Operation Flashpoint.

Heut zu Tage finde ich High End zwar spannend was das technisch Mögliche angeht, doch kauf ich lieber jedes Jahr die aktuelle Mittelklasse,
verkaufe geleichzeitig meine gebrauchte Mittelklasse aus dem Vorjahr und investiere so max.100€ jedes Jahr in aktuelle Grafik,
anstatt alle 3-4 Jahre einmal in High-End zuinvestieren, die dann im 3. oder 4. Jahr nur noch Low-End Leistung bringt.

Da hab ich mehr von.

G 80
2011-11-17, 04:29:02
Die GTS 450 sollte schon eine Ecke schneller sein als die 8800 GTX. Immerhin schlägt die GTS 450 knapp die GTS 250 und die GTS 250 wiederum schlägt durchweg die 8800 GTX. Zumindest hab ich zum Release der GTS 250 kein Review gesehen, in dem die 8800 GTX in irgendeinem Benchmark schneller als die GTS 250 gewesen wäre.



Frage ist nur war das eine 512 oder 1 GB GTS 250 und auch hoffentlich nicht dieser low Takt Green Schmutz? Ich stimme zwar auch zu das eine 450 knapp schneller sein wird als eine alte 88er, aber das sind potentielle Schwachstellen in der Logikbürcke 88->250->450.
Eine Ultra Werks OC (Maximalausbau FTW! Alten Karten [1+ Generation älter] gebe ich einfach diesen Vorteil) hat damit vielleicht sogar gute Chancen auf den Sieg.


Im Grunde braucht man nur schauen: 9800 pro war wann März 2003? Das war imho auch ein Wahnsinskarte und langte zwar offiziell für Crysis von 07 ( Rtc Wolfenstein sah dann aber besser aus ;D ) aber 88er steht nach 5 Jahren doch noch etwas besser da. Mit 2 davon kann man sogar noch gut spielen; und die prügeln sich _wohl_ (= ca.) mit 460 768 rum.

Stromverbrauch ist heutzutage auch nichtmehr so das Thema. 150 Watt? Ein BD OC haut 400 raus, ne Fermi OC gerne auch 300+ - da sind 150 ggü den 100 der wesentlich moderneren aber nicht _soviel_ schnelleren 5770 nichtmal schlecht. (Jaja Dx 11 und Features aber auch winz Die in 40 nm)

rookz
2011-11-17, 15:10:04
Habe auch noch eine 8800GTX XXX in meinem Lan Rechner mit einem übertaktetem C2D (3.4Ghz). Der ganze Rechner hat mich keine 40€ gekostet und reicht dank eines kleinen Bildschirms (19" Widescreen 1366x..) für alle aktuellen Games aus. Ich bin zwar nur 1-2x im Jahr auf einer Lan, aber dann zeige ich gerne was in einem ca 5 Jahre alten Grafikmonster steckt:D

Neon3D
2011-11-22, 02:30:46
8800 sli ist schon klasse was da noch an leistung bei raus kommt und die karte gibts superbillig gebraucht lol.

G 80
2011-12-02, 17:42:06
Ich hatte heute etwas Zeit und hab mich hingesetzt. 2 Probleme auf einmal: schadhaftes Sata Kabel und scheinbar ist auch eine der 88 GTXen hinüber.

Streifen schon im Bios. :frown: (aber natürlich erst nichts davon gemerkt weil ich ja SLI betreibe und Bildausgabe auf der andren hing ...)

Mal sehn ob ich den verwundeten Krieger noch ins Backofen-Lazarett oder gleich in Rente schicke.


Ausgerechnet jetzt, 1 alleine hat mir schon etwas zuwenig Dampf .... Fermi jetzt noch kaufen ist Müll, und Kepler gibts noch nicht .....

Wuge
2011-12-02, 18:44:35
Sollte doch kein Problem sein noch eine irgendwo her zu bekommen ;)

Spasstiger
2011-12-02, 19:58:31
Probiers mit dem Backofen, das scheint eine sehr erfolgreiche Methode zu sein und eventuell kannst du so die Zeit bis Kepler überbrücken.
Hab selbst mal Jemanden gekannt, der einige defekte 8800er billig angekauft hat und nach der Backofenbehandlung und Reinigung wieder teuer verkaufen konnte.

G 80
2011-12-02, 21:37:43
Ich glaube auch es muss der Backofen ran.

Die Karten haben für mich wer als bloßen Material-/Leistungswert, das ist mit einer gebrauchten nicht zu bekommen.

Mir wäres es liebe gewesen das Board oder igendwas in der Richtung hätte einen weg. Dann wäre der PC im Gegensatz zu jetzt ein praktischer Totalschaden, aber die Grakas haben den emotionalen Wert ......

Raff
2011-12-02, 21:46:30
Und ich dachte, das geht nur bei Voodoo-Grafikkarten. :naughty:

MfG,
Raff

G 80
2011-12-02, 21:56:14
Was das backen? Wiso? :confused:

Raff
2011-12-02, 21:57:32
Nee, ich meine die emotionale Komponente. ;)

MfG,
Raff

G 80
2011-12-02, 22:08:20
Achso. Nunja das hat mit jemanden zu tun der mittlerweile verstorben ist. Mehr möchte ich dazu nicht schreiben.

Der Wert ist daher sowieso nicht zu ersetzen. Eigentlich gebe ich alte PCs/Komponenten gerne weiter, aber die 88er wären in jedemfall bei mir geblieben, vielleicht in einem heimeligen neuen Tower mit einem Ivy DC auf einem SLI Board hinter dem Fernseher .....

mal sehn vielleicht hilft das Backen ja.


Ich hoffe man hats nichts dagegen, dass ich den Thread bissl zweckentfremde, aber soviel neue Review Erkenntnisse gibts ja nicht .....

G 80
2011-12-03, 21:05:35
PC heute an. 2te 88 kommt auch nicht mehr ins Windows - allerdings keine Fehler. :freak:
Mit einer heimgehohlten 88 GTS 640 gebootet, anderen Treiber rauf ..... geht wieder. Beide GTXen kommen ins Windows, die einer allerdings etwas Farbenprächtiger als nötig ..... ok war klar der Streifen im Bios hat nichts mit einem Treiber zu tun.

Ich habe die Karte schließlich für 1 Stunde in den Backofen geschoben. Zuerst 15 langsames Temperaturanheben, dann 45 min 135 ° Umluft.

Später noch gewendet und abkühlen lassen .....


Eingebaut ...... geht. :eek:

RE 5 DX 10 Benchmark läuft durch. SLI skaliert und die Karten laufen zwischen 70-9x% Auslastung mit VSync. Einfach unglaublich.

Voller Freude neues Spiel installiert ... Windows meldet schweren Festplattenfehler. Allerdings nicht _während_ der Installation sondern erst ein paar Minuten nach Abschluss im idle? wtf! :freak:

So viel Pech kann doch ein Mensch alleine nicht haben?! Die Platte tuts momentan noch, aber lt HD Tune bilden ausgerechnet die letzten paar Reihen einen soliden roten und defekten Block.

Natürlich die Rechnung von allem nur dieser Platte nicht aufzutreiben ..... aber meine 88ter geht wieder. Selbst wenns nur vorläufig ist, war das ein guter Tausch.


Ich kenne zwar die Hintergründe warum manche Karten wieder werden ...... trotzdem ist es einfach ...... :freak: das man mit nem Backofen den Karten eine Mini-Reflow verpassen kann.


P.S.: Das Sata-Kabel ist trotzdem noch defekt, das hat nix mit der HDD zu tun. Wie hoch ist die Wahrscheinlichkeit das beinahe Zeitgleich alle 3 über den Jordan wandern. :freak:

Dural
2011-12-05, 14:12:34
Wir hatte nie eine defekte 8800GTX, jedoch einige 8800Ultras darunter auch eine sehr teure und seltene XFX XXX mit 685MHz :frown: von heute auf morgen kein Bild mehr :rolleyes: