PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800GTX- und 8800GTS-(P)Review-Thread (Links im #1)/Teil 2


Seiten : 1 [2]

Raff
2011-12-05, 21:23:00
685 MHz ab Werk? Wow, daran ist so manche Ultra (612 MHz) schon mit manueller Keule gescheitert. Kein Wunder, dass die abgefackelt ist. X-D Mit 700 MHz ist eine 8800 GTX/Ultra gefährlich nah an der ersten Version der GTX 260 (192 ALUs) dran.

MfG,
Raff

Dural
2011-12-07, 00:00:48
jep

http://img259.imageshack.us/img259/8720/p1020144h.th.jpg (http://imageshack.us/photo/my-images/259/p1020144h.jpg/)

von der Karte gab es vielleicht eine hand voll in der schweiz, in deutschland keine ahnung...


das war bis jetzt die einzige Grafikkarte wo ich schon etwas traurig war das sie hinüber ist, obwohl es nicht mal meine war.


ich hatte damals ein 8800Ultra SLI System :biggrin:


schau mal auf den Takt ;)

http://img545.imageshack.us/img545/2162/16090.th.jpg (http://imageshack.us/photo/my-images/545/16090.jpg/)

Aber nur eine Karte

G 80
2011-12-11, 03:42:45
Schade um die schöne Ultra, sowas tut weh.


Richtig abgegangen sind meine Karten als die unsync oc kam: Chip lies ich auf 621 laufen, weil 648, je nach Temperatur und Spiel kritisch war. Aber die Shader hab ich mit 1620 meistens nichtmal voll ausgefahren ..... soweit abseits der Shaderleistung eine 260 192 ist das nicht und es ging noch 1 tw. 2 rasten höher .... aber ich hab jetzt nichtmehr die genauen Stufen im Kopf.

Dient auch als Puffer für SSAA - größtes Heizen das ich abseits von Powervieren produzieren konnte.

Bestes Spiel war Battlestation P: Das crashte bei jeglichem OC _oder_ UC. Chip, Speicher, Shader egal .... :eek: nach irgend einem Patch wars dann plötzlich egal ....:freak:

€: .... leider kann ich auf dem Screen gar nichts beim GPU-Takt erkennen ... nichtmal mit der Bildschirmlupe. :freak: Die CPU war aber mit 4,4 Ghz hart. 65 nm ? C2D-X. :eek:

Raff
2011-12-11, 12:03:20
Ja, gerade die A3-Revision des G80 lässt sich sehr gut übertakten. Gab's eigentlich auch GTXen mit einer A3-GPU? Mir ist das nur als Standard auf den Ultras bekannt, auch einige GTS-Karten kamen mit dem Chip (und liefen dann auch mal mit 40+ Prozent OC ...)

Und, Dural: SLI ist meiner Meinung nach viel (z. B. teuer), aber nichts zum Prahlen. In mir keimt bei Aussagen wie "Harr, ich hab Multi-GPU!" eher Mitleid für den Nutzer denn Freude oder gar Neid. :biggrin:

MfG,
Raff

AnarchX
2011-12-11, 12:11:35
A3 GTS gab es ab Werk schon mit 650MHz.

Die 685MHz Ultra von XFX hatte fast $1000 gekostet. :ulol:

Raff
2011-12-11, 12:20:30
Glaube ich gerne, die mussten für den Mördertakt bestimmt ewig selektieren. Die schaffen dann wohl auch 702 MHz TMU/ROP-Takt und ~1,7 GHz ALUminium stabil. Mir ist keine Ultra mit Standardtakt bekannt, die das wirklich rockstable auf die Kette bekommt. Meine Über-GTX mit A2-Kern schafft "nur" 648/1.620/1.080 MHz felsenfest, 675/1.674 MHz ist zwar machbar, aber z. B. in Crysis instabil.

MfG,
Raff

Dural
2011-12-11, 12:49:39
Takt der Ultra war 810MHz Core und 2000MHz Shader, WaKü + vmod ;)

Wenn ich das hier lese betreffent Takt darf ich ja nicht mal meine 8800GTX Perle her zeigen ;D :biggrin:


Genau genommen hatte ich zuerst ein 8800GTX SLI, danach ein 8800GTX SLI mit EVGA OC Karten und am schluss das
8800Ultra SLI, bin aber auch gar kein SLI fan, aber zum benchen ist es OK ;)
hatte wohl so rund 10 G80 Karten und von diesen hab ich die bessten zwei behalten, die gute Ultra und die Hammer GTX... die sind irgend wo im Schrank ;)

Raff
2011-12-11, 12:57:26
Na mit mehr Spannung (das ging damals noch nicht "idiotensicher" per Tool) und einer Wasserkühlung ist's klar, dass da etwas mehr geht. :D 810/2.000 MHz, hossa. Welcher Speichertakt, um 1.200 MHz? Da muss sich dann schon die GTX 260-216 fürchten (wobei die ja auch ein fettes OC-Potenzial aufweist).

MfG,
Raff

y33H@
2011-12-11, 14:02:16
Ich habe dereinst mit meiner GTS/640 und Silent-LuKü (!) immerhin 765/1.850/1.200 MHz gepackt ... validiert gar 765/1.890/1.250 MHz (http://www.techpowerup.com/gpuz/mxy6y/) ;D

41389

Raff
2011-12-11, 14:04:07
War klar, dass du damit wieder spawnst. :tongue: Das war aber nie im Leben Crysis-stabil.

MfG,
Raff

y33H@
2011-12-11, 15:02:59
Rockstable ist sie nur mit 675/1.674/1.053 MHz ;(

G 80
2011-12-11, 21:37:04
Ja, gerade die A3-Revision des G80 lässt sich sehr gut übertakten. Gab's eigentlich auch GTXen mit einer A3-GPU?


Ich hab mal gefragt und die Antwort war nein. A 3 war nur auf Ultras, GTS und, kurz, auf den 112 SP GTS als G92 kam.


Die A 3 GTS gingen unerhöhrt ab. Ich hatte davon selbst ein paar Raketen in den Händen. Ua. die heimgehohlte ist so ein Teil die bei 648/1674/1020 gerade mal anfängt - und auch noch recht kühl bleibt. Ich weis nichtmehr wo bei ihr das Limit war, aber ans austesten errinere ich mich noch: Crysis Demo lvl 1: Meistens freeze oder abflug bevor man den Boden erreichte. Sonnst nach Ende des Demolvls (je nach spielart dauert die ja bissl) stabil. ;D

Wird sicher ein paar GTS gegeben haben, die nicht gut gingen, aber die meisten hatten 88GTX/Ultra-Standard Taktratenseitig sowiso und oft auch in der Gesamtleistung gepackt.


Was ich so genial beim G 80 finde, ist die extreme Taktbarkeit. Alle Karten, besonders die A2, die ich bisher in den Händen hatte waren NICHT Taktlimitiert; sondern nur Temperaturlimitiert.

Je mehr OC desto weniger °C bitte. Wobei aus Erfahrung der "Chipteil" immer wesentlich empfindlicher als die "Shader" war, und damit, im Verhältnis, niedriger getaktet werden musste.

Ich frage mich bis heute warum NV die Ultra nicht voll ausfuhr: 1512 Mhz Shader? Ich wette die meisten Ultras würden ab 1674 grade mal aufwachen. Und zB an Füllrate hing es bei G80 nie.


Stellt euch einen 28 nm G80 vor ....... 2,5+ Ghz LuKü Shader? ;D

kmf
2011-12-12, 11:56:07
A3 GTS gab es ab Werk schon mit 650MHz.

Die 685MHz Ultra von XFX hatte fast $1000 gekostet. :ulol:Wahnsinn! :eek:
Ich hab mir, nachdem meine EVGA 8800 Ultra abgeraucht war und ich "nur" eine 260er GTX als Garantiersatz aus der RMA bekam, bei HoH eine NX8800 Ultra-T2D768E-HD-OC aus deren Restbestände, als Sammlerkarte für meine Vitrine nachgekauft. Diese ist aber nur mit 660/2.300 MHz getaktet. Ich hab sie ein einziges Mal für ein Foto in ein Mainboard gesteckt. Gelaufen ist sie aber noch nie.

Dimon
2011-12-13, 20:50:35
Meine hatte stellenweise 660/1720/1080 gepackt, aber rockstable in Fallout 3 ging ja mal garnicht :Crysis dagegen schon :biggrin:

Leider ist mir dieses Kärtle verreckt

648/1620/1080 gingen Rockstable überall :rolleyes:

mfg

BlacKi
2016-08-28, 01:05:36
8800gtx 768mb 614/936 in bf4 fühlt sich an wie 30fps zeigt aber 40-65fps^^

AnarchX
2016-08-28, 10:52:56
Wie sieht das so aus (Screenshots)? :ulol:
Ausgereizter Fertigung und abnehmendem visuellen Ertrag sei Dank, lässt es sich halt auch noch auf einer 10 Jahre alten GPU "passabel" spielen. Mit einer Voodoo 1 aus '96 hatte wohl 2006 nur der Retro-Fan seinen Spaß.;)

Die erfolgreiche Tesla Generation (G8x-GT2xx) hat dank findiger Asiaten bis in die GeForce 700 Serie überlebt: http://imgur.com/a/GYYxg ;D

BlackArchon
2016-08-28, 11:12:09
8800gtx 768mb 614/936 in bf4 fühlt sich an wie 30fps zeigt aber 40-65fps^^
Ich nehme an, wegen der stark variierenden Frametimes? Wohl durch das ständige Nachladen von Texturen über PCIe.

BlacKi
2016-08-28, 12:11:21
frametimes sind echt mies. aber nicht wegen des vollen speichers, alles auf low bleibt der vram unter 700mb, bei 75% der auflösung von fhd. wird vl auch falsch angezeigt.

The_Invisible
2016-08-28, 12:40:11
Die "Girlies" von heute sind halt auch nichts mehr gewohnt.

Das waren halt noch Zeiten wie ich Gothic 1/2 durchgeruckelt ähh gespielt habe sage nur Khorinis. :D Spaß hats trotzdem gemacht.

Leonidas
2016-08-28, 13:25:45
Seinerzeit waren auch viele Spieleengines noch auf knapp 30 fps ausgerichtet und liefen auch mit 20 fps noch anständig - man konnte die Frameratensprünge sehen, aber deswegen ist das Spiel nicht zähe geworden oder machte sonstige Fehler.

Dieser Punkt war bei den Spieleengines anno 2000 noch stärker ausgeprägt, die liefen auch mit 15 fps noch passabel nutzbar.

Das gibt es heuer so gut wie gar nicht mehr, da sind unter 25 fps einfach seitens der Spieleentwickler Null eingeplant.

=Floi=
2016-08-28, 16:24:50
8800gtx 768mb 614/936 in bf4 fühlt sich an wie 30fps zeigt aber 40-65fps^^

in BF4 ist auch jedes mal tripple buffering an

seaFs
2017-07-02, 22:28:30
Ausgrab...

Ich hab hier ein Quadro FX5600, quasi eine 8800GTX mit doppeltem Speicher, taktet 600/1350/800. Bin gerade am testen und 621/1404/900 laufen vorerst.
Nächste Woche kommt wahrscheinlich ein zweites Exemplar. Die spannende Frage ist, ob ich SLI irgendwie zu laufen bekomme (die Berichte im Internet sagen bisher klipp und klar "nein").

Womit kann man denn einen G80 foltern und 1,5GB VRAM vollbekommen? Downsampling in Need for Speed Hot Pursiut 2010 mit 5k bringt mich mit einer Karte auf ca. 1200MB @ 8-12fps ;D

Jake Dunn
2017-07-02, 22:33:31
Crysis 1 mit Texturmods o.ä. ^^

Niall
2017-07-02, 22:37:04
Crysis 1 mit Texturmods o.ä. ^^
Würde ich so unterschreiben, damit solltest Du den Speicher ordentlich vorgepumpt bekommen. Auch per Konsole die Shadowmap Res. hochziehen o.Ä., ich meine da lief der VRam auch ordentlich voll. (Bin da nicht mehr ganz sicher)

seaFs
2017-07-03, 06:00:53
OK, werd ich mal versuchen.

Gibt es irgendwas "neueres", was den G80 noch nicht rechenteschnisch in die Knie zwingt?

Bösewicht
2017-07-03, 09:57:03
gta 4 ist perfekt fuer so vram Sachen da du in denn Optionen auch sehen kannst wieviel vram in gebrauch ist und wieviel welche Option kostet.

ich hatte damals 2x 8800 gtx auf einem crossfire asus p5b premium deluxe mit gehackten treiber in sli als machbarkeitsstudie und black and White 2 in 4k :D

seaFs
2020-12-21, 00:36:17
*ausgrab*
Da die Tage wieder kälter werden, habe ich meine 600W-Heizung wieder reaktiviert. Nach einigen heftigen Rückschlägen wurde die Maschine wieder aufgebaut und wird jetzt gequält.

Im Anhang Thief 4, kurz nach dem Sielstart. Der VRAM ist brechend voll und es gibt richtig, RICHTIG üble Nachladeruckler (mehrere Sekunden lang Standbild). Wenn dann alles geladen ist, fluppt alles doch recht gut.

Settings
32bit-executable, exclusive Fullscreen
1680x1050, alles an soweit möglich, außer Texturdetails auf "Normal" (da sonst VRAM-Überlauf).

Mal sehen, was ich noch so schönes finde. Crysis, GTA 4, Lost Planet und Tomb Raider 2013 werde ich auch mal installieren.

bnoob
2020-12-21, 01:17:59
Dein Sockel 940 System?

Kannst du testen ob die initiale Wartezeit ohne SLI niedriger ist?

Sehr interessant, hätte gedacht das Spiel läuft mit der Karte GAR nicht

seaFs
2020-12-21, 01:28:37
Klar, mache ich nachher gerne. Was genau meinst du mit der Wartezeit? Die heftigen nachladeruckler?

SLI vs. Single-GPU kann ich von anderen Programmen natürlich auch machen.

Ich würde mich über vergleiche zu 8800GTX SLI freuen und wie sich der doppelte Speicher auswirkt.

bnoob
2020-12-21, 02:07:24
Ja genau, die mehreren Sekunden Standbild

Als Vergleich anbieten kann ich nur zwei X1950XTX :D Aber ich glaube nicht, dass das Spiel noch einen DX9-Pfad hat

basix
2020-12-21, 09:03:59
Ich würde mich über vergleiche zu 8800GTX SLI freuen und wie sich der doppelte Speicher auswirkt.

Jop, sowas wäre interessant. Habe auch eine 8800GTX sowie FX5600 hier. Leider nur meinen Haupt-PC zum testen, den ich aktuell anderweitig verwende.

00-Schneider
2020-12-21, 10:44:00
Wie leistungsstark war die 8800GTX eigentlich zu seiner Zeit im Vergleich zur Konkurrenz? Und wie leistungsstark ggü. dem Vorgängertopmodell?

Ben Carter
2020-12-21, 10:59:37
Die 8800GTX bzw. dann Ultra war meiner Meinung nach und relativ gesehen eine der stärksten Grafikkarten bei Release und haben die Vorgänger sowie die Konkurrenz bei weitem übertroffen, so wie seinerzeit die Radeon 9700 Pro.

https://www.computerbase.de/2006-11/test-nvidia-geforce-8800-gtx/28/
EDIT:
Einzig der Stromverbrauch fällt bei der GeForce 8800 GTX sowohl unter Last als auch im 2D-Modus überdurchschnittlich hoch aus und belastet somit zusätzlich den eigenen Geldbeutel und die Umwelt.
310W ... für das Gesamtsystem. Zeiten ändern sich. ;D

lg Ben

seaFs
2020-12-21, 11:10:29
Stark schwankend. Von mickrigen 25% in älteren Spielen (FarCry) bis hin zu 400%, wenn
der VRAM überläuft. Bei Spielbaren Frameraten der Konkurrenz (50fps) war der G80 mindestens doppelt so schnell. Nur selten war X1950XTX CF schneller.

Zur 7900GTX wurde die Spieleleistung mehr als verdoppelt, allerdings der Verbrauch auch fast.

RoughNeck
2020-12-21, 11:11:49
217W im Idle :freak:;D
Heute regen sich die User schon auf wenn die AM4 Plattform 15W mehr als Konkurrenz verbraucht.

Ja, die 8800 GTX / Ultra haben alles zerfickt was AMD den Karten entgegen geschmissen hat.

seaFs
2020-12-21, 11:14:04
Lächerlich. Mein Retrosystem braucht allein 310W im BIOS.
Und 580W n Metro2033 Redux.

pixeljetstream
2020-12-21, 11:19:44
War einfach Hammer das Teil, konnte die Karte an der Uni für Diplomarbeit nutzen (Volume rendering, wo die Bandbreite und Textur Performance voll wirkte). Privat hatte ich dann die 8600 GTS.

Danke für den review link von CB.

basix
2020-12-21, 11:20:11
Ja, die 8800 GTX / Ultra haben alles zerfickt was AMD den Karten entgegen geschmissen hat.

Die 7000er Vorgänger von Nvidia wurden noch mehr "zerfickt" als die AMD Pendants, was Leistung als auch Bildqualität anbelangte (anisotrope Filterung etc.) ;)

War einfach Hammer das Teil, konnte die Karte an der Uni für Diplomarbeit nutzen (Volume rendering, wo die Bandbreite und Textur Performance voll wirkte). Privat hatte ich dann die 8600 GTS.

Jop, die 8800 GTX blieb auch ein Traum. Aber die 8800 GT war dann nicht so viel schlechter :) Den Traum der 8800 GTX habe ich mir später dann doch noch erfüllt, als 10 Euro Gebrauchtkauf 10 Jahre später :D

Ben Carter
2020-12-21, 11:25:48
Ein Kumpel von mir hatte die 8800 GTX gekauft, recht zeitnah. Crysis in 1600x1200 war da möglich. :)
Ich selbst bin etwas später auf die 8800 GTS 512, die ich sogar hier im Forum gebraucht gekauft habe, umgestiegen.

Aber die meiste Zeit haben wie eh UT2004 gezockt, das lief so oder so schon sehr gut, selbst mit den älteren Karten.

Wuge
2020-12-21, 20:02:41
Hab gerade eine in der Hand ;D

seaFs
2020-12-21, 20:09:31
Super, einbauen und wir benchen im VRAM-Limit. :biggrin:

Die Takte der beiden Quadros konnte ich bereits mit nTune (jahaaaa! ) auf 621/1512/900 anheben. 3Dmark06, 15min. Thief4 und 15min. Prototype (das ärgert CPU und RAM sehr gut) laufen bisher unauffällig.

seaFs
2020-12-22, 01:27:51
Kannst du testen ob die initiale Wartezeit ohne SLI niedriger ist?

Dein Wunsch ist mir Befehl. Ich habe mit Fraps die Frametimes aufgezeichnet. Diesmal habe ich die 64bit-Executable gewählt, welche etwas langsamer läuft, da mehr Effekte aktiviert sind (was für eine dämliche Entscheidung vom Hersteller :rolleyes:)
Die Benchszene ist am Anfang des Spiels (The Drop), kurz nachdem man das erste mal einen Gegenstand zum ablenken einer Wache wirft.
Im Anhang sind zwei Diagramme, das erste Single-GPU, das zweite Dual-GPU.
Beide Läufe dauern etwa gleich lang (1:41,7 vs. 1:42,9).

Zu Anfang bin ich im Hauptmenü und starte die Aufzeichnung, in dem Moment in dem ich auf "Continue" drücke.
#1) Zuerst kommen also ein paar wenige, heftige Spikes in den Frametimes, der längste dauert 28,8 Sekunden in beiden Fällen.
#2) Jetzt folgt eine recht lange Serie von Spikes. Hier ist man bereits im Spiel, es werden die ganzen Texturen in den VRAM geschaufelt und es ist unspielbar.
#3) Nachdem das ruckeln aufhört, gehe ich los und es kommt zu drei Nachladerucklern innerhalb von ca. 20 Meter gehen. Am Ende klettere ich an einem Seil hinauf zu einer Cutscene.
#4) Heftiges Nachladen während der Cutscene. Als die Cutscene zu Ende ist und ich mich wieder frei bewegen kann, beende ich die Aufzeichnung.


Was man jetzt herauslesen kann.
# Laden geht mit zwei Grafikkarten schneller. Womöglich waren vom vorherigen Spielstart noch Daten im RAM --> Ergebnis unzuverlässig
# Nachladen während des Spiels braucht mit zwei GPUs weniger Zeit, da beide Diagramme die gleiche Zeitspanne (mit unterschiedlicher Anzahl an Frames) darstellen.
# Framerate hat sich durch zwei GPUs verdoppelt --> sehr gute Skalierung
# Allerdings sind die Frametimes stark schwankend. Gefühlt trotzdem schön flüssig.

bnoob
2020-12-22, 12:06:32
Sehr cool, vielen Dank!

(wtf, ich hätte erwartet dass die 32-Bit exe ~das gleiche mit anderen Compilerflags ist)