PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800 GT - Performance D3D10 in 65nm im Oktober? - Teil 2 (s. #1!)


Seiten : 1 [2] 3

Coda
2007-10-24, 18:52:05
Die SM4.1-'Fetures' gehen leider auch mit extremer Resourcen-Nutzung einher
Nein.

Na ja... zu JEDEM neuen "DX10"-Game gibts neue Treiber und mit alten kachelt oft der ganze Rechner ab.
Es gab auch am Anfang bei den ersten SM2- und SM3-Treibern Schwierigkeiten. Das liegt in der Natur der Sache und ist bei ATi auch nicht anders. Das macht noch lange nicht den Chip "alpha". Jedes D3D10-Feature funktioniert.

Razor
2007-10-24, 18:52:42
Naja, für einen ersten Chip einer neuen Generation war G80 doch ok. Im Vergleich zum ersten DX9 Chip von NV oder dem jetzigen Mitbewerber von ATI, war G80 schon kerngesund.
Sehe ich anders... und das mit der FX damals steht auf einem ganz anderen Blatt.
Dass es AMD nicht besser hinbekommen hat ist ob der Nähe zu M$ wirklich arm...

Razor

Razor
2007-10-24, 18:52:52
Nein.
Doch.

Razor
2007-10-24, 18:53:45
Der Zalman VF1000 müsste dann ja auch au fie 8800GT passen.

Hat jemand diesen schonmal getestet ? Ich finde keine Tests. Dabei wüsste ich gerne ob dieser den Abstand des VF900s noch ausbauen kann. =)
Wenn das Teil auf die 7900GT passte, wird es auch auf die 8800GT passen.
Vermutlich... ;)

Razor

Coda
2007-10-24, 18:57:20
Ich sag's jetzt nochmal für alle zum mitlesen, weil Razor ja mal wieder seine Almachtsfantasien hat.

Die in in D3D10.1 spezifizierten Features brauchen allesamt keine weitere Rechenleistung sondern verbessert nur die Nutzbarkeit dieser und ermöglichen mehr Dinge für die Entwickler wie z.B. Anti-Aliasing unter allen denkbaren Vorraussetzungen zu benützen. Es ist völliger Schwachsinn von "extremere Resourcennutzung" in diesem Zusammenhang zu reden.

Und wage es nicht dies zu quoten Razor.

F5.Nuh
2007-10-24, 19:07:21
Am 19. Nov kommt die GTS. Wenn die Mountingholes stimmen, passt vielleicht sogar der S1 drauf mit Lüftern.

19ter. Sollte GTS Tag sein. Wobei das noch geringfügig abweichen kann.

Meint ihr eigentlich, die GT braucht Speicherkühler oder geht es auch einfach nackt ?

Wenn einer von euch mir jetzt auch noch sagen kann was er kosten soll.. wäre ich echt überglücklich.

Habe nämlich schon alles für meinen neuen PC gekauft ausser die graka, gut das ich mir doch nicht eine 640 MB gts geholt habe.

Gruß Nuh

P.S: wird die GTS auch "nur" eine 1 Slot Kühlungsvariante haben. Man möchte die Karten natürlich übertakten und bei einer 1 Slot Kühlung.. hmpf :confused:.

seahawk
2007-10-24, 19:10:30
ca. 300 Euro würde ich erwarten, ebenso wie Doppelslot

F5.Nuh
2007-10-24, 19:13:20
ca. 300 Euro würde ich erwarten, ebenso wie Doppelslot

Sowas hoffe ich :redface:, hoffe das wird die nächsten Tage bestätigt. Wäre echt die perfekte Karte überhaupt. :up::massa:

Moralelastix
2007-10-24, 19:14:48
Gibts schon genauere Infos zu dem Standardkühler ist das Ding vergleichbar mit dem G80 Kühler.

Also eine Alugußgrundplatte die auch den RAM kühlt mit Heatpipes und darauf dann Alu- oder Kupfer-Kühlfinnen?

Also G80 nur als singelslot?

Das die Abwärme ins Gehäuse geblasen wird muss man halt schlucken.

Gast
2007-10-24, 19:34:21
Und wage es nicht dies zu quoten Razor.Du darfst, glaube ich, anderen nicht verbieten dich zu zitieren.

Auch wenn es dir aufs Schwein geht, was Razor da macht, du musst und solltest dich deswegen nicht auf ein so niedriges Niveau herablassen.

Razor
2007-10-24, 19:41:22
Und wage es nicht dies zu quoten Razor.
Warum sollte ich das nicht?
Den irrelevanten Teil habe ich allerdings weg gelassen...

...du musst und solltest dich deswegen nicht auf ein so niedriges Niveau herablassen.
Das macht er 'gerne'... vermutlich aber kann er gar nicht anders.
'Überheblichkeit' würde ich noch hinzusetzen, um die Niveulosigkeit zu ergänzen...

Razor

ShinyMcShine
2007-10-24, 19:46:09
...

Razor
2007-10-24, 19:51:37
Gibts schon genauere Infos zu dem Standardkühler ist das Ding vergleichbar mit dem G80 Kühler.

Also eine Alugußgrundplatte die auch den RAM kühlt mit Heatpipes und darauf dann Alu- oder Kupfer-Kühlfinnen?

Also G80 nur als singelslot?

Das die Abwärme ins Gehäuse geblasen wird muss man halt schlucken.
Schade, das Review ist grad mal wieder offline...

Also mal ein paar von mir gehostete Pics:

http://mitglied.lycos.de/razor3dc/pics/8800gt_512mb_cooler.jpg
http://mitglied.lycos.de/razor3dc/pics/8800gt_512mb_cooler02.jpg
http://mitglied.lycos.de/razor3dc/pics/8800gt_512mb_cooler03.jpg
http://mitglied.lycos.de/razor3dc/pics/8800gt_512mb_cooler_zv9.jpg

Razor

On Request of 'AnarchX' IMG-Tags to URLs converted... ;)

Gast
2007-10-24, 20:03:34
Also mal ein paar von mir gehostete Pics:
Da fällt mir ein:
Schade das das PCB grün ist. :(
Wie immer, habe ich Angst um den blanken DIE beim Kühlerwechsel (den ich so schnell wie möglich vornehmen werde.)

AnarchX
2007-10-24, 20:17:41
Noch ein Bild von der Retail Gigabyte 8800GT:
http://img120.imageshack.us/img120/2450/dsc01498sy2ur0.jpg (http://img120.imageshack.us/img120/2605/dsc01498sy2ld3.jpg)
für Volldarstellung auf Bild klicken

edit:
Hier gibt es eine PNY schon für $232:
http://www.onsale.com/shop/detail.aspx?dpno=7306574&store=onsale&source=bwbfroogle

Razor
2007-10-24, 20:18:10
Da fällt mir ein:
Schade das das PCB grün ist. :(
Wie immer, habe ich Angst um den blanken DIE beim Kühlerwechsel (den ich so schnell wie möglich vornehmen werde.)
Och... ein bissel 'Kribbeln' muss schon sein.
:D

Razor

P.S.: die Farbe des PCB ist mir wurscht.

K4mPFwUr$t
2007-10-24, 20:45:12
razor du oller quode spammer, es reicht langsam.

Gast
2007-10-24, 20:50:53
Die GF7 erzeugt aber eine wesentlich geringere CPU-Last beim - z.Bsp. Abspielen von H.264 HighDefVids.
Und die ganzen Bildverbessernden Features der G84/86 fehlen natürlich auch bei der G71!
;D
Also ist G71 auch Alpha-Schrott, der die ganzen Käufer zu Early Adoptern und unfreiwilligen Betatestern macht.

Und der G92 erst: Nichtmal einen VP3 und kein DX11 - wieso kommt so ein unausgereifter Schrott in den Handel?

Nein, Razor.
Zu jeder Karte gibt es ein Feature-Set. Beim G80 war nunmal kein 2D integriert, es war kein VP2 integriert und genausowenig ist DX11 integriert. Warum? Weil es so entschieden wurde. Aus demselben Grund, weil eine GF3 kein SM4 beherrscht, warum eine X800 XL kein SM3 beherrscht, warum eine X1800 kein VTF beherrscht: Weil die Designer das so entschieden haben.

Ein Bug, ein fehlendes Feature war der VP(0) beim NV40, das MSAA beim R200 oder DXT beim GF2-3.

Gast
2007-10-24, 20:53:00
"Krücke" impliziert Langsamkeit... und das trifft hier nicht zu.
Ich vergleiche den G80 eher mit einem gepfuscht gebauten Haus.
Auch permanentes 'Nachflicken' hilft hier nicht.

Hätte man sich hingegen 'etwas' mehr Zeit gelassen...
;)

Razor
Vergleiche es lieber mit einem Bauernhaus von 18schießmichtot: Beschwerst du dich da auch, dass noch keine Fußbodenheizung, wärmedämmende Verglasung und brandsichere Bedachung genutzt wurden? Nein? Zu recht - weil es damals eben noch nicht ging.

Gast
2007-10-24, 20:54:00
Sehe ich anders... und das mit der FX damals steht auf einem ganz anderen Blatt.
Warum das?

Die gelbe Eule
2007-10-24, 21:00:04
Kein HDMI Dongle bei der Gigabyte, war ja zunächst versprochen worden ...

Gast
2007-10-24, 21:03:41
Ein Bug, ein fehlendes Feature war der VP(0) beim NV40, das MSAA beim R200 oder DXT beim GF2-3.
Und beim G80 ist dieses fehlen dieses Features plötzlich ok? - Aha.

Gast
2007-10-24, 21:08:40
Und beim G80 ist dieses fehlen dieses Features plötzlich ok? - Aha.
Wo stand was von "Gehirn abschalten"?

Beim NV40 wurde dieses Feature angekündigt und beworben. G80 hat, im Unterschied dazu, alle Features an Bord, die beworben wurden.

Henroldus
2007-10-24, 21:22:46
Kein HDMI Dongle bei der Gigabyte, war ja zunächst versprochen worden ...
also bitte
http://geizhals.at/deutschland/a187773.html
die 2,70 € plus versand hast du doch auch noch..

Die gelbe Eule
2007-10-24, 22:01:31
Ich hab längst ein gutes Kabel, nur ging es mir eher darum, warum man VGA/DVI beilegt in der heutigen Zeit ...

LovesuckZ
2007-10-24, 22:03:08
Weil Monitore noch VGA Eingänge besitzen? Und DVI für HDTV ausreicht?

Gast
2007-10-24, 22:16:18
Wie? Hat die 8800gt kein HDMI (sound onbard) ?

Die gelbe Eule
2007-10-24, 22:17:17
Das heißt man hat heutzutage noch 2 CRT rumstehen? Ich biete also DVI an, um das Signal mit Adapter extra zu verschlechtern, damit es am D-SUB angeschlossen wird?
Sehr sinnfrei das ganze, könnte man sich gleich Dual Link sparen und somit auch Kosten.

Gast
2007-10-24, 22:19:00
hey leute, mal ne kurze noob frage:

Wie kann man jetzt die kommenden karten einorden.
früher war es doch so:

8800Ultra
8800GTX
8800GTS /640mb
8800GTS /320mb

das waren doch die high end karten von nvidia.

wie kann man das jetzt verstehen?

kommt von NV in absebahrer Zeit eine high-end karte, die die 8800Ultra ablöst?

ist die neue 8800GT mit 512 mb ram wirklich schneller als die "alte" GTS mit 640mb?

Wann kann man die neuen karten von nvidia erwarten?

bin so seit 1-2 monaten nicht mehr aufm neueste stand und versteht nur noch bahnhof. und das obwohl ich mein pc zu weihnachten aufrüsten will TT

Danke für eure Antworten.

mfg

LovesuckZ
2007-10-24, 22:28:29
Wie? Hat die 8800gt kein HDMI (sound onbard) ?

Je nach Hersteller. HDCP wird unterstützt.

Das heißt man hat heutzutage noch 2 CRT rumstehen? Ich biete also DVI an, um das Signal mit Adapter extra zu verschlechtern, damit es am D-SUB angeschlossen wird?
Sehr sinnfrei das ganze, könnte man sich gleich Dual Link sparen und somit auch Kosten.

Normale LCD-TV und Plasmafernsehr haben meisten neben einem digitalen auch einen analogen VGA Eingang.

Gast
2007-10-24, 22:39:39
Das heißt man hat heutzutage noch 2 CRT rumstehen? Ich biete also DVI an, um das Signal mit Adapter extra zu verschlechtern, damit es am D-SUB angeschlossen wird?
Sehr sinnfrei das ganze, könnte man sich gleich Dual Link sparen und somit auch Kosten.
DVI-I ist nunmal kompatibel zu D-SUB.
Auf einer 1Slot Karte ist nur Platz für 2 DVI.

Wenn du jetzt etwas überlegt, dann siehst du das eine Dual DVI Lösung mit Adaptern für D-SUB am besten ist.

StefanV
2007-10-24, 23:09:50
Das heißt man hat heutzutage noch 2 CRT rumstehen? Ich biete also DVI an, um das Signal mit Adapter extra zu verschlechtern, damit es am D-SUB angeschlossen wird?
Sehr sinnfrei das ganze, könnte man sich gleich Dual Link sparen und somit auch Kosten.
Ein Adapter ist nicht unbedingt nötig (http://www.preisroboter.de/redirect.php?sid=106&url=http%3A%2F%2Fwww.digitalland.de%2Fxanario_pinfo.php%3Fshop_ID%3D5%26products _id%3D6322%26ref%3Dpreisroboter&prz=b70e6e4915df538734f0eaff5674a230), nur sind die halt nicht soo einfach zu bekommen...

dargo
2007-10-24, 23:13:00
Solche niedrigen Verbräuche kann man bei leistungsfähigen Karten wahrscheinlich für immer Ad acta legen.
Natürlich, und mit Hybrid SLI ist das praktisch gesichert.

In grenzwertigen Situationen (Abwesenheit des VRAM-'Bugs' mal voraus gesetzt ;-) werden die 128MB Speicher wohl schon was bringen... voraus gesetzt natürlich, dass eine Scene mehr als 512MB, aber weniger als 640MB benötigt.

Dürfte äusserst selten sein, diese Konstellation.

Warte mal Crysis ab, du wirst dich noch wundern. ;)


P.S.: das 'krumme' SI scheint mit den G9x Geschichte... ich vermute beim G90 ein 512Bit SI.
Was macht dich so sicher? Ich wüsste nicht was gegen ein 384Bit SI bei einer neuen GTX/Ultra incl 1,6Ghz GDDR4 sprechen sollte. ;)

laser114
2007-10-24, 23:27:49
Ich hab längst ein gutes Kabel, nur ging es mir eher darum, warum man VGA/DVI beilegt in der heutigen Zeit ...

Ehm, mein 17-Zoll-TFT hat nur einen VGA-Anschluss. Ich habe mit dem Gerät keine Probleme, es erfüllt voll seinen Zweck und ist in 1280*1024 voll zum Spielen geeignet. (Der fehlende DVI-Anschluss resultiert aus der Kaufzeit ... damals kostet der Anschluss noch deutlich mehr.) Ich sehe also auch keinen Grund den in näherer Zukunft zu wechseln.

Eine 8800 GT läge durchaus in einem interessanten Preisbereich, ein fehlender Adapter würde mich da schon sehr ärgern...

Die gelbe Eule
2007-10-25, 00:52:32
Ich finde es erstaunlich, daß man mit einem 17" TFT rumkrebst, aber dann mit einer 8800GT liebäugelt. Hier spart man definitiv am anderen Ende. 20.1" TFTs liegen auch durchaus in einem interessanten Preisbereich, welche die BQ einer 8800GT auch umsetzen können. Adapter gibt es übrigens zu Hauf bei jeder Karte dazu, kann sie hier fast stapeln.

Gast
2007-10-25, 03:01:02
Ich finde es erstaunlich, daß man mit einem 17" TFT rumkrebst, aber dann mit einer 8800GT liebäugelt. Hier spart man definitiv am anderen Ende. 20.1" TFTs liegen auch durchaus in einem interessanten Preisbereich, welche die BQ einer 8800GT auch umsetzen können. Adapter gibt es übrigens zu Hauf bei jeder Karte dazu, kann sie hier fast stapeln.
Das stimmt, ich bau mir auf ein Porsche auch keine 165er Schlappen denn die könnten die Leistung auch nicht auf die Strasse bringen :-)

James Ryan
2007-10-25, 05:47:28
Ich finde es erstaunlich, daß man mit einem 17" TFT rumkrebst, aber dann mit einer 8800GT liebäugelt. Hier spart man definitiv am anderen Ende. 20.1" TFTs liegen auch durchaus in einem interessanten Preisbereich, welche die BQ einer 8800GT auch umsetzen können. Adapter gibt es übrigens zu Hauf bei jeder Karte dazu, kann sie hier fast stapeln.

Sorry, aber das ist Quatsch!
Habe auch einen 17" TFT und meine GTS wird trotzdem ordentlich ausgereizt, glaube mir.
Mit 1280*1024 und 8xS AA samt 16xAF merkt man schon dass die Grafikkarte sich nicht langweilt.

MfG :cool:

Ailuros
2007-10-25, 05:50:57
Nach fast einem Jahr haben wir wohl die alberne "mirstehtdieG80nichtausXGruenden" Horror-Saga so langsam ausgekaut.

Sowohl NVIDIA als auch AMD haben ihr bestmoegliches mit jeweils 90 und 80nm abgeliefert fuer den ersten D3D10 Schub; die Resultate sind in der Zwischenzeit bekannt.

Bei der ersten Refresh-Runde mit jeweils 65 und 55nm, wird das Bild um einiges besser werden fuer AMD da diesmal das Resultat konkurrenzfaehiger ist, aber einige Nachteile der Vergangenheit bleiben leider und gefaehrden auch somit eine absolute Behauptung gegen die Konkurrenz.

Irgendwo wird es laecherlich zu behaupten dass G80 "zu frueh" ankam, wenn man nicht die leiseste Ahnung hat wie die fruehe Entwicklung des chip genau verlaufen ist und wenn man nicht einsehen will dass das Ding nicht nur frueher als der direkte Konkurrenz antanzte sondern auch mit keinen ernsthaften HW-bugs.

Es gibt keinen "G90" mehr und auch keinen 512bit breiten Bus fuer die absehbare Zukunft. So und jetzt bitte zurueck zum G92 ;)

AnarchX
2007-10-25, 09:45:12
http://www.newegg.com/Product/Product.aspx?Item=N82E16814130302
EVGA 512-P3-N806-A1 GeForce 8800GT 512MB

Chipset Manufacturer NVIDIA
GPU GeForce 8800GT
Core clock 700MHz
Stream Processors 112

Cooler Fanless

:uponder:


Und noch ein paar mehr Karten, teilweise schon mit Bildern:

http://www.newegg.com/Product/Product.asp?Item=N82E16814130296

http://www.newegg.com/Product/Product.asp?Item=N82E16814150252

http://www.newegg.com/Product/Product.asp?Item=N82E16814150253

http://www.newegg.com/Product/Product.asp?Item=N82E16814150254

http://www.newegg.com/Product/Product.asp?Item=N82E16814127311

http://www.newegg.com/Product/Product.asp?Item=N82E16814121099

http://www.newegg.com/Product/Product.asp?Item=N82E16814125077

MadManniMan
2007-10-25, 09:54:17
http://www.newegg.com/Product/Product.aspx?Item=N82E16814130302 :uponder:


Hm, ich ziehe 3 Schlüsse:
- das Teil kommt mit nem 3 Pfund Riesenkühler mit 24 Heatpipes und nem Windowkit für 25cm Lüfter fürs Gehäuse ;)
- der Foxconn/Referenzkühler ist ziemlicher Mist
- sooo brütend wird die Karte selbst bei 17% Core und 11% Ram-Takt nicht ... (die so gegen eine GTX bestehen können sollte)

Gast
2007-10-25, 09:57:26
Oder es hat sich einfach ein kleiner Fehler bei newegg eingeschlichen.

Henroldus
2007-10-25, 10:02:31
Oder es hat sich einfach ein kleiner Fehler bei newegg eingeschlichen.
denke auch, da diese Karte von XFX
http://www.newegg.com/Product/Product.asp?Item=N82E16814150254
mit OC auch "nur" 670MHz CoreClock hat

LovesuckZ
2007-10-25, 10:04:12
Warten wir einfach ab. Es gab auch bei den 7800GTX Karten welche, die mit 490MHz verkauft wurden.

Henroldus
2007-10-25, 10:14:36
der aufpreis lohnt sich selten, da man die Karten gut selbst übertakten kann.
Für Garantiefetischisten sind diese Karten natürlich die bessere Wahl.

Gast
2007-10-25, 10:20:17
Bilder von den ab Werk übertakteten Grafikkarten wären natürlich interessant gewesen (will sagen: übertakten die auf 700MHz mit dem Standard-Singleslotkühler?).
Ich hoffe ja immer noch, dass die 8800GTS auf G92-Basis mit einem Dualslotkühler daherkommt...

Spasstiger
2007-10-25, 10:27:00
Passivvarianten sind natürlich interessant. Da kann man selber noch einen 120er-Lüfter davorschnallen und hat in der Regel eine deutlich bessere und leisere Kühlung als mit dem Referenzkühler.
Beim Takt vertrete ich natürlich auch die Philosophie: Es muss so günstig wie möglich sein, übertakten kann ich selber. ;) Ein deutlich besserer Kühler wäre mir allerdings schon 20€ Aufpreis wert.

dargo
2007-10-25, 10:37:19
Ich hoffe ja immer noch, dass die 8800GTS auf G92-Basis mit einem Dualslotkühler daherkommt...
Jepp, das hoffe ich auch. Es kann ja nicht so schwer sein, den G8800GTS Kühler auf den G92 anzupassen. Den finde ich nämlich hervorragend. :)
Bei der G8800GT kann ich noch einen "billigen" Singleslotkühler verstehen. Bei diesem Preis spielt halt jeder $ eine Rolle.

MadManniMan
2007-10-25, 11:16:54
will sagen: übertakten die auf 700MHz mit dem Standard-Singleslotkühler?

Laut Newegg gibts bei dieser Karte sogar überhaupt keinen Lüfter :usweet: In den Wintermonaten kannst Du Dir dann ne 5cm dicke Heatpipe aus dem Fenster zerren - wenn Deine Hauswand den Passivkühler halten kann ;)

Nee, mal im Ernst: den Kühler will ich sehen!

Endorphine
2007-10-25, 11:27:51
Nach den ersten Wochen werden ja mit hoher Wahrscheinlichkeit noch Karten mit Alternativkühlern und anderer Ausstattung auf den Markt kommen. Vielleicht sind da auch Overclocking-Versionen mit dem G80-Kühler dabei. :)

1 GB VRAM find ich aber momentan noch übertrieben. Wenn ich mir den Speicherverbrauch der UT3-Demo so anschaue (geht sauber gegen 256 MB) und annehme, dass die Final höher aufgelöste Texturen haben wird, glaube ich, dass 512 MB für diese Generation eigentlich ausreichen sollten. Es ist doch absurd, dass für die 8600GTS eigentlich nur 256 MB das Maß der Dinge sein sollen, und dann für nicht mal 100 EUR mehr auf einmal 512 MB nicht genug sind? :|

Und in 32-Bit Systemen verliert man mit 1 GB VRAM auch massenhaft RAM, wenn man 4 GB eingebaut hat.

Wie steht's eigentlich um den VRAM-Bug in Zusammenhang mit der G92 - ist das nur eine Treibergeschichte, oder eine Hardwarelimitierung, die vielleicht beim G92 behoben sein könnte?

LovesuckZ
2007-10-25, 11:32:16
Da bis jetzt niemand eine eindeutige Untersuchung dieses Problems durchgeführt hat, gibt es keinen "VRam-Bug". Das nVidia bei AA mehr Speicher benötigt als ATi bzw. AMD sollte bekannt sein.

dargo
2007-10-25, 11:58:53
1 GB VRAM find ich aber momentan noch übertrieben. Wenn ich mir den Speicherverbrauch der UT3-Demo so anschaue (geht sauber gegen 256 MB) und annehme, dass die Final höher aufgelöste Texturen haben wird, glaube ich, dass 512 MB für diese Generation eigentlich ausreichen sollten.

Oh, wenn du dich da nicht täuschst. :)
Ich wette dagegen, dass UT3 mit besseren Texturen in der Full schon die 512MB in 1280x1024 mit 4xAA sprengen wird. Spätestens in 1680x1050 mit 4xAA.

Wie steht's eigentlich um den VRAM-Bug in Zusammenhang mit der G92 - ist das nur eine Treibergeschichte, oder eine Hardwarelimitierung, die vielleicht beim G92 behoben sein könnte?
Ich kenne keinen Vram-Bug und habe noch keinen Beweis dafür gesehen. Zumindest nicht mit aktuellen Treibern. Und bei meiner 640MB GTS habe ich auch mit alten Treibern noch nie irgendwelchen Vram-Bug gesehen.

Die gelbe Eule
2007-10-25, 12:02:16
I need BFG :(
Aber 700MHz/1.850MHz/2.000MHz sind doch schonmal GTX Speed, damit kann man zufrieden sein. Fehlen nur noch deutsche Preise.

MadManniMan
2007-10-25, 12:21:33
I need BFG :(
Aber 700MHz/1.850MHz/2.000MHz sind doch schonmal GTX Speed, damit kann man zufrieden sein. Fehlen nur noch deutsche Preise.

Füllrate und Bandbreite hecheln doch noch hinterher, aber die beinahe 20% höhere Shaderleistung dürften ziemlich einheizen - wenn man bedenkt, wie relativ gering der Unterschied jetzt schon ist. Bemerkenswert, wie relevant die Shaderpower für die Overall-Performance inzwischen wirklich geworden ist...

Mal was ganz anderes: hey ihr G80-Besitzer, könnt ihr (mit irgendwelchen Tools oder whatever) in 2D runtertakten/-volten? Und wenn ihrs macht, habt ihr mal gemessen, wieviel Leistung es spart?

robbitop
2007-10-25, 12:26:54
Füllrate und Bandbreite hecheln doch noch hinterher, aber die beinahe 20% höhere Shaderleistung dürften ziemlich einheizen - wenn man bedenkt, wie relativ gering der Unterschied jetzt schon ist. Bemerkenswert, wie relevant die Shaderpower für die Overall-Performance inzwischen wirklich geworden ist...
Sicher? Denk mal drüber nach. ;)

MadManniMan
2007-10-25, 12:38:06
Sicher? Denk mal drüber nach. ;)

Hm... ja... ich war jetzt bei der simplen Pixelfüllrate hängengeblieben... 575*24 ROPs vs. 700*16 ROPs, aber diese Füllrate ist inzwischen wirklich nicht mehr wichtig, ne? ;)

Haben wir also 56 Dingsdas gegen 64 Dingsdas (ich kann mir diese neumodischen Begriffe einfach nicht merken) mit 700 und 575 MHz und dementsprechen gar 10% mehr Tri-/AF-Füllrate bei jener 700 MHz GT. Richtich gerächnett?

Ailuros
2007-10-25, 12:42:46
Z-Fuellrate ist weiterhin sehr wichtig; deshalb frage ich mich auch ob sie irgendwas anderes mit den G92-ROPs angestellt haben, ausser dem getweakten Z-culling.

robbitop
2007-10-25, 13:13:33
Jede ROP-Partition kann 32 Z Tests pro Takt durchführen. Also sind das immernoch 128 Z Tests pro Takt bei der 8800GT. Das ist Faktor 4 der RV670 (vermutlich). Dat reicht.
Zur Füllrate habe ich ja schonmal was gesagt (dass man unsinnigen Gerüchten nicht glauben soll und seinen Kopf nutzen soll). Wird ja heut viel Fehlinformationsstreuung betrieben.
IMO hat das Teil fett Füllrate für die Bandbreite, dass es diese nicht auf die Straße bekommen wird. Ergo billiges AF.

reunion
2007-10-25, 13:20:20
Ich kenne keinen Vram-Bug und habe noch keinen Beweis dafür gesehen. Zumindest nicht mit aktuellen Treibern. Und bei meiner 640MB GTS habe ich auch mit alten Treibern noch nie irgendwelchen Vram-Bug gesehen.

Ignoranz ist schon was herrliches. Das wurde dir schon mal vorgehalten:

Wie uns James Wang, Technical Marketing Analyst bei Nvidia, soeben mitteilte, sind die von uns festgestellten Performanceverbesserung nicht mit dem scheinbar behobenen VRAM-Bug begründet, da dieser im ForceWare 163.44 immer noch vorhanden ist. So hat man im Treiber zwei Verbesserungen eingebaut, die den VRAM-Bug ein wenig neutralisieren.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/

Wenn schon ein nV-Mann öffentlich zugibt, dass der VRAM-Bug mit dem neuen Treiber nicht behoben wurde, wirst du doch wohl nicht bestreiten wollen, dass dieser existiert?

Die gelbe Eule
2007-10-25, 13:24:00
Und Du glaubst Ihm auch? Wenn 1.000.000 schreien es ist ein VRAM Bug, dann kommt das für NV sehr gelegen, da sie nur in einem bestimmten Bereich optimieren müssten. Wo der wirkliche Fehler liegt, werden wir wohl nie erfahren.

LovesuckZ
2007-10-25, 13:25:45
Aus dem Zitat geht nicht hervor, ob es einen VRam-Bug gäbe. Es geht nichtmal hervor, ob der "Technical Marketing Analyst" diesen überhaupt erwähnt.

reunion
2007-10-25, 13:29:41
Und Du glaubst Ihm auch? Wenn 1.000.000 schreien es ist ein VRAM Bug, dann kommt das für NV sehr gelegen, da sie nur in einem bestimmten Bereich optimieren müssten. Wo der wirkliche Fehler liegt, werden wir wohl nie erfahren.

Wo der wirkliche Fehler liegt, ist doch für den Kunden völlig uninteressant, die Folgen davon sind jedenfalls eindeutig. Nenne diesen Bug von mir aus wie du willst, an der Tatsche, dass dieser vorhanden ist, wirst du trotzdem nicht herumkommen.

Aus dem Zitat geht nicht hervor, ob es einen VRam-Bug gäbe. Es geht nichtmal hervor, ob der "Technical Marketing Analyst" diesen überhaupt erwähnt.

Vielleicht lügt auch CB bewusst, das wäre natürlich wesentlich wahrscheinlicher.

Die gelbe Eule
2007-10-25, 13:32:04
Falsch, Du glaubst es gibt einen VRAM Bug. Wenn ich es nun GPU Bug nenne, hat es nichts mehr mit dem VRAM zu tun. Trotzdem kann ich es nicht nachweisen. Es gibt bestimmte Peformanceprobleme mit weniger VRAM, warum das so ist, man weiß es nicht.

reunion
2007-10-25, 13:35:18
Falsch, Du glaubst es gibt einen VRAM Bug. Wenn ich es nun GPU Bug nenne, hat es nichts mehr mit dem VRAM zu tun. Trotzdem kann ich es nicht nachweisen. Es gibt bestimmte Peformanceprobleme mit weniger VRAM, warum das so ist, man weiß es nicht.

Wie schon gesagt, wenn du so willst. Der Name ist doch völlig irrelevant, die Folgen davon sind entscheidend.

LovesuckZ
2007-10-25, 13:37:10
Wo der wirkliche Fehler liegt, ist doch für den Kunden völlig uninteressant, die Folgen davon sind jedenfalls eindeutig. Nenne diesen Bug von mir aus wie du willst, an der Tatsche, dass dieser vorhanden ist, wirst du trotzdem nicht herumkommen.

Der "Bug" tritt nur bei Karten mit weniger als 640mb Speicher auf. Ein Hardwarebug müsste auf jeder G8x Karte nachweisbar sein. Solange wie dies nicht nachgewiesen wird, ist es kein Bug sondern ein Nachteil von zu weniger Speicher.


Vielleicht lügt auch CB bewusst, das wäre natürlich wesentlich wahrscheinlicher.

Wo bezichtige ich Computerbase.de der Lüge? Ich sage nur, dass der Textausschnitt keinen Anhaltspunkt hergibt, dass der Mann von nVidia von einem Vram Bug geredet hätte.

Die gelbe Eule
2007-10-25, 13:39:09
Es ist eher ein Treiberbug, weil man es ja mit einem Treiber beheben kann. Hardware die defekt ist, kann man nicht durch Software emulieren, also 320MB VRAM werden nicht auf einmal 640MB VRAM. Sollte einleuchten.

Und nun back to topic :)

Spasstiger
2007-10-25, 13:46:47
Der "Bug" tritt nur bei Karten mit weniger als 640mb Speicher auf. Ein Hardwarebug müsste auf jeder G8x Karte nachweisbar sein. Solange wie dies nicht nachgewiesen wird, ist es kein Bug sondern ein Nachteil von zu weniger Speicher.
Auch bei der 8800 GTS 640 MB hab ich in Benchmarks schon seltsame Einbrüche gesehen. Nur sind die Karten nicht so stark betroffen.

Gast
2007-10-25, 13:48:53
Indirekt hat nVidia das Problem auch schon in den Release Notes zum Treiber Version 163.67 zugegeben.

Improved performance of the graphics memory manager on GeForce
8 series GPUs running DirectX 9 applications in single‐GPU and
NVIDIA SLI configurations.
These improvements solve cases of reported performance slowdowns in
some 3D applications with high graphics settings and resolutions.

Wäre ich nVidia und wäre dieser Bug tatsächlich nicht vorhanden, würde ich dem Thema VRAM-Bug, das auf fast allen Newsseiten zu lesen ist sofort den garaus machen. Welcher hersteller duldet schon solche Gerüchte/Verleumdnungen? oO

seahawk
2007-10-25, 13:59:18
Es ist eher ein Treiberbug, weil man es ja mit einem Treiber beheben kann. Hardware die defekt ist, kann man nicht durch Software emulieren, also 320MB VRAM werden nicht auf einmal 640MB VRAM. Sollte einleuchten.

Und nun back to topic :)

Man kann Hardwarebugs durch Treibe abmildern. Und es scheint so als ob G92 den bug auch hat, was ihn imho deutlich in seiner Nutzbarkeit einschränkt, da es zu extremen Slowdowns kommt.

Undertaker
2007-10-25, 14:08:38
Oh, wenn du dich da nicht täuschst. :)
Ich wette dagegen, dass UT3 mit besseren Texturen in der Full schon die 512MB in 1280x1024 mit 4xAA sprengen wird. Spätestens in 1680x1050 mit 4xAA.


also zumindest meinen messungen nach hat die auflösung kaum einfluss auf den rambedarf...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5251164&postcount=39

Gast
2007-10-25, 14:40:22
Mit Bildverbesserungen weniger RAM-Verbrauch als ohne?

1280x1024 no aa/af 417mb 237mb 150fps
1280x1024 4aa 16af 271mb 232mb 150fps
1920x1200 no aa/af 395mb 227mb 137fps
1920x1200 4aa 16af 247mb 235mb 130fps

AnarchX
2007-10-25, 14:58:50
8800 GT Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0710%2 F1135586.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

Die fühlen sich wohl herausgefordert von Expreview, da sie eigentlich immer die jenigen mit Pre-NDA-Reviews waren... :D

LovesuckZ
2007-10-25, 15:00:40
8800 GT Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0710%2 F1135586.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

Die fühlen sich wohl herausgefordert von Expreview, das sie eigentlich immer die jenigen mit Pre-NDA-Reviews waren... :D

So langsammmmmmmmmmmmmmmmmmmm :(

dildo4u
2007-10-25, 15:08:15
Leider keine 8800 GTS 640mb/GTX und keine 2900XT mit dabei.


http://s6.directupload.net/images/071025/trdu92ml.jpg

Endorphine
2007-10-25, 15:08:26
Oh, wenn du dich da nicht täuschst. :)
Ich wette dagegen, dass UT3 mit besseren Texturen in der Full schon die 512MB in 1280x1024 mit 4xAA sprengen wird. Spätestens in 1680x1050 mit 4xAA. Das mag sein. 1600x1050 interessiert mich aber nicht, wenn dann 1600x1200. ;)

Ich glaube aber, dass wenn die Monitoringtools anzeigen, dass der VRAM vollständig genutzt wird und wenig in den Systemhauptspeicher ausgelagert wird, dies nicht automatisch bedeuten muss, dass es dadurch nun kräftige Leistungseinbußen gibt. Ich denke es ist eher die Frage, mit welchen Daten permanent gearbeitet wird. Im Hauptspeicher ist es doch auch so, dass lange nicht laufende Prozesse irgendwann ausgelagert werden. Das heißt aber nicht automatisch, dass die Anwendungen dadurch langsamer werden.

Viel schwerer wiegt imho momentan, dass man durch 1 GB Grafikkarten bei 32-Bit OS schon mal 1/4 des gesamten Adressraums für die CPU verliert.

JTHawK
2007-10-25, 15:09:52
Hardware die defekt ist, kann man nicht durch Software emulieren

Schon mal was von Microcode Updates und der gleichen gehört? ;) Das aber Offtopic hier :)

Die gelbe Eule
2007-10-25, 15:15:00
Dann besorg mir mal ein Mircocode Update für eine Karte, welche physikalisch nur 256MB VRAM verbaut hat und danach dann magischerweise 256MB VRAM extra hinzuzaubert. Bekommst den größten Keks der Welt.

Spasstiger
2007-10-25, 15:24:51
8800 GT Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0710%2 F1135586.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

Die fühlen sich wohl herausgefordert von Expreview, das sie eigentlich immer die jenigen mit Pre-NDA-Reviews waren... :D
Und immer noch kein Füllratentest, schade.
Hier scheint die 8800 GTS 320 MB wohl VRAM-Probleme zu haben:
http://img3.pconline.com.cn/pconline/0710/25/1135586_071025_g92_coj.jpg

Die 8800 GT ist hier bei höheren Auflösungen offenbar auch speicherlimitiert, denn die OC-Version bringt da keinen Vorteil mehr, der Vorsprung der 8800 Ultra wächst.

robbitop
2007-10-25, 15:26:59
Füllratentests wirst du in nur wenigen Launchtests finden. (scheint keinen mehr zu interessieren)
Drüber nachdenken reicht aber auch. ;)

reunion
2007-10-25, 15:37:46
Ich glaube aber, dass wenn die Monitoringtools anzeigen, dass der VRAM vollständig genutzt wird und wenig in den Systemhauptspeicher ausgelagert wird, dies nicht automatisch bedeuten muss, dass es dadurch nun kräftige Leistungseinbußen gibt. Ich denke es ist eher die Frage, mit welchen Daten permanent gearbeitet wird. Im Hauptspeicher ist es doch auch so, dass lange nicht laufende Prozesse irgendwann ausgelagert werden. Das heißt aber nicht automatisch, dass die Anwendungen dadurch langsamer werden.


Richtig, bei meiner X1950pro mit 256MB VRAM beginnt der Einbruch auch erst ab einem VRAM Verbrauch von >330MB.

Viel schwerer wiegt imho momentan, dass man durch 1 GB Grafikkarten bei 32-Bit OS schon mal 1/4 des gesamten Adressraums für die CPU verliert.

Die Lösung heißt 64-bit OS. Wer einen High-End-PC betreibt, sollte nicht mehr mit einem 32-bit OS herum gurken IMHO.

Leider keine 8800 GTS 640mb/GTX und keine 2900XT mit dabei.


http://s6.directupload.net/images/071025/trdu92ml.jpg

Mit hoher Auflösung geht die Karte ganz schön in die Knie. Ich bin gespannt wie die finalen Specs aussehen.

MartinRiggs
2007-10-25, 15:44:30
aber wenn die benches alle stimmen dann hut ab, die ist ja ner 8800Ultra schwer auf den Fersen.
Glaube das alles noch net so ganz, ne karte für 250€ die hinter ner 8800 Ultra gar nicht übel aussieht:|

Endorphine
2007-10-25, 15:47:47
Sorry für OT...
Die Lösung heißt 64-bit OS. Wer einen High-End-PC betreibt, sollte nicht mehr mit einem 32-bit OS herum gurken IMHO. Es gibt aber leider nicht für alle bestehende Hardware 64-Bit Windowstreiber. Ich kann und will z.B. nicht auf meine serielle Schnittstellenkarte (mit Sunix-Controller, für den schon die 32-Bit Treiber von MS nicht funzen) verzichten. Genau so möchte ich keine neue TV-Karte kaufen, da ich Dscaler nutzen will und in der Kabelanlage auch gar kein DVB-C eingespeist wird. Weiterhin will ich mich auch gar nicht auf einen der drei DVB-Standards festlegen lassen.

Und dann hat mein Intelboard noch einen nervigen BIOS-Bug in Zusammenhang mit mehr als 3 GB RAM, den MTRR und 64-Bit Betrieb, der wohl auf absehbare Zeit nicht gefixt wird.

Die 64-Bit Migration ist eben in der Praxis nicht so einfach, wie man das vielleicht annimmt.

Henroldus
2007-10-25, 16:15:42
lösch mich MOD

Henroldus
2007-10-25, 16:18:31
Das mag sein. 1600x1050 interessiert mich aber nicht, wenn dann 1600x1200. ;)
1680x1050 ist ca 5% schneller als 1600*1200 also durchaus ein guter Anhaltspunkt

Leider keine 8800 GTS 640mb/GTX und keine 2900XT mit dabei.

http://s6.directupload.net/images/071025/trdu92ml.jpg
in 1024*768 ist die OC Version langsamer als die Karte @Stock :|
der Benchmark ist also auch nicht ganz ernst zu nehmen

AnarchX
2007-10-25, 16:19:36
Nvidia slides reveal supreme mastery of PR spinning
Graphzilla's word bending coup (http://www.theinquirer.net/gb/inquirer/news/2007/10/25/nvidia-slides-reveal-masterhood)

Dürfte wohl nicht mehr lange dauern bis die Folien im Netz sind.

Undertaker
2007-10-25, 16:43:02
Mit Bildverbesserungen weniger RAM-Verbrauch als ohne?

1280x1024 no aa/af 417mb 237mb 150fps
1280x1024 4aa 16af 271mb 232mb 150fps
1920x1200 no aa/af 395mb 227mb 137fps
1920x1200 4aa 16af 247mb 235mb 130fps


nein, das ist der verfügbare restspeicher ;)

Gast
2007-10-25, 16:58:42
wenn ich so die benches sehe muss ich sagen wer eine alte gts hat ist noch bissel besser dran.und bei den benchmarks ist es sogar nur die 320 mb version.
also kein gts killer aber für ca.200 euro guter preis

Gast
2007-10-25, 17:01:51
dann kommt noch dazu das man die alte gts ohne probleme auf 650 chip und 2000 speicher takten kann dann gehts sogar noch weiter auseinander

dildo4u
2007-10-25, 17:03:49
Die GTS 320 ist da auch schon OC die Benches kann man eigentlich in die Tonnne treten.Weil wenn man OC Versionen vergleichen will muss man auch eine 8800GT nehmen die schon mit 700mhz Core läuft solche Versionen sollen ja auch verkauft werden.

Anarchy-HWLUXX
2007-10-25, 17:20:40
Nvidia slides reveal supreme mastery of PR spinning
Graphzilla's word bending coup (http://www.theinquirer.net/gb/inquirer/news/2007/10/25/nvidia-slides-reveal-masterhood)

Dürfte wohl nicht mehr lange dauern bis die Folien im Netz sind.

Der Heini hat wohl noch nie selbst eine wichtige präsentation erstellt - niemand der net gerade Hirnamputiert ist würde sich in der eigenen Präsi schlechtmachen ... wenigstens dieses Prinzip sollte man bedenken egal was für eine Präsi man anschaut.

Spasstiger
2007-10-25, 17:28:23
wenn ich so die benches sehe muss ich sagen wer eine alte gts hat ist noch bissel besser dran.und bei den benchmarks ist es sogar nur die 320 mb version.
also kein gts killer aber für ca.200 euro guter preis
In der für mich relevanten Auflösung steht die 8800 GT jedenfalls nie bedeutend schlechter da (ob 46 oder 47 fps halte ich für uninteressant), dafür siehts aber teilweise deutlich besser aus für die 8800 GT (siehe Call of Juarez und UT3 in dem Test).

reunion
2007-10-25, 17:53:04
8800 GT Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0710%2 F1135586.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

Die fühlen sich wohl herausgefordert von Expreview, da sie eigentlich immer die jenigen mit Pre-NDA-Reviews waren... :D

Also die Die-Size ist ja nicht ohne, 17.79mm x 18.47mm = 328.5813mm² in 65nm. Wenn man von der Packdichte der AMD-Chips in 65nm ausgeht, dürfte der Chip weit über 800mio Transistoren haben.

Gast
2007-10-25, 18:14:56
Und der G80 hat "nur" 680 Mio.? Dann muss sich ja noch mehr getan haben beim G92 als ein purer Die-Shrink. Hat nVidia da evtl. doch 160 Stream-Prozessoren drauf gepackt?

AnarchX
2007-10-25, 18:23:29
Ich bezweifele, dass diese Messmethode richtig ist. Auf den Folien ist G92 auch nur 289mm² groß.

reunion
2007-10-25, 18:27:26
Ich bezweifele, dass diese Messmethode richtig ist. Auf den Folien ist G92 auch nur 289mm² groß.

Was gibt es da zu zweifeln? Viel exakter als mit einer digitalen Schieblehre kann man eine Fläche kaum bestimmen.

Gast
2007-10-25, 18:29:05
Dice ist die Mehrzahl von Die wenn ich mich nicht irre...

Gast
2007-10-25, 18:29:28
Schon korrigiert...

Vertigo
2007-10-25, 19:10:09
8800 GT Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0710%2 F1135586.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

Die fühlen sich wohl herausgefordert von Expreview, da sie eigentlich immer die jenigen mit Pre-NDA-Reviews waren... :D
Wieso steht das nicht im Review-Thread?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=387601

AnarchX
2007-10-25, 19:11:06
Was gibt es da zu zweifeln? Viel exakter als mit einer digitalen Schieblehre kann man eine Fläche kaum bestimmen.
Eben das Problem das die Dichtungsmasse um den Die mit gemessen wurde, wobei es auf den größeren Versionen der Bilder wirklich nur nach dem Die aussieht.

Stellt sich nur die Frage warum er auf den Marking-Folien 290mm² groß war und wenn es wirklich ein 330mm² Die ist, was sich darin alles verbirgt?

Wieso steht das nicht im Review-Thread?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=387601
Weil das imo kein "Review-Thread" ist. ;)
Zudem wäre es dort eher untergegangen, wenn dann gibt es kurz vor dem 29. ein Review-Thread, der den Ansprüchen seiner Vorgänger folgt und dazu gehört erstmal ein vernünftiger Titel und nicht tombmans "Bild-Schlagzeile"...

Slipknot79
2007-10-25, 19:14:07
Und wenn man monatlich nur 10€ spart, hat sich der Umstieg gelohnt. So schlecht wie man die NV Chipsätze macht, sind sie gar nicht.

Der 680i ist untauglich für Quad Core-ocing. Kaum ein Mobo schafft einen hohen FSB beim Quadcore.



Was macht dich so sicher? Ich wüsste nicht was gegen ein 384Bit SI bei einer neuen GTX/Ultra incl 1,6Ghz GDDR4 sprechen sollte. ;)

Es spricht dein "Hab keinen Bock 500EUR zu zahlen" dagegen :redface: :(

AnarchX
2007-10-25, 19:17:29
Der 680i ist untauglich für Quad Core-ocing. Kaum ein Mobo schafft einen hohen FSB beim Quadcore.

Der unterstützt aber auch kein Hybrid-SLI, das kommt erst mit dem 790i bzw. "760i" im Q1 2008 und da wird wohl QC-OCing kein Problem sein.

Ailuros
2007-10-25, 20:38:20
8800 GT Review @ PConline (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0710%2 F1135586.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

Die fühlen sich wohl herausgefordert von Expreview, da sie eigentlich immer die jenigen mit Pre-NDA-Reviews waren... :D

Nur mal ganz so nebenbei: es gibt keine und wird auch keine GPU namens 8800GS geben.

AnarchX
2007-10-25, 20:39:58
754M Transistoren?
http://img233.imageshack.us/img233/1029/000465894zp3.jpg

... wobei diese ROP/TMU-Angaben etwas merkwürdig bei allen Chips aussehen und auch die SD der 8800GT stimmt nicht.:|

Hvoralek
2007-10-25, 20:46:38
... wobei diese ROP/TMU-Angaben etwas merkwürdig bei allen Chips aussehen.:|ROPs dürften die siebte Zeile von oben sein (GTX 24; GTS 20; GT 16). Aber was ist das in der Zeile darüber? GTX 32; GTS 28; GT 30? TMUs müssten 32/ 24/ ?? sein :confused:

reunion
2007-10-25, 20:51:33
754M Transistoren?


Durchaus realistisch, wenn es ein voller G80 plus NVIO, VP2, DP, PCIE2.0, und den G84-Verbesserungen ist. Viel Redundanz war im G80 IMO auch nicht vorhanden, da der Chip wohl schon ziemlich an der Grenze war, was die Die-Size betrifft. Es werden auch die 289mm² bestätigt, ob die Angaben nicht etwas zu optimistisch sind?

laser114
2007-10-25, 20:51:42
Die ROPs sind doch völlig korrekt.

Nur wenn die Zeile darüber die TMUs darstellen soll ist das merkwürdig.

Spasstiger
2007-10-25, 20:51:57
Bei der 8800 GTX/Ultra und der HD2900 XT ist wohl die Zahl an TAs gemeint. Aber was die 8 bei der 8600 GTS bedeuten soll, verstehe ich auch nicht.
Und 1600 MHz Shadertakt? Damit hat man eine höhere Shaderleistung als mit der 8800 GTX.

30 TAs (oder auch 28, falls man sich da vertan hat) bei der 8800 GT wären auf jeden Fall nett. Fragt sich nur, wieviele Samples pro TA gefiltert werden können (zwei wie bei G80 oder eins wie bei G84).

Die hohe Transistorzahl lässt natürlich auch noch Spekulationen zu, ob der Chip nicht doch mehr als 128 SPs zu bieten hat, wovon bei der 8800 GT aber nur 112 freigeschalten sind. Dann hätte die neue High-End-Lösung vielleicht 160 SPs.

Durchaus realistisch, wenn es ein voller G80 plus NVIO, VP2, DP, PCIE2.0, und den G84-Verbesserungen ist. Es werden auch die 289mm² bestätigt, ob die Angaben nicht etwas zu optimistisch sind?
Man darf aber nicht vergessen, dass das Speicherinterface beschnitten wurde. Oder ist es bei der 8800 GT nur nicht voll freigeschalten?

reunion
2007-10-25, 20:57:01
Man darf aber nicht vergessen, dass das Speicherinterface beschnitten wurde.

Sicher nicht.

Hvoralek
2007-10-25, 20:58:08
Bei der 8800 GTX/Ultra und der HD2900 XT ist wohl die Zahl an TAs gemeint. Aber was die 8 bei der 8600 GTS bedeuten soll, verstehe ich auch nicht.Auch bei der GTS sind doch nur 6 Cluster aktiv, also 24 TAs und nicht 28. Wenn das TAs sein sollten, sind die Angaben ziemlich fehlerhaft.

Oh und bitte: freigeschaltet, nicht freigeschalten.

Razor
2007-10-25, 21:04:16
Nvidia slides reveal supreme mastery of PR spinning
Graphzilla's word bending coup (http://www.theinquirer.net/gb/inquirer/news/2007/10/25/nvidia-slides-reveal-masterhood)

Dürfte wohl nicht mehr lange dauern bis die Folien im Netz sind.
Oh ha... da ist nVidia aber jemanden mächtig auf die Zehen getreten.

Der Heini hat wohl noch nie selbst eine wichtige präsentation erstellt - niemand der net gerade Hirnamputiert ist würde sich in der eigenen Präsi schlechtmachen ... wenigstens dieses Prinzip sollte man bedenken egal was für eine Präsi man anschaut.
Aber eines finde ich interessant:
- H.264-Playback auf 7900GT mit 60% CPU-Last? No way...
- VC1-Playback noch immer nicht voll durch den VP2 unterstützt? Ist ein echter Nachteil!

Vielleicht werde ich doch erst einmal die ersten Reviews und User-Erfahrungen abwarten.
Evtl. ist doch der RV670 das bessere Produkt...
Hmmm - 'jucken' tuts mich schon!

Razor

P.S.: der Stil der Präsentation ist mir wurscht. Da kenne ich wesentlich schlimmeres...

Die gelbe Eule
2007-10-25, 21:06:18
Naja, ist nicht wirklich so, daß sich H264 oder VC1 vorher nicht gut abspielen ließen. In Verbindung mit einem C2D sollte das fast Lachs sein.

Spasstiger
2007-10-25, 21:12:00
Oh und bitte: freigeschaltet, nicht freigeschalten.
Es ist beides möglich, geschalten ist die ältere Form. Nur wurde das ursprüngliche starke Verb "schalten" im Sprachgebrauch abgeschwächt, so dass heute "geschaltet" weiter verbreitet ist als "geschalten".

Was bedeutet in der Tabelle eigentlich das 12,12,10,10,6,14? Die Kartenlänge in Zoll? Kann ja irgendwie nicht sein.

reunion
2007-10-25, 21:13:30
Was bedeutet in der Tabelle eigentlich das 12,12,10,10,6,14? Die Kartenlänge in Zoll? Kann ja irgendwie nicht sein.

Die Layeranzahl der Platine.

Razor
2007-10-25, 21:20:52
Naja, ist nicht wirklich so, daß sich H264 oder VC1 vorher nicht gut abspielen ließen. In Verbindung mit einem C2D sollte das fast Lachs sein.
Wenn ich hier mal ein Beispiel bringen 'darf':

Video- 163.15 162,50 162.50 163.67 163.69 163.71 163.76 163.76
Beschl. (dev) WHQL PD73/P35 beta beta WHQL beta beta

MPEG2-HD 11* 11* 20* 17* 16* 16* 16* 16*
(HW) 5/30 8/16 15/36 11/33 11/21 12/22 11/20 11/21
MPEG2-HD 16 18 21 21 20 20 20 20
(soft) 12/22 14/22 15/36 16/32 16/23 16/22 15/24 16/24

H.264 13* 13* 18* 17* 17* 17* 17* 17*
(HW) 8/29 9/23 11/32 10/33 12/23 9/28 8/24 10/26
H.264 29 30 28 28 28 27 27 28
(soft) 11/39 21/41 18/45 20/40 17/45 18/38 18/42 20/37

VC1 21 22 27 27 27 25 27 27
(HW) 16/27 16/27 20/42 20/40 20/34 20/33 20/35 20/37
VC1 38 39 40 41 38 40 38 40
(soft) 32/44 33/46 32/50 34/48 33/44 33/46 34/46 20/45

WMV-HD 10* 10* 19 19 19 19 19 18
(PD7-HW) 6/15 7/13 9/31 9/38 9/30 11/27 12/30 9/29
WMV-HD 11* 11* 20 19 18 18 19 18
(PD7-soft) 6/14 6/14 10/33 12/39 8/28 9/25 20/31 8/30
WMV-HD 15 15 16 15 15 15 15 15
(WMP11) 7/27 9/22 8/30 7/29 8/24 5/25 7/22 6/23
Und das mit einer 7900GT!

Zuletzt 17% CPU-Last (CPU@Idle!) bei H.264 (full 1080p), aber 27% CPU-Last (CPU@Load) bei VC1...
...ganz zu Schweigen von den 40% CPU-Last bei einer 3,2GHz CPU.

Wäre also schon schön, wenn man die CPU gerade beim Abspielen von VC1-Vids erheblich entlasten würde.
Ein sehr interessanter Punkt, den ich ganz sicher im Auge halten werde...

Klar macht eine (sehr starke) CPU das quasi 'nebenbei'... aber Herrgott... das ist doch nur ein Video!?
Wenn also eine moderne GPU nicht einmal dazu in der Lage ist...

Razor

Spasstiger
2007-10-25, 21:20:59
Die Layeranzahl der Platine.
Ok, das macht natürlich Sinn.
Skaliert schön mit der Breite des Speicherinterfaces und dem Energiebedarf (je größer/höher, desto mehr Layer).

Gast
2007-10-25, 21:22:12
Wenn ich hier mal ein Beispiel bringen 'darf':

Video- 163.15 162,50 162.50 163.67 163.69 163.71 163.76 163.76
Beschl. (dev) WHQL PD73/P35 beta beta WHQL beta beta

MPEG2-HD 11* 11* 20* 17* 16* 16* 16* 16*
(HW) 5/30 8/16 15/36 11/33 11/21 12/22 11/20 11/21
MPEG2-HD 16 18 21 21 20 20 20 20
(soft) 12/22 14/22 15/36 16/32 16/23 16/22 15/24 16/24

H.264 13* 13* 18* 17* 17* 17* 17* 17*
(HW) 8/29 9/23 11/32 10/33 12/23 9/28 8/24 10/26
H.264 29 30 28 28 28 27 27 28
(soft) 11/39 21/41 18/45 20/40 17/45 18/38 18/42 20/37

VC1 21 22 27 27 27 25 27 27
(HW) 16/27 16/27 20/42 20/40 20/34 20/33 20/35 20/37
VC1 38 39 40 41 38 40 38 40
(soft) 32/44 33/46 32/50 34/48 33/44 33/46 34/46 20/45

WMV-HD 10* 10* 19 19 19 19 19 18
(PD7-HW) 6/15 7/13 9/31 9/38 9/30 11/27 12/30 9/29
WMV-HD 11* 11* 20 19 18 18 19 18
(PD7-soft) 6/14 6/14 10/33 12/39 8/28 9/25 20/31 8/30
WMV-HD 15 15 16 15 15 15 15 15
(WMP11) 7/27 9/22 8/30 7/29 8/24 5/25 7/22 6/23
Und das mit einer 7900GT!

Zuletzt 17% CPU-Last (CPU@Idle!) bei H.264 (full 1080p), aber 27% CPU-Last (CPU@Load) bei VC1...
...ganz zu Schweigen von den 40% CPU-Last bei einer 3,2GHz CPU.

Wäre also schon schön, wenn man die CPU gerade beim Abspielen von VC1-Vids erheblich entlasten würde.
Ein sehr interessanter Punkt, den ich ganz sicher im Auge halten werde...

Razor
Hoffentlich auch mit Verschlüsselung und ordentlicher Bitrate gemessen. Ein billiger Movie-Trailer von Apple bringt nix.

Razor
2007-10-25, 21:22:50
Hoffentlich auch mit Verschlüsselung und ordentlicher Bitrate gemessen. Ein billiger Movie-Trailer von Apple bringt nix.
:rolleyes:

reunion
2007-10-25, 21:25:11
Hoffentlich auch mit Verschlüsselung und ordentlicher Bitrate gemessen. Ein billiger Movie-Trailer von Apple bringt nix.

Offensichtlich nicht, sonst wäre die CPU-Last mit einer 7900GT weit höher.

Gast
2007-10-25, 21:26:38
:rolleyes:
Ein Eingeständnis deiner nicht aussagekräftigen Meßmethoden?

Die gelbe Eule
2007-10-25, 21:35:40
Wen interessiert die CPU Last wenn es nicht ruckelt? Ich glaube kaum das HD Content bisher nicht anschaubar war und der Heiland in Form einer GPU kommen muss. Von mir aus sollen es 5% werden, kann ich dann noch Archive zeitgleich entpacken, ganz großes Tennis.

Gast
2007-10-25, 21:40:12
Wen interessiert die CPU Last wenn es nicht ruckelt?
Besitzer von Rechnern, die nicht so leistungsstark sind. Kleinere Single-Core-Athlons, Semprons, Pentium4er und Celerons.

Die interessiert es nicht, ob ein C2D/Q mit einer Taktfrequenz, die es nichtmal offiziell kaufbar gibt, nicht voll ausgelastet ist.

Außerdem sind Razor's Schnipsel eben noch was anderes als echte HD-Filme. Da kommt noch die Entschlüsselung hinzu sowie - tadaaaaa - PiP-Streams. ;D

TheGoD
2007-10-25, 21:47:51
Besitzer von Rechnern, die nicht so leistungsstark sind. Kleinere Single-Core-Athlons, Semprons, Pentium4er und Celerons.

Die kaufen sich aber auch keine Gefo 8800;) Jede 100 € CPU sollte bei Standardtakt HD-Videos problemlos bewältigen können. Videobeschleunigung ist imo nur für LowEnd-GPUs wichtig (Stichwort HTPC).

nomadhunter
2007-10-25, 21:48:01
Die hohe Transistorzahl lässt natürlich auch noch Spekulationen zu, ob der Chip nicht doch mehr als 128 SPs zu bieten hat, wovon bei der 8800 GT aber nur 112 freigeschalten sind. Dann hätte die neue High-End-Lösung vielleicht 160 SPs.
Das bezweifle ich aus zwei Gründen.
1) 754M Transistoren sind nur 73M (11%) mehr als beim G80, die lässt sich mit NVIO, VP2 und vielleicht noch einigen Verbesserungen oder etwas mehr Redundanz leicht füllen. 160 SPs sind dagegen 25% mehr. Selbst bei unveränderter Architektur und ohne NVIO/VP2 wären das mindestens 850M.
2) Einen 128 SP-Chip mit 16 deaktivierten SPs für 199$ zu verkaufen ist eine Sache, aber einen 160 SP-Chip (der die 8800 Ultra alt aussehen lassen würde) für 199$ zu verkaufen ist einfach unwirtschaftlich. Zumindest wenn das 160 SP-Modell noch nicht mal vorgestellt ist.

Die gelbe Eule
2007-10-25, 21:49:25
Och, die Armen. Und die sollen sich dann ernsthaft eine 200-300€ GPU einbauen, welche dann durch eine CPU Limitierung ausgebremst wird? Da ist nichtmal der Rechner drunter die Hälfte wert ...

AnarchX
2007-10-25, 21:53:07
Jede 100 € CPU sollte bei Standardtakt HD-Videos problemlos bewältigen können.
Nicht in allen Fällen:
Schon die GPU-Benchmarks zeigten, dass H.264-codiertes Material der Härtefall für eine Grafikkarte ist. Bei einer CPU ändert sich dies auch nicht, weswegen viele Modelle nicht für eine ausreichende Beschleunigung sorgen können. Die Single-Core-CPU ist zu jedem Zeitpunkt mit dem Film überlastet, der eher wie eine Diashow wirkt. Selbst die meisten Dual-Core-Prozessoren, auch wenn diese deutlich besser als die Einkern-CPU agieren, sind nicht schnell genug. Erst ab einem Core 2 Duo E6700 mit 2,67 GHz konnten wir ein dauerhaft flüssiges Bild erzeugen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_avivo_hd_purevideo_hd_vergleich/12/#abschnitt_cpu_only_auslastung
-> Hier gibt es übrigens auch die ~60% @ H.264 auf einer GF79x00... ;)

Och, die Armen. Und die sollen sich dann ernsthaft eine 200-300€ GPU einbauen, welche dann durch eine CPU Limitierung ausgebremst wird? Da ist nichtmal der Rechner drunter die Hälfte wert ...
Es ging wohl eher dem Gast um VP1@G7x vs VP2@G84/6 und G92 und weniger um konkrete SKUs...

Die gelbe Eule
2007-10-25, 21:57:04
Auch da sollte man sich fragen ob "alte" Hardware mit "neuen" Codecs perfekt laufen muss oder ob der User das einfach nur gerne so hätte. Es ist wohl nicht vielen bewußt, wie groß manche 5-10k bitrate Dateien sind. Wahrscheinlich müssen die auch per ISDN downloadbar sein.
Ein HD/BR Laufwerk kostet auch etwas, genauso wie die Soundanlage dahinter, also nur um das Video irgendwie abspielen zu können, muss man nicht gegen NV wettern.

Gast
2007-10-25, 21:59:07
Jede 100 € CPU sollte bei Standardtakt HD-Videos problemlos bewältigen können.
Selbst wenn, es ist Verschwendung, eine CPU für einen Film voll auszulasten.
In der Zeit, brauche ICH meine Rechenleistung für sinnvollere Dinge!

Gast
2007-10-25, 21:59:55
nur um das Video irgendwie abspielen zu können, muss man nicht gegen NV wettern.
Hat sich ati dabei mit Rum bekleckert?

Spasstiger
2007-10-25, 22:00:14
In der Zeit, brauche ICH meine Rechenleistung für sinnvollere Dinge!
Für Boinc und Seti? ;)

andre87
2007-10-25, 22:02:32
Hat sich ati dabei mit Rum bekleckert?

mit Rum ganz sicher net;D

Gast
2007-10-25, 22:06:27
Auf Hard Tecs 4U wird jetzt auch schon gemutmaßt, ob überhaupt eine neue 8800 GTS erscheint:
"Von vielen als Lückenfüller zwischen Mid-Range und High-End Markt erwartet festigt sich unsere Vermutung, dass der G92 die bisherigen GTS-Modelle ablösen wird. Damit erübrigt sich auch ein Warten auf eine kommende aufgebohrte Version der GTS. Alles außer einem Auslaufen der GTS-Modelle wäre jedoch Unsinn, wie die Benchmarks zeigen."
Ebenso in den aktuellen 3DCenter News:
"Es bliebe also abzuwarten, ob nVidia wirklich noch eine neue GeForce 8800 GTS bringt, aufgrund der exzellenten Leistungen der GeForce 8800 GT sollte sich die GeForce 8800 GTS Serie eigentlich komplett erübrigen."
Ich persönlich würde es schade finden, wenn keine 8800GTS auf G92 Basis rauskommt, die die 8800GTX überflügelt, um dann die 8800GTX auslaufen zu lassen...

Gast
2007-10-25, 22:07:22
Für Boinc und Seti? ;)
Das wäre sinnvoller als stumpfsinnig eine Aufgabe zu erledigen für die der VP der Grafikkarte 100mal besser geeignet ist.
Desweiteren ist CPU-Leistung in vielen Bereichen wichtig, zum Film gucken müsste die CPU im absoluten IDLE sein, sonst würde es ab und zu ruckeln. :)

reunion
2007-10-25, 22:09:00
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_avivo_hd_purevideo_hd_vergleich/12/#abschnitt_cpu_only_auslastung
-> Hier gibt es übrigens auch die ~60% @ H.264 auf einer GF79x00... ;)


Entscheidend ist nicht die durchschnittliche, sondern die maximale Auslastung, denn diese bestimmt, ob der Film flüssig abgespielt werden kann. Und wenn man da schon einen E6700 braucht, um unter 90% CPU-Last zu kommen, dann zeigt das deutlich, dass ein vernünftiger Videoprozessor eben nicht nur bei alten Single-Cores Pflicht ist.

Das wäre sinnvoller als stumpfsinnig eine Aufgabe zu erledigen für die der VP der Grafikkarte 100mal besser geeignet ist.
Desweiteren ist CPU-Leistung in vielen Bereichen wichtig, zum Film gucken müsste die CPU im absoluten IDLE sein, sonst würde es ab und zu ruckeln. :)

Volle Zustimmung.

dargo
2007-10-25, 22:54:27
Ignoranz ist schon was herrliches. Das wurde dir schon mal vorgehalten:



http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/

Wenn schon ein nV-Mann öffentlich zugibt, dass der VRAM-Bug mit dem neuen Treiber nicht behoben wurde, wirst du doch wohl nicht bestreiten wollen, dass dieser existiert?
Und selbst wenn du oder sonst wer 1000 mal die gleiche Meldung hinschreibst, glaubhafter wird es trotzdem nicht. Solange ich selber den sogenannten Vram Bug nicht erlebt habe halte ich es für ein Gerücht! Da kannst du dich auf den Kopf stellen.

also zumindest meinen messungen nach hat die auflösung kaum einfluss auf den rambedarf...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5251164&postcount=39
Auch wenn mir die Messungen etwas komisch vorkommen. Warte erstmal die Full ab. :wink:

Das mag sein. 1600x1050 interessiert mich aber nicht, wenn dann 1600x1200. ;)

Das macht die Sache nicht einfacher. :D


Ich glaube aber, dass wenn die Monitoringtools anzeigen, dass der VRAM vollständig genutzt wird und wenig in den Systemhauptspeicher ausgelagert wird, dies nicht automatisch bedeuten muss, dass es dadurch nun kräftige Leistungseinbußen gibt. Ich denke es ist eher die Frage, mit welchen Daten permanent gearbeitet wird. Im Hauptspeicher ist es doch auch so, dass lange nicht laufende Prozesse irgendwann ausgelagert werden. Das heißt aber nicht automatisch, dass die Anwendungen dadurch langsamer werden.

Das ist vollkommen richtig. Wenn eine Anwendung zb. 530MB Speicher braucht und ~18MB ausgelagert werden müssen bleiben die Frames natürlich noch oben. Erst ab einem bestimmten Wert (je nach Anwedung) brechen sie ein. Der Übergang ist übrigens fließend. Sprich, überschreite ich den lokalen Speicher der Grafikkarte um zb. 60MB brechen die Frames auf ca. 30-35fps. Bei einer Überschreitung von 100MB schon in Bereiche von 20-25fps usw. (die Werte sollen natürlich nur als Beispiel dienen).


Viel schwerer wiegt imho momentan, dass man durch 1 GB Grafikkarten bei 32-Bit OS schon mal 1/4 des gesamten Adressraums für die CPU verliert.
Es ist höchste Zeit für WinXP64/Vista64. :)

3DoMan
2007-10-25, 23:11:51
Na ja, von einer Grafikkarte erwarte ich nun mal, das sie die Bilddarstellung beschleunigt, egal ob 3D oder Video.
Ansonsten, ich finde die 299€ die jetzt von einigen Händlern verlangt werden einfach unverschämt.

dargo
2007-10-25, 23:18:20
Ansonsten, ich finde die 299€ die jetzt von einigen Händlern verlangt werden einfach unverschämt.
Oh, es werden sogar 299€ verlangt. :tongue:
Das ist sogar höhere Abzocke als ich dachte. Immer das selbe. :cool:

AnarchX
2007-10-25, 23:21:01
Ok, das macht natürlich Sinn.
Skaliert schön mit der Breite des Speicherinterfaces und dem Energiebedarf (je größer/höher, desto mehr Layer).

Wobei hier interessant ist, wenn denn die Tabelle stimmt, dass ein 8800GTS 384Bit(bei der GTS sind ja je nach defekter GPU unterschiedliche 10 von 12 Speicher-Stellen bestückt) 147W PCB auch 10 Layer hat, wie das PCB der 256Bit 110W 8800GT. :|

3DoMan
2007-10-25, 23:23:56
Oh, es werden sogar 299€ verlangt. :tongue:
Das ist sogar höhere Abzocke als ich dachte. Immer das selbe. :cool:

natürlich immer das selbe, hier aber besonders selbiger als sonst üblich:biggrin:

Spasstiger
2007-10-25, 23:35:11
Wobei hier interessant ist, wenn denn die Tabelle stimmt, dass ein 8800GTS 384Bit(bei der GTS sind ja je nach defekter GPU unterschiedliche 10 von 12 Speicher-Stellen bestückt) 147W PCB auch 10 Layer hat, wie das PCB der 256Bit 110W 8800GT. :|
Vielleicht genügen 8 Layer nicht für 110 Watt, weil man nicht genug Masseleitungen hat, um das Übersprechen auf den Leitungen ausreichend klein zu halten.
Die relativ sparsame 8600 GTS hat ja auch schon 6 Layer.

Aus einer Vorlesung weiß ich auch, dass die Layer-Geschichte sogar schon bei studentischen Projekten von Bedeutung ist. Der Dozent hat uns eine Anekdote erzählt von einer Grafikkarte, die am Institut entwickelt wurde, und mit dem ursprünglichen Board mit 2 Layern kam es zu Pixelfehlern auf dem DVI-Ausgang. Nachdem man im Logikdesign keinen Fehler finden konnte, hat man eine 4-Layer-Platine anfertigen lassen. Und siehe da, die Grafikkarte lief fehlerfrei. Die zusätzlichen Layers boten nur Masse und Phase, keine Signalübertragung.

reunion
2007-10-25, 23:45:53
Und selbst wenn du oder sonst wer 1000 mal die gleiche Meldung hinschreibst, glaubhafter wird es trotzdem nicht. Solange ich selber den sogenannten Vram Bug nicht erlebt habe halte ich es für ein Gerücht! Da kannst du dich auf den Kopf stellen.


Warum sollte ich mich auf den Kopf stellen? Was du glaubst ist mir völlig gleichgültig. Das ignorieren von offensichtlichen Tatsachen, kurz Ignoranz, ist die Kunst, auf seine eigene Dummheit stolz zu sein.

LovesuckZ
2007-10-25, 23:51:08
Warum sollte ich mich auf den Kopf stellen? Was du glaubst ist mir völlig gleichgültig. Das ignorieren von offensichtlichen Tatsachen, kurz Ignoranz, ist die Kunst, auf seine eigene Dummheit stolz zu sein.

Ähm, der einzige, der etwas verdreht, bist du. Solange wie du die Existenz eines "Vram Bugs" nicht beweisen kannst, gibt es keinen.

dargo
2007-10-25, 23:52:52
Das ignorieren von offensichtlichen Tatsachen, kurz Ignoranz, ist die Kunst, auf seine eigene Dummheit stolz zu sein.
Dumm ist über Hardware zu urteilen die man selbst nicht besitzt.

3DoMan
2007-10-25, 23:54:03
Dumm ist über Hardware zu urteilen die man selbst nicht besitzt.
werdet jetzt nicht persöhnlich, wozu der Streit?

Slipknot79
2007-10-25, 23:58:45
Der unterstützt aber auch kein Hybrid-SLI, das kommt erst mit dem 790i bzw. "760i" im Q1 2008 und da wird wohl QC-OCing kein Problem sein.


Sicher? Soll die 7er Reihe nicht eigentlich aus der 6er Reihe entstehen? Dann würde ich mir nicht so große Hoffnungen machen :(

Die gelbe Eule
2007-10-26, 00:01:10
Weil einer sauer ist, daß ATi nicht schneller ist und mehr bieten kann als die 8800GT. Es gab man bestimmte User die ähnlich gedacht haben. Wenn man kaum noch etwas findet auf das man rumhacken kann, sucht man sich etwas aus, daß dann auf neue GPUs übertragen werden kann. VRAM Bug auf einer G92? Bisher ist weder der Bug selbst, noch das er auf einer G92 auftauchen könnte bestätigt worden. Somit könnte man das ganze Spielchen als Trollen ansehen. Nur wer Ahnung von der Materie hat und das sind nunmal hier die wenigsten, könnte sich dazu äußern, wenn sie es überhaupt wollten. Keiner von uns hat Plan von der Sache und damit sollten wir es auch belassen. Ein paar Sanktionen würen die Gemüter abkühlen lassen.

Hybrid SLi soll schon mit 750a und 780a funktionieren.

3DoMan
2007-10-26, 00:19:23
Weil einer sauer ist, daß ATi nicht schneller ist und mehr bieten kann als die 8800GT...

Na da warten wir doch mal ab:wink: in 2 Wochen sind wir schlauer, vielleicht wird die 3870HD ja besser sein als die 8800 GT?
Gibt es irgendwo Benches zur HD3870?

=Floi=
2007-10-26, 03:57:59
die 3870 konkurriert mit der GTX und die 3850/pro mit der GT
wenn ati es auch diesmal nicht schafft die GTX zu knacken können sie wirklich einpacken, denn nach einem jahr sollte man das schon schaffen können und sein design ausreichend verbessert haben!

mitlerweile glaube ich an einen 2. chip für eine neue GTX und ultra

Gast
2007-10-26, 04:05:42
lol warum sollte ati mit einer karte die gerade mal für 250 dollar verkauft werden soll die 400 euro gtx schlagen? hehe

James Ryan
2007-10-26, 05:55:59
die 3870 konkurriert mit der GTX und die 3850/pro mit der GT
wenn ati es auch diesmal nicht schafft die GTX zu knacken können sie wirklich einpacken, denn nach einem jahr sollte man das schon schaffen können und sein design ausreichend verbessert haben!

mitlerweile glaube ich an einen 2. chip für eine neue GTX und ultra

Die HD 3870 konkurriert mit der GT, allein schon wegen dem Preis!
Und erkläre mir bitte mal, wie ein R600 @ höherem Takt aber beschnittenem Speicherinterface plötzlich einer GTX gefährlich werden sollte? :|
Ich glaube die HD 3870 wird zu stark überschätzt, die Architektur ist gleich dem Vorgänger.

MfG :cool:

Ailuros
2007-10-26, 06:07:43
Momentan gibt es fuer mich noch ein weiteres Fragezeichen was mit D3D10.1 verbunden ist; falls es wirklich in populaeren Spielen nicht geht MSAA fehlerfrei einzuschalten, wird AMD's Marketing-abteilung auch toll auf dem Zeug (und auch gerechtfertigt) herumreiten.

Ich zumindest weigere mich jeglichem IHV einfach nur so zu verschenken; was fuer SM3.0 vs. SM2.x galt, wird auch fuer D3D10 vs. D3D10.1 gelten.

Falls hier NV versucht mit irgendwelchen merkwuerdigen Treiberstunts und ein paar wenigen Macken die Geschichte zu ueberbruecken, verdienen sie jegliche Kritik wie jeder andere IHV auch. Bleibt nur noch abzusehen was genau los ist.

seahawk
2007-10-26, 06:54:32
Es gibt ja auch die Theorie, dass NV DX10.1 absichtlich nicht nennt, weil es allle 8X00 können und es per Treiber pünkltich zu SP1 für alle frei gibt. Kann ich mir zwar nicht technische vorstellen, könnte aber vom Marketinggesichtspunkt eine interessante Idee sein.

Mumins
2007-10-26, 07:31:40
Und erkläre mir bitte mal, wie ein R600 @ höherem Takt aber beschnittenem Speicherinterface plötzlich einer GTX gefährlich werden sollte?

1. da die 512 bit gar nichts bringen
2. Die 8800GT kann das auch fast.

Silverbuster
2007-10-26, 07:37:40
1. da die 512 bit gar nichts bringen
2. Die 8800GT kann das auch fast.

Schaut man sich Benchmarks von stark übertakteten 2900XT Karten an, liegt eine 8800GTX immer noch in weiter ferne.

AnarchX
2007-10-26, 08:17:15
8800GT SLI in 3DM06 (http://forums.vr-zone.com/showthread.php?t=198371)

Und hier gab/gibt es eine MSI OC 8800GT 660/950MHz für $229:
http://www.clubit.com/product_detail.cfm?itemno=CA9654041&cmp=AFC-CJ_CBIT

Ailuros
2007-10-26, 08:56:50
Es gibt ja auch die Theorie, dass NV DX10.1 absichtlich nicht nennt, weil es allle 8X00 können und es per Treiber pünkltich zu SP1 für alle frei gibt. Kann ich mir zwar nicht technische vorstellen, könnte aber vom Marketinggesichtspunkt eine interessante Idee sein.

Too good to be true oder ich glaube es wenn ich es sehe.

Ailuros
2007-10-26, 09:02:39
1. da die 512 bit gar nichts bringen

...und warum bringen die 512bits nichts auf R600?

2. Die 8800GT kann das auch fast.

R600=
16*742MHz*2 = 23.7 GPixels/s
G92 =
16*600MHz*4 = 38.4 GPixels/s

seahawk
2007-10-26, 09:14:51
Too good to be true oder ich glaube es wenn ich es sehe.

Sehe ich auch so.

shane~
2007-10-26, 09:54:03
Yeston 8800 GT
http://www.chiphell.com/attachments/month_0710/20071026_f9bb6f7fd3b4bbac562b37wbbikvVbu1.jpg
http://forums.vr-zone.com/showthread.php?t=198403

Galaxy GeForce 8800 GT
http://img5.pcpop.com/ProductImages/Original/0/465/000465838.jpg
http://forums.vr-zone.com/showthread.php?t=198359

Gigabyte GeForce 8800GT
http://img137.imageshack.us/img137/8422/gbgf8800gte79e191sg8.jpg
http://forums.vr-zone.com/showthread.php?t=198332

dargo
2007-10-26, 10:02:50
Yeston 8800 GT
http://www.chiphell.com/attachments/month_0710/20071026_f9bb6f7fd3b4bbac562b37wbbikvVbu1.jpg
http://forums.vr-zone.com/showthread.php?t=198403

Neuer Hersteller? Habe von denen noch nie was gehört. Aber mal was anderes. Kann es sein, dass hier ein anderer Lüfter (leiser?) verwendet wird. Mit 1,8W hört der sich schon mal sehr angenehm an. ;)

Die Lüfter-Blätteranordnung scheint auch anders zu sein, die Anzahl der Lüfter-Blätter sieht imho auch höher aus.

MadManniMan
2007-10-26, 10:14:20
Was ich bemerkenswert finde: warum solch große Lager? Der Luftdurchsatz könnte echt besser sein!

shane~
2007-10-26, 11:01:14
Inno 3D 8800GT
http://www.expreview.com/img/news/071026/DSC00525_1.JPG
http://news.expreview.com/2007-10-26/1193384877d6578.html

AnarchX
2007-10-26, 11:19:20
Neuer Hersteller? Habe von denen noch nie was gehört.
Nein, beides Hersteller die hauptsächlich im asiatischen Markt aktiv sind.
Galaxy bietet sehr interessante Produkte an: NV-Dual-GPU-Karten, besondere OC-Versionen(z.B. gab es eine 7600GT mit 1ns GDDR3) und auch sehr schnelle Low-Profile-Karten wie z.B. eine 8600GT. Eigentlich Schade, dass sie nicht bei uns vertretten sind...

Die gelbe Eule
2007-10-26, 11:21:24
Galaxy war doch mal bei uns, waren die ersten mit der 6800GT/Ultra und dem Silencer serienmäßig.

dargo
2007-10-26, 11:29:06
Galaxy war doch mal bei uns, waren die ersten mit der 6800GT/Ultra und dem Silencer serienmäßig.
Jo, meine damalige G6800GT hatte den Silencer serienmäßig.

AnarchX
2007-10-26, 12:00:22
56 Texture-Adresser!


8800GT:
Fill Rate - Single-Texturing 4842.562 MTexels/s Feature Tests
Fill Rate - Multi-Texturing 25018.213 MTexels/s Feature Tests
Pixel Shader 453.709 FPS Feature Tests
Vertex Shader - Simple 252.614 MVertices/s Feature Tests
Vertex Shader - Complex 148.657 MVertices/s Feature Tests
Shader Particles (SM3.0) 100.402 FPS Feature Tests
Perlin Noise (SM3.0) 145.330 FPS Feature Tests
8 Triangles 19.917 MTriangles/s Batch Size Tests
32 Triangles 78.807 MTriangles/s Batch Size Tests
128 Triangles 280.877 MTriangles/s Batch Size Tests
512 Triangles 294.477 MTriangles/s Batch Size Tests
2048 Triangles 297.528 MTriangles/s Batch Size Tests
32768 Triangles 298.471 MTriangles/s Batch Size Tests


8800GTS:
Fill Rate - Single-Texturing 5136.310 MTexels/s Feature Tests
Fill Rate - Multi-Texturing 12084.927 MTexels/s Feature Tests
Pixel Shader 340.032 FPS Feature Tests
Vertex Shader - Simple 212.609 MVertices/s Feature Tests
Vertex Shader - Complex 113.446 MVertices/s Feature Tests
Shader Particles (SM3.0) 97.809 FPS Feature Tests
Perlin Noise (SM3.0) 98.889 FPS Feature Tests
8 Triangles 23.375 MTriangles/s Batch Size Tests
32 Triangles 77.990 MTriangles/s Batch Size Tests
128 Triangles 214.921 MTriangles/s Batch Size Tests
512 Triangles 248.264 MTriangles/s Batch Size Tests
2048 Triangles 253.191 MTriangles/s Batch Size Tests
32768 Triangles 254.327 MTriangles/s Batch Size Tests

http://forums.vr-zone.com/showthread.php?t=198459

robbitop
2007-10-26, 12:05:25
Ergo: in Zukunft nicht alles glauben, was gewisse Leute erzählen. ;)

Man sieht, dass die G92 selbst im MT nicht ihre Füllrate auf die Straße bekommt. Klar, wenn man nur 16 Farbwerte pro Takt schreiben kann und nur eine mittelkleine Bandbreite hat. Aber für AF und Texturoperationen ect wird's nicht schädlich sein. ;)

P.S
man achte auf den Pixelshaderwert. 453 fps vs 340 fps WTF? Das müßte man noch genauer untersuchen. Ob man die SFU ALU da etwas beschleunigen konnte?

AnarchX
2007-10-26, 12:07:46
Ergo: in Zukunft nicht alles glauben, was gewisse Leute erzählen. ;)

Naja, 16 TMUs auszuschliessen war ja nicht so schwer, aber an 56(64)TAs, die hier schon deutlich bandbreitenlimitiert sind, hätte ich nicht geglaubt.

Gast
2007-10-26, 12:08:31
Bleibt nur noch zu hoffen, dass die (angenommenen) 16 ROPs nicht zur Spassbremse werden. Damit kommt die 8800GT ja "nur" auf eine Pixelfüllrate von 9600MPix bei 600MHz Chiptakt...

Gast
2007-10-26, 12:09:13
Ich werd wohl zu den verrückten gehören, die sich das Ding direkt am Montag bestellen werden. Hoffentlich lohnt es sich. Lauter als der Lüfter meiner 7900GT kann das Teil ja gar nicht sein :D

Adam D. @ work

AnarchX
2007-10-26, 12:09:37
@Gast #417
Ich glaube mit Singel-Cycle-4xMSAA und 8 Z-Tests pro Takt werden die ROPs hier nicht unbedingt limtieren. ;)

dargo
2007-10-26, 12:09:48
56 Texture-Adresser!

Was bedeutet das konkret? 16xHQAF beim G92 fast for free?

LovesuckZ
2007-10-26, 12:11:22
Woah, da wird AMD aber verdammt so knappern haben. Da scheint nVidia ja für den Kunden DIE Midrange Karte seit Jahren auf den Markt zubringen. Für die Aktionäre wohl weniger gut. ;D

Was bedeutet das konkret? 16xHQAF beim G92 fast for free?

Er kann in einem Takt bis zu 56 Texturen adressieren. Oder anders: Wenn man beim G80 noch von "Doppel-TMUs" sprach (was natürlich falsch ist), hätte der G92 wieder "normale" TMUs.


P.S
man achte auf den Pixelshaderwert. 453 fps vs 340 fps WTF? Das müßte man noch genauer untersuchen. Ob man die SFU ALU da etwas beschleunigen konnte?

Die Karte hat eine ca. 45% höhrere MADD-Leistung.

dildo4u
2007-10-26, 12:12:51
GT
Vertex Shader - Complex 148.657 MVertices/s Feature Tests

GTS
Vertex Shader - Complex 113.446 MVertices/s Feature Tests

Das ist wirklich Interresant jetzt bitte eine 2900XT zum Vergleich ob Nvidia auch diese letzten Vorteil aufgeholt hat.

robbitop
2007-10-26, 12:13:05
Naja, 16 TMUs auszuschliessen war ja nicht so schwer, aber an 56(64)TAs, die hier schon deutlich bandbreitenlimitiert sind, hätte ich nicht geglaubt.
Es war nichts anderes als logisch. Sah man an der Evolution zum G84. Rückschritte hat NV eigentlich nie gemacht. Zumal der G92 den G80 ersetzen soll. ;)

GT
Vertex Shader - Complex 148.657 MVertices/s Feature Tests

GTS
Vertex Shader - Complex 113.446 MVertices/s Feature Tests

Das ist wirklich Interresant jetzt bitte eine 2900XT zum Vergleich ob Nvidia auch diese letzten Vorteil aufgeholt hat.

Meine eigenen Messungen vom Mai:

Simple:
310 MV/s
Compl:
191 MV/s

reunion
2007-10-26, 12:19:09
P.S
man achte auf den Pixelshaderwert. 453 fps vs 340 fps WTF? Das müßte man noch genauer untersuchen. Ob man die SFU ALU da etwas beschleunigen konnte?

Bei 112 SPs und 1.5Ghz Takt verwundert das wenig im Vergleich zur GTS.

robbitop
2007-10-26, 12:21:00
Ah stimmt, den Takt hab ich nicht beachtet. Danke :)

LovesuckZ
2007-10-26, 12:22:50
Quelle? Das ergibt für mich keinen Sinn.

(112 (SP) x 2 (MADD) x 1500 (Mhz)) / (96 (SP) x 2 (MADD) x 1200 (MHz)) ~= 1,45

robbitop
2007-10-26, 12:23:32
(112 (SP) x 2 (MADD) x 1500 (Mhz)) / (96 (SP) x 2 (MADD) x 1200 (MHz)) ~= 1,45
Habs selbst schon gesehen, siehe oben.

reunion
2007-10-26, 12:24:44
Es war nichts anderes als logisch. Sah man an der Evolution zum G84. Rückschritte hat NV eigentlich nie gemacht. Zumal der G92 den G80 ersetzen soll. ;)


Eben. Die Frage ist ob es ggü. G84 weitere Verbesserungen gibt.

Er kann in einem Takt bis zu 56 Texturen adressieren. Oder anders: Wenn man beim G80 noch von "Doppel-TMUs" sprach (was natürlich falsch ist), hätte der G92 wieder "normale" TMUs.


Wobei sich die Frage stellt, warum man jetzt wieder auf traditionelle TMUs setzt.

seahawk
2007-10-26, 12:25:28
Also ne 8600 die man aufgepumpt hat.

Ailuros
2007-10-26, 12:25:48
Mir kommen die Resultate auch nicht merkwuerdig vor. Die Resultate deuten ja nichtmal auf die auf G84 vorhandenen Verbesserungen oder ich bin gerade blind.

Ailuros
2007-10-26, 12:27:18
Also ne 8600 die man aufgepumpt hat.

Man hat wohl doch nicht alle G84 Erweiterungen eingebaut.

robbitop
2007-10-26, 12:28:34
Dazu müßte man mal HSR-Tests machen. Hat jemand mal die Ergebnisse (aufgeschlüsselt) einer G84 zum Vergleich (8600)?

reunion
2007-10-26, 12:28:35
Mir kommen die Resultate auch nicht merkwuerdig vor. Die Resultate deuten ja nichtmal auf die auf G84 vorhandenen Verbesserungen oder ich bin gerade blind.

Stimmt, zumindest das Tri-Setup wurde anscheinend nicht übernommen, denn die VS-Tests sind wenig berauschend.

robbitop
2007-10-26, 12:29:41
Wobei sich die Frage stellt, warum man jetzt wieder auf traditionelle TMUs setzt.
Weils effizienter ist. Auch bricht die Füllrate bei Fetches dann nicht so weg.

Bis das Tri-Setup (außer in Synthies) mal nen Flaschenhals darstellt, ist die G92 eh in Rente.

Ailuros
2007-10-26, 12:31:54
Stimmt, zumindest das Tri-Setup wurde anscheinend nicht übernommen, denn die VS-Tests sind wenig berauschend.

Mal sehen was mit der MRT Leistung los ist.

AnarchX
2007-10-26, 12:32:31
Bis das Tri-Setup (außer in Synthies) mal nen Flaschenhals darstellt, ist die G92 eh in Rente.
Aber NV will ja auch konkurrenzfähige Quadros anbieten.;)
Wobei mal vermutet wurde, dass bei GeForce das Tri-Setup gedrosselt wird.

LovesuckZ
2007-10-26, 12:33:32
Wobei sich die Frage stellt, warum man jetzt wieder auf traditionelle TMUs setzt.

"Traditionelle TMUs"? Das waren auch jene beim G80.

robbitop
2007-10-26, 12:35:43
Aber NV will ja auch konkurrenzfähige Quadros anbieten.;)
Wobei mal vermutet wurde, dass bei GeForce das Tri-Setup gedrosselt wird.
Das kann sehr gut sein. Schließlich will man seine Quadros und Teslas ja noch verkaufen. Ich kann mir kaum vorstellen, dass man Optimierungen aus dem G84 nicht mit übernommen hat.

reunion
2007-10-26, 12:37:24
"Traditionelle TMUs"? Das waren auch jene beim G80.

Dein ständiger Definitionsquark interessiert hier niemanden. Du weißt genau, was gemeint war.

Ailuros
2007-10-26, 12:40:34
Also wenn Ihr schon bei alberner Haarspalterei sind, dann sind "traditionelle TMUs" eher die von R6x0. Um Himmels Willen kein unoptimiertes AF anwenden ;)

LovesuckZ
2007-10-26, 12:42:58
Dein ständiger Definitionsquark interessiert hier niemanden. Du weißt genau, was gemeint war.

Die G80 Filtereinheiten haben die gleichen Eigenschaften wie diese des G70. Das der G80 weniger Texturen in einem Takt adressieren kann, ist wohl kaum eine "Verbesserung". :rolleyes:

reunion
2007-10-26, 12:47:21
Die G80 Filtereinheiten haben die gleichen Eigenschaften wie diese des G70. Das der G80 weniger Texturen in einem Takt adressieren kann, ist wohl kaum eine "Verbesserung". :rolleyes:

Naja, es spart Transistoren, und sollte in den seltensten Fällen ein Nachteil sein. Aber da die TAUs wohl nicht recht teuer sind, schadet es wohl auch nicht, diese wieder der TFU-Anzahl anzugleichen.

Hvoralek
2007-10-26, 13:46:19
@Gast #417
Ich glaube mit Singel-Cycle-4xMSAA und 8 Z-Tests pro Takt werden die ROPs hier nicht unbedingt limtieren. ;)Ich mache mir eher um die Bandbreite Sorgen. Die ist für so einen Chip nicht gerade üppig.

Ailuros
2007-10-26, 13:51:08
Ich mache mir eher um die Bandbreite Sorgen. Die ist für so einen Chip nicht gerade üppig.

Es ist zwar noch etwas vorzeitig, aber die Resultate aus einigen synthetischen Tests koennten auf einige Gewinne durch besseres z-culling bzw. Komprimierungs-Optimierungen deuten, die oefters fuer die Unterschiede kompensieren koennen.

robbitop
2007-10-26, 13:55:25
Naja die Bandbreite wird bei 56 bi TMUs ziemlich bremsen. Aber Füllrate kann man ja noch für andere Dinge nutzen.

AnarchX
2007-10-26, 13:57:31
Naja die Bandbreite wird bei 56 bi TMUs ziemlich bremsen.
Ob es wirklich die Bandbreite ist?
Bei G84 wurde vermutet, dass die Interpolatoren nicht nachkommen genügend Texturkoordinaten zu liefern.

btw.
Handelt es sich hier eigentlich um Octa-TMUs?

Ailuros
2007-10-26, 14:04:54
btw.
Handelt es sich hier eigentlich um Octa-TMUs?

Wenn sie gleich ausgelegt sind wie beim G84 ja.

Henroldus
2007-10-26, 14:05:39
detaillierter angeblich unabhängiger Test im 3DMark06:
8800GTS 640 vs 8800GT @ E6700 (http://forums.vr-zone.com/showthread.php?t=198459)

8666 vs 10530
Verbrauch ca 30W weniger


Edit: Upsa, das war ja schon der hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5968511&postcount=414 :redface:

Gast
2007-10-26, 14:32:45
Gibt es eigentlich inzwischen irgendwelche Neuigkeiten bzgl. der 8800GTS auf G92 Basis? Hard Tecs 4U und 3DCenter scheinen die in Ihren News ja mittlerweile komplett abzuschreiben. :( Ich möchte doch so gerne eine Grafikkarte mit einem "vollen" G92 und Dualslot-Kühlung, der der 8800GTX Paroli bietet...

Gast
2007-10-26, 16:12:17
Das würde mich auch interessieren!

Superheld
2007-10-26, 16:46:56
mal ein kleiner Vergleich:smile:
Treiber@default 1280x1024
prozzi@3,2ghz

8800GT 600/1500/900
Fill Rate - Single-Texturing 4842.562 MTexels/s
Fill Rate - Multi-Texturing 25018.213 MTexels/s
Pixel Shader 453.709 FPS
Vertex Shader - Simple 252.614 MVertices/s
Vertex Shader - Complex 148.657 MVertices/s
Shader Particles (SM3.0) 100.402 FPS
Perlin Noise (SM3.0) 145.330 FPS
8 Triangles 19.917 MTriangles/s
32 Triangles 78.807 MTriangles/s
128 Triangles 280.877 MTriangles/s
512 Triangles 294.477 MTriangles/s
2048 Triangles 297.528 MTriangles/s
32768 Triangles 298.471 MTriangles/s

8800GTS 597/1512/792
http://www.abload.de/img/206fof.jpg (http://www.abload.de/image.php?img=206fof.jpg)

Hvoralek
2007-10-26, 16:59:53
Was ist denn bei der GT mit der Single- Texturing- Füllrate los? Bei mehr Clustern und gleichem Takt sollte die wohl kaum geringer sein :(

AnarchX
2007-10-26, 17:00:32
Was ist denn bei der GT mit der Single- Texturing- Füllrate los? Bei mehr Clustern und gleichem Takt sollte die wohl kaum geringer sein :(
AFAIK ist hier die Bandbreite entscheident und vielleicht wirken sich hier auch die etwas ineffizienteren Octa-TMUs aus.

Hvoralek
2007-10-26, 17:14:58
AFAIK ist hier die Bandbreite entscheident und vielleicht wirken sich hier auch die etwas ineffizienteren Octa-TMUs aus.Die Bandbreite der GTS ist nur 11% höher, der Vorsprung beträgt aber 25%. Und das durch möglicherweise etwas höheren Verschnitt (Oder was meinst Du mit geringerer Effizienz)?

Auch beim Shader- Particle- Test liegt die GTS um 1/4 vorne :|

Das Restsystem spielt hier nirgends eine Rolle, oder?

AnarchX
2007-10-26, 17:24:10
Und das durch möglicherweise etwas höheren Verschnitt (Oder was meinst Du mit geringerer Effizienz)?
Ja, das meinte ich.


Auch beim Shader- Particle- Test liegt die GTS um 1/4 vorne :|

Das Restsystem spielt hier nirgends eine Rolle, oder?
Hmmm... auch beim Ursprungstest sind es nur 97FPS @GTS vs 100FPS @GT.
Entweder lief hier etwas schief oder limitiert hier die ROP-Leistung(3DM06-Doku?)?

Gaestle
2007-10-26, 19:01:02
Ist Single-Texturing heute noch groß von Bedeutung? Ist Multi-Texturing nicht wichtiger?

Coda
2007-10-26, 19:19:36
Ist Single-Texturing heute noch groß von Bedeutung?
Überhaupt nicht eigentlich.

robbitop
2007-10-26, 21:09:27
Ob es wirklich die Bandbreite ist?
Bei G84 wurde vermutet, dass die Interpolatoren nicht nachkommen genügend Texturkoordinaten zu liefern.

btw.
Handelt es sich hier eigentlich um Octa-TMUs?
Soviel ALU Leistung hat das Teil gar nicht, dass die Interpolatoren bremsen.

Gast
2007-10-26, 21:10:27
Überhaupt nicht eigentlich.
In Spielen nicht, aber wenn du Werte in den Shader bekommen willst, ist die Adressierfähigkeit schon interessant.

AnarchX
2007-10-26, 22:22:02
Hier hat auch schon jemand bzw. mehrere User eine 8800 GT:
http://img215.imageshack.us/img215/3066/indexet5.th.jpg (http://img215.imageshack.us/my.php?image=indexet5.jpg)
http://forum.lowyat.net/topic/541066/+420#

Wenn man übertakten will und das bei einer angenehmen Lautstärke, so wird man wohl nicht um einen besseren Kühler herumkommen.

Hvoralek
2007-10-26, 22:54:36
Ja, das meinte ich.Das scheint mir etwas viel für nur den zusätzlichen Verschnitt durch acht Pixel statt vier. Wobei die genauen Auswirkungen dieses Verschnitts variieren müssten (abhängig von der Menge der Polygonkanten auf dem Bild). Wenn das aber tatsächlich ein wesentlicher Faktor sein sollte, warum fällt der Verschnitt bei MT nicht genauso an?

Ist Single-Texturing heute noch groß von Bedeutung? Ist Multi-Texturing nicht wichtiger?Das ist natürlich ein synthetischer Test. Aber gerade da können sich mal weniger auffällige Probleme einer Architektur zeigen. Vlt. ist es auch etwas völlig Harmloses, ein Messfehler oder sonst etwas. Es sollte nur geklärt werden, woran das liegt.

Wenn man übertakten will und das bei einer angenehmen Lautstärke, so wird man wohl nicht um einen besseren Kühler herumkommen.Ich finde einen Single- Slot- Kühler für eine Karte mit 110W TDP ohnehin ziemlich grenzwertig. Der mag ja die Wärme von der Platine wegbekommen, aber er bläst sie eben einfach ins Gehäuse.

Vertigo
2007-10-26, 23:41:44
Ich finde einen Single- Slot- Kühler für eine Karte mit 110W TDP ohnehin ziemlich grenzwertig. Der mag ja die Wärme von der Platine wegbekommen, aber er bläst sie eben einfach ins Gehäuse.
Naja, durch die Form der Kühlrippen wird die Luft schon oberhalb der Karte in Richtung Gehäuserückwand geblasen. Zumindest in meinem Gehäuse sind dort Öffnungen, durch die der Abgasstrahl entweichen kann. :D

Spielebundles der 8800GTs: (diverse Internet-Quellen, die ich mir nicht gemerkt habe ... :redface:)

Asus: Company of Heroes: Opposing Fronts
Gigabyte: Neverwinter Nights 2
MSI: Colin McRae DIRT

Gast
2007-10-27, 00:03:05
Je billiger die Karte angeboten werden soll, umso billiger die Kühllösung. Kauft euch doch eine 8800GTS oder GTX, dann habt ihr auch ueren 2 Slot Kühler! Sei froh, wenn die Karte von der Lautstärke nicht hörbar wäre. nVidia hat in diesem Preissegment noch nie auf geringe Lautstärke gesetzt.

LovesuckZ

K4mPFwUr$t
2007-10-27, 00:12:31
@lovesuckz
dein vorschlag halte ich für weniger sinnvoll. wieso sollte man jetzt noch auf eine alte GTS oder GTX setzen, nur wegen den zwei slot kühler? die karten sind gerade im preissturz, es wäre reine geldverbrennung. lieber soll man sich einen neuen kühler moniteren oder montieren lassen oder ein modell mit einen anderen kühler kaufen als dein vorschlag zu beherzigen.

Gast
2007-10-27, 00:17:06
Es ging, das man hier nach einer Standard-Zwei-Slot-Kühlung schreit. Wer diese will, sollte dann zu den anderen karten greifen. Billig sollen die Karten sein, da muss eben irgendwo gespart werden.

3DoMan
2007-10-27, 08:59:11
@lovesuckz
dein vorschlag halte ich für weniger sinnvoll. wieso sollte man jetzt noch auf eine alte GTS oder GTX setzen, nur wegen den zwei slot kühler? die karten sind gerade im preissturz, es wäre reine geldverbrennung. lieber soll man sich einen neuen kühler moniteren oder montieren lassen oder ein modell mit einen anderen kühler kaufen als dein vorschlag zu beherzigen.

Ich hab noch mal Schwein gehabt und habe vorgestern meine alte 8800 GTS für 299€ per sofortkauf bei ebay vertickert (ebay halt....)
Für mich ist halt die Mehrleistung, die geringere Leistungsaufnahme, der funktionierende Videoprozessor und das fehlerbereinigte Chipdesign ausschlaggebend. Einen 20€ Kühler klatsche ich bei Bedarf drauf.
So What?

AnarchX
2007-10-27, 08:59:33
MSI GeForce NX8800GT 512MB Graphics Card @ TweakTown (http://www.tweaktown.com/reviews/1210/msi_geforce_nx8800gt_512mb_graphics_card/index.html)

73.3dB bei Last und somit lauter als 2900Pro/XT, einzig 2D scheint noch gerade so akzeptabel zu sein.

3DoMan
2007-10-27, 09:06:58
MSI GeForce NX8800GT 512MB Graphics Card @ TweakTown (http://www.tweaktown.com/reviews/1210/msi_geforce_nx8800gt_512mb_graphics_card/index.html)

73.3dB bei Last und somit lauter als 2900Pro/XT, einzig 2D scheint noch gerade so akzeptabel zu sein.

Meine Fresse, die 8800GT zieht der GTS nicht nur die Unterhosen aus, besonders und Quality Settings!!!!

Superheld
2007-10-27, 09:14:48
naja ;(

bei den Benchmarks siehts manmal so aus ob die GT schneller als die GTX wäre:|

AnarchX
2007-10-27, 09:23:38
Hab es mal in eine ordentliche Form gebracht:

nVidia - 8800 GT: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5971078#post5971078)
;)

Gast
2007-10-27, 09:26:07
Hab es mal in eine ordentliche Form gebracht:

nVidia - 8800 GT: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5971078#post5971078)
;)

Jedenfalls der Kühler der 8800GT scheint eine Fehlkontruktion zu sein. Aber irgendwo musste ja gespart werden. Da bin ich gespannt, wie ATIs HD3870 XT dasteht, in 55nm gefertigt und Dual-Slot Kühler, vielleicht die bessere Alternative?

Gast
2007-10-27, 09:34:18
Den Test bei Tweaktown kann man vergessen.Die Werte der 2900XT sind doch einfach bescheiden in dem Test.Ein ähnlicher Test mit einer Ultra und mehr CPU Takt hat weniger z.B. 3DMark06 Punkte(13000).Und jetzt soll die GT mehr Punkte als eine Ultra aufweisen?????Alles sehr merkwürdig.


mfg

Godmode
2007-10-27, 09:56:41
MSI GeForce NX8800GT 512MB Graphics Card @ TweakTown (http://www.tweaktown.com/reviews/1210/msi_geforce_nx8800gt_512mb_graphics_card/index.html)

73.3dB bei Last und somit lauter als 2900Pro/XT, einzig 2D scheint noch gerade so akzeptabel zu sein.

Also diese 73.3 dB nur unter Last auftreten, dann könnte ich das gerade noch verkraften! Aber die messen ja direkt neben der Karte, wie man im Bild sehen kann!?

Razor
2007-10-27, 10:23:27
Also diese 73.3 dB nur unter Last auftreten, dann könnte ich das gerade noch verkraften! Aber die messen ja direkt neben der Karte, wie man im Bild sehen kann!?
73dB sind schlichtweg inakzeptabel!
Das grenzt ja schon fast an Körperverletzung...

Habe mich wegen der VC1-Geschichte und dem Temperatur-Verhalten der GT dazu entschlossen, doch erst einmal erste 'echte' User-Reviews abzuwarten. Erst wenn ich sicher sein kann, dass ich meinen VF900 nicht auf volle Touren drehen muss, um die Karte zu bändigen, wird diese fest in den Hauptrechner eingebaut... und das Manko mit der Video-Beschleunigung muss ich mir nochmal durch den Kopf gehen lassen.

Ach was, ich laß mir beide Karten liefern und verklopp' die dann bei eBay.
Wenn ich mir die Bench-Junkies so anschau, werden die dafür bestimmt 350 und mehr für ausgeben wollen!
;D

Razor

P.S.: vermutlich bekomme ich die beiden für ca. 210€... ;)

Gast
2007-10-27, 10:25:42
MSI GeForce NX8800GT 512MB Graphics Card @ TweakTown (http://www.tweaktown.com/reviews/1210/msi_geforce_nx8800gt_512mb_graphics_card/index.html)

73.3dB bei Last und somit lauter als 2900Pro/XT, einzig 2D scheint noch gerade so akzeptabel zu sein.
Yeah. :)

Genau mein 7900GT Nachfolger. Laute, billige Kühlung. Dafür locker leicht mit meinem alten Wakükühlblock kühlbar.

K4mPFwUr$t
2007-10-27, 10:36:09
73db :|
zum glück würde ich mir ne wakü drauf klatschen, sonst wird man ja noch hörgeschädigt.
afaik gibt es ja zz nur einen kühler der 8800GT fähig ist.

aber die performance ist teilweise abartig, besonders bei CoH bench: 100 vs 175FPS :eek:

Gast
2007-10-27, 10:38:09
afaik gibt es ja zz nur einen kühler der 8800GT fähig ist.

Hä?

Der Lochabstand ist doch wie bei jeder 5xxx / 6xxx / 7xxx Karte.

Gast
2007-10-27, 10:42:40
Teilweise fast doppelt so schnell wie HD2900 oder verkrüppelte GTS. :)

Aber das verwirrt mich:
http://images.tweaktown.com/imagebank/msi88gt_g_11.gif
Wird zb. die CPU stärker ausgelastet und damit kommt das zustande?

nomadhunter
2007-10-27, 10:45:32
1269€ (http://geizhals.at/deutschland/a291462.html) :biggrin:

robbitop
2007-10-27, 10:47:33
Das ist natürlich ein synthetischer Test. Aber gerade da können sich mal weniger auffällige Probleme einer Architektur zeigen. Vlt. ist es auch etwas völlig Harmloses, ein Messfehler oder sonst etwas. Es sollte nur geklärt werden, woran das liegt.
Der ST-Füllratentest bei 3DMark misst eher die Bandbreite. Kein Wunder, dass 56 TMUs singlecycle leerlaufen. Kannst ja selbst gern mal durchrechnen wie teuer (in GiB/s) das wäre.

K4mPFwUr$t
2007-10-27, 10:49:36
@gast
wenn du von GPU only kühlern redest ja.
aber ich hatte da mehr an full graka kühler (GPU + VRAM + SPAWA) gedacht ;)

Winter[Raven]
2007-10-27, 10:51:34
Abwarten was sich im Bezug auf die Lautstärke entwickelt.... 73 sind doch etwas übertrieben...

Gast
2007-10-27, 10:54:58
aber ich hatte da mehr an full graka kühler (GPU + VRAM + SPAWA) gedacht ;)
Bei dem Originalkühler habe ich keine SPAWA Kühlung gesehen. :)
Und der VRAM ist eh nicht sooo wichtig.

Gast
2007-10-27, 11:13:36
Passen diese Kühler?

http://www.caseking.de/shop/catalog/product_info.php?cPath=975_976&products_id=6376

http://www.caseking.de/shop/catalog/product_info.php?cPath=975_976&products_id=6543

http://www.caseking.de/shop/catalog/product_info.php?cPath=975_976&products_id=6948

http://www.caseking.de/shop/catalog/product_info.php?cPath=975_976&products_id=6372

http://www.caseking.de/shop/catalog/product_info.php?cPath=975_976&products_id=7097

Gast
2007-10-27, 11:14:50
http://www.caseking.de/shop/catalog/product_info.php?cPath=975_976&products_id=6948

Das ist doch der 7900GTX Kühler???

Gast
2007-10-27, 11:15:30
also ich raff das nicht warum ist hat die so hohe werte beim 3d mark 06 ist ja locker mehr als eine ultra bei mittlerer auflösung,sonst super benchwerte die knickt ja nicht mal bei hohen auflösungen ein zum teil schneller bei 1920*1200 als alle anderen bei 1280*1024. nur die kühler lautstärke schreckt ab.

ShinyMcShine
2007-10-27, 11:21:35
Anscheinend wurde die Architektur so verbessert, dass selbst bei geringerer Bandbreite im Vergleich zur GTS/GTX/Ultra die GT nicht so einbricht. Ein toller Wurf von nVidia! Jetzt noch auf die neue 8800GTS mit G92 Chip warten, dann kann die GTX vom Markt genommen werden...

AnarchX
2007-10-27, 11:42:51
Fill Rate (billion pixels/sec.): 33.6
http://www.buy.com/prod/geforce-xlr8-8800gt-pcie-512mb-ctlrdvi-i-hdtv/q/loc/101/206166489.html

Ein zusätzliche Bestätigung schadet ja nicht.;)

laser114
2007-10-27, 11:43:52
Ich denke inzwischen kann man das glauben. :biggrin:

Die Tools lesen das halt irgendwie falsch aus, obwohl sie die Karte eigentlich kennen sollten. Wieso auch immer. ;)

ShinyMcShine
2007-10-27, 12:04:06
@ AnarchX:
Nach meiner Rechnung ist die Pixelfüllrate doch nur 9600 MPix/sec (600MHz * 16 ROPs)? Die Texelfüllrate hingegen beträgt 33600 MTex/sec (600MHz * 56 TMUs). Rechne ich falsch?

laser114
2007-10-27, 12:05:21
Nö, da liegst du klar richtig. Es ging hier um die Texelfüllrate, weil da ein Gerücht a 16 TMUs herumging - ausgelöst von Auslesesoftware (Everest, späer auch GPU-Z).

ShinyMcShine
2007-10-27, 12:08:50
OK! War verwirrt, weil in #488 stand: "Fill Rate (billion pixels/sec.): 33.6".
War dann wohl ein kleiner copypaste-Fehler, und es müßte "Fill Rate (billion texels/sec.): 33.6" heissen.

AnarchX
2007-10-27, 12:10:01
NV gibt die Texelfüllrate immer in billion pixels/sec an, naja wohl in Rücksicht auf die etwas unbedarfteren User, die mit MTex/s nichts anfangen könnten...

ShinyMcShine
2007-10-27, 12:12:42
Das führt dann im Umkehrschluss aber auch dazu, den etwas interssierten User u.U. zu verwirren. :) Trotzdem Danke für die Aufklärung! Dazu dann aber gleich eine Folgefrage: Meint Ihr nicht, dass die 9600 MPix/s Pixelfüllrate die 8800GT etwas limitieren könnten? Immerhin haben die Ultra 14688 MPix/s, die GTX 13800 MPix/s und selbst die "alte" GTS 10000 MPix/s...

AnarchX
2007-10-27, 12:16:27
Du solltest nicht vergessen, dass diese nur 16 ROPs fähig sind pro Takt 128 Z-Tests(R600 32) zu machen und für 4xMSAA(R600 2x) nur einen Durchlauf benötigen.

Imo wird am ehesten Speicherbandbreite und -menge limitieren.

ShinyMcShine
2007-10-27, 12:18:49
Wozu sind denn die 24 (resp. 20) "alten" ROPs des G80 in der Lage?

AnarchX
2007-10-27, 12:22:11
Wozu sind denn die 24 (resp. 20) "alten" ROPs des G80 in der Lage?

Auch zu 8xZ und 4xMSAA pro Takt.
Wobei Ailuros etwas davon schrieb, dass bei den G9x-ROPs das Culling wohl etwas verbessert wurde, was wiederrum diese theoretisch etwas stärker macht.

Hvoralek
2007-10-27, 12:33:26
Es ging, das man hier nach einer Standard-Zwei-Slot-Kühlung schreit. Wer diese will, sollte dann zu den anderen karten greifen. Billig sollen die Karten sein, da muss eben irgendwo gespart werden.Ich habe darauf hingewiesen, dass ich die Standardkühlung für nicht so toll halte. Offenbar stimmt das ja auch. Ob man da an der richtigen Stelle gespart hat, mag jeder für sich entscheiden.

Der ST-Füllratentest bei 3DMark misst eher die Bandbreite. Kein Wunder, dass 56 TMUs singlecycle leerlaufen. Kannst ja selbst gern mal durchrechnen wie teuer (in GiB/s) das wäre.Die Bandbreite der GTS ist nur 11% höher, ihr Vorsprung beträgt aber 25%. Das kann wie gesagt nicht nur an der Bandbreite liegen.

AnarchX
2007-10-27, 12:40:22
Wobei man bei Tweaktown vielleicht auch beachten muss, dass es eine OC-Version mit 660/950MHz ist, bei der wohl mehr als die 1.05V anliegen und ihr Verbrauch ja schon auf dem Niveau der 320er GTS liegt und da sollte klar sein warum hier der Single-Slot-Kühler wohl am Maximum arbeitet.
Hoffentlich waren da andere AIBs klüger...

reunion
2007-10-27, 13:05:32
Wobei man bei Tweaktown vielleicht auch beachten muss, dass es eine OC-Version mit 660/950MHz ist, bei der wohl mehr als die 1.05V anliegen und ihr Verbrauch ja schon auf dem Niveau der 320er GTS liegt und da sollte klar sein warum hier der Single-Slot-Kühler wohl am Maximum arbeitet.
Hoffentlich waren da andere AIBs klüger...

Zumindest kann man davon ausgehen, dass der Kühler kein Leisetreter ist. Wegen 10% mehr Takt wird ein leiser Kühler nicht zum Tornado. 73dB ist mehr als die Lautstärke eines Autos im Straßenverkehr, da hört der Spaß auf.

Den Test bei Tweaktown kann man vergessen.Die Werte der 2900XT sind doch einfach bescheiden in dem Test.Ein ähnlicher Test mit einer Ultra und mehr CPU Takt hat weniger z.B. 3DMark06 Punkte(13000).Und jetzt soll die GT mehr Punkte als eine Ultra aufweisen?????Alles sehr merkwürdig.


mfg

Kein Wunder, die GT ist auch die einzige Karte, bei der ein aktueller Treiber verwendet wurde. Und zumindest bei den 3dmark-Werten kann auch so etwas nicht stimmen.