PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800 GT - Performance D3D10 in 65nm im Oktober?


Seiten : [1] 2 3 4 5

AnarchX
2007-10-08, 09:58:27
8800GT (ehem. 8700GTS):
-> Slideshow... (http://img251.imageshack.us/slideshow/player.php?id=img251/1435/11930623074mb.smil);-)
http://img256.imageshack.us/img256/6076/20071012c97ddac0cabae68yy4.jpg


http://img204.imageshack.us/img204/4781/specs8800gtcopycopyfo0.jpg
Quelle (http://www.chilehardware.com/foro/nvidia-vs-amd-t117534.html)
http://img84.imageshack.us/img84/1558/02nvg92ef9.jpg


G92-270-A2 revision (65nm, Week 37 2007)
37.5mm x 37.5mm 1148-pin FCBGA package
Core clock : 600MHz / Shader clock : 1500MHz
VGPU = 1.05±10.5mV
10-layers PCB revision G92P393
8 chips of 16M x 32 Qimonda HYB18H512321 BF-10 @ 2V
256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz)
Coolermaster TM69 single slot cooler
3 heat-pipes, 1000-3200RPM, 34dB
110W TDP (Requires 6-pin PCIe connector)
NVIO/HDCP


http://img505.imageshack.us/img505/1342/02gf8800gtzg6.jpg
Weitere Bilder:
http://www.directupload.com/showoriginal-11538.jpg
http://img212.imageshack.us/img212/6949/8800gt2on0.jpg
http://img520.imageshack.us/img520/1694/8800gt3ci3.jpg
http://img250.imageshack.us/img250/8506/04gf8800gtcw7.jpg

MSI 8800GT (http://img139.imageshack.us/img139/2135/msigeforce8800gta167919fb1.jpg)
http://img250.imageshack.us/img250/7281/06gf8800gtam3.jpg
-> GT in schwarz + größerer Lüfter(öffnung) (frühes Sample?) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5903895&postcount=765)
http://img206.imageshack.us/img206/4995/g92specqp7.jpg

8800GT ohne Kühler (http://img147.imageshack.us/img147/5706/2007101762368481de0e0f0ds7.jpg)


- VR-Zone berichtert von einer G92-SKU, die als 8700GTS (http://www.vr-zone.com/?i=5236)bezeichnet wurde (nun 8800GT) wird und 1.0ns GDDR3 @ 256Bit haben soll

- D8P ist der SKU-Codename

Leistungsdaten:

http://img440.imageshack.us/img440/111/specdu8.jpg
- Taktraten: ~600MHz ROPs/TMUs, ? SPs(sollen sehr hoch getaktet sein = 1.5GHz?), 900MHz Speicher (http://my.ocworkbench.com/bbs/showthread.php?p=421506#post421506)
- Aufbau: wahrscheinlich: 16 oder 32TA, 32TFs, min. 64SPs(MADD+MUL) bzw. mehr 96(4x24) oder MADD+MADD SPs (33% mehr theoretische Power auf dem Papier, Praxis bis zu Faktor 2 möglich, da MADD sehr wichtig) oder doch 7 Cluster (28TA/56TF, 112SPs) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5912379&postcount=4)?

Benchmarks:
- 10.800 Punkte im 3DMark06
- 3DM06 mit 4xAA/8xAF (20% langsamer als eine 8800Ultra) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5925387&postcount=370)
- Game-Benches (http://myevilprocessor.blogspot.com/2007/10/geforce-8800-gt-512mb.html) (gewisse Unregelmäßigkeiten, versch. Systeme?
- CPU-Last bei HD-Material (http://news.expreview.com/2007-10-13/1192281262d4094.html)
- 8800 GT in der UT3 Demo (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5947602&postcount=808)

Versionen/Preise:

http://img444.imageshack.us/img444/4096/d8pslijaqy8.jpg
- 512MB - $249 (http://www.vr-zone.com/?i=5250) oder $229 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5902571&postcount=715) (ab Oktober/November)
- 256MB - $199 (http://www.vr-zone.com/?i=5250) oder $179 (ab Dezember)
- gelistet in der Schweiz (http://www.toppreise.ch/prod_125785.html) (~206€)
- Foxconn mit 8800 GT auf der Seite vor dem Release (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5945930#post5945930)

Kühlung und Verbrauch:
- 65W GPU und 110W gesamt TDP laut PCinlife (veraltet?)
- Kühler mit 3 Heat-Pipes (http://vr-zone.com/articles/GeForce_8800_GT_Cooler_Has_3_Heat-Pipes/5320.html)

- Veröffentlichung: laut letzten Infos, 29.Oktober

- PCB ist 23cm lang und besitzt 8 Layer (http://www.vr-zone.com/?i=5242)

seahawk
2007-10-08, 10:09:25
Könnten wir bei Aufbau bitte 64 oder 96SPs schreiben ?

AnarchX
2007-10-08, 10:14:01
Könnten wir bei Aufbau bitte 64 oder 96SPs schreiben ?

Ja, habe mal ein paar Möglichkeiten ergänzt. ;)

AnarchX
2007-10-08, 10:52:02
8800 GT mit 112SPs?:|

Jedenfalls behauptets G.F. @ Mobile1, zudem sollen sie auf 1.5GHz laufen (500GFLOPs?):
http://translate.google.com/translate?u=http%3A%2F%2Fwww.mobile01.com%2Ftopicdetail.php%3Ff%3D298%26t%3D4171 48%26last%3D3786435&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Und das ist im PCinlife aufgetaucht:
http://img186.imageshack.us/img186/3168/200710080e21e71d66a455che8.gif


Das würde auch 12k im 3DMark erklären.

Aber das für $249 bzw.$229?:|

Gast
2007-10-08, 10:56:34
Chipfläche. 7-Cluster sollten irgendwo bei 220mm² angesiedelt sein. Dazu kommt das einfachere Boardlayout.

Gast
2007-10-08, 10:57:04
Hmm, damit wäre die 8800GT der Nachfolger der GTS. Das passt doch alles vorne und hinten nicht zusammen. Entweder es kommt Ende Oktober noch was zur 8800GT oder es wird absichtlich verdammt viel Informationsmist in den Umlauf gebracht.

seahawk
2007-10-08, 11:08:57
8800 GT mit 112SPs?:|

Jedenfalls behauptets G.J. @ Mobile1, zudem sollen sie 1.5GHz laufen (500GFLOPs?):
http://translate.google.com/translate?u=http%3A%2F%2Fwww.mobile01.com%2Ftopicdetail.php%3Ff%3D298%26t%3D4171 48%26last%3D3786435&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Und das ist im PCinlife aufgetaucht:
http://img186.imageshack.us/img186/3168/200710080e21e71d66a455che8.gif


Das würde auch 12k im 3DMark erklären.

Aber das für $249 bzw.$229?:|

Das dürfte ne Verwechselung mit der neuen GTS sein.

dargo
2007-10-08, 11:13:34
Das dürfte ne Verwechselung mit der neuen GTS sein.
Hmm, das wäre natürlich auch möglich und die knapp 12k Points würden sich auf die neue G8800GTS und nicht die G8800GT beziehen. :uponder:

Gast
2007-10-08, 11:15:31
Die 12K sind IMHO kein Problem mit den G84-Verbesserungen. Schon ein G84 mit nur zwei Cluster dürfte mit einem C2Q6600 an die 7K oder mehr erreichen.

reunion

Die gelbe Eule
2007-10-08, 11:22:47
Keine 3 Wochen mehr und NV streut gewaltig. Finde das lustig, wie beim letzten mal. Für die 210€ bekommt man von Meldung zu Meldung immer mehr geboten.

Gast
2007-10-08, 11:31:48
Keine 3 Wochen mehr und NV streut gewaltig. Finde das lustig, wie beim letzten mal. Für die 210€ bekommt man von Meldung zu Meldung immer mehr geboten.
Und am Schluss trifft's doch genau die Mitte zwischen 8600GTS und 8800GTS :ulol2:

Die gelbe Eule
2007-10-08, 11:37:57
Dafür ist sie bereits jetzt zu schnell. Es gibt ja auch eine neue Mitte, da die alte aufgewertet wurde. Auch die 8600GTS kommt als neue Version mit PCI-E 2.0. Wer weiß was da an Takt noch zugelassen wird.

Gast
2007-10-08, 11:46:09
Dafür ist sie bereits jetzt zu schnell. Es gibt ja auch eine neue Mitte, da die alte aufgewertet wurde. Auch die 8600GTS kommt als neue Version mit PCI-E 2.0. Wer weiß was da an Takt noch zugelassen wird.
Aha, wir wissen also, dass sie dafür jetzt schon zu schnell ist? Woher denn? :usad:

Dazu bleibt Mitte Mitte, egal ob neue oder alte. Das Ding wird einfach nicht der Killer, den einige erwarten.

Die gelbe Eule
2007-10-08, 12:03:22
Es soll doch auch nichts killen, sondern nur ersetzen. 192MB mehr RAM bei weniger Verlustleistung und besserer Performance zu einem 40€ niedrigeren Preis als die 320er halte ich schon für erwähnenswert. Sie wird also jetzt das was die 320er nicht werden konnte, eine Performancekarte mit einen guten P/L-Verhältnis.

seahawk
2007-10-08, 12:08:01
Aha, wir wissen also, dass sie dafür jetzt schon zu schnell ist? Woher denn? :usad:

Dazu bleibt Mitte Mitte, egal ob neue oder alte. Das Ding wird einfach nicht der Killer, den einige erwarten.

Sowohl 8800GTs Rev.1 als auch 8600GTS sind für die Platzierung der 8800GT im Line-up irrelevant.

Gast
2007-10-08, 12:11:27
Sowohl 8800GTs Rev.1 als auch 8600GTS sind für die Platzierung der 8800GT im Line-up irrelevant.
Kannst du das bitte genauer erläutern? Zumindest die 8600GTS ... Dass die neue 8800GTS die Obergrenze stellt, ist ja inzwischen offensichtlich. Ist schon etwas über den Nachfolger der 8600GTS bekannt oder hab ich was verpasst? :uponder:

Gast
2007-10-08, 12:16:21
Sinnvoller wäre es die neue 8800GTS als 8800GTS2 zu vermarkten und die alte auslaufen zu lassen.
Auch aus Vergleichbarkeit, alte 8800GTS Benches haben nur noch wenig mit der Leistung der 8800GTS zu tun.

seahawk
2007-10-08, 12:39:26
Kannst du das bitte genauer erläutern? Zumindest die 8600GTS ... Dass die neue 8800GTS die Obergrenze stellt, ist ja inzwischen offensichtlich. Ist schon etwas über den Nachfolger der 8600GTS bekannt oder hab ich was verpasst? :uponder:

Natürlich. Die 8600 ist heute sowieso nur noch Mainstream. Ein PCI-E 2.0 8600 ist ja schon bekannt. Und im 1Q08 wird der 80nm Chip wohl einem 55nm Platz machen müssen.

G92 muss sich nur in der G9X Linie eingliedern und nicht auch noch zur G8X passen.

Gast
2007-10-08, 12:44:11
Wer sagt, dass es überhaupt eine 9X-Line für die G9x geben wird? Der Name 8800GT für G92 spricht da eigentlich eindeutig dagegen.

reunion

Gast
2007-10-08, 12:59:35
Natürlich. Die 8600 ist heute sowieso nur noch Mainstream. Ein PCI-E 2.0 8600 ist ja schon bekannt. Und im 1Q08 wird der 80nm Chip wohl einem 55nm Platz machen müssen.

G92 muss sich nur in der G9X Linie eingliedern und nicht auch noch zur G8X passen.
8800GT muss in das 8xxx-Lineup passen und nicht irgendwo in einer zukünftigen Reihe. Sonst wäre der Name wohl nicht so gewählt worden.

seahawk
2007-10-08, 13:03:36
Und wer sagt, dass sie nicht zwischen 8900 GTX/GTS und 8700 GT/GS paßt ?

Gast
2007-10-08, 13:10:41
Und wer sagt, dass sie nicht zwischen 8900 GTX/GTS und 8700 GT/GS paßt ?
Wer sagt, dass 8900 überhaupt existiert? ;)

Gast
2007-10-08, 13:11:39
Wovon redest du bitte? Natürlich "passt" sie zwischen eine fiktive GF8900 und GF8700 (sofern diese je existieren werden), zumindest wäre das logisch. Nur viel wichtiger ist, dass sie eben auch in die 8800-Reihe passen muss, und da spricht der Name 8800GT eine ziemlich deutliche Sprache wo die Karte positioniert ist.

reunion

Gast
2007-10-08, 13:20:34
Wovon redest du bitte? Natürlich "passt" sie zwischen eine fiktive GF8900 und GF8700 (sofern diese je existieren werden), zumindest wäre das logisch. Nur viel wichtiger ist, dass sie eben auch in die 8800-Reihe passen muss, und da spricht der Name 8800GT eine ziemlich deutliche Sprache wo die Karte positioniert ist.

reunion
So war es auch nicht gemeint. Aber wenn jetzt der G92 als erster Vertreter der G9x-Chips mit dem Namen "8800GT" startet, dann muss er doch primär erstmal in das 8x00-Lineup reinpassen. Du kannst doch nicht jetzt 'nen Chip launchen, der die Grenzen des jetztigen Lineups völlig sprengt, nur weil er dann einige Monate später in das neue Lineup reinpasst :confused:

Gast
2007-10-08, 13:28:03
So war es auch nicht gemeint. Aber wenn jetzt der G92 als erster Vertreter der G9x-Chips mit dem Namen "8800GT" startet, dann muss er doch primär erstmal in das 8x00-Lineup reinpassen. Du kannst doch nicht jetzt 'nen Chip launchen, der die Grenzen des jetztigen Lineups völlig sprengt, nur weil er dann einige Monate später in das neue Lineup reinpasst :confused:

Ich gebe dir vollkomen recht. Ein GF9x-Lineup für G9x halte ich ohnehin für unwahrscheinlich, da der einzige Unterschied der G9x der 65nm Prozess zu sein scheint. Zudem heißt ja G92 nicht ohne Grund GF8800GT, an eine nachträgliche Umbenennung glaube ich nicht.

reunion

LovesuckZ
2007-10-08, 13:35:00
Der einzige Unterschied zwischen 7800 und 7900 Karten lag in der Fertigung.
Wir haben zum jetzigen zeitpunkt keine Stichhaltigen Informationen, wie die 8800GT aufgebaut sein wird. Jetzt davon zu reden, dass die Karte langsamer als eine GTS wäre, ist einfach zu früh und falsch.

LovesuckZ

Godmode
2007-10-08, 13:36:49
Es könnte ja durchaus sein, das die Karten dann als Geforce 89xx verkauft werden und die jetztigen Namen nur der Verwirrung dienen.

Gast
2007-10-08, 13:46:51
Ich gebe dir vollkomen recht. Ein GF9x-Lineup für G9x halte ich ohnehin für unwahrscheinlich, da der einzige Unterschied der G9x der 65nm Prozess zu sein scheint. Zudem heißt ja G92 nicht ohne Grund GF8800GT, an eine nachträgliche Umbenennung glaube ich nicht.

reunion
Sie haben den Namen schon einmal geändert. Möglicherweise rüstet man sich doch für einen härteren Kampf gegen RV670?

Es könnte ja durchaus sein, das die Karten dann als Geforce 89xx verkauft werden und die jetztigen Namen nur der Verwirrung dienen.
Die Möglichkeit besteht, aber für 8800GT gibt's doch jetzt schon einige Hinweise. Wär natürlich bitter, wenn Nvidia hier absichtlich die Leute an der Nase herumführt.

Gast
2007-10-08, 14:01:35
Wir haben zum jetzigen zeitpunkt keine Stichhaltigen Informationen, wie die 8800GT aufgebaut sein wird. Jetzt davon zu reden, dass die Karte langsamer als eine GTS wäre, ist einfach zu früh und falsch.

LovesuckZ

Ich bitte dich. NV wird ja wohl wissen, wie schnell ihr G92 Chip ist. Der Verkaufsname 8800GT ist mehrmals bestätigt, und diesen würde man mit Sicherheit nicht wählen, wenn die Karte eine GTS schlagen würde. Das sollte wirklich jeder einsehen können. Aber bitte, die Spezifikationen müssen eh bald aufgedeckt werden, dann werden wir ja sehen.

reunion

Gast
2007-10-08, 14:07:13
Sie haben den Namen schon einmal geändert. Möglicherweise rüstet man sich doch für einen härteren Kampf gegen RV670?


Die Karte wird in drei Wochen vorgestellt. Die jetzt an die Öffentlichkeit kommenden Dinge stammen alle von AIBs, welche nV so kurz vor dem Launch sicherlich nicht mehr im unklaren lassen kann, wenn man die Karte zeitgerecht im Handel haben will. An eine Namensänderung (AFAIK sollte die Karte ja ursprünglich 8700GTS heißen) oder Täuschungsaktionen konnte man vielleicht noch vor einem Monat denken, doch jetzt sind solche Dinge längst fixiert.

reunion

seahawk
2007-10-08, 14:11:59
Also wird die ATI 2950Gt auch schneller sein als die 2900XT, ATI wird den Namen ja mit Bedacht wählen. :D

LovesuckZ
2007-10-08, 14:17:18
Ich bitte dich. NV wird ja wohl wissen, wie schnell ihr G92 Chip ist. Der Verkaufsname 8800GT ist mehrmals bestätigt, und diesen würde man mit Sicherheit nicht wählen, wenn die Karte eine GTS schlagen würde. Das sollte wirklich jeder einsehen können. Aber bitte, die Spezifikationen müssen eh bald aufgedeckt werden, dann werden wir ja sehen.
reunion

Ein Name sagt überhaupt nichts aus.

Coda
2007-10-08, 14:17:30
Dann würde sie 2950XT heißen.

Gast
2007-10-08, 14:23:53
Also wird die ATI 2950Gt auch schneller sein als die 2900XT, ATI wird den Namen ja mit Bedacht wählen. :D

Du vergleichst wiedermal Äpfel mit Birnen. Kein Hersteller ist sich zu Schade, ein neues Produkt auch wegen noch so kleinen Verbesserungen gegenüber dem Vorgänger übermäßig hoch zu bewerten, um dadurch vielleicht unwissende Kunden zu gewinnen. Doch warum sollte nV seine G92 Chip 8800GT nennen, wenn dieser weit mehr verdient hätte? Understatment? Ich glaube nicht.

reunion

Gast
2007-10-08, 14:26:47
Ein Name sagt überhaupt nichts aus.

Oh doch, ein Name sagt sogar sehr viel aus. Er sagt nämlich aus, wo der Hersteller die Karte innerhalb der Reihe positionieren will.

reunion

seahawk
2007-10-08, 14:32:57
Du vergleichst wiedermal Äpfel mit Birnen. Kein Hersteller ist sich zu Schade, ein neues Produkt auch wegen noch so kleinen Verbesserungen gegenüber dem Vorgänger übermäßig hoch zu bewerten, um dadurch vielleicht unwissende Kunden zu gewinnen. Doch warum sollte nV seine G92 Chip 8800GT nennen, wenn dieser weit mehr verdient hätte? Understatment? Ich glaube nicht.

reunion

Aber das spielt primär der Preis ne Rolle. Und da paßt 8800GT perfekt.

Gast
2007-10-08, 14:36:24
Aber das spielt primär der Preis ne Rolle. Und da paßt 8800GT perfekt.

Der Preis orientiert sich zwangsläufig an der Leistung, sonst würde man mit einem Chip die gesamte Reihe in Frage stellen. oder wer kauft noch eine 8800GTS/GTX, wenn man mit G92 >GTS-Speed für 200$ bekommen würde?

reunion

seahawk
2007-10-08, 14:40:43
Der Preis orientiert sich zwangsläufig an der Leistung, sonst würde man mit einem Chip die gesamte Reihe in Frage stellen. oder wer kauft noch eine 8800GTS/GTX, wenn man mit G92 >GTS-Speed für 200$ bekommen würde?

reunion

Warum läuft die 96SP GTS wohl aus ? Und auch die 112SP Version ist nur eine Lagerräumung. Wenn NV dann die "größeren" Modelle des G92 vorstellt, dann wird es schon wieder passen, auch von Preis.

LovesuckZ
2007-10-08, 14:44:40
Es macht wirtschaftlich für nVidia keinen Sinn weiter auf eine 8800GTS 640mb zu setzen, wenn man wesentlich billiger einen G92 mit entsprechen Taktraten produzieren könnte.

reunion
2007-10-08, 16:48:05
Warum läuft die 96SP GTS wohl aus ? Und auch die 112SP Version ist nur eine Lagerräumung. Wenn NV dann die "größeren" Modelle des G92 vorstellt, dann wird es schon wieder passen, auch von Preis.

Ich habe natürlich von der neuen 8800GTS gesprochen. Die 8800GT könnte durchaus annähernd mit der alten 8800GTS gleichziehen, aber mehr auch nicht. Immerhin muss auch ein gewisser Abstand zum nächsthöheren Modell vorhanden sein. Und das die 8800GT nur ein teildeaktivierter G92 ist, halte ich nach wie vor für unrealistisch. Sowas gabs ja überhaupt noch nie. Würde G92 G80 ersetzten, dann wäre die Produktion des G80 längst eingestellt worden und man hätte jetzt nicht volle Lager, die man räumen müsste, sondern könnte gleich einen "vollen" G92 vorstellen. Alle bisher durchgesickerten nV-Folien positionieren die 8800GT ganz klar unter der 8800GTS in einem Preisbereich <250$ und danach wird sich auch die Leistung richten. Auch wenn das manche immer noch nicht wahrhaben wollen: G92 soll die Lücke zwischen 8600GTS und 8800GTS schließen, mehr nicht.

Gast
2007-10-08, 16:51:41
wie lange vor dem launch war eigentlich unbekannt, dass die 8600GTS nur 32SP hat ?

sklave_gottes
2007-10-08, 16:53:45
Die GTX ist 45-50% schneller als eine GTS. Ich frage mich immer wieder wie man an diese ~30% kommt? Oder wollen wir jetzt CPU-Limits bei Grafikkarten als Maßstab nehmen?
Oder meinst du damit die GTS hat ca. 70% der Leistung einer GTX? Das kommt schon eher hin.

@dargo

Laut cb gewinnt die 8800gtx gegenüber der 8800gts beim Sprung von 1600x1200 4aa/16af auf 1280x1024 4aa/16af nur 1% mehr vorsprung. Genau von 37% auf 38% laut CB:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet
Ich würde nicht sagen das die gtx da gegenüber der gts noch so grosse reserven hat das sie den vorsprung auf 50% ausbauen kann ohne das die gts ins Speicher limit rennt. B.z.w. wir uns noch in spielbaren bereich finden. Fakt gtx c.a. 38% schneller wie gts. Übrigens gewinnt die alte x1950xtx gegenüber der 8800gtx sogar 2% punkte zurück von 1280auf1600...

Es ist noch alles offen, es kann auch genau so gut sein das nvidia in 3 wochen sofort 2 karten vorstellt eine mit 64/96 und eine mit 112, ob ganz neu oder alt/geteilt wird sich dann zeigen. Fakt ist wir wissen zu wenig und es laufen einfach viel zu viele falsch infos rum.

Das einzige was ich euch sagen kann, was 100% fest steht ist:
Wenn eine Karte kommt die 8800gt heist wird sie 100% nicht schneller sein als eine 8800gts!

mfg martin

AnarchX
2007-10-08, 16:54:38
wie lange vor dem launch war eigentlich unbekannt, dass die 8600GTS nur 32SP hat ?

OCW leakte diese Info bzw. Everest 10 Tage vor dem Launch.

reunion
2007-10-08, 16:56:06
OCW leakte diese Info bzw. Everest 10 Tage vor dem Launch.

Erste Meldungen dazu kamen AFAIK schon früher, nur wollte das damals niemand glauben, sondern setzte lieber auf die 3dmark-Werte, welche wie später bekannt wurde auch noch in 1024 x 768 entstanden.

seahawk
2007-10-08, 17:22:32
Ich habe natürlich von der neuen 8800GTS gesprochen. Die 8800GT könnte durchaus annähernd mit der alten 8800GTS gleichziehen, aber mehr auch nicht. Immerhin muss auch ein gewisser Abstand zum nächsthöheren Modell vorhanden sein. Und das die 8800GT nur ein teildeaktivierter G92 ist, halte ich nach wie vor für unrealistisch. Sowas gabs ja überhaupt noch nie. Würde G92 G80 ersetzten, dann wäre die Produktion des G80 längst eingestellt worden und man hätte jetzt nicht volle Lager, die man räumen müsste, sondern könnte gleich einen "vollen" G92 vorstellen. Alle bisher durchgesickerten nV-Folien positionieren die 8800GT ganz klar unter der 8800GTS in einem Preisbereich <250$ und danach wird sich auch die Leistung richten, auch wenn das manche immer noch nicht wahrhaben wollen: G92 soll die Lücke zwischen 8600GTS und 8800GTS schließen, mehr nicht.

Sehe ich ähnlich in etwas 8800GTS Rev.1 Niveau. Besser im 3dMark, durch G84 artige ROPs, schlechter mit AA/AF.

Gast
2007-10-08, 17:25:51
http://www.pcgameshardware.de/?article_id=616249

PCGH_Carsten
2007-10-08, 17:26:28
Besser im 3dMark, durch G84 artige ROPs,…
Was können "G84-artige ROPs"?

VooDoo7mx
2007-10-08, 17:29:32
Es macht wirtschaftlich für nVidia keinen Sinn weiter auf eine 8800GTS 640mb zu setzen, wenn man wesentlich billiger einen G92 mit entsprechen Taktraten produzieren könnte.

Es macht wirtschaftlich aber noch viel weniger Sinn teildefekte G80 Chips komplett wegzuwerfen

seahawk
2007-10-08, 17:42:23
Was können "G84-artige ROPs"?

Beyond3D :

"In terms of data sampling and filtering, G84 is changed in its per-clock ability compared to G80. Each cluster now has 8 'pixels' per clock of data addressing, to pair with the same 8 INT8 bilerps (FP16 at half speed again) per clock for fetch and filter. So you get one bilerp to burn per data address the chip sets up, rather than the 1:2 ratio in G80. So no more effectively free trilinear or 2x bilinear AF, but a boost in the address hardware instead to return the ratio to 1:1."

AnarchX
2007-10-08, 17:45:38
Das bezieht sich aber auf die TMUs(4 -> 8 TAs pro Cluster). ;)

reunion
2007-10-08, 17:52:05
Viel entscheidender als die zusätzlichen TAUs ist im 3dmark wohl die stark gestiegene Vertexleistung bei G84.

KraetziChriZ
2007-10-08, 18:09:43
Mich interresiert vorallem: ist das Ei passiv kühlbar?

Zu meinem Quadcore, den 4GB Ram passt meine 8600GT (Passiv gekühlt) nicht. Will was schnelleres, aber mein PC weiterhin nicht hören ;)

Gruß
chris

seahawk
2007-10-08, 18:11:06
Das bezieht sich aber auf die TMUs(4 -> 8 TAs pro Cluster). ;)

Hast Recht. :redface:

laser114
2007-10-08, 18:14:32
Mich interresiert vorallem: ist das Ei passiv kühlbar?

Theoretisch wohl schon, gibt ja auch für die X1950 Pro Passivkühler - sogar direkt von den Herstellern. Da braucht man dann aber schon eine sehr gute Gehäusekühlung.
Sehr leise Aktivkühler gibts ja auch...

AnarchX
2007-10-08, 18:17:31
Mich interresiert vorallem: ist das Ei passiv kühlbar?

Kommt eben ganz darauf an, um was es sich handelt, bei 7 Clustern@0.6(1.5)GHz würde ich es eher bezweifeln, jedenfalls mit einfachereren Passivkühlungen.


Aber ich sehe immernoch nicht einen richtigen Sinn darin, warum man 33.6GTex(85% einer Ultra) kombiniert mit 58GB/s für $249/229 als "8800 GT" verkaufen sollte, 500GFLOPs würde ich ja noch vestehen um RV670 in jeder Situation entsprechend entgegenzutretten. :|

reunion
2007-10-08, 18:33:17
Aber ich sehe immernoch nicht einen richtigen Sinn darin, warum man 33.6GTex(85% einer Ultra) kombiniert mit 58GB/s für $249/229 als "8800 GT" verkaufen sollte, 500GFLOPs würde ich ja noch vestehen um RV670 in jeder Situation entsprechend entgegenzutretten. :|

Jetzt fängst du auch noch an. Wenn der Name und die genannten Verkaufspreise nicht falsch sind, kannst du das vergessen.

laser114
2007-10-08, 18:38:01
Diese Karte soll in 20 Tagen auf dem Markt sein?

So langsam sollten doch die Spezifikationen mal bekannt gegeben werden, ewig kann nvidia die Chips doch nicht vorenthalten.

KraetziChriZ
2007-10-08, 18:40:28
Theoretisch wohl schon, gibt ja auch für die X1950 Pro Passivkühler - sogar direkt von den Herstellern. Da braucht man dann aber schon eine sehr gute Gehäusekühlung.
Sehr leise Aktivkühler gibts ja auch...

Ich beete dafür ;)

Hab 3x92mm und 1x120mm @ 700RPM, <9db, lautlos :)

Gruß
chris

Nakai
2007-10-08, 18:43:09
Mir ist es wurscht, wie die Karte schließlich aussieht. Entweder die oder Rv670. Mittlerweile siehts eher nach Rv670 aus, aber das kann sich noch wenden.


mfg Nakai

Die gelbe Eule
2007-10-08, 18:56:32
Diese Karte soll in 20 Tagen auf dem Markt sein?

So langsam sollten doch die Spezifikationen mal bekannt gegeben werden, ewig kann nvidia die Chips doch nicht vorenthalten.

600MHz/900MHz für GPU/VRAM sind gesichert. Shaderclocks weiß noch keiner. Laut Fudzilla scheint ShaderOC sehr wichtig für NV zu sein und es wird den Herstellern überlassen, was sie daraus machen.

seahawk
2007-10-08, 19:02:50
Kommt eben ganz darauf an, um was es sich handelt, bei 7 Clustern@0.6(1.5)GHz würde ich es eher bezweifeln, jedenfalls mit einfachereren Passivkühlungen.


Aber ich sehe immernoch nicht einen richtigen Sinn darin, warum man 33.6GTex(85% einer Ultra) kombiniert mit 58GB/s für $249/229 als "8800 GT" verkaufen sollte, 500GFLOPs würde ich ja noch vestehen um RV670 in jeder Situation entsprechend entgegenzutretten. :|

Ich gehe davon aus, das sie die Anzahl der SPs pro Cluster erhöht haben.

James Ryan
2007-10-08, 19:04:59
Shaderclock war doch 1,2 GHz oder nicht?
112 SPs mit 600/1200 MHz und einem 256 Bit Speicherinterface könnten gut schnell sein, hoffen wir dass es wirklich wahr ist.
Die "neue" GTS wird dann wohl nur eine sehr begrenzte Lebensdauer haben (ähnlich der Raden HD 2900 Pro) und die GT ersetzt die GTS vollständig.
Ich denke so wird es werden, macht auch am meisten Sinn!

MfG :cool:

reunion
2007-10-08, 19:13:31
Solange es eine GTX gibt, wird es auch eine GTS geben, sonst müsste nV die kaputten Chips wegwerfen.

seahawk
2007-10-08, 19:16:13
oder als GT verkaufen.

Gast
2007-10-08, 19:21:20
die GT hat einen sngelslotkühler. also können da keine heißen 90nm G80 rauf ;)

Gast
2007-10-08, 19:43:22
Wenn eine jetzige 8800GTS640 mit 96SP leicht heruntergetaktet auf das Leistungsniveau einer 8800GT512 wird, könnte sie Single Slot Kühlbar sein.

Frage ist ob der G80 nicht doch geschrinkt wird (G90?), oder ob der G92 vieleicht in einer größeren Version (G90?) den G80 GTX Chip ersetzt.
Aber neues Highend soll ja erst nächstes Jahr kommen, was dann eher auf einen größeren G92 hinweist. Eine GX2 mit 2xG92 kann ich mir nur als Zwischenlösung vorstellen wenn der G80 nicht mehr produziert wird und der Nachfolgechip noch nicht rdy ist. Oder man keinen neuen Highend Chip bis zum G100 (Gx00) bringen will/kann. NV ist nicht im Zugzwang was das Highend angeht, die Ultra wird dieses Jahr voraussichtlich die Performance Krone behalten.

Gast
2007-10-08, 19:46:44
die GT hat einen sngelslotkühler. also können da keine heißen 90nm G80 rauf ;)
Und 80 nm? Dass es schon 65 nm oder sogar kleiner ist, fällt mir schwer zu glauben.

James Ryan
2007-10-08, 19:58:35
Solange es eine GTX gibt, wird es auch eine GTS geben, sonst müsste nV die kaputten Chips wegwerfen.

Wer sagt denn dass es noch lange eine G80-GTX geben wird? ;)

MfG :cool:

seahawk
2007-10-08, 20:05:49
die GT hat einen sngelslotkühler. also können da keine heißen 90nm G80 rauf ;)

G80 dürfte weitest gehend Geschichte sein.

AnarchX
2007-10-08, 20:12:45
Ich gehe davon aus, das sie die Anzahl der SPs pro Cluster erhöht haben.

Nur lässt sich 112 irgendwie nur sinnvoll mit 7 Clustern verbinden.

Naja, sind ja nur noch 3 Wochen, in denen doch mal etwas handfesteres veröffentlicht werden sollte.

laser114
2007-10-08, 20:12:53
Wer sagt denn dass es noch lange eine G80-GTX geben wird? ;)

Und damit wären wir wieder beim G92 ist High-End...

Was für eine tolle Verwirrung ... wie macht nvidia das nur... :|

reunion
2007-10-08, 20:37:31
Nur lässt sich 112 irgendwie nur sinnvoll mit 7 Clustern verbinden.

Naja, sind ja nur noch 3 Wochen, in denen doch mal etwas handfesteres veröffentlicht werden sollte.

4 x 28 = 112. Vielleicht wurde ja die Granularität verbessert.

Wobei 112 alles andere als sicher sind. Der kleine Ausschnitt war etwas dürftig, und vorallem leicht zu fälschen. Auch könnte es sich um eine Verwechslung mit der neuen GTS handeln. Andererseits wären selbst die 112SPs bei 1.2Ghz auch nur 268.8GFLOps.

laser114
2007-10-08, 20:47:37
1,2 GHz halte ich in 65nm trotzdem für arg wenig, die Ultra hat ja heute schon 1,5 GHz...

LovesuckZ
2007-10-08, 20:51:10
Wobei 112 alles andere als sicher sind. Der kleine Ausschnitt war etwas dürftig, und vorallem leicht zu fälschen. Auch könnte es sich um eine Verwechslung mit der neuen GTS handeln. Andererseits wären selbst die 112SPs bei 1.2Ghz auch nur 268.8GFLOps.

268,8GFlops reicht locker aus, um mit der 2950pro bzw. gt von der Rechenleistung mitzuhalten. 112SP würden bei einem 4 Cluster Chip auch Sinn machen, da man zwar von der Rechenleistung leicht über der GTS sich befände, aber Texturleistung, Speichermenge und -bandbreite ihr eine berächtigte Existenz gäbe.

reunion
2007-10-08, 21:06:20
268,8GFlops reicht locker aus, um mit der 2950pro bzw. gt von der Rechenleistung mitzuhalten.

Mit der GT wahrscheinlich, mit der PRO kaum. Die PRO hat bereits minimal mehr Rechenleistung als ein R600XT. Aber das lässt sich wahrscheinlich durch die höhere TMU/ROP-Leistung ausgleichen.


112SP würden bei einem 4 Cluster Chip auch Sinn machen, da man zwar von der Rechenleistung leicht über der GTS sich befände, aber Texturleistung, Speichermenge und -bandbreite ihr eine berächtigte Existenz gäbe.

Nicht wenn die Karte um 229$ verkauft wird und die GTS bei 399$ bleibt. Da erscheinen mir 96SPs weiter am sinnvollsten.

Gast
2007-10-08, 21:06:26
Ich gehe davon aus, das sie die Anzahl der SPs pro Cluster erhöht haben.
Ich gehe davon aus, dass diese wenn überhaupt, reduziert wurde (bei, absolut, gleichem SFU-Count.

Gast
2007-10-08, 21:07:01
Die PRO hat bereits minimal mehr Rechenleistung als ein R600XT.
Wegen den 800 MHz?

reunion
2007-10-08, 21:09:19
Wer sagt denn dass es noch lange eine G80-GTX geben wird? ;)

MfG :cool:

Die neue GTS und die Integrierung des G92 in die 8800-Serie deuten das zumindest an.

Wegen den 800 MHz?

750Mhz. Und da die ALU-Anzahl im Vergleich zu R600 identisch ist, ergibt das eine minimal höheren arithmetische Rechenleistung.

AnarchX
2007-10-08, 21:20:16
Warum unterschlägst du die MUL-Flops? Mit denen sind nämlich bei 112SPs@1.5GHz 504GFLOPs, auch R6xx braucht SFUs.

Aber 4x28, 4 Vec7-ALUs oder 2 Vec14-ALUs? klingen aber irgendwie seltsam, und passen wohl auch nicht zum G8x-Thread-Sheduler.

Die gelbe Eule
2007-10-08, 21:22:02
Erm, die neue GTs ist gar nicht neu, es wird halt nur 112 SPs geben. Man hatte bestimmt einige Chips gesammelt, welche halt nicht GTX konform, aber für eine GTS zu schade waren. Da NV eh vor kurzem über Hersteller verlauten ließ, daß man weniger Chips produzierte als man verkaufen konnte, wird es die G80 auch nicht allzulange mehr geben.

Gast
2007-10-08, 21:24:04
8 oder 9 TCPs sind durchaus auch möglich. Das wird dann die neue High-End-Karte und die "abgespeckten" verkauft man als 880 GT

Spasstiger
2007-10-08, 21:33:56
Vielleicht ist ja die Erhöhung der SP-Anzahl bei der 8800 GTS von 96 auf 112 SPs ein Indiz dafür, dass die 8800 GT auch mit 112 SPs kommt.
Mit 112 SPs dürfte die 8800 GT nämlich bei den derzeit kursierenden Taktraten trotz der etwas geringeren Speicherbandbreite eine normale 8800 GTS schlagen.
Und um bei der 8800 GTS einen geringen Vorsprung zu wahren, erhöht man die SP-Anzahl.

Mit 112 SPs würde man auch einer Radeon X2950 Pro schwer zusetzen, zumindest bei einem Preis knapp über 200€ bei der 512-MB-Version.

Die gelbe Eule
2007-10-08, 21:35:35
Marketingtechnisch hätte die 640MB 112SP Version eh unter höheren Auflösungen einen Vorteil.

reunion
2007-10-08, 22:11:30
Warum unterschlägst du die MUL-Flops? Mit denen sind nämlich bei 112SPs@1.5GHz 504GFLOPs, auch R6xx braucht SFUs.


Ich blicke da ohnehin nicht mehr durch. Soweit ich weiß sitzt die angebliche MUL seriell zu den Interpolatoren und kommt bei Interpolationen und Perspektiv Korrekturen zum Einsatz. Zusätzlich soll es noch SFU geben, die alle vier Takte ein(?) FLOP liefern. Für general shading soll allerdings nur die MADD-Einheit zur Verfügung stehen, und hin und wieder soll ein gratis MUL drin sein.


Aber 4x28, 4 Vec7-ALUs oder 2 Vec14-ALUs? klingen aber irgendwie seltsam, und passen wohl auch nicht zum G8x-Thread-Sheduler.

7 Cluster bei einer 8800GT klingen auch seltsam und vorallem wenig realistisch.

Ailuros
2007-10-08, 22:38:01
Ich blicke da ohnehin nicht mehr durch. Soweit ich weiß sitzt die angebliche MUL seriell zu den Interpolatoren und kommt bei Interpolationen und Perspektiv Korrekturen zum Einsatz. Zusätzlich soll es noch SFU geben, die alle vier Takte ein(?) FLOP liefern. Für general shading soll allerdings nur die MADD-Einheit zur Verfügung stehen, und hin und wieder soll ein gratis MUL drin sein. So richtig auskennen tut sich da kaum jemand. Inwieweit da jetzt wirklich jedes mal ein MUL drin ist, bleibt fraglich.

Grob vereinfacht stimmt u.U. das obrige schon, nur bleibt es dabei dass auch auf einer R600 nie konstant in normalen Zustaenden (ergo keine synthetische Applikation) 2 MADDs berechnet werden.

Wenn man rein synthetische GPGPU Applikationen zur Hand nimmt die sich auschliesschlich auf rohe und einfache MADD Leistung konzentrieren, dann hat wohl R600 einen gesunden Vorsprung...aber:

Agreed. Although, for many applications the benchmarks have been very useful to us. But also remember that GPGPU does no texture filtering, or MSAA, etc. We actually use an extremely small subset of the hardware functionality. I think we understand very well for GPGPU how the memory system is working, and much of it based on the benchmarks and then converstations with the vendors. Obviously you can mis-interpret a graph, the test may not be doing what you think, etc.

In the end, there is nothing as good for benchmarking as the app you want to actually run.

http://forum.beyond3d.com/showpost.php?p=831294&postcount=30

Mit einer solchen Debatte koennte man sich stundenlang im Kreis drehen, jedoch selbst ohne AA/AF ist eine 2900XT mit ihren theoretischen 463 GFLOPs nicht immer in der Lage eine 346 GFLOPs 8800GTS zu schlagen; ziehe ich die MUL jetzt ab sind es nur noch 230 GFLOPs/s. Und in welchem Normal-Fall ist eine 2900XT gleich zwei Mal so schnell wie eine 8800GTS?

Die Sache ist einfach: egal was jeder der beiden IHVs behauptet oder vermarktet, hat man im Fall von AMD z.B. 350 vs. 500 GFLOPs theoretischer Leistung kann man diese streng auf diese Architekture konzentriert mehr oder weniger vergleichen; gleiches gilt auch fuer G8x/G9x -wasauchimmer. Vergleiche zwischen den beiden Architekturen koennen dann heikel werden, weil es viel zu viele Unterschiede gibt.

7 Cluster bei einer 8800GT klingen auch seltsam und vorallem wenig realistisch.

Die Frage ist eher wieso jemand so ein Ding "8800GT" nennen wuerde, wenn es gute Chancen hat (zumindest theoretisch) schneller oder gleich schnell zu sein als eine 8800GTS.

Solche Modelle werden von beiden IHVs nicht besonders fett angekuendigt sondern eher irgendwo in Zusammenarbeit mit den AIBs in die Produktpalette geschoben.

dargo
2007-10-08, 23:31:45
@dargo

Laut cb gewinnt die 8800gtx gegenüber der 8800gts beim Sprung von 1600x1200 4aa/16af auf 1280x1024 4aa/16af nur 1% mehr vorsprung. Genau von 37% auf 38% laut CB:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet
Ich würde nicht sagen das die gtx da gegenüber der gts noch so grosse reserven hat das sie den vorsprung auf 50% ausbauen kann ohne das die gts ins Speicher limit rennt. B.z.w. wir uns noch in spielbaren bereich finden. Fakt gtx c.a. 38% schneller wie gts. Übrigens gewinnt die alte x1950xtx gegenüber der 8800gtx sogar 2% punkte zurück von 1280auf1600...

Der Durchschnitt bei CB sagt überhaupt nichts aus. Da CB noch ziemlich viele relativ alte Games testet hängen diese noch teilweise am CPU-Limit. Schau dir die einzelnen Tests an:

Nr. 1 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/10) in 1600x1200 8xAA/16xAF. Ich wüsste nicht, dass ~74fps nicht flüssig spielbar wären.
Nr. 2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/9) in 1280x1024 4xAA/16xAF
Nr. 3 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/8) in 1600x1200 4xAA/16xAF bzw. 8xAA/16xAF

Shaderclock war doch 1,2 GHz oder nicht?
112 SPs mit 600/1200 MHz und einem 256 Bit Speicherinterface könnten gut schnell sein, hoffen wir dass es wirklich wahr ist.
Die "neue" GTS wird dann wohl nur eine sehr begrenzte Lebensdauer haben (ähnlich der Raden HD 2900 Pro) und die GT ersetzt die GTS vollständig.
Ich denke so wird es werden, macht auch am meisten Sinn!

Macht für mich auch kaum Sinn. Zumindest nicht wenn man die Preise der neuen GTS (112 SPs) und der GTX/Ultra nicht anpasst. Wenn die Preise so bleiben würden wie sie sind würde es folgendermaßen aussehen:

G8800GT = 229$
G8800GTS (112SPs) = 399$ (ich nehme mal an, der Preis bleibt auf altem Niveau)
G8800GTX = 599$ oder warens 549$?
G8800Ultra = 649$ (?)

Die neue G8800GT erscheint mir viel zu günstig. Es sei denn, sie kommt wirklich mit nur 600/1200/900Mhz und 64SPs. Dann würde es wohl Sinn machen. Eine andere Möglichkeit wäre eine G8800GT mit 600/1200/900Mhz und 96SPs und alles >G8800GT wird im Preis gesenkt.

sklave_gottes
2007-10-09, 00:23:45
Der Durchschnitt bei CB sagt überhaupt nichts aus. Da CB noch ziemlich viele relativ alte Games testet hängen diese noch teilweise am CPU-Limit. Schau dir die einzelnen Tests an:

Nr. 1 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/10) in 1600x1200 8xAA/16xAF. Ich wüsste nicht, dass ~74fps nicht flüssig spielbar wären.
Nr. 2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/9) in 1280x1024 4xAA/16xAF
Nr. 3 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/8) in 1600x1200 4xAA/16xAF bzw. 8xAA/16xAF



@Dargo

Ja aber es macht glaube ich noch weniger sin sich Einzelfälle auszusuchen.

nur ein Beispiel:
Nimm mal deinen link 2.
Da hat die gtx 43% Vorsprung for der gts bei 1280x1024 4xAA/16xAF
Geh mal bissel runter zu 1600x1200 4xAA/16xAF da sind es nur noch 38%. Wo ist denn hier bitte jetzt ein cpu limit ?
Nimm es einfach hin es sind im schnitt fast 40%, nicht mehr und nicht weniger.

Und zum g92 keine ahnung was jetzt da kommt, die 112 Shader-Einheiten können stimmen, können aber auch einfach nur von der neuen GTS stammen.
Steht überhaupt schon fest ob die neue GTS kommt ? Hier wird zu viel verwirt:-)
Ich meine ist beim rv670 überhaupt sicher das der 16 ROPs hat ?
Ich hoffe die Sparen nicht am falschem Ende!

mfg martin

dargo
2007-10-09, 00:30:36
@Dargo

Ja aber es macht glaube ich noch weniger sin sich Einzelfälle auszusuchen.

Und ob es Sinn macht. Es sind eben Games die stark am GPU-Limit hängen.


nur ein Beispiel:
Nimm mal deinen link 2.
Da hat die gtx 43% Vorsprung for der gts bei 1280x1024 4xAA/16xAF
Geh mal bissel runter zu 1600x1200 4xAA/16xAF da sind es nur noch 38%. Wo ist denn hier bitte jetzt ein cpu limit ?

Das ist mir auch schon aufgefallen. Entweder Messtoleranzen oder CB ist da ein Fehler unterlaufen.


Nimm es einfach hin es sind im schnitt fast 40%, nicht mehr und nicht weniger.

Ich werde es sicherlich nicht hinnehmen weil du es so möchtest. Schaue dir die Spezifikationen einer GTX und GTS an dann wirst du selbst feststellen, dass es mehr als 40% sind. Dazu brauche ich nicht einmal Benches.

Edit:
Du brauchst nichts weiter als diese Seite:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/2/

sklave_gottes
2007-10-09, 00:33:42
GTX
FLOPs 49,7% mehr
Pixelfüllrate 38,0% mehr
Texelfüllrate 53,3% mehr
Speicherbandbreite 35,0% mehr

Tja die GTX hat zwar Theo... aber wie würdest du denn die sachen gewichten?

mfg martin

dargo
2007-10-09, 00:55:39
GTX
FLOPs 49,7% mehr
Pixelfüllrate 38,0% mehr
Texelfüllrate 53,3% mehr
Speicherbandbreite 35,0% mehr

Tja die GTX hat zwar Theo... aber wie würdest du denn die sachen gewichten?

Mindestens 45%, die Speicherbandbreite limitiert beim G80 kaum.

seahawk
2007-10-09, 07:29:31
Die Frage ist eher wieso jemand so ein Ding "8800GT" nennen wuerde, wenn es gute Chancen hat (zumindest theoretisch) schneller oder gleich schnell zu sein als eine 8800GTS.

Solche Modelle werden von beiden IHVs nicht besonders fett angekuendigt sondern eher irgendwo in Zusammenarbeit mit den AIBs in die Produktpalette geschoben.

Das sit ne gute Frage, aber ein völlig neuer Chip wird ja in der Regel groß angekündigt. Der Name 8800GT ist allerdings in jedere Hinsicht völlig unsinnig.

Henroldus
2007-10-09, 08:59:45
Mindestens 45%, die Speicherbandbreite limitiert beim G80 kaum.
die Pixelfüllrate mit 38% wäre aber der nächste Flaschenhals.
"Eine Kette ist so stark wie ihr schwächstes Glied" ;)

dargo
2007-10-09, 09:04:18
"Eine Kette ist so stark wie ihr schwächstes Glied" ;)
Blödsinn, dann erkläre mir mal Zuwächse von 45-48% in Games der GTX gegenüber der GTS. Und nein, der Vram hat nicht limitiert. ;)

Henroldus
2007-10-09, 09:08:47
Blödsinn, dann erkläre mir mal Zuwächse von 45-48% in Games der GTX gegenüber der GTS. Und nein, der Vram hat nicht limitiert. ;)
hab keine Lust das jetzt extra rauszusuchen, mathematisch ist es jedenfalls Blödsinn und in 3 Wochen egalisiert sich vielleicht alles.
ausserdem sind wir hier etwas offtopic.

Gast
2007-10-09, 09:18:28
Spekulation:

Warum den G92 nicht höher takten, ihn als 8900GT verkaufen für 299$? Dafür die G80-Reihe im Preis senken, ausverkaufen, Lineup für die neuen G9x vorbereiten?

Diese 8800GT ist dämlich :ulol:

Gast
2007-10-09, 09:20:13
Spekulation:

Warum den G92 nicht höher takten, ihn als 8900GT verkaufen für 299$? Dafür die G80-Reihe im Preis senken, ausverkaufen, Lineup für die neuen G9x vorbereiten?

Diese 8800GT ist dämlich :ulol:

Tja, da wohl G92 nicht so schnell ist wie viele hoffen und die 8800-Reihe nicht so schnell ausläuft.

reunion

Ailuros
2007-10-09, 09:26:56
Blödsinn, dann erkläre mir mal Zuwächse von 45-48% in Games der GTX gegenüber der GTS. Und nein, der Vram hat nicht limitiert. ;)

Der Zuwachs einer GTX kommt von der Kombinierung aller hoeheren Komponenten, wobei je nach Fall z.B. mal die hoehere Fuellraten (in der Mehrzahl die hoehere Z-Fuellrate mit AA), mal die Bandbreite, mal die hoehere GFLOP Rate usw.

Der Unterschied des Speichers zwischen 768 und 640MB ist tatsaechlich nicht gross genug, dass man im Durchschnitt einen gesunden Zuwachs sehen koennte, ausser man benutzt sehr hohe Aufloesungen und >4xMSAA.

Dass die Bandbreite auf einer G80 generell nicht limitiert stimmt mehr oder weniger schon, nur heisst es aber auch nicht dass einer GTX z.B. 1.2GHz Speicher keinen Unterschied gemacht haette. Ich kann mich zwar nicht mehr genau an die Resultate erinnern, aber ab 1.1GHz skaliert die Leistung in etwa zur Haelfte der Bandbreiten-steigerung; stets aber in sehr hohen Aufloesungen mit MSAA.

Ailuros
2007-10-09, 09:28:37
Tja, da wohl G92 nicht so schnell ist wie viele hoffen und die 8800-Reihe nicht so schnell ausläuft.

reunion

Auf welchen G92 beziehst Du Dich denn genau?

Gast
2007-10-09, 09:31:35
G92 wird anscheinend auch bei UMC gefertigt. Das könnte die niedrigen Taktraten erklären. Anscheinend hat TSMC nicht genügend Kapazitäten für nV.

http://www.digitimes.com/bits_chips/a20071008PD218.html

reunion

dargo
2007-10-09, 09:31:42
Dass die Bandbreite auf einer G80 generell nicht limitiert stimmt mehr oder weniger schon, nur heisst es aber auch nicht dass einer GTX z.B. 1.2GHz Speicher keinen Unterschied gemacht haette. Ich kann mich zwar nicht mehr genau an die Resultate erinnern, aber ab 1.1GHz skaliert die Leistung in etwa zur Haelfte der Bandbreiten-steigerung; stets aber in sehr hohen Aufloesungen mit MSAA.
Das ist natürlich richtig. Ich wollte damit sagen, dass der G80 was die Speicherbandbreite angeht sehr ausgewogen ist.

Auf welchen G92 beziehst Du Dich denn genau?
Das würde mich auch mal interessieren. Übrigens, sehr gut gekontert. ;)

Gast
2007-10-09, 09:32:30
Auf welchen G92 beziehst Du Dich denn genau?

Auf den, welchen man als 8800GT verkaufen will. Wäre die Karte schneller als eine 8800GTS, dann würde sie nicht 8800GT heißen. Gibt es denn noch eine anderen?

reunion

AnarchX
2007-10-09, 09:37:29
http://img206.imageshack.us/img206/4995/g92specqp7.jpg

G80 hat 42.5mm ^ 2

Die gelbe Eule
2007-10-09, 09:39:47
1.1V ist aber mal sehr niedrig, da geht brutalst OC X-D-

Gast
2007-10-09, 09:40:16
Die Leute, die hier mit NDA-Infos so halb rumägern, sind gemein :usad:

@AnarchX: Nichts neues, oder? Bestätigt nur die Spekulationen der letzten Wochen (ok gut, das ist ja auch was).

Die gelbe Eule
2007-10-09, 09:47:28
Hier denkt doch keiner das NV nur mit einem GTS 320 Ersatz aufwarten wird oder? Da kommt noch mehr hinterher und bevor es nicht verfügbar ist, kann es eh keiner kaufen.

Gast
2007-10-09, 09:49:56
Das würde mich auch mal interessieren. Übrigens, sehr gut gekontert. ;)

Was würde dich auch mal interessieren? Wieviele Karten auf G92 Basis gibt es denn nicht? Oder willst du hier nur einen auf wichtig machen?

reunion

Gast
2007-10-09, 09:50:32
Was würde dich auch mal interessieren? Wieviele Karten auf G92 Basis gibt es denn noch? Oder willst du hier nur einen auf wichtig machen?

reunion

So ists richtig.

Winter[Raven]
2007-10-09, 09:50:50
1.1V ist aber mal sehr niedrig, da geht brutalst OC X-D-

Also der vcore ist schon mal gut, ich frage mich warum die Karte ne Abwärmeschleuder sein soll...

p.s. mir ist klar, dass es nicht nur am Vcore liegt welches die Verlustleistung beinträchtigen kann.

dargo
2007-10-09, 09:53:47
Was würde dich auch mal interessieren? Wieviele Karten auf G92 Basis gibt es denn nicht? Oder willst du hier nur einen auf wichtig machen?

reunion
Ich würde dir empfehlen bei Ailuros zwischen den Zeilen zu lesen. ;)

Henroldus
2007-10-09, 09:54:00
http://img206.imageshack.us/img206/4995/g92specqp7.jpg

G80 hat 42.5mm ^ 2
dann wäre der Chip ja größer als ein G80@65nm (30.7mm ^ 2) :confused: :eek:

Gast
2007-10-09, 09:56:14
dann wäre der Chip ja größer als ein G80@65nm (30.7mm ^ 2) :confused: :eek:

Das ist nur die Größe des Packages, das sagt gar nichts aus.

reunion

Gast
2007-10-09, 09:58:12
Ich würde dir empfehlen bei Ailuros zwischen den Zeilen zu lesen. ;)

So schlau bin ich auch.

Henroldus
2007-10-09, 09:59:13
Das ist nur die Größe des Packages, das sagt gar nichts aus.

reunion
stimmt, steht ja dabei und dieses muss nicht unbedingt proportional zur Chipgröße sein. :frown:

Gast
2007-10-09, 10:05:06
stimmt, steht ja dabei und dieses muss nicht unbedingt proportional zur Chipgröße sein. :frown:

Es ist sogar sicher nicht proportional zur Chipgröße. Da geht es nur um die benötigen Kontakte zur Platine. Und damit hängt die Packagegröße vorallem mit der Leistungsaufnahme und dem SI zusammen.

reunion

dargo
2007-10-09, 10:17:57
So schlau bin ich auch.
Du glaubst doch nicht ernsthaft, dass dir jemand der unter NDA steht Details verrät oder? :|

Gast
2007-10-09, 10:45:51
Du glaubst doch nicht ernsthaft, dass dir jemand der unter NDA steht Details verrät oder? :|

AiL steht sicher nicht unter NDA, der bekommt seine Infos ganz wo anders her.

reunion

seahawk
2007-10-09, 10:50:13
G92 wird anscheinend auch bei UMC gefertigt. Das könnte die niedrigen Taktraten erklären. Anscheinend hat TSMC nicht genügend Kapazitäten für nV.

http://www.digitimes.com/bits_chips/a20071008PD218.html

reunion

Oder es gibt mehr als einen G92

Winter[Raven]
2007-10-09, 10:53:32
Oder es gibt mehr als einen G92

hat doch AiL schon bestätigt das es noch was gibt...

Gast
2007-10-09, 10:55:38
"Nur" 900MHz Speichertaktrate? Klingt bissl mau... oder es ist die 256MB Variante die damit sich Preislich besser nach unten absetzen soll (Nachfolger 8600GTS anyone?).

Endorphine
2007-10-09, 11:07:43
"Nur" 900MHz Speichertaktrate? Klingt bissl mau... oder es ist die 256MB Variante die damit sich Preislich besser nach unten absetzen soll (Nachfolger 8600GTS anyone?). Das ist kein High-End, das ist Performance-Klasse. Zudem muss die Speicherbandbreite einfach nur zum "Verbrauch" der GPU passen. Mehr als nötig liegt einfach nur brach und kostet trotzdem Geld (siehe R600).

Gast
2007-10-09, 11:15:25
Gibts Aussagen von nVidia oder Theorien ob diese Chips einen zeitgemäßen IDLE-Verbrauch haben werden?

rm-zocker
2007-10-09, 12:16:41
eines steht fest sobald die 8800gt, oder wie sie zum schluss auch immer heissen soll, fliegt meine 7800 gt aus meinem rechner :-).bei dem wechsel sollte ich dann auch genug mehr performance haben,das sich der wechsel auch lohnt.

dargo
2007-10-09, 12:43:01
AiL steht sicher nicht unter NDA, der bekommt seine Infos ganz wo anders her.

reunion
Na und? Er möchte sicherlich auch in Zukunft Informationen (früher) erhalten. ;)

Gast
2007-10-09, 12:58:23
Na und? Er möchte sicherlich auch in Zukunft Informationen (früher) erhalten. ;)
Ich find's immer lustig: sobald sich Ail nicht mehr regelmäßig meldet und mitspekuliert, weiß man, dass er Insider-Infos hat, die er nicht preisgeben darf :usad:

Die gelbe Eule
2007-10-09, 12:58:45
G92/D8P dissipates about 110W and this is what Nvidia is telling to its loyal and less loyal chaps.

In order to cool such a card you only need a single slot solution and it doesn’t look that this Nvidia’s 9 inch board will be a noisy one. The card has 512MB or 256MB of frame buffer and by default it will come as the DDR3 version and you won’t need more than a single 2x3 connector to make it work.

It is better than HD 2950XT, as this card dissipates some 135W, but the slower PRO version dissipates 105 only.

110W hört sich doch sehr gut an. Quelle Fudo

Außerdem kommt der G92 mindestens mit HDMI Dongle, vielleicht sogar mit nativem HDMI Port.

Gast
2007-10-09, 13:02:52
110W sind gut. Jetzt ist nur noch die Frage, wie die endgültige Geschwindigkeit ausfällt. Schätzungsweise genau zwischen Pro und XT, dann passt's auch vom Verbrauch.

aths
2007-10-09, 13:09:42
"Nur" 900MHz Speichertaktrate? Klingt bissl mau... oder es ist die 256MB Variante die damit sich Preislich besser nach unten absetzen soll (Nachfolger 8600GTS anyone?).Es gibt mehr Speicherbandbreite (+80%) als zusätzliche ALU- und Texel-Power (+78%). Vorausgesetzt, dass sich an den ALUs und TMUs nichts geändert hat.

Gast
2007-10-09, 13:21:49
Na und? Er möchte sicherlich auch in Zukunft Informationen (früher) erhalten. ;)

Was willst du jetzt von mir? AiL gibt öfter mal mehr Infos raus wenn man nachfragt, und sei es über PM. Lass das mal meine Sorge sein wie sinnvoll dass das ist.

reunion

Gast
2007-10-09, 13:22:53
Was willst du jetzt von mir? AiL gibt öfter mal mehr Infos raus wenn man nachfragt, und sei es über PM. Lass das mal meine Sorge sein wie sinnvoll das ist.

reunion

Spasstiger
2007-10-09, 13:23:12
hab keine Lust das jetzt extra rauszusuchen, mathematisch ist es jedenfalls Blödsinn
Ist es sicher nicht. Wenn die Pixelfüllrate nicht annähernd limitiert - und das tut sie nicht bei der Shaderanforderungen heutiger Spiele -, dann können auch 50% mehr Shaderleistung 1:1 umgesetzt werden bei nur 38%-iger Steigerung der Pixelfüllrate.
Nach deiner Argumentation dürfte es z.B. ja gar nix bringen, nur den Chiptakt hochzuschrauben und den Speichertakt gleichzulassen. Da sagt meine OC-Erfahrung aber was ganz anderes.
Deine Argumentation haut nur hin, wenn alle Komponenten in einer Pipeline liegen und jeweils gleich lange aufeinander warten müssen.

Undertaker
2007-10-09, 13:33:11
ich glaube er hat das darauf bezogen, das die pixelfüllrate limitiert - dann wäre es mathematisch korrekt, wenn auch praktisch evntl ein falscher ansatz

dargo
2007-10-09, 13:35:35
ich glaube er hat das darauf bezogen, das die pixelfüllrate limitiert - dann wäre es mathematisch korrekt, wenn auch praktisch evntl ein falscher ansatz
Die Speicherbandbreite der GTX ist sogar "nur" um 35% höher. Trotzdem hindert das die GTX nicht in Games >40% zu bieten.

Gast
2007-10-09, 13:42:49
Wenn damit Triple-SLI möglich sein sollte, sind die dann 2x so schnell wie eine 8800 GTX Ultra ? ;)

MfG

Gast
2007-10-09, 13:45:36
http://my.ocworkbench.com/bbs/showthread.php?%20threadid=68000
On 29 OCT, NVIDIA will launch the 8800GT (G92). The model scheduled is a 512M card with 256bits memory interface, it has 112 stream processors.

What we heard is that there seems to be plans to launch another lower end model of G92. It will come with 96 shader processors and 256M / 512M GDDR3. This model may or may not launch. It all depends on sales of the first 8800GT and AMD's RV670.
Hm, interessant.

Gast
2007-10-09, 14:16:32
@Experten: Worauf würde denn diese neue 8800GT letztendlich mit den 600/1500/1800MHz mit 112SP und dem 256-bittigen Interface einordnen? Das klingt vom technischen Aspekt her schon mächtig.

aths
2007-10-09, 14:16:52
http://my.ocworkbench.com/bbs/showthread.php?%20threadid=68000

Hm, interessant.Unglaubwürdig. Mit 112 Shader-ALUs wäre das Ding schneller als eine GTS.

dargo
2007-10-09, 14:22:06
@Experten: Worauf würde denn diese neue 8800GT letztendlich mit den 600/1500/1800MHz mit 112SP und dem 256-bittigen Interface einordnen? Das klingt vom technischen Aspekt her schon mächtig.
Das wäre schon fast eine G8800GTX solange die Speicherbandbreite und natürlich der Vram nicht limitieren.

Gast
2007-10-09, 14:26:39
Das wäre schon fast eine G8800GTX solange die Speicherbandbreite und natürlich der Vram nicht limitieren.
Dann ist doch die Frage, welche Information unrealistisch ist. Und das scheint ja wohl defintiv die Anzahl der SP zu sein. 600/1500/1800MHz dürften locker drin sein. Die 112SP scheinen dann irgendwie eine Verwechselung zu sein mit der neuen GTS. Eigentlich schade :(

Undertaker
2007-10-09, 14:29:30
Die Speicherbandbreite der GTX ist sogar "nur" um 35% höher. Trotzdem hindert das die GTX nicht in Games >40% zu bieten.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/10/#abschnitt_company_of_heroes

von 1600x1200 auf 1600x1200 aa/af kann man etwas interessantes beobachten: die gts holt trotz sinkender fps auf! hier hat die speicherbandbreite wohl wirklich bedeutung... bei 8xaa hingegen liegt der abstand genau dazwischen, evntl hat hier dann die rammenge einfluss?

AnarchX
2007-10-09, 14:29:31
Das wäre schon fast eine G8800GTX solange die Speicherbandbreite und natürlich der Vram nicht limitieren.

... und auch die ROPs(sind ja bei 256Bit auch nur 16).

Die gelbe Eule
2007-10-09, 14:36:30
Hier regt man sich doch zu sehr auf. 8800GT = 8800GTS 320, 8800GTS 640neu = 8800GTS 640alt. Vorher waren nur 320MB VRAM der Unterschied, nun sind es 64bit Speicheranbindung und 128MB RAM. Wird wohl auf die gleichen 10-15% hinauslaufen wie bisher.

aths
2007-10-09, 14:37:30
Hier regt man sich doch zu sehr auf. 8800GT = 8800GTS 320, 8800GTS 640neu = 8800GTS 640alt. Vorher waren nur 320MB VRAM der Unterschied, nun sind es 64bit Speicheranbindung und 128MB RAM. Wird wohl auf die gleichen 10-15% hinauslaufen wie bisher.:???:

Die gelbe Eule
2007-10-09, 14:40:34
Die 112SP können bei beiden bleiben, weil in den Benchmarks eh nur zählt was mit AF und AA hinten rauskommt und da wird die 8800GTS besser aussehen.

AnarchX
2007-10-09, 14:42:41
Die 112SP können bei beiden bleiben, weil in den Benchmarks eh nur zählt was mit AF und AA hinten rauskommt und da wird die 8800GTS besser aussehen.

Vielleicht im 3DC...;)

Gast
2007-10-09, 14:45:53
Vergiss es. Eine 8800GT wird keine 8800GTS schlagen, egal in welcher Situation. Das sollte wirklich jeder einsehen.

reunion

Die gelbe Eule
2007-10-09, 14:58:34
Sage ich das? Die 320er wird sie schlagen oder zumindest mit ihr gleichziehen, mehr aber auch nicht. Die 320er ist bereits nicht mehr nachbestellbar, sie ist ausgelaufen.

aths
2007-10-09, 15:07:01
Sage ich das? Die 320er wird sie schlagen oder zumindest mit ihr gleichziehen, mehr aber auch nicht. Die 320er ist bereits nicht mehr nachbestellbar, Das wüsste ich.

Gast
2007-10-09, 16:42:10
110W hört sich doch sehr gut an. Quelle Fudo


Viel zuviel für einen 4-Cluster Cip mit 600/900/1800MHz.
SOlch ein Chip sollte nicht mehr als eine 8600GTS verbrauchen - 71 TDP.

Die gelbe Eule
2007-10-09, 17:29:56
Wenn es denn ein 4 Cluster ist. Ich gehe immernoch von 6 aus, deswegen die moderaten Taktraten.

James Ryan
2007-10-09, 18:11:43
Unglaubwürdig. Mit 112 Shader-ALUs wäre das Ding schneller als eine GTS.

Schneller als die alte GTS, und genau das ist es ja. Warum wurde die GTS wohl aufgebohrt? ;)

MfG :cool:

dargo
2007-10-09, 18:18:14
Schneller als die alte GTS, und genau das ist es ja. Warum wurde die GTS wohl aufgebohrt? ;)

Oder einfach ~gleichauf. :)

Adam D.
2007-10-09, 18:38:05
Oder einfach ~gleichauf. :)
Ich würd mal sagen, das würd für den Preis schon absolut reichen :up:

James Ryan
2007-10-09, 18:47:31
Vergiss es. Eine 8800GT wird keine 8800GTS schlagen, egal in welcher Situation. Das sollte wirklich jeder einsehen.

reunion

Die Gf 8800 GT wird die neue GTS nicht schlagen, da hast du Recht.
Mit 600/1200/900 MHz und 112 SPs wird sie aber nah dran sein.
Der G92 auf der Gf 8800 GT wird aber nicht die einzige Ausbaustufe des G92 sein, darauf kannst du dich verlassen. :D

MfG :cool:

seahawk
2007-10-09, 18:56:46
Wo her willst Du das wissen, und die LEistung der G92 läst sich erst einschätzen, wenn RV670 Gladiator die Bühne betritt.

Adam D.
2007-10-09, 18:58:13
Wo her willst Du das wissen, und die LEistung der G92 läst sich erst einschätzen, wenn RV670 Gladiator die Bühne betritt.
AFAIK soll die Gladiator für 279$ starten, oder? Damit wäre es schon wieder eine andere Preisklasse.

reunion
2007-10-09, 19:02:51
Die Gf 8800 GT wird die neue GTS nicht schlagen, da hast du Recht.
Mit 600/1200/900 MHz und 112 SPs wird sie aber nah dran sein.
Der G92 auf der Gf 8800 GT wird aber nicht die einzige Ausbaustufe des G92 sein, darauf kannst du dich verlassen. :D

MfG :cool:

Mit 600/1200/900 MHz und 112 SPs würde sie die neue 8800GTS distanzieren und nicht weit hinter der GTX liegen. Und das alles willst du für 229$ haben? Träum weiter.

James Ryan
2007-10-09, 19:06:07
Abwarten!
Ich würde nicht den Fehler machen und NVIDIA unterschätzen, gerade weil der RV670 von AMD auch relativ stark ist!

EDIT:
Die neue GTS hat 112 SPs mit 513/1200/800 MHz bei mehr VRam und einem größeren Speicherinterface! Wieso soll die Gf 8800 GT da schneller sein?

MfG :cool:

reunion
2007-10-09, 19:11:29
Abwarten!
Ich würde nicht den Fehler machen und NVIDIA unterschätzen, gerade weil der RV670 von AMD auch relativ stark ist!


Das hat nichts mit unterschätzen zu tun, wenn ich sage, dass eine 8800GT keine GTS schlagen wird. Sie wird maximal so schnell sein wie die alte GTS, denn ein gewisser Abstand zur nächst höheren Karte muss auch gewahrt bleiben, sonst verliert die GTS ihre Daseinsberechtigung. Der Preisunterschied lässt sogar auf einen größeren Leistungsunterschied schließen.


EDIT:
Die neue GTS hat 112 SPs mit 513/1200/800 MHz bei mehr VRam und einem größeren Speicherinterface! Wieso soll die Gf 8800 GT da schneller sein?

MfG :cool:

Das breitere SI gleicht die GT durch den höher getakteten Speicher fast aus, und der etwas größere VRAM wird nur in Ausnahmesituationen eine Rolle spielen. Der höhere Takt (die neue GTS wird ebenso wie die alte mit 500Mhz, nicht mit 513Mhz takten) wird hingegen voll durchschlagen. Außerdem wird G92 wohl die Verbesserungen von G84 mit nehmen, und vielleicht noch weitere Verbesserungen haben. Sonst siehe oben.

laser114
2007-10-09, 19:14:52
Die neue GTS hat 112 SPs mit 513/1200/800 MHz bei mehr VRam und einem größeren Speicherinterface! Wieso soll die Gf 8800 GT da schneller sein?

500/1200/800 (so taktet die aktuelle GTS, und nach den Gerüchten wohl auch die neue) auf 7 Clustern wären mit 320-Bit wohl langsamer als 600/1200/900 auf ebenfalls 7 Clustern und 256-Bit. Die Bandbreite ist bei letzterer Version zwar nicht so hoch, dafür die Füllrate aber etwas höher.

Im Endeffekt passt also auf den Namen 8800 GT das so nicht. Mit 6 Clustern wäre das gegenüber der neuen 8800 GTS schon eher vorstellbar.

dargo
2007-10-09, 19:15:18
Das hat nichts mit unterschätzen zu tun, wenn ich sage, dass eine 8800GT keine GTS schlagen wird. Sie wird maximal so schnell sein wie die alte GTS, denn ein gewisser Abstand zur nächst höheren Karte muss auch gewahrt bleiben, sonst verliert die GTS ist Daseinsberechtigung. Der Preisunterschied lässt sogar auf eine größeren Leistungsunterschied schließen.

Man weiß noch gar nicht was mit den G80 Preisen ab November passieren wird.

Gast
2007-10-09, 19:16:47
Und was für einen Aufbau ein G92 Cluster haben wird.

reunion
2007-10-09, 19:19:14
Man weiß noch gar nicht was mit den G80 Preisen ab November passieren wird.

Der Chip ist zu teuer um ihn merklich billiger zu verkaufen. Die Karten werden irgendwann auslaufen und durch den Nachfolger ersetzt. Nur meine Meinung. Nicht umsonst bringt man jetzt die neue GTS um den Preis stabil halten zu können.

Und was für einen Aufbau ein G92 Cluster haben wird.

Eben.

Gast
2007-10-09, 19:22:19
Eben.

Ich hab keinen von euch zugestimmt. Die Aussage "112SP" sagt nichts über die Leistungsfähigkeit der Karte aus. nVidia brauch einfach mehr (MADD) Rechenleistung. Es ist daher sinniger auf 112SP und 16 TA/32 TFUs zu gehen als bei 4 G80 Cluster mit 65SP und 1800MHz zu bleiben.
Und in der obrigen Konfiguration wäre die Karte immer noch langsamer als eine GTS.

reunion
2007-10-09, 19:23:48
Ich hab keinem von euch zugestimmt.


Deshalb darf ich ja trotzdem dir zustimmen, oder? Das sollte man eben auch noch beachten.


Die Aussage "112SP" sagt nichts über die Leistungsfähigkeit der Karte aus. nVidia brauch einfach mehr (MADD) Rechenleistung. Es ist daher sinniger auf 112SP und 16 TA/32 TFUs zu gehen als bei 4 G80 Cluster mit 65SP und 1800MHz zu bleiben.
Und in der obrigen Konfiguration wäre die Karte immer noch langsamer als eine GTS.

Nur passen vier Cluster mal absolut gar nicht zu 112SPs, da G8x Vec8-Einheiten hat. Das einzige was bei 112SPs Sinn macht sind 7 Cluster. Deshalb ist eine Verwechslung mit der neuen GTS am wahrscheinlichsten IMHO.

James Ryan
2007-10-09, 19:42:02
(die neue GTS wird ebenso wie die alte mit 500Mhz, nicht mit 513Mhz takten)

Falsch, jede Standard Gf 8800 GTS taktet mit 513 MHz weil glatte 500 MHz dank der Taktsprünge nicht möglich sind. :rolleyes:

@laser114
Ehrlich gesagt ist mir egal was du glaubst oder nicht, es wurde quasi schon bestätigt dass die Gf 8800 GT 112 SPs haben wird, Verwechslung mit der GTS ist auch eher unwahrscheinlich, 6 Cluster sowieso.
Aber ok, streiten ist jetzt auch Quatsch wenn wir in ein paar Wochen eh sehen was Sache sein wird. ;)

MfG :cool:

dargo
2007-10-09, 19:43:11
Der Chip ist zu teuer um ihn merklich billiger zu verkaufen.
Woher willst du das wissen. Arbeitest du bei NV? Der Chip wäre vielleicht beim Launch zu teuer, aber nach einem Jahr bin ich mir da nicht mehr so sicher. Man verdient dann halt je GPU etwas weniger. Ist das so schlimm nach einem Jahr G80?

Nicht umsonst bringt man jetzt die neue GTS um den Preis stabil halten zu können.

Ich denke eher, man bringt die neue GTS weil eine G8800GT der alten GTS zu nahe gerückt ist, was die Performance angeht.

James Ryan
2007-10-09, 19:47:02
Vor allem wird es G80-Karten eh nicht mehr lange geben, vielleicht noch einen Monat, wenn überhaupt. Und genau darum braucht man auch einen 7 Cluster G92 um die Gf 8800 GTS quasi ablösen zu können.
Zum Crysis-Launch gibts dann einen GTX/Ultra Ersatz und der G80 ist Geschichte.
Träumerei? Ihr werdet es sehen... ;)

MfG :cool:

reunion
2007-10-09, 19:48:08
Falsch, jede Standard Gf 8800 GTS taktet mit 513 MHz weil glatte 500 MHz dank der Taktsprünge nicht möglich sind. :rolleyes:


Das sieht nV halt anders, aber bitte. :rolleyes:

http://www.nvidia.de/page/geforce8.html

nV kann den Chip takten wie mal will.


Träumerei? Ihr werdet es sehen... ;)


Ja, wir werden sehen. :rolleyes:

dargo
2007-10-09, 19:51:24
Das sieht nV halt anders, aber bitte. :rolleyes:

http://www.nvidia.de/page/geforce8.html

Und was soll das beweisen? Eine GTS taktet immer noch mit 513/792Mhz. 500/800Mhz sehen für den Enduser halt besser aus. :wink:

aths
2007-10-09, 19:53:51
Falsch, jede Standard Gf 8800 GTS taktet mit 513 MHz weil glatte 500 MHz dank der Taktsprünge nicht möglich sind. :rolleyes:

@laser114
Ehrlich gesagt ist mir egal was du glaubst oder nicht, es wurde quasi schon bestätigt dass die Gf 8800 GT 112 SPs haben wirdWer hat das denn bestätigt?

seahawk
2007-10-09, 19:55:58
AFAIK soll die Gladiator für 279$ starten, oder? Damit wäre es schon wieder eine andere Preisklasse.

Und ne andere Leistungsklasse. Es sit fraglich on soviel Potentail in G92 schlummert, dass er auch nur in die Nähe von Gladiator kommen könnte. Warum sonst sollte man ihn 50$ billiger anbieten ?

reunion
2007-10-09, 19:57:49
Woher willst du das wissen. Arbeitest du bei NV? Der Chip wäre vielleicht beim Launch zu teuer, aber nach einem Jahr bin ich mir da nicht mehr so sicher. Man verdient dann halt je GPU etwas weniger. Ist das so schlimm nach einem Jahr G80?

Die Produktionskosten eines Dice bleiben fast gleich, wenn man keinen shrink durchführt. Die Siliziumwafer selbst wird sowieso nicht billiger. Einzig durch die im laufe der Zeit meist besser werdenden Yieldraten und die billiger werdende 90nm Fertigung spart man etwas Geld. Ich sage nicht das nV Pleite gehen würde wenn man den Preis um sagen wir 100$ senkt, nur wenn man sich die Firmenphilosophie in der Vergangenheit ansieht, wage ich das arg zu bezweifeln. Der Chip ist zweifellos teuer, und nV war schon immer sehr bedacht was ihre Margen anging. Man wird sich sicher nicht mit G92 selbst Konkurrenz machen um dann den teuren G80 verscherbeln zu müssen, das wäre nicht zielführend.


Ich denke eher, man bringt die neue GTS weil eine G8800GT der alten GTS zu nahe gerückt ist, was die Performance angeht.

Beides wird da mit reinspielen. Aber das die 8800GT die neue GTS schlägt, wovon James Ryan schon wieder träumt ist einfach unrealistisch.

Adam D.
2007-10-09, 20:07:43
Und ne andere Leistungsklasse. Es sit fraglich on soviel Potentail in G92 schlummert, dass er auch nur in die Nähe von Gladiator kommen könnte. Warum sonst sollte man ihn 50$ billiger anbieten ?
Dito. Aber die Pläne sind einfach wohl auch anders. RV670 soll R600 ersetzen, während G92 das Lineup ergänzt.

dargo
2007-10-09, 20:13:58
Ich sage nicht das nV Pleite gehen würde wenn man den Preis um sagen wir 100$ senkt, nur wenn man sich die Firmenphilosophie in der Vergangenheit ansieht, wage ich das arg zu bezweifeln.

Vielleicht ist es ja nur für paar Monate als Überbrückung gedacht. Und im 1Q 2008 erwartet uns einfach eine neue G9x Produktpalette.


Beides wird da mit reinspielen. Aber das die 8800GT die neue GTS schlägt, wovon James Ryan schon wieder träumt ist einfach unrealistisch.
Das glaube ich auch nicht.

James Ryan
2007-10-09, 20:27:08
Aber das die 8800GT die neue GTS schlägt, wovon James Ryan schon wieder träumt ist einfach unrealistisch.

Sag mal, liest du meine Postings auch richtig? :|
Die Gf 8800 GT wird wohl auf old GTS-Niveau liegen.

Aber fassen wir mal zusammen was wir wohl wirklich wissen:

- AMD bringt einen RV670 mit 320 Streamprozessoren und 256 Bit Speicherinterface, diese Karte liegt auf R600-Niveau und wird ihn ablösen, Preis soll bei 229$ - 279$ liegen
- G92 hat ein 256 Bit Speicherinterface, einen takt von 600/1200/900 und ist der Gegenspieler vom RV670
- Und eben dieser G92 soll nur 64SPs und 4 Cluster besitzen? :confused:

Das passt doch hinten und vorne nicht!

MfG :cool:

aths
2007-10-09, 20:39:30
Sag mal, liest du meine Postings auch richtig? :|
Die Gf 8800 GT wird wohl auf old GTS-Niveau liegen.

Aber fassen wir mal zusammen was wir wohl wirklich wissen:

- AMD bringt einen RV670 mit 320 Streamprozessoren und 256 Bit Speicherinterface, diese Karte liegt auf R600-Niveau und wird ihn ablösen, Preis soll bei 229$ - 279$ liegen
- G92 hat ein 256 Bit Speicherinterface, einen takt von 600/1200/900 und ist der Gegenspieler vom RV670
- Und eben dieser G92 soll nur 64SPs und 4 Cluster besitzen? :confused:Warum denn nicht? Das wären immerhin 70-80% mehr Leistung als die 8600 GTS bietet. Als Preis ist angedacht 199$ für die 256-MiB-Version und 249$ für die 512-MiB-Version. Da kann die GT kein Überflieger sein.

Das passt doch hinten und vorne nicht!Und wieso?

LovesuckZ
2007-10-09, 21:56:40
Sag mal, liest du meine Postings auch richtig? :|
Die Gf 8800 GT wird wohl auf old GTS-Niveau liegen.

Aber fassen wir mal zusammen was wir wohl wirklich wissen:

- AMD bringt einen RV670 mit 320 Streamprozessoren und 256 Bit Speicherinterface, diese Karte liegt auf R600-Niveau und wird ihn ablösen, Preis soll bei 229$ - 279$ liegen
- G92 hat ein 256 Bit Speicherinterface, einen takt von 600/1200/900 und ist der Gegenspieler vom RV670
- Und eben dieser G92 soll nur 64SPs und 4 Cluster besitzen? :confused:

Das passt doch hinten und vorne nicht!

MfG :cool:

Du vergisst noch
- Chipfläche von 289mm²
- TDP von 110 Watt
- Hitzeproblem

Ja, das macht alles Sinn...

reunion
2007-10-09, 22:07:02
Du vergisst noch
- Chipfläche von 289mm²
- TDP von 110 Watt
- Hitzeproblem

Ja, das macht alles Sinn...

Er hat gesagt wir fassen das zusammen, was wir wohl ziemlich sicher wissen. Deine Aufzählungen sind alles andere als sicher und wurden meist nur von irgendwelchen dubiosen Quellen mal behauptet und werden jetzt ständig mitgeschleppt bzw. abgeschrieben.

Zum Preis gibt es eine Präsentation von nV, der offizielle Verkaufsname und die Taktraten wurden ebenfalls mehrfach, auch mittels einer Etikette eines Herstellers bestätigt. Und ob es dir gefällt oder nicht: All das, vom Namen bis zum Preis und den Taktraten spricht eigentlich klar für vier bis vielleicht max. fünf Cluster.

LovesuckZ
2007-10-09, 22:09:58
Er hat gesagt wir fassen das zusammen, was wir wohl ziemlich sicher wissen. Deine Aufzählungen sind alles andere als sicher und wurden meist nur von irgendwelchen dubiosen Quellen mal behauptet und werden jetzt ständig mitgeschleppt bzw. abgeschrieben.

Der Shadertakt ist nicht gesichert. Es gibt keine Angabe über jenen. Bis jetzt sind anscheinend nur Core- und Speichertakt gesichert.


Zum Preis gibt es eine Präsentation von nV, der offizielle Verkaufsname und die Taktraten wurden ebenfalls mehrfach, auch mittels einer Etikette eines Herstellers bestätigt. Und ob es dir gefällt oder nicht: All das, vom Namen bis zum Preis und den Taktraten spricht eigentlich klar für vier bis max. fünf Cluster.

Wir haben eine Folie, ich kann dir auch eine machen. ;)

reunion
2007-10-09, 22:13:36
Der Shadertakt ist nicht gesichert. Es gibt keine Angabe über jenen. Bis jetzt sind anscheinend nur Core- und Speichertakt gesichert.

Richtig, das habe ich auch nicht bestritten. Ich dachte das ist ohnehin klar.


Wir haben eine Folie, ich kann dir auch eine machen. ;)

Natürlich kann man sich - solange es nicht offiziell ist - nie hundert prozentig sicher sein. Nur diese Dinge wurde einfach schon zu oft und von zu vielen Quellen unabhängig voneinander übereinstimmend wiedergegeben, das ein Irrtum IMHO verdammt unwahrscheinlich ist. Aber warten wir ab, es kann nicht mehr lange dauern, bis die ersten Herstellerkartons, etc. an die Öffentlichkeit gelangen.

Gast
2007-10-09, 22:15:58
nvidia hat schon so manches gerücht gestreut, um tatsachen zu verdecken.

289mm² diesize scheinen gesichert. und das ist viel zu groß für einen 4c/64SP chip. genau so wie die abwärme( oder doch nur TDP) von 110W, wo die kernspannung nur bei 1,1V liegen soll. da kommt bestimmt noch ein größerer chip.

außerdem soll ja auch ein terraflopp SKU kommen. das wäre mit 64SP nicht realisierbar.

reunion
2007-10-09, 22:21:52
289mm² diesize scheinen gesichert.


Dieser 17x17 Chip stammt AFAIK nur von einer einzigen Person, nämlich CJ bei B3D, und wurde von allen anderen übernommen. Dieser hat zwar normal keine schlechten Quelle, hat sich aber auch schon hin und wieder geirrt. Sicher ist etwas andere.


und das ist viel zu groß für einen 4c/64SP chip. genau so wie die abwärme( oder doch nur TDP) von 110W, wo die kernspannung nur bei 1,1V liegen soll. da kommt bestimmt noch ein größerer chip.


Die 110W sind ähnlich unsicher und vermutlich längst überholt.


außerdem soll ja auch ein terraflopp SKU kommen. das wäre mit 64SP nicht realisierbar.

Da gibt es wirklich noch Erklärungsbedarf, aber ich denke das wird nicht G92 sein. Es sei denn es sind doch 96 SPs bei G92, dann wäre dies mit einer GX2 leicht möglich.

laser114
2007-10-09, 22:34:26
Ich sags nochmal: Vielleicht gibt es zwei G92-Chips, und nvidia verwendet intern andere Codenamen (D8E/D8P/D8M oder so). Und diese Daten scheinen gerne vermischt zu werden.

Ein289 mm² in 65nm ist wohl schneller als das aktuelle High-End ... das hat aber mit einer 8800 GT wenig zu tun.

aths
2007-10-09, 23:19:02
außerdem soll ja auch ein terraflopp SKUTeraflop-SKU.

Ich sags nochmal: Vielleicht gibt es zwei G92-Chips, und nvidia verwendet intern andere Codenamen (D8E/D8P/D8M oder so). Und diese Daten scheinen gerne vermischt zu werden.Vermischt wird hier im Thread leider sehr vieles. Und oft ist der Wunsch der Vater des Gedanken. Da wird ungenau gelesen und von Websites zitiert deren Redakteure nicht logisch denken können. Das alles ist ein Paradebeispiel für Marketing im Vorfeld eines Produkt-Launches: Der Käufer wird verunsichert – und kauft schon mal nicht bei der Konkurrenz. Das geht so weit dass Leute im Moment keine Ultra kaufen wollen weil sie irgendwo gelesen haben, dass der G92 schneller sein soll.

Und: Nur weil die Websites und Printmagazine alle gegenseitig voneinander abschreiben, wird der Mist den man liest keinesfalls richtiger. Ständig werden "Quellen" zitiert die den G92 noch für das neue Highend-Modell halten.

Mit einem Blick auf die existierenden Modelle und etwas Logik kann man sich schon ganz gut ausmalen, was uns erwartet. Dazu gehört garantiert nix womit sich NV den eigenen Markt kaputtmachen würde.

Henroldus
2007-10-09, 23:42:52
Der Käufer wird verunsichert – und kauft schon mal nicht bei der Konkurrenz. Das geht so weit dass Leute im Moment keine Ultra kaufen wollen weil sie irgendwo gelesen haben, dass der G92 schneller sein soll.

im moment sollte der geneigte kaufinteressent erstmal gar nichts unternehmen und erst dann eine entscheidung treffen, wenn die karten beider Hersteller auf dem Markt sind.
Dann haben wir einen Leistungs- und Preisvergleich der auf Tatsachen beruht und kaufen uns das bessere Weihnachtsgeschenk(Ja, die ATI Karte kommt erst Ende November und vorher würde ich auch keinen G92 kaufen).

Ich wünsche eine gute Nacht

Gast
2007-10-10, 07:10:08
Several sources are suggesting that the upcoming GeForce 8800 GT has 112 stream processors like the new GeForce 8800 GTS 640MB SKU. We also heard that its shader clock is running at 1.5GHz. CJ did some nice analysis on the Nvidia's strategy here on why is there a new 8800 GTS SKU. He revealed that there is a shortage of GTX cores but plenty of GTS cores going around that didn't quite make it as a GTX. So if you launch a new product that is faster than a 8800GTS, no one will buy the more expensive GTS unless you up its stream processor count for higher performance. Also with a 320-bit memory interface, it certainly perform better at high resolutions and with lots of AA/AF/HDR. This way Nvidia can still get rid of the inventory.

PCGH_Carsten
2007-10-10, 10:58:28
Teraflop-SKU.
[…]
Mit einem Blick auf die existierenden Modelle und etwas Logik kann man sich schon ganz gut ausmalen, was uns erwartet. Dazu gehört garantiert nix womit sich NV den eigenen Markt kaputtmachen würde.
Tera-FLOP-SKU bitte.
Die Abkürzung FLOP hat sich noch nicht hinreichend im allgemeinen Sprachgebrauch durchgesetzt, als dass sie schon als eigenständiger Begriff gelte.


Mit einem Chip, welche die Performance der GTS/GTX hätte, dabei aber günstiger zu fertigen wäre, würde Nvidia sich nicht den Markt kaputtmachen sondern die Margen verbessern. Siehe dazu auch der Übergang von GF7800 auf 7900.

Disclaimer: Obige Äußerung stellt keinen Versuch dar, die Performance des G92 in irgendeiner Weise einzuschätzen.

Ailuros
2007-10-10, 11:14:12
Da gibt es wirklich noch Erklärungsbedarf, aber ich denke das wird nicht G92 sein. Es sei denn es sind doch 96 SPs bei G92, dann wäre dies mit einer GX2 leicht möglich.

Nochmal G92 steht afaik fuer eine gesamte Produkt-familie, die sowohl Performance als auch High end abdecken wird.

Wie dieses jetzt am Ende realisiert wird, steht noch in den Sternen. Mehr Infos erst nach dem editor's day und dann natuerlich je nachdem wieviel man vom NDA herausruecken darf.

Die gelbe Eule
2007-10-10, 11:32:17
Laut VR-Z gibt es die 8800GT mit 96 oder 112SP, dafür hat die neue GTS dann 128SP @ G92 und nicht mehr 112SP @ G80. Somit kann die 8800GT schneller sein als die alte GTS, weil es keinen mehr juckt ;)

AnarchX
2007-10-10, 11:36:48
Plan des 8800 GT PCBs:
http://img266.imageshack.us/img266/9079/200710102ed5d605a68d731dz8.th.jpg (http://img266.imageshack.us/my.php?image=200710102ed5d605a68d731dz8.jpg)http://img266.imageshack.us/img266/9318/200710100df0cdf1e25aa01mq3.th.jpg (http://img266.imageshack.us/my.php?image=200710100df0cdf1e25aa01mq3.jpg)

Hvoralek
2007-10-10, 11:43:47
Tera-FLOP-SKU bitte.
Die Abkürzung FLOP hat sich noch nicht hinreichend im allgemeinen Sprachgebrauch durchgesetzt, als dass sie schon als eigenständiger Begriff gelte.Unabhängig von der Frage aber auf jeden Fall FLOPS (FlOp/s). Mit einem Chip, der eine Billion Gleitkommaoperatonen ausführt und dann kaputt geht, würde Nvidia wohl keinen Blumentopf gewinnen :wink:

seahawk
2007-10-10, 11:52:12
Plan des 8800 GT PCBs:
http://img266.imageshack.us/img266/9079/200710102ed5d605a68d731dz8.th.jpg (http://img266.imageshack.us/my.php?image=200710102ed5d605a68d731dz8.jpg)http://img266.imageshack.us/img266/9318/200710100df0cdf1e25aa01mq3.th.jpg (http://img266.imageshack.us/my.php?image=200710100df0cdf1e25aa01mq3.jpg)

Kann einer daran die Lochabstände für den Kühler berechenen. Wie bei den bsiherigen 8800er Karten oder anders ?

Endorphine
2007-10-10, 11:56:19
Kann einer daran die Lochabstände für den Kühler berechenen. Wie bei den bsiherigen 8800er Karten oder anders ? Warum nimmst du nicht endlich selbst das Lineal zur Hand und rechnest es mit dem Dreisatz aus, statt noch 4x oder 5x zu fragen?

dargo
2007-10-10, 12:00:15
Nochmal G92 steht afaik fuer eine gesamte Produkt-familie, die sowohl Performance als auch High end abdecken wird.

Wie dieses jetzt am Ende realisiert wird, steht noch in den Sternen.
Das ist interessant. Wenn es wirklich eine neue GTS mit 128SPs auf 92 Basis geben sollte dann könnte man das neue High-End durch eine G92GX2 realisieren. Zb. durch 2x G8800GT oder 2x G8800GTS (neu), je nachdem wie hoch die Verlustleistung ist. Man könnte es aber auch mit einer Single-GPU Graka probieren. Zb. mit mehr SPs und deutlich höheren Taktraten als die G8800GT. Ist eigendlich das G8800GTX PCB zur G92 GPU kompatibel?

Ich denke, bei einer Single-GPU Graka wird man wohl das 384Bit SI dringend brauchen. 256Bit wären da zu wenig, zumindest bis es "mittelschnelle" (~2Ghz) GDDR5 Chips gibt.

|MatMan|
2007-10-10, 14:24:14
Plan des 8800 GT PCBs:
http://img266.imageshack.us/img266/9079/200710102ed5d605a68d731dz8.th.jpg (http://img266.imageshack.us/my.php?image=200710102ed5d605a68d731dz8.jpg)
http://img266.imageshack.us/img266/9318/200710100df0cdf1e25aa01mq3.th.jpg (http://img266.imageshack.us/my.php?image=200710100df0cdf1e25aa01mq3.jpg)

Ich weiß nicht ob es bisher schon angesprochen wurde, aber mit dem Platinenlayout scheint es ja gesichert, dass auch der NVIO-Chip wieder mit an Board sein wird. Ich habe ja bisher angenommen, dass der aus Platzgründen aus dem G80 geflogen ist (G84 & G86 haben ja auch keinen) und die Funktionalität bei einem kleinen, kostengünstig herzustellendem G92 wieder integriert wäre?!
Oder ist das vielleicht etwas anderes?

AnarchX
2007-10-10, 14:34:47
Oder ist das vielleicht etwas anderes?
NVIO sieht eigentlich anders aus, vielleicht NVIO2?

Aber ich vermute eher, dass es der Chip ist, welcher Display-Ports ermöglicht, wo einer auch auf dem Plan gezeigt wird.

aths
2007-10-10, 15:09:57
Tera-FLOP-SKU bitte.
Die Abkürzung FLOP hat sich noch nicht hinreichend im allgemeinen Sprachgebrauch durchgesetzt, als dass sie schon als eigenständiger Begriff gelte.Man spricht "Flop", nicht "F. L. O. P." Also "Flop".

Mit einem Chip, welche die Performance der GTS/GTX hätte, dabei aber günstiger zu fertigen wäre, würde Nvidia sich nicht den Markt kaputtmachen sondern die Margen verbessern. Siehe dazu auch der Übergang von GF7800 auf 7900.

Disclaimer: Obige Äußerung stellt keinen Versuch dar, die Performance des G92 in irgendeiner Weise einzuschätzen.Nvidia hat derzeit keine Veranlassung, massive Performance zum kleinen Preis rauszuhauen. Der G92 soll angeblich reichlich 10000 Punkte schaffen, das wäre mit 64 so genannten "Shader-Pipelines" bei 600 MHz erreichbar.

AnarchX
2007-10-10, 15:18:02
Nvidia hat derzeit keine Veranlassung, massive Performance zum kleinen Preis rauszuhauen. Der G92 soll angeblich reichlich 10000 Punkte schaffen, das wäre mit 64 so genannten "Shader-Pipelines" bei 600 MHz erreichbar.
:|

10k sind für einen 4C(64SP)-Chip schon einiges, aber das wird wohl wieder an den seltsamen Anforderungen vom 3DMark liegen -> Vertexleistung.

Aber ich bin auch der Meinung, dass sich eine 8800 GT ensprechend ihres Namens postieren wird.
Eine 7900GT kostete ja auch immerhin ~330€ zum Launch und nicht 230€, wofür manche jetzt einen 112SP(7C)-Chip mit 0.6/1.5GHz (~fast GTX) erwarten und so stark ist RV670 auch nicht wieder.

LovesuckZ
2007-10-10, 15:29:33
So limitierend kann der 3DMark2006 durch die "Vertexleistung" nicht sein, wenn die 2900XT sind nicht von der 8800GTX absetzen kann.

Spasstiger
2007-10-10, 15:31:57
10k sind für einen 4C(64SP)-Chip schon einiges, aber das wird wohl wieder an den seltsamen Anforderungen vom 3DMark liegen -> Vertexleistung.
Naja, im Bereich von 10k ist doch eh alles CPU-abhängig. Mit einem QX6850 und einer 8600 GTS mit OC kann man auch in die 10k-Regionen kommen (siehe Futuremark ORB).
Hier 11157 Punkte mit einem Q6600 @ 3 GHz und einer 8600 GTS @ 750 MHz/1100 MHz @ Standardkühler: http://service.futuremark.com/compare?3dm06=2643188. In der PC Games Hardware wird der 8600 GTS sogar noch ein höheres OC-Potential zugestanden als das. Nur würde es wohl wegen der CPU keinen Unterschied mehr machen.
Mit einem Dual-Core @ 2,66 GHz und einer ähnlich übertakteten 8600 GTS sinds dagegen nur noch 6025 Punkte: http://service.futuremark.com/compare?3dm06=2220749.

Also rund 85% mehr Punkte nur wegen zwei zusätzlichen Kernen und einem um 13% CPU-Takt mehr (sowie einen um 4% höheren GPU-Takt).

AnarchX
2007-10-10, 15:34:00
So limitierend kann der 3DMark2006 durch die "Vertexleistung" nicht sein, wenn die 2900XT sind nicht von der 8800GTX absetzen kann.

Von limitieren hat niemand geredet, 3DMark reagiert nur gut darauf, wie man ja an der 8600er-Serie sieht und eben auch an der 2900XT die sich hier noch relativ gut im Vergleich zu RealWorld-Apps schlägt.

Jedenfalls reagieren die unabhängigen Vertex-Tests beim 3DMark schon allein wenn man das Setup übertaktet und die Shader unangetastet lässt:
http://forum.beyond3d.com/showpost.php?p=1066431&postcount=6

Naja, im Bereich von 10k ist doch eh alles CPU-abhängig. Mit einem QX6850 und einer 8600 GTS mit OC kann man auch in die 10k-Regionen kommen (siehe Futuremark ORB).
Hier 11157 Punkte mit einem Q6600 @ 3 GHz und einer 8600 GTS @ 750 MHz/1100 MHz @ Standardkühler: http://service.futuremark.com/compare?3dm06=2643188. In der PC Games Hardware wird der 8600 GTS sogar noch ein höheres OC-Potential zugestanden als das. Nur würde es wohl wegen der CPU keinen Unterschied mehr machen.

Da ist doch eindeutig SLI im Spiel, wenn es auch nicht richtig angezeigt wird:
http://vr-zone.com/articles/Biostar_8600GTS_Card_Sets_3DMark06_Record/5162.html
10k hat noch keine Single-8600GTS gesehen, jedenfalls wäre es mir nicht bekannt und wird vielleicht wegem dem 128Bit SI auch nicht möglich sein.

Gast
2007-10-10, 15:37:04
Jedenfalls reagieren die unabhängigen Vertex-Tests beim 3DMark schon allein wenn man das Setup übertaktet und die Shader unangetastet lässt:
http://forum.beyond3d.com/showpost.php?p=1066431&postcount=6

Was ja auch logisch ist, da G80 ganz klar durch das Tri-Setup an höherer Vertexleistung gehindert wird.

reunion

GeneralHanno
2007-10-10, 15:39:15
auf CB ist ne tabelle mit übersezung von der china-webside, die behauptet, dass der G92 128SP hat:

http://www.computerbase.de/forum/showthread.php?t=331212

Spasstiger
2007-10-10, 15:44:18
Da ist doch eindeutig SLI im Spiel, wenn es auch nicht richtig angezeigt wird:
http://vr-zone.com/articles/Biostar_8600GTS_Card_Sets_3DMark06_Record/5162.html
10k hat noch keine Single-8600GTS gesehen, jedenfalls wäre es mir nicht bekannt.
Hm, ok, SLI kann sein.
Da steht zwar "Linked display adapters No", aber die 3DMark-Erkennungsroutinen funktionieren wohl nicht immer so wie sie sollten.

LovesuckZ
2007-10-10, 15:56:29
Von limitieren hat niemand geredet, 3DMark reagiert nur gut darauf, wie man ja an der 8600er-Serie sieht und eben auch an der 2900XT die sich hier noch relativ gut im Vergleich zu RealWorld-Apps schlägt.


Wenn es nicht limtiert, wieso sollte es sonst "so gut darauf reagieren"? Die 2900XT hält in jeder Anwendung ohne AA und AF gut mit, die nicht an der Texturleistung hängt - so wie der 3dMark2006.

reunion
2007-10-10, 16:19:01
Wenn es nicht limtiert, wieso sollte es sonst "so gut darauf reagieren"? Die 2900XT hält in jeder Anwendung ohne AA und AF gut mit, die nicht an der Texturleistung hängt - so wie der 3dMark2006.

Das erklärt nicht die hohen Werte des G84.

Gast
2007-10-11, 08:46:49
http://www.mobile01.com/topicdetail.php?f=298&t=417148&p=1
http://forum.beyond3d.com/showpost.php?p=1077967&postcount=754

AnarchX
2007-10-11, 08:57:27
Das ist auch interessant:
GPUBench 4 channel MAD instruction issue rate

GeForce 8800 GTS 640 : 27 Ginstr/s
GeForce 8800 GT 512 : 40 Ginstr/s

Aber kein Wunder bei 112SPs @ 1.5GHz.:eek:
http://img440.imageshack.us/img440/111/specdu8.jpg

Das wars wohl für den RV670 bzw. wird man diesen für <$199 verkaufen.

seahawk
2007-10-11, 09:14:26
Naja, da es ein verbesserte R600 ist üwrde ich ihn noch lange nicht abschreiben. Aber für 249$ ist dsas schon den Hammerleistung, ich frage mich wo der Haken ist. So paßt die kArte aber vom Namen und Preis her sowas von nichts ins Line-Up.

Die gelbe Eule
2007-10-11, 09:16:57
Der G80 hat nur noch als GTX/Ultra Bedeutung im Lineup, alles andere wird ausgetauscht.

Winter[Raven]
2007-10-11, 09:17:27
verbesserte R600

Sagt wer? Bitte Quelle :)

dargo
2007-10-11, 09:21:29
Das ist auch interessant:


Aber kein Wunder bei 112SPs @ 1.5GHz.:eek:
http://img440.imageshack.us/img440/111/specdu8.jpg

Das wars wohl für den RV670 bzw. wird man diesen für <$199 verkaufen.
Wie war das nochmal mit G8800GT und 4 Cluster? :D
Dann würden auch die 128SPs zu der neuen G8800GTS passen.

Gast
2007-10-11, 09:21:45
Das Teil wird ja pornös. Der erste Shop, der das Ding auf Lager hat, wird von mir so lange penetriert, bis ich das Ding in meinen Händen hab :D

Irgendwo muss für 249$ der Haken sein :uponder:

Adam D. @ work

AnarchX
2007-10-11, 09:26:59
Irgendwo muss für 249$ der Haken sein :uponder:


Nunja, halt deine Seele bzw. der letzte Schritt, der den Weg zum Monopol ab Performance ebnet. ;)

Gast
2007-10-11, 09:29:38
Nunja, halt deine Seele bzw. der letzte Schritt, der den Weg zum Monopol ab Performance ebnet. ;)
:up: Jetzt muss das Ding erstmal so kommen. Wenn es bei den Daten bleibt und uns hier niemand verarscht, hat Nvidia 'nen ziemlichen Hammer in der Hinterhand. Bin sehr gespannt, was ATi jetzt bringt :)

Gast
2007-10-11, 09:32:57
ATi bringt den RV670 mit ~ R600 Perfomance.
Das wird sehr knapp werden, aber der Preis regelt dann wohl alles.

MfG
James Ryan @ work

Die gelbe Eule
2007-10-11, 09:40:03
Wenn der R670 so schnell ist wie der R600 und 200€ kostet, dann gute Nacht. Die Käufer wären sowas von verarscht worden, die sich noch vor kurzem XT oder Pro geleistet haben. NV drückt schön an der Preisschraube, glaube kaum das sich ATI leisten kann, die Teile so günstig abzustossen.

Gast
2007-10-11, 09:44:35
Das gleiche wurde schon bei der X1800 XT gemacht. ;)

MfG
JR

Gast
2007-10-11, 09:45:50
Wenn der R670 so schnell ist wie der R600 und 200€ kostet, dann gute Nacht. Die Käufer wären sowas von verarscht worden, die sich noch vor kurzem XT oder Pro geleistet haben. NV drückt schön an der Preisschraube, glaube kaum das sich ATI leisten kann, die Teile so günstig abzustossen.
Die Frage ist, was sie haben bzw. wie konkurrenzfähig sie sind. Die 8800GT dürfte ATi einen kleinen Strich durch die Rechnung machen, denn das ist +- eine 8800GTS für 250$. Und wenn man davon ausgeht, dass 8800GTS=HD2900XT, dann ist der RV670 Gladiator etwas über der 8800GT - für 50$ mehr? Hmm :uponder:

Adam D. @ work

Henroldus
2007-10-11, 09:45:56
Wenn der R670 so schnell ist wie der R600 und 200€ kostet, dann gute Nacht. Die Käufer wären sowas von verarscht worden, die sich noch vor kurzem XT oder Pro geleistet haben. NV drückt schön an der Preisschraube, glaube kaum das sich ATI leisten kann, die Teile so günstig abzustossen.
genauso wie die Leute, die sich jetzt ne 8800GTS für 300 Eur kaufen, denn soviel kostet die Karte schon ein halbes Jahr lang und sowas gab es bisher noch nicht.
im Moment heisst es echt abwarten was da kommt, wer jetzt blind kauft weil er meint die Leistung zu brauchen wird sich spätestens ende November in den A**** beissen

PCGH_Carsten
2007-10-11, 09:52:21
Naja, da es ein verbesserte R600 ist üwrde ich ihn noch lange nicht abschreiben.
Er muss aber schon deutlich besser sein, da der aktuelle R600 i.d.R. eher mit der GTS zu kämpfen hat, als diese klar abzuhängen.

Wenn diese neuen Angaben stimmen sollten, hat der 8800GT ~45,8% Prozent mehr Rechenleistung als die alte GTS und liegt diesbezüglich fast auf GTX-Niveau.

112 SPs bedeuten damit aber auch 28(*2?) Textureinheiten, wenn Nvidia den TCP nicht komplett verändert hat.

Die gelbe Eule
2007-10-11, 10:02:27
genauso wie die Leute, die sich jetzt ne 8800GTS für 300 Eur kaufen, denn soviel kostet die Karte schon ein halbes Jahr lang und sowas gab es bisher noch nicht.
im Moment heisst es echt abwarten was da kommt, wer jetzt blind kauft weil er meint die Leistung zu brauchen wird sich spätestens ende November in den A**** beissen

Gerade weil es die alte 8800GTS schon so lange gibt, hat sie bereits einige Käufer. Sie war ja lange außer Konkurrenz. Ein jetziger Nachfolger ist nur legitim, gerade weil der G92 auch den 8800GTS Namen verpasst bekommt.

seahawk
2007-10-11, 10:08:09
Er muss aber schon deutlich besser sein, da der aktuelle R600 i.d.R. eher mit der GTS zu kämpfen hat, als diese klar abzuhängen.

Wenn diese neuen Angaben stimmen sollten, hat der 8800GT ~45,8% Prozent mehr Rechenleistung als die alte GTS und liegt diesbezüglich fast auf GTX-Niveau.

112 SPs bedeuten damit aber auch 28(*2?) Textureinheiten, wenn Nvidia den TCP nicht komplett verändert hat.

Ja, bei 28SP pro Cluster, darf man gar nicht daran denken wie eine 6 Clusterversion abgehen würde. Mehr als 50% der SP von R600/RV670 bei ca. doppeltem (oder mehr) Takt und besserer Effizienz. :eek: Da dürfte selbst ein Dual-RV670 schwer zu schlucken bekommen.

Gast
2007-10-11, 10:14:20
Er muss aber schon deutlich besser sein, da der aktuelle R600 i.d.R. eher mit der GTS zu kämpfen hat, als diese klar abzuhängen.

Wenn diese neuen Angaben stimmen sollten, hat der 8800GT ~45,8% Prozent mehr Rechenleistung als die alte GTS und liegt diesbezüglich fast auf GTX-Niveau.

112 SPs bedeuten damit aber auch 28(*2?) Textureinheiten, wenn Nvidia den TCP nicht komplett verändert hat.
Bei der Ausstattung fragt sich, wie 8800GT tatsächlich positioniert wird. Falschinformationen mit Falschinterpretationen hatten wir in letzter Zeit genug (R650, 64 SPs für die 8800GT).

AnarchX
2007-10-11, 10:27:57
Ja, bei 28SP pro Cluster, darf man gar nicht daran denken wie eine 6 Clusterversion abgehen würde.

Carsten meinte die 28 Doppel-TMUs (also 4 TA/8TF pro Cluster).

112SPs lassen sich eigentlich nur mit 7 Clustern in Verbindung bringen, imo.

Da man gerade mal bei 0.6/1.5GHz ist, wird man höhere SKUs wohl auch etwas über den Takt skalieren.

Aber ich bin mal gespannt was die GT beim OCing schafft, wenn 0.7/1.75GHz schon locker gehen sollen. :D
Leider wird wohl die Bandbreite dann wirklich zum Flaschenhals...

dargo
2007-10-11, 10:33:53
Leider wird wohl die Bandbreite dann wirklich zum Flaschenhals...
Es ist eben die Frage wann?

1. Den Speicher wird man ebenfalls wohl locker auf 1Ghz (wenn nicht mehr) bringen können, also 64GB/s aufwärts.
2. Bei zb. 1680x1050 mit max. 2xAA dürfte die Bandbreite kaum einen Flaschenhals darstellen, oder?

Da fällt mir gerade ein - Die alte GTS hat im Vergleich zur GTX mehr Speicherbandbreite im Verhältnis zur Rohleistung. Vielleicht bekommt man mit der neuen G8800GT und GTS das Verhältnis der GTX?

AnarchX
2007-10-11, 10:41:52
Vielleicht bekommt man mit der neuen G8800GT und GTS das Verhältnis der GTX?

GT (33GTex/505GFLOPs @ 58GB/s) vs GTX (36GTex/520GFLOPs @86GB/s)
-> nicht wirklich, erst recht, wenn man bedenkt das sich die GT wohl noch besser übertakten lässt bei der GPU, aber der Speicher bei knapp über 1GHz wohl am Ende ist, wenn nicht der AIB 0.8ns GDDR3 verbaut.

Hier gibt es aber auch ein paar Speicherskalierungswerte von GTS und GTX:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.3dnews.ru%2Fvideo%2F512_bit_memory_bus_efficiency%2 F&langpair=ru%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Die Karte richtet sich wohl eher an den 1280x/1680xer Spieler, der nahe maximale Details bei geringen oder keinen BQ-Einstellungen will (mal AF ausgenommen).

dargo
2007-10-11, 10:44:54
Die Karte richtet sich wohl eher an den 1280x/1680xer Spieler, der nahe maximale Details bei geringen oder keinen BQ-Einstellungen will (mal AF ausgenommen).
Es sollte auch eine Performancekarte werden. Von daher eher ohne/mit wenig AA.

GT (33GTex/505GFLOPs @ 58GB/s) vs GTX (36GTex/520GFLOPs @86GB/s)

Die GT schon mit 505GFLOPs? :|
Was soll dann erst die GTS leisten >GTX? :confused:

AnarchX
2007-10-11, 10:47:37
Wobei sich die Bandbreite auch etwas an den ROPs orientiert und da ist man mit 16ROPs@600MHz doch noch etwas weiter von den 24@575MHz der GTX entfernt.

Eben ganz eine Performance-Karte mit einer abgestimmten Performance für diesen Einsatz. Andere G92-SKUs zu höheren Preisen, haben dann halt mehr Bandbreite bzw. vielleicht ein breiteres SI.

dargo
2007-10-11, 10:57:21
Ich werde irgendwie das Gefühl nicht los, dass NV mit dem G92 die Schwächen der R6x0 Reihe ausnutzt. :uponder:
Man hat sich wohl gedacht, wozu mehr als 256Bit SI wenn die R6x0 Reihe beim Einsatz von AA (auch AF) eh schwächelt. Da kann man sich gleich die Kosten sparen und ein 256Bit SI für die Performancekarten bringen. Reicht ja eh gegen AMD.

Oder spinne ich? :D

Winter[Raven]
2007-10-11, 11:02:49
Ich werde irgendwie das Gefühl nicht los, dass NV mit dem G92 die Schwächen der R6x0 Reihe ausnutzt. :uponder:
Man hat sich wohl gedacht, wozu mehr als 256Bit SI wenn die R6x0 Reihe beim Einsatz von AA (auch AF) eh schwächelt. Da kann man sich gleich die Kosten sparen und ein 256Bit SI für die Performancekarten bringen. Reicht ja eh gegen AMD.

Oder spinne ich? :D

Gut gedacht... und von AiL auch zum großen Teil bestätigt. Nvidia lernt aus Fehlern und agiert Wirtschaftlich.

AnarchX
2007-10-11, 11:28:08
Die GT schon mit 505GFLOPs? :|
Was soll dann erst die GTS leisten >GTX? :confused:
Natürlich, 112*3FLOPs*1.5GHz = 504GFLOPs

Wenn die GTS nur 8 Cluster und gleiche Taktraten hat, dann wären es 576GFLOPs(=Ultra), aber vielleicht bezogen sich die schonmal genannten 750MHz auf die GTS und das wären vielleicht 1.8GHz SD ->691GFLOPs. Eine GX2(woran ich nicht glaube) bzw. G92GTX könnte mit 2.4GHz SD und 384Bit SI + GDDR4 immernoch eine ausreichende Existenzberechtigung haben. ;)


Ich werde irgendwie das Gefühl nicht los, dass NV mit dem G92 die Schwächen der R6x0 Reihe ausnutzt. :uponder:
Man hat sich wohl gedacht, wozu mehr als 256Bit SI wenn die R6x0 Reihe beim Einsatz von AA (auch AF) eh schwächelt. Da kann man sich gleich die Kosten sparen und ein 256Bit SI für die Performancekarten bringen. Reicht ja eh gegen AMD.

RV670 soll ja hier etwas Besserung bringen, aber wohlmöglich sind die G9x-ROPs vielleicht auch noch etwas aufgebohrt.

Henroldus
2007-10-11, 11:41:34
Natürlich, 112*3FLOPs*1.5GHz = 504GFLOPs

Wenn die GTS nur 8 Cluster und gleiche Taktraten hat, dann wären es 576GFLOPs(=Ultra), aber vielleicht bezogen sich die schonmal genannten 750MHz auf die GTS und das wären vielleicht 1.8GHz SD ->691GFLOPs. Eine GX2(woran ich nicht glaube) bzw. G92GTX könnte mit 2.4GHz SD und 384Bit SI + GDDR4 immernoch eine ausreichende Existenzberechtigung haben. ;)



RV670 soll ja hier etwas Besserung bringen, aber wohlmöglich sind die G9x-ROPs vielleicht auch noch etwas aufgebohrt.
Fudo labert (zum Vergleich) was von "HD2950XT scores 528 Gigaflops (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3573&Itemid=34)" aber auch immer wieder von 65nm :confused: obwohl die 55nm für ATI Chips doch klar sein sollten

seahawk
2007-10-11, 11:44:36
Ich werde irgendwie das Gefühl nicht los, dass NV mit dem G92 die Schwächen der R6x0 Reihe ausnutzt. :uponder:
Man hat sich wohl gedacht, wozu mehr als 256Bit SI wenn die R6x0 Reihe beim Einsatz von AA (auch AF) eh schwächelt. Da kann man sich gleich die Kosten sparen und ein 256Bit SI für die Performancekarten bringen. Reicht ja eh gegen AMD.

Oder spinne ich? :D

Das glaube ich nicht, man wird sich am Bedarf der Karte, dem verfügabren Speicher (Erwartung des verfügbaren Speichers) und der Positionierung der Karte orientierten .

Um sich an ATi zu orientieren ist die Entwicklungszeit viel zu lang.

AnarchX
2007-10-11, 12:12:18
http://img444.imageshack.us/img444/4096/d8pslijaqy8.jpg
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3569&Itemid=34

Gast
2007-10-11, 12:24:22
Wenn die Preise in Deutschland dann bei knapp über 200€ sind, haben wir 'ne waschechte Performance-Überraschung und eine Karte, die auch für wenig Geld Crysis und co. in höchsten Einstellungen flüssig darstellt - wenn man keinen Wert auf AA legt :up:

Gast
2007-10-11, 12:24:34
Das ist auch interessant:


Aber kein Wunder bei 112SPs @ 1.5GHz.:eek:
http://img440.imageshack.us/img440/111/specdu8.jpg

Das wars wohl für den RV670 bzw. wird man diesen für <$199 verkaufen.

Wo liegt der Haken, der diesen Namen und diesen Preis rechtfertigt? Mit 7 Cluster und den Taktraten würde man mit einem Schlag die gesamte G8x-Serie in punkte P/L-Verhältnis extrem unattraktiv machen.

reunion

Henroldus
2007-10-11, 12:25:50
http://img444.imageshack.us/img444/4096/d8pslijaqy8.jpg
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3569&Itemid=34
das ist doch kein beweis, so eine Grafik kann jeder bauen, vor allem Fudo :|
Quellen?

Gast
2007-10-11, 12:26:32
Ist dir schon mal in den Sinn gekommen, dass die derzeitige G8x Serie schon fast 1 Jahr auf dem Markt ist und ersetzt wird?

Gast
2007-10-11, 12:27:51
das ist doch kein beweis, so eine Grafik kann jeder bauen, vor allem Fudo :|
Quellen?
Sonst irgendwelche Wünsche?

dargo
2007-10-11, 12:28:53
http://img444.imageshack.us/img444/4096/d8pslijaqy8.jpg
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3569&Itemid=34
Man bekommt diesen Winter verdammt viel für wenig Geld. Die 256MB G8800GT könnte aber wieder ein "Reinfall" sein wie die G8800GTS 320. Der Preis dürfte bei ca. 160€ liegen. Wenn ich mir aber überlege, dass die G8800GT 512 schon für ca. 200€ zu haben sein wird würde ich diesen Aufpreis ohne zu überlegen zahlen. Immerhin soll ja die 512MB Version auch mehr SPs haben.

Adam D.
2007-10-11, 12:30:13
Wo liegt der Haken, der diesen Namen und diesen Preis rechtfertigt? Mit 7 Cluster und den Taktraten würde man mit einem Schlag die gesamte G8x-Serie in punkte P/L-Verhältnis extrem unattraktiv machen.

reunion
GT bald wieder > GTS? Dazu ersetzt man das G80-Lineup mit den G92-Genossen. Aber du hast schon recht, irgendwas stimmt nicht ... Nicht für diesen Preis.

GeneralHanno
2007-10-11, 12:39:31
oder man will den markt mit günstigen performencechips (200-250$) sättigen, bevor ATi das mit ihrer 2950-Reihe tut.

Gast
2007-10-11, 12:42:45
Ich werde irgendwie das Gefühl nicht los, dass NV mit dem G92 die Schwächen der R6x0 Reihe ausnutzt. :uponder:
Man hat sich wohl gedacht, wozu mehr als 256Bit SI wenn die R6x0 Reihe beim Einsatz von AA (auch AF) eh schwächelt. Da kann man sich gleich die Kosten sparen und ein 256Bit SI für die Performancekarten bringen. Reicht ja eh gegen AMD.

Oder spinne ich? :D

Ich sehe nichts schlaues daran, einen schnellen Chip zu entwicklen, der dann an der Bandbreite verhungert. Und so blöd ist nV sicher auch nicht.

reunion

Ailuros
2007-10-11, 12:43:52
Die 8800GT ersetzt quasi die 8800GTS/320MB zu gleichem oder guenstigeren Preis.

Was genau soll daran merkwuerdig sein? Fuer das was die Boards kosten werden, sind solche GPUs um einiges mehr ihr Geld wert als mit der bisherigen 8600-Kacke, egal ob diese am Ende billiger sind.

Gast
2007-10-11, 12:43:54
Ist dir schon mal in den Sinn gekommen, dass die derzeitige G8x Serie schon fast 1 Jahr auf dem Markt ist und ersetzt wird?

Warum dann der Name 8800GT?

reunion

Gast
2007-10-11, 12:44:58
Die 8800GT ersetzt quasi die 8800GTS/320MB zu gleichem oder guenstigeren Preis.

Was genau soll daran merkwuerdig sein? Fuer das was die Boards kosten werden, sind solche GPUs um einiges mehr ihr Geld wert als mit der bisherigen 8600-Kacke, egal ob diese am Ende billiger sind.

Mit 7 Cluster und Taktraten von 600/1500/900 würde sie fast die GTX schlagen. Also doch weniger Cluster?

reunion

Gast
2007-10-11, 12:45:41
Also schade, die Bandbreite wird so knapp sein, dass nur minimal AA geht (meiner Meinung nach sollte eine Performance Karte auch Power für ordentlich AA bieten)

GeneralHanno
2007-10-11, 12:49:30
wenn ich das richtig gelesen habe, soll das spitzenmodell 112SP +512MB GDDR4-RAM haben. wenn der ram sehr hoch getaktet wird, sollte die Bandbreite ausreichen.

Winter[Raven]
2007-10-11, 12:50:25
Warum dann der Name 8800GT?

reunion

Wenn interessiert der Name wenn die Performace stimmt?