Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x - Teil 2


Seiten : 1 2 [3] 4 5

robbitop
2007-10-02, 19:43:02
Moores Law stammt aus den 60ern und ist hoechstens noch ein ganz grober Massstab. Die Ursachen kenne ich natuerlich (wie ich bereits sagte).
Ich rege mich halt nur gern darueber auf :D

Gast
2007-10-02, 19:54:39
Interessant ist, dass sich zumindest die meisten Leute damit abgefunden haben, dass es anscheinend keinen Ultrahighend-Refresh geben wird.

Bond2k
2007-10-02, 20:51:23
Interessant ist, dass sich zumindest die meisten Leute damit abgefunden haben, dass es anscheinend keinen Ultrahighend-Refresh geben wird.

Dann sag mal, was man dagegen mach kann, ausser auf den nächsten Highend zu warten :rolleyes:

darkcrawler
2007-10-02, 22:00:37
Interessant ist, dass sich zumindest die meisten Leute damit abgefunden haben, dass es anscheinend keinen Ultrahighend-Refresh geben wird.

die "meisten" wollen auch kein 500€-stromfresser-undheizunginklusive-monstrum, sondern solide performance bei annehmbarer verlustleistung und "gutem" preis

(wenn mans genau nimmt, sind die "meisten" gar lowend / o/b)

Gast
2007-10-02, 22:34:00
Aber der Punkt ist auch ein anderer: Wo liegen die Vorteile der 8400GS/8500GT?
Da du schon CB zitierst, hättest du auch gleich weiterlesen können. Wer kaum Qualität bietet, ist natürlich auch schneller...

Unverständlicherweise ist die 2400er trotz angeblich identischem UVD weit hinter der 2600 und besonders der 8600 (eine 8500/8400 wurde ja leider nicht mitgestetet):
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_avivo_hd_purevideo_hd_vergleich/6/

Um deine Frage zu beantworten: Wer HD auch hoch definiert sehen will, sollte die Finger von der HD2400 lassen, wenn man dem CB-Test glauben darf und inzwischen keine neuen Treiber das Problem behoben haben.

Gast
2007-10-03, 08:21:41
Da du schon CB zitierst, hättest du auch gleich weiterlesen können. Wer kaum Qualität bietet, ist natürlich auch schneller...

Unverständlicherweise ist die 2400er trotz angeblich identischem UVD weit hinter der 2600 und besonders der 8600 (eine 8500/8400 wurde ja leider nicht mitgestetet):
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_avivo_hd_purevideo_hd_vergleich/6/

Um deine Frage zu beantworten: Wer HD auch hoch definiert sehen will, sollte die Finger von der HD2400 lassen, wenn man dem CB-Test glauben darf und inzwischen keine neuen Treiber das Problem behoben haben.

Wer sagt, dass eine 8400 besser ist? HD2600 und GF8600 spielen in einer ganz anderen Liga.

reunion

Adam D.
2007-10-03, 09:17:49
http://pic.xfastest.com/sxs112/NV/8800GT/02.jpg

Die Jungs wissen einfach, wie man eine Grafikkarte sexy macht :uup:

http://pic.xfastest.com/sxs112/NV/8800GT/01.png

Neue GTS mit 112SP? :uponder:

AnarchX
2007-10-03, 09:18:34
edit: Da war ich aber wohl etwas spät, aber wenigstens die Quellen angegeben:
Quelle (http://www.mobile01.com/topicdetail.php?f=298&t=413501&last=3742976)
;)

Adam D.
2007-10-03, 09:23:34
edit: Da war ich aber wohl etwas spät, aber wenigstens die Quellen angegeben:
Quelle (http://www.mobile01.com/topicdetail.php?f=298&t=413501&last=3742976)
;)
Exakt 50 Sekunden - aber danke für die Quelle :wink:

Ich bin im Moment wirklich sehr gespannt, wie das Rennen laufen wird. Ob die neue GTS die alte ersetzt, damit der Unterschied zwischen GT und GTS deutlicher wird?

AnarchX
2007-10-03, 09:27:12
Ob die neue GTS die alte ersetzt, damit der Unterschied zwischen GT und GTS deutlicher wird?

Sieht so aus, und laut der Quelle wird dies wohl ohne großes Tamtam über die Bühne gehen:
NVIDIA will NOT be doing any formal launch activities, press announcements, website updates, or any other marketing around this new sku. Partners can conduct their own marketing activities around the sku as they see fit.

Noch seltsamer ist, dass G80 wohl noch etwas weiterleben wird oder ist diese Aktion eine Art Lagerräumung für den richtigen Nachfolger?:|

Adam D.
2007-10-03, 09:31:00
Noch seltsamer ist, dass G80 wohl noch etwas weiterleben wird oder ist diese Aktion eine Art Lagerräumung für den richtigen Nachfolger?:|
Naja, wenn der G92x2 erst später (nächstes Jahr?) startet, dann bleibt der G80 weiterhin die stärkste Karte zu kaufen. Warum dann nicht alles rausschmeißen, bis der Nachfolger kommt?

Edit: Die zusätzlichen SP sollten die Performance defintiv merklich anheben (auch wenn nicht viel), ich nehm schon an, dass die neuen GTS eine andere Bezeichnung und Ankündigung seitens der Reseller erhalten.

AnarchX
2007-10-03, 09:38:02
Edit: Die zusätzlichen SP sollten die Performance defintiv merklich anheben (auch wenn nicht viel), ich nehm schon an, dass die neuen GTS eine andere Bezeichnung und Ankündigung seitens der Reseller erhalten.
Davon kann man ausgehen, immerhin 17% mehr Einheiten. Vielleicht wird es ja eine 8800GTO. :D

Aber auch interessant, dass er auch den 29.10. für GT und new GTS bestätigt.

Und die 8800GT soll nun 10.800 Punkte im 3DMark06 erreichen, während der Konkurrenz-RV670 nur 10.700 erreicht und er meint, dass die 3DMark-Performance bei diesem besser als die Game-Performance ist.

Adam D.
2007-10-03, 09:44:44
Davon kann man ausgehen, immerhin 17% mehr Einheiten. Vielleicht wird es ja eine 8800GTO. :D
Ich bin für HD8800GTO :biggrin:

Aber auch interessant, dass er auch den 29.10. für GT und new GTS bestätigt.
Ist doch klasse. Nachdem Nvidia gemerkt hat, dass ATi seinen kleinen Schatz früher auf den Markt wirft, haben sie direkt reagiert und sind wieder einen Schritt vorraus. Respekt :)

Und die 8800GT soll nun 10.800 Punkte im 3DMark06 erreichen, während der Konkurrenz-RV670 nur 10.700 erreicht und er meint, dass die 3DMark-Performance bei diesem besser als die Game-Performance ist.
Das wäre ja nach den vorherigen Spekulationen über den RV670 eine kleine Enttäuschung. Aber dann kann ich immerhin Nvidia treu bleiben.

PS: Bleibt der Preis der G92-512MB weiterhin bei 249$?

Gast
2007-10-03, 09:47:56
Und das ist jetzt noch immer der G80 plus NVIO, oder wie? Damit wird nV keine Blumentopf gewinnen, speziell was Stromverbauch und Fertigungskosten betrifft.

reunion

Die gelbe Eule
2007-10-03, 09:49:47
Man kann nach oben hin mehr Luft haben und setzt sich so vom RV600/670 ab. Die 8800GT wird wohl ein OC Tier werden, zum 2900pro Preis.

Gast
2007-10-03, 09:53:11
Ist doch klasse. Nachdem Nvidia gemerkt hat, dass ATi seinen kleinen Schatz früher auf den Markt wirft, haben sie direkt reagiert und sind wieder einen Schritt vorraus. Respekt :)


Ist ja nur ein seit schon fast einem Jahr erhältlicher Chip, den man jetzt mangels Konkurrenzprodukt zu AMDs RV670 um 200-300$ verscherbeln muss.

reunion

Adam D.
2007-10-03, 09:55:23
So läuft der Hase halt manchmal. Ist, wenn man es mal so sieht, schon bitter, dass nach einem Jahr eine Karte vorgestellt wird, die weder Performance-technisch noch vom Feature-Set die alte Generation überbieten kann. Alles wartet auf ATi.

seahawk
2007-10-03, 10:04:15
Lagerräumung wie ATI mit der 2900PRO/GT vormacht. Chancenlos von den gesamten Eigenschaften gegen RV670. Stromverbrauch, LAutstärke, Multimedia Egenschaften, alles spricht für RV670. On die 112SP in der neuene GTS wohl eine Hinweis auf 96SPs in der 8800GT sind ?

dargo
2007-10-03, 10:14:27
http://pic.xfastest.com/sxs112/NV/8800GT/02.jpg

Die Jungs wissen einfach, wie man eine Grafikkarte sexy macht :uup:

http://pic.xfastest.com/sxs112/NV/8800GT/01.png

Neue GTS mit 112SP? :uponder:
Ui, das ist jetzt aber interessant. Eine geshrinkte G8800GTS? Hmm, G8800GTS 640 demnächst für ~200€? :D

Wie kommst du auf 112SP? Bin blind. :D

AnarchX
2007-10-03, 10:15:36
Und das ist jetzt noch immer der G80 plus NVIO, oder wie? Damit wird nV keine Blumentopf gewinnen, speziell was Stromverbauch und Fertigungskosten betrifft.

135W vs 147W. ;)

Aber in der Tat etwas seltsam.

Lagerräumung wie ATI mit der 2900PRO/GT vormacht. Chancenlos von den gesamten Eigenschaften gegen RV670. Stromverbrauch, LAutstärke, Multimedia Egenschaften, alles spricht für RV670.
Dafür aber auch ca. 3 Wochen eher, der Preis wird hier entscheiden müssen.


On die 112SP in der neuene GTS wohl eine Hinweis auf 96SPs in der 8800GT sind ?
Ich glaube nicht, dass die 96SPs in der 8800GT nur mit 1.2GHz takten würden.

Ui, das ist jetzt aber interessant. Eine geshrinkte G8800GTS? Hmm, G8800GTS 640 demnächst für ~200€? :D

Wie kommst du auf 112SP?
In der Tabelle wird doch eindeutig ersichtlich, dass es eine G80-basierende GTS eben mit 7 Clustern ist.

Gast
2007-10-03, 10:17:54
So läuft der Hase halt manchmal. Ist, wenn man es mal so sieht, schon bitter, dass nach einem Jahr eine Karte vorgestellt wird, die weder Performance-technisch noch vom Feature-Set die alte Generation überbieten kann. Alles wartet auf ATi.

Naja, RV670 soll auch nicht G80 schlagen, dafür gibt es die Dual-Karte. Bei einem Die von nur 194mm² kann AMD den Chip problemlos für 200$ und daruter anbieten. Siehe RV570 aka X1950pro, welche damals 230mm² groß war. Dazu gibt es den bekannten Bonus einer neuen Karte und mit UVD, D3D10.1, PCIe2, sowie einigen noch nicht an die Öffentlichkeit gedrungenen Verbesserungen durchaus Kaufanreize speziell für Leute die sich mit der Materie nicht so gut auskennen. Und da jetzt nV die 8800GTS notgedrungen aufrüstet, kann die Leistung auch nicht so schlecht sein.

reunion

Henroldus
2007-10-03, 10:19:15
das kann nicht einfach nur der G80 Chip sein.
bei singleslotbauweise glaube ich hier an einer Shrink bei dieser "neuen" GTS
langsam wirds spannend.

muss auch bald die lager räumen, braucht jemand ne X1900XT? :biggrin:

dargo
2007-10-03, 10:20:34
In der Tabelle wird doch eindeutig ersichtlich, dass es eine G80-basierende GTS eben mit 7 Clustern ist.
Ja, habs gemerkt. Jetzt bin ich aber erst recht verwirrt.

SKU0008 - G8800GTS mit 112SPs und 640MB mit 10 Speicherchips. Das deutet doch auf ein 320Bit SI hin. Was ist aus dem 256Bit SI des G92 geworden?

Führt uns NV etwa wieder auf der Nase herum? :D

AnarchX
2007-10-03, 10:21:27
Das Single-Slot-Teil ist die 65nm 8800GT!

Da die neue GTS nicht wirklich hier rein passt:
8800GTS mit 112SPs am 29.10. (= 8800GTO?) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5897805#post5897805)

Was ist aus dem 256Bit SI des G92 geworden?

Führt uns NV etwa wieder auf der Nase herum?
Das ist eben die 8800GT...

dargo
2007-10-03, 10:24:04
Das Single-Slot-Teil ist die 65nm 8800GT!

Da die neue GTS nicht wirklich hier rein passt:
8800GTS mit 112SPs am 29.10. (= 8800GTO?) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5897805#post5897805)


Das ist eben die 8800GT...
Achso, diese SKU0008 ist noch ein G80, nur halt mit mehr SPs. Bin wohl noch zu müde, sorry. Warum zum Teufel kommt diese Karte so spät?

Gast
2007-10-03, 10:27:11
Das Single-Slot-Teil ist die 65nm 8800GT!


Aha, na immerhin? Und wann soll das Ding kommen und was soll es leisten? Offensichtlich weniger als RV670 wenn man jetzt noch schnell eine aufgebohrte GTS auf G80-Basis veröffentlicht.

reunion

Gast
2007-10-03, 10:27:36
Achso, diese SKU0008 ist noch ein G80, nur halt mit mehr SPs. Bin wohl noch zu müde, sorry. Warum zum Teufel kommt diese Karte so spät?

Weil man etwas gegen Rv670 braucht.

reunion

Neosix
2007-10-03, 10:27:54
ist die neue "GTO" mit mehr Einheiten, sag ich mal nun, bestätigt oder ist das nur ein Gerücht bischer? Die specs sehen ja recht solide aus. vor allem für 200€ segment.

Gast
2007-10-03, 10:29:43
Aha, na immerhin? Und wann soll das Ding kommen und was soll es leisten? Offensichtlich weniger als RV670 wenn man jetzt noch schnell eine aufgebohrte GTS auf G80-Basis veröffentlicht.
reunion

Komisch, bei AMD bist du nicht so negativ, da sie jetzt doch auch noch eine PRO rauswerfen.
Aber gut, bei nVidia ist es Verzweiflung und bei AMD der Weisheit letzter Schluss.

Die neue GTS wird aufjedenfall die alte Ablösen. Denn diese hätte kaum noch eine Berechtigung, wenn es die 8800GT geben würde.

Gast
2007-10-03, 10:30:10
135W vs 147W. ;)


TDP-Angaben sind wertlos, da würde ich doch lieber reale Messungen abwarten.


Aber in der Tat etwas seltsam.


Man hat wohl nicht mit soetwas wie RV670 gerechnet.


Dafür aber auch ca. 3 Wochen eher, der Preis wird hier entscheiden müssen.


Den Preiskampf will ich sehen.

reunion

AnarchX
2007-10-03, 10:30:35
Aha, na immerhin? Und wann soll das Ding kommen und was soll es leisten?

Und die 8800GT soll nun 10.800 Punkte im 3DMark06 erreichen, während der Konkurrenz-RV670 nur 10.700 erreicht und er meint, dass die 3DMark-Performance bei diesem besser als die Game-Performance ist.


Offensichtlich weniger als RV670 wenn man jetzt noch schnell eine aufgebohrte GTS auf G80-Basis veröffentlicht.

Wohl weniger als Gladiator, aber wer weiß wie lange diese neue "GTS" noch lebt, vielleicht kommt man Ende November schon mit einem Nachfolger, den man dann genau auf die am 19. gelaunchten RV670 abstimmen kann.;)

Gast
2007-10-03, 10:32:15
Man hat wohl nicht mit soetwas wie RV670 gerechnet.


So ein Quatsch. Wir wissen garnichts, was nVidia noch vorhat.

Gast
2007-10-03, 10:34:25
Komisch, bei AMD bist du nicht so negativ, da sie jetzt doch auch noch eine PRO rauswerfen.
Aber gut, bei nVidia ist es Verzweiflung und bei AMD der Weisheit letzter Schluss.


Die Situation ist in keinster Weise vergleichbar. AMD wirft jetzt noch schnell alle R600-Chips raus, da diese logischerweise niemand mehr will, wenn es RV670 gibt. nV rüstet die GTS wohl aus Reaktion auf RV670 auf. Von Verzweiflung habe ich nirgends geschrieben.


Die neue GTS wird aufjedenfall die alte Ablösen. Denn diese hätte kaum noch eine Berechtigung, wenn es die 8800GT geben würde.

Richtig.

reunion

Adam D.
2007-10-03, 10:34:53
8800GT ~ 8800GTS, deshalb wird jetzt höchstwahrscheinlich noch die neue GTS nachgeschoben, um a) den Abstand der internen Karten zu verdeutlichen und um eventuell b) dem starken RV670 Parolie zu bieten.

Gast
2007-10-03, 10:37:38
Die Situation ist in keinster Weise vergleichbar. AMD wirft jetzt noch schnell alle R600-Chips raus, da diese logischerweise niemand mehr will, wenn es RV670 gibt. nV rüstet die GTS wohl aus Reaktion auf RV670 auf. Von Verzweiflung habe ich nirgends geschrieben.


Deine hellseherischen Fähigkeiten in allen Ehren, aber lass das doch den Menschen machen bei Astro-TV machen.
Vielleicht wil nVidia ja auch einfach nur die Lager leeren? Ach nein, die haben n atürlich vor einer nicht vorgestellten Karte angst, die vielleicht ihre eigene nicht vorgestellte Karte besiegen könnte.
Das hast du schon bei der 2900 und bei der 2600. Beidesmal konnten diese Karten nie das beste Stück auch nur erreichen.

Gast
2007-10-03, 10:37:54
So ein Quatsch. Wir wissen garnichts, was nVidia noch vorhat.

Ohne Grund werden die Specs der 8800GTS sicher nicht mal eben geändert. Schon gar nicht, wenn man einen passenden, und wesentlich billiger zu fertigenden Gegenpart kurz vor der Veröffentlichung hat.

reunion

Gast
2007-10-03, 10:40:51
Ohne Grund werden die Specs der 8800GTS sicher nicht mal eben geändert. Schon gar nicht, wenn man einen passenden, und wesentlich billiger zu fertigenden Gegenpart kurz vor der Veröffentlichung hat.


Es gab immer Karten, die wurden im Laufe der Zeit geändert. Eine 7900GTO z.B.
DIe 8800GT"S" ist nichts anderes als bessere Chips zu verkaufen. Eine Antwort auf irgendwas ist das nicht - außer füpr verzweifle AMD Anhänger, die unbedingt einen Sieg sehen wollen.

Gast
2007-10-03, 10:44:31
Vielleicht wil nVidia ja auch einfach nur die Lager leeren?

Und wie soll eine aufgebohrte 8800GTS dabei helfen die Lager zu leeren?

reunion

Gast
2007-10-03, 10:48:56
Es gab immer Karten, die wurden im Laufe der Zeit geändert. Eine 7900GTO z.B.
DIe 8800GT"S" ist nichts anderes als bessere Chips zu verkaufen. Eine Antwort auf irgendwas ist das nicht - außer füpr verzweifle AMD Anhänger, die unbedingt einen Sieg sehen wollen.

Du bist ja ein ganz toller Hengst, genausogut könnte ich jetzt schreiben: Die 8800GT"S" ist nichts anderes als eine Reaktion auf RV670. Mit einer Lagerräumung hat das nichts zu tun - außer für verzweifle NV-Anhänger, die unbedingt einen Sieg sehen wollen. Aber wir werden ja sehen wie es dann aussieht.

reunion

Adam D.
2007-10-03, 10:53:31
Und wie soll eine aufgebohrte 8800GTS dabei helfen die Lager zu leeren?

reunion
Wenn sie noch viele gute und funktionierende Chips auf Lager haben und bald ein Nachfolger kommt? Dann macht man die Lager halt so leer :rolleyes:

Gast
2007-10-03, 10:59:18
Wenn sie noch viele gute und funktionierende Chips auf Lager haben und bald ein Nachfolger kommt? Dann macht man die Lager halt so leer :rolleyes:

Die neue 8800GTS wird wohl die alte ersetzen. Die minimal höhere Leistung wird kaum die Nachfrage stark anheben. Wenn man die Lager leeren will, dann senkt man den Preis, wie schon in der Vergangenheit 1723719647986mal geschehen.

reunion

dargo
2007-10-03, 11:01:38
Weil man etwas gegen Rv670 braucht.

reunion
Wenn man was gegen den RV670 braucht warum nimmt man dann einen teure 90nm GPU? :|
Warum keine G8800GTO@65nm? Ist die 65nm Fertigung noch so problematisch?

Gast
2007-10-03, 11:03:10
Die neue 8800GTS wird wohl die alte ersetzen. Die minimal höhere Leistung wird kaum die Nachfrage stark anheben. Wenn man die Lager leeren will, dann senkt man den Preis, wie schon in der Vergangenheit 1723719647986mal geschehen.

reunion

/Edit: Vorallem wird das ja laut der Quelle hinten ohne viel Rummel geschehen, sodass viele wohl nicht mal wissen, dass es ab 29. Oktober eine neue GTS gibt.

Gast
2007-10-03, 11:04:48
Wenn man was gegen den RV670 braucht warum nimmt man dann einen teure 90nm GPU? :|
Warum keine G8800GTO@65nm? Ist die 65nm Fertigung noch so problematisch?

Kommt ja vermutlich auch, aber wohl später. Die 8800GT scheint ja unter der GTS angesiedelt zu sein.

Nakai
2007-10-03, 11:05:02
Warum keine G8800GTO@65nm? Ist die 65nm Fertigung noch so problematisch?

Anscheinend, sollte im Sommer nicht der G98 in 65Nm kommen?
Für mich sieht es danach aus, also wolle NV ihre GPUs langsam sterben lassen.

Wenn man die Lager leeren will, dann senkt man den Preis, wie schon in der Vergangenheit 1723719647986mal geschehen.


Oder man weiß, dass der G92 noch länger auf sich warten lässt und man will en Rv670 nicht ohne Konkurrenz dastehen lassen.

Naja wir werdens sehen. Achja die Karte sieht mal übelst heiß aus, aber wo soll denn da noch die Luft raus?


mfg Nakai

Die gelbe Eule
2007-10-03, 11:10:25
Wieso sollte man was neues für den RV670 brauchen? Ist doch besser ein paar Shader draufzupacken und mit einer Karte zu kommen, die problemlos arbeitet. Der RV670 muss erstmal vernünftig laufen zum Start, die G80 machen das bereits seit einem Jahr. Schließlich soll RV670 nur R600 Speed haben und da bin ich mal auf den Preis gespannt.

k0nan
2007-10-03, 11:32:30
hey jungs,

hab leider nich die zeit eure sehr interessanten, aber seitenlangen diskussionen zu lesen - könntet ihr nomma kurz zusammenfassen (gerne auch per pm), wie es inzwischen aussieht: gibt es von nvidia bald eine graka für 1680x1050 @brauchbaren settings+FPS oder wo wird sich die "neue" einordnen?

AnarchX
2007-10-03, 11:35:38
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5819120&postcount=1

;)

Adam D.
2007-10-03, 11:37:32
Oder man weiß, dass der G92 noch länger auf sich warten lässt und man will en Rv670 nicht ohne Konkurrenz dastehen lassen.

Naja wir werdens sehen. Achja die Karte sieht mal übelst heiß aus, aber wo soll denn da noch die Luft raus?
mfg Nakai
Der G92 kommt bald, sehr bald. Das haben mehrere Quellen bestätigt. Es sieht ja eher so aus, als würde er früher als geplant kommen.
BTW: Nvidia weiß ganz gut, wie man Lüfter baut (s. G8800). Ich nehm an, dass sie genau wissen, was sie da gebaut haben.


Wieso sollte man was neues für den RV670 brauchen? Ist doch besser ein paar Shader draufzupacken und mit einer Karte zu kommen, die problemlos arbeitet. Der RV670 muss erstmal vernünftig laufen zum Start, die G80 machen das bereits seit einem Jahr. Schließlich soll RV670 nur R600 Speed haben und da bin ich mal auf den Preis gespannt.
Die Karte wird schon vernünftig laufen, aber es wurde ja in letzter Zeit von einem sehr starken RV670 gesprochen, da könnte es schon sein, dass die neue GTS dann gegen den RV670 konkurriert. Ergo gut für Nvidia ;)

AnarchX
2007-10-03, 11:41:49
BTW: Nvidia weiß ganz gut, wie man Lüfter baut (s. G8800). Ich nehm an, dass sie genau wissen, was sie da gebaut haben.


Zudem ist doch recht ersichtlich wie die Luft hier geleitet wird:
http://img522.imageshack.us/img522/5448/8800gtairwayzw4.jpg
... also direkt zur Öffnung in der Gehäusewand, was heute viele Gehäuse (auch bei OEMs) haben.

Nakai
2007-10-03, 11:44:30
BTW: Nvidia weiß ganz gut, wie man Lüfter baut (s. G8800). Ich nehm an, dass sie genau wissen, was sie da gebaut haben.


Und das ist gut so.

Nur war mir es vom Bild nicht ersichtlich...

Ich denke der G92 wird nun sicherlich ein 64 SP-Chip. Hochgetaktet ergibt sich fast GTS-Leistung.

mfg Nakai

Adam D.
2007-10-03, 11:44:37
Ja, es sieht halt schon so aus, als würde der Lüfter die Karte "einsperren". Aber sehr niedriger Stromverbrauch lassen wohl auch solche Miniaturlüfter zu :up:

Edit: @Nakai: Hoffen wir's. Ich bin auch mal gespannt, wie sich die Karte manuell übertakten lässt. Wenn der Prozess gut läuft, wohl ziemlich gut :D

urbi
2007-10-03, 11:58:43
Ich tendiere ja noch immer dazu, dass NVIDIA zur Zeit nur Gerüchte streut und wir in ein paar Wochen eine Überraschung erleben.

AnarchX
2007-10-03, 12:00:46
Nachschlag:
http://img212.imageshack.us/img212/6949/8800gt2on0.jpg
http://img520.imageshack.us/img520/1694/8800gt3ci3.jpg
8 Speicherchips, damit wären die 256Bit bestätigt.

Adam D.
2007-10-03, 12:07:16
Das Teil ist echt sexy. Kommt jetzt wohl wirklich drauf an, wie hoch man den G92 züchten konnte. Und die Frage nach den SP scheint ja weiterhin nicht geklärt zu sein. Need more infos.

AnarchX
2007-10-03, 12:09:50
Das Teil ist echt sexy.
Da scheint NV auf die "Klavierlack"-Welle bei Consumer-Elektronik mit aufgesprungen zu sein.:D

Ich würde auf 64SP@1.8GHz tippen, also das was eine 8800GTS leistete, die ja nun geupgradet wird.
Aber mal sehen, vielleicht wird es doch mehr: 96(4x24)SPs oder 2GHz+.

dargo
2007-10-03, 12:10:07
Zudem ist doch recht ersichtlich wie die Luft hier geleitet wird:
http://img522.imageshack.us/img522/5448/8800gtairwayzw4.jpg
... also direkt zur Öffnung in der Gehäusewand, was heute viele Gehäuse (auch bei OEMs) haben.
Das Abdeckblech ist eh nur was fürs Auge. Der Kühler an sich sieht eher bescheiden aus, deswegen hat was wohl dieses Blech der Karte verpasst.

AnarchX
2007-10-03, 12:15:06
Das Abdeckblech ist eh nur was fürs Auge. Der Kühler an sich sieht eher bescheiden aus, deswegen hat was wohl dieses Blech der Karte verpasst.
Naja, wenn man hier den Luftstrom einschätzt, ist die Abdeckung doch mehr als etwas für die Optik. Es ist imo eine Art auf Single-Slot angepasster Ultra-Lüfter.

Das Teil würde sich mit leichten Modifizierungen(z.B. Öffnung für die PCIe-Bridge) sicherlich auch auf einer GX2-Karte gut machen, die ich aber eher anzweifele.

dargo
2007-10-03, 12:18:34
Naja, wenn man hier den Luftstrom einschätzt, ist die Abdeckung doch mehr als etwas für die Optik. Es ist imo eine Art auf Single-Slot angepasster Ultra-Lüfter.

Die Luft kann aber gar nicht so geleitet werden wie du es gezeichnet hast. Schau dir doch mal die Anordnung der Alu-Lamellen an.

Gast
2007-10-03, 12:19:42
Die Karte wird schon vernünftig laufen, aber es wurde ja in letzter Zeit von einem sehr starken RV670 gesprochen, da könnte es schon sein, dass die neue GTS dann gegen den RV670 konkurriert. Ergo gut für Nvidia ;)

Gut für nV ist das sicher nicht wenn man einen 484mm² Chip plus 49mm² NVIO gegen einen 194mm² Chip stellen muss.

Da scheint NV auf die "Klavierlack"-Welle bei Consumer-Elektronik mit aufgesprungen zu sein.:D

Ich würde auf 64SP@1.8GHz tippen, also das was eine 8800GTS leistete, die ja nun geupgradet wird.
Aber mal sehen, vielleicht wird es doch mehr: 96(4x24)SPs oder 2GHz+.

Die 8800GT wird kaum die 8800GTS schlagen, oder derer die Existenzberechtigung nehmen. Die Leistung wird sich wohl 10-20% unter der GTS einordnen.

reunion

Adam D.
2007-10-03, 12:23:29
Scheiß Safari :rolleyes:

Was ich sagen wollte: noch stehen die Karten sich nicht gegenüber, letztendlich sind G92 und RV670 doch Kopf an Kopf und alles, was Nvidia darüber hat, bleibt State of the Art und wird bald durch die neue Generation ersetzt. Also alles perfekt für Nvidia.

laser114
2007-10-03, 12:29:59
Existenzberechtigung nehmen. Die Leistung wird sich wohl 10-20% unter der GTS einordnen.

Damit die 8800 GTS ja nicht die Existenzberechtigung verliert mit der 8800 GT, wird erstere wohl aufgerüstet. Außerdem steht nvidia so sicher besser gegen den RV670 da.

Nakai
2007-10-03, 12:30:01
Der Rv670 wird nun wirklich zwischen 8800GTS und GTX liegen, die neue GTS auch genau da einsetzen. Der G92 wird zwischen 8600GTS und alter 8800GTS liegen, also Lückenfüller.

Also es passt doch, NV wird bestimmt noch einen G90 rausbringen, welcher dann die alte Highend ersetzt und noch das neue Highend bestimmen wird.

mfg Nakai

AnarchX
2007-10-03, 12:30:56
Die Luft kann aber gar nicht so geleitet werden wie du es gezeichnet hast. Schau dir doch mal die Anordnung der Alu-Lamellen an.
Und wie soll die Luft sonst geleitet werden?
Imo wird sie hinten durch den Lüfter angesaugt und durch den Kühlkörper auf dem Die gedrückt und kann dann eben nur wieder an der Öffnung vorne austretten, die da liegt wo manches Gehäuse noch eine leichte Öffnung in der Seitenwand hat.


Die 8800GT wird kaum die 8800GTS schlagen, oder derer die Existenzberechtigung nehmen. Die Leistung wird sich wohl 10-20% unter der GTS einordnen.

Man muss Revival mit konkurrieren, wozu es eben ein gewisses Niveau an arithmetischer Leistung braucht:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5894837&postcount=460

Nakai
2007-10-03, 12:37:47
Hat der G92 nicht G84 TMUs? Die sollten doch noch was bringen.


mfg Nakai

dargo
2007-10-03, 12:46:11
Und wie soll die Luft sonst geleitet werden?
Imo wird sie hinten durch den Lüfter angesaugt und durch den Kühlkörper auf dem Die gedrückt und kann dann eben nur wieder an der Öffnung vorne austretten, die da liegt wo manches Gehäuse noch eine leichte Öffnung in der Seitenwand hat.

Indem man die Alu-Lamellen in einem Bogen nach oben führt und so die Luft besser gezielt leitet. Ich weiß allerdings nicht wieviel Spielram zwischen Abdeckblech und Kühl-Lamellen vorhanden ist. Wenn da genug Luft ist wird die Luft auch so entweichen können.

Übrigens, das Abdeckblech ist auch nach unten zum PCIe Slot offen.

AnarchX
2007-10-03, 12:52:07
Indem man die Alu-Lamellen in einem Bogen nach oben führt und so die Luft besser gezielt leitet. Ich weiß allerdings nicht wieviel Spielram zwischen Abdeckblech und Kühl-Lamellen vorhanden ist. Wenn da genug Luft ist wird die Luft auch so entweichen können.
Naja, meine Darstellung war eher vereinfacht...


Übrigens, das Abdeckblech ist auch nach unten zum PCIe Slot offen.
Sieht eigentlich nicht so aus.

btw.
GeForce 8800GT (G92) Scored 10769 in 3DMark06 (http://www.vr-zone.com/?i=5309)
GeForce 8800 GT Overclocking Is Good (http://www.vr-zone.com/?i=5309)
However, users can still choose to overclock the core and we should be seeing more than 700MHz easily

dargo
2007-10-03, 12:57:00
Sieht eigentlich nicht so aus.

Hmm, habe ich was mit den Augen? :uponder:

http://pic.xfastest.com/sxs112/NV/8800GT/02.jpg

AnarchX
2007-10-03, 13:00:53
Hmm, habe ich was mit den Augen? :uponder:

Natürlich ist die Abdeckung dort nicht, aber es eben auch keine wirklich Öffnung, sondern, es scheint von dem was dahinter liegt abgeschlossen zu sein.
Aber am besten warten wir noch auf mehr Bilder...

urbi
2007-10-03, 13:15:07
Naja, meine Darstellung war eher vereinfacht...


Sieht eigentlich nicht so aus.

btw.
GeForce 8800GT (G92) Scored 10769 in 3DMark06 (http://www.vr-zone.com/?i=5309)
GeForce 8800 GT Overclocking Is Good (http://www.vr-zone.com/?i=5309)

Irgendwie passt hier nichts zusammen. 10800 Punkte sind nämlich verdammt viel, ich vermute mehr als mit einer 8800GTS drin sind.
Bei Computerbase erreichte die 8800GTS nur 9500 Punkte und das trotz 3,46 GHz Core 2 Duo und 2 GiB Arbeitsspeicher. Mag natürlich sein, dass die 8800GT bei shader-lastigen Sachen abkackt oder NVIDIA ein Super-System hat, oder 3DMark wiedermal gar nicht die Situation bei Spielen wiederspiegelt. Aber aus dem Bauch heraus würde das dafür sprechen, dass die 8800gt schneller als die 8800gts ist.

robbitop
2007-10-03, 13:15:56
Mit nem 64 SP Teil wuerde es aber kaum Sinn machen, eine GX2 zu bauen. Die waere, wenn ueberhaupt, kaum schneller als die G80 Ultra.

dargo
2007-10-03, 13:19:44
Irgendwie passt hier nichts zusammen. 10800 Punkte sind nämlich verdammt viel, ich vermute mehr als mit einer 8800GTS drin sind.
Bei Computerbase erreichte die 8800GTS nur 9500 Punkte und das trotz 3,46 GHz Core 2 Duo und 2 GiB Arbeitsspeicher. Mag natürlich sein, dass die 8800GT bei shader-lastigen Sachen abkackt oder NVIDIA ein Super-System hat, oder 3DMark wiedermal gar nicht die Situation bei Spielen wiederspiegelt. Aber aus dem Bauch heraus würde das dafür sprechen, dass die 8800gt schneller als die 8800gts ist.
Vergiss den 3DFurz. 3DMark = no AA/AF.

Gast
2007-10-03, 13:27:46
Irgendwie passt hier nichts zusammen. 10800 Punkte sind nämlich verdammt viel, ich vermute mehr als mit einer 8800GTS drin sind.
Bei Computerbase erreichte die 8800GTS nur 9500 Punkte und das trotz 3,46 GHz Core 2 Duo und 2 GiB Arbeitsspeicher. Mag natürlich sein, dass die 8800GT bei shader-lastigen Sachen abkackt oder NVIDIA ein Super-System hat, oder 3DMark wiedermal gar nicht die Situation bei Spielen wiederspiegelt. Aber aus dem Bauch heraus würde das dafür sprechen, dass die 8800gt schneller als die 8800gts ist.

Eine 8800GT wird sicher keine 8800GTS schlagen, denn das würde die Bezeichnungen der 8800GT/GTS ad absurdum führen. Aber du hast recht, 10800 Punkte schafft eine 8800GTS wohl nur mit einem halbwegs schnellen Quad-Core. Wie gesichert ist eigentlich der Name "8800GT"?

reunion

urbi
2007-10-03, 13:30:58
Sehr sicher, da es hier Bilder einer Platine mit einem solchen Aufdruck gab.

AnarchX
2007-10-03, 13:37:54
Sehr sicher, da es hier Bilder einer Platine mit einem solchen Aufdruck gab.
http://www.directupload.com/showoriginal-11538.jpg

Es bleibt halt 3DMark, wo selbst G84 sehr stark ist.
Vielleicht bringen ja die 32 TAus, wenn G92 diese hat, noch einiges in diesem synthetischen Test.

Adam D.
2007-10-03, 13:38:05
Ja, der Name ist wohl 100% sure. Ich würd dem 3D-Mark-Wert auch nicht zu viel abgewinnen, die Karte wird sich schon darunter einfädeln. Ich bin grad echt am überlegen: eigentlich ist das die perfekte Übergangskarte bis zum nächsten High-End.

Gast
2007-10-03, 13:38:45
Hat der G92 nicht G84 TMUs? Die sollten doch noch was bringen.


mfg Nakai
Theoretisch ja, aber da bleibt die Frage der Bandbreite:
http://www.beyond3d.com/content/reviews/11/12
Ich persönlich würde die G80er Textureneinheiten favorisieren.

w0mbat
2007-10-03, 13:41:31
@reunion: Der G92 aka 8800GT war wohl eher als Lückenfüller zwischen 8600GTS und 8800GTS 640 (die 320er sollte wegfallen) gedacht. Nun ist der G92 anscheinend schneller als gedacht und der RV670 von ATI scheint gut zu werden. Also stampft nV die aktuellen GTS ein und bringt eine neue mit 112SP. Damit hat man gleichzeitig den Abstand zur 8800GT gewährt und einen guten Gegener zum RV670 Gladiator.

Der RV670 Revival sollte in etwa HD2900 XT Speed haben, also auf dem Niveau der alten GTS. Da die GT jetzt dieses Niveau anscheinend auch hat werden Revival und G92 wohl die Gegner in diesem Segment (Hat der G92 eigentlich schon DX10.1?).

Gladiator ist eindeutig schneller als Revival und würde somt in die Nähe der GTX kommen. Wahrscheinlich wäre er nicht ganz so schnell. Deshalb bringt nV jetzt die neue GTS, mit 112SP. Diese wird wahrscheinlich auf dem Niveau von Gladiator sein. So hat nV gute Gegenstürcke zu den beiden RV670 und beleibt mit der GTX/Ultra an der Spitze (bis zum R670/R680-DDK).

Ich denke das der G92 aka 8800GT sich sehr gut gegen Revival stellen wird. Die Geschwindigkeit wird auf ähnlich Niveau sein und beide Karten kommen dank kleinem Fertigungsprozess mit niedrigen Stromverbrauch und Singleslot Kühler daher. Die neuen 8800GTS wird es da gegen Galdiator etwas scherer haben, da sie ja noch auf dem "alten" G80 in 90nm baiseren soll und damit deutlich mehr Strom verbraucht. Zumal sie kein DX10.1, UVD und PCIe2.0 unterstützt.

Gast
2007-10-03, 13:47:33
GeForce 8800 GT Overclocking Is Good (http://www.vr-zone.com/?i=5309)

Wenn man das Ding so leicht auf 700Mhz und mehr übertakten kann, dann frage ich mich was die aufgemotzte 8800GTS soll. Ein G92 wäre für nV wohl um Größenordnungen billiger zu produzieren als G80, warum sollte man diesen künstlich klein halten?

reunion

Gast
2007-10-03, 13:48:08
Eine 8800GT wird sicher keine 8800GTS schlagen, denn das würde die Bezeichnungen der 8800GT/GTS ad absurdum führen. Aber du hast recht, 10800 Punkte schafft eine 8800GTS wohl nur mit einem halbwegs schnellen Quad-Core. Wie gesichert ist eigentlich der Name "8800GT"?

reunion

Ich meine hier natürlich 8600GT/GTS.

Gast
2007-10-03, 13:51:59
[QUOTE=w0mbat;5898319Zumal sie kein DX10.1, UVD und PCIe2.0 unterstützt.[/QUOTE]

Egal, es werden einfach die "defekten" G80 feiner selektiert, was vorher zur GTS mit 2 deaktivieren Clustern obwohl nur einer defekt war, wird nun ebenfalls verkauft, mit einer leicht höheren Marge ^^
Restbestände abverkaufen bis der volle G80 in 65nm kommt (welchen Codenamen er auch immer hat).
Damit bleibt die GTX/Ultra das Highend bis Februar/März.

AnarchX
2007-10-03, 14:15:16
Wenn man das Ding so leicht auf 700Mhz und mehr übertakten kann, dann frage ich mich was die aufgemotzte 8800GTS soll. Ein G92 wäre für nV wohl um Größenordnungen billiger zu produzieren als G80, warum sollte man diesen künstlich klein halten?


Weil G80 abverkauft werden soll, da er gerade so ein teurer Die ist.
Und wer weiß ob im G92 sich wirklich nur 4 Cluster sich befinden, der Heatspreader wirkt im Zusammenhang mit einem <=200mm² Die etwas seltsam.

Hvoralek
2007-10-03, 14:20:20
Und wer weiß ob im G92 sich wirklich nur 4 Cluster sich befinden, der Heatspreader wirkt im Zusammenhang mit einem <=200mm² Die etwas seltsam.108xx 3DMarks mit vier Clustern @ 600 MHz kann ich mir schwer vorstellen, selbst mit 2400 MHz Shadertakt. Wenn das beides stimmt, sind es wohl eher sechs Cluster @ 600/1800.

Gast
2007-10-03, 14:21:05
@reunion: Der G92 aka 8800GT war wohl eher als Lückenfüller zwischen 8600GTS und 8800GTS 640 (die 320er sollte wegfallen) gedacht. Nun ist der G92 anscheinend schneller als gedacht


Warum sollte der G92 schneller als gedacht sein? Ich denke nV kann schon sehr gut einschätzen wie schnell ihre Chips werden, und die 600Mhz Chiptakt sind ja auch nicht übermäßig hoch. Aber du hast wohl recht: Der G92 sollte die große Lücke zwischen der 8800-Serie und der 8600-Serie stopfen. Nicht umsonst geisterte lange der Name 8700GTS durchs Netz, welchen nV angeblich geändert hat.

Das einzige was da jetzt nicht passt ist der sehr hohe 3dmark-Wert der 8800GT, welcher selbst eine aktuelle 8800GTS schlägt. Aber auch das lässt sich wohl recht gut mit den zusätzlichen TAUs erklären, da ja eine 8600GTS im 3dmark auch erstaunlich gut ist.


Der RV670 Revival sollte in etwa HD2900 XT Speed haben, also auf dem Niveau der alten GTS. Da die GT jetzt dieses Niveau anscheinend auch hat werden Revival und G92 wohl die Gegner in diesem Segment (Hat der G92 eigentlich schon DX10.1?).

Ich glaube nicht, dass die 8800GT der 8800GTS gefährlich wird. Nicht bei nur 600Mhz Chiptakt und vier Clustern.

reunion

Gast
2007-10-03, 14:25:36
108xx 3DMarks mit vier Clustern @ 600 MHz kann ich mir schwer vorstellen, selbst mit 2400 MHz Shadertakt. Wenn das beides stimmt, sind es wohl eher sechs Cluster @ 600/1800.

Eine 8600GTS erreicht mit einer halbwegs potenten CPU ca. 6K im 3dmark06, und das bei nur zwei Cluster. Sieht dir zB den CB-Test an, die 8600GTS erreicht mehr als die Hälfte einer 8800GTX bei nur 1/4 der Cluster. Die zusätzlichen TAUs scheinen im 3dmark einiges zu bringen: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/10/#abschnitt_3dmark06

reunion

AnarchX
2007-10-03, 14:26:46
108xx 3DMarks mit vier Clustern @ 600 MHz kann ich mir schwer vorstellen, selbst mit 2400 MHz Shadertakt. Wenn das beides stimmt, sind es wohl eher sechs Cluster @ 600/1800.
Aber das wäre dann keine 8800GT mehr, das wird vielleicht die 8850GTS, wenn G80 genügend abverkauft ist und man alle 6 Cluster freischalten kann, wenn es diese gibt.

Imo kommt hier mindestens ein Q6600 zum Einsatz.

Wohlmöglich sind es 64SPs@1.8GHz und 3DMark06 reagiert so gut auf die möglichen 32TAUs (siehe die hohe Leistung der 8600GTS (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/10/#abschnitt_3dmark06) im Vergleich zu G80) und eben andere kleine Optimierungen.

Gast
2007-10-03, 14:37:38
Aber das wäre dann keine 8800GT mehr, das wird vielleicht die 8850GTS, wenn G80 genügend abverkauft ist und man alle 6 Cluster freischalten kann, wenn es diese gibt.


Hätte der G92 sechs Cluster, würde man diese auch sofort bekommen. Grüchte zu teilwese deaktivierte Chips, die später freigeschaltet werden gab es schon so oft, und sie waren immer falsch. Ich denke irgendwann in den nächsten Monaten kommt dann auch noch ein G80 Ersatz. Immerhin wird das Ding nach wie vor in 90nm gefertigt und ist damit für nV sautauer in der Fertigung.

reunion

LovesuckZ
2007-10-03, 15:21:06
Wir sind uns doch einig, dass der G92 bei 600MHz nicht nur vier G80-Cluster hat. Ein halbierter G80 in 65nm Ausführung sollte irgendwo bei 800MHz angesiedelt werden können. Ein G71 konnte auf bis zu 700MHZ locker gehen und das war ein fast 1:1 Shrink. Nun soll nicht nur ein Shrink sondern auch eine Halbierung der Funktionseinheiten für gerade mal 600Mhz reichen?

Gast
2007-10-03, 15:28:39
Wir sind uns doch einig, dass der G92 bei 600MHz nicht nur vier G80-Cluster hat. Ein halbierter G80 in 65nm Ausführung sollte irgendwo bei 800MHz angesiedelt werden können. Ein G71 konnte auf bis zu 700MHZ locker gehen und das war ein fast 1:1 Shrink. Nun soll nicht nur ein Shrink sondern auch eine Halbierung der Funktionseinheiten für gerade mal 600Mhz reichen?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5898168#post5898168
Ob der G92 "versteckte" Cluster hat, wird sich noch zeigen.

seahawk
2007-10-03, 15:30:02
135W vs 147W. ;)

Ich glaube nicht, dass die 96SPs in der 8800GT nur mit 1.2GHz takten würden.


Der Gedanek ist eher, dass Rev.2 G92 die GTS ersetzen könnte. Rev.1 takter niedrig, Rev.2 höher. Umd den Abstand GT-GTS zu halten erhöht man die GTS erstmal auf 112SP und löst diese dann mit einer hochtaktenden G92 Karte und 96SP ab.

seahawk
2007-10-03, 15:35:04
Wenn man was gegen den RV670 braucht warum nimmt man dann einen teure 90nm GPU? :|
Warum keine G8800GTO@65nm? Ist die 65nm Fertigung noch so problematisch?

Weil man nichts hat ? NV dachte RV670 wäre schwächer als RV670, aber die Wahrheit ist umgekehrt, also muss man mit dem alten G80 weitermachen, weil G92 es einfahc nicht bringt. Sieht nach einer echten Notlösung bei NV aus, die mächtig auf die MArge gehen dürfte. Mit einer auf G80 basierenden KArte gegen RV670 antreten, das Duell ist schon verloren.

PS. Kann man schon sagen, ob edie Bohrlöcher des Kühler G80 entsprechen, oder 7800/7900 oder ganz neu sind ?

Gast
2007-10-03, 15:40:12
Was ein Quatsch ;) Hier wird über den G80 geschimpft das dieser ja soo teuer in der Fertigung ist, ich Frage mich echt wie nV damit Gewinn machen konnte ein Jahr lang! Viele meinen sie wüssten viel, aber die Realität zeigt doch klar was anderes, verstehe ich echt nicht wie man zu solchen Abenteuerlichen Schlußfolgerungen kommen kann. Und Notlösung und der RV670 in maximaler Ausbaustufe ist wie schnell? Weis keiner genau, abwarten is die Devise, denn das hier is keine Speku, sondern nur Blabla so siehst aus und meine Meinung/Halbwissen ist "besser" als der Rest.

AnarchX
2007-10-03, 15:41:37
Wir sind uns doch einig, dass der G92 bei 600MHz nicht nur vier G80-Cluster hat.
Aber halt eine 8800GT...;)

Sieht nach einer echten Notlösung bei NV aus, die mächtig auf die MArge gehen dürfte. Mit einer auf G80 basierenden KArte gegen RV670 antreten, das Duell ist schon verloren.

Fragt sich nur wie lange die New-GTS gegen Gladiator antritt.

Wenn NV eins wichtig ist, dann die Marge, deshalb wird diese Karte wie auch die 7900GTO nicht lange am Markt sein.

Sie wird halt am 19. da sein um die Benchmarks zu gewinnen und dann vielleicht gegen Ende des Monats durch eine auf G92-basierende Lösung, die ähnliches leistet, ersetzt werden.

Gast
2007-10-03, 15:42:27
also ich denke schon, dass der G92 (88GT) "nur" 64SP haben wird. warum die taktrate so konservativ angesetzt ist? es handelt sich um einen singelslot kühler, der möglichst leise sein soll. zudem liegt sie TDP bei unter 100W (wenn ich mich nicht irre). also hält man takt und kernspannung gering.

die 3dmark leistung resultiert sich aus einem QX6850 + 32 TAUS (die 86GTS und 2900xt(32TAUs@750mhz) sind ja auch recht gut in 3dmark!) + hohe arithmetikleistung (64SP@1,8GHz = 96SP@1200mhz)

Henroldus
2007-10-03, 15:42:40
Was ein Quatsch ;) Hier wird über den G80 geschimpft das dieser ja soo teuer in der Fertigung ist, ich Frage mich echt wie nV damit Gewinn machen konnte ein Jahr lang! Viele meinen sie wüssten viel, aber die Realität zeigt doch klar was anderes, verstehe ich echt nicht wie man zu solchen Abenteuerlichen Schlußfolgerungen kommen kann. Und Notlösung und der RV670 in maximaler Ausbaustufe ist wie schnell? Weis keiner genau, abwarten is die Devise, denn das hier is keine Speku, sondern nur Blabla so siehst aus und meine Meinung/Halbwissen ist "besser" als der Rest.
der G80 Kern wurde auf der GTS Karte(ca 350eur) und der GTX(ca 450eur) verkauft, da waren gute margen drin klar.
aber jetzt für knapp über 200euronen ist der spass vorbei, dafür ist er zu gross

Gast
2007-10-03, 15:47:49
also ich denke schon, dass der G92 (88GT) "nur" 64SP haben wird. warum die taktrate so konservativ angesetzt ist? es handelt sich um einen singelslot kühler, der möglichst leise sein soll. zudem liegt sie TDP bei unter 100W (wenn ich mich nicht irre). also hält man takt und kernspannung gering.

Die 7900GTX wurde um 50% höher getaktet als die 7800gtx, hatte doppelt soviel Speicher und verbrauchte genauso viel wie die 7800gtx.
Ein halbierter G80 in 65nm Fertigung soll da bei 600MHz gerademal unter der 100 Watt Grenze bleiben? Nene, da stimmt so 100pro nicht.
600Mhz könnten stimmen, wenn es sich um einen 6 G80-Cluster Chip handeln würde. Dann gäben 600MHz einen Sinn. Aber bei 4 Cluster sind 600MHz nicht mehr eine konservative Ansetzung sondern schon verdammt überheblich.

James Ryan
2007-10-03, 15:50:13
Ahh, endlich mal News zum G92, habe es ja letztens gesagt dass da langsam mal was kommen müsste.
Der Kühler der Gf 8800 GT sieht irgendwie laut aus, aber hoffen wir das beste!
10800 3DMarks klingen wirklich nach verdammt viel, aber wer weiß welche CPU NVIDIA hatte, eventuell schon einen Penryn-Quad @ 3,x GHz.
Die aufgebohrte GTS wird sicherlich interessant, wenn sie denn wirklich für einen guten Preis (200-250€) verkauft wird.
Die Kommentare von seahawk und reunion lesen sich mal wieder wie Untergangsszenarios für NVIDIA weil der RV670 ja so toll wird. Das kennen wird doch alle noch von der Prä-R600-Zeit. ;D

MfG :cool:

Gast
2007-10-03, 15:52:44
Die 7900GTX wurde um 50% höher getaktet als die 7800gtx, hatte doppelt soviel Speicher und verbrauchte genauso viel wie die 7800gtx.
Ein halbierter G80 in 65nm Fertigung soll da bei 600MHz gerademal unter der 100 Watt Grenze bleiben? Nene, da stimmt so 100pro nicht.
600Mhz könnten stimmen, wenn es sich um einen 6 G80-Cluster Chip handeln würde. Dann gäben 600MHz einen Sinn. Aber bei 4 Cluster sind 600MHz nicht mehr eine konservative Ansetzung sondern schon verdammt überheblich.


bei 100W TDP liegt der verbrauch bei höchstens 80W. das ist schonmal die hälfte einer ULTRA. man muss ja immerhin bedenke, dass es kein echter halber G80 ist. denn die zahl der TAUs wurde verdoppelt (vermutlich) und der shadertakt stark erhöht. und die konkurrenz ist im bereich texel/pixel-füllrate sowieso unterlegen. warum sollte man dann den ROP/TMU-takt erhöhen?

AnarchX
2007-10-03, 15:53:48
@Gast#596
Was ist denn daran so schwer zu verstehen, dass G92 auf einer 8800GT nur mit 600MHz(@ROP/TMU-Domain) taktet?:|
Bei 32TAU/TMUs, 16 (8Z!)ROPs reicht das doch locker aus gegen einen RV670 mit 16TMUs und 16? ROPs(nur 2Z) @750/775MHz, dafür soll halt das Shader-Ratio höher sein (wohl 1:3 -> 1.8GHz).

TDP soll bei 110W gesamt liegen, ausgehend von der GTS dürften es real so um die ~80W sein.

Auch wenn es bisher nie eintrat, dass ein Chip auf der ersten SKU als teildeaktiv geliefert wurde, gibt es bei G92 imo gewisse Anzeichen:
- G80 ist wohl sehr teuer in der Herstellung und ein "voller" G92 würde dessen Verkäufe kanibalisieren
- ein fetter Heatspreader auf dem G92-PCB
- 112SP-GTS um den Abverkauf des G80 besser durchzuführen bzw. dieser einen höheren Mehrwert gegenüber der 8800GT zu geben
- Gerüchte über eine 290mm² Chip (was aber auch nicht G92 sein kann)

Aber wie es nun ist, wird sich ja dann am 29. wohl schon teilweise offenbaren.

LovesuckZ
2007-10-03, 15:56:41
Weil dann die Annahme nicht stimmen kann, dass es sich um G80 Cluster handeln würde.
Bei G84/6 whatever Cluster wären 600MHz annehmenbar, da aufgrund der veränderten Strukturen 32 TAU/TFUS sehr viel wären.

Gast
2007-10-03, 15:59:30
@Gast#596
Was ist denn daran so schwer zu verstehen, dass G92 auf einer 8800GT nur mit 600MHz(@ROP/TMU-Domain) taktet?:|
Bei 32TAU/TMUs, 16 (8Z!)ROPs reicht das doch locker aus gegen einen RV670 mit 16TMUs und 16? ROPs(nur 2Z) @750/775MHz, dafür soll halt das Shader-Ratio höher sein (wohl 1:3 -> 1.8GHz).

TDP soll bei 110W gesamt liegen, ausgehend von der GTS dürften es real so um die ~80W sein.
Die 32 TAU sind aber nicht gesichert, oder? Es macht keinen Sinn, zu viele Adressierungseinheiten hineinzupflanzen, um dann an der Speicherbandbreite zu leiden. Lieber 16 TAs und 32 TFs für "kostenlose" trilineare Filterung.

LovesuckZ
2007-10-03, 16:03:01
Die 32 TAU sind aber nicht gesichert, oder? Es macht keinen Sinn, zu viele Adressierungseinheiten hineinzupflanzen, um dann an der Speicherbandbreite zu leiden. Lieber 16 TAs und 32 TFs für "kostenlose" trilineare Filterung.

Danach wird nVidia bestimmt nicht gehen. Wenn zusätzliche 16TAs nicht so deutlich teurer wären, wäre es unsinnig sie nicht zu verbauen.
Da nVidia diesen Weg auch schon bei den 8600 Karten geht, wäre es nicht undenkbar, dass man diese Karten als Ausgangspunkt für den G92 verwendet.

dargo
2007-10-03, 16:03:58
Was ein Quatsch ;) Hier wird über den G80 geschimpft das dieser ja soo teuer in der Fertigung ist, ich Frage mich echt wie nV damit Gewinn machen konnte ein Jahr lang! Viele meinen sie wüssten viel, aber die Realität zeigt doch klar was anderes, verstehe ich echt nicht wie man zu solchen Abenteuerlichen Schlußfolgerungen kommen kann. Und Notlösung und der RV670 in maximaler Ausbaustufe ist wie schnell? Weis keiner genau, abwarten is die Devise, denn das hier is keine Speku, sondern nur Blabla so siehst aus und meine Meinung/Halbwissen ist "besser" als der Rest.
In diesem Forum gibts einfach zuviele Fanboys. Einfach drüberlesen hilft, auch wenns schwer fällt. :wink:

AnarchX
2007-10-03, 16:06:12
Bei G84/6 whatever Cluster wären 600MHz annehmenbar, da aufgrund der veränderten Strukturen 32 TAU/TFUS sehr viel wären.
Sobald 2xbi-AF bzw. trilineare Filterung aktiv ist, sind die zusätzlichen TAUs eigentlich ziemlich egal, also fast immer.

Aber wie schon gesagt wir reden hier über eine 8800GT, die mit 9.6GTex tri doch gar nicht so schlecht liegt zwischen einer 8800GTS mit 12 bzw. nun 14GTex tri und einer 8600GTS mit 5.4GTex tri. ;)

LovesuckZ
2007-10-03, 16:10:44
Sobald 2xbi-AF bzw. trilineare Filterung aktiv ist, sind die zusätzlichen TAUs eigentlich ziemlich egal, also fast immer.

Und warum hat nVidia bei den 8600 Karten einen anderen Weg eingeschlagen? Es macht eben mehr Sinn gleich vollwertige AUs zu verbauen, wenn das Budget dadurch nicht deutlich erhöht wird. Und wenn man schon bei den Mainstreamkarten in 80nm Fertigung auf 16 TAUs statt 8/16 entwickelt, sehe ich keinen Grund, warum man dann plötzlich bei den G92 Karten auf die G80 Denkweise zurückfallen sollte.

/edit: Außerdem hat man einen schönen Leistungsgewinn beim Quality Modus.


Aber wie schon gesagt wir reden hier über eine 8800GT, die mit 9.6GTex tri doch gar nicht so schlecht liegt zwischen einer 8800GTS mit 12 bzw. nun 14GTex tri und einer 8600GTS mit 5.4GTex tri. ;)

Weil dann 600MHz für eine Karte mit ca. 80 Watt verbrauch zuviel sind.

seahawk
2007-10-03, 16:23:09
Nachschlag:
http://img212.imageshack.us/img212/6949/8800gt2on0.jpg
http://img520.imageshack.us/img520/1694/8800gt3ci3.jpg
8 Speicherchips, damit wären die 256Bit bestätigt.

Kann da jemand wohl den Lochabstand des Kühler ermitteln ? 53,5 oder 58,5 ?

AnarchX
2007-10-03, 16:33:16
Und warum hat nVidia bei den 8600 Karten einen anderen Weg eingeschlagen? Es macht eben mehr Sinn gleich vollwertige AUs zu verbauen, wenn das Budget dadurch nicht deutlich erhöht wird. Und wenn man schon bei den Mainstreamkarten in 80nm Fertigung auf 16 TAUs statt 8/16 entwickelt, sehe ich keinen Grund, warum man dann plötzlich bei den G92 Karten auf die G80 Denkweise zurückfallen sollte.

/edit: Außerdem hat man einen schönen Leistungsgewinn beim Quality Modus.
Sicher bringt es etwas, aber halt nicht so extrem viel wie es in deinem Posting anklang.

Zudem würden sich ja 32TAUs auch auf dem Papier gegen die 32 TAUs des RV670 gut machen:D


Weil dann 600MHz für eine Karte mit ca. 80 Watt verbrauch zuviel sind.
Wie auch schon erwähnt, die Shader sind eben wohl bei 1.8GHz bzw. auf einem deutlich höhere Verhältnis als bei G8x.

Zudem sind Ailuros' 460GFLOPs auch noch ungeklärt, vielleicht sind es ja doch 4x24SPs (was das G80-Design eigentlich erlauben dürfte)@1.6-1.8GHz. Um eben RV670 auf dem Papier wie auch in arithmetiklastigen Games Paroli zu bieten.

Aber das werden wir ja wohl bald erfahren...

reunion
2007-10-03, 18:29:46
Sobald 2xbi-AF bzw. trilineare Filterung aktiv ist, sind die zusätzlichen TAUs eigentlich ziemlich egal, also fast immer.


Demnach wäre AMD völlig bescheuert, sogar mehr TAUs als TFUs zu verbauen. Nene, AFAIK werden von den Shadern auch mal nur ungefilterte Texturen benötigt, und dann reicht auch eine Addressierungseinheit, zudem braucht man die Dinger (zumindest bei AMD) für Vertexfetches und vermutlich noch für anderes Zeug.

In diesem Forum gibts einfach zuviele Fanboys. Einfach drüberlesen hilft, auch wenns schwer fällt. :wink:

Wir sind hier in einem Spekuforum. Logisch, dass da verschiedene Meinungen aufeinander treffen. Wer damit nicht klar kommt, muss ja nicht mitlesen. Solche Postings sind jedenfalls unnötig wie ein Kropf.

robbitop
2007-10-03, 18:41:30
Demnach wäre AMD völlig bescheuert, sogar mehr TAUs als TFUs zu verbauen. Nene, AFAIK werden von den Shadern auch mal nur ungefilterte Texturen benötigt, und dann reicht auch eine Addressierungseinheit, zudem braucht man die Dinger (zumindest bei AMD) für Vertexfetches und vermutlich noch für anderes Zeug.


Noe gibt derzeit AFAIK keine grossartigen Shader, die ungefilterte Texturen brauchen. Das muss gefiltert sein.
Vertexfetches sind auch nicht soo haeufig, relativ zur Rechenzeit fuer einen Pixel.

reunion
2007-10-03, 19:09:08
Noe gibt derzeit AFAIK keine grossartigen Shader, die ungefilterte Texturen brauchen. Das muss gefiltert sein.
Vertexfetches sind auch nicht soo haeufig, relativ zur Rechenzeit fuer einen Pixel.

Warum geht dann nV wieder den Schritt zurück auf ein 1:1 TAU/TFU-Verhältnis, nachdem man bei G80 auf 1:2 und damit faktisch auf tri-TMUs umgerüstet hat? Bilinear gefiltertes Single-Texturing gibt es schon lange nicht mehr, so sinnlos können die Dinger also nicht sein IMHO.

dargo
2007-10-03, 19:14:26
Wir sind hier in einem Spekuforum. Logisch, dass da verschiedene Meinungen aufeinander treffen. Wer damit nicht klar kommt, muss ja nicht mitlesen. Solche Postings sind jedenfalls unnötig wie ein Kropf.
Bei dir lese ich aber des öfteren den Untergang von NV nur weil ein RV670 von AMD erscheint. Das hat nichts mehr mit Speku zu tun sondern ist einfaches Fanboy-Gelabere. Es ist nicht zu überlesen, dass dein Herz für AMD schlägt. Man kann aber auch übertreiben.

Aber mach dir nichts draus, es gibt genau so genug NV-Fanboys. Ich nenne jetzt aber keine Namen. ;)

Gast
2007-10-03, 19:17:17
Warum geht dann nV wieder den Schritt zurück auf ein 1:1 TAU/TFU-Verhältnis, nachdem man bei G80 auf 1:2 und damit faktisch auf tri-TMUs umgerüstet hat? Bilinear gefiltertes Single-Texturing gibt es schon lange nicht mehr, so sinnlos können die Dinger also nicht sein IMHO.
Weil die Käufer von Grafikkarten mit G84/G86 so etwas wie anisotrope Filterung meist nicht kennen. Wenn man für diese das 1:2-Verhältnis übernommen hätte, was wäre denn der Vorteil für den Nutzer?
Das ist kein Schritt zurück, sondern eine Designentscheidung für dieses Segment.

reunion
2007-10-03, 19:27:27
Bei dir lese ich aber des öfteren den Untergang von NV nur weil ein RV670 von AMD erscheint. Das hat nichts mehr mit Speku zu tun sondern ist einfaches Fanboy-Gelabere.


Wo? Konkrete Beispiele bitte. Niemand schreibt vom Untergang von nV. Das dichtest du dir höchstens zusammen.


Es ist nicht zu überlesen, dass dein Herz für AMD schlägt. Man kann aber auch übertreiben.

Ich behaupte nicht, mich "objektiv" zu verhalten. Jeder Mensch hat Präferenzen bei gewissen Dingen.


Aber mach dir nichts draus, es gibt genau so genug NV-Fanboys. Ich nenne jetzt aber keine Namen. ;)

Dein vorgegaukeltes Mitleid kannst du dir sparen. Ich mache mir sicher nichts draus, ich stehe zu meiner Meinung. Wem diese nicht passt, der muss ja nicht darauf eingehen und kann mich ignorieren. Aber diese persönliche Schiene mancher ist einfach unpassend und gehört sich nicht in einem Forum, in dem sich ein Großteil der Menschen nichtmal persönlich kennen.

robbitop
2007-10-03, 20:18:09
Warum geht dann nV wieder den Schritt zurück auf ein 1:1 TAU/TFU-Verhältnis, nachdem man bei G80 auf 1:2 und damit faktisch auf tri-TMUs umgerüstet hat? Bilinear gefiltertes Single-Texturing gibt es schon lange nicht mehr, so sinnlos können die Dinger also nicht sein IMHO.
Weils billig ist und im 3DMark ein paar Punkte bringt.
Viel wichtiger sind allerdings die "teuren" Filtereinheiten.

LovesuckZ
2007-10-03, 20:37:37
Warum geht dann nV wieder den Schritt zurück auf ein 1:1 TAU/TFU-Verhältnis, nachdem man bei G80 auf 1:2 und damit faktisch auf tri-TMUs umgerüstet hat? Bilinear gefiltertes Single-Texturing gibt es schon lange nicht mehr, so sinnlos können die Dinger also nicht sein IMHO.

Wo geht denn nVidia einen Schritt zurück? :confused:
Der G84 hat zwei Quads und 16 TA/TFUs.

reunion
2007-10-03, 20:45:30
Viel wichtiger sind allerdings die "teuren" Filtereinheiten.

Ist klar.

Wo geht denn nVidia einen Schritt zurück? :confused:
Der G84 hat zwei Quads und 16 TA/TFUs.

Man ging mit G84/86 wieder zurück zu einem üblichen 1:1 ratio von Adressierungs- und Filtereinheiten, während man bei G80 jede zweite TAU eingespart hatte.

Gast
2007-10-03, 21:02:03
wann kommt neue highend hardware,keine infos ?

Gast
2007-10-03, 21:05:25
frag nvidia selbst, aus denen wird bisher noch keiner so recht schlau.
ati kommt wohl mit ihrer dual-lösung Q1 2008

AnarchX
2007-10-03, 21:13:24
Imo haben diese Octo-TMUs bei G84/G86 aber auch gewisse Probleme ihre volle Leistung gegenüber normalen Quad-TMUs zu bringen, wie man an einigen Tests sieht, wo sie weit unter ihrem theoretischen Maximum liegen bzw. hat Digit-Life gar nur 8 TAs messen können bei G84.:|

Die gelbe Eule
2007-10-03, 21:29:12
Ist interessant zu lesen, wie die RV670 Verfechter Angst haben, daß der G92 sie versägen könnte. Beim G92 weiß man wie schnell sie ist, beim RV670 hofft man es.

Gast
2007-10-03, 21:34:43
Man ging mit G84/86 wieder zurück zu einem üblichen 1:1 ratio von Adressierungs- und Filtereinheiten, während man bei G80 jede zweite TAU eingespart hatte.

Wie du weißt, hat der G84 nur 2 Cluster. Man hat also statt 8 nun 16 TAUs. Wie man dies als "Schritt zurück" bezeichnen könnte, ist mir schleicherhaft.

LovesuckZ

reunion
2007-10-03, 21:49:15
Wie du weißt, hat der G84 nur 2 Cluster. Man hat also statt 8 nun 16 TAUs. Wie man dies als "Schritt zurück" bezeichnen könnte, ist mir schleicherhaft.

LovesuckZ

Na du hast Probleme. Das bezog sich darauf, dass alle älteren Chips ja auch gleich viele TAUs wie TFUs hatten. Bei G80 hat man die Hälfte eingespart, und bei G84/86 ging man wieder "zurück" zu alten Tugenden. Aber wenn du so willst, dann ist es eben ein Schritt vorwärts, da man nun wieder mehr TAUs hat, ist doch reine Ansichtssache.

Ist interessant zu lesen, wie die RV670 Verfechter Angst haben, daß der G92 sie versägen könnte. Beim G92 weiß man wie schnell sie ist, beim RV670 hofft man es.

Eigentlich ist genau das Gegenteil der Fall. RV670 kann man ziemlich genau einordnen, da man die meisten relevanten Daten bereits kennt, über G92 weiß an so gut wie gar nichts.

Imo haben diese Octo-TMUs bei G84/G86 aber auch gewisse Probleme ihre volle Leistung gegenüber normalen Quad-TMUs zu bringen, wie man an einigen Tests sieht, wo sie weit unter ihrem theoretischen Maximum liegen bzw. hat Digit-Life gar nur 8 TAs messen können bei G84.:|

"Octo-TMUs"? Seit wann hat G84/86 "Octo-TMUs" und was kann man darunter verstehen?

Die gelbe Eule
2007-10-03, 22:01:22
Man weiß das der G92 nicht schneller als die neue 8800GTS 640 sein darf, aber von der Leistung her die 320er angreift. Das alles ohne Daten.
RV heißt immernoch Radeon Value, also beschnitten. Normal müsste hier das Geschrei groß sein, daß man doch keine beschnittenen Karten haben möchte. Gerade bei technischem Fortschritt zu sprechen, aber dann nur ein 256bit Interface anstatt des 512bit zu nutzen, ist doch der eigentliche Rückschritt oder? Doch hier kann man dann den perfekten Vergleich ziehen, warum die 8800GT der Gegner wird, weil man niemals eine 1GHz auf den Markt wirft, um auch nur annähernd an die GTX zu kommen. Wäre auch für den Preis von 250€ kaum realisierbar.

AnarchX
2007-10-03, 22:07:24
"Octo-TMUs"? Seit wann hat G84/86 "Octo-TMUs" und was kann man darunter verstehen?

Dass statt eben 4 benachbarten Pixeln, wie bei einer Quad-TMU, gleich 8 gelesen und dann gefiltert werden, was ja ineffezienter sein sollte und vielleicht erklärt weshalb G84 in synthetischen Tests seine Leistung nicht so recht erbringen kann:
http://techreport.com/articles.x/12285/4
(an der Bandbreite dürfte es eigentlich nicht liegen)

reunion
2007-10-03, 22:24:54
Man weiß das der G92 nicht schneller als die neue 8800GTS 640 sein darf, aber von der Leistung her die 320er angreift. Das alles ohne Daten.

Ja, das glaubt man zu wissen.


RV heißt immernoch Radeon Value, also beschnitten. Normal müsste hier das Geschrei groß sein, daß man doch keine beschnittenen Karten haben möchte. Gerade bei technischem Fortschritt zu sprechen, aber dann nur ein 256bit Interface anstatt des 512bit zu nutzen, ist doch der eigentliche Rückschritt oder? Doch hier kann man dann den perfekten Vergleich ziehen, warum die 8800GT der Gegner wird, weil man niemals eine 1GHz auf den Markt wirft, um auch nur annähernd an die GTX zu kommen. Wäre auch für den Preis von 250€ kaum realisierbar.

Sorry, aber du redest wirres Zeug. Ich meine wen interessiert der Codename? Natürlich ist RV670 nur "Value", da im High-End ein Dual-RV670 aka R670 zum Einsatz kommt. Genauso ist der G92 nur Value, da er auch nicht das High-End-Produkt darstellt. Und was das SI betrifft: Tests mit R600 haben deutlich gezeigt, dass das 512-bit SI zumindest heute ohne FP16 Texturen für die Katz ist, zudem kann man das tw. durch GDDR4 wieder ausgleichen. Bei der geringen Füllrate des R600 wundert das auch wenig. Ein Nachteil wird dadurch kaum entstehen. Auf der Habenseite bleiben hingegen deutliche Vorteile ggü. R600.

Dass statt eben 4 benachbarten Pixeln, wie bei einer Quad-TMU, gleich 8 gelesen und dann gefiltert werden, was ja ineffezienter sein sollte und vielleicht erklärt weshalb G84 in synthetischen Tests seine Leistung nicht so recht erbringen kann:
http://techreport.com/articles.x/12285/4
(an der Bandbreite dürfte es eigentlich nicht liegen)

Aha, danke. Das wusste ich nicht.

Gast
2007-10-03, 22:33:30
Dass statt eben 4 benachbarten Pixeln, wie bei einer Quad-TMU, gleich 8 gelesen und dann gefiltert werden, was ja ineffezienter sein sollte und vielleicht erklärt weshalb G84 in synthetischen Tests seine Leistung nicht so recht erbringen kann:
http://techreport.com/articles.x/12285/4
(an der Bandbreite dürfte es eigentlich nicht liegen)
Nochmal:
http://www.beyond3d.com/content/reviews/11/12
"We see filter rates ~7.2Gtexels/s using uncompressed INT8 RGBA textures and an in-house tester, indicating most likely a bandwidth limitation stopping performance approaching the 11.68Gtexels/sec peak theoretical rate. With trilinear filtering and compressed textures to minimize bandwidth concerns, filtering rates are much nearer to those claimed in the specification sheets, as expected."
Und jetzt zum G92:
Ich favorisiere 16 TA und 32 TFs, mehr ist einfach unnötig - für eine "8800GT" (ehrlich gesagt, steht GT für eine Grafikkarte, die einer GTX bzw. Ultra im Nichts nachsteht, aber abwarten und Tee rauchen).
Irgendwo stand was von 24 SPs pro Cluster. Unwahrscheinlich, sehr sogar. Das würde zur Vergrößerung der Threads führen.

Gast
2007-10-03, 22:44:18
Na du hast Probleme. Das bezog sich darauf, dass alle älteren Chips ja auch gleich viele TAUs wie TFUs hatten. Bei G80 hat man die Hälfte eingespart, und bei G84/86 ging man wieder "zurück" zu alten Tugenden. Aber wenn du so willst, dann ist es eben ein Schritt vorwärts, da man nun wieder mehr TAUs hat, ist doch reine Ansichtssache.


Du hast immer noch nicht geklärt, warum 8TA/16TFUs besser wären als 16TA/TFUs. Solange wie du keine Begründung dafür findest, hat nVidia keinen Schritt vorwärts oder rückwärts gemacht.

LovesuckZ

Gast
2007-10-03, 22:51:16
Du hast immer noch nicht geklärt, warum 8TA/16TFUs besser wären als 16TA/TFUs. Solange wie du keine Begründung dafür findest, hat nVidia keinen Schritt vorwärts oder rückwärts gemacht.

LovesuckZ
Beim G92 wären die 32 TFs+TAs definitiv kein Rückschritt, sondern ein Overkill (256-bit-SI, öhm hallo?). Mit 16 TAs, aber 32 TFs (G80-Style) hätte man zwar eine geringere Texelfillrate, aber... Das Teil ist Midrange-Chip! Eine Fillrate von 9,6 GT/s ist mehr als ausreichend, mit 32 TFs hätte man dazu "kostenlose" trilineare Filterung bzw. eine "AF-Optmierung". Was will man mehr?

AnarchX
2007-10-03, 22:51:41
Nochmal:
http://www.beyond3d.com/content/reviews/11/12
"We see filter rates ~7.2Gtexels/s using uncompressed INT8 RGBA textures and an in-house tester, indicating most likely a bandwidth limitation stopping performance approaching the 11.68Gtexels/sec peak theoretical rate. With trilinear filtering and compressed textures to minimize bandwidth concerns, filtering rates are much nearer to those claimed in the specification sheets, as expected."
Aber warum liegen dann GT und GTS so nah zusammen, immerhin hat letzere 43% mehr Bandbreite, die hier limitieren soll?:|
Der Unterschied bei Techreport ist ja eher näher am Kern-Takt-Unterschied(25%).
(z.B. meine 6800GT erreicht mit 16GB/s trotzdem auch noch ca. 6GTex @leichtem OC)

Imo hat es schon etwas mit den angeflanschten 4TAs zu tun und wohl der daraus resultierenden Octo-TMU.


Und jetzt zum G92:
Ich favorisiere 16 TA und 32 TFs, mehr ist einfach unnötig - für eine "8800GT"
Sicherlich wäre es wohl ausreichend, aber wer weiß was NV plant bzw. wie teuer diese TAs sind.


(ehrlich gesagt, steht GT für eine Grafikkarte, die einer GTX bzw. Ultra im Nichts nachsteht, aber abwarten und Tee rauchen).
Aber eben nicht mehr seit GF8, das ist nun die GTS(mehr oder weniger...).


Irgendwo stand was von 24 SPs pro Cluster. Unwahrscheinlich, sehr sogar. Das würde zur Vergrößerung der Threads führen.
Und was passiert bei der 8300GS, bei welcher nur eine Vec8-ALU also 8SPs aktiv sind?

Imo wäre der Schritt zu 24SPs wohl einfacher als zu MADD+MADD.

Und irgendwas muss ja G9x bieten, sonst hätte man sie ja auch G82 bzw. G88 nennen können.;) (D3D10.1 soll ja laut Folie in Post #1 in allen G8x schon enthalten sein)

Gast
2007-10-03, 23:02:59
Wenn man nur eine Vec8-ALU hat, passiert gar nichts, man wird einfach die doppelte Zeit brauchen, die Threadgröße bleibt gleich.

Die gelbe Eule
2007-10-03, 23:12:28
Sorry, aber du redest wirres Zeug. Ich meine wen interessiert der Codename? Natürlich ist RV670 nur "Value", da im High-End ein Dual-RV670 aka R670 zum Einsatz kommt. Genauso ist der G92 nur Value, da er auch nicht das High-End-Produkt darstellt. Und was das SI betrifft: Tests mit R600 haben deutlich gezeigt, dass das 512-bit SI zumindest heute ohne FP16 Texturen für die Katz ist, zudem kann man das tw. durch GDDR4 wieder ausgleichen. Bei der geringen Füllrate des R600 wundert das auch wenig. Ein Nachteil wird dadurch kaum entstehen. Auf der Habenseite bleiben hingegen deutliche Vorteile ggü. R600.


Dann sag mir mal, wieviel größer die Füllrate beim RV670 ist und warum sie dann besser als ein R600 von der Performance her sein soll. NV hatte bisher hier kein Problem mit der Füllrate und das könnte der entscheidende Vorteil sein, mal wieder.

seahawk
2007-10-04, 07:00:19
Man weiß das der G92 nicht schneller als die neue 8800GTS 640 sein darf, aber von der Leistung her die 320er angreift. Das alles ohne Daten.
RV heißt immernoch Radeon Value, also beschnitten. Normal müsste hier das Geschrei groß sein, daß man doch keine beschnittenen Karten haben möchte. Gerade bei technischem Fortschritt zu sprechen, aber dann nur ein 256bit Interface anstatt des 512bit zu nutzen, ist doch der eigentliche Rückschritt oder? Doch hier kann man dann den perfekten Vergleich ziehen, warum die 8800GT der Gegner wird, weil man niemals eine 1GHz auf den Markt wirft, um auch nur annähernd an die GTX zu kommen. Wäre auch für den Preis von 250€ kaum realisierbar.

RV670 war so stark, dass es keine R680 brauchte. Der G92 ist keine Herausforderung für RV670, der ja praktischj ein optimierter R600 mit 256nit Bus ist.

James Ryan
2007-10-04, 07:09:02
RV670 war so stark, dass es keine R680 brauchte. Der G92 ist keine Herausforderung für RV670, der ja praktischj ein optimierter R600 mit 256nit Bus ist.

Der RV670 wird ein R600 mit 256 Bit Speicherinterface und in 55nm. Mehr Speed als R600 würde ich nicht erwarten, wie denn auch? :confused:
Der G92 wird etwa gleich schnell sein, die "neue" 8800 GTS reicht dann für alle R600/RV670 Karten, 90nm Fertigung hin oder her, das ist auf kurze Sicht gesehen erstmal wayne.

MfG :cool:

Gast
2007-10-04, 07:42:26
zum thema TAU/TFU 1:2 :

bitte bedenkt, dass die FU sehr viel transistorenfläche kosten und damit die anzahl der chips/wafer veringern. der G92 soll ja wohl möglichst kosteneffizient sein, damit man überhaupt mit ATis 55nm produkten konkurrieren kann. und wer maximale performence will, soll halt in den nächsten monaten noch den (teuren!) G80 kaufen.

Gast
2007-10-04, 08:26:02
Der RV670 wird ein R600 mit 256 Bit Speicherinterface und in 55nm. Mehr Speed als R600 würde ich nicht erwarten, wie denn auch? :confused:
Zumindest die Gladiator wird schneller sein als der R600.

Der G92 wird etwa gleich schnell sein, die "neue" 8800 GTS reicht dann für alle R600/RV670 Karten, 90nm Fertigung hin oder her, das ist auf kurze Sicht gesehen erstmal wayne.

MfG :cool:
G92 < RV670 Gladiator, neue GTS = Gladiator.

Schätzungen made by Adam D. @ work ;D

Die gelbe Eule
2007-10-04, 08:29:14
Ich finde es schade, das der G92 kein HDMI bekommen hat. Alleine dafür könnte man ein 2slot Blech anbringen.

James Ryan
2007-10-04, 08:34:48
Zumindest die Gladiator wird schneller sein als der R600.


G92 < RV670 Gladiator, neue GTS = Gladiator.

Schätzungen made by Adam D. @ work ;D

Worauf beruhen deine Schätzungen?
Bedenke dass der RV670 320 SPs besitzt (=R600) aber nur ein 256 Bit Speicherinterface.

MfG :cool:

AnarchX
2007-10-04, 08:39:01
Ich finde es schade, das der G92 kein HDMI bekommen hat. Alleine dafür könnte man ein 2slot Blech anbringen.

Dafür wird es doch einen Adapter geben, wo diesmal wohl auch Sound mit ausgegeben wird, warum sollte man dafür ein 2. Blech anbringen. :|

Bedenke dass der RV670 320 SPs besitzt (=R600) aber nur ein 256 Bit Speicherinterface.
Aber eben 1.2GHz GDDR4, was immernoch mehr Bandbreite ergibt als bei der GTS mit 320Bit @800MHz und ~77GB/s sollten mehr als genug für 16 TMUs und ROPs @825MHz sein. ;)

James Ryan
2007-10-04, 08:49:25
Trotzdem werden hier wahre Wunder vom RV670 erwartet. Dabei wird ~ R600 Perfomance geboten, mehr nicht.
Einzig die Leistungsaufnahme macht diesen Chip IMO interessant. Wer Leistung will kommt auch weiterhin nicht um eine Gf 8800er Karte rum!

MfG :cool:

Die gelbe Eule
2007-10-04, 08:51:55
Da war die Rede von S/PDIF, sehe ich aber nicht auf dem Foto. Sound sollte von der Soundkarte durch den S/PDIF der VGA durchgeschleift werden, welcher dann über HDMI an den Bildschirm kommt. Zweite Blech, weil man kaum einen DVI Port opfern würde.

@Wunder RV670:

Hier stellt man die 8800GT gegen und die leigt bei 200-250€. Wer bitte erwartet GTX Performance für das Geld? Nicht mal ein vollwertiger R600 war dazu in der Lage, also kann eine 256bit nur langsamer sein, gerade mit AF/AA merkt man bestimmt den Einbruch deutlicher.

seahawk
2007-10-04, 08:54:15
R600 > 8800GTS 96SP -> RV670 > R600 -> R670 ~ 8800GTX / 8800GTS 112SP

Mit wesentlich weniger Stromverbrauch.

James Ryan
2007-10-04, 08:58:52
@Gelbe Eule

Gehen wir davonaus, dass schon der RV670 in etwa auf dem Niveau der 8800GTX liegt.

Naja, lassen wir sie halt weiter träumen.

Der RV670 wird für das Geld gute Perfomance liefern aber mehr auch nicht.

MfG :cool:

Gast
2007-10-04, 09:02:15
Der RV670 wird für das Geld gute Perfomance liefern aber mehr auch nicht.

MfG :cool:
Ich nehme an, dass sowohl G92 als auch RV670 ein super Preis-Leistungs-Verhältnis haben werden. Die Frage ist, inwiefern sie Crysis meistern - wenn man gut in 1680x1050 spielen kann, dürfte die Karten der Renner werden. Ich wage es aber zu bezweifeln ;)

@Seahawk: R600 > GTS? :confused: Davon wüsste man ;D Momentan ist einfach ein Gleichstand, nicht mehr und nicht weniger.

AnarchX
2007-10-04, 09:04:50
Da war die Rede von S/PDIF, sehe ich aber nicht auf dem Foto. Sound sollte von der Soundkarte durch den S/PDIF der VGA durchgeschleift werden, welcher dann über HDMI an den Bildschirm kommt. Zweite Blech, weil man kaum einen DVI Port opfern würde.

Imo wird es bei G92 bzw. G98 genauso wie bei HD2000 sein, dank einem kleinem Transmiter im IO des Chips kann über einen DVI-Ausgang, an welchen man einen HDMI-Adapter angesteckt hat eben Bild+Ton ausgegeben werden, ohne dass man eben noch irgenwelche weiteren Verbindungen zwischen GraKa und Soundchip/Karte erstelllen muss, was du wohl mit deinem S/PDIF meinst.


Hier stellt man die 8800GT gegen und die leigt bei 200-250€. Wer bitte erwartet GTX Performance für das Geld? Nicht mal ein vollwertiger R600 war dazu in der Lage, also kann eine 256bit nur langsamer sein, gerade mit AF/AA merkt man bestimmt den Einbruch deutlicher.
Das werden wir sehen, AMD ist aber da anderer Meinung. ;)


GTX-Niveau ist natürlich imo selbst für Gladiator doch wohl etwas zu viel, laut CB liegt diese immernoch ~40% vor einer 2900XT, zudem soll ja Gladiator $299 kosten. Imo wird er wohl eher ein guter Gegenpart zur GTS bzw. New-GTS, aber viel mehr wohl auch nicht - also maximal 20% mehr Leistung als eine 2900XT im Durchschnitt.

Die gelbe Eule
2007-10-04, 09:21:39
Meinung hin oder her, auf CB ist die 640GTS immernoch 8% schneller, 2560x1600 wird wohl keiner mit so einer Karte nutzen. Demnach müsste der RV670 mal doppelt so schnellen RAM haben und auch deutlich mehr GPU Takt, damit man die GTS angreifen könnte, welche nunmal auch 16 SPs mehr spendiert bekommt. Eine Gladiator wird wohl 1GB GDDR4 bekommen und/oder halt die Dual GPU werden. Damit hätte sie aber nur CF Performance, also 80%, was eben nicht gegen eine GTX reicht, welche schon bei 450€ ist.

Gast
2007-10-04, 09:54:49
Worauf beruhen deine Schätzungen?
Bedenke dass der RV670 320 SPs besitzt (=R600) aber nur ein 256 Bit Speicherinterface.

MfG :cool:
Ich mach mal bei dem Spielchen mit: Wenn der Gladiator mit GDRR4-Speicher mit 1,2 GHz kommen soll, wieviel Bandbreite wird ihm zur Verfügung stehen? Etwa 76 GB/s? Und in Anbetracht dessen, dass der R600 die Monsterbandbreite von über 100 GB/s niemals richtig ausschöpfen konnte (besser gesagt niemals so, wie es zu erwarten war), kann man sich zurecht fragen, ob diese Wehwehchen beim RV670 ausgemerzt wurden und er die Bandbreite effizienter nutzen wird.
Aber ich glaube kaum, dass der RV670 einer 8800GTX gefährlich sein wird, das ist einfach nicht seine Aufgabe.

AnarchX
2007-10-04, 09:55:56
Meinung hin oder her, auf CB ist die 640GTS immernoch 8% schneller
Rating – 1280x1024 4xAA/16xAF -> GTS 1% schneller
Rating – 1600x1200 4xAA/16xAF -> gleichauf
Rating – D3D10 4xAA/16xAF -> GTS nur 10% schneller
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet


Eine Gladiator wird wohl 1GB GDDR4 bekommen und/oder halt die Dual GPU werden.

Ist es denn so schwierig sich einfachmal etwas zu informieren, wenn die Infos schon so leicht zugänglich (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366355) sind, bevor man irgendwelchen Unsinn erzählt?:rolleyes:

Und die X2X sollte wohl mit einer 88GTX eher keine wirklichen Probleme haben. ;)

Die gelbe Eule
2007-10-04, 10:09:53
Wollte nur darauf hinweisen, daß es eben kein GTX oder GTS Killer wird. Genauso wenig wie eine GX2 mit 2x64 SPs und 256bit schneller als eine Ultra sein soll.

Winter[Raven]
2007-10-04, 10:16:47
Wollte nur darauf hinweisen, daß es eben kein GTX oder GTS Killer wird. Genauso wenig wie eine GX2 mit 2x64 SPs und 256bit schneller als eine Ultra sein soll.

Lass sie doch, nach der R2900XT und Phantom Hype und der Ernüchterung brauchen unsere Fanatiker wieder einen Strohhalm....

Gast
2007-10-04, 10:20:35
...
Imo wäre der Schritt zu 24SPs wohl einfacher als zu MADD+MADD.

Der G80 arbeitet die Scalare vertikal ab. Das hätte zur Folge: Vec16-ALU -> Vec24-ALU?
Die andere Idee ist: Der eine Shadercluster besteht aus 2*Vec8-ALUs, die voneinander unabhängig 2 Threads bearbeiten (siehe G80-Diagramme). Hängt man noch eine Vec8-ALU dran, wäre die Folge, dass der Cluster-Dispatcher mehr zur Verwalten hätte?
Ach keine Ahnung, aber die Erweiterung auf 24 SPs ist IMHO sehr unwahrscheinlich.

AnarchX
2007-10-04, 10:31:04
Wollte nur darauf hinweisen, daß es eben kein GTX oder GTS Killer wird.

Gekillt wird wohl niemand, sondern man wird wohl ziemlich nah in den jeweiligen Segmenten liegen, was eben sich wiedermal positiv auf die Preise auswirken sollte.;)

seahawk
2007-10-04, 10:40:03
Wobei man bei RV670 etwas vorsichtig sein muss. Eric Demers hat doch im Beyond 3D mal gesagt, dass man für den R600 einen 512Bit Bus wählte weil der R600 auch intern auf 64Bit Granularität optimiert wurde. Und deswegen ging man 8x64 für den Bus.

Die gelbe Eule
2007-10-04, 10:47:04
Warum sollte man dann nun bei einem Shrink anders vorgehen?

seahawk
2007-10-04, 10:55:53
Das sit ja die Frage. Aber wenn RV670 nur 4x64bit wäre, dann wäre er möglicherweise beschränkter als die rechenrische Bandbreite nahelegt.

Die gelbe Eule
2007-10-04, 11:00:30
ATi wird sich kaum einen "neuen" Refreshchip leisten, gerade mit den Verlusten die letzten Quartale. Da wird nur optimiert, wie bei R5XX genauso. Der Preis muss diesmal die Musik machen.

AnarchX
2007-10-04, 11:06:23
Das sit ja die Frage. Aber wenn RV670 nur 4x64bit wäre, dann wäre er möglicherweise beschränkter als die rechenrische Bandbreite nahelegt.

Wieso? Die optimierte 64Bit Granularität bleibt doch erhalten? Und 4x64Bit wird doch auch der G92 haben und das hatten alle NV 256Bit-Chips in der Vergangenheit.

Gast
2007-10-04, 11:12:13
Warum sollte man dann nun bei einem Shrink anders vorgehen?
Weil 64Bit in naher Zukunft keine Rolle spielt und wir nicht wissen ob es sich wirklich um einen reinen Shrink handelt (Color Compression bei AA werden sie wohl gefixt haben...)
Aber hier geht eigentlich nicht um RV670.

robbitop
2007-10-04, 11:27:58
IMO wird die HD2950 ein legitimer Nachfolger fuer die X1950pro. Preis/Leistung war da (bis heute) spitze.
Das Teil ist in der R6xx Generation sicher ein wichtiger Meilenstein zurueck zum Erfolg.

(ich kann die Leute sowieso nicht verstehen, die sich einem IHV verschreben, Namen brauche ich hier ja nicht zu nennen. Das gilt auch fuer die Leute, die das nicht offen zugeben, sondern im Forum durch polarisierende einseitige Argumentation ihre Verschriebenheit semi-verdeckt ans Tageslicht bringen. Jeder der sich angesprochen fuehlt, ist damit auch gemeint. Ein IHV ist ein riesen grosser kapitalistischer Konzern, der am Profit interessiert ist. Solange es mindestens ein stabiles Duopol mit Preiskampf gibt, koennen wir zufrieden sein. Geht einer von beiden unter, werden wir nur noch abgezockt. Man sollte das kaufen, was fuer den geringensten Preis die individuellen Beduerfnisse am besten erfuellt (nach sachlichigen Fakten). Alles andere ist einfach nur naiv.)

Gaestle
2007-10-04, 11:33:28
Hier stellt man die 8800GT gegen und die leigt bei 200-250€. Wer bitte erwartet GTX Performance für das Geld? Nicht mal ein vollwertiger R600 war dazu in der Lage, also kann eine 256bit nur langsamer sein, gerade mit AF/AA merkt man bestimmt den Einbruch deutlicher.



Das werden wir sehen, AMD ist aber da anderer Meinung. ;)



Du hast jetzt mindestens zum zweiten mal eine deutliche AA/AF-Verbesserung (Speed) sehr deutlich "angedeutet". Worauf bezieht sich das? Offizielles "Wissen", "Wissen" von Insidern mit NDA, persönliche Spekulation oder sonstiges?

Die gelbe Eule
2007-10-04, 11:34:09
Naja robbi, es kommt auch auf die Käuferschicht an. Meinereiner probiert gerne und viel herum und da habe ich ein Limit von 300€ pro Karte. Welche nun für meinen LCD TV am besten ist, kommt in den Rechner, also ist es Lachs was die unter 1600x1200 können, weil ich es eh nicht fahre. Somit kommen ganz andere Kriterien ins Spiel. Gerade wenn der G92 da ist, wird die 320er deutlich günstiger werden und vielleicht schlägt man auch dort zu.

robbitop
2007-10-04, 11:38:12
Das macht das provokante Gebashe von vorhin aber aber auch nicht besser ;)

@Topic
Ich dachte mir schon, dass G92 wohl nur ein halber G90 ist. Damit haben sie zwar das Loch nach unten hin gestopft, aber das obere Segment bleibt teuer. Ein geshrinkter, leicht verbesserter G80 waere IMO nicht all zu dumm gewesen. Vieleicht kommt sowas ja noch 2008.

Weil 64Bit in naher Zukunft keine Rolle spielt und wir nicht wissen ob es sich wirklich um einen reinen Shrink handelt (Color Compression bei AA werden sie wohl gefixt haben...)
Aber hier geht eigentlich nicht um RV670.
Laut Dave Baumann, funktioniert die Colorcompression im R600. Man sollte nicht gleich alle Spekulationen ueber sowas all zu ernst nehmen. :)

AnarchX
2007-10-04, 11:45:20
Ich dachte mir schon, dass G92 wohl nur ein halber G90 ist. Damit haben sie zwar das Loch nach unten hin gestopft, aber das obere Segment bleibt teuer. Ein geshrinkter, leicht verbesserter G80 waere IMO nicht all zu dumm gewesen. Vieleicht kommt sowas ja noch 2008.
Dieser desöfteren genannte ~290mm² Chip, scheint laut meinen Informationen nicht völlig aus der Luft gegriffen zu sein.

Aber für einen 4C/RPs+IO-Chip wäre das doch eindeutig zuviel, erst recht wenn man gegen einen 194mm² RV670 antritt.

Und warum ist laut dem PCB-Plan aus Post #1, auf der 8800GT so ein fetter Heatspreader, wenn der Die eigentlich nicht viel größer als G84 sein sollte? :|

Imo wird die 8800GT nicht alles sein, was wir in den nächsten maximal 3 Monaten sehen.

@Gaestle:
Wie jede Firme informiert halt AMD seine Partner über kommende Produkte.

robbitop
2007-10-04, 11:48:09
Naja anhand der 290 mm^2 und des 65 nm Prozesses kannst du dir ja in etwa die Transistoranzahl ausrechnen. Ohne jetzt zu rechnen, wuerde ich behaupten, dass das ueber 700 Mio Transistoren betraegt. Klingt IMO eindeutig nach High End.

Die gelbe Eule
2007-10-04, 11:53:08
Dann ist es vielleicht doch ein halber G80 und der Rest einfach nur deaktiviert. So könnte man nach und nach das Portfolio verstärken, also mehr Takt bei GPU/RAM, höhere Shaderclocks, 1GB GDDR4.

Gaestle
2007-10-04, 11:53:38
@Gaestle:
Wie jede Firme informiert halt AMD seine Partner über kommende Produkte.

Danke.
Wie detailliert geschieht dies? Mit allgemeinen Marketing-Aussagen oder ein bißchen mehr, bis hin zu technischen Einzelheiten?

MartinRiggs
2007-10-04, 11:54:42
IMO wird die HD2950 ein legitimer Nachfolger fuer die X1950pro. Preis/Leistung war da (bis heute) spitze.
Das Teil ist in der R6xx Generation sicher ein wichtiger Meilenstein zurueck zum Erfolg.

(ich kann die Leute sowieso nicht verstehen, die sich einem IHV verschreben, Namen brauche ich hier ja nicht zu nennen. Das gilt auch fuer die Leute, die das nicht offen zugeben, sondern im Forum durch polarisierende einseitige Argumentation ihre Verschriebenheit semi-verdeckt ans Tageslicht bringen. Jeder der sich angesprochen fuehlt, ist damit auch gemeint. Ein IHV ist ein riesen grosser kapitalistischer Konzern, der am Profit interessiert ist. Solange es mindestens ein stabiles Duopol mit Preiskampf gibt, koennen wir zufrieden sein. Geht einer von beiden unter, werden wir nur noch abgezockt. Man sollte das kaufen, was fuer den geringensten Preis die individuellen Beduerfnisse am besten erfuellt (nach sachlichigen Fakten). Alles andere ist einfach nur naiv.)

Sorry für Offtopic, aber selten so ein geiles Statement gelesen:up:

w0mbat
2007-10-04, 12:07:21
Danke.
Wie detailliert geschieht dies? Mit allgemeinen Marketing-Aussagen oder ein bißchen mehr, bis hin zu technischen Einzelheiten?

Vor ein paar Tagen ist hier im Thread eine Folie von AMD zum RV670 aufgetaucht. Davon gibts eben noch mehr, aber AMD geht darin nicht ins genaue technische Detail. Sie behaupten eben die AA-Performance wurde verbessert während das SI gekürzt wurde.

Auf dieser Folie sieht das so aus, wie wenn der RV670 trotz halbiertem SI eine bessere AA-Performance hätte. Aber es könnte auch heißen das der RV670 trotzt halbiertem SI die gleiche AA-Performance hat oder das der RV670 trotz halbiertem SI nicht die halbierte AA-Performance, sondern z.B. noch immer 80% davon hat.

Wie gesagt klingt es eher nach ersterem, aber AMD legt sich nicht 100%tig fest. Wobei ich nicht denke das AMD solche Marketingtricks auch bei seinen AIBs verwendet.

Gast
2007-10-04, 12:21:40
Naja anhand der 290 mm^2 und des 65 nm Prozesses kannst du dir ja in etwa die Transistoranzahl ausrechnen. Ohne jetzt zu rechnen, wuerde ich behaupten, dass das ueber 700 Mio Transistoren betraegt. Klingt IMO eindeutig nach High End.

Naja, das wäre dann mehr als nur ein geshrinkter G80.

robbitop
2007-10-04, 12:21:48
Diese Art von Folien bekommt man auch als Journalist zu sehen. Also nicht nur die AIBs.

Naja, das wäre dann mehr als nur ein geshrinkter G80.
Moeglich.

Gaestle
2007-10-04, 12:32:53
Vor ein paar Tagen ist hier im Thread eine Folie von AMD zum RV670 aufgetaucht. Davon gibts eben noch mehr, aber AMD geht darin nicht ins genaue technische Detail. Sie behaupten eben die AA-Performance wurde verbessert während das SI gekürzt wurde.

Auf dieser Folie sieht das so aus, wie wenn der RV670 trotz halbiertem SI eine bessere AA-Performance hätte. Aber es könnte auch heißen das der RV670 trotzt halbiertem SI die gleiche AA-Performance hat oder das der RV670 trotz halbiertem SI nicht die halbierte AA-Performance, sondern z.B. noch immer 80% davon hat.

Wie gesagt klingt es eher nach ersterem, aber AMD legt sich nicht 100%tig fest. Wobei ich nicht denke das AMD solche Marketingtricks auch bei seinen AIBs verwendet.


Vielen Dank für die ausführliche Antwort, da weiß man das doch gleich viel besser einzuschätzen (zumindest glaubt man das ;) )...

seahawk
2007-10-04, 12:36:29
Aus Sicht von NV macht das schon Sinn. Einen einfacheren G92 der das Peformance/Midrange abdeckt , den kann man jetzt launchen, da man da eine Lücke im Angebot hat. Ist RV670 schneller geht man über den Preis. Mit dem Launch des "G90" wartet man bis ATI RV670x2 zeigt und paßt die Karte daran an. Dank G80 besteht ja kein akuter Handlungsbedarf in dem Segment.

AnarchX
2007-10-04, 12:37:31
Naja, das wäre dann mehr als nur ein geshrinkter G80.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5888050#post5888050

Wenn man noch bedenkt, dass dieser Chip über ein integriertes IO bzw. sogar VP3 verfügen kann, kann es gar nicht soviel mehr als ein "G80@65nm" sein, aber vielleicht konnte NV auch wieder wie bei G70->G71 optimieren.

Meine Schätzung für High-End in den nächsten Monaten:
32TA/64TFs,24ROPs@~800MHz, 128 oder 192SPs@~2.4GHz (= "near 1 TFLOP" MADD+MUL bzw. MADD) und eben 384Bit mit den ~1.6GHz GDDR4.

Dürfte sich gut gegen die 2950X2X (2xRV670@750 bzw. 775MHz + 1GHz+ GDDR4) positionieren und dürfte (bis auf die 192SPs) vielleicht auch nicht so realitätsfern sein.

Zwei 4 Cluster-Chips auf einer GX2 wären Unsinn und selbst 2x6C würden nicht unbedingt mit den 3-Wege-SLI(3-Wege-AFR)-Plänen harmonieren.

Einzige Frage ist nun was auf der 8800GT verbaut wird - ein eigener Chip oder doch dieser 290mm² Die, der im Endeffekt trotzdem noch günstiger wäre, als der 480mm² G80 auf der 8800GTS 320 bisher.
Aber das werden wir ja in naher Zukunft erfahren.

robbitop
2007-10-04, 12:42:22
Wenn man noch bedenkt, dass dieser Chip über ein integriertes IO bzw. sogar VP3 verfügen kann
Kostet so gut wie nix.

AnarchX
2007-10-04, 12:46:36
Kostet so gut wie nix.

UVD kostet ja laut Aussagen von AMD @65nm 4.7mm² Die-Fläche belegen.

Aber ich wollte ausdrücken, dass in ~290mm² sich eben nicht unbedingt deutlich mehr (z.B. 10C) befinden müssen, wenn der optimale G80@65nm bei 250mm² liegt.

seahawk
2007-10-04, 12:48:50
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5888050#post5888050

Einzige Frage ist nun was auf der 8800GT verbaut wird - ein eigener Chip oder doch dieser 290mm² Die, der im Endeffekt trotzdem noch günstiger wäre, als der 480mm² G80 auf der 8800GTS 320 bisher.
Aber das werden wir ja in naher Zukunft erfahren.

Ich erwarte einen eigenen Chip der wohl auch den G86 G84 ablösen wird. Zumindest in der 8600GTS Version und somit das ober Ende des Mainstream / untere Ende des Perfromance Segments abdecken.

robbitop
2007-10-04, 12:52:06
UVD kostet ja laut Aussagen von AMD @65nm 4.7mm² Die-Fläche belegen.

Aber ich wollte ausdrücken, dass in ~290mm² sich eben nicht unbedingt deutlich mehr (z.B. 10C) befinden müssen, wenn der optimale G80@65nm bei 250mm² liegt.
Naja dann hat man immerhin noch 16% Spielraum fuer Verbesserungen.

AnarchX
2007-10-04, 13:03:48
Ich erwarte einene eigenen Chip der wohl auch den G86 ablösen wird.

Du meinst G84 (=8600)?

G86 wird ja durch den G98 "abgelöst" bzw. besser an die Konkurrenz angepasst und auf ein ausreichendes 64Bit gekürzt.

Aber eine 8600GT mit einem ~200mm² Die abzulösen wäre etwas seltsam, man ist ja nicht ATi, die einen solchen für knapp über 100€ verschleudern (X1950GT/Pro).:D

Zudem soll ja G96 auch noch kommen, wohl G84@65nm.

Naja dann hat man immerhin noch 16% Spielraum fuer Verbesserungen.

Deshalb auch die Idee mit den SPs, Tex/Pix-Power hatte G80 genug und für kommende Games bzw. GPGPU wäre mehr Shaderpower wohl nicht verkehrt.
Und ausgehend von den ~79M/54mm²@80nm für einen G84/G86-Cluster dürfte so eine Vec8-ALU nicht viel kosten und eben 8 von diesen zu dem Unterschied passen.
Oder vielleicht 8 RPs ~512Bit?

Leider ziemlich schwierig bei der Informationspolitik von NV, irgendetwas zu erahnen.

Aber naja, NV war stets für Überraschungen gut, positiv als auch negativ...:D

seahawk
2007-10-04, 13:31:47
Du meinst G84 (=8600/8500)?

G86 wird ja durch den G98 "abgelöst" bzw. besser an die Konkurrenz angepasst und auf ein ausreichendes 64Bit gekürzt.

Aber eine 8600GT mit einem ~200mm² Die abzulösen wäre etwas seltsam, man ist ja nicht ATi, die einen solchen für knapp über 100€ verschleudern (X1950GT/Pro).:D

Zudem soll ja G96 auch noch kommen, wohl G84@65nm.



Klar, ahbe es oben berichtigt. Ich dachte auch nicht an eine vollständige Ablösung, sondenr nur im Bereich der 8600GTS. Gerade bei NV tue ioch mich schwer mir einen 290 mm² für 209$ vorzustellen.

AnarchX
2007-10-04, 14:27:52
INQ hat auch mal wieder eine Meldung:
G92 has heat problems
Panicked, last minute 'Thermal Analysis' suggests (http://www.theinquirer.net/gb/inquirer/news/2007/10/04/g92-heat-problems)

Walkman
2007-10-04, 14:32:48
Warum reden die noch von einem High-End Chip?

robbitop
2007-10-04, 14:37:16
289 mm^2...das klingt nicht nach Midrange. Da scheint noch was anderes im Ofen zu sein.

w0mbat
2007-10-04, 14:51:09
No new high end from Nvidia (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3445&Itemid=1)

Also was jetzt? Ist der G92 jetzt die 8800GT mit einer Performance ~8800GTS 320, oder kommt da doch noch was? Ist fast so verzwickt wie der R680 von ATI.

Nightspider
2007-10-04, 14:57:00
Also der G92 ist definitiv kein neuer HighEnd-Chip.

Dann lässt sich NV wohl wirklich noch Zeit mit einem neuen HighEnd Chip, der womöglich im 1. Quartal 2008 in 55-65nm erscheint und sicherlich mehr als den doppelten Transistor-count haben wird wie der G80.

Dann hat sich der Kauf meiner 8800 GTX, als Schüler richtig gelohnt. Jetzt habe ich sei schon genau 10 Monate und 4 Tage. =)

Henroldus
2007-10-04, 15:01:11
Nach über einem Jahr G80
sollte es doch eigentlich nicht schwierig sein diesen auf halber DIE-Fläche (da 65 statt 90nm) herstellen zu lassen. dazu noch die Taktschraube andrehen von rund 600 auf sagen wir mal 750MHz oder 800, schnellerer GDDR4 statt GDDR3 und fertig wäre ein neuer Highendchip, alle wären glücklich(bis auf AMD)!

geringerer stromverbrauch/Hitzeentwicklung
geringere Herstellungskosten
Preise könnten gesenkt werden auf sagen wir mal 399$


Es fehlt schlicht am Handlungsdrang da AMD noch nichts dagegen stellen kann, eigentlich zum K**zen die Situation momentan

Hvoralek
2007-10-04, 15:02:57
Dann lässt sich NV wohl wirklich noch Zeit mit einem neuen HighEnd Chip, der womöglich im 1. Quartal 2008 in 55-65nm erscheint und sicherlich mehr als den doppelten Transistor-count haben wird wie der G80.Mehr als doppelte Komplexität bei gleichzeitigem Shrink von 90 auf 65 nm würde eine sogar noch größere Diefläche bedeuten. 5,xx cm² @ 65nm Anfang 2008? :|

Wenn es bald einen G9x- High- End- Chip gibt, wird es wohl dieser 289- mm²- Chip sein. Das wären dann etwa 800 Mio. Transistoren.

Nightspider
2007-10-04, 15:06:45
Mehr als doppelte Komplexität bei gleichzeitigem Shrink von 90 auf 65 nm würde eine sogar noch größere Diefläche bedeuten. 5,xx cm² @ 65nm Anfang 2008? :|

Wenn es bald einen G9x- High- End- Chip gibt, wird es wohl dieser 289- mm²- Chip sein. Das wären dann etwa 800 Mio. Transistoren.

Wenn ATI im November-Dezember erste Karten in 55nm ausliefern will, wieso sollte Nvidia das nicht mit HighEnd Chips im Februar bis März tuen können ?

Auf den, von mir geschätzten, Geforce 9800 Karten wird dann sicherlich auch der 1,6 Ghz GDDR4 Speicher verwendet. Damit könnte man sicherlich ältere Spiele mit 16 AA fast for free betreiben.

Winter[Raven]
2007-10-04, 15:08:08
Also wenn es doch keinen High-End geben wird, dann investiert Nvidia wohl in die nächste Generation um dann auch wieder viel früher anzutanzen als AMD.

Nightspider
2007-10-04, 15:14:04
;5901783']Also wenn es doch keinen High-End geben wird, dann investiert Nvidia wohl in die nächste Generation um dann auch wieder viel früher anzutanzen als AMD.

Genau das, was ich vor ein paar Seiten schon spekuliert habe, NV lässt für HighEnd 80nm aus und vielleicht sogar den 65nm Prozess um dann in 55nm nochmal richtig durchzusteigen...

AnarchX
2007-10-04, 15:15:17
;5901783']Also wenn es doch keinen High-End geben wird, dann investiert Nvidia wohl in die nächste Generation um dann auch wieder viel früher anzutanzen als AMD.

Ob das so klug wäre, man kann doch nicht bis tief in 2008 bei einem 480mm²@90nm Die verbleiben.:|

Und dass ATi sich auch so in Zukunft verspäten wird, kann man wohl langsam anzweifeln, nachdem einige Köpfe gerollt sind, eine andere Strategie (Dual-Die im High-End) festgelegt wurde und RV670 es auch rechtzeitig auf den Markt schafft ist eher anzuzweifeln.

Zudem hat man es ja auch den Investoren versprochen, dass man nicht vom bisherigen Zyklus abweichen will.

Der 289mm² Die wird wohl schon NVs neuester Trumpf sein...

um dann in 55nm nochmal richtig durchzusteigen...
Ist halt die Frage wie gut 55nm für High-End-Chips(>=300mm²) geeignet ist, 80nm, auch ein Halfnode, hatte ja offensichtlich massive Lecktstromprobleme, wie man am R600 sah.

seahawk
2007-10-04, 15:19:01
Aber 289 mm², das kann nicht G92 sein. Das ist ein G80 Shrink mit 10-15% Reserve.

Hvoralek
2007-10-04, 15:20:19
Wenn ATI im November-Dezember erste Karten in 55nm ausliefern will, wieso sollte Nvidia das nicht mit HighEnd Chips im Februar bis März tuen können ?Nvidia steigt meist etwas später als ATI auf feinere Fertigungsprozesse um. Außerdem dauert es meist einige Zeit, bis neue Prozesse für große High- End- Chips geeignet sind. Man fängt nicht umsonst meist bei Mittelklasse- und Low- End- Chips mit neuen Prozessen an und G80 kam ja auch nicht sofort, als TSMC 90- nm- Fertigung anbot.

Auf den, von mir geschätzten, Geforce 9800 Karten wird dann sicherlich auch der 1,6 Ghz GDDR4 Speicher verwendet. Damit könnte man sicherlich ältere Spiele mit 16 AA fast for free betreiben.:|
Erstmal müsste man überhaupt 16x MSAA anbieten, und dann bräuchte man noch 16- fach ausgelegte ROPs, bevor man überlegt, wie weit man mit ~150 GiB/s kommt. Gerade bei älteren Spielen sind aber die Verluste durch AA/AF ziemlich egal, solange sie damit flüssig laufen, und bei neuen könnte man 16x MSAA in aller Regel vergessen.

AnarchX
2007-10-04, 15:22:02
Aber 289 mm², das kann nicht G92 sein.
Oder nicht nur G92 bzw. 8800GT.;)

G90 (ein 512Bit Chip mit 10-12 Clustern), der laut PCinlife aufs Eis gelegt wurde, kommt dann vielleicht zum R7xx-Launch.

Einen D3D11-Chip wird man wohl nicht vor Ende 2008 sehen. (G100?)

seahawk
2007-10-04, 15:24:35
Oder nicht nur G92 bzw. 8800GT.;)

G90 (ein 512Bit Chip mit 10-12 Clustern) kommt dann vielleicht zum R7xx-Launch.

Einen D3D11-Chip wird man wohl nicht vor Ende 2008 sehen. (G100?)

Aber so ein Monster (im Vergleich zu RV670) für 200$ Einstiegspreis verwursten, so bekloppt ist NV nicht.

Eine halbdeaktiverite Chips für den Preis einzuführen wäre Blödsinn, wenn man was Vergleichabres mit NVIO in 90nm baut.

Gaestle
2007-10-04, 15:26:21
Oder nicht nur G92 bzw. 8800GT.;)

G90 (ein 512Bit Chip mit 10-12 Clustern), der laut PCinlife aufs Eis gelegt wurde, kommt dann vielleicht zum R7xx-Launch.

Einen D3D11-Chip wird man wohl nicht vor Ende 2008 sehen. (G100?)

Hmm. Du spekulierst auf G92x2 (in einem Chip natürlich)? Wenn es interne Verbesserungen bei der G9x-Serie geben sollte, könnten die vielleicht schon in G92 enthalten sein, so dass der G92 pro Takt und Cluster etwas schneller ist, als G8x?

AnarchX
2007-10-04, 15:32:30
Aber so ein Monster (im Vergleich zu RV670) für 200$ Einstiegspreis verwursten, so bekloppt ist NV nicht.
Naja, immernoch deutlich besser als ein 480mm² Die + 320Bit PCB für $299 (=GTS 320).


Meine Erklärung ist, dass NV G80 geshrinkt hat und ihm keinen neuen Codenamen gab. Das haben sie ja in der G7X Serie auch schon gemacht.
Aber bei G73 war es ein einfacher optischer Shrink, was 90 auf 65nm nunmal nicht ist.

Naja, wir werden sehen...

Gast
2007-10-04, 15:34:31
Naja, immernoch deutlich besser als ein 480mm² Die + 320Bit PCB für $299 (=GTS 320).


Aber bei G73 war es ein einfach optischer Shrink, was 90 auf 65nm nunmal nicht ist.

Naja, wir werden sehen...
Von was wurde der G73 geshrinkt? ;) Du meinst den G71. :)

Hvoralek
2007-10-04, 15:37:45
Einen D3D11-Chip wird man wohl nicht vor Ende 2008 sehen. (G100?)Ich dachte, nach G9x soll erst einmal G20x kommen :confused:

laser114
2007-10-04, 15:38:04
Den G73 gab es in einigen selteneren Ausführungen auch in 80nm statt 90nm, wenn ich richtig informiert bin. ;)

AnarchX
2007-10-04, 15:38:31
Von was wurde der G73 geshrinkt? ;) Du meinst den G71. :)
Von 90 auf 80nm:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=306629

Den G73 gab es in einigen selteneren Ausführungen auch in 80nm statt 90nm, wenn ich richtig informiert bin. ;)
Selten vielleicht auf dem Endkundenmarkt, aber im OEM-Markt wurde er offensichtlich großflächig verbaut.

Ich dachte, nach G9x soll erst einmal G20x kommen :confused:
Darum auch das Fragezeichen, wir wollen ja hier niemanden mit dieser G9x->G20x->G100-Geschichte verwirren. ;D

Gast
2007-10-04, 15:40:39
Von 90 auf 80nm:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=306629
Das habe ich ganz vergessen und verdrängt. Danke.

Henroldus
2007-10-04, 15:42:42
Aber bei G73 war es ein einfacher optischer Shrink, was 90 auf 65nm nunmal nicht ist.

Nicht?
Was denn sonst?
von 90 auf 80nm ist ein halfnode genauso wie von 65 auf 55nm.

von 90 auf 65nm allerdings ist es die ganze normale Entwicklung nach Herrn Moore wie auch bei den CPUs, wenn auch nicht "einfach"

AnarchX
2007-10-04, 15:47:40
Nicht?
Was denn sonst?
von 90 auf 80nm ist ein halfnode genauso wie von 65 auf 55nm.

von 90 auf 65nm ist die ganze normale Entwicklung nach Herrn Moore wie auch bei den CPUs, wenn auch nicht "einfach"

Ja, aber G80@65nm wäre nicht einfach ein G80-B1, sondern hätte durch die Konvertierung auf 65nm wohl ein leicht anderes Layout, was G73 bei dem optischen Schrink von 90 auf 80nm nicht hatte.

Henroldus
2007-10-04, 15:53:12
Ja, aber G80@65nm wäre nicht einfach ein G80-B1, sondern hätte durch die Konvertierung auf 65nm wohl ein leicht anderes Layout, was G73 bei dem optischen Schrink von 90 auf 80nm nicht hatte.
wieso sollte sich das Layout ändern, das musst du mir erklären?
alle Shrinks sind optisch da das Problem immer die kleineren Masken in der Lithographie sind und nicht im Ätzbereich z.B.(dem ist egal wie klein die Chips auf dem Wafer sind :wink: )

btw Shrink bitte ohne C ;)

robbitop
2007-10-04, 15:59:12
Ist halt die Frage wie gut 55nm für High-End-Chips(>=300mm²) geeignet ist, 80nm, auch ein Halfnode, hatte ja offensichtlich massive Lecktstromprobleme, wie man am R600 sah.
Nur der 80 HS Prozess litt an diesem Problem. Der LP hingegen nicht. Wie das beim 55 nm Halfnode ist, muss man erstmal sehen.

robbitop
2007-10-04, 16:01:29
wieso sollte sich das Layout ändern, das musst du mir erklären?
alle Shrinks sind optisch da das Problem immer die kleineren Masken in der Lithographie sind und nicht im Ätzbereich z.B.(dem ist egal wie klein die Chips auf dem Wafer sind :wink: )

btw Shrink bitte ohne C ;)

Die Bibliotheken sind fuer den naechsten Fullnode schon wieder ganz andere. Ergo braucht man ein ganz neues Floorplanning.
Bei Halfnodes ist das nicht so.

Coda
2007-10-04, 16:03:48
Nicht?
Was denn sonst?
von 90 auf 80nm ist ein halfnode genauso wie von 65 auf 55nm.

von 90 auf 65nm allerdings ist es die ganze normale Entwicklung nach Herrn Moore wie auch bei den CPUs, wenn auch nicht "einfach"
Die TSMC-Libraries und Design-Guidelines sind nicht die gleichen wie bei einer Half-Node. D.h. der ganze Chip muss nochmal kompiliert, gelayoutet und simuliert werden.

Es ist eben nicht nur ein optischer Shrink, auch die Transistoren sind mit anderen Materialien aufgebaut, es gibt mehr Interconnect-Layer etc.

Henroldus
2007-10-04, 16:11:10
ob andere Materialien verwendet werd hängt wohl von der absoluten Strukturgröße ab.

ich sagte ja nicht, dass es ein einfacher Shrink ist, so trivial ist es natürlich nicht.
Dass es mehr Layer werden(ohne neue Fkt.en) glaube ich eher nicht, lass mich aber gern vom Gegenteil überzeugen.
Ich könnte mir vor allem nötige Anpassungen in der Verdrahtung vorstellen.

etwas OT obwohl interessant

Coda
2007-10-04, 16:24:45
Wieso sollte ich dir den Scheiß jetzt raussuchen, wenn ich es eh 100% sicher weiß? Ich hab schon in einer Firma gearbeitet, die Transistormodellierungs- und Simulationssoftware herstellt (TSMC ist auch Kunde).

Kein Bock jetzt. Glaub mir's oder nicht.

seahawk
2007-10-04, 17:25:23
Naja, immernoch deutlich besser als ein 480mm² Die + 320Bit PCB für $299 (=GTS 320).


Aber bei G73 war es ein einfacher optischer Shrink, was 90 auf 65nm nunmal nicht ist.

Naja, wir werden sehen...

Stimmt. Nur wenn man G80 ersetzen kann (mit der jetzigen Form von G92)l, warum die neue GTS ? Ausverkauf ?

reunion
2007-10-04, 17:30:19
Dieser desöfteren genannte ~290mm² Chip, scheint laut meinen Informationen nicht völlig aus der Luft gegriffen zu sein.


Ist über diesen ominösen Chip eigentlich irgendetwas handfestes bekannt?


Und warum ist laut dem PCB-Plan aus Post #1, auf der 8800GT so ein fetter Heatspreader, wenn der Die eigentlich nicht viel größer als G84 sein sollte? :|


Was sagt ein Heatspreader über die Die-Größe aus? Nichts oder?
NV verkauft sicher nicht einen geshrinken G80 mit halb deaktivierten Einheiten um ~250€, um dann im High-End weiter auf das G80-Monstrum in 90nm zu setzen. Wenn man G80 ersetzen könnte, dann macht man das logischerweise auch. Jede Wette, das kannst du gleich vergessen.

Dann sag mir mal, wieviel größer die Füllrate beim RV670 ist und warum sie dann besser als ein R600 von der Performance her sein soll.

Da gibt es nicht viel zu erkären. RV670 ist ein geshrinkter R600 mit 256bit SI. Dank 1.2Ghz GDDR4 und der nicht sonderlich hohen Füllrate sollte das SI locker reichen. Tests mit R600 untermauern das. Sofern die Bandbreite also nicht limitiert, wird ein RV670 um 11.5% schneller sein als ein R600. Jetzt verspricht AMD noch eine unbekannten Leistungsgewinn durch verbesserte AA-Leistung, dieser lässt sich natürlich schwer abschätzen.

The_Invisible
2007-10-04, 17:59:18
Da gibt es nicht viel zu erkären. RV670 ist ein geshrinkter R600 mit 256bit SI. Dank 1.2Ghz GDDR4 und der nicht sonderlich hohen Füllrate sollte das SI locker reichen. Tests mit R600 untermauern das. Sofern die Bandbreite also nicht limitiert, wird ein RV670 um 11.5% schneller sein als ein R600. Jetzt verspricht AMD noch eine unbekannten Leistungsgewinn durch verbesserte AA-Leistung, dieser lässt sich natürlich schwer abschätzen.

und wie siehts mit AF aus? an 16x hat die derzeitig r600 ja schön zu knappern.

mfg

reunion
2007-10-04, 18:02:39
und wie siehts mit AF aus? an 16x hat die derzeitig r600 ja schön zu knappern.

mfg

Die Leistung wird höher sein, der prozentuale Einbruch aber natürlich ident im Vergleich zu R600 (oder sogar höher, da AMD besser AF-Qualität verspricht).

Gast
2007-10-04, 18:05:16
und wie siehts mit AF aus? an 16x hat die derzeitig r600 ja schön zu knappern.

mfg
Daran wird sich nicht wirklich was ändern.
AF haut zwar rein, ist aber noch vertretbar.

Gast
2007-10-04, 18:08:49
Der r600 profitiert von versümmelten AF wesentlich stärker als der G80. Der Einbruch wäre viel stärker, wenn man auch mal vollwertiges ansiotrope Filterung verwenden würde.

AnarchX
2007-10-04, 19:49:08
8800GT/512 3DMark 10800 (OC >12000) 249~279$ changed to 229$: stock in Nov, launch E/Oct.
8800GT/256 3DMark 10800 (OC >12000) 179~199$: stock Dec (GPU for factory avail W3/Nov, limited Q)
RV670XT DDR4 3DMark 10000 stock TDB
RV670PRO DDR3 3DMark 8000 stock TDB
D8M -> zelfde performance als 8400GS silent launch: stock Jan (GPU for factory mid dec)
http://gathering.tweakers.net/forum/view_message/28843089

Da beginnt wohl der Preiskampf schon, wenn noch nichtmal die Karten auf dem Markt sind. :D

(RV670-Scores sind aber ziemlich wenig, wenn selbst eine 2900Pro-256Bit schon ein Performance-Ziel von 8.5k+ hatte. Diese Infos kommen wohl von NV...)

reunion
2007-10-04, 19:58:11
Bei spekulierten 64 SPs und 600Mhz verwundert das wenig. Die Karte wäre um 279$ kaum konkurrenzfähig.

(RV670-Scores sind aber ziemlich wenig, wenn selbst eine 2900Pro-256Bit schon ein Performance-Ziel von 8.5k+ hatte. Diese Infos kommen wohl von NV...)

Vorallem ist der Unterschied zwischen Revival und Gladiator viel zu groß. Und das sich die Punkte genau auf einen vollen Tausender runden ist auch seltsam. Sicher nicht authentisch.

Gast
2007-10-04, 20:08:16
gibs keine akt. NV Folie mit G90 Releaseplan and stuff ?

laser114
2007-10-04, 20:24:53
gibs keine akt. NV Folie mit G90 Releaseplan and stuff ?

Wahrscheinlich schon, aber alles um das absolute High-End hält NVIDIA noch geheim. ;)

Die gelbe Eule
2007-10-04, 20:46:54
$229? Das würde ja mal eben unter 200€ liegen. Die Karte ist defintiv gekauft.

Gast
2007-10-04, 20:50:27
Ich denke die G90 Bombe platzt wenn AMD den RV670 released.
Einfach mal AMD den PR-Wind aus den Segel genommen.

seahawk
2007-10-04, 20:50:53
Vorallem ist der Unterschied zwischen Revival und Gladiator viel zu groß. Und das sich die Punkte genau auf einen vollen Tausender runden ist auch seltsam. Sicher nicht authentisch.

Die Infos sind nicht aus einer Quelle. Hladiator um 10.000 wurde schon mehrfach spekuliert wie auch G92 um 10.792.

Revival ist überraschen, aber evtl. macht Takt + langsamer Speicher da was aus. Das Grundkonzept des R600 ging ja von praktisch unbegrenzer Bandbreite aus. Nicht wahrscheinlich, doch nicht unmöglich.

dargo
2007-10-04, 20:52:30
$229? Das würde ja mal eben unter 200€ liegen. Die Karte ist defintiv gekauft.
Jup, von ca. 200€ Straßenpreis kannst du ausgehen. Eine nette Karte zu diesem Preis. ;)
Jetzt bitte die ~doppelte Leistung für ~400€ und ich bin dabei. :D

reunion
2007-10-04, 20:53:38
$229? Das würde ja mal eben unter 200€ liegen. Die Karte ist defintiv gekauft.

Die Karte ist wie es momentan aussieht auch nur 1/2 G80 mit kaum mehr Takt. Mehr wäre sie so (im Verhältnis zur 8800-Serie) auch nicht wert.

Die Infos sind nicht aus einer Quelle. Hladiator um 10.000 wurde schon mehrfach spekuliert wie auch G92 um 10.792.


Ohne Angaben des Testsystems sind die Werte ohnehin witzlos, da die CPU-Score nicht gerade unbedeutend für die Gesamtpunkteanzahl ist.


Revival ist überraschen, aber evtl. macht Takt + langsamer Speicher da was aus. Das Grundkonzept des R600 ging ja von praktisch unbegrenzer Bandbreite aus. Nicht wahrscheinlich, doch nicht unmöglich.

Gerade beim 3dmark ohne AA ist die Speicherbandbreite aber sowas von Latte.

Henroldus
2007-10-04, 20:59:24
Ich denke die G90 Bombe platzt wenn AMD den RV670 released.
Einfach mal AMD den PR-Wind aus den Segel genommen.
wäre viel zu früh.
der RV670 ist nach bisheriger meinung ein geshrinkter und verbesserter R600.
die 8800Ultra ist da immernoch weit genug weg um die Performancekrone zu halten, wenn auch mit dem Preis eines teuren großen DIEs

an die Karten mit 2 chips oder gar 2 PCBs glaub ich erst wenn sie da sind.

die 7900GX2 war ein völliger Humbug, da ginge es ja irgendwann richtung tripleslot!

dargo
2007-10-04, 21:00:33
Die Karte ist wie es momentan aussieht auch nur 1/2 G80 mit kaum mehr Takt. Mehr wäre sie so (im Verhältnis zur 8800-Serie) auch nicht wert.

Ja, was denn nun? Ich dachte eher knapp 3/4 G80. Für 1/2 G80 wäre die Karte mit ~200€ wirklich zu teuer, wenn ich die 65nm Fertigung, das kleinere SI und weniger Speicher zur G8800GTS 640 berücksichtige.

AnarchX
2007-10-04, 21:02:26
Revival ist überraschen, aber evtl. macht Takt + langsamer Speicher da was aus.
In den veralteten 2900Pro-Folien wurden dieser aber selbst mit 256Bit 8.5k+ zugesprochen? :|

Imo wird hier etwas durcheinander gebracht, nämlich 2950Pro mit 2950GT(die "2600XTX" von Coolaler, welche eine 2900Pro auf RV670-Basis ist und wohl eben diese 8k errreicht;)) und dann eben Pro mit XT, da bei Chiphell etwas von 12k für R670XT erzählt wurde.

Die Karte ist wie es momentan aussieht auch nur 1/2 G80 mit kaum mehr Takt. Mehr wäre sie so (im Verhältnis zur 8800-Serie) auch nicht wert.

90% der Bandbreite einer Old-GTS und vielleicht auch deren arithmetische Leistung sind für $229 mehr als ein angemessener Preis im Vergleich zu den aktuellen $399 für eine Old-GTS. ;) (Aber man muss halt auch sehen, dass der RV670 entsprechend mit Druck ausübt.)

reunion
2007-10-04, 21:04:23
Ja, was denn nun? Ich dachte eher knapp 3/4 G80. Für 1/2 G80 wäre die Karte mit ~200€ wirklich zu teuer, wenn ich die 65nm Fertigung, das kleinere SI und weniger Speicher zur G8800GTS 640 berücksichtige.

Naja, der Shadertakt wird wohl deutlich höher liegen, was je nach Szenario eben knapp über 1/2 bis knapp 3/4 G80 ergeben dürfte.

90% der Bandbreite einer Old-GTS und vielleicht auch deren arithmetische Leistung sind für $229 mehr als ein angemessener Preis im Vergleich zu den aktuellen $399 für eine Old-GTS. ;)

Die Old-GTS geht aber teilweise schon für knapp über 300€ weg, die 399$ sind längst veraltet. Zudem wird die neue GTS wohl auch nicht teurer sein, und daran muss sich die 8800GT messen.

Die gelbe Eule
2007-10-04, 21:10:29
Sie ersetzt doch nur die GTS und wenn man für 100€ weniger die gleiche Leistung bekommt, dann ist das ordentlich. Die RV670 müsste ja demnach genauso viel kosten, sonst wäre sie nicht konkurrenzfähig.

Henroldus
2007-10-04, 21:10:39
Die Old-GTS geht aber teilweise schon für knapp über 300€ weg, die 399$ sind längst veraltet. Zudem wird die neue GTS wohl auch nicht teurer sein, und daran muss sich die 8800GT messen.
warte mal 399$ durch 1,41 sind sogar weniger als 300eur, also stimmt die UVP nach wie vor

seahawk
2007-10-04, 21:17:53
In den veralteten 2900Pro-Folien wurden dieser aber selbst mit 256Bit 8.5k+ zugesprochen? :|

Imo wird hier etwas durcheinander gebracht, nämlich 2950Pro mit 2950GT(die "2600XTX" von Coolaler, welche eine 2900Pro auf RV670-Basis ist und wohl eben diese 8k errreicht;)) und dann eben Pro mit XT, da bei Chiphell etwas von 12k für R670XT erzählt wurde.


90% der Bandbreite einer Old-GTS und vielleicht auch deren arithmetische Leistung sind für $229 mehr als ein angemessener Preis im Vergleich zu den aktuellen $399 für eine Old-GTS. ;) (Aber man muss halt auch sehen, dass der RV670 entsprechend mit Druck ausübt.)

Jawed und Konsorten rechnen aber zunehmend mit 96 SP die niedrig takten.

dargo
2007-10-04, 21:21:35
Naja, der Shadertakt wird wohl deutlich höher liegen, was je nach Szenario eben knapp über 1/2 bis knapp 3/4 G80 ergeben dürfte.

Da fällt mir gerade ein - 1/2 G80, da kann doch was nicht passen. Der G92 soll afaik bei ~70W real liegen. Das wäre ca. ein halber G80 in 90nm. In 65nm bei dieser Verlustleistung - da muss einfach mehr Performance bei rumkommen.

laser114
2007-10-04, 21:22:15
Ja, was denn nun? Ich dachte eher knapp 3/4 G80. Für 1/2 G80 wäre die Karte mit ~200€ wirklich zu teuer, wenn ich die 65nm Fertigung, das kleinere SI und weniger Speicher zur G8800GTS 640 berücksichtige.

Für mich sieht das zur Zeit so aus:

http://s5.directupload.net/images/user/071004/p7ggusxt.jpg (http://www.directupload.net)

(GFlops sind mit zweiter MUL, für Vergleiche in der Serie ist das aber relativ uninteressant.)

Was wurden denn an den TMUs mit den G84/G86er verbessert?

Edit: Bild verkleinert.

AnarchX
2007-10-04, 21:29:09
Jawed und Konsorten rechnen aber zunehmend mit 96 SP die niedrig takten.

Was aber nicht wirklich Sinn macht(Takt ist meist billiger als Einheiten) genauso wie eine 8800 GT, die schneller als eine GTS ist und $229 kostet:
http://forum.beyond3d.com/showpost.php?p=1074463&postcount=572
;)

Am wichtigsten gegen RV670 ist imo nachwievor die arithmetische Leistung, Tex/Pix hat man selbst mit 4C@600MHz genug.

reunion
2007-10-04, 21:32:04
Für mich sieht das zur Zeit so aus:

http://s5.directupload.net/images/user/071004/p7ggusxt.jpg (http://www.directupload.net)

(GFlops sind mit zweiter MUL, für Vergleiche in der Serie ist das aber relativ uninteressant.)

Was wurden denn an den TMUs mit den G84/G86er verbessert?

Edit: Bild verkleinert.

Sieht mir auch so aus. Die 8800GT würde sich perfekt hinter der neuen GTS einordnen, und die alte 8800GTS fast erreichen.

LovesuckZ
2007-10-04, 21:32:57
Ein halbierter G80 in 64nm Fertigung sollte locker unter 200mm² sein, der G92 bei der 8800GT soll aber darüber sich befinden.
Ein halbierter G80 in 64nm Fertigung sollte locker über 600MHz gehen. Der G92 bei der 8800GT soll mit 600MHz kommen?
Und schlussendlich reichen ca. 230GFlops nicht annährend aus, um mit dem r670 mitzuhalten.
4 Cluster sind daher - und da lehne ich mich weit aus den Fenster - viel zu wenig. Ich rechne klar mit 6 Cluster und einen Shadertakt von ca. 1500mhz.

reunion
2007-10-04, 21:34:53
Da fällt mir gerade ein - 1/2 G80, da kann doch was nicht passen. Der G92 soll afaik bei ~70W real liegen. Das wäre ca. ein halber G80 in 90nm. In 65nm bei dieser Verlustleistung - da muss einfach mehr Performance bei rumkommen.

Wie kommst du auf 70W? Das Ding dürfte nur etwas über 400mio Transistoren haben und damit kaum größer als ein RV630 sein was das Die betrifft. Auch die Leistungsaufnahme sollte sich in ähnlichen Regionen bewegen.

AnarchX
2007-10-04, 21:36:24
Sieht mir auch so aus. Die 8800GT würde sich perfekt hinter der neuen GTS einordnen, und die alte 8800GTS fast erreichen.

Was sich dann nicht so positiv auf die Verkäufe dieser auswirken würde, selbst wenn man sie auf $299 senken würde.


Was wurden denn an den TMUs mit den G84/G86er verbessert?

Es wurden halt 4TAs pro Cluster hinzugefügt, die aber wohl, wegen der relativ geringen arithmetischen Leistung des G84 nicht richtig durch die Interpolatoren mit Texturkoordinaten gefüttert werden können, jedenfalls ist das Jaweds Verdacht:
http://forum.beyond3d.com/showpost.php?p=1074094&postcount=2

Bei der 8800 GT mit 345GFLOPs wären sie vielleicht noch etwas sinnvoller.

Wie kommst du auf 70W? Das Ding dürfte nur etwas über 400mio Transistoren haben und damit kaum größer als ein RV630 sein was das Die betrifft. Auch die Leistungsaufnahme sollte sich in ähnlichen Regionen bewegen.
Laut PCinlife: 65W GPU, 110W gesamt TDP bei der 8800GT

reunion
2007-10-04, 21:37:56
Was sich dann nicht so positiv auf die Verkäufe dieser auswirken würde, selbst wenn man sie auf $299 senken würde.


Die alte GT wird wohl auslaufen.

dargo
2007-10-04, 21:39:47
Wie kommst du auf 70W? Das Ding dürfte nur etwas über 400mio Transistoren haben und damit kaum größer als ein RV630 sein was das Die betrifft. Auch die Leistungsaufnahme sollte sich in ähnlichen Regionen bewegen.
Es gab doch mal Gerüchte, dass ein G92 unter der G7900GTX liegen soll. Die G7900GTX liegt laut xbitlabs bei ~84W.
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html

Oder ist das wieder lange hinfällig?

Laut PCinlife: 65W GPU, 110W gesamt bei der 8800GT
:|

Doch so "viel"? Dann müsste der G92 sogar schneller als eine G8800GTS sein. Oder sind das TDP Angaben?

reunion
2007-10-04, 21:41:44
Laut PCinlife: 65W GPU, 110W gesamt bei der 8800GT

Wen dem so ist, dann heißt das Ding nicht 8800GT und ist wesentlich schneller. In 65nm (ist das überhaupt gesichert?) sollte da erheblich mehr drin sein in punkto Leistungsaufnahme und das Die dürfte auch nur um die 160mm² groß sein bei vier Cluster.

laser114
2007-10-04, 21:43:12
Ich befürchte ja inzwischen, dass in der Vergangenheit oft zwei verschiedene Chips als G92 zusammengefasst wurden, obwohl sie grundverschieden sind. Der eine dürfte der jetzt in der 8800 GT erscheinende sein, der andere wohl nvidias neuer High-End-Chip. Letzterer scheint aber noch nicht zu kommen - oder ist unterwegs irgendwo eingefroren wurden.

Dadurch könnten solche Widersprüche entstehen.

@AnarchX: Danke. ;)

dargo
2007-10-04, 21:47:51
Irgendwas passt hier nicht. Wenn der G92 wirklich 110W real verschlingt dann muss das Ding von der Performance her weit über der G8800GTS liegen (eigendlich fast GTX Niveau). Ich kann mir kaum vorstellen, dass NV mit dem 65nm Fertigungsprozess so viele Probleme hat (Leckströme). Ich werde das Gefühl nicht los, dass NV uns an der Nase herumführt. :D

reunion
2007-10-04, 21:48:12
Ja. Ich glaube mittlerweile auch, dass es zwei Chips gibt, aber da es nur einen offiziellen Codenamen und ein Bild einer Karte gibt die Daten ständig vermischt werden.

AnarchX
2007-10-04, 21:49:36
Doch so "viel"? Dann müsste der G92 sogar schneller als eine G8800GTS sein. Oder sind das TDP Angaben?
TDP! (Hätte es wohl doch gleich hinschreiben sollen...)


und das Die dürfte auch nur um die 160mm² groß sein bei vier Cluster.
Wie errechnest du das?
(Wobei bei B3D jemand etwas von "barely bigger than RV630" geschrieben hatte. :uponder:)

Aber warum dann ein Heatspreader, welchen G84 auch nicht gebraucht hat?:|

Für mich sieht das zur Zeit so aus:

http://s5.directupload.net/images/user/071004/p7ggusxt.jpg (http://www.directupload.net)

(GFlops sind mit zweiter MUL, für Vergleiche in der Serie ist das aber relativ uninteressant.)

Die arithmetische Leistung der New-GTS ist falsch:
112 x 3 FLOPs x 1.2GHz = 403GFLOPs

dargo
2007-10-04, 21:52:54
TDP! (Hätte es wohl doch gleich hinschreiben sollen...)

Das sieht schon wieder ganz anders aus. Dann sind ca. 80W real gar nicht mal so unrealistisch, was immer noch unter der G7900GTX wäre. :D

reunion
2007-10-04, 21:59:19
Wie errechnest du das?


Das war nur geschätzt. Wenn man davon ausgeht, dass ein Cluster 79mio Transistoren ausmacht (289-210) und zwei davon zu G84 hochrechnet, kommt man inkl. des breiteren SIs wohl auf etwas über 450mio Transistoren. Ein RV630 kommt bei 390mio Transistoren auf 143mm², allerdings kann ATi die Transistoren in dieser Generation eine Spur enger packen (siehe G84/R600), deshalb ca. 160mm² für eine fiktiven G92 mit vier Cluster und 256-bit SI in 65nm.

Nakai
2007-10-04, 22:09:13
Der G90 wird wohl ein G71, also wird er auch das alte Highend ersetzten.

Welche Chips stehen denn noch aus?
G90, G92, G98 und G94.

G90 ist überstes Highend.
G92 Performance fast Midrange
G98 unterstes Lowend
G94 Midrange

Alle Chips können Dx10.1 und werden die alten Karten ersetzen.


mfg Nakai

reunion
2007-10-04, 22:10:55
Dagegen spricht, dass nV G92 offensichtlich in die bestehende Reihe eingliedert.

Adam D.
2007-10-04, 22:18:10
Dagegen spricht, dass nV G92 offensichtlich in die bestehende Reihe eingliedert.
Genau das ist der komische Punkt.

Was ich auch nicht verstehe: der G92 soll die 8800GTS 320MB ersetzen - preislich. Da sind aber GTS 320 und 640 bis in höhere Settings nicht nehmen, könnte man durchaus einen starken G92 erwarten - mit mehr VRam, was von großen Vorteil sein könnte.

laser114
2007-10-04, 22:23:21
Da sind aber GTS 320 und 640 bis in höhere Settings nicht nehmen

Naja, im aktuellen CB Benchmark (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22) sind schon in 1280*1024 ohne Qualitätsverbesserungen im Schnitt Leistungssteigerungen von der 320 zur 640 von 12% festzustellen.

Das sind für mich noch nicht höhere Settings.
Man sollte den geringeren Speicher nicht unterschätzen...

(In 1600*1200 mit 4x AA / 16x AF sind es dann 27%.)