Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GeForce 200 - Teil 2


Seiten : 1 2 3 4 [5]

AnarchX
2009-01-05, 19:22:15
Man könnte durch Reduktion von Redundanz und Dingen wie den DP-ALUs schon geringe DIE Sizes einfahren.
Einen DP-ALU-Chip wird NV wohl mindestens bringen und das wird wohl GT212 sein.

Mit 48 DP-ALUs @ >1.5GHz, wäre das wohl auch eine gute Steigerung gegenüber GT200 mit 30@1.3GHz.

AFAIK gab es gar Spekus mit 2 DP-ALUs pro Core.

Spasstiger
2009-01-05, 19:23:34
Wie schnell würde dann die beste GTX 212 in etwa, ca. GTX 280 +25% Mehrleistung oder gar weit darüber..?
Das hängt stark von den Taktraten ab. Wenn die GT212 mit den Taktraten einer GTX 285 kommt und GDDR5-Speicher mit 5 Gbps verwendet, könnten es gegenüber der GTX 280 ca. 30% Leistungsvorteil werden. Bei höheren Taktraten natürlich entsprechend mehr.

Coda
2009-01-05, 19:29:17
Wenn der GT212 wirklich nur ein 256-Bit-SI haben sollte, müssen sie aber imo die ROP-Anzahl auf 32 verdoppeln. Denn wie man am G80 und am G92 sehen kann, ist die Pixelfüllrate durchaus wichtig für die Performance.
Das halte ich nach wie vor für Quatsch. Sobald ein Shader auch nur 4 Takte braucht limitiert da gar nichts mehr.

Spasstiger
2009-01-05, 19:32:25
Das halte ich nach wie vor für Quatsch. Sobald ein Shader auch nur 4 Takte braucht limitiert da gar nichts mehr.
Und warum schneidet dann die 9600 GT bei Computerbase mit Qualitätseinstellungen durchweg besser ab als die 8800 GTS (G80), obwohl die 8800 GTS außer bei der Pixelfüllrate überall die besseren theoretischen Werte aufweisen kann?

Ich denke eher, dass es eine Wechselwirkung zwischen dem sehr schmalen Trisetup und den ROPs ist.
Auch möglich. Auf jeden Fall profitieren die NV-Karten von höherer Pixelfüllrate bei sonst vergleichbaren Daten.

robbitop
2009-01-05, 19:36:16
Einen DP-ALU-Chip wird NV wohl mindestens bringen und das wird wohl GT212 sein.

Mit 48 DP-ALUs @ >1.5GHz, wäre das wohl auch eine gute Steigerung gegenüber GT200 mit 30@1.3GHz.

AFAIK gab es gar Spekus mit 2 DP-ALUs pro Core.
Die Frage ist eben, ob man den Kram wirklich mitschleppen will. Wer außer ganz wenigen Leuten benötigt schon IEEE754 kompatible DP-ALUs? DP über loopen erledigt die meisten Aufgaben vermutlich adäquat.

LovesuckZ
2009-01-05, 19:39:42
Vorallem unter der jetzigen Vorraussetzungen, dass der Markt um mehr als Hälfte des Preises eingebrochen ist.
Was nVidia zur Zeit braucht, sind schnelle und kleine Chips. Die DP Recheneinheiten nehmen nur Platz weg und sind für die Käufersicht komplett überflüssig. Und mit den GT200 Karten hat man immer noch genug Karten im Angebot, die das andere Klientel abdecken.

=Floi=
2009-01-05, 19:57:39
wenn die performance passt, dann kann man auch alleine den 300-500€ bereich abdecken. Selbst eine 8800Ultra wird gutes geld eingebracht haben. Beim billigen krempel braucht man sehr viel mehr masse für den gleichen gewinn.

Coda
2009-01-05, 20:05:34
Und warum schneidet dann die 9600 GT bei Computerbase mit Qualitätseinstellungen durchweg besser ab als die 8800 GTS (G80), obwohl die 8800 GTS außer bei der Pixelfüllrate überall die besseren theoretischen Werte aufweisen kann?
Weil zwischen 9600GT und der ersten 8800GTS mehr als nur eine bloße Einheitenanzahlveränderung stattfand?

Gast
2009-01-05, 20:21:46
Das versucht NV ja derzeit auch, nur brechen die Margen aufgrund der großen Kerne und SIs dabei böse ein. Im Prinzip macht man es ATI dann gleich.



Es wird von Nvidia ganz sicher wieder eine Single-Chip Highend-Lösung geben, es ist einfach unvorstellbar, daß es keinen Hersteller von High-End Grafik-Chips mehr geben sollte.

LovesuckZ
2009-01-05, 20:34:55
Warum sollte der rv770 kein High-End sein?
Er ist 260mm^2 groß und spielt mit der Größe in einer Liga wie nv40, G70, G71 und r580.

mike49
2009-01-05, 20:35:40
GT212 ist afaik aber nicht als Performance GPU gedacht.

Als was denn sonst?

Wenn man sich die bisher durchgesickerten Spezifikationen anschaut paßt das IMHO genau in dieses Segment...

Spasstiger
2009-01-05, 20:42:24
Als was denn sonst?

Wenn man sich die bisher durchgesickerten Spezifikationen anschaut paßt das IMHO genau in dieses Segment...
Der GT212 ist High-End.

mike49
2009-01-05, 20:46:50
Der GT212 ist High-End.

Aus der Sicht, daß es dann die schnellste Single-GPU von nV ist: OK.

Aber wenn der erst in 6 Monaten kommt und dann max. 10% mehr als GTX285 bringt könnte ich mir vorstellen, daß ATI einen Strich durch diese Rechnung machen wird.

High-End (bzw. Enthusiast) bedeutet für mich nämlich auch einen Preis von min. 399$ ;)

Tarkin
2009-01-05, 20:54:59
Warum sollte der rv770 kein High-End sein?
Er ist 260mm^2 groß und spielt mit der Größe in einer Liga mit nv40, G70, G71 und r580.

bitte immer erst die Fakten überprüfen ... das ist nämlich so nicht ganz korrekt:

RV770 ~ 250mm^2

R580 ~ 350mm^2
G70 ~ 330mm^2

auch noch interessant:

G92 ~ 325mm^2
G92b ~ 270mm^2

... die würdest du auch nicht als High End bezeichnen, oder?

Coda
2009-01-05, 21:01:04
Warum sollte der rv770 kein High-End sein?
Er ist 260mm^2 groß und spielt mit der Größe in einer Liga wie nv40, G70, G71 und r580.
Weil G80 480mm² groß war und G200 576 mm² misst. Die Die-Sizes wurden im Laufe der Zeit immer größer. R600 hatte ja auch noch 420mm².

Aber möglicherweise ist es auch Zeit die Notbremse zu ziehen.

robbitop
2009-01-05, 21:13:03
Die Hersteller arbeiten nicht umsonst fieberhaft an einer Möglichkeit, so gut wie möglich eine Skalierung über mehrere GPUs zu erreichen. Die Die-Size ist trotz regelmäßigen Shrinks einfach explodiert. Hinzu kamen immer breitere Speicherinterfaces und immer höhere Entwicklungskosten pro Chipfamilie. Die Preise blieben jedoch gleich. Ergo mussten die Margen weichen. Und genau das versucht man in den Griff zu bekommen.

edit: danke für den Hinweis, Coda, du alter Spam0r ;)

Coda
2009-01-05, 21:17:59
Die ist keine Abkürzung.

reunion
2009-01-05, 21:27:06
Die Hersteller arbeiten nicht umsonst fieberhaft an einer Möglichkeit, so gut wie möglich eine Skalierung über mehrere GPUs zu erreichen. Die DIE-Size ist trotz regelmäßigen Shrinks einfach explodiert.

Es ist bei GPUs wohl einfach zu verlockend mit einem breiteren Chip die Leistung linear steigern zu können. Das Prestige den schnellsten Chip zu haben ist eben nicht ganz unbedeutend, wer nur den zweitschnellsten Chip hatte war der erste Verlierer.


Hinzu kamen immer breitere Speicherinterfaces und immer höhere Entwicklungskosten pro Chipfamilie. Die Preise blieben jedoch gleich. Ergo mussten die Margen weichen. Und genau das versucht man in den Griff zu bekommen.

Naja, ganz so ist es dann auch wieder nicht. Einzig der damals sehr schwache und heute sehr starke Euro ließen es für uns so aussehen als ob die Preise gleich geblieben wären. Eine 9700pro kostete zur Markteinführung damals $399, eine GTX280 $649. R300 war allerdings auch nur etwas über 200mm² groß, GT200 576mm². Die Karten wurden also durch die teure und immer kompliziertere Fertigung für immer weniger Kunden interessant, da die Preise mittlerweile zu hoch waren. Die Margen sanken natürlich auch, da man die explodierende Die-Size mit höheren Preisen kaum kompensieren konnte bzw. wollte. Dazu kamen Fertigungsprobleme und Verzögerungen.

Die Kunden warteten allerdings auf die kleineren Ableger, die aber erst entsprechend später mit kleineren Fertigungsprozessen kamen. Aus dieser Tatsache entsprang ja auch die neue Taktik von ATi. Man wollte nach dem Vorbild von R300 wieder einen kleineren Chip fertigen mit guten Margen, der mit einer guten "time-to-market" punkten konnte. Man hatte damit sofort einen leistbaren Midragechip, auf welchen die meisten Spieler bis dato immer warteten. Das High-End wurde eine X2, welche sich mit NVs Monster messen dürfte, die Lowend-Ablegen kamen auch entsprechend schneller. Das Ganze war wie man heute weiß ein voller Erfolg.

Gast
2009-01-05, 21:28:18
Die Hersteller arbeiten nicht umsonst fieberhaft an einer Möglichkeit, so gut wie möglich eine Skalierung über mehrere GPUs zu erreichen.

Davon ist bislang überhaupt nichts zu sehen. SLI und Crossfire funktionieren immer noch wie in der ersten Version vor über 4 Jahren.

reunion
2009-01-05, 21:40:33
Mit GDDR5 könnte die 32-Bit-Unterteilung aber wieder attraktiv werden. Ich schätze auf einen Leistungsvorteil von 20% durch 32 statt 16 ROPs an einem 256-Bit-SI im Fall des GT212. Und 20% mehr Chipfläche werden 16 zusätzliche ROPs ganz sicher nicht kosten.

Wenn dann ändert man etwas an der ROP-Anzahl pro MC. An eine feineren Granularität glaube ich wie gesagt nicht, das hat sich schon in der Vergangenheit nicht als sinnvoll erwiesen.

reunion
2009-01-05, 21:43:07
Vorallem unter der jetzigen Vorraussetzungen, dass der Markt um mehr als Hälfte des Preises eingebrochen ist.

Der Markt ist nicht wirklich im Preis eingebrochen, AMD verkauft die 4870 X2 seit jeher um $549, das ist nicht weniger als in der Vergangenheit. Nur Nv musste mangels Konkurrenzfähigkeit die Preise senken.

robbitop
2009-01-05, 22:01:10
Naja, ganz so ist es dann auch wieder nicht. Einzig der damals sehr schwache und heute sehr starke Euro ließen es für uns so aussehen als ob die Preise gleich geblieben wären. Eine 9700pro kostete zur Markteinführung damals $399, eine GTX280 $649. R300 war allerdings auch nur etwas über 200mm² groß, GT200 576mm².
218 sqm waren es IIRC. Das war damals allerdings ein ziemlicher Brummer ggü allem, was vorher dagewesen ist.
Was die Einführungspreise angeht: Eine 9700pro hat hier AFAIK zwischen 450 und 500 € gekostet und eine GT200 glaube ich zwischen 500 und 550 € (wobei die kurz darauf ja auch enorm im Preis wegen RV770 einbrach).
Man kann auch GPUs von vor 2 Jahren mit heutigen vergleichen, bei denen die Preise den heutigen entsprachen. Die Die-Sizes und SI Breiten jedoch noch bei 256 bit standen, die TDPs weit drunter waren, die Layeranzahl kleiner war und die Boardgrößen auch kleiner waren.

Ob man nun den € oder den $ als Richtwert sieht, ist die Frage. Ist ja auch noch Inflation etc dabei. Wie auch immer, in der Grundaussage sind wir uns ja dennoch einig. ;)

Davon ist bislang überhaupt nichts zu sehen. SLI und Crossfire funktionieren immer noch wie in der ersten Version vor über 4 Jahren.
Das ist richtig. Das Thema ist ja auch nicht ganz trivial zu lösen. Immerhin hat man mit Hydra einen neuen Ansatz und ich denke Herstellerintern wird an Methoden mit MCM und sehr breiten Interconnects auf einem Package gearbeitet.

Wenn dann ändert man etwas an der ROP-Anzahl pro MC. An eine feineren Granularität glaube ich wie gesagt nicht, das hat sich schon in der Vergangenheit nicht als sinnvoll erwiesen.
Beim R520/580 schien gerade der Speichercontroller ziemlich effizient zu arbeiten. Die AA-Performance war damals fantastisch IIRC. Ein bisschen wird das schon noch bringen.
Davon ab kann man auch die Z/Stencilfüllrate bei gleicher ROP-Anzahl erhöhen, in dem man die Anzahl der Z-Tester bspw. erhöht. Aber wie schon eingangs von mir erwähnt: die limitieren allein nie und nimmer. Da ist etwas mit dem Trisetup im Argen.

reunion
2009-01-05, 22:17:42
Man kann auch GPUs von vor 2 Jahren mit heutigen vergleichen, bei denen die Preise den heutigen entsprachen. Die Die-Sizes und SI Breiten jedoch noch bei 256 bit standen, die TDPs weit drunter waren, die Layeranzahl kleiner war und die Boardgrößen auch kleiner waren.


Da geben ich dir Recht. Nv hat nach dem starken R580 mit G80 wohl alles auf eine Karte gesetzt, und nachdem das voll aufging verlor man mit GT200 wohl vollkommen den Boden der Realität. Auf diesen wurde man aber schnell wieder zurück geholt. Ich erwarte in Zukunft eine deutliche Entspannung was die Die-Größen betrifft.

Ob man nun den € oder den $ als Richtwert sieht, ist die Frage.

Für die beteiligten Firmen ist nur der Dollar von Relevanz, alles andere wird nach aktuellen Wechselkursen umgerechnet.


Beim R520/580 schien gerade der Speichercontroller ziemlich effizient zu arbeiten. Die AA-Performance war damals fantastisch IIRC. Ein bisschen wird das schon noch bringen.


Natürlich wird es ein bisschen was bringen. Die Transistoreneffizienz ist allerdings nicht mehr gegeben. Es gibt Schätzungen wonach der 512-bit Ringbus mit acht 32-bit Controllern gut 1/3 der gesamten Die-Size eines R520 verschlang. Deshalb wurde ja der Ringbus mit RV770 auch aufgegeben, er war für die zusätzliche Leistung zu teuer.

LovesuckZ
2009-01-05, 22:33:44
bitte immer erst die Fakten überprüfen ... das ist nämlich so nicht ganz korrekt:

RV770 ~ 250mm^2

R580 ~ 350mm^2
G70 ~ 330mm^2

auch noch interessant:

G92 ~ 325mm^2
G92b ~ 270mm^2

... die würdest du auch nicht als High End bezeichnen, oder?

Bitte erst lesen, bevor man antwortet. :rolleyes:
r580 ist ca. 320mm^2 groß. r520 ist ca 280mm^2.
Fakt ist, dass der rv770 genauso High-End ist wie alles andere davor auch. Er ist komplett im Mittelfeld.

Da geben ich dir Recht. Nv hat nach dem starken R580 mit G80 wohl alles auf eine Karte gesetzt, und nachdem das voll aufging verlor man mit GT200 wohl vollkommen den Boden der Realität. Auf diesen wurde man aber schnell wieder zurück geholt. Ich erwarte in Zukunft eine deutliche Entspannung was die Die-Größen betrifft.

nVidia hat bestimmt im Januar 2006 angefangen den G80 zu designen und umzusetzen. :rolleyes:
Wie sieht deine Meinung eigentlich zum r600 aus? Hat AMD da auch alles auf eine Kappe gesetzt?
Deutlich Entspannung? Es gab erst drei Chips, die größer als 350mm^2 sind. Aber es ist bestimmt logischer zwei halbsogroße Chips für die selbe Leistung zu verwenden, wenn ein großer auch funktionieren würde...

Der Markt ist nicht wirklich im Preis eingebrochen, AMD verkauft die 4870 X2 seit jeher um $549, das ist nicht weniger als in der Vergangenheit. Nur Nv musste mangels Konkurrenzfähigkeit die Preise senken.

http://www.xbitlabs.com/news/video/display/20081112035812_ATI_Begins_to_Fight_Back_Market_Share_from_Nvidia_in_Desktop_Disc rete_Market_Segment.html

Der Markt ist klar eingebrochen. Niedrige Verkaufszahlen und niedrige Durchschnittsverkaufspreise.
Und AMD kann gerne etwas für 549$ verkaufen. Die Verkaufszahlen werden jedoch nichtmal annährend an die von früher heranreichen, da der Markt dort oben nicht mehr wirklich existent ist.

AnarchX
2009-01-05, 22:44:20
There are sources though that state that NV is going DX10.1 with the GT21x series. Not saying they are right this time around, but some of them have been correct in the past before.
http://forum.beyond3d.com/showpost.php?p=1253728&postcount=135

Sorkalm
2009-01-05, 23:36:03
http://forum.beyond3d.com/showpost.php?p=1253728&postcount=135

Würde mich ehrlich gesagt wundern. Erstens steht DX11 vor den Türen, warum noch entsprechenden Aufwand in der Entwicklung treiben? Außerdem hat man eh die Marketingabteilung mit Anti-"Stimmung" verbracht...

Sorkalm
2009-01-06, 01:10:54
Nochwas: Fudzillas Bericht (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11237&Itemid=1) über die GT212-News ist etwas untergegangen. Der ist nämlich insofern interessant, als das er neben dem Widergeben des bereits bekanntest folgendes schreibt:

Nvidia will follow suit by incorporating Hynix 7Gbps GDDR5 into its GT212

7 Gbps sind maximal 1,75 GHz Command-Takt, damit erreicht man maximal 240 GB/s 224 GB/s an einem 256 Bit Interface - das wird auf jeden Fall reichen...

AnarchX
2009-01-06, 09:18:44
Zwar will Hynix diese Chips 2009 ausliefern, aber ob das mengen- und preismässig passt ist imo doch eher fraglich.
Diese 7Gbps dürften wohl fast die maximale Ausbaustufe von GDDR5 sein.

Sofern NV wirklich auf die DP-ALUs verzichten sollte und generell die Transistordichte des Design noch etwas erhöht und somit einen <300mm² Die erhält, würde ich doch eher ~5Gbps GDDR5 sehen und einen Preis von <=$399.
Darüber gibt es dann sicherlich wieder eine GX2 mit effektiven > 300GB/s.

AnarchX
2009-01-06, 09:40:40
Hier geht es weiter:

nVidia - GT300 - Q4 2009, DX11, CUDA 3.0 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170)

nVidia - GeForce 200 @ 40nm - GT21x

nVidia - Kommende GeForce 200 (65/55nm), GTX 285 - Teil 3 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443169)