Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GeForce 200


Seiten : 1 2 [3] 4

Gast
2008-08-15, 19:23:56
Ja, gibt es über den Nachfolger, GT300, noch keinen Thread?

Denke, dass er aufgrund des vorgezogenen RV870 auch schon Anfang Q3 09, wenn nicht gar Q2 09 kommt...


Beide sollen wohl dann auch DirectX11 kompatibel sein,, obwohl das SDK selber etwas später erscheinen wird.

Gast
2008-08-15, 20:54:13
Ja, davon ist auszugehen, ebenfalls, dass er bereits in 40 nm gefertigt werden.

Gast
2008-08-16, 14:28:26
Ja, davon ist auszugehen, ebenfalls, dass er bereits in 40 nm gefertigt werden.Davon ist eher nicht auszugehen. Der Chip dürfte wieder zu groß werden, als eine Helstellung in 40nm wahrscheinlich ist.

Gast
2008-08-16, 15:08:16
40nm und DX11 sind für den Nachfolger des G200 sehr Wahrscheinlich, wenn nicht sogar sicher.

dargo
2008-08-16, 15:43:36
40nm und DX11 sind für den Nachfolger des G200 sehr Wahrscheinlich, wenn nicht sogar sicher.
Bisher war NV immer vorsichtig was einen kleineren Fertigungsprozess und High-End anbelangt, sicher ist da also noch gar nichts. Der Nachfolger könnte genauso in 55nm erscheinen und dessen Refresh erst in 40/45nm.

Adam D.
2008-08-16, 16:01:29
Naja, IMO ist Nvidia mit 65nm beim G200 mächtig auf die Schnauze geflogen. Eventuell ändert das die längerfristige Planung etwas.

Gast
2008-08-16, 16:12:23
Naja, IMO ist Nvidia mit 65nm beim G200 mächtig auf die Schnauze geflogen. Eventuell ändert das die längerfristige Planung etwas.Moment! So schlecht ist der G200 nicht und viel Geld hätte er auch erwirtschaftet, wenn nicht AMD/ATI etwas noch besseres gebaut hätten.

Adam D.
2008-08-16, 16:13:16
Moment! So schlecht ist der G200 nicht und viel Geld hätte er auch erwirtschaftet, wenn nicht AMD/ATI etwas noch besseres gebaut hätten.
Schlecht ist er nicht. Nur der Die ist mit fast 600mm² einfach bescheuert riesig. Man hätte IMO frühzeitig auf 55nm planen sollen.

Gast
2008-08-16, 16:14:50
Schlecht ist er nicht. Nur der Die ist mit fast 600mm² einfach bescheuert riesig. Man hätte IMO frühzeitig auf 55nm planen sollen.Oder das Design auf Größe optimieren, so wie es AMD/ATI nach eigener Aussage tat!

dargo
2008-08-16, 16:17:58
Naja, IMO ist Nvidia mit 65nm beim G200 mächtig auf die Schnauze geflogen.

Jetzt übertreibe mal nicht. ATI gings viel schlimmer mit dem R600.

Adam D.
2008-08-16, 16:21:53
Jetzt übertreibe mal nicht. ATI gings viel schlimmer mit dem R600.
Ich übertreib nicht. Der R600 war 'ne Design-Krücke, keine Frage. Aber wer gerade mal ein wenig mehr Leistung mit einem mehr als doppelt so großen Die als die Konkurrenz hinkriegt, der hat einfach große Fehler begangen.

Gast
2008-08-16, 16:30:08
Ich übertreib nicht. Der R600 war 'ne Design-Krücke, keine Frage. Aber wer gerade mal ein wenig mehr Leistung mit einem mehr als doppelt so großen Die als die Konkurrenz hinkriegt, der hat einfach große Fehler begangen.Ja, Fehler im Design, im Design der Architektur. Die Entscheidung auf 65nm zu gehen war bei dem großen Die aber wahrscheinlich kein Fehlentscheidung. Bei 55nm wäre die Ausbeute wohl noch schlechter geworden.

Adam D.
2008-08-16, 17:05:07
Dafür bin ich einfach nicht versiert genug in Technik-Fragen, aber ich denke mal, dass das 'ne verdammt knappe Entscheidung pro 65nm-Release war. Hätte man den Release des 55nm-Die forciert, wäre der G200b eventuell schon etwas früher in den Handel gekommen. Und 576mm² für 200-300€ zu verkaufen, dürfte schon weh tun.

dargo
2008-08-16, 17:12:40
Und 576mm² für 200-300€ zu verkaufen, dürfte schon weh tun.
Ich bin verblüfft, dass sich so viele Sorgen um einen IHV machen. Keine Angst, so schlecht gehts NV nun wirklich nicht. ;)

Und wenn du dein Gewissen beruhigen möchtest kannst ja NV was spenden. :D

Adam D.
2008-08-16, 17:16:02
Ich bin verblüfft, dass sich so viele Sorgen um einen IHV machen. Keine Angst, so schlecht gehts NV nun wirklich nicht. ;)
Ich weiß, hab ja auch nie etwas anderes behauptet. Trotzdem würde es weniger weh tun, wenn der G200 nur 400mm² groß gewesen wäre. Das ist alles, was ich sagen will.

Und wenn du dein Gewissen beruhigen möchtest kannst ja NV was spenden. :D
Noch mehr? ;) Die haben schon genug Geld von mir für Geforce 4, 7900GT und 8800GT bekommen.

Gast
2008-08-16, 17:33:35
Der GT300 wird in 40 nm kommen, da bin ich mir relativ sicher. Und genauso sicher, bin ich mir nahezu, dass der Chip nicht wieder diese Größe annimmt. Denke irgendwo zwischen 350-450 mm^2 wird man sich bewegen.
Man wird einen schnellen Chip präsentieren, bei dem man sich jedoch das Hintertürchen offen lassen wird, ihn nötigenfalls zu doppeln. Das aber auch nur als Option, wenn alle Stricke reißen.

AnarchX
2008-08-16, 17:39:01
NV hat halt RV770 deutlich unterschätzt, was selbst Jensen zugibt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6723092#post6723092), man plante wohl die GTX 200 wieder etwas länger für $649/449 verkaufen zu können. Aber daraus wurde bekanntlich nichts, G200B wird mit seinen ~470mm²(optischer Shrink) auch nicht viel mehr als Schadensbegrenzung sein.

Mal sehen was man jetzt noch aus dem Design bis zum Herbst 2009, wo die Forceware-Roadmap D3D11-Support vorsieht, was wohl mit einer entsprechenden GPU einhergeht, herausholen kann bzw. will.

Im B3D glaubt man daran, dass bei GT212 32SPs pro Cluster sein sollen.

Aber primär sollte es NV doch darum gehen, die Die-Size zu optimieren, denn in der pro mm² Leistung sieht es eher schlecht aus, auch für die G9x @55nm.

Der GT300 wird in 40 nm kommen, da bin ich mir relativ sicher. Und genauso sicher, bin ich mir nahezu, dass der Chip nicht wieder diese Größe annimmt. Denke irgendwo zwischen 350-450 mm^2 wird man sich bewegen.

Oder NV bastelt im geheimen an einer brauchbaren MGPU-Architektur, womit man kleine Dies effektiv verbinden kann, wie damals an der USA. ;)

dargo
2008-08-16, 17:48:56
Mal sehen was man jetzt noch aus dem Design bis zum Herbst 2009, wo die Forceware-Roadmap D3D11-Support vorsieht, was wohl mit einer entsprechenden GPU einhergeht, herausholen kann bzw. will.

Ich denke mal bis zur DX11 GPU wird nichts mehr kommen außer vielleicht einer neuen GX2 auf Basis von G200b (2x 192SPs mit eventuell etwas geringeren Taktraten und Spannung um die Verlustleistung bei <300W TDP zu halten?).


Oder NV bastelt im geheimen an einer brauchbaren MGPU-Architektur, womit man kleine Dies effektiv verbinden kann, wie damals an der USA. ;)
NV gab ja auch afaik zu, dass der G200 die letzte "SGPU" sein wird oder?

Fetza
2008-08-16, 19:08:00
NV hat halt RV770 deutlich unterschätzt, was selbst Jensen zugibt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6723092#post6723092), man plante wohl die GTX 200 wieder etwas länger für $649/449 verkaufen zu können. Aber daraus wurde bekanntlich nichts, G200B wird mit seinen ~470mm²(optischer Shrink) auch nicht viel mehr als Schadensbegrenzung sein.


Jetzt muss ich mal kurz zwischenfragen: Sagtest du neulich nicht, dass g200b einen linearen shrink erfahren haben sollte? Soweit ich weiss, wäre ein optischer shrink doch ungeeignet, die taktraten zu erhöhen.

Eigentlich sollte nv doch auch bemüht sein, gerade die taktraten zu erhöhen, denn durch die x2 sind sie doch gehörig unter druck geraten.

AnarchX
2008-08-16, 20:10:13
Jetzt muss ich mal kurz zwischenfragen: Sagtest du neulich nicht, dass g200b einen linearen shrink erfahren haben sollte?
55nm ist zu 65nm ein 90% linearer Shrink, was bedeutet dass ein 55nm Die laut TSMC 81% der größe des gleichen Dies in 65nm hat.


Soweit ich weiss, wäre ein optischer shrink doch ungeeignet, die taktraten zu erhöhen.


TSMC's 55nm process is a 90% linear shrink process from the 65nm process. It provides cost savings while maintaining the same speed with similar or lower power.
http://www.tsmc.com/english/b_technology/b01_platform/b010101_55nm.htm

Wenn NV etwas Glück hat, dann brauch G200B halt für die bisherige Taktrate weniger Spannung um die nun kleineren Transitoren korrekt schalten zu können, was wiederum eben Potential für höhere Taktraten erlaubt.

Aber um wirklich deutliche Verbesserungen zu erzielen muss am Design etwas verändert werden und das geht doch über eine B-Revision des G200 deutlich hinaus.


Eigentlich sollte nv doch auch bemüht sein, gerade die taktraten zu erhöhen, denn durch die x2 sind sie doch gehörig unter druck geraten.
Die GTX 280 steht doch momentan schon bei 180W real, wie soll man da noch die 30% höheren Taktraten um die 4870X2 in den Benchmarks zu erreichen draufpacken können?

Gast
2008-08-16, 20:14:47
Die GTX 280 steht doch momentan schon bei 180W real, wie soll man da noch die 30% höheren Taktraten um die 4870X2 in den Benchmarks zu erreichen draufpacken können?

Wo soll da das Problem sein, eine 4870X2 braucht doch noch wesentlich mehr.

Fetza
2008-08-16, 20:20:56
55nm ist zu 65nm ein 90% linearer Shrink, was bedeutet dass ein 55nm Die laut TSMC 81% der größe des gleichen Dies in 65nm hat.




http://www.tsmc.com/english/b_technology/b01_platform/b010101_55nm.htm

Wenn NV etwas Glück hat, dann brauch G200B halt für die bisherige Taktrate weniger Spannung um die nun kleineren Transitoren korrekt schalten zu können, was wiederum eben Potential für höhere Taktraten erlaubt.

Aber um wirklich deutliche Verbesserungen zu erzielen muss am Design etwas verändert werden und das geht doch über eine B-Revision des G200 deutlich hinaus.


Die GTX 280 steht doch momentan schon bei 180W real, wie soll man da noch die 30% höheren Taktraten um die 4870X2 in den Benchmarks zu erreichen draufpacken können?

Hmm ok, dass heißt dann wohl für mich, dass der g200b reichlich unspannend wird, da er im prinzip performancetechnisch nicht viel mehr bieten wird.

Dann spricht an sich ja doch nichts dagegen, sich gleich einen g200 zu besorgen, bisher dachte ich, das nv vielleicht nochmal eine schippe drauf legt bei der b-revision.

Also wenn man sich den kühler und die temperaturen der gtx 280 ansieht, und mal die garnicht übelen übertaktungserfolge des chips, hätte ich schon mit 700/1620/1200 bzw so in dem dreh gerechnet.

Gast
2008-08-16, 20:28:56
Im B3D glaubt man daran, dass bei GT212 32SPs pro Cluster sein sollen

Hast Du vielleicht einen Link? Das würde also heißen einen Chip mit 320 Shadereinheiten und weiterhin 80 TMUs?

Ist schon bekannt, wann der Chip kommt? Es wird ja wohl auf jedenfall auf 55 nm hinauslaufen...

Ailuros
2008-08-16, 20:56:12
NVIDIA wird frueher auf 40nm gehen als manche eigentlich glauben. Es sieht tatsaechlich so aus als ob sie nach einigen Jahren ihre bisherige Strategie aendern muessen.

Xaxas
2008-08-16, 21:07:55
Also wird man zeitgleich mit ATI in Q1/2009 auf 40 nm umstellen?

centurio81
2008-08-16, 21:11:44
Das weiß doch keiner..woher auch.
Man soll net alles glauben was im Forum geschrieben wird.. ;)

Xaxas
2008-08-16, 21:25:02
Du kannst davon ausgehen, dass Ailuros dies weiß. Er ist in der Hinsicht mindestens zehnmal so gut informiert wie alle anderen im Forum. =)

Fetza
2008-08-16, 21:35:16
Du kannst davon ausgehen, dass Ailuros dies weiß. Er ist in der Hinsicht mindestens zehnmal so gut informiert wie alle anderen im Forum. =)

Das mag stimmen, ist aber kein selbstläufer. :) Beim r770 hat er sich ja auch derbe verschätzt, wenn ich das richtig erinnere.;)

Adam D.
2008-08-16, 23:13:43
Das mag stimmen, ist aber kein selbstläufer. :) Beim r770 hat er sich ja auch derbe verschätzt, wenn ich das richtig erinnere.;)
Keiner, wirklich keiner konnte bei der Entwicklung den RV770 so stark einschätzen. Das ist schon ein kleines Meisterstück, was AMD da hingelegt hat.

PS: Ich wage es stark zu bezweifeln, dass wir im Q1/09 was neues von Nvidia sehen ... Erst recht nicht in 40nm.

centurio81
2008-08-16, 23:50:58
Du kannst davon ausgehen, dass Ailuros dies weiß. Er ist in der Hinsicht mindestens zehnmal so gut informiert wie alle anderen im Forum. =)

Jaja.. Und wenn er 20x so gut informiert ist..
Er ist nicht im Aufsichtsrat der Firmen..
Das is einer der Gründe wieso sich falsche Infos und Halbwahrheiten oder Schwachfug so schnell fortpflanzen in den Foren.
Einer plappert ein "Fakt" daher, und mindestens einer plapperts nach als "Fakt".

Leute, wir können alle nur raten. ;)

Ich persönlich glaube auch nicht, dass nVidia so schnell was neues aus dem Hut zaubern wird.
Sie habend den RV770 unterschätzt und jetzt wird erst mal gesehen, dass man den Gewinn mit dem GT200b etwas wieder verbessert.
Durch den starken billigen RV770 is das sicher nicht so gelaufen wie es sollte bei nVidia.. ^^
Aber ist ja nicht so dass der GT200 schlecht wäre.
Er ist nach wie vor der schnellste Chip am markt, das muss man einfach mal so sehen.
Und selbst der kleine GT200 hat noch mächtig Übertaktungspotential..
Der RV770 ist so gut wie am Limit..was die Taktung angeht.
RV770 ist ein billiger, moderner ausgestatteter Chip, aber nVidia hat mal wieder in Ami-Manier ein Monster losgelassen..
Und in der absoluten Leistung seh ich den GTX280 GANZ klar vorne.
Schaut euch die Benchmarks an..
Und so schnell werden die sicher mal nicht eben mal 40nm umspringen..und was 50% schnelleres aus dem Hut zaubern.
Das is unrealistisch..

Gast
2008-08-17, 00:26:56
Bisher war NV immer vorsichtig was einen kleineren Fertigungsprozess und High-End anbelangt, sicher ist da also noch gar nichts. Der Nachfolger könnte genauso in 55nm erscheinen und dessen Refresh erst in 40/45nm.

Es ist doch Sonnen klar das der erste 40nm Chip von NV ein art G200 sein wird, Tick Tock Modell wie es in diesem Bereich einfach üblich ist!

G71 90nm alt
G80 90mm neu
G92 65nm alt
G200 65nm neu
G200 55nm zwischen ding
"G200" 40nm alt sicher mit Änderungen
G300(?) 40nm neu
usw.

Der G200 Nachfolger wird also zu 100% in 40nm sein, einen neuen Chip in 55nm oder sogar 65nm werden wir ganz sicher nicht mehr sehen!

Gast
2008-08-17, 00:28:03
....übrigens macht ATI immer exakt das selbe beim Herstellungverfahren.

Psychopat
2008-08-17, 01:04:13
Der RV770 ist so gut wie am Limit..was die Taktung angeht.

Am Limit? Es ist eher so, dass der RV770 ein bisschen kniffelig ist, was übertakten angeht. Es fehlt noch ein geeignetes Tool, um die RV770 zu übertakten. Bei der 4850 lässt Overdrive nicht mehr als 700 MHz zu, weswegen so ziemlich jedes Review der 4850 genau diesen Takt als OC-Potential bescheinigt.

Wenn man sich jedoch umschaut und mal Seiten besucht wo Leute übertakten die Ahnung davon haben, findet man wen der seine 4850er auf 950 MHz mit Wasser bringt. 50% Taktpotential finde ich mal nicht übel...

Links: (evtl. runterscrollen)
4850er @ 950 MHz (http://www.hwbot.org/result.do?resultId=750212)
übersicht 4850er (http://www.hwbot.org/quickSearch.do?hardwareId=GPU_1362)
übersicht 4870er (http://www.hwbot.org/quickSearch.do?hardwareId=GPU_1361)

centurio81
2008-08-17, 01:35:37
Ja mit Wasser.. ^^
Wenn der GTX280/260 sich schon deutlich besser unter Luft übertakten lässt, wie dann erst unter Wasser..?
Unter Luftkühlung geht nich grade viel mit dem RV770..

Und auch wenn man ne 4850 übertaktet..mag ja sein, dass dei auf 700 MHz geht..
Aber wenn man auf der selben Seite von dir mal schaut nach ner 4870, rangieren die da um die 800 MHz..
Und von 750 auf 800 oder etwas drüber sind nen paar Prozentchen..
Was sich auch mit meinen Erfahrungen deckt, meine macht stabil keine 830 im Dauerbetrieb mit, also unter längerer belastung.

Und ein geeignetes Tool ist das AMD Tool. Das tuts absolut.

Schaut man hingegen mal dass die meißten mit ihrer GTX280 schon die 700-750 schaffen, is das von 600 MHz aus ein deutlich größerer Sprung, traditionell so wie es auch bei den G80 und G92 recht viel war, abhängig von Revisionen..Und ich bin gespannt wie weit dann die GT200b erst gehen, sicher noch was höher.
Und der RV770 ist schon 55 nm..!

Was Übertaktung angeht ist ne nVidia im Moment immernoch besser..meine Meinung.

Ailuros
2008-08-17, 08:24:31
Das mag stimmen, ist aber kein selbstläufer. :) Beim r770 hat er sich ja auch derbe verschätzt, wenn ich das richtig erinnere.;)

Derbe ist gut. Das einzige was ich konstant betonte ist dass das FLOP zu FLOP Verhaeltnis kein guter Massstab ist und es hat sich an dem kein bisschen etwas geaendert. Eine einzige 4870 hat theoretisch etwas weniger als 30% mehr GFLOPs als eine 280, kann aber diese nicht schlagen. Dafuer braucht AMD eben dann zwei cores mit ~2.5x mal so viel FLOPs.

Dass NV an einem monstroesen die arbeitet war auch kein Geheimnis.

Jaja.. Und wenn er 20x so gut informiert ist..
Er ist nicht im Aufsichtsrat der Firmen..
Das is einer der Gründe wieso sich falsche Infos und Halbwahrheiten oder Schwachfug so schnell fortpflanzen in den Foren.
Einer plappert ein "Fakt" daher, und mindestens einer plapperts nach als "Fakt".

Und ich hab mich auch nie als solcher vorgestellt oder relevantes angedeutet. Auf jeden Fall hatte ich bisher mehr als oefters das "Glueck" den Unsinn diverser trash-tabloid Seiten richtig hinbiegen zu koennen. Moment ich komm gleich wieder auf's Thema zurueck...

Leute, wir können alle nur raten.

Dann muesste ich aber ein verdammt grosses Talent haben und muesste eigentlich auch Lotto-Gewinn-Zahlen hervorsehen koennen.

Und damit wir endlich zurueck zum Thema kommen: NVIDIA geht mit allhoechster Wahrscheinlichkeit auf 40nm bei ihrer naechsten Generation. Wenn ein hochrangiger engineer bei NV luegt, dann luege ich natuerlich auch.

***edit: nix da mit 40nm und GT2x0 (fuer den Gast weiter oben).

Fetza
2008-08-17, 08:26:25
Ja mit Wasser.. ^^
Wenn der GTX280/260 sich schon deutlich besser unter Luft übertakten lässt, wie dann erst unter Wasser..?
Unter Luftkühlung geht nich grade viel mit dem RV770..

Und auch wenn man ne 4850 übertaktet..mag ja sein, dass dei auf 700 MHz geht..
Aber wenn man auf der selben Seite von dir mal schaut nach ner 4870, rangieren die da um die 800 MHz..
Und von 750 auf 800 oder etwas drüber sind nen paar Prozentchen..
Was sich auch mit meinen Erfahrungen deckt, meine macht stabil keine 830 im Dauerbetrieb mit, also unter längerer belastung.

Und ein geeignetes Tool ist das AMD Tool. Das tuts absolut.

Schaut man hingegen mal dass die meißten mit ihrer GTX280 schon die 700-750 schaffen, is das von 600 MHz aus ein deutlich größerer Sprung, traditionell so wie es auch bei den G80 und G92 recht viel war, abhängig von Revisionen..Und ich bin gespannt wie weit dann die GT200b erst gehen, sicher noch was höher.
Und der RV770 ist schon 55 nm..!

Was Übertaktung angeht ist ne nVidia im Moment immernoch besser..meine Meinung.

Naja, beim gtx 260 ist auch spätestens bei 648 schluss, in der regel. Aber ehrlich gesagt wären die hersteller doch auch blöd, wenn sie extreme taktungsspielräume brach liegen ließen. Da sind 50-70 mhz mehrtakt halt eben das, was eingeplant wird, damit so eine graka auch in der sahara vernünftig läuft.

Ailuros
2008-08-17, 08:32:41
Ich hab keine besondere Hoffnung dass GT200b einen grandiosen Unterschied machen wird; zumindest deutet bis jetzt keine zuverlaessige Quelle solches an.

Im besten Fall kommt das Ding einer R700 so nahe wie moeglich und es wird noch mehr Preisdruck nach unten geben.

Obwohl ich immer noch gigantische Vorbehaltungen fuer Larabee habe, wuensche ich mir doch irgendwo ganz tief in mir dass das Ding AMD und NVIDIA ein paar gute Ohrfeigen verpassen kann.

centurio81
2008-08-17, 11:51:12
Und ich hab mich auch nie als solcher vorgestellt oder relevantes angedeutet. Auf jeden Fall hatte ich bisher mehr als oefters das "Glueck" den Unsinn diverser trash-tabloid Seiten richtig hinbiegen zu koennen. Moment ich komm gleich wieder auf's Thema zurueck...


Ich auch nicht.. ;)
Ich hab nur auf das leicht provokative Post von Xaxas geantwortet..
Also wenn du so gut vorhersagen kannst, dann solltest du ernsthaft erwägen mit größeren Summen ins Aktiengeschäft einzusteigen..! ;)

Gast
2008-08-17, 12:28:44
Und damit wir endlich zurueck zum Thema kommen: NVIDIA geht mit allhoechster Wahrscheinlichkeit auf 40nm bei ihrer naechsten Generation. Wenn ein hochrangiger engineer bei NV luegt, dann luege ich natuerlich auch.

***edit: nix da mit 40nm und GT2x0 (fuer den Gast weiter oben).

Mit Next Gen meinst du einen GT3x0 (wie auch immer der Name ist) oder die kleineren GT2x0 Modelle? Oder gibt es diesmal keine "kleinen" GT2x0 Modelle und nV Shrinkt die G9x Derivate auf 55nm-40nm, bis die neue Generation GT3x0 erscheint?

Hängt der Release der GeForce GTX380 mit dem erscheinen von D3D11 zusammen? Wäre doch schlecht, wenn man Mai 2009 einen D3D10.x GPU bringt und der Refresh für Januar 2010 schon mit D3D11 aufwarten muss.

Xaxas
2008-08-17, 12:52:43
@ centurio81

Ailuros schreibt doch eindeutig, dass er die Kontakte hat und nicht gut vorhersehen kann. Verstehe daher deinen Post nicht so wirklich.

@ Gast

Ailuros schreibt ausdrücklich von der nächsten Generation und schließt dabei sogar GT2x0 aus. Warum dann die nochmalige Nachfrage kommt, ist mir ebenso unklar.

centurio81
2008-08-17, 13:04:06
@ centurio81

Ailuros schreibt doch eindeutig, dass er die Kontakte hat und nicht gut vorhersehen kann. Verstehe daher deinen Post nicht so wirklich.


Ach so, na wenn er das behauptet dann muss das ja stimmen..
Ich hab bloß auf genannten post reagiert und was er sonst je geschrieben hat, weiß ich doch gar net..
Ich kenn net jeden im Forum so gut, das ich weiß was er behauptet und weiß.

aylano
2008-08-17, 13:33:35
***edit: nix da mit 40nm und GT2x0 (fuer den Gast weiter oben).
Einen 40nm GT200 hätte ich auch nicht so schnell erwartet. Da einfach die Die zu Groß ist und somit nicht zur gleichen zweit wie der HD4800-45 bzw. RV870-45nm raus gebracht werden kann.

Und dann wäre ein GT200-40nm zu knapp vor dem GT300.

Eher glaube ich, Nvidia bringt den G92 auch noch in 40nm raus. Schließlich hat diese die ähnliche Größe wie der RV770, wodurch Nvidia eine Konkurrenz-GPU zur selben Zeit raus bringen kann.

Oder statt der G92 gibts noch eine neue (DX10 oder DX10.1) Performance-GPU mit ca. 196SP in 40nm.

So könnte es sein, wenn DX11 erst im 3Q 2009 kommt.
Alles andere wäre doch eine Überraschung wie 9800GTX+ & HD4800.

Gast
2008-08-17, 18:14:33
Niemand redet von einem weiteren Refresh Shrink des originalen GT200. Deswegen steht da auch GT2x0, damit sind die kleineren GPU basierend auf der GT200 Architektur gemeint.

Psychopat
2008-08-17, 18:41:34
Eher glaube ich, Nvidia bringt den G92 auch noch in 40nm raus.

Wie oft soll nVidia das G80 Design denn noch recyclen??? Reicht die dritte Ausführung als G92b nicht schon aus? Gibt's wirklich noch Leute die ne 8800GT wollen?

Ein G92 kommt ganz bestimmt NICHT in 40 nm, weil dann schon die neue DX11 Architektur da ist und wenn dann die für einen performance- und lowend-Chip herhält.

Fetza
2008-08-17, 19:05:05
Und damit wir endlich zurueck zum Thema kommen: NVIDIA geht mit allhoechster Wahrscheinlichkeit auf 40nm bei ihrer naechsten Generation. Wenn ein hochrangiger engineer bei NV luegt, dann luege ich natuerlich auch.

***edit: nix da mit 40nm und GT2x0 (fuer den Gast weiter oben).

Mit dieser generation wird aber wohl nichtmehr im 1Q/2009 zu rechnen sein, oder?

Edit: Aber nein, sollte dieser hochrangige engineer von nv lügen, so trägst du diese lüge zwar weiter, nimmst aber selbst an, damit die wahrheit zu sagen. Somit würdest du also nicht lügen. ;)

AnarchX
2008-08-17, 19:47:52
NVIDIA says it will win back performance leadership this year (http://channel.hexus.net/content/item.php?item=14993&page=2)
While we're unable to draw either of them on whether or not this will happen, when we ask them if they expect to regain the performance leadership this year, Stam says "Yes".

Adam D.
2008-08-17, 19:57:41
Dann müssen sie dieses Jahr noch eine GX2 basteln. Ob das sie das schaffen, bezweifle ich jetzt mal.

Sorkalm
2008-08-17, 20:39:03
Kann eigentlich nur ein Gespann aus zwei GT200b sein, oder?

Man könnte überlegen, ob sie das Speicherinterface aus 2x 256 Bit oder ähnlich reduzieren (auch wenn der eigentliche Chip mehr hat) um das Board-Layout erträglich zu machen. Bandbreite erreicht man über GDDR5, genügend große Speicherchips dürfte es dann auch geben. Würde nur ROPs kosten.

Und thermisch muss man sich was ausdenken - 286 Watt des R700 sind zwar eine Hausnummer, aber noch innerhalb der PCIe-2.0-Spezifikation. Fragt sich ob man die einhalten will und kann. Enthusiasten kann man sicher auch 2x 8-Pin-Stecker andrehen. :D

Dann müssen sie dieses Jahr noch eine GX2 basteln. Ob das sie das schaffen, bezweifle ich jetzt mal.

Bei der Sandwich-Bauweise müsste das relativ unkompliziert sein, auch wenn die natürlich im keinen Sinne ökonomisch werden würde. Aber darum gehts wahrscheinlich auch nicht.

Undertaker
2008-08-17, 21:27:57
Dann müssen sie dieses Jahr noch eine GX2 basteln. Ob das sie das schaffen, bezweifle ich jetzt mal.

Wo wäre das schaffen ein Problem? Die Leistungsaufnahme einer GTX260 liegt unter der 4870 ;) Aber ob man das will und ein weiteres Monster wie die 4870X2 bauen möchte...?

Gast
2008-08-17, 22:00:36
Naja, beim gtx 260 ist auch spätestens bei 648 schluss, in der regel. Aber ehrlich gesagt wären die hersteller doch auch blöd, wenn sie extreme taktungsspielräume brach liegen ließen. Da sind 50-70 mhz mehrtakt halt eben das, was eingeplant wird, damit so eine graka auch in der sahara vernünftig läuft.

Sicher nicht, fast jede macht 700MHz mit LuKü, unter Wakü sind bis 800MHz möglich, das selbe gilt auch für die 280er.

Der RV770 ist unter LuKü bei 850MHz am ende, WaKü liegen dann nach etwa 900MHz drin, alles über 900MHZ ist extrem schwierig und meistens nicht mal mit mehr Spannung möglich.

reunion
2008-08-17, 22:07:02
Wo wäre das schaffen ein Problem?

Das Package eines GT200 ist riesig. Man braucht einen NVIO, 2x 512-bit SIs, 32(!) Speicherbausteine. Ein GT200 in Form der GTX280 (man wird sicher keinen abgespeckten verbauen) verbraucht real bereits 180W. In Sandwichbauweise will ich erstmal sehe wie man ein solches Monster kühlen kann.


Die Leistungsaufnahme einer GTX260 liegt unter der 4870 ;)

Tut sie nicht. Siehe xbitlabs. Messungen des Gesamtsystems sind witzlos.

dargo
2008-08-17, 22:11:55
Das Package eines GT200 ist riesig. Man braucht einen NVIO, 2x 512-bit SIs, 32(!) Speicherbausteine.

Nö, 28 reichen. Schließlich soll die GX2 aus zwei "GTX 260-ern" bestehen.


Ein GT200 in Form der GTX280 (man wird sicher keinen abgespeckten verbauen) verbraucht real bereits 180W. In Sandwichbauweise will ich erstmal sehe wie man ein solches Monster kühlen kann.
Was hat die GTX 280 damit zu tun?

reunion
2008-08-17, 22:17:20
Nö, 28 reichen. Schließlich soll die GX2 aus zwei "GTX 260-ern" bestehen.

Sagt wer? Du? Man wird keinen abgespeckten GT200 auf einer GX2 verbauen. Das ist ökonomischer Unsinn. Wenn dann eine niedriger getaktete GTX280. Zudem würde man mit zwei GTX260er bestenfalls einen Gleichstand erreichen.

Adam D.
2008-08-17, 22:17:38
Wenn, dann würde man die GX2 mit dem G200b basteln, deshalb sind Vergleiche mit GTX260/280 nur bedingt sinnvoll. Ich stimme reunion aber vollkommen zu, so eine GX2 würde doch wirklich an die Grenzen des Möglichen gehen. 2 Riesen-Dies mit hoher Verlustleistung in Sandwich-Bauweise? Das dürfte Richtung Baustellenlärm gehen :rolleyes: So nötig hat man die Performance-Krone IMO nicht...

Undertaker
2008-08-17, 22:19:06
Das Package eines GT200 ist riesig. Man braucht einen NVIO, 2x 512-bit SIs, 32(!) Speicherbausteine. Ein GT200 in Form der GTX280 (man wird sicher keinen abgespeckten verbauen) verbraucht real bereits 180W. In Sandwichbauweise will ich erstmal sehe wie man ein solches Monster kühlen kann.

Größere Fläche bei gleicher Abwärme bedeutet eigentlich leichtere Kühlbarkeit... Und warum kann es keine abgespeckte Variante sein? Zu G71 Zeiten hat man auch die, zumindest taktmäßig abgeschwächte, 7950GT genommen...

Tut sie nicht. Siehe xbitlabs. Messungen des Gesamtsystems sind witzlos.

Bei identischem Gesammtsystem fällt mir dazu keine schlüssige Erklärung ein. Die meisten Seiten sehen sie leicht vor der GTX260, siehe

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=22
http://en.expreview.com/2008/06/24/first-review-hd-4870-and-hd-4850/5/
http://hothardware.com/Articles/ATI_Radeon_HD_4850_and_4870_RV770_Has_Arrived/?page=12
http://www.tomshardware.com/reviews/radeon-hd-4870,1964-15.html

Es scheint aber zwischen einzelnen Karten einige Schwankungen zu geben, deswegen kann das in Einzelfällen wohl auch mal anders aussehen. Die Abwärme einer solchen Karte wäre zumindest in jedem Fall handelbar, wenn man dies bei der 4870X2 auch so nennen möchte ;) Aber ihr habt Recht, in 65nm wird soetwas eh nicht kommen, eine hinfällige Diskussion.

dargo
2008-08-17, 22:32:37
Sagt wer? Du? Man wird keinen abgespeckten GT200 auf einer GX2 verbauen. Das ist ökonomischer Unsinn. Wenn dann eine niedriger getaktete GTX280. Zudem würde man mit zwei GTX260er bestenfalls einen Gleichstand erreichen.
Eine GX2 wird sicherlich aus zwei GT2x0 (55nm) bestehen. Und 2x 192SPs @~650Mhz (viel mehr würde ich bei einer "GTX 270" nicht erwarten) sollten für oder gegen eine HD4870X2 reichen.

igg
2008-08-18, 13:18:42
Eine GX2 auf Basis von 2 GTX260 @ 55nm könnte ich mir gut vorstellen. Dann hätte Nvidia auf dem Papier wieder die Performancekrone und könnte mit den SGPUs auf GT200b Basis die Produktlinie in besseres Fahrwasser (Kosten, Verbrauch, Abwärme) bringen.

Fetza
2008-08-18, 19:29:00
Eine GX2 wird sicherlich aus zwei GT2x0 (55nm) bestehen. Und 2x 192SPs @~650Mhz (viel mehr würde ich bei einer "GTX 270" nicht erwarten) sollten für oder gegen eine HD4870X2 reichen.

Da nvidia aber warscheinlich einen g200b nicht einfach mal um 48 sp kastrieren kann, sondern den chip wohl auch neu designen muss, stellt sich die frage, ob sie sich diese kosten auferlegen.

Ich persönlich finde das auch nicht sinnvoll, dann doch eher wieder g200b auschuss für die eventuellen gx2 karte nehmen.

dargo
2008-08-18, 19:46:01
Da nvidia aber warscheinlich einen g200b nicht einfach mal um 48 sp kastrieren kann, sondern den chip wohl auch neu designen muss, stellt sich die frage, ob sie sich diese kosten auferlegen.

Wie bitte? Was hat denn NV mit der GTX 260 gemacht? :wink:
Nur die GTX 280 mit dem G200b zu ersetzen wäre wohl reichlich dämlich, findest du nicht? :)

Fetza
2008-08-19, 01:41:45
Wie bitte? Was hat denn NV mit der GTX 260 gemacht? :wink:
Nur die GTX 280 mit dem G200b zu ersetzen wäre wohl reichlich dämlich, findest du nicht? :)

Dann meinst du also, dass nv für die eventuelle gx2 einfach zwei teildeaktivierte g200b nimmt? :)

Ja sicher, das wäre ökonomisch, praktisch wird der auschuss dann zu einer gx2 veredelt. Aber teildeaktivierte chips für sli find ich irgendwie trotzdem blöd. :D

dargo
2008-08-19, 09:16:05
Dann meinst du also, dass nv für die eventuelle gx2 einfach zwei teildeaktivierte g200b nimmt? :)

Warum nicht? Je nachdem wie hoch der GPU-Takt ausfällt sollten 2x 648Mhz (eventuell 670Mhz) mit 2x 192SPs für eine HD4870X2 reichen. Natürlich könnte man auch den G200b mit 240SPs für eine GX2 nehmen. Hier dürfte es aber zu großen Problemen mit der TDP kommen.

Ja sicher, das wäre ökonomisch, praktisch wird der auschuss dann zu einer gx2 veredelt. Aber teildeaktivierte chips für sli find ich irgendwie trotzdem blöd.
Warum? Eine GTX 290 (?) sollte man damit deutlich schlagen können, zumindest bei der Balkenlänge.

AnarchX
2008-08-19, 09:57:00
Warum nicht? Je nachdem wie hoch der GPU-Takt ausfällt sollten 2x 648Mhz (eventuell 670Mhz) mit 2x 192SPs für eine HD4870X2 reichen. Natürlich könnte man auch den G200b mit 240SPs für eine GX2 nehmen. Hier dürfte es aber zu großen Problemen mit der TDP kommen.

Es gäbe ja auch noch den Zwischenschritt 9 Cluster, also 216 SPs.

reunion@work
2008-08-19, 10:01:33
Warum nicht? Je nachdem wie hoch der GPU-Takt ausfällt sollten 2x 648Mhz (eventuell 670Mhz) mit 2x 192SPs für eine HD4870X2 reichen. Natürlich könnte man auch den G200b mit 240SPs für eine GX2 nehmen. Hier dürfte es aber zu großen Problemen mit der TDP kommen.


Genau das Gegenteil ist der Fall. Gerade aus TDP Sicht ist es sinnvoll einen vollen GT200b zu nehmen und keinen teildeaktivierten. Darauf habe ich dich weiter hinten schon hingewiesen. Du wirst keinen teildeaktivierten Chip auf einer GX2 sehen.

reunion@work
2008-08-19, 10:09:42
Bei identischem Gesammtsystem fällt mir dazu keine schlüssige Erklärung ein.

Die Effizienzkurve eines Netzteils ist nicht linear. Je nach Belastung der unterschiedlichen Stränge kann es hier zu starken Schwankungen hinter dem Netzteil kommen trotz identischer Leistungsaufnahme der Komponente.

igg
2008-08-19, 10:17:51
We've learned that Nvidia is working hard to get its performance crown back. Nvidia is planning to introduce a few products that might change the game, but it doesn’t look that rosy for the green goblin.

The first projection are showing that if GT200 55nm as an optical shrink of GT200 65nm won’t have enough performance headroom to beat the Radeon HD 4870 X2 also well known as R700 card. No matter how high they clock, it might not be enough.

Nvidia might be adding some more horsepower to this chip and the thermals will be much better which might imply that there is a change. GT200 55nm with more Shaders and some additional architectural adjustments might have a chance.
Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8951&Itemid=34)

Offenbar ist man sich bei Fud nicht sicher, ob der GT200b nur ein Shrink + Taktratenerhöhunh ist oder noch andere Modifikationen mit sich bringt.

Adam D.
2008-08-19, 10:28:04
Wo sollte auch der Taktsprung mit dem 55nm-Prozess herkommen? Soviel kann da gar nicht drin sein...

Die Architektur zu erweitern, wäre eine Option. Aber die X2 ist einfach zu weit weg, wenn CF mal richtig funzt, da wird das auch nur bedingt helfen.

reunion@work
2008-08-19, 10:52:46
Der Chip wird selbst in 55nm noch immer enorm fett sein. Kaum vorstellbar das man hier noch mehr in die Breite geht.

Adam D.
2008-08-19, 11:03:46
Der Chip wird selbst in 55nm noch immer enorm fett sein. Kaum vorstellbar das man hier noch mehr in die Breite geht.
Wenn man muss (und kann)? Naja gut, der Sinn des Shrinks wär hin.

dargo
2008-08-19, 14:25:46
Es gäbe ja auch noch den Zwischenschritt 9 Cluster, also 216 SPs.
Ohne die genauen Specs vom G200b zu kennen ist es eh etwas schwierig zu spekulieren. Es gibt ja mehrere Möglichkeiten.

Genau das Gegenteil ist der Fall. Gerade aus TDP Sicht ist es sinnvoll einen vollen GT200b zu nehmen und keinen teildeaktivierten. Darauf habe ich dich weiter hinten schon hingewiesen. Du wirst keinen teildeaktivierten Chip auf einer GX2 sehen.
Zwei volle G200b dürften bei ~480W TDP liegen. Na die GX2 will ich mal sehen. X-D

Spasstiger
2008-08-19, 14:30:27
Du wirst keinen teildeaktivierten Chip auf einer GX2 sehen.
Dafür spricht auch, dass die 7900/7950 GX2 und die 9800 GX2 keine teildeaktivierten Chips haben, obwohl auch bei diesen Karten jeweils über abgespeckte Chips spekuliert wurde (z.B. zwei 7900 GS als 7900 GX2 oder zwei 8800 GT als 9800 GX2).

Erstmal abwarten, wie weit 55 nm dem GT200 helfen. Selbst mit nur 500 MHz Chiptakt und 1200 MHz Shadertakt wäre eine GTX 280 GX2 mehr als konkurrenzfähig. Ein niedrigerer Takt ist auf jeden Fall sinnvoller als weniger Recheneinheiten, weil man mit dem niedrigeren Takt auch niedrigere Spannungen fahren kann. Und die Übertakter freuts auch, wenn sie noch ordentlich OC-Potential haben, was dann natürlich auf Kosten der Leistungsaufnahme geht.

Weniger Recheneinheiten machen nur Sinn, wenn man viel Überschuss hat und günstig loswerden will -> scheidet bei einem High-End-Produkt wie der GX2 aus, der Käufer will keinen Ausschuss.
Oder wenn man einen Chip generell kleiner und günstiger produzieren will -> auch das passt nicht zu einer High-End-Karte.

Gast
2008-08-19, 14:33:07
Zwei volle G200b dürften bei ~480W TDP liegen. Na die GX2 will ich mal sehen. X-D

Nein, das wären etwa 320W TDP.

dargo
2008-08-19, 14:35:12
Nein, das wären etwa 320W TDP.
Aha, und wie kommst du zu dieser Annahme?

|MatMan|
2008-08-19, 16:48:14
Für eine GX2 ist es doch vom Stromverbrauch her viel sinnvoller einen ganzen G200b zu nehmen und dafür Spannung und Takt etwas zu senken.

"breiterer Chip" + niedriger Takt = weniger Stromverbrauch als "schmallerer Chip" + hoher Takt

dargo
2008-08-19, 17:20:35
"breiterer Chip" + niedriger Takt = weniger Stromverbrauch als "schmallerer Chip" + hoher Takt
Nicht unbedingt. Eine GTX280 verbraucht im Prinzip genau das mehr als eine GTX260 was sie auch mehr leistet.

Nightspider
2008-08-19, 17:57:44
Aha, und wie kommst du zu dieser Annahme?

Weile eine HD4870X2 trotz 4mal soviel VRAM und nem Zusatzchip nicht annähernd den Verbrauch von 2*HD4870 hat.

(zumindest soweit ich das in Erinnerung habe)

Gast
2008-08-20, 15:08:09
Laut Fudzilla soll GT200b erst im vierten Quartal kommen, dafür allerdings mit GDDR5-Speicher und einer Performance, die über R700 anzusiedeln ist.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8987

clockwork
2008-08-20, 15:12:49
Laut Fudzilla soll GT200b erst im vierten Quartal kommen, dafür allerdings mit GDDR5-Speicher und einer Performance, die über R700 anzusiedeln ist.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8987
Und so viel Strom verballert wie der R700? Können die dann ruhig behalten... wobei ich Fudzilla sowieso nicht glaube. :rolleyes:

Sorkalm
2008-08-20, 15:14:45
Hmm, erst im Q4? Hat man da noch einen Respin für höhere Taktraten eingelegt?

Anarchy-HWLUXX
2008-08-20, 15:18:21
Laut Fudzilla soll GT200b erst im vierten Quartal kommen, dafür allerdings mit GDDR5-Speicher und einer Performance, die über R700 anzusiedeln ist.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8987
Das ist wunschdenken und keine info einer "quelle" ...

Sorkalm
2008-08-20, 15:31:53
Das ist wunschdenken und keine info einer "quelle" ...

Soll das je ne allgemeine Aussage zu Fudo oder speziell zu dieser News sein?

Anarchy-HWLUXX
2008-08-20, 15:36:27
Soll das je ne allgemeine Aussage zu Fudo oder speziell zu dieser News sein?
Zu dieser news.

Wenn man diese liest ist allein der Zeitraum Q4/2008 von der "Quelle", der rest sind blanke Spekulationen ...

Sorkalm
2008-08-20, 15:37:34
Dann scheint ja zumindest der Zeitrahmen zu stimmen.
Das Fudo viel drum herum spekuliert, ist ja nix neues. ;)

Gast
2008-08-20, 15:51:46
Naja, vielleicht hat man sich ja wirklich dafür entschieden, einen taktstarken GT200b, sozusagen eine selektierte, Ultra zu bringen. Würde Nvidia jedenfalls weniger kosten, als den GT200b zu doppeln. Das steht fest. ;)

AnarchX
2008-08-21, 08:26:33
GTX 260 mit 216SPs im September = GTX 270? (http://en.expreview.com/2008/08/21/nvidia-will-offer-a-upgraded-gtx-260-in-mid-september/)

Da sie so der GTX 280 doch ziemlich nah kommen würden, wird wohl in diesem Zeitraum auch GT200-400 aka GTX 290? erwarten zu sein.

igg
2008-08-21, 09:12:05
GTX 260 mit 216SPs im September = GTX 270? (http://en.expreview.com/2008/08/21/nvidia-will-offer-a-upgraded-gtx-260-in-mid-september/)

Da sie so der GTX 280 doch ziemlich nah kommen würden, wird wohl in diesem Zeitraum auch GT200-400 aka GTX 290? erwarten zu sein.
Dieses Namensschema würde insofern Sinn ergeben, als dasss sie die alten GT200 (260 & 280) nicht verschebeln müssen sondern weiter vertreiben könnten.

James Ryan
2008-08-21, 13:02:30
GTX 260 mit 216SPs im September = GTX 270? (http://en.expreview.com/2008/08/21/nvidia-will-offer-a-upgraded-gtx-260-in-mid-september/)

Da sie so der GTX 280 doch ziemlich nah kommen würden, wird wohl in diesem Zeitraum auch GT200-400 aka GTX 290? erwarten zu sein.

Wenn der Preis ähnlich bleibt, eine sehr sehr interessante Karte! :biggrin:
Ist nur die Frage, ob das Ding noch in 65nm kommt oder direkt in 55nm!

MfG :cool:

Anarchy-HWLUXX
2008-08-21, 13:18:26
Wenn die in 65nm kommt gibt das wieder nen riesen durcheinander ... ich hoffe mal es werden die 55er sein.

Gast
2008-08-21, 14:20:17
Wenn sie 9 statt 8 Shadercluster hat, würde sich nicht nur Anzahl der SPs von 192 auf 216 erhöhen, sondern auch die Anzahl der TMUs von 64 auf 72.

http://www.hardware-infos.com/news.php?news=2331

dargo
2008-08-21, 18:28:35
Wenn die in 65nm kommt gibt das wieder nen riesen durcheinander ...
Nö, warum denn wenn sie einfach GTX 270 heißen sollte?


Da sie so der GTX 280 doch ziemlich nah kommen würden, wird wohl in diesem Zeitraum auch GT200-400 aka GTX 290? erwarten zu sein.
Denkst du mit 264 SP`s?

Gast
2008-08-21, 18:32:21
Wenn sie GTX 270 heißt, dann soll sie aber auch in 55 nm gefertigt werden.

PS: Mit 216 SPs und 72 TMUs sollte der Chip in 55 nm nur minimal 5-10 Watt mehr verbrauchen als GTX 260 mit 192 SPs und 64 TMUs.

AnarchX
2008-08-21, 18:47:58
Denkst du mit 264 SP`s?
Nein, G200 und G200B als optischer Shrink haben maximal 240SPs, GT200-400 steht einfach nur für eine höherwertigere GT200-SKU, was entweder eine 290 mit höheren Taktraten oder halt eine GX2 bedeuten könnte.

Wenn sie GTX 270 heißt, dann soll sie aber auch in 55 nm gefertigt werden.

Wo impliziert GTX 270 55nm? Im Endeffekt erkennt man hieraus nur eine Leistung zwischen 260 und 280.

Und wie oft gesagt, man sollte sich von 55nm nicht zu viel erwarten, im Worst-Case springt nur für NV eine etwas geringe Die-Size bei gar erhöhtem Verbrauch hinaus.

Nightspider
2008-08-22, 02:12:56
Eine GTX290 mit GDDR5 könnte ich mir auch gut vorstellen.

Gibts denn Benchmarks die zeigen, das der GTX280 bei sehr hohen Auflösungen + AA die Bandbreite ausgeht?

dargo
2008-08-22, 04:51:18
Eine GTX290 mit GDDR5 könnte ich mir auch gut vorstellen.

Gibts denn Benchmarks die zeigen, das der GTX280 bei sehr hohen Auflösungen + AA die Bandbreite ausgeht?
Also, einer GTX 260 mangelt es nicht an Bandbreite. Eine GTX 280 hat 25% mehr davon bei 25-30% mehr Rohleistung, dementsprechend auch kein Mangel bei Dieser.

centurio81
2008-08-22, 10:35:32
Eine GTX290 mit GDDR5 könnte ich mir auch gut vorstellen.

Gibts denn Benchmarks die zeigen, das der GTX280 bei sehr hohen Auflösungen + AA die Bandbreite ausgeht?

Der G200 wird sicher nie mit GDDR5 ausgestattet werden, wozu auch..
512 Bit und dann GDDR5..
bandbreitenoverkill, ohne Nutzen, und vor allem höhere Kosten..

Adam D.
2008-08-22, 10:55:48
512-Bit + GDDR5 ist ja auch überhaupt nicht der Punkt. Eine Reduzierung des SI auf 256-bit und der Umstieg auf GDDR5 würden die selbe Bandbreite bei deutlich weniger komplexeren Boards bedeuten.

Undertaker
2008-08-22, 11:25:43
Wohl aber mehr Stromverbrauch, wenn man sich die 4870 so anschaut...

centurio81
2008-08-22, 11:25:53
Bin ja kein Profi..
Aber man kann doch net mal sicher eben so das Board umgestalten..

bei kommenden Generationen, denke ich schon dass man GDDR5 nimmt, aber beim GT200, denke ich eher noch nicht..

AnarchX
2008-08-22, 11:37:20
Wohl aber mehr Stromverbrauch, wenn man sich die 4870 so anschaut...
Das liegt an der Implementierung der GDDR5-Unterstützung bei ATI:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6736485&postcount=83

So ist doch ~2GHz GDDR5 um einiges sparsamer als >=1.0ns GDDR3.

reunion@work
2008-08-22, 12:47:46
Das liegt an der Implementierung der GDDR5-Unterstützung bei ATI:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6736485&postcount=83

So ist doch ~2GHz GDDR5 um einiges sparsamer als >=1.0ns GDDR3.

Das wird bei nV allerdings kaum anders sein. Auch dort muss der SC mit vollem GDDR5-Takt laufen, sonst wird man keine Vorteil aus dem hohen Speichertakt ziehen können.

AnarchX
2008-08-22, 12:50:31
Das wird bei nV allerdings kaum anders sein. Auch dort muss der SC mit vollem GDDR5-Takt laufen, sonst wird man keine Vorteil aus dem hohen Speichertakt ziehen können.
Aber halt nicht im 2D/Idle-Betrieb. ;)
Unter Last ist es ja weniger signifikant wenn man sich die 110W der 4850 und die 130W der 4870 anschaut.

Gast
2008-08-22, 14:04:24
GDDR5 und sparsam? Da ist CB aber zu ganz, ganz anderen Ergebnissen gekommen...

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/

AnarchX
2008-08-22, 14:07:29
GDDR5 und sparsam? Da ist CB aber zu ganz, ganz anderen Ergebnissen gekommen...

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/
Lies den verlinkten Beitrag von mir, es ist der Speicherkontroller in der GPU und nicht der Speicher.

AnarchX
2008-08-23, 08:12:53
In einem Gespräch mit Nvidia hat uns Jens Neuschäfer, PR-Manager für Zentraleuropa, nun verraten, dass diese Gerüchte den Tatsachen entsprechen. So wird die GeForce GTX 260 ab sofort aufgerüstet und die langsameren Modelle sollen mit der Zeit abverkauft werden. Eine von uns vorgeschlagene Namensänderung auf „GeForce GTX 270“ soll es allerdings nicht geben, da dazu die Modifizierungen zu gering sein sollen. Ab der zweiten Septemberhälfte soll die neue GeForce GTX 260 im Handel erhältlich sein.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/august/nvidia_gtx_260_216_alus/

Da wirft man die Vorsätze für ein transparenteres Namensschema wohl schon wieder zeitig über den Haufen.
Da kann man nur hoffen, dass die AIBs hier entsprechend auszeichnen...

hardtech
2008-08-23, 08:22:59
finde ich schwach von nv, unterschiedliche chips unter gleichem namen zu verkaufen. wenn sie schon so peinlich genau auf die werte der konkurrenz achten und ein neues modell einführen, dann soll es gefälligst einen anderen namen tragen.

ich sehe es jetzt schon kommen. ich habe eine gtx260 mit dem neuen chip bestellt und bekommen habe ich die alte... rücktausch und rückgaben sind somit vorprogrammiert. ätzend nv!

Gast
2008-08-23, 09:08:05
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/august/nvidia_gtx_260_216_alus/

Da wirft man die Vorsätze für ein transparenteres Namensschema wohl schon wieder zeitig über den Haufen.
Da kann man nur hoffen, dass die AIBs hier entsprechend auszeichnen...
Wenn du jetzt so ein Zeugs veröffentlichen scheint der GT200b doch noch in etwas weitere Ferne gerückt zu sein...

reunion
2008-08-23, 10:26:56
Man will sich wohl nicht eingestehen das man die neue GTX260 braucht um gegen die 4870 besser konkurrieren zu können. Deshalb keine Namensänderung. Andererseits kann man dafür auch den selben Preis erwarten wie bei der aktuellen GTX260. Auch den Preis der GTX280 stellt man mit dieser Aktion arg in Frage, hier bedarf es dann ebenfalls dingend einer Preisanpassung. Bleibt noch die Frage was man dann mit den Chip macht bei denen mehr als ein Cluster defekt ist. Vielleicht kommt ja noch eine GTX240 od. dgl.

AnarchX
2008-08-23, 10:37:01
Man will sich wohl nicht eingestehen das man die neue GTX260 braucht um gegen die 4870 besser konkurrieren zu können. Deshalb keine Namensänderung.
Aber von dem Standpunkt aus ist es doch auch dämlich sie nicht umzubennen, denn wenn der potentielle Kunde nach der GTX 260 sucht, wird es wohl hauptsächlich Reviews mit Rev.1 finden, wo sie sich eben nicht so gut gegen die 4870 schlägt.

Ein Problem was man bei einer GTX 260+ /265/ 270 nicht hätte.

Zumal die Begründung, dass die 24 zustätzliche Shader und 8 TMUs eine zu geringfügige Änderung wären, im Zusammenhang mit 9600GSO und 9800GT noch lächerlicher erscheint. X-D

Da sollte NV doch langsam mal über ein Neustrukturierung der betreffenden Abteilung nachdenken...


Bleibt noch die Frage was man dann mit den Chip macht bei denen mehr als ein Cluster defekt ist. Vielleicht kommt ja noch eine GTX240 od. dgl.
Gab dochmal Gerüchte über eine GT 250.

mictasm
2008-08-23, 12:20:48
Vielleicht haben sie auch Bedenken, die 260 namentlich aufzuwerten, weil sie dann zu nah an der 280 ist. Die Namen verstehe ich sowieso nicht. Wenn ich schon neue Bezeichnungen bringe, warum dann die unterschiedlichen Karten so nah beieinander?

Psychopat
2008-08-23, 12:32:01
Der Desktopmarkt geht ja noch von den Namen her... Im mobile Markt hat nVidia den Vogel so richtig abgeschossen. 9800mGTX, 9800mGTS, 9800mGT, 9700mGTS, 9700mGT, 9650mGT, 9650mGS, 9600mGT, 9600mGS...
Und das beste daran, die 9800GT soll schneller als die 9800GTS sein!
Achja, ich vergass: Dann gibts noch Unterschiede eines Modells bei Speichertaktung und Speicher (DDR2, DDR3).

derwalde
2008-08-26, 12:25:49
kommt da wohl noch was in richtung "gtx290"(?). da wartet man wochen und wochen und rein garnix tut sich :mad:

mictasm
2008-08-26, 13:53:27
Hehe ;)

Mir gehts genauso, aber ich bin nicht ganz so ungeduldig.

Anarchy-HWLUXX
2008-08-26, 13:55:17
A bissi arg ungeduldig ? Die GTX2** Serie ist wahrlich nicht besonders lang am Markt ...

Gast
2008-08-26, 13:59:06
A bissi arg ungeduldig ? Die GTX2** Serie ist wahrlich nicht besonders lang am Markt ...

... und nicht viel schneller als eine 8800 GTX/Ultra.
Gerade die Besitzer von diesen Karten warten sehnlichst auf einen Nachfolger!

Grestorn
2008-08-26, 15:24:00
Doppelt so schnell ist "nicht viel schneller"?

reunion@work
2008-08-26, 15:34:13
Doppelt so schnell ist "nicht viel schneller"?
Doppelt so schnell ist ja auch völlig übertrieben.

Anarchy-HWLUXX
2008-08-26, 15:34:15
Doppelt so schnell ist "nicht viel schneller"?
Gibt ja leute die kommen nich vom pre-Release gehype los ...

Grestorn
2008-08-26, 15:51:29
Doppelt so schnell ist ja auch völlig übertrieben.

Es mag nicht immer ein Gewinn von 100% sein, aber irgendwo zwischen 80 und 100% bewegt es sich bei GPU limitierten Szenen eigentlich fast immer (vgl. mit einer 8800 GTX).

AnarchX
2008-08-26, 17:06:56
VR-Zone has learned that Nvidia is moving on to 40nm process much quicker than expected. Nvidia is usually conservative when moving on to a finer process technology but seems like this time round, they are determined to get there ahead of AMD. This move is risky but probably Nvidia has done some serious simulation and prototyping to estimate the yield and stability of the TSMC 40G process technology. The first GPUs on 40nm process technology will be the mobile parts codenamed N10x, the successor to the current 65/55nm NB9x. Nvidia is expected to apply a die shrink to their desktop parts too to lower cost and thermal envelope so there might be a chance to see a GX2 solution for GT200.
http://www.vr-zone.com/articles/Nvidia_Prepares_For_40nm_GPUs/6020.html

Gast
2008-08-26, 17:27:23
Wie gross wäre ein GT200 in 40nm den? Müsste was im 300er Bereich sein?

Gast
2008-08-26, 17:31:05
... und nicht viel schneller als eine 8800 GTX/Ultra.
Gerade die Besitzer von diesen Karten warten sehnlichst auf einen Nachfolger!

GT200 ist glaub der Nachfolger von denen ;)

AnarchX
2008-08-26, 17:37:08
Wie gross wäre ein GT200 in 40nm den? Müsste was im 300er Bereich sein?
TSMC verspricht die 2,35-fache Packungsdichte gegenüber 65nm, würde also ~ 250mm² machen. Aber NV wird wohl nicht 1:1 shrinken und wohl noch die Architektur etwas optimieren.

reunion
2008-08-26, 17:41:55
TSMC verspricht die 2,35-fache Packungsdichte gegenüber 65nm, würde also ~ 250mm² machen. Aber NV wird wohl nicht 1:1 shrinken und wohl noch die Architektur etwas optimieren.

Daraus dürfte dann wieder eine schöne GX2 entstehen. Ähnlich wie schon bei G70/G71 und G80/G92. Bleibt die Frage ob das gegen ATi reicht.

Gast
2008-08-26, 20:41:15
Ausgehend davon, dass der GT200 576 mm^2 groß ist, ergibt sich folgende Rechnung:

(40*40)/(65*65) = 0,379

576*0,379 = 218,3 mm^2.

So sähe das bei einem perfekten Shrink aus. Der ist, wie AnarchX allerdings schon sagte, eigentlich nie möglich. Selbst 250 mm^2 halte ich für optimistisch. Wird denke ich irgendwas zwischen 270 und 300 mm^2. Mal abwarten.

Gast
2008-08-26, 20:43:20
40nm ist aber kein Shrink sondern ein neuer Prozess.

James Ryan
2008-08-27, 05:46:17
Doppelt so schnell ist "nicht viel schneller"?

Soory for Offtopic:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating_qualitaet
Selbst in der 2500er Auflösung ist eine GTX 280 nur 75% schneller als eine 8800 GTX, mit sinkender Auflösung und nur mit 4*FSAA + 16*AF noch deutlich weniger. (vgl. 1280*1024 mit AA und AF)
Das ist einfach zu wenig für einen lohnenden Umstieg!

MfG :cool:

Grestorn
2008-08-27, 07:26:35
Das ist einfach zu wenig für einen lohnenden Umstieg!

In das Computerbase Performance-Rating (das ich im Übrigen wirklich exzellent finde!) gehen nicht nur voll GPU limitierte Ergebnisse ein. Auch nicht bei 2500x1600. Deswegen finde ich 75% da schon sehr ordentlich.

Ich weiß nicht, was ihr immer für Wunderdinge von einer neuen GraKa-Generation erwartet. Die G92 Reihe war für einen G80 Besitzer in der Tat uninteressant, nicht aber der GT200. Der war - Angesichts der RV770 - nur anfangs zu teuer.

V2.0
2008-08-27, 07:35:38
Daraus dürfte dann wieder eine schöne GX2 entstehen. Ähnlich wie schon bei G70/G71 und G80/G92. Bleibt die Frage ob das gegen ATi reicht.

Das dürfte davon abhängen wann er kommt und wieviel AMD noch in die DX10 Generation steckt.

Gast
2008-08-27, 16:38:24
Die Yield dürfte bei den G200 Chips also doch nicht so schlecht sein wie immer behauptet wurde, den sonst könnte NV wohl kaum so schnell mit einer 260er mit 216ALUs kontern...

Gast
2008-08-27, 16:46:00
Soory for Offtopic:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating_qualitaet
Selbst in der 2500er Auflösung ist eine GTX 280 nur 75% schneller als eine 8800 GTX, mit sinkender Auflösung und nur mit 4*FSAA + 16*AF noch deutlich weniger. (vgl. 1280*1024 mit AA und AF)
Das ist einfach zu wenig für einen lohnenden Umstieg!

MfG :cool:

75% sind doch mal sehr gut, das ist eigentlich sogar ziemlich Normal wenn man sich die älternen Generationen anschaut.

Nur so als Info, die 8800GTX konnte sich bei 1280x1024 4AA/16AF nie und nimmer um 75% von der 7950GX2 absetzen, die Leistung kam erst mit neueren Treiber und Spiele!

Dank G200 sind jetzt besonders hohe Qualitäts Einstellungen Spielbar die mit einem G80/G92 unmöglich sind.

Gast
2008-08-27, 16:50:19
Hier noch der alte Computerbase Test der 8800GTX

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet

Da ist die 8800GTX bei 1280x1024 4xAA/16xAF gerade mal 25% schneller als eine 7950GX2, damals hat auch keine rum gejammer das dass ihm zu wenig sei ;)

Gast
2008-08-27, 18:42:15
Hardware-Infos schreibt, dass eine GT200b mit 602/1512/1107 MHz taktet und bringt dafür handfeste Beweise vor. Offensichtlich ist Nvidia da ein Marleur unterlaufen. ;)

http://www.hardware-infos.com/news.php?news=2349

Adam D.
2008-08-27, 18:46:35
Jop, da ging wohl 'n bissl was schief :D

Naja, eben genau wie man es erwartet hatte. Leicht höhere Taktraten, genau das, was man bekommt.

mapel110
2008-08-27, 18:48:10
Hier noch der alte Computerbase Test der 8800GTX

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet

Da ist die 8800GTX bei 1280x1024 4xAA/16xAF gerade mal 25% schneller als eine 7950GX2, damals hat auch keine rum gejammer das dass ihm zu wenig sei ;)
GX2 ist ne krüppelige Dual-Chip-Karte. Damit vergleicht man nicht. 7900 GTX ist der wahre Vergleich.

Gast
2008-08-27, 18:52:15
GX2 ist ne krüppelige Dual-Chip-Karte. Damit vergleicht man nicht. 7900 GTX ist der wahre Vergleich.

aha und wo sind wir dann? nicht etwa bei den normalen 70% von weiter oben? ;)

Gast
2008-08-27, 18:56:37
Hardware-Infos schreibt, dass eine GT200b mit 602/1512/1107 MHz taktet und bringt dafür handfeste Beweise vor. Offensichtlich ist Nvidia da ein Marleur unterlaufen. ;)

http://www.hardware-infos.com/news.php?news=2349

Mit 1500MHz Shader hab ich etwa gerechnet, ROP könnten sie aber schon auf 650MHz erhöhen...

Speicher war klar, da geht mit GDDR3 einfach nicht mehr.

Gast
2008-08-27, 19:15:07
Naja, es gibt 0,8 ns GDDR3-Speicher, der ist bis zu 1250 MHz spezifiziert.

Aber mit den Taktraten besteht eine echte Chance, dass sie unter 225 W TDP bleibt und damit auch der achtpolige Anschluss überfällig wird.

Ich nehme aber mal an, dass es auch noch eine schnellere GT200b über kurz oder lang geben wird.

Gast
2008-08-27, 19:19:17
und was meinst du was für Speicher bei den 8800Ultra, 9800GTX und GTX 280 verbaut ist? Ja genau 0,83nm ;)

derwalde
2008-08-27, 19:49:25
hauptsache die karte bleibt kühler und somit leiser als mit stock lüfter.

Nightspider
2008-08-28, 03:48:15
Die sollen bloß die Stromanschlüsse dranlassen.

Nicht das der Saft dann nichtmehr für OC reicht :biggrin:

Was glaubt ihr was man aus nem G200b mit wakü rausholen können wird?

1800 Mhz Shadertakt?

VooDoo7mx
2008-08-28, 05:11:30
Daraus dürfte dann wieder eine schöne GX2 entstehen. Ähnlich wie schon bei G70/G71 und G80/G92. Bleibt die Frage ob das gegen ATi reicht.

Wieso sollte das nicht reichen? Single Chip ist ja nVidia schließlich auch schneller und SLi hat sowieso ein höhere Effizienz als Crossfire.

reunion@work
2008-08-28, 08:22:06
Wieso sollte das nicht reichen? Single Chip ist ja nVidia schließlich auch schneller und SLi hat sowieso ein höhere Effizienz als Crossfire.

Weil AMD durch den 40nm Prozess erheblich mehr Platz zur Verfügung hat? nV braucht den Shrink um ihr Monster-Die überhaupt auf akzeptable Größe zu bekommen. AMD könnte locker einen doppelten RV770 in 40nm mit 200mm² bringen. Außerdem stehen auch noch andere Dinge wie shared-Memory auf dem Programm.

James Ryan
2008-08-28, 08:25:35
AMD könnte locker einen doppelten RV770 in 40nm mit 200mm² bringen.

Das bezweifele ich aber mal stark.
Könnte AMD das wirklich, hätten sie es längst getan! Stattdessen kommt wieder eine X2.

MfG :cool:

reunion@work
2008-08-28, 08:29:36
Das bezweifele ich aber mal stark.
Könnte AMD das wirklich, hätten sie es längst getan! Stattdessen kommt wieder eine X2.

MfG :cool:

Bitte lesen was ich geschrieben habe. Es geht um den 40nm Prozess der Anfang 2009 einsatzbereit sein sollte und der mal eben 2.35x so viel Platz pro mm² laut TSMC bietet. Ein doppelter RV770 wäre da wesentlich kleiner als heute ein RV770 in 55nm.

AnarchX
2008-08-28, 08:32:38
Das bezweifele ich aber mal stark.
Könnte AMD das wirklich, hätten sie es längst getan! Stattdessen kommt wieder eine X2.

:| 40nm ist doch erst produktionbereit in 2009.

Ohne die Padlimitierung zu berücksichtigen wäre RV770 unter 40nm ja nur ~140mm² groß.
Ein doppelte RV770 wäre sicherlich etwas übertrieben für 200mm², da die SIMDs wohl trotzdem noch um die ~10mm² sein werden, aber auf jeden Fall mehr Rechenleistung pro mm², als wenn NV GT200 einfach auf 40nm übertragen würde, weshalb sie auch etwas an der Architektur werden tun müssen.

Gast
2008-08-29, 10:42:00
Bitte lesen was ich geschrieben habe. Es geht um den 40nm Prozess der Anfang 2009 einsatzbereit sein sollte und der mal eben 2.35x so viel Platz pro mm² laut TSMC bietet. Ein doppelter RV770 wäre da wesentlich kleiner als heute ein RV770 in 55nm.

Lecker bei dem jetzigen Stromverbrauch x2 wirds ja richtig schön warm...

Gast
2008-08-29, 10:46:04
Lecker bei dem jetzigen Stromverbrauch x2 wirds ja richtig schön warm...
das ist absehbar - auch bei NV.

ich denke das grösste problem haben wir bei furmark bereits erlebt - der rv770 bietet pro mm2 zuviel leistung um sie bei vollauslastung noch sinnvoll kühlen zu können. bei 40nm werden die hotspots noch kleiner und dementsprechend die kühlung noch schwieriger. mich interessierts nicht (wakü oder schlimmstenfalls halt kompressor ranhängen), aber trotzdem werden sich bei IHVs damit auseinandersetzen müssen. Das Design wird also weiter in die Breite gehen, die Taktfrequenz wird immer teurer - ausserdem ist ein Breites Design ja wiederum einfacher zu kühlen als eine herdplatte auf dem PCB.

Gast
2008-08-31, 09:04:14
AMD könnte locker einen doppelten RV770 in 40nm mit 200mm² bringen.

Nein, weil dieser nicht mehr kühlbar wäre. Große Dice haben den Vorteil der besseren Kühlbarkeit.

Gast
2008-08-31, 10:17:20
das ist absehbar - auch bei NV.

ich denke das grösste problem haben wir bei furmark bereits erlebt - der rv770 bietet pro mm2 zuviel leistung um sie bei vollauslastung noch sinnvoll kühlen zu können. bei 40nm werden die hotspots noch kleiner und dementsprechend die kühlung noch schwieriger. mich interessierts nicht (wakü oder schlimmstenfalls halt kompressor ranhängen), aber trotzdem werden sich bei IHVs damit auseinandersetzen müssen. Das Design wird also weiter in die Breite gehen, die Taktfrequenz wird immer teurer - ausserdem ist ein Breites Design ja wiederum einfacher zu kühlen als eine herdplatte auf dem PCB.

Das Problem bei nV scheinen ja immer noch die Shadereinheiten zu sein. Man hat sie eben auf eine etwas höhere Taktfrequenz ausgelegt, diese kann man aber nicht immer erreichen. Baut man mehr von diesen Einheiten ein, wird die GPU auch größer, aber da sie nicht vollständig vom Rest der TMUs/ROPs entkoppelt sind, wird alles größer. Und der Stromverbrauch wächst...

Das Design muss also entweder auf eine unabhängige Anzahl an Einheiten rauslaufen oder auf Shadereinheiten die alles können.
Wenn man wüsste, wie groß die extra Einheiten für CUDA/höhere Rechengenaugigkeit sind, würde man wohl den echten GT200 sehen.

Snoopy1978
2008-08-31, 11:55:56
Fuad hört zwar gerne mal das Grass wachsen aber ich denke das Nvidia es wohl so handhaben wird und sich jetzt voll auf den Nachfolger des GT200 (GT300 oder wie auch immer der heissen wird) und DirectX11 konzentrieren wird.

Snoopy1978
2008-08-31, 11:56:14
http://http://www.fudzilla.com/index.php?option=com_content&task=view&id=9183&Itemid=1 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=9183&Itemid=1)

Ailuros
2008-09-01, 19:27:56
http://http://www.fudzilla.com/index.php?option=com_content&task=view&id=9183&Itemid=1 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=9183&Itemid=1)

9*24*3*1.67

Gast
2008-09-01, 19:30:19
Du schreibst in Rätseln. ;)

9*24 = 216

damit könnten die Shadereinheiten gemeint sein. Aber warum dann multipliziert mit 3 und 1,67?

AnarchX
2008-09-01, 19:31:29
Was sollen die "1.67"?

Die 216SPs GTX 260 wurde ja schon von Nvidia bestätigt (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/august/nvidia_gtx_260_216_alus/), die Taktraten bleiben gleich und auch der Name, weil die Änderung zu gering sei.

Oder versucht du nun etwas in die 1080GFLOPs der 2013 Projektion für GTX 200 etwas hineinzuinterpretieren, wo man höchstwahrscheinlich nur mit den 1.5GHz SD von Tesla gerechnet hat, die wahrscheinlich auch mal für GTX 200 geplant war, aber wohl nicht für die benötigten Stückzahlen möglich war.

Ailuros
2008-09-01, 19:32:26
Ich hab das notwendige Fragezeichen vergessen.

Ailuros
2008-09-01, 19:37:23
Was sollen die "1.67"?

Die 216SPs GTX 260 wurde ja schon von Nvidia bestätigt (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/august/nvidia_gtx_260_216_alus/), die Taktraten bleiben gleich und auch der Name, weil die Änderung zu gering sei.

Oder versucht du nun etwas in die 1080GFLOPs der 2013 Projektion für GTX 200 etwas hineinzuinterpretieren, wo man höchstwahrscheinlich nur mit den 1.5GHz SD von Tesla gerechnet hat, die wahrscheinlich auch mal für GTX 200 geplant war, aber wohl nicht für die benötigten Stückzahlen möglich war.

LOL Bingo. Schoen waers auf jeden Fall. Das Ding kann froh sein wenn es 1.5 erreicht. Auf jeden Fall macht NVIDIA nochmal den Fehler und kommt mit zich gleichnamigen Modellen an. Natuerlich unter der Vorraussetzung dass sie das Ding nicht GTX260 oder GTX260+ eventuell nennen.

Gast
2008-09-01, 19:51:48
Hmm, die 1,67 stehen also für den Shadertakt (1674 MHz), Ailuros. Warum aber schreibst Du dann, dass "das Ding kann froh sein wenn es 1.5 erreicht"?

Leutet mir gerade nicht so ein. Und es sollte doch auch wirklich nur eine taktgleiche GTX 260 mit 9 statt 8 Shaderclustern sein. Woher bringst Du jetzt die 1674 MHz in den Raum?

Gast
2008-09-01, 19:53:39
Weil AMD durch den 40nm Prozess erheblich mehr Platz zur Verfügung hat? nV braucht den Shrink um ihr Monster-Die überhaupt auf akzeptable Größe zu bekommen. AMD könnte locker einen doppelten RV770 in 40nm mit 200mm² bringen. Außerdem stehen auch noch andere Dinge wie shared-Memory auf dem Programm.

Sorry aber das ist Müll, erstens glaub ich kaum das sich die Shader weiter verkleinern lassen wie dies eben zwischen RV670 und dem RV770 der fall war und zweitens hätte man vor einem Jahr auch sagen können das der G80 nachfolger Doppelt so Breit wird aber von der Fläche her kleiner bleiben wird, was wir heute haben wissen wir ja jetzt....

GPUs kann man unmöglich einfach schnell verdoppeln, es geht einfach nicht, ausser die Arichtektur hatte grössere Probleme (R600...)

Zudem bei einem so grossen Chip natürlich auch immer wie mehr Transistoren für die Redudanz drauf gehen, siehe auch G200!

Und so gross ist der G200 nun auch wieder nicht, bei 55nm sind das gut 430mm² gegen 260mm² von RV770, dafür ist die Grund-Leistung beim G200 aber auch höher. Dem G200 fehlt es derzeit einfach nur am Takt...

Gast
2008-09-02, 09:30:05
Sorry aber das ist Müll, erstens glaub ich kaum das sich die Shader weiter verkleinern lassen wie dies eben zwischen RV670 und dem RV770 der fall war und zweitens hätte man vor einem Jahr auch sagen können das der G80 nachfolger Doppelt so Breit wird aber von der Fläche her kleiner bleiben wird, was wir heute haben wissen wir ja jetzt....

GPUs kann man unmöglich einfach schnell verdoppeln, es geht einfach nicht, ausser die Arichtektur hatte grössere Probleme (R600...)

Zudem bei einem so grossen Chip natürlich auch immer wie mehr Transistoren für die Redudanz drauf gehen, siehe auch G200!

Und so gross ist der G200 nun auch wieder nicht, bei 55nm sind das gut 430mm² gegen 260mm² von RV770, dafür ist die Grund-Leistung beim G200 aber auch höher. Dem G200 fehlt es derzeit einfach nur am Takt...
nö. der r600 hätte auch eingeschlagen mit mehr takt - mit betonung auf hätte. geplant war ja viel mehr, und dass das ding n heizkissen ist, wusste man ja am anfang auch nicht. dasselbe wiederholt sich beim g200. die grundarchitektur ist super, benötigt aber mindestens einen refresh damit man die kinderkrankheiten ausbügeln kann.

meiner meinung nach wird das ab jetzt leider immer so laufen, die weiterentwicklung ist einfach kostenintensiv und schon lange nicht mehr im rahmen der aufnahmefähigkeit eines gehirns. wo früher ein kluger chipdesigner noch selbst hand anlegte, geht heute nur noch alles mit automatisierten tools.

deswegen ist atis ansatz mit dem MCM auch der einzig sinnvolle, bleibt abzuwarten ob es eine separate ausgabelogik gibt, welche die gerenderten bilder dann im takt dem user auf den bildschirm zaubert.

Anarchy-HWLUXX
2008-09-02, 09:44:17
nö. der r600 hätte auch eingeschlagen mit mehr takt - mit betonung auf hätte. geplant war ja viel mehr, und dass das ding n heizkissen ist, wusste man ja am anfang auch nicht. dasselbe wiederholt sich beim g200. die grundarchitektur ist super, benötigt aber mindestens einen refresh damit man die kinderkrankheiten ausbügeln kann.

meiner meinung nach wird das ab jetzt leider immer so laufen, die weiterentwicklung ist einfach kostenintensiv und schon lange nicht mehr im rahmen der aufnahmefähigkeit eines gehirns. wo früher ein kluger chipdesigner noch selbst hand anlegte, geht heute nur noch alles mit automatisierten tools.


R600 mit GT200 vergleichen -> :ucrazy2:

Die GT200 is der schnellste Single Chip den es gibt und kam "pünktlich" soweit man es sagen kann da immernoch vor ATi, der Idle verbrauch ist stark gesunken und der Load verbrauch ist noch OK.

Der R600 war hingegen viel zu spät, langsam und in allen belangen viel zu stromfressend.


@Chipdesign - Wann soll das denn gewesen sein ?

GPUs sind scho seit langem "Software" und erst reisige Serverfarmen errechnen dann aus dieser Software die Schaltungen ... nV hat zur Zeit 3 davon.

Ailuros
2008-09-02, 11:47:29
nö. der r600 hätte auch eingeschlagen mit mehr takt - mit betonung auf hätte. geplant war ja viel mehr, und dass das ding n heizkissen ist, wusste man ja am anfang auch nicht. dasselbe wiederholt sich beim g200. die grundarchitektur ist super, benötigt aber mindestens einen refresh damit man die kinderkrankheiten ausbügeln kann.

Das eigentliche Ziel war fuer R600 stets an die 800MHz und IHVs sind sich immer bewusst dass die Mehrzahl dieser Projektionen selten bis nie hinhauen. Dass sie nach all den Problemen wo die ersten tape outs nicht mal 400MHz erreichen konnten doch noch am Ende 742MHz erreicht haben ist durchaus bemerkenswert. Und NEIN die schaebigen 8% mehr Takt (800MHz) haetten auch fuer keinen besonderen Unterschied gesorgt. Im besten Fall haette sich das Ding ein bisschen besser zur originalen 8800GTS positioniert, aber gegen die GTX haette sie nie im Leben eine Chance gehabt.

Gleiches gilt auch fuer GT200; haette das Ding einen theoretischen 1.5GHz Shadertakt gehabt, waere zwar das Resultat leicht besser gewesen, aber das Preis-/Leistungsverhaeltnis nur etwas weniger schlecht als es in Realitaet war.

Beide Faelle haben nur eins gemeinsam: jegliche Seite hat die Konkurrenz zu stark unterschaetzt und beide sind einfach auf ihren vorigen Lorbeeren eingeschlafen.

Undertaker
2008-09-02, 13:10:57
Wobei man dem GT200 an keiner Stelle nehmen kann, zweifellos der schnellste Chip auf dem Markt zu sein, das "auf den Lorbeeren ausgeruht" würde ich damit nicht unbedingt sagen wollen... Die größte Misskalkulation war wohl die Integration des DP/GPGPU Zeugs, was den Chip bezogen auf deren Bedeutung im Gamingbereich zu Lebzeiten der Karte unnötig groß und damit teuer gemacht hat.

AnarchX
2008-09-02, 13:14:58
So groß würde ich den Anteil dieser 30 DP-ALUs auch nicht schätzen, wenn man schon von G9x auf 10 Cluster und 8 ROP-Partitionen skaliert kommt man um einiges über 1 Mrd. Transitoren hinaus, aber bei G200 kamen ja pro Cluster noch 8 SPs hinzu und auch einige Optimierungen hinzu.

Das größte Problem ist, dass 65nm für Nvidia bei weitem nicht die Die-Size-Reduktionen und Taktsteigerungen mit sich brachte, die man erwartet hatte, dass aber auf alle Chips bezogen.

Gast
2008-09-02, 13:58:43
So groß würde ich den Anteil dieser 30 DP-ALUs auch nicht schätzen, wenn man schon von G9x auf 10 Cluster und 8 ROP-Partitionen skaliert kommt man um einiges über 1 Mrd. Transitoren hinaus, aber bei G200 kamen ja pro Cluster noch 8 SPs hinzu und auch einige Optimierungen hinzu.

Aber wären dann nicht vielleicht 12 statt 10 Cluster @1,4 Mrd. Transitoren möglich gewesen? Wären immerhin 20% mehr Power!

AnarchX
2008-09-02, 14:04:26
Und man hätte aber kein DP gehabt, was für Tesla unabdingbar ist, zumal NVs DP-Implementierung so manch anderer im Markt doch in einigen Punkten vorraus ist.

Undertaker
2008-09-02, 15:08:58
Man hätte immernoch loopen können, so viel langsamer wäre das - siehe RV670 - wohl auch nicht gewesen... Also mir erscheint es nicht ganz logisch.

AnarchX
2008-09-02, 15:19:25
Dann hätte man aber kein Fullspeed Denormal Handling, was das besondere an den DP-ALUs ist:
http://www.beyond3d.com/content/articles/106/3

MEDIC-on-DUTY
2008-09-02, 16:18:28
Weil wir gerade so schön am Spekulieren sind: Wann solls denn für die 260er @ ShaderUp soweit sein? Wird es eine erkennbare Unterscheidung zur Standard 260er geben?

Die gelbe Eule
2008-09-02, 16:43:30
Wurde doch angekündigt, einfach nur neue Rev und rein damit. Wahrscheinlich werden aber XFX, EVGA und BFG wieder extra etwas einführen, man kann das ja gut an der Kennung sehen.

VooDoo7mx
2008-09-02, 16:58:51
Ist hier schon der Wahnisnn wie hier der G200 kaputtgeredet wird.
Das Gesamppaket ist doch immer noch Klasse... tweiwleise werden hier ja schon Parallelen zu NV30 und R600 augezogen. Absolut ungerechtfertigt wie ich finde.

Coda
2008-09-02, 17:07:58
GPUs sind scho seit langem "Software" und erst reisige Serverfarmen errechnen dann aus dieser Software die Schaltungen ... nV hat zur Zeit 3 davon.
Das stellst du dir zu einfach vor. Chips werden in VHDL oder Verilog entwickelt (In den USA normal Verilog). Das ist keine Software, sondern schon ein Schaltungsmodell mit Clock usw. wenn es synthetisierbar sein soll. Zur Simulation können auch Teile davon als "Software" geschrieben werden, aber wenn man eine Gate-Level-Simulation durchführen oder den Chip layouten will muss alles fertig sein.

Es werden auch durchaus noch Teile des Chips von Hand bearbeitet, vor allem die kritischen Pfade.

MEDIC-on-DUTY
2008-09-02, 18:10:04
Ist hier schon der Wahnisnn wie hier der G200 kaputtgeredet wird.
Das Gesamppaket ist doch immer noch Klasse... tweiwleise werden hier ja schon Parallelen zu NV30 und R600 augezogen. Absolut ungerechtfertigt wie ich finde.

Der G200 ist für mich auch immer noch die bessere Wahl, auch wenn ich damals zum Release einen Haufen Asche dafür auf den Tisch gelegt habe. Ausser Preisdumping sehe ich nicht viel mehr von ATI in diesen Tagen. Die X2 ist auch eher eine Karte mit Steinzeiteigenschaften. Darüber hinaus ist der G200 im Idle wesentlich leiser als eine GTX88. Auch der Stromverbrauch ist im Idle geringer. Also ich bin sehr zufrieden mit der Karte. Und im Singlechip-Segment immer noch King of the hill. Die Mehrzahl der Games supportet nVidiakarten und DX10.1 ist mehr ein Bug als ein Feature. Die 280er kommt bereits unter die 300er Marke und die 260er steht bei 220.

Also whats next nVidia?

aylano
2008-09-02, 19:17:24
Ist hier schon der Wahnisnn wie hier der G200 kaputtgeredet wird.
Ich denke es liegt vielleicht daran, weil sich viele übertriebener Ausdrücken als sie eigentlich meinen bzw. weil es durch die Umgangssprache viel übertrieben rüber kommt.
Und manche beurteilen wahrscheinlich die G200 etwas mehr als nur die reine Performance a la Stromverbrauch, Zukunft (=Shrink-Möglichkeiten), Yieldrate, ... also wie aus Sicht der Firma.

Schlecht ist sie ja nicht, aber es läuft halt etwas ungünstig für sie.

Der G200 ist für mich auch immer noch die bessere Wahl,...
Ja für dich.
Aber eine Firma muss halt weiter denken. Und da kann man den RV770 viel besser auf 40nm (=mainstream-Größe) shrinken als den G200.

Ausser Preisdumping sehe ich nicht viel mehr von ATI in diesen Tagen.
RV730 & RV710 könnten für Nvidia vielleicht größere Schläge sein, als es der RV770 war.
Klar wirst du das nicht so mitbekommen, da die OEMs eben die großen Abnehmer sind.
Abgesehen davon, vielleicht macht ATI in diesem jetztigen Preisregionen mehr Gewinn als Nvidia, weil sie eben einen so geringen Die mit guter Yiel-Rate haben.

Und somit müssten sie garnichts mehr machen, außer den RV730 & RV710 auf dem Desktop & Notebook-Markt zu werfen und diesesmal mit hoffentlich funktionierenden CnQ 2.0

Nun ja, ich bin sehr gespannt wie die erste 40nm-Version von Nvidia aussehen wird.
Denn es kann dann auch sein, dass die erste 40nm-Version von ATI & Nvidia am Anfang gleich groß sind, wodurch sich dann ATIs große Pack-Dichte sich dann auch in einen Performance-Vorteil umschlagen kann.

Weiß man schon, wann die G200-55nm kommt??? Ich dachte die kommt Ende August

mapel110
2008-09-02, 19:35:02
Weiß man schon, wann die G200-55nm kommt??? Ich dachte die kommt Ende August
September hieß es zuletzt, aber so still wie die Gerüchteküche in letzter Zeit ist, wirds wohl deutlich später sein.

Nakai
2008-09-02, 19:53:36
September hieß es zuletzt, aber so still wie die Gerüchteküche in letzter Zeit ist, wirds wohl deutlich später sein.

Is schon komisch. ATI hat vor knapp einem Jahr den 55nm-Prozess eingeführt.
Und NV kommt gerade mit einem 55nm-Prozess für den G92 angetorkelt.
AMD hat dadurch einen deutlichen Vorsprung und kann sich schon auf 45nm/40nm einstellen bzw. vorbereiten.

Ist hier schon der Wahnisnn wie hier der G200 kaputtgeredet wird.

Das stimmt, das Featureset ist sehr gut. Trotzdem reicht es nicht, wenn man teilweise um 60% hinten liegt. Und da verpufft das MR Problem teilweise sehr.
Leider baut dieser Vorsprung auf CF und billiges AF auf. :(
Würde ATI endlich mal was daran änder...



mfg Nakai

AnarchX
2008-09-02, 19:58:03
Und NV kommt gerade mit einem 55nm-Prozess für den G92 angetorkelt.

G94 und G96 sind mittlerweile auch als B-Revisionen erhältlich und werden verbaut. ;)

Und ich wüßte nicht wo AMD einen Vorsprung haben sollte, immerhin sind es ja NV, die nun seit fast 2 Jahren auf die gleiche Architektur setzen und nur minimale Veränderungen vorgenommen haben, während sich bei AMD einiges tat.
Also genug Zeit um sich mit 4xnm auseinaderzusetzen und für D3D11 eine passende Architektur zu bauen.:D

VooDoo7mx
2008-09-02, 20:11:18
Der G200 ist für mich auch immer noch die bessere Wahl, auch wenn ich damals zum Release einen Haufen Asche dafür auf den Tisch gelegt habe. Ausser Preisdumping sehe ich nicht viel mehr von ATI in diesen Tagen. Die X2 ist auch eher eine Karte mit Steinzeiteigenschaften. Darüber hinaus ist der G200 im Idle wesentlich leiser als eine GTX88. Auch der Stromverbrauch ist im Idle geringer. Also ich bin sehr zufrieden mit der Karte. Und im Singlechip-Segment immer noch King of the hill. Die Mehrzahl der Games supportet nVidiakarten und DX10.1 ist mehr ein Bug als ein Feature. Die 280er kommt bereits unter die 300er Marke und die 260er steht bei 220.

Also whats next nVidia?

Für mich war auch die GTX 260 gegenüber der HD4870 die bessere Wahl. Leicht schneller, niedrigerer idle Verbrauch, richtig gutes AF, coverage Sample Anti Alaising (ich liebe es!), bessere Übertaktbarkeit und bessere Treiber die auch überall gut funzen was nicht gerade Mainstream ist.


RV730 & RV710 könnten für Nvidia vielleicht größere Schläge sein, als es der RV770 war.

Das bezweifel ich stark. Nach allem was man über den RV730 weiß wird eieser es warscheinlich nicht einmal mit eienr 9600GT aufnehmen können. Also brauch nVidia in diesen Bereich keien große Angst haben. Und über den RV710 weiß man so ziemlich noch gar nichts.

Nakai
2008-09-02, 20:16:08
Und ich wüßte nicht wo AMD einen Vorsprung haben sollte, immerhin sind es ja NV, die nun seit fast 2 Jahren auf die gleiche Architektur setzen und nur minimale Veränderungen vorgenommen haben, während sich bei AMD einiges tat.
Also genug Zeit um sich mit 4xnm auseinaderzusetzen und für D3D11 eine passende Architektur zu bauen.

Naja, soviel hat sich beim AMD auch nicht geändert.
Man hat nur die Packdichte erhöht. Bei NV hat man den ganzen Chip versucht auf DP-Berechnungen zu pimpen.
Und die paar Änderungen bei den TMUs und den ROPs, sehe ich nicht so bedeutsam an. Der R600 war ja nicht so besonders und hat wirklich Optimierung benötigt.


mfg Nakai

reunion
2008-09-02, 20:21:24
Und ich wüßte nicht wo AMD einen Vorsprung haben sollte, immerhin sind es ja NV, die nun seit fast 2 Jahren auf die gleiche Architektur setzen und nur minimale Veränderungen vorgenommen haben, während sich bei AMD einiges tat.
Also genug Zeit um sich mit 4xnm auseinaderzusetzen und für D3D11 eine passende Architektur zu bauen.:D

Du weißt nicht wo AMD bei der Fertigung einen Vorteil haben soll? Seit Anfang dieses Jahres fertigt AMD nur noch 55nm Chips, NV will das bis zum Ende des Jahres schaffen. Und was die Architektur betrifft: Die aktuelle Architektur von nV ist zwei Jahre alt, die von AMD schon locker 5 Jahre. R400 war der erste Ableger. Also wenn hier wer Zeit hatte sich für eine neue Architektur vorzubereiten dann sicher nicht nV. Und seit R600 tat sich bei AMD kaum was wesentliches.

Ist hier schon der Wahnisnn wie hier der G200 kaputtgeredet wird.
Das Gesamppaket ist doch immer noch Klasse... tweiwleise werden hier ja schon Parallelen zu NV30 und R600 augezogen. Absolut ungerechtfertigt wie ich finde.

Der Chip ist eben nicht so effizient wie die Konkurrenz. Er ist nur im Vorteil weil er erheblich größer ist als ein RV770. Das wird über kurz oder lang ein Problem für nV werden.

Das bezweifel ich stark. Nach allem was man über den RV730 weiß wird eieser es warscheinlich nicht einmal mit eienr 9600GT aufnehmen können. Also brauch nVidia in diesen Bereich keien große Angst haben. Und über den RV710 weiß man so ziemlich noch gar nichts.

RV730 ist wesentlich kleiner als ein G94 und hat nur ein 128-bit SI. Der Chip soll nicht gegen die 9600GT antreten.

VooDoo7mx
2008-09-02, 20:36:28
Der Chip ist eben nicht so effizient wie die Konkurrenz. Er ist nur im Vorteil weil er erheblich größer ist als ein RV770. Das wird über kurz oder lang ein Problem für nV werden.


Glaskugel?
Es kann auf lange Sicht auch genau umgedreht sein, dass nVidia seine Designs schon auf den GPGPU Markt hinentwickelt. Vielleicht gibt es ja bei GPGPU Anwendungen bald den Durchbrcuh wo sich dann nVidias Designentscheidungen bezahlt machen, während man bei ATI dumm aus der Wäsche guckt.


RV730 ist wesentlich kleiner als ein G94 und hat nur ein 128-bit SI. Der Chip soll nicht gegen die 9600GT antreten.

Gegen was soll er dann bitteschön antreten? Gegen die 9500GT? :|
Nicht dein ernst oder?
Und hast du mal absolue Angaben zur Die Größe von G94B und RV730 zur Hand? Mit Quelle versteht sich.

AnarchX
2008-09-02, 20:38:25
Gegen was soll er dann bitteschön antreten? Gegen die 9500GT? :|
Nicht dein ernst oder?
9550GT ;)


Und hast du mal absolue Angaben zur Die Größe von G94B und RV730 zur Hand? Mit Quelle versteht sich.
G94B: ~190mm²
RV730: ~150mm²

Mehr dazu hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422335&page=46

Du weißt nicht wo AMD bei der Fertigung einen Vorteil haben soll? Seit Anfang dieses Jahres fertigt AMD nur noch 55nm Chips, NV will das bis zum Ende des Jahres schaffen.

Nakais Aussage war, dass AMD durch den 55nm Vorsprung auch einen Vorsprung bei 4x nm haben sollte, was aber Unsinn ist, da es um einen neuen Full-Node handelt, während bei 55nm ein problemloser optischer Shrink vorgenommen wird, wo es wohl kaum NV-Beiteilung benötigt, während ATi sich intensiver mit 55nm auseinandergesetzt hat um das Optimum aus diesem Prozess herauszuholen, was man ja an RV7xx sieht.

VooDoo7mx
2008-09-02, 20:43:16
Hmmm was ist ne 9550GT? Noch nie gehört. :|

Und besten dank zu den Angaben der Die Größe! :thumbsup:

Gast
2008-09-02, 23:14:05
Das eigentliche Ziel war fuer R600 stets an die 800MHz und IHVs sind sich immer bewusst dass die Mehrzahl dieser Projektionen selten bis nie hinhauen. Dass sie nach all den Problemen wo die ersten tape outs nicht mal 400MHz erreichen konnten doch noch am Ende 742MHz erreicht haben ist durchaus bemerkenswert. Und NEIN die schaebigen 8% mehr Takt (800MHz) haetten auch fuer keinen besonderen Unterschied gesorgt. Im besten Fall haette sich das Ding ein bisschen besser zur originalen 8800GTS positioniert, aber gegen die GTX haette sie nie im Leben eine Chance gehabt.
ich bin da nicht so gut informiert, aber wurde nicht relativ viel am r600 noch umgekrempelt damit er die 7xxmhz knackt? ich dachte ein teil davon hätte recht viel performace gekostet. aber kann mich natürlich irren.

Gleiches gilt auch fuer GT200; haette das Ding einen theoretischen 1.5GHz Shadertakt gehabt, waere zwar das Resultat leicht besser gewesen, aber das Preis-/Leistungsverhaeltnis nur etwas weniger schlecht als es in Realitaet war.

stimme ich zu. ähnliche sache.

Beide Faelle haben nur eins gemeinsam: jegliche Seite hat die Konkurrenz zu stark unterschaetzt und beide sind einfach auf ihren vorigen Lorbeeren eingeschlafen.
du widersprichst dir ja indirekt selbst, sagst ja dass der gt200 mit mehr shadertakt durchaus schneller wäre, ich knüpfe an und sage es hätte für die x2 gereicht.

insofern eine ähnliche situation, wie beim r600, der mit den lächerlichen 8% mehr und evnt. einsparnissen durchaus die gts640 hätte schlagen sollen. anders war er sicher NIE geplant.

just my 0.2$

Coda
2008-09-02, 23:30:05
ich bin da nicht so gut informiert, aber wurde nicht relativ viel am r600 noch umgekrempelt damit er die 7xxmhz knackt? ich dachte ein teil davon hätte recht viel performace gekostet. aber kann mich natürlich irren.
Das ergibt keinen Sinn. Taktrate ist kein Selbstzweck. Man opfert doch nicht Performance für höheren Takt. Man braucht höheren Takt um mehr Performance zu erreichen.

Gast
2008-09-03, 00:22:39
Das ergibt keinen Sinn. Taktrate ist kein Selbstzweck. Man opfert doch nicht Performance für höheren Takt. Man braucht höheren Takt um mehr Performance zu erreichen.
klar, aber es ging ja dann doch einiges schief (msaa, tesselator der doch nicht in die dx10 spec kam etc.), ob das grundfehler waren oder sich erst bei den änderungen ergaben, no clue.

klar, der g80 war extrem schnell, und der r600 fiel da extrem ab, müssen wir nicht drüber diskutieren.

deekey777
2008-09-03, 00:57:49
Die Gerüchte waren, dass die ROPs des R600 den hohen Takt nicht mitmachen wollten (mehrere Respins vor dem finalen Respin), so dass diese kein Single-Cycle-4xMSAA beherrschen sowie nicht immer funktionierendes MSAA-Resolve die Folge war. Dies wurde erst beim RV770 gefixt (es heißt gar, die ROPs wurden vom gleichen Team "geheilt", das auch den R580 entwickelt hat).

reunion@work
2008-09-03, 08:29:17
Glaskugel?
Es kann auf lange Sicht auch genau umgedreht sein, dass nVidia seine Designs schon auf den GPGPU Markt hinentwickelt. Vielleicht gibt es ja bei GPGPU Anwendungen bald den Durchbrcuh wo sich dann nVidias Designentscheidungen bezahlt machen, während man bei ATI dumm aus der Wäsche guckt.

Und einen RV770 kann ich nicht für GPCPU verwenden? Deine Ansichten sind schon lustig. NV hat hier einen Rückstand aufgeholt (schon RV670 konnte DP), aber so das AMD bei GPCPU-Anwendungen "dumm dastehen" würde ist es mit Sicherheit nicht.


Gegen was soll er dann bitteschön antreten? Gegen die 9500GT? :|
Nicht dein ernst oder?

Bitte zuerst denken bevor du hier deine unwitzigen Sprüche ablässt. 4650 vs. 9500GT, 4670 vs. 9550GT. Und mit Verlaub, da wird nV nicht viel zu lachen haben.


Und hast du mal absolue Angaben zur Die Größe von G94B und RV730 zur Hand? Mit Quelle versteht sich.

Such dir deine Quellen doch selbst. G94 ist auch in 55nm noch erheblich größer und hat ein doppelt so breites SI.

reunion@work
2008-09-03, 08:40:09
Nakais Aussage war, dass AMD durch den 55nm Vorsprung auch einen Vorsprung bei 4x nm haben sollte, was aber Unsinn ist, da es um einen neuen Full-Node handelt, während bei 55nm ein problemloser optischer Shrink vorgenommen wird, wo es wohl kaum NV-Beiteilung benötigt, während ATi sich intensiver mit 55nm auseinandergesetzt hat um das Optimum aus diesem Prozess herauszuholen, was man ja an RV7xx sieht.

Ich sehe daran nichts falsches. Auch die Umstellung auf 55nm bindet Ressourcen, zumal AMD ja auch bei 65nm wesentlich früher dran war. Natürlich heißt das nicht automatisch das man jetzt auch bei 40nm früher dran ist, aber zumindest ist es naheliegend.

Gast
2008-09-04, 00:48:14
Bitte zuerst denken bevor du hier deine unwitzigen Sprüche ablässt. 4650 vs. 9500GT, 4670 vs. 9550GT. Und mit Verlaub, da wird nV nicht viel zu lachen haben.


Nö die 46xx tretten sicher NICHT gegen die 9500GT an, sonder viel mehr gegen 9600GT und da sieht es bei weitem nicht so einfach aus da die 9600GT schon sehr gut mit der 3870 mit halten kann.

Gast
2008-09-04, 01:04:19
Der G94b dürfte etwa 180mm² haben, also im Vergleich zum RV730 mit 150mm² ist der überhaupt nicht viel grösser.

Oder schon G92 (8800GT) vs RV670 (3870) vergessen?

Und ich bin mir sicher, das die 128Bit Leistung kosten werden und für den geplanten Preis von ca. 100.- viel zu teur sein wird, da es im diesem Preisbereich schon lange andere karten gibt wie zb. eine 3870...

Chris2CB
2008-09-04, 01:12:51
Nö die 46xx tretten sicher NICHT gegen die 9500GT an, sonder viel mehr gegen 9600GT und da sieht es bei weitem nicht so einfach aus da die 9600GT schon sehr gut mit der 3870 mit halten kann.


UVP Preise sagen da aber was anderes und ATI setzt die Preise so an das es Aktuell so ausschaut:

9600GT - 3870
9550GT - 4670
9500GT - 4650


Die 46er Reihe besitzt kleine Chips und ein 128bit SI, also Preise sollten unter HD 3850 sein und soooooo billig kann eine 9600GT nicht werden

VooDoo7mx
2008-09-04, 06:12:34
Ich denke mal über kurz oder lang dürften die alten 3850 und 3870 vom Markt verschwinden, da der RV670 nicht mehr produziert wird und momentan nur abverkauft wird.

Und ich glaube auch nicht mehr wirklich das die 9600GT der wahre Gegner der HD4670 wird. Dafür ist der Chip einfach größer und das Board teuer. Dafür wird aber performancemäßig die 9600GT gut vorbeiziehen.

Da kommt eben die 9550GT ins Spiel. Iegentlich weiß momentan so niemand wirkluch was das ist. Die meisten gehen bisher von einen G96B aus. KÖnnte aber auch nen teildeaktivierter (wie bei den Mobiles) G94B sein.

Aber gehen wir einfach mal vom G96B aus. Erst dachte ich das der Chip eigentlich viel zu lahm ist um gegen die 4670 was machen zu können. Aber wenn nVidia die Taktfrequenzen hoch genug ansetzt dürfte da eigentlich doch was machbar sein.
Kommt eben darauf an wie hoch auch die 4670 endgültig getaktet ist. Aber wenn nVidia den G96B auf 800MHz oder gar mehr beschleunigt dürfte da schon was machbar sein.
Kann natürlich auch sein das die 4670 performancemäßig genau zwischen 9550GT und 9600GT liegen wird.
Es bleibt spannend. =)

Edit: Ich habe gerade ersten Test zum RV730 gelesen und das Ding ist langsamer als ich gedacht hatte. Da dürfte nen G96B @800/900 locker ausreichen um gegenzuhalten.

Ailuros
2008-09-04, 12:28:17
ich bin da nicht so gut informiert, aber wurde nicht relativ viel am r600 noch umgekrempelt damit er die 7xxmhz knackt? ich dachte ein teil davon hätte recht viel performace gekostet. aber kann mich natürlich irren.

Hauptsaechlich war es ein bloedes Problem des spezifischen 80nm Herstellungsprozesses. Ich hoerte damals von ~375MHz fuer die ersten samples und einen Stromverbrauch der fast an die 300W knallte. Umgekrempelt wurde nichts (ausser dem ROP Wehwehchen dass aber nichts damit zu tun hat afaik), nur eben gab es etliche re-spins um zumindest so nahe wie moeglich ans originale Ziel zu kommen. Selbst 800MHz waeren beim Launch moeglich gewesen, aber es haette noch mehr (verstaendlicherweise) den Stromverbrauch beinflusst.


du widersprichst dir ja indirekt selbst, sagst ja dass der gt200 mit mehr shadertakt durchaus schneller wäre, ich knüpfe an und sage es hätte für die x2 gereicht.

Ich sagte lediglich dass GT200 ein besseres Preis-/Leistungsverhaeltnis gehabt haette mit einem 1.5 Shadertakt als Beispiel. Dieses wuerde in 16% mehr theoretischen GFLOPs resultieren und natuerlich nicht gleich so viel mehr Leistung. Der Unterschied zur X2 ist hingegen etwas groesser als die extra Leistung die ein GT200+1.5GHz liefern koennte. GT200b braucht IMHLO sowohl einen hoeheren TMU/ROP Takt und natuerlich ein 2.5x ALU:TMU ratio um sehenswerteren Unterschied im Vergleich zur GT200 machen zu koennen.

insofern eine ähnliche situation, wie beim r600, der mit den lächerlichen 8% mehr und evnt. einsparnissen durchaus die gts640 hätte schlagen sollen. anders war er sicher NIE geplant

Mehr Takt (welcher moeglich war) haette eine extravagantare Kuehlungsloesung geheissen fuer die 2900XT und danach waere AMD gezwungen gewesen einen hoeheren Preis dafuer zu verlangen, was aber die gesamten Relation wieder komplett aendert. Nach all dem Wirrwarr (in etwa wie oben illustriert) war es fuer AMD rentabler das Ding so schnell wie moeglich auf den Markt zu bringen, den Preis analog an die Leistung anzupassen und sich mit voller Kraft auf die Nachfolger zu konzentrieren. Fuer RV670 gab es nicht genug Zeit fuer irgendwelche Aenderungen, dieser kam aber frueh genug an um NVIDIA die erste Ohrfeige zu verpassen. Das blaue Auge verpasste aber doch dann RV770.

Wie dem auch sei: was schaetzt Du hat NVIDIA nach dem RV670 als Prioritaet gehabt? An jeglichem GT200 oder sogar GT200b unendlich herumzufunkeln und damit Zeit und Geld verschwenden oder baden sie einfach das Ganze so gut wie moeglich aus und konzentrieren sich mit voller Pulle eher auf die naechste Generation?

Black-Scorpion
2008-09-04, 19:06:16
Stimmt, hat nV mit dem G200 schmerzlich feststellen müssen. ;)

reunion
2008-09-04, 19:29:41
Gegen die 9600GT kommt RV770LE; RV730 tritt gegen die 9500-Serie an, RV710 gegen die 9400-Serie. RV670 läuft aus, da die Effizienz im Vergleich zu den RV7xx-Chips zu schlecht ist.

Gast
2008-09-04, 19:37:06
Gegen die 9600GT kommt RV770LE; RV730 tritt gegen die 9500-Serie an, RV710 gegen die 9400-Serie. RV670 läuft aus, da die Effizienz im Vergleich zu den RV7xx-Chips zu schlecht ist.

NVIDIA kann nicht mit einem G94b kontern weil er nur etwas grösser als der RV730 ist, aber jetzt soll gegen den G94b von AMD ein RV770 (abgespeckter?) kommen? Alles klar...

reunion
2008-09-04, 20:10:18
NVIDIA kann nicht mit einem G94b kontern weil er nur etwas grösser als der RV730 ist, aber jetzt soll gegen den G94b von AMD ein RV770 (abgespeckter?) kommen? Alles klar...

Was glaubst du ist eine 9550GT? Hm? Kleiner Tipp: Sicher kein G96. 9600GT vs. RV770LE, 9550GT(G94b) vs. 4670, 9500GT vs. 4650.

James Ryan
2008-09-05, 05:41:48
Leute, Topic ist die kommende GT200! :|

MfG :cool:

deekey777
2008-09-05, 09:27:53
Leute, Topic ist die kommende GT200! :|

MfG :cool:
So sieht's aus.
OT entsorgt.

Gast
2008-09-05, 09:50:17
...full ack. so betrachtet natürlich richtig.

...
Wie dem auch sei: was schaetzt Du hat NVIDIA nach dem RV670 als Prioritaet gehabt? An jeglichem GT200 oder sogar GT200b unendlich herumzufunkeln und damit Zeit und Geld verschwenden oder baden sie einfach das Ganze so gut wie moeglich aus und konzentrieren sich mit voller Pulle eher auf die naechste Generation?
hmm, eine gute frage. ich denke man kann das nicht auf eine to-do-list mit einem punkt begrenzen, sondern muss verschiedene faktoren berücksichtigen.
NV benötigte den 55nm prozess, wollte diesen, wie üblich, nicht primär für den High end chip verwenden sondern zuerst die einfacheren strukturen migrieren.

der gt200 hätte VOR dem RV770 natürlich mehr wind machen können, als aber schon facts über den rv770 da waren, stand er in einem grösseren zwielicht. ich persönlich glaube, dass NV Mitte bis ende 07 erste simulationen hatte - gleichzeitig hat wohl mr. intel-hasser zu sehr auf das GPGPU pferd gesetzt und dadurch die ausrichtung des Chips effektiv gestört/geändert.

Der RV670 zeigte ja effektiv, dass alu-rechenlastigkeit nicht die eierlegende-wollmilch-sau ist, ich verstehe also nicht, wieso man das perfekte TEX:ALU Verhältnis des G80 geändert hat. sehrwahrscheinlich wollte man einfach zu viel und hat sich mit den zur verfügung stehenden fertigungsprozesse verrechnet und sich indirekt damit ins bein geschossen.

nun stellt sich die frage, wann man das bemerkt hat. ausserdem die probleme mit den Chipgehäusen, welche ja anscheinend auch schon seit ende letztem jahres bekannt sind...

NV scheint viel pech gehabt zu haben und musste nen haufen geld für denselben scheiss ausgeben wie ati mit dem R600. Respin um Respin, taktraten verfehlt usw. am ende aber dasselbe gemacht zu haben, nämlich das produkt zu launchen und so schnell es geht einen sinnvolleren nachfolger aus der pipeline zu werfen.

ich bin zwar ati-fanboy (eher 3dfx, aber eben), aber keine frage, der gt200 war und ist eine meisterleistung der chipentwicklung und fertigung. ich wünsche NV, dass sie ihre probleme lösen können und eine weiterentwicklung bringen, mit dem alten TEX:ALU Ratio und evnt. auch wieder höheren taktraten. ich tendiere also zum 55nm prozess, egal was fuad sagt, nv ist in der jetztigen situation sicher nicht so verwegen das monsterteil direkt auf 40nm zu shrinken. wäre ja abartig...

Ailuros
2008-09-05, 11:48:57
hmm, eine gute frage. ich denke man kann das nicht auf eine to-do-list mit einem punkt begrenzen, sondern muss verschiedene faktoren berücksichtigen.
NV benötigte den 55nm prozess, wollte diesen, wie üblich, nicht primär für den High end chip verwenden sondern zuerst die einfacheren strukturen migrieren.

Es riecht in letzter Zeit verdaechtlich danach als ob NV in der absehbaren Zukunft dann nicht mehr so konservativ sein wird mit den kleinsten/neuesten Herstellungsprozessen.

der gt200 hätte VOR dem RV770 natürlich mehr wind machen können, als aber schon facts über den rv770 da waren, stand er in einem grösseren zwielicht. ich persönlich glaube, dass NV Mitte bis ende 07 erste simulationen hatte - gleichzeitig hat wohl mr. intel-hasser zu sehr auf das GPGPU pferd gesetzt und dadurch die ausrichtung des Chips effektiv gestört/geändert.

Das Problem fieng damit an dass irgendwelche Deppen bei NV schaetzten dass RV670 nur ein 3/4 R600 ergo ala 2900PRO sein wird und danach die Nachfolger falsch eingeschaetzt. Haetten sie recht gehabt, waere das Bild fuer GT200 natuerlich um einiges besser gewesen.

Was jetzt Intel betrifft, es wuerde mich verdammt wundern wenn NVIDIA schon seit einiger Zeit nicht schon in Richtung Larabee (bitte nicht wortwoertlich nehmen) entwickelt hat. Egal was NV's Marketingmaschine fuer einen Scheiss zeitlich erklaert, ich erinnere an die oeffentlichen Aussagen betreffend USC vor dem G80 Launch. So oder so NVIDIA muss fuer ihren D3D11 chip fuer eine neue eigene Revolution sorgen; beruhen sie immer noch auf G80/GT200 Fundamenten (was aber auch verdammt relativ ist und man kann es leicht falsch verstehen) sieht es nicht besonders gut fuer sie aus.

Der RV670 zeigte ja effektiv, dass alu-rechenlastigkeit nicht die eierlegende-wollmilch-sau ist, ich verstehe also nicht, wieso man das perfekte TEX:ALU Verhältnis des G80 geändert hat. sehrwahrscheinlich wollte man einfach zu viel und hat sich mit den zur verfügung stehenden fertigungsprozesse verrechnet und sich indirekt damit ins bein geschossen.

GT200 fehlt es durchaus nicht an Fuellraten, sondern eher an Rechenleistung. Und der Trend bleibt auch so IMHLO in der Zukunft. Ihre neuesten Projektionen fuer die Zukunft sprechen eher dafuer als dagegen. Nebenbei (siehe auch weiter oben) wird hoechstwahrscheinlich eine gesunde Portion an fixed function HW in der D3D11 Architektur verschwinden. Der kritische Punkt fuer jeglichen IHV ist eben einen goldenen Zwischenweg zu finden, der zwar 11 Komplianz problemlos garantiert, aber jegliche zukuenftige GPUs gleichzeitig einen gesunden Leistungschub in zeitlichen Spielen zu verpassen.

Uebrigens und obwohl es davon abhaengt wie jemand genau "TMU" definiert, war der Anstieg an TMUs von G8x im Vergleich zu G7x nicht unbedingt gross (32 vs. 24 wenn man jeweils unter Umstaenden etwas als "volle TMU" betrachtet). Es waren eher tiefe Aenderungen in der G8x Architektur die die brauchbaren Fuellraten um einiges erhoehten. NV's groesstes Problem bis zu G7x war eben dass der shader core mit den TMUs dummerweise zu stark verstrickt waren. Der Ironie zu Liebe kommt es mit mathematischer Genauigkeit zum gleichen Standpunkt in der Zukunft nur eben unter total verschiedenen Bedingungen.


NV scheint viel pech gehabt zu haben und musste nen haufen geld für denselben scheiss ausgeben wie ati mit dem R600. Respin um Respin, taktraten verfehlt usw. am ende aber dasselbe gemacht zu haben, nämlich das produkt zu launchen und so schnell es geht einen sinnvolleren nachfolger aus der pipeline zu werfen.

GT200 hatte weder die R600 Probleme noch so viele respins am Ende; das Ding ist schlicht suendhaft teuer wegen der die-Groesse und Anzahl der Transistoren. Wie schon mal erwaehnt es gab unendliche interne Verhandlungen ob sie das 65nm Monster veroeffentlichen sollen oder nicht, was eher darauf deutet dass sie auf einer Architektur um einige Zeit gebruetet haben. Und ja sie wussten schon im Simulations-Stadium was fuer eine ALU-Frequenz sie erreichen koennen, da sie schon vor einiger Zeit erwaehnten dass eine zukuenftige Architektur fast 1 TFLOP erreichen wird. 930GFLOPs liegen durchaus in dieser Region.

ich bin zwar ati-fanboy (eher 3dfx, aber eben), aber keine frage, der gt200 war und ist eine meisterleistung der chipentwicklung und fertigung. ich wünsche NV, dass sie ihre probleme lösen können und eine weiterentwicklung bringen, mit dem alten TEX:ALU Ratio und evnt. auch wieder höheren taktraten. ich tendiere also zum 55nm prozess, egal was fuad sagt, nv ist in der jetztigen situation sicher nicht so verwegen das monsterteil direkt auf 40nm zu shrinken. wäre ja abartig...

Das was bis vor einiger Zeit als "G100" bekannt war wuerde mich aber kein bisschen wundern wenn es in 40nm ankommen wuerde. In solch einem Fall bedeutet es eine 180-gradige Wendung was die bisherige Strategie betrifft. 55nm/GT200b und dergleichen sind nur "Massnahmen" (die sowieso seit einiger Zeit schon geplant und festgelegt sind) um die Herstellungs-Unkosten und jeglichen moeglichen Schaden der davon originieren koennte reduzieren wird und nichts anderes.

Ich erwarte sowieso dass in naechster Zeit bei NV ein paar Koepfe rollen werden; keine Ahnung ob es je zur Oeffentlichkeit geraten wird, aber das Zeug mit der G8x/9x Saga ist kein einfaches Missgeschick.

derwalde
2008-09-05, 12:07:05
so ich war eine woche im urlaub und wollt nicht alles neue lesen. gibbet endlich was handfestes zum g200b bzw. gtx290(?) ?

danke schonmal!

Ailuros
2008-09-05, 12:24:14
Etwas bessere Leistung als GTX260 bzw. 280 je nach Modell. Das Ding dass die 260 ersetzen wird, wird wohl 9 anstatt 8 cluster eingeschaltet haben.

derwalde
2008-09-05, 12:28:55
Etwas bessere Leistung als GTX260 bzw. 280 je nach Modell. Das Ding dass die 260 ersetzen wird, wird wohl 9 anstatt 8 cluster eingeschaltet haben.

die wichtigste aller fragen: WANN? :)

AnarchX
2008-09-05, 12:38:00
Laut Expreview fällt das NDA für die GTX 260 -216SP am 16.9..

Gast
2008-09-05, 14:32:51
Aber die wird doch weiter in 65 nm gefertigt und noch nicht auf dem in 55 nm-gefertigten GT200b-Core aufsetzen!

Gast
2008-09-05, 14:34:28
Aber die wird doch weiter in 65 nm gefertigt und noch nicht auf dem in 55 nm-gefertigten GT200b-Core aufsetzen!
ja und nein.

ich erwarte eine ähnliche situation wie bei den neuen g92(b)s, also eine zeitverzögerte "umstellung".

@ail

danke schön für deine ausführlichen antworten. sehr interessant und durchaus logisch was du sagst, werde dir bei gelegenheit antworten, bin gerade noch im freitag-nachmittag-stress ;)

Anarchy-HWLUXX
2008-09-05, 14:36:55
Noch ist nicht 100% sicher das die aufgebohrte 260er ohne Namensänderung oder Anhängsel dahekommt ...


z.B.

GTX265 oder GTX260+

Gast
2008-09-05, 14:50:32
Noch ist nicht 100% sicher das die aufgebohrte 260er ohne Namensänderung oder Anhängsel dahekommt ...


z.B.

GTX265 oder GTX260+
über den namen sagte ich auch nix...

Gast
2008-09-05, 15:26:53
Wenn die wirklich noch mit dem alten G200 kommt, dürfte es wohl noch etwas dauern bis der G200b wirklich im Handel erhältlich sein wird.

Ich meine, einen besseren einstieg für den G200b gäbe es bei der neuen 260 ja nicht und man könnte die loker als 260+ wie bei der 9800GTX oder sogar als 270 verkaufen!

Ich vermute ja schon langsam das wir gar nie einen G200b sehen werden und Anfang 2009 gleich einer in 40nm kommt, so viel zeit haben wir bis ende Jahr schliesslich nicht mehr und ein G200b macht Anfang 2009 keinen Sinn mehr.

Gast
2008-09-05, 16:27:45
Eine fast schon sichere Neuerung soll aber das angepasste Shaderratio sein und die Taktraten will Nvidia bekanntermaßen bei 576/1242 MHz belassen. Das deutet aus meiner Sicht klar für GT200.

Gast
2008-09-05, 16:32:16
65nm mit einem aktiven Cluster mehr abverkaufen und schleichend umstellen macht IMHO durchaus Sinn, aber in Anbetracht des Weihnachtsgeschäfts wäre eine frische Karte, sprich eine Namensänderung, sicher nicht verkehrt. :)

Gast
2008-09-05, 20:15:16
die frage ob noch was im 55nm prozess kommt kann dir nur nv beantworten. es ist aber schon ziemlich ruhig...

Gast
2008-09-05, 21:51:53
Ich weiß nicht, wie Ihr das Euch denkt. Warum soll 55 nm viel zu spät sein und eventuell gar nicht kommen?

Selbst wenn Nvidia sehr früh im Februar kommenden Jahres auf den 40 nm-Zug springen sollte, dann wird man sicherlich nicht sofort einen Monster-Chip wie den GT200 darauf umstellen. Einen GT200 in 40 nm könnte ihr mit sehr viel Wohlwollen im März erwarte, ich denke aber mal eher April oder so.

Für 55 nm bleibt also noch viel Luft. Ich denke, dass es im Oktober soweit sein wird.

Psychopat
2008-09-06, 00:58:28
Wenn nVidia wirklich gleich mit dem neuen Highend-Chip auf eine neue Fertigung geht, wäre der G200b als Backup schon wünschenswert für sie. Wenn was schief geht, will man was besseres als den unrentablen G200 haben.

James Ryan
2008-09-07, 11:32:22
Ist zum Preis der neuen GTX 260 schon was bekannt?
Hoffe mal das Teil liegt auf einem ähnlichem Niveau wie die aktuelle GTX 260.

MfG :cool:

Ailuros
2008-09-07, 19:29:21
Ist zum Preis der neuen GTX 260 schon was bekannt?
Hoffe mal das Teil liegt auf einem ähnlichem Niveau wie die aktuelle GTX 260.

MfG :cool:

Ein klein bisschen teurer als die heutige 260 bei ihrem launch.

AnarchX
2008-09-07, 19:39:57
Nunja, mittlerweile liegt ja die GTX 280 beim Launch-MSRP der GTX 260 - $399.;)

Fuad hatte doch ca. 50€ mehr angedeutet, also wohl 250-280€.

Coda
2008-09-07, 19:41:56
Ich hoffe bloß NVIDIA entfacht nicht wieder so ein unglaubliches Namenschaos.

Gast
2008-09-07, 23:15:34
Die neue 260 soll doch gleich viel kosten! Wird am Anfang sicher noch etwas teurer sein als die alte, aber sobald von den alten keine mehr an Lager sind wird sich das wieder ausgleichen.

Gast
2008-09-07, 23:18:11
und für 50.- mehr wird sich das ding so wie so keiner kaufen... ;)

so unglaublich viel mehr Leistung wird die Karte ja schliesslich nicht mehr haben als die alte 260 ;)

AnarchX
2008-09-09, 07:43:41
Die Codenamen kennen wir ja schon, aber nun mit Prozess und Einordnung:

http://img398.imageshack.us/img398/4585/nvidiaroadmapgt212gt206wz6.jpg (http://imageshack.us)

http://en.expreview.com/2008/09/09/elsa-hints-nvidias-next-step-is-45nm-gt212/

Wohlmöglich steht ja die letzten zwei Ziffern für die Zahl der Cluster, wobei man spekuliert, dass NV von 24 auf 32 SPs pro Cluster gehen könnte.

Also:
GT206: 48 TMUs, 192SPs
GT212: 96 TMUs, 384SPs

Fragt sich nur ob der GT206@55nm entsprechend hohe Taktraten erreichen kann, um dann eine Performance wie angedeutet überhalb der GTX 260 zu erreichen.



btw:
HKEPC-Test der GTX 260 GOLD mit 216SPs (http://hkepc.com/?id=1684&fs=c1hh)

Die ca. 11% mehr Tex+ALU-Leistung enden auf Grund des gleichen Taktes und dem gleichen ROP/Speicher-System bei ca. 5% Mehrleistung.

Sieht zudem so aus als müssen die Hersteller selbst auf das Upgrade aufmerksam machen und es bleibt bei GTX 260.

Anarchy-HWLUXX
2008-09-09, 08:05:26
Also zu Anzahl der Shader oder sonstwas abgesehen vom Herstellungsprozess sieht man da mal nüx ;)


Und die 9800GTX+ bekommt nen refresh - nachdem was ich da entziffern kann gibt das nochmal höhere Taktraten und modelle mit 1GB VRAM.

Gast
2008-09-09, 08:42:21
Die Codenamen kennen wir ja schon, aber nun mit Prozess und Einordnung:
Offenbar unterscheiden sich die Refreshs der GTX260 und GTX280 so wenig, dass Elsa sie nicht mal separat aufführt. Somit wird das wohl eher ein "kleiner Wurf".

Was mich wundert ist Q109 noch ein GT200 basierter Chip kommt. Ich hätte vermutet, dass Nvidia noch vor dem DX11 Chip (Q3/Q409?) nochmal einen etwas größeren Sprung macht.

AnarchX
2008-09-09, 08:53:13
Also zu Anzahl der Shader oder sonstwas abgesehen vom Herstellungsprozess sieht man da mal nüx ;)

Wenigsten deutet es sich an, dass NV mit GT212 nochmal eine High-End-GPU bringt und nicht wieder auf ein weniger optimale GX2 bis DX11 setzt.
96 TMUs und 384SPs sollten es dann schon sein um gegen 4870X2 bzw. deren Frühjahres-Refresh in 4xnm zu bestehen.

Offenbar unterscheiden sich die Refreshs der GTX260 und GTX280 so wenig, dass Elsa sie nicht mal separat aufführt. Somit wird das wohl eher ein "kleiner Wurf".
Eher sieht es danach aus, dass ELSA erst seit Q3 GTX 200 im Portfolio hat.
Und GT200B wird imo einfach irgendwann auf den Karten verbaut sein und nichts großes mit sich führen, den für die X2 reicht er in keinem Fall.


Was mich wundert ist Q109 noch ein GT200 basierter Chip kommt. Ich hätte vermutet, dass Nvidia noch vor dem DX11 Chip (Q3/Q409?) nochmal einen etwas größeren Sprung macht.
Ein >300mm² Die @ 40nm mit >50% GTX 280 Leistung soll kein großer Sprung sein, wenn zwei bis drei Quartale später schon wieder eine D3D11-High-End-GPU ansteht? :|

reunion@work
2008-09-09, 09:24:12
Wenigsten deutet es sich an, dass NV mit GT212 nochmal eine High-End-GPU bringt und nicht wieder auf ein weniger optimale GX2 bis DX11 setzt.

Wie komst du darauf das es so ist? Alles was ich der Roadmap entnehmen kann ist der Fertigungsprozess. GT212 könnte genau so gut ein einfacher GT200-Shrink mit leichten Optimierungen sein und eben dann als GX2 herhalten.


96 TMUs und 384SPs sollten es dann schon sein um gegen 4870X2 bzw. deren Frühjahres-Refresh in 4xnm zu bestehen.


Das würde bestenfalls für die 4870X2 reichen, aber wohl kaum für den 40nm Refresh wenn AMD hier das Potential entsprechend ausnutzt.


Ein >300mm² Die @ 40nm mit >50% GTX 280 Leistung soll kein großer Sprung sein, wenn zwei bis drei Quartale später schon wieder eine D3D11-High-End-GPU ansteht? :|

Ich wage zu bezweifeln das nV jetzt noch viel Ressourcen in einen D3D10-Chip stecken wird. IMHO kommt jetzt ein GT200-Shrink und eine GX2.

reunion@work
2008-09-09, 09:25:32
Offenbar unterscheiden sich die Refreshs der GTX260 und GTX280 so wenig, dass Elsa sie nicht mal separat aufführt. Somit wird das wohl eher ein "kleiner Wurf".

Was mich wundert ist Q109 noch ein GT200 basierter Chip kommt. Ich hätte vermutet, dass Nvidia noch vor dem DX11 Chip (Q3/Q409?) nochmal einen etwas größeren Sprung macht.

Auch interessant, dass nV offenbar nicht vor hat, unterhalb der GTX260 einen GT2xx-Chip zu bringen, sondern weiter auf die G9x-Chips setzt.

Ailuros
2008-09-09, 09:49:16
reunion,

Wenn GT206 6 clusters hat, dann handelt es sich offensichtlich nicht um einen einfachen GT200 shrink. Es gibt einen kleinen Unterschied zwischen 8*24 und 6*32 oder? (natuerlich stets von einer Entwicklungs-perspektive).

reunion@work
2008-09-09, 09:50:52
reunion,

Wenn GT206 6 clusters hat, dann handelt es sich offensichtlich nicht um einen einfachen GT200 shrink. Es gibt einen kleinen Unterschied zwischen 8*24 und 6*32 oder? (natuerlich stets von einer Entwicklungs-perspektive).

Wenn es so ist nein, nur ist es so?

Gast
2008-09-09, 09:52:09
Das würde bestenfalls für die 4870X2 reichen, aber wohl kaum für den 40nm Refresh wenn AMD hier das Potential entsprechend ausnutzt.


Ich glaube kaum, dass eine 4870 X2 @ 40nm großartig höher getaktet oder sogar verbreitert wird.
AMD/ATi muss erstmal den Stromverbrauch des Monsters halbwegs erträglich halten!

Ailuros
2008-09-09, 10:05:00
Wenn es so ist nein, nur ist es so?

Ein bisschen zusaetzliche Spannung schadet nie oder? :P

Schlammsau
2008-09-09, 11:38:04
ich schätze die neue GTX260 wird bei rund 250€ liegen. Ist ja immernoch der gleiche Chip wie bei der "alten". Jedenfalls von der Grösse her.......

Nakai
2008-09-09, 12:03:00
Ich glaube kaum, dass eine 4870 X2 @ 40nm großartig höher getaktet oder sogar verbreitert wird.
AMD/ATi muss erstmal den Stromverbrauch des Monsters halbwegs erträglich halten!

40nm bringt einen leicht höheren Tat mit. Ebenso verbraucht eine Verbreiterung des Chips weniger Strom, als höherer Takt.

Das würde bestenfalls für die 4870X2 reichen, aber wohl kaum für den 40nm Refresh wenn AMD hier das Potential entsprechend ausnutzt.


Würd ich nich sagen. Man schafft knapp 1,5 TFLOPs mit der GT 212. CF skaliert nicht immer so gut und da sind ja noch die MR. Gegen den HD4870X2-Refresh siehts eher mau aus.



mfg Nakai

Unyu
2008-09-09, 12:06:04
Man schafft knapp 1,5 TFLOPs.
Wie das?
Bei Vollauslastung im Furmark sind 430 ALUs der 4870 aktiv: 645 GFLOPs.

Nakai
2008-09-09, 12:08:21
Wie das?
Bei Vollauslastung im Furmark sind 430 ALUs der 4870 aktiv: 645 GFLOPs.

Sry, ich meinte natürlich den GTX280-Refresh mit 384 SPs.


mfg Nakai

deekey777
2008-09-09, 12:14:23
reunion,

Wenn GT206 6 clusters hat, dann handelt es sich offensichtlich nicht um einen einfachen GT200 shrink. Es gibt einen kleinen Unterschied zwischen 8*24 und 6*32 oder? (natuerlich stets von einer Entwicklungs-perspektive).

Ein zusätzlicher "Streaming-Multiprozessor" innerhalb eines SIMTs (:biggrin:)?
Das hieße, dass der Scheduler pro Core/SIMT/Cluster gleich vier Micro-Threads (Threads, Warps, Dings usw) finden muss, für die die gleiche Instruction ausgeführt werden soll. Müsste aber nicht schwer sein.

Gast
2008-09-09, 14:24:44
Also wenn das so alles kommt, dann hut ab!

Mit dem GT212 wäre ja sogar Theoretisch eine GX2 möglich, 768 Shader und 192TMUs :))

Gast
2008-09-09, 14:31:30
Eigentlich Genial von NVIDIA Q4 noch ein kleiner G206 in 55nm mit 192Shader zu bringen, wenn es nämlich Probleme beim grossen G212 in 40nm gibt, kann man schnell eine GX2 mit G206 raushauen!

Oder das ding kommt so oder so, was natürlich auch gut möglich wäre!

Ailuros
2008-09-09, 14:44:41
Also wenn das so alles kommt, dann hut ab!

Mit dem GT212 wäre ja sogar Theoretisch eine GX2 möglich, 768 Shader und 192TMUs :))

Nein. Entweder ist GT212 ein single chip oder 2*GT206@4xnm

Gast
2008-09-09, 14:50:30
Bis jetzt hatte jede GX2 zwei Single Chips...

igg
2008-09-09, 15:00:45
Bis jetzt hatte jede GX2 zwei Single Chips...
Nein, es waren immer über SLI verbundene Karten/Platinen in einem Gehäuse

AnarchX
2008-09-09, 15:04:56
Mal schnell überschlagen:

GT206: 48 TMUs, 192SPs, 256-Bit @55nm = 330mm² @40nm = 170mm²
GT212: 96 TMUs, 384SPs, 512-Bit @40nm = 290mm²

Auf Basis der Flächeneinschätzung von Arun zum GT200, aus dem GT200 Thread:
This is also based on a die shot, although a better one so if you can't corroborate it, you'll just have to believe me:
~26.5% SMs, ~26% Non-SM Clusters (TMUs etc.), ~14.25% memory I/O, ~13.25% unique, ~8% MCs, ~6.25% ROPs, ~2% Misc. I/O, 4%+ Misc. (intrachip I/O, rounding errors, unidentifiable units, etc.)

Bei GT206@40n könnte man ja schon fast eine GT218 bauen, deren Codenamen es ja auch gibt, aber dann auch mit einer vernünftigen Multi-GPU-Technologie.

Ailuros
2008-09-09, 15:31:07
290mm^2 ist ein bisschen konservativ eingeschaetzt IMHLO.

Brauchen sie uebrigens wirklich einen 512bit breiten Bus wenn sie endlich GDDR5 einsetzen?

Gast
2008-09-09, 16:16:11
Nein, es waren immer über SLI verbundene Karten/Platinen in einem Gehäuse

lol und das sind keine zwei Single Chips? Was ist es den dann? Eine Multi GPU Chip der aus zwei einzel Chip Besteht lol

Fakt ist das man mit so einem G212 eine GX2 Karte bauen kann, sogar die einschätzung der DIE Grösse bestätigt das ja gleich.

Nakai
2008-09-09, 16:16:24
GT206: 48 TMUs, 192SPs, 256-Bit @55nm = 330mm² @40nm = 170mm²
GT212: 96 TMUs, 384SPs, 512-Bit @40nm = 290mm²

Wenn man architekturelle Verbesserungen miteinbezieht, liegt der GT206 bei geeigneter Taktung wohl auf GTX280-Nveau.
G212, also das doppelte, über HD4870X2.


mfg Nakai

Gast
2008-09-09, 16:25:56
Brauchen sie uebrigens wirklich einen 512bit breiten Bus wenn sie endlich GDDR5 einsetzen?

Für eine Chip mit ~1,5x GTX280-Power sollte 384bit@GDDR5 ganz gut passen!

reunion
2008-09-09, 17:28:27
Steht bei der GT212 eigentlich 40nm oder 45nm? Ich lese dort nämlich eher 45nm. 40nm erscheint mir für das erste Quartal etwas sehr optimistisch für ein so großes Die.

Gast
2008-09-09, 17:29:16
GT206: 48 TMUs, 192SPs, 256-Bit @55nm = 330mm² @40nm = 170mm²
GT212: 96 TMUs, 384SPs, 512-Bit @40nm = 290mm²


Ich weiß nicht, wie Du rechnest, aus meiner Sicht jedoch sehr, sehr optimistisch.

Vor dem Hintergrund, dass der GT200b (55 nm) rund 470 mm^2 wird, würde ein 40 nm-Chip rechnerisch auf.

470*0,53 = 249,1 mm^2 kommen. In der Praxis könnte man so einen Chip dann in etwa 290 mm^2 erwarten.

Jetzt sag Du mir mal, wie Nvidia 16 weitere TMUs und 144 weitere SPs auf 290 mm^2 packen soll? Dann müsste man die Packdichte - ähnlich wie AMD beim RV770 - schon stark verändern. Ich erwarte den möglichen GT212 mit eben genannten Spezifikationen in 40 nm bei rund 400 mm^2.

Gast
2008-09-09, 17:32:09
Brauchen sie uebrigens wirklich einen 512bit breiten Bus wenn sie endlich GDDR5 einsetzen?

Ich denke schon. 256 Bit wäre zu schmall und 384 Bit hätte man wieder das Problem mit der Speicherbestückung. 768 MiB wären zu knapp bemessen für so einen Monster-Chip und 1536 MiB GDDR5-Speicher - das wird teuer.
Zudem würde die Anzahl der ROPs von 32 auf 24 fallen, es sei denn man verbaut pro ROP-Partition mehr ROPs. Diese sind doch gerade unter 8-fachem Anti-Aliasing gefordert, wo Nvidia gehörig Nachholfbedarf hat.

Gast
2008-09-09, 18:02:41
Ich denke schon. 256 Bit wäre zu schmall und 384 Bit hätte man wieder das Problem mit der Speicherbestückung. 768 MiB wären zu knapp bemessen für so einen Monster-Chip und 1536 MiB GDDR5-Speicher - das wird teuer.
Zudem würde die Anzahl der ROPs von 32 auf 24 fallen, es sei denn man verbaut pro ROP-Partition mehr ROPs. Diese sind doch gerade unter 8-fachem Anti-Aliasing gefordert, wo Nvidia gehörig Nachholfbedarf hat.

Wenn man die ROPs pro Speicherkanal verdoppeln würde, hätte man gute 48 ROPs auf 384bit. Das passt ganz gut. 1536 MiB GDDR5 Speicher sollte auch kein Problem sein (die 4870 X2 hat ja auch schon 2048 MiB GDDR5).

AnarchX
2008-09-09, 18:03:02
Ich denke schon. 256 Bit wäre zu schmall und 384 Bit hätte man wieder das Problem mit der Speicherbestückung. 768 MiB wären zu knapp bemessen für so einen Monster-Chip und 1536 MiB GDDR5-Speicher - das wird teuer.
Nunja, ATi verkauft 2GiB GDDR5 zusammen mit 2x260mm² Die für ~400€.;)