PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF104 - Q2/2010 - und andere GF10x


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11

Ailuros
2010-05-14, 07:30:15
Dachte die 465 soll GF104 haben und die 460 GF100???

104 darf zumindest am Anfang nicht schneller sein als jeglicher GF100 Ableger. Ergo:

GTX480/GTX470/GTX465 (GF100)
GTX460(?) (GF104)



x3? 9800GTX+ hatte B1 obwohl ja auch immer wider behauptet wird das es auch A2 gab... einen beweis dazu (Foto der DIE) einer Referenz 9800+ mit A2 hab ich jedoch nie gesehen... Meine 9800GTX+ aus der ersten Auslieferung der Karten hatte B1, da kann ich mir auch kaum vorstellen das später noch welche mit A2 nach gereicht wurden, es sei den die Board Partner haben einfach 9800GTX unbenannt und höher getaktet...

Ich konnte mich lediglich nicht mehr daran erinnern ob die GTX+ einen metal spin oder re-spin trug. B1 heisst re-spin ergo von ein paar metal spins auf 65nm ging man auf einen die shrink unter 55nm und erreichte die peak Frequenzen erst nach einem re-spin auf dem letzteren. Es aendert nichts an dem was ich sagen wollte, sondern bestaetigt sogar wie lange und ueber wie viel Wellen G92 ging um extravagante Frequenzen zu erreichen.

Unter 65nm ging G92 in die Startloecher mit dem gleichen hot clock als die 8800Ultra, ergo verstehe ich auch nicht warum GF104 theoretisch stark hoehere Frequenzen als die GTX480 am Anfang haben koennte. Schon gar nicht wenn weiss der Teufel weiss was etwas an der Architektur hapert und/oder 40G alles andere als ein idealer Prozess ist. Im Vergleich zu 40G waren damals 65nm bzw. 55nm um einige Meilen besser.

Ist das inzwischen bestätigt? Vier GPCs wären ja theoretisch auch denkbar.

Also ich denke ich koennte Gipsel's Thesen ueber das Ganze so langsam adoptieren: eben dass der ganze GPC Humbug vereinfacht auf virtuellem Niveau liegt.

Angenommen es stimmt dass jeglicher chip mit der Anzahl der SMs skaliert, hasst Du bei theoretischen 8SMs fuer 104 16 pixels/clock fuer rasterizing (+16 zusaetzlichen ROPs). Pro 4SMs dann 1 Tri/clock, ergo theoretisch maximal 2 Tris/clock.

Im Fall der 11SMs 465 sind es eben dann 22 pixels/clock rasterizing (ergo 10 zusaetzliche ROPs fuer AA Effizienz) und maximal zwar vielleicht 3 Tris/clock, aber selbst auf einem vollen 16SM/GF100 werden in internen Messungen keine 4 Tris/clock erreicht. Es ist zugegeben komisch dass die 465 nun 11 und nicht gleich 12SMs hat, aber es koennte auch durchaus Absicht sein um einen besseren Abstand (bei gleichen Frequenzen) zur 470 zu halten.

Quick layman's recap:

GTX480 = 30 pixels rasterizing + 18 ROPs, < 4 Tris/clock
GTX470 = 28 pixels rasterizing + 12 ROPs, > 3 Tris/clock
GTX465 = 22 pixels rasterizing + 10 ROPs, < 3 Tris/clock

V2.0
2010-05-14, 10:01:09
Naja, der GTX465 wird recht schnell EoL gehen, wenn GF100 Bx und GF104 massenverfügbar werden.

robbitop
2010-05-14, 10:04:44
Wie ist GF104 denn hinsichtlich der Performance einzuordnen? So schwach wie die GTX465 - ergo 5830 Performance?
Weiß man schon was über die Leistungsaufnahme von GF104?

aths
2010-05-14, 10:33:28
Ich finde nicht. Die Punktdefekte sind ja zufällig über den ganzen Chip gestreut, deshalb würde das abschalten eines kompletten GPC die Yields wohl sogar schlechter werden lassen als wenn man einen SM in drei und zwei SMs in einem GPC deaktiviert.So viele Defekte dürfen die GPUs eh nicht haben sonst sind noch mehr Sachen als SM betroffen. Beim GF104 erwarte ich zwei Arrays, also auch zwei Rasterizer. GTX 465 wäre dann schön für den Übergang.

Ailuros
2010-05-14, 10:48:22
Wie ist GF104 denn hinsichtlich der Performance einzuordnen? So schwach wie die GTX465 - ergo 5830 Performance?

Der chiphell link geht nicht mehr und die Tests waren sowieso nicht besonders viel wert. Irgendwo in der Region duerfte sie schon liegen im Durchschnitt.

Weiß man schon was über die Leistungsaufnahme von GF104?

Keine Ahnung. Ich weiss lediglich dass es ein 2*6pin Design ist.

Gast
2010-05-14, 11:27:33
Es ist naheliegend.


Es ist auf jeden Fall völlig egal. 4 Raster-Units sind so dimensioniert um die 16SMs auszulasten. Für 11 oder 12SMs braucht man in keinem Fall mehr als 3 Raster-Units um diese auszulasten.

Gast
2010-05-14, 12:31:50
Fudo: http://www.fudzilla.com/content/view/18820/34/
GTX 460 - 150W
GTX 465 - 200W

Der Sinn einer Dual-GPU-Karte mit 2x256SPs erschließt sich mir noch nicht wirklich, auch wenn es 2x64TMUs, 2x32ROPs und 2x256-Bit sein könnten.

Gast
2010-05-14, 13:36:54
Fudo: http://www.fudzilla.com/content/view/18820/34/
GTX 460 - 150W
GTX 465 - 200W

Der Sinn einer Dual-GPU-Karte mit 2x256SPs erschließt sich mir noch nicht wirklich, auch wenn es 2x64TMUs, 2x32ROPs und 2x256-Bit sein könnten.
375w TDP :hammer:

Sorkalm
2010-05-14, 14:39:49
Hmm. Wenn der GF104 da langsamer ist als die GTX 465 (was die Namensgebung andeutet) ... dann versteh ich es auch nicht so wirklich.

AnarchX
2010-05-14, 14:55:35
Für eine GX2 sollten es schon 2x384SPs sein, aber das passt wieder nicht zu einer GTX 460 mit 150W und weniger Leistung als die 352SPs GTX 465.
Eine Teildeaktivierung von GF104 bei der GTX 460 wäre denkbar, aber scheint mir nicht sehr wahrscheinlich, vor allem nicht um 4 Cluster.

Große Chancen sehe ich für NV mit Fermi 1 nicht mehr, mit Fermi 2 muss man deutlich mehr Rohleistung pro Watt und Fläche erreichen. Und am wichtigsten wird sein, dass <=28nm @ TSMC vernünftig laufen wird bzw. gleichwertig zu GFs Prozessen.

Sorkalm
2010-05-14, 15:02:48
Für eine GX2 sollten es schon 2x384SPs sein, aber das passt wieder nicht zu einer GTX 460 mit 150W und weniger Leistung als die 352SPs GTX 465.
Eine Teildeaktivierung von GF104 bei der GTX 460 wäre denkbar, aber scheint mir nicht sehr wahrscheinlich, vor allem nicht um 4 Cluster.

Ja, daran denke ich auch nicht. Zumal, wenn die GF104 höhere Frequenzen schafft als die GTX 465, was ich doch mal hoffe, man auch recht nahe an diese herankommt. Der Name GTX 460 triffts dann schon ganz gut. Die interessanteste Frage wäre dann noch die nach den TMUs, also ob es wirklich 64 sind. Das dürfte gegenüber der 465 auch noch mal einen Schub bringen.

Ein 384-SP-Chip wäre zwar auch ganz interessant, aber ich sehe da nicht so viel Sinn für Nvidia drinne, wenn man auch mit GF100 geplant hat...
Jetzt für eine GX2 wäre er natürlich nett, aber wer rechnet schon mit sowas...

Gast
2010-05-15, 10:23:54
GF104@150Watt, für einen GTX285 Nachfolger mit DX11, nice. Mal schauen wie sie sich in BF2BC und GTA4 gegen die GTX285 schlägt, oder in älteren Texturekleister Benchmarks, in Crysis wird sie wohl eher auf GTX275 Niveau sein, wenn nicht weniger.

Spasstiger
2010-05-15, 11:57:22
GF104@150Watt, für einen GTX285 Nachfolger mit DX11, nice.
Wenn man sich den GF100 auf der GTX 480 anschaut, kann ich mir eigentlich nicht vorstellen, dass die GF104-basierende GTX 460 mit 150 Watt TDP auskommt. Ich vermute eher die gleiche TDP wie bei der GTX 285 bei ähnlicher Performance + DX11. Der reale Verbrauch dürfte im schlimmsten Fall auch die zwei 6-Pin-Anschlüsse ausreizen (max. 225 Watt).
Der GF104 wird ungefähr 2/3 der Transistoren des GF100 haben (also ~ 2 Mrd.) und auf der GTX 460 höher getaktet sein als die GTX 480. Der Verbrauch der GTX 460 sollte also höher liegen als bei 2/3 der GTX 480. Wenn man die Leckströme reduziert, vielleicht auch bei ~2/3. Aber nur 150 Watt TDP kann ich mir nicht vorstellen.

LuXon
2010-05-15, 12:11:28
Vergiss dabei nicht, dass nVidia die Probleme mit der Leistungsaufnahme hoffentlich grösstenteils gelöst hat. Die Karte wird sicher in den Regionen der GTX285 sein (Stromverbrauch und Leistung).

Gast
2010-05-15, 12:17:20
Vergiss dabei nicht, dass nVidia die Probleme mit der Leistungsaufnahme hoffentlich grösstenteils gelöst hat. Die Karte wird sicher in den Regionen der GTX285 sein (Stromverbrauch und Leistung).
Das wäre aber ziemlich schwach.
ATI hat bei der Leistung im Vegleich zur vorigen Generation richtig zugelegt, beim Stromverbrauch nicht.

Spasstiger
2010-05-15, 12:19:33
Die GTX 460 (GF104) wird bei DX9/DX10 imo nicht energieeffizienter sein als die GTX 285 (GT200b), sondern ungefähr auf demselben Level liegen. Man darf nicht vergessen, dass der GF104 40-45% mehr Transistoren als der GT200b hat und dazu noch mit einem höheren Kerntakt kommt (GTX 460 vs. GTX 285). Der Shadertakt wird auch auf einem ähnlichen Level liegen. Ersparnisse gibts dafür beim Speicherinterface.
Nvidia opfert jetzt erstmal Transistoren für DX11 und eine weiterhin gute Skalierbarkeit. Das zahlt sich in der ersten Generation noch nicht aus, wie man wunderbar an der GTX 480 sieht.

LovesuckZ
2010-05-15, 13:00:12
Die GTX480 ist schneller zur GTX285 als die GTX280 zur 8800GTX und das bei fast gleichem Stromverbrauchszuwachs. Und dabei handelt es sich um nichtmal dem kompletten Ausbau.
Guckt man auf die Veränderungen, dann ist GF100 das wesentlich bessere Paket.

Gast
2010-05-15, 13:16:47
Die GTX480 ist schneller zur GTX285 als die GTX280 zur 8800GTX und das bei fast gleichem Stromverbrauchszuwachs. Und dabei handelt es sich um nichtmal dem kompletten Ausbau.
Guckt man auf die Veränderungen, dann ist GF100 das wesentlich bessere Paket.

Da kann man sich ja schon auf die GTX 580 freuen mit 60% Leistungszuwachs und nur gleichem Mehrverbrauch :freak:

Gast
2010-05-15, 13:17:19
Der GF104 wird ungefähr 2/3 der Transistoren des GF100 haben (also ~ 2 Mrd.) und auf der GTX 460 höher getaktet sein als die GTX 480.


Von dem was man bisher weiß sollte man doch eigentlich mit weniger als 2Mrd. auskommen.

Alleine der Verzicht auf DP sollte gegenüber der GF100-Lösung eine Menge Einsparungen bringen.

Spasstiger
2010-05-15, 13:20:22
Die Diesize soll größer als beim Cypress ausfallen, das bedeutet für mich 2 Mrd. Transistoren, wenn man mit der Packdichte des GF100 vergleicht. Wenn man den GF104 dichter packen kann, hat man sogar mehr als 2 Mrd. Transistoren.
Außerdem bringt der Verzicht auf DP imo nicht soviel Einsparungen, vergleiche Cypress gegen Juniper. Der GF100 hat ja keine dedizierten ALUs für DP wie noch der GT200.

LovesuckZ
2010-05-15, 13:23:51
Da kann man sich ja schon auf die GTX 580 freuen mit 60% Leistungszuwachs und nur gleichem Mehrverbrauch :freak:

Das ist der normale Weg im Grafikkartengeschäft.

Spasstiger
2010-05-15, 13:26:49
Bei ATI ist die TDP seit der Radeon HD 2900 XT nicht mehr gestiegen (außer bei Dual-GPU), obwohl die Performance um ein Vielfaches gesteigert wurde.

LovesuckZ
2010-05-15, 13:33:07
Dual-GPU Karten gehören zum Portfolio. Also ist die TDP gestiegen.
Davon abgesehen steigt der Verbrauch ebenfalls wieder kontinuirlich: Von 100 Watt auf 188Watt.
Bei nVidia ist es von 150 Watt (g92) auf 250 Watt (300 Watt Furmark).

Gast
2010-05-15, 13:50:50
Bei ATI ist die TDP seit der Radeon HD 2900 XT nicht mehr gestiegen (außer bei Dual-GPU), obwohl die Performance um ein Vielfaches gesteigert wurde.

Kunststück bei der Krücke... :P
Vergleichen wir dann mal die 8800GTX vs GF104 TopModell.

Gast
2010-05-15, 14:45:29
Außerdem bringt der Verzicht auf DP imo nicht soviel Einsparungen, vergleiche Cypress gegen Juniper. Der GF100 hat ja keine dedizierten ALUs für DP wie noch der GT200.

ATI hat aber auch kein DP @ half rate. Damit sind die ALUs ungefähr doppelt so groß also ohne DP.

Die dezidierten DP-ALUs von G200 dürften dagegen die DIE-size nur geringfügig beeinflusst haben, aber hatte natürlich auch nur wenig Leistung.

Ailuros
2010-05-16, 08:02:56
Wenn man sich den GF100 auf der GTX 480 anschaut, kann ich mir eigentlich nicht vorstellen, dass die GF104-basierende GTX 460 mit 150 Watt TDP auskommt. Ich vermute eher die gleiche TDP wie bei der GTX 285 bei ähnlicher Performance + DX11. Der reale Verbrauch dürfte im schlimmsten Fall auch die zwei 6-Pin-Anschlüsse ausreizen (max. 225 Watt).
Der GF104 wird ungefähr 2/3 der Transistoren des GF100 haben (also ~ 2 Mrd.) und auf der GTX 460 höher getaktet sein als die GTX 480. Der Verbrauch der GTX 460 sollte also höher liegen als bei 2/3 der GTX 480. Wenn man die Leckströme reduziert, vielleicht auch bei ~2/3. Aber nur 150 Watt TDP kann ich mir nicht vorstellen.

Die 150W duerften so oder so auf NV's Behauptungen zurueckfuehren. Im schlimmsten Fall folgt hier der TDP die GF100 Logik: wir geben 250W an obwohl es eigentlich 290W sein sollten.

Fuer den Fall von einer moeglichen GX2 aus 2*104 ist es IMHO aber ziemlich wurscht, da ich mir nicht vorstellen kann dass wenn NV eine solche plant sich nicht Zeit dafuer lassen wuerde. Die 295 kam auch erst an nachdem wir zuerst die 260/216 Variante sahen, es kam noch eine Chip Revision dazu und wir sahen dann erst die GTX285 bei 204W, GTX275@219W (Mehrzahl der schlechteren chips) und GTX295@289W (handausgesuchte bessere chips).

Fudo redet mal wieder selbst zusammen gereimten Scheiss. Wie er auf die hypothetischen 375W kommt (wenn man die sich die 275/295 TDPs genauer ansieht) weiss wohl nur er.

IMHO veroeffentlicht NV eine GF104 zuerst die sich mit Absicht unter dem 465 Niveau halten wird und sobald die 465 verschwinden darf/muss wird etwas aufgepumptes von 104 nachgeladen und aus dem pool von chips und handausgesuchtem Material koennte dann durchaus eine GX2 werden. Und nein unter normalen Umstaenden duerfte unter diesen Bedingungen der reale TDP nicht die 300W Grenze sprengen.

Die Diesize soll größer als beim Cypress ausfallen, das bedeutet für mich 2 Mrd. Transistoren, wenn man mit der Packdichte des GF100 vergleicht.

~375mm2 afaik.

Wenn man den GF104 dichter packen kann, hat man sogar mehr als 2 Mrd. Transistoren.

Wieso dichter packen und nicht gerade umgekehrt? Muss zwar nicht so sein aber fuer mich ist eine chip wie GF100 mit hotclocked ALUs viel zu dicht angelegt und ja ich gehe immer noch davon aus dass Gf100 um die 520mm2 liegt.

Wenn ich mit einer Milchmaedchen-rechnung von 520mm2/3.08Mrd auf 375mm2 herunterrechne sind es 2.22Mrd Transistoren hypothetisch fuer 104. Ein dichter gepackter 104 wuerde >2.22 bedeuten, die Frage waere nur fuer was genau? Um jegliches sinnvollere Ziel des 104 zu erreichen brauchen sie hauptsaechlich hoehere Frequenzen langfristig im Vergleich zum heutigen GF100 und da hilft ein breiter angelegter Teig um einiges mehr.

Außerdem bringt der Verzicht auf DP imo nicht soviel Einsparungen, vergleiche Cypress gegen Juniper. Der GF100 hat ja keine dedizierten ALUs für DP wie noch der GT200.

Bei hypothetischen 8SMs bzw. 256SPs heisst es wohl dass keine SPs aus jeglichem SM entfernt werden sondern Logik die fuer DP notwendig ist und etwas cache-Zeug.

What i could imagine, taking the allegedly cut down computation focus on GF104 as a given, is a simpler cache. No ECC on them for example, and no configurable L1-Cache, but only 32k Shared-Memory. You could also go back and put an Octo-TMU onto each SM and, forfeiting the L/S-Units, use the TMUs for getting all data into the chip. But that would hurt Atomics big time, wouldn't it?

http://forum.beyond3d.com/showpost.php?p=1430730&postcount=5718

Wie weiter oben schon erwaehnt die DP Einheiten auf GT200 waren aus die area Ansicht fast nicht der Rede wert.

pest
2010-05-16, 10:59:02
Wieso reichen 352SPs gerade mal um an eine GTX285 ranzukommen :confused:

Gast
2010-05-16, 11:01:55
Wieso reichen 352SPs gerade mal um an eine GTX285 ranzukommen :confused:
1.2GHz statt 1.47GHz Hot-Clock, 44 statt 80 TMUs, 60GB/s weniger Speicherbandbreite.

Gast
2010-05-16, 13:06:13
IMHO veroeffentlicht NV eine GF104 zuerst die sich mit Absicht unter dem 465 Niveau halten wird und sobald die 465 verschwinden darf/muss wird etwas aufgepumptes von 104 nachgeladen und aus dem pool von chips und handausgesuchtem Material koennte dann durchaus eine GX2 werden.

Die Frage ist allerdings wo da noch ein Name frei bleibt.

Wenn der kleine GF100 GTX465 heißen soll und GF104 GTX460 bleibt eigentlich nicht mehr viel dazwischen.

Außer natürlich, NV bleib seiner eigenen Linie treu und bezeichnet GF104 als GTS4xx.

Dural
2010-05-16, 13:13:58
wie so gehen viele beim GF104 von viel Takt aus, da wär ich vorsichtig! über 750MHz werden wir glaub nicht sehen...

Spasstiger
2010-05-16, 14:37:53
1.2GHz statt 1.47GHz Hot-Clock, 44 statt 80 TMUs, 60GB/s weniger Speicherbandbreite.
Hinzu kommt:
GTX 285: 240 MADD+MUL (240*3 = 720 Flops pro Takt)
GTX 465: 352 FMA (352*2 = 704 Flops pro Takt)

Coda
2010-05-16, 15:25:12
Was man nicht so rechnen kann, und das weißt du.

Spasstiger
2010-05-16, 15:39:38
Warum kann man so nicht rechnen? Das ist jeweils das theoretische Leistungsmaximum bei Floating-Point-Operationen ohne Spezialfunktionen. Man kann aber nicht einfach blind davon ausgehen, dass ein GF100 mit 352 SPs mehr Rechenleistung hat als ein GT200 mit 240 SPs und etwas höherem Takt, weil die Rechenwerke nicht identisch sind.
Es ist rein den Eckdaten ausgehend alles andere als naheliegend, dass die GTX 465 schneller sein muss als die GTX 285. Genau davon geht pest aber aus, weil er 352 SPs gegen 240 SPs sieht.
Es gibt auch Leute, die sich wundern, warum eine Radeon HD 5770 mit 800 SPs langsamer ist als eine GeForce GTX 285 mit 240 SPs.

Gast
2010-05-16, 16:46:16
wie so gehen viele beim GF104 von viel Takt aus, da wär ich vorsichtig! über 750MHz werden wir glaub nicht sehen...

Weil wir hoffen, nV hat aus G200 und GF100 gelernt und sorgt dafür das die TexUnits und die ALUs mal auf ordentliche Taktraten kommen und nich immer im "Schwitzkasten" dahin vegetieren... Bei G92 und folgend hat es ja funktioniert.

Coda
2010-05-16, 17:18:58
Warum kann man so nicht rechnen?
Weil das zusätzliche MUL auf GT200 so gut wie nie eingesetzt werden kann. Die anderen sind aber bei den skalaren Architekturen praktisch vollständig ausgelastet.

Das ist eine reine Milchmädchenrechnung. Die GTX 465 hat reell deutlich mehr Rechenleistung als eine GTX 285.

Gast
2010-05-16, 17:58:33
Weil wir hoffen, nV hat aus G200 und GF100 gelernt und sorgt dafür das die TexUnits und die ALUs mal auf ordentliche Taktraten kommen und nich immer im "Schwitzkasten" dahin vegetieren... Bei G92 und folgend hat es ja funktioniert.

Da waren die Rechenwerke noch nicht so dicht gepackt.
Also zumindest einen hohen Shadertakt würde ich mal ausschließen.

Rampage 2
2010-05-16, 19:35:31
Noch ein paar Fragen zur GTX 460 (GF104):

1.) Nvidia wird doch hoffentlich nicht die TMU's beschneiden, oder? (Also 56 statt 64TMU's) Wie hoch schätzt ihr diese Gefahr ein? (Also, wie wahrscheinlich?)

2.) Da ihr von einem Speichertakt von 1.8GHz ausgeht, wird das Teil wohl mit 0.55ns GDDR5-RAM bestückt. Müssen sich die Anbieter (ASUS, Gainward, Zotac etc.) daran halten? D.h. wäre es theoretisch möglich, einen GF104-Chip mit 0.4ns RAM (= 2.5GHz GDDR5) zu bestücken?

Hoffe, diese Fragen sind nicht allzu blöd..

R2

Gast
2010-05-16, 19:44:41
Noch ein paar Fragen zur GTX 460 (GF104):

1.) Nvidia wird doch hoffentlich nicht die TMU's beschneiden, oder? (Also 56 statt 64TMU's) Wie hoch schätzt ihr diese Gefahr ein? (Also, wie wahrscheinlich?)
Bei 256SPs sind es 32 oder 64 TMUs, kleinere Versionen mit weniger SPs, die definitiv kommen, haben natürlich <32/64TMUs.
TMUs und SPs sind abhängig miteinander verbunden.


2.) Da ihr von einem Speichertakt von 1.8GHz ausgeht, wird das Teil wohl mit 0.55ns GDDR5-RAM bestückt.
Es wird wohl eher 0.5ns sein, der auf momentan fast jeder <=2GHz GDDR5-Karte verbaut ist - Massenware.


Müssen sich die Anbieter (ASUS, Gainward, Zotac etc.) daran halten? D.h. wäre es theoretisch möglich, einen GF104-Chip mit 0.4ns RAM (= 2.5GHz GDDR5) zu bestücken?

Eine Custom-OC-SKU mit 0.4ns wäre denkbar, die Chinesen bauen so etwas gerne, ob so etwas dann nach Europa kommt ist die andere Frage und ob der IMC von GF104 überhaupt so hohe Frequenzen schafft.

aths
2010-05-16, 20:05:38
Weil das zusätzliche MUL auf GT200 so gut wie nie eingesetzt werden kann. Doch, zu etwa 40%.

Die GTX 465 schafft bei angenommener Vollauslastung 988 MFlops. Die GTX 285 schafft etwa 850 MFlops (gerechnet mit 576 "effektiven" Operationen pro Takt.)

Coda
2010-05-16, 20:07:33
Quelle?

Das ist laut dem Paper das ich vorliegen habe (http://www.eecg.toronto.edu/~myrto/gpuarch-ispass2010.pdf) der Optimalfall bei reinem MUL-Issuing. Das funktioniert im Regelfall so einfach nicht, denn die SFUs werden getrennt gescheduled und haben außerdem auch noch eine höhere Latenz.

aths
2010-05-16, 20:11:12
Das berühmte Paper in dem die Cuda-Performance analysiert wurde.

Coda
2010-05-16, 20:15:23
Dann interpretierst du es aber falsch. Die 8 MADs kann man immer haben. Die 8 MADs + ~4 MULs sind nur in Extremfällen überhaupt verfügbar (vergleichen Beyond3D).

Vor allem brauchen die meisten Shader die SFUs auch für Interpolation und transzendente Funktionen. Das zusätzliche MUL kann man imho vernachlässigen.

Dural
2010-05-16, 20:40:18
Das MUL hat wohl kaum viel Leistung gebracht, sonst hätte es NV ja sicher nicht gestrichen...

Und wenn man schaut das ein GF100 locker 80% schneller als GT200 ist trotz nicht so hoher TEX und Speicherbandbreite Leistung sollte jedem auffallen das die ALUs beim Fermi doch Power haben und man jedenfalls das MUL beim GT200 vergessen kann ;)

Rampage 2
2010-05-16, 21:05:50
Bei 256SPs sind es 32 oder 64 TMUs, kleinere Versionen mit weniger SPs, die definitiv kommen, haben natürlich <32/64TMUs.
TMUs und SPs sind abhängig miteinander verbunden.


Es wird wohl eher 0.5ns sein, der auf momentan fast jeder <=2GHz GDDR5-Karte verbaut ist - Massenware.


Eine Custom-OC-SKU mit 0.4ns wäre denkbar, die Chinesen bauen so etwas gerne, ob so etwas dann nach Europa kommt ist die andere Frage und ob der IMC von GF104 überhaupt so hohe Frequenzen schafft.

Thx:)

Es wird also definitiv eine 256SP-Version geben? (mit 32ROPs, 64TMUs, 256Bit SI)

Zum Speichertakt: Ich dachte bis jetzt immer, der RAM arbeitet unabhängig zur GPU:|


R2

aths
2010-05-16, 21:10:15
Dann interpretierst du es aber falsch. Die 8 MADs kann man immer haben. Die 8 MADs + ~4 MULs sind nur in Extremfällen überhaupt verfügbar (vergleichen Beyond3D).

Vor allem brauchen die meisten Shader die SFUs auch für Interpolation und transzendente Funktionen. Das zusätzliche MUL kann man imho vernachlässigen.Ja natürlich kann man die 8 MADs immer haben, das macht 480 Ops im Rechenbeispiel aus. Zusätzlich rechnete ich noch 96 (40% von 240) zusätliche MULs rein und kam so auf die 576 "effektiven" Ops pro Takt.

Interpolationen braucht man für Texturen, special functions wie Sinus erscheinen mir doch recht selten im Gebrauch. Außerdem sind das auch Berechnungen, die Frage wäre, wie stark man die reinzählt. Stattdessen überschlug ich reine MUL- und ADD-Performance, das wären 850 MFlops, also ca. 14% weniger als die GTX 465 bietet.

Edit: Die 285 bietet 51,84 GT/s, die 465 nur 26,71 GT/s. Die 285 hat also 94,1% mehr Texturierungsleistung.

Coda
2010-05-16, 21:27:03
Die Interpolation ist nicht selten, und vor allem ist da der Durchsatz auch nur noch halb so hoch wie bei MUL auf den SFUs. Und transzendente Funktionen (vor allem EXP) sind auch alles andere als selten.

Edit: Die 285 bietet 51,84 GT/s, die 465 nur 26,71 GT/s. Die 285 hat also 94,1% mehr Texturierungsleistung.
Auch das ist relativ zu sehen, da Fermi hier wohl eindeutig die besseren Caches hat.

aths
2010-05-16, 22:38:16
Die Interpolation ist nicht selten, und vor allem ist da der Durchsatz auch nur noch halb so hoch wie bei MUL auf den SFUs. Und transzendente Funktionen (vor allem EXP) sind auch alles andere als selten.Ja aber beide, GTX 285 und GTX 465 müssen diese SFUs ausführen. Ich halte es für wenn auch nicht alleinglücklichmachend trotzdem sinnvoll, die Peakleistung MAD+MUL zu vergleichen.

Auch das ist relativ zu sehen, da Fermi hier wohl eindeutig die besseren Caches hat.Ja, außerdem hat GF100 ohnehin die besseren TMUs wenn ich das richtig verstehe (4 einzelne statt 1x Quad-TMU.) Trotzdem dürfte in älteren Spielen die GTX 285 die GTX 465 abziehen (wobei die 465 trotzdem insgesamt locker schnell genug sein sollte.) Ich bin gespannt wie der GF102 /GF104 aussieht, je nach dem wie die GPU nun wirklich heißt.

GTX 285 mit locker über 50 GT Füllrate – was hat sich Nvidia dabei gedacht?

Coda
2010-05-16, 23:00:53
Ja aber beide, GTX 285 und GTX 465 müssen diese SFUs ausführen.
Ja, aber die theoretische Rechenleistung wird kaum durch SFU-Ops eingeschränkt bei Fermi. Bei GT200 ist das MUL dann aber unbenutzbar.

Man kann das MUL schon dazurechnen bei der GTX 285, aber realistisch wohl eher mit 10% als mit 20%.

LovesuckZ
2010-05-16, 23:06:06
GTX 285 mit locker über 50 GT Füllrate – was hat sich Nvidia dabei gedacht?

Der Fehler lag wohl eher beim G80 mit seinen 64TFU Units...

Spasstiger
2010-05-16, 23:34:57
Trotzdem dürfte in älteren Spielen die GTX 285 die GTX 465 abziehen (wobei die 465 trotzdem insgesamt locker schnell genug sein sollte.)
Es ist nach ersten Benchmarks ungefähr ein Gleichstand mit 4xMSAA. Die Ausnahmen werden wohl Fälle sein, in denen 8xMSAA oder DX11 zur Performancesteigerung bei vergleichbarer Grafikqualität genutzt werden. Dann sollte die GTX 465 klare Vorteile haben.

@Coda: Die GTX 465 hat wohl nicht so viel mehr Rechenleistung als die GTX 285 wie sie mehr an SPs hat. Pest sieht 352 SPs gegen 240 SPs und schließt daraus, die GTX 465 müsste auch entsprechend schneller sein. Das scheidet aber schon aus zwei Gründen aus: Die GTX 285 taktet höher. Die GTX 285 kann ab und zu noch ein MUL pro SP zusätzlich nutzen. Deshalb ist die GTX 465 in Verbindung mit den anderen Nachteilen (weniger Speicherbandbreite, weniger Texelfüllrate) nicht schneller als die GTX 285.
Real hat die GTX 465 natürlich die höhere Rechenleistung. Aber der Unterschied ist eben lange nicht so beträchtlich, wie es reiner Vergleich der SP-Anzahl nahelegt.

Coda
2010-05-16, 23:52:36
Real hat die GTX 465 natürlich die höhere Rechenleistung. Aber der Unterschied ist eben lange nicht so beträchtlich, wie es reiner Vergleich der SP-Anzahl nahelegt.
Was die reine arithmetische Leistung angeht ist es sehr wohl so beachtlich. Das bisschen MUL was die G80-Architektur manchmal zusätzlich durch die SFUs kloppt kann Fermi ziemlich sicher anderswo ausgleichen.

Die Performance kann man doch ausgehend von der GTX 470 extrapolieren. Ich habe im Moment keine Ahnung wo die 465 landen wird, weil ich mich nicht damit beschäftige.

Spasstiger
2010-05-16, 23:58:23
Was die reine arithmetische Leistung angeht ist es sehr wohl so beachtlich.
Selbst wenn man das MUL der GTX 285 nicht mitzählt, sind es max. 708 GFlops (GTX 285) gegen 855 GFlops (GTX 465). Also 20% mehr MADD/FMA-Rechenleistung bei der GTX 465 (und nicht 47%, was dem Unterschied der SP-Anzahl entsprechen würde).

Die Performance kann man doch ausgehend von der GTX 470 extrapolieren. Ich habe im Moment keine Ahnung wo die 465 landen wird, weil ich mich nicht damit beschäftige.
Nach Benchmarks ist die GTX 480 zwischen 50% und 60% schneller als die GTX 465. Das ist auch der mittlere Abstand zur GTX 285.

Gast
2010-05-17, 00:55:30
Von der Leistung einer GTX465 kann man aber nicht auf die GTX460(GF104) schließen, weil unbekannt ist, wieviele TMUs diese haben wird.

LovesuckZ
2010-05-17, 02:10:14
Ich bezweifel die 64 TMUs immer noch. Ich glaube eher, dass GF104 1/2 GF100 mit 256bit Speicherinterface sein wird. Demnach sollte die Leistung mit einsprechender Taktung irgendwo auf GTX260^2 Niveau sein und leicht unter der GTX465.

Ailuros
2010-05-17, 08:42:09
Die Performance kann man doch ausgehend von der GTX 470 extrapolieren. Ich habe im Moment keine Ahnung wo die 465 landen wird, weil ich mich nicht damit beschäftige.

Die 465 ist zum gaehnen langweilig; erwarte daher auch keinen besonderen ramtamtam darueber mit Absicht seitens NV. Die 465 wird wohl Mitte Sommer verschwinden muessen.

Ich bezweifel die 64 TMUs immer noch. Ich glaube eher, dass GF104 1/2 GF100 mit 256bit Speicherinterface sein wird. Demnach sollte die Leistung mit einsprechender Taktung irgendwo auf GTX260^2 Niveau sein und leicht unter der GTX465.

Zwar bekommst Du bei einer hypothetischen 1/2 GF100 nicht 520mm2/2, aber an ~375mm2 an die area reicht das Resultat dann auch nicht.

Gast
2010-05-17, 09:39:50
Vielleicht die 12 Cluster = 384SPs + 256-Bit, die man bei Chiphell spekuliert, in der 460 SKU sind davon nur 256SPs + 192-Bit aktiv.

Mit GF100Bx kommt dann eine 512SPs GTX 485, eine 480SPs GTX 475 und die aktuelle 470 wird durch eine 384SPs GF104-SKU mit >=700/1400/1100MHz ersetzt. Was dann auch die Basis für die GX2 sein könnte.

Gast
2010-05-17, 09:53:25
Zwar bekommst Du bei einer hypothetischen 1/2 GF100 nicht 520mm2/2,


Viel daneben sollte das bei Fermi aber wirklich nicht sein, da man ja praktisch alles skalieren kann.

aths
2010-05-17, 11:08:05
Selbst wenn man das MUL der GTX 285 nicht mitzählt, sind es max. 708 GFlops (GTX 285) gegen 855 GFlops (GTX 465). Also 20% mehr MADD/FMA-Rechenleistung bei der GTX 465 (und nicht 47%, was dem Unterschied der SP-Anzahl entsprechen würde).Stimmt ich hatte mich verrechnet da ich mit 1404 statt 1214 MHz für den Shader rechnete. Die arithmetische FP32-Peak-Leistung der GTX 265 ist vergleichbar mit der der GTX 285. Das heißt nicht, dass die Karten in Arithmetik-limitierten Szenen gleich schnell sind, allerdings hat die 285 als zweiten Bonus die höhere Speicherbandbreite.

AnarchX
2010-05-17, 11:20:07
http://img69.imageshack.us/img69/1911/001498378.png

http://translate.google.de/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F533%2F533329.shtml&sl=zh-CN&tl=en&hl=&ie=UTF-8

Dural
2010-05-17, 11:22:58
was ist den ein GF102?

GF100 Bx?!?


Und die GTX465 dürfte wohl mehr für die OEMs sein, so kann NV noch GF100 Chips "entsorgen" statt in den Müll zu werfen...

Ich hoffe einfach das NV nicht wegen der 465 die 460/GF104 künstlich runterschraubt...

Botcruscher
2010-05-17, 12:36:28
Die Powerangaben sind (eh) drollig. Die 490 wird imo ein 470 dual. Womöglich sehen wird doch noch einen neue Rev.

Sorkalm
2010-05-17, 14:06:10
Das scheint wohl die alte Roadmap zu sein, wenn nach Fud jetzt die 375W-Dual-Karte gestrichen wurde...

Ailuros
2010-05-17, 15:50:58
Viel daneben sollte das bei Fermi aber wirklich nicht sein, da man ja praktisch alles skalieren kann.

48 ROPs / 2 = 24 ROPs und nicht 32 ;)

http://img69.imageshack.us/img69/1911/001498378.png

http://translate.google.de/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F533%2F533329.shtml&sl=zh-CN&tl=en&hl=&ie=UTF-8

Eine 485 oder 490 oder was auch immer wird es vielleicht schon noch geben; es wird aber nicht 2*GF100 wie sich jemand hier zusammengereimt hat sondern wenn dann 2*104 um die 480 temporaer abzuloesen bis zur back to school saison.

375W wuerde wohl eher ein 2*480 Gestell verbrauchen (ja bei realem 290W TDP fuer die 480) als irgend etwas 2*470. Nochmal zur Erinnerung GTX275= 219W, GTX295= 289W.

Gast
2010-05-17, 15:57:18
Selbst mit der Packdichte eines GT215 liegt man bei ~375mm² noch über 2 Mrd. Transistoren, was 2/3 von GF100 sind.

Geht man jetzt noch davon aus, dass man auf 64KiB Cache pro ROP-Partition reduziert und die reinen SP-ALUs vielleicht auch noch 5% weniger Transistoren kosten, wird ein >10-12 Cluster Chip immer wahrscheinlicher, was auf Basis der aktuellen GF100-Leistungsdaten wohl deutlich mehr Sinn macht als 256SPs mit 64 TMUs.

Ailuros
2010-05-17, 16:08:45
Selbst mit der Packdichte eines GT215 liegt man bei ~375mm² noch über 2 Mrd. Transistoren, was 2/3 von GF100 sind.

Geht man jetzt noch davon aus, dass man auf 64KiB Cache pro ROP-Partition reduziert und die reinen SP-ALUs vielleicht auch noch 5% weniger Transistoren kosten, wird ein >10-12 Cluster Chip immer wahrscheinlicher, was auf Basis der aktuellen GF100-Leistungsdaten wohl deutlich mehr Sinn macht als 256SPs mit 64 TMUs.

Im Vergleich zum obrigen kann ich dann eventuell sogar die dual issue skalare These schlucken die ich auch schon hoerte (2D ALUs) LOL :biggrin:

igg
2010-05-17, 16:11:40
Eine 485 oder 490 oder was auch immer wird es vielleicht schon noch geben; es wird aber nicht 2*GF100 wie sich jemand hier zusammengereimt hat sondern wenn dann 2*104 um die 480 temporaer abzuloesen bis zur back to school saison.
Und eine 2xGF104 soll die GTX480 ersetzen und damit wollen sie bis zum Frühjahr 2011 den Enthusiastenmarkt bedienen??

Iruwen
2010-05-17, 16:54:20
Warum sollten sie das machen, weil sie die "dicken" Chips für Tesla brauchen? Das widerspräche dann ja dem (angeblichen) Trend zu schnellen SGPU Lösungen aufgrund der Nachteile von MGPU.

Dural
2010-05-17, 17:08:15
es wid keine Dual GF104 geben, jedenfalls nicht wenn der GF104 wirklich nur 256SP hat... wirtschafltich gesehen macht das keinen sinn!

Spasstiger
2010-05-17, 17:23:25
Klar macht das Sinn. Eine Dual-GF104-Karte wäre bei GTX-480-Taktraten rund 20-25% schneller als die GTX 480. Die Kosten für zwei entsprechende GF104 liegen dabei vermutlich deutlich niedriger als für einen GF100 mit vollen 512 SPs.

aths
2010-05-17, 19:02:00
Klar macht das Sinn. Eine Dual-GF104-Karte wäre bei GTX-480-Taktraten rund 20-25% schneller als die GTX 480.Nvidia hat noch nie eine Doppel-GPU-Karte gebaut nur um das bisherige Highend-Modell um ein paar mikrige Prozent zu übertreffen.

Black-Scorpion
2010-05-17, 20:19:44
Nvidia hat noch nie eine Doppel-GPU-Karte gebaut nur um das bisherige Highend-Modell um ein paar mikrige Prozent zu übertreffen.
Falls es eine MGPU Karte, bleiben wohl nur ein paar mickrige Prozent übrig.
Sie haben ja nur die Wahl zwischen mickrigen Prozent oder einem Ofen.
Das Ding würde sonst alle Spezifikationen sprengen.

Spasstiger
2010-05-17, 22:58:18
Die GTX 295 ist auch nur 30-40% schneller als die GTX 285. Und die GeForce 9800 GX2 war einer GeForce 8800 Ultra sogar desöfteren unterlegen wegen VRAM-Knappheit und sonst war die 9800 GX2 auch nur 20-40% schneller.
Die GeForce 7950 GX2 war noch die ergiebigste Dual-GPU-Karte von NV mit rund 40% Vorsprung vor der 7900 GTX.
Was spricht wirtschaftlich gesehen gegen eine Dual-GF104-Karte mit 20-25% Vorsprung vor einer GTX 480 bei ähnlichem Stromverbrauch und geringeren Kosten als einer entsprechend hochgezüchteten GF100-Karte? Die Yields bei GF100 mit 512 SPs sind bekanntermaßen mehr als bescheiden.
Bei perfekter Skalierung wäre eine Dual-GF104-Karte mit GTX-480-Taktraten um 30-35% schneller als die GTX 480. In Benchmarks bleiben wohl 20% Vorteil übrig.

Dural
2010-05-18, 00:11:02
nö es macht keinen sinn und du solltest mal deine eigenen "rechnungen" überlegen, laut der ist die 480 60% schneller als eine 465 wie um alles in der welt soll dann eine Dual 460 20-30% schneller als eine 480 sein!?!

Für NV ist es viel wichtiger jetzt entlich einen GF100 Bx zu bringen der ihnen 512SP und vieleicht etwas mehr takt bringt und das dürfte ihnen 20% ein bringen und dieser weg wäre deutlich klüger als eine Dual GF104...


Ich bleibe dabei, wir werden keine GF104 Dual Karte sehen! Jedenfalls nicht wenn der GF104 nur aus 256SP besteht und nur auf GT200 leistung liegt...

Wirtschaftlich gesehen wäre es eh blödsinn... schon nur einen 512SP Chip durch zwei 256SP Chips zu ersetzen ist ja wahnsinn... und der wichtigste Punkt GF104 hat nicht die ganzen GF100 sachen wie DP usw. wie will man so ein High-End Produkt nur an den mann bringen, die marketing abteilung hätte mühe das zu erklähren und würde komplett gegen die NV strategie arbeiten... ;)


Edit:
NV hat auch nicht mit dem GT200A mit aller macht eine Dual GPU Karte gebracht und auf B3 gewartet obwohl es sicher irgend wie möglich gewessen wäre...NV kann also sehr gut warten.

Leonidas
2010-05-18, 05:39:47
bzgl der GTX295 kann ich nicht zustimmen: Hier hatte man nicht einfach ein neues Stepping, sondern eine neue Fertigung zur Verfügung. Und die ist beim GF100 nicht in Sicht.


Thema GF104-Dual: Nun ja, sooo schlecht wäre eine solche Lösung nicht: Besseres Speicherinterface (2x256 vs. 384) und höhere Taktraten könnten den Chip durchaus 10-20% schneller als eine GF100 im Vollausbau machen. Gegenüber der aktuellen GTX480 wären dies 15-25%. Aber natürlich würde es schwer werden, diesen geringen Unterschied zu promoten.

Aquaschaf
2010-05-18, 09:29:08
Die Speicherinterfacebreite kann man doch bei Multi-GPU nicht addieren.

aths
2010-05-18, 10:30:59
Falls es eine MGPU Karte, bleiben wohl nur ein paar mickrige Prozent übrig.
Sie haben ja nur die Wahl zwischen mickrigen Prozent oder einem Ofen.
Das Ding würde sonst alle Spezifikationen sprengen.Es ergibt auch keinen Sinn, die gehobene Mittelklasse zu verdoppeln wenn man die Defakto-Leistung mit einer Einzel-GPU erreicht. Wie schon angesprochen ist es sinnvoller, den GF100 im Vollausbau zu bringen und je nach Fertigungsqualität noch was am Takt zu drehen.

Gast
2010-05-18, 11:33:42
Die Speicherinterfacebreite kann man doch bei Multi-GPU nicht addieren.


Natürlich kann man das, was man nicht kann ist die Speichermenge addieren.

Gast
2010-05-18, 11:38:39
Wirtschaftlich gesehen wäre es eh blödsinn... schon nur einen 512SP Chip durch zwei 256SP Chips zu ersetzen ist ja wahnsinn...


SPs sind nicht alles, ich sag nur 2x64TMUs gegen 1x 64 TMUs


Dazu höhere Taktraten und (hoffentlich) eine ausreichende Menge GPUs die voll funktionsfähig sind.

Ich sag es mal umgekehrt: Alles andere als GF104 für die Dual-Karte zu verwenden wäre Wahnsinn. Die andere Möglichkeit wäre nur das Dual-Feld komplett ATI zu überlassen.

Dural
2010-05-18, 11:42:26
erstens sind die 64TMUs noch nicht bestätigt (ich glaube immer noch nicht daran...) und ja klar kann man die SP hier schön vergleichen da es auch die selbe Architektur ist. Und wie um alles in der welt soll man Dual GF104 höher takten wenn man es bei einem GF100 nicht kann?!? Eine solche lösung dürfte sogar ineffizienter als ein GF100 in sachen Verbrauch sein... (wenn sich nichts zwischen GF100 und GF104 verändert) schon nur wenn man die Fakten vergleicht sollte das jedem auf fallen:

520mm gegen 2x ca. 360mm
3Milliarden gegen 2x ca. 2Milliarden.

zudem hat man bei SLI höchstens 80% im schnitt mehr Leistung, also wären die vorteile bei selben takt kaum noch vorhanden!

aber da wir nicht wissen was GF104 genau bringt und verändert hat bringt das eh alles nichts, also abwarten... wie wäre es mit 384SP / 48TMUs ;)





speicherbandbreite bringt dem GF100 kaum was... und da wäre beim GF100 noch sehr viel spielraum nach oben offen.

nur macht der speicherkontroller nicht mit, da die GPUs extrem wenig spannung bekommen, aber ich bin mir da nicht einmal so sicher ob es wirklich nur an dem liegt... vieleicht ist auch etwas im kontroller nicht OK...

Spasstiger
2010-05-18, 12:09:20
Wenn der GF104 wirklich 375 mm² groß ist, sollte er selbst mit einem breiter ausgerollten Teig 2/3 der Performance eines GF100 erreichen. Mehr als 32 TMUs sind bei dieser Diesize eine absolut logische Konsequenz.
Ich kann mir vorstellen, dass die GTX 460 (GF104-basierend) abseits von Tessellation und "dreieckslastigen" Benchmarks schneller ist als die GTX 465 (GF100-basierend).

520mm gegen 2x ca. 360mm
3Milliarden gegen 2x ca. 2Milliarden.
Yieldrate GF100 mit 512 SP: << 10%
Yieldrate GF104: > 60%

Ailuros
2010-05-18, 12:34:16
Nvidia hat noch nie eine Doppel-GPU-Karte gebaut nur um das bisherige Highend-Modell um ein paar mikrige Prozent zu übertreffen.

NVIDIA hat auch bis jetzt nie so stark high end chips kastrieren muessen. Wenn sie tatsaechlich so etwas planen sollten, dann waere es nur ein schneller Lueckenfueller fuer 480 EOL und bis GF100b in die Startloecher gehen kann. Anders lediglich ein temporaerer Ersatz fuer die 480. Ein Grund dafuer? Stromverbrauch vielleicht? *schulterzuck*

Gast
2010-05-18, 12:34:38
Im Vergleich zum obrigen kann ich dann eventuell sogar die dual issue skalare These schlucken die ich auch schon hoerte (2D ALUs) LOL :biggrin:
Wünschenswert wäre es wohl durchaus, wenn man die SMs auf 8 TFs und 32 2D-ALUs so schnell umstricken könnte. Dadurch dürfte die Leistung pro Fläche um einiges steigen.

Aber solche Änderungen gibt es wohl erst mit Fermi 2 in 2011.

Gast
2010-05-18, 13:10:34
Thema GF104-Dual: Nun ja, sooo schlecht wäre eine solche Lösung nicht: Besseres Speicherinterface (2x256 vs. 384) und höhere Taktraten könnten den Chip durchaus 10-20% schneller als eine GF100 im Vollausbau machen. Gegenüber der aktuellen GTX480 wären dies 15-25%. Aber natürlich würde es schwer werden, diesen geringen Unterschied zu promoten.
"den Chip"? Wohl eher "die Chips"; und dass man die Leistung zweier GPUs nicht einfach addieren sollte, müsstest du als Betreiber dieser Seite, die sich nicht nur der Balkenlänge verschrieben hat, eigentlich wissen.

Ailuros
2010-05-18, 13:53:47
Wünschenswert wäre es wohl durchaus, wenn man die SMs auf 8 TFs und 32 2D-ALUs so schnell umstricken könnte. Dadurch dürfte die Leistung pro Fläche um einiges steigen.

Aber solche Änderungen gibt es wohl erst mit Fermi 2 in 2011.

Ich lass mich gerne eines besseren belehren aber 2D ALUs unter den heutigen GF10x Fundamenten klingt mir als kompletter Schwachsinn.

Leonidas
2010-05-18, 13:57:10
Die Speicherinterfacebreite kann man doch bei Multi-GPU nicht addieren.


Ich dachte doch. Nur nicht die Speichermenge.

Aquaschaf
2010-05-18, 14:14:07
Natürlich kann man das, was man nicht kann ist die Speichermenge addieren.

Denkfehler meinerseits.

Nightspider
2010-05-18, 14:17:33
Yieldrate GF100 mit 512 SP: << 10%
Yieldrate GF104: > 60%

Mittlerweile sollte die 512SP Rate doch deutlich höher sein oder?

Wobei 10-20% schon locker reichten sollten für eine Ultra oder eine GTX 490 oder wie auch immer sie heißen wird.

Ailuros
2010-05-18, 14:33:10
Mittlerweile sollte die 512SP Rate doch deutlich höher sein oder?

Im besten Fall hat sich die Rate verdoppelt; ergo anstatt ein einziger die pro wafer dann eventuell die bruellende Anzahl von 2 dies/wafer ROFL :biggrin:

Wobei 10-20% schon locker reichten sollten für eine Ultra oder eine GTX 490 oder wie auch immer sie heißen wird.

Naechste single chip high end GPU (mit allen 16 SMS) erst nach dem re-spin und NICHT vor September ergo hat es mit der heutigen Produktion gar nichts zu tun.

Nakai
2010-05-18, 15:41:55
Im besten Fall hat sich die Rate verdoppelt; ergo anstatt ein einziger die pro wafer dann eventuell die bruellende Anzahl von 2 dies/wafer ROFL :biggrin:



Naechste single chip high end GPU (mit allen 16 SMS) erst nach dem re-spin und NICHT vor September ergo hat es mit der heutigen Produktion gar nichts zu tun.

Ergo wird man wohl mit SI konkurrieren, wenn es soweit kommt. Da muss der Respin auch deutlich mehr Takt bringen, sonst wird es ein Sprung von GTX280 zur GTX285. Aber ich glaube kaum, dass die deutlich Taktraten erhöht werden. Die Karte schluckt jetzt schon zuviel und ich gehe nicht davon aus, dass ein Respin soviel bringt.

Aber mich interessiert da eh nur der GF104.


mfg

Gast
2010-05-18, 19:20:32
zudem hat man bei SLI höchstens 80% im schnitt mehr Leistung, also wären die vorteile bei selben takt kaum noch vorhanden!


Auf dem Papier sind es mit 2 Karten schon öfter 90%.

Es geht auch nicht um den Vergleich single vs. multi-GPU.

Es dürfte klar sein, dass eine Dual-GPU-karte objektiv nicht sinnvoll ist.

Wenn man allerdings mit ATIs Dual-GPU konkurrieren will braucht man selbst eine Dual-GPU-Karte (dass man die Taktraten von GF100 weit genug steigern kann ist wohl sehr unwahrscheinlich), und dann stellt sich die Frage was sinnvoller ist, 2xGF100 oder 2x GF104. und da ist es nach derzeitiger Faktenlage wohl letzteres.

Gast
2010-05-18, 19:53:17
Wenn es bei GF104 wirklich nur 256SPs sind, dann ist die Leistungskrone wohl kaum erreichbar, immerhin wird diese mittlerweile von den 5970-Versionen mit vollem Takt und 2x2GiB definiert. Eine 2x 256SPs+256-Bit Lösung wäre wohl bei den gefühlten FPS auch meist schwächer als die GTX 480 und aus der bisherigen Erfahrung mit NVs Dual-GPU-Karten verbaut man hier wohl eher 2x1GiB als 2x2GiB - weniger VRAM als bei der 480.

Für eine brauchbare Dual-GPU-SKU sollte man mindestens GTX 470-Leistung auffahren.
Nicht zu vergessen, dass AMD im H2 sehr wahrscheinlich die HD5800 und 5900-Serie mit einem deutlichen Boost refreshen wird.

Dural
2010-05-19, 00:13:27
wir werden keine Dual GPU karte sehen, jedenfalls nicht mit GF104 eher später dann mit dem GF100 Bx inkl. 512SP Version

Eine 512SP Version könnt sogar noch mit dem A3 folgen, wer weis...

Coda
2010-05-19, 01:29:51
Lehn dich mal nicht zu weit aus dem Fenster

Spasstiger
2010-05-19, 10:47:55
Wenn es bei GF104 wirklich nur 256SPs sind, dann ist die Leistungskrone wohl kaum erreichbar, immerhin wird diese mittlerweile von den 5970-Versionen mit vollem Takt und 2x2GiB definiert.
Diese Varianten laufen aber nicht mehr innerhalb der elektromechanischen Spezifikation von PCI Express 2.0 (max. 300 Watt Leistungsaufnahme) und tauchen nicht im Portfolio von AMD auf. Der Gegner ist also die normale HD 5970 mit 2*1 GiB VRAM und HD-5850-Taktraten.
Aber selbst dagegen dürfte es eine Dual-GF104-Karte schwer haben. NV kann nur darauf bauen, dass ihre SLI-Lösung besser skaliert als die Crossfire-Lösung. In den Performancerating landet HD 5970 ja nur 30-50% vor der HD 5870 trotz einer theoretisch 70% höheren Rohleistung.

Ich kann mir höchstens vorstellen, dass NV den AIBs die Freigabe erteilt, eigene Dual-GPU-Designs auf GF100-Basis mit bis zu 375 Watt TDP zu bauen. Angesichts der recht geringen Nachfrage nach Fermi-Karten im Allgemeinen scheint mir das aber nicht notwendig. Die GTX 470 und die GTX 480 sind regelrechte Ladenhüter, zumindest da, wo ich jobbe. Radeon-HD-5800-Karten gehen in vielfacher Stückzahl raus.

z3ck3
2010-05-19, 12:35:57
Rein theoretisch gäbe es ja auch noch die Möglichkeit ganze 3 GF104 Chips auf eine Platine zu löten. ;D

Iruwen
2010-05-19, 13:13:27
Oder gleich vier. Da werden Erinnerungen (http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review) wach...

V2.0
2010-05-19, 13:22:44
Und. So eine Karte muss kurz nach Markteinführung gegen die Southern Islands antreten. Hoffnungsloser Fall also.

LovesuckZ
2010-05-19, 13:25:26
Naja, ich finde nicht, dass AMD SI einstampfen sollte. Wäre schade, wenn es dann nur noch nVidia gibt...

Iruwen
2010-05-19, 13:25:45
Ja, kennen wir ja schon. Fermi = Fail, SI = Win. Samples und Reviews werden eh überbewertet.

V2.0
2010-05-19, 14:09:47
Quark, aber der Releasezeitpunkt ist relevant. Wenn ne Dual-GF104 im Jli/August kommt und ne neue 6970 im Sept/Oktoner, dann lohnt sich der Aufwand für NV kaum. Gegenwärtig gehe ich davon aus, dass man die Dual-Karte den IHVs erlaubt, aber nicht selber launcht.

LovesuckZ
2010-05-19, 14:12:05
Da du keine Ahnung über SI oder sonstige Produkte hast, ist die Aussage nonsens.
Fakt ist, dass SI entweder bei gleicher Geschwindigkeit größer sein wird, oder man die Geschwindigkeit im allgemeinen für Tessellation zurückfährt, um den Die size zu erhalten.
Wer hier an ein Wunder glaubt, mehr Transistoren, mehr Speed gleicher Stromverbrauch, der glaubte auch, dass AMD die bessere Tessellationleistung haben wird.

Gast
2010-05-19, 14:31:39
Da du keine Ahnung über SI oder sonstige Produkte hast, ist die Aussage nonsens.
Fakt ist, dass SI entweder bei gleicher Geschwindigkeit größer sein wird, oder man die Geschwindigkeit im allgemeinen für Tessellation zurückfährt, um den Die size zu erhalten.
Wer hier an ein Wunder glaubt, mehr Transistoren, mehr Speed gleicher Stromverbrauch, der glaubte auch, dass AMD die bessere Tessellationleistung haben wird.

Wer spricht denn von gleicher Leistungsaufnahme? Über das letzte was sich AMD angesichts der Konkurrenz Gedanken machen muss ist wohl der Stromverbrauch.

LovesuckZ
2010-05-19, 14:43:02
Stimmt. Warum sollten sie. Bauen sie ein eine SIx2 mit 500 Watt. :lol:

Gast
2010-05-19, 15:16:42
Du hast schon verstanden, was der Gast meinte, LovesuckZ. Tu nicht so, als wärst du dumm ;)

Dural
2010-05-19, 16:58:51
Lehn dich mal nicht zu weit aus dem Fenster

nö mach ich nicht, es gibt für mich absolut keinen grund für eine GF104 Dual Karte auch für NV nicht... klar machen kann man es, vielleicht überlässt man es ja sogar auch den Board Partner...

Spasstiger
2010-05-19, 19:26:35
Theoretisch könnte NV schon eine Dual-GF100-Karte mit max. 300 Watt TDP auf Basis der aktuellen A3-Chips bringen. Man müsste nur gut selektieren und die Taktraten sowie die Spannungen niedrig ansetzen. Das Problem bei dieser Karte wären die Yields und damit die Kosten. Und wenn man abgespeckte Chips nimmt (z.B. 2*GTX 470 mit niedrigeren Taktraten), dann ist der Performancevorteil gegenüber einer Dual-GF104-Lösung kaum gegeben.
Der GF104 sollte der Diesize nach gut 2/3 der Performance eines vollen GF100 (512 SPs) bei gleichen Taktraten liefern. Wahrscheinlich ist es aber stark anwendungsabhängig, wie GF104 und GF100 zueinander stehen. Bei Tessellation wird der GF104 sicherlich schlechter gegenüber dem GF100 aussehen als z.b. bei DX9-Spielen mit kräftig AA.

V2.0
2010-05-19, 19:47:40
Ein A3 GF100 ist wirklich meilenweit davon entfernt DUAL-GPU geeignet zu sein, wenn man über reale 300W TDP redet. Ob der Respin das so gravierend ändert bezweifele ich.

Spasstiger
2010-05-19, 19:55:41
Ein A3 GF100 ist wirklich meilenweit davon entfernt DUAL-GPU geeignet zu sein, wenn man über reale 300W TDP redet.
Die GTX 470 hat eine bis zu 100 Watt geringere reale Leistungsaufnahme als die GTX 480. Senke den Chiptakt nochmal um 100 MHz (bzw. Hot Clock um 200 MHz) und die Spannung entsprechend, schon ist man in 300-Watt-Dual-GPU-tauglichen Regionen.

Gast
2010-05-19, 20:03:56
Das reicht dann wohl aber kaum noch für eine HD 5970.
Nicht ohne Grund sah man auf der Roadmap eine 375W Dual-GPU-SKU vor und Fudo sagt ja nicht, dass die neue Dual-GF104 <=300W liegt.

Spasstiger
2010-05-19, 20:27:06
Wenn man über 300 Watt gehen kann, kann man auch zwei GF100 nehmen. Die Dual-GF104-These macht ja nur bei max. 300 Watt Sinn, um eben eine voll PCIe-2.0-konforme Fermi-Dual-GPU-Karte im Referenzdesign anbieten zu können.

V2.0
2010-05-19, 20:32:38
Die GTX 470 hat eine bis zu 100 Watt geringere reale Leistungsaufnahme als die GTX 480. Senke den Chiptakt nochmal um 100 MHz (bzw. Hot Clock um 200 MHz) und die Spannung entsprechend, schon ist man in 300-Watt-Dual-GPU-tauglichen Regionen.

Die Spannung muss nicht linear mit dem Takt fallen. Ich gehe davon aus, dass die 480 überproportional viel Spannung braucht um ihren Takt mit der Anzahl an Einheiten zu schaffen.

Sorkalm
2010-05-19, 23:38:30
Die Spannung muss nicht linear mit dem Takt fallen. Ich gehe davon aus, dass die 480 überproportional viel Spannung braucht um ihren Takt mit der Anzahl an Einheiten zu schaffen.

Die GTX 480 läuft mit ziemlich langweiligen ~ 1,01 Volt GPU-Spannungen unter Last:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index10.php

LovesuckZ
2010-05-19, 23:39:39
Die GTX 480 läuft mit ziemlich langweiligen ~ 1,01 Volt GPU-Spannungen unter Last:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index10.php

Es gibt eine Spannweite von 0,983 - 1,05V.

Iruwen
2010-05-20, 01:32:04
Irgendwie muss so ein Brocken auch gekühlt werden, das wird bei einer einzelnen GTX 4x0 ja offensichtlich schon eng.

Gast
2010-05-20, 09:50:08
192-Bit 768MiB bei der GTX 460?
http://translate.google.de/translate?u=http%3A%2F%2Fwww.donanimhaber.com%2FDH_Ozel_GeForce_GTX_460ilk_detay lari_elimize_ulasti-20152.htm&sl=tr&tl=en&hl=&ie=UTF-8

Das passt wieder zu Chiphells 384SPs@256-Bit @ GF104 und 256SPs@192-Bit @ GTX 460.

Dural
2010-05-20, 11:16:18
das bedeutet eher GF100 auf der 465 was klar ist und der GF104 hat wirklich nur 192Bit/256SP

Gib es immer noch jemand der an 64TMUs im GF104 glaubt? ;)

Ailuros
2010-05-20, 11:27:21
das bedeutet eher GF100 auf der 465 was klar ist und der GF104 hat wirklich nur 192Bit/256SP

Gib es immer noch jemand der an 64TMUs im GF104 glaubt? ;)

Wo steht in dem Zeug dass das Ding 8SMs mit 192bit haben wird? Ob sich etwas in der Zwischenzeit geaendert hat kann ich nicht wissen aber es waren 2 GF104 Varianten fuer den Anfang geplant: 256/256 und 192/192.

AnarchX
2010-05-20, 11:31:15
Mit nur 192SPs wäre die GTX 460 aber wohl viel zu weit von der GTX 465 entfernt.
Schon so wäre der Unterschied mit 256SPs/192-Bit von GTX 460 zu GTX 480 ziemlich groß.

Gast
2010-05-20, 12:58:22
Wenn NV die GTX460 nicht auf Augenhöhe zur HD5830 bringt, dann ist auch die Karte für mich gestorben. Werde dann zwar keine ATI kaufen, aber auch keine NV. Dann bleibt es erstmal bei der GTX260. Ich geb lieber 50 Euro für ne gescheitere Kühllösung aus und schmeiß den lauten Quirl aus meinem Rehner, als mir eine aufs äußerste Abgespeckte Karte in den Rechner zu schieben.

Ist NV wirklich so unfähig mal wieder eine Grafikkarte auf den Weg zu bringen wo man einfach ein gutes Gefühl hat beim kaufen und nicht dauernd nur denkt das es das kleinere Übel ist? Und dabei lege ich noch nicht einmal Wert auf die Performancekrone und den Lastverbraucht...

*grml*

V2.0
2010-05-20, 14:02:29
Mit nur 192SPs wäre die GTX 460 aber wohl viel zu weit von der GTX 465 entfernt.
Schon so wäre der Unterschied mit 256SPs/192-Bit von GTX 460 zu GTX 480 ziemlich groß.

Evtl. haben sie ein ähnliches problem wie beim GF100 und haben keine voll funtkionsfhigen GPUs. Evtl. ist es ja ein Designfehler, der die gesamte Serie trifft.

Nakai
2010-05-20, 14:49:32
Wenn NV die GTX460 nicht auf Augenhöhe zur HD5830 bringt, dann ist auch die Karte für mich gestorben. Werde dann zwar keine ATI kaufen, aber auch keine NV. Dann bleibt es erstmal bei der GTX260. Ich geb lieber 50 Euro für ne gescheitere Kühllösung aus und schmeiß den lauten Quirl aus meinem Rehner, als mir eine aufs äußerste Abgespeckte Karte in den Rechner zu schieben.

Ist NV wirklich so unfähig mal wieder eine Grafikkarte auf den Weg zu bringen wo man einfach ein gutes Gefühl hat beim kaufen und nicht dauernd nur denkt das es das kleinere Übel ist? Und dabei lege ich noch nicht einmal Wert auf die Performancekrone und den Lastverbraucht...

*grml*

NV hat da nur das Nötigste getan. Die Geforce 9Serie war imo die letzte wirklich komplette Serie, die man veröffentlicht hat. Dann hat man sich im Namensdschungel verirrt. Eine gesamte straffe Produktpalette aufzufahren, wie ATi, war dahingehend nicht notwendig, da man mit Shrinks und Refreshes konkurrenzfähig war. Hohe Entwicklungskosten entstehen da nur bei fetten Chips, wie GT200 und Fermi.

Aber jetzte könnte es mal wieder soweit werden, dass NV wieder eine richtig gute Produktlinie fährt.


mfg

Dural
2010-05-20, 15:18:14
aber bitte nicht mit den aktuellen fermi chips ;)

Edit:
Obwohl ich mit dem GF100 kein Problem habe... aber 512SP wären schön... Der Verbrauch ist mir persöndlich nicht so wichtig solange man es gut takten kann ;) Es ist einfach kein "runder chip", leider...

LovesuckZ
2010-05-20, 17:12:55
In future news, the upcoming mainstream GF104, GF106 and GF108 GPUs are very tentatively titled 460, 450 and 430 respectively, though we don't know whether these cards will sport the GTX prefix or lesser GTS, GT or GTO ones. Or possibly something else entirely - this is Nvidia's naming department we're talking about. Whatever the names, these cards should be available at some time between July and August, along with laptop parts.
http://www.bit-tech.net/news/hardware/2010/05/20/nvidia-geforce-gtx-465-specs-and-launch-dat/1

Gast
2010-05-20, 17:32:47
Das wird ja immer später, erst Juli/August, da hat AMD womöglich schon die nächste Gen gelauncht.

Iruwen
2010-05-20, 17:36:12
Erstens eher nicht, zweitens sicher nicht die Mid-Range/Low-End Produkte.

aylano
2010-05-20, 18:06:56
July/August wäre heftig.
Damit verpassen sie, Back-to-School

Fürs Weihnachtsgeschäft werden die wahrscheinlich auch eher uninteressant, da die Hersteller sich wahrscheinlich viel eher auf Sandy-Bridge und Fusion konzentrieren.

Mal sehen, ob AMD/ATI was dazugelernt hat und die SI - Low-End & Mainstream rechtzeitig für Sandy-Bridge und Fusion fertig bekommt, denn dann das ist ein Wichtiger Meilenstein, wo zumindestens Nvidia ihre Fermi-Famlie fertig bringt.

LovesuckZ
2010-05-20, 18:12:17
Verfügbarkeit != Lieferbarkeit.
Back to School ist im Oktober. Also verpassen sie garnichts. Und wie sollte AMD den BtS Zeitraum schaffen, wenn die Produkte wohl im September vorgestellt werden? Zeitmaschine?!

V2.0
2010-05-20, 18:43:27
Verfügbarkeit ab Launch und kein Paperlauch, so wird AMD es schaffen.

LovesuckZ
2010-05-20, 19:07:07
Klar. Verfügbarkeit im September und BtS im Oktober sind natürlich weitaus weiter entfernt als August und Oktober.
Echt, nervt dich deine Trollerei nicht auch langsam?

Gast
2010-05-20, 19:17:09
Klar. Verfügbarkeit im September und BtS im Oktober sind natürlich weitaus weiter entfernt als August und Oktober.
Echt, nervt dich deine Trollerei nicht auch langsam?
Nö, eher deine.

V2.0
2010-05-20, 19:22:09
Klar. Verfügbarkeit im September und BtS im Oktober sind natürlich weitaus weiter entfernt als August und Oktober.
Echt, nervt dich deine Trollerei nicht auch langsam?

Nö, bei NV ist es wahrscheinlich, dass sie BtS schaffen, bei ATI möglich.

Iruwen
2010-05-21, 00:52:28
Verfügbarkeit ab Launch und kein Paperlauch, so wird AMD es schaffen.

Hat mit Cypress auch nicht geklappt, da wäre ich mir bei SI nicht zu sicher. Und die nächste echte Gen (im Sinne von kein Bastardchip) wird ja eh erst NI.

Bucklew
2010-05-21, 10:04:39
Verfügbarkeit ab Launch und kein Paperlauch, so wird AMD es schaffen.
Bei der HD5000 ist es ja grandios in die Hose gegangen, ob es dann bei der nächsten Gen was wird?

Zumal ich mich frage, was sie großartig machen wollen. Wenn sie einen deutlich schnelleren Chip als Fermi bauen wollen, müssen sie auch mit der Diesize massiv nach oben oder einen neuen Fertigungsprozeß wählen - letztes gibt es (realistisch) nicht vor Mitte 2011.

deekey777
2010-05-21, 10:21:23
In die Hose gegangen, weil der Auftragshersteller Probleme bei der Fertigung hatte?

Gast
2010-05-21, 10:22:04
Bei der HD5000 ist es ja grandios in die Hose gegangen, ob es dann bei der nächsten Gen was wird?
HD5800 war kein Paperlaunch, wer eine Karte wollte konnte sie knapp nach dem Launch bekommen. Unvorhersehbare Lieferengpässe gibt es immer wieder.


Zumal ich mich frage, was sie großartig machen wollen. Wenn sie einen deutlich schnelleren Chip als Fermi bauen wollen, müssen sie auch mit der Diesize massiv nach oben oder einen neuen Fertigungsprozeß wählen - letztes gibt es (realistisch) nicht vor Mitte 2011.
Nein, man muss einfach die vorhandene Rohleistung besser ausnutzen, was mit einem von der Die-Size eher kostengünstigen verbesserten Front-End möglich sein sollte. Und selbst wenn man 400mm² benötigen würde um die GTX 480 deutlich zu schlagen, abgesehen von Tessellations-Synthies, läge man da wohl nur knapp über dem GF104 und deutlich unter GF100.

V2.0
2010-05-21, 10:31:35
Bei der HD5000 ist es ja grandios in die Hose gegangen, ob es dann bei der nächsten Gen was wird?

Zumal ich mich frage, was sie großartig machen wollen. Wenn sie einen deutlich schnelleren Chip als Fermi bauen wollen, müssen sie auch mit der Diesize massiv nach oben oder einen neuen Fertigungsprozeß wählen - letztes gibt es (realistisch) nicht vor Mitte 2011.

Die Frage war wie AMD BtS schaffen könnte und nicht nach der Verfügbarkeit der 58X0 zum Launch.

Abgesehen müsse nsie nicht deutlich schneller als Fermi sein, ein Unentschieden bei der SinglE-GPU-Version reicht locker, wenn man einen kleineren Chip hat, der evtl. sogar für eine Dual-GPU-Version taugt.

Bucklew
2010-05-21, 10:56:30
Die Frage war wie AMD BtS schaffen könnte und nicht nach der Verfügbarkeit der 58X0 zum Launch.
Werden sie nicht schaffen - mein Tip ;)

Abgesehen müsse nsie nicht deutlich schneller als Fermi sein, ein Unentschieden bei der SinglE-GPU-Version reicht locker, wenn man einen kleineren Chip hat, der evtl. sogar für eine Dual-GPU-Version taugt.
Das könnte Nvidia dann mit einem kleinen Refresh des GF100 (512SPs) kontern.

HD5800 war kein Paperlaunch, wer eine Karte wollte konnte sie knapp nach dem Launch bekommen. Unvorhersehbare Lieferengpässe gibt es immer wieder.
Die Lieferengpässe waren vorher vollkommen klar. ATI wusste von Anfang an, dass sie die Nachfrage bis mindestens Jahresende nicht decken können. Wenn sie das nicht wussten, dann wäre das noch viel peinlicher...

Von daher muss sich ATI einfach den Vorwurf gefallen lassen, dass der Launch der 5000er Reihe verkorkst war. Müsste man Nvidia genauso machen, nur klappt es bei Fermi sehr viel besser.

V2.0
2010-05-21, 11:10:25
Sagen wir ATI war pünktlicher hatte aber eine schlechterer Verfügbarkeit. NV kommt deutlich später, kann aber besser liefern. Irgendwie würde ich da nicht sagen, dass der Launch bei NV besser geklappt hat.

Bucklew
2010-05-21, 11:16:23
Sagen wir ATI war pünktlicher hatte aber eine schlechterer Verfügbarkeit. NV kommt deutlich später, kann aber besser liefern. Irgendwie würde ich da nicht sagen, dass der Launch bei NV besser geklappt hat.
Dabei unterschlägst du allerdings vollkommen, dass der ATI-Launch nur ein Refresh einer bestehenden Architektur war, während Nvidia eine komplett neue Architektur ist. Genau deshalb bin ich auch skeptisch, dass ATI es noch dieses Jahr schafft eine neue Architektur zu präsentieren (wobei die ja auch zur Hälfte alt ist).

deekey777
2010-05-21, 11:17:06
Interessante Logik: AMD hat einen fertigen Grafikchip, den Cypress. TSMC schafft es nicht, Probleme mit 40-nm-Fertigung für größere GPUs zu beheben, um sie in ausreichender Menge zu liefern, auch hat TSMC ungenügende Kapazitäten. Also hätte AMD im September einfach PDFs mit Cypress-Daten verschiken sollen.
Und ja, Nvidia macht alles richtig: Man liefert nur Grafikkarten mit kaputten GF100, während AMD so doof ist und von Anfang an ein Produkt anbietet, auf dem ein voller Cypress verbaut ist. Eigentlich ist AMD noch doofer als doof, denn sie verbrauen gleich zwei volle Cypress auf einem PCB.
Sehr interessant. Wirklich. :up:

Iruwen
2010-05-21, 11:20:26
Man liefert nur Grafikkarten mit kaputten GF100

Selbst ein kaputter NV Chip ist also noch schneller als Cypress, peinlich peinlich :freak:

Gast
2010-05-21, 11:23:13
Und richtig bescheuert ist natürlich auch, dass man nur wenige Wochen später schon einen Ableger für die breiten Massen zum vernünftigen Preis anbietet, der durch seine Die-Size auch lieferbar ist.
Eine Top-Down-Strategie mit der man bei Problemen fast ein Jahr später als die Konkurrenz an den Markt kommt, ist da deutlich überlegen. ;)

aylano
2010-05-21, 11:24:05
Verfügbarkeit != Lieferbarkeit.
Back to School ist im Oktober. Also verpassen sie garnichts.

Wichtig ist viele Notebooks ausrüsten zu können und nicht nur einzelne, wie z.b. AMD im Jänner 2010. Das Ergebnis waren beträchtliche Design-Wins bei Nvidia.


Und wie sollte AMD den BtS Zeitraum schaffen, wenn die Produkte wohl im September vorgestellt werden? Zeitmaschine?!
Ist der Text zu hoch für dich?

Der Wichtigste Meilenstein ist Fusion & Sandy-Bridge.
Back-to-School ist für Nvidia deshalb wichtig, weil die Hersteller sicher kaum nur für das Weinhachtsgeschäft ihre Notebooks nochmal großartig umrüsten, wenn ein Monate Später ein großer Meilenstein ansteht.
(Einzelne ja)

Und nur weil AMD oder Nvidia was vorstellt, bedeutet das nicht gleich extreme Verfügbarkeit.
(siehe AMD-5000er-Serie mit Veröffentlichung im Jänner 2010)

Wobei Nvidia da in der Vergangenheit nach Veröffentlichung (nach Gefühl) viel besser/schnelle liefern konnte als AMD.
Wobei die Verfügbarkeit bei AMD mit der 5000er-Serie schon viel besser als früher aussah und dann "nur" die 40nm-Kapazitäten einen Strich durch die Rechnung machte.

Und damit du es weiß, ich glaube nicht an eine Back-to-School-Verfügbarkeit von South-Island. Daran hatte ich nicht gedacht;-)

Bucklew
2010-05-21, 11:26:38
Und ja, Nvidia macht alles richtig: Man liefert nur Grafikkarten mit kaputten GF100, während AMD so doof ist und von Anfang an ein Produkt anbietet, auf dem ein voller Cypress verbaut ist.
Ja, wer ist wohl doof und wer nicht. Der, der die 4fache Menge Chips in den ersten 6 Wochen verkauft oder der andere?

deekey777
2010-05-21, 11:26:55
Selbst ein kaputter NV Chip ist also noch schneller als Cypress, peinlich peinlich :freak:
Peinlich ist, dass man nicht in der Lage ist, zu verstehen, dass es nicht um die Performance geht.

Ja, wer ist wohl doof und wer nicht. Der, der die 4fache Menge Chips in den ersten 6 Wochen verkauft oder der andere?
Also entsprechen die aktuellen Fertigungskapazitäten, Ausschuss usw. bei TSMC immernoch dem Stand von Q3 2009?

Bucklew
2010-05-21, 11:33:29
Also entsprechen die aktuellen Fertigungskapazitäten, Ausschuss usw. bei TSMC immernoch dem Stand von Q3 2009?
Nö, aber ändert es was am Ergebnis? Nein.

Und erzähl mir bitte nicht, dass ATI nicht genau wusste, dass TSMC bis mindestens Ende des Jahres Probleme mit der Fertigung haben wird.

Nakai
2010-05-21, 12:49:59
Und erzähl mir bitte nicht, dass ATI nicht genau wusste, dass TSMC bis mindestens Ende des Jahres Probleme mit der Fertigung haben wird.

AMD kannte die Probleme, leider hat man sich zweifach verkalkuliert.

1. Die Probleme von TSMC waren schlimmer als erwartet.
2. Man hat zu wenige Wafer bestellt.


Das ist wirklich dreimal bitter...und so verprellt man Kunden.

Der, der die 4fache Menge Chips in den ersten 6 Wochen verkauft oder der andere?

Ja, NV hat länger gewartet. Solange bis man in der Lage war genug Chips zu liefern. Ebenso hat man schon etwas weit vorher produziert um eine zu hohe Nachfrage auch besser zu stillen. Zudem wird NV generell von den Kunden bevorzugt. Dass man mehr verkauft ist also nicht verwunderlich, sondern einfach normal.

Dabei unterschlägst du allerdings vollkommen, dass der ATI-Launch nur ein Refresh einer bestehenden Architektur war, während Nvidia eine komplett neue Architektur ist. Genau deshalb bin ich auch skeptisch, dass ATI es noch dieses Jahr schafft eine neue Architektur zu präsentieren (wobei die ja auch zur Hälfte alt ist).

AMD schafft es mit einer (lol) alten Architektur alle Märkte derzeit zu beliefern und zwar mit (alter) moderner DX11-Hardware. Eigentlich ist es vollkommen egal, weil uns die Hardware nicht zu interessieren braucht. Performance und Featureset sind entscheidend. Fermi is einfach auf Tesselation und Geometrie ausgelegt. In punkto Rohleistung kackt er ab, was ihn bei alten (aber immer noch relevanten) DX9 und DX10-Spielen langsam erscheinen lässt.

Das könnte Nvidia dann mit einem kleinen Refresh des GF100 (512SPs) kontern.

Etwa 6,6% zusätzliche Einheiten. Dazu noch eine Takterhöhung. Wenn die neue Rev eine ordentlich Takterhöhung bringt, dann wird man dazu in der Lage sein.

Es ist eh vollkommen egal, wie man es dreht und wendet. NV ist derzeit in fast allen Segmenten unterlegen, bis auf Singlechip-Highend und da reisst man einiges. Man sollte aber unbedingt berücksichtigen, dass NV schon viele andere Bereiche hat, in denen man profitabel ist. Deswegen ist dieser Rückstand nicht sonderlich schlimm. Man muss nur in nächster Zeit DX11-Produkte in allen Segmenten bringen, dann kann man sich wieder zurücklehnen.

Bucklew
2010-05-21, 14:15:53
Das ist wirklich dreimal bitter...und so verprellt man Kunden.
Ebend. Und diese Kritik muss sich ATI nunmal stellen, sie sind letztendlich verantwortlich.

Ja, NV hat länger gewartet. Solange bis man in der Lage war genug Chips zu liefern. Ebenso hat man schon etwas weit vorher produziert um eine zu hohe Nachfrage auch besser zu stillen. Zudem wird NV generell von den Kunden bevorzugt. Dass man mehr verkauft ist also nicht verwunderlich, sondern einfach normal.
Nun, auch ATI hat ja früher produziert, ist ja auch logisch, dass man nicht innerhalb von 2 Tagen fertige Karten hat. Und zum letzten Satz: Genau das bezweifeln die üblichen Kanidaten ja genau ;)

AMD schafft es mit einer (lol) alten Architektur alle Märkte derzeit zu beliefern und zwar mit (alter) moderner DX11-Hardware. Eigentlich ist es vollkommen egal, weil uns die Hardware nicht zu interessieren braucht. Performance und Featureset sind entscheidend. Fermi is einfach auf Tesselation und Geometrie ausgelegt. In punkto Rohleistung kackt er ab, was ihn bei alten (aber immer noch relevanten) DX9 und DX10-Spielen langsam erscheinen lässt.
Ja aber sie können es ja genau deshalb überall beliefern (= waren in der Entwicklung schneller), weil es natürlich einfach ist eine bestehende Architektur ein wenig zu verbessern, als eine völlig neue durch die Tür zu kriegen. Und wenn es um die Frage geht, wer was wann wie wo entwickelt spielt die Hardware (bzw die Architektur) eben eine entscheidende Rolle und ist alles andere als egal. Deshalb glaube ich auch nicht an eine neue ATI-Generation dieses Jahr.

Etwa 6,6% zusätzliche Einheiten. Dazu noch eine Takterhöhung. Wenn die neue Rev eine ordentlich Takterhöhung bringt, dann wird man dazu in der Lage sein.
Genau.

Es ist eh vollkommen egal, wie man es dreht und wendet. NV ist derzeit in fast allen Segmenten unterlegen, bis auf Singlechip-Highend und da reisst man einiges. Man sollte aber unbedingt berücksichtigen, dass NV schon viele andere Bereiche hat, in denen man profitabel ist. Deswegen ist dieser Rückstand nicht sonderlich schlimm. Man muss nur in nächster Zeit DX11-Produkte in allen Segmenten bringen, dann kann man sich wieder zurücklehnen.
Auch völlige Zustimmung :)

Gast
2010-05-21, 19:38:48
Verfügbarkeit != Lieferbarkeit.
Back to School ist im Oktober. Also verpassen sie garnichts. Und wie sollte AMD den BtS Zeitraum schaffen, wenn die Produkte wohl im September vorgestellt werden? Zeitmaschine?!

Back to School im October... selten so eine Blödsinn gehört!

Im October ist die Holiday Season schon im vollen Gang.

Das Geschäft beim "Back to School" wird Im Mai/Juni/Juli gemacht wenn alle großen OEMs und Lieferanten Komponenten für Ihre Systeme kaufen.

Gast
2010-05-21, 19:53:31
Und ja, Nvidia macht alles richtig: Man liefert nur Grafikkarten mit kaputten GF100, während AMD so doof ist und von Anfang an ein Produkt anbietet, auf dem ein voller Cypress verbaut ist.
Ist nach deiner Logik dann auch jeder RV770/790 ein kaputter Chip weil ja intra-SIMD-Redundanz nicht genutzt wurde?

Gast
2010-05-21, 19:56:44
Ist nach deiner Logik dann auch jeder RV770/790 ein kaputter Chip weil ja intra-SIMD-Redundanz nicht genutzt wurde?

Oder anders gefragt: Ist feinkörnige Redundanz unbedingt besser als grobkörnige? Beide haben Vorteile: Erstere am Anfang einer Produktion, letztere über die Lebensdauer, wenn man voll funktionsfähige Chips verkaufen kann.

Gast
2010-05-21, 19:58:07
Alles Offtopic, hier interessiert nur der GF104. Nich irgendwelche teildefekten GPUs oder ob Medion im April oder Juni seine BigOrder macht...

Spasstiger
2010-05-21, 21:03:19
Ist es eigentlich denkbar, dass NV die SMs für den GF104/106/108 von 32 SPs, 16 LD/ST-Einheiten und 4 SFUs auf 16 SPs, 8 LD/ST-Einheiten und 2 SFUs umbaut? So hätte man weiterhin 4 GPCs, was zwar viel Overhead bedeutet, aber die Rasterizer-Effizienz nochmal verbessert. Und die 64 TMUs hätte man so auch.
Den GF106 könnte man dann mit zwei GPCs bestehend aus jeweils 4 solcher SMs bestücken (=> 2*4*16 SPs = 128 SPs) und den GF108 mit noch einem GPC (=> 1*4*16 SPs = 64 SPs).

Und wie stehen die Chancen, dass der GF104 wider Erwarten mit 384 SPs und nicht mit 256 SPs kommt? Also im Endeffekt 3 GPCs vom GF100 und dazu vier SI-Partitionen. Gab es konkrete Aussagen in der Richtung aus NV-nahen Kreisen? Eigentlich wäre es ja der naheliegendere Weg und eine Diesize von 375 mm² lässt das auch möglich erscheinen.

deekey777
2010-05-21, 21:25:21
Ist nach deiner Logik dann auch jeder RV770/790 ein kaputter Chip weil ja intra-SIMD-Redundanz nicht genutzt wurde?
Wow, auf so eine Aussage zu kommen, bedarf es schon viel Mums. Respekt.

Und weißt du was: Mit der 8500 hat ATi in Q3A gecheatet.

Ailuros
2010-05-22, 10:44:18
Ist es eigentlich denkbar, dass NV die SMs für den GF104/106/108 von 32 SPs, 16 LD/ST-Einheiten und 4 SFUs auf 16 SPs, 8 LD/ST-Einheiten und 2 SFUs umbaut? So hätte man weiterhin 4 GPCs, was zwar viel Overhead bedeutet, aber die Rasterizer-Effizienz nochmal verbessert. Und die 64 TMUs hätte man so auch.
Den GF106 könnte man dann mit zwei GPCs bestehend aus jeweils 4 solcher SMs bestücken (=> 2*4*16 SPs = 128 SPs) und den GF108 mit noch einem GPC (=> 1*4*16 SPs = 64 SPs).

Eine Idee waere es schon, aber dann waere womoeglich aber auch 4 offset gather4 ein high end exclusives Feature. Denn ohne die 16 LS Einheiten geht das Zeug dann auch wieder nicht (denk an 4*4).

Uebrigens hat die virtuelle Aufteilung in GPCs auch ihren Sinn wenn es zu Skalierung nach unten kommt.

Und wie stehen die Chancen, dass der GF104 wider Erwarten mit 384 SPs und nicht mit 256 SPs kommt? Also im Endeffekt 3 GPCs vom GF100 und dazu vier SI-Partitionen. Gab es konkrete Aussagen in der Richtung aus NV-nahen Kreisen? Eigentlich wäre es ja der naheliegendere Weg und eine Diesize von 375 mm² lässt das auch möglich erscheinen.

Ich mach es Dir einfacher: die area kommt von AMD's TSMC Spionage, Anzahl der SMs aus geleakten roadmaps fuer AIBs. Die Anzahl der TMUs/SM wurde zwar nur indirekt von NV bestaetigt off the record, aber im Gegenfall sagt man auch ein klares "nein" als um den Brei zu reden. Anders ich hab das Zeug nicht nur von einer Seite ueberkreuzt sondern von mehreren. Muss nicht heissen dass es stimmen muss, aber bei mehr als 2 Faellen ist es dann so langsam kein Zufall mehr.

Gipsel
2010-05-22, 20:45:47
Ja, wer ist wohl doof und wer nicht. Der, der die 4fache Menge Chips in den ersten 6 Wochen verkauft oder der andere?Nur mal so als Anmerkung, nvidia verkauft die Fermi-Teslas im Prinzip schon seit Oktober letzten Jahres (und laut eigener Aussage sehr gut).
Merke: Verkauf != Auslieferung
Eine Idee waere es schon, aber dann waere womoeglich aber auch 4 offset gather4 ein high end exclusives Feature. Denn ohne die 16 LS Einheiten geht das Zeug dann auch wieder nicht (denk an 4*4).Da 4offset_gather4 nur mit halber Rate läuft (ein SM kann Werte von 8 Adressen pro Takt aus dem Texture-Cache laden), dürfte das kein Grund sein. Im Prinzip ist Fermi auf 2 Adressen pro TU begrenzt. Das skaliert also zuerst mit der TU-Anzahl, bevor die L/S-Einheiten begrenzen. Ich habe ja schon mal erwähnt, daß die L/S-Einheiten direkt nur für den Zugriff auf den linearen Speicher (L1/local/global memory) zuständig sind, aber nicht für die aufwändigere Berechnung der Adressen für Texturzugriffe (die üblicherweise nicht linear im Speicher liegen). Die TUs haben nicht umsonst einen eigenen/getrennten L1-Cache.

Gast
2010-05-23, 02:19:26
Wie stehen denn die Chancen, das die GF104 256/256 der "Nachfolger" des G92 wird? Wenn die Taktrate erreicht wird, wird das die neue Mainstream Powerkarte. Und so groß kann die GPU doch garnicht werden, vieleicht 60% des GF100.

Bucklew
2010-05-23, 10:15:15
Nur mal so als Anmerkung, nvidia verkauft die Fermi-Teslas im Prinzip schon seit Oktober letzten Jahres (und laut eigener Aussage sehr gut).
Merke: Verkauf != Auslieferung
Originalaussage war "400.000 shipped" - shipped heißt ausgeliefert.

Gast
2010-05-23, 10:19:37
Originalaussage war "400.000 shipped" - shipped heißt ausgeliefert.
Dass Nvidia GPUs an die Partner geliefert hat, heißt eben noch nicht, dass diese schon beim Endkunden sind.

V2.0
2010-05-23, 12:04:27
Wie stehen denn die Chancen, das die GF104 256/256 der "Nachfolger" des G92 wird? Wenn die Taktrate erreicht wird, wird das die neue Mainstream Powerkarte. Und so groß kann die GPU doch garnicht werden, vieleicht 60% des GF100.

Von der Marktposition schon, aber ansonsten muss man bedenken, dass der G92 nur so bemerkenswert war, weil ATI eine weniger gelungene GPU-Reihe am Markt hatte.

Heute muss sich mit 5850 - 5770 messen und da wird es wesentlich schwerer werden am Markt erfolgreich zu sein.

Gast
2010-05-23, 12:44:17
Originalaussage war "400.000 shipped" - shipped heißt ausgeliefert.

Stimmt nicht. Originalaussage war hunderttausende Chips.

Dural
2010-05-23, 13:17:45
wer sagt den das von den 400.000 stück irgend welche Tesla GPUs dabei waren?

Nur zur erinnerung, laut NV ist Tesla doch erst im ende Q2 teil auch erst Q3 lieferbar!

Gipsel
2010-05-23, 18:20:22
wer sagt den das von den 400.000 stück irgend welche Tesla GPUs dabei waren?

Nur zur erinnerung, laut NV ist Tesla doch erst im ende Q2 teil auch erst Q3 lieferbar!
Was nvidia aber nicht daran gehindert hat, schon welche zu verkaufen (eben mit einem halben Jahr Lieferfrist).
Alles was ich sagen will, ist, daß man im Prinzip nicht soo viel auf solche verlautbarten Zahlen geben sollte, da sie sich immer in die eine oder andere Richtung "frisieren" lassen. Man kann auf einer Seite viel mehr verkauft haben, als man ausgeliefert hat, aber genauso gut auch viel mehr ausgeliefert haben, als man (an Endkunden) verkauft hat.

LovesuckZ
2010-05-23, 18:23:27
nVidia hat geshipped, was für sie ausgeliefert und verkauft bedeutet.
Ansonsten hat Tesla nur einen Bruchteil des ca. 30 Millionen Anwachses im Quadrobereich ausgemacht. Das waren also weniger als 10k Karten.

Gipsel
2010-05-23, 18:49:42
nVidia hat geshipped, was für sie ausgeliefert und verkauft bedeutet.Was das genau bedeutet, ist eben nicht klar. Man sollte sich hüten, solche Aussagen ohne die angemessene (große) Portion Salz in seinem Sinne zu interpretieren ;)

Es kann ja sein, daß bisher 400k halbwegs funktionstüchtige GF100 Chips bei TSMC vom Band gepurzelt sind. Aber diese 400k (dafür sind schon einige Teslas verkauft, aber noch nicht ausgeliefert worden) sind bisher nie und nimmer an Endkunden verkauft worden. Da dürften etliche GTX460/465 dabei sein. Gab es nicht sogar kürzlich in irgend einem Forum einen Typen mit einer Karte, die ein GTX465 BIOS drauf hatte und aus unerfindlichen Gründen in einem GTX470-Karton gelandet ist? Offensichtlich hat nvidia also schon einige dieser Chips ausgeliefert, sie sind aber noch nicht im Verkauf.

LovesuckZ
2010-05-23, 18:54:27
Ich kann nichts als Umsatz ausweisen, dass ich als Verbindlichkeiten in meiner Bilanz habe.

/edit: Und nVidia hat selbst gesagt, dass sie am Ende des Quartals noch viele Chips hatten, die sie nicht rausbekommen haben zum Ende. Ob diese schon verkauft sind, interessiert für die Umsatzausweisung nicht.

Gipsel
2010-05-23, 19:17:37
Ich kann nichts als Umsatz ausweisen, dass ich als Verbindlichkeiten in meiner Bilanz habe.Na dann zeig mal die Bilanz, die die Umsätze mit den GF100 gesplittet ausweist!

Eine Aussage von David White, Chief Financial Officer, Principal Accounting Officer and Executive Vice President auf dem CC zur Bilanz lautete übrigens:
The core GPU business was flat quarter-over-quarter. Supply constraints are finally easing. In particular, yields of our high-end, Fermi-based GPUs were much higher than expected, leading to good availability of our new GeForce GTX 480 and 470 GPUs and Tesla high-performance computing products.
[..]
Tesla had a record quarter, which together with our Quadro business, contributed to higher overall gross margin in the quarter.
Wenn Du dann mal die Preise von Geforce und Teslas vergleichst, kannst Du Dir vielleicht vorstellen, was mehr zur guten Bilanz beigetragen hat, die Handvoll GTX470/480 oder die Teslas.
/edit: Und nVidia hat selbst gesagt, dass sie am Ende des Quartals noch viele Chips hatten, die sie nicht rausbekommen haben zum Ende. Ob diese schon verkauft sind, interessiert für die Umsatzausweisung nicht.Das kommt ganz auf die Verträge mit den Kartenherstellern an. Häufig kriegen nv/ATI das Geld nämlich erst, wenn die Karten an die Einzelhändler rausgehen. Das heißt also, Shipment verursacht zwar Kosten, der Umsatz kommt etwas später. Der "channel" ist praktisch die Lagerhaltung.

LovesuckZ
2010-05-23, 19:25:26
Na dann zeig mal die Bilanz, die die Umsätze mit den GF100 gesplittet ausweist!
Wenn Du dann mal die Preise von Geforce und Teslas vergleichst, kannst Du Dir vielleicht vorstellen, was mehr zur guten Bilanz beigetragen hat, die Handvoll GTX470/480 oder die Teslas.


Vielleicht sollte man sich erstmal im klaren sein, welchen Umsatzanteil Tesla überhaupt ausmacht. Im Jahr 2009 war es ca. $28 Millionen am Gesamtjahresumsatz. Ein "Rekordquartel" kann da schonmal 8,9 oder 10 Millionen sein. Runtergerechnet auf Stückzahlen sind das bei pessimistischen $1500 weniger als 10k Karten. Dazu kommt, dass White sagt, dass der Rückgang im Core Busines mehr als nur ausgeglichen wurde durch GF100. Man kann sich also ausrechnen, wo man mehr Karten verkaufen musste, um zu diesem Ergebnis zu kommen.

Gipsel
2010-05-23, 19:40:48
Dazu kommt, dass White sagt, dass der Rückgang im Core Busines mehr als nur ausgeglichen wurde durch GF100. Man kann sich also ausrechnen, wo man mehr Karten verkaufen musste, um zu diesem Ergebnis zu kommen.
Schon mal das Zitat oben von White gelesen? Irgendwie zählt er die GTX470/480 mit zum "core GPU business", die natürlich schon im (praktisch unverändertem) Ergebnis mit drin stecken (und wo es somit gar keinen Rückgang gab). Soweit ich weiß, ist zwar der Umsatz mit diskreten GPUs zurückgegangen, was aber durch höheren Umsatz mit Notebook-Grafik ausgeglichen wurde. Diese Umschichtung hatte erheblich mehr Effekt als alle ausgelieferten GF100.

LovesuckZ
2010-05-23, 19:47:49
Er sagt im veröffentlichten PDF folgendes:
http://www.abload.de/img/nvidiar6i9.png

Und aus der Pressemeldung:
NVIDIA CEO and president. "We shipped a few hundred thousand Fermi processors into strong consumer demand.

Gipsel
2010-05-23, 20:10:52
Und? Dein pdf-Auszug sagt ziemlich genau das Gleiche wie ich oben. Es gab keinen Rückgang im "core GPU business", sondern nur einen im Bereich der Mainstream-GPUs für den Desktop. Dieser wurde (wie ich schon sagte) hauptsächlich durch höheren Umsatz mit Notebook-GPUs ausgeglichen. Natürlich müssen noch die frischen GTX470/480 GPUs erwähnt werden, aber wie viel Anteil die am Umsatz haben, wird nirgendwo gesagt. Die Triebfeder für die Profitabilität waren allerdings Quadros und Teslas, wie man meinem Zitat David Whites entnehmen kann. Denn der ASP im "core GPU business" ist sogar leicht gesunken (flacher Umsatz bei leicht gestiegenen Stückzahlen) ;)

Aber die Diskussion wird langweilig und ziemlich offtopic :rolleyes:

Ailuros
2010-05-23, 20:22:28
Da 4offset_gather4 nur mit halber Rate läuft (ein SM kann Werte von 8 Adressen pro Takt aus dem Texture-Cache laden), dürfte das kein Grund sein. Im Prinzip ist Fermi auf 2 Adressen pro TU begrenzt. Das skaliert also zuerst mit der TU-Anzahl, bevor die L/S-Einheiten begrenzen. Ich habe ja schon mal erwähnt, daß die L/S-Einheiten direkt nur für den Zugriff auf den linearen Speicher (L1/local/global memory) zuständig sind, aber nicht für die aufwändigere Berechnung der Adressen für Texturzugriffe (die üblicherweise nicht linear im Speicher liegen). Die TUs haben nicht umsonst einen eigenen/getrennten L1-Cache.

Wenn ich's nochmal nicht falsch verstanden hat GF100 pro SM fuer 4 offset gather4:

16 texture address units
4 texture filtering units
16 texture sampling units

...ohne Filterung 16 samples look up fuer die 16 addresses die zu den shaders weitergejagt werden koennen und natuerlich wird damit die Filterungslogik damit umgangen.

Bei bilinear/trilinearer Filterung werden 4 addresses berechnet fuer 4*(2*2) samples, die von den 4 TF Einheiten gefiltert werden.

So zumindest lautet die uebersetzte Beschreibung von NV engineering.

Bucklew
2010-05-23, 20:29:20
Dass Nvidia GPUs an die Partner geliefert hat, heißt eben noch nicht, dass diese schon beim Endkunden sind.
Das ist für Nvidia schlicht gesagt scheiß egal.

Stimmt nicht. Originalaussage war hunderttausende Chips.
Ja dann zeig mir mal den Link, überall steht 400.000:

http://www.xbitlabs.com/news/video/display/20100514065941_Nvidia_Shipped_400_Thousand_Fermi_Class_Chips_Analyst.html

Wird langsam echt Zeit für ne Regpflicht, würde einem solch unsinnige Posts endlich erspart werden

Gast
2010-05-23, 20:32:45
Ja dann zeig mir mal den Link, überall steht 400.000:

http://www.xbitlabs.com/news/video/display/20100514065941_Nvidia_Shipped_400_Thousand_Fermi_Class_Chips_Analyst.html

Wird langsam echt Zeit für ne Regpflicht, würde einem solch unsinnige Posts endlich erspart werden

LovesuckZ hat zwei Beiträge vor dir das original PDF von Nvidia verlinkt. Analystenaussagen sind wie üblich mit Vorsicht zu genießen.

Bucklew
2010-05-23, 20:50:21
LovesuckZ hat zwei Beiträge vor dir das original PDF von Nvidia verlinkt. Analystenaussagen sind wie üblich mit Vorsicht zu genießen.
Das PDF spricht von "few hundred thousands" - wo wiederspricht sich das jetzt mit 400.000?

Ailuros
2010-05-23, 21:05:52
Kann sich der Ton gefaelligst wieder normalisieren? Uebrigens will ich bitten auf GF104 zurueckzukommen. NV's Verkaufszahlen haben nichts mit dem Thema zu tun.

Gipsel
2010-05-24, 01:45:25
Wenn ich's nochmal nicht falsch verstanden hat GF100 pro SM fuer 4 offset gather4:

16 texture address units
4 texture filtering units
16 texture sampling units

...ohne Filterung 16 samples look up fuer die 16 addresses die zu den shaders weitergejagt werden koennen und natuerlich wird damit die Filterungslogik damit umgangen.

Bei bilinear/trilinearer Filterung werden 4 addresses berechnet fuer 4*(2*2) samples, die von den 4 TF Einheiten gefiltert werden.

So zumindest lautet die uebersetzte Beschreibung von NV engineering.
Also soweit ich weiß, sagt nvidia selbst, daß man mit 4offset_gather4 nur doppelt so schnell ist wie ohne. Im Klartext heißt das, daß man Texturdaten nur von 8 Adressen pro Takt laden kann. Außerdem habe ich schon versucht zu sagen, daß die L/S-Einheiten eben nicht die Adressen für Texturzugriffe berechnen (die greifen nur auf den linearen Speicher direkt zu, nicht auf Texturen), das machen die praktisch immer noch den TUs zugeordnete TAs. Dabei können diese nicht nur eine Adresse pro Takt abarbeiten, sondern eben zwei (mit gewissen Einschränkungen, die Offsets bei 4offset_gather4 sind nicht vollkommen beliebig, es gibt immer noch nur eine Hauptadresse mit beschränkten Offsets).
Fermi hat in einem SM also praktisch:
16 L/S Ports für shared memory/GP-L1 (reichen Texturzugriffe an die TAs weiter)
4+4 Texture address units
4 filtering units
16 sampling units, die maximal 16 Werte pro Takt aus dem TC-L1 lesen

Es können also maximal 16 samples (je 32bit maximal) gelesen werden, die von maximal 4 (gefiltert) oder 8 Adressen (ungefiltert) stammen. 16 Adressen pro Takt können aus dem linearen Speicher gelesen werden. Kombiniert (linear+Texturen) können aber die 16 Operationen pro Takt auch nicht überschritten werden (da alles durch die L/S-Ports muß)

Zumindest lautet so meine Übersetzung ;)

Gipsel
2010-05-24, 01:50:41
Das ist für Nvidia schlicht gesagt scheiß egal.
Ich habe doch schon geschrieben, daß nv/ATI das Geld üblicherweise eben noch nicht gleich sehen, wenn die Chips an die OEMs rausgehen.
Aber Ailuros hat ja schon angemahnt, daß Umsatzzahlen hier nicht reingehören, also vermutlich auch keine Diskussion über den Ablauf des Vertriebs zu den Händlern.

Ailuros
2010-05-24, 10:15:28
16 L/S Ports für shared memory/GP-L1 (reichen Texturzugriffe an die TAs weiter)
4+4 Texture address units
4 filtering units
16 sampling units, die maximal 16 Werte pro Takt aus dem TC-L1 lesen

Schoen. Behalt mal die 16 L/S im Hinterkopf, denn ich hab auf das hier geantwortet:

16 LD/ST-Einheiten und 4 SFUs auf 16 SPs, 8 LD/ST-Einheiten und 2 SFUs umbaut

Es können also maximal 16 samples (je 32bit maximal) gelesen werden, die von maximal 4 (gefiltert) oder 8 Adressen (ungefiltert) stammen. 16 Adressen pro Takt können aus dem linearen Speicher gelesen werden. Kombiniert (linear+Texturen) können aber die 16 Operationen pro Takt auch nicht überschritten werden (da alles durch die L/S-Ports muß)

Zumindest lautet so meine Übersetzung ;)

Wieso hab ich den Eindruck dass mit nur 8 LS das 4 offset Zeug um einiges hapern koennte?

Dural
2010-05-24, 14:50:34
noch kurz... ich glaube kaum das NV schon seit monaten Tesla GPUs Verkauft/Verrechnet wenn die nicht lieferbar/ausgeliefert werden deswegen können die auch unmöglich in der Bilanz sein! Die Abnehmer solche Tesla Karten Zahlen so wie so nicht im Voraus, erst recht nicht für Produkte die nicht lieferbar sind!

Nur als Info zb. IBM zahlt min. erst nach 60Tagen oder 30Tage mit 2% skonto bei ausgelierferter Ware und das weis ich persöndlich ganz genau da ich schon mehr fach mit denen zu tun hatte...

Spasstiger
2010-05-24, 14:55:01
Wie stehen denn die Chancen, das die GF104 256/256 der "Nachfolger" des G92 wird? Wenn die Taktrate erreicht wird, wird das die neue Mainstream Powerkarte. Und so groß kann die GPU doch garnicht werden, vieleicht 60% des GF100.
Die GTX 460 dürfte als GF104-Topmodell ungefähr so schnell wie eine GTX 285 werden und 250$ (exkl. Steuer) kosten. Als Bonus gibts halt DX11.
Ob dir das G92-like genug ist, musst du mit dir selbst ausmachen.
Mainstream-DX11 gibts auf jeden Fall schon lange in Form der Radeon HD 5770. Die GTX 460 wird die bessere DX11-Karte sein, allerdings in Verbindung mit einem deutlich höheren Preis und einem höheren Stromverbrauch.

NV wird auf keinen Fall ein Monopol auf DX11-Performance- und DX11-Mainstream-Karten aufbauen können, weil AMD dank deutlich geringerer Diesize jederzeit das preislich attraktivere Angebot stellen kann.
GF104 = gerüchteweise 375 mm² Diesize
Cypress ("RV870") = 334 mm² Diesize
Juniper ("RV840") = 166 mm² Dieisze
Dabei wird sich der GF104 performancetechnisch zwischen diesen beiden AMD/ATI-Chips einsortieren.

Sorkalm
2010-05-24, 16:35:47
noch kurz... ich glaube kaum das NV schon seit monaten Tesla GPUs Verkauft/Verrechnet wenn die nicht lieferbar/ausgeliefert werden deswegen können die auch unmöglich in der Bilanz sein! Die Abnehmer solche Tesla Karten Zahlen so wie so nicht im Voraus, erst recht nicht für Produkte die nicht lieferbar sind!

Nur als Info zb. IBM zahlt min. erst nach 60Tagen oder 30Tage mit 2% skonto bei ausgelierferter Ware und das weis ich persöndlich ganz genau da ich schon mehr fach mit denen zu tun hatte...

Auch Forderungen bucht man in die Bilanz etc. ein. Da muss noch kein Geld geflossen sein.

Gast
2010-05-24, 17:56:09
Die GTX 460 dürfte als GF104-Topmodell ungefähr so schnell wie eine GTX 285 werden und 250$ (exkl. Steuer) kosten. Als Bonus gibts halt DX11.
Ob dir das G92-like genug ist, musst du mit dir selbst ausmachen.
Mainstream-DX11 gibts auf jeden Fall schon lange in Form der Radeon HD 5770. Die GTX 460 wird die bessere DX11-Karte sein, allerdings in Verbindung mit einem deutlich höheren Preis und einem höheren Stromverbrauch.

Dabei wird sich der GF104 performancetechnisch zwischen diesen beiden AMD/ATI-Chips einsortieren.

Na mir gings eher um eine Performance Einschätzung im Bezug auf heutige Spiele ala WoW, wo SSAA 2x die Karte leisten muss und BFBC2 in 1920@max Detail. Das is ca. der Schnittpunkt einer GTX285 vs HD5850.
Der Stromverbrauch is egal, alles um die 180Watt @ maximaler Leistung passt mit einem Schlaf-2D-Modus.

Gipsel
2010-05-24, 19:07:52
Wieso hab ich den Eindruck dass mit nur 8 LS das 4 offset Zeug um einiges hapern koennte?
Keine Ahnung. Von 8 Adressen kann man auch mit nur 8 L/S-Einheiten lesen. Habe bloß gerade keine Ahnung, wie breit die Ports der L/S-Einheiten sind. Wenn das nur 32bit sind, schränkt man insgesamt die Bandbreite etwas ein. Das sollte aber GPGPU-Code tendenziell härter treffen, da Grafik nicht soo viel ungefilterte Daten benutzt (und auch nicht aus dem GP-L1, sondern eher Texturen), und da verringert sich die Anzahl der adressierbaren Texel ja eben nicht. Allerdings halbiert sich dann eventuell der (maximale) Durchsatz bei Laden von 16 Byte ungefilterten Daten pro Adresse (fetch4) auf den des 4offset_gather4 (der unverändert bleibt).

Insgesamt glaube ich aber nicht an eine Verringerung auf 8 L/S-Einheiten. Das würde doch ein deutlich anderes Design der SMs erfordern. Man könnte die SMs so zwar skalieren, die Aufwand von Verwaltung zu Recheneinheiten wird aber wieder schlechter, ein Punkt, den ich bei Fermi eigentlich gerade gelobt habe. Und ob ein Schrumpfen von 2*16 ALUs + 16 L/S-Einheiten auf 16 ALUs + 8 L/S-Einheiten wirklich Sinn macht, wage ich noch zu bezweifeln. Ein SM ist eigentlich klein genug, um ohne weitere Schrumpfung als Basiseinheit dienen zu können. Insofern argumentierst Du gegen diesen Vorschlag in die gleiche Richtung wie ich. Ich habe lediglich eingeworfen, daß das 4offset_gather4 aus meiner Sicht kein schlagkräftiges Argument ist ;). Ich denke der Grund wird eher das Verhältnis von Leistung zur Transistorzahl bzw. Diegröße sein, welches sich dadurch verschlechtern würde. Außer vielleicht beim allerkleinsten Modell mit nur einem SM, bei dem dann eventuell noch 16 ALUs deaktiviert werden, dürfte das nicht Realität werden.

Sorkalm
2010-05-24, 19:41:16
Die chinesische Seiten zol.com meldet jetzt, dass neben der GTX 465 auch die GTX 460 noch auf dem GF100 basieren soll. (Original (http://vga.zol.com.cn/179/1793262.html) / Übersetzung (http://www.microsofttranslator.com/BV.aspx?ref=IE8Activity&a=http%3A%2F%2Fvga.zol.com.cn%2F179%2F1793262.html))

Zunächst nennen sie die uns bereits bekannten Angaben für die GTX 465 (352 SP, 256 Bit, 1024 MiB GDDR5). Eine Verwechslung mit dieser ist als vermutlich eher ausgeschlossen. Daneb meinen sie eben, dass die GTX 460 auch noch auf GF100 aufbauen wird, und zwar mit einem 192 Bit-Bus und dementsprechend 768 MiB RAM. SP wissen sie nicht, tippen aber auf einen Wert zwischen 256 und 320 (woher auch immer).


Die Daten für GF104 mit 256 SP, 64 TMUs und 256 Bit nennt die Seite übrigens auch. Womit das für mich eigtl. relativ seriös klingt.
GF104 dürfte dann aber noch etwas entfernt sein, wenn echt noch diese beiden Karten kommen...

Ailuros
2010-05-24, 20:24:53
Errr also wenn es tatsaechlich noch einen <11 SM chip von GF100 geben sollte, koennen sie so langsam jegliche andere GF10x Entwicklung aufgeben und den GPU Markt von top to bottom mit GF100 bedienen. So langsam wird's laecherlich.

Botcruscher
2010-05-24, 20:33:20
So schlecht können die Yields gar nicht sein und zur absichtlichen Kastration ist der Chip doch etwas groß...

Black-Scorpion
2010-05-24, 21:12:01
Oder sie haben so viel Schrott liegen das sie keine Wahl haben.

Dural
2010-05-24, 21:17:49
Auch Forderungen bucht man in die Bilanz etc. ein. Da muss noch kein Geld geflossen sein.

wenn sie nicht liefern wird auch nichts verrechnet, logisch oder nicht?

Gipsel
2010-05-24, 21:27:10
wenn sie nicht liefern wird auch nichts verrechnet, logisch oder nicht?
Offensichtlich bist Du kein BWLer ;)
Bilanzierung folgt einer eigenen Logik :rolleyes:

Kalmar
2010-05-24, 22:23:01
wenn sie nicht liefern wird auch nichts verrechnet, logisch oder nicht?
forderungen oder verbindlichkeiten aus lieferung und leistung ...

hmm aber wird dann das verhältnis preis zur leistung immer schlechter wenn sie immer mehr deaktivieren?

nur wie schwach ist dann bitte schön der 104er wenn sie da noch nen chip vorknallen können ...

Sorkalm
2010-05-24, 22:30:02
nur wie schwach ist dann bitte schön der 104er wenn sie da noch nen chip vorknallen können ...

GTX 46x dürfte wohl auslaufen, wenn GF104 kommt, tippe ich inzwischen.

Vielleicht entscheidet sich das Marketing sogar, GF100-B sowie GF10x als 500er-Serie zu bringen, um den schlechten Ruf der 400er loszuwerden... ;)

deekey777
2010-05-24, 22:56:07
GTX 46x dürfte wohl auslaufen, wenn GF104 kommt, tippe ich inzwischen.

Vielleicht entscheidet sich das Marketing sogar, GF100-B sowie GF10x als 500er-Serie zu bringen, um den schlechten Ruf der 400er loszuwerden... ;)
Als ich den ersten Satz las, hatte ich gleich den Gedanken, den ich in dem zweiten Satz fand.

Byteschlumpf
2010-05-25, 00:12:04
IMO dürfte die schnellste GF104 auf dem Niveau einer GTS250 liegen oder etwas darüber. Die GTX465 beerbt ja nur die GTX275.

Spasstiger
2010-05-25, 00:25:52
IMO dürfte die schnellste GF104 auf dem Niveau einer GTS250 liegen oder etwas darüber. Die GTX465 beerbt ja nur die GTX275.
Die GTX 460 als schnellste GF104-Variante könnte schneller werden als die GTX 465. Ich erwarte bei der GTX 460 eine rund 75% höhere Texelfüllrate und eine ca. 25% höhere Speicherbandbreite als bei der GTX 465. Auch bei der Pixelfüllrate wird die GTX 460 um ca. 20% vorne liegen. Vorteile der GTX 465 sind die ca. 15% höhere Rechen- und Tessellationsleistung sowie der evtl. höhere Dreiecksdurchsatz.

V2.0
2010-05-25, 07:02:19
Also GF104 bestenfalls auf 5750-Niveau bei einer Größe die über 5870 liegt, wenn die 465 und 460 über ihm liegen.

Nakai
2010-05-25, 11:52:35
Als ich den ersten Satz las, hatte ich gleich den Gedanken, den ich in dem zweiten Satz fand.

Ja, man muss zu ATI aufholen, die sind ja schon bei 5 angelangt.

Nein, wenn es wieder zu soetwas kommen wird, dann muss das richtig kritisiert werden. Die Hoffnung, dass NV mit der GTX4xx-Serie wieder alles richten könnte, soll bitte nicht verfliegen.


mfg

Gast
2010-05-25, 12:02:42
Also GF104 bestenfalls auf 5750-Niveau bei einer Größe die über 5870 liegt, wenn die 465 und 460 über ihm liegen.
Auf 5750-Niveau liegt wohl eher eine Cutdown-Version des GF104, aber die wohl mehr als doppelt so große Die-Size bleibt (166mm2 vs ~370mm2), sodass man wohl kaum einen Kostenvorteil haben wird.

Dural
2010-05-25, 13:14:12
wie oft den noch: GF104 = GT200 das war ja schon immer klar :rolleyes:

und an die 370mm glaub ich eh nicht, 256SP ohne DP ohne grosse cache (laut NV) 256Bit usw. das passt nicht zum 520mm (wurde die grösse jetzt jemals bestätigt???) GF100

und auch an die 64TMUs glaub ich immer noch nicht, am ende werden es 32TMUs sein und das grosse geheule geht los ;)

G92 vs G94
128SP vs 64SP
64TMUs vs 32TMUs
16ROPs vs 16ROPs
330mm vs 230mm

Ein GF104 müsste ausgehent von den 520mm des GF100 viel näher an den 300mm als 400mm sein...

Mein Tipp über GF104:

300mm / 256SP / 32TMUs / 32ROPs / dürfte im voll ausbau für GT200 ersatz reichen.

V2.0
2010-05-25, 13:31:34
Wenn er so schwach ist muss er sich aber mit 57X0 Reihe messen und da sieht die Chipgröße auch sehr schlecht aus.

Dural
2010-05-25, 13:35:46
ehm 5770 = GTX260

GF104 erwarte ich in etwa auf GTX275 höhe, das ist schneller als 5770 und 5830! OK nicht viel aber als direkter 5830 kokurenz kann man es sehen.

Spasstiger
2010-05-25, 13:37:54
Abseits von DX11 und 8xMSAA sieht es wohl so aus:
GTX 465 ~ GTX 275 (wird schon von Benchmarks bestätigt)
GTX 460 ~ GTX 285
Zumindest wenn die Taktraten der GTX 460 im Bereich von 1450-1500 MHz Hotclock und 1000 MHz Speichertakt (4 Gbps) liegen.
Die Namensgebung ist in diesem Fall natürlich unglücklich, wobei die GTX 465 mit Tesselllation möglicherweise schneller ist als die GTX 460. Außerdem ist es nicht unwahrscheinlich, dass die GTX 460 kein Double Precision beherrscht.

Gast
2010-05-25, 13:40:36
Abseits von DX11 und 8xMSAA sieht es wohl so aus:
GTX 465 ~ GTX 275 (wird schon von Benchmarks bestätigt)
GTX 460 ~ GTX 285
Zumindest wenn die Taktraten der GTX 460 im Bereich von 1450-1500 MHz Hotclock und 1000 MHz Speichertakt (4 Gbps) liegen.
Die Namensgebung ist in diesem Fall natürlich unglücklich, wobei die GTX 465 mit Tesselllation möglicherweise schneller ist als die GTX 460. Außerdem ist es nicht unwahrscheinlich, dass die GTX 460 kein Double Precision beherrscht.

Halte ich angesichts der Namen für unrealistisch. Wenn GTX465 = GTX275 dann ist die GTX460 bestenfalls GTX260.

Gast
2010-05-25, 13:44:37
Bis H2 ist noch Zeit.
Dann gibt es vielleicht passend als Reaktion auf HD6000, GF100Bx als GTX 500 und GF104 als GTS 500. :D

Spasstiger
2010-05-25, 13:45:41
Wenn die GTX 460 erscheint, wird die GTX 465 keine Rolle mehr spielen, insofern ist die Namensgebung halb so tragisch. Die GTX 465 wird das Performance-Segment im Sommer bedienen, die GTX 460 im Herbst.
Den spekulierten Daten nach, die wohl von zwei unabhängigen Quellen genannt werden, sollte die GTX 460 schneller sein als die GTX 465. Alleine schon die 75% höhere Texelfüllrate reißt Einiges raus. Auch die Pixelfüllrate und die Speicherbandbreite fallen bei der GTX 460 größer aus als bei der GTX 465. Und in Punkto Rechenleistung hat die GTX 465 keinen weltbewegenden Vorteil "dank" niedrigem Hot-Clock.

Gast
2010-05-25, 13:47:27
Alleine schon die 75% höhere Texelfüllrate reißt Einiges raus.
Auf welcher Basis besteht diese Annahme?

Spasstiger
2010-05-25, 13:53:45
Auf welcher Basis besteht diese Annahme?
Die GTX 465 hat 44 TMUs, die GTX 460 den Gerüchten nach 64 TMUs. Außerdem takten die TMUs bei der GTX 465 nur mit 607,5 MHz, bei der GTX 460 dagegen mit 725 MHz oder mehr.

Tarkin
2010-05-25, 14:00:11
dafür soll das Ding nur 256 SPs haben ein 192bit Interface und 768MB RAM

460 < 465 --- 100%ig

Abgesehen davon wäre die Namensgebung so gar nicht nVidia-like.

da wäre GTX 560 realistischer ;)

V2.0
2010-05-25, 14:01:50
Und wenn die GTX460 ein halber GF100 ist, so wie heute chinesische Quellen berichten?

Dann könnte eine GF104 uach so aussehen: 256SP, 192-256Bit, 32TMU, 550Mhz 1100Mhz.

Bei diesen Daten glaube ich auch eher die 150W TDP. Und so eine KArte wäre weit weg von jeder 58x0 und evtl. knapp auf 5770 Niveau.

Spasstiger
2010-05-25, 14:14:08
dafür soll das Ding nur 256 SPs haben ein 192bit Interface und 768MB RAM
In der Roadmap von NV standen aber anscheinend für die GTX 460 auf Basis des GF104 256 Bit SI und 1024 MiB GDDR5: http://www.3dcenter.org/artikel/neue-informationen-zu-nvidias-gf104-gf106-und-gf108

Sorkalm
2010-05-25, 14:46:24
Ich tippe mal diese Roadmap ist etwas älter...

Fuad meinte doch auch mal etwas von einer gestrichenen Dual-Karte, weil diese 375W verbrauchen sollte...

HOT
2010-05-25, 14:52:03
Also wenn man sich den modularen Aufbau des GF100 anschaut, halte ich das für absolut sonnenklar, dass der GF104 ein halber GF100 ist. Das wäre dann auch von der Die Größe her dann halb so gross wie der GF100 logischerweise, also weniger als 300mm². Der GF106 wäre also 1/4 und der GF108 ein eigenes Design für Lowcost. Ob die 500er Nummern bekommen wird in erster Linie davon abhängen, ob es noch ein Refresh des GF100 gibt. Wenn da eine Rev.B kommt mit besseren thermischen Eigenschaften wird man sicherlich mal wieder ein Nümmerchen weiterrücken.

V2.0
2010-05-25, 15:04:05
Ein halber Chip ist nicht halb so groß. 300mm² halte ich für einen halben GF100 für realistisch. Evctl. kann NV ja auch beim GF104 wieder keine voll finktionalen Chips produzieren und muss daher GF104 mit 192SP/192Bit/24TMU antreten lassen, was die 460 Version des GF100 erklären würde.

Iruwen
2010-05-25, 15:11:26
Ich tippe mal diese Roadmap ist etwas älter...

Fuad meinte doch auch mal etwas von einer gestrichenen Dual-Karte, weil diese 375W verbrauchen sollte...

Ist das dann ein verspäteter Aprilscherz? (http://www.kitguru.net/components/graphic-cards/faith/gtx490-throws-down-to-5970/)

deekey777
2010-05-25, 15:14:33
Ich hab so eine Idee: Warum muss der GF104 unbedingt ein halber GF100 sein? Warum nicht nur 1/4 eines GF100? Der G84 war ein Viertel des G80, erst der G94 war ein halber G92, weil dies die Fertigung in 60 nm zuließ.
Vielleicht wartet Nvidia mit einem "nativen" halben GF100 bis zum nächsten kleineren Fertigungsprozess, bis dahin wird die Lücke mit einem teildeaktivierten GF100 aka GTX465 geschlossen.

LovesuckZ
2010-05-25, 15:23:29
G94 war kein halber G92.
Ein halber GF100 macht alleine deswegen schon Sinn, um Leistungslücken nicht zu groß werden zu lassen. Daher wird ein GF104 auch kein 1/4.

Sorkalm
2010-05-25, 15:36:52
Ist das dann ein verspäteter Aprilscherz? (http://www.kitguru.net/components/graphic-cards/faith/gtx490-throws-down-to-5970/)

Basiert auf der selben Roadmap.

Das die jetzt erst veröffentlicht wurde, heißt ja nicht, dass sie von jetzt ist.

Nakai
2010-05-25, 16:29:54
Der G84 war ein Viertel des G80, erst der G94 war ein halber G92, weil dies die Fertigung in 60 nm zuließ.

Wäre möglich, aber was sind dann G106 und G108?

G94 war kein halber G92.

Von den Shadereinheiten schon. Von den ROPs und dem SI nicht, da haste recht.

Ist das dann ein verspäteter Aprilscherz?

Ne Dualkarte wird wohl ziemlich sicher auf GT100 basieren. Wohl stark runtergetaktete und selektierte GTX480-Chips werden es wohl werden. Eine auf 600Mhz runtergetaktete GTX480 sollte nur noch 73% der Leistung verbraten. Eine Spannungssenkung sollte dann auch möglich sein, ergo noch weniger Stromverbrauch und schon hat man einen Stromverbrauch unter 375W. Naja da die GTX480 wohl die TDP gerne sprengt wird man wohl um die 375W liegen.

Milchmädchenrechnung:
(600Mhz/700Mhz)² x 250W x 2 x (1,00V/1,05V) =~ 350W.

Naja langsameren Speicher könnte man auch nehmen. Wie dem auch sein, damit wäre man etwa 50% über einer GTX480. Eine H5970 würde man schlucken.



mfg

aylano
2010-05-25, 17:25:27
Milchmädchenrechnung:
(600Mhz/700Mhz)² x 250W x 2 x (1,00V/1,05V) =~ 350W.

Das kann ich mir irgendwie nicht vorstellen.
(Ein 480GTX hat AFAIK 0,98 bis 1,02 Volt)

http://ht4u.net/reviews/2010/msi_n470gtx_nvidia_geforce_gtx_470/index19.php
190 Watt eines GTX 470 mit 0,987 Volt.
2x190 Watt = 380 Watt bei 448 Cores @ 607 Mhz bei Spiele-Last

Zum Vergleich
Ein HD 5970 kommt auf 216 Watt @ 1,05 Volt bei Spiele-Last

Ein Fermi-Dual im A-Stepping kann ich mir nicht vorstellen. Vorallem, darf dann keiner mit Furmark testen.
Das B-Stepping müsste schon verdammt gut sein.

Wuge
2010-05-25, 18:31:46
Löst euch mal von der Voltage. Bei GF100 gibt es extreme Unterschiede in der Leakage. Da kein einer @ 0.912V genauso viel Energie verbraten wie ein anderer mit 1.05V. Das ist kein Scherz und nicht im geringsten übertrieben.

Undertaker
2010-05-25, 20:09:54
Das kann ich mir irgendwie nicht vorstellen.
(Ein 480GTX hat AFAIK 0,98 bis 1,02 Volt)

http://ht4u.net/reviews/2010/msi_n470gtx_nvidia_geforce_gtx_470/index19.php
190 Watt eines GTX 470 mit 0,987 Volt.
2x190 Watt = 380 Watt bei 448 Cores @ 607 Mhz bei Spiele-Last

Zum Vergleich
Ein HD 5970 kommt auf 216 Watt @ 1,05 Volt bei Spiele-Last

Ein Fermi-Dual im A-Stepping kann ich mir nicht vorstellen. Vorallem, darf dann keiner mit Furmark testen.
Das B-Stepping müsste schon verdammt gut sein.

Interessanter ist eher der Vergleich mit der HD5870, die "nur" gut 30W weniger als die GTX470 zieht. Hätte man jetzt einen Chip mit 480-512SPs (das es von denen gar keine geben soll mag ich nicht glauben), senkt die Taktraten in einem ähnlichen Rahmen wie beim RV870 und kann die Spannung ebenfalls gut absenken, sollte es schon machbar sein - aber ob so eine Karte die HD5970 dann auch noch wirklich schlagen würde? Glaube ich nicht, und damit wäre dann auch der Sinn einer solche fraglich. Einen Dual GF104 würde ich aus gleichem Grund ebenfalls ausschließen.

Gast
2010-05-25, 21:54:54
Ein halber Chip ist nicht halb so groß. 300mm² halte ich für einen halben GF100 für realistisch.


Beim modularen Fermi-Design sollte 1/2 GF100 -DP -Cachegröße wohl eher deutlich kleiner als 1/2*GF100 sein.

Wenn GF104 in den Bereich von 350-400mm² geht dann ist er deutlich mehr als 1/2 GF100.

Vielleicht sind es mehr TMUs, aber wenn es 370mm² sind wäre auch 3/4 Fermi ohne DP denkbar.

aylano
2010-05-25, 22:58:42
Löst euch mal von der Voltage. Bei GF100 gibt es extreme Unterschiede in der Leakage. Da kein einer @ 0.912V genauso viel Energie verbraten wie ein anderer mit 1.05V. Das ist kein Scherz und nicht im geringsten übertrieben.
Natürlich, aber vielleicht sind die 0,912 Volt eben schon die GF480 & GTX470 @ 1,0 Volt. (AFAIK haben beide ungefähr die selbe Performance-pro-Watt)
Und die 1,05 Volt Versionen kommen dann als GTX465 (so wie die GTX275er, die laut Nvidia eine 15 Watt höhere TDP hat.)


Interessanter ist eher der Vergleich mit der HD5870, die "nur" gut 30W weniger als die GTX470 zieht. Hätte man jetzt einen Chip mit 480-512SPs (das es von denen gar keine geben soll mag ich nicht glauben), senkt die Taktraten in einem ähnlichen Rahmen wie beim RV870 und kann die Spannung ebenfalls gut absenken, sollte es schon machbar sein
160*0,85*0,87 = 118*2= 236 ... Mit dieser einfachen (=entsprechend verzerrt) liege ich um 9% falsch. Wenn man das jetzt der Dual-Fermi zurechnen würde, dann käme ich mit Dual-Fermi immer noch auf 350 Watt.
Aber 600 Mhz @ 0,88 Volt kann ich mir nicht vorstellen und da hatte ich immer noch mit 448 Cores gerechnt.

Auch wenn sie es schaffen, einen Dual-Fermi in 350 Watt @ Spiele zu quetschen, dann bin ich erst recht auf die Meinungen in online-Massen-Zeitungen und Massen-Foren gespannt, die ich lese. Und da fällt jetzt schon ein Fermi viel schlechter als in diesem Forum aus.

Ich denke, Image mäßig würde das erheblich mehr schaden, als das bischen, was sie die einnehmen würden.
Vorallem, wenn Low-End & Mainstream-Fermi dann auch nicht so glänzen.
Denn dann würde Optimus wahrscheinlich nicht mehr so viel helfen und einen "Notebook-GPU-Aufschwung" bewirken.

AnarchX
2010-05-26, 08:07:40
GF104 PCB?:

http://img36.imageshack.us/img36/3359/10rms8w.jpg
http://we.pcinlife.com/thread-1431292-1-1.html

460 spec:
336SP/Core 675Mhz/Shader 1350Mhz/Mem 3600Mhz
http://forum.beyond3d.com/showpost.php?p=1434211&postcount=5861

336SPs? Bei PCinlife vermutet man eine SM mit nur 16 aktiven SPs.

Gaestle
2010-05-26, 09:39:26
GF104 PCB?:

[...]



Mit 2x 6-Pin Stromsteckern?

8 Speicherchips würden zu 256Bit SI passen.

Gast
2010-05-26, 09:42:18
GF104 PCB?:

http://img36.imageshack.us/img36/3359/10rms8w.jpg
http://we.pcinlife.com/thread-1431292-1-1.html


http://forum.beyond3d.com/showpost.php?p=1434211&postcount=5861

336SPs? Bei PCinlife vermutet man eine SM mit nur 16 aktiven SPs.

Was meint Ihr -
wie wird es mit der Stromversorgung der GF104-Reihe aussehen?
Bei den vermuteten +/- 150 Watt kämen doch eigentlich nur 6- oder 8-Pin Stecker in Frage, oder?

Hoffentlich stimmt auch schon sehr bald der Preis.
Dann gäbe es wirklich einen würdigen Nachfolger der GTS 250 und GTX 260.

AnarchX
2010-05-26, 09:43:19
Mit 2x 6-Pin Stromsteckern?
Für nur einen 6-Pin müsste die TDP ein gutes Stück unter 150W liegen, insofern sind die 2x 6-Pin nicht verwunderlich.

Stimmen die Spezifikationen (336SP/Core 675Mhz/Shader 1350Mhz/Mem 3600Mhz + 192-Bit) halbwegs, so sollte die GTX 460 wohl fast gleich auf mit der GTX 465 liegen.

8 Speicherchips würden zu 256Bit SI passen.
Wenn es wirklich das GTX 460 PCB ist, wäre sie damit eindeutig schneller als die 465.

Gast
2010-05-26, 09:57:36
Für nur einen 6-Pin müsste die TDP ein gutes Stück unter 150W liegen, insofern sind die 2x 6-Pin nicht verwunderlich.

Stimmen die Spezifikationen (336SP/Core 675Mhz/Shader 1350Mhz/Mem 3600Mhz + 192-Bit) halbwegs, so sollte die GTX 460 wohl fast gleich auf mit der GTX 465 liegen.


Wenn es wirklich das GTX 460 PCB ist, wäre sie damit eindeutig schneller als die 465.

Nunja, wenn wir nun aber mal von dieser Tabelle http://www.3dcenter.org/artikel/neue-informationen-zu-nvidias-gf104-gf106-und-gf108
und dem Erläuterungstext ausgehen, dann weist lediglich die GTX 465 die 200 Watt auf. Hier wäre dann wohl mindestens ein 8-Pin fällig und auch 2x 6-Pin wären nicht abwegig. Aber so? Die GTX 460 wird ganz bestimmt nicht über einer GTX 465 stehen. Insofern glaube ich auch nicht, dass das oben abgebildete das richtige GF104 PCB sein kann.

GTX 460 und darunter sind wohl ungefähr bei den 150 Watt, d. h. ganz klar
6-Pin oder max. 8 Pin.

Aber wir werden es ja bald sehen...

Undertaker
2010-05-26, 10:03:49
160*0,85*0,87 = 118*2= 236 ... Mit dieser einfachen (=entsprechend verzerrt) liege ich um 9% falsch. Wenn man das jetzt der Dual-Fermi zurechnen würde, dann käme ich mit Dual-Fermi immer noch auf 350 Watt.
Aber 600 Mhz @ 0,88 Volt kann ich mir nicht vorstellen und da hatte ich immer noch mit 448 Cores gerechnt.

Machen wir doch mal eine andere Rechnung: Die HD5970 liegt laut HT4U nur 36% über der HD5870, dabei liegen die Taktraten nur ~17% niedriger. Gleiches bei der GTX470 und wir hätten ~520MHz Core @ <260W (Spiele). Jetzt nehmen wir mal an, man würde für Spiele bis zu 300W zulassen. Damit sollte dann durchaus ein 480-512SP Pärchen @ ~520-530MHz möglich sein.

AnarchX
2010-05-26, 10:07:08
Bei PCinlife spekuliert man, dass es vielleicht SMs mit je 48SPs sind. Und dann vielleicht eben auch 8 TMUs pro SM.

Also wohl GF104 8 SMs: 384SPs 64 TMUs und GTX 460 mit 336SPs 56 TMUs.

Wobei das dann aber gar nicht zu Ailuros' 256SPs/192SPs Chips passt, die auf einer Roadmap gestanden haben sollen.

Dural
2010-05-26, 10:17:21
das waren wohl eher 256/192Bit und nicht SP ;) hatte ja immer gehofft das GF104 mit 384SP kommt, da könnten ja sogar die Gerüchte stimmen das GF100 durch den GF104 ersetzt wird, jedenfalls im 5870 bereich und die Leistung könnte der Chip mit etwas "mehr" Takt auch bringen... mal schauen wäre zu schön um war zu sein...

bei 150Watt waren 2x 6-Pin ja klar, da 1x 6-Pin nur eben bis jene max 150Watt gehen, von dem her...

und ob die 150Watt überhaupt stimmen... mit 384SP und 64TMUs sicher nicht!

Botcruscher
2010-05-26, 10:21:40
384SP machen keinen Sinn. Da kann man ja bis zur 470 alles einstampfen.

Dural
2010-05-26, 10:23:23
sag ich ja eigentlich auch ;)

Vieleicht hat NV den GF104 auch einfach vergrössert als sie eingesehen haben das es mit dem 3,2Miliarden DIE / 40nm so nicht klappt... wer weis...

AnarchX
2010-05-26, 10:26:12
384SP machen keinen Sinn. Da kann man ja bis zur 470 alles einstampfen.
Wenn es mit einer Bx-Revision des GF100 dann im H2 vernünftige Yields für 480 und 512SPs gibt, macht das doch Sinn.

Die GTX 460 ersetzt die GTX 465, mit einem 384SPs GF104@1.4G ersetzt man die GTX 470 und auf GF100-Basis kommt dann eine 480SPs GTX 475 und eine 512SPs GTX 485. Mit einem 384SPs GF104 im Doppelpack kann man dann auch noch eine halbwegs vernünftige GTX 495 bauen.

Botcruscher
2010-05-26, 10:26:32
Einfach vergrößert bei Prozessproblemen. Ersteres ist sich nicht einfach und letzteres ein totaler Widerspruch.

AnarchX
2010-05-26, 10:30:37
Einfach vergrößert bei Prozessproblemen. Ersteres ist sich nicht einfach und letzteres ein totaler Widerspruch.
Wenn dann war das schon eine langfristige Planung.

3DMV Landingzone für einen 512SPs@1.45GHz GF100 waren ja mal P22k und GF104 soll bei P15k liegen, was dann auf ein 2/3 Chip schon ziemlich passt.

Hat man nun wirklich die SMs auf 48SPs+8TMUs aufgebohrt, die DP-Fähigkeit entfernt und vielleich auch noch den Cache pro ROP halbiert, packt man mit GF104 pro mm² wohl einiges mehr an Rohleistung.

Dural
2010-05-26, 10:33:34
das ist kein widerspruch sondern eine komplett logische entscheidung finde ich, NV musste schon vor monaten/jahre gewusst haben das es zu problemen kommen kann/wird, sonst hätte man ja kaum den GT212 gestrichen...

und wie gesagt, gab ja auch schon stimmen die gesagt haben GF104 ersetzt GF100... jedenfalls im unteren 470 bereich... deswegen Tesla auch mit nur 448SP?!?

Botcruscher
2010-05-26, 11:05:55
Falls es besagte Bx Rev je geben sollte. Für die Strategie wäre es aber unabdingbar. Das gesamte jetzige GF100 Angebot ist somit nichts mehr als eine einzige Abfallverwertung. Womöglich wird ja auch wieder ein ² hinten angepapt. Namen sind ja Schall und Rauch.

Ailuros
2010-05-26, 11:11:57
Wenn dann war das schon eine langfristige Planung.

3DMV Landingzone für einen 512SPs@1.45GHz GF100 waren ja mal P22k und GF104 soll bei P15k liegen, was dann auf ein 2/3 Chip schon ziemlich passt.

http://www.xbitlabs.com/images/video/geforce-gtx-480/charts/02_3dmvantg.png

http://www.xbitlabs.com/articles/video/display/geforce-gtx-480_5.html#sect2

GTX480@21427, GTX285@15201

Wozu braucht man fuer 15k pissat Punkte jetzt ploetzlich mehr als 256SPs? Rechne Dir die MADD FLOP Rate einer 285 gegen eine 256SP@1.4GHz/GF104 aus.

Hat man nun wirklich die SMs auf 48SPs+8TMUs aufgebohrt, die DP-Fähigkeit entfernt und vielleich auch noch den Cache pro ROP halbiert, packt man mit GF104 pro mm² wohl einiges mehr an Rohleistung.

Ach nach MADD+MADD wurde jetzt sogar 3*16/cluster? *seufz*

AnarchX
2010-05-26, 11:21:58
http://www.xbitlabs.com/images/video/geforce-gtx-480/charts/02_3dmvantg.png

http://www.xbitlabs.com/articles/video/display/geforce-gtx-480_5.html#sect2

GTX480@21427, GTX285@15201

Waren die Zielwerte mit oder ohne HW-PhysX? Letzteres ist ja nur gültig im ORB.
Dann sieht es nämlich eher so aus: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/5/#abschnitt_3dmark_vantage

Ailuros
2010-05-26, 11:29:54
Waren die Zielwerte mit oder ohne HW-PhysX? Letzteres ist ja nur gültig im ORB.
Dann sieht es nämlich eher so aus: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/5/#abschnitt_3dmark_vantage

CB= 3dfart Vantage 1.0.1
Xbit= 3dfart Vantage 1.0.2.1

Dural
2010-05-26, 11:33:44
da war doch PhysX an... also gar nicht vergleichbar, wenn dann nur Extreme...

AnarchX
2010-05-26, 11:59:19
Ein mittlerweile entfernter Artikel auf enet.com.cn:
GTX 460 (GF104) exclusive disclosure of performance specifications

ENet disclosure in our exclusive 5970, GTX470, GTX465 specifications and performance, is now being brought to you GF104 GTX 460 core specifications and performance related information.

GTX460 Specifications for the 336 CUDA Core, memory for the 192bit 768MB, Core / Shader / memory frequency respectively 675/1350/1800MHz.

GTX 460 (GF104) specifications and performance disclosure
Chip area and layout diagram

GF104 core is not the usual square chip, which is rectangular, package size is about 60% of GF100. The core number is GF104-300-KA-A1, A1 step is still, in general, the retail version will be updated to the A2 or A3.

GTX 460 (GF104) specifications and performance disclosure

Public version of GTX460 with dual-bank design, PCB length was shorter than 465, a total of eight memory particles, GPU and memory for the 3 +1 phase power, dual 6pin 12V external power supply. Interface, the public version of the same aspects and GTX65 for dual DVI + miniHDMI.

http://cc.bingj.com/cache.aspx?q=http%3a%2f%2fwww.enet.com.cn%2farticle%2f2010%2f0526%2fA20100526659 768.shtml&d=525950059962&mkt=de-DE&setlang=de-DE&w=8202a65c,ff779f38

Spasstiger
2010-05-26, 12:00:42
GTX 460 und darunter sind wohl ungefähr bei den 150 Watt, d. h. ganz klar
6-Pin oder max. 8 Pin.
Bei ungefähr 150 Watt TDP verbaut man 2*6 Pin. 1*8 Pin ist ganz selten und 1*6 Pin findet man von ~70 Watt bis ~140 Watt TDP. Eine GeForce 9800 GTX+ mit 141 Watt TDP hat schon 2*6 Pin.

AnarchX
2010-05-26, 12:02:05
Und hier gibt es die Benchmarks:
http://vga.it168.com/a2010/0526/919/000000919076.shtml

Im Vantage Screen sind es wohl etwas über 1000 Tex/s, also mehr als bei einer GTX 470.

LovesuckZ
2010-05-26, 12:10:00
Hm, das Bild mit den Dies ist übel.
Ansonsten eine interessante Karte. Mal sehen, wie sich das entwickelt.

Spasstiger
2010-05-26, 12:11:35
Dem Dieshot nach sind es 16 SMs. Damit kann man die 64 TMUs als gesichert ansehen, oder? Und da 384 SPs für den Maximalausbau des GF104 angegeben werden, sollten es 48 SPs pro SM sein. Das SI soll 256 Bit breit sein. Diese Werte erklären natürlich auch die enorme Diesize von über 370 mm².
Die GTX 460 kommt aber nur mit 336 SPs und einem 192 Bit SI. Demnach müsste es ja noch eine schnellere GF104-Variante geben, oder? Evtl. eine GTX 475, die die GTX 470 ersetzt?

LovesuckZ
2010-05-26, 12:14:27
Eine schnellere Version wird es geben, wenn nVidia die GTX465 auslaufen lässt. Denn im Vollausbau ist man locker auf GTX470 Niveau, wenn man entsprechende Taktraten fährt.
Also mit dieser Konfiguration spielt man mehr als nur mit mit Cypress. Ist schon heftig, was sie als GF104 aufbieten...

AnarchX
2010-05-26, 12:15:28
Der Die-Shot ist nur eine skalierte Version des GF100-Bildes.

Spasstiger
2010-05-26, 12:15:50
Der Die-Shot ist nur eine skalierte Version des GF100-Bildes.
:freak: :redface: