PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias GP104-Chip geht derzeit anscheinend in seine Testphase


Leonidas
2016-01-11, 03:59:45
Link zur News:
http://www.3dcenter.org/news/nvidias-gp104-chip-geht-derzeit-anscheinend-seine-testphase


Mit Dank an die aufmerksamen Teilnehmer des Speku-Forums.

Godmode
2016-01-11, 07:53:21
Schöne Zusammenfassung unserer Spekulation. Mit deiner Tabelle wird jetzt ersichtlich, dass GP104 gar keinen HBM Speicher haben kein, weil das Package einfach zu klein ist.

BlacKi
2016-01-11, 09:06:22
um das nochmals genauer festzuhalten: wäre der chip hbm tauglich, dann müssten die hbm chips mitgeliefert werden und das package wäre dementsprechend größer.

richtig?

Godmode
2016-01-11, 09:09:13
um das nochmals genauer festzuhalten: wäre der chip hbm tauglich, dann müssten die hbm chips mitgeliefert werden und das package wäre dementsprechend größer.

richtig?

Es müsste einfach das Package deutlich großer sein, weil dort muss ja der Interposer Platz finden. Wenn das Package aber so winzig ist, ist es schwer möglich einen ca. 300mm2 Chip und dann noch 2-4 HBM Stacks unterzubringen.

Gast
2016-01-11, 12:05:20
ich weiss jetzt nicht was ihr an einer lieferung gefakter bauteile festmachen wollt? das kann alles oder nichts sein und es könnte sich auch um etwas kleineres handeln als gp104, wenn amd jetzt mit polaris mgpu's kommt. wo hat nv denn bei dgpu's ein effiziens oder leistungsproblem? nirgendwo würde ich behaupten.

das ihr in eurem hbm wahn die weiterentwicklung von gddr5 sdhon vor 1,5 jahren verworfen habt ist euer eigenes problem. nvidia wird etwas in desktopbereich preislagen der 970 anbieten müssen und diese karten tragen keinen hbm, dass ist doch schon länger klar, selbt amd profitiert nicht von der höheren bandbreite von hbm. der aufwand bei der fertigung mit interposern wäre viel zu teuer.

leo nv kann auch auf 7,5 gb setzen bei 320bit si oder sonst was für krumme zahlen, oder glaubst du das sie nach dem erfolg der 970 ein si oder die vrammenge die zum einsatz kommen soll, nicht völlig frei bestimmen könnten? da hast du its a feature nicht richtig verstanden!

Timbaloo
2016-01-11, 18:45:13
Also das Package von GP100 ist (angeblich) minimal größer als doppelt so groß wie das (angebliche) Package von GP104. Und daraus folgert man, dass GP104 nicht mit HBM kommen kann/dürfte? 4 HBM-Stacks klingen für GP104 eh albern, wenn dann 2, also die Hälfte von GP100. Dann nehmen wir noch an, dass der GP104 ungefähr halb so groß ist, und dann passt das Gesamtpaket mit HBM auch auf das halb so große Package...

Was übersehe ich?

AnarchX
2016-01-11, 20:09:42
Ein Interposer mit 2 Stacks wären auch bei dieser Package-Größe denkbar. Wobei die Idee mit GDDR5(X) als sichere Varianten für einen Sommer-Launch durchaus gefällig ist. Der bekannte GP102 könnte dann halt zum Jahreswechsel HBM2 für die Performanceklasse bringen.

HBM2 wird wohl erst am 31.01. groß vorgestellt und Nvidia musste schon bekanntlich von früher verkündeten 32GiB abrücken. Somit könnte HBM2 auch mit nur 2 Stacks erstmal preislich außer der Reichweite für ~$500 Karten sein oder zumindest die Verfügbarkeit für die Mengen in dieser Preisklasse nicht ausreichen.

Leonidas
2016-01-12, 03:27:25
leo nv kann auch auf 7,5 gb setzen bei 320bit si oder sonst was für krumme zahlen, oder glaubst du das sie nach dem erfolg der 970 ein si oder die vrammenge die zum einsatz kommen soll, nicht völlig frei bestimmen könnten? da hast du its a feature nicht richtig verstanden!


Logisch. Sie können auch 6,8529 MB bieten. Nur wird man diesen Unsinn mit der SI-Verkrüppelung nach der Erfahrung mit der 970 wohl nie mehr machen. Da wird man sich intelligentere Lösungen einfallen lassen.




HBM2 wird wohl erst am 31.01. groß vorgestellt und Nvidia musste schon bekanntlich von früher verkündeten 32GiB abrücken. Somit könnte HBM2 auch mit nur 2 Stacks erstmal preislich außer der Reichweite für ~$500 Karten sein oder zumindest die Verfügbarkeit für die Mengen in dieser Preisklasse nicht ausreichen.


Je länger ich drüber nachdenke, um so mehr wird der Preis das Problem von HBM. Man bedenke: Das soll auf einen Nachfolger der GTX970 eingesetzt werden, die 300$ kostet. Wenn da das HBM-Ökosystem allein 100$ kostet (Annahme), geht jeder Gewinn an der Sache flöten.

NOFX
2016-01-12, 10:09:32
EIn beschnittenes SI wäre ja gut bei der 970, nur ist es eben nicht beschnitten sondern nur die interne Anbindung bzw. die Möglichkiet es komplett ansprechen zu können.

224 Bit mit 3,5 GB wäre die sauber Lösung gewesen.

Gast
2016-01-12, 12:20:07
leo welche schlechte erfahrung? die 970 ist die meist verkaufte karte! mehr als g80! ob ihr das gut findet ist wieder eine andere sache. meinst du das interessiert nv?

gekostet hat das debakel nichts ausser eure nerven. gp104 kommt nicht mit hbm. ich glaube nicht mal das der schneller wird als gm204 aber viel viel effizienter. das hebt dann die +4gb gddr5 bei weitem wieder auf, du weisst doch das nvidia nur das bringt was sie müssen.

die halbe diegrösse mit mehr als dreiviertel der pins, kommt euch das nicht komisch vor? sieht so aus als wären auch mehr als 10gb gddr5 möglich.

hbm2 wäre in der preisklasse viel zu teuer und das sie auf 4gbn setzen würden glaube ich nicht.

MrSpadge
2016-01-12, 14:58:45
Wenn da das HBM-Ökosystem allein 100$ kostet (Annahme)
Wenn das ganze nicht unter minimalen Stückzahlen leidet, ist das viel zu hoch angesetzt. Der Interposer ist billiges Standard-Silizium und müsste nichtmal besonders rein sein. Er hat keine kritisch-kleinen Strukturen: Leiterbahnen im einstelligen µm-Bereich in nem 65 nm Prozess.. das ist bei weitem nicht so aufwändig wie Transistoren im Bereich von 100 - 200 nm. Der Interposer ist zwar groß, kostet aber pro Fläche viel weniger als ein normaler Chip. Der DRAM muss zwar speziell gefertigt werden, um Platz für die TSVs zu schaffen.. aber ansonsten ist da auch keine schwarze Magie dran. Und wie viel DRAM in diesen kleinen Größen-Bereichen kostet wissen wir ja alle. Zumal er auch noch niedrig getaktet ist. Hinzu kommt der Kostenvorteil durch den geringeren Flächenbedarf der GPU.

MrS