PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

AffenJack
2015-10-05, 11:08:15
Vielleicht erste echte Bilder von Pascal bei der GTC Taiwan Präsentation?

http://cdn.wccftech.com/wp-content/uploads/2015/10/NVIDIA-Pascal-GPU-20151-635x204.jpg
http://wccftech.com/nvidia-pascal-nvlink-200-gbs-interconnect-hbm2-stacked-memory-1-tbs-bandwidth-powering-hpc-2016/

Kann natürlich wieder Fake sein, aber sieht deutlich realer aus als diese ersten Boards die mal als Beispiel gezeigt wurden.

Edit: Link verbessert.

Timbaloo
2015-10-05, 11:32:26
Funktionierender Link:
http://wccftech.com/nvidia-pascal-nvlink-200-gbs-interconnect-hbm2-stacked-memory-1-tbs-bandwidth-powering-hpc-2016/

N0Thing
2015-10-05, 12:36:34
Erinnert sehr an das NVLink-Modul, wovon Nvidia im März Renderbilder gezeigt hat: Link (http://www.tweaktown.com/news/36606/nvidia-is-paving-the-way-for-a-world-of-8-way-gpu-support/index.html)

AffenJack
2015-10-05, 12:39:56
Erinnert sehr an das NVLink-Modul, wovon Nvidia im März Renderbilder gezeigt hat: Link (http://www.tweaktown.com/news/36606/nvidia-is-paving-the-way-for-a-world-of-8-way-gpu-support/index.html)

Ja nur war das klar Fake, wie man zb am HBM sieht. Diese Bilder nun sehen schon eher aus, wie richtiges HBM. Können aber auch nur Render sein.

HOT
2015-10-05, 13:41:25
Das Sample wird aber auch HBM1 haben. Ich wette sogar, dass der Pascal, der in Q2 für Server verfügbar sein soll ebenfalls "nur" HBM1 hat und dass NV erst anfängt die Desktop und Mobile-Serien in Silizium zu bringen, wenn sie mit dem HBM1-Modul Erfolg hatten. Ich wette sogar GP100 gibts gar nicht für Desktop.

Dural
2015-10-05, 14:23:05
NV hat HBM2 so gut wie bestätigt.
Ziemlich grosser Die, der wird sicher über 500mm2 haben.

maguumo
2015-10-05, 14:30:23
Ich sehe auch keinen Grund warum man da noch HBM "1" verwenden sollte, gerade als HPC Chip wäre das doch Irrsinn. Samsung soll angeblich ab Q1 in die Massenfertigung gehen und ich bezweifle auch das Hynix nächstes Jahr noch mit 2Gbit Slices ankommen wird...

N0Thing
2015-10-05, 14:32:59
Unterscheiden sich die Chipgrößen zwischen HBM1 und HBM2? Falls die Abmessungen identisch sind, scheint nicht viel zwischen Fiji und GP100 zu liegen, sofern die Bilder überhaupt echt sind, Fiji scheint etwas größer mit Blick auf die HBM-Chips zu sein.

maguumo
2015-10-05, 14:41:07
Soweit ich weiß ist die Größe der Chips zumindest nicht seitens der JEDEC spezifiziert, nur wie das Microbump Array aussieht. Da man bei den TSVs und den Microbumps wohl nicht besonders viel an der Größe ändern kann hängt die Größe der einzelnen Slices wohl von der Packdichte des Prozesses und eben der gewünschten Kapazität der Slices ab. Könnte also gut sein das die HBM Chips mit höheren Kapazitäten trotz kleinerem Prozess größer sind, einfach weil die "tote" Fläche in der Mitte wo die TSVs/Microbumps liegen nicht mit kleineren Prozessen mitskaliert.

EDIT: Wenn das wirklich GP100 ist könnte man die Größe vermutlich gut anhand der bekannten Dimensionen des Package (55x55mm laut Zauba?) berechnen...

Sunrise
2015-10-05, 14:49:48
War schon dran, aber die HBM-Größen passen nicht zu HBM1 (was ja auch klar ist, es sind sicher HBM2-Module, oder wieder nur Attrappen), was es schwierig macht für mich zu messen. Die Relation Breite zu Höhe stimmt nicht mit den Modulen von Hynix / Fiji überein und diese Angaben waren extrem genau (597mm² Fiji Die bzw. 1010mm² Interposer).

Meine erste Messung waren 497mm², hochgerechnet anhand der HBM1-Modulgrößen. Ich vertrau der Zahl aber nicht ganz, wie oben angemerkt. Da kann ich dann auch per Augenmaß raten, genauso sinnvoll.

Godmode
2015-10-05, 14:51:40
Das Sample wird aber auch HBM1 haben. Ich wette sogar, dass der Pascal, der in Q2 für Server verfügbar sein soll ebenfalls "nur" HBM1 hat und dass NV erst anfängt die Desktop und Mobile-Serien in Silizium zu bringen, wenn sie mit dem HBM1-Modul Erfolg hatten. Ich wette sogar GP100 gibts gar nicht für Desktop.

Warum sollte man das Sample mit HBM1 bestücken? Man will ja HBM2 testen und Samples davon sollte es ja geben.

Warum soll es GP100 nicht für den Desktop geben? Will man absichtlich weniger verkaufen? :confused:

Ich finde deine Überlegungen nicht sehr schlüssig.

-/\-CruNcher-/\-
2015-10-05, 15:59:27
Lediglich Nvlink wird eine kleinere bedeutung auf dem Desktop haben ausser bei den Dual Versionen und den Internen connections.
Ansonsten wird alles wie immer ob sie wie bei Maxwell gleich eine Lower Power Test Karte in den Markt schieben wird interessant zu beobachten dieses vorgehen war bei der GTX 750/TI ja ziemlich neu (intro karte was kommt) ;)

Die ganzen release dates dürften so ziemlich identisch mit Maxwell werden :)

Der Release Cycle von AMD dürfte dem genauso entsprechen, wobei sie könnten jetzt schneller werden.

HOT
2015-10-05, 17:08:48
Weil es noch kein HBM2 gibt? Ich find den Grund ziemlich stichhaltig.

maguumo
2015-10-05, 17:19:05
Weil es noch kein HBM2 gibt? Ich find den Grund ziemlich stichhaltig.

Woher weißt du das?

HOT
2015-10-05, 17:24:23
Woher weißt du das?
Woher weisst du, dass es welchen gibt? Ich find es viel plausibler, dass NV GP100 erst mal mit erprobtem HBM1-Speicher auflegt.

AffenJack
2015-10-05, 17:26:55
Woher weisst du, dass es welchen gibt? Ich find es viel plausibler, dass NV GP100 erst mal mit erprobtem HBM1-Speicher auflegt.

Nö, das ist völlig unsinnig, da GP100 erst in den Pro-Markt gehen wirds. Dementsprechend auch mit HBM2.

Timbaloo
2015-10-05, 17:27:00
Woher weisst du, dass es welchen gibt? Ich find es viel plausibler, dass NV GP100 erst mal mit erprobtem HBM1-Speicher auflegt.
Und gleich noch mit dem erprobten 28nm-Prozess?

Dural
2015-10-05, 17:46:14
Wenn Samsung im Q1 2016 schon mit der Massenproduktion von HBM2 starten möchte wird es derzeit zu 100% Muster davon geben.

Und wie gesagt, NV hat HBM2 mehrfach bestätigt.

Gipsel
2015-10-05, 18:07:22
Vor ziemlich genau einem Jahr wurden erste Benchmarks mit NVLink gemacht. Also ja. Man hat Hardware. Pascal war zu diesem Zeitpunkt jedoch noch nicht verfügbar.Du meinst die von nV veröffentlichten Zahlen (http://www.nvidia.com/object/nvlink.html)? Das sind laut dem dort verlinkten Whitepaper Projektionen, die man auf Grundlage von Profilingdaten auf bestehender Hardware errechnet hat. Also man hat schlicht z.B. mit einem Maxwell nachgemessen, wie lange die GPU-GPU-Kommunikation in dem Szenario limitiert und dann die Meßwerte auf alten Systemen entsprechend skaliert. Das war's schon. Da gab es überhaupt keine Messung mit nV-Link.
http://abload.de/img/nv_link_projectionseesnd.png

Skysnake
2015-10-05, 19:38:57
Sag doch so was nicht Gipsel, ansonsten sind die Leute doch gleich wieder down, weil es doch keine NV-Link zahlen gibt.

Btw. habe ich schon vor langer Zeit gesagt, aber interessiert ja keine Sau...

Hübie
2015-10-06, 08:10:20
Ja diese Folie meinte ich. Das mit projected steht in meiner gar nicht drin. Aber Hardware muss man haben. Sonst läuft man ja schnell Gefahr dass da Mist bei raus kommt ;) Gab's da nicht was von der Uni in Jülich???
Edit: Knights Landing ist ein anderes Kaliber. Hängt aber nach wie vor an PCIE. Darum geht es ja bei Summit und Sierra. Man umschifft diesen Flaschenhals mit proprietärer Lösung. 200 GB/s brutto sind 160 netto. Also in jeder Hinsicht schneller als PCIE. Angeblich kostet ein Bit auch weniger Energie.

Godmode
2015-10-06, 09:22:27
Sinnlosen Offtopic-Spam der üblichen entfernt.

fondness
2015-10-06, 10:16:58
Aber Hardware muss man haben. Sonst läuft man ja schnell Gefahr dass da Mist bei raus kommt ;)

Es steht eindeutig das Gegenteil da.

Hübie
2015-10-06, 10:18:04
Wo? Meinst du die geben Daten aus den Laboren oder aus den internen Tests heraus? ;)

HOT
2015-10-06, 10:19:46
Wenn Samsung im Q1 2016 schon mit der Massenproduktion von HBM2 starten möchte wird es derzeit zu 100% Muster davon geben.

Und wie gesagt, NV hat HBM2 mehrfach bestätigt.
Samsung redet viel wenn der Tag lang ist. Wenn der Chip in Q2 marktreif sein soll, müssen die jetzt funktionierenden Speicher haben und da gibts z.Z. nur einen. Dass NV bestätigt hat HBM2 einzusetzen schließt auch nicht aus, dass GP100 nur mit HBM1 kommt.

fondness
2015-10-06, 10:22:34
Wo? Meinst du die geben Daten aus den Laboren oder aus den internen Tests heraus? ;)

Ach bitte, gib doch einfach zu, das du Unrecht hattest und gut ist. Und natürlich spreche ich vom Whitepaper, das Gipsel verlinkt hat. Ich sehe auch keinen Grund, warum man nicht "Daten aus den Laboren oder aus den internen Tests heraus" geben sollte. Wäre jedenfalls ein wesentlich stärkeres Argument als irgend welche theoretischen Berechnungen.

tm0975
2015-10-06, 10:26:33
nvidia bestätigt viel, man erinnere sich nur an Fermi. auch die sicht auf einfache dinge (doppelte cpu und 3 fache grafikleistung = 5 fache gesamtleistung) ist manchmal sehr speziell. vermutlich wird es bei nvidia einen schnellen 970/980 nachfolger auf basis gddr5 mitte 2016 in 16 nm geben zu preisen von 400 bis 650 € und gegen ende 2016 dann die ti/titan auf hasis hbm2 für 1000+x € geben. das wäre dann auch eine form der umsetzung des zuvor angekündigten.

Hübie
2015-10-06, 10:34:33
Ach bitte, gib doch einfach zu, das du Unrecht hattest und gut ist. Und natürlich spreche ich vom Whitepaper, das Gipsel verlinkt hat. Ich sehe auch keinen Grund, warum man nicht "Daten aus den Laboren oder aus den internen Tests heraus" geben sollte. Wäre jedenfalls ein wesentlich stärkeres Argument als irgend welche theoretischen Berechnungen.

Was soll ich denn da zugeben? Ich kenne deren Arbeitsweise bzw. das Vorgehen. Also haben die sicher etwas in Hardware. Das von Gipsel verlinkte war dass worauf ich mich in meiner initialen Aussage bezog, jedoch taucht in dem Paper was ich habe nicht diese Bemerkung mit dem projected auf. Vielleicht eine ältere Version die ich habe.
Wenn du wüsstest was die in Evaluierungsphasen alles zusammen zimmern... Daher gehe ich stark davon aus dass man bereits Hardware testet. Vielleicht nicht zu der Zeit wie die errechneten Benchmarks, aber mittlerweile muss man da schon was haben. Sonst wird das nix mit dem Termin.

Timbaloo
2015-10-06, 11:44:54
Samsung redet viel wenn der Tag lang ist. Wenn der Chip in Q2 marktreif sein soll, müssen die jetzt funktionierenden Speicher haben und da gibts z.Z. nur einen. Dass NV bestätigt hat HBM2 einzusetzen schließt auch nicht aus, dass GP100 nur mit HBM1 kommt.
Sorry, aber worauf basieren diese wilden Theorien? Es gibt derzeit keine Anzeichen, dass GP100 HBM1 einsetzt, zumindest ist mir keines bekannt. Also, wo sind diese Anzeichen?

Ich glaube gerne, dass sich Pascal aufgrund von HBM2-Lieferschwierigkeiten verschiebt, aber dass NV in 2016 eine 4GB-HPC-Karte aufsetzt... Sorry ;D

StefanV
2015-10-06, 11:49:42
Seltsam, dass nVidia selbst sagt, dass sie das 'geschätzt' haben, du aber darauf bestehst, dass sie Hardware haben.

Und insbesondere wenn man an diese Vorstellung denkt (http://www.heise.de/newsticker/meldung/GTC-Gezeigte-Fermi-Karte-war-eine-Attrappe-808570.html), ist das nicht unwahrscheinlich...

Heise hat das mal ein wenig zusammengefasst, was nVidia bisher gemacht hat (http://www.heise.de/newsticker/meldung/Kommentar-Nvidias-schmutzige-Kartentricks-2529523.html), dazu noch die Performance von Kepler bei einigen Spielen zurück halten...

Und du glaubst jetzt ernsthaft, dass sie wirklich Hardware haben?!
Wenn sie das hätten, warum haben sie das nicht auch gesagt?!

Hübie
2015-10-06, 11:49:59
Es werden definitiv keine 4 GB sein, ergo HBM Gen2.

BlacKi
2015-10-06, 11:51:41
Sorry, aber worauf basieren diese wilden Theorien? Es gibt derzeit keine Anzeichen, dass GP100 HBM1 einsetzt, zumindest ist mir keines bekannt. Also, wo sind diese Anzeichen?

Ich glaube gerne, dass sich Pascal aufgrund von HBM2-Lieferschwierigkeiten verschiebt, aber dass NV in 2016 eine 4GB-HPC-Karte aufsetzt... Sorry ;D

die professionellen anwender würden sich umsehen ;D

HOT
2015-10-06, 13:10:54
Es werden definitiv keine 4 GB sein, ergo HBM Gen2.
Seh ich bisher nicht. Wahrscheinlicher ist bisher nur 4GB HBM1.

dildo4u
2015-10-06, 13:15:45
Die Angabe von Samsung Anfang 2016 sind für Massenproduktion natürlich haben sie mehrere Monate vorher Testchips für HBM2.

StefanV
2015-10-06, 13:16:54
Es werden definitiv keine 4 GB sein, ergo HBM Gen2.
Weil??
Wo siehst du denn dass "HBM2" Chips schon ausgeliefert werden?

Und bist du Sicher, dass Hynix nicht eventuell 'nen Exklusivvertrag mit AMD haben könnte?

N0Thing
2015-10-06, 13:21:18
Es gibt nicht nur Hynix und bei Fiji hat man auch vorher keine losen HBM1 Chips rumfliegen sehen und trotzdem hat niemand in Frage gestellt, dass Fiji mit HBM kommen wird. Nur wann war die Frage.

Kartenlehrling
2015-10-06, 13:27:26
Bei Maxwell war ja die gtx750ti die erste Karte,
wieso soll der HBM Speicher nicht auch auf eine kleine Karte nicht zuerst eingesetzt werden?

Godmode
2015-10-06, 13:35:41
Seh ich bisher nicht. Wahrscheinlicher ist bisher nur 4GB HBM1.

Du meinst dann aber schon pro Stack 4 GB, oder meinst du 4 GB für die ganze Karte? :freak:

Bei Maxwell war ja die gtx750ti die erste Karte,
wieso soll der HBM Speicher nicht auch auf eine kleine Karte nicht zuerst eingesetzt werden?

Da der Speicher neu und teuer ist, gehen wir nicht davon aus, dass dieser anfänglich auch auf Low-End Karten verbaut wird. Vor allem brauchen diese Karten nicht so hohe Bandbreiten. Für die Zukunft denke ich aber schon, dass nur mehr HBM zum Einsatz kommen wird. (einfachere Platine, weniger Stromverbrauch, höhere Bandbreite).

Weil??
Wo siehst du denn dass "HBM2" Chips schon ausgeliefert werden?

Und bist du Sicher, dass Hynix nicht eventuell 'nen Exklusivvertrag mit AMD haben könnte?

Wenn man HBM2 in 2016 einsetzen will, muss es jetzt Testchips davon geben, weil die Evaluierung dauert wohl auch seine Zeit.

Timbaloo
2015-10-06, 13:43:10
Kein Spass was hier völlig unbegründet an FUD verbreitet wird...

Langsam echt lächerlich...

Dural
2015-10-06, 13:59:09
Seltsam, dass nVidia selbst sagt, dass sie das 'geschätzt' haben, du aber darauf bestehst, dass sie Hardware haben.

Und insbesondere wenn man an diese Vorstellung denkt (http://www.heise.de/newsticker/meldung/GTC-Gezeigte-Fermi-Karte-war-eine-Attrappe-808570.html), ist das nicht unwahrscheinlich...


Das komisch an der Fermi Attrappe war ja das es wirklich ein Fermi PCB war, nur ohne den richtigen Kühler und hinten abgesägt. Ich vermute mal das der Kühler einfach noch nicht vorhanden war und NV kurz was basteln musste ;)

Hübie
2015-10-06, 14:03:42
Wir können da gerne wetten drauf abschließen. Ich schreibe es gern noch mal: Pascal wird HBM Gen2 RAM nutzen.

Das mit NVLink ist spekuliert, aber wenn man eine Projektroadmap kennt und weiß dass Summit Q2 2017 hoch fährt, dann weiß man in etwa wann was gemacht werden muss. Da Pascal im Juni tapeout hatte ist es doch umso wahrscheinlicher dass man jetzt erste testbeds in Betrieb nimmt und anfängt Software anzupassen. Es läuft eh nie nach Plan, also kalkuliert man 10-12% extra time (was auch nicht ausreicht, aber irgendwie muss man Druck aufbauen).

Für HBM2 lege ich sogar die Hand ins Feuer.

Dural
2015-10-06, 14:17:18
zudem heute so wie so jeder Chip komplett durch simuliert wird, NV weis +/- 2% ganz genau was GP100 leisten wird bevor sie überhaupt Silizium haben. Der neue Herstellungsprozess dürfte da die deutlich grössere unbekannte sein. Wobei wir ja schon Q4 haben und NV da schon ziemlich bescheiden haben müsste was mit den 16nm läuft.

HOT
2015-10-06, 15:20:58
Du meinst dann aber schon pro Stack 4 GB, oder meinst du 4 GB für die ganze Karte? :freak:[...]
Das ist keine Karte, dass ist ein Modul.

StefanV
2015-10-06, 15:27:59
Kein Spass was hier völlig unbegründet an FUD verbreitet wird...

Langsam echt lächerlich...
Warum??
Weil wir hier nVidia nicht abfeiern sondern das ganze eher kritisch sehen oder was meinst du genau??

Du machst doch das gleiche in jedem AMD Thread. Warum beschwerst du dich jetzt, hier in diesem Thread?!

Wir können da gerne wetten drauf abschließen. Ich schreibe es gern noch mal: Pascal wird HBM Gen2 RAM nutzen.
Es gibt aber eigentlich gar kein HBM2, das ist ja nur Marketingsprech für die größeren Dies mit mehr Takt...
Wirklich geändert hat sich doch nichts...


Das mit NVLink ist spekuliert, aber wenn man eine Projektroadmap kennt und weiß dass Summit Q2 2017 hoch fährt, dann weiß man in etwa wann was gemacht werden muss. Da Pascal im Juni tapeout hatte ist es doch umso wahrscheinlicher dass man jetzt erste testbeds in Betrieb nimmt und anfängt Software anzupassen. Es läuft eh nie nach Plan, also kalkuliert man 10-12% extra time (was auch nicht ausreicht, aber irgendwie muss man Druck aufbauen).
1. Hat nVidia uns schon ein paar mal Veräppelt, daher sollte man deren Aussagen durchaus sehr kritisch sehen und mit einem Topf Salz konsumieren...
Denn DIE Stärke von nVidia ist Ami-Cowboy PR/Marketing...

2. Wenn nVidia wirklich Hardware hätte, wäre es da nicht anzunehmen, dass sie diesen Zustand schon längst kund getan haben und in alle Welt hinaus posaunt hätten?!
Getreu dem Motto 'schaut her, wie toll dieses und jenes doch ist'...

3. ...heißt das Tapeout ja noch lange nicht, dass man auch was funktionierendes zurück bekommt. Gerade wenn man 'alles neu' macht, ist die Wahrscheinlichkeit ja recht hoch, dass da einiges schief gegangen ist. Und man noch einiges an Zeit benötigt, um das ganze zu fixen...

Zumal es ja mit den 1x nm Verfahren ja auch einige gewaltige Neuerungen gibt, die man auch nicht unterschätzen sollte.
Da sollte man durchaus befürchten, dass einiges schief gehen könnte oder gar wird...

N0Thing
2015-10-06, 15:42:34
2. Wenn nVidia wirklich Hardware hätte, wäre es da nicht anzunehmen, dass sie diesen Zustand schon längst kund getan haben und in alle Welt hinaus posaunt hätten?!
Getreu dem Motto 'schaut her, wie toll dieses und jenes doch ist'...

Nein, weil das weder AMD noch Nvidia das so handhaben. Beide geben frühestens ein paar Monate vorher rudimentäre Daten ihrer Chips preis, wenn überhaupt.
Warum sollte das diesmal anders sein?

Hübie
2015-10-06, 15:49:53
Grundsätzlich hat er jedoch Recht. Problematisch ist es immer. Und es ist Teil der Strategie nur Häppchen Preis zu geben. Harte Daten kommen meist erst sehr spät.
August 2012 wurde gerade GK110 an ORNL geliefert als man schon eine Urversion der Titan Z hatte. Hast du davon irgendwas mitbekommen? Nein. ;) Und HBM2 habe ich nirgends geschrieben. Gen2 oder 2nd Tier. Wir können über Namen streiten, ändert nichts am Produkt.

captainsangria
2015-10-06, 16:04:05
Behaltet euren Kleinkrieg! Beim nächsten OT Post gibt es eine Auszeit.

N0Thing
2015-10-06, 16:56:59
Ich auch nicht. :)

Grundsätzlich hat er jedoch Recht. Problematisch ist es immer. Und es ist Teil der Strategie nur Häppchen Preis zu geben. Harte Daten kommen meist erst sehr spät.
August 2012 wurde gerade GK110 an ORNL geliefert als man schon eine Urversion der Titan Z hatte. Hast du davon irgendwas mitbekommen? Nein. ;) Und HBM2 habe ich nirgends geschrieben. Gen2 oder 2nd Tier. Wir können über Namen streiten, ändert nichts am Produkt.

Das ist doch meine Rede. Wenn man sich die Spekulationsthreads der letzten Jahre anschaut, stand oft erst ein paar Wochen vor Release mehr oder weniger fest, wie der neue Chip ausgestattet sein würde. Und das kam alles durch Leak zu Stande und nicht durch offizielle Pressemitteilungen seitens der IHV.
Deshalb halte ich es nicht für unwahrscheinlich, dass Nvidia zur Zeit sowohl GP10X Silizium testet wie auch HBM2/Gen2/2.0/2000 und NVLink und nicht erst ab Frühling 2016.

Ailuros
2015-10-06, 18:37:11
Nein, weil das weder AMD noch Nvidia das so handhaben. Beide geben frühestens ein paar Monate vorher rudimentäre Daten ihrer Chips preis, wenn überhaupt.
Warum sollte das diesmal anders sein?

Auf sachlicher bzw. technologischer Ebene gibt es einfach keine logische Antwort fuer's vorige. Wieso verschwendet Ihr eigentlich Eure Zeit?

Rampage 2
2015-10-07, 17:34:08
Auf sachlicher bzw. technologischer Ebene gibt es einfach keine logische Antwort fuer's vorige. Wieso verschwendet Ihr eigentlich Eure Zeit?

Ist Q2 2016 jetzt eigentlich ein halbwegs fester Termin für die Markteinführung (also kaufbare Produkte) von GP104 (nicht GP100)?

Und steht es fest, dass ALLE Pascal-Ableger HBM bekommen werden, oder ist es weiterhin möglich, dass das Low-Cost-, Mainstream- und auch Performance-Segment weiterhin GDDR5 als Speicheranbindung bekommen?

R2

Novum
2015-10-07, 18:42:35
Nichts steht fest vor Fall des NDAs. Wie jedes Mal.

Ailuros
2015-10-07, 19:42:08
Ist Q2 2016 jetzt eigentlich ein halbwegs fester Termin für die Markteinführung (also kaufbare Produkte) von GP104 (nicht GP100)?

Und steht es fest, dass ALLE Pascal-Ableger HBM bekommen werden, oder ist es weiterhin möglich, dass das Low-Cost-, Mainstream- und auch Performance-Segment weiterhin GDDR5 als Speicheranbindung bekommen?

R2

Es gibt noch keiinen festen Termin wenn TSMC nicht ihre Kapazitaeten bzw. yields so einrichtet dass sich die Herstellung unter 16FF auch wirklich lohnt. Du wirst nichtmal von NV eine Garantie dafuer bekommen weil sie es eben von heute bis zum naechsten Fruehling noch nicht sicher wissen.

Nach meinen Infos hat nur GP100 HBM, muss aber nicht stimmen. Was zum Henker wollt Ihr ueberhaupt mit HBM auf einem performance chip? Es sollte reichen wenn das Preis-/Leistungs-/Verbrauchs-Verhaeltnis insgesamt stimmt.

N0Thing
2015-10-07, 19:42:49
Mehr Performance. :ugly:

Ailuros
2015-10-07, 19:45:44
Mehr Performance. :ugly:

Witzbold :freak::eek:

-/\-CruNcher-/\-
2015-10-07, 19:46:03
Es gibt noch keiinen festen Termin wenn TSMC nicht ihre Kapazitaeten bzw. yields so einrichtet dass sich die Herstellung unter 16FF auch wirklich lohnt. Du wirst nichtmal von NV eine Garantie dafuer bekommen weil sie es eben von heute bis zum naechsten Fruehling eben noch nicht sicher wissen.

Nach meinen Infos hat nur GP100 HBM, muss aber nicht stimmen. Was zum Henker wollt Ihr ueberhaupt mit HBM auf einem performance chip ueberhaupt? Es sollte reichen wenn das Preis-/Leistungs-/Verbrauchs-Verhaeltnis insgesamt stimmt.

Energiesparender ganz einfach

Ailuros
2015-10-07, 19:49:37
Energiesparender ganz einfach

Weil Du oeffensichtlich nicht lesen bzw. verstehen kannst was Du liest: ich sagte wenn das Preis-/Leistungs-/Verbaurchs-Verhaeltnis stimmt. Und wenn ich jetzt dummerweise frage warum Fury nicht schneller oder stromsparender ist als GM200 bekomm ich woher genau die Antwort? Um es Dir noch komplizierter zu machen: Du bekommst heute mehr GM200 chips und billiger vom Laufband.

Timbaloo
2015-10-07, 19:57:51
Und wenn ich jetzt dummerweise frage warum Fury nicht schneller oder stromsparender ist als GM200 bekomm ich woher genau die Antwort?
Naja, ich denke dass AMD in Sachen Effizienz von Hawaii zu Fiji einen Schritt nach vorne gemacht hat, und das nicht aufgrund von niedrigerem Takt. Mag sein, dass das auch an der geringeren DP-Leistung liegt, aber einen gewissen Effekt hatte HBM irgendwie schon.

Ailuros
2015-10-07, 20:03:34
Naja, ich denke dass AMD in Sachen Effizienz von Hawaii zu Fiji einen Schritt nach vorne gemacht hat, und das nicht aufgrund von niedrigerem Takt. Mag sein, dass das auch an der geringeren DP-Leistung liegt, aber einen gewissen Effekt hatte HBM irgendwie schon.

Nichts dagegen; ich halte es nur fuer durchbackenen Duenschiss zu glauben dass fuer die kommende FF Prozess Generation das einzige "ticket" zur hoeheren Effizienz HBM ist. Ich bin mir nicht sicher ob NV zumindest auf dem naechsten Performance chip HBM benutzt oder nicht, aber wenn der Stromverbrauch auf erwarteten Hoehen liegen sollte braucht man HBM nun wirklich auch nicht. Stets natuerlich mit dem ueblichen Schuss marketing denn eine normale GTX970 SKU im Handel hat eben NICHT einen maximalen 145W Verbrauch eben weil keine dieser so moderat getaktet ist.

GP100 ist ein anderes Tier; es muss die verpassten Laengen seit Kepler fuer DP wieder gut machen und bei der DP FLOP/W Steigerung braucht man auch wirklich brutal hohe Bandbreiten.

Timbaloo
2015-10-07, 20:19:37
Nichts dagegen; ich halte es nur fuer durchbackenen Duenschiss zu glauben dass fuer die kommende FF Prozess Generation das einzige "ticket" zur hoeheren Effizienz HBM ist.
Das einzige Ticket sicher nicht, aber was bleibt neben:
- dem Prozess an sich
- HBM
- Mixed-Precision

denn noch groß an Eiffizienzmaßnahmen übrig? Mixed-Precision bringt auch nur Vorteil wenn es auch genutzt wird (was zum Zeitpunkt des Erscheinens wohl eher nicht der Fall sein wird, ergo verpasst man das für die Reviews), sonst wahrscheinlich eher sogar Nachteile. Die aggressive Taktanpassung-Karte hat man mit Kepler und v.a. Maxwell gespielt, ob da noch soviel Potential begraben liegt möchte ich erstmal bezweifeln.

Ich bin mir nicht sicher ob NV zumindest auf dem naechsten Performance chip HBM benutzt oder nicht, aber wenn der Stromverbrauch auf erwarteten Hoehen liegen sollte braucht man HBM nun wirklich auch nicht. Stets natuerlich mit dem ueblichen Schuss marketing denn eine normale GTX970 SKU im Handel hat eben NICHT einen maximalen 145W Verbrauch eben weil keine dieser so moderat getaktet ist.
Gerade das Marketing stelle ich mir problematisch vor. Ich nehme mal an, dass der Performance-Chip die erste Consumer-Karte wird. Diese mit "ohne HBM" zu vermarkten, wo doch HBM "das" Feature der Generation ist, stelle ich mir schwierig vor. Alles nach GP104 bekommt sicher kein HBM, da bin ich bei dir. Bei GP104 kann ich mir das aber wie gesagt schwer vorstellen. Lassen wir uns überraschen :)

maguumo
2015-10-07, 20:28:03
Nach meinen Infos hat nur GP100 HBM, muss aber nicht stimmen. Was zum Henker wollt Ihr ueberhaupt mit HBM auf einem performance chip ueberhaupt?
Sieht schick aus, erlaubt kürzere Karten und hat den gleichen Glücklichkeitsfaktor wie der Geruch in einem Neuwagen ;D

Wenn nur GP100 mit HBM kommen sollte wie erklärst du dir dann das kleinere Package auf Zauba? Für eine GPU mit GDDR5 Interface sollten das doch zu wenig Pins sein, oder? Wenn ich mich recht erinnere hatte schon GK104 mit seinem 40x40mm Package knapp 1700 BGA Balls, und ein 256b GDDR5 Interface dürfte für GP104 kaum reichen?

Und nochmal eine Lieferung mit NV-typischem Bezeichnungsaufbau, mit einem 42.5x42.5mm Package, aber nur 1244 Pins:

[IC (INTEGRATED CIRCUIT) EHS-FCBGA (CHF) (42.5*42.5) 1244 DEVICE:QVVGQ LOT NO:P6T674.000 / NOT FOR SALE]

https://www.zauba.com/import-fcbga-device-hs-code.html

sulak
2015-10-07, 21:28:51
Vielleicht ein 256Bit SI für GP104, vielleicht nutzt man GDDR5X oder man geht wieder auf 384Bit und der Nachfolger der 970 wird mit einem 320Bit SI ausgestattet. Hatten wir ja schon, jedoch nicht beim Performance Chip, aber die Zeiten ändern sich ja.
Platz is mit 14nm wieder genug "da", wenn man sieht was in 28nm noch so reingequetscht wurde geht in 14nm auch noch eine 2. Generation.

Hübie
2015-10-08, 02:13:26
Wenn man Aktionäre nicht vergraulen will, sollte man keinen Performance-Chip mit HBM bringen, dass sollte jedem einleuchten. Und nein so schnell kann er nicht so billig werden.

Ailuros
2015-10-08, 12:28:34
Das einzige Ticket sicher nicht, aber was bleibt neben:
- dem Prozess an sich
- HBM
- Mixed-Precision

Effizienz ist bisher auch ohne HBM gestiegen.

denn noch groß an Eiffizienzmaßnahmen übrig? Mixed-Precision bringt auch nur Vorteil wenn es auch genutzt wird (was zum Zeitpunkt des Erscheinens wohl eher nicht der Fall sein wird, ergo verpasst man das für die Reviews), sonst wahrscheinlich eher sogar Nachteile. Die aggressive Taktanpassung-Karte hat man mit Kepler und v.a. Maxwell gespielt, ob da noch soviel Potential begraben liegt möchte ich erstmal bezweifeln.

1. GP100 ist ein schneller Zwischenschieber bis Volta kommt.
2. ALUs haben ausserhalb FP16 Ops und noch ein paar Kleinigkeiten keine sehenswerte Aenderungen.
3. 16FF+ erlaubt fast doppelt so viel Transistoren.

Wie viele clusters sollte denn Deiner Meinung ein Performance 16FF+ chip unterbringen koennen?

Gerade das Marketing stelle ich mir problematisch vor. Ich nehme mal an, dass der Performance-Chip die erste Consumer-Karte wird. Diese mit "ohne HBM" zu vermarkten, wo doch HBM "das" Feature der Generation ist, stelle ich mir schwierig vor. Alles nach GP104 bekommt sicher kein HBM, da bin ich bei dir. Bei GP104 kann ich mir das aber wie gesagt schwer vorstellen. Lassen wir uns überraschen :)

HBM ist immer noch teuer und die insgesamten Kosten fuer 16FF brutal hoeher im Vergleich zu 28HP heute. Hat Euch irgend jemand erzaehlt dass HBM ueber Nacht mit toller Verfuegbarkeit bzw. Kosten kommt? Wo NV halt macht wissen sie wohl schon selber, aber ich sehe momentan nichts ueberedendes fuer HBM unterhalb high end.


Wenn nur GP100 mit HBM kommen sollte wie erklärst du dir dann das kleinere Package auf Zauba? Für eine GPU mit GDDR5 Interface sollten das doch zu wenig Pins sein, oder? Wenn ich mich recht erinnere hatte schon GK104 mit seinem 40x40mm Package knapp 1700 BGA Balls, und ein 256b GDDR5 Interface dürfte für GP104 kaum reichen?

Wie gross ist denn das kleinere Package genau?

Dural
2015-10-08, 14:09:38
wenn ich mich richtig erinnere: 45x45mm und 55x55mm

-/\-CruNcher-/\-
2015-10-08, 15:26:27
Weil Du oeffensichtlich nicht lesen bzw. verstehen kannst was Du liest: ich sagte wenn das Preis-/Leistungs-/Verbaurchs-Verhaeltnis stimmt. Und wenn ich jetzt dummerweise frage warum Fury nicht schneller oder stromsparender ist als GM200 bekomm ich woher genau die Antwort? Um es Dir noch komplizierter zu machen: Du bekommst heute mehr GM200 chips und billiger vom Laufband.

Ganz einfach Komplexität Nvidia versucht die Komplexität zu reduzieren um Strom zu sparen AMD erhöht die Komplexität.

Nvidia stimmt alle ihre Produkte und Entscheidungen auf das nötigste im Markt zu einer bestimmten zeit ab, wenn sie sehen das es Zeit ist etwas einzuführen anhand der Daten dann machen sie es auch aber vorher alles in den Chip kommt nicht in Frage das ist riskant und verärgert vor allem die alten user aber es ist effizient.

Wenn man das weiss stellt man sich drauf ein und Kauft Produkte gezielt und nicht nach Hype Faktor ;)

Ob sie sich diesmal damit ins bein geschossen haben werden wir noch sehen ;)

maguumo
2015-10-08, 15:58:56
wenn ich mich richtig erinnere: 45x45mm und 55x55mm
Wie gross ist denn das kleinere Package genau?
Laut Zauba 42.5x42.5mm für das kleine Package, bei 1244 BGA Balls. GK104 (und wenn ich gerade nichts verwechsle auch GM204) hatten 40x40mm bei knapp 1700 BGA Balls.

Ailuros
2015-10-08, 19:52:19
Laut Zauba 42.5x42.5mm für das kleine Package, bei 1244 BGA Balls. GK104 (und wenn ich gerade nichts verwechsle auch GM204) hatten 40x40mm bei knapp 1700 BGA Balls.

Weitere ehrliche Frage: und dieses soll eine Indizie fuer was genau sein?

Ailuros
2015-10-08, 20:24:14
Ganz einfach Komplexität Nvidia versucht die Komplexität zu reduzieren um Strom zu sparen AMD erhöht die Komplexität.

Nach der Logik dass HBM Strom spart muesste Fiji besser abschlagen als GM200 weil dier Unterschied in die area zwischen den beiden nur etwas ueber 4% betraegt und weil GM200 "nur" mit 336.5 GB/s Bandbreite auskommt.

Nvidia stimmt alle ihre Produkte und Entscheidungen auf das nötigste im Markt zu einer bestimmten zeit ab, wenn sie sehen das es Zeit ist etwas einzuführen anhand der Daten dann machen sie es auch aber vorher alles in den Chip kommt nicht in Frage das ist riskant und verärgert vor allem die alten user aber es ist effizient.

...und wieso sollte sich schon JETZT etwas diesbezueglich dem kommenden 16FF+ performance chip genau aendern?

Wenn man das weiss stellt man sich drauf ein und Kauft Produkte gezielt und nicht nach Hype Faktor ;)

So lange das Resultat das liefert was man erwarten wuerde und der Stromverbrauch bzw. teilweise Preis auch stimmt wird sich keiner darueber beschweren.

Ob sie sich diesmal damit ins bein geschossen haben werden wir noch sehen ;)

Mal etwas Futter zum Nachdenken:

Ist es besser steril die Bandbreite zu erhoehen oder nur dann wenn es auch wirklich Anwendungsgebiete und dementsprechende Architekturen gibt die davon auch etwas dazugewinnen? Denn weder Fiji bzw. Hawaii@steroids noch irgendwelcher Maxwell bzw. Maxwell@steroids scheint wirklich nach sooo viel mehr Bandbreite zu schreien.

Gleich danach folgen die Bandbreiten-Anforderungen in eigentlichen Spielen. Es wird diese wohl eben NICHT ueber Nacht explodieren und auch nicht so leicht in den naechsten 2 Jahren, weil der lowest common denominator seine Zeit braucht sich auch zu steigern und der Markt sich auch nicht mehr in jaehrlichen oder kleineren Kadenzen bewegt.

maguumo
2015-10-08, 20:26:53
Weitere ehrliche Frage: und dieses soll eine Indizie fuer was genau sein?
Falls das ein GP104 wäre könnte die Größe des Package und die geringe Anzahl der BGA Balls darauf hinweisen das das Teil mit HBM kommt.

Ailuros
2015-10-08, 20:29:19
Falls das ein GP104 wäre könnte die Größe des Package und die geringe Anzahl der BGA Balls darauf hinweisen das das Teil mit HBM kommt.

Wieso?

***edit: damit es nicht zu steril klingt...nur weil GP100 zu ~17b von 8b/GM200 steigt, heisst es noch lange nicht dass alles darunter einem aehnlichen Trend folgt.

maguumo
2015-10-08, 20:38:52
Naja, weil GK104s (und soweit ich weiß auch GM204) Package schon knapp 1700 Kontakte hatte, und das bei kleinerer Größe (40x40mm) und nur 256b GDDR5 Interface. Ich kenne mich damit nicht wirklich aus, aber die wird man da ja vermutlich nicht umsonst dran geklatscht haben?

-/\-CruNcher-/\-
2015-10-08, 21:03:38
Nach der Logik dass HBM Strom spart muesste Fiji besser abschlagen als GM200 weil dier Unterschied in die area zwischen den beiden nur etwas ueber 4% betraegt und weil GM200 "nur" mit 336.5 GB/s Bandbreite auskommt.



...und wieso sollte sich schon JETZT etwas diesbezueglich dem kommenden 16FF+ performance chip genau aendern?



So lange das Resultat das liefert was man erwarten wuerde und der Stromverbrauch bzw. teilweise Preis auch stimmt wird sich keiner darueber beschweren.



Mal etwas Futter zum Nachdenken:

Ist es besser steril die Bandbreite zu erhoehen oder nur dann wenn es auch wirklich Anwendungsgebiete und dementsprechende Architekturen gibt die davon auch etwas dazugewinnen? Denn weder Fiji bzw. Hawaii@steroids noch irgendwelcher Maxwell bzw. Maxwell@steroids scheint wirklich nach sooo viel mehr Bandbreite zu schreien.

Gleich danach folgen die Bandbreiten-Anforderungen in eigentlichen Spielen. Es wird diese wohl eben NICHT ueber Nacht explodieren und auch nicht so leicht in den naechsten 2 Jahren, weil der lowest common denominator seine Zeit braucht sich auch zu steigern und der Markt sich auch nicht mehr in jaehrlichen oder kleineren Kadenzen bewegt.

Ins bein geschossen meine ich mit was ganz anderes und zwar AMDs Angriff mit Async Compute auf CUDA und im spezielen Gameworks es gibt viele Entwickler die teils gezwungen sind aber auch teils daran interessiert mit der Parallelisierbarket der ACEs zu experimentieren vor allen auf den Konsolen ist es teils nicht anders möglich es entstehlt hier neues Wissen.

Nvidia versucht das mit GameWorks (Money) und ihrer CUDA R&D Power (intern) auszugleichen was teils ja noch gut funktioniert (wobei die Probleme mit dem Overhead bei so ziemlich allen Entwicklern spürbar waren bis jetzt unter DX 11 und selbst Nvidia user im Performance berreich selbst mit Maxwell V2 noch mit Gameworks teils ganz schön einstecken müssen, soweit das man sachen teils sogar auf Eis gelegt hat) die wahrschinlichkeit ist dennoch hoch das sich die ACE Ergebnise schnell in den Multiplatform Code einfinden und dann einige sachen kompensieren.

Das weiss Nvidia nicht erst seit gestern.

Bin aber vollkommen ehrlich gönne das AMD immerhin mussten sie eine lange zeit einstecken nach ATIs aquisition (Fusion Konzept vor Intel) und sie reisen sich ja auch seit den Konsolen GCN (Auf augenhöhe mit Nvidia seit VLIW) wirklich den Arsch auf was die Treiber angeht um den Anschluss wieder zu finden.

Und True Audio könnte sich bald als eine sehr weise Entscheidung darstellen wobei die relativ schnell von Nvidia kompensiert werden kann, zur richtigen Zeit.

Ailuros
2015-10-08, 22:42:08
Da wo bei Dir die fehlende Relevanz einschlaegt, schleicht sich meine Langeweile rein um lieber doch nicht diagonal in einem parallelen Universum zu parken.

Naja, weil GK104s (und soweit ich weiß auch GM204) Package schon knapp 1700 Kontakte hatte, und das bei kleinerer Größe (40x40mm) und nur 256b GDDR5 Interface. Ich kenne mich damit nicht wirklich aus, aber die wird man da ja vermutlich nicht umsonst dran geklatscht haben?

Es ist nicht so dass es keine Indizie fuer Deine These sein sollte, aber wir hocken da im gleichen Boot. Ich hab keine Ahnung was das Zeug betrifft und ich sehe natuerlich auch keine Garantie fuer den einen oder anderen Fall.

Ich wuensche mir persoenclich HBM fuer die Sparte noch ab, eben weil bei mir der GTX980 MSRP in der Kategorie "Wucherpreise" steht und der GTX970 MSRP nahezu ideal im Vergleich ist. Bei HBM fuer 16FF+ performance chip koennt Ihr locker den zweiten Fall vergessen IMHO.

Godmode
2015-10-09, 09:10:47
Wieso?


Wenn das kleinere Package wirklich ein GP104 Grafikchip ist, dann deutet das schon stark auf HBM hin. Man lässt ja nicht einfach zum Spaß 500 Pins weg, dass könnten also durchaus die Leitungen gewesen sein, die normal zu den RAMs laufen.

Ein 32bit GDDR5 Baustein hat 170 Pins, davon sind 67 Signalleitungen. Da ich davon ausgehe, dass nur die Signalleitungen mit der GPU verbunden sind, wären das also genau 67*8 Chips = 536 Pins von der GPU zu den RAM BGAs.

Ailuros
2015-10-09, 11:16:31
Wenn das kleinere Package wirklich ein Grafikchip ist, dann deutet das schon stark auf HBM hin. Man lässt ja nicht einfach zum Spaß 500 Pins weg, dass könnten also durchaus die Leitungen gewesen sein, die normal zu den RAMs laufen.

Ein 32bit GDDR5 Baustein hat 170 Pins, davon sind 67 Signalleitungen. Da ich davon ausgehe, das nur die Signalleitungen mit der GPU verbunden sind, wären das also genau 67*8 Chips = 536 Pins von der GPU zu den RAM BGAs.

Dann ist es tatsaechlich eine sehr starke Indizie fuer HBM; was sonst fuer ein chip sollte es denn sein von NV? Ein Tegra-Gigant der sich nur in der Gefriertruhe kuehlen laesst? :freak:

Hübie
2015-10-09, 16:24:31
Es gibt vielleicht zwei Packages wegen NVLink.

maguumo
2015-10-10, 20:17:27
Es gibt vielleicht zwei Packages wegen NVLink.
Zwei unterschiedlich große Packages? Und deutlich über 1000 Kontakte mehr nur für NVLink erscheint mir auch nicht besonders wahrscheinlich...

Hübie
2015-10-10, 20:32:08
Die Differenz sind 500 und ein Keks.

Da Godmode voreilig meinen Beitrag gelöscht und nun teilweise wieder hergestellt hat kommt das wohl nicht so rüber: Es ist meinerseits nur spekuliert.

Edit: Nein warte. 1621-1244=377. Also durchaus möglich ;)

maguumo
2015-10-10, 20:41:21
Da verwechselst du gerade was, die Differenz von ~500 Kontakten bezog sich auf die zum Vergleich mit dem kleineren Package herangezogenen GK104/GM204 Packages.

Die beiden auf Zauba gesichteten Packages (42.5x42.5/55x55mm) haben (wohl) 1244 bzw. 2621 Pins.
WaKü-Teile für die Prototypen: https://www.zauba.com/import-SFCBGA-hs-code.html

Eventuell 2621 Pins und ein 55x55mm Package.


Und nochmal eine Lieferung mit NV-typischem Bezeichnungsaufbau, mit einem 42.5x42.5mm Package, aber nur 1244 Pins:

https://www.zauba.com/import-fcbga-device-hs-code.html[...]

Hübie
2015-10-10, 21:08:43
Ach so. Bin halt kein Zauba-Junkie ;D Wenn man von GM200 ausgeht (23xx und ein paar zerquetschte (97?) Pins), dann sollten die 2621 passen. Das Package mit 1244 ist dann offensichtlich ein GP104 ohne HBM (was in dem Segment einfach noch keinen wirtschaftlichen Sinn macht).

maguumo
2015-10-10, 21:14:33
Wie viele Pins GK110/GM200 haben weiß ich leider nicht, da hatte ich gestern nichts zu gefunden (noch zu sonst irgendeiner halbwegs aktuellen GPU bis auf GK104/GM204)...

Lies mal was hier auf dieser Seite schon zur Anzahl der Kontakte des kleineren Package geschrieben wurde...

Hübie
2015-10-11, 09:03:13
Ehrlich gesagt fehlt mir oft die Zeit alles zu verfolgen. 2397 Pins am Package von GM200 / GK210. GM204 / GK104 waren glaube ich 1552. Die sind ja was Anzahl angeht gleich geblieben. Da HBM Tier 2 mehr Bandbreite pro Modul hat müssen es zwangsläufig auch mehr Pins sein. Die Zahl ist also schon mal plausibel.
Was wird denn zum kleinen Pascal spekuliert? Mir fielen jetzt 1644 ins Auge, was ausgehend von GM204 ebenfalls plausibel klingt.

AnarchX
2015-10-11, 10:29:34
GM204/GK104 hatte 1745 Pins.

Etwas merkwürdig am 1244 Pin - 42.5mm Package ist, dass es im Zoll relativ niedrig bewertet ist - ~120 USD. Und dazu jetzt schon sehr hohe Mengen. Möglicherweise doch eher ein Automotive Tegra.

Godmode
2015-10-11, 10:43:56
Ehrlich gesagt fehlt mir oft die Zeit alles zu verfolgen. 2397 Pins am Package von GM200 / GK210. GM204 / GK104 waren glaube ich 1552. Die sind ja was Anzahl angeht gleich geblieben. Da HBM Tier 2 mehr Bandbreite pro Modul hat müssen es zwangsläufig auch mehr Pins sein. Die Zahl ist also schon mal plausibel.

Was wird denn zum kleinen Pascal spekuliert? Mir fielen jetzt 1644 ins Auge, was ausgehend von GM204 ebenfalls plausibel klingt.


Was hat HBM2 mit dem Pinlayout des Packages zu tun? Die HBM Stacks sitzen auf dem Interposer und nicht auf dem Package, wenn ich das richtig verstanden habe.

GM204/GK104 hatte 1745 Pins.

Etwas merkwürdig am 1244 Pin - 42.5mm Package ist, dass es im Zoll relativ niedrig bewertet ist - ~120 USD. Und dazu jetzt schon sehr hohe Mengen. Möglicherweise doch eher ein Automotive Tegra.

Es könnte gut möglich sein, wissen wird das aber nur NV selber. :(

StefanV
2015-10-11, 11:19:07
Etwas merkwürdig am 1244 Pin - 42.5mm Package ist, dass es im Zoll relativ niedrig bewertet ist - ~120 USD. Und dazu jetzt schon sehr hohe Mengen. Möglicherweise doch eher ein Automotive Tegra.
Sehr gute Idee!
Das macht ev. auch mehr Sinn.

Oder ev. ein neuer Low End Grafikchip?
Aber das macht nicht wirklich viel Sinn, wenn man mal schaut, wie stark die neusten Intel und AMD IGPs geworden sind...

Hübie
2015-10-11, 12:03:33
Öhm. Godmode? Wie kommen denn Signale von der GPU zum DRAM wenn nicht über Pins? Per Funk? GPU sitzt auf Interposer, DRAM auch und Interposer auf PCB. Letzterer dürfte deutlich weniger Pins haben, da hier wenig externe Kommunikation statt findet, im Vergleich zu "onchip".

@AnarchX: Danke. Hatte die Zahl nicht mehr im Kopf. GM204 war afaik 49.5^2 groß. Kleinerer Prozess, kleineres Package. Passt. Aber dann so wenig Pins ist in der Tat merkwürdig. Für Tegra wäre das doch wieder recht viel oder irre ich? :|

StefanV
2015-10-11, 12:07:10
Und was spielt es für eine Rolle, ob man nun HBM oder HBM"2" hat?

Und die Signale vom Package sind da ja auch egal, das ist nur noch Stromversorgung + PCIe + Bildschirm Interfaces. Was brauchst denn sonst noch für einen HBM Chip??

The_Invisible
2015-10-11, 12:21:23
Glaubt ihr es gibt für Pascal eine 300 bis 400EUR Karte mit 8GB (HBM?) und ca. doppelter Leistung einer 970? Ich würde sofort umsteigen.

StefanV
2015-10-11, 12:24:18
Never ever!

Wenn es sowas geben wird, dann wirds deutlich teurer. Unter 500€ würd ich sowas echt nicht erwarten wollen...

nVidia muss doch das 'Premium Image' irgendwie aufrecht erhalten. Da gehen doch solch niedrigen Preise nicht!

MartinRiggs
2015-10-11, 12:26:04
Ich verfolge den Thread bisher nicht, wann ist mit den ersten Pascal-Karten zu Rechnen und kommt erst der Big oder der "Mainstream" Chip

horn 12
2015-10-11, 12:43:45
Nope
Pascal wird verdammt Teuer, da ist die Fury Karte Pinats dagegen!
Eine GTX 970 Nachfolger Karte mit KEIN HBM Speicher sondern "nur" GDDR5 wird vielleicht unter 600 Euro ankommen, Pascal Full nicht unter 900 bis 1000 Euro!

@Ailuros weiss da Bescheid!

PS:Vor Frühjahr 2017 wird dies nix mit den Neuen AMD und NV Karten preislich und Lieferbarkeitsmäsig!
Dies weiss NV nur zu gut und deshalb läuft Ihnen die Zeit davon, DX12 AC
Der Spieß dreht sich nun wohl um mit Spieledreingabe udg.

PS: AMD scheint die Lieferschwierigkeiten beseitigt zu bekommen!

-/\-CruNcher-/\-
2015-10-11, 12:43:59
Glaubt ihr es gibt für Pascal eine 300 bis 400EUR Karte mit 8GB (HBM?) und ca. doppelter Leistung einer 970? Ich würde sofort umsteigen.

Nein der Stromverbrauch wird weiter reduziert und die Leistung etwas steigen aber sicherlich keine 50% weill man sicherlich das selbe TDP wie jetzt targeten wird in dieser Serie.

Dieser Sprung wurde mit Maxwell vollzogen und der bleibt so.

Der Preis wird sicherlich nicht für Performance angehoben werden man wird es wie AMD machen und die Enthusiasts zur Kasse beten um HBM Kosten zu kompensieren ;)

Nvidia hat auch keine andere Wahl der Druck von AMD ist zu groß ;)

Bei Nvidia muss man aber auch CUDA Performance mit einbeziehen weil dort der Overhead momentan massiver wird mit GameWorks.

maguumo
2015-10-11, 12:57:33
Öhm. Godmode? Wie kommen denn Signale von der GPU zum DRAM wenn nicht über Pins? Per Funk? GPU sitzt auf Interposer, DRAM auch und Interposer auf PCB. Letzterer dürfte deutlich weniger Pins haben, da hier wenig externe Kommunikation statt findet, im Vergleich zu "onchip".
Mit Package ist Interposer inkl. GPU (und eventuell HBM) auf Package Substrat gemeint, also so wie du es später aufs PCB auflötest.

Skysnake
2015-10-11, 13:20:30
Naja, ich könnte mir schon gut vorstellen, dass das etwas für Automotive ist.

Man sollte ja möglichst schnell einen Chip bringen der die ganzen Sensordaten gleich mitverarbeiten kann, damit man möglichst wenige zusätzliche Chips noch braucht. Ist einfach ne Kostenfrage. Gibt ja genug Automotivhersteller, die in die gleiche Richtung arbeiten wie nVidia, nur eben wohl billiger.

Mancko
2015-10-11, 15:43:10
Never ever!

Wenn es sowas geben wird, dann wirds deutlich teurer. Unter 500€ würd ich sowas echt nicht erwarten wollen...

nVidia muss doch das 'Premium Image' irgendwie aufrecht erhalten. Da gehen doch solch niedrigen Preise nicht!

In erster Linie muss Nvidia Geld verdienen und das geht mit solch niedrigen Preisen nicht. AMD gibt hier täglich ein warnendes Beispiel, denn die verdienen seit Jahren keinen Cent und sind ein Fall für den Insolvenzverwalter.

Hübie
2015-10-11, 15:51:58
Stimmt. Da kommt ja ein nackter Die auf den Interposer, kein Package. Also für Interposer auf PCB wären ~2700 Pins imo zuviel. Was soll da groß durchgehen? Könnte dann letztendlich doch nur der Interposer für NVLink sein. Der muss deutlich mehr Pins haben.

Edit: Geld verdient man entweder über Masse oder über Klasse. Die 970 war rentabler als die 980 weil man hier einfach preislich einen Nerv getroffen hat. Wer hätte damit schon gerechnet? Natürlich will ich damit jetzt keinerlei Illusionen schüren, dass eine HBM-Karte für <500€ käme, aber für unter 500 wird man künftig wohl 980 Ti Niveau kaufen können. Im Grunde muss man das aktuelle Portfolio nur eine Stufe hinunter schieben und oben etwas neues dazu spinnen.
Dann hat man zumindest erst mal den konstanten Umsatzerlös, den es zu erreichen gilt.

Ich denke Pascal wird außerdem mit Wakü kommen. Was den Preis wohl mindestens auf 980 Ti-Niveau halten müsste.

maguumo
2015-10-11, 16:00:33
Stimmt. Da kommt ja ein nackter Die auf den Interposer, kein Package. Also für Interposer auf PCB wären ~2700 Pins imo zuviel. Was soll da groß durchgehen? Könnte dann letztendlich doch nur der Interposer für NVLink sein. Der muss deutlich mehr Pins haben.
Wie "nur" der Interposer? Über die relativ hohe Pinanzahl vom vermeintlichen GM200 Package wurde hier auch schon spekuliert, könnt evtl. einfach nur durch die für NVLink zusätzlich nötigen Kontakte bedingt sein. Fiji hat 2021 Kontakte.

HOT
2015-10-11, 16:06:54
Würd auch sagen, dass der kleine Chip irgendein SoC ist und der große definitv GP100. 4 NV-Links + das was für Fiji nötig war passt doch gut zusammen.

Hübie
2015-10-11, 16:13:47
Wie "nur" der Interposer? Über die relativ hohe Pinanzahl vom vermeintlichen GM200 Package wurde hier auch schon spekuliert, könnt evtl. einfach nur durch die für NVLink zusätzlich nötigen Kontakte bedingt sein. Fiji hat 2021 Kontakte.

GM200 hat ja auch bis zu 24 DRAM Chips. Kann sich dann ja nur um das Pinout von NVLink handeln, würde ich sagen.

maguumo
2015-10-11, 16:19:56
Sorry, meinte natürlich GP100, nicht GM200.

Godmode
2015-10-11, 17:52:54
Öhm. Godmode? Wie kommen denn Signale von der GPU zum DRAM wenn nicht über Pins? Per Funk? GPU sitzt auf Interposer, DRAM auch und Interposer auf PCB. Letzterer dürfte deutlich weniger Pins haben, da hier wenig externe Kommunikation statt findet, im Vergleich zu "onchip".



Der Die sitzt mit den HBMs auf dem Interposer. Der Interposer sitzt auf dem Package oder Substrat. Die Pins von denen wir die ganze Zeit sprechen, sind die Substrat oder Package Pins.

Dural
2015-10-11, 17:58:27
gp104 wird ziemlich sicher hbm haben, alles andere macht doch gar keinen sinn.

Godmode
2015-10-11, 18:02:33
Es kommt ganz drauf an, um wieviel GP104 gegenüber GM204 zulegt. Man könnte durchaus noch schnellere RAMs verbauen und bei einem 256 Bit SI bleiben. Sollte das nicht ausreichen, müsste man auf 384 Bit erhöhen und da stellt sich dann doch die Frage, ob das für eine Mainstream GPU nicht zu teuer ist, bzw. zu viel zum Stromverbrauch beiträgt. Es wird wohl eine einfache Kosten/Nutzenrechnung ob HBM oder normales GDDR5.

StefanV
2015-10-11, 18:08:14
Micron hat doch letztens GDDR5x gehabt. Dafür muss es ja auch 'nen Einsatzzweck geben...
Was bietet sich da besser an als 'ne nV GPU?!

Skysnake
2015-10-11, 18:20:37
In erster Linie muss Nvidia Geld verdienen und das geht mit solch niedrigen Preisen nicht. AMD gibt hier täglich ein warnendes Beispiel, denn die verdienen seit Jahren keinen Cent und sind ein Fall für den Insolvenzverwalter.
AMD verdient schon was pro Chip, Sie setzen nur zu wenige davon ab. Das ist das Problem von AMD seit Jahren.

Mancko
2015-10-11, 18:33:38
AMD verdient schon was pro Chip, Sie setzen nur zu wenige davon ab. Das ist das Problem von AMD seit Jahren.

Die Marge liegt fast 30% unter der von Nvidia. In Summe verdienen die nichts pro Chip -alle Kosten reingerechnet und genau das ist deren Problem. Bei der aktuellen Marge nützt auch keine größere Masse mehr was. Das ist alles nur ein Tropfen auf den heißen Stein. Aber hier gehts um Pascal. Meine Antwort war bewusst auf StefanV's üblichen sinnlosen Kommentar bezogen.

Godmode
2015-10-11, 18:35:24
@Margen: Bitte beim Thema bleiben, dass geht schon wieder völlig OT.

Rampage 2
2015-10-11, 20:09:38
Es kommt ganz drauf an, um wieviel GP104 gegenüber GM204 zulegt. Man könnte durchaus noch schnellere RAMs verbauen und bei einem 256 Bit SI bleiben. Sollte das nicht ausreichen, müsste man auf 384 Bit erhöhen und da stellt sich dann doch die Frage, ob das für eine Mainstream GPU nicht zu teuer ist, bzw. zu viel zum Stromverbrauch beiträgt. Es wird wohl eine einfache Kosten/Nutzenrechnung ob HBM oder normales GDDR5.

Also entweder 256Bit + GDDR5X (= 300+ GB/sek. Bandbreite) mit maximal 8GB Speicherausbau oder aber 384Bit + GDDR5 (= 300+ GB/sek. Bandbreite) mit 6GB und 12GB Speicherausbau - was wäre sinnvoller?

R2

mczak
2015-10-12, 00:03:01
Es kommt ganz drauf an, um wieviel GP104 gegenüber GM204 zulegt. Man könnte durchaus noch schnellere RAMs verbauen und bei einem 256 Bit SI bleiben.
8 gbps gddr5 sollten gehen (werden ja angeblich seit fast einem Jahr sowohl von Samsung wie auch hynix schon verkauft...), das sind aber gerade mal 14% mehr als die 7gbps die GM204 verwendet.
Damit könnte man übrigens auch 8GB Karten (bei 256bit SI) mit nur bloss 8 Chips bauen, sind doch zumindest die von Samsung angeblich seit einem Jahr verkauften 8 gbps Chips solche mit 8 Gb, daran sollte es also nicht scheitern. Aber Maxwell ist IMHO schon extrem bandbreiteneffizient ich weiss nicht ob sich das mit Pascal gross steigern lässt (grösserer L2 Cache würde sicher helfen die Frage ist bloss wieviel).

AffenJack
2015-10-12, 00:19:16
Also entweder 256Bit + GDDR5X (= 300+ GB/sek. Bandbreite) mit maximal 8GB Speicherausbau oder aber 384Bit + GDDR5 (= 300+ GB/sek. Bandbreite) mit 6GB und 12GB Speicherausbau - was wäre sinnvoller?

R2

Wenn schon kein HBM, dann eher wohl GDDR5X. Mit 10Gbps der in H2 verfügbar sein soll hätte man immerhin 320Gb/s an Bandbreite. Das ginge klar. 384Bit wirst du bei einem GP104 Chip glaube ich nicht sehen, denn der Chip dürfte wieder in GK104 Größenregionen sein so ~300 mm². Da wirds mit 384 Bit schon kompliziert.

Rampage 2
2015-10-12, 00:45:13
8 gbps gddr5 sollten gehen (werden ja angeblich seit fast einem Jahr sowohl von Samsung wie auch hynix schon verkauft...), das sind aber gerade mal 14% mehr als die 7gbps die GM204 verwendet.
Damit könnte man übrigens auch 8GB Karten (bei 256bit SI) mit nur bloss 8 Chips bauen, sind doch zumindest die von Samsung angeblich seit einem Jahr verkauften 8 gbps Chips solche mit 8 Gb, daran sollte es also nicht scheitern. Aber Maxwell ist IMHO schon extrem bandbreiteneffizient ich weiss nicht ob sich das mit Pascal gross steigern lässt (grösserer L2 Cache würde sicher helfen die Frage ist bloss wieviel).

Wenn GP100 wirklich 6144 SPs hat, dann kann man davon ausgehen, dass GP104 3000-4000 SPs hat - dann wären 384Bit @ GDDR5 gar nicht mehr so übertrieben...

Nur stellt sich dann die Frage, ob NV dann eine 12GB-Version davon rausbringt...

R2

Nightspider
2015-10-12, 01:59:15
GDDR5X dürfte zu spät für GP104 kommen imo. Micron plant erste Produkte in der 2.H16.


Pascal wird verdammt Teuer, da ist die Fury Karte Pinats dagegen!

Das Wort was du gesucht hast war Peanuts!

horn 12
2015-10-12, 08:02:12
Fakt ist das AMD diesesmal NV einen gewaltigen Schritt voraus ist und bereits Produkte ausliefert und weiter in nicht allzulanger Zukunft folgen werden!
Dennoch GTX 970 Nachfolger wohl nicht vor der Cebit und auch da denke ich wird es schwierig werden. Rechne erst mit April bis Mai für dessen Nachfolger.
Jener wird vielleicht knapp über/ oder gar unter GTX 980TI rauskommen.

Dural
2015-10-12, 09:09:29
Man könnte meinen das HBM weis nicht was ist. Nur so zur Info, weder AMD noch NV stellen diesen selber her und sie packen es auch nicht selber auf den Chip.

Das einzige was NV vergeigen kann ist wohl der neue Speicherkontroller.

Ailuros
2015-10-12, 09:31:25
Fakt ist das AMD diesesmal NV einen gewaltigen Schritt voraus ist und bereits Produkte ausliefert und weiter in nicht allzulanger Zukunft folgen werden!

Welches AMD genau fuer was nutzt? Ein gewaltiger Schritt waere es fuer AMD gewesen wenn Fiji auch gleichzeitig eine gewaltige DP Schleuder waere wofuer sie auch effektiv die vorhandene Bandbreite einsetzen koennte und damit haette NV auch automatisch ein ziemlich groesseres Problem im HPC Markt gehabt denn gegen so etwas steht ihr GK200 Zeug ziemlich schlecht da. Sonst liefert Fiji heute eigentlich gar nichts besonderes und dagegen haelt sich GM200 mehr als nur anstaendig und wird auch mit Wucherpreisen als TitanX u.a. verkauft.

Das mit der tollen Zukunft und den gleichzeitig uebermaessig fehlenden resources bei AMD musst Du Dir mal selber erklaeren, denn sooo schnell kommen neue GPUs von denen wirklich auch nicht, was wohl mal wieder zeigt dass Du alleine mit Deiner merkwuerdigen Euphorie diesbezueglich bist.

Dennoch GTX 970 Nachfolger wohl nicht vor der Cebit und auch da denke ich wird es schwierig werden. Rechne erst mit April bis Mai für dessen Nachfolger.
Jener wird vielleicht knapp über/ oder gar unter GTX 980TI rauskommen.

Da dieses ueber etliche Zeiten mehr oder weniger schon vermittelt wurde ist es wirklich nichts mehr Neues selbst als Spekulation.

Hübie
2015-10-12, 09:48:12
gp104 wird ziemlich sicher kein hbm haben, alles andere macht doch gar keinen sinn.

ftfy =)

Dural
2015-10-12, 10:04:24
wir werden es ja sehen ;)

Unicous
2015-10-12, 10:08:49
ftfy =)

Hier gehen viele nach der Devise: Auch ein Blinder trinkt mal 'nen Korn.:wink:

Godmode
2015-10-12, 10:13:38
Also entweder 256Bit + GDDR5X (= 300+ GB/sek. Bandbreite) mit maximal 8GB Speicherausbau oder aber 384Bit + GDDR5 (= 300+ GB/sek. Bandbreite) mit 6GB und 12GB Speicherausbau - was wäre sinnvoller?

R2

Eventuell spendiert man Pascal eine nochmals verbesserte Texturkompression und größere Caches, wodurch die erzielte Bandbreite mit GDDR5/5X dann eventuell ausreichen könnte. An ein 384 Bit SI glaube ich am wenigsten, da kommt eher noch HBM als das.

Dural
2015-10-12, 10:27:52
Es macht weder Wirtschaftlich (Umso höher die Menge umso Tiefer der Preis) noch Technisch (HBM Vorteile) Sinn bei GP104 auf GDDR5 zusetzten, es würde mich extrem Wundern wenn NV diesen Schritt gehen würde. Zudem GP104 wohl ca. 300-400GB/s Bandbreite haben müsste, und dies würde mit GDDR5 derzeit nur mit 384Bit gehen.

Die 1000MHz wird NV wohl nicht voll ausfahren, wenn wir mal mit 800MHz rechnen kommt das alles ganz gut hin:

GP100 / 16GB / 800GB/s
GP100 / 12GB / 600GB/s
GP104 / 8GB / 400GB/s

Ailuros
2015-10-12, 10:30:44
Eventuell spendiert man Pascal eine nochmals verbesserte Texturkompression und größere Caches, wodurch die erzielte Bandbreite mit GDDR5/5X dann eventuell ausreichen könnte. An ein 384 Bit SI glaube ich am wenigsten, da kommt eher noch HBM als das.

Alles ist nie umsonst; der Trick fuer den hw designer ist eben die Kombination zu finden die effizienter ist und gleichzeitig sich mit geringster Umstaendlichkeit sich realisieren laesst.

Ich akzeptier ja gerne dass die Zauba Indizien wohl doch eher in Richtung HBM deuten, ich hab aber nach wie vor eine Reihe an Fragezeichen wieso sich dieses besser lohnen sollte. Wieviel ROPs soll denn der hypothetische GP104+HBM Loesung genau haben? 96 bei 3072bits? :freak:

Timbaloo
2015-10-12, 10:51:46
Ich verstehe nicht worauf du hinaus willst. Wieviel ROPs erwartest du für GP100+HBM? Und was wäre bei einem entsprechend runterskalierten GP104+HBM dann so ":freak:"?

Ailuros
2015-10-12, 10:58:42
Ich verstehe nicht worauf du hinaus willst. Wieviel ROPs erwartest du für GP100+HBM? Und was wäre bei einem entsprechend runterskalierten GP104+HBM dann so ":freak:"?

ROPs sind relativ teuer in hw; dass NV ROPs vom MC entkoppelt glaube ich erst wenn ich es sehe. Ergo bin ich neugierig inwiefern HBM wirklich ein Gewinn ist am Ende. GP100 duerfte unter normalen Umstaenden bei 128 sein und natuerlich eher am unteren Ende der SPs die bisher spekuliert werden.

Timbaloo
2015-10-12, 11:16:43
ROPs sind relativ teuer in hw; dass NV ROPs vom MC entkoppelt glaube ich erst wenn ich es sehe.
ROPs müssen doch nicht zwangsläufig vom MC getrennt werden, es würde ja reichen wenn man das Verhältnis ROP/MC reduziert. Von Kepler auf Maxwell hat man es gesteigert, jetzt geht man (für HBM-Anwendungen) wieder in die andere Richtung. Was übersehe ich?

Ailuros
2015-10-12, 11:31:02
ROPs müssen doch nicht zwangsläufig vom MC getrennt werden, es würde ja reichen wenn man das Verhältnis ROP/MC reduziert. Von Kepler auf Maxwell hat man es gesteigert, jetzt geht man (für HBM-Anwendungen) wieder in die andere Richtung. Was übersehe ich?

Gar nichts; denn es gibt wohl nicht nur die Moeglichkeit einer Reduzierung der ROP Anzahlen insgesamt sondern vielleicht auch bei anderen Einheiten. Ich weiss zwar nicht wer dieser Ext3h Kerl ist, aber er scheint schon zu wissen wo es langgeht: https://forum.beyond3d.com/threads/nvidia-pascal-speculation-thread.55552/page-6

Die "andere Richtung" wird womoeglich schon in einigen Faellen an Leistung kosten.

horn 12
2015-10-12, 13:54:27
Nun, lassen wir uns überraschen...
In 6 bis 12 Monaten wissen wir ALLE mehr :-)

Nakai
2015-10-12, 14:15:28
Wenn man GP104 als Highend-Brocken verkaufen kann, wird das Ding ziemlich sicher HBM besitzen.

:)

Godmode
2015-10-12, 14:20:47
Wenn man GP104 als Highend-Brocken verkaufen kann, wird das Ding ziemlich sicher HBM besitzen.

:)

Ich rechne ja immer noch mit GP104 2016 und GP100 dann 2017 für Endkunden. Wenn sie noch einen Hunderter drauflegen, sind wir ja schon bei 700 Euro und da könnte man dann dem Kunden schon etwas HBM vergönnen. :freak:

HOT
2015-10-12, 16:04:45
GP100 -> Servermodul Q2 2016, anfangs mit 4GB HBM1, später im Jahr dann mit HBM2 und als PCIe-(Profi/Titan)-Variante
GP104 -> Anfang 2017 HBM2
GP106 -> Anfang 2017 HBM2
GP107 -> Anfang 2017 HBM2
GP110 -> Mitte 2017 mit HBM2 (GP100 Refresh)

Volta -> 2018 16nm + HBM2

Da kommt nicht ein Grafikchip mehr mit GDDR5 meiner Ansicht nach, da die Interposer + HBM mit der Zeit und Masse sicherlich billiger sind.

Hübie
2015-10-12, 16:21:14
Im HPC brauchst du gar nicht mit 4 GB antanzen. Das versaut dir jede Arbeit. Das kann ich dir versichern.

Godmode
2015-10-12, 16:29:22
GP100 -> Servermodul Q2 2016, anfangs mit 4GB HBM1, später im Jahr dann mit HBM2 und als PCIe-(Profi/Titan)-Variante
GP104 -> Anfang 2017 HBM2
GP106 -> Anfang 2017 HBM2
GP107 -> Anfang 2017 HBM2
GP110 -> Mitte 2017 mit HBM2 (GP100 Refresh)

Volta -> 2018 16nm + HBM2

Da kommt nicht ein Grafikchip mehr mit GDDR5 meiner Ansicht nach, da die Interposer + HBM mit der Zeit und Masse sicherlich billiger sind.

Ich würde es so sehen:

GP100 -> Q2-Q3 2016 als HPC Variante 16-32 GB HBM2
GP104 -> 2016 Q3-Q4 8 GB HBM2 oder 8 GB GDDR5X mit 256bit SI
GP100 -> 2017 Q1-Q2 als Titan mit 16 GB HBM2
GP100 -> 2017 Q2-Q3 als 980 Ti Ersatz, 6-8 GB HBM2, je nach SI Größe


Im HPC brauchst du gar nicht mit 4 GB antanzen. Das versaut dir jede Arbeit. Das kann ich dir versichern.

Sehe ich auch so.

Nakai
2015-10-12, 18:36:31
Ihr müsst das auch wirtschaftlich sehen. Jegliche GPUs laufen mindestens immer 2 Jahre+. Maxwell hat etwas mehr als ein 1 Jahr auf dem Buckel.
Pascal rollt imo erst ab H2 2016 aus.

Tamagothi
2015-10-12, 18:44:23
Es könnte doch theoretisch ein GP107 bald geben? in 28/16nm ?

Die GTX 750 hat schon ne zeit auf dem Buckel.

Rampage 2
2015-10-12, 20:12:15
Ihr müsst das auch wirtschaftlich sehen. Jegliche GPUs laufen mindestens immer 2 Jahre+. Maxwell hat etwas mehr als ein 1 Jahr auf dem Buckel.
Pascal rollt imo erst ab H2 2016 aus.

Ich gehe weiterhin von Q2 2016 aus für erste kaufbare Consumer-Versionen von Pascal - also Paperlaunch im März 2016 und erste kaufbare Produkte dann ein paar Monate später.

R2

maguumo
2015-10-12, 20:21:10
Ihr müsst das auch wirtschaftlich sehen. Jegliche GPUs laufen mindestens immer 2 Jahre+. Maxwell hat etwas mehr als ein 1 Jahr auf dem Buckel.
Pascal rollt imo erst ab H2 2016 aus.
Maxwell war nur ein (notwendiger) Zwischenschritt um aus 28nm noch was rauszuquetschen da 20nm wegfiel. Nvidia (und auch AMD) werden so schnell wie (wirtschaftlich) möglich GPUs auf dem neuen Prozess liefern wollen, einfach weil sie sich im Wettbewerb miteinander befinden.


GP100 -> 2017 Q2-Q3 als 980 Ti Ersatz, 6-8 GB HBM2, je nach SI Größe

4, 8 oder 16GB solange das SI nicht beschnitten wird.

sulak
2015-10-12, 20:30:04
Das gleiche sagt man doch auch zu Pascal, ist nur ein Zwischenschritt zu Volta... Pascal nur für GP200 und der "Rest" als Maxwell Refresh mit neuer Nummer als GP104 geht auch ;D

Vielleicht taucht der kleine Pascal GP107 früher, wie bei Maxwell auf. Ist 16nm für GPUs schon "RampUp"?

maguumo
2015-10-12, 20:35:40
Nicht wirklich vergleichbar, Volta soll auf 10nm kommen

sulak
2015-10-12, 20:47:19
Naja doch, 2014 hat man Volta offiziell nach Hinten verschoben, wohl auch wegen des Deals mit IBM und dem 2 Supercomputern für das Energieministerium.
Seit 20nm gecanceld wurde blickt man eh nicht mehr durch. Im Januar ist wieder CES dann darf Hynix zeigen ob HBM2 Marktreif ist und was es an Varianten geben wird. Darauf basierend würde ich mit dem großen Pascal rechnen.

horn 12
2015-10-12, 21:36:15
TSMC Produziert 16nm Verfahren und in Massenproduktion:

http://wccftech.com/tsmc-ramping-volume-production-16nm-finfet-pure-play-foundry-growth-6-1/

HOT
2015-10-12, 23:07:11
Aber nur FF, nicht FF+ wie es aussieht.

Der kleine Chip, der bei Zauba gesichtet wurde, wird der 14 LPE-Samsung-Tegra sein, würde zeitlich gut passen.

Ailuros
2015-10-13, 09:00:20
Ich rechne ja immer noch mit GP104 2016 und GP100 dann 2017 für Endkunden. Wenn sie noch einen Hunderter drauflegen, sind wir ja schon bei 700 Euro und da könnte man dann dem Kunden schon etwas HBM vergönnen. :freak:

Arun hat sich bei B3D schon darueber selber gefragt und er hat auch recht....wieso "muss" GP100 ueberhaupt fuer den Endkunden ankommen? Ich weiss ja ehrlich nicht wieviele Teslas und Quadros sie verkaufen, aber ist die Anzahl hoch genug wird es irgendwann schon Zeit an einen HPC only chip zu denken. Jetzt schon oder spaeter? Mit Pascal oder erst mit Volta?

Sonst gerechtfertigt das obrige HBM fuer "GP104" auch nicht; das einzige was IMHO Sinn macht ist fast parallele Entwicklung zwischen den beiden chips.

Ailuros
2015-10-13, 09:02:01
Aber nur FF, nicht FF+ wie es aussieht.

Der kleine Chip, der bei Zauba gesichtet wurde, wird der 14 LPE-Samsung-Tegra sein, würde zeitlich gut passen.

16FF ist tot afaik. Parker ist 16FF+ afaik.

Godmode
2015-10-13, 09:23:07
Arun hat sich bei B3D schon darueber selber gefragt und er hat auch recht....wieso "muss" GP100 ueberhaupt fuer den Endkunden ankommen? Ich weiss ja ehrlich nicht wieviele Teslas und Quadros sie verkaufen, aber ist die Anzahl hoch genug wird es irgendwann schon Zeit an einen HPC only chip zu denken. Jetzt schon oder spaeter? Mit Pascal oder erst mit Volta?

Sonst gerechtfertigt das obrige HBM fuer "GP104" auch nicht; das einzige was IMHO Sinn macht ist fast parallele Entwicklung zwischen den beiden chips.

Ich würde eine getrennte Entwicklung HPC/Consumer jedenfalls begrüßen. Mir ist ein GM200 zum Spielen allemal lieber, als ein GK110 mit dem ganzen HPC Ballast. Andererseits spart man mit einer gemeinsamen Chipbasis doch einiges an Entwicklungskosten ein und wie du schon richtig sagtest, hängt das wohl nur von der Zahl der Abnehmer ab.

Es wäre interessant zu wissen, wieviel mehr Chipfläche die neuen Mixed-Precission ALUs haben, verglichen mit den ALUs von GM200. Wenn man GM204 einfach nur mehr Einheiten spendiert, könnte man diesen eventuell annähernd verdoppelt in 16ff unterbringen. Das wären dann 4096 SPs bei ca. 10 Mrd. Transistoren. Das Ding könnte doppelt so schnell wie GM204 sein und auch auf GM200 um einen guten Prozentsatz überholen. HBM wäre dabei dann allerdings fast Pflicht, sonst verhungert das arme Ding.

Zusätzlich könnten sie dann noch einen Nachfolger für GM200 bringen, also nur Single Precission, dafür aber 6000 SPs.

Man hätte somit für alle Anwendungsgebiete einen entsprechenden Chip

GP100: 2016 HPC und Quadro, HBM
GP204: 2016 SP only für Spieler, Nachfolger für GM204, HBM
GP200: 2017 SP only Variante von GP100, Hauptsächlich für Spieler; eventuell auch für spezielle HPC Probleme interessant, oder als Quadro. HBM

Ailuros
2015-10-13, 09:37:40
Ich würde eine getrennte Entwicklung HPC/Consumer jedenfalls begrüßen. Mir ist ein GM200 zum Spielen allemal lieber, als ein GK110 mit dem ganzen HPC Ballast. Andererseits spart man mit einer gemeinsamen Chipbasis doch einiges an Entwicklungskosten ein und wie du schon richtig sagtest, hängt das wohl nur von der Zahl der Abnehmer ab.

Bis zu Kepler reichte das Volumen nicht die R&D Kosten zu decken. Von da ab *schulterzuck*

Es wäre interessant zu wissen, wieviel mehr Chipfläche die neuen Mixed-Precission ALUs haben, verglichen mit den ALUs von GM200.

Ich wuerde auf minimalen bis gar keinen Unterschied wetten. Ich erinerre dass das Zeug schon in der Tegra X1 Maxwell GPU steckt und sie da auch nicht ueber besondere Laengen dafuer gegangen sind. Wie der Herr bei B3D schon sagte kann es durchaus sein dass sie tatsaechlich diesmal keine dedizierte FP64 SPs haben, wobei es dann auf 1:3 kommt. Man spart von der einen Seite in dem Fall den Platz fuer die dedizierten FP64 ALUs, braucht aber dann womoeglich etwas fuer Verleitungen wieder ergo ein komisches +/-.


Wenn man GM204 einfach nur mehr Einheiten spendiert, könnte man diesen eventuell annähernd verdoppelt in 16ff unterbringen. Das wären dann 4096 SPs bei ca. 10 Mrd. Transistoren. Das Ding könnte doppelt so schnell wie GM204 sein und auch auf GM200 um einen guten Prozentsatz überholen. HBM wäre dabei dann allerdings fast Pflicht, sonst verhungert das arme Ding.

Zusätzlich könnten sie dann noch einen Nachfolger für GM200 bringen, also nur Single Precission, dafür aber 6000 SPs.

Man hätte somit für alle Anwendungsgebiete einen entsprechenden Chip

GP100: 2016 HPC und Quadro, HBM
GP204: 2016 SP only für Spieler, Nachfolger für GM204, HBM
GP200: 2017 SP only Variante von GP100, Hauptsächlich für Spieler; eventuell auch für spezielle HPC Probleme interessant, oder als Quadro. HBM

Ich sehe eine 4 und eine 6 fuer die GP100 SP Anzahl aber danach wird es nebelig :P Da wo ich den Denkfehler verdaechtige ist der Gedanke dass AMD auch mit FF Prozessen wieder zu >500mm2 dies greifen wird. Wenn ja ok braucht NV eine ganz andere Strategie; sonst aber wenn AMD wie vor Fiji bei 350-400+mm2 halt macht gibt es keinen besonderen Grund so aggressiv anzutanzen. Gut anstatt TitanX Nachfolger werden sich Enthusiasts wohl dann mit $999 mGPU Dingsbums befriedigen muessen :P

Godmode
2015-10-13, 10:26:21
Ich wuerde auf minimalen bis gar keinen Unterschied wetten. Ich erinerre dass das Zeug schon in der Tegra X1 Maxwell GPU steckt und sie da auch nicht ueber besondere Laengen dafuer gegangen sind. Wie der Herr bei B3D schon sagte kann es durchaus sein dass sie tatsaechlich diesmal keine dedizierte FP64 SPs haben, wobei es dann auf 1:3 kommt. Man spart von der einen Seite in dem Fall den Platz fuer die dedizierten FP64 ALUs, braucht aber dann womoeglich etwas fuer Verleitungen wieder ergo ein komisches +/-.

Wenn die neuen ALUs nicht wirklich mehr Platz benötigen, warum denkt man dann über eine getrennte Entwicklung nach?

Ich sehe eine 4 und eine 6 fuer die GP100 SP Anzahl aber danach wird es nebelig :P

Wenn die 4 vorne steht, ist es genau das was man nüchtern erwarten kann. Wenn die 6 vorne steht, wäre es wieder ein sehr großer Sprung nach vorne.

Da wo ich den Denkfehler verdaechtige ist der Gedanke dass AMD auch mit FF Prozessen wieder zu >500mm2 dies greifen wird. Wenn ja ok braucht NV eine ganz andere Strategie; sonst aber wenn AMD wie vor Fiji bei 350-400+mm2 halt macht gibt es keinen besonderen Grund so aggressiv anzutanzen.

AMD ist ja auch gezwungen große Chips zu bauen, also ich sehe jetzt keinen Grund, warum sie zurück zu den 350-400mm2 Dies gehen sollten?

Gut anstatt TitanX Nachfolger werden sich Enthusiasts wohl dann mit $999 mGPU Dingsbums befriedigen muessen :P

Mit mGPU kann man aber auch nicht mehr viele Leute zu einem Kauf bewegen. Mittlerweile weiß fast jeder, dass mGPU - so wie es jetzt implementiert ist - absoluter Mist ist. Ich musste mir meine SLI-Systeme immer schön reden. Klar gibt es viele Spiele wo SLI gut skaliert und keine Probleme macht, aber insgesamt ist es ja doch nur ein Gefrickel. Ich hoffe ich kann bei der nächsten Generation widerstehen und bleibe bei einer einzelnen Grafikkarte.

Ailuros
2015-10-13, 10:44:02
Wenn die neuen ALUs nicht wirklich mehr Platz benötigen, warum denkt man dann über eine getrennte Entwicklung nach?

Wenn sie so etwas entschieden haben dann schon vor einiger Zeit. Das ganze zu trennen setzt erstmal genug HPC/workstation Verkaufsvolumen vor; hat man dieses irgendwo erreicht (?) muss man auch wirklich nicht mir nichts dir nichts GP100 beim desktop veroeffentlichen.

Dass mit den ALUs gilt ja auch wirklich nur zwischen Pascal und Maxwell; zwischen GP100 und "GP104" sollte es schon einen Unterschied pro ALU geben; egal ob dedizierte FP64 SPs oder nicht, mehr die area brauchen sie fuer DP und es wird wohl kein 1:3 oder kleineres Verhaeltnis beim performance chip geben.

Wenn die 4 vorne steht, ist es genau das was man nüchtern erwarten kann. Wenn die 6 vorne steht, wäre es wieder ein sehr großer Sprung nach vorne.

Nach NV's eigenen roadmaps:

Maxwell = 25 GFLOPs/W
3072 * 2 FLOPs * 1GHz = 6.144 TFLOPs / 250W = 24.6 GFLOPs/W

Pascal = 35 GFLOPs/w
250 W * 35 GFLOPs = 8.75 TFLOPs FP32, 17.5 TFLOPs FP16 und womoeglich 2.92 TFLOPs FP64 bzw. ~12 GFLOPs DP/W


AMD ist ja auch gezwungen große Chips zu bauen, also ich sehe jetzt keinen Grund, warum sie zurück zu den 350-400mm2 Dies gehen sollten?

Lack of resources?

Mit mGPU kann man aber auch nicht mehr viele Leute zu einem Kauf bewegen. Mittlerweile weiß fast jeder, das mGPU - so wie es jetzt implementiert ist - absoluter Mist ist. Ich musste mir meine SLI-System immer schön reden. Klar gibt es viele Spiele wo SLI gut skaliert und keine Probleme macht, aber insgesamt ist es ja doch nur eine Gefrickel. Ich hoffe ich kann bei der nächsten Generation widerstehen und bleibe bei einer einzelnen Grafikkarte.

Der Paragraph ist leider zu gross um ihn in meine Unterschrift fest zu mauern :P

ndrs
2015-10-13, 10:45:01
Wenn die neuen ALUs nicht wirklich mehr Platz benötigen, warum denkt man dann über eine getrennte Entwicklung nach?
ROPs, TMUs, Video-Codec-Dingens, Display-Out, ... Das alles braucht Chipfläche, die man in noch mehr ALUs, Speicherinterfaces, Caches, ... investieren könnte.

-/\-CruNcher-/\-
2015-10-13, 11:11:16
Arun hat sich bei B3D schon darueber selber gefragt und er hat auch recht....wieso "muss" GP100 ueberhaupt fuer den Endkunden ankommen? Ich weiss ja ehrlich nicht wieviele Teslas und Quadros sie verkaufen, aber ist die Anzahl hoch genug wird es irgendwann schon Zeit an einen HPC only chip zu denken. Jetzt schon oder spaeter? Mit Pascal oder erst mit Volta?

Sonst gerechtfertigt das obrige HBM fuer "GP104" auch nicht; das einzige was IMHO Sinn macht ist fast parallele Entwicklung zwischen den beiden chips.

Das hab ich mir auch schon überlegt es würde eigentlich keinen Sinn machen wenn die Konsolen so lange leben sollten wie angekündigt reicht die Power von GM200 und Fijis höchsten SKUs erstmal für eine sehr lange Zeit vollkommen aus mit DX 12 und Vulkan.
Wirtschaftlich betrachtet würde es keinen großen sinn machen noch mehr Performance in den Consumer Markt zu drücken selbst nicht für die Zielgriuppe Hardcore Gamer.
Deswegen könnte ich mir gut vorstellen das sie diesmal die Consumer line schmälern und da den Preis doch anziehen.
AMD wird wohl so ähnlich vorgehen die ersten anzeichen hat man ja schon mit Fiji release gesehen.

Also könnte schon hinkommen das Pascal nicht Maxwell ersetzen wird sondern nur oben drauf auf die Preispirale gepapt wird, was wenn wir glück haben aber zumindestens die Performance SKU noch so einigermasen ersschwinglich machen würde.
Oder aber Nvidia überrascht und lässt sich die HBM Kosten vollständig durch die HPC Kundschaft ausgleichen auch um AMD etwas weiter unter Druck zu seten die es sich ja hauptsächlich durch die Gamer wieder rein holen müssen :)

Nvidia muss auch immernoch Kompetitiv im VR Markt bleiben wenn sich dort das fehlen von effizientem AC als größeres Problem darstellen sollte für GameWorks VR müssen sie das irgendwie kompensieren gegen LiquidVR, letztendlich geht das nur über Efficiency oder Preis.

Hübie
2015-10-13, 11:27:40
Arun hat sich bei B3D schon darueber selber gefragt und er hat auch recht....wieso "muss" GP100 ueberhaupt fuer den Endkunden ankommen? Ich weiss ja ehrlich nicht wieviele Teslas und Quadros sie verkaufen, aber ist die Anzahl hoch genug wird es irgendwann schon Zeit an einen HPC only chip zu denken. Jetzt schon oder spaeter? Mit Pascal oder erst mit Volta?

Sonst gerechtfertigt das obrige HBM fuer "GP104" auch nicht; das einzige was IMHO Sinn macht ist fast parallele Entwicklung zwischen den beiden chips.

Schau dir den Absatz von GK110 als Tesla an und schau dir selbigen als GeForce an. Jetzt frage ich: warum soll GP100 nicht als Gamerchip kommen? :naughty: Ich rechne jedoch mit einem stärkeren Zeitloch zwischen diesen beiden.
Also:
GP100 HPC mit HBM->Q2 2016 - konservativer Takt
GP104 (kein HBM!)->Q3 206 - 980 Ti non OC
GP100 GeForce->Q4 2016 - TX +35%

Die Gurken lass ich weg.

Ailuros
2015-10-13, 12:05:10
Schau dir den Absatz von GK110 als Tesla an und schau dir selbigen als GeForce an. Jetzt frage ich: warum soll GP100 nicht als Gamerchip kommen? :naughty: Ich rechne jedoch mit einem stärkeren Zeitloch zwischen diesen beiden.

Hilft mir ja nichts wenn ich nicht die blasseste Ahnung habe wieviel die Entwicklung eines GP100 genau gekostet hat. Wenn Jensen z.B. $1Mrd fuer N GPU Familie behauptete dann hat er auch wie immer sogar die Putzfrauen-Loehne in allen Gebaeuden mitgerechnet :P Dass Tesla/Quadro es schon finanzieren kann klingt zwar nicht unbedingt wahrscheinlich, aber der Umsatz fuer Profi-GPUs sollte auch steigen - selbst maessig.

Also:
GP100 HPC mit HBM->Q2 2016 - konservativer Takt
GP104 (kein HBM!)->Q3 206 - 980 Ti non OC
GP100 GeForce->Q4 2016 - TX +35%

Die Gurken lass ich weg.

Wieso sollte GP104 nicht frueher ankommen wenn es schon VIELLEICHT in Zauba Daten auftaucht?

Fuer's erste: unter 950-1000 erwarte ich den Takt nicht; wohl eher N weniger operative clusters welches historisch fuer die letzten Generationen schon ein Trend ist.

Godmode
2015-10-13, 12:22:29
Wenn sie so etwas entschieden haben dann schon vor einiger Zeit. Das ganze zu trennen setzt erstmal genug HPC/workstation Verkaufsvolumen vor; hat man dieses irgendwo erreicht (?) muss man auch wirklich nicht mir nichts dir nichts GP100 beim desktop veroeffentlichen.

Da kann man dann nur raten, weil das weiß wohl nur NV selber.


Dass mit den ALUs gilt ja auch wirklich nur zwischen Pascal und Maxwell; zwischen GP100 und "GP104" sollte es schon einen Unterschied pro ALU geben; egal ob dedizierte FP64 SPs oder nicht, mehr die area brauchen sie fuer DP und es wird wohl kein 1:3 oder kleineres Verhaeltnis beim performance chip geben.

Ich rate jetzt einfach mal wild herum und sage GP104 hat 4096 SP ALUs. So ein Chip könnte schneller als GP100 sein und trotzdem deutlich kleiner ausfallen. Mit 4096 SPs würde ich dann aber schon gerne HBM sehen. Das Ding würde sich dann auch als Titan verkaufen lassen für 999 USD. :freak:

4096 SPs * 2 FLOPs * 1,2GHz = 9.830 TFLOPs vs 6.144 TFLOPs bei GM200 = +60%
Eventuell zu optimistisch, weil das wären dann schon 39 GFLOPs/W.

Nach NV's eigenen roadmaps:

Maxwell = 25 GFLOPs/W
3072 * 2 FLOPs * 1GHz = 6.144 TFLOPs / 250W = 24.6 GFLOPs/W

Pascal = 35 GFLOPs/w
250 W * 35 GFLOPs = 8.75 TFLOPs FP32, 17.5 TFLOPs FP16 und womoeglich 2.92 TFLOPs FP64 bzw. ~12 GFLOPs DP/W

Ein GP100 wäre laut deiner Rechnung in FP32 gerade mal 42% schneller als ein GM200. Da wäre es dann wohl wirklich besser einen GP104 aufzulegen.

Lack of resources?

Natürlich möglich.


Der Paragraph ist leider zu gross um ihn in meine Unterschrift fest zu mauern :P

:tongue:

ROPs, TMUs, Video-Codec-Dingens, Display-Out, ... Das alles braucht Chipfläche, die man in noch mehr ALUs, Speicherinterfaces, Caches, ... investieren könnte.

Ja hast recht.

Ailuros
2015-10-13, 12:29:52
Waren es nicht 35 GFLOPs/W auf NV's letzter roadmap fuer Pascal? Wenn ja kann es auch nicht mehr sein innerhalb einer 250W TDP Grenze.

Nichtdestominder sind die 42% mehr FP32 throughput auf Papier eben so steril wie jegliche ausgekapselte Ziffer. Wenn das Ding jetzt sagen wir mal 2.5x Mal so viel Bandbreite hat heisst es auch nicht dass es um 2.5x Mal schneller sein wird.

Hübie
2015-10-13, 12:57:50
Tippfehler. GP104 = Q2 2016. Scheiß Tablet :rolleyes:

Ailuros
2015-10-13, 13:08:59
Tippfehler. GP104 = Q2 2016. Scheiß Tablet :rolleyes:

OT aber fuer mich ist es die absolute Hoelle auf den Dingern zu schreiben zu versuchen ;)

Agent117
2015-10-13, 13:20:27
Waren es nicht 35 GFLOPs/W auf NV's letzter roadmap fuer Pascal? Wenn ja kann es auch nicht mehr sein innerhalb einer 250W TDP Grenze.


So wenig? Maxwell hat doch schon 26 GFLOPs/W. Ist diese die aktuelle?
http://www.theplatform.net/wp-content/uploads/2015/03/nvidia-tesla-roadmap.jpg

Ich habe düster in Erinnerung, dass pascal mal mit 2x Perf/W beworben wurde. Das wurde dann später auf 1,67x Perf/W korrigiert. Wenn man die verlinkte Roadmap etwas optimistischer abliest kommt man auf ca. 40-42 GFLOPS/W, das würde zu den 1,67 passen.

Den Effizienzvorteil von HBM mit eingerechnet würden nur 35W/GFLOP doch bedeuten dass 16nm FF fast nichts bringt.
Selbst eine um 1,67 bessere Perf/W mit HBM kommt mir etwas wenig vor.
Musste man hier vlt doch die Architektur etwas umkrempeln und Effizienz opfern für GPUC?

Ailuros
2015-10-13, 13:54:13
So wenig? Maxwell hat doch schon 26 GFLOPs/W. Ist diese die aktuelle?
http://www.theplatform.net/wp-content/uploads/2015/03/nvidia-tesla-roadmap.jpg

Hmmmm duerfte die neueste sein, wobei diese aber nicht auf die theoretischen peak Werte bezieht sondern auf SGEMM/W (offensichtlich SP/W). Ob GM200 wirklich 24 GFLOPs/W erreicht? Egal Pascal liegt auf dem Ding tatsaechlich auf irgendwo 42 GFLOPs/W.

Ich habe düster in Erinnerung, dass pascal mal mit 2x Perf/W beworben wurde. Das wurde dann später auf 1,67x Perf/W korrigiert. Wenn man die verlinkte Roadmap etwas optimistischer abliest kommt man auf ca. 40-42 GFLOPS/W, das würde zu den 1,67 passen.

I stand corrected. 2x ist es mit Sicherheit nicht. Bei SGEMM kann man das Ganze schwer ausrechnen. Ergo liegt es wohl doch bei 10-11 TFLOPs SP.

Nakai
2015-10-13, 14:47:11
Hmmmm duerfte die neueste sein, wobei diese aber nicht auf die theoretischen peak Werte bezieht sondern auf SGEMM/W (offensichtlich SP/W). Ob GM200 wirklich 24 GFLOPs/W erreicht? Egal Pascal liegt auf dem Ding tatsaechlich auf irgendwo 42 GFLOPs/W.



I stand corrected. 2x ist es mit Sicherheit nicht. Bei SGEMM kann man das Ganze schwer ausrechnen. Ergo liegt es wohl doch bei 10-11 TFLOPs SP.

Mhh, NV geht doch mittlerweile auf MixedPrecision über. Nur so nebenbei, eine DP FPU ist schon fett und MixedPrecision macht vieles noch fetter. 6144 SPs klingen jedenfalls ziemlich nett, ob es wirklich so viele sind, ist eine andere Sache.

Ausgehend von GM200+MixedPrecision (mit hoher DP-Rate) und doppelter Packdichte dank Finfet sind 6144 SPs sicher möglich, aber nur mit einer hohen DieSize.

Godmode
2015-10-13, 14:47:40
Nichtdestominder sind die 42% mehr FP32 throughput auf Papier eben so steril wie jegliche ausgekapselte Ziffer. Wenn das Ding jetzt sagen wir mal 2.5x Mal so viel Bandbreite hat heisst es auch nicht dass es um 2.5x Mal schneller sein wird.

Naja ich erwarte jetzt von Pascal keine großartigen Verbesserungen der Architektur. Die größte Perf/W Steigerung erwarte ich mir vom Prozess. Kann schon sein, dass Pascal hier und da ein paar Prozent Verbesserung mit bringt. Die hauptsächliche Steigerung der Leistung sollte aber durch mehr Einheiten zustande kommen und eventuell etwas mehr Takt.

Kennt man also die Anzahl der Einheiten, würde man die Leistung relativ gut einschätzen können, unter der Annahme, dass meine These stimmt. (Pascal = Maxwell + HBM + Mixed FP + minimale Verbesserungen)


I stand corrected. 2x ist es mit Sicherheit nicht. Bei SGEMM kann man das Ganze schwer ausrechnen. Ergo liegt es wohl doch bei 10-11 TFLOPs SP.

Mit 10-11 TFLOP/s SP würde man schon eher in den Bereich stoßen, den ich für einen GM200 Nachfolger für erstrebenswert ansehe. Ein GM200 @ 1,5 GHz erreicht übrigens genau 9,2 TFLOP/s in FP32, nur so als Randnotiz.

Mhh, NV geht doch mittlerweile auf MixedPrecision über. Nur so nebenbei, eine DP FPU ist schon fett und MixedPrecision macht vieles noch fetter. 6144 SPs klingen jedenfalls ziemlich nett, ob es wirklich so viele sind, ist eine andere Sache.

Ausgehend von GM200+MixedPrecision (mit hoher DP-Rate) und doppelter Packdichte dank Finfet sind 6144 SPs sicher möglich, aber nur mit einer hohen DieSize.

Damit läge man selbst mit nur 1GHz genau um Faktor 2 vor GM200, bei der FP32 Leistung. Das Ding wäre ziemlich groß, aber genau so würde für mich ein würdiger GM200 Nachfolger aussehen. Dazu noch ordentlich Bandbreite mittels HBM und man hat eine wirklich schöne Next-Gen GPU.

=Floi=
2015-10-13, 15:04:53
wir können froh sein, wenn es 4096 werden und der chip im vollausbau kommt.

Hübie
2015-10-13, 16:35:39
OT aber fuer mich ist es die absolute Hoelle auf den Dingern zu schreiben zu versuchen ;)

Geht mir genauso. Mein Notebook ist zur RMA-Abteilung von ASUS.

b2t: 2012 hatte ich ein hochinteressantes Gespräch wo man mir unverblümt vermittelte dass Tesla und GeForce künftig durch stärkere Produktdifferenzierung platziert werden sollen. Früher waren Teslas/Quadros, GeForces mit leicht geänderter PCB-Bestückung und BIOS. Zuletzt dann eigenständige Boards, einige Features, Kühlungen (z. B. K20x) und nun wohl sogar völlig neue Chip-Bestandteile. Dennoch ging man noch nicht davon aus dass vor 2018~2020 nach Prognosen Tesla sich selbst finanziert bzw. auch profitabel ist.
Der Multiplikator ist zwar gesetzt (allein durch das externe Ökosystem samt know-how und IDE), aber lässt noch etwas auf sich warten. Nicht zuletzt durch stärker werdende Konkurrenz seitens Intel, ARM und AMD (Reihenfolge ist jetzt willkürlich).

Unicous
2015-10-13, 17:16:52
So arbeitet übrigens Tweaktown.

http://www.tweaktown.com/news/47976/nvidia-rumored-use-gddr5x-next-gen-pascal-based-gpus/index.html

NVIDIA rumored to use GDDR5X on next-gen Pascal-based GPUs

NEWS SOURCES:3dcenter.org



Kaum eingreifen können wird hierbei GDDR5X – jener direkte GDDR5-Nachfolger soll zwar nächstes Jahr erscheinen, dies dürfte jedoch zu spät für die technische Konzeption der Grafikchips der 14/16nm-Generation sein. Sofern nVidia beim GP104-Chip aber noch auf GDDR5-Speicher setzt, wird dies sicherlich ein breiteres Speicherinterface nach sich ziehen, da mittels der 14/16nm-Fertigung im Vergleich zur bisherigen 28nm-Fertigung die doppelte Einheitenanzahl möglich wird.


http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-12-oktober-2015

:facepalm::facepalm::facepalm::facepalm:

aufkrawall
2015-10-13, 17:26:26
;D

Godmode
2015-10-13, 17:31:31
So arbeitet übrigens Tweaktown.

http://www.tweaktown.com/news/47976/nvidia-rumored-use-gddr5x-next-gen-pascal-based-gpus/index.html





http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-12-oktober-2015

:facepalm::facepalm::facepalm::facepalm:

Die werden wohl die 3DC-Artikel mit Google-Translate übersetzten lassen und dann raten was das heißen könnte. Auf jeden Fall beschämend wie ich finde.

On Topic:
Gab es eigentlich mal News, dass GDDR5X zumindest als Testsamples verfügbar sind?

AffenJack
2015-10-13, 17:33:22
lol, TT mal wieder. Leonidas Aussage zu GDDR5X ist allerdings auch unwahrscheinlich. Micron hat angekündigt, dass H2 2016 Produkte mit GDDR5X erscheinen werden, nicht dass erst der Speicher da verfügbar sein wird. Dementsprechend sollten das wohl Grafikkarten damit sein.

Unicous
2015-10-13, 17:41:21
Und jetzt stell dir mal vor, so gehen sie mit allen Quellen um.:wink:

Macht schon seine Runde. Hoffentlich übernimmt es bald Computerbase.:rolleyes:

http://www.overclock3d.net/articles/gpu_displays/nvidia_to_use_gddr5x_memory_with_next_generation_gpus/1

GDDR5X halte ich im Übrigen als Hirngespinst von Micron um sich im Gespräch zu halten. Momentan kacken die einigermaßen gegenüber Samsung ab (liegt natürlich auch daran, dass Samsung price dumping betreibt) und für HMC scheint sich auch keine Sau zu interessieren.


@AffenJack

Glaube ich erst wenn es diese "Produkte" auch im Handel zu kaufen gibt.

Micron expects availability of products using GDDR5X to start hitting the market in the second half of 2016.
;)

Wie hieß das Buch nochmal? Große Erwartungen.:wink:

Skysnake
2015-10-13, 18:52:18
Fujitsu will HMC an sich bringen. Das Mockup zeigen Sie zumindest schon seit einiger Zeit auf Messen, nur eben keine lauffähige Hardware ;D

Leonidas
2015-10-14, 05:23:31
Ich sehe GDDR5X aus diesem Grunde als skeptisch, weil das nicht einfach nur ein neues Stepping darstellt, sondern wegen des geänderten Prefetches etwas komplett anderes. Das schüttelt man nicht mal ebenso aus dem Ärmel, das hat seine Vorlauf- und Testzeiten.

Novum
2015-10-14, 06:39:42
Andererseits gab's wohl wenige Aenderungen am Protokoll und keine Aenderungen am physikalischen Interface. Sollte jetzt nicht so schwer zu implementieren sein.

Ailuros
2015-10-14, 10:32:30
ROTFLMAO :D

http://wccftech.com/nvidia-pascal-gpus-rumored-feature-gddr5x-memory-focused-entrylevel-options-hbm2-mainstream-performance-highend-cards/

Es haette mich auch gewaltig gewundert wenn die nicht auch berichtet haetten. :freak:

HOT
2015-10-14, 10:46:09
Gamestar hat den Schwachsinn auch aufgegriffen.
Ich hab da mal ne Frage, wie bringt man ein NV-Link-Modul eigentlich auf den Server? Gibts da nen Bridge-Chip? Zufällig mit ca. 1000 Kontakten?

Godmode
2015-10-14, 10:48:15
ROTFLMAO :D

http://wccftech.com/nvidia-pascal-gpus-rumored-feature-gddr5x-memory-focused-entrylevel-options-hbm2-mainstream-performance-highend-cards/

Es haette mich auch gewaltig gewundert wenn die nicht auch berichtet haetten. :freak:

WTF-Tech schreibt aber zumindest ganz oben, dass es nur Gerüchte sind und man das ganze mit einer Prise Salz nehmen sollte. Der Artikel selber ist gar nicht mal so schlecht, wie ich finde, im Gegensatz zu dem TweakTown Bullshit.

Im Text steht dann, dass Nvidia zwei High-End SKUs mit HBM2 in H1/2016 launchen wird.

Ailuros
2015-10-14, 11:21:42
WTF-Tech schreibt aber zumindest ganz oben, dass es nur Gerüchte sind und man das ganze mit einer Prise Salz nehmen sollte. Der Artikel selber ist gar nicht mal so schlecht, wie ich finde, im Gegensatz zu dem TweakTown Bullshit.

Im Text steht dann, dass Nvidia zwei High-End SKUs mit HBM2 in H1/2016 launchen wird.

Der gesamte writeup ist ein unsicheres Schlammassel wenn man es wirklich vorsichtig durchliest. Besser als TT heisst in meinem Buch lediglich Mist mit etwas Glitter :P

Unicous
2015-10-14, 13:07:13
Ich finde es immer wieder erschreckend, dass WTF-Tech hier und anderswo so unangemessen viel Aufmerksamkeit geschenkt wird und ihre Ergüsse als legitimer Journalismus angesehen wird. Die Typen sind der Bodensatz des IT-"Journalismus". Die Leute die da arbeiten sind nichts anderes als Diebe, Scharlatane und click baiter.

Sie klauen nicht nur Artikel, leaks und scoops anderer, nein sie erdreisten sich auch noch daraus ein ellenlange Pseudo-Artikel zu schreiben die ihnen ein Antlitz von Qualitätsjournalismus geben sollen.

Nur weil ich eine wall'o'text dahinschwurbele, heißt das doch nicht dass da Substanz hinter steckt. Ein ordentlicher Journalist schafft es die Information in wenigen, verständlichen Sätzen zusammenzufassen ohne jedes Mal den gleichen Scheiß wiederzukäuen.

Einfach nur traurig, dass dem Müll immer und immer wieder eine Bühne geboten wird.

Hübie
2015-10-14, 13:51:35
Gamestar hat den Schwachsinn auch aufgegriffen.
Ich hab da mal ne Frage, wie bringt man ein NV-Link-Modul eigentlich auf den Server? Gibts da nen Bridge-Chip? Zufällig mit ca. 1000 Kontakten?

So wie ich das verstanden habe gibt es eine rückseitige Durchkontaktierung, so dass das Modul nur auf das Mainboard gesteckt werden soll. Sieht K20x im Titan etwas ähnlich. NVLink müsste afaik direkt im Package sitzen, wie es auch beim PCIE Interface der Fall ist. So zumindest meine Vorstellung des Ganzen.

Thunder99
2015-10-14, 14:08:55
Meint ihr nvidia hat einen hypothetischen GP104 mit HBM und mit GDDR5(x) Interface geplant und entwickelt? Sie könnten es sich ja leisten... Zumal nvidia ein "Ass" im Ärmel hätte da deren 4er Chips seit je her nur mit 256bit Interface erschienen ist. 384bit würde dem Chip sicher gut stehen (sofern am Aufbau sich nichts wesentliches zu Maxwell verändert)

Godmode
2015-10-14, 14:11:14
Gamestar hat den Schwachsinn auch aufgegriffen.
Ich hab da mal ne Frage, wie bringt man ein NV-Link-Modul eigentlich auf den Server? Gibts da nen Bridge-Chip? Zufällig mit ca. 1000 Kontakten?

Ich weiß jetzt nicht ob das noch aktuell ist, aber so wurde es dort beschrieben:

The initial NVLink electronics consists of a mezzanine card that snaps into the server system board and allows for multiple connections to be made between GPUs. In the Pascal GPUs, up to four NVLink connections between two GPUs in a single system.

http://www.enterprisetech.com/2014/11/18/early-nvlink-tests-show-gpu-speed-burst/

Meint ihr nvidia hat einen hypothetischen GP104 mit HBM und mit GDDR5(x) Interface geplant und entwickelt? Sie könnten es sich ja leisten... Zumal nvidia ein "Ass" im Ärmel hätte da deren 4er Chips seit je her nur mit 256bit Interface erschienen ist. 384bit würde dem Chip sicher gut stehen (sofern am Aufbau sich nichts wesentliches zu Maxwell verändert)

Mit beiden Interfaces gleichzeitig? Ich denke eher nicht, das würde den Chip ziemlich aufblähen.

Thunder99
2015-10-14, 14:21:52
...
Mit beiden Interfaces gleichzeitig? Ich denke eher nicht, das würde den Chip ziemlich aufblähen.
Meinte eher 2 Chips im Fall der Fälle :redface:

Godmode
2015-10-14, 14:27:24
Meinte eher 2 Chips im Fall der Fälle :redface:

Ich kann mir das beim besten Willen nicht vorstellen. Es wurde auch schon in der Vergangenheit neuer Speicher eingeführt und der Wechsel verlief fast immer unproblematisch, IIRC.

NV wird mit den Herstellern SK Hynix und Samsung sicher Verträge ausgehandelt haben, damit der Speicher auch bei Zeiten geliefert wird. Da Fury ja schon mit HBM läuft und auch kaufbar ist, sehe ich hier eigentlich keine Probleme.

Dural
2015-10-14, 14:50:16
Ihr sollte euch mal die Frage stellen ob GP106 HBM haben wird oder nicht.
Bei diesem Chip könnte ich mir ja noch GDDR5 vorstellen. Mit 192Bit und 3 oder 6GB Speicher passt der sicher besser in den 200.- Preisbereich. Oder sogar 256Bit...

GP104 mit GDDR5 halte ich nach wie vor für Schwachsinn. Das ding wird ca. die Leistung eines Fiji oder GM200 haben, es spricht rein gar nichts für GDDR5 im Jahr 2016 für so einen leistungsfähigen Chip. Zudem wir Garantiert Anfangspreise von 500.- + (ich tippe ja sogar auf 600.- +) für diesen Chip sehen werden.

Übrigens hat NV ja schon länger bestätigt das mit HBM2 grössere Stückzahlen möglich sind. :rolleyes: Zu guter letzt wird AMD nächstes Jahr Garantiert auch noch Chips mit HBM bringen, NV muss darauf was in der Hand haben.

-/\-CruNcher-/\-
2015-10-14, 15:05:15
Halte 600€ ohne HBM für arg übertrieben das würde keiner kaufen so schnell, auch die umswitcher würden es sich 3x überlegen so enorm sind die Fortschritte jetzt nicht als wie von Kepler zu Maxwell wenn man das Shrinking und aufprotzen der Shader anzahl mal aussen vor lässt.
Letztendlich könnte das noch mehr verluste hin nach AMD mit sich bringen.

Wenn sie allerdings ihre alte Technik einsetzen und mit Software Verbesserungen winken die es für Kepler und Maxwell nicht geben wird dann sieht es etwas anders aus sie werden auf jedenfall improvements bei GameWorks in den Vordergrund stellen.

Godmode
2015-10-14, 15:21:20
Ihr sollte euch mal die Frage stellen ob GP106 HBM haben wird oder nicht.
Bei diesem Chip könnte ich mir ja noch GDDR5 vorstellen. Mit 192Bit und 3 oder 6GB Speicher passt der sicher besser in den 200.- Preisbereich. Oder sogar 256Bit...

GP104 mit GDDR5 halte ich nach wie vor für Schwachsinn. Das ding wird ca. die Leistung eines Fiji oder GM200 haben, es spricht rein gar nichts für GDDR5 im Jahr 2016 für so einen leistungsfähigen Chip. Zudem wir Garantiert Anfangspreise von 500.- + (ich tippe ja sogar auf 600.- +) für diesen Chip sehen werden.

Übrigens hat NV ja schon länger bestätigt das mit HBM2 grössere Stückzahlen möglich sind. :rolleyes: Zu guter letzt wird AMD nächstes Jahr Garantiert auch noch Chips mit HBM bringen, NV muss darauf was in der Hand haben.

Ich denke auch das nur GP104 und GP100 HBM2 Speicher haben werden. Für die kleinen reicht doch GDDR5 locker aus. GP104 und GDDR5 gebe ich nur dann eine Chance, wenn:
1.) GP104 ein 384 Bit breites Speicherinterface bekommt, dass auch ins Stromverbrauchsbudget reinpasst
2.) und das ganze billiger zu realisieren ist, als ein GP104 mit HBM2 Speicher.

Ansonsten sehe ich nicht viele sinnvolle Gründe, die für GDDR5 bei GP104 sprechen. An GDDR5X glaube ich noch weniger, da ich davon ausgehe, dass man dafür den Speichercontroller in der GPU zu sehr umbauen müsste. Ich weiß auch nicht wie sich GDDR5X auf den Stromverbrauch auswirkt.

Halte 600€ ohne HBM für arg übertrieben das würde keiner kaufen so schnell, auch die umswitcher würden es sich 3x überlegen so enorm sind die Fortschritte jetzt nicht als wie von Kepler zu Maxwell wenn man das Shrinking und aufprotzen der Shader anzahl mal aussen vor lässt.
Letztendlich könnte das noch mehr verluste hin nach AMD mit sich bringen.

Wenn sie allerdings ihre alte Technik einsetzen und mit Software Verbesserungen winken die es für Kepler und Maxwell nicht geben wird dann sieht es etwas anders aus sie werden auf jedenfall improvements bei GameWorks in den Vordergrund stellen.

Wenn ein hypothetischer GP104 ca. 20-30% auf eine TX drauflegt, werden das durchaus Leute für 600 Euro kaufen, egal ob mit oder ohne HBM2 Speicher. Das hat schon die letzten beiden male gut funktioniert (680, 980).

-/\-CruNcher-/\-
2015-10-14, 15:57:06
Gut wenn die Karte im selben Power Budget dafür bleiben würde als wie mit Maxwell eingeführt wurde aber das geht ohne HBM wohl eher schlecht.

Leonidas
2015-10-14, 17:10:07
So arbeitet übrigens Tweaktown.

http://www.tweaktown.com/news/47976/nvidia-rumored-use-gddr5x-next-gen-pascal-based-gpus/index.html

http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-12-oktober-2015

:facepalm::facepalm::facepalm::facepalm:



Das frisst sich gerade durchs Internet. NV wird nun komisch aus der Wäsche gucken und denken: "Wie zum Henker kommen die nur auf solche Gerüchte?"





Ich weiß auch nicht wie sich GDDR5X auf den Stromverbrauch auswirkt.


Ein sehr gutes Gegenargument gegen GDDR5X: Da der Interface-Takt wirklich 7000 MHz sind, muß auch der Treiber auf dem Speicherinterface entsprechend fett sein und wird daher ohne Ende Saft schlucken. Prognose: Viel höherer Stromverbrauch als GDDR5. Ergo kaum sinnvoll nutzbar.

sulak
2015-10-14, 17:37:15
Hö, erste Ausbaustufe bei GDDR5x wird mit 2500-3000MHz laufen, Q2 2016 laut pcgameshardware. Das doch eher moderat.

Timbaloo
2015-10-14, 17:43:13
Das frisst sich gerade durchs Internet. NV wird nun komisch aus der Wäsche gucken und denken: "Wie zum Henker kommen die nur auf solche Gerüchte?"
Ja, da hast du ganz schön was angezettelt :P

Godmode
2015-10-14, 17:57:57
Ein sehr gutes Gegenargument gegen GDDR5X: Da der Interface-Takt wirklich 7000 MHz sind, muß auch der Treiber auf dem Speicherinterface entsprechend fett sein und wird daher ohne Ende Saft schlucken. Prognose: Viel höherer Stromverbrauch als GDDR5. Ergo kaum sinnvoll nutzbar.

Es wird nur die Datenrate verdoppelt, der Takt bleibt gleich, der Prefetch steigt von 8 auf 16 an. Mit 2500 MHz hätte man also schon 10 Gbps.

http://www.tomshardware.com/news/micron-launches-8gb-gddr5-modules,29974.html

In order to surpass the 8 Gbps barrier of GDDR5, without completely building a new memory technology from the ground up, Micron doubled the pre-fetch of GDDR5 from eight data words for each memory access, to 16 data words per access. Doing this resulted in 10 to 12 Gbps on the first generation, and the company expects to be able to surpass 14 Gbps, and perhaps reach 16 Gbps and beyond as the technology is refined.

Micron will make a formal announcement about this new memory technology some time in 2016, but what we know so far is that the company is calling it "GDDR5X," and it will be significantly faster than current offerings. The company wanted to make adoption as simple as possible, so it retained as much of the GDDR5 commands and protocols as possible. Additionally, Micron is not keeping this as a proprietary option, and has instead approached JEDEC to make GDDR5X a widely available standard.

8 Gb GDDR5 modules are available now for hardware manufacturers. Micron expects availability of products using GDDR5X to start hitting the market in the second half of 2016.

Micron erwarte Produkte mit GDDR5X in H2/2016. Da dürfte also schon was kommen mit diesem Speichertyp.

Leonidas
2015-10-14, 18:09:18
Es wird nur die Datenrate verdoppelt, der Takt bleibt gleich, der Prefetch steigt von 8 auf 16 an. Mit 2500 MHz hätte man also schon 10 Gbps.


Jein. Die Taktrate der Speicherzellen bleibt gleich, ja. Aber die Taktrate des Interfaces geht nach oben. Und damit auch der Strombedarf des Speicherinterfaces.



Ja, da hast du ganz schön was angezettelt :P


Noch lustiger würde es werden, wenn NV vielleicht wirklich GDDR5X plant - und nun sich den Kopf darüber zerbricht, warum diese Information schon leaken konnte, obwohl man alle Lecks eigentlich abgedichtet dachte.

Hübie
2015-10-14, 18:18:29
http://abload.de/thumb/gddr5x_w_600dusa1.png (http://abload.de/image.php?img=gddr5x_w_600dusa1.png)

AffenJack
2015-10-14, 19:07:44
GDDR5X halte ich im Übrigen als Hirngespinst von Micron um sich im Gespräch zu halten. Momentan kacken die einigermaßen gegenüber Samsung ab (liegt natürlich auch daran, dass Samsung price dumping betreibt) und für HMC scheint sich auch keine Sau zu interessieren.


Wenn es so ein Hinrgespinst ist, wieso gibts sowohl von Nvidia als auch AMD LinkedIN Profile von Ingenieuren die dafür entwickelt haben?;-) (Siehe Arctic Thread bei AMD)

Ailuros
2015-10-14, 19:13:19
Noch lustiger würde es werden, wenn NV vielleicht wirklich GDDR5X plant - und nun sich den Kopf darüber zerbricht, warum diese Information schon leaken konnte, obwohl man alle Lecks eigentlich abgedichtet dachte.

So dicht haben die nicht wirklich gemacht. Es haben die meisten einfach keinen Bock mehr sich mit dem Zeug abzugeben.

Sonst....tschingderassabumm!!!

http://www.kitguru.net/components/graphic-cards/matthew-wilson/rumour-suggests-nvidia-may-use-gddr5x-on-pascal-gpus/
http://www.fudzilla.com/news/graphics/39010-nvidia-testing-gp100-and-gp104-chips

:weg:

sulak
2015-10-14, 19:49:37
Tja so generiert man Nachrichten, einfach eine Diskussion anstoßen, was vollkommen Spekulativ ist und nach 2-3 Seiten bastelt man daraus eine Zusammenfassung, den Rest erledigt das Internet.

All zu viele Foren die sich mit GPUs beschäftigen gibt es ja nicht mehr. Aber Grats an Leonidas, gut gespielt :biggrin: Silly Season ist eröffnet.

Ob GDDR5x kommt wird doch rein über den Preis sich entscheiden. Mit HBM ist es neue Technik, kostet aber ggf. weniger, da bekannte Technik und mit der geringeren Taktrate "Interessant".
Außer GPUs gibt es afaik keinen Abnehmer, da wird eine Charge für nV nicht ausreichen um alle Kosten zu decken. Wobei AMD/ATI es mit GDDR4 auch für ca. 1 Jahr durchgezogen hat, also nunja...

-/\-CruNcher-/\-
2015-10-14, 19:55:19
GDDR5x könnte eine interessante alternative darstellen wenn das der Fall ist schliest es einen Testrun von Pascal V1 in Q1 2016 zumindest aus.

Macht absolut sinn wenn es keine Nachteile gibt GDDR5x für die Performance parts und HBM2 für alle die Enthusiasts und HPC user da drüber scheint plausibel und sehr ausgeglichen von den zu erwartenden Kosten, das passt jedenfalls zu Nvidia ;)

Jetzt muss man nur die Telemetrie richtig auf DX 12 ausrichten und Performance generieren um es vor allem den HBM/HBM2 käufern gegen AMD schmackhaft zu machen ;)

Ich seh Jensen jetzt schon auf der Bühne "Our Engineers worked with our partners countless days and nights, how to solve this and here it is the GTX 1070/80 GDDR5 with an X and the X my friends stands for nothing else than Pure Geforce Performance, so it gives you more Bandwidth, Lower Power and great Performance and here it comes... what do you think" ;)

Wenn er es übertreibt wird er den leuten GDDR5x noch besser als später HBM2 selbst verkaufen ;)

Unicous
2015-10-14, 22:36:58
Wenn es so ein Hinrgespinst ist, wieso gibts sowohl von Nvidia als auch AMD LinkedIN Profile von Ingenieuren die dafür entwickelt haben?;-) (Siehe Arctic Thread bei AMD)

Maximal ein Indiz, dass sie damit gearbeitet haben/arbeiten. Bei Linkedin wird all das hingeschrieben um irgendwie bragging rights vorweisen zu können. Wenn es nämlich danach ginge, hätte AMD zig 28, 20, 16, 14nm designs zur Marktreife geführt.:wink:

Rampage 2
2015-10-14, 23:03:09
Jein. Die Taktrate der Speicherzellen bleibt gleich, ja. Aber die Taktrate des Interfaces geht nach oben. Und damit auch der Strombedarf des Speicherinterfaces.

Also in den Artikeln, die ich im Netz gefunden habe steht nur, dass der Prefetch verdoppelt wurde - irgendwelche Erhöhungen der Taktfrequenz konnte ich bisher keinem der Zeilen entnehmen; aber gut ich kenn ich mich damit auch nicht gut aus:wink:

*abgehakt* (bestätigt: der Takt des Interfaces erhöht sich)

Ansonsten wäre für GP104 wohl nur noch HBM eine sinnvolle Lösung - wenn das SI auf 384Bit verbreitert wird, dann kommen nur 6GB und 12GB als mögliche Speichergrößen in Frage. Da ist es dann besser HBM zu verbauen - 4GB und 8GB Speichergrößen mit jeweils 2048Bit HBM2-Interface = jeweils 512GB/sek. Bandbreite. Das würde dann auch gut zu 4096SPs passen...

Edit: man kann doch HBM2 auch so konfigurieren, dass nur 2GB pro Stack verwendet werden, oder?:confused:

(2GB pro 1024Bit-Stack; 4GB = 2048Bit @ 1000MHz = 512GB/sek. Bandwidth; für die 8GB-Variante dann 4GB pro Stack...)

R2

ndrs
2015-10-14, 23:28:37
Also in den Artikeln, die ich im Netz gefunden habe steht nur, dass der Prefetch verdoppelt wurde - irgendwelche Erhöhungen der Taktfrequenz konnte ich bisher keinem der Zeilen entnehmen;
Da man auf absehbare Zeit beim DDR-Verfahren bleibt, kann man pro Takt nunmal nicht mehr als zwei Bits übertragen. Daran ändert auch kein Prefetch etwas.

Edit: ok, hast es selbst gefunden :)

Leonidas
2015-10-15, 05:03:30
Ich sehe an GDDR5X nochmals das Problem des Strombedarfs. Bei 7000 MHz Interface-Takt im Grafikchip wird das mordsmäßig Strom verbrauchen. Nicht umsonst sagt man, das im Speicher-Ökosystem aus Speicherinterface und Speicher selber nur das Interface wirklich Energie zieht, die Speicherzellen selber kaum zu Buche schlagen.

Ailuros
2015-10-15, 05:14:27
Das mit dem Stromverbrauch stimmt schon, aber fuer die Haarspalterei sind es nicht wrklich 7000MHz bei 7Gbps. Die wahre Frequenz ist aber trotzdem sehenswert hoeher als bei HBM.

Skysnake
2015-10-15, 07:57:55
Es sind halt bei 8/10 Bit Coding 7Gbps/2b*(10/8)=4.375 MHz

Wir müssen ja dran denken, das man sowohl in der steigenden als auch in der fallenden Flanke Daten überträgt dank DDR. Ist aber natürlich schon eine ganz schöne Hausnummer für ein externes Interface.

Man sollte allerdings auch bedenken, das wenn man sich das absolute High-End anschaut, man heutzutage bei >10GHz an echter Taktrate hängt. Die Dinger saugen dann aber wirklich so einiges an Saft und sind verdammt groß.

Ailuros
2015-10-15, 08:27:13
Eine GTX980Ti hat eine default Speicher-frequenz fuer ihren GDDR5 Speicher von 1753MHz fuer 7.012Gbps. Wo Ihr immer mit den tollen MegaHertz Werten herkommt....:rolleyes:

Leonidas
2015-10-15, 08:38:41
Richtig. Aber in diesem Fall ging es wirklich nur um den Interfacetakt, nicht um den Takt der Speicherzellen selber.

Skysnake
2015-10-15, 09:09:59
Da war jemand schneller.

Es ist eben "nur" DDR und nicht QDR. Daher werden nur 2 Bits pro Clock cycle übertragen.

Wobei das mit dem clock cycle immer so eine Sache ist. Man kann ja auch eine Clock mit 1/4 mit übertragen, und dann eben auf der Empfängerseite einen Multiplier hinsetzen.

Das ist das "Problem" bei synchronen Verbindungen. Da kann man einiges an Schindludertreiben und für Verwirrung sorgen. Am Ende zählt aber nur, welcher Frequenz einm Clockdatapattern entsprechen würde.

Godmode
2015-10-15, 09:26:44
Jein. Die Taktrate der Speicherzellen bleibt gleich, ja. Aber die Taktrate des Interfaces geht nach oben. Und damit auch der Strombedarf des Speicherinterfaces.


In diesem Dokument von Micron steht aber auch nichts von höheren Clocks für GDDR5X. Und ehrlich gesagt würde es mich wundern, wenn man hier den Takt der Speicherzellen angibt, der ist doch völlig irrelevant, was die Übertragung angeht? Du meinst doch den Refresh Cycle der Zellen, oder?

https://www.micron.com/~/media/documents/products/part-numbering-guide/numdram.pdf

Hübie
2015-10-15, 12:07:17
GDDR5X wird anfangs mit maximal 3500 MHz ausgeliefert hieß es doch. Also genau wie jetzt. Speicher braucht auch nur signifikant mehr Energie wenn wirklich Daten übertragen werden, was nicht auf allen Leitungen, aller Chips zur gleichen Zeit zutrifft.
Wartezyklen und MMIO sorgen da schon für eine gewisse Verteilung. Weiß nicht wieso du denkst, es braucht immens viel Energie, Leonidas? Das Interface dürfte zum großen Teil dem von GDDR5 entsprechen.
Auf diese theoretischen brutto / netto Spielchen muss man eh nix geben. ;) Ist Marketing-Sprech.

Leonidas
2015-10-15, 13:43:29
Das stimmt natürlich. Wird es nicht ausgelastet, passiert wohl nicht wirklich viel. Wird es dagegen voll ausgelastet, dürften es schon ein paar Watt mehr sein. Sicherlich ist dies an einem 256 Bit Interface bei einem 170-Watt-Chip doch nicht die große Nummer, sind es halt 180 Watt. Geht also doch.

horn 12
2015-10-15, 14:13:59
Ob Pascal Mainstream, sprich der Nachfolger der GTX 970 wohl an die GTX 980TI anknüpfen wird.
Vielmehr denke ich wird jener Chip der Gegenspieler der Fury + geringe Mehrperformance werden,- also in etwa 30% auf die GTX 970 drauflegen können!

Hübie
2015-10-15, 14:17:23
Das Interface kann man ja so nicht einzeln messen, daher kann ich dir dazu keine Werte liefern. Aber ich kann dir sagen dass in einigen Testläufen unter "künstlicher" Last (Image-recognition & - processing) 8 GiB ca 26-27 Watt verbraten (4 GiB ca 15 Watt). Testmodell war eine W8100 oder W9100. Erinnere mich nicht mehr genau :D Es wurde ein Warenlager simuliert, wo ein Roboter halt selbstständig Gegenstände, Wände etc. analysieren soll und auf Basis der Informationen entscheiden muss (alles in 3D-Software). ;) Da hast du je nach Szenerie doch schon ziemlich viele kleine Operationen und eine Menge Platzbedarf.

Godmode
2015-10-15, 14:22:49
Ob Pascal Mainstream, sprich der Nachfolger der GTX 970 wohl an die GTX 980TI anknüpfen wird.
Vielmehr denke ich wird jener Chip der Gegenspieler der Fury + geringe Mehrperformance werden,- also in etwa 30% auf die GTX 970 drauflegen können!

GP104 Salvage nur 30% über GM204 Salvage? Das wäre eine ziemliche Lachnummer. Der 16FF+ Prozess erlaubt doppelt so viele Einheiten wie 28nm. Im Optimalfall hat ein GP104 also 4096 SPs. Sollten sie sparsamer mit der Diefläche umgehen, sollten es immer noch irgendwo zwischen 3000-3500 SPs werden. Mit 3000 SPs bist du je nach Takt schon über einer Titan X bei deutlich niedrigerem Stromverbrauch. Woher kommt diese Schwarzmalerei?

Skysnake
2015-10-15, 14:44:29
Und was macht man dann die nächsten 3-4 Jahre die uns womöglich der Prozess erhalten bleibt?

horn 12
2015-10-15, 14:45:38
40% über einer GTX 970 wäre schon viel, man muss das Teil auch unter 400 bis 500 Euro bringen!

Hübie
2015-10-15, 14:51:05
Und was macht man dann die nächsten 3-4 Jahre die uns womöglich der Prozess erhalten bleibt?

Sicher? Man hat doch jetzt schon des öfteren gelesen dass die nächsten Schritte wieder schneller gehen. Also 2018 10 nm und dann ~2020 7 nm. Wären also eher 2-3 Jahre. Mit Maxwell hat man imo eindrucksvoll gezeigt dass selbst innerhalb eines nodes eine "volle" Performancesteigerung erzielt werden kann. Man muss nur die erste Iteration etwas verkacken :freak:

N0Thing
2015-10-15, 14:53:50
Oder die nächste Entwicklung vorziehen. ;)
Ob einer der beiden Hersteller nochmal den Stromverbrauch auf gleichem Prozess so weit drücken kann, wie es Nvidia mit Maxwell geschafft hat, bezweifle ich mal.
Wenn nicht wieder ein ganzer Prozess gestrichen wird, sollte es auch nicht mehr so große Abstände zwischen den Herstellungsprozessen geben. Dafür werden die Preise wohl nicht mehr auf das Niveau von 40nm sinken.

Godmode
2015-10-15, 15:04:16
Und was macht man dann die nächsten 3-4 Jahre die uns womöglich der Prozess erhalten bleibt?

Wo siehst du den hier ein Problem? Bringe GP104 meinetwegen nur mit 3000 SPs und schon bist du über eine Titan X. So ein Ding sollte wohl locker in unter 300mm2 zum Unterbringen sein und somit ist noch genau Platz für Refreshs vorhanden.

40% über einer GTX 970 wäre schon viel, man muss das Teil auch unter 400 bis 500 Euro bringen!

GTX 970:
1664 * 2 * 1,05 = 3.494 GFlop/s

GP104:
3072 * 2 * 1,126 = 6.918 GFlop/s

GP104 Salvage mit selben SP Verhältnis wie zwischen 980 und 970
2560 * 2 * 1,05 = 5.376 GFlop/s

GP104 Salvage / GTX 970
5.376/3.494 = 153%

Da ich von etwas mehr Takt ausgehe, werden es eben mehr als die 50% Plus werden.

Das ist zwar jetzt nur ein steriler Vergleich der Rechenleistung, zeigt aber trotzdem was möglich sein wird. Von GK104 auf GM204 haben sie Anzahl der SPs um 33% erhöht, trotz der gleichen 28nm Fertigung. Wenn man jetzt mit 16FF+ die SP Anzahl nur um 50% erhöht, sind wir genau bei 3096 SPs. Später kann man dann nochmal um 33% nachlegen und man landet bei 4096.

Hübie
2015-10-15, 15:15:06
Ich bin mir gerade nicht sehr sicher, aber meine gelesen zu haben dass jetzt 600 mm² nicht mehr drin sein werden.

Edit: Und wenn dann 3072 und 2560.

Godmode
2015-10-15, 15:19:58
Ich bin mir gerade nicht sehr sicher, aber meine gelesen zu haben dass jetzt 600 mm² nicht mehr drin sein werden.

Edit: Und wenn dann 3072 und 2560.

Davon höre ich jetzt zum ersten mal? Generell für alles was kleiner als 28nm ist? Weißt du auch wieviel unter 600mm2?

@Zahlen:
Ja das war nur schnell hingerotzt.

Nakai
2015-10-15, 15:35:44
600mm² werden es nicht.

Ich vermute, man wird Luft haben, für ein Volta mit 14FF, falls sich etwas verzögert.

Hübie
2015-10-15, 15:49:28
Ich kann dir nicht mehr genau sagen wo. Vielleicht bei cadence (http://community.cadence.com/) mal reinschauen. Muss heute für eine Klausur lernen, daher hab ich eigentlich nicht mal Zeit hier zu schreiben und lesen :biggrin:

Skysnake
2015-10-15, 15:49:41
Sicher? Man hat doch jetzt schon des öfteren gelesen dass die nächsten Schritte wieder schneller gehen. Also 2018 10 nm und dann ~2020 7 nm. Wären also eher 2-3 Jahre. Mit Maxwell hat man imo eindrucksvoll gezeigt dass selbst innerhalb eines nodes eine "volle" Performancesteigerung erzielt werden kann. Man muss nur die erste Iteration etwas verkacken :freak:
Und du glaubst ernsthaft, dass die pünktlich kommen werden?

Schau dir doch an, welche Probleme Intel zur Zeit hat Chips zu liefern...

Sagen wir mal so, ich hatte kürzlich ein interessantes Gespräch bezüglich Fertigung, und da wurde mir ziemlich deutlich, das man sehr aufpassen muss zwischen Fertigungsmeldungen und dem, was am Ende wirklich machbar ist. Was bringt dir eine Fertigung, wenn du nur einige Wafer am Tag produziert bekommst?

Richtig gar nichts. Die Kosten dafür sind dann einfach völlig weg von allem.

So lange EUV nicht endlich mal rockt, werden die Hersteller auf die Bremse treten wo es nur geht, und EUV wird noch Jahre brauchen, bis es im Massenmarkt angekommen ist.

N0Thing
2015-10-15, 16:31:08
Sagen wir mal so, ich hatte kürzlich ein interessantes Gespräch bezüglich Fertigung, und da wurde mir ziemlich deutlich, das man sehr aufpassen muss zwischen Fertigungsmeldungen und dem, was am Ende wirklich machbar ist.

Das ist aber nichts Neues, sondern schon seit Jahren so. Dass es immer schwieriger und teurer wird, neue Fertigungsprozesse umzusetzen ist auch kein Geheimnis.

Hübie
2015-10-15, 16:33:48
Ich habe viel zu wenig Einsicht um das qualifiziert beantworten zu können. Intel hat einfach ein restriktives R&D Budget, was sicherstellt nicht unnütz hoch zu liegen um somit shareholder zu vergrellen.
Ob es Probleme rein technischer Natur sind bezweifel ich an der Stelle einfach mal. Das Problem ist afaik einfach nur: die Kosten und der Nutzen klaffen noch zu weit auseinander. Die gesamt PC-Branche schwächelt seit Jahren.

Leonidas
2015-10-16, 04:42:14
600mm² werden es nicht.

Ich vermute, man wird Luft haben, für ein Volta mit 14FF, falls sich etwas verzögert.


Genau das ist der richtige Gedanke. NV kann prinzipiell alles mit 14/16nm anfangen. Aber weil man nun die Erfahrungen bei 28nm hatte, das man länger als gedacht warten musste, dürfte man eher konservativ arbeiten - um sich die Möglichkeit nicht zu verbauen, eine zweite 14/16nm-Generation aufzulegen. Wenn man jetzt gleich mit 600mm² kommen würde, wäre dies kaum noch möglich.

HOT
2015-10-16, 07:48:46
a.) Man kann auch Fläche für besseren Yield verbrauchen
b.) Man hat sich ziemlich viel I/O-Kram und HPC-Optimierungen aufgeladen

Das werden denke ich schon 500-600mm² sein.

HOT
2015-10-16, 07:54:18
So wie ich das verstanden habe gibt es eine rückseitige Durchkontaktierung, so dass das Modul nur auf das Mainboard gesteckt werden soll. Sieht K20x im Titan etwas ähnlich. NVLink müsste afaik direkt im Package sitzen, wie es auch beim PCIE Interface der Fall ist. So zumindest meine Vorstellung des Ganzen.
Damit bräuchte man immer noch einen Controllerchip, denn bisher sind ja die PPCs mit entsprechender Anbindung nicht verfügbar und man möchte NVLink doch sicher auch auf Intel einsetzen.

Skysnake
2015-10-16, 10:37:46
Wollen sicherlich, aber Intel wird denen den Mittelfinger zeigen.

Intel hat gar kein Interesse daran NVLink zu verwenden. Das wäre nur eine Konkurrenz für ihre XeonPhis....

Godmode
2015-10-16, 11:45:36
So wie ich das verstanden habe gibt es eine rückseitige Durchkontaktierung, so dass das Modul nur auf das Mainboard gesteckt werden soll. Sieht K20x im Titan etwas ähnlich. NVLink müsste afaik direkt im Package sitzen, wie es auch beim PCIE Interface der Fall ist. So zumindest meine Vorstellung des Ganzen.

Es sollte bei GP100 ja auch möglich sein ein PCIe und ein NVLink Interface in die GPU zu gießen, oder meint ihr das könnte vom Platz her knapp werden? Durch das wegfallen des GDDR5 Interfaces, dürfte da schon etwas Platz frei werden.

Dural
2015-10-16, 14:25:03
Was hat das mit Intel zu tun? NVlink ist doch nur für IBM oder hab ich was verpasst?

Hübie
2015-10-16, 14:40:59
Damit ist die Plattform gemeint. Ob es Pläne gibt, wissen wir ja nicht, aber Intel hält das auch nicht in den Händen. Die schreiben ja sonst auch niemandem vor welcher Interconnect jetzt zu verwenden ist.
@godmode: Ich kann mir denken dass der Interposer in zwei Varianten existiert, aber zwei Interfaces in einem Die klingt für mich nicht sonderlich wirtschaftlich. Auch zwei Varianten vom GP100 halte ich für unwahrscheinlich.
NVLink ist in erster Linie für Sierra und Summit entwickelt worden. Dabei bezweifel ich zudem dass nVidia dies allein auf die Beine gestellt hat.

Godmode
2015-10-16, 14:55:20
Was auch noch ginge:

NVLink fix in den GP100 Die und für Consumer GP100 eine NVLink2PCIe Bridge auf die Platine kleben, nur so als Beispiel.

Skysnake
2015-10-16, 15:04:58
Damit ist die Plattform gemeint. Ob es Pläne gibt, wissen wir ja nicht, aber Intel hält das auch nicht in den Händen. Die schreiben ja sonst auch niemandem vor welcher Interconnect jetzt zu verwenden ist.
@godmode: Ich kann mir denken dass der Interposer in zwei Varianten existiert, aber zwei Interfaces in einem Die klingt für mich nicht sonderlich wirtschaftlich. Auch zwei Varianten vom GP100 halte ich für unwahrscheinlich.
NVLink ist in erster Linie für Sierra und Summit entwickelt worden. Dabei bezweifel ich zudem dass nVidia dies allein auf die Beine gestellt hat.
Doch Intel schreibt einem vor welchen Interconnect man zu verwenden hat mit ihren Produkten.

Nämlich PCI-E. QPI würden so manche gern verwenden, aber Intel blockt da.

Hübie
2015-10-16, 15:15:41
Ich meine custom Interconnect zwischen Clustern ;)

Skysnake
2015-10-16, 17:26:57
Nur ist NVLink kein Custom Cluster Interconnect.

W4RO_DE
2015-10-16, 17:27:45
NVLink fix in den GP100 Die und für Consumer GP100 eine NVLink2PCIe Bridge auf die Platine kleben, nur so als Beispiel.

Kann das die Latenzen erhöhen oder andere negative Eigenschaften mit sich bringen, oder geht sowas problemlos?

Timbaloo
2015-10-16, 17:35:52
NV war in den Präsentationen doch recht eindeutig was das Zusammenspiel von PCIe und NVLink angeht. Von daher finde ich es etwas verwirrend wenn man jetzt davon ausgeht, dass GP100 nicht PCIe und NVLink implementiert.

HOT
2015-10-16, 17:38:12
Ok, das ist verwirrend. Aber was ich meinte war, dass die NV-Link-Module ja auch auf Intel-Serverbretter gesteckt werden könnten, dafür bräuchte man ja einen Bridgechip. Dann hätte Intel ja auch gar keine Handhabe NVLink zu verhindern. GP100 selber als PCIe-Karte wär da sicher weniger ein Problem, da ist dann aber NVLink wieder ein Problem oder nicht?

Godmode
2015-10-16, 18:01:04
Kann das die Latenzen erhöhen oder andere negative Eigenschaften mit sich bringen, oder geht sowas problemlos?

Kommt wohl auf das Protokoll drauf an. Etwas mehr Latenz dürfte aber ziemlich sicher entstehen.

NV war in den Präsentationen doch recht eindeutig was das Zusammenspiel von PCIe und NVLink angeht. Von daher finde ich es etwas verwirrend wenn man jetzt davon ausgeht, dass GP100 nicht PCIe und NVLink implementiert.

Gut dass du das nochmal erwähnst, ich glaube von daher kam auch meine Idee mit beiden Interfaces in der GPU.

Ok, das ist verwirrend. Aber was ich meinte war, dass die NV-Link-Module ja auch auf Intel-Serverbretter gesteckt werden könnten, dafür bräuchte man ja einen Bridgechip. Dann hätte Intel ja auch gar keine Handhabe NVLink zu verhindern. GP100 selber als PCIe-Karte wär da sicher weniger ein Problem, da ist dann aber NVLink wieder ein Problem oder nicht?

Wie gesagt, wenn sie beide Interfaces in der GPU implementieren, ist es auch kein Problem auf Intel-Serverbrettern mit PCIe.

HOT
2015-10-16, 18:24:19
[...]

Wie gesagt, wenn sie beide Interfaces in der GPU implementieren, ist es auch kein Problem auf Intel-Serverbrettern mit PCIe.
Wie gesagt, solange die diese Modulform haben schon.

Skysnake
2015-10-16, 18:32:48
Das werden Sie ziemlich sicher beibehalten. Über etwas PCI-E ähnliches bekommste die Signale bei der Geschwindigkeit nicht übertragen.

Skysnake
2015-10-24, 08:42:07
https://www-950.ibm.com/events/wwe/grp/grp017.nsf/v17_agenda?openform&seminar=F2FV24ES&locale=en_US

Ganz intressant. Ich nehme mal an, danach wird der eine oder andere Leak kommen.

Hübie
2015-10-24, 10:30:03
17. November is ja noch etwas hin :) Danke für den Link. Gibt ne Menge zu entdecken.

MasterElwood
2015-10-24, 13:10:16
Gestern die News gelesen? Anscheinend kommt nächste AMD Generation auch so Q2-Q3 2016.

Dürfte also endlich mal wieder auf ein "Duell" hinauslaufen :smile:

AnarchX
2015-11-07, 10:10:20
Wohl 3 verschieden Compute Capabilities bei Pascal:
http://forums.laptopvideo2go.com/topic/31826-nvidia-geforce-driver-35866-adds-vulkan-pascal-and-volta-support/

Die CUDA-DLL nennt auch gleich ein paar Codenamen:

GP100
GP102
GP104
GP106
GP107
GP10B

GV100

AffenJack
2015-11-07, 11:34:16
Könnte Parker da auch zugehören oder sind das nur GPUs? Weil Unified Memory usw in GP100, dann normale Gpus auch ohne HBM und als 3tes Parker würde für mich am ehesten passend klingen. Sonst klingt ne 3te Unterteilung schon merkwürdig. GP10B passt ja auch nicht ins normale Namensschema.

AnarchX
2015-11-07, 11:53:14
GP10B ist der Tegra IGP. Wie schon GK20A oder GM20B.

horn 12
2015-11-07, 16:14:17
Bis die GTX 980TI abgelöst wird haben wir Juli - August 2016, Wetten!
zudem wird der Preis jenseits von Gut und Böse sein, auf beiden Seiten!

kdvd
2015-11-07, 16:52:17
Wohl 3 verschieden Compute Capabilities bei Pascal:
http://forums.laptopvideo2go.com/topic/31826-nvidia-geforce-driver-35866-adds-vulkan-pascal-and-volta-support/

Die CUDA-DLL nennt auch gleich ein paar Codenamen:

GP100
GP102
GP104
GP106
GP107
GP10B

GV100

GP100 & 102 klingt wie einmal mit DP ALUs für HPC und einmal ein reines Gaming High End.

Dural
2015-11-08, 23:52:11
Volta schon drin, die geben ja gas.

AffenJack
2015-11-09, 00:16:13
Naja, dass Volta da drin ist, hat wohl eher wenig zu sagen.
Achja, da wir hier ja schon öfter Zauba hatten und ich eben langeweile hatte:
3-Nov-2015 85423100 GRAPHICS PROCESSOR INTEGRATED CIRCUITS BGLW5 BGLW5 Taiwan Banglore Air Cargo NOS 3 644,589 214,863
3-Nov-2015 85423100 GRAPHICS PROCESSOR INTEGRATED CIRCUITS NT0EH Taiwan Banglore Air Cargo NOS 1 198,405 198,405
3-Nov-2015 85423100 GRAPHICS PROCESSOR INTEGRATED CIRCUITS NT0EH Taiwan Banglore Air Cargo NOS 1 198,405 198,405
3-Nov-2015 85423100 GRAPHICS PROCESSOR INTEGRATED CIRCUITS 2E73U Taiwan Banglore Air Cargo NOS 2 396,809 198,405
3-Nov-2015 85423100 GRAPHICS PROCESSOR INTEGRATED CIRCUITS 433X3 Taiwan Banglore Air Cargo NOS 1 198,405 198,405
https://www.zauba.com/import-graphics-integrated-circuit-hs-code.html

Wieder gleicher Preis wie vorher bei den Lieferungen. Also vielleicht noch paar andere Nv-Chips die jetzt aus Taiwan zurückgekommen sind. Zeitpunkt würde auch dazu passen, dass GP100 im A2 Stepping nun wieder da ist.

Nakai
2015-11-09, 00:38:11
Solange es kein HBM2 seitens SKHynix und Samsung gibt, gibt es keinen GP100. Samsung erwartet im H1 2016 in den HBM-Markt einzusteigen. HBM2 ist weit und breit verfügbar. Je nachdem, wird sich der Launch von GP100 ändern.

Unicous
2015-11-09, 01:32:35
Solange es kein HBM2 seitens SKHynix und Samsung gibt, gibt es keinen GP100. Samsung erwartet im H1 2016 in den HBM-Markt einzusteigen. HBM2 ist weit und breit verfügbar. Je nachdem, wird sich der Launch von GP100 ändern.

Fiji gab es auch etliche Monate vor Launch als Samples...siehe Zauba. Das ist also erstmal kein Grund. Ob das wirklich schon Pascal ist, oder irgendetwas anderes, z.B. HPC-Spezielles ist hingegen noch nicht raus. Und ob es überhaupt ein 16nm-Sample ist, weiß man auch noch nicht.;) (Außer ich habe jetzt irgendeinen wichtigen Hinweis übersehen, der aus den Frachtbrief-Eintragungen ersichtlich wäre:confused:)

Ailuros
2015-11-09, 06:19:54
Könnte Parker da auch zugehören oder sind das nur GPUs? Weil Unified Memory usw in GP100, dann normale Gpus auch ohne HBM und als 3tes Parker würde für mich am ehesten passend klingen. Sonst klingt ne 3te Unterteilung schon merkwürdig. GP10B passt ja auch nicht ins normale Namensschema.

Siehe AnarchX's Antwort. Es ist P wie Parker und nicht P wie Pascal :wink:

horn 12
2015-11-09, 07:26:13
Solange kein HBM 2 produziert und auch in ausreichenden Mengen geliefert werden kann wird es keinen GP Pascal geben und rechne vor Juli-August 2016 sehen wir diesbezüglich auch nichts.