PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Sunrise
2015-06-18, 13:15:56
Wer hat denn ernsthaft dieses Jahr noch mit 16FF etc gerechnet, seit dem Maxwell launch?
Die eigentliche Überraschung ist eher, dass NV so früh eine recht große GPU direkt auf 16nm baut, die sie aber auch sehr schnell benötigen, da sie sowohl DP vernachlässigt haben als auch bei der Technologie insgesamt von der Konkurrenz (Intel macht es rein über $$$$$ und brutaler R&D rein für HPC, AMD macht es aus anderen Gründen) eingeholt wurden. Im HPC wirft Intel nur mit Geld und KnowHow um sich, hat aber nicht ansatzweise den Marktanteil den NV hat, weshalb man da schnellstmöglich nachgreifen muss um den nicht mehr und mehr abzugeben.

NV muss möglichst in allen GPU-Märkten in den sie tätig sind (also quasi alles außer Smartphones) immer führend sein, ansonsten haben sie ein Problem. Denn der Marktanteil wächst leider auch nicht so einfach. Und das fette 80% oder mehr HPC- bzw. Tegra-Business darf man nicht an die Konkurrenten abgeben. Das wurde jetzt seit GK110/GK180/GK210 oder wie auch immer nur notgedrungen noch abgefrühstückt, aber spätestens Q2/2016 ist es zwingend erforderlich, dass da was Neues kommt.

NV hat noch den Vorteil, dass Intel nicht die Schnellsten sind, weil viel zu groß. Durch den kleiner werdenden Vorsprung der Fertigung kann NV massiv in Fläche investieren und es steht nichtmehr 28nm vs. 14nm gegenüber.

Beim Rest muss NV natürlich auch sehr eng mit IBM zusammenarbeiten, wird also von IBM abhängiger, weil sie die brauchen um ihre GPUs auch in sehr sehr großen Installationen sinnvoll einsetzen zu können. Das wird also noch spannend werden.

Skysnake
2015-06-18, 13:41:11
Ob der wirklich sooo groß wird in 16FF muss sich erst noch zeigen. Es wäre verrückt ein 500mm² Monster direkt zu bringen.

Und bei Intel macht mir weniger Bauchschmerzen, dass Sie mit Geld um sich werfen und alles mögliche einkaufen, als dass Sie einfach zu unfairen Mitteln greifen.

Wenn man die Konkurrenz nicht einfach so schlagen kann, macht man ihr das Leben so schwer, dass Sie einfach nicht mehr gewinnen können, und gerade der Interconnect ist da ein ziemlich guter Angriffspunkt.

Ailuros
2015-06-18, 13:50:27
Wer hat denn ernsthaft dieses Jahr noch mit 16FF etc gerechnet, seit dem Maxwell launch?

Was hat AMD unterhalb Fiji? Wer haette etwas gegen 16FF Maxwell shrinks gehabt innerhalb des Jahres?

Ich sage ja auch nicht, dass die Entscheidungen falsch waren, für den Gamermarkt sind Sie 100% richtig gewesen. Für CAD sollte es an sich auch passen, nur Compute ist halt so eine Sache, die eben meiner Meinung! nach kritisch werden kann (nicht muss!) vom zeitlichen Ablauf.

Die Frage ist halt immer, was wären die Alternativen gewesen, und 1x nm sind es ganz sicher nicht!

Es gab keine billige und einfach Alternative. Waehrend momentan NVIDIA unendlich Moneten schaufelt mit allem Maxwell (ueberall ausser HPC) hat AMD nach wie vor das Nachsehen und Fiji wird mit den eher laecherlich kleinen Volumen die sie gerade noch produzieren koennen bis Ende des Jahres nichts besonderes auf die Beine stellen koennen.

Versuch mal ausnahmsweise eine breitere Perspektive fuer solches Zeug anzuwenden, denn am Ende geht es bei allen auch nur wirklich wie OFT die Kasse klingelt.

Ob der wirklich sooo groß wird in 16FF muss sich erst noch zeigen. Es wäre verrückt ein 500mm² Monster direkt zu bringen.

Und bei Intel macht mir weniger Bauchschmerzen, dass Sie mit Geld um sich werfen und alles mögliche einkaufen, als dass Sie einfach zu unfairen Mitteln greifen.

Wenn man die Konkurrenz nicht einfach so schlagen kann, macht man ihr das Leben so schwer, dass Sie einfach nicht mehr gewinnen können, und gerade der Interconnect ist da ein ziemlich guter Angriffspunkt.


Wenn er nicht so gross werden sollte, dann werden sie auch ihre Projektionen auf ihren bisherigen roadmaps fuer Pascal nicht annaehernd einhalten koennen. Es ist ja auch nicht so dass Pacal NV's allererste Erfahrung mit 16FF ist. Drei Mal darfst Du raten was sie als erstes zu TSMC als testchip geschickt haben.

Sunrise
2015-06-18, 14:55:58
Ob der wirklich sooo groß wird in 16FF muss sich erst noch zeigen. Es wäre verrückt ein 500mm² Monster direkt zu bringen.
Die Frage ist, was es dir bringt, den Top-Dog viel kleiner zu machen. Erstens hast du diese gigantischen Kosten sowieso. Und ob du jetzt deine R&D auf mehrere kleine Chips verteilst oder größere ist eigentlich erstmal egal, solange du Kunden hast, die dir den für ähnliche Beträge wie bei Intel garantiert (da liegen ja Verträge vor, die NV einhalten muss) abnehmen.

Da NV zusätzlich noch die eigenen Projektionen einhalten will ist alles deutlich unter 450mm² sehr fragwürdig. Noch dazu, wenn man zusätzlich (bis zu) 32GB HBM2 verbauen will. Das wird so oder so wahrscheinlich mit das teuerste Unterfangen der letzten 10 Jahre oder mehr. Das Risiko ist natürlich da, aber sowas wird ja vorher durchkalkuliert.

Zumindest die Interposer scheinen bis 1011mm² kostentechnisch nicht wirklich ein Problem zu sein, das reicht also dann auch für NV locker aus.

Und bei >$5000 pro Karte mit schon ausgemachten Verträgen verdienst du damit auch noch mehr als genug. Du glaubst doch nicht, dass NV dort aktuell mit geringen Margen fährt. Die sind nämlich gigantisch.

TSMCs 16nm basiert ja auch nicht auf komplett neuer Technologie. Zumindest das Back-End scheint ja mit 20nm identisch zu sein. Und das ist mittlerweile mehr als ausgereift. Das minimiert das Risiko erneut.

Hübie
2015-06-18, 15:05:11
Die sabbernden Fanboys in den Threads verdrehen immer wieder aufs Neue verschrobene Vorstellungen mit Möglichkeiten die sinnvoll sind.

Ailuros
2015-06-18, 15:26:50
TSMCs 16nm basiert ja auch nicht auf komplett neuer Technologie. Zumindest das Back-End scheint ja mit 20nm identisch zu sein. Und das ist mittlerweile mehr als ausgereift. Das minimiert das Risiko erneut.

Nur zur Erinnerung fuer die Mitleser fuer 16FF und co:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10658173&postcount=1226

(denn das was ich mit "Herstellung" bezeichnet habe, kann man schnell falsch verstehen....siehe Tabelle im link...)

Skysnake
2015-06-18, 22:03:53
Was hat AMD unterhalb Fiji? Wer haette etwas gegen 16FF Maxwell shrinks gehabt innerhalb des Jahres?

1. Nichts und 2. wer hätte was gegen 16FF Hawaii/Fiji shrink dieses Jahr gehabt? :freak:

Also keine Ahnung, was das bezüglich 2. soll. Das ist doch Banane. Man kann viel wollen, aber es gibt halt noch TSMC, die erstmal 16FF richtig ans laufen bekommen müssen, und erstmal Apple (und andere) bedien.


Es gab keine billige und einfach Alternative. Waehrend momentan NVIDIA unendlich Moneten schaufelt mit allem Maxwell (ueberall ausser HPC) hat AMD nach wie vor das Nachsehen und Fiji wird mit den eher laecherlich kleinen Volumen die sie gerade noch produzieren koennen bis Ende des Jahres nichts besonderes auf die Beine stellen koennen.

Versuch mal ausnahmsweise eine breitere Perspektive fuer solches Zeug anzuwenden, denn am Ende geht es bei allen auch nur wirklich wie OFT die Kasse klingelt.

Jetzt mal ganz im Ernst, liest du eigentlich wirklich was ich schreibe?

Du wiederholst da gerade meine Aussagen...

Wo habe ich denn bitte je abgestritten, dass Sie damit aktuell im Gameingbereich alles richtig gemacht haben und dick Geld scheffeln? Ich sage nur, wie du auch, für HPC haben Sie sich halt damit ins eigene Knie erstmal geschossen, wobei es ja bisher noch gut geht, und man erst mit KNL&Fiji Launch in dem Bereich dann echt dumm dasteht, bis Pascal kommt. Jede Woche die die später kommen ist es weniger schlimm für nVidia, und so lange man <6 Monate bleibt zwischen deren Launch und Pascal ist es auch noch ok. Das habe ich jetzt schon mehrfach gesagt. :P


Wenn er nicht so gross werden sollte, dann werden sie auch ihre Projektionen auf ihren bisherigen roadmaps fuer Pascal nicht annaehernd einhalten koennen. Es ist ja auch nicht so dass Pacal NV's allererste Erfahrung mit 16FF ist. Drei Mal darfst Du raten was sie als erstes zu TSMC als testchip geschickt haben.
Ziemlich sicher kein Tegra, sondern wohl irgend ein MPW-run geraffel, um ihren Analogkram zu tesen :P

Die Frage ist, was es dir bringt, den Top-Dog viel kleiner zu machen. Erstens hast du diese gigantischen Kosten sowieso. Und ob du jetzt deine R&D auf mehrere kleine Chips verteilst oder größere ist eigentlich erstmal egal, solange du Kunden hast, die dir den für ähnliche Beträge wie bei Intel garantiert (da liegen ja Verträge vor, die NV einhalten muss) abnehmen.

Da NV zusätzlich noch die eigenen Projektionen einhalten will ist alles deutlich unter 450mm² sehr fragwürdig. Noch dazu, wenn man zusätzlich (bis zu) 32GB HBM2 verbauen will. Das wird so oder so wahrscheinlich mit das teuerste Unterfangen der letzten 10 Jahre oder mehr. Das Risiko ist natürlich da, aber sowas wird ja vorher durchkalkuliert.

Zumindest die Interposer scheinen bis 1011mm² kostentechnisch nicht wirklich ein Problem zu sein, das reicht also dann auch für NV locker aus.

Und bei >$5000 pro Karte mit schon ausgemachten Verträgen verdienst du damit auch noch mehr als genug. Du glaubst doch nicht, dass NV dort aktuell mit geringen Margen fährt. Die sind nämlich gigantisch.

TSMCs 16nm basiert ja auch nicht auf komplett neuer Technologie. Zumindest das Back-End scheint ja mit 20nm identisch zu sein. Und das ist mittlerweile mehr als ausgereift. Das minimiert das Risiko erneut.
Klar kannste für ne Tesla/Quadro richtig Kohle verlangen, aber gerade Interposer/TSVs sind nicht ohne, und dann mit HBM2 dann auch noch gleich mit Frequenzen im GHz Bereich. Also schön ist da was anderes, was die Validierung anbelangt, dass der Chip überhaupt richtig funktioniert...

Große Chips machen einfach die Probleme größer, und es kann mehr schief gehen. Vor allem, weil man eben bei mehr Sachen an die Grenzen geht, als bei kleinen Chips. Allein Clockdistribution wird halt immer schwieriger, je größer der Chip wird.

Da nicht gleich das Maximum raus zu holen macht Sinn, weil man leichter overdesignen kann, und dann schauen, wie gut die Sachen wirklich funktionieren und nochmals nachjustieren kann wenn es nötig ist. Es sinkt auch die Wahrscheinlichkeit, das man gleich mehrere Fehler in einem Design hat, was natürlich ganz fatal ist, weil man das eventuell gar nicht sieht. Also ein Fehler erst sichtbar wird, nachdem ein anderer gefixed wurde.

Ich erwarte nichts, was größer als 400mm² ist von nVidia, und davor noch was recht kleines. Man sollte/muss sich ja auch noch etwas Luft für einen Refresh lassen.

Godmode
2015-06-18, 22:14:37
Nur zur Erinnerung fuer die Mitleser fuer 16FF und co:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10658173&postcount=1226

(denn das was ich mit "Herstellung" bezeichnet habe, kann man schnell falsch verstehen....siehe Tabelle im link...)

Einfach nur abartig wie die Kosten gestiegen sind. Vor allem die Verhältnisse der einzelnen Teile hat sich auch brutal geändert.

Ich glaubs immer noch nicht das GP100 so bald kommt, wie einige hier gemeint haben. Zumindest nicht für uns Endkunden.

Sunrise
2015-06-18, 22:29:28
Einfach nur abartig wie die Kosten gestiegen sind. Vor allem die Verhältnisse der einzelnen Teile hat sich auch brutal geändert.

Ich glaubs immer noch nicht das GP100 so bald kommt, wie einige hier gemeint haben. Zumindest nicht für uns Endkunden.
Das wirklich Abartige sind die Validierungskosten, die Wafer waren anfangs ja schon immer recht teuer. Und da sind wahrscheinlich nichtmal HBM und Interposer-Technologie miteingerechnet. Ich will auch nicht wissen, was AMD insgesamt für Fiji an R&D rausgeblasen hat. Das kann man nur über mehrere Generationen wieder reinholen.

Mandalore
2015-06-18, 22:31:03
Ailuros du sagst, dass Nvidia Pascal zwischen Maxwell und Volta reingeschoben hat. Wie sollte denn Volta ursprünglich aussehen bzw. was ist Volta genau. Denn wenn man sich die GTC Slides anschaut, hat man das Gefühl, dass der ursprüngliche Volta erweitert wurde und damit zum Pascal wurde.

Godmode
2015-06-18, 22:35:24
Das wirklich abartige sind die Validierungskosten, die Wafer waren anfangs ja schon immer recht teuer. Und da sind wahrscheinlich nichtmal HBM und Interposer-Technologie miteingerechnet. Ich will auch nicht wissen, was AMD insgesamt für Fiji an R&D rausgeblasen hat.

Das meinte ich mit den Verhältnissen. Software+Validierung machen über 4/5 der Kosten aus. Das Architektur und Design so billig ist, hätte ich aber nicht für möglich gehalten. Ich bin aber auch kein Hardwareentwickler und habe generell nichts mit Halbleitern zu tun.

mczak
2015-06-18, 23:07:19
Das wirklich Abartige sind die Validierungskosten, die Wafer waren anfangs ja schon immer recht teuer. Und da sind wahrscheinlich nichtmal HBM und Interposer-Technologie miteingerechnet. Ich will auch nicht wissen, was AMD insgesamt für Fiji an R&D rausgeblasen hat. Das kann man nur über mehrere Generationen wieder reinholen.
Also R&D für HBM ist ja wohl sowieso fällig ob jetzt bei Fiji oder dann halt der nächsten Generation. Und ansonsten ist Fiji möglicherweise ein Billigchip was R&D angeht, bis jetzt ist jedenfalls noch nicht klar ob daran wirklich viel neu ist.

Sunrise
2015-06-18, 23:41:23
Also R&D für HBM ist ja wohl sowieso fällig ob jetzt bei Fiji oder dann halt der nächsten Generation. Und ansonsten ist Fiji möglicherweise ein Billigchip was R&D angeht, bis jetzt ist jedenfalls noch nicht klar ob daran wirklich viel neu ist.
Das meinst du hoffentlich nicht Ernst. Oder doch? :rolleyes:

Das Einzige was an dem Ding "billig" ist, wenn man das überhaupt so nennen kann, ist die Herstellung des Fiji-Dies auf 28nm. Alles auf dem Weg dahin war aber sicher nicht billig.

Timbaloo
2015-06-18, 23:43:54
Ich denke er meint abseits von HBM. Und Abseits von HBM hört man irgendwie nicht sonderlich viel über Fiji.

Edit: Eigentlich ist sogar sehr klar was er meint. Er hat es ja genauso geschrieben :P

Sunrise
2015-06-18, 23:49:27
Ich denke er meint abseits von HBM. Und Abseits von HBM hört man irgendwie nicht sonderlich viel über Fiji.

Edit: Eigentlich ist sogar sehr klar was er meint. Er hat es ja genauso geschrieben :P
Ja genau weil es so klar ist, bin ich mir nicht sicher, ob er das Ernst meint. Es geht ja nicht nur um den fast 600mm² großen Die, sondern alles zusammen an R&D. Und auf der nächsten Fertigung wirds nochmal extrem teuer, aber zumindest hat AMD da die Grundlagen bereits mit Hynix, UMC usw. durch. Aber selbst das heißt, dass du keine Schritte komplett überspringen kannst, das hilft dir allerdings wahrscheinlich beim Time-To-Market etwas, denn Fiji (nochmal: einzig und allein der GPU-Die) scheint sehr lange schon fertig gewesen zu sein. Zu Fiji gehört aber mehr als nur das Silizium auf dem Package. Schade, das auf dem Chip selbst wohl kein Produktionsdatum draufsteht.

Ich rede also von der R&D Summe die sich über Jahre angesammelt hat und nicht nur vom 28nm Chip. Dass das "sowieso irgendwann anfällt", schmälert unnötig etwas den Wert, den diese Entwicklung genommen hat. AMD hat ja eigentlich sogar "zu früh" damit losgelegt. Aber warum nicht, den zeitlichen Vorsprung sollte man nutzen. Wenn etwas fertig ist, dann sollte es auch verkauft werden.

Mandalore
2015-06-19, 00:07:43
Also R&D für HBM ist ja wohl sowieso fällig ob jetzt bei Fiji oder dann halt der nächsten Generation. Und ansonsten ist Fiji möglicherweise ein Billigchip was R&D angeht, bis jetzt ist jedenfalls noch nicht klar ob daran wirklich viel neu ist.


Anfangs hieß es GCN 1.3, jetzt wurde PCGH bestätigt, dass es Tonga Level ist. Also architekturmäßig keine Weiterentwicklung, sprich Tonga 2.0

mczak
2015-06-19, 02:38:12
Ich meine einfach es sieht nicht so aus dass man da jetzt extrem viel investiert hat um da einen "Super-chip" zu entwickeln und den Rest vergessen hat. Klar, das ganze HBM Zeugs war sicher teuer, aber die Entwicklungskosten hätte man eben grossteils sicher auch wenn man das erst bei der nächsten Chipgeneration gemacht hätte, man weiss jetzt wenigstens schon wie's funktioniert (bin gespannt darauf ob nvidia das dann auch zu vernünftiger Zeit hinkriegt). Die Fertigungskosten sind wohl auch nicht ohne aber das ist ja wohl nicht so gravierend bei dem Chip. Ging mir eher darum dass eben sonst bei diesem Chip architekturmässig wohl nicht wirklich viel geändert hat (nvidia z.B. hat ja manchmal bei High-End Chips wie dem gk110 echte Architekturänderungen an Bord), scheint wohl wirklich einfach GCN 1.2 zu sein (ob da wirklich so gut wie gar nichts geändert hat wissen wir allerdings noch nicht).

Ailuros
2015-06-19, 08:59:53
1. Nichts und 2. wer hätte was gegen 16FF Hawaii/Fiji shrink dieses Jahr gehabt? :freak:

Wenn sie es nichtmal schaffen Treiber (dank fehlenden resources) fuer fertige hw bereitzustellen ist wohl das letzte eher im Bereich des laecherlichen.

Also keine Ahnung, was das bezüglich 2. soll. Das ist doch Banane. Man kann viel wollen, aber es gibt halt noch TSMC, die erstmal 16FF richtig ans laufen bekommen müssen, und erstmal Apple (und andere) bedien.

Es waren original fruehe Maxwell shrinks geplant. Es hat durchaus einen Zusammenhang zum Thema hier, da GP100 wohl fuer den Anfang der einzige chip einer wahren "neuen" Generation sein wird.


Jetzt mal ganz im Ernst, liest du eigentlich wirklich was ich schreibe?

Du wiederholst da gerade meine Aussagen...

Wenn ich Deinen Kaese wiederholen wuerde, wuerde es eher konstant nach "DP ist nur was zaehlt" und "NV sucks" aussehen :P

Wo habe ich denn bitte je abgestritten, dass Sie damit aktuell im Gameingbereich alles richtig gemacht haben und dick Geld scheffeln? Ich sage nur, wie du auch, für HPC haben Sie sich halt damit ins eigene Knie erstmal geschossen, wobei es ja bisher noch gut geht, und man erst mit KNL&Fiji Launch in dem Bereich dann echt dumm dasteht, bis Pascal kommt. Jede Woche die die später kommen ist es weniger schlimm für nVidia, und so lange man <6 Monate bleibt zwischen deren Launch und Pascal ist es auch noch ok. Das habe ich jetzt schon mehrfach gesagt. :P

Ich versuche nur zu erklaeren dass Deine bekloppte HPC konzentrierte Logik einfach nur zu einsichtig einseitig ist. Es geht eben bei AMD und NVIDIA um vieles mehr als nur den HPC Mist und bis jetzt und fuer noch einige Jahre in die Zukunft wird desktop dank sehr grossem Volumen vergleichsmaessig zu Profi-Maerkten das hauptsaechliche R&D finanzieren.

Ziemlich sicher kein Tegra, sondern wohl irgend ein MPW-run geraffel, um ihren Analogkram zu tesen :P

GM200.


Klar kannste für ne Tesla/Quadro richtig Kohle verlangen, aber gerade Interposer/TSVs sind nicht ohne, und dann mit HBM2 dann auch noch gleich mit Frequenzen im GHz Bereich. Also schön ist da was anderes, was die Validierung anbelangt, dass der Chip überhaupt richtig funktioniert...

Große Chips machen einfach die Probleme größer, und es kann mehr schief gehen. Vor allem, weil man eben bei mehr Sachen an die Grenzen geht, als bei kleinen Chips. Allein Clockdistribution wird halt immer schwieriger, je größer der Chip wird.

Da nicht gleich das Maximum raus zu holen macht Sinn, weil man leichter overdesignen kann, und dann schauen, wie gut die Sachen wirklich funktionieren und nochmals nachjustieren kann wenn es nötig ist. Es sinkt auch die Wahrscheinlichkeit, das man gleich mehrere Fehler in einem Design hat, was natürlich ganz fatal ist, weil man das eventuell gar nicht sieht. Also ein Fehler erst sichtbar wird, nachdem ein anderer gefixed wurde.

Ich erwarte nichts, was größer als 400mm² ist von nVidia, und davor noch was recht kleines. Man sollte/muss sich ja auch noch etwas Luft für einen Refresh lassen.

Du antwortest zwar hier auf Sunrise, aber es bleibt dabei wie oben beschrieben "HPC ueber alles" und "NV sux0rz", ergo beschwer Dich auch nicht wenn es andere auch so verstehen. Pascal ist eben NICHT nur 400mm2 gross und ja ich bin mir so sicher wie ich es sein kann momentan.

Die Laier mit den grossen chips kannst Du auch Intel fuer KNL erzaehlen LOL ;D

N0Thing
2015-06-19, 09:13:26
Ich versuche nur zu erklaeren dass Deine bekloppte HPC konzentrierte Logik einfach nur zu einsichtig ist.

Du hast mal um Korrekturen gebeten, wenn du dich einer falschen Wortwahl bedienst. Ich denke, du meinst hier nicht einsichtig wie verständnisvoll/einlenkend, sondern eher einseitig wie nur eine einzige Sichtweise auf die Dinge zu haben.

Sorry für OT

Skysnake
2015-06-19, 11:27:55
Ailuros, bestreite ich irgendwo, das meine Sichtweise da einseitig ist? Naja, eigentlich ist Sie zweiseitig. 1. HPC 2. Gamer/Restmarkt. Daher ja auch meine völlig konträren Ergebnisse 1. Schlechte Ausgangslage für nVidia 2. Alles richtig gemacht.

Und bzgl. HPC und nVidia sucks:
Ich hasse einfach Vendor lockins, vor allem wenn man wie meiner Meinung nach nVidia damit verhindert, dass sich der Markt schneller entwickelt als er könnte (und Intel seh ich mit OmniPath auf dem gleichen Weg...). Da mag es eine Million mal für Sie richtig sein. Das verstehe ich, aber man muss auch die andere Seite verstehen, die das einfach nur bescheiden findet. Es ist halt nie nur Schwarz oder Weiß.

Das sollte man dann bitte auch mal so zur Kenntnis nehmen. GPUDirect2 suckt z.B. an sich gar nicht sondern ist ziemlich cool, gibts aber nur mit dem Vendor lockin, der dafür derbst suckt.

@KNL:
Ja, das kann man Intel auch vorhalten, oder warum ist das Ding noch nicht da? Ich empfinde KNL so in der Form durchaus übertrieben/unvernünftig. Intel hat aber die Fertigung im eigenen Haus und sitzt da schon ewigkeiten dran. Das kann man finde ich nicht wirklich vergleichen mit der Situation eines Fabless Herstellers.

@GM200 16FF:
Ja ne ist klar, GM200 ist der ERSTE! Test-Chip der raus geht von nVida in 16FF. Sorry, aber das glaubst du doch hoffentlich nichtmal selbst. Sich da 100% auf die PDKs zu verlassen und nichts selbst in realen Chips zu testen wäre fucking gewagt bei einem neuen Prozess. Und da mag 16FF sein was es will. So klein können die Änderungen da kaum sein, das man da sich einfach so drauf einlässt. Wenn müsste nVidia aus meiner Sicht unvernünftig große Margen einplanen, damit daswirklich 100% sicher alles ist. Das 16FF aber soo fucking gut ist, kann ich mir nicht vorstellen, zumal ein MPW run ja für nVidia praktisch kein Geld kostet, wenn man das damit gleicht, was passiert, wenn Sie doch einen Designfehler drin haben.

Oder meint du mit ersten "Test"-Chip, den ersten Chip, ein fertiges Produkt, was Sie auch verkaufen könnten? Dann von mir aus, aber davor werden Sie wohl mehr als nur einen reinen Testchip gehabt haben.

Ailuros
2015-06-19, 11:48:22
@KNL:
Ja, das kann man Intel auch vorhalten, oder warum ist das Ding noch nicht da? Ich empfinde KNL so in der Form durchaus übertrieben/unvernünftig. Intel hat aber die Fertigung im eigenen Haus und sitzt da schon ewigkeiten dran. Das kann man finde ich nicht wirklich vergleichen mit der Situation eines Fabless Herstellers.

Aendert aber keine bisschen etwas daran dass es Intel trotz allem ein Schweinegeld kostet und dass dank der Komplexitaet des designs doch laenger dauern koennte als Intel projeziert.

@GM200 16FF:
Ja ne ist klar, GM200 ist der ERSTE! Test-Chip der raus geht von nVida in 16FF. Sorry, aber das glaubst du doch hoffentlich nichtmal selbst.

Der erste testrun fuer 28HP war ein GF110 direkt auf 28nm geschrumpft.

Sich da 100% auf die PDKs zu verlassen und nichts selbst in realen Chips zu testen wäre fucking gewagt bei einem neuen Prozess. Und da mag 16FF sein was es will. So klein können die Änderungen da kaum sein, das man da sich einfach so drauf einlässt. Wenn müsste nVidia aus meiner Sicht unvernünftig große Margen einplanen, damit daswirklich 100% sicher alles ist. Das 16FF aber soo fucking gut ist, kann ich mir nicht vorstellen, zumal ein MPW run ja für nVidia praktisch kein Geld kostet, wenn man das damit gleicht, was passiert, wenn Sie doch einen Designfehler drin haben.

Vielleicht solltest Du mal fucking anfangen etwas fucking mehr zu denken, ueberhaupt wenn Du keine Ahnung davon hast.

Oder meint du mit ersten "Test"-Chip, den ersten Chip, ein fertiges Produkt, was Sie auch verkaufen könnten? Dann von mir aus, aber davor werden Sie wohl mehr als nur einen reinen Testchip gehabt haben.

Wenn Du schon nicht weisst was ich meine, frag erstmal nach bevor Du nur Mist in die Gegend tippst.

Skysnake
2015-06-19, 11:54:07
Dann drück dich doch bitte einfach klarer aus, bzw. sag zumindest etwas, wenn dir klar wird, das man etwas anderes verstanden hat, als du gemeint hast :P Spätestens bei MPW run hätte es ja dann bei dir klingeln können, das ich wohl etwas anderes verstanden habe als du meintest.

Godmode
2015-06-19, 11:54:10
Weißt du jetzt eigentlich, wann der nächste Highendchip für uns Endkunden kommen soll? Ich bin ja von Anfang 2017 ausgegangen, was hier aber viele für zu spät hielten.

Ailuros
2015-06-19, 12:16:57
Weißt du jetzt eigentlich, wann der nächste Highendchip für uns Endkunden kommen soll? Ich bin ja von Anfang 2017 ausgegangen, was hier aber viele für zu spät hielten.

Ich hab nicht die geringste Ahnung. Ich wuerde aber schaetzen dass sie aus verstaendlichen Gruenden Pascal in Profi-Maerkten so schnell wie moeglich veroeffentlichen muessen. Einen Performance-Nachfolger fuer GM204 (IMHO stets, ohne HBM) unter 16FF wuerde ich dann schon im ersten Quartal 2016 erwarten; es kommt dann eben mal wieder darauf an was man mit "high end" meint. Vom Preis her dann wohl schon, als chip aber per se wohl nicht.

Skysnake
2015-06-19, 12:35:47
Aber zumindest wohl schneller und gleichzeitig auch noch effizienter als die Konkurrenz. Das reicht erstmal.

robbitop
2015-06-19, 12:49:13
Wenn GP100 jetzt einen erfolgreichen Tapeout hatte und kein Respin notwendig war, werden doch sicher spätestens in 6-9 Monaten (sofern der Prozess bis dahin ausgereift ist) so viele Chips vom Band fallen, dass es nicht unrealistisch sein sollte Sommer/Herbst diesen an die Consumer weiterzureichen oder?

Wenn Q1 GP104 käme, könnte das schon historisch gesehen passen, dass Q3 2016 GP100 in Form einer Titan käme.

Godmode
2015-06-19, 13:08:32
Ich hab nicht die geringste Ahnung. Ich wuerde aber schaetzen dass sie aus verstaendlichen Gruenden Pascal in Profi-Maerkten so schnell wie moeglich veroeffentlichen muessen. Einen Performance-Nachfolger fuer GM204 (IMHO stets, ohne HBM) unter 16FF wuerde ich dann schon im ersten Quartal 2016 erwarten; es kommt dann eben mal wieder darauf an was man mit "high end" meint. Vom Preis her dann wohl schon, als chip aber per se wohl nicht.

Was meine ICH wohl mit Highend? :biggrin:

Wenn GP100 jetzt einen erfolgreichen Tapeout hatte und kein Respin notwendig war, werden doch sicher spätestens in 6-9 Monaten (sofern der Prozess bis dahin ausgereift ist) so viele Chips vom Band fallen, dass es nicht unrealistisch sein sollte Sommer/Herbst diesen an die Consumer weiterzureichen oder?

Wenn Q1 GP104 käme, könnte das schon historisch gesehen passen, dass Q3 2016 GP100 in Form einer Titan käme.

6 Monate halte ich für zu optimistisch, dann schon eher 9.

Ailuros
2015-06-19, 13:08:52
Wenn GP100 jetzt einen erfolgreichen Tapeout hatte und kein Respin notwendig war, werden doch sicher spätestens in 6-9 Monaten (sofern der Prozess bis dahin ausgereift ist) so viele Chips vom Band fallen, dass es nicht unrealistisch sein sollte Sommer/Herbst diesen an die Consumer weiterzureichen oder?

Q1 16' im allerbesten Fall.

Was meine ICH wohl mit Highend? :biggrin:


Dann buch Dir erstmal Deinen 2016 Sommerurlaub und dann sehen wir weiter :P

Sunrise
2015-06-19, 14:06:31
Wenn GP100 jetzt einen erfolgreichen Tapeout hatte und kein Respin notwendig war, werden doch sicher spätestens in 6-9 Monaten (sofern der Prozess bis dahin ausgereift ist) so viele Chips vom Band fallen, dass es nicht unrealistisch sein sollte Sommer/Herbst diesen an die Consumer weiterzureichen oder?
Es ist ja auch nicht nur GP100, sondern alles andere, was auch in Mengen verfügbar sein muss, damit NV hier den Consumermarkt bedienen kann.

Erst kommen die garantierten Lieferverträge (siehe Tegra bei Fermi), danach die Märkte mit den höheren Margen (HPC, Quadro), die natürlich zuerst bedient werden und danach erst - wenn da noch was an Volumen übrig bleibt (HBM, Interposer, GP100 usw.) - kannst du mit Produkten für uns Konsumenten rechnen.

Das wird IMHO frühestens Q2 sein, wenn nicht noch deutlich später. Alles andere wäre extrem überraschend (für mich).

Das ist so nicht so einfach bestimmbar, denn der TapeOut des Chips alleine sagt uns nur, dass die Hauptkomponente vom Design abgenommen wurde. Aber wir wissen ja, das dort auch nachträglich bei der Validierung noch etwas schief gehen kann, weshalb Q1/Q2 wohl extrem optimistisch sind. Mal davon ab, dass NV die restlichen Komponenten in sehr großen Mengen beschaffen muss.

Da man bei Hynix auch noch nichts von HBM2 liest (nichts auf dem Databook, HBM1 war bei AMD schon etliche Monate vorher gelistet) wird das evtl. sogar zum Flaschenhals. Den Chip und Interposer kann man - auch mit schlechteren Margen - produzieren, aber bei HBM2 scheint aktuell nur Hynix involviert zu sein, die einen neuen Prozess für HBM2 benötigen, denn der "alte" 20nm Prozess ist scheinbar nur für HBM1 vorgesehen, ansonsten könnten sie diese massiven Verbesserungen (höhere Speicherkapazität, höhere Geschwindigkeit, weiterhin extrem sparsam im Verbrauch) auch nicht erreichen. Und Hynix produziert ja nicht nur HBM. Es ist zwar irgendwas von Samsung im Netz rumgegangen, aber da lies man auch absolut nichts. Wird schon seinen Grund haben, warum AMD noch auf HBM1 gesetzt hatte.

Timbaloo
2015-06-19, 15:41:44
Einen Performance-Nachfolger fuer GM204 (IMHO stets, ohne HBM) unter 16FF
Ich frage mich warum du GP104 (oder wie auch immer sie ihn nennen) immer als nicht-HBM-Chip siehst? Ich kann mir das beim besten Willen nicht vorstellen.

robbitop
2015-06-19, 15:55:17
HBM2 könnte im Launchfenster für einen Massenchip wie GP104 noch zu teuer oder nicht in ausreichenden Stückzahlen erhältlich sein.

Nakai
2015-06-19, 15:56:30
Ohne HBM2, also größerem Speicher, wird es nichts mit GP100. Womöglich bringt Hynix ab Q3 2015 größere Stacks. Mit 6 Stacks, je 2GB, also insgesamt 12GB, kann man im HPC-Bereich auftrumpfen.

Ich erwarte das nicht im Q1 2016.

GP104 wird wohl zeitgleich kommen.

GP100 500~600mm², 6 HBM-Stacks
GP104 ~350mm², GDDR5? oder HBM? (GDDR5 ist eigentlich ausgelutscht, 4 HBM-Stacks sind realistisch)

Dural
2015-06-19, 15:57:41
NV hat ja schon bis zu 32GB für GP100 bestätigt.

Sunrise
2015-06-19, 16:07:00
NV hat ja schon bis zu 32GB für GP100 bestätigt.
Richtig, was also schon verdammt fette HBMs bräuchte, die unglaublich teuer werden. Ich bin mal gespannt, ob diese Roadmap realistisch eingehalten werden kann. Mehr als 16GB HBM2 wird es daher anfänglich (wenn überhaupt) wohl nur für horrende Preise geben.

@Nakai:
IMHO sind mehr als 4 HBM-Stacks illusorisch, siehe Fiji.

robbitop
2015-06-19, 16:07:53
Naja für GP104 würde GDDR5 noch ausreichend sein. Muss man halt die SI Breite erhöhen. 384 bit. Das geht mal für eine Gen.

fondness
2015-06-19, 16:11:09
Auf der Hynix Roadmap steht HBM2 jedenfalls nicht vor Q2/2016...

Palpatin
2015-06-19, 16:14:33
Könnten auch einfach HBM1 nehmen für GP104 und ihn noch gegen Ende des Jahres releasen, wenn der Chip bis dahin fertig ist. Ideal zum doppelt melken.

Timbaloo
2015-06-19, 16:19:01
HBM2 könnte im Launchfenster für einen Massenchip wie GP104 noch zu teuer oder nicht in ausreichenden Stückzahlen erhältlich sein.
Konnte man vor ~2 Jahren (als man die Marschroute für Pascal gelegt hat) denn überhaupt schon wissen, dass HBM2 nicht ausreichend verfügbar sein wird zum Zeitpunkt des Release von GP104? Wenn ja, woher hatte man dann die Sicherheit, dass für GP110 trotzdem ausreichende Verfügbarkeit gegeben sein wird?

Ich verstehe ja deinen Einwand, nur glauben kann ich ein GP104@DDR5 einfach nicht.

StefanV
2015-06-19, 18:24:23
Die Frage ist doch:

a) hat AMD eventuell einen exklusivvertrag mit Hynix?
b) wie schaut es mit dem Interface an, was ist dort patentiert?
c) war nVidia eigentlich nie mit vorn beim Speicher. AMD hat schon fast GDDR5 benutzt, da waren die noch bei GDDR3...

Timbaloo
2015-06-19, 18:35:06
Die Frage ist doch:

a) hat AMD eventuell einen exklusivvertrag mit Hynix?
Ja, genau das wirds sein.

:facepalm:

Nakai
2015-06-19, 20:13:41
@Nakai:
IMHO sind mehr als 4 HBM-Stacks illusorisch, siehe Fiji.

Naja also bei Fiji wäre noch Platz für 1 Stack auf jeder Seite. Man müsste alles etwas besser quetschen. Aber richtig, NV hat schon "geleakt" wieviel Speicher GP100 haben wird, also 4 Stacks.

@Robbitop:
Ich hoff mal, dass AMD nächstes Jahr noch andere Chips mit HBM auflegt. NV sollte das gleiche tun.

rentex
2015-06-20, 07:38:24
HBM sollte aber auch kein Wundermittel werden. Die eigentliche Leistung der GPU muss ebenfalls steigen. Davon hört man bisher nichts.
Ganz doofe Frage: Warum haben Nvidia, bis jetzt max. 384 bit Speicherbandbreite gereicht?

ndrs
2015-06-20, 12:18:27
Ganz doofe Frage: Warum haben Nvidia, bis jetzt max. 384 bit Speicherbandbreite gereicht?
Die hätten AMD bei ähnlichen Taktraten sicher auch gereicht. Der Speicher am 512bit-SI von Hawaii taktet deutlich langsamer und so war es leichter die für den Profimarkt großen Speichermengen anzubinden.

Hübie
2015-06-20, 12:22:05
HBM sollte aber auch kein Wundermittel werden. Die eigentliche Leistung der GPU muss ebenfalls steigen. Davon hört man bisher nichts.

Titan X verdoppelt oftmals die (Spiele-) Performance zur Titan Classic.

Ganz doofe Frage: Warum haben Nvidia, bis jetzt max. 384 bit Speicherbandbreite gereicht?

A) ist die Frage nicht doof, B) weil man per Treiber Speicherzugriffe optimieren kann, C) weil der Takt seit der GTX 680 recht hoch ist, D) weil man mit mehr IMC Latenzen verstecken kann und E) weil Kompressionsverfahren schon länger eingesetzt werden.

Es gibt aber Szenarien in denen Speichergeschwindigkeit schon limitiert oder besser gesagt einschränkt.
HBM schafft dieses Problem nicht aus der Welt, aber gibt genug Spielraum. Das eigentliche Problem ist auch der HPC-Bereich wo spielend Bandbreite aufgeraucht wird (glaube atomics is n gutes Beispiel).

Nakai
2015-06-20, 12:34:47
A) ist die Frage nicht doof, B) weil man per Treiber Speicherzugriffe optimieren kann, C) weil der Takt seit der GTX 680 recht hoch ist, D) weil man mit mehr IMC Latenzen verstecken kann und E) weil Kompressionsverfahren schon länger eingesetzt werden.


Das sind eben diese klassischen Entscheidungen beim Chipdesign. Alles kostet irgendwie Platz(und somit Geld), ergo muss man immer das richtige Mittelmaß finden. Speicherinterfaces bzw. MCs, also das gesamte Backend, kostet immer ziemlich viel. Einerseits muss jeder Hop auch verbunden werden, wodurch der gesamte Interconnect fetter wird. Interconnect ist beim Chipdesign immer eine der kostenintensivsten Sachen. Manche würden sagen, dass diese die Logik ist, aber das Routing ist generell ein Problem, sei es im SM oder in den Logikblöcken oder eben zwischen Diesen.

Da könnte man jetzt Stunden darüber philosophieren, wieso NV eben sich so entschieden hat. Unterm Strich kann man es so sagen:
"Es hat so eben am Besten gepasst!"

Hübie
2015-06-20, 12:42:55
Es wird ja oft vergessen dass ein Chip auch mehrere Lagen hat. Und meistens geht's um Watt pro (Bit-) Transfer. Flächenbudget muss man dann je nach Fertigung einhalten - ja.
In wenigen Jahren wird man wohl auch andere Elemtente verwenden müssen, da Silizium auch einfach begrenzt ist.

rentex
2015-06-20, 14:45:13
Ah! Ja ok, dachte schon etwa in die Richtung der Antworten....... Dann müsste Pascal diesmal, nicht wie Maxwell, in Richtung Profi-Anwendungen/Markt gehen wenn mann dem ganzen hier folgt. So gesehen wird Pascal wiederum ein Zwischenschritt zu Volta...was dann wiederum das beabsichtigte Ziel ist um HBM endgültig zu etablieren :freak:...so wie Fiji mit Arctic Islands, von AMD....denk ich mir mal.
Entscheidend ist wohl das Designziel!

Nakai
2015-06-20, 14:48:49
Es wird ja oft vergessen dass ein Chip auch mehrere Lagen hat. Und meistens geht's um Watt pro (Bit-) Transfer. Flächenbudget muss man dann je nach Fertigung einhalten - ja.
In wenigen Jahren wird man wohl auch andere Elemtente verwenden müssen, da Silizium auch einfach begrenzt ist.

Ich geh da eher von der FPGA-Seite heran. Diese sind wirklich nur 2D und haben nicht mehrere Layer. Da sind dann breite Signal schonmal ein Problem. Richtige Chip-Entwicklung bzw. Layouting und Routing auf Silizium habe ich noch nicht erlebt.

€:
Ah! Ja ok, dachte schon etwa in die Richtung der Antworten....... Dann müsste Pascal diesmal, nicht wie Maxwell, in Richtung Profi-Anwendungen/Markt gehen wenn mann dem ganzen hier folgt. So gesehen wird Pascal wiederum ein Zwischenschritt zu Volta...was dann wiederum das beabsichtigte Ziel ist um HBM endgültig zu etablieren :freak:...so wie Fiji mit Arctic Islands, von AMD....denk ich mir mal.
Entscheidend ist wohl das Designziel!

Pascal wurde dank Fiji krass über den Haufen geworfen, siehe drastische Änderung der Roadmaps. Eventuell hat man es auch getan, weil HBM früher kommt als bei NV erwartet wurde.

rentex
2015-06-20, 14:55:51
Ich hoffe inständig, das NV relativ ruhig und überlegt an die Sache rangeht, was die Veröffentlichungspolitik angeht. Pascal soll doch ausgereift an den Start gehen. Fiji ist ja ein tolles Stück Technik, das sich aber noch im RL bewähren muss. Eine Reaktion seitens NV gibt es ja noch nicht, tippe aber auf nen nachgelegten Performancetreiber.

Kartenlehrling
2015-06-20, 15:03:42
Da sehe ich keine Sorge...
beim Maxwell haben sie sich ja auch 1 1/2 Jahre Zeit gelassen um die Portfolie mit 6 Karten abzudecken.

01.06.2015 GeForce GTX 980 Ti
2 1/2 Monate
17.03.2015 GeForce GTX Titan X
2 Monate
22.01.2015 GeForce GTX 960
4Monate
19.09.2014 GeForce GTX 980/970
7Monate
18.02.2014 GeForce GTX 750 (Ti)

rentex
2015-06-20, 16:22:46
Wie die Zeit vergeht...

Sunrise
2015-06-20, 16:38:03
Pascal wurde dank Fiji krass über den Haufen geworfen, siehe drastische Änderung der Roadmaps. Eventuell hat man es auch getan, weil HBM früher kommt als bei NV erwartet wurde.
Pascal wurde nicht über den Haufen geworfen, sondern zusätzlich eingeschoben, weil ursprünglich sollte direkt Volta kommen. Jetzt haben wir Pascal (HBM2, NVLink Gen1) auf 16nm TSMC und Volta (HBM2, NVLink Gen2) auf 10nm TSMC.

Das hat aber nichts mit Fiji zu tun, sondern weil man bei Maxwell DP gestrichen hat um sich voll auf SP-Leistung und Effizienz zu konzentrieren, da HBM für NV noch keinen Sinn ergab. Dafür braucht man jetzt einfach schnellstmöglich Ersatz. Das weiß NV aber schon selbst, das hat rein garnichts mit Fiji oder AMD zu tun.

Generell ist die Ansicht, dass NV etwas tut, weil AMD etwas tut wenn es um deren Architekturentwicklungen geht falsch, da diese Architekturen schon viel zulange im Voraus entwickelt werden, dass man hier auf die Konkurrenz Rücksicht nimmt.

Der Grund, warum HBM aktuell noch schwierig ist, ist auch ganz einfach zu erklären. Erstens haben wir ja zusammen festgestellt, dass HBM1 quasi DOA ist, da nicht für großere Kapazitäten zu gebrauchen. Zweitens werden durch HBM2 viel mehr Märkte erschlossen, die NV bedienen muss, was HBM1 für NV schonmal ausgeschlossen hatte. Das heißt NV hatte garkeine andere Wahl, als hier eine Änderung einzubauen, da ihre Strategie und ihre Margen sehr stark davon abhängen, im HPC-Großkunden, Quadro und High-End-Gaming-Business immer an der Spitze zu sein. Das ist NVs Brot und Butter.

Wie stark sich Pascal an Maxwell bedient müssen wir auch schauen, denn bei den geplanten Änderungen wird NV die Effizienz wohl nur dadurch halten können, dass sie wieder die Caches ausbauen, zusätzlich auf die Vorteile von 16nm zählen können und genug Rohleistung für HBM2 bereitstellen können. Denn auch bei NV wird die Bandbreite ja gigantisch werden, noch weit höher als bei Fiji.

AMD hat auf 28nm den Fiji-Die bis an die Grenze gebaut. Laut AMD ist der eingesetzte Interposer (1011mm²) am Limit dessen, was noch kosteneffizent zu produzieren war (Reticle Limit bei UMC auf 32nm für den Interposer) und der Fiji-Die hat hier noch einen Spielraum von 4mm² (~600mm² theoretisches Maximum) gehabt. Mehr ging nicht. Auch NV wird das treffen, wobei 600mm² auf 16nm natürlich schlichtweg der Wahnsinn wäre. Ein weiterer Grund, warum ich nicht mit mehr als mit 4 HBMs rechne ist, dass man ja auf den Architekturbildern die Pads für Fiji sieht und da ist das Package bis an den Rand komplett mit Pads. Wenn du jetzt noch mehr MCs bzw. PHYs verbaust, dann hast du garkeinen Platz mehr. Und man kann wohl kaum davon ausgehen, dass Pascal weniger Pads haben wird. Zudem shrinken die nicht in gleichem Maße wie der Fertigungsprozess, man wäre bei der identischen Größe des Package wie bei Fiji wohl dann auch padlimitiert. Und da wir glaube ich nicht von 600mm² ausgehen, wird es dann auch extrem eng auf dem Interposer. AMD hat sich das natürlich auch alles vorher überlegt und mehr als 4GB gingen einfach nicht, das war AMDs Kompromiss, den man aber in gewisser Weise eingehen musste, da man an GCN festgehalten hat.

Mandalore
2015-06-21, 15:09:12
Maxwell sollte doch einst viel mehr Leistung bieten als Kepler. Kann es sein, dass Pascal das ist was Maxwell hätte sein sollen, Nvidia aber durch den fehlenden Prozess dies nicht umsetzten konnte? Wird Pascal überhaupt an der Archi. was Großes ändern?

R.I.P.
2015-06-21, 19:17:59
Pascal wurde nicht über den Haufen geworfen, sondern zusätzlich eingeschoben, weil ursprünglich sollte direkt Volta kommen. Jetzt haben wir Pascal (HBM2, NVLink Gen1) auf 16nm TSMC und Volta (HBM2, NVLink Gen2) auf 10nm TSMC.

Das hat aber nichts mit Fiji zu tun, sondern weil man bei Maxwell DP gestrichen hat um sich voll auf SP-Leistung und Effizienz zu konzentrieren, da HBM für NV noch keinen Sinn ergab. Dafür braucht man jetzt einfach schnellstmöglich Ersatz. Das weiß NV aber schon selbst, das hat rein garnichts mit Fiji oder AMD zu tun.

Generell ist die Ansicht, dass NV etwas tut, weil AMD etwas tut wenn es um deren Architekturentwicklungen geht falsch, da diese Architekturen schon viel zulange im Voraus entwickelt werden, dass man hier auf die Konkurrenz Rücksicht nimmt.

Der Grund, warum HBM aktuell noch schwierig ist, ist auch ganz einfach zu erklären. Erstens haben wir ja zusammen festgestellt, dass HBM1 quasi DOA ist, da nicht für großere Kapazitäten zu gebrauchen. Zweitens werden durch HBM2 viel mehr Märkte erschlossen, die NV bedienen muss, was HBM1 für NV schonmal ausgeschlossen hatte. Das heißt NV hatte garkeine andere Wahl, als hier eine Änderung einzubauen, da ihre Strategie und ihre Margen sehr stark davon abhängen, im HPC-Großkunden, Quadro und High-End-Gaming-Business immer an der Spitze zu sein. Das ist NVs Brot und Butter.

Wie stark sich Pascal an Maxwell bedient müssen wir auch schauen, denn bei den geplanten Änderungen wird NV die Effizienz wohl nur dadurch halten können, dass sie wieder die Caches ausbauen, zusätzlich auf die Vorteile von 16nm zählen können und genug Rohleistung für HBM2 bereitstellen können. Denn auch bei NV wird die Bandbreite ja gigantisch werden, noch weit höher als bei Fiji.

AMD hat auf 28nm den Fiji-Die bis an die Grenze gebaut. Laut AMD ist der eingesetzte Interposer (1011mm²) am Limit dessen, was noch kosteneffizent zu produzieren war (Reticle Limit bei UMC auf 32nm für den Interposer) und der Fiji-Die hat hier noch einen Spielraum von 4mm² (~600mm² theoretisches Maximum) gehabt. Mehr ging nicht. Auch NV wird das treffen, wobei 600mm² auf 16nm natürlich schlichtweg der Wahnsinn wäre. Ein weiterer Grund, warum ich nicht mit mehr als mit 4 HBMs rechne ist, dass man ja auf den Architekturbildern die Pads für Fiji sieht und da ist das Package bis an den Rand komplett mit Pads. Wenn du jetzt noch mehr MCs bzw. PHYs verbaust, dann hast du garkeinen Platz mehr. Und man kann wohl kaum davon ausgehen, dass Pascal weniger Pads haben wird. Zudem shrinken die nicht in gleichem Maße wie der Fertigungsprozess, man wäre bei der identischen Größe des Package wie bei Fiji wohl dann auch padlimitiert. Und da wir glaube ich nicht von 600mm² ausgehen, wird es dann auch extrem eng auf dem Interposer. AMD hat sich das natürlich auch alles vorher überlegt und mehr als 4GB gingen einfach nicht, das war AMDs Kompromiss, den man aber in gewisser Weise eingehen musste, da man an GCN festgehalten hat.

Sehr interessant wird TSMC 16nm Prozess sein was Qualität und Yields betrifft. Scheinbar ist Nvidia nicht besonders angetan von den Yields von Samsungs 14nm Prozess oder man wollte einfach jemanden den Miesepeter zuschieben, auf jedem Falle wird Nvidia bei TSMC exklusiv bleiben. An 10nm TSMC glaube ich in naher Zukunft sehr wenig (was wird dann aus Volta?), wenn bereits Intel scheinbar mit 10nm große Probleme hat

Duplex
2015-06-21, 19:20:35
Maxwell sollte doch einst viel mehr Leistung bieten als Kepler. Kann es sein, dass Pascal das ist was Maxwell hätte sein sollen, Nvidia aber durch den fehlenden Prozess dies nicht umsetzten konnte? Wird Pascal überhaupt an der Archi. was Großes ändern?
Maxwell hat doch bei gleichem Prozess 50% mehr Effizienz als Kepler.

Pacal wird einen neuen Prozess in kleineren Strukturen nutzen, hier braucht man die Architektur nicht so hoch wie Maxwell optimieren, ich gehe von 25-30% ALU Verbesserungen aus,
durch 16 FF + HBM wird man AMD deutlich schlagen!

Gipsel
2015-06-22, 00:28:39
Ich geh da eher von der FPGA-Seite heran. Diese sind wirklich nur 2D und haben nicht mehrere Layer. Da sind dann breite Signal schonmal ein Problem.Wie kommst Du denn auf die Idee? Chips ohne Metall-Layer gibt es nicht. Auch ein FPGA muß die einzelnen Transistoren verdrahten und die verschiedenen Blöcke verbinden (oft wird auch irgendwelcher fixed function Kram oder gar ganze ARM-Cores zusätzlich zu externen Interfaces neben der konfigurierbaren Logik integriert). Gerade die (konfigurierbaren) Verbindungen zwischen den Blöcken ist bei FPGAs ein immenser Aufwand. Die Kintex7-FPGAs von Xilinx werden z.B. in TSMCs 28HPL Prozeß gefertigt und setzen 11 Metall-Layer ein.

prinz_valium
2015-06-22, 00:47:00
Erstens haben wir ja zusammen festgestellt, dass HBM1 quasi DOA ist, da nicht für großere Kapazitäten zu gebrauchen.

ich hoffe deine aussage bezieht sich ausschließlich auf den profi bereich.
sonst kann ich da nur mit dem kopf schütteln :tongue:

Hübie
2015-06-24, 02:24:15
Maxwell sollte doch einst viel mehr Leistung bieten als Kepler. Kann es sein, dass Pascal das ist was Maxwell hätte sein sollen, Nvidia aber durch den fehlenden Prozess dies nicht umsetzten konnte? Wird Pascal überhaupt an der Archi. was Großes ändern?

Ich weiß nicht genau was du meinst mit "sollte einst viel mehr Leistung bieten als Kepler", aber dass Pascal kommt hat einfach viele Gründe und einer davon ist halt eine Schieflage beim Auftragsfertiger.
Dazu kommen noch längere Wartezyklen bzgl HBM (oder allgemein die Evolution des DRAM), wirtschaftliche Entscheidungen und letzlich auch in Aussicht gestellte Aufträge (deals). Maxwell ist für Spieler ein Traum (abgesehen vom Preis). Wenn ich aber daran denke was man eigentlich mal damit vor hatte, kann ich mir gut vorstellen dass man einfach den Namen vorgezogen hat und nachdem man Fermi destillierte, Kepler destilliert hat.
(Kern-)Physiker, Astronomen, Mathematiker und Naturwissenschaftler haben wir genug in den Geschichtsbüchern. So ist also nicht. ;D Ich mag Kopernikus... Edit: und Arrhenius X-D

Das Pascal viel von Maxwell hat bezweifel ich jetzt erst mal allein wegen der mixed precision, aber zugegebenermaßen fehlt mir auch die Einsicht und das Wissen wie man das strukturiert. Dennoch wird das anders geschaltet, anders gefüttert (Frontend) und kostet auch (z.B. Transistor-) Budget. So oder so wird Pascal eine große Nummer, da Prozess und µArch ziemlich neu gebaut wurden. Weiß gar nicht was aus dem custom ARM in GPUs geworden ist. 2012 war das noch geplant.

Auf dem HPC-Markt wird aber immer mehr gefordert und das "Wettrüsten" findet heute nicht mehr mit Atomwaffen statt.

@Nakai: Also ich weiß ja nicht wie alte deine FPGAs sein müssen aber selbst die uralten Spartan 3 XE2-*** die ich neulich entsorgt hatte haben schon mehrer Schichten. So eine GPU ist übrigens eher wie ein Auto in Modulen aufgebaut und auch hier wird einiges dazu gekauft (3rd party).

mczak
2015-06-24, 04:20:58
Das Pascal viel von Maxwell hat bezweifel ich jetzt erst mal allein wegen der mixed precision, aber zugegebenermaßen fehlt mir auch die Einsicht und das Wissen wie man das strukturiert. Dennoch wird das anders geschaltet, anders gefüttert (Frontend) und kostet auch (z.B. Transistor-) Budget.
Also die mixed precision ist nicht wirklich eine grosse Sache architekturmässig, jedenfalls wenn du das einfach als 2xFP16 implementierst in einem Register. Das ist dann architekturmässig ein absolutes Minimal-update, nicht wirklich anders als wenn du ein paar sonstige neue Befehle implementierst - geht schliesslich bei Tegra X1 auch ganz locker und der ist schliesslich sogar noch Maxwell... Klar, es kostet was in den ALUs an Transistoren.
Damit will ich aber nicht sagen Pascal ist bloss Maxwell mit FP16-Support und noch HBM für High-End, da wage ich schlicht keine Prognose. G8X/G9X zu GT2xx war eigentlich das letzte Mal dass nicht so viel geändert hat (und die hiessen ja auch alle Tesla), Tesla->Fermi->Kepler->Maxwell brachten doch alle relativ grosse Aenderungen.

Skysnake
2015-06-24, 07:18:02
Ja das sollte nicht wirklich ein riesen Aufwand sein.

Witze wäre es sogar, wenn es zwar mehr Transistoren kosten würde, da man eben die Logik abbilden muss, man aber praktisch nicht mehr Fläche brauch, weil man eh weiter oben durch Routing zu den RF usw begrenzt ist ;D

Ailuros
2015-06-24, 11:30:37
Also die mixed precision ist nicht wirklich eine grosse Sache architekturmässig, jedenfalls wenn du das einfach als 2xFP16 implementierst in einem Register. Das ist dann architekturmässig ein absolutes Minimal-update, nicht wirklich anders als wenn du ein paar sonstige neue Befehle implementierst - geht schliesslich bei Tegra X1 auch ganz locker und der ist schliesslich sogar noch Maxwell... Klar, es kostet was in den ALUs an Transistoren.
Damit will ich aber nicht sagen Pascal ist bloss Maxwell mit FP16-Support und noch HBM für High-End, da wage ich schlicht keine Prognose. G8X/G9X zu GT2xx war eigentlich das letzte Mal dass nicht so viel geändert hat (und die hiessen ja auch alle Tesla), Tesla->Fermi->Kepler->Maxwell brachten doch alle relativ grosse Aenderungen.

Wenn ich Deine Post mit einem Anteil von Sunrise's Post weiter oben kombiniere, kann man sehr schnell erkennen dass sie einfach KEINE Zeit hatten fuer irgendwelche sehenswerte Aenderungen fuer Pascal. Sobald es klar wurde dass es sinnlos ist 20SoC TSMC fuer GPUs zu benutzen und wie spaet und auch teuer die FinFET Prozesse danach sein werden, verschob NV VOLTA um eine Prozess-Generation und es wurde Pascal zwischen Maxwell und Volta gesteckt.

Wie schon erwaehnt afaik hat Pascal im Grund fast die gleichen ALUs wie Maxwell und es kam noch HBM dazu; klingt zwar zu daemlich vereinfacht, aber der Aufwand fuer Pascal war gross bzw. klein genug damit sie es gerade noch rechtzeitig mit dessen launch schaffen ohne eine bemerkbare Verspaetung fuer ihre roadmap bzw. Kunden. Haetten sie noch weitere Aenderungen dazugesteckt wuerden sie es auch NIE bis Anfang 2016 schaffen, fuer das sie ja immer noch Pascal projezieren.

iuno
2015-06-24, 12:05:56
Also die mixed precision ist nicht wirklich eine grosse Sache architekturmässig, jedenfalls wenn du das einfach als 2xFP16 implementierst in einem Register. Das ist dann architekturmässig ein absolutes Minimal-update, nicht wirklich anders als wenn du ein paar sonstige neue Befehle implementierst - geht schliesslich bei Tegra X1 auch ganz locker und der ist schliesslich sogar noch Maxwell... Klar, es kostet was in den ALUs an Transistoren.
Damit will ich aber nicht sagen Pascal ist bloss Maxwell mit FP16-Support [...]
Sorry, vielleicht eine dumme Frage :redface: Aber geht es eigentlich bei Mixed-Precision schon auch um die Zusammenschaltung von zwei 32-Bit ALUs, um ein 2:1 Verhältnis von FP32:FP64 Leistung zu erhalten oder wirklich nur um die Einführung von FP16 mit doppelter Leistung ggü. FP32?

robbitop
2015-06-24, 12:20:21
Letzteres.

N0Thing
2015-06-24, 12:22:19
Sobald es klar wurde dass es sinnlos ist 20SoC TSMC fuer GPUs zu benutzen und wie spaet und auch teuer die FinFET Prozesse danach sein werden, verschob NV VOLTA um eine Prozess-Generation und es wurde Pascal zwischen Maxwell und Volta gesteckt.

Warum eigentlich? War Volta für 20SoC TSMC geplant und hätte die Anpassung an 16nmFF für Volta zu lange gedauert und man hat deshalb mit Pascal eine nur leicht veränderte Architektur für diesen Prozess heran gezogen? Die Punkte hohe Kosten und späte Verfügbarkeit betreffen den 10nm Prozess von TSMC ja noch mehr als den 16nmFF-Prozess.

Hübie
2015-06-24, 12:26:59
Der Erwartungshorizont ist da auch ein wichtiger Faktor der Entscheidungstheorie. Also ab wann eine Investition beginnt sich zu rechnen bzw. wie lang bis zur Amortisation. Ich sage ja: das wird eine vielschichtige Entscheidung gewesen sein. Und Maxwell is ja gerade sowas wie der Goldesel bei Goldmarie ;D

Ailuros
2015-06-24, 15:23:10
Warum eigentlich? War Volta für 20SoC TSMC geplant und hätte die Anpassung an 16nmFF für Volta zu lange gedauert und man hat deshalb mit Pascal eine nur leicht veränderte Architektur für diesen Prozess heran gezogen? Die Punkte hohe Kosten und späte Verfügbarkeit betreffen den 10nm Prozess von TSMC ja noch mehr als den 16nmFF-Prozess.

Νein VOLTA war anfangs fuer 16FF geplant. 16FF ist aber auch nie das geworden was TSMC sich wohl selber erhofft hatte. Bis zu 10FF kann NV mit Pascal zumindest 2 Jahre problemlos ausbaden, ohne Pascal aber als Zwischenschieber waere es dann schon eine Riesenluecke zwischen Kepler und VOLTA gewesen fuer HPC.

Wieder verdammt vereinfacht: Pascal ist ein ueberarbeiteter Tegra Maxwell mit HBM. Haette TSMC damals nicht 32nm storniert haette es vor Kepler noch einen Fermi mit Kepler ALUs gegeben fuer 32nm und dann waere Kepler mit seinen heutigen ALUs und front end unter 28nm angekommen.

Ich hab zwar nichts konkretes gehoert oder gelesen aber ich frage mich ernsthaft ob Pascal nicht ideal waere fuer einen HPC only chip nur fuer Teslas und high end Quadros.

Der Erwartungshorizont ist da auch ein wichtiger Faktor der Entscheidungstheorie. Also ab wann eine Investition beginnt sich zu rechnen bzw. wie lang bis zur Amortisation. Ich sage ja: das wird eine vielschichtige Entscheidung gewesen sein. Und Maxwell is ja gerade sowas wie der Goldesel bei Goldmarie ;D

Gerade weil wohl viele nicht auf Anhieb verstehen was Du mit dem letzten Satz meinen koenntest: der chip fuer jede Titan X kostet etwa ~1/10 vom MSRP herzustellen. Wer sich heute immer noch fragen sollte warum die Dinger einen so obszoenen Preis hatten/haben sollten sie sich wohl nochmal genauer die neuesten benchmarks ansehen.

Ravenhearth
2015-06-24, 15:48:05
Ich hab zwar nichts konkretes gehoert oder gelesen aber ich frage mich ernsthaft ob Pascal nicht ideal waere fuer einen HPC only chip nur fuer Teslas und high end Quadros.


Wenn man sich die bisherigen Informationen und Gerüchte zu Pascal bzw. GP100 (laut Nvidia 2/3 mehr Perf/W bei SP, kleinerer Chip als zuletzt) ansieht, dann zeichnet das imho schon ein recht deutliches Bild. Ein Chip mit 4096 ALUs und starkem DP könnte in 16FF+ mit HBM bei 450mm² +/- landen. Mit Takt auf 980-Level hätte man dann @Stock rund 50% mehr Spieleleistung als bei der Titan X, bei 10% weniger Stromverbrauch.
GP104 dann mit 3072 ALUs, 1:32 DP und +50% Perf auf GTX980 bei 160W und ~300mm²? Damit wäre das Performance-Verhältnis @Stock vom Performance-Chip zum Top Dog das gleiche wie bisher: 1:1.33

Skysnake
2015-06-24, 21:03:56
Sollten die 1:16 DP:SP für Fiji wirklich stimmen, dann muss sich nVidia schon mal um AMD keine Gedanken mehr machen bezüglich HPC Deals. Für Quadro habe ich eh keine echten Auswirkungen durch Fiji erwartet.

Bleibt also nur noch Intel mit KNL, die ihnen Kopfzerbrechen machen könnten. Mal schauen, ob es Intel wirklich schafft sich selbst ins Knie zu schiesen, weil sie zu ambitioniert mit KNL waren/sind.

AMD hat, sofern 1:16 stimmen eine riesen Chance fett in den Sand gesetzt.

Hübie
2015-06-24, 21:06:23
Weiß gar nicht ob Fiji nur auf Consumer-cards beschränkt ist oder obs wirklich 1/16 ist. Hatte noch keine Zeit mir die (doch recht langweilige) Architektur ggü. Hawaii reinzuziehen. Zumal die Infos wohl auch üblicherweise noch recht rar sind.

@Skysnake: KNL kannste vergessen. Nicht die Hardware, sondern als echte Konkurrenz. Der füllt ein anderes Feld im Profi-Markt wohl besser aus als Tesla, aber nVidia wird keine kaum Probleme haben den Absatz zu steigern, wenn Pascal so kommt wie kommuniziert.

Ravenhearth
2015-06-24, 21:10:51
Fiji ist wirklich nur 1/16. Von AMD bestätigt.

aufkrawall
2015-06-24, 21:12:09
Was macht denn der arme Knuddelbaerli nun, wo sein liebstes Argument nicht mehr zieht. :D

Hübie
2015-06-24, 21:17:43
Fiji ist wirklich nur 1/16. Von AMD bestätigt.

Ja per BIOS oder per Hardware? :P Afaik ist Tonga da auch gedrosselt. Müsste jetzt aber glotzen.

Timbaloo
2015-06-24, 21:36:47
AMD hat, sofern 1:16 stimmen eine riesen Chance fett in den Sand gesetzt.
Naja, ich weiss nicht. Dazu müsste man wissen wieviel Rendite AMD mit HPC-Deals und wieviel mit Consumer-Deals macht, bzw. was sie sich versprochen hätten für einen 1:16 bzw einen 1:2 Chip.

Ich denke der Fokus auf Consumer für Fiji ist, insbesondere mit einer neuen und damit riskanten Technologie, der richtige Weg.

Ravenhearth
2015-06-24, 21:41:12
Ja per BIOS oder per Hardware? :P Afaik ist Tonga da auch gedrosselt. Müsste jetzt aber glotzen.
Hardware.

Knuddelbearli
2015-06-25, 07:31:22
Was macht denn der arme Knuddelbaerli nun, wo sein liebstes Argument nicht mehr zieht. :D

na so oft habe ich das auch wieder nicht erwähnt da waren andere schlimmer.

und ja bin enttäuscht fast so groß wie gm200 und trotzdem kein dp. Mir ist es zwar egal, mir ging ee immer nur um die die bei der original titan so darauf rumgeritten sind das dadurch der preis gerechtfertig ist, aber da spart wohl HBM weit weniger Platz wie gedacht, nämlich fast gar keinen.

Wobei Fury immerhin noch doppelt soviel dp hat wie TitanX ^^

Knuddelbearli
2015-06-25, 07:33:03
Sollten die 1:16 DP:SP für Fiji wirklich stimmen, dann muss sich nVidia schon mal um AMD keine Gedanken mehr machen bezüglich HPC Deals. Für Quadro habe ich eh keine echten Auswirkungen durch Fiji erwartet.


Wieso? Hawaii ist immer noch der Grafikchip mit der, mit Abstand, höchsten DP Leistung und dank den 512 vs 384Bit auch mit am meisten Speicher Möglich.

Skysnake
2015-06-25, 07:44:26
Du meinst Hawaii....


Mit Hawaii hat AMD aber bisher schon keinen echten Stich machen können, warum sollte sich das nun plötzlich ändern?

Knuddelbearli
2015-06-25, 07:57:04
ähm ja sorry gerade aufgestanden Codenamen fallen da teils noch bisl schwer ^^

Ailuros
2015-06-25, 10:43:09
Wenn man sich die bisherigen Informationen und Gerüchte zu Pascal bzw. GP100 (laut Nvidia 2/3 mehr Perf/W bei SP, kleinerer Chip als zuletzt) ansieht, dann zeichnet das imho schon ein recht deutliches Bild. Ein Chip mit 4096 ALUs und starkem DP könnte in 16FF+ mit HBM bei 450mm² +/- landen. Mit Takt auf 980-Level hätte man dann @Stock rund 50% mehr Spieleleistung als bei der Titan X, bei 10% weniger Stromverbrauch.
GP104 dann mit 3072 ALUs, 1:32 DP und +50% Perf auf GTX980 bei 160W und ~300mm²? Damit wäre das Performance-Verhältnis @Stock vom Performance-Chip zum Top Dog das gleiche wie bisher: 1:1.33

Nur ist dann der GP100 bei hypothetischen 450mm2@16FF IMHO etwas zu bescheiden eingeschaetzt. Um hypothetisch auf 15/16 GFLOPs/W zu kommen brauchen sie bei hypothetischen 32 SMMs auch 4096 FP64 SPs.

robbitop
2015-06-25, 11:00:19
Ich gehe für GP100, der ja gerade im Computebereich vorlegen muss, auch eher von 5xx sqmm aus.
Sollten also sicher ordentlich mehr Ausführungseinheiten sein. Der Shrink gibt dieses ja her.
> 40 SMMs würden mich nicht überraschen. Irgendwoher muss die angestrebte Mehrleistung ja kommen.

BlacKi
2015-06-25, 11:37:24
glaubt ihr nvidia bleibt dem grafikspeicher schema treu 4/6/8/12/16gb zu verbauen? im fiji thread wurder ja schon erwähnt das man auch komplett andere speichermengen anbieten könnte.

8gb wären schon ok, aber wenn die karte nächstes jahr erscheint und die titan x schlagen könnte wäre man mit 8gb womöglich schon etwas schwach aufgestellt, wenn man die speicherauslastung der 980ti aktuell heranzieht.

10gb oder krumme 11gb wären mit hbm doch möglich oder?

Timbaloo
2015-06-25, 12:33:36
Wurden nicht schon 32GB für den Top Dog (als Tesla-Variante) mehr oder weniger bestätigt?

Hübie
2015-06-25, 12:56:03
Ich erinnere mich nur an ein "up to". Das kann sogar Kepler :P

y33H@
2015-06-25, 13:02:24
Bis zu 32 GByte sagte NV, ja: http://scr3.golem.de/screenshots/1503/GTC-2015-Pascal/GTC-2015-03.png

Timbaloo
2015-06-25, 13:07:58
Ahja, das wars. Also wahrscheinlich 4*8GB HBM2 für Tesla bzw. 4*4GB für Consumer im GP100. Alles darunter dürfte mit 8GB wunderbar klarkommen.

Godmode
2015-06-25, 13:09:12
Ahja, das wars. Also wahrscheinlich 4*8GB HBM2 für Tesla bzw. 4*4GB für Consumer im GP100. Alles darunter dürfte mit 8GB wunderbar klarkommen.

GP100 für Consumer mit 16 GB klingt gut.

Hübie
2015-06-25, 13:11:24
Und wer soll das noch bezahlen? :|

Godmode
2015-06-25, 13:15:13
Und wer soll das noch bezahlen? :|

Ist doch kein Problem bei einem MSRP von 1.000 Euro.

Timbaloo
2015-06-25, 13:19:25
GP100 für Consumer mit 16 GB klingt gut.
Damit meinte ich natürlich einen Titan-Nachfolger. Non-Titan GP100 wird in der Tat spannender. 8GB würde da imho ausreichen. Allerdings würde man sich dann nicht von einem GP104 absetzen können. Denn den kann man nicht ernsthaft mit 4GB ansetzen. Ergo könnte man für GP104 ein Betrieb mit 3 Stacks andenken?

Godmode
2015-06-25, 13:22:10
Damit meinte ich natürlich einen Titan-Nachfolger. Non-Titan GP100 wird in der Tat spannender. 8GB würde da imho ausreichen. Allerdings würde man sich dann nicht von einem GP104 absetzen können. Denn den kann man nicht ernsthaft mit 4GB ansetzen. Ergo könnte man für GP104 ein Betrieb mit 3 Stacks andenken?

8 GB für GP100 Non-Titan klingt auch gut. Und für GP104 dann eben nur 3 Stacks zu je 2 GB und 3072 Bit SI.

Sunrise
2015-06-25, 13:35:21
glaubt ihr nvidia bleibt dem grafikspeicher schema treu 4/6/8/12/16gb zu verbauen? im fiji thread wurder ja schon erwähnt das man auch komplett andere speichermengen anbieten könnte.

8gb wären schon ok, aber wenn die karte nächstes jahr erscheint und die titan x schlagen könnte wäre man mit 8gb womöglich schon etwas schwach aufgestellt, wenn man die speicherauslastung der 980ti aktuell heranzieht.

10gb oder krumme 11gb wären mit hbm doch möglich oder?
Von krummen Zahlen halte ich nichts. Erstens haben wir ja bereits Titan mit 12GB. Zweitens müsste man ja sowieso 1-4 HBM-Module verbauen, und dann kauft man dort in Masse bestimmte Speichermengen und varriiert einfach nur anhand des SIs am Die, wieviele man für die gewünschte Endbandbreite benötigt.

Wie schon im Arctic Islands-Thread von mir vorgeschlagen, sind 4/8/16GB für Consumer und 32GB auf den absoluten Profi-Karten IMHO sinnvoll. Der Titan-Brand wird dann wohl auf 16GB gehen.

Reicht für die meisten Konfigurationen also völlig aus.

Edgecrusher86
2015-07-02, 10:46:02
Mich würde es ja nicht überraschen, wenn es so Kommt:
GP100 Tesla/Quadro - 32GB a 4 Stacks und 24GB a 3 Stacks
GP100 "TITAN" - 24GB a 3 Stacks
GP100 Salvage - 12GB a 3 Stacks
GP104 Tesla/Quadro - 16GB a 2 Stacks
GP104 - 8GB a 2 Stacks (7 GB vermutlich bei Salvage)
wobei ein möglicher Salvage auch mit GDDR5 kommen könnte, wie "GP106".


Bis jetzt hatte sich der Speicherausbau bei Kepler auf Maxwell auch schon verdoppelt. Dreifacher VRAM gegenüber GP104 macht also auch mit Pascal Sinn. Schöner Nebeneffekt -> Hohe mögliche MSRPs im Lineup ab "Performance-Highend".

Zwei oder vier Stacks wären natürlich runder... Nun ja, max 16GB für Consumer und 32GB für HPC und Quadro wäre natürlich auch noch mehr als ok.

Zu GP100: Laut TSMC verdoppelt sich die Packdichte mit 16FF+, der wohl bei nV zum Einsatz kommen dürfte,gegenüber 28HPM fast... Also selbst wenn man konservative +80% annimmt, kommt ein 530 bis 550mm2 Chip damit spielend auf 12,8 bis 13,2 Mrd. Transistoren... Das sollte sich dann auch trotz FP64 in der Anzahl der FP32 units widerspiegeln, bei etwas mehr Größe pro "SMP".

E: +90% Packdichte wäre 13,3 bis 13,9 Mrd. Transistoren für 530 bis 550mm2.

Kartenlehrling
2015-07-02, 11:19:48
träumen darf man ja ...

Nakai
2015-07-02, 11:25:05
Ich würde das alles etwas konservativer betrachten.

Neuer Prozess + HBM wird selbst für NV keine Kleinigkeit werden. Vor allem soll ja TSMCs 16FF-Prozess noch Probleme bei großen Dies haben. Je nachdem wie NV ansetzt, könnte GP100 anders aussehen, als viele vermuten würde.

Edgecrusher86
2015-07-02, 12:14:12
GP100 für HPC dürfte frühstens Q2 kommen (wegen der HBM Gen 2 Verfügbarkeit), mehr oder weniger analog dazu wohl der GTX 980 Nachfolger auf GP104 Basis. Die Desktop-100-Variante wohl Q3 oder Q4. Bis dahin ist ja noch etwas Zeit.

GP104 dürfte ja zwischen 300 und 350mm2 groß und grob 7 bis 9 Mrd. Transistoren schwer sein. DP vermutlich wie bei Maxwell 1/32 SP.

Ailuros
2015-07-02, 17:24:25
Ich würde das alles etwas konservativer betrachten.

Neuer Prozess + HBM wird selbst für NV keine Kleinigkeit werden. Vor allem soll ja TSMCs 16FF-Prozess noch Probleme bei großen Dies haben. Je nachdem wie NV ansetzt, könnte GP100 anders aussehen, als viele vermuten würde.

:whisper: *Spielverderber*

robbitop
2015-07-02, 17:28:03
Auf welchem Prozess soll eigentlich Volta erscheinen?
Wenn GV100 auch noch in 16 nm FF+ produziert werden muss, wird man mit GP100 analog zu GK110 nicht an die Grenze des Prozesses gehen.

Nightspider
2015-07-02, 17:31:48
Wenn jetzt 12GB GDDR5 bezahlbar sind dürften in 12-18 Monaten auch 16GB HBM bezahlbar sein.

Den Interposer muss man ja eh bezahlen und ob man nun paar Stacks mehr oder weniger drauf klatscht macht den Braten sicherlich auch nicht viel fetter.

Abgesehen davon könnte es passieren das GP100 nur max. ~500mm² groß wird falls man 8 Stacks verbauen will und weiterhin auf ein Silizium-Interposer setzen wird.
Etwas DIE-Area würde Nvidia ja eh wegen dem HBM PHY sparen.

Ein 450mm² GP100 und ein 240mm² GP104 würde mich aber auch nicht wundern. Der Stromverbrauch wird schließlich das größte Problem und da würden auch noch genug Transistoren reinpassen für einen guten Schub bei der Leistung.

Nakai
2015-07-02, 17:36:46
Seien wir doch einfach ehrlich.

HBM2 kommt Mitte 2016. NV wird demnächst einen Tapeout hinlegen bzw. hat schon einen Tapeout hingelegt. Normalerweise Tapeout->Release (6~9 Monate bei GPUs; siehe Maxwell). Neuere Technologien erfordern mehr Zeit, also machen wir mindestens ein Jahr drauß. Also ich gehe mal von ungefähr 1 Jahr+ aus.

GP100 wird imo nicht so groß wie GM200 werden. Ich würde etwas um GM204-Größe schätzen. Der Interposer wird etwas kleiner als bei Fiji sein, sollte aber noch genug Platz für 4 Stacks haben.

Milchmädchen:
~400mm² in 16FF+ => 800mm² in 28nm
800mm²/600mm² = 1,33

Performance: 1,33xGM200 + HBM(~10%) + höherer Takt(~20%) => ~1,6xGM200

IMO wird NV versuchen wieder einen Sprung von Vorgänger auf Nachfolger-Gen zu erreichen. Im Mittel irgendwas zwischen 50~100%.


Mal ganz hart spekuliert:
Eventuell bringt NV nur einen GP-Chip mit weniger mm² und haut zwei auf einen Interposer. Dafür müssten aber Stacks weichen, weil sonst kein Platz mehr da ist.

Nightspider
2015-07-02, 17:43:36
Kann schon gut sein.

Zumal wir ja eh wieder 2 Generation im 16FF Prozess erleben werden.

Da klingen 400mm² für GP100 und ~250mm² für GP104 gar nicht so unrealistisch.

Da GP104 ja wahrscheinlich noch auf GDDR5 setzen wird muss man da etwas mehr Area für das GDDR5 PHY einplanen.

Und bei kleinen 400mm² Chips mit HBM kann Nvidia dann auch gleich eine Dual-GP100 Variante auf den Markt werfen für drölftausend Dollar.^^

Skysnake
2015-07-02, 22:58:59
Also bezüglich 16FF+, Xillinx hat gerade einen Tape-Out verkündet. (http://forums.xilinx.com/t5/Xcell-Daily-Blog/We-have-Tapeout-Xilinx-Zynq-UltraScale-MPSoC-ready-for-TSMC-s/ba-p/639618)

Xillinx ist normal ziemlich früh mit dabei bei neuen Prozessen. Man sollte also von nVidia nicht sehr viel mehr erwarten.

EDIT:
Tja da hatte ich wohl was falsches in der Zwischenablage :ugly:

Aber auch ganz interessant: http://www.newelectronics.co.uk/electronics-news/xilinx-tapes-out-mpsoc-on-tsmcs-16ff-process/86902/
Demnach hätte Xilinx es knapp nicht mehr in Q2 geschafft. Und mit Ende 2015 wird es wohl auch sehr knapp. Da wird nVidia wohl kaum Q1/16 schaffen Xilinx shipped ja ziemlich früh. Da muss der Chip nicht zwingend komplett funktionieren.

Hübie
2015-07-02, 23:06:52
Ja. Und wie man richtig verlinkt müssen wir noch mal üben X-D

Ravenhearth
2015-07-24, 16:11:18
Nvidia Pascal GPU has 17 billion transistors (http://www.fudzilla.com/news/graphics/38304-nvidia-pascal-gpu-has-17-billion-transistors)

GP110 wohl mit 17 Mrd. Transistoren, deutlich kleiner als GM200 (500mm² ?). Irgendwie widersprechen sich die Informationen aber. 16nm soll beinahe die doppelte Packdichte ermöglichen, aber nach meiner Rechnung wäre das die 2,5-fache Packdichte.

maguumo
2015-07-24, 16:16:03
http://www.tweaktown.com/news/46544/nvidia-working-two-hbm2-based-cards-one-geforce-gtx-1080/index.html

Und hier noch was. Falls das stimmt wird es wohl wirklich ein 4096b Interface für den großen Pascal Chip (GP100?). Das man 4Hi Stacks für die Consumer Variante nimmt war zu erwarten denke ich...

Skysnake
2015-07-24, 16:28:29
Nvidia Pascal GPU has 17 billion transistors (http://www.fudzilla.com/news/graphics/38304-nvidia-pascal-gpu-has-17-billion-transistors)

GP110 wohl mit 17 Mrd. Transistoren, deutlich kleiner als GM200 (500mm² ?). Irgendwie widersprechen sich die Informationen aber. 16nm soll beinahe die doppelte Packdichte ermöglichen, aber nach meiner Rechnung wäre das die 2,5-fache Packdichte.

Mich würde es nicht überraschen, wenn Sie den RAM mit dazu zählen ;)

Ravenhearth
2015-07-24, 16:33:56
Ein paar Millionen Transistoren wären für 32GB HBM aber zu wenig...

Novum
2015-07-24, 16:35:42
Nvidia Pascal GPU has 17 billion transistors (http://www.fudzilla.com/news/graphics/38304-nvidia-pascal-gpu-has-17-billion-transistors)

GP110 wohl mit 17 Mrd. Transistoren, deutlich kleiner als GM200 (500mm² ?). Irgendwie widersprechen sich die Informationen aber. 16nm soll beinahe die doppelte Packdichte ermöglichen, aber nach meiner Rechnung wäre das die 2,5-fache Packdichte.
Dreifache Packdichte, falls die 16 das selbe ausdrückt wie 28.

Ich habe aber auch für die erste Runde in 16nm etwas kleinere GPUs erwartet. Da wird wohl wieder eine zweite Generation in der Node kommen.

Ravenhearth
2015-07-24, 16:39:57
Dreifache Packdichte, falls die 16 das selbe ausdrückt wie 28.

Tut sie aber nicht ;) 16nm ist im Kern 20nm plus FinFets. Deswegen ist doppelte Packdichte, wie im Artikel erwähnt, auch realistischer. Aber wie GP110 dann trotzdem auf die 2,5-fache Packdichte kommen soll, erschließt sich mir nicht. Oder packt Nvidia nun einfach viel dichter?

Sunrise
2015-07-24, 16:42:59
...Da wird nVidia wohl kaum Q1/16 schaffen Xilinx shipped ja ziemlich früh. Da muss der Chip nicht zwingend komplett funktionieren.
Ist ja auch erstmal nur der Tape Out bekannt. Das Design ist also fertig und von der Fab auch abgenommen. Wie schon besprochen, kann NV die ersten GP100 anfangs so teuer verkaufen, dass die Dinger für Normalsterbliche kaum bezahlbar sein werden. Selbst mit im Vergleich zu 28nm deutlich schlechteren Margen wäre das überhaupt kein Problem, da BringUp bereits dadurch erfolgt und man dann irgendwann auch in den Consumermarkt geht. Die Frage die sich mir eher stellt ist, ob da noch ein kleinerer Chip vorher kommt, von dem man aber absolut nichts hört.

Ich erwarte ja sowieso keinen GP100 für Consumer mit maximalem HBM-Ausbau, das werden allerhöchstens bis zu 16GB HBM sein und selbst das wäre schon heftig. Wenn NV das Ding dann noch für 1000 EUR verkauft, wäre das ja geradezu ein Schnäppchen. Da erwarte ich ordentliche Schweinepreise.

AffenJack
2015-07-24, 16:50:36
Nvidia Pascal GPU has 17 billion transistors (http://www.fudzilla.com/news/graphics/38304-nvidia-pascal-gpu-has-17-billion-transistors)

GP110 wohl mit 17 Mrd. Transistoren, deutlich kleiner als GM200 (500mm² ?). Irgendwie widersprechen sich die Informationen aber. 16nm soll beinahe die doppelte Packdichte ermöglichen, aber nach meiner Rechnung wäre das die 2,5-fache Packdichte.

Jop genau, deswegen auch unglaubwürdig. Normaler Fud halt. Entweder 17 Mrd Transistoren oder kleiner, aber beides geht kaum.

http://www.tweaktown.com/news/46544/nvidia-working-two-hbm2-based-cards-one-geforce-gtx-1080/index.html

Und hier noch was. Falls das stimmt wird es wohl wirklich ein 4096b Interface für den großen Pascal Chip (GP100?). Das man 4Hi Stacks für die Consumer Variante nimmt war zu erwarten denke ich...

4096b Interface war schon immer klar. Man hat immer 32gb als Maximalausbau erwähnt, womit wir dementsprechend bei 4 8High Stacks sind.

BlacKi
2015-07-24, 16:58:11
Wenn NV das Ding dann noch für 1000 EUR verkauft, wäre das ja geradezu ein Schnäppchen. Da erwarte ich ordentliche Schweinepreise.

also die titan classic war denke ich billiger herzustellen als gm200, dennoch verlangen sie denselben preis.

sie könnten mehr verlangen, mich würds aber nicht wundern wenn gp100 auch 999$ kosten wird, denn das ist immernoch zuviel^^

Sunrise
2015-07-24, 17:03:23
Jop genau, deswegen auch unglaubwürdig. Normaler Fud halt. Entweder 17 Mrd Transistoren oder kleiner, aber beides geht kaum.
Nicht, dass ich Fuad da in irgendeiner Art und Weise unterstütze, aber:

Maxwell auf 28nm war im Grunde doch ein Grunddesign, dass lediglich bis hoch auf 600mm² skaliert wurde. Für mich klingt das jetzt nicht unbedingt sonderlich effizient. Da man hier ja dennoch (für Spiele) sehr gute Leistung auf die Straße brachte, hat man den Rest der R&D eben in Pascal gesteckt, der ja quasi sowas ist wie ein auf Compute-Leistung optimierter Maxwell.

Wenn NV GP100 komplett überarbeitet hat und die Zeit genutzt hat, die man bei Maxwell auf 28nm gewonnen hat, dann ist das Ding erstmal einmalig. Nämlich nicht nur eine Rakete für Spiele, sondern vor allem für Compute und da kann ich mir schon vorstellen, dass durch veränderte ALUs (die ja extrem effizient zu packen sind, abseits von Caches) und weiteren Anpassungen an den Prozess hier starke Vorteile ggü. 28nm zum Tragen kommen.

Timbaloo
2015-07-24, 17:48:39
Wieviel kleiner wird denn das SI beim Wechsel von 384Bit-DDR5 auf 4096Bit-HBM2? Bzw. wieviel größer wird die Transistordichte im SI werden?

Godmode
2015-07-24, 17:54:38
also die titan classic war denke ich billiger herzustellen als gm200, dennoch verlangen sie denselben preis.

sie könnten mehr verlangen, mich würds aber nicht wundern wenn gp100 auch 999$ kosten wird, denn das ist immernoch zuviel^^


Irgendwo ist aber auch mal Schluss, selbst beim größten Enthusiasten. 1000 -/+ 150 Euro ist für mich die psychologische Schmerzgrenze.

aufkrawall
2015-07-24, 18:08:04
Diesmal gibts hoffentlich wieder Konkurrenz.

BlacKi
2015-07-24, 18:29:37
Irgendwo ist aber auch mal Schluss, selbst beim größten Enthusiasten. 1000 -/+ 150 Euro ist für mich die psychologische Schmerzgrenze.

arbeitskollege von mir hat sich nen alienware bestellt...

...mit einer titanZ...

ohne worte...

er jammert über den lauten lüfter XD hat er verdient :P

mal sehen was die tests sagen werden zum pascal titanen. ungetestet kauf ich eh nichts.

Ravenhearth
2015-07-24, 18:35:34
AMDs Fiji kommt in 28nm schon auf knapp 15 Mrd. Transistoren/mm². Wenn wir davon ausgehen, dass Nvidia bei Pascal im Gegensatz zu Maxwell ebenfalls sehr dicht packt und TSMC die Packdichte von 16FF+ gegenüber 20nm, der sie ggü. 28nm etwa verdoppeln soll, weiter gesteigert hat, dann sind mehr als 30 Mio. Transistoren/mm² gar nicht unrealistisch.

Godmode
2015-07-24, 18:58:45
arbeitskollege von mir hat sich nen alienware bestellt...

...mit einer titanZ...

ohne worte...

er jammert über den lauten lüfter XD hat er verdient :P

mal sehen was die tests sagen werden zum pascal titanen. ungetestet kauf ich eh nichts.

Lol, naja Ausnahmen gibts immer. ^^

Wenn nichts schief geht, wird GP100 wohl eine tolle GPU werden. Nvidia hat seine Produktentwicklung mittlerweile wirklich gut im Griff.

Novum
2015-07-24, 18:59:27
Tut sie aber nicht ;) 16nm ist im Kern 20nm plus FinFets. Deswegen ist doppelte Packdichte, wie im Artikel erwähnt, auch realistischer. Aber wie GP110 dann trotzdem auf die 2,5-fache Packdichte kommen soll, erschließt sich mir nicht. Oder packt Nvidia nun einfach viel dichter?
Edit: Du hast recht, selbst TSMC sagt ~2 gegenüber 28HPM. Fail.

Ravenhearth
2015-07-24, 19:08:45
Ich bezweifle dass das nicht stimmt. Die Node-Bezeichnungen sind schon lange kein Längenmaß mehr, sondern schlicht die Packdichte. (28 * 28) / (16 * 16) ist fast exakt 3. Das passt zu gut.

"Im Kern 20nm" ergibt überhaupt keinen Sinn. FinFets ermöglichen auch bei gleichen oberen Verdrahtungsebenen natürlich eine höhere Packdichte. Das ist der Sinn der Sache.

Und es stimmt nicht. Die Node-Bezeichnungen sind nur Namen, daraus lässt sich nichts konkretes ableiten. TSMC spricht selber von rund der doppelten Packdichte.

Bei 16nm wird die BOEL von 20nm verwendet, aber die FOEL ist eine andere (Fin Fets). Der Sinn von Fin Fets ist auch nicht eine höhere Packdichte, sondern vor allem geringere Leckströme und damit ein deutlich geringerer Stromverbrauch.

Edit: Too late :D

Aber wie ich weiter oben geschrieben habe, könnten über 30 Mrd. Transistoren/mm² doch hinkommen.

TSMC sagt auch, dass 28HPC eine 10% höhere Packdichte als 28nm HP, LP und HPL hat, und mit 28HPM "kompatibel" ist. Das könnte heißen, dass 28HPM ebenfalls 10% dichter packt als HP, wodurch 16FF+ sogar die 2,2-fache Packdichte von 28HP hätte - damit wären dann auch bis zu 33 Mrd. Transistoren/mm² drin , ausgehend von Fiji.

Spasstiger
2015-07-24, 20:16:14
Tut sie aber nicht ;) 16nm ist im Kern 20nm plus FinFets. Deswegen ist doppelte Packdichte, wie im Artikel erwähnt, auch realistischer. Aber wie GP110 dann trotzdem auf die 2,5-fache Packdichte kommen soll, erschließt sich mir nicht. Oder packt Nvidia nun einfach viel dichter?
Ein HBM-Interface packt deutlich dichter als ein GDDR5-Interface mit gleicher Speicherbandbreite, das ist doch schon an AMDs Fiji deutlich zu sehen. Das 4096-Bit-HBM-Interface belegt laut AMD weniger Fläche bei sicherlich größerer Transistorzahl als das 512-Bit-GDDR5-Interface von Hawaii. Hat jemand konkrete Zahlen? Die vierfache Packdichte beim Speicherinterface im gleichen Fertigungsprozess würde mich gar nicht überraschen.

fondness
2015-07-24, 20:28:30
Naja Fiji ist jetzt nicht so viel dichter gepackt als zB Hawaii.

Ravenhearth
2015-07-24, 20:31:34
Vielleicht kann man sich bei der Größe des Interface an der Reduktion des Stromverbrauchs orientieren: Halbe Größe gegenüber einem niedrig taktenden 512 Bit-Interface oder einem hoch taktenden 384 Bit-Interface bei 50% mehr Bandbreite in der ersten Generation, in der zweiten Generation gibts dann die dreifache Bandbreite bei weiterhin halber Größe. Das macht schon was aus, aber nicht sehr viel. Dennoch sind 17 Mrd. Transistoren auf ~500mm² realistisch für GP110, wenn man die Faktoren zusammen nimmt (HBM, höhere Packdichte by design, 2,2-fache Packdichte in 16FF+ ggü. 28HP).

Jetzt stellen wir uns mal lieber die Frage: Was ist mit 17 Mrd. Transistoren denkbar?

Spasstiger
2015-07-24, 20:38:13
Naja Fiji ist jetzt nicht so viel dichter gepackt als zB Hawaii.
Weil das Speicherinterface immer noch nur einen Bruchteil der Gesamttransistorzahl ausmacht.
Von ca. 14,16 Mio Transistoren / mm² auf ca. 14,93 Mio. Transistoren/mm² ist eine Steigerung um 5%.
Ich habe die Steigerung der Packdichte oben aber speziell auf die AMD-Aussage bezogen, dass das wesentlich breitere HBM-Interface (= wesentlich mehr Transistoren) weniger Fläche belegt als das GDDR5-Interface. Bei Nvidia könnte es noch mehr ausmachen, weil Nvidia das GDDR5-Interface auf höhere Taktraten getrimmt hat als AMD.

Ravenhearth
2015-07-24, 21:07:16
Was die Zahl der Recheneinheiten angeht: Ausgehend von den 8 Mrd. Transistoren bei GM200 wären in den 17 Mrd. locker 6144 ALUs drin. Aber da Pascal ja 1:2 DP haben wird, schätze ich den GP110 auf 4096 SP- + 2048 DP-ALUs ein. GP104 dann mit 3072 SP- und 96 DP-ALUs und etwas über 8 Mrd. Transistoren auf weniger als 300mm²? GP110 mit 4 HBM-Stacks und 1024 GB/s sowie 16GB bzw. 32GB, GP104 mit 2 Stacks und 512 GB/s sowie 8GB?

Godmode
2015-07-24, 21:20:01
Was die Zahl der Recheneinheiten angeht: Ausgehend von den 8 Mrd. Transistoren bei GM200 wären in den 17 Mrd. locker 6144 ALUs drin. Aber da Pascal ja 1:2 DP haben wird, schätze ich den GP110 auf 4096 SP- + 2048 DP-ALUs ein. GP104 dann mit 3072 SP- und 96 DP-ALUs und etwas über 8 Mrd. Transistoren auf weniger als 300mm²? GP110 mit 4 HBM-Stacks und 1024 GB/s sowie 16GB bzw. 32GB, GP104 mit 2 Stacks und 512 GB/s sowie 8GB?

Mit nur 4096 ALUs könnte man sich von GM200 aber nicht genug absetzen, außer man ändert wieder was an den ALUs, oder erhöht den Takt stark. Ersteres glaube ich nicht, da die ALUs von Kepler auf Maxwell IIRC sogar vereinfacht wurden, um eben mehr davon unterzubringen. Zweiteres ebenso nicht, da sich dies wieder negativ auf den Stromverbrauch auswirken würde.

Ravenhearth
2015-07-24, 21:30:11
Man muss halt bedenken, dass GM200 ein reiner Gaming-Chip war und GP110 sehr auf DP ausgerichtet ist. Mit 4096 ALUs und 15% mehr Takt gegenüber einer Titan X könnte man die Leistung immerhin um 50% steigern, der Stromverbrauch würde wahrscheinlich sogar sinken. Imho passen 4096+2048 ALUs einfach sehr gut zur Zahl der Transistoren, mehr würde wieder einen größeren Chip erfordern. Vielleicht kriegen wir nach zwei Jahren wieder einen fetten Gaming-Chip mit 6144 ALUs und wenig DP...

aufkrawall
2015-07-24, 21:30:37
Wie viele Transistoren fressen Crossbars?
Davon wird man mehr brauchen, um gegen AI bei Compute bestehen zu können.

Skysnake
2015-07-25, 08:51:42
Kommt drauf an, wie du ihn aufbaust.

Die einfachste Möglichkeit mit CML wäre:

#Eingänge * #Ausgänge * 2 + #Eingänge*3 = Anzahl Transistoren pro Bit

Wobei das für einen einstufigen Crossbar der Fall wäre, bei dem man pro Takt umschalten könnte zwischen den Ports.

Damit wäre man für einen 32zu32 Port (32 CUs und 4096 Bit Interface mit 128Bit breiten Ports) bei 8531968 Transistoren. Also schon eine ganzen Menge an sich, im Vergleich zum Rest aber praktisch nichts, wobei man die Zahl wohl noch mit 4-10 Multiplizieren kann, je nachdem, wie man große/geteilte Transistoren, die große Lasten treiben zählt.

HOT
2015-07-25, 10:38:47
GP100 wird dann wohl irgendwo zwischen 4500 und 5500 Shadern landen. Das passt eigentlich gut zu meiner Theorie - NV nutzt den GP100 als HBM Erstlingswerk und begeht den Rest der 16nm-Generation mit Volta (also Nach GP100 erst GV104/6/7 und irgendwann später GV100). Man muss ja bedenken, dass 16nm bis mindestens 2019 vorhalten muss - ich halte überhaupt nichts von Leos superoptimistischen Foundry-Prognosen.
Wenn GP100 kommt, kann man die Serie auch hervorragend nach unten hin mit Maxwell komplettieren und behält dadurch auch noch den Kostenvorteil, während AMD sicherlich ganz auf 14nm setzt von Anfang an, aber sicherlich wieder keinen echten TopDog im Programm hat. Aus NVs Sicht halte ich diese Stategie für sehr gut.

Ailuros
2015-07-25, 14:10:51
Was die Zahl der Recheneinheiten angeht: Ausgehend von den 8 Mrd. Transistoren bei GM200 wären in den 17 Mrd. locker 6144 ALUs drin. Aber da Pascal ja 1:2 DP haben wird, schätze ich den GP110 auf 4096 SP- + 2048 DP-ALUs ein. GP104 dann mit 3072 SP- und 96 DP-ALUs und etwas über 8 Mrd. Transistoren auf weniger als 300mm²? GP110 mit 4 HBM-Stacks und 1024 GB/s sowie 16GB bzw. 32GB, GP104 mit 2 Stacks und 512 GB/s sowie 8GB?

Vorsicht wenn jemand wesentlich kleiner als GM200 sagt, kann "wesentlich" auch fuer =/<20% stehen. :weg:

Sonst natuerlich nein auch zu den allen anderen Spekulationen....:P

Timbaloo
2015-07-25, 14:18:18
Glaubt ihr GP100 hat wieder dedizierte DP-ALUs oder wird das Konzept im Zuge von mixed precision verworfen?

StefanV
2015-07-25, 14:21:43
Glaubt ihr GP100 hat wieder dedizierte DP-ALUs oder wird das Konzept im Zuge von mixed precision verworfen?
Wurd doch schon angekündigt, dass mans jetzt auch wie AMD machen wird...s

Ailuros
2015-07-25, 14:33:18
Glaubt ihr GP100 hat wieder dedizierte DP-ALUs oder wird das Konzept im Zuge von mixed precision verworfen?

Wie schon oefters erwaehnt haben Pascal ALUs relativ kleine Unterschiede im Vergleich zu Maxwell; erstens macht es Sinn wenn man bedenkt wie schnell Pascal als Zwischenschieber zwischen Maxwell und Volta konzipiert wurde und zweitens kannst Du die B3D Datenbank fuer Wavey's relevanten Kommentar aufsuchen. Wenn es AMD schon "weiss" hab ich wenig Zweifel dass es nicht so sein koennte.

Auch Maxwell im Tegra X1 hat 2*FP16 in seinen ALUs unter gewissen Bedingungen.

basix
2015-07-25, 14:54:05
Also kleiner als GM200 könnte auch mit 17 Milliarden Transistoren hinkommen: 602mm2 * 17Mrd./8Mrd. / 2x Skalierung = 640mm2

Schaffen sie es die generelle Packdichte um 10% erhöhen im Verhältnis wären wir schon bei 581mm2, noch ein bisschen HBM2 Bonus und man ist "signifikant" kleiner als GM200 ;) Im besten Fall vielleicht 10-15% kleiner, aber sicher nicht mehr.

Nakai
2015-07-25, 15:58:53
17 Milliarden Transen für GP100?! GM200 hat nur 8 Milliarden Transen...bei 600mm².

Milchmädchen:
16FF+ hat doppelte Packdichte zu 28HPM/HP.
GP100 hat mehr als das doppelte an Transen als GM200.
=> GP100 ist über 600mm² groß.

Bin ich der Einzige der gerade ein bisschen verdutzt guckt?:freak:

Wenn TSMC sagt, dass 16FF+ die doppelte Packdichte hat, als 28HP/M, dann muss man damit rechnen. Ergo viel mehr als 30MioTransen/mm² kann ich mir kaum vorstellen.

Also diesmal hat Fudo den Vogel abgeschossen. 17 Milliarden Transistoren und kleiner als GM200 bei doppelter Packdichte mit 16FF+. Respekt an NV, wenn die das schaffen. Die HBM-Stacks kann man zur Transistorzahl nicht hinzuzählen, außer man nimmt die Base-Dies hinzu, aber soviel Logik besitzen die eh nicht. :freak::freak::freak:

Ahja, es wird keine dedizierte DP-Units bei GP100 wohl mehr geben. Mixed Precision ist ziemlich eindeutig. 1:2:4 für DP:SP:HP.

Ich rechne mal mit 400~500mm² für GP100, bei doppelter Packdichte, also 30MioTransen/mm². Bei 450mm² sind das 13,5Milliarden Transen. Ausgehend von GM200 sind das mehr als 33% mehr Transistoren. Da würde, mit HBM-PHY-Einsparung, +33% mehr SMs gehen, welchen eine DP-Rate von 1:2:4 haben. GP100 mit 4000SP+.

Nochmal: NV muss Finfets und HBM gebacken kriegen.

Ailuros
2015-07-25, 16:10:33
Die Packdichte beim Apple A8X liegt ueber 23Mio/mm2 unter 20SoC, da wird 16FF nicht nur bei 10% mehr liegen im Vergleich zu 28HP.

horn 12
2015-07-25, 16:46:11
Wieviel kann Pascal bitte schneller werden als die GTX 980TI (Titan X)
Sind 25 Prozent REALSITISCH oder doch weitaus mehr?

HBM / Interposer hat AMD schon hinter sich, da wagt sich NV auf Neuland und kann auch noch schief laufen...

BlacKi
2015-07-25, 18:13:44
bitteschön herr/frau horn
Seien wir doch einfach ehrlich.

HBM2 kommt Mitte 2016. NV wird demnächst einen Tapeout hinlegen bzw. hat schon einen Tapeout hingelegt. Normalerweise Tapeout->Release (6~9 Monate bei GPUs; siehe Maxwell). Neuere Technologien erfordern mehr Zeit, also machen wir mindestens ein Jahr drauß. Also ich gehe mal von ungefähr 1 Jahr+ aus.

GP100 wird imo nicht so groß wie GM200 werden. Ich würde etwas um GM204-Größe schätzen. Der Interposer wird etwas kleiner als bei Fiji sein, sollte aber noch genug Platz für 4 Stacks haben.

Milchmädchen:
~400mm² in 16FF+ => 800mm² in 28nm
800mm²/600mm² = 1,33

Performance: 1,33xGM200 + HBM(~10%) + höherer Takt(~20%) => ~1,6xGM200

IMO wird NV versuchen wieder einen Sprung von Vorgänger auf Nachfolger-Gen zu erreichen. Im Mittel irgendwas zwischen 50~100%.


Mal ganz hart spekuliert:
Eventuell bringt NV nur einen GP-Chip mit weniger mm² und haut zwei auf einen Interposer. Dafür müssten aber Stacks weichen, weil sonst kein Platz mehr da ist.
mein milchmädchen kann nichts rechnen weils zuviele ungenauigkeiten gibt.

ich schätze auch so 50-100%. ich würde aber eher richtung 100% tippen anstatt 50%.

Ravenhearth
2015-07-25, 18:40:33
17 Mrd. Transistoren in 16FF+ auf eine rund 500mm² große Fläche zu quetschen ist nicht das Problem. Der neue Prozess ist viel dichter (Faktor 2,2), dazu HBM etc.

Wenn ich die Kommentare in Betracht ziehe: Könnte es sein, dass GP110 gar mit 6144 ALUs daher kommt?

Korvaun
2015-07-25, 18:43:31
Wieviel kann Pascal bitte schneller werden als die GTX 980TI (Titan X)
Sind 25 Prozent REALSITISCH oder doch weitaus mehr?

HBM / Interposer hat AMD schon hinter sich, da wagt sich NV auf Neuland und kann auch noch schief laufen...

Ich würde sagen das kommt entscheidend darauf an wie gut sich der Chip takten lässt. Wenn der neue Prozess schon bei ca. 1GHz dicht macht wirds nicht so dolle, vor allem wenn man übertaktete 980Ti bei 1,5GHz hat...

Dural
2015-07-25, 19:40:05
alles andere als um die 6000sp würde mich überraschen.

Nakai
2015-07-25, 19:50:25
Die Packdichte beim Apple A8X liegt ueber 23Mio/mm2 unter 20SoC, da wird 16FF nicht nur bei 10% mehr liegen im Vergleich zu 28HP.

Nein, nicht falsch verstehen, was ich geschrieben habe.^^:)

Gut, ich habe jetzt 28HP/HPM in etwa gleichgesetzt. Nehmen wir irgendetwas zwischen 30~35Mio/mm² für 16FF an. Apple A8X ist ja ein SOC und wird nicht die krasse Packdichte einer reinen GPU haben.

Nehmen wir mal 30~35Mio/mm² für einen Chip um die 550mm² an. Da liegt man dann so ziemlich genau auf den FUD von Fudzilla. Recht viel mehr Packdichte kann ich mir nicht vorstellen. Außerdem ist NV eher etwas konservativ im Vergleich zu AMD, was die Packdichte angeht.

Ailuros
2015-07-27, 11:14:42
Wieviel kann Pascal bitte schneller werden als die GTX 980TI (Titan X)
Sind 25 Prozent REALSITISCH oder doch weitaus mehr?

Fuer HPC und spezifisch DP eine Unsumme mehr; fuer desktop ist der Unterschied leicht groesser als zwischen Maxwell und Kepler.

HBM / Interposer hat AMD schon hinter sich, da wagt sich NV auf Neuland und kann auch noch schief laufen...

Was kann denn genau schief laufen? :ubash2:

alles andere als um die 6000sp würde mich überraschen.

Mich wuerde es ueberraschen wenn Du und horn12 zumindest einmal einen spekulativen Treffer landen wuerdet :D

Dawn on Titan
2015-07-27, 11:37:22
Wieviel kann Pascal bitte schneller werden als die GTX 980TI (Titan X)
Sind 25 Prozent REALSITISCH oder doch weitaus mehr?

HBM / Interposer hat AMD schon hinter sich, da wagt sich NV auf Neuland und kann auch noch schief laufen...

40-60% in Spielen. In DP viel mehr.

Ailuros
2015-07-27, 12:13:12
wccftech braucht sicher Personal zum abschreiben :freak:

Godmode
2015-07-27, 12:32:03
Fuer HPC und spezifisch DP eine Unsumme mehr; fuer desktop ist der Unterschied leicht groesser als zwischen Maxwell und Kepler.



Was kann denn genau schief laufen? :ubash2:



Mich wuerde es ueberraschen wenn Du und horn12 zumindest einmal einen spekulativen Treffer landen wuerdet :D

Das erste klingt logisch. Es werden viele Transistoren für die HPC spezifischen Features benötigt, daher kann die Gaming Leistung nicht so stark ansteigen, wie die neue Prozesstechnologie vermuten lassen würde.

Laut CB erreicht eine Titan X 165% einer 780 Ti in 2160p. 145% sind es in 1440p und 135% in 1080p. Wenn man das geringfügig schneller von dir als 10% interpretiert, würde man bei 175%, 155% und 145% landen in den Auflösungen 2160p, 1440p un 1080p. Falls der nachfolgende Prozess (10nm?) wieder Probleme macht, könnte man wieder einen reinen Single Precission Gaming Chip auflegen, wie schon jetzt die Titan X.

Horn und Duplex zeigen immer die pessimistischste und optimistischste Prognose an. :tongue:

HOT
2015-07-27, 12:54:23
Wenn man mit 80% weniger Watt/Transistor ggü. 28nm rechnet halte ich 6144 Shader schon für gewagt. Rein von den Zahlen her könnte das aber passen, klingt plausibel. Ob dann davon auch alle aktiv sind ist dann immer noch ne ganz andere Frage.
Das ist aber ein Risiko, das NV da eingeht, das seines Gleichen sucht. Mit der Strategie ist man beim GF100 schonmal übelst auf die Schnauze gefallen. Immerhin wechselt man offenbar nicht die Basisarchitektur, das wär wohl zu heftig geworden.
- nagelneuer Prozess mit FinFETs
- HBM Erstlingswerk
- ca. 600mm²
- ein Haufen neuer Features fürs Profisegment

Die ziehen da aber alle Register.

Ich seh das auch so, dass der GP100 wieder die Profivariante wird und der große Volta dann die reine Gamervariante.

Dawn on Titan
2015-07-27, 13:27:52
wccftech braucht sicher Personal zum abschreiben :freak:

Ne lieber ne eigene Webseite, notevenhalfaccuratetech.com

Dawn on Titan
2015-07-27, 13:28:41
Maxwell SP ist nicht Pascal SP.

Sunrise
2015-07-27, 16:02:01
...Ich seh das auch so, dass der GP100 wieder die Profivariante wird und der große Volta dann die reine Gamervariante.
Nein.

GV100 bekommt die 2. Generation NVLink und bereits fest für Großkunden im HPC-Bereich verplant. Auch wenn GV100 laut den Projektionen bei 72 SGEMM/W ggü. GP100 der 46 SGEMM/W haben soll, sind beides vollwertige DP-Monster.

GM200 hat NV nur eingeschoben, sowas wird vorerst nichtmehr passieren.

Als Gedankenanstoß:
http://www.theplatform.net/wp-content/uploads/2015/03/openpower-roadmap.jpg

HOT
2015-07-27, 16:07:50
Nein.

GV100 bekommt die 2. Generation NVLink und bereits fest für Großkunden im HPC-Bereich verplant. Auch wenn GV100 laut den Projektionen bei 72 SGEMM/W ggü. GP100 der 46 SGEMM/W haben soll, sind beides vollwertige DP-Monster.

GM200 hat NV nur eingeschoben, sowas wird vorerst nichtmehr passieren.

Als Gedankenanstoß:
http://www.theplatform.net/wp-content/uploads/2015/03/openpower-roadmap.jpg
Ah, ok, wieder was gelernt ;). Thx.

aufkrawall
2015-07-27, 16:10:42
Profitieren bei 2:1HP eigentlich auch andere Rechenformate als FP, also etwa 16 Bit Integer?

Novum
2015-07-27, 16:15:45
Wenn dann 8 bit, FP16 hat nur eine 10 bit Mantisse.

32 bit Integer sind auch jetzt aus dem gleichen Grund wesentlich langsamer als FP32.

Nakai
2015-07-27, 16:23:47
Maxwell SP ist nicht Pascal SP.

Soviele Unterschiede wird es eher nicht geben. Pascal ist eben nur ein schneller Einschub für HBM. Die zugrundliegende Architektur wird sehr ähnlich sein. Einzig Änderungen für den Support für MixedPrecision wird interessant sein.

Bei GCN ist die 32Bit INT-Rate gleich der DP-Rate, weil, wie es gerade angesprochen wurde, eine 64Bit FP-Zahl eine dementsprechend große Mantisse hat. 64Bit INTs sind nochmal schwieriger. Hierzu gibt es einige ERweiterungen, statt 32Bit INTs eben 24Bit INTs(Mantissengröße bei 32Bit Floats) zu benutzen. Man sollte natürlich auf die Wertebereiche aufpassen.

€:
Profitieren bei 2:1HP eigentlich auch andere Rechenformate als FP, also etwa 16 Bit Integer?

HF: 1bit sign; 5Bit exponent; 10Bit mantissa => 8Bit Char
SP: 1bit sign; 8bit exponent; 23bit mantissa => 16Bit INT(Short)
DP: 1bit sign; 11Bit exponent; 52bit mantissa => 32Bit INT

Es wäre nicht soviel dabei die Mantissen für INT-Ops aufzuwerten. Einen größeren Adder einzubauen wäre kein Problem, nur der Multiplizierer wird deutlich fetter.

Godmode
2015-07-27, 16:56:01
Nein.

GV100 bekommt die 2. Generation NVLink und bereits fest für Großkunden im HPC-Bereich verplant. Auch wenn GV100 laut den Projektionen bei 72 SGEMM/W ggü. GP100 der 46 SGEMM/W haben soll, sind beides vollwertige DP-Monster.

GM200 hat NV nur eingeschoben, sowas wird vorerst nichtmehr passieren.

Als Gedankenanstoß:
http://www.theplatform.net/wp-content/uploads/2015/03/openpower-roadmap.jpg

Wäre schön wenn GP100 und danach GV100 so schnell erscheinen würden. Damit könnte man dann auch mal 4k+144hz Displays bedienen, die es zu dieser Zeit dann hoffentlich schon gibt.

fondness
2015-07-27, 16:57:00
GV100 wurde bei der aktuellsten Roadmap bereits auf 2018 verschoben, der Link oben ist also nicht mehr aktuell.

AffenJack
2015-07-27, 17:09:28
Soviele Unterschiede wird es eher nicht geben. Pascal ist eben nur ein schneller Einschub für HBM. Die zugrundliegende Architektur wird sehr ähnlich sein. Einzig Änderungen für den Support für MixedPrecision wird interessant sein.


Kommt drauf an, ob es auch Mixed Precision bei DP wird. Könnte auch nur bei SP/HP werden, dann sieht man bei Tegra X1 ja schon wies läuft.

GV100 wurde bei der aktuellsten Roadmap bereits auf 2018 verschoben, der Link oben ist also nicht mehr aktuell.

GV100 ist sowieso hauptsächlich von TSMC abhängig, da 10nm. Deshalb war 2017 sowieso immer illusorisch.

Tamagothi
2015-07-27, 17:12:43
Soviele Unterschiede wird es eher nicht geben. Pascal ist eben nur ein schneller Einschub für HBM.

Die komplette Architektur muss doch komplett umgekrempelt werden um MixedPrecision zu nutzten? Müssen die SP's dabei nicht auch angepasst werden?

AffenJack
2015-07-27, 18:30:39
Die komplette Architektur muss doch komplett umgekrempelt werden um MixedPrecision zu nutzten? Müssen die SP's dabei nicht auch angepasst werden?

Nein, nicht wenn Mixed Precision nur 2xHalf Precision bedeutet. Dann sind das nur minimale Änderungen wie man an Tegra sieht. Architektur muss sowieso nicht umgekrempelt werden, aber die SP usw müssen mehr verändert werden, wenn es keine extra DP Einheiten mehr gibt. Aber das ist schlicht noch unklar.

Frosty
2015-07-27, 23:31:02
wieviel schneller als die gtx 980 ti wird der pascal performance chip ungefähr sein, und wieviel speicher wird der haben? eventuell schon 8 gb hbm2?

Ravenhearth
2015-07-28, 00:18:17
Als Tesla sinds wohl 32GB.

Hübie
2015-07-28, 00:24:12
Man sollte auch im Hinterkopf behalten dass nVidia künftig Tesla und GeForce stärker abgrenzt. Das kann sich auch auf Releasezyklen ausweiten (wahrscheinlich mit Volta). Bei Maxwell gab's nix besonderes zu tun als M6000 drauf zu kleben.

BlacKi
2015-07-28, 00:37:22
wieviel schneller als die gtx 980 ti wird der pascal performance chip ungefähr sein, und wieviel speicher wird der haben? eventuell schon 8 gb hbm2?
der nachfolger der 980ti wird wohl auch 8gb haben, könnten aber auch 12 sein.

performance chip? also der nachfolger der 960? vermutlich ne ganze ecke langsamer als die 980ti. 4 oder 8gb, wäre aber hbm verhältnissmäßig langsam angebunden mit einem stack und 256gb/s.

die 980 ist highend und vermutlich wird der nachfolger der 980 so schnell wie die 980ti oder leicht schneller. hier sinds wohl 8gb.

Hübie
2015-07-28, 00:42:31
Wer sagt dass HBM von bottom to top kommt? :|

Nakai
2015-07-28, 00:46:18
Man sollte auch im Hinterkopf behalten dass nVidia künftig Tesla und GeForce stärker abgrenzt. Das kann sich auch auf Releasezyklen ausweiten (wahrscheinlich mit Volta). Bei Maxwell gab's nix besonderes zu tun als M6000 drauf zu kleben.

Es gibt erstmal beschissene Yields. Wir werden Pascal wohl erstmal in einer cutdown-Version sehen, ähnlich zu GK110. Mich würde es nicht wundern, wenn NV die Maxwell-Reihe erstmal fortsetzt und dann in H2 langsam die anderen Produkte zu launchen. Das neue Naming wird auch interessant.^^;)

Außerdem, die maximale Größe eines wirklich neuen Prozesses beim ersten Mal auszureizen wäre seltsam. So schnell werden wir den 10nm-Prozess nicht erleben.

€:
Die komplette Architektur muss doch komplett umgekrempelt werden um MixedPrecision zu nutzten? Müssen die SP's dabei nicht auch angepasst werden?

Wieso? Im Tegra X1 ist es doch schon drin, und wenn man den Gedanken weiterspielt, ist es doch nicht abwegig aus einer 64bit FPU, zwei 32bit FPUs und daraus vier 16bit FPUs zu zerlegen. Ich bin da sogar etwas gespannt drauf. Solche Kombi-FPUs sind etwas teurer als normale FPUs. Womöglich wäre damit auch das Scheduling etwas einfacher.
Es gibt dieses schöne Paper:
Paper (http://www.lirmm.fr/arith18/papers/libo-multipleprecisionmaf.pdf)

Es könnte Vorteile haben, auf solche FPUs zu wechseln, wenn man im HPC-Bereich ist.

Godmode
2015-07-28, 09:39:53
GV100 wurde bei der aktuellsten Roadmap bereits auf 2018 verschoben, der Link oben ist also nicht mehr aktuell.

Ich bin seit langem sehr konservativ eingestellt, was die Release Dates angeht. Ich erwarte GP100 für Endkunden erst Anfang 2017 und wenn doch 2016, dann auch erst eher am Richtung Nov-Dez. Bei GP104 bin ich noch unschlüssig, eventuell kommt der noch in diesem Jahr Richtung Q3-Q4?

Bisher lagen immer ca. 2 Jahre zwischen den Topdogs. Ob das alleine dem Prozessproblem geschuldet war, oder eher eine produktpolitische Entscheidung war, würde ich gerne wissen.

fondness
2015-07-28, 09:52:28
Offensichtlich kommt GP100 vor GP104 und ersterer sollte auf jeden Fall 2016 auch für Endkunden kommen wenn das Tapeout-Datum stimmt.

Edgecrusher86
2015-07-28, 11:41:34
Muss ja für den Endkunden (in diesem Fall der Gamer) nichts heißen, wenn GP100 eher Tapeout hatte. Unter normalen Umständen sollte GP104 diesen im August oder September haben. Da vermutlich hier 8GB HBM Gen 2 zum Einsatz kommen dürften (auch um noch einmal die Effizienz zu steigern), kann man eh nicht vor Q2 '16 launchen. Im Fall von September wären das z.B. bis Mai 2016 noch acht Monate. GP100 Tesla und vermutlich auch eine Quadro kann man ja analog dazu veröffentlichen. GP100 als "TITAN" oder wie man den Nachfolger auch nennen dürfte, sehe ich auch frühstens Ende 2016, nen Salvage dann wieder so 2-3 Monate später - die alte Salamitaktik. Erstmal gut Geld mit dem GM204-Nachfolger in 3xxmm² verdienen, der grob bis 30% auf GM200 drauflegen dürfte bei einem PT für die Karte von 180-200W (ähnlich GK104 auf GF110). Mit HBM kann man auf jeden Fall Richtung 600€ verlangen. ;)


Sollte ja kein Problem sein, GM200 mit GP104 zu schlagen bei 3072-3584 SPs, leichten Architekturverbesserungen, mehr Effizienz und eventuell 12xx MHz Baseclock (GM204 liegt da als GTX 980 Ref ja auch nicht so weit entfernt mit 1127 MHz).

Dawn on Titan
2015-07-28, 11:45:32
Kommt alles auf die Art des "Endkunden" an. Manche werden GP100 haben bevor andere GP104 haben, die meisten werden aber GP104 zuerst kaufen können.

HOT
2015-07-28, 13:07:28
GV100 wurde bei der aktuellsten Roadmap bereits auf 2018 verschoben, der Link oben ist also nicht mehr aktuell.

Würde dann ja gut passen:
2016 -> GP100
2017 -> GV104/6/7
2018 -> GV100
2019 -> 10nm

Wenn es 2017 schon den GV104 geben soll wird es 2016 keinen GP104 geben, wieviele Chips in wie kurzer Zeit sollen die denn noch machen?

Blick in die Vergangenheit:
2011 -> nix (OEM-Minichips, zähl ich nicht mit hierbei)
2012 -> GK104/6/7, GK110
2013 -> GM107
2014 -> GM204
2015 -> GM200, GM206

Dawn on Titan
2015-07-28, 14:03:51
2012 Kepler
2014 Maxwell
2016 Pascal
2018 Volta

Und 2018 für Volta ist ambitioniert.

Sunrise
2015-07-28, 14:23:13
Das ist für NV eigentlich kein Problem da mehrere Chips zu stemmen, wobei ich auch nicht von mehr als maximal drei neuen Chips ausgehe. Wenn sie die Diesize und TDP bei den Chips <GP100 u.a. durch 28nm->16nm und noch besser Effizienz sehr stark nach unten ziehen können und zusätzlich hohe Leistung liefern, dann werden evtl. manche auch wieder umsteigen und man spricht aufgrund eines deutlich geringeren Preises (resp. GP100) auch wieder mehr Käufer an. Siehe die nano, wo NV auch ansetzen müsste, für die Karten die sich u.a. dann auch wieder zusätzlich stark für HTPC anbieten.

Da erschlägt man mehrere Punkte mit Chips die auch wieder Käufer finden werden. Vor allem wenn NV mit ca. GM200-Leistung bei deutlich geringerer Diesize (ich erwarte <300mm²) mit aktuellerem Featureset kommt und das im Preisbereich der 970/980 anbieten könnte, würden da einige sicher wieder kaufen. Ist ja immer das gleiche Spiel. Du brauchst nur genug Vorteile und genug Kunden anfüttern und es lohnt sich. Zusätzlich kommen dann die 8GB VRAM hinzu, die man sich für diese Karten aufgehoben hat (und NV deshalb keine 980 8GB erlaubt), was auch mit ein Punkt ist, den man als Anfütterung der Kunden nutzen wird (und man gegen die Fury auch sehr gut vermarkten kann).

Die 970/980 interessiert dann keinen mehr, weil die dann wohl auch schnellstmöglich EOL gehen werden.

VooDoo7mx
2015-07-29, 03:44:04
Ich könnte mir auch den GP104 als ~400mm Chip vorstellen mit über 4000 Schader Cores. (GM204 hat ja schließlich auch fast 400mm) Und das GP100 kaum schneller als dieser wird und den Privatmarkt erst sehr spät erreicht.

600mm² auf 16nm werden das ganze Jahr 2016 erst mal verdammt teuer sein. Wenn da nVidia nicht die eigene Marge reduzieren will wird es da so schnell kein Grafikboard für 700€ mit geben wie aktuell mit der 980Ti. Ich rechne persönlich mit keinen GP100 Consumer Produkt für weniger als $999.

Hübie
2015-07-29, 08:50:51
Ein hypothetischer GP104/204 sollte um die 10,5 Mrd Transistoren haben und käme auf etwa 310 sqmm. Das klingt zumindest aus wirtschaftlichen Aspekt erst mal sinnvoll, da die Kosten steigen und nVidia es sich nicht erlauben kann deutlich mehr für die jeweiligen Produktlinien zu verlangen. Die jetzigen Preisregionen sind überwiegend gut gewählt und haben starken Absatz. Das muss man den Aktionären / Anteilseignern eben recht machen.

Ailuros
2015-07-29, 11:14:38
Offensichtlich kommt GP100 vor GP104 und ersterer sollte auf jeden Fall 2016 auch für Endkunden kommen wenn das Tapeout-Datum stimmt.

Nur weil keiner von mehr als einem 16FF tapeout berichtet, heisst es noch lange nicht dass GP100 nur der einzige Fall ist. Alles unter GP100 fuer 16FF koennte schon dieses Jahr aufs Laufband gehen, wenn 16FF nicht noch so suendhaft teuer (im relativen Sinn) waere darunter herzustellen.

dildo4u
2015-08-15, 21:38:22
Pascal ab Q3 2015 in Massenproduktion

TSMC has also announced that it will ramp up "an enhanced version of 16nm chips, or 16 FinFET+ chips, in the third quarter and that production would reach a high volume in the same quarter," reports the Taipei Times. It is this process upon which Nvidia is going to depend for its next-generation GP100 Pascal GPU. Pascal reportedly has 17 billion transistors and up to 32GB of HBM2 based vRAM.

http://hexus.net/tech/news/industry/85565-tsmc-starts-volume-production-16nm-chips/

maguumo
2015-08-15, 21:51:29
Wo steht da das Pascal in Massenproduktion ist? In der originalen Meldung stand doch das erstmal hauptsächlich SoCs vom Band laufen, und überhaupt nichts zu spezifischen Produkten?

Gibt's bei 16nm FF eigentlich noch eine weitere Aufteilung, so wie bei Samsungs 14nm node in LPE und LPP? Und wurde nicht ursprünglich davon ausgegangen das die nächsten GPUs die bei TSMC gefertigt werden eher in 16nm FF+ gefertigt werden, um Parität mit Samsung/GF zu erreichen?

Kartenlehrling
2015-08-15, 21:52:14
Das Bild ist klasse .... No Photo !!!

dildo4u
2015-08-15, 21:56:32
Wo steht da das Pascal in Massenproduktion ist? In der originalen Meldung stand doch das erstmal hauptsächlich SoCs vom Band laufen, und überhaupt nichts zu spezifischen Produkten?

16nm läuft jetzt schon und 16nm+ ab Ende? Q3,16nm+ wird für die fetten Chip's benötigt.Laut den News lässt nur Nvidia eine 16nm+ GPU fertigen,der Rest sind ARM SOC's.

maximus_hertus
2015-08-15, 21:59:14
16nm läuft jetzt schon und 16nm+ ab Q3,16nm+ wird für die fetten Chip's benötigt.Laut den News lässt nur Nvidia eine 16nm+ GPU fertigen,der Rest sind ARM SOC's.

Hö? Ich lese nur, dass nV 16nm+ braucht, aber nicht, dass sie die einzigen sind?

maguumo
2015-08-15, 22:01:32
Wo steht in dem Artikel das da jetzt schon eine Nvidia GPU gefertigt wird? Sehe ich nicht. Da steht nur das Nvidia auf diesen Prozess angewiesen ist um die nächsten GPUs zu fertigen. Im Ursprungsartikel der Taipeitimes auf den die ganzen Spekulationen der letzten Tage zurückgehen steht auch nichts von einer Nvidia GPU.

Timbaloo
2015-08-15, 22:04:19
16nm läuft jetzt schon und 16nm+ ab Ende? Q3,16nm+ wird für die fetten Chip's benötigt.Laut den News lässt nur Nvidia eine 16nm+ GPU fertigen,der Rest sind ARM SOC's.
Sorry, aber du liest da was aus dem Artikel raus was einfach nicht drin steht. Und selbst wenn, wer so falsch formuliert sollte nicht als Quelle dienen:

The 16nm FinFET+ node from TSMC is expected to deliver twice the density and 65 per cent higher speed at 70 per cent less power than the current 28HPM process.

TSMC's 16FF+ (FinFET Plus) technology can provide above 65 percent higher speed, around 2 times the density, or 70 percent less power than its 28HPM technology.

dildo4u
2015-08-15, 22:05:12
Laut den News sind sie erstmal die einzigen macht auch Sinn da AMD vermutlich erst im Q3 2016 nachlegt,also auch später mit der Produktion beginnt.Titan X kam im März,Fury X im Juni.

maguumo
2015-08-15, 22:06:19
Na dann zitier mal wo das in den News steht, ich bin gespannt.

dildo4u
2015-08-15, 22:07:33
There is a long list of other companies waiting to get their wares made on the new 16nm process, these include; Avago, Freescale, LG, MediaTek and Nvidia. AMD wasn't on the (slightly old) list seen by WCCFTech...

maguumo
2015-08-15, 22:09:43
Also entweder mein Verständnis der englischen Sprache unterscheidet sich grundsätzlich von deinem oder "a long list of companies waiting to get their wares made on the new 16nm process" heißt in etwa "eine lange Liste von Firmen die darauf wartet ihre Produkte im 16nm Prozess herstellen zu lassen", und nicht "eine Liste von Firmen die ihre Produkte im 16nm Prozess herstellen lässt"....

Timbaloo
2015-08-15, 22:10:34
Betreutes Lesen...

dildo4u
2015-08-15, 22:11:49
Der Titel der News ist das die 16nm Produktion jetzt angelaufen ist,und ich hab in meinen ersten Post extra dazu geschrieben,das Pascal (wenn 16nm+ verfügbar ist) ab Q3 gefertigt werden soll was alles bis zum 30.9. einschließt.

maguumo
2015-08-15, 22:14:04
Und wo in dem Artikel steht jetzt das Pascal GPUs ab Q3 gefertigt werden?

StefanV
2015-08-15, 22:16:12
Pascal ab Q3 2015 in Massenproduktion
http://hexus.net/tech/news/industry/85565-tsmc-starts-volume-production-16nm-chips/

TSMC is devoting its first production runs to meeting demand for Apple SoCs
Tja, damit dürfte der Großteil der 16nm Fertigung schon ausgebucht sein...


Oh und:

AMD wasn't on the (slightly old) list seen by WCCFTech
...womit bestätigt wäre, dass AMD bei GF/Samsung fertigen wird...

By the way, was haben (die meisten) hier genannten gemeinsam:
There is a long list of other companies waiting to get their wares made on the new 16nm process, these include; Avago, Freescale, LG, MediaTek and Nvidia. AMD wasn't on the (slightly old) list seen by WCCFTech.
Hm, also so von weitem schaut es so aus, dass die alle irgendwie einen Fuß im Ultramobile und embedded Markt drin haben und irgendwie irgenwas mit* Acorn Computer zu tun haben...
*den Überbleibseln von

Und dass AMD wohl nicht (mehr) bei TMSC fertigen werden wird, wird schon seit langem gerüchtelt...

dildo4u
2015-08-15, 22:16:31
Und wo in dem Artikel steht jetzt das Pascal GPUs ab Q3 gefertigt werden?

Das ist der einzige offiziell bekannte Chip der 16nm+ braucht.

maguumo
2015-08-15, 22:18:40
16nm FF+ hat doch allgemein bessere Eigenschaften als ihr 16nm FF Prozess? Da wird es mit Sicherheit noch genug andere Kunden geben.

Timbaloo
2015-08-15, 22:21:13
maguumo du Dummerchen... offensichtlich entwickelt TSMC einen Prozess nur für Nvidia ;)

StefanV
2015-08-15, 22:25:54
Laut den News sind sie erstmal die einzigen macht auch Sinn da AMD vermutlich erst im Q3 2016 nachlegt,also auch später mit der Produktion beginnt.Titan X kam im März,Fury X im Juni.
Wasn Bullshit...

Noch einmal für dich, zum Mitmeißeln:
AMD wird "16nm" sehr wahrscheinlich GAR NICHT bei TMSC fertigen lassen!
Sondern eher 'volles Risiko' eingehen und bei GF/Samsung fertigen. NICHT TMSC. Daher kann AMD auch nicht dort auftauchen, weil sie dort NICHT fertigen.

16nm läuft jetzt schon und 16nm+ ab Ende? Q3,16nm+ wird für die fetten Chip's benötigt.Laut den News lässt nur Nvidia eine 16nm+ GPU fertigen,der Rest sind ARM SOC's.
ORLY?!
Und was, wenn das ganze gar kein nVidia Chip ist sondern irgendwas ganz anderes?!
Es ist ja nicht so, dass das hochfahren der 16FF+ Fertigung bedeutet, dass da sofort Pascals rauskommen. Ganz im Gegenteil!
Zumal man davon ausgehen könnte, eventuell, dass der Yielt am Anfang sehr unterirdisch sein wird...

dildo4u
2015-08-15, 22:28:12
16nm FF+ hat doch allgemein bessere Eigenschaften als ihr 16nm FF Prozess? Da wird es mit Sicherheit noch genug andere Kunden geben.

AMD wird ihn mit Sicherheit nutzen nur halt später,ich hatte total vergessen wie früh Titan X kam ich dachte an Mai sie kam aber schon im März.Wenn sie ein Jahr danach nachlegen wollen muss die Produktion bald anlaufen.Es gab einige GM 200 vom September 2014.

KW36

http://abload.de/img/gpu91k0p.jpg

maguumo
2015-08-15, 22:34:28
Zwischen den Big Chips lagen die letzten male 2-3 Jahre, ich bezweifle das wir den großen Pascal als Consumer so früh' zu Gesicht bekommen. Wenn wir den neuen Performance Chip (GP 104?) vor Q3 zu Gesicht bekommen würde mich das schon überraschen.

Anhand von spekulierten Releasezeiträumen von einem sicheren Produktionsstart auszugeben bleibt jedenfalls Kaffesatzleserei.

maximus_hertus
2015-08-15, 23:00:31
Ich lege mich fest: Von Big Pascal wird erstmal der "Profi"-Markt was abbekommen. Also quasi Kepler reloaded. Gamer bekommen erstmal den Mittelklasse-Chip irgendwann 2016. Dieser wird, wie damals GK104, die neue schnellste (nV) Grafikkarte und die Titan X schlagen.

y33H@
2015-08-16, 00:21:47
Ich würde ja gerne wissen wo das erwähnte Filling von TSMC zu finden ist.

EDIT
16nm FF+ hat doch allgemein bessere Eigenschaften als ihr 16nm FF Prozess? Da wird es mit Sicherheit noch genug andere Kunden geben.
Ja, bestätigt u.a. Xilinx: http://www.golem.de/news/zynq-ultra-scale-plus-xilinx-laesst-erste-16-nm-chips-fertigen-1507-115030.html

Wobei aus der PM leider nicht hervorgeht, ob 16FF oder 16FF+ ...

Hübie
2015-08-16, 00:38:45
Wobei bei den Xilinx noch PCIe 4.0 als Interconnect zwischen dem FPGA und SoC erwähnenswert wäre. Denn Pascal wird afaik ebenfalls PCIe 4.0 haben.

Sunrise
2015-08-20, 10:55:53
Jetzt ist es offiziell, HBM kommt für HPC, GFX Enthusiast bzw. GFX Performance auch von Samsung, und das bereits Anfang 2016:
http://www.computerbase.de/2015-08/idf-2015-samsung-fertigt-high-bandwidth-memory-hbm-ab-anfang-2016/

Dürfte so ziemlich alles abdecken, was für Pascal benötigt wird (2GB, 4GB und 8GB Module). Big Pascal (nicht Consumer) hat dann wohl 4x8GB für die 32GB die angekündigt wurden. Ich will nicht wissen, was das Ding kostet. Für uns kommt dann wahrscheinlich eine Variante mit 4x4GB.

Godmode
2015-08-20, 11:02:50
4x8 GB für die GP100 HPC
4x4 GB für die GP100 Titan
4x2 GB für GP100 Titan Salvage

Die Frage ist, mit was GP104 kommen wird, auch mit 8 GB? 4 GB Wäre ja wirklich zu wenig für 2016.

Sunrise
2015-08-20, 11:14:43
4x8 GB für die GP100 HPC
4x4 GB für die GP100 Titan
4x2 GB für GP100 Titan Salvage

Die Frage ist, mit was GP104 kommen wird, auch mit 8 GB? 4 GB Wäre ja wirklich zu wenig für 2016.
Definitiv. Ich würde von 2x4GB ausgehen, bzw. 4x2GB wie du schon geschrieben hast.

StefanV
2015-08-20, 12:33:35
4x8 GB für die GP100 HPC
4x4 GB für die GP100 Titan
4x2 GB für GP100 Titan Salvage

Die Frage ist, mit was GP104 kommen wird, auch mit 8 GB? 4 GB Wäre ja wirklich zu wenig für 2016.
Naja, glaubst du wirklich, dass 'WIR' Enduser mehr als 4GiB VRAM bekommen werden?

Dazu besteht doch nicht wirklich ein Grund...

Zumal man mit der Kepler Generation auch 'nur' 2GiB VRAM im Mainstream hatte und 4GiB im High End.
Da ist es doch arg unwahrscheinlich, dass sich da viel ändert...

Godmode
2015-08-20, 12:38:50
Naja, glaubst du wirklich, dass 'WIR' Enduser mehr als 4GiB VRAM bekommen werden?

Dazu besteht doch nicht wirklich ein Grund...

Zumal man mit der Kepler Generation auch 'nur' 2GiB VRAM im Mainstream hatte und 4GiB im High End.
Da ist es doch arg unwahrscheinlich, dass sich da viel ändert...

Eine 4 GB High End Karte für 2016 wäre einfach nur ekelhaft, sorry daran glaube ich nicht. :freak: Die 980 kam im Herbst 2014 und bekam den doppelten VRAM zu ihrem Vorgänger der 680. Somit wäre es jetzt wieder an der Zeit von 4 auf 8 GB zu wechseln. Eigentlich passt das ja. An drei Stacks bei GP104 glaube ich irgendwie nicht.

AnnoDADDY
2015-08-20, 12:46:06
vllt, hat ja der beschnittene GP100 auf'm Desktop auch 12GB wäre denke ich wahrscheinlicher, früher waren ja die beschnittenen Karten einfach etwas schmaler angebunden und dann auch schmaler mit speicher bestückt, wenn man sich die Fermis und vorher anschaut, vllt. machts Nvidia mal wieder so

Godmode
2015-08-20, 12:47:16
vllt, hat ja der beschnittene GP100 auf'm Desktop auch 12GB wäre denke ich wahrscheinlicher, früher waren ja die beschnittenen Karten einfach etwas schmaler angebunden und dann auch schmaler mit speicher bestückt, wenn man sich die Fermis und vorher anschaut, vllt. machts Nvidia mal wieder so

Das halte ich für sehr unwahrscheinlich, weil man dadurch auch das Speicherinterface kleiner machen würde und dadurch die Bandbreite sinken würde. Da das SI auch immer mit den Rops und GPCs zusammehängt ist es hier viel einfacher, nur halb so große Stacks zu verbauen, was dann eben 8 GB für GP100 Salvage entspricht.

AnnoDADDY
2015-08-20, 12:53:39
Das halte ich für sehr unwahrscheinlich, weil man dadurch auch das Speicherinterface kleiner machen würde und dadurch die Bandbreite sinken würde. Da das SI auch immer mit den Rops und GPCs zusammehängt ist es hier viel einfacher, nur halb so große Stacks zu verbauen, was dann eben 8 GB für GP100 Salvage entspricht.

bandbreite ist ja jetzt bei HBM nimmer so wild, von daher würde das wohl schon möglich sein, früher wurden ja die chips auch komplett beschnitten und nicht nur bei den shadern, da mussten auch ROPs drann glauben, ist zumindest jetzt mit HBM erstmal wieder denkbarer als vorher wo Bandbreite relativ knapp war

StefanV
2015-08-20, 13:07:19
Agreed.

Da würde ich jetzt erst mal nicht hoffen, dass für uns das beste kommt sondern für nVidia.

Ergo: Titan vielleicht 16GiB, unter Umständen.
Der High End Salvage die Hälfte -> 8GiB.
Und die 104er, wie jetzt auch, 4GiB

dildo4u
2015-08-20, 13:07:56
Naja, glaubst du wirklich, dass 'WIR' Enduser mehr als 4GiB VRAM bekommen werden?

Dazu besteht doch nicht wirklich ein Grund...

Zumal man mit der Kepler Generation auch 'nur' 2GiB VRAM im Mainstream hatte und 4GiB im High End.
Da ist es doch arg unwahrscheinlich, dass sich da viel ändert...
Hä die GTX 770 hatte 2GB,die 980 4GB alles Mid Range Chips,selbst wenn es erstmal nur den kleinen Pascal gibt werden es 8GB.Genau aus dem Grund hat NV auf HBM2 gewartet.

StefanV
2015-08-20, 13:10:13
Hä die GTX 770 hatte 2GB,die 980 4GB alles Mid Range Chips,selbst wenn es erstmal nur den kleinen Pascal gibt werden es 8GB.Genau aus dem Grund hat NV auf HBM2 gewartet.
Mid Range für 500€, ja, nee, is klar...

AnnoDADDY
2015-08-20, 13:15:30
Mid Range für 500€, ja, nee, is klar...

der GM104 ist nun mal Midrange, auch wenn die Preise was anders hergeben, aber daran werden wir uns wohl gewöhnen müssen. Ich hoffe mal, dass da der GP104 wenigstens 6GB hergibt, und 8GB wären genial, aber 4GB sind eindeutig zu wenig, immerhin muss der sich anfangs schon über die 980ti positionieren, was mit 4GB nicht geht, glaube kaum, dass zuerst der GP100 raus kommt...

dildo4u
2015-08-20, 13:15:47
500€ ist Midrange das ist nunmal Realität selbst bei AMD gibt's das Top Modell nicht mehr für 500€,selbst der beschnittene Fury ist bei 600.

Pirx
2015-08-20, 13:18:31
500€ ist Midrange das ist nunmal Realität selbst bei AMD gibt's das Top Modell nicht mehr für 500€,selbst der beschnittene Fury ist bei 600.
Midrange ist aber keine beschnittene Fury.

AnnoDADDY
2015-08-20, 13:19:55
Midrange ist aber keine beschnittene Fury.

aber der GM104 mit der die konkurriert schon...

edit: und die ist bei 500€ also passt das schon, wobei eig die 970 dann richtig im midrange ist, auch vom Preis

Godmode
2015-08-20, 13:28:43
bandbreite ist ja jetzt bei HBM nimmer so wild, von daher würde das wohl schon möglich sein, früher wurden ja die chips auch komplett beschnitten und nicht nur bei den shadern, da mussten auch ROPs drann glauben, ist zumindest jetzt mit HBM erstmal wieder denkbarer als vorher wo Bandbreite relativ knapp war

Möglich ist es natürlich schon, aber dafür sprechen tut nicht viel. Es wäre ein klarer Rückschritt. Große Chips stark beschneiden ist meistens nicht recht sinnvoll.

Agreed.

Da würde ich jetzt erst mal nicht hoffen, dass für uns das beste kommt sondern für nVidia.

Ergo: Titan vielleicht 16GiB, unter Umständen.
Der High End Salvage die Hälfte -> 8GiB.
Und die 104er, wie jetzt auch, 4GiB

Gerade den VRAM schlachtet das Marketing doch immer aus. Und das beste für Nvidia ist es, möglichst viele Karten zu verkaufen. Sollte GP104 wirklich nur mit 4 GB kommen, muss ich sie einfach laut auslachen.

@Titan: Es geht doch fast nur 16 GB. 8 GB wäre ein Rückschritt 32 GB zu teuer und 12 irgendwie krumm, falls das auch so wie bei Fiji funktioniert.

Mid Range für 500€, ja, nee, is klar...

Die Diskussion hatten wir schon zur genüge, bitte nicht wieder damit anfangen.

Pirx
2015-08-20, 13:30:43
aber der GM104 mit der die konkurriert schon...

edit: und die ist bei 500€ also passt das schon, wobei eig die 970 dann richtig im midrange ist, auch vom Preis
und Lowend ist dann eine GTX 960 oder R9 380?

AnnoDADDY
2015-08-20, 13:34:51
High End = GK110/GM200 oder GP100
Midrange = GK104/GM204 oder dann GP104
Low End = GK107/GM107 oder später GP107

Tahiti war zwischen Midrange und High End, Hawai und Fiji sind High End, musst dir nur die Die-größe anschauen und nicht die gewohnten Preise...

edit: ist aber eig OT und gehört nicht direkt hier rein die Preisdikussion...

Pirx
2015-08-20, 13:44:04
Es ging um die Aussage 500€ ist Midrange und das ist zum Glück noch Quark wenn Lowend z.B. mit der GTX 750 bei 130€ aufhört.

ndrs
2015-08-20, 14:14:34
Bis vor kurzem gab es noch weitere Einteilungen. Ich weiß nicht, warum die plötzlich nichtexistent sein sollen...
Aus meiner Erinnerung war es immer:
GX x00 - Enthusiast
GX x04 - High End
GX x06 - Performance
GX x07 - Mid Range
GX x08 - Low End / Entry Level

Ich weiß nicht, warum das plötzlich anders definiert werden muss.

AnnoDADDY
2015-08-20, 14:44:22
naja 07 ist jetzt aber nicht wirklich midrange, eher daranuter und die 08er kannste vergessen, da sind intels igps schneller...

und die sind low end, jepp, und nicht die 07er...

bei fermi gabs gar noch nen 19er :D

StefanV
2015-08-20, 15:18:33
500€ ist Midrange das ist nunmal Realität
Eine perverse Aussage, dass 500€ nur noch Mid Range wäre...

Damit hat sich PC-Gaming für den 'normalo User', der nicht bereit ist, mehr als 150 oder 250€ für die Grafikkarte auszugeben, erledigt...

Und die Konsolen werden ihren zweiten Frühling erleben, weil sich niemand mehr einen 'Mid Range' PC mehr leisten kann...

Nach deiner Logik wäre auch ein i7-4790K bzw 6700K eine 'Mid Range' CPU...

Früher gab es mal solch tolle Tabellen (http://www.anandtech.com/show/2380/3), wenn man die jetzt weiter spinnt, dann ist man bei weit über 1000€ (eher sogar 1500€) für 'nen Mid Range Gaming PC, laut dir...

Oh und by the way:
7 und 8 war schon immer High End.
6 'Performance' (aka Mainstream')
5 irgendwo dazwischen
4 Low End...

Und warum sollen jetzt auf einmal diese alten Einteilungen nicht mehr gelten und die 8er auf einmal 'Mainstream' sein?!
Was soll denn High End sein?!


selbst bei AMD gibt's das Top Modell nicht mehr für 500€,selbst der beschnittene Fury ist bei 600.
...und was hat jetzt das eine mit dem anderen zu tun?!
Darf nur nVidia Grafikkarten für 500€ plus verkaufen oder wie ist deine Aussage zu verstehen?!

Gipsel
2015-08-20, 15:47:38
Könnten wir bitte beim Thema bleiben?
Die Diskussion, was jetzt nun genau Midrange- oder Performance-GPUs sind, ist doch irgendwie fruchtlos :rolleyes:.

Loeschzwerg
2015-08-20, 17:10:25
Für GP104 erwarte ich definitiv 8GB. 390/x haben auch 8GB, da wird NV schon dagegen setzen.

BlacKi
2015-08-20, 17:46:43
also 8gb, denn 6gb wären garnichtso einfach umzusetzen mit den specs die hbm gen 2 hinterlegt sind.

Timbaloo
2015-08-20, 18:53:24
also 8gb, denn 6gb wären garnichtso einfach umzusetzen mit den specs die hbm gen 2 hinterlegt sind.
Was spricht gegen 3 mal 2GB-Stacks? Ich kenn die Specs nicht, würde mich aber interessieren was die Schwierigkeit wäre.

Godmode
2015-08-20, 19:02:02
Was spricht gegen 3 mal 2GB-Stacks? Ich kenn die Specs nicht, würde mich aber interessieren was die Schwierigkeit wäre.

Das Verhältnis der Speicherbandbreite zwischen GP104 und GP100 würde sich so halt ändern, zum vorteil von GP104. Und die GPCs müssten vollständig vom SI entkoppelt sein, keine Ahnung ob das jetzt schon so ist.

AnarchX
2015-08-20, 19:08:51
Date HS Code Description Origin Country Port of Discharge Unit Quantity Value (INR) Per Unit (INR)
12-Aug-2015 85423100 GRAPHICS PROCESSOR INTEGRATED CIRCUITS NT0EH Taiwan Banglore Air Cargo NOS 2 398,628 199,314
https://www.zauba.com/import-graphics-processor-integrated-hs-code.html

Zwei GPUs für je ~2700€.

AnnoDADDY
2015-08-20, 19:09:18
Das Verhältnis der Speicherbandbreite zwischen GP104 und GP100 würde sich so halt ändern, zum vorteil von GP104. Und die GPCs müssten vollständig vom SI entkoppelt sein, keine Ahnung ob das jetzt schon so ist.

speicherbandbreite ist glaube ich egal, kann man beschneiden, wenn man will, und wenn GP104 nur 3 Stacks hat, ist dem seine Bandbreite eh niedriger als bei GP100 mit 4 Stacks

ndrs
2015-08-20, 19:16:05
Außerdem gibt es immernoch den Takt über den man skalieren könnte.
Da sie damals damit durchgekommen sind und auch mit der GTX 970 Geschichte, erwarte ich jetzt nicht wirklich, dass sie 8GiB 'Standardmäßig' verbauen würden...

Optional sehr wahrscheinlich. Inkl saftigem Aufpreis - wie schon bei der GTX 680...
Das Problem bei HBM ist dann halt, dass nVidia bei der Chipfertigung schon festelegen muss, wieviel Speicher drauf kommt. Nicht mehr die Boardpartner. Daher glaube ich nicht wirklich dran, dass es da viel Auswahl gibt.

BlacKi
2015-08-20, 20:13:27
könnte mir vorstellen das man wieder schnippelt ähnlich wie bei der 970 um nur 6gb zu nutzen.

aber ich glaube eher an 2x4gb stacks, ich hoffe nicht auf einen halb deaktivierten stack.

aber wozu auch, ein gewaltiger unterschied zu gp100, der wohl mit 16gb kommen wird, ist mit 8gb auf jeden fall gegeben.

iuno
2015-08-20, 21:17:06
Das Problem bei HBM ist dann halt, dass nVidia bei der Chipfertigung schon festelegen muss, wieviel Speicher drauf kommt. Nicht mehr die Boardpartner. Daher glaube ich nicht wirklich dran, dass es da viel Auswahl gibt.
Problem? Bei GDDR5 hat man doch auch nicht viel mehr Spielraum, auch dort gibt das SI grob die Speichermenge vor. Boardpartner entscheiden idR. sowieso nicht, sonst gäbe es ja auch 980 Ti mit 12 GiB. Wenn dann gibt es größere Dies oder den Clamshell-Mode. Aufgebohrte Versionen gibt es also nur mit Faktor 2 (4 würde ja auch keinen Sinn ergeben), was mit HBM genauso geht, indem man 8Hi statt 4Hi Stacks nimmt. Mehr als 1 Stack wird es der Bandbreite wegen für GP104 wohl sein müssen, dann sind theoretisch je nach SI wohl 8-32 GiB möglich.

Das Verhältnis der Speicherbandbreite zwischen GP104 und GP100 würde sich so halt ändern, zum vorteil von GP104. Und die GPCs müssten vollständig vom SI entkoppelt sein, keine Ahnung ob das jetzt schon so ist.
Wir haben ja noch keine Daten zu den Chips.
Und dann ist der Unterschied im Verhältnis eher gering und den Takt kann man zur Not ja auch noch etwas drücken bei 3 vs 4 Stacks.

StefanV
2015-08-20, 21:37:49
Problem? Bei GDDR5 hat man doch auch nicht viel mehr Spielraum, auch dort gibt das SI grob die Speichermenge vor. Boardpartner entscheiden idR. sowieso nicht, sonst gäbe es ja auch 980 Ti mit 12 GiB.
Boardpartner DÜRFEN nicht bzw bekommen den Speicher mit der GPU. Da ändert sich jetzt also auch nicht wirklich viel zu GDDR5...

Das Problem bei HBM ist dann halt, dass nVidia bei der Chipfertigung schon festelegen muss, wieviel Speicher drauf kommt. Nicht mehr die Boardpartner. Daher glaube ich nicht wirklich dran, dass es da viel Auswahl gibt.
Ähhm, wo ist denn der Unterschied zu jetzt?!
Da schauts ja auch nicht wirklich anders aus...

ndrs
2015-08-20, 22:46:28
Boardpartner [...] bekommen den Speicher mit der GPU. Da ändert sich jetzt also auch nicht wirklich viel zu GDDR5...

Wenn das so ist, nehme ich natürlich alles zurück. Ich kann es mir aber nicht vorstellen, dass die Speicherchips erst durch die Zwischenlager beim GPU-Hersteller durchmüssen.

Falls nicht:

Ähhm, wo ist denn der Unterschied zu jetzt?!
Da schauts ja auch nicht wirklich anders aus...
Früher:
Boardpartner deckt sich mit gewissen Mengen GPUs und Speicherchips ein. Je nach dem, was der Markt will, werden den GPUs unterschiedliche Speicherchips zugewürfelt. Der Speicher kann auch für andere GPUs genutzt werden, sollte er "übrig" sein. => Hohe Flexibilität
Neu:
GPU-IHV verkauft fertige GPU-RAM-Kombinationen. Es muss also schon viel an einem früheren Zeitpunkt in der viele Wochen (oder Monate) dauernden Produktion festgelegt werden, welche Speichermengen gewünscht sind, was die Planungsunsicherheit erhöht und demzufolge die Preise steigen lassen sollte. Der Boardpartner kann nicht einfach sagen "Ok, die Karten mit mehr RAM gehen besser. packt die doppelte Menge drauf und kauft einfach noch nen Schwung Speicherchips nach."

Wie gesagt, sollte RAM mit GPU zusammen vom GPU_IHV verkauft werden ist der untere Teil meines Posts natürlich hinfällig.

@iuno
Es ging mir natürlich nur um die bisher auch schon geläufigen Faktoren 1x, 2x und maximal noch 4x zwischen den Speicherkapazitäten.

y33H@
2015-08-21, 11:00:26
Um mal wieder zurück zum Thema zu kommen: Samsung produziert auch HBM.

http://www.golem.de/news/stapelspeicher-auch-samsung-produziert-high-bandwidth-memory-1508-115866.html

Nvidia kann also bei Hynix und / oder bei Samsung zugreifen.

Womit dieses "AMD kriegt mehr HBM Gen2"-Gedöns wie erwartet FUD ist.

Timbaloo
2015-08-21, 11:36:10
Wurde schon gepostet. Aber kein Vorwurf, durch das ganze OT-Blabla gehen die relevanten Infos leider unter...

y33H@
2015-08-21, 12:15:54
In Post #701 auf der Seite davor, grade gefunden. Ging in der Tat unter.

maguumo
2015-08-21, 12:39:23
Die Frage ist ja auch wie schnell Samsung fähig ist höhere Kapazitäten zu produzieren. Wenn man sich Hynix Zeitplan anschaut scheint der Sprung zu 8Hi Stacks+mehr Speicher pro Die+doppelte Frequenz nicht gerade Trivial...

Andererseits produziert Samsung schon recht lange (DDR4?) DRAM mit TSVs...

y33H@
2015-08-21, 18:34:53
Das scheint ne Samsung-Taktik zu sein: Erst mal gucken, was läuft und dann mit Gewalt nachsetzen.

rentex
2015-08-22, 10:27:36
Das seh ich auch so. Samsung forciert EXTREM Entwicklungen, wenn sie gewinnbringend oder der Festigung der Marktposition dienen.

Unicous
2015-08-23, 13:09:17
Das scheint ne Samsung-Taktik zu sein: Erst mal gucken, was läuft und dann mit Gewalt nachsetzen.

Ich hatte schon vor ein paar Monaten einen Artikel verlinkt, indem ein Samsung-Typ sagte, man wäre bereit für HBM und würde auch anfangen zu produzieren.

Ich glaube nicht, dass sie in Lauerstellung abgewartet haben, sondern einfach auf den shrink gewartet haben um höhere Kapazitäten zu ermöglichen. Des weiteren hat ja Nvidia seine Chips immer und immer wieder verschoben und sicherlich gab es auch andere Kandidaten die HBM vllt. nutzen wollten, aber entweder die Kosten noch zu hoch sind, oder die Designs nicht fertig sind.


Zu Pascal @Q1'16 oder was auch immer Di[]do4 abgelassen hat. Wenn Samsung bereit ist im in H1'16 HBM herzustellen, heißt das nicht im Umkehrschluss, dass am 1. Januar Release ist. Wenn der Chip u.U. erst vor ein paar Monaten sein tapeout hatte, wird das eh nichts.

Mancko
2015-08-23, 14:52:29
Zu Pascal @Q1'16 oder was auch immer Di[]do4 abgelassen hat. Wenn Samsung bereit ist im in H1'16 HBM herzustellen, heißt das nicht im Umkehrschluss, dass am 1. Januar Release ist. Wenn der Chip u.U. erst vor ein paar Monaten sein tapeout hatte, wird das eh nichts.

Es ist m.E: sehr wahrscheinlich, dass Samsung HBM für Pascal ready haben wird. Große Stückzahlen werden vorerst eh nicht benötigt. Der Q1/Q2 Quartalswechsel ist daher m.E. ein sehr gutes Launchzeitfenster für Pascal. Im übrigen ist es sogar ein typisches Nvidia Launchzeitfenster wenn man mal die Vergangenheit betrachtet. Wird natürlich "nur" ein Performance Pascal, natürlich zum High End Preis, denn die Leistung wird für alles heute existierende mehr als ausreichend sein.

Screemer
2015-08-23, 14:56:51
... die Leistung wird für alles heute existierende mehr als ausreichend sein.
Das erzähl mal den Jungs und Mädels mit ihren 4k Kisten.

Mancko
2015-08-23, 14:59:08
Das erzähl mal den Jungs und Mädels mit ihren 4k Kisten.

Ich meinte alle existierenden Grafikkarten bzw. GPUs, sprich Titan/980Ti und Fury. Ich meinte nicht Software. Da kam man immer nach mehr verlangen und das ist auch gut so. Das hält die Nachfrage oben.

Unicous
2015-08-23, 15:37:12
Oh, Mancko weiß es schon wieder besser.

Es wird auf alle Fälle ein Performance-Chip. Hört, Hört. Denn obwohl Pascal explizit auf Computing ausgelegt ist (32 GB HBM, NVLINK) muss IBM dann eben noch ein paar Monate extra auf die Validierung warten, nachdem der Chip dann vom Band gelaufen ist. Währenddessen wartet die gesamte Prosumer, Workstation, etc. Community weiterhin eine gefühlte Ewigkeit auf den Nachfolger zu GK110/210.:rolleyes:

Wenn HBM von Samsung ab dem 1. Januar 2016 lieferbar ist, interessiert das einen Scheiß, solange es keinen Chip gibt der ihn nutzen kann. Bloß weil laut TSMC volume production von 16FF+ angelaufen ist, heißt das nicht, dass das erste Produkt Pascal heißt. Eher heißt das Produkt A9, oder vllt. 820. Es sieht nämlich eher so aus, das TSMC nicht genug Kunden für 16nmFF hat und die eher auf FF+ warten.

Und außerdem finde ich es putzig, wie jetzt alle auf einmal behaupten, AMD würde auf einmal exklusiv bei GF produzieren lassen, obwohl es dafür keinerlei Anhaltspunkte gibt. Nur weil AMD nicht auf irgendeiner Liste auftaucht, heißt das nicht im Umkehrschluss, dass sie nicht/nie mehr bei TSMC produzieren.

Fakt ist: AMD hatte laut eigener Aussage schon vor ein paar Wochen oder Monaten erste tapeouts in FinFET. Laut TheStilt, der eine sehr verlässliche Quelle ist, sind das auf jeden Fall GPUs. Von Nvidia weiß man, dass Big Pacal seinen tape out hatte, erinyes hatte es vor zwei Monaten verkündet, eine sehr gute Quelle wenn es um Nvidia geht.

Time to revive this thread. My info says big Pascal has taped out, and is on TSMC 16nm (Unknown if this is FF or FF+, though I suspect it is FF+). Target release date is Q1'16. This is a change from Kepler and Maxwell where the smallest chip (GK107 and GM107 respectively) taped out first. Maybe the experience with 20nm was enough for NV to go back to their usual big die first strategy. Given the huge gains in performance compared to 28nm, and the fact that the 16nm process is both immature and quite expensive, I suspect the die size may be a bit smaller than what we've seen with GK110/GM200.

Still wondering what they're doing on Samsung 14nm though, maybe just test chips for now?


https://forum.beyond3d.com/threads/nvidia-pascal-speculation-thread.55552/page-8#post-1848329

Vom tapeout zur mass production braucht man wenn nichts schief geht ein Jahr, selten weniger, meist mehr -> metal respin. Das mit dem Q1 finde ich dahingehend eine gewagte These, aber gut, bei GK110 war glaube ich ähnlich. Zuerst ganz wenige Chips für HPC/den Supercomputer Titan und dann deutlich später für den retail-Markt GFX Titan.

Rampage 2
2015-08-23, 16:30:03
Kann man wenigstens bei GP104 mit einer Einführung im Q1 2016 rechnen? Dass sollte doch realistischer sein als bei GP100...

R2

Unicous
2015-08-23, 16:45:08
Kann man wenigstens bei GP104 mit einer Einführung im Q1 2016 rechnen? Dass sollte doch realistischer sein als bei GP100...

R2

Gibt noch nicht einmal Infos, ob irgendein GP20x einen tapeout hatte, von daher ist das nur Spekulation. Ich jedenfalls rechne mittlerweile eher mit Mitte 2016 für neue retail Chips (sowohl AMD als auch Nvidia) , ich habe kein Vertrauen, dass TSMCs 16FF+ Prozess momentan für mehr taugt als für mobile Chips. Ähnlich bzw. unter Umständen sogar schlimmer sieht es wohl bei Samsung/GF aus.

Laut Gerüchten soll ja auch Samsung/GF wieder Kapazitäten für den Apple A9 an TSMC verloren haben. Jedenfalls scheint der Übergang 28nm->14nm ähnlich holprig von statten zu gehen wie 40nm->28nm.

Mancko
2015-08-23, 18:14:07
Kann man wenigstens bei GP104 mit einer Einführung im Q1 2016 rechnen? Dass sollte doch realistischer sein als bei GP100...

R2

Ich gehe von Q1/Q2 Wechsel genau für GP104 aus.

Mancko
2015-08-23, 18:14:40
Vom tapeout zur mass production braucht man wenn nichts schief geht ein Jahr, selten weniger, meist mehr -> metal respin. Das mit dem Q1 finde ich dahingehend eine gewagte These, aber gut, bei GK110 war glaube ich ähnlich. Zuerst ganz wenige Chips für HPC/den Supercomputer Titan und dann deutlich später für den retail-Markt GFX Titan.

In der Vergangenheit waren es in der Regel im Schnitt 9 Monate.

AnarchX
2015-08-23, 18:16:04
Der Termin der GTC 2016 steht doch schon fest.