PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

DavChrFen
2015-03-19, 11:27:53
NVLINK ist aber kein Interposer, oder?

Timbaloo
2015-03-19, 11:30:12
http://www.anandtech.com/show/8811/nvidia-tegra-x1-preview/2
Ah, danke. Erwartest du wirklich, dass sich das ändert zu Pascal? Das dürfte die Logik der Einheit doch deutlich aufwändiger gestalten und dann FP32 entsprechend teurer machen.

Skysnake
2015-03-19, 11:35:13
Was anderes macht doch gar keinen Sinn in einer GPU. Du hast doch eh N Workitems/threads in einer workgroup/grid, die die gleiche Operation ausführen. Wenn du mehrere OPs zulassen wollen würdest, würde das auch bedeuten, dass du logischerweise bei einem Branch parallel die Instruktionen ausführen würdest, und nich sequenziell durch Maskierung.

Das wäre aber ziemlicher Blödsinn meiner Meinung nach für GPUs. Das wäre einfach viel zu Aufwändig.

Ailuros
2015-03-19, 11:50:22
Ah, danke. Erwartest du wirklich, dass sich das ändert zu Pascal? Das dürfte die Logik der Einheit doch deutlich aufwändiger gestalten und dann FP32 entsprechend teurer machen.

Keine Ahnung um ehrlich zu sein. Ich erwarte schon eine breitere Implementierung im desktop, aber vom Bauchgefuehl bis zur Realitaet liegt stets ein grosser Abstand.

robbitop
2015-03-19, 13:00:31
NVLink wird es nur im Serverbereich, oder eventuell für Multi-GPU Karten geben.

PCI-E werden Sie wohl immer haben.
So eine Vermutung habe ich auch. Immerhin haben sie bei den SLI Brücken (und dem Interface) seit 2004 nichts mehr gemacht. Die Bandbreite reicht für die gestiegenen Anforderungen nicht mehr aus. Alternativ kann man es aber auch ohne Brücke machen wie AMD. Mit PCIe 3.0 16x ist genug Bandbreite da. PCIe 4.0 bringt es dann für die Massen (2x PCIe 8x 4.0)

NV Link kann aber am AFR Leiden auch nichts ändern. Besseres mGPU geht mit guter Skalierung (SFR ist hier schlecht!) nur wenn beide Kerne auf einem Interposer sehr sehr latenzarm und breit verbunden wären.

NVLINK ist aber kein Interposer, oder?
Zwei grundverschiedene Dinge, so wie Auto und Bratwurst. :D

NVLINK ist einfach nur ein anderes Interface. Ein Interposer ist quasi ein großer Halbleiterchip, der aber nur aus Verdrahtung und Durchführungen besteht und nicht aus Logik. Auf diesen Chip kann man dann andere Chips draufstapeln. Z.B. eine GPU und HBM Stacks. Die kann man dann sehr sehr breitbandig und anbinden. Ein Interposer verbindet sozusagen mehrere ASICs.

Ah, danke. Erwartest du wirklich, dass sich das ändert zu Pascal? Das dürfte die Logik der Einheit doch deutlich aufwändiger gestalten und dann FP32 entsprechend teurer machen.

Pascal soll NVs erste GPU mit Mischgenauigkeit sein. Was Ailuros andeutet, ist wohl dass es analog zu Tegra X1 funktioniert. Die ALUs können FP32 und FP64. (bei Tegra 2x FP16 oder 1x FP32 -> FP16 braucht heute im PC Bereich aber kein Mensch mehr). Bisher hat NV ja immer separate FP64 ALUs verbaut. Die kosten Transistoren und bringen nichts wenn sie nicht benutzt werden. (das hat man wohl aus "Power" Gründen gemacht, da man die nicht benutzte ALU Kategorie powergaten kann).

Das wird im Schnitt sicherlich teurer werden als reine FP32 ALUs - aber billiger als FP32 ALUs und 0,5x der Anzahl FP64 ALUs zu verbauen. So hat man immer eine DP Rate von 1:2.

Skysnake
2015-03-19, 13:30:27
So eine Vermutung habe ich auch. Immerhin haben sie bei den SLI Brücken (und dem Interface) seit 2004 nichts mehr gemacht. Die Bandbreite reicht für die gestiegenen Anforderungen nicht mehr aus. Alternativ kann man es aber auch ohne Brücke machen wie AMD. Mit PCIe 3.0 16x ist genug Bandbreite da. PCIe 4.0 bringt es dann für die Massen (2x PCIe 8x 4.0)

NV Link kann aber am AFR Leiden auch nichts ändern. Besseres mGPU geht mit guter Skalierung (SFR ist hier schlecht!) nur wenn beide Kerne auf einem Interposer sehr sehr latenzarm und breit verbunden wären.

Naja, NVLink wird quasi so etwas wie QPI/HT. Im Prinzip gehe ich davon aus, dass das nichts anderes ist, als der von IBM verwendete cohärente externe Bus. UND NEIN ICH HABE KEINE INFOS DAZU! Das ist reine Spekulation auf der Basis von öffentlich zugänglichem Material!


Pascal soll NVs erste GPU mit Mischgenauigkeit sein.

Seit Fermi..

Also eher umgekehrt. Kepler und Maxwell sind die einzigen nVidia GPUs, die nur eine Genauigkeit unterstützt haben in letzter Zeit.


Was Ailuros andeutet, ist wohl dass es analog zu Tegra X1 funktioniert. Die ALUs können FP32 und FP64. (bei Tegra 2x FP16 oder 1x FP32 -> FP16 braucht heute im PC Bereich aber kein Mensch mehr). Bisher hat NV ja immer separate FP64 ALUs verbaut. Die kosten Transistoren und bringen nichts wenn sie nicht benutzt werden. (das hat man wohl aus "Power" Gründen gemacht, da man die nicht benutzte ALU Kategorie powergaten kann).

Das wird im Schnitt sicherlich teurer werden als reine FP32 ALUs - aber billiger als FP32 ALUs und 0,5x der Anzahl FP64 ALUs zu verbauen. So hat man immer eine DP Rate von 1:2.
Ich würde das nicht unbedingt sagen! Es gibt im HPC-Bereich durchaus Bestrebungen auch FP16 oder sogar FP8 zu nutzen, sofern es möglich ist. Das Problem dabei ist nur, das man schon ziemlich viel Ahnung vom numerischen Verhalten von Problemen haben muss um 100% sicher! wissen zu können, ob man damit jetzt ernsthaft ausschließen kann, das solche Reduktionen unter gar keinen Umständen irgendwelche negativen Auswirkungen auf das Ergebnis haben. DP ist da halt quasi der "no-brainer" :freak:

Wenn man sich aber anschaut, wie viel Aufwand man eventuell reinstecken muss, um eben sich sicher zu sein, das am Ende nicht alle Ergebnisse für die Mülltonne sind, ist es meiner Meinung nach sehr oft absolut legitim das zu tun.

Ich habe selbst bei meinen Simulationen gemerkt, wie schnell man sich Probleme einfangen kann, die man so nie erwarten würde und auch nur ganz schwer überhaupt realisiert/fest stellt. Und das ist ziemlich teure Software, bei der ich auf Probleme mit der Simulationsgenauigkeit gestoßen bin....

Also von daher muss man sich schon sehr genau anschauen, inwiefern das wirklich relevant wird. Wenn man nämlich so einen Aufwand betreibt, wird je nachdem auch wieder die Nutzung von FPGAs interessant....

M4xw0lf
2015-03-19, 13:31:14
Das wird im Schnitt sicherlich teurer werden als reine FP32 ALUs - aber billiger als FP32 ALUs und 0,5x der Anzahl FP64 ALUs zu verbauen. So hat man immer eine DP Rate von 1:2.
Ist das nicht genau das, was AMD mit GCN schon immer tut, bzw spätestens bei Hawaii?

Troyan
2015-03-19, 13:32:20
Konnte nVidia auch schon mit Fermi.

Nakai
2015-03-19, 13:35:34
Naja NV geht den AMD Weg...wieder :freak:

Pascal wird HBM und eben verbesserte SMs haben. Eine höhere Performance/SP erwarte ich nicht.

robbitop
2015-03-19, 14:19:06
Fermi hat keine dedizierten FP64 ALUs? Ich meine mal gelesen zu haben, dass Tesla welche hatte und ging davon aus, dass es bei Fermi dann auch so sein sollte.

Ailuros
2015-03-19, 17:30:29
Ganz im Gegensatz sagt mir mein Bauchgefuehl dass sich NV bei Pascal nicht so begrenzt mit FP16 als mit der X1 GPU. Beim letzten ist es auch eher an relativ spaeter Nachgedanke, als dass sie von Grund auf die X1 GPU fuer 2*FP16 entwickelt hatten.

Godmode
2015-03-26, 08:47:29
Kennt man diese Folie von IBM eigentlich? Mich wundert, dass dort GP100 für 2016 eingetragen ist. Könnte natürlich sein, das GK110 wiederholt wird und das Profisegment, deutlich früher mit diesem Chip versorgt wird.

http://www.theplatform.net/2015/03/18/nvidia-tweaks-pascal-gpus-for-deep-learning-push/

http://www.theplatform.net/wp-content/uploads/2015/03/openpower-roadmap.jpg

AnarchX
2015-03-26, 08:56:55
GP100 wird doch schon lange für den Jahreswechsel '15/16 spekuliert.
Da ist wohl auch ein Endkunden-Launch im H1 '16 durchaus denkbar.

Godmode
2015-03-26, 10:28:04
Ok ich ging immer von etwas später aus. Allerdings wenn die Fertigung für GP100 bereit ist, warum nicht. :)

robbitop
2015-03-26, 10:40:17
IMO zu optimistisch. Erstmal werden sie Anfang 2016 mit GP104 die Leute schön abfarmen. Herbst/Winter 2016 dann mit GP100 nochmal. :)
Je nach Prozessreife kann es durchaus sein, dass 16 nm FF+ anfangs gar nicht reif für eine >5xx sqmm GPU ist. Und wenn diese langsam kommt, kann ich mir analog zu GK110 vorstellen, dass es erstmal im Profisegment kommt.

Sunrise
2015-03-26, 11:07:16
@Godmode:
Danke für die Folie, die kannte ich noch nicht.

Ansonsten, wie schon ein paar Mal erwähnt, NV braucht GP100 recht bald und 2016 ist recht sicher. Auch wird die zweite HBM-Generation dann auch fertig und in Masse produzierbar zur Verfügung stehen. Auch wenn die Yields anfangs vielleicht schlechter sind, muss das Ding schnellstmöglich kommen, da in H2/15 Knights Landing kommt.

Und das GP104 oder wie auch immer kommt ist ja kein großes Problem, den kann man auch bei deutlich geringerer Die-size und besserer Performance als die Titan X schon vorher veröffentlichen, wenn das der Plan ist. Dann wird eben wieder das gleiche Spiel mit einer zwischen 290mm² und 350mm² großen GPU gespielt, wie seit GK104. Dafür sollten die Yields auch vollkommen ausreichen, da man sämtliche Salvage-Parts perfekt verwerten kann (mehrfach im Desktop-, Quadro-, Mobil-Markt). Und bei der Effizienz mit der Maxwell jetzt schon fährt, braucht man sich da auf 16FF(+) garkeine Sorgen machen. Außer natürlich, es geht wieder irgendwas schief.

Wenn es etwas Neues gibt, weckt mich bitte.

Hübie
2015-03-26, 12:40:03
Also Anfang 2016 glaub ich erst wenn ichs sehe ;D Ich gehe eher von Spätsommer (Aug/Sep) aus.

AnarchX
2015-03-26, 12:55:51
IMO zu optimistisch. Erstmal werden sie Anfang 2016 mit GP104 die Leute schön abfarmen. Herbst/Winter 2016 dann mit GP100 nochmal. :)

Je nach Prozessreife kann es durchaus sein, dass 16 nm FF+ anfangs gar nicht reif für eine >5xx sqmm GPU ist. Und wenn diese langsam kommt, kann ich mir analog zu GK110 vorstellen, dass es erstmal im Profisegment kommt

PNY hat da wohl andere Informationen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10557356#post10557356 Und auch dieses Paper was ich mal ausgegraben hatte, sah GP100 "beginning 2016". (http://www.3dcenter.org/news/nvidias-big-chips-gk210-gm200-gp100-bestaetigt)

Es könnte ja auch sein, das 16nm durchaus gute Resultate erzielt, aber halt wirklich teuer ist, sodass hier unter Titan >$999 kein Verkauf in Frage kommt. Die alten 28nm Maxwell könnte man hingegen mit neuen Aufkleber auch (ein paar) $100 nach unten drücken.

Wenn GP10x auch zeitnah erscheinen, wäre das natürlich auch nicht verkehrt.

robbitop
2015-03-26, 12:56:01
Ich würde auch auf 6-9 Monate zwischen GP104 und GP100 (für Consumer!) setzen. Q1 2016 GP106 und Q3/4 GP100. (vieleicht ist es noch länger . zwischen GK104 und GK110 lag fast 1 Jahr)

Dural
2015-03-26, 12:58:01
vielleicht für Tesla wenige Stückezahlen, aber sicher nicht im Desktop Bereich. NV wird sich zuerst GP104 vergolden lassen ;)

robbitop
2015-03-26, 13:00:06
PNY hat da wohl andere Informationen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10557356#post10557356 Und auch dieses Paper was ich mal ausgegraben hatte, sah GP100 "beginning 2016". (http://www.3dcenter.org/news/nvidias-big-chips-gk210-gm200-gp100-bestaetigt)

Es könnte ja auch sein, das 16nm durchaus gute Resultate erzielt, aber halt wirklich teuer ist, sodass hier unter Titan >$999 kein Verkauf in Frage kommt. Die alten 28nm Maxwell könnte man hingegen mit neuen Aufkleber auch (ein paar) $100 nach unten drücken.

Wenn GP10x auch zeitnah erscheinen, wäre das natürlich auch nicht verkehrt.

Pascal für Beginning 2016 ist sicher GP104 gedacht. GP100 wird ggf. zunächst im Profimarkt benutzt.

Wozu das Ding auch früher rausbringen? So kann man besser abkassieren. Hat seit 2012 super geklappt.

Außerdem ändern sich Zeitpläne auch und Boardpartner sagen viel wenn der Tag lang ist - haben aber äußerst selten so weiten Einblick in die laufende GPU Entwicklung. (ich kenne privat ein paar Leute bei Boardpartner)

Bei GK110 hieß es damals auch Mitte 2012. Und es verschob und verschob sich... ;)

Dural
2015-03-26, 13:01:43
Wobei GK110 natürlich auch seine Probleme hatte, erstens mal den Herstellungs-Prozess und zweitens auch Technisch (zb. PCI-E)

robbitop
2015-03-26, 13:08:46
Das kann man nie ausschließen. Und dennoch gab es lauffähige Chips Monate vor Titan, die im Profibereich vertickt worden sind.

Mitte 2012 war 28 nm eigentlich nicht mehr problematisch. Und Titan kam im A1. Also kein Respin. Kann also nicht so viel Probleme gegeben haben.

Sunrise
2015-03-26, 13:10:31
Also Anfang 2016 glaub ich erst wenn ichs sehe ;D Ich gehe eher von Spätsommer (Aug/Sep) aus.
Na, Anfang 2016 für GP100 ist wohl ein wenig übers Ziel hinaus geschossen.

Wenn man sich mal den neuen Slide von der GTC anschaut, dann bezieht sich das auch auf die Architektur generell. Also irgendwas mit Pascal könnte da schon kommen, Frühjahr 2016 passt für GP104 ganz gut.

robbitop
2015-03-26, 13:13:07
Klar. AnarchX hat das behauptet/angedeutet.
Vor Q3 sehe ich GP100 auch nicht - wobei man nie "nie" sagen sollte.

Ich hasse diese Salamitaktik. Die sollen wie früher den Top Dog zuerst rausbringen (weiß ich dass es fertigungstechnisch Sinn macht es nicht zu tun). Dann wird man nicht durch den Nextgen-MöchtegernHighEnd-20%schneller-als-Lastgen-Topdog-Mainstreamchip verführt. Außerdem macht er die Wiederverkaufspreise des Ex-Topdogs kaputt. :D

AnarchX
2015-03-26, 13:14:57
Das kann man nie ausschließen. Und dennoch gab es lauffähige Chips Monate vor Titan, die im Profibereich vertickt worden sind.

Mitte 2012 war 28 nm eigentlich nicht mehr problematisch. Und Titan kam im A1. Also kein Respin. Kann also nicht so viel Probleme gegeben haben.
Schlussendlich hängt auch vieles von AMD ab. Haben diese die offensichtlich fehlende Manpower für Sub-Fiji in ein 16/14nm Monster gesteckt, dann muss wohl bei NV jemand schon etwas eher ein PCB mit 1/2 Consumer-GP100 vorbereiten.

robbitop
2015-03-26, 13:17:15
Wo hast du denn das her?

IMO wird auch AMD nicht frühzeitig mit dem Top Dog in einen neuen Prozess laufen. Gerade jetzt wo Wafer immer teurer werden. Da wartet man vermutlich lieber ab, bis der Prozess reifer ist.

AnarchX
2015-03-26, 13:19:44
Wo hast du denn das her?
Der aktuelle Stand, untermauert mit AMD-Treibereinträgen, ist Fiji + Rebrands. Ob da Ende 2015 noch etwas kommt, kann man nicht ausschließen, aber momentan sieht es danach aus, als ob man sich auf die Zukunft konzetriert.

Sunrise
2015-03-26, 13:33:31
Wo hast du denn das her?

IMO wird auch AMD nicht frühzeitig mit dem Top Dog in einen neuen Prozess laufen. Gerade jetzt wo Wafer immer teurer werden. Da wartet man vermutlich lieber ab, bis der Prozess reifer ist.
Kommt drauf an, welches AMD du meinst. Normalerweise war AMD immer früher dran, siehe letztmals Tahiti. Seitdem hängen wir auf 28nm fest. Fiji sollte eigentlich auch schon min. 6 Monate fertig sein.

Sowas um die gleiche Größe wie Tahiti sollte im H2/16 locker machbar sein. Und vor allem könnten sie dann auch etwas mehr Geld in die Hand nehmen (das sie hoffentlich mit der 300er Serie dann auch verdient haben) und hier mal ähnlich NV wieder ein paar effizientere GCN-Varianten (Arctic Islands) raushauen.

Mit einem >420mm² Monster würde ich nicht rechnen, brauchen sie aber erstmal auch nicht, reicht ja locker aus, GCN ist rein von der Architektur ganz gut aufgestellt.

Bis dahin müssen wohl Fiji und ein paar minimal modifizierte GPUs ausreichen.

robbitop
2015-03-26, 13:43:11
4xx sqmm ist Tahiti like. Kein Top Dog - aber fast schon zu viel für den Performance Chip. GM204 (ähnliche Größe) zählt als Vergleich nicht, weil man ja keinen Shrink hatte.

Insofern stimme ich dir zu. Ich erwarte für AMDs R4xx Serie auch eine auf Effizienz gepimmte Implementierung der GCN-µ-Arch.

Hugo
2015-03-26, 16:03:02
ich hätte zum Jahreswechsel 2015/16 erstmal geshrinkte Maxwells (GM2x6, GM2x4) in 16nm erwartet bis dann Mitte 2016 die Pascals aufschlagen. Damit kann man die Gamer doch locker bei Laune halten

robbitop
2015-03-26, 16:27:38
Damit gräbt man sich doch selbst wieder das Wasser ab. Es gab ja auch keinen geshrinkten Fermi oder Kepler. Angeblich ist in Bezug auf die µ-Arch zwischen Maxwell und Pascal nicht viel passiert. Außer die Mix-Precision ALUs (die uns Spielern nichts bringen - es sei denn ein Entwickler setzt auf FP16 Code - wird heute IIRC nicht gemacht).
Ganz grob gesehen ist es wohl ein Shrink + mehr Einheiten + HBM.

Dawn on Titan
2015-03-26, 17:24:07
HBM wohl nur teilweise.

Hübie
2015-03-26, 17:52:41
Mir ist gerade neu dass Maxwell geshrinked wird (ich hasse denglish :biggrin:).
Und falls es noch nicht bekannt ist. Auch GPUs sind modular. Es gibt sogar Bereiche des Chips die aus fremder Hand kommen. Zukauf nennt sich das.
Also selbst wenn AMD GCN 1.1 / 1.2 weiter verkauft bedeutet dies nicht dass der Chip, also das Paket, keine Neuerungen beinhaltet. Sry4ot.
Pascal könnte sogar so ablaufen wie mans lang net gesehen hat. Erst das Dickschiff dann der Rest. Hängt ja auch irgendwie davon ab wieviel man an deals dingfest machen konnte und natürlich estimates auf dem GeForce-Markt. GM200 wird garantiert nicht an den Erfolg von GK110 anknüpfen können. Und ich schreibe bewusst garantiert.

Gipsel
2015-03-26, 18:00:03
4xx sqmm ist Tahiti like. Kein Top Dog - aber fast schon zu viel für den Performance Chip. GM204 (ähnliche Größe) zählt als Vergleich nicht, weil man ja keinen Shrink hatte.Tahiti mißt 352mm². Das ist zwar am oberen Ende, aber jetzt nicht wirklich weit aus dem Rahmen für einen Performance-Chip, wenn man von 5xx mm² für den Top Dog ausgeht (hat GM200 nicht sogar 601mm²?). Von der üblichen Performanceabstufung sollte der ja nur 50% oder so mehr als der Performancechip leisten. 4xx mm² ist bereits Hawaii-Größe (438mm² und ohne half-rate DP wäre man wohl näher am GM204-Niveau von 398mm²).

Ailuros
2015-03-26, 18:02:50
Damit gräbt man sich doch selbst wieder das Wasser ab. Es gab ja auch keinen geshrinkten Fermi oder Kepler. Angeblich ist in Bezug auf die µ-Arch zwischen Maxwell und Pascal nicht viel passiert. Außer die Mix-Precision ALUs (die uns Spielern nichts bringen - es sei denn ein Entwickler setzt auf FP16 Code - wird heute IIRC nicht gemacht).

Ob die zusaetzlichen FP16 OPs etwas bringen koennen oder nicht bleibt wohl abzusehen.

Ganz grob gesehen ist es wohl ein Shrink + mehr Einheiten + HBM.

Ausser GP100 trifft sonst kein ein anderer chip die volle obrige Beschreibung afaik.

Mehr Einheiten ist uebrigens kein (direkter) shrink mehr.

iuno
2015-03-26, 18:14:43
GM200 wird garantiert nicht an den Erfolg von GK110 anknüpfen können. Und ich schreibe bewusst garantiert.
Naja, zumindest der Start der x verlief wohl lt. einigen Händleraussagen (http://www.computerbase.de/2015-03/nvidia-titan-x-verkauft-sich-besser-als-das-original/) besser als noch bei der Titan classic. Natürlich waren die GK110 Chips longseller, aber bis zu den 16 nm Chips wird es ja schon noch eine Weile dauern. Da die AMD Karten ja diesmal (laut den Heise-Infos; für AMD Verhältnisse) teuer ausfallen könnten, denke ich schon dass die 980 Ti-whatever auch sehr erfolgreich werden kann
Den professionellen Bereich jetzt natürlich außen vor gelassen

AffenJack
2015-03-26, 18:53:11
Bei den ganzen Zeitangaben, die hier immer genannt werden, sollte man erstmal klar machen worüber wir reden, Consumermarkt oder generelles auftauchen von GP100? Generell sollte GP100 in H1 2016 aufschlagen, wenn beim Prozess nicht einiges schief läuft. Für Consumer wirds da aber eher die Frage ob wir den 2016 noch sehen. Volta ist in Kleinserie ja auch immernoch für 2017 projeziert und kommt Pascal im prof. Bereich sonst zu nah.

3 BigChips in 3,5 Jahren klingen da eigentlich schon verdammt ambitioniert. Auch bei Nv wird da irgendwas anderes darunter leiden müssen und das dürften wohl die kleineren Chips sein. GM204 und GM206 kann man wunderbar auf 16FF shrinken und da erstmal laufen lassen, da HBM in diesen Bereichen am Anfang sowieso zu teuer sein wird. Oder man man baut die Änderungen wie FP16 noch ein und die Chips werden dann zu GP106 und GP107. Kommt drauf an was Pascal an Veränderungen einfach so bringt. Darüber könnte man dann einen GP104 bringen, der 2 HBM Chips kriegt und mit dem man dann versucht ne GTX xx80 zu bauen.

Dawn on Titan
2015-03-26, 19:25:09
Man kann auch Gm200 shrinken. Er bettelt förmlich darum.

Ailuros
2015-03-26, 19:28:20
Man kann auch Gm200 shrinken. Er bettelt förmlich darum.

Es ist noch zu jueng dafuer.

Nightspider
2015-03-26, 19:30:41
Wie viel Flächeneinsparung können wir eigentlich bei 16FF erwarten?

Rund ~60% dank 20nm und FF?
Und bringt FF bei GPUs mehr als bei CPUs oder dürfte das in etwa 1:1 das Gleiche sein?

Ailuros
2015-03-26, 19:34:27
Wie viel Flächeneinsparung können wir eigentlich bei 16FF erwarten?

Rund ~60% dank 20nm und FF?
Und bringt FF bei GPUs mehr als bei CPUs oder dürfte das in etwa 1:1 das Gleiche sein?

16 FF ist zwar nicht "16nm" im strengen Sinn, aber auch nicht 20SOC + FinFET. Ein GM200 koennte locker unter 400mm ankommen bei einem direkten shrink.

Nightspider
2015-03-26, 19:40:58
400mm wäre ja schon schwach und nur ein Drittel Ersparnis.

Ich tendiere bzw. hoffe da eher Richtung 300mm² und frage mich ob dank FF nicht sogar ~~280 drin wären, mit Optimierungen und das selbst ohne HBM Anbindung, die ja auch nochmal 30-50(?)mm² sparen dürfte.

Mit neuerer Architektur und HBM wäre es schon toll GM200 Leistung mit einem ~~260-280mm² Chip zu erreichen unter 4K, da 4K Leistung bringt, Platz spart und mehr Strom für die GPU übrig lässt, was wiederum der Taktrate zu Gute kommen könnte.

Sunrise
2015-03-26, 19:46:52
NV bekommt die Performance von GM200 locker auch unter 400mm2, das mit dem Shrink ist ja nur direkt gerechnet. Macht aber eigentlich garkeinen Sinn, das zu tun, vor allem jetzt.

Hugo
2015-03-26, 19:56:17
Damit gräbt man sich doch selbst wieder das Wasser ab. Es gab ja auch keinen geshrinkten Fermi oder Kepler.

Ich meine mal gelesen zu haben, dass es geshrinkte Fermis gab welche aber nie auf den Markt kamen.


Mehr Einheiten ist uebrigens kein (direkter) shrink mehr.

Ich dachte als direkter shrink an GM204 oder GM206. Ende 2015 wird NV ja noch was bringen wollen. Ich glaube nicht das Pascal bis dahin fertig ist, an einen weiterer 28nm Aufguss glaub ich auch nicht so recht. Da würden geshrinkte Maxwells gut passen

Ravenhearth
2015-03-26, 20:00:28
Ich glaube an eine zweite Maxwell-Generation im Herbst oder so. GM200 mit 6GB als Topmodell, GM204 als x70, usw. Analog zu 600 -> 700.

Hugo
2015-03-26, 20:11:13
Ich glaube an eine zweite Maxwell-Generation im Herbst oder so. GM200 mit 6GB als Topmodell, GM204 als x70, usw. Analog zu 600 -> 700.

an sowas dacht ich eher nicht. GM2xx@28nm ist da einfach zu "alt" deswegen kam mir der Gedanke eines shrinks

Ravenhearth
2015-03-26, 20:22:14
Alt ist relativ. Einen Chip, der ein Jahr alt ist, löst NV imho dann noch nicht ab. Zumal 20nm nicht so große Vorteile bringt und 16nm dann noch sehr neu ist, dh. schlechte Yields und knappes Volumen. Wie bereits gesagt: Der "Shrink" von Maxwell heißt Pascal, auch wenn jenes dann doch ein klein wenig mehr ist.

Hübie
2015-03-26, 20:50:57
Naja, zumindest der Start der x verlief wohl lt. einigen Händleraussagen (http://www.computerbase.de/2015-03/nvidia-titan-x-verkauft-sich-besser-als-das-original/) besser als noch bei der Titan classic. Natürlich waren die GK110 Chips longseller, aber bis zu den 16 nm Chips wird es ja schon noch eine Weile dauern. Da die AMD Karten ja diesmal (laut den Heise-Infos; für AMD Verhältnisse) teuer ausfallen könnten, denke ich schon dass die 980 Ti-whatever auch sehr erfolgreich werden kann
Den professionellen Bereich jetzt natürlich außen vor gelassen

Na ja wenn zwei Händler in D sagen es ist ein guter Start heißt das noch lange nichts.
Ich musste neulich mich damit auseinander setzen ob riesige Hochhäuser sich auf Tektonik auswirken und dann wurde einem mal klar gemacht welche Relationen das sind. Selbst 700.000 t sind ein Tropfen auf dem heißen Stein für die dicke der Erdkruste.

Aber das ist ein anderes Thema. Es macht irgendwie keinen Sinn Maxwell auf 20nm aka 16FF zu bringen, wenn man schon was anderes in der pipeline hat. So eine Maske plus der Rattenschwanz sind ein paar Lottoscheine.
Wer soll denn bitte GM200 @shrink kaufen? Beantworte mir das mal. Und zu welchem Preis? Wann wird sich das amortisieren?
Ich weiß zwar über etwaige Pläne zu Maxwell nicht mehr als ihr, aber na ja. Ich zähle 1 + 1. :redface:

Edit: Nach Fermi begann man afaik direkt mit Maxwell. Kepler war da ja schon in der Pipe. Also ist so gesehen alles alt was wir hier sehen.

ps: Übrigens hieß es bei anandtech oder so 625 mm². Das wird wohl noch der Verschnitt sein der was drauf packt.

Ailuros
2015-03-27, 06:37:19
400mm wäre ja schon schwach und nur ein Drittel Ersparnis.

Ich sagte unter 400.

Ich tendiere bzw. hoffe da eher Richtung 300mm² und frage mich ob dank FF nicht sogar ~~280 drin wären, mit Optimierungen und das selbst ohne HBM Anbindung, die ja auch nochmal 30-50(?)mm² sparen dürfte.

Machbar ist es schon nur geht dann der Stromverbrauch bei 280mm2 eher nach oben. Waeren verrueckte Packdichten eine gute Idee haette sie NV schon seit langem angewendet. Unter normalen Umstaenden duerfte es irgendwo zwischen 320 und 350 liegen IMO.

Mit neuerer Architektur und HBM wäre es schon toll GM200 Leistung mit einem ~~260-280mm² Chip zu erreichen unter 4K, da 4K Leistung bringt, Platz spart und mehr Strom für die GPU übrig lässt, was wiederum der Taktrate zu Gute kommen könnte.

Ich weiss gar nicht mehr wie oft VIELE hier im forum schon erwaehnt haben dass HBM viel zu teuer ist und auch bleiben wird fuer einige Zeit um ausserhalb vom high end angewendet zu werden. Affenjack hat es gerade mal wieder oben auf dieser Seite erwaehnt.

Noch dazu dass man obszoene Bandbreiten momentan hauptsaechlich fuer HPC und DP brauchen wird; es ist eben auch nicht so dass ploetzlich alle existierenden GPUs an Bandbreite verhungern und man ueber Nacht eine Unmenge an Bandbreite unter 3D braucht. Einfach nur HBM auf GM200 zu klatschen klingt nach einer tollen nutzlosen Idee; es wird schweineteuer und wird in 3D fast gar nichts bringen nur den Preis erhoehen, im Vergleich zu einem stinknormalen performance chip ohne HBM.

Alt ist relativ. Einen Chip, der ein Jahr alt ist, löst NV imho dann noch nicht ab. Zumal 20nm nicht so große Vorteile bringt und 16nm dann noch sehr neu ist, dh. schlechte Yields und knappes Volumen. Wie bereits gesagt: Der "Shrink" von Maxwell heißt Pascal, auch wenn jenes dann doch ein klein wenig mehr ist.

Es ist bei beiden IHVs in etwa gleich; fuer AMD schreien alle ueber "rebrands" obwohl es dort auch nicht per se der Fall ist. Sowohl fuer AMD's kommende GPU Familie unter Fiji als auch fuer NVIDIA's kommende GPU Familie unterm GP100. Leicht umgemoebelte chips im ersten Fall noch unter 28nm und im zweiten 16FF mit ca. einem Halbjahr Abstand zwischen den beiden.

GP100 ist immer noch fuer Anfang 2016 projeziert; inwiefern bei NV und der Herstellung alles nach Plan laeuft haengt von TSMC's Kapazitaeten ab und diese muessen auch noch Apple und co. so frueh wie moeglich bedienen. NV hat in der Zwischenzeit von dem was ich gehoert habe alle SoCs auf Samsung's Prozess-roadmap umgeplant; Geruechte dass sie auch weiter gehen werden konnte ich noch nicht bestaetigen klingt mir aber auch noch nicht wahrscheinlich weil eben NV offensichtlich kein Risiko eingehen will. Es wundert mich nur dass bis jetzt noch kein Vollidiot die Herstellung bei Samsung mit der bloeden Patentklage in Zusammenhang gebracht hat.... *seufz*

Dawn on Titan
2015-03-27, 07:03:47
Bei nem Performancechip ist es weit billiger 10-15 mm² größer zu planen und auf GDDR zu gehen als HBM zu nutzen. Man kann also entweder mehr Einheiten einsetzten und / oder die Packdichte reduzieren und den Stromverbrauch senken.

HBM ist kein Allheilmittel, auch nicht bei AMD und soweit ich weiß ist die 290X auch nicht gerade massiv von der Bandbreite limitiert.

Godmode
2015-03-27, 07:55:55
GP100 ist immer noch fuer Anfang 2016 projeziert; inwiefern bei NV und der Herstellung alles nach Plan laeuft haengt von TSMC's Kapazitaeten ab und diese muessen auch noch Apple und co. so frueh wie moeglich bedienen. NV hat in der Zwischenzeit von dem was ich gehoert habe alle SoCs auf Samsung's Prozess-roadmap umgeplant; Geruechte dass sie auch weiter gehen werden konnte ich noch nicht bestaetigen klingt mir aber auch noch nicht wahrscheinlich weil eben NV offensichtlich kein Risiko eingehen will. Es wundert mich nur dass bis jetzt noch kein Vollidiot die Herstellung bei Samsung mit der bloeden Patentklage in Zusammenhang gebracht hat.... *seufz*

Die Frage ist, wann GP100 für den Endkunden verfügbar sein wird. Ich gehe bei GP100 wieder von ordentlicher DP Leistung aus, daher könnte die Steigerung zu GM200 trotz neuem Prozess wieder eher überschaubar sein. Oder von wie vielen SPs gehen wir bei GP100 aus?

Ailuros
2015-03-27, 09:36:04
Die Frage ist, wann GP100 für den Endkunden verfügbar sein wird. Ich gehe bei GP100 wieder von ordentlicher DP Leistung aus, daher könnte die Steigerung zu GM200 trotz neuem Prozess wieder eher überschaubar sein. Oder von wie vielen SPs gehen wir bei GP100 aus?

>6k ;)

AnarchX
2015-03-27, 09:40:26
Fragt sich nur, ob der Rest: GPCs, TMUs, ebenso mitskalieren. Wobei natürlich 2016+ wohl die reine Rechenlast weiter steigen sollte.

Sunrise
2015-03-27, 09:46:16
Hm, GP104 mit min. 3.072 ALUs bei um die 300-350mm² und GP100 mit 6.144 ALUs dürfte zu machen sein.

Godmode
2015-03-27, 09:47:27
>6k ;)

Das wäre dann eine glatte Verdoppelung der ALUs, dass könnte dann schon wieder ein interessantes Chipchen werden.

Ailuros
2015-03-27, 09:48:52
Das wäre dann eine glatte Verdoppelung der ALUs, dass könnte dann schon wieder ein interessantes Chipchen werden.

Jensen hat doch genau das angedeutet oder hab ich etwas falsch verstanden?

Fragt sich nur, ob der Rest: GPCs, TMUs, ebenso mitskalieren. Wobei natürlich 2016+ wohl die reine Rechenlast weiter steigen sollte.

192 TMUs fuer einen so brutalen shader count kling mir viel zu wenig. Fuer GPC (ist das Zeug letztendlich in hw wirklich definiert oder ist es nur eine virtuelle Aufteilung?) wuerde ich auf immer noch eine einstellige Anzahl wetten.

AnarchX
2015-03-27, 09:57:39
Das wäre dann eine glatte Verdoppelung der ALUs, dass könnte dann schon wieder ein interessantes Chipchen werden.
Das ergibt sich aus den GTC-Zahlen:
- 2x 32-Bit SP pro Watt
- 4x 16-Bit SP pro Watt
- 6x Bandbreite
... vs GM200.

Durchaus im Rahmen der wohl fast verdoppelten Packdichte durch 16nm FinFet und dem Wegfall der GDDR5-Interfaces.


192 TMUs fuer einen so brutalen shader count kling mir viel zu wenig. Fuer GPC (ist das Zeug letztendlich in hw wirklich definiert oder ist es nur eine virtuelle Aufteilung?) wuerde ich auf immer noch eine einstellige Anzahl wetten.
Vielleicht wachsen die SMM wieder auf 192 ALUs und 1/3 DP kommt zurück.

fondness
2015-03-27, 10:04:24
Das wäre dann eine glatte Verdoppelung der ALUs, dass könnte dann schon wieder ein interessantes Chipchen werden.

14/16nm ist auch mehr als ein fullnode-Shrink von 28nm ausgehend, da muss auch mehr als das doppelte kommen.

robbitop
2015-03-27, 10:09:30
Laut TSMC steigert sich die Density 28 nm -> 16 nm um 100 %.

Ailuros
2015-03-27, 10:33:15
Vielleicht wachsen die SMM wieder auf 192 ALUs und 1/3 DP kommt zurück.

....unter normalen Umstaenden sollten engineers keine Schritte rueckwarts machen.

Laut TSMC steigert sich die Density 28 nm -> 16 nm um 100 %.

Ein 1.9x fuer den idealsten Fall (schoengeredetes marketing) ist in meinem Buch kein realistisches +100%.

Skysnake
2015-03-27, 10:34:13
Vielleicht wachsen die SMM wieder auf 192 ALUs und 1/3 DP kommt zurück.
Ziemlich sicher nicht. DIe 192 SP/SM waren ein ziemlicher Schuss in den Ofen. Man kann Sie viel zu selten nutzen, und die Architektur wird dadurch auch ziemlich hässlich

robbitop
2015-03-27, 10:40:42
Ein 1.9x fuer den idealsten Fall (schoengeredetes marketing) ist in meinem Buch kein realistisches +100%.


TSMC's 16FF+ (FinFET Plus) technology can provide above 65 percent higher speed, around 2 times the density, or 70 percent less power than its 28HPM technology.
http://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm



Ich gebe nur das wieder, was TSMC offiziell selbst sagt. Vermutlich runden sie aber 1,9 ->2,0. 1,9 ist ja fast 2,0. ;)

Ailuros
2015-03-27, 10:43:45
http://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm



Ich gebe nur das wieder, was TSMC offiziell selbst sagt. Vermutlich runden sie aber 1,9 ->2,0. 1,9 ist ja fast 2,0. ;)

Ich hab da meine gerechtfertigte Vorbehalte fuer hochkomplizierte chips. Der Vergleich ist uebrigens zwischen 28HPm und 16FinFET+ (ja PLUS und nicht vanilla 16FF) und nicht 28HP.

AnarchX
2015-03-27, 10:56:52
Ziemlich sicher nicht. DIe 192 SP/SM waren ein ziemlicher Schuss in den Ofen. Man kann Sie viel zu selten nutzen, und die Architektur wird dadurch auch ziemlich hässlich
Man muss ja nicht superskalar wie bei Fermi/Kepler ausführen. Die SMM um ein weiteres ALU-Paar erweitert, dass im GP100 vielleicht die DP-Fähigkeiten mitbringt und dazu zwei entkoppelte TMU-Quads, die via Crossbar, von allen 3 Paaren genutzt werden:
6144SPs - 256 TMUs - 8 GPCs - 128 ROPs.

GK210 hat ja schon gezeigt wo der Maßstab für GP100 liegen könnte: 128KiB Shared/L1 + 512KiB Register.

robbitop
2015-03-27, 11:02:59
Ich hab da meine gerechtfertigte Vorbehalte fuer hochkomplizierte chips. Der Vergleich ist uebrigens zwischen 28HPm und 16FinFET+ (ja PLUS und nicht vanilla 16FF) und nicht 28HP.
Soweit ich weiß, soll 16FF+ ja der genutzte Prozess für GPUs werden. IIRC war 16FF nicht so rosig, dass TSMC direkt den Plus-Prozess gepusht haben (erhöhte Packdichte, bessere Performance) - daraus resultierte IIRC teilweise auch die Verspätung von 16FF+ ggü 14 nm FF bei Samsung.

Hatte 28HPM nicht sogar noch bessere Packdichten als HP? IIRC gab es gerde bei den mobile SoCs doch recht hohe Packdichten. Insofern ist es dann auch ok HPM mit Plus zu vergleichen.

Nightspider
2015-03-27, 15:19:08
Ich sagte unter 400.


Ich weiß aber unter 400 könnten auch 380mm² sein was dann doch schon schwach wäre für einen reinen Shrink. ;)


Ich weiss gar nicht mehr wie oft VIELE hier im forum schon erwaehnt haben dass HBM viel zu teuer ist und auch bleiben wird fuer einige Zeit um ausserhalb vom high end angewendet zu werden. Affenjack hat es gerade mal wieder oben auf dieser Seite erwaehnt.

Ja aber letztendlich weiß hier keiner wie teuer HBM wirklich ist.

Außerdem halte ich deine Pauschalaussage für falsch, das HBM nicht für einen 300-350mm² taugt.

Schau dir mal an wie teuer die GTX980 ist bei der Chipgröße. 500 Euro! Und der 16FF(+) Prozess wird noch teurer. Da kannste du mit 600 Euro rechnen. 6-8GB HBM Speicher dürften meiner Meinung nach Mitte 2016 NICHT zu teuer sein für eine ~500-600 Euro Karte.

Und was Affenjack jetzt beruflich macht weiß ich auch nicht. Daher hat seine Aussage keine Relevanz für mich.


Noch dazu dass man obszoene Bandbreiten momentan hauptsaechlich fuer HPC und DP brauchen wird; es ist eben auch nicht so dass ploetzlich alle existierenden GPUs an Bandbreite verhungern und man ueber Nacht eine Unmenge an Bandbreite unter 3D braucht. Einfach nur HBM auf GM200 zu klatschen klingt nach einer tollen nutzlosen Idee; es wird schweineteuer und wird in 3D fast gar nichts bringen nur den Preis erhoehen, im Vergleich zu einem stinknormalen performance chip ohne HBM.

Schon klar. Maxwell ging super mit der Bandbreite um aber laut Coda gibts noch einige Szenarien wo viel Bandbreite benötigt wird und wo die Programmierer gern noch mehr davon hätten.
4K und 5K sind die Gaming-Zukunft. Da dürfte sich HBM nur positiv auswirken. Ansonsten könnte GP104 ja sogar noch hinter Fiji liegen in 4K. Das müssen wir abwarten.

Und wenn man dank HBM ~30mm² spart wären das auch schon fast 10% Chipfläche. (Die genauen Zahlen kenne ich jetzt nicht aber ich schätze mal 30mm²)

Imo ist der Begriff "schweineteuer" auch relativ. 12GB GDDR5 haben es heute auch schon auf eine Karte geschafft und sind auch nicht gerade billig.
Wie die Preise in 12-18 Monaten aussehen weiß hier eh keiner.

Hübie
2015-03-27, 16:49:40
Also wenn HBM teuer ist dann A) durch geringen throughput und B) geringer Ausbeute. Das steigt idR jedoch exponentiell zum Zeitfaktor. Es sei denn das Produkt ist nicht gefragt. Trifft hier wohl nicht zu.

Edit: Kennt überhaupt jemand Preise oder würfeln alle?

Ailuros
2015-03-27, 18:18:45
Ja aber letztendlich weiß hier keiner wie teuer HBM wirklich ist.

Außerdem halte ich deine Pauschalaussage für falsch, das HBM nicht für einen 300-350mm² taugt.

Jeder darf glauben was er glauben will. Es ist aber keine Paschalaussage wenn alle 3 IHVs aehnliche Aussagen ueber HBM machen; ie es wird dauern bis es nach unten skaliert. Bald haben wir HBM in mainstream Produkten wie Fiji und davon werden wir dann alle weisser.

Schau dir mal an wie teuer die GTX980 ist bei der Chipgröße. 500 Euro!

Was soll mich eine rein marketing-technische Entscheidung interessieren? Es kosten nicht alle GM204 SKU so viel.

Und der 16FF(+) Prozess wird noch teurer. Da kannste du mit 600 Euro rechnen.

Welches aber nicht fuer HBM fuer performance oder kleiner spricht sondern eher dagegen.

6-8GB HBM Speicher dürften meiner Meinung nach Mitte 2016 NICHT zu teuer sein für eine ~500-600 Euro Karte.

GP100 wird schon etwas teurer sein als das.

Und was Affenjack jetzt beruflich macht weiß ich auch nicht. Daher hat seine Aussage keine Relevanz für mich.

Ich sehe nicht ein wieso eine logische Aussage von jederman mehr oder weniger Gewicht hat je nachdem was er beruflich macht.

Schon klar. Maxwell ging super mit der Bandbreite um aber laut Coda gibts noch einige Szenarien wo viel Bandbreite benötigt wird und wo die Programmierer gern noch mehr davon hätten.
4K und 5K sind die Gaming-Zukunft. Da dürfte sich HBM nur positiv auswirken. Ansonsten könnte GP104 ja sogar noch hinter Fiji liegen in 4K. Das müssen wir abwarten.

Es wird sich trotz allem nicht die Not fuer Bandbreite sofort verdoppeln.

Imo ist der Begriff "schweineteuer" auch relativ. 12GB GDDR5 haben es heute auch schon auf eine Karte geschafft und sind auch nicht gerade billig.
Wie die Preise in 12-18 Monaten aussehen weiß hier eh keiner.

TitanX hat einen $999 MSRP; irgendwie musst man den Wucherpreis auch gerechtfertigen. Man braucht heute keinen 12GB framebuffer und es wird billigere GM200 SKUs von NV im Sommer geben. Sonderprodukte sind selbst fuer die Ausnahmen keine Regel.

Nightspider
2015-03-27, 18:57:58
Welches aber nicht fuer HBM fuer performance oder kleiner spricht sondern eher dagegen.

Sehe ich nicht so. Wenn die Karte unabhängig vom Speicher teurer wird machen auch die paar Euros zusätzlich für HBM keinen so großen Unterschied als das man deswegen darauf verzichten müsste.

Und wenn der GP104 Vollausbau schon 700 Euro zum Start kostet würde selbst die Salvage Karte noch mind. 460 Euro kosten, was imo immer noch in der Range für HBM Mitte 2016 liegt.
Wir wissen ja auch noch gar nicht welche Konfigurationen HBM2 ermöglicht. Vielleicht gibts dann 6GB HBM2 für GP104.

GP100 wird schon etwas teurer sein als das.

Von GP100 habe ich auch nie gesprochen. GP100 wird eh frühstens Ende 2016 in den Consumer Markt kommen mit Tendenz zu Anfang 2017 wenn du mich fragst aber das müssen wir abwarten.

Ich sehe nicht ein wieso eine logische Aussage von jederman mehr oder weniger Gewicht hat je nachdem was er beruflich macht.

Touché aber ich habe keine Ahnung wie viel Kompetenz oder Insiderwissen er hat.

Es wird sich trotz allem nicht die Not fuer Bandbreite sofort verdoppeln.

Das stimmt aber wir wissen auch alle noch nicht wie stark es durchschlägt. Da müssen wir einfach abwarten.
Falls es in 4K doch etliche Prozente bringt würde ich nicht mehr darauf verzichten wollen.

TitanX hat einen $999 MSRP; irgendwie musst man den Wucherpreis auch gerechtfertigen. Man braucht heute keinen 12GB framebuffer und es wird billigere GM200 SKUs von NV im Sommer geben. Sonderprodukte sind selbst fuer die Ausnahmen keine Regel.

Klar aber es ging mir auch mehr darum das wenn jetzt schon 12GB GDDR5 bei 999 bezahlbar sind, das dann in (über?) einem Jahr bei 500 bis 750 Dollar Karten auch 6-8GB HBM2 bezahlbar sein müssen. Der Speicher wird ja schließlich nicht >50% teuerer sein wie GDDR5, sonst würde es sich gar nicht lohnen den Speicher einzubauen.

Ich tippe mal auf einen Aufpreis von 30-40, höchstens 50% bei HBM.
Ob bei einer 500-750 Dollar (UVP) nun die Herstellungskosten durch HBM um vielleicht 30-50 Dollar steigen dürfte eventuell eine kleine Rolle spielen solange die anderen 3 Vorteile groß genug sind und man den King of the Hill hat.
Und ich bin mir ziemlich sicher das GP104 für begrenzte Zeit als Nvidias HighEnd Karte beworben wird (GTX1080 oder so ähnlich), bis GP100 dann mit Verspätung eintrifft, so wie jetzt in der 700er und 900er Serie.

Ailuros
2015-03-27, 21:26:56
Sehe ich nicht so. Wenn die Karte unabhängig vom Speicher teurer wird machen auch die paar Euros zusätzlich für HBM keinen so großen Unterschied als das man deswegen darauf verzichten müsste.

Bogen zurueck: GM204 kostet ein gutes Stueck weniger als $100 fuer die chip Herstellung. Wenn es anders waere wuerde NV mit den 970 SKUs rote Zahlen machen welches aber nicht der Fall ist. Die 980 wird sich nur um so einen hohen Preis verkaufen bis sie von GM200 SKUs in der Sparte abgeloest wird. Von solchen marketing-technischen Turnereien Schlussfolgerungen zu ziehen fuehrt in eine Sackgasse.

Und wenn der GP104 Vollausbau schon 700 Euro zum Start kostet würde selbst die Salvage Karte noch mind. 460 Euro kosten, was imo immer noch in der Range für HBM Mitte 2016 liegt.
Wir wissen ja auch noch gar nicht welche Konfigurationen HBM2 ermöglicht. Vielleicht gibts dann 6GB HBM2 für GP104.

Bis Ende des Jahres wird das Bild klarer; falls Du aber nur leicht umgekrempelte Maxwells auf 16FF sehen solltest unterhalb GP100 dann war es wohl doch kein Maerchen.

Von GP100 habe ich auch nie gesprochen. GP100 wird eh frühstens Ende 2016 in den Consumer Markt kommen mit Tendenz zu Anfang 2017 wenn du mich fragst aber das müssen wir abwarten.

Es ist aber der einzige chip dem momentan HBM zugesprochen wird.


Das stimmt aber wir wissen auch alle noch nicht wie stark es durchschlägt. Da müssen wir einfach abwarten.
Falls es in 4K doch etliche Prozente bringt würde ich nicht mehr darauf verzichten wollen.

Es werden auch nicht die Verbraucher in Massen rausstuermen und 4k displays kaufen. Es wird wohl wie immer Schritt fuer Schritt vorgehen und es wird wie immer der lowest common denominator irgendwo bremsen.


Klar aber es ging mir auch mehr darum das wenn jetzt schon 12GB GDDR5 bei 999 bezahlbar sind, das dann in (über?) einem Jahr bei 500 bis 750 Dollar Karten auch 6-8GB HBM2 bezahlbar sein müssen. Der Speicher wird ja schließlich nicht >50% teuerer sein wie GDDR5, sonst würde es sich gar nicht lohnen den Speicher einzubauen.

Du bist immer noch im GTX980 Loch stecken geblieben; und wie finanziert dann NV oder jeglicher IHV einen GTX970 Nachfolger wenn dieser auch "nur" 300+ Euros kosten soll? Nochmal vergiss die marketing-technische Turnerei der 980. Das Teil ist ueberteuert weil es momentan einfach nichts effizienteres gibt und NV die Kuh einfach melken kann. Die fetten Verkaufszahlen liegen nach wie vor bei 970er SKUs.

Sonst obwohl es irre fuehren kann, ist fuer die Bandbreite die HBM liefert im Vergleich zu GDDR5 sogar quasi billiger. Wuerde man heute z.B. 512GB/s Bandbreite als Ziel haben braeuchte man 2.0GHz Speicherfrequenz auf einem 512bit bus.

Ich tippe mal auf einen Aufpreis von 30-40, höchstens 50% bei HBM.
Ob bei einer 500-750 Dollar (UVP) nun die Herstellungskosten durch HBM um vielleicht 30-50 Dollar steigen dürfte eventuell eine kleine Rolle spielen solange die anderen 3 Vorteile groß genug sind und man den King of the Hill hat.
Und ich bin mir ziemlich sicher das GP104 für begrenzte Zeit als Nvidias HighEnd Karte beworben wird (GTX1080 oder so ähnlich), bis GP100 dann mit Verspätung eintrifft, so wie jetzt in der 700er und 900er Serie.

Mach die Rechnung nochmal fuer SKUs wie die GTX970 welche hauptsaechlich im performance Bereich verkauft werden und dann reden wir weiter.

maguumo
2015-03-27, 22:14:16
Steigen für Nvidia/AMD nicht auch die Margen wenn sie statt wie momentan nur eine GPU den kompletten Interposer mit GPU und (HBM) VRAM liefern? Die werden ja sicherlich nicht 1:1 die Kosten für den VRAM und das auftackern auf den Interposer durchreichen...

Nightspider
2015-03-27, 22:23:34
Ich habe mal wieder das Gefühl das wir etwas aneinander vorbeireden.

Und das GM204 in der Herstullung scheiße billig ist weiß ich selbst. Dennoch verlangt Nvidia einen immensen Preis dafür und die Tendenz der Preise bei Nvidia ist die letzten Jahre steigend.

Und ich sagte ja bereits das der GTX970 Nachfolger (GP104 Salvage) bis zu 500 Euro kosten könnte falls GP100 recht spät kommt und Nvidia die Kundschaft wieder ordentlich ausnehmen will. Ich sagte nirgends das eine 350 Euro Karte HBM Speicher bekommt aber ab 450 Euro könnte es eventuell schon losgehen mitte 2016 wenn die HBM2 Preise tragbar sind.

Wir werden sehen. Sich darüber jetzt im Detail den Kopf zu zerbrechen lohnt auch nicht und so umschweifend wollte ich darüber jetzt auch gar nicht diskutieren, dazu ist es noch zu früh.

Ravenhearth
2015-03-27, 22:25:26
Die Frage ist auch, wie Nvidia GP104 anbinden will, wenn sie kein HBM nutzen. 3k SPs an einem 256 Bit-Interface? Srsly? GM204 ist mit 256 Bit doch schon am Limit, daran werden Kompression oder noch höherer Takt nichts ändern. Und mehr als 256 Bit wäre wohl zu aufwendig und "groß".

maguumo
2015-03-27, 22:32:30
Wieso? AMD hat in der Preisklasse momentan 512Bit. Das PCB wird halt etwas aufwändiger, aber das ist wohl machbar denke ich...

Timbaloo
2015-03-27, 22:34:37
Zu groß vielleicht nicht, aber zu hungrig. HBM soll ja die Leistungsaufnahme der Speicheranbindung deutlich reduzieren.

Hübie
2015-03-27, 22:49:23
Bäh. Ihr denkt manchmal einfach zu kompliziert. Ein SI hat schon seit einer gefühlten Ewigkeit 2*32 Bit und 64 Byte breite Cachelines. Da wird nichts großartig teurer nur weil du mehr von X als Y nimmst. HBM is da wohl ne andere Geschichte. Wobei ich mich da nur wiederholen kann: Ich kenne da keinerlei Preise. Wer was hat nur her damit.

Dawn on Titan
2015-03-28, 11:15:40
Ich habe mal wieder das Gefühl das wir etwas aneinander vorbeireden.

Und das GM204 in der Herstullung scheiße billig ist weiß ich selbst. Dennoch verlangt Nvidia einen immensen Preis dafür und die Tendenz der Preise bei Nvidia ist die letzten Jahre steigend.

Und ich sagte ja bereits das der GTX970 Nachfolger (GP104 Salvage) bis zu 500 Euro kosten könnte falls GP100 recht spät kommt und Nvidia die Kundschaft wieder ordentlich ausnehmen will. Ich sagte nirgends das eine 350 Euro Karte HBM Speicher bekommt aber ab 450 Euro könnte es eventuell schon losgehen mitte 2016 wenn die HBM2 Preise tragbar sind.

Wir werden sehen. Sich darüber jetzt im Detail den Kopf zu zerbrechen lohnt auch nicht und so umschweifend wollte ich darüber jetzt auch gar nicht diskutieren, dazu ist es noch zu früh.

Es ist doch einfach bei nV. Wenn GP104 zum Zeitpunkt des Launches der schnellste verfügbare Chip am Markt ist, dann wird er teuer, wenn er es nicht ist wird er billiger. Imho ist es logisch wenn NV dort GDDR nimmt, denn damit ist man für jeden Fall gewappnet - zumindest wenn 256 Bit reichen. Reichen sie nicht, dann kann HBM in Frage kommen, wobei ich dann 3 Stacks erwarten würde.

maguumo
2015-03-28, 17:22:30
Wie sollte da denn ein 256 Bit Interface reichen? GP 104 müsste ja schneller als GM 200 werden, und selbst der Chip geht mit dem 384Bit Interface und DCC schon am Stock...

Ailuros
2015-03-28, 19:06:42
Wie sollte da denn ein 256 Bit Interface reichen? GP 104 müsste ja schneller als GM 200 werden, und selbst der Chip geht mit dem 384Bit Interface und DCC schon am Stock...

Die 780Ti hat 336GB/s Bandbreite und die GTX980 "nur" 224GB/s; warum ist die letzte jetzt doch nicht deutlich langsamer als die erste ueberhaupt in sehr hohen Aufloesungen?

Weder die rohe Bandbreite noch die Busbreite sind wichtiger als wie jede Architektur mit ihrer vorhandenen Bandbreite umgeht. Wenn's anders waere wuerde eine GTX970 ziemlich nackt gegen den 512bit Hawaii stehen.

Es ist nicht so dass Ihr nicht einen legitimen Punkt hab, aber wenn 256bit ploetzlich nicht mehr ausreichen fuer performance dann reichen dann auch nicht mehr 128bit fuer low end aus und Intel und AMD muessen ab morgen auch HBM in ihre desktop und notebook SoCs integrieren. Wo man jetzt und wieso irgendwo die Verbindung verlieren koennte ueberlass ich den Lesern hier.

GM200 hat mehr als genug Bandbreite fuer seine gesamte Lebenszeit fuer 3D.

Ich habe mal wieder das Gefühl das wir etwas aneinander vorbeireden.

Und das GM204 in der Herstullung scheiße billig ist weiß ich selbst. Dennoch verlangt Nvidia einen immensen Preis dafür und die Tendenz der Preise bei Nvidia ist die letzten Jahre steigend.

Und ich sagte ja bereits das der GTX970 Nachfolger (GP104 Salvage) bis zu 500 Euro kosten könnte falls GP100 recht spät kommt und Nvidia die Kundschaft wieder ordentlich ausnehmen will. Ich sagte nirgends das eine 350 Euro Karte HBM Speicher bekommt aber ab 450 Euro könnte es eventuell schon losgehen mitte 2016 wenn die HBM2 Preise tragbar sind.

Wir werden sehen. Sich darüber jetzt im Detail den Kopf zu zerbrechen lohnt auch nicht und so umschweifend wollte ich darüber jetzt auch gar nicht diskutieren, dazu ist es noch zu früh.

Und die low end GPUs koennten alle erst ab 200 Euros kosten (siehe oben), weil jederman blitzartig ueber Nacht selbst mit einem integrierten in der CPU bums-GPU nur 4k displays benutzen wird, es werden ab sofort keine low end settings in Spielen mehr erlaubt und Teufel wenn wir schon so weit sind nach einem Jahr "bring on the 8k shiznit" :rolleyes:

Unmoeglich ist das alles natuerlich nicht nur wuerde es die Verkaufsvolumen fuer desktop gaming eben in den Keller jagen. Fiji braucht IMHO ihre monstroese Bandbreite weil sie wohl auch jegliche FP64 Rekorde (DP/W) brechen wird; den riesigen Vorteil gegenueber GM200 wird es durchaus haben, aber fuer 3D wird es nichts bringen. Ausser ich hab etwas verpasst sieht es danach aus dass GM200 effizienter ist und mich muss wohl auch jemand ueberzeugen koennen dass dem nicht so sein wird selbst unter 4k.

Sunrise
2015-03-28, 19:16:45
Wenn GM200 +50% von GM204 ist und dieser bereits ein 256bit-Interface hat und NV einen GP104 mit GM200-Performance bringt sehe ich nicht wie 256bit für ein ausgeglichenes Design reichen sollen. Vor allem weil wir ja von Maxwell "Enhanced"-Architektur ausgehen.

Wo gibt es denn da überhaupt noch Einsparmöglichkeiten?

aufkrawall
2015-03-28, 19:20:01
Warum sollte es auf einmal kein Optimierungspotential mehr geben? Das gab es immer schon.
Notfalls pumpt man wieder etwas die Caches auf, Platz genug wird man mit den non HPC-Chips ja haben.

Ailuros
2015-03-28, 19:26:28
Es koennte auch 384bit fuer performance werden keine Ahnung; wobei ich mich eher frage wofuer man so viele ROPs brauchen wuerde.

Warum sollte es auf einmal kein Optimierungspotential mehr geben? Das gab es immer schon.
Notfalls pumpt man wieder etwas die Caches auf, Platz genug wird man mit den non HPC-Chips ja haben.

Man muss nur die Patente die vor relativ kurzer Zeit eingereicht wurden durchlesen um auf die Moeglichkeiten zu spekulieren. Caches sind zwar eine Loesung aber auch nicht billig.

aufkrawall
2015-03-28, 19:32:06
GM107 hat im Verhältnis den meisten Cache und ist der billigste Maxwell.

Ailuros
2015-03-28, 20:26:37
GM107 hat im Verhältnis den meisten Cache und ist der billigste Maxwell.

GM20x sind aber Takt fuer Takt und SMM fuer SMM effizienter wenn auch nur relativ gering.

maguumo
2015-03-28, 20:33:26
Die aufgebohrte DCC von Maxwell steigert die effektive Speicherbandbreite in Vergleich zu Kepler um ~30% wenn ich das richtig in Erinnerung habe, einfach nur die Busbreite zu Vergleichen ist so doch irreführend. GM 204 hat effektiv schon deutlich mehr Bandbreite zur Verfügung als der ehemalige Performancechip GK 104, GM 200 mehr als GK110... Ich kenne mich mit der Thematik nicht aus, aber das Nvidia mit Pascal direkt wieder neue Technik implementiert die sowas möglich macht halte ich für unwahrscheinlich, daraus würde ich folgern das man eben einen breiteren Bus braucht.

Wenn ich das richtig mitbekommen habe ist die Titan X schon recht ordentlich Bandbreitenlimitiert, gerade bei höheren Auflösungen und wenn man den GPU Takt nach oben korrigiert (wird ja wohl so gut wie jeder machen der die ~1100 Tacken für so eine Karte raushaut)...

In wie weit helfen größere Caches überhaupt dabei die benötigte Bandbreite zum VRAM zu verringern? Ich dachte das hilft größtenteils nur dabei die Recheneinheiten besser auszulasten...

Ailuros
2015-03-28, 21:22:42
Die aufgebohrte DCC von Maxwell steigert die effektive Speicherbandbreite in Vergleich zu Kepler um ~30% wenn ich das richtig in Erinnerung habe, einfach nur die Busbreite zu Vergleichen ist so doch irreführend. GM 204 hat effektiv schon deutlich mehr Bandbreite zur Verfügung als der ehemalige Performancechip GK 104, GM 200 mehr als GK110... Ich kenne mich mit der Thematik nicht aus, aber das Nvidia mit Pascal direkt wieder neue Technik implementiert die sowas möglich macht halte ich für unwahrscheinlich, daraus würde ich folgern das man eben einen breiteren Bus braucht.

Ich koennte jeglichen technologischen Fortschritt auch als Utopie betrachten bzw. jegliche Steigerung der Effizienz jedoch kommt sie mit jeder neuen wahren Technologie-Generation und das aus einer Sammlung an kleinen Stellen die alle dafuer beitragen.

Wenn ich das richtig mitbekommen habe ist die Titan X schon recht ordentlich Bandbreitenlimitiert, gerade bei höheren Auflösungen und wenn man den GPU Takt nach oben korrigiert (wird ja wohl so gut wie jeder machen der die ~1100 Tacken für so eine Karte raushaut)...

Gibt es irgendwelche links dafuer?

maguumo
2015-03-28, 21:35:00
Ich koennte jeglichen technologischen Fortschritt auch als Utopie betrachten bzw. jegliche Steigerung der Effizienz jedoch kommt sie mit jeder neuen wahren Technologie-Generation und das aus einer Sammlung an kleinen Stellen die alle dafuer beitragen.


Ich halte Fortschritt nicht für Utopie, aber man kann sich solche Technik ja auch nicht einfach aus dem Hut zaubern. Das in absehbarer Zeit die effektive Bandbreite durch neue Kompressionsverfahren nochmal derartig steigt ist denke ich recht unwahrscheinlich. Und ansonsten fällt mir nichts ein mit dem man die Bandbreite derart steigern bzw. die benötigte Bandbreite derart verringern könnte.

Gibt es irgendwelche links dafuer?

Im Test von PCGH stand darüber zum Beispiel was...

... Während das bei 1.300/4.001 MHz (+21/+14 %) noch nahezu der Fall ist, sind es bei 1.550/4.001 MHz (+44/+14 %) "nur" noch 30 Prozent mehr Bilder auf dem Monitor. Der Grund dürfte die bremsende Transferrate des Grafikspeichers sein, der bei unserem Exemplar dauerhaft stabil nicht mehr mitmacht und daher in Sachen Bandbreite den Kern limitiert...

http://www.pcgameshardware.de/Geforce-GTX-Titan-X-Grafikkarte-260203/News/Arctic-Xtreme-IV-Mod-BIOS-1154063/

Ansonsten hatte ich davon noch was in irgendwelchen Forenposts gelesen. Igor Wallossek wollte glaube ich auch noch nen OC Tests zur Titan X schreiben, da bin ich recht gespannt drauf...

Timbaloo
2015-03-28, 21:43:04
O.K. GPU 44% übertaktet, Speicher aber nur mit 14% übertaktet und dabei nicht voll skaliert nennt man heutzutage "recht ordentlich Bandbreitenlimitiert"...

Wie ich zu sagen pflege, Bandbreite ist das neue MHz.

maguumo
2015-03-28, 21:50:11
Was man als "recht ordentlich" bezeichnet ist natürlich subjektiv. Gibt leider keine Benchmarks in denen die Titan X ausführlicher auf das verhalten bei höherem/niedrigerem Speichertakt getestet wird, hoffentlich macht sich da bald mal wer die Mühe...

Wenn man davon ausgeht das GP104 stärker als GM 200 wird kann man sich aber vorstellen was mit dem Bandbreitenlimit passiert wenn man es bei einem 256/384 Bit Bus (und heute darüber möglicher effektiver Bandbreite) belässt, darauf wollte ich ja eigentlich hinaus...

Timbaloo
2015-03-28, 21:57:36
GM104 ist auch stärker als GK104 (@770) und ausser Texturkompression ist da in Sachen Bandbreite genau nichts passiert.

Wobei ich auch nicht an einen non-HBM-GP104 glauben mag.

maguumo
2015-03-28, 22:01:48
Deswegen schreib' ich ja effektive Bandbreite. Die aufgebohrte DCC bringt ja mit um die 30% schon eine ordentliche Steigerung der (effektiven) Bandbreite, mit angeblich um die 300GB/s ist man schon recht nah' an GK110/Hawaii...

Hübie
2015-03-28, 22:39:24
GM104 ist auch stärker als GK104 (@770) und ausser Texturkompression ist da in Sachen Bandbreite genau nichts passiert.

Wobei ich auch nicht an einen non-HBM-GP104 glauben mag.

Es ist schon so wie Ailuros sagt. Es bringt mir nichts wenn ich fette Bandbreite habe, aber diese gar nicht richtig nutzen kann weil dauernd overhead oder unnützes data movement Bandbreite reduziert. Auch 256 Bit können viel erreichen wie man sieht.
Ich würde es jetzt aber begrüßen weniger Kepler oder Maxwell und mehr Pascal zu lesen.:smile:

Hauwech
2015-03-28, 23:59:54
Vielleicht spendiert nVidia dem GP104 ja den dann schnellsten verfügbaren GDDR5 (8 Gbps?) Speicher sofern HBM bei dem Chip noch zu teuer ist.

Falls die WCE den GM200 doch recht ordentlich putzen sollte bauen sie ja vielleicht dann auch eine AiO mit zusätzlich den 8Gbps Dingern als Titan X2 oder so... :D

Hübie
2015-03-29, 00:03:35
Vielleicht spendiert nVidia dir einen Schnaps für diese Idee. Mehr gibt's aber wohl nicht.

rentex
2015-03-29, 10:31:52
HBM ist in PASCAL fest eingeplant...warum sollte es auf einmal nicht mehr so sein?

Ailuros
2015-03-29, 15:11:51
Was man als "recht ordentlich" bezeichnet ist natürlich subjektiv. Gibt leider keine Benchmarks in denen die Titan X ausführlicher auf das verhalten bei höherem/niedrigerem Speichertakt getestet wird, hoffentlich macht sich da bald mal wer die Mühe...

Mal verdammt vereinfacht: ich uebertakte core und Speicher auf GPU X um 15% und erreiche auch ca. 15% mehr Leistung. Wenn ich den Speicher auf default lasse und nur den core um 15% uebertakte erhoeht sich die Leistung um ~10% und wenn ich den core auf default lasse und nur den Speicher um 15% uebertakte steigert sich die Leistung um nur 5%.

Jetzt zeig mir auf welcher GPU es innerhalb groben Linien anders ist und WIESO dieses nicht heisst dass die GPU zu wenige Bandbreite hat :rolleyes:

Wenn man davon ausgeht das GP104 stärker als GM 200 wird kann man sich aber vorstellen was mit dem Bandbreitenlimit passiert wenn man es bei einem 256/384 Bit Bus (und heute darüber möglicher effektiver Bandbreite) belässt, darauf wollte ich ja eigentlich hinaus...

Mal rein hypothetisch: angenommen NV dreht sich einfach um und schrumpft den GM200 auf 16FF und das Ding wird irgendwo =/>350mm2 gross und uebertaktet das Ding auch noch ein Stueck mehr als es bis dahin unter 28nm moeglich war, wirft das Resultat jegliche Bumsthese nicht automatisch zum Fenster raus?

Ich hab nirgends gesagt WIE es NV mit der Bandbreite loesen wird, aber zur Sekunde wo Du selber eingesehen hast dass Hawaii als quasi performance chip schon einen 512bit bus hat und ich erweitere noch auf Tahiti davor bei 384bit, widersprichst Du Dir im Grund selber. Es geht lediglich darum dass HBM noch nicht Notwendigkeit unterhalb vom high end so schnell werden wird.

Am Ende haben Tahiti bzw. Hawaii so einen breiten Bus bzw. so viel Bandbreite weil sie u.a. als chips auch Profi-Maerkte bedienen muessen. Wieso hat Tonga als quasi Tahiti Nachfolger nicht auch einen 384bit Bus?

HBM ist in PASCAL fest eingeplant...warum sollte es auf einmal nicht mehr so sein?

An einer Diskussion teilzunehmen heisst u.a. auch dass man diese zumindest von einem Punkt mitverfolgt.

GM104 ist auch stärker als GK104 (@770) und ausser Texturkompression ist da in Sachen Bandbreite genau nichts passiert.

Uhmm doch; nur ist es nicht so durchsichtig dass es jeder gleich sehen kann. Maxwell soll nach einer Debatte bei B3D relativ kleine Anteile an Geometrie etwas on chip tiling benutzen.

Wobei ich auch nicht an einen non-HBM-GP104 glauben mag.

Es ist zu frueh dass ich genaueres ueber alles Pascal wissen koennte. Es gibt lediglich einen generellen Konsensus momentan dass es mit HBM fuer <high end noch etwas dauern wird.

Warum benutzt es AMD nicht ab Juni fuer jegliche 380er SKU oder wie immer die Dinger unterhalb Fiji heissen koennten? Ist ein 384bit bus fuer diesen wirklich nicht teurer am Ende oder besser wo faengt es an und wo kann es aufhoeren?

Kriton
2015-03-29, 15:11:58
HBM ist in PASCAL fest eingeplant...warum sollte es auf einmal nicht mehr so sein?

Kein Plan überlebt den ersten Feindkontakt (Sun Tzu - "Die Kunst des Krieges").

Auch Nvidia hat schon Planungen (natürlich) abgeändert, da gab es doch sogar etwas bei Maxwell, wenn ich nicht irre? Oder etwas was sich von Pascal auf Volta verschoben hat.

Von daher ist "fest eingeplant" so eine Sache. Je näher man dem fertigen Chip kommt umso wahrscheinlich bleibt es natürlich bei den geplanten Features.

Ailuros
2015-03-29, 15:25:34
GP100 hat HBM; darueber darf man sich schon sicher sein.

maguumo
2015-03-29, 16:54:57
Mal verdammt vereinfacht: ich uebertakte core und Speicher auf GPU X um 15% und erreiche auch ca. 15% mehr Leistung. Wenn ich den Speicher auf default lasse und nur den core um 15% uebertakte erhoeht sich die Leistung um ~10% und wenn ich den core auf default lasse und nur den Speicher um 15% uebertakte steigert sich die Leistung um nur 5%.


Ich stolpere über meine eigenen Formulierungen... Worauf ich eigentlich nur hinauswollte: Wir erwarten alle das GP 104 mehr (Gaming) Performance bringt als GM 200, und eben dieser Chip wird im übertakteten Zustand von der Bandbreite die man rausgequetscht bekommt ausgebremst. GP 104 braucht also mehr (effektive) Bandbreite, wie auch immer.

Wirklich signifikant schnelleren GDDR5 gibt es nicht mehr, ist nach meinem Verständnis auch unpraktikabel weil das Speicherinterface (noch) mehr säuft wenn es höher takten muss. Das Nvidia direkt eine Generation nach dem aufgebohrten DCC nochmal was implementieren kann das die effektive Bandbreite derart steigert halte ich für unwahrscheinlich. Was bleibt ihnen also übrig? Entweder ein breiterer Bus oder HBM...

Vielleicht kriegen sie ja aus einem 384Bit Bus ja tatsächlich noch genug effektive Bandbreite rausgequetscht, aber für einen schmaleren müssten sie schon zaubern...

aufkrawall
2015-03-29, 17:01:37
Mit entsprechend hohem VRAM-Takt wird GM200 doch gar nicht mehr gebremst als GM204 (wie auch?).
Abgesehen davon ist MSAA eh immer unwichtiger und schon GK110 war mit viel OC damit bandbreitenlimitiert. Wahrscheinlich sogar eher als GM204, weil der Speicher weniger Takt mitmachte.

Ailuros
2015-03-29, 17:22:35
Ich stolpere über meine eigenen Formulierungen... Worauf ich eigentlich nur hinauswollte: Wir erwarten alle das GP 104 mehr (Gaming) Performance bringt als GM 200, und eben dieser Chip wird im übertakteten Zustand von der Bandbreite die man rausgequetscht bekommt ausgebremst. GP 104 braucht also mehr (effektive) Bandbreite, wie auch immer.

Das heisst aber nicht dass GM200 in irgend einer Art Bandbreiten-limitiert ist; wenn dem so waere (und da es eine quasi logische Bandbreiten zu cluster Anzahl Analogie von GM107 bis zu GM200) dann muessten alle Maxwell chips und deren SKUs Bandbreiten-limitiert. Die PCGH Resultate sagen mir noch nichts.

Nebenbei haben wir vor jeder neuen Generation aehnliche Debatten. Es ist bei jeder neuen GPU Familie der top dog angeblich Bandbreiten-limitiert und dessen jeglicher Nachfolger kann eigentlich nur an der Bandbreite verhungern. Es ist jetzt nicht an Dich gerichtet, aber habt ein klein bisschen Vertrauen an die hw engineers dort draussen ;)

Wirklich signifikant schnelleren GDDR5 gibt es nicht mehr, ist nach meinem Verständnis auch unpraktikabel weil das Speicherinterface (noch) mehr säuft wenn es höher takten muss. Das Nvidia direkt eine Generation nach dem aufgebohrten DCC nochmal was implementieren kann das die effektive Bandbreite derart steigert halte ich für unwahrscheinlich. Was bleibt ihnen also übrig? Entweder ein breiterer Bus oder HBM...

Waere die gesamte Geschichte nur der DCC wie Du ihn nennst zwischen Kepler und Maxwell waeren die Unterschiede zwischen den beiden auch um einiges kleiner.

Mit entsprechend hohem VRAM-Takt wird GM200 doch gar nicht mehr gebremst als GM204 (wie auch?).
Abgesehen davon ist MSAA eh immer unwichtiger und schon GK110 war mit viel OC damit bandbreitenlimitiert. Wahrscheinlich sogar eher als GM204, weil der Speicher weniger Takt mitmachte.

Ich sehe auch bei 4xMSAA/4k Resultaten vom TitanX nichts dass bei default eine andere Relation zu kleineren Maxwell SKUs zeigt. Dass bei irgendwelchen extravaganten Uebertaktungs-uebungen ab einem Punkt der Speicher nicht so weit aushaelt wie der core selber trifft eigentlich so oft ein bei diversen GPUs, dass es wohl keine Ausnahme beim TitanX ist.

Anders rum: nach dem Fiji launch sollte mal jemand versuchen den Speichertakt so weit wie moeglich zu reduzieren; davon waeren dann die Resultate streng fuer eine Fiji Analyste durchaus interessant.

deekey777
2015-03-30, 22:42:30
Das ist zwar reichlich OT, aber passt irgendwie hier rein:

Das Team von iXBT nahm mit weiteren Kollegen nach der GTC an einer Führung durch Nvidias Heiligen Hallen in Santa Clara teil: http://www.ixbt.com/video3/gtc2015.shtml
(unteres Drittel, also nach unten scrollen, bis ihr ein Gebäude mit grünen Stühlen seht).
Erste Station ist die sog. Failure Analysis Lab, wo die ersten Revisionen auf Mängel getestet werden (das Bild mit dem Opa). Dort werden Silizium-Chips Schicht für Schicht abgeschliffen oder einfach mal zersägt. Die Besucher sollen auch Tests von Chips in 20 nm, 16 nm oder 14 nm gesehen haben; was das genau für Chips waren, steht nicht im Text (sprich Tegra oder doch GPUs). Der Karton ist voll mit kaputten GK210 (!).
Dann kam die Emulation Lab, wo alles von Nvidia emuliert werden kann. Das sind diese Systeme von Cadence mit Flussnamen wie Amazon oder Volga (da haben sich die Russen besonders gefreut). Das soll der teuerste Raum gewesen sein.

eSports-Raum, also uninteressant.

Und dann gab es noch ein Testlabor des technischen Marketing, das die Besucher betreten durften, aber keine Fotos davon veröffentlicht werden dürfen. Dort machen Nvidia-Leute das gleiche, was auch Reviewer machen. Auch war dort ein Board, auf dem Vorteile und Nachteile vergleichbarer/analoger Technologien von Nvidia und AMD gegenüberstanden, die es nur gerüchteweise gibt.

BlacKi
2015-04-14, 10:48:15
vielleicht kommt pascal ja in 14nm von samsung

http://www.hartware.de/news_63451.html

edit: Danke für die aufklärung^^

Hübie
2015-04-22, 11:05:44
So richtig überzeugt bin ich nicht dass Pascal-Desktop-GPUs in 14 nm von Samsung kommen werden. Durch die Klage gelangt man jedoch sicherlich an die ein oder andere vorteilhafte Situation *hüstel*
Pascal wird afaik nach wie vor 16FF@TSMC. Ich frage mich natürlich auch wie aufwändig es wäre ein Design auf einen anderen Prozess zu portieren. Vielleicht mag da jemand mal was zum Besten geben ;)

Ailuros
2015-04-22, 11:24:16
Geht der link bei hardware.de noch oder verpass ich etwas? Ich bin mir nur sicher dass NV Parker unter 14FF herstellen wird. Fuer Pascal hab ich die gleiche Vorbehalte wie Huebie. Ich frag nochmal nach falls ich jemand an die Leine bekommen sollte, aber es noch sehr frueh dass jemand schon jetzt zwitschern wird. Unter normalen Umstaenden geht es los wenn in etwa der design eines chips schon fertig ist, ergo 9-10 Monate vor der projezierten Massenproduktion.

Hübie
2015-04-22, 11:31:30
Ich bin mir nicht mal sicher ob gleich ein GP104 oder nicht doch so ein GM107-Verschnitt folgt. Afaik rühren die Notebook-Hersteller gerade die Suppe um.

Ailuros
2015-04-22, 11:37:23
Ich bin mir nicht mal sicher ob gleich ein GP104 oder nicht doch so ein GM107-Verschnitt folgt. Afaik rühren die Notebook-Hersteller gerade die Suppe um.

Falls bald etwas kommt auf einem kleineren Prozess als 28nm wuerde ich dann schon eher 16FF TSMC erwarten. Mein Bauchgefuehl sagt mir dass wenn es ueberhaupt GPU chips auf 14FF Samsung geben wird dann nicht vor Herbst 2015 und selbst das ist fraglich denn es ist genau der Zeitpunkt wo Apple und QCOM massenhaft produzieren werden.

Hübie
2015-04-22, 12:15:34
14FF Q3'15 halte ich sogar für zu optimistisch. Q3 -> 16FF und dann H1'16 14 nm. FPP oder was auch immer dann angewandt wird. Samsung hatte 2012 den Spatenstich gesetzt und ich denke da hat Jensen angefangen sich eine Strategie zurecht zu legen. Die Klage ist ein Teil des Puzzles und sorgt zumindest für die entsprechende Aufmerksamkeit für nVidias SoC-Anstrengungen. Will nicht heißen dass Samsung jetzt nVidia-SoC kauft sondern denen bessere Konditionen bei Kapazität und/oder Preis gibt und später wohl auch mal GPU-IP lizensiert. Das ist hoch spekulativ und OT, aber nicht abwegig - und verdeutlicht auch warum ich glaube dass so schnell keine GPUs <16 nm in diesem Jahre kommen werden.

Ailuros
2015-04-22, 13:29:28
14FF Q3'15 halte ich sogar für zu optimistisch. Q3 -> 16FF und dann H1'16 14 nm. FPP oder was auch immer dann angewandt wird. Samsung hatte 2012 den Spatenstich gesetzt und ich denke da hat Jensen angefangen sich eine Strategie zurecht zu legen. Die Klage ist ein Teil des Puzzles und sorgt zumindest für die entsprechende Aufmerksamkeit für nVidias SoC-Anstrengungen. Will nicht heißen dass Samsung jetzt nVidia-SoC kauft sondern denen bessere Konditionen bei Kapazität und/oder Preis gibt und später wohl auch mal GPU-IP lizensiert. Das ist hoch spekulativ und OT, aber nicht abwegig - und verdeutlicht auch warum ich glaube dass so schnell keine GPUs <16 nm in diesem Jahre kommen werden.

Die Patentklage ist so irrelevant wie sich nur wenige vorstellen koennen. Wenn Samsung ihre Nachfrage fuer Exynos SoCs nicht haette decken koennen haette Samsung mobile nicht den geringsten Skrupel gehabt X1 SoCs fuer tablets z.B. einzukaufen.

Nur weil es wenige zu schnallen scheinen: im gegebenen Fall sollte man die Samsung foundry mit dem Handy Hersteller (Samsung mobile) und dem "hw designer" Samsung LSI als getrennte Firmen ansehen, in der Hoffnung dass es so illustriert hilft das Samsung Gewurschtel besser zu verstehen.

Auf jeden Fall gibt es Neuauflagen von Maxwells unter Pascal die original fuer 16FF geplant waren.

Hübie
2015-04-22, 13:40:13
Letztlich kennen sich die CEOs aber alle untereinander und kaufen ist immer subjektiv. =) Klar hast du natürlich Recht mit getrennten Kassen.

Ailuros
2015-04-22, 13:47:42
Letztlich kennen sich die CEOs aber alle untereinander und kaufen ist immer subjektiv. =) Klar hast du natürlich Recht mit getrennten Kassen.

Es geht weniger um "Kassen" und mehr um Buerokratie.

Hübie
2015-04-22, 13:56:36
Haarspalterei :P

Ailuros
2015-06-04, 12:51:03
Das erste Ei wurde gelegt; kein Grund zur Unruhe da ich nichts fuer dieses Jahr erwarte.

Hübie
2015-06-04, 12:55:28
Ja sicher gleich der GP200 mit HBM2 X-D Damit die Damen hier feuchte Höschen bekommen. Wenn dann GM107 abgelöst wird whinen se wieder. Aber danke für die Info. Klingt nach Januar / Februar.

Troyan
2015-06-04, 12:59:19
Eher GP104 mit HBM2 und 8GB. GP100 kann man ja dann auf der GTC anteasern.

Das ist nVidias Vorteil gegenüber AMD. Mit Maxwell verdient man schon seit 9 Monaten Geld. Nach 18 Monaten kann man den Nachfolger bringen.

AMD müsste das gleiche machen, aber dann hätte Fiji gerademal eine Lebensspanne von 9 Monaten...

Dawn on Titan
2015-06-04, 13:00:46
Wenn das Ei funktioniert kann es Ende des Jahres werden. Die Frage ist nun Wachtel, Huhn oder Strauß.

Unicous
2015-06-04, 13:06:47
Das erste Ei wurde gelegt

Das ist aber nicht der richtige Thread für Klo-Geschichten.

Triskaine
2015-06-04, 14:05:21
Von Erinyes (https://forum.beyond3d.com/posts/1848329/):

My info says big Pascal has taped out, and is on TSMC 16nm (Unknown if this is FF or FF+, though I suspect it is FF+). Target release date is Q1'16. This is a change from Kepler and Maxwell where the smallest chip (GK107 and GM107 respectively) taped out first. Maybe the experience with 20nm was enough for NV to go back to their usual big die first strategy. Given the huge gains in performance compared to 28nm, and the fact that the 16nm process is both immature and quite expensive, I suspect the die size may be a bit smaller than what we've seen with GK110/GM200.

Still wondering what they're doing on Samsung 14nm though, maybe just test chips for now?

Unicous
2015-06-04, 14:18:09
Ich würde mal frech behaupten, dass das dann der GK110/GK210 Nachfolger wird. Hatte Nvidia nicht schon ein design win verlautbart oder wurde nicht was geleaked?

Ravenhearth
2015-06-04, 14:31:55
Samsung 14nm ist wohl für Tegra. Könnte es angesichts des frühen Tape Outs sein, dass GP100 (oder so) nur 1/3 mehr SPs als GM200 bekommt, aber dafür 1:2 DP und natürlich HBM, alles auf ~450mm²?

Ailuros
2015-06-04, 14:41:03
Eher GP104 mit HBM2 und 8GB. GP100 kann man ja dann auf der GTC anteasern.

Das ist nVidias Vorteil gegenüber AMD. Mit Maxwell verdient man schon seit 9 Monaten Geld. Nach 18 Monaten kann man den Nachfolger bringen.

AMD müsste das gleiche machen, aber dann hätte Fiji gerademal eine Lebensspanne von 9 Monaten...

Nein.

Wenn das Ei funktioniert kann es Ende des Jahres werden. Die Frage ist nun Wachtel, Huhn oder Strauß.

Es wird gar nichts dieses Jahr werden; wie gesagt hoer auf random BS herumzuwerfen.

Samsung 14nm ist wohl für Tegra. Könnte es angesichts des frühen Tape Outs sein, dass GP100 (oder so) nur 1/3 mehr SPs als GM200 bekommt, aber dafür 1:2 DP und natürlich HBM, alles auf ~450mm²?

Auch Tegra6 aka Parker ist TSMC 16FF.

Ich würde mal frech behaupten, dass das dann der GK110/GK210 Nachfolger wird. Hatte Nvidia nicht schon ein design win verlautbart oder wurde nicht was geleaked?

IMHO fuer den Anfang dringend fuer HPC in begrenzten wafer runs um die Herstellungskosten in Kontrolle zu halten (yields sind immer noch ziemlich beschissen) und dann nach N Monaten als $999 Titan-Sonderangebot verscherpelt. Charlie dearest scheint recht zu haben; ausser tape outs gar nichts von 16FF innerhalb des Jahres egal welche Groesse. Noch zu teuer.

Sunrise
2015-06-04, 14:49:39
Erinyes ist da etwas hintendran, GP100 wird auch nicht in Q1/16 erscheinen.

GP100 kommt zuerst für Großkundenprojekte (wenn nichts schief läuft, Q1/16 klingt nach Wunschtraum), hier gibt es Lieferverträge mit der Industrie und IBM. Das Ding wird anfänglich unbezahlbar und nicht im Endkundenmarkt erscheinen.

Unbezahlbar jedenfalls erstmal für Consumer. Schlechtere Ausbeute und HBM2 in minderwertigen Stückzahlen kann man aber problemlos mit Schweinepreisen abfangen. Dafür kann man sich dann aber brüsten, schnellere GPUs als Intel am Markt zu haben, was wichtig für NV ist.

Ailuros
2015-06-04, 14:53:42
Schkaischneik hat wohl gleich einen DP relativen Orgasmus wenn er Deinen Post liest :biggrin:

Sunrise
2015-06-04, 14:55:01
Schkaischneik hat wohl gleich einen DP relativen Orgasmus wenn er Deinen Post liest :biggrin:
Hab ich extra für ihn geschrieben. Mal sehen wie lange er braucht, bis er ihn findet. :biggrin:

Unicous
2015-06-04, 15:08:02
Schkaischneik hat wohl gleich einen DP relativen Orgasmus wenn er Deinen Post liest :biggrin:

Was sollen diese double entendres. Kannst du nicht mal benehmen.


:tongue:

Hübie
2015-06-04, 15:41:52
Erinyes ist da etwas hintendran, GP100 wird auch nicht in Q1/16 erscheinen.

GP100 kommt zuerst für Großkundenprojekte (wenn nichts schief läuft, Q1/16 klingt nach Wunschtraum), hier gibt es Lieferverträge mit der Industrie und IBM. Das Ding wird anfänglich unbezahlbar und nicht im Endkundenmarkt erscheinen.

Unbezahlbar jedenfalls erstmal für Consumer. Schlechtere Ausbeute und HBM2 in minderwertigen Stückzahlen kann man aber problemlos mit Schweinepreisen abfangen. Dafür kann man sich dann aber brüsten, schnellere GPUs als Intel am Markt zu haben, was wichtig für NV ist.

Die Verträge sind afaik erst für Q3/'16. Neue HPC-Runde der Regierungsförderung in den USA.

Edit: Kann gar nicht glauben dass es wirklich Big Pascal sein soll der tapeout hatte. Aber irren tue ich mich gerne ;) Dann dürfen die Damen hier wirklich feuchte Höschen bekommen.

sulak
2015-06-04, 15:49:23
Der Dicke Pascal ist also geschlüpft, passt zu Testsamples von HBM2 Speicher aus April. Mit dem Speicher sollte SK Hynix ja keine Probleme bis Anfang 2016 bekommen und dann in die Massenproduktion gehen, dazu Pascal (Tesla/Quadro!) mit NVLink und neuen SI für Q2/2016 = HPC Win. Aber nur wenn es glatt läuft, sonst +3Monate (wie immer).
Passt auch zeitlich, dann hat man HBM2 Erfahrungen gesammelt, GP204 kann dann im Q3 2016 auf den Markt geworfen werden, gefolgt von GP206 und GP200 (für die Normalsterblichen) zur "Back to School" Season und Weihnachtsabräume.

StefanV
2015-06-04, 19:09:22
Der Dicke Pascal ist also geschlüpft, passt zu Testsamples von HBM2 Speicher aus April. Mit dem Speicher sollte SK Hynix ja keine Probleme bis Anfang 2016 bekommen und dann in die Massenproduktion gehen, dazu Pascal (Tesla/Quadro!) mit NVLink und neuen SI für Q2/2016 = HPC Win. Aber nur wenn es glatt läuft, sonst +3Monate (wie immer).
Genau, besonders bei den chinesen...
Und Intel als Mitbewerber...

Dawn on Titan
2015-06-04, 19:49:53
Es wird gar nichts dieses Jahr werden; wie gesagt hoer auf random BS herumzuwerfen.

Ein kleiner Chip mit GDDR könnte imho durchaus Ende15/Anfang 16 machbar sein. Der dicke geht schon durch HBM2 nicht, bzw. Anfang 16 wahrscheinlich nur in bestimmten Marktsegmenten.

Ravenhearth
2015-06-04, 20:20:42
Alles außer GP100 wird imho sowieso kein HBM bekommen.

Timbaloo
2015-06-04, 20:51:13
Alles außer GP100 wird imho sowieso kein HBM bekommen.
Also ein GP104 ohne HBM würde mich doch schwer wundern.

w0mbat
2015-06-04, 21:01:32
Alles außer GP100 wird imho sowieso kein HBM bekommen.

Wieso? Geringere Die Komplexität, einfacheres PCB, kleiner Karte, weniger Stromverbrauch, etc.

Ich denke HBM wird sich schnell durchsetzen.

basix
2015-06-05, 13:43:09
Wieso? Geringere Die Komplexität, einfacheres PCB, kleiner Karte, weniger Stromverbrauch, etc.

Ich denke HBM wird sich schnell durchsetzen.

Ich denke das wird sich wirklich sehr schnell Top Down durchsetzen. Der einzige Nachteil sind die Kosten für Interposer und Packaging. ABER für AMD würde sich das evtl. sogar trotzdem lohnen, da sie die GPU inkl. Speicher verkaufen können.

Dawn on Titan
2015-06-05, 14:17:31
Und NV könnte das nicht?

basix
2015-06-05, 19:40:45
Und NV könnte das nicht?

Sorry, war vorher im Fiji Thread ^^ Natürlich gilt das für beide Chipschmieden

AffenJack
2015-06-05, 23:25:41
Erinyes ist da etwas hintendran, GP100 wird auch nicht in Q1/16 erscheinen.

GP100 kommt zuerst für Großkundenprojekte (wenn nichts schief läuft, Q1/16 klingt nach Wunschtraum), hier gibt es Lieferverträge mit der Industrie und IBM. Das Ding wird anfänglich unbezahlbar und nicht im Endkundenmarkt erscheinen.


Wieso klingt Q1/16 nach Wunschtraum? Das sind 10 Monate, das reicht wohl auch für ne A2 Revision. Nur wenn man dann noch A3 braucht wirds nix. Yield wird aber Anfang natürlich bescheiden, aber wenn man für 3/4k $ pro Stück verkauft kann man sich das auch leisten wie du schon schreibst. Vor allem muss man ja auch keinen vollen Chip launchen. Man macht es einfach wie mit K20 und bringt nen 20% beschnittenen Chip.

Für Gamingkunden gelten da natürlich ganz andere Gesetze, da würde ich dann irgendwann in H2 ne Titan erwarten und mit Glück GP100 zu Weihnachten für Normalsterbliche oder sogar erst 2017.

Dural
2015-06-07, 08:52:38
GPUs wurden doch schon immer inkl. Speicher verkauft.

Hübie
2015-06-07, 09:57:50
Ich kann mir gut denken dass mit Pascal dann der split Conaumer<->HP über die Produktdifferenzierung größer wird. Frage ist wie austauschbar wäre jetzt ein PHY und wie kostenintensiv würde sich das verhalten. Man stelle sich ein GM107-Derivat für consumer mit GDDR5 und als Quadro Tesla mit HBM vor.

sys64738
2015-06-07, 10:34:03
GPUs wurden doch schon immer inkl. Speicher verkauft.
Nein, die GPU wurde immer einzeln verkauft, der Boardhersteller hat dann den Speicher gekauft, jetzt bleiben für AMD und NV auch ein paar Cent beim Speicher hängen, auch wenn sie ihn selbst erst einkaufen.

Leonidas
2015-06-07, 12:31:31
Das GPU zusammen mit Speicher verkauft wird, hat es in Einzelfällen schonmal gegeben. Meinst nur bei der Einführung neuer Speichersorten, wo es noch kein richtiges offizielles Angebot der Speicherchiphersteller gab.


Nebenbei: Was ist von diesem angeblichen Foto eines GP100-Prototypen zu halten?
http://i.imgur.com/RNEJyHp.jpg]

Quelle: Chiphell via AnandTech-Forum (http://forums.anandtech.com/showthread.php?t=2434010)

Timbaloo
2015-06-07, 12:50:54
Nebenbei: Was ist von diesem angeblichen Foto eines GP100-Prototypen zu halten?
Das ist das Board das man schon auf der GTC 2014 gesehen hat. Was sie da für Chips draufgepappt haben, kA. Warum das kein Interposer hat, kA.

Dawn on Titan
2015-06-07, 13:08:39
Wenn man das sieht

http://cdn.eteknix.com/wp-content/uploads/2015/06/fiji.jpg

und sich ne Abdeckung über über das gesamte Package vorstellt, dann würde es wie das NV Modell aussehen. Ob die das Laminate geshopped haben oder ob da eine Schicht am Ende drauf kommt die isoliert oder eine andere Funktion (Wärmeableitung) hat, keine Ahnung.

Timbaloo
2015-06-07, 13:22:45
Wenn man auf beide einen Haufen draufsetzt, dann sehen beide nach Haufen aus. Und wenn man die Haufen dann in eine Ariane setzt, ist es rocket science.

boxleitnerb
2015-06-07, 14:35:04
Wie wahrscheinlich ist eine NV-Link Lösung auf einer hypothetischen Multi-GPU Karte mit GP100x2?
Dass NV-Link "normal" auf Mainboards kommt, ist imo so gut wie ausgeschlossen, aber in diesem Fall könnte es Sinn machen.

mironicus
2015-06-07, 15:00:22
Nebenbei: Was ist von diesem angeblichen Foto eines GP100-Prototypen zu halten

Fake!!! Nicht echt! Montage! Photoshop! :biggrin:

Dawn on Titan
2015-06-07, 15:12:21
Wenn man auf beide einen Haufen draufsetzt, dann sehen beide nach Haufen aus. Und wenn man die Haufen dann in eine Ariane setzt, ist es rocket science.

Wenn ich mir die Bilder dies Fiji Dies mit WLP ins Gedächtnis rufe, könnte so eine Schutzschicht schon Sinn machen.

Tamagothi
2015-06-07, 15:31:15
Gegen was soll die schützen?

WLP ist nicht leitend (gibt ausnahmen) und greift keine Materialien an. Dazu würde die Schutzschicht vermutlich auch Isolierend wirken.

Das Bild von Pascal ist einfach nur ein Anschauungsmodell. Seid wann bringt Nvidia beim High End Modell eine gerade Anzahl an Vram?

fondness
2015-06-07, 15:40:12
Das GPU zusammen mit Speicher verkauft wird, hat es in Einzelfällen schonmal gegeben. Meinst nur bei der Einführung neuer Speichersorten, wo es noch kein richtiges offizielles Angebot der Speicherchiphersteller gab.


Nebenbei: Was ist von diesem angeblichen Foto eines GP100-Prototypen zu halten?
http://i.imgur.com/RNEJyHp.jpg]

Quelle: Chiphell via AnandTech-Forum (http://forums.anandtech.com/showthread.php?t=2434010)

Das ich ein Mockup mehr nicht, deshalb auch kein Interposer und auch der Speicher ist kein echter HBM. Jenson wollte halt mal wieder etwas Marketing machen, nachdem man mit HBM hinten dran ist.

Sunrise
2015-06-07, 15:40:13
Nebenbei: Was ist von diesem angeblichen Foto eines GP100-Prototypen zu halten?
Das ist quasi der GP100-Dummy von der GTC. Das Ding dient lediglich dazu, zu zeigen, dass viel Rechenleistung mit der neuen Technik (Interposer+HBM) auf recht kleinem Raum möglich sind. Das GPU-Package ist ziemlich nichtssagend und zeigt lediglich Speicherbausteine neben der GPU, damit es auch jeder Anwesende der GTC versteht.

Wenn du dir auch mal die Größenverhältnisse anschaust, stimmen nichtmal die, da der Die im Verhältnis zu den HBMs viel zu klein ist. Die Maße von GP100 will man natürlich nicht selbst leaken.

Gipsel
2015-06-07, 15:52:54
Nebenbei: Was ist von diesem angeblichen Foto eines GP100-Prototypen zu halten?
http://i.imgur.com/RNEJyHp.jpg]

Quelle: Chiphell via AnandTech-Forum (http://forums.anandtech.com/showthread.php?t=2434010)Wie schon Andere sagten, das ist irgendein (Photoshop-)Mockup und zeigt auch gar kein HBM (sondern eher herkömmlichen DRAM on Package wie auch bei einigen älteren Mobillösungen zu finden). Das wurde auch bereits direkt nach Auftauchen dieses Shots gesagt.

N0Thing
2015-06-07, 16:09:56
Das Bild von Pascal ist einfach nur ein Anschauungsmodell. Seid wann bringt Nvidia beim High End Modell eine gerade Anzahl an Vram?

Das resultiert doch nur aus den gewählten Speicheranbindungen und ist kein Trademark für die Ewigkeit. Bei HBM geht man wohl ziemlich sicher auf entsprechende Vielfache von 2 oder 4.
Für mich sind übrigens auch 12GB Speicher eine gerade Anzahl. ;)

Tamagothi
2015-06-07, 16:32:45
14/16nm Fertigung sind ja noch nicht reif.

Haltet ihr es für realistisch das Big Pascal in den nächsten 3-6 Monaten auftaucht?

Ich bezweifle das sehr stark. Das einzige wäre wenn der als Tesla kommt den dort hinkt Nvidia hinter her. Falls AMD eine FirePro mit 16 GB HBm und >4k DP bringt noch mehr

Dawn on Titan
2015-06-07, 17:14:18
2015 taucht nichts neues auf.

Gegen was soll die schützen?

WLP ist nicht leitend (gibt ausnahmen) und greift keine Materialien an. Dazu würde die Schutzschicht vermutlich auch Isolierend wirken.

Das Bild von Pascal ist einfach nur ein Anschauungsmodell. Seid wann bringt Nvidia beim High End Modell eine gerade Anzahl an Vram?

Ich dachte mehr an Schutz (falls jemand mal leitende WLP aufträgt) und vor allem als eine Art Heatspreader. Der Interposer dürfte nicht wenig Wärme aufnehmen, wenn man die nach oben abführen kann wäre das sicher nicht verkehrt.

Dural
2015-06-07, 17:26:38
Nein, die GPU wurde immer einzeln verkauft, der Boardhersteller hat dann den Speicher gekauft, jetzt bleiben für AMD und NV auch ein paar Cent beim Speicher hängen, auch wenn sie ihn selbst erst einkaufen.

Nein, so viel ich weis liefert nv high-end gpus nur mit speicher aus.

rentex
2015-06-07, 19:06:12
Pascal wird ab H16 kommen...warum sollte Nvidia es überstürzen. Sie wollen das sauber durchziehen.

Ailuros
2015-06-07, 19:43:36
*grunz* http://vr-zone.com/articles/nvidias-gp100-pascal-gpu-allegedly-taped-tsmc-16nm-process/93122.html

Timbaloo
2015-06-07, 19:48:23
Hmmm, vr-zone wird auch nicht besser...

aufkrawall
2015-06-07, 19:52:27
Pascal wird ab H16 kommen...warum sollte Nvidia es überstürzen. Sie wollen das sauber durchziehen.
Was soll es zu überstürzen geben?
Wenn das Design fertig ist und die Fertigung eine entsprechende Stückzahl und Marge verspricht, wird der Verkauf nicht ewig auf sich warten lassen.

Tamagothi
2015-06-07, 19:58:43
Aber ohne HBM 2 kannst du GP100 ihn die tonne treten ;)

Sunrise
2015-06-07, 20:06:47
Aber ohne HBM 2 kannst du GP100 ihn die tonne treten ;)
Mach dir da mal keine Sorgen, den wird NV sich natürlich gesichert haben, für anfänglich Mondpreise. Aber da sie von der Industrie min. das Doppelte wahrscheinlich wieder zurückbekommen, können sie das verkraften. Ansonsten gehen solche Rechnungen nicht auf. Gäbe sonst nur noch Intel und die verlangen wahrscheinlich noch höhere Preise, darauf kannst du Gift nehmen. Denn aus Spaß entwickelt Intel kein 700mm^2 GPU-Coprozessor-Monster. Musst dir nur mal anschauen, was das Ding alles drauf hat, wohlgemerkt auf 14nm.

Dagegen ist NV die Low-Cost-Alternative :D

Nakai
2015-06-07, 20:15:19
Ihr glaubt doch nicht im Ernst, dass NV jetzt schon GP100 bringt?!

NV wird eher GP104 oder ein GP107/8 liefern. Der Prozess ist neu und es wird gesagt, dass größere Chips schwer zu fertigen sind.

Egal wie dieser Chip aussieht, es wird etwas anderes sein. Wenn das Bild realistisch wäre, was es nicht ist, wird der Chip über 300mm² groß aber keine 500mm². 16FF bringt etwa doppelte Packdichte und Stromeinsparungen. Bei 350mm² wird man ein Stück über GM200 liegen. Kurz GP100 eher ein x04er-Chip und dementsprechend vor dem Vorgänger liegen. Eventuell tendenziell etwas mehr, wegen HBM. =)
Also etwas mehr als 20%+ GM200.

Ich denke eher, es kommt etwas anderes.

Unicous
2015-06-07, 20:20:14
Hmmm, vr-zone wird auch nicht besser...

Die englische vr-zone-Seite war doch schon immer scheiße.:freak:

Timbaloo
2015-06-07, 20:22:27
Die englische vr-zone-Seite war doch schon immer scheiße.:freak:
Ich glaube ich habe den Überblick über die ganzen Seiten verloren :crazy:

Hübie
2015-06-07, 20:53:07
Ihr glaubt doch nicht im Ernst, dass NV jetzt schon GP100 bringt?!

NV wird eher GP104 oder ein GP107/8 liefern. Der Prozess ist neu und es wird gesagt, dass größere Chips schwer zu fertigen sind.

Egal wie dieser Chip aussieht, es wird etwas anderes sein. Wenn das Bild realistisch wäre, was es nicht ist, wird der Chip über 300mm² groß aber keine 500mm². 16FF bringt etwa doppelte Packdichte und Stromeinsparungen. Bei 350mm² wird man ein Stück über GM200 liegen. Kurz GP100 eher ein x04er-Chip und dementsprechend vor dem Vorgänger liegen. Eventuell tendenziell etwas mehr, wegen HBM. =)
Also etwas mehr als 20%+ GM200.

Ich denke eher, es kommt etwas anderes.

Es kann durchaus sein dass man für einen Deal wieder Kapazitäten frei machen muss und consumer-market im Anschluss daran bedient wird. Denn dass man GM200 einen so kurzen Lebenszyklus einräumt mag ich auch nicht so recht glauben. Wahrscheinlich ist auch dass man Maxwell und Pascal parallel im (Stamm-) Portfolio führt. Aktuell hat man ja auch drei (bzw. 3,5) Architekturen im Programm.

Sunrise
2015-06-07, 20:55:43
Ihr glaubt doch nicht im Ernst, dass NV jetzt schon GP100 bringt?!
Jetzt? Bist du zurück aus der Zukunft? Wir sind jetzt im Jetzt, nicht erst in 9-10 Monaten. Das ist aber dann bald und nicht jetzt. Verwirrend. :freak:;D

StefanV
2015-06-07, 21:52:00
Ihr glaubt doch nicht im Ernst, dass NV jetzt schon GP100 bringt?!
Doch, weil sie von der einen Seite durch AMD angegriffen werden und auf der anderen Seite Intel sie im Profi Segment unter Druck setzt.

Da müssen sie erst mal was nachlegen, um ihren CUDA Scheiß zu rechtfertigen, sonst hauen alle ab und schwenken auf OpenCL um...

Hübie
2015-06-07, 23:05:10
StefanV's Märchenstunde kannst du im OT abhalten. :rolleyes:

Dawn on Titan
2015-06-08, 06:53:41
Recht hat er aber schon. Es ist wahrscheinlich, dass GP100 nach seinem Auftauchen sich gut Zeit lassen wird bis er im Gamermarkt auftaucht.

horn 12
2015-06-08, 07:07:31
Soll wohl gezielt von Fiji ablenken, nicht mehr und nicht weniger!
Vor Spätsommer/ Herbst 2016 ist so ein Pascal wie GTX 970 oder 980 schwer zu realisieren.

boxleitnerb
2015-06-08, 07:21:26
Soll wohl gezielt von Fiji ablenken, nicht mehr und nicht weniger!
Vor Spätsommer/ Herbst 2016 ist so ein Pascal wie GTX 970 oder 980 schwer zu realisieren.

Du erzählst wieder mal Quatsch. Das Gerücht kam von erinyes im B3D-Forum und du machst eine NV-Kampagne daraus. Wie bescheuert muss man dafür eigentlich sein?

Dawn on Titan
2015-06-08, 07:43:23
Weil Fiji Maxwell vernichtet, das würde Sinn machen.

Loeschzwerg
2015-06-08, 07:45:45
:facepalm: Bitte geht wieder in den Fiji thread...

mironicus
2015-06-08, 09:07:30
AMD bringt im Sommer 2015 die erste HBM-Grafikkarte der Welt in 28 nm und mit 4 GB (6 Monate in Führung gegenüber NVidia).
NVidia präsentiert kurz vor Weihachten 2015 die erste HBM2-Grafikkarte der Welt in 16 nm und mit 16 GB und die Welt staunt (Papierlaunch, in Stückzahlen erst ab Februar 2016 im Handel). :D

So sieht es momentan aus das NVidia gleich auf kleinere Fertigung und auf HBM2 setzt, was die viel bessere Entscheidung ist.

HOT
2015-06-08, 09:12:13
Wenn der GP100 jetzt Tapeout hatte, dann, weil endlich der 16FF+ dafür nutzbar war. AMDs Greenland hatte vielleicht schon Tapeout.
Das heißt aber nicht, dass die Chips früh kommen. Die kommen erst:
1.) Wenn HBM2-Speicher in Mengen verfügbar ist
2.) Wenn die Produktion flüssig läuft (und da siehts bei TSMC dezeit ganz duster aus)
Ich rechne mit beiden Chips nicht vor 2.HJ 2016. AMD könnte wahrscheinlich schneller sein, aber die haben den Fokus bei 14nm auf der CPU-Serie, Glück für NV. Zudem ist ja immer noch nicht bekannt, ob AMD mit der GPU überhaupt nach GloFo geht oder doch auch 16FF+ nutzen wird.

Zudem sieht für micht die Fokussierung so aus, als würde NV erst mal nur den GP100 bringen. Vielleicht spart man sich den Mainstream direkt für die GVxxx-Serie auf. Man kann mit Maxwell ja sehr gut weiter leben, wenn AMD sich ebenfalls nur auf den High-End-Chip konzentriert, wie es derzeit aussieht.

boxleitnerb
2015-06-08, 09:49:25
Grönland hatte Tape out? Wo steht das?

Dawn on Titan
2015-06-08, 09:54:12
2014 Tape-Out in 14nm???

HOT
2015-06-08, 10:07:14
Arf son Quatsch ich meinte dieses Jahr. Ich mach auch mal ein vielleicht daraus :D.

Nakai
2015-06-08, 10:41:54
Es kann durchaus sein dass man für einen Deal wieder Kapazitäten frei machen muss und consumer-market im Anschluss daran bedient wird. Denn dass man GM200 einen so kurzen Lebenszyklus einräumt mag ich auch nicht so recht glauben. Wahrscheinlich ist auch dass man Maxwell und Pascal parallel im (Stamm-) Portfolio führt. Aktuell hat man ja auch drei (bzw. 3,5) Architekturen im Programm.

NV kann gerne eine Pascal SKU im H1 16 bringen, ob es GP100 ist bzw. ob es eine klassiche 100er SKU seitens NV ist, wage ich dramatisch zu bezweifeln..

NV muss 16FF+ und HBM gebacken kriegen. HBM2 braucht noch einige Zeit, ergo, wenn etwas mit HBM kommt, dann HBM1. Bis dahin gibt es eventuell größere Speichervolumen pro HBM-Die.

Selbstverständlich hat NV dramatisch mehr R&D-Mittel als AMD. Kann NV diese Technologien bis Anfang 2016 hinkriegen? Womöglich, ich erwarte es nicht, denn es kommt nicht immer auf die eigenen Kompetenzen an.

So oder so, es gab einen dramatischen Roadmap-Change seitens NV vor einiger Zeit. Pascal bekommt HBM und nicht erst Volta. Man hat damals wohl schon von Fiji mitbekommen. HBM ist keine Gamer-Technologie. Im professionellen Bereich ist eine hohe Bandbreite deutlich "netter", als im Gaming-Bereich.

Egal was kommt, es wird ein Compute-Chip sein. NV braucht einen neuen Chip in diesem Segment. Hawaii lächelt auf GK210/110 herab, bei Fiji brauchen wir nicht reden.

Ich hab keine Ahnung, wie GP1xx aussehen wird, jedoch wird es eher ein Maxwell+HBM+DP sein. Hierzu gibt es schon einige Anhaltspunkte.

Eine SMX(Kepler) und SMM(Maxwell) haben jeweils 4 Warp-Scheduler, also 8 Dispatcher. Ich hab bei Maxwell damals schon gesagt, dass GM200 eine DP-Rate von 1:2 haben wird, weil das Verhältnis zwischen SIMDs und Warp-Scheduler gut passt. Wurde natürlich nichts..Maxwell ist eine Gamer-Serie geworden. Mit Mixed Precision gibt es keinen Zweifel diesbezüglich.

Für HBM wird man wohl noch die ROP-Partitions umkrempeln. Pro ROP-Partition einen Stack. Jeder Stack hat 8 Channels, ergo 8 L2-Blöcke und 8 Channels pro Partition. ROP-Partitionen sind sowieso nur eine Vereinfachung seitens NV.
Was ich mir denke?
Wenn NV einen HBM-Chip bringen wird, dann sind es mehr als nur 4 Stacks. Ich kann mir 6 Stacks gut vortstellen. Mit 16FF+ hat man genug Möglichkeiten, dass der Chip nicht zu groß werden dürfte. Große Dies sind sowieso schwierig herzustellen, also sehe ich GP100 definitiv nicht über 500mm². Damit ist auch mehr Platz für mehr Stack zur Verfügung.

Leonidas
2015-06-08, 12:18:46
Das ich ein Mockup mehr nicht, deshalb auch kein Interposer und auch der Speicher ist kein echter HBM. Jenson wollte halt mal wieder etwas Marketing machen, nachdem man mit HBM hinten dran ist.


Das ist quasi der GP100-Dummy von der GTC. Das Ding dient lediglich dazu, zu zeigen, dass viel Rechenleistung mit der neuen Technik (Interposer+HBM) auf recht kleinem Raum möglich sind. Das GPU-Package ist ziemlich nichtssagend und zeigt lediglich Speicherbausteine neben der GPU, damit es auch jeder Anwesende der GTC versteht.

Wenn du dir auch mal die Größenverhältnisse anschaust, stimmen nichtmal die, da der Die im Verhältnis zu den HBMs viel zu klein ist. Die Maße von GP100 will man natürlich nicht selbst leaken.


Wie schon Andere sagten, das ist irgendein (Photoshop-)Mockup und zeigt auch gar kein HBM (sondern eher herkömmlichen DRAM on Package wie auch bei einigen älteren Mobillösungen zu finden). Das wurde auch bereits direkt nach Auftauchen dieses Shots gesagt.



Thx 4 (ausführliche) Info.

StefanV
2015-06-08, 23:21:19
Recht hat er aber schon. Es ist wahrscheinlich, dass GP100 nach seinem Auftauchen sich gut Zeit lassen wird bis er im Gamermarkt auftaucht.
Ebend...

Man muss sich nur mal anschauen, wo nV am meisten unter Druck ist.
Und das ist eben der High End HPC&Co Markt, wo AMD jetzt schon meilenweit voraus ist. Und wenn Fiji wirklich ein DP Verhälntis von 1:2 hat, dann schaut es gleich mal richtig übel aus. Und die Leute könnten echt überlegen, die ganze Software von CUDA auf OpenCL zu portieren und zu AMD zu wechseln.

Und dann gibts auch noch diesen Haufen, der 'von der anderen Seite' kommt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=548306

Kurz:
In diesem Bereich schaut es für nVidia echt nicht gut aus. Wenn die nicht schleunigst was machen, rennen ihnen die Leute weg und steigen auf AMD und/oder Intel Hardware um!!

Gut, bei den Chinesen haben sie eh verschissen...
Und wie es beim Rest ausschaut, ist auch 'ne gute Frage...

Und das ist eben das Problem hier.
Entsprechend muss man auch davon ausgehen, dass GP100 dieses mal als erstes kommen würde. Und man auch alle Anstrengungen unternimmt, um das auch wirklich hin zu bekommen, nachdem man schon bei der DP Rate ziemlich ins Hintertreffen geraten ist...

Hübie
2015-06-09, 01:54:33
Was sich wandelt ist der Mac OS Markt der konsequent auf OpenCL und Metal schwenkt. Das sind z.B. große Foto- und Designstudios welche damit arbeiten.
Die Leute rennen nicht mit der Hardware oder so weg. CUDA ist nach wie vor (berechtigter?) Platzhirsch, denn die Adaptionsrate ist mittlerweile recht hoch. Auch die Tools sind sehr umfang- und zahlreich. OpenCL hat oftmals den Vorteil auf mehreren Plattformen lauffähig zu sein, aber dann wiederum den Nachteil dass die Performance unterschiedlich ausfällt und mann dann doch für jedes device "optimieren" muss. Das hat man nicht bei CUDA eben nicht. Gespräche mit Entwicklern bei uns am Institut zeigen dass zu 90% CUDA angewandt wird. Nur weil du nVidia scheiße findest muss es nicht heißen dass die den Bach runter gehen. Wart mal ab was die für Deals abschließen und teils schon in der Tasche haben. Der eine Chinesen Deal (weiß gar nicht mehr was das war) bedeutet nicht dass kein Chinese nVidia mehr kauft.
Um OpenCL wird man vielleicht nicht mehr lang und breit herum kommen, aber um Apple alle mal. AMD verdient vermutlich nicht viel an den Apple Deals wenn man das auf Stückkosten herunter bricht. Das ist wie mit Sony sowie Microsoft einfach die derbe Masse.

StefanV
2015-06-09, 04:48:31
Die Leute rennen nicht mit der Hardware oder so weg. CUDA ist nach wie vor (berechtigter?) Platzhirsch, denn die Adaptionsrate ist mittlerweile recht hoch.
Das ändert aber nichts an dem Zustand, dass nVidia momentan nix gescheites für DP Berechnungen hat...
Und 'von der anderen Seite' Intel anprescht. Und wenn Intel erst mal wirklich los legt, schaut es für nV nicht wirklich gut aus.


Der eine Chinesen Deal (weiß gar nicht mehr was das war) bedeutet nicht dass kein Chinese nVidia mehr kauft.
Der 'Chinesen Deal' war rein zufällig der stärkste Super Computer der Welt...
Das Teil, was die Chinesen eigentlich aufrüsten wollten, die US-Regierung Intel aber den Export weiterer Xeon Phi nicht erlaubt hat...

Das Teil...
Bekannt als Tianhe-2, bestehend aus 32k Xeon E5-2692 und momentan wohl 48k Xeon Phi...

Sind also 'mal eben' etwa 50k High End Quadro 6000, die bei Amazin für etwa 4,5k gelistet sind.
Also mal eben so übern Daumen gepeilt 200k USD...


Um OpenCL wird man vielleicht nicht mehr lang und breit herum kommen, aber um Apple alle mal. AMD verdient vermutlich nicht viel an den Apple Deals wenn man das auf Stückkosten herunter bricht. Das ist wie mit Sony sowie Microsoft einfach die derbe Masse.
Und dass sich Open CL nicht so recht durchsetzen mag, liegt schlicht daran, dass nVidia das nicht mehr unterstützt, seit GCN auf dem Markt ist, da AMD hier einfach stärker ist...

Bleibt auf dieser Seite 'nur' Intel und AMD, wie es bei den Low Power mobil Teilen ausschaut, keine Ahnung. Aber wohl nicht schlechter als bei nVidia...

Godmode
2015-06-09, 09:52:35
Zum Release Date von GP100: Ich denke für uns Endkunden wird es 2016 keinen GP100 geben, dafür aber GP104 im Mai. Warum sollte man das jetzige Schema großartig ändern, wenn es doch so gut funktioniert? Also zuerst den Mainstream Chip und ca. 1 Jahr später dann wieder den Highend Chip. Im Profimarkt brauchen sie GP100 wohl sehr dringend, aber da spricht ja auch nichts gegen eine frühe Vorstellung.


Und 'von der anderen Seite' Intel anprescht. Und wenn Intel erst mal wirklich los legt, schaut es für nV nicht wirklich gut aus.


Du meinst so wie sie im Mobilemarket losgelegt haben und Mrd. versenkt haben? Intel muss erstmal was abliefern. Für NV sieht es laut manchen schon seit Jahren nicht gut aus und trotzdem schreiben sie jedes Quartal fette Gewinne. (Mobile, stagnierender PC Markt, keine CPU, AMD+Intel im Profisegment)

Hübie
2015-06-09, 11:20:58
Du meinst also dass man 1,5 Jahre nach tapeout kein consumer Produkt daraus macht? Neeee... Tesla und Quadro decken afaik immer noch nicht R&D eines Designs ab. Macht auch kein Sinn Fiskaljahre verstreichen zu lassen. Man bringt Produkte an den Markt wenn es möglich ist. Und wenn es wirklich GP100 war der sein tapeout hatte und keine großen Komplikationen auftreten dann wird der im Frühjahr eventuell als Tesla vorgestellt und kommt dann zum Sommer oder Ende der Sommerferien in die Regale. Alles andere (spätere) ergäbe keinen Sinn.
@StefanV: Hast du einen Beleg dass die Regierung Exporte verboten hat? Die Dinger werden nicht in den USA gebaut.
Und wenn dass alles so toll ist warum hat man dann keine AMD drin?
Was meinst du warum Xeon Phi sich schleppend durchsetzt? Ich behaupte mal dass es ein vielschichtiges Problem ist was mit mangelnder Verbreitung an Universitäten (inkl Workshops) und vielleicht auch geringeren Bekanntheitsgrad zusammen hängt. Dann noch code-portierung, ggf. Einschränkungen Probleme nicht mit dieser Hardware effizient zu umschiffen und und und.
In einem Punkt hast du eindeutig Recht: es gibt aktuell nichts anständig neues mit doppelter Präzision. Wobei dass auch nur ~15% genutzt wird.
Und ob es nun Tihane 2 war oder nicht wusste ich einfach nicht mehr da dennoch unwichtig. Wir kennen keine Gründe wieso man sich gegen GPUs entschieden hat.

Godmode
2015-06-09, 17:23:41
GM200 hätte dann aber eine sehr kurze Lebensdauer. Wenn du GP100 wirklich schon für Sommer 2015 erwartest, in welchem Zeitfenster ordnest du dann GP104 ein?

robbitop
2015-06-09, 17:25:47
1 - 1,5 Jahre. Ist schon relativ kurz. Man muss bedenken, dass er ein Nachschieber auf einem uralten und kurz vor der Ablösung stehenden Fertigungsprozess ist.

Was soll's. GP100 kann IMO nicht schnell genug kommen. :)

Troyan
2015-06-09, 17:29:27
GK110-B wurde auch nach einem Jahr durch GM204 abgelöst.
Und ein Jahr später kam GK210 mit größeren Caches für den HPC Markt.

Hübie
2015-06-09, 17:43:00
GM200 hätte dann aber eine sehr kurze Lebensdauer. Wenn du GP100 wirklich schon für Sommer 2015 erwartest, in welchem Zeitfenster ordnest du dann GP104 ein?

Haben wir aneinander vorbei geredet? :| Sommer '16 is my guess. GM200 hat vielleicht im Desktop eine normale Lebensdauer, aber weder als Quadro noch als Tesla wird die absatzstark sein. Ich weiß gerade nicht mal ob GM200 zwei copy engines hat aber afaik Nein. Also auch hier is der alte Regensburger (Johannes Kepler) noch am Start. Glaube wir haben auch noch keine einzige Maxwell am Institut... Das Ding ist diesbezüglich sehr unsexy. Aber Pascal wird wohl ordentlich Boden gut machen wenn die rough estimates zutreffend sind.
Maxwell is ein effizientes Zockerbiest. "Mehr" nicht.

Edit: Big Kepler hatte das Problem zu viele Missverhältnisse zu haben. Daher musste GK210 nachgeschoben werden. Das wird denen wohl nicht so schnell wieder passieren.

aufkrawall
2015-06-09, 18:00:33
Die nächsten Monate sind jetzt spannend.
Wenn kleinere Pascals ihren Tapeout haben, sind ~6 Monate von da bis Kaufdatum kein Ding der Unmöglichkeit. Die sollten ja recht problemfrei zu fertigen sein und gehen vermutlich sofort in den Consumer Markt.

Dawn on Titan
2015-06-09, 18:04:14
16nm @ TSMC - HBM2

Probleme gibt es da genug. 6 Monate ist auch nur bei einem erfolgreichen Tape-Out möglich.

aufkrawall
2015-06-09, 18:06:24
Wenn es Probleme für Highend gibt, müssen die nicht schwerwiegend für Performance sein. Wenn der Fiji-Launch nicht durch HBM gebremst wird, wird es später mit Pascal wohl kaum schlechter laufen.

Unicous
2015-06-09, 18:16:31
6 Monate ist generell mehr als sportlich. Besonders bei einem neuen Prozess bei dem behauptet wird, dass die Validierung extrem viel Kosten und auch Zeit in Anspruch nimmt.

Timbaloo
2015-06-09, 20:56:21
Wenn es Probleme für Highend gibt, müssen die nicht schwerwiegend für Performance sein. Wenn der Fiji-Launch nicht durch HBM gebremst wird, wird es später mit Pascal wohl kaum schlechter laufen.
Aber wenn, und da bin ich mir recht sicher, NV HBM1 ungenutzt ziehen lässt und dementsprechend auf HBM2 angewiesen ist was ja auch erstmal fertig sein muss.

Mancko
2015-06-09, 21:55:11
GM200 hätte dann aber eine sehr kurze Lebensdauer. Wenn du GP100 wirklich schon für Sommer 2015 erwartest, in welchem Zeitfenster ordnest du dann GP104 ein?

Du meinst Sommer 2016. Das wäre dann 12 Monate. Ich finde nicht, dass dies eine kurze Lebensdauer ist.

Wenn GP100 seinen Tapeout hatte, dann gehe ich von dem üblichen 6 bis 9 Monatezeitfenster zum Launch aus. Allerdings vorerst nur im Enterprise Segment (Tesla, Quadro, Grid usw.). Yields sind dort weniger kritisch. Für die Teile kann man mehrere Tausend Euro einsacken. Da kann man von wenigen Chips einen ganzen Waver finanzieren. Zudem werden die mit extrem hoher Wahrscheinlichkeit zuerst mal mit leicht teildeaktivierten GPUs starten. Das steigert die Ausbeute und der gleiche hohe Preis kann trotzdem verlangt werden. Den Rest hebt man sich für später auf.

Im Consumer Segment denke ich werden sie mit GP104 starten. Die Vorgehensweise hat sich bewährt und lässt genügend Raum nach hinten und sind wir mal ehrlich. Für alles was in 2015 kommt wird GP104 m.E. locker reichen um die Performance Werte weiter nach oben zu schrauben. GP100 im Consumer Segment wird irgendwann im Sommer bzw. Q3 einschlagen. Alles davor würde mich überraschen und würde m.E. auf AMD doch extremen hohen Druck ausüben.

Godmode
2015-06-09, 21:57:22
Meinte natürlich 2016, sorry.

Hübie
2015-06-10, 04:14:57
Na ja man müsste erst mal die Kapazitäten haben. Dann kommen noch Probleme wie die teure Validierung, "neue" Tools, neue µArch, yieldrates... bin da nicht so euphorisch was das Tempo angeht.

rentex
2015-06-10, 05:42:44
Man oh man, wie kann man nur davon ausgehen das Nvidia, Pascal früher rausbringt. Es gibt keine Anzeichen dafür das dies passiert. Warum auch? Glaskugel an.... H2 für Consumer, eher Ende 16, Anfang 17. Performance wird sich bei GP100, ca. bei 50%+ über GM200 befinden, wunder erwarte ich nicht. Sie wird die erste "richtige" 4K Karte werden...Glaskugel aus.

Timbaloo
2015-06-10, 06:55:16
Also mit HBM, 16FF+ und den obligatorischen Verbesserungen der Architektur würde ich schon mehr als 50% gegenüber GM200 erwarten. Auch wenn 1:2 DP:SP wieder etwas Perfomance kosten wird.

Ausser NV ist konservativ und macht GP100 deutlich kleiner als GM200.

Hübie
2015-06-10, 07:04:37
Also wenn TX auf T schon 60-65% drauf legt wird Pascal dies auch können. Betrachte ich Titan X als Basis sinds halt 38-42%. Solche Aussagen kann man sich also genau so stecken wie die "man-oh-man-Aussage" ohne Argumentationskette. ;)

rentex
2015-06-11, 19:14:54
He, he...ist doch nicht so abwegig. Bis auf den Tape Out, gibts nix neues über Pascal. AMD ist auch nicht wirklich gefährlich...daher wird früher nix kommen. Alle rennen Nvidia nach...inklusive mir *g* Ist doch der Spekulatius Thread hier...oder nicht? "mamp" lecker :-D

aufkrawall
2015-06-11, 19:19:33
Über AMDs nächste Generation ist noch überhaupt nichts an die Öffentlichkeit gelangt. Was nichts heißen muss, siehe das Dichthalten bei Fiji.

Kartenlehrling
2015-06-11, 20:29:36
Ich lege noch einen drauf und behaupte das die erste HBM GPU für einen Laptop ist max. gtx M960 bereich und 2gb Speicher hat.

stinki
2015-06-11, 20:59:46
Also wenn man bei 16FF+/14LPP wirklich nur um ca. 35% shrinken kann dann dürfte ausgehend von ca. 600mm^2 bei GM200 und zusätzlich 1:2DP Ratio maximal +50% auf GM200 bei GP100 drin sein. Und selbst die Größe kann ich mir eigentlich nicht wirklich vorstellen auch wenn man das 384Bit GDDR5 Speicherinterface durch das kleinere HBM ersetzt.
http://www.3dcenter.org/news/14nm-und-10nm-fertigung-deutlich-kleiner-werdende-vorteile-bei-platzersparnis-und-kostenredukti

Knuddelbearli
2015-06-11, 23:58:15
35% shrinken und 1:2 wie willste da bitte auf +50% kommen ? oO

Troyan
2015-06-11, 23:59:02
20nm erlaubt doch 90% mehr Transistoren auf der gleichen Fläche, reduziert den Verbrauch bei gleicher Anzahl nur um ~30%.

aufkrawall
2015-06-12, 00:35:03
Wie viel mehr Transistoren pro Fläche sind es denn mit TSMC 16nm FF+ gegenüber der bisherigen 28nm Fertigung?

Ravenhearth
2015-06-12, 00:54:42
Ich kenne keine genauen Zahlen, aber man kann grob von Faktor 2 ausgehen.

Hübie
2015-06-12, 09:03:04
Wie viel mehr Transistoren pro Fläche sind es denn mit TSMC 16nm FF+ gegenüber der bisherigen 28nm Fertigung?

www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm

Da steht alles relevante in marketing-sprech

Duplex
2015-06-12, 11:16:15
In 16FF kann man mit 48 SMM @6144 Shader ausgehen, >100% mehr Performace als GM200 sollte das Ziel sein.

Im Prinzip bräuchte Nvidia kein HBM, 6144 Shader & 12GB GDDR5 würden auch reichen.

mironicus
2015-06-12, 11:24:02
Klar lohnt sich HBM, die Stromersparnis kann man in den Chip stecken.

Duplex
2015-06-12, 11:27:00
Aber es wäre nicht umbedingt nötig, ein Maxwell mit 6144 Shader wäre in 16FF trotzdem 80-100% schneller als Titan X.
Nvidias Architekturen sind sehr effizienter gegenüber AMD.

MilesEdgeworth
2015-06-12, 11:29:40
Naja bei verdoppelter Shaderzahl dürfte die Bandbreite doch knapp werden.. Und ein 512bit Speicherinterface, das auf 8GHz ausgelegt ist ist sicher alles aber nicht effizient. Mehr als 512Gbit/s Speicherbandbreite sind bei solch einem Monster sicherlich nicht fehl am Platz.

Duplex
2015-06-12, 11:30:44
384 Bit mit 12GB würden auch bei 6144 Shader noch Optimal sein.

mironicus
2015-06-12, 11:42:18
Das wäre auch vorstellbar wenn NVidia Probleme mit HBM hat und dafür wieder auf GDDR5 setzt. Das wird wohl ohnehin nur bei ganz wenigen Karten eingesetzt werden.

Timbaloo
2015-06-12, 11:56:22
GP100 hatte seinen Tape-Out. Pascal steht auf der Roadmap mit HBM. Ein kurzfristiger Umstieg auf DDR5 wäre nur möglich wenn man zwei Speicherinterfaces im Design vorhalten würden. Realistisch? Nein. Ich denke die "Diskussion" können wir uns sparen.

N0Thing
2015-06-12, 12:05:44
Aber es wäre nicht umbedingt nötig, ein Maxwell mit 6144 Shader wäre in 16FF trotzdem 80-100% schneller als Titan X.
Nvidias Architekturen sind sehr effizienter gegenüber AMD.

Die Titan X kommt von AMD? :freak:

Mal abgesehen davon, dass bisher in den Roadmaps HBM für die nächste Generation vorgesehen ist, bietet HBM doch auf dem Papier in technischer Hinsicht nur Vorteile, gerade wenn der nächste dicke Chip wieder mehr für DP ausgelegt sein sollte.
Und da sollten erhöhte Kosten und schwierigere Umsetzung nicht so sehr ins Gewicht fallen, man kann die ersten Monate ja wieder Tesla/Quadro exklusiv bleiben.

stinki
2015-06-12, 12:18:46
In 16FF kann man mit 48 SMM @6144 Shader ausgehen, >100% mehr Performace als GM200 sollte das Ziel sein.

Ich bleibe dabei 6144 (48 SMM = 2*GM200) mit 1:2 FP64 werden in 16FF+ nicht möglich sein.
Ich tippe auf maximal 1,5*GM200 oder sogar nur 2*GM204 mit 4mal HBM...also irgendwo zwischen 4096 (32 SMM) und 4608 (36 SMM) Shader, abhängig davon wie groß Nvidia die Chipfläche ansetzt.

Ailuros
2015-06-12, 12:20:11
Die Titan X kommt von AMD? :freak:

Zu viel BS in einem einzigen Post waere die richtige Antwort fuer den Fall.

Mal abgesehen davon, dass bisher in den Roadmaps HBM für die nächste Generation vorgesehen ist, bietet HBM doch auf dem Papier in technischer Hinsicht nur Vorteile, gerade wenn der nächste dicke Chip wieder mehr für DP ausgelegt sein sollte.
Und da sollten erhöhte Kosten und schwierigere Umsetzung nicht so sehr ins Gewicht fallen, man kann die ersten Monate ja wieder Tesla/Quadro exklusiv bleiben.

Zwar verschwendete Zeit, aber man koennte damit anfangen sich zu fragen warum es totaler Bloedsinn ist einfach die cluster Anzahl von Maxwell mit 2x zu multiplizieren OHNE zu bedenken dass GM200 keine anstaendige Anzahl an FP64 Einheiten hat.... :rolleyes:

Unicous
2015-06-12, 12:24:57
Ach der Duplex wieder. Lässt uns alle an seiner Weisheit teilhaben.

Nvidia braucht gar kein HBM, denn die GDDR5 PHYs lassen sich linear shrinken, verbrauchen dann nur 10% im Vergleich zu HBM Phys und sind auch um den Faktor 1000 kleiner. Eigentlich führen sie dem System sogar noch Energie zu, aber pssst.

Und die Flächeneinsparungen für Package/PCB auf die jeder so scharf ist, die sind dann natürlich auch Myriaden mal höher.

Warum, also warum setzt Nvidia auf HBM? Sind die wirklich so doof schon wieder auf die JEDEC hereinzufallen?

stinki
2015-06-12, 12:29:41
Ich bleibe dabei 6144 (48 SMM = 2*GM200) mit 1:2 FP64 werden in 16FF+ nicht möglich sein.
Ich tippe auf maximal 1,5*GM200 oder sogar nur 2*GM204 mit 4mal HBM...also irgendwo zwischen 4096 (32 SMM) und 4608 (36 SMM) Shader, abhängig davon wie groß Nvidia die Chipfläche ansetzt.

Und daraus folgernd ist mein Tip für GP104 ein ca. GM200 Shrink mit 2mal HBM...wenn es überhaupt einen GP104 geben sollte...oder Nvidia lässt GM200 in 28nm einfach weiterlaufen...

Hübie
2015-06-12, 12:32:43
Pascal soll doch gar keine ded. FP64 bekommen oder hab ich da was falsch verstanden? :confused:

Ailuros
2015-06-12, 12:49:35
Pascal soll doch gar keine ded. FP64 bekommen oder hab ich da was falsch verstanden? :confused:

Wieso? Weil sie bis jetzt mit dem FP16 Quatsch fuer genug Verwirrung gestiftet haben? Unmoeglich waere es nicht dass sie keiine dedizierte Einheiten mehr benutzen, aber egal ob von den selben ALUs 1:2 oder 1:3 oder eine Unzahl an dedizierten Einheiten mehr gegenueber Maxwell....es aendert kein bisschen etwas daran dass man MEHR Transistoren pro ALU braucht im Vergleich zu GM200. Angenommen NV hat konservativ 2x Mal so viel Transistoren/mm2 unter 16FF im Vergleich zu 28HP verwendet, heisst es eben dann NICHT dass es auch 2x Mal so viel ALUs werden koennen.....:rolleyes:

Dawn on Titan
2015-06-12, 13:02:23
Wenn dual-issue wäre man mit Faktor 1,5 für die ALUs für einen ersten großen Chip sicher gut bedient. Also im Bereich von 4000-4600 ALUs.

Hübie
2015-06-12, 13:45:11
Wieso? Weil sie bis jetzt mit dem FP16 Quatsch fuer genug Verwirrung gestiftet haben? Unmoeglich waere es nicht dass sie keiine dedizierte Einheiten mehr benutzen, aber egal ob von den selben ALUs 1:2 oder 1:3 oder eine Unzahl an dedizierten Einheiten mehr gegenueber Maxwell....es aendert kein bisschen etwas daran dass man MEHR Transistoren pro ALU braucht im Vergleich zu GM200. Angenommen NV hat konservativ 2x Mal so viel Transistoren/mm2 unter 16FF im Vergleich zu 28HP verwendet, heisst es eben dann NICHT dass es auch 2x Mal so viel ALUs werden koennen.....:rolleyes:

Das ist richtig denn nicht alles skaliert linear mit dem Prozess. Die maximale Größe dürfte auch <600sqmm liegen.
Braucht man bei mixed precision nicht auch ungleich mehr Register was wieder pJ/Bit kostet?

Gipsel
2015-06-12, 14:02:13
Braucht man bei mixed precision nicht auch ungleich mehr Register was wieder pJ/Bit kostet?Da nV FP16 als SIMD ausführt (2xFP16 in einer 32bit ALU), dürfte es naheliegen, daß das dann auch so in den Registern abgelegt wird. Man spart also mit einer FP16 Variante des Codes gegenüber der Benutzung von FP32 vermutlich ein paar Register (weil ein 32bit Register zwei FP16-Werte halten kann). Der Performancevorteil könnte allerdings durch die dann manchmal (je nach Aufgabe bzw. Code) erforderlichen Swizzles beeinträchtigt werden.

Edgecrusher86
2015-06-12, 14:12:20
Da GP100 kleiner als GK110 und GM200 sein soll, dürften es vermutlich maximal um die 530mm² a la GF100 werden. Nun ja, auch bei maximal 4608 SPs kann man durch Architekturverbesserungen (siehe +40% bei GM 2.0 zu GK) und vermutlich 100-200 MHz mehr Baseclock samt entsprechend hoher Bandbreite durch HBM2 (dürfte ja bei 750 - 800 GB/s laut Slides liegen...1,5 Gbps wären 768 GB/s - bis 2 Gbps sind ja iirc mit HBM2 möglich) sicherlich locker 60% Mehrleistung heraus holen - damit könnte ich mich auch gut abfinden. :)

GP104 dürfte vermutlich zwischen 3072 und 3584 SPs haben sowie mindestens 15-20% vor GM200 liegen, bei 300-400mm². Ich denke schon, dass auch dieser über HBM2 verfügen wird - macht sich ja auch gut für das Marketing, sollte GP104 wie man schon erwarten könnte, im Desktopmarkt einige Monate vor GP100 etwa als "GTX 1080 oder 1800" o.ä. zu $499-599 MSRP mitsamt 8GB HBM2 debütieren. Tapeout könnte hier ja Juli oder August sein. Ein möglicher Launch könnte Anfang April 2016 sein (die GTC (http://www.gputechconf.com/) findet vom 04.04. - 08.04.2016 statt). Zumindest dürfte man dort entsprechende GP100 Tesla oder Quadro-Techdemos präsentieren.

Mal schauen, ist ja noch lange hin.

Ailuros
2015-06-12, 15:05:41
Wer sagt dass Pascal kleiner als GK110 sein soll? Sonst haben afaik die Pascal ALUs nur relativ kleine Aenderungen im Vergleich zu Maxwell.

Wenn man etwas einschaetzen will fuer Pascal muss man lediglich die letzte roadmap aufsuchen. Eine an die ich mich erinnern kann hat SGEMM normalized GFLOPs/W; Maxwell liegt auf 12 waehrend Pascal auf 20....ooooops wohl doch nicht 24.....:eek::rolleyes:

***edit: oder genauer....http://cdn4.wccftech.com/wp-content/uploads/2015/03/Screenshot-90.png

uh oh....wieder nur ~1.75x Mal mehr.......

Dawn on Titan
2015-06-12, 16:12:49
Wobei das ja nicht über die Anzahl erreicht werden muss.

1,5 x Anzahl und 1,1x Takt ist bei Jenson der Sprung von 12 auf 20.

MilesEdgeworth
2015-06-12, 16:31:26
Vor allem der Takt dürfte aber noch schwer einzuschätzen sein.. Noch höhere Taktraten als bei Maxwell auf einem nagelneuen Prozess kann ich mir nur schwer vorstellen. Auch die höhere Packdichte dürfte hohem Takt nicht gerade entgegen kommen?

Nakai
2015-06-12, 16:59:08
Da nV FP16 als SIMD ausführt (2xFP16 in einer 32bit ALU), dürfte es naheliegen, daß das dann auch so in den Registern abgelegt wird. Man spart also mit einer FP16 Variante des Codes gegenüber der Benutzung von FP32 vermutlich ein paar Register (weil ein 32bit Register zwei FP16-Werte halten kann). Der Performancevorteil könnte allerdings durch die dann manchmal (je nach Aufgabe bzw. Code) erforderlichen Swizzles beeinträchtigt werden.

Mhh, bräuchte man dann nicht einen größeren MUX für die Registerfile, weil man eine höhere Granularität hat? Wenn ich pro 32Bit Register doppelt soviel verdrahten muss, weil ich auch die 16Bit Register einzeln ansprechen muss, dann(außer es wird anders gelöst) wird der Verdrahtungsaufwand höher sein.
Man möchte auch grundsätzlich die gesamte Verdrahtung, also ingesamt, immer sehr effektiv halten. Bei GCN ist jede CU am L1-Cache bzw. L2-Cache angebunden und pro Instruction-/Data-Cache nochmal eine Anbindung. Bei 64 CUs sinds schon 96 Hops auf einen Seite und pro L2-Cache mit DualChannel MC einen Hop auf der anderen Seite. Bei Hawaii sind es schon 66:8 Verbindungen und da sind die ganzen anderen Sachen wie GDS, CommandProcessor, etc. nicht integriert.

Gipsel
2015-06-12, 18:20:41
Mhh, bräuchte man dann nicht einen größeren MUX für die Registerfile, weil man eine höhere Granularität hat? Wenn ich pro 32Bit Register doppelt soviel verdrahten muss, weil ich auch die 16Bit Register einzeln ansprechen muss, dann (außer es wird anders gelöst) wird der Verdrahtungsaufwand höher sein.Genau auf die andere Lösung (bzw. eher Nichtlösung) wollte ich hinaus. Bei SSE/AVX und Co. kann man die einzelnen Teile des Registers meist auch nur mit ein paar Extraschritten ansprechen. Typischerweise nimmt man das komplette Register, so wie es ist. Die einzelnen Bestandteile per Swizzles (MUX) direkt ansprechen zu können, ist zwar ein nettes Feature, erforderlich ist es aber nicht. Das kann man also auch einfach sparen. GCN z.B. spart sich ja sogar die höhere Performance von FP16 (eine 32Bit ALU führt auch nur eine 16Bit-Operation aus, nicht wie Maxwell per SIMD 2).

Edgecrusher86
2015-06-12, 19:09:19
Vor allem der Takt dürfte aber noch schwer einzuschätzen sein.. Noch höhere Taktraten als bei Maxwell auf einem nagelneuen Prozess kann ich mir nur schwer vorstellen. Auch die höhere Packdichte dürfte hohem Takt nicht gerade entgegen kommen?

Sollte schon passen. ;)

GT200(b) 65/55nm (GT200 2,43 Mio./mm²) -> Fermi 40nm (5,66 Mio./mm² bei GF100) -> Kepler 28nm (12,89 Mio./mm² bei GK110).

Immer deutlich höhere Taktraten sowie neuer Fertigungsprozess und damit einher gehend über die doppelte Packdichte.

Maxwell in Form des GM200 hat 13,31 Mio. Transistoren pro mm² - bei GP100 dürfte es zwischen 25 - 30 Mio. sein. Den Takt wird man schon mindestens um 100 MHz erhöhen, auch beim großen Chip - da hab ich keine Bedenken. :)

Hübie
2015-06-12, 19:16:05
Genau auf die andere Lösung (bzw. eher Nichtlösung) wollte ich hinaus. Bei SSE/AVX und Co. kann man die einzelnen Teile des Registers meist auch nur mit ein paar Extraschritten ansprechen. Typischerweise nimmt man das komplette Register, so wie es ist. Die einzelnen Bestandteile per Swizzles (MUX) direkt ansprechen zu können, ist zwar ein nettes Feature, erforderlich ist es aber nicht. Das kann man also auch einfach sparen. GCN z.B. spart sich ja sogar die höhere Performance von FP16 (eine 32Bit ALU führt auch nur eine 16Bit-Operation aus, nicht wie Maxwell per SIMD 2).

Vergeudet man dann nicht Durchsatz bzw. braucht mehr cycles oder versteh ich das nicht richtig??

Gipsel
2015-06-12, 19:18:35
Vergeudet man dann nicht Durchsatz bzw. braucht mehr cycles oder versteh ich das nicht richtig??Meinst Du bei GCN? Langsamer wird es da auch nicht. Man benötigt mit FP16 genauso viele ALU-Zyklen wie mit FP32, man spart aber vielleicht ein wenig Strom. Vermutlich kommt erst der allgemeine Support, später dann vielleicht auch höhere Performance (oder auch nicht).
Bei Maxwell spart man Komplexität der ALUs (man kann dann mehr verbauen) auf Kosten der ansonsten in wenigen Fällen vielleicht besseren Performance, wenn man die Swizzle-Möglichkeit der FP16-Hälften eines Registers wegläßt. Die werden sich das schon überlegt haben.

Hugo
2015-06-12, 19:23:12
Wer sagt dass Pascal kleiner als GK110 sein soll? Sonst haben afaik die Pascal ALUs nur relativ kleine Aenderungen im Vergleich zu Maxwell.

Wenn man etwas einschaetzen will fuer Pascal muss man lediglich die letzte roadmap aufsuchen. Eine an die ich mich erinnern kann hat SGEMM normalized GFLOPs/W; Maxwell liegt auf 12 waehrend Pascal auf 20....ooooops wohl doch nicht 24.....:eek::rolleyes:

***edit: oder genauer....http://cdn4.wccftech.com/wp-content/uploads/2015/03/Screenshot-90.png

uh oh....wieder nur ~1.75x Mal mehr.......

Du hast dich verguckt Kepler liegt auf 12 nicht Maxwell
Maxwell sehe ich bei ca22-24 und Pascal bei ca40-42.

Skysnake
2015-06-15, 23:58:38
Schkaischneik hat wohl gleich einen DP relativen Orgasmus wenn er Deinen Post liest :biggrin:
:P

Ich denke nicht, das Pascal bezüglich steriler thepretoscher Max-DP etwas bahnbrechendes bringen wird im Vergleich zur Konkurrenz.

Interessant wird NVLink, und wie sich das mit GPUDirect weiter entwickelt, und halt eben, wie gut die IBM CPUs werden, bzw das Gesamtkonzept, insbesondere bezüglich Interconnect.

Es wird spannend zu sehen, wie sich Omni-Path da schlägt, und ob AMD da endlich mal auch was auf die Beine stellt. APUs wären da wohl am interessantesten aus meinen Augen.

HBM wird bezüglich Pascal auch nichts bahnbrechend Neues bringen, einfach weil die Konkurrenz ähnliches bzw sogar das Gleiche in absehbaren Zeitfenstern bringen wird, bzw eventuell sogar schon hat.

Das Gesamtkonzept sehe ich bei der Pasal-Generation deutlich wichtiger an, als irgend eine Teilkomponente. Dafür sind die Themenfelder die man abdeckt einfach zu weitläufig und zu verschieden. Es wird garantiert keinen Hersteller geben, der in allen Bereichen vorne liegen wird. Am Ende wird wohl der am interessantesten sein, der sich die wenigsten Schwächen leistet, und nicht derjenige, der in irgend einem Teilbereich abrockt wie blöd.

Ailuros
2015-06-16, 11:11:32
Du hast dich verguckt Kepler liegt auf 12 nicht Maxwell
Maxwell sehe ich bei ca22-24 und Pascal bei ca40-42.

Nix verguckt; ich hab mich auf das hier bezogen:

http://www.notebookcheck.net/fileadmin/Notebooks/Sonstiges/NVIDIA/GTC2013/gdc2013_keynote_12.jpg

....aendert aber am eigentlichen Punkt rein gar nichts. Es ist kein Faktor 2x bei Pascal.

:P

Ich denke nicht, das Pascal bezüglich steriler thepretoscher Max-DP etwas bahnbrechendes bringen wird im Vergleich zur Konkurrenz.

Bessere Unterstuetzung als direkt konkurrierende Loesungen.

Interessant wird NVLink, und wie sich das mit GPUDirect weiter entwickelt, und halt eben, wie gut die IBM CPUs werden, bzw das Gesamtkonzept, insbesondere bezüglich Interconnect.

Es wird spannend zu sehen, wie sich Omni-Path da schlägt, und ob AMD da endlich mal auch was auf die Beine stellt. APUs wären da wohl am interessantesten aus meinen Augen.

HBM wird bezüglich Pascal auch nichts bahnbrechend Neues bringen, einfach weil die Konkurrenz ähnliches bzw sogar das Gleiche in absehbaren Zeitfenstern bringen wird, bzw eventuell sogar schon hat.

Das Gesamtkonzept sehe ich bei der Pasal-Generation deutlich wichtiger an, als irgend eine Teilkomponente. Dafür sind die Themenfelder die man abdeckt einfach zu weitläufig und zu verschieden. Es wird garantiert keinen Hersteller geben, der in allen Bereichen vorne liegen wird. Am Ende wird wohl der am interessantesten sein, der sich die wenigsten Schwächen leistet, und nicht derjenige, der in irgend einem Teilbereich abrockt wie blöd.

Wie hoch ist denn Deiner Meinung nach der Marktanteil von NV, AMD und Intel fuer workstation GPUs? Und ja in dem Fall ist eben der "Teilbereich" Quadro bzw. workstation alles andere als unwichtig bei zwar stets niedrigem Volumen aber verdammt hohen Margen. Auf jeden Fall greift erstmal NVIDIA nicht zur Verzweiflungs-loesung irgendwelche Teslas bzw. Quadros zu verschenken und ja eben so "irrelevant" sind eben solche "Einzelheiten".

Godmode
2015-06-16, 11:41:01
Auf jeden Fall greift erstmal NVIDIA nicht zur Verzweiflungs-loesung irgendwelche Teslas bzw. Quadros zu verschenken und ja eben so "irrelevant" sind eben solche "Einzelheiten".

Meinst du hier Intel?

Ailuros
2015-06-16, 12:03:35
Meinst du hier Intel?

Ja (ist aber auch ziemlich offensichtlich das AMD sich nie so etwas leisten koennte). Darauf sollte mal jemand nachfragen wie viele wafer runs fuer Fiji AMD fuer den launch wirklich vorbestellt hat.

Skysnake
2015-06-17, 08:06:38
Wie hoch ist denn Deiner Meinung nach der Marktanteil von NV, AMD und Intel fuer workstation GPUs? Und ja in dem Fall ist eben der "Teilbereich" Quadro bzw. workstation alles andere als unwichtig bei zwar stets niedrigem Volumen aber verdammt hohen Margen. Auf jeden Fall greift erstmal NVIDIA nicht zur Verzweiflungs-loesung irgendwelche Teslas bzw. Quadros zu verschenken und ja eben so "irrelevant" sind eben solche "Einzelheiten".
Das sind halt wieder Äpfel<->Birnen Vergleiche.

CAD kannste doch praktisch gar nicht in einen Topf werfen mit Compute. nVidias entscheidung mit Quadro+Tesla war daher gar nicht doof!

Im Bereich CAD und allem was mit Grafik zu tun hat, hat Intel wohl 0,0% Marktanteil. Die haben da halt einfach nichts. nVidia sollte da wohl >>50% haben, wo genau keine Ahnung, wobei die kleinen Karten wohl >80% vom Gesamtumsatz ausmachen werden. Da geht es ja oft allein um die Zertifizierungen. AMD hat da sehr lange geschlafen und zurecht wenig Marktanteil gehabt. Hat man aber in den letzten 1-2 Jahren aber auch geändert, nützt aber eben nur bedingt etwas, wenn bei den Einkäufern nVidia halt schon vorgesehen ist, wegen einheitlicher Hardwarebasis usw usf.

Bei Compute wirds aktuell aber interessanter. Intel muss aktuell ihre Dinger verschenken, Sie können sich das aber auch bedingt leisten. KNF/KNC sind halt noch sehr nah an Larrabee dran, welcher ja ein offensichtlicher Schuss in den Ofen war/ist. Von daher hat man sich gar nicht so schlecht geschlagen gegen AMD und nVidia. KNL ist da ein anderes Kaliber, was wirklich auf den Einsatzbereich 100% ausgelegt ist.

nVidias Problem ist doch mit Pascal nur, das man mit Maxwell halt rein gar nichs für den Compute Markt gebrachat hat. CAD-Markt tangiert das nicht mal wirklich, da Intel kein Konkurrent ist, und AMD mit Fiji wohl auch nicht im Highend CAD wildern kann, wegen dem für diesen Bereich zu kleinen RAM. Also ändert sich nichts Hawaii<->GKx10, und das lief ja bisher auch zufriedenstellend.

Für Compute ist es aber GKx10 vs Fiji/KNL. Und da wird der Leistungsunterschied und auch Perf/W halt nicht irgendwo bei +/- 10% liegen, was man noch verschmerzen kann, oder auch vielleicht noch 20%, sondern weit darüber. Das wird nVidia weh tun, bis Pascal kommt.

Die Frage wird sein, bis wann Pascal genau kommt, und wie lange man eben quasi mit runtergelassenen Hosen dasteht.

Ein Vorteil wird sein, das man halt gleich HBM2 einsetzt. Da wird es spannend sein, ob AMD "einfach" HBM2 auf Fiji bringen kann, oder nicht. Wenn nein, muss sich Pascal wohl nicht so sehr mit AMD rum schlagen, sondern nur mit KNL, was natürlich sehr erfreulich für Sie wäre.

Aber man wird sich irgendwo auf Augenhöhe bewegen zur Konkurrenz. Es sind halt auch dann alles aktuelle Chips, und kein Kampf zwischen Chips die zwei Generationen auseinander liegen. Wenn da der alte Chip nicht ziemlich schlecht aussehen würde, würde auch etwas gewaltig schief laufen.

Kurz um, die Produktzyklen laufen aktuell einfach ziemlich weit auseinander im Compute-Markt. Das ist aber ziemlich abnormal und sollte sich auch hoffentlich bald wieder normalisieren.

Ailuros
2015-06-17, 10:32:10
Das sind halt wieder Äpfel<->Birnen Vergleiche.

Eben nicht; Profi-Maerkte sind Profi-Maerkte und es entwickelt weder NV noch AMD irgendwelche getrennte hw fuer workstations und supercomputers.

CAD kannste doch praktisch gar nicht in einen Topf werfen mit Compute. nVidias entscheidung mit Quadro+Tesla war daher gar nicht doof!

Wieso? Weil Intel zu daemlich ist den Markt auch zu bedienen oder weil AMD's Unterstuetzung dafuer immer noch zu wuenschen uebrig laesst?

Im Bereich CAD und allem was mit Grafik zu tun hat, hat Intel wohl 0,0% Marktanteil. Die haben da halt einfach nichts. nVidia sollte da wohl >>50% haben, wo genau keine Ahnung, wobei die kleinen Karten wohl >80% vom Gesamtumsatz ausmachen werden. Da geht es ja oft allein um die Zertifizierungen. AMD hat da sehr lange geschlafen und zurecht wenig Marktanteil gehabt. Hat man aber in den letzten 1-2 Jahren aber auch geändert, nützt aber eben nur bedingt etwas, wenn bei den Einkäufern nVidia halt schon vorgesehen ist, wegen einheitlicher Hardwarebasis usw usf.

Keine Ahnung ob es sich etwas fundamental geaendert hat in letzter Zeit aber NV's workstation Marktanteil war ueber etliche Jahre bei zumindest 80% welches schon fast einem Monopol gleicht.

Bei Compute wirds aktuell aber interessanter. Intel muss aktuell ihre Dinger verschenken, Sie können sich das aber auch bedingt leisten. KNF/KNC sind halt noch sehr nah an Larrabee dran, welcher ja ein offensichtlicher Schuss in den Ofen war/ist. Von daher hat man sich gar nicht so schlecht geschlagen gegen AMD und nVidia. KNL ist da ein anderes Kaliber, was wirklich auf den Einsatzbereich 100% ausgelegt ist.

Ach und wer sagt dass kommende Generationen irgendwie besser ausgelegt sein sollten als die bisherigen Larabee Ableger? KNL ist noch nicht verfuegbar, ergo hat Intel dafuer noch Zeit auch diese langfristig zu verschenken falls sie es doch nicht loswerden sollte wie sich viele zu erhoffen scheinen.

Was heisst Intel hat sich nicht schlecht geschlagen? Sie haben von dem Mist weder irgendwelchen Gewinn reingeholt bisher noch konnten sie je die enormen Entwicklungskosten dafuer decken seit dem ersten Larabee FLOP. Mach mal jetzt den Bogen und vergleiche was NV in den gesamten vergangenen Jahren fuer jegliche Quadro und Tesla pro Generation dazugewonnen haben. Selbst wenn das Tesla Geschaeft fuer NV nur den Anteil ihrer Ausgaben dafuer decken sollte, ist die Gewinnrate fuer die noch teureren (im high end) Quadros so hoch dass es ihnen wirklich scheissegal sein sollte.

Von Unterstuetzung und jeglicher sw Initiative und Investitionen seitens NV mal ganz zu schweigen.

nVidias Problem ist doch mit Pascal nur, das man mit Maxwell halt rein gar nichs für den Compute Markt gebrachat hat. CAD-Markt tangiert das nicht mal wirklich, da Intel kein Konkurrent ist, und AMD mit Fiji wohl auch nicht im Highend CAD wildern kann, wegen dem für diesen Bereich zu kleinen RAM. Also ändert sich nichts Hawaii<->GKx10, und das lief ja bisher auch zufriedenstellend.

Wo genau siehst Du das Problem? Die kurze Zeit zwischen GM200 und GP100 koennen sie durchaus und sogar locker verkraften erstens weil AMD Fijis sowieso nur in minimalsten Mengen anfangs herstellen wird (sprich die Herstellung ist noch zu verdammt teuer fuer groessere Mengen...) und von KNL ist auch noch fuer einige Zeit nichts zu sehen.

Für Compute ist es aber GKx10 vs Fiji/KNL. Und da wird der Leistungsunterschied und auch Perf/W halt nicht irgendwo bei +/- 10% liegen, was man noch verschmerzen kann, oder auch vielleicht noch 20%, sondern weit darüber. Das wird nVidia weh tun, bis Pascal kommt.

Bullshit.

Die Frage wird sein, bis wann Pascal genau kommt, und wie lange man eben quasi mit runtergelassenen Hosen dasteht.

Zum Zeitpunkt wo HBM mit anstaendigeren Speichermengen sich zu logischeren Preisen herstellen laesst.

Ein Vorteil wird sein, das man halt gleich HBM2 einsetzt. Da wird es spannend sein, ob AMD "einfach" HBM2 auf Fiji bringen kann, oder nicht. Wenn nein, muss sich Pascal wohl nicht so sehr mit AMD rum schlagen, sondern nur mit KNL, was natürlich sehr erfreulich für Sie wäre.

Bingo fuers erste. KNL ob eigene Herstellung oder nicht wird auch nicht soooo leicht nach Plan laufen *hust*

Aber man wird sich irgendwo auf Augenhöhe bewegen zur Konkurrenz. Es sind halt auch dann alles aktuelle Chips, und kein Kampf zwischen Chips die zwei Generationen auseinander liegen. Wenn da der alte Chip nicht ziemlich schlecht aussehen würde, würde auch etwas gewaltig schief laufen.

Kurz um, die Produktzyklen laufen aktuell einfach ziemlich weit auseinander im Compute-Markt. Das ist aber ziemlich abnormal und sollte sich auch hoffentlich bald wieder normalisieren.

NV hat ihren Grund ihre roadmaps kurzfristig jeglicher neuen Realitaet anzupassen. Sie sind auch so organisiert dass es auch stets klappt. AMD mit ihrem fehlenden Bums-resources wohl nicht und bei Intel schnappt jedesmal deren buerokratischer Hintern einfach zu in solchen Faellen.

Skysnake
2015-06-17, 11:33:09
Eben nicht; Profi-Maerkte sind Profi-Maerkte und es entwickelt weder NV noch AMD irgendwelche getrennte hw fuer workstations und supercomputers.

Na, Compute/HPC und CAD sollte man schon trennen. Bei Compute gehen auch immer irgendwelche Beschleuniger(FPGAs) und Cluster-on-Chip usw mit ins Rennen. Das spielt bei dem ganzen CAD Geraffel alles gar keine Rolle. Da sind ganz klassische Grafikananforderungen vorhanden. Larrabee hätte das bedienen können, aber Intel hat das ja komplett fallen lassen, wobei KNF und ich vermute mal sogar noch KNC wohl sogar noch die Hardware dazu verbaut gehabt hätte. (Reine Spekulation meinerseits).

Nur weil AMD und nVidia beide Märkte bedienen kann man meiner Meinung nach nicht so tun, als ob dass die gleichen Märkte wären.


Wieso? Weil Intel zu daemlich ist den Markt auch zu bedienen oder weil AMD's Unterstuetzung dafuer immer noch zu wuenschen uebrig laesst?

Weil Sie damit die FEM und Compute Visualisierungsanforderungen gut bedienen, ohne sich die Marge von den Quadros kaputt zu machen. Es ist halt ein Service, den man sich auch bezahlen lässt, und das zu Recht.

Intel tut gut daran sich aus dem MArkt raus zu halten. Also zumindest noch. Mal schauen, ob Sie es in den nächsten Jahren mit ihren iGPUs versuchen, aber ich denke eher nicht.

AMD verkackt es halt immer wieder an einzelnen Stellen, und ansonsten muss man sich halt immer Fragen wenn man umsteigt: "Warum sollte ich von einem Hersteller mit dem ich zufrieden bin umsteigen?" Insbesondere bei CAD seh ich da keinen Grund. nVidia leistet sich keine groben Fehler, oder zumindest hört man von keinen, und da eh der meiste Umsatz mit den kleinen Karten kommt, wo man auch preislich absolut konkurrenzfähig ist in meinen Augen, ist das mit den Wechslern halt so eine Sache. AMD bekommt da halt die Quittung für die Jahre, wo Sie es einfach verkackt haben.


Keine Ahnung ob es sich etwas fundamental geaendert hat in letzter Zeit aber NV's workstation Marktanteil war ueber etliche Jahre bei zumindest 80% welches schon fast einem Monopol gleicht.

Deswegen sage ich ja auch >>50%. Ob das jetzt 70, 80 oder 90% sind, keine Ahnung.

Genau Aufschlüsselungen nach den Teilmärkten findeste ja nicht. Vor allem keine aktuellen. Alles was älter als 1-2 Jahre ist, kannste AMD eh in die Tonne treten.


Ach und wer sagt dass kommende Generationen irgendwie besser ausgelegt sein sollten als die bisherigen Larabee Ableger? KNL ist noch nicht verfuegbar, ergo hat Intel dafuer noch Zeit auch diese langfristig zu verschenken falls sie es doch nicht loswerden sollte wie sich viele zu erhoffen scheinen.

Sie bringen ooO Kerne, bringen zwei 512Bit ALUs pro Kern, bringen HBM. Das sagen wir mal ist das was die Konkurrenz auch bringt. Dazu kommt aber noch massig DDR4 und eben die Fabric, was Alleinstellungsmerkmale sind, wie nVidias GPUDirect.

Wobei das Ding mit der Fabric will ich erstmal funktionieren sehen....


Was heisst Intel hat sich nicht schlecht geschlagen? Sie haben von dem Mist weder irgendwelchen Gewinn reingeholt bisher noch konnten sie je die enormen Entwicklungskosten dafuer decken seit dem ersten Larabee FLOP.

Definitiv, aber hast du an sich gedacht, das Intel überhaupt schafft so einen Schwenk hin zu legen? Ich finde es auch dort nicht sinnvoll aus der Sicht Intels zu argumentieren. Die müssen nicht zwingend Gewinn damit machen. Für sie reicht es den anderen in die Suppe zu spucken. DAs tut AMD und nVidia VIEL mehr weh, als Intel irgendwelche nicht realisierten Gewinne. Wenn die 0 auf 0 rauskommen, dann ist das mehr als genug für die aktuell. Wenn Sie mal nen Marktanteil >50% haben, dann werden Sie anfangen die Leute zu melken, genau wie nVidia es macht.


Mach mal jetzt den Bogen und vergleiche was NV in den gesamten vergangenen Jahren fuer jegliche Quadro und Tesla pro Generation dazugewonnen haben. Selbst wenn das Tesla Geschaeft fuer NV nur den Anteil ihrer Ausgaben dafuer decken sollte, ist die Gewinnrate fuer die noch teureren (im high end) Quadros so hoch dass es ihnen wirklich scheissegal sein sollte.

Von Unterstuetzung und jeglicher sw Initiative und Investitionen seitens NV mal ganz zu schweigen.

Es ist doch wie immer. Jedes verlorene Prozent Marktanteil tut weh, weil man die Entwicklungskosten weniger aufsplitten kann. Natürlich wird selbst ein Verlust von 50% ihres Marktanteils im HPC-Bereich Sie nicht umbringen, aber es wird weh tun.


Wo genau siehst Du das Problem? Die kurze Zeit zwischen GM200 und GP100 koennen sie durchaus und sogar locker verkraften erstens weil AMD Fijis sowieso nur in minimalsten Mengen anfangs herstellen wird (sprich die Herstellung ist noch zu verdammt teuer fuer groessere Mengen...) und von KNL ist auch noch fuer einige Zeit nichts zu sehen.

Definiere kurze Zeit. Wenns ein halbes JAhr ist, dann ja, aber dann sollte man so Q1/16 mal langsam kommen. Wenns auf Q2, eher Q3/16 rausläuft, wovon ich eher ausgehe für Tesla/Quadro, dann ist das schon eine lange Zeit.

bzgl. KNL:
Es ist halt ein big Iron. Intel kann sich daran verlupfen, genau wie sich IBM an ihren optischen Backplane usw Supercomputer verhoben hat, und ja für mich macht es auch eher den Eindruck, das Sie sich daran verhoben haben... Aber das kann keiner von uns ernsthaft sagen, wie groß ihre Probleme wirklich noch sind, bis Sie das Ding wirklich in Massenproduktion launchen können.

Zur ISC in Frankfurt etwa? Oder doch erst zu SC später im Jahr? Zu einem der beiden Termine denke ich wird es sein. IDF könnte noch eine weitere Möglichkeit sein. Wenn Sie sich nicht definitiv daran verlupft haben, ist es aber noch 2015, und damit meine ich spätestens Anfang Q4/15, also mindestens 6 Monate vor Pascal.


Bullshit.

Du gehst also ernsthaft von weniger als 50% Perf/W Unterschied aus bei Linpack bei GK110 vs Fiji/KNL? Das halte ich für unrealistisch, und für Bandbreitenlimitierte Programme würde ich sogar noch einen größeren Unterschied erwarten als bei Linpack bezüglich Effizienz.


Zum Zeitpunkt wo HBM mit anstaendigeren Speichermengen sich zu logischeren Preisen herstellen laesst.

Da sind wir uns einig, wobei das zumindest für die 8 high stacks später sein könnte als man denkt. Ich rechne mit 8 high stacks nicht vor 2H16


Bingo fuers erste. KNL ob eigene Herstellung oder nicht wird auch nicht soooo leicht nach Plan laufen *hust*

Vor allem nicht das Ding mit der Fabric, was für mich der einzige Konkurrent ist, der Pascal auch Kopfschmerzen machen könnte. Bei allem anderen wird Pascal auf Augenhöhe sein, ich hoffe da erwarten man nichts anderes.


NV hat ihren Grund ihre roadmaps kurzfristig jeglicher neuen Realitaet anzupassen. Sie sind auch so organisiert dass es auch stets klappt. AMD mit ihrem fehlenden Bums-resources wohl nicht und bei Intel schnappt jedesmal deren buerokratischer Hintern einfach zu in solchen Faellen.
Ändert aber nichts daran, das man sich eben selbst für einen gewissen Zeitraum ins Abseits gestellt hat. Ob das jetzt am Ende genau die richtige Entscheidung war oder nicht hängt doch davon ab, wie es mit KNL, Fiji, sowie deren jeweiligen Nachfolgern und eben Pascal läuft.

Pascal kommt wohl in der ersten Produkthälfte der Konkurrenzprodukte. Wenn alles nach plan läuft im ersten Drittel wohl noch, wenns aber schief läuft ala GF100, dann kann wohl sogar ans Ende rutschen, und heute kann doch noch niemand sagen, ob es glatt läuft oder Probleme gibt. Das ist ein Risiko in meinen Augen, das sich auszahlen kann, dann werden alle sagen, nVidia hat alles richtig gemacht, oder es geht schief, und dann stehen Sie echt dumm da.

Also ich empfinde das nicht für sooo klug. Das riecht für mich zu sehr nach AMD style an diesem Punkt, und wir wissen ja wie oft das schon schief lief...

Ailuros
2015-06-17, 16:13:21
Nur weil AMD und nVidia beide Märkte bedienen kann man meiner Meinung nach nicht so tun, als ob dass die gleichen Märkte wären.

Es geht hier um die hardware und nicht Deinen ausgekapselten moechtegern Markt-analysen. Kein IHV konzipiert und entwickelt hardware in einem Vakuum und nur weil Intel ihren Mist nicht woanders als nur fuer HPC verkaufen kann weil es auch fuer nichts anderes nutzt, heisst es noch lange gar nichts. Die Aussnahme macht nicht die Regel.


Weil Sie damit die FEM und Compute Visualisierungsanforderungen gut bedienen, ohne sich die Marge von den Quadros kaputt zu machen. Es ist halt ein Service, den man sich auch bezahlen lässt, und das zu Recht.

Intel tut gut daran sich aus dem MArkt raus zu halten. Also zumindest noch. Mal schauen, ob Sie es in den nächsten Jahren mit ihren iGPUs versuchen, aber ich denke eher nicht.

AMD verkackt es halt immer wieder an einzelnen Stellen, und ansonsten muss man sich halt immer Fragen wenn man umsteigt: "Warum sollte ich von einem Hersteller mit dem ich zufrieden bin umsteigen?"

Aendert nicht viel am obrigen.

Insbesondere bei CAD seh ich da keinen Grund. nVidia leistet sich keine groben Fehler, oder zumindest hört man von keinen, und da eh der meiste Umsatz mit den kleinen Karten kommt, wo man auch preislich absolut konkurrenzfähig ist in meinen Augen, ist das mit den Wechslern halt so eine Sache. AMD bekommt da halt die Quittung für die Jahre, wo Sie es einfach verkackt haben.

High end Quadros gehen in die 5k Region, AMD's high end FirePros um die 3k.

Deswegen sage ich ja auch >>50%. Ob das jetzt 70, 80 oder 90% sind, keine Ahnung.

Genau Aufschlüsselungen nach den Teilmärkten findeste ja nicht. Vor allem keine aktuellen. Alles was älter als 1-2 Jahre ist, kannste AMD eh in die Tonne treten.

Wie gesagt ich weiss nicht wie es heute aussieht, aber beim letzten Mal war es stabil ueber 80% fuer NV.

Sie bringen ooO Kerne, bringen zwei 512Bit ALUs pro Kern, bringen HBM. Das sagen wir mal ist das was die Konkurrenz auch bringt. Dazu kommt aber noch massig DDR4 und eben die Fabric, was Alleinstellungsmerkmale sind, wie nVidias GPUDirect.

Ja und?

Wobei das Ding mit der Fabric will ich erstmal funktionieren sehen....

Das bleibt abzusehen. Der springende Punkt ist dass es wohl so oder so nicht genug sein wird einen jeglichen sehenswerten Vorsprung zu haben ausserhalb vom ueblichen Marketing-Gefusel.


Definitiv, aber hast du an sich gedacht, das Intel überhaupt schafft so einen Schwenk hin zu legen? Ich finde es auch dort nicht sinnvoll aus der Sicht Intels zu argumentieren. Die müssen nicht zwingend Gewinn damit machen. Für sie reicht es den anderen in die Suppe zu spucken. DAs tut AMD und nVidia VIEL mehr weh, als Intel irgendwelche nicht realisierten Gewinne. Wenn die 0 auf 0 rauskommen, dann ist das mehr als genug für die aktuell. Wenn Sie mal nen Marktanteil >50% haben, dann werden Sie anfangen die Leute zu melken, genau wie nVidia es macht.

Intel kauft sich verdammt teuer fuer GPUs am ganz oberen (HPC) und am ganz unteren Ende (ULP SoC) ein. Erzaehl mal warum mir mein Bauchgefuehl sagt dass es langfristig zu nichts besonderem fuehren kann. Wenn man von N% Marktanteil einen anstaendigen Batzen an Einheiten verschenkt, dann ist ist nochmal mehr Verlust fuer den garantierten Verlust.

Es ist doch wie immer. Jedes verlorene Prozent Marktanteil tut weh, weil man die Entwicklungskosten weniger aufsplitten kann. Natürlich wird selbst ein Verlust von 50% ihres Marktanteils im HPC-Bereich Sie nicht umbringen, aber es wird weh tun.

Intel ist nichtmal annaehernd auf dem Weg einen so hohen Marktanteil im HPC zu erreichen.


Definiere kurze Zeit. Wenns ein halbes JAhr ist, dann ja, aber dann sollte man so Q1/16 mal langsam kommen. Wenns auf Q2, eher Q3/16 rausläuft, wovon ich eher ausgehe für Tesla/Quadro, dann ist das schon eine lange Zeit.

Du solltest wohl lieber im Hintergrund fragen wann Intel wirklich liefern wird und dann reden wir weiter.

bzgl. KNL:
Es ist halt ein big Iron. Intel kann sich daran verlupfen, genau wie sich IBM an ihren optischen Backplane usw Supercomputer verhoben hat, und ja für mich macht es auch eher den Eindruck, das Sie sich daran verhoben haben... Aber das kann keiner von uns ernsthaft sagen, wie groß ihre Probleme wirklich noch sind, bis Sie das Ding wirklich in Massenproduktion launchen können.

Echt? :P

Du gehst also ernsthaft von weniger als 50% Perf/W Unterschied aus bei Linpack bei GK110 vs Fiji/KNL? Das halte ich für unrealistisch, und für Bandbreitenlimitierte Programme würde ich sogar noch einen größeren Unterschied erwarten als bei Linpack bezüglich Effizienz.

Nein. Du solltest eher fragen wann Fiji es erstmal in Supercomputers schaffen wird und dann wann KNL. Ich hab nirgends GK110 oder dergleichen mit den anderen verglichen.


Ändert aber nichts daran, das man sich eben selbst für einen gewissen Zeitraum ins Abseits gestellt hat. Ob das jetzt am Ende genau die richtige Entscheidung war oder nicht hängt doch davon ab, wie es mit KNL, Fiji, sowie deren jeweiligen Nachfolgern und eben Pascal läuft.

NV entwickelt eben NICHT wie Intel einen bloeden Brocken der nur fuer HPC etwas taugt. Die Effizienz muss hier fuer GeForce, Quadro und Tesla stimmen. Fuer 28nm war FP64 wohl zu viel verlangt, 20SOC ist Material fuer die Muelltonne ergo mussten sie zwangsmaessig auf FinFET Prozesse warten und selbst die sind nicht das was sich die foundries versprochen hatten, denn Pascal ist auch nur ein midlife kicker bis Volta erscheint.

Wenn meine Infos nicht falsch liegen wird AMD Fiji fuer den Anfang nur in kleinsten Portionen herstellen und ich frage mich auch ernsthaft ob sie ueberhaupt etwas anstaendiges im desktop von den Dingern verdienen werden.

KNL ist eine Einzelfliege wobei Du es schon theoretisch gerechtfertigt von anderen Maerkten wie workstation separierst, aber HPC alleine reicht eben NICHT um die Kosten eines so komplizierten Projekts zu decken und dabei ist es scheissegal ob Intel oder nicht.

Pascal kommt wohl in der ersten Produkthälfte der Konkurrenzprodukte. Wenn alles nach plan läuft im ersten Drittel wohl noch, wenns aber schief läuft ala GF100, dann kann wohl sogar ans Ende rutschen, und heute kann doch noch niemand sagen, ob es glatt läuft oder Probleme gibt. Das ist ein Risiko in meinen Augen, das sich auszahlen kann, dann werden alle sagen, nVidia hat alles richtig gemacht, oder es geht schief, und dann stehen Sie echt dumm da.

NV hat traditionell weniger Probleme und Wehwechen als ihre direkte Konkurrenten und ueberhaupt Intel. Diesbezueglich wuerde ich das Thema an Deiner Stelle anstandshalber gar nicht beruehren ueberhaupt wenn es Intel bis jetzt NICHT schaffte einen einzigen LRB Nachfolger zeitlich zu veroeffentlichen :P

Also ich empfinde das nicht für sooo klug. Das riecht für mich zu sehr nach AMD style an diesem Punkt, und wir wissen ja wie oft das schon schief lief...

Siehe nur einen Paragraph weiter oben ;)

Skysnake
2015-06-17, 19:06:00
Ich will nur kurz zwei Sachen anmerken, unsere Ansichten gehen da in Details einfach auseinander, und es ist müßig da weiter als bisher drüber zu reden, weil das erst die Zeit zeigen wird, und keine Argumentationen von uns.

1. KNL
Wenn du meinst die Fabric wäre kein nennenswerter Vorteil, dann ist es GPUDirect2 und vor allem nVLink auch nicht, und das kann ich absolut nicht unterschreiben.
Bei der Fabric sollte man vor allem eins aber nicht vergessen. Intel hat irgendwas >80% Marktanteil bei den CPUs im HPC-Bereich, wenn ich es richtig in Erinnerung habe. Jetzt rate mal, was Intel für einen Plan mit ihrem massiven Einstieg ins Interconnect-Geschäft und OmniPath verfolgt... Die wollen wie IBM ein geschlossenes Ökosystem errichten, bei dem du alles aus einer Hand bekommst. An sich ist es auch klar, dass das so kommen muss. Die Effizienzanforderungen zwingen dich einfach zu immer weiter ansteigender Integration. Daher ist der Schritt einfach logisch.

Intel ist aber Intel. Die haben die Ressourcen um alles selbst zu machen. Wer glaubt OmniPath würde für andere Firmen geöffnet, der irrt sich meiner Meinung nach. Intel wäre blöd, wenn Sie sich den Vendorlockin durch die Lappen gehen lassen würden. Da mag nVidia besser sein bei den Accelarators, und Mellanox bei den Interconnects usw. aber in Summe wird es schwer werden Intel die Stirn zu bieten. Da wird es eher spannend, ob die Branche das IntelSpiel mit macht. Ich gehe aber davon aus. Man sieht ja, was bei den CPUs inzwischen passiert ist, obwohl es da mit AMD, Fujitsu, IBM und SPARC/Oracle an sich ja durchaus potenzielle Konkurrenten geben sollte. Daher sehe ich das mit den hinterhergeschmissenen XeonPhis auch nicht soooo kritisch. Damit ebnet man nur noch mehr den Weg für eine übermächtige Dominanz.

2. Wann kommt was.
Man könnte jetzt lang und breit drüber spekulieren, wann was kommt. Bei KNL scheint nicht alles rund zu laufen, aber das wars auch, wobei völlig unklar ist, was da jetzt das/die Problem/e ist/sind. Es ist auch gar nicht klar, ob die überhaupt noch bestehen. Wenn du da etwas weißt, dann immer her damit, ich kenne nur das Netzgeflüster, und das ist ziemlich fürn Poppes.

Für AMD genau das Gleiche. Es ist gar nicht klar, wo da die Ursachen liegen. Mal hört man von Problemen mit TSVs allgemein, dann wieder mit allgemeinen Problemen mit Interposern, dann wieder mit der Validierung usw usf.

Da scheint allgemein überall Sand im Getriebe zu sein, ganz unabhängig von einem spefizischen Punkt und Hersteller. Da zu glauben nVidia würde problemlos durchrutschen finde ich auch etwas gewagt, auch wenn Sie natürlich als letzter in der Reihe einen Vorteil durch die Vorarbeit der Konkurrenz haben, aber das heist noch lange nicht, das bei ihnen alles Rund läuft.

Man sieht doch wie du selbst schon so schön gesagt hast, das nVidia sich immer wieder korrigieren muss in ihren Roadmaps. Das zeigt doch, das es bei ihnen auch nicht wirklich rund läuft, und ich denke nicht, dass du ernsthaft erwartest, dass Sie selbst ihre korrigierten Planungen 100% erfüllen werden. Da wird es noch an so mancher Stelle zu Korrekturen kommen. Vor allem weil Sie ja ziemlich sicher noch keine Pascal Samples in der Hand halten werden.

Intel und AMD haben Samples bzw fast fertige Produkte. Das ist schon ein Unterschied in der Unsicherheit bezüglich möglichen unerwarteten Problemen.

Hübie
2015-06-17, 20:58:04
Ich denke ein großes Problem ist noch die tatsächliche Ausbeute. Man kann die vielleicht eins-, zweimal nacharbeiten, aber irgendwann ist dann Schluß. Und das kostet halt auch.

Und ja: NVLINK oder überhaupt jegliche OnChip-Networks werden immer wichtiger. Als die Leistung vor 7 Jahren "explodierte" vergaß man halt einige Dinge. Dazu gehört interchip com und halt auch offchip bandwidth.
So wie ich das beurteilen kann habt ihr beide auch völlig Recht. Einerseits ist Profi-Markt=Profi-Markt aber andererseits verhalten sich die unterschiedlichen (Teil-)Märkte auch oft nicht gleich bzgl. Zyklus, Marge, Menge und sowas.
nVidia fährt erst künftig 2-gleisig (oder 1,5-gleisig denn einen ded- HPC-Chip entwickelt man u. U. niemals).
Bisher waren es nur eins, zwei Widerstände und ein BIOS das GeForce und Quadro trennten. Das wird sich ändern. Teslas haben ja jetzt oftmals schon ein völlig eigenes Boardesign (K20X z.B.).

Ailuros
2015-06-18, 11:32:50
Ich will nur kurz zwei Sachen anmerken, unsere Ansichten gehen da in Details einfach auseinander, und es ist müßig da weiter als bisher drüber zu reden, weil das erst die Zeit zeigen wird, und keine Argumentationen von uns.

Tatsaechlich gehen sie auseinander, eben weil ich rein zufaellig NICHT voreingenommen gegen jeglichen IHV bin.

1. KNL
Wenn du meinst die Fabric wäre kein nennenswerter Vorteil, dann ist es GPUDirect2 und vor allem nVLink auch nicht, und das kann ich absolut nicht unterschreiben.
Bei der Fabric sollte man vor allem eins aber nicht vergessen. Intel hat irgendwas >80% Marktanteil bei den CPUs im HPC-Bereich, wenn ich es richtig in Erinnerung habe. Jetzt rate mal, was Intel für einen Plan mit ihrem massiven Einstieg ins Interconnect-Geschäft und OmniPath verfolgt... Die wollen wie IBM ein geschlossenes Ökosystem errichten, bei dem du alles aus einer Hand bekommst. An sich ist es auch klar, dass das so kommen muss. Die Effizienzanforderungen zwingen dich einfach zu immer weiter ansteigender Integration. Daher ist der Schritt einfach logisch.

Wenn sie auch wirklich rundum so toll waeren mit HPC GPUs wuerden sie sie auch nicht momentan verschenken muessen um sie loszuwerden.

Intel ist aber Intel. Die haben die Ressourcen um alles selbst zu machen. Wer glaubt OmniPath würde für andere Firmen geöffnet, der irrt sich meiner Meinung nach. Intel wäre blöd, wenn Sie sich den Vendorlockin durch die Lappen gehen lassen würden. Da mag nVidia besser sein bei den Accelarators, und Mellanox bei den Interconnects usw. aber in Summe wird es schwer werden Intel die Stirn zu bieten. Da wird es eher spannend, ob die Branche das IntelSpiel mit macht. Ich gehe aber davon aus. Man sieht ja, was bei den CPUs inzwischen passiert ist, obwohl es da mit AMD, Fujitsu, IBM und SPARC/Oracle an sich ja durchaus potenzielle Konkurrenten geben sollte. Daher sehe ich das mit den hinterhergeschmissenen XeonPhis auch nicht soooo kritisch. Damit ebnet man nur noch mehr den Weg für eine übermächtige Dominanz.

Von der angeblichen "Dominanz" lese ich schon vor Larabee fuer Intel. Ich seh nur nichts davon bis jetzt :freak:

2. Wann kommt was.
Man könnte jetzt lang und breit drüber spekulieren, wann was kommt. Bei KNL scheint nicht alles rund zu laufen, aber das wars auch, wobei völlig unklar ist, was da jetzt das/die Problem/e ist/sind. Es ist auch gar nicht klar, ob die überhaupt noch bestehen. Wenn du da etwas weißt, dann immer her damit, ich kenne nur das Netzgeflüster, und das ist ziemlich fürn Poppes.

Für AMD genau das Gleiche. Es ist gar nicht klar, wo da die Ursachen liegen. Mal hört man von Problemen mit TSVs allgemein, dann wieder mit allgemeinen Problemen mit Interposern, dann wieder mit der Validierung usw usf.

Da scheint allgemein überall Sand im Getriebe zu sein, ganz unabhängig von einem spefizischen Punkt und Hersteller. Da zu glauben nVidia würde problemlos durchrutschen finde ich auch etwas gewagt, auch wenn Sie natürlich als letzter in der Reihe einen Vorteil durch die Vorarbeit der Konkurrenz haben, aber das heist noch lange nicht, das bei ihnen alles Rund läuft.

Welche Vorarbeit genau? Weder Pascal noch Volta haben irgend etwas fundamental gemeinsames mit KNL oder Fiji.

Man sieht doch wie du selbst schon so schön gesagt hast, das nVidia sich immer wieder korrigieren muss in ihren Roadmaps. Das zeigt doch, das es bei ihnen auch nicht wirklich rund läuft, und ich denke nicht, dass du ernsthaft erwartest, dass Sie selbst ihre korrigierten Planungen 100% erfüllen werden. Da wird es noch an so mancher Stelle zu Korrekturen kommen. Vor allem weil Sie ja ziemlich sicher noch keine Pascal Samples in der Hand halten werden.

Es heisst FLEXIBILITAET die die anderen eben nicht haben.

Intel und AMD haben Samples bzw fast fertige Produkte. Das ist schon ein Unterschied in der Unsicherheit bezüglich möglichen unerwarteten Problemen.

Nur bruetet AMD schon seit Monaten auf Fiji weil die Treiber nicht fertig waren. Wenn Du Dich selber verarschen willst, besuch Deinen Spiegel :freak:

Skysnake
2015-06-18, 11:59:00
Die gleiche Vorarbeit, wie Xilinx mit Interposern schon geleistet hat. Massenfertigung ist immr nochmals etwas anderes als Testchips usw.

Das wird nVidia nicht zum Nachteil gereicht, dass die Tools usw reifen.

Ailuros
2015-06-18, 12:06:40
Die Entscheidung Maxwell auf 28nm zu halten, Volta um einen Prozess/Generation zu verschieben und Pascal dazwischen zu stecken war ein einziger Schachzug. Dieser war hauptsaechlich mit den Herstellungskosten verbunden, welches aber auch wiederrum der Grund sein wird dass wir von 16FF/TSMC dieses Jahr wohl gar NICHTS sehen werden von einer GPU von NVIDIA (egal welche Generation). Einzige Ausnahme Tegra6 SoCs aber da scheisst auch keiner drauf, bei den laecherlich niedrigen Volumen die sie fuer die Dinger brauchen :P

Skysnake
2015-06-18, 13:02:27
Wer hat denn ernsthaft dieses Jahr noch mit 16FF etc gerechnet, seit dem Maxwell launch?

Ich sage ja auch nicht, dass die Entscheidungen falsch waren, für den Gamermarkt sind Sie 100% richtig gewesen. Für CAD sollte es an sich auch passen, nur Compute ist halt so eine Sache, die eben meiner Meinung! nach kritisch werden kann (nicht muss!) vom zeitlichen Ablauf.

Die Frage ist halt immer, was wären die Alternativen gewesen, und 1x nm sind es ganz sicher nicht!