PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Volta - 2017/2018 (GV100, Xavier, ...)


Seiten : [1] 2 3 4 5 6 7

AnarchX
2016-07-18, 20:14:09
GV100:
- 7 TFLOPs DP-Leistung
- 1TB/s+ (http://www.3dcenter.org/news/nvidia-verspricht-4-tflops-dp-fuer-pascal-7-tflops-dp-fuer-volta)
- weiterhin 16FF (http://www.fudzilla.com/news/graphics/41122-nvidia-volta-is-16nm-finfet) oder 10nm @ TSMC
-Auslieferung in 2017 geplant, unter anderem für den Oak Ridge Summit (https://www.olcf.ornl.gov/summit/)

GV10x:
- wohl erst 2018 zu erwarten

Xavier (GV10A?):
- SoC mit Volta GPU @ 16nm FF, 7 Mrd. Transistoren
- 512SPs
- 20 DL TOPs @ 20W(SoC) -> >1 DL TOPs pro Watt (Pascal @ PX2 0,25 / 0,22 @ Tesla P40)
- bei vergleichbarer FP32-Rate zu Pascal hätte Xavier >200GFLOPs(FP32)/Watt (Pascal 50-60)

AnarchX
2016-07-18, 20:14:56
Laut Fudo ist Volta weiterhin 16FF: http://www.fudzilla.com/news/graphics/41122-nvidia-volta-is-16nm-finfet ... und soll trotz allem die Pro-Watt-Leistung erheblich erhöhen.

Zero-11
2016-07-18, 23:20:37
ja 10nm soll doch wie 20nm übersprungen werden (und da war es auch schon im Link)

N0Thing
2016-07-19, 00:17:21
Im Gegensatz zu 20nm hat man von 10nm noch nicht so viel Schlechtes bezüglich der Kosten gehört. Dass Volta unter 16FF überhaupt möglich ist, nachdem Nvida mit Maxwell einen großen Sprung bei der Effizenz gemacht hat, halte ich für arg unwahrscheinlich. Ansonsten Gratulation an Nvidia, die dann wohl die Götter der Effizienzverbesserung wären.

Ich würde eher auf eine Verspätung von Volta unter 10nm setzen, als die versprochenen Effizienzverbesserungen unter 16FF.

Leonidas
2016-07-19, 04:13:43
Mehr Effizienz unter 16nm: Möglich, wenn auch unwahrscheinlich. Denn: 2x so einen Sprung wie bei Maxwell? Gesetz des abnehmenden Ertrages? Wie gesagt nicht wirklich wahrscheinlich.

Mehr nominelle Rechenleistung unter 16nm (wie versprochen): Wie soll das gehen? Einheiten-Anzahl ist limitiert (Chipfläche), Takt auch schon oben. Früher hat NV hier eine nahezu Verdopplung versprochen - das wäre nur über eine andere Fertigung erreichbar. Heuer nun sind 7 TF gegenüber Tesla P100 mit 5,3 TF kein so großer Sprung mehr - dies ist die kleine Restchance.

Hübie
2016-07-19, 13:57:28
Ich hab vor einem Jahr oder so mal eine sehr interessante Präsentation via Stream gesehen wo es um Optimierungen für Energieeinsparung ging. Da wurde gesagt, dass der Prozess selber zwar immer noch den größten Anteil ausmacht, aber man innerhalb eines Prozesses jedoch noch einmal signifikante Steigerungen herausholen kann. Da ging es dann z.B. um einzelne Bits wo man sich genau überlegt ob man die nun überträgt oder nicht und ob man deren Bewegung nicht mit anderen gleichsetzen kann (eine Art Kompression halt) und auch um den Elektronenrückfluss gegen Masse.
Leider hab ich die jetzt auf Anhieb nicht gefunden, aber möglichweise kennt die jemand von euch und verlinkt diese. :smile:

Will also sagen: Möglich ist es definitiv, wenn man mit Pascal halt nicht zu hoch stapelt (was ja offenbar der Fall ist).

Nightspider
2016-07-19, 14:43:56
Es weiß ja sowieso keiner wie weit man vom Optimum eines Prozesses entfernt ist. Informationsverarbeitung selbst benötigt ja gar keinen Strom. Der Stromverlust ist nur eine Folge der Tatsache, das wir Transistoren benötigen um Berechnungen durchzuführen. Wie effektiv man diese Effizienz noch steigern können wird ist imo noch nicht mal abzusehen.
Vor 5 Jahren hätte man mit Sicherheit nie gedacht das man noch so viel Effizienz alleine aus der Architektur kitzeln kann. Gerade der riesige Sprung von Kepler zu Maxwell hat doch schon viele überrascht und Pascal hat noch einen drauf gesetzt.
Kompression ist da ein gutes Stichwort aber auch so lassen sich viele redundante Bits und Berechnungen mit immer ausgeklügelteren Methoden einsparen und Wege durch optimal platzierte Register und Caches.

Ich wage daher mal frech zu behaupten das derzeit noch kein Mensch weiß wie weit wir uns von dieser Grenze noch entfernt sind, bis man von einem Grenzertrag sprechen kann.

Von der Fläche her ist Nvidia schon am am Limit. Aber nur bei GP100 mit 610mm².
GP102 soll ja angeblich nur 450mm² groß sein. Volta könnte somit als Gamer Chip noch 30% wachsen.

GP102|GV102|Steigerung
~450mm²|~600mm²|+33% Fläche Sollte Volta nur eine Gaming Serie werden die Maxwell könnte GV102 auch einfach nur GV100 heißen.

Ebenso könnte der Performance Chip weiter wachsen.
Nur mal zur Erinnerung: GM204 war auch schon gute 398mm² groß. GV104 könnte von 314 auf 400mm² wachsen. Für +33% bräuchte man 417mm², was durchaus noch im Rahmen liegen würde.

GP104|GV104|Steigerung
~314mm²|~417mm²|+33% Fläche

Ebenso würde es mich nicht verwundern wenn Nvidia wieder die Taktraten verbessert. +10-20% sind sicherlich drin.
Mit beidem zusammen könnte man zumindest die Leistung mit großer Sicherheit um 50% oder mehr erhöhen wie damals beim Schritt vom Kepler zu Maxwell im gleichen Prozess.

Durch HBM Speicher im Performance-Segment können zudem ebenfalls einige Watt eingespart werden. Eventuell gibts dann schon wieder etwas besseren HBM2 Speicher.

fondness
2016-07-19, 14:47:43
Sämtliche angegebene Steigerungen beziehen sich auf GP100, nicht auf die Gaming-Chips, das sollte man auch nicht vergessen. Und GP100 dürfte mit >600mm² bei 300W und 5,3 TFlops DP mit Taktraten von 1328/1480 durchaus noch Verbesserungspotential aufweisen.

Hübie
2016-07-19, 14:50:27
Da die GP100 so etwas wie Platzhalter für Sierra und Summit sind, wird Volta bzw. GV100 zumindest kein Gaming Chip. Ich denke man wird sich weiter voneinander distanzieren und eine Tesla-Schiene fahren, Rest Gaming-Chips.
Das was man dann mehr für Fläche / Yield zahlt, muss man über Menge und Preis kompensieren. Die obligatorischen 33% klingen also gar nicht so verkehrt, wenn sich kein neuer Prozess anbahnt (wonach es ja nicht aussieht).

@fondness: Wobei die 300 Watt hier auch noch das Interface mit einbeziehen, was bei einem Gaming-Chip weg fiele, aber eben nicht beim HPC-Volta. Da sehe ich auch kein großes Einsparpotenzial.

Thunder99
2016-07-19, 14:52:46
Mehr Effizienz unter 16nm: Möglich, wenn auch unwahrscheinlich. Denn: 2x so einen Sprung wie bei Maxwell? Gesetz des abnehmenden Ertrages? Wie gesagt nicht wirklich wahrscheinlich.

Mehr nominelle Rechenleistung unter 16nm (wie versprochen): Wie soll das gehen? Einheiten-Anzahl ist limitiert (Chipfläche), Takt auch schon oben. Früher hat NV hier eine nahezu Verdopplung versprochen - das wäre nur über eine andere Fertigung erreichbar. Heuer nun sind 7 TF gegenüber Tesla P100 mit 5,3 TF kein so großer Sprung mehr - dies ist die kleine Restchance.
Verdoppelung gegenüber Pascal oder Maxwell/Kepler?

Ansonsten unter gleichem Herstellungsprozess schwer vorstellbar die Ankündigung :confused:. Außer Intel und IBM haben bisher kein Unternehmen übergroße Chips produziert...

HOT
2016-07-19, 15:10:26
Volta = deutlich mehr Recheneinheiten bei deutlich mehr Flexibilität. Bedeutet auch deutlich weniger Leistung pro Recheneinheit unter DX11.

Nightspider
2016-07-19, 15:14:41
Volta = deutlich mehr Recheneinheiten bei deutlich mehr Flexibilität. Bedeutet auch deutlich weniger Leistung pro Recheneinheit unter DX11.

Und die kommen in 16FF woher?

Hübie
2016-07-19, 15:21:00
Wenn ich mir den Chart mit dem DP-Vergleich so ansehe, frage ich mich ob man ALUs so zusammenlegen kann dass man von FP16-64 alles skalieren kann. Also quasi 4:2:1. Fertigungstechnisch ist man ja mit 610 schon am Limit (vermutlich) und Logikblöcke für Powermanagement usw kann man ja kaum wegrationalisieren. Was ginge: kein UVD, Display etc. Also so etwa KNL von NVIDIA.

HOT
2016-07-19, 15:32:30
Wenn ich mir den Chart mit dem DP-Vergleich so ansehe, frage ich mich ob man ALUs so zusammenlegen kann dass man von FP16-64 alles skalieren kann. Also quasi 4:2:1. Fertigungstechnisch ist man ja mit 610 schon am Limit (vermutlich) und Logikblöcke für Powermanagement usw kann man ja kaum wegrationalisieren. Was ginge: kein UVD, Display etc. Also so etwa KNL von NVIDIA.
Hört sich sehr plausibel an.


GCN4 hat ca. 1/3 mehr Packdichte pro ALU als Pascal. Da geht also noch was.

Ailuros
2016-07-19, 18:11:44
Wenn ich mir den Chart mit dem DP-Vergleich so ansehe, frage ich mich ob man ALUs so zusammenlegen kann dass man von FP16-64 alles skalieren kann. Also quasi 4:2:1. Fertigungstechnisch ist man ja mit 610 schon am Limit (vermutlich) und Logikblöcke für Powermanagement usw kann man ja kaum wegrationalisieren. Was ginge: kein UVD, Display etc. Also so etwa KNL von NVIDIA.

Es gab irgendwo einen sehr durchdachten Beitrag von Gipsel hier in welche Richtung sich vielleicht Volta drehen koennte. U.a. lag darin natuerlich auch die These einer vector-artigen Architektur wenn ich mich nicht irre mit FP64 aus den gleichen ALUs und so etwas wie 2 FMACs/SP? Dabei ist die Anzahl der Einheiten in solch einem Fall IMHO der kleinste Kopfschmerz im Vergleich zum insgesamten Aufwand die man fuer Datenleitungen und co. braucht.

Am Rand, bloede Frage: hat KNL ueberhaupt noch TMUs?

Uebrigens nur weil Fudzilla N behauptet, heisst es noch lange nicht dass es stimmt.

Es weiß ja sowieso keiner wie weit man vom Optimum eines Prozesses entfernt ist. Informationsverarbeitung selbst benötigt ja gar keinen Strom. Der Stromverlust ist nur eine Folge der Tatsache, das wir Transistoren benötigen um Berechnungen durchzuführen. Wie effektiv man diese Effizienz noch steigern können wird ist imo noch nicht mal abzusehen.
Vor 5 Jahren hätte man mit Sicherheit nie gedacht das man noch so viel Effizienz alleine aus der Architektur kitzeln kann. Gerade der riesige Sprung von Kepler zu Maxwell hat doch schon viele überrascht und Pascal hat noch einen drauf gesetzt.
Kompression ist da ein gutes Stichwort aber auch so lassen sich viele redundante Bits und Berechnungen mit immer ausgeklügelteren Methoden einsparen und Wege durch optimal platzierte Register und Caches.

Ich wage daher mal frech zu behaupten das derzeit noch kein Mensch weiß wie weit wir uns von dieser Grenze noch entfernt sind, bis man von einem Grenzertrag sprechen kann.

Von der Fläche her ist Nvidia schon am am Limit. Aber nur bei GP100 mit 610mm².
GP102 soll ja angeblich nur 450mm² groß sein. Volta könnte somit als Gamer Chip noch 30% wachsen.

GP102|GV102|Steigerung
~450mm²|~600mm²|+33% Fläche Sollte Volta nur eine Gaming Serie werden die Maxwell könnte GV102 auch einfach nur GV100 heißen.

Ebenso könnte der Performance Chip weiter wachsen.
Nur mal zur Erinnerung: GM204 war auch schon gute 398mm² groß. GV104 könnte von 314 auf 400mm² wachsen. Für +33% bräuchte man 417mm², was durchaus noch im Rahmen liegen würde.

GP104|GV104|Steigerung
~314mm²|~417mm²|+33% Fläche

Ebenso würde es mich nicht verwundern wenn Nvidia wieder die Taktraten verbessert. +10-20% sind sicherlich drin.
Mit beidem zusammen könnte man zumindest die Leistung mit großer Sicherheit um 50% oder mehr erhöhen wie damals beim Schritt vom Kepler zu Maxwell im gleichen Prozess.

Durch HBM Speicher im Performance-Segment können zudem ebenfalls einige Watt eingespart werden. Eventuell gibts dann schon wieder etwas besseren HBM2 Speicher.

Zu Chip Groessen: ich hoerte vor kurzem von der gleichen Quelle dass 102 bei ~450 liegt und 106 bei ~190. Nach meinen Infos war vor dem launch GP106 einen Furz ueber 200mm2 und GP102 bei einem Furz unter 480mm2.

Sonst hoerte ich vor einiger Zeit noch dass es unter 16FF+ noch eine Reihe Pascal refreshes geben soll.

Hübie
2016-07-19, 19:06:28
Die Frage mit den ALUs kann ich dir nicht beantworten aber sampling geht ja auch per ALU. Also hat der vermutlich keine. BMW kuschelt mit Intel. Kenne da sogar jemanden den ich fragen könnte, wenn du willst.
Bei Volvo läuft's auch gerade alles an, allerdings mit NV. Wird spannend.

Ps: 478 mm^2 waren's afair... *haarspaltereioff* :D

Dural
2016-07-19, 19:16:42
Euch ist schon klar das nv gv100 für ende 2017 versprochen hat? Und dies mit einer deutlichen effizients steigerung gegenüber gp100.

Ailuros
2016-07-19, 19:24:09
Euch ist schon klar das nv gv100 für ende 2017 versprochen hat? Und dies mit einer deutlichen effizients steigerung gegenüber gp100.

http://www.legitreviews.com/wp-content/uploads/2015/03/pascal-gpu-roadmap.jpg

Hübie
2016-07-19, 20:16:30
Versprochen ist versprochen und wird auch nicht gebrochen X-D

Egal was da 2017 von Volta kommen mag: Es wird nicht zum Daddeln deiner Lieblingsspiele sein.

Dural
2016-07-19, 21:22:39
Was? Das ding muss Ende 2017 im Oak Ridge Summit sein, da wird es Verträge geben. Jegliche Diskussion über den Zeitpunkt ist sinnlos, da dieser bekannt ist. Und da gp100 schon 600mm2 gross ist wird er auch in einem neuen prozess kommen, ich sehe sonst gar keine möglichkeit die steigerungen sonst zu ermöglichen.

Hübie
2016-07-19, 21:26:38
Na dann warte doch einfach ab :D
Wobei du auch erwähnen musst dass Summit 2017 nicht ans "Netz" geht. Also das ist die Aufbauphase. 2018 ist das Ding final. Ich weiß nicht wie viele Stufen die dieses Mal haben. Bei Titan waren es derer drei.

N0Thing
2016-07-20, 01:42:38
Damit die Roadmap für die Investoren korrekt ist, reicht es ja aus die Chips 2017 auszuliefern, dann geht in der Regel auch die Bezahlung der Rechnung auf der anderen Seite an die Buchhaltung. Ob die bestückten Systeme erst 2018 vollwertig hochgefahren werden, interessiert dann nur noch die Fanboys und die Betreiber der Systeme. ;)

Dural
2016-07-20, 09:51:53
Ich tippe ja das GV100 schon in 7nm kommt, die geringen stückzahlen und die sicherlich sehr hohen preise pro GPU dürfte das wenn es gut läuft ermöglichen.

Mitte/Ende 2018 die ersten 7nm desktop ableger, es kann sein das NV dazwischen noch was in 16nm bringt, es ist ja schon länger klar das pascal eine recht kurze lebensdauer haben wird.
was natürlich auch möglich ist, desktop volta in 16nm und tesla volta in 7nm.

Ailuros
2016-07-20, 11:13:41
Was? Das ding muss Ende 2017 im Oak Ridge Summit sein, da wird es Verträge geben. Jegliche Diskussion über den Zeitpunkt ist sinnlos, da dieser bekannt ist. Und da gp100 schon 600mm2 gross ist wird er auch in einem neuen prozess kommen, ich sehe sonst gar keine möglichkeit die steigerungen sonst zu ermöglichen.

Ich tippe ja das GV100 schon in 7nm kommt, die geringen stückzahlen und die sicherlich sehr hohen preise pro GPU dürfte das wenn es gut läuft ermöglichen.

Mitte/Ende 2018 die ersten 7nm desktop ableger, es kann sein das NV dazwischen noch was in 16nm bringt, es ist ja schon länger klar das pascal eine recht kurze lebensdauer haben wird.
was natürlich auch möglich ist, desktop volta in 16nm und tesla volta in 7nm.

:rolleyes::freak::mad:

;D

Thunder99
2016-07-20, 11:17:36
Das würde ja bedeuten, dass die 10nm/7nm Klasse auch spruchreif sein müsste um überhaupt funktionierende Grafikchips hervor zu bringen. Nicht unmöglich aber es bleibt spannend. Durch die eigene Preisstruktur von den Profi Chips ist auch ein verteuerter Prozess "kein" Problem

Skysnake
2016-07-20, 12:26:12
Also "Kein Problem" würde ich da bei weitem nicht sagen.

Gerade Intel wird mit KNL+Fabric agressive Preise aufrufen. IBM+nVidia+Mellanox können sich da sonderliche Premiumspielereien nicht erlauben.

Falls es schon vergessen wurde. IBM musste/wollte den letzten HPC Deal rückabwickeln, weil Sie den orginalen Titan nicht geschissen bekommen haben. Gut man muss jetzt auch zugeben, das nicht mal die kommenden Systeme so fortschittlich sein werden wie der IBM Titan es hätte werden sollen, aber gut. Von allein läuft das alles trotzdem nicht.

Dural
2016-07-20, 16:03:40
Apple wird ja mitte 2017 wohl die ersten 7nm Chips herstellen lassen, das passt schon mit ende 2017 / 2018

Rancor
2016-07-20, 16:38:24
Hoffentlich unterstützt Volta AC in Hardware vernünftig....

Ailuros
2016-07-20, 17:36:23
Apple wird ja mitte 2017 wohl die ersten 7nm Chips herstellen lassen, das passt schon mit ende 2017 / 2018

Wie waere es wenn Du mal ausnahmsweise etwas bremsen wuerdest mit dem angehaeuften Bloedsinn?

HOT
2016-07-20, 17:46:23
Hoffentlich unterstützt Volta AC in Hardware vernünftig....
Meiner Ansicht nach basiert die ganze Architektur darauf.

Dural
2016-07-20, 17:52:56
keine panik, hab mich um ein jahr vertan. :rolleyes:

Q1 2017 10nm
Q1 2018 7nm

das spricht aber immer noch klar für 7nm, wie so sollte man 2018 noch einen volta in 10nm oder sogar 16nm bringen wenn gerade 7nm anläuft. :rolleyes:

Einzig für GV100 Ende 2017 dürfte das sicherlich nicht reichen, das wird wohl dann der einzige Chip in 10nm sein.

Ailuros
2016-07-20, 18:06:32
Wenn der Stromverbrauch mit 10FF wieder beschissen sein sollte wie bei 20SoC koennte es durchaus sein dass es GPU IHVs wieder ueberholen fuer 7nm. Mit dem kliitzekleinen Unterschied dass wir schwer etwas von einem 7nm GPU chips vor Mitte 2018 sehen werden und selbst das ist optimistisch.

Kriton
2016-07-22, 19:39:15
Wenn der Stromverbrauch mit 10FF wieder beschissen sein sollte wie bei 20SoC

Gibt es dafür bereits Indizien?

Ailuros
2016-07-22, 19:40:34
Gibt es dafür bereits Indizien?

Nicht wirklich. Bei TSMC und deren track record wuerde es mich aber nicht wirklich ueberraschen.

Skysnake
2016-07-23, 08:34:00
Klar, der Prozess ist nur beschissen und für nichts anderes zu gebrauchen als mini-winzig-Smartphoni-Chips...

Oh Wait, Oracle benutzt den ja anscheinen für ihren Sparc mit 4,27GHz und massig Transistoren. (https://www.computerbase.de/2016-07/oracle-sparc-s7-sonoma/)

Soweit mir bekannt gibt es ja nur einen 20nm Prozess bei TSMC, der ja aber angeblich für GPUs völlig ungeeignet sei.

HOT
2016-07-23, 08:40:53
Von ungeeignet hat keiner gesprochen. Es war viel mehr die Rede von zu teuer für den geringen Leistungszuwachs. Gleiches gilt in verschärfter Form für 10nm.
Natürlich kann man da auch große Chips mit bauen, das steht ja gar nicht in Frage.

Skysnake
2016-07-23, 09:36:23
Really?

Dann geh mal in andere Topics zurück und schau, was da an Müll geschrieben wurde...

Hübie
2016-07-23, 12:12:29
Also ich bin mir ziemlich sicher, dass Ailuros die ganze Zeit sagte, dass die metrics es nicht rechtfertigen den Prozess zu wechseln. Damit sind erwarteter Performancegewinn in Relation zum Energiesparertrag gemeint.
Der Vergleich mit dem SPARC S7 hängt an so vielen Enden, dass ich gar nicht weiß wo ich anfangen soll. Bei der scheißegal-TDP, der Tatsache, dass so ein SPARC wenig mit GPU-Design zu tun hat oder den Kosten?

Skysnake
2016-07-23, 12:54:37
Also eine Scheiißegal TDP kannste da nicht annehmen. Zudem ist so ein Hochtaktdesign mit "vielen" Cores (8fach SMT) alles andere als Trivial. Mal ganz davon abgesehen, das man ja auch noch nen NIC dabei hat, was nen zieliches Analogdesign ist. Sprich ingesamt wird das wohl kaum einfacher zu designen sein als eine GPU, die ja extrem symmetrisch und einfach aufgebaut ist bei niedrigen Taktraten.

Es geht auch nicht darum, was Ailuros meinte bezüglich irgendeiner wirtschaftlichkeit oder was auch immer, sondern um den Bullshit den mehr als genug Leute verbreitet hätten, dass der Prozess ungeeignet wäre für jedwedes Design, das komplizierter ist als nen winziger Smartphone-Chip, weil er die Taktraten und was weiß ich was noch alles nicht mitmachen würde...

Ich habe das schon immer bestritten, aber hat halt keine Sau interessiert...

Was natürlich auffällt ist, das so ein Design erst jetzt kommt. Insgesamt würde ich aber keine höheren Kosten als in 16nm FinFet erwarten. Der Chip zielt ja wohl anscheinend durchaus auf eine (relative) "Lowcost" Lösung ab. Was man natürlich noch in Realität bestätigt sehen muss.

Unicous
2016-07-23, 13:07:40
Von ungeeignet hat keiner gesprochen. Es war viel mehr die Rede von zu teuer für den geringen Leistungszuwachs. Gleiches gilt in verschärfter Form für 10nm.
Natürlich kann man da auch große Chips mit bauen, das steht ja gar nicht in Frage.

Das ist ja wohl nicht dein Ernst, oder? :eek:


Betreibst du jetzt deine eigene Geschichtsklitterung um nicht dumm dazustehen? Wenn mich deine "Meinung" mehr tangierte, würde ich die entsprechenden Posts von dir heraussuchen, aber du diskreditierst dich ja eh immer wieder aufs Neue.:rolleyes:

Ailuros
2016-07-23, 16:58:27
Really?

Dann geh mal in andere Topics zurück und schau, was da an Müll geschrieben wurde...

http://previews.123rf.com/images/afhunta/afhunta0902/afhunta090200170/4435726-Do-not-see-it-hear-nothing-nothing-to-say-A-man-on-a-white-background-Stock-Photo.jpg

Also ich bin mir ziemlich sicher, dass Ailuros die ganze Zeit sagte, dass die metrics es nicht rechtfertigen den Prozess zu wechseln. Damit sind erwarteter Performancegewinn in Relation zum Energiesparertrag gemeint.
Der Vergleich mit dem SPARC S7 hängt an so vielen Enden, dass ich gar nicht weiß wo ich anfangen soll. Bei der scheißegal-TDP, der Tatsache, dass so ein SPARC wenig mit GPU-Design zu tun hat oder den Kosten?

Falls Du 20SoC und GPUs meinen solltest, kam die Meldung von einem ***** insider damals. Mir war zwar bewusst dass sie 20SoC fuer ihre SoCs benutzen werden, aber sie wussten schon was daran problematisch war. Sonst zur Erinnerung: http://www.anandtech.com/show/9762/hisilicon-announces-kirin-950-huawei

http://images.anandtech.com/doci/9762/P1030606.jpg?_ga=1.28330238.334006868.1458215934

Zurueck zu Volta: sobald ich wieder Kontakt aufnehmen kann, frag ich ueber den Prozess nach.

stinki
2016-07-29, 18:44:24
Ich tippe vorab auch auf TSMC 10nm für GV100 und 16FF für alle anderen GV10x :)

HOT
2016-08-14, 11:14:06
Ich tippe auf GV100 als in 10nm verkleinerter und um einige Shader erweiterte GP100 (Samsung und TSMC kann beides sein).

AnarchX
2016-08-14, 11:16:49
Dass GP107/8 einen günstigeren 14nm Prozess verwenden, konnte man hier im Forum schon vor Wochen lesen. Mit Volta GV100 hat das eher weniger zu tun.

Hübie
2016-08-14, 11:40:12
So siehts aus. Low Power Pascal Gurken. Gehört nicht hier her.

prinz_valium
2016-08-14, 13:07:55
wenn volta wirklich auf 16nm finet beleibt und man die Leistung pro watt extrem steigern will, muss man wohl auch auf HBM setzen

Verbesserungen der SM können natürlich noch einiges bringen, aber ram ist mittlerweile auch ein extremer Stromfresser.

ich hoffe die karten kommen wirklich schon nächsten Frühjahr, damit dann die 1080 und 1070 endlich mal billiger werden.

AnarchX
2016-08-14, 13:22:46
Die Architektur könnte sich mit Volta erheblich verändern: http://www.fool.com/investing/2016/08/12/nvidia-corporations-volta-rumored-to-be-a-monster.aspx

Godmode
2016-08-14, 13:30:59
Ich tippe auf GV100 als in 10nm verkleinerter und um einige Shader erweiterte GP100 (Samsung und TSMC kann beides sein).

Nein, sowas macht man heute nicht mehr und funtioniert heute auch nicht mehr. Ändert sich die Prozess, muss ich auch das Design ändern, sonst hat man eine Stromschleuder.

-/\-CruNcher-/\-
2016-08-14, 13:55:21
NVIDIA tells me that the company did make "general SM architectural optimizations," so they aren't identical. However, it's clear that the company didn't make the kinds of changes in going from Maxwell to Pascal at the SM level as it did in going from Kepler to Maxwell.

Wow was für eine Erkenntnis :D

Dem schreiber fällt scheinbar Tick Tock auf :D

Und das der Rummel bei Maxwell seitens Nvidia ziemlich größer war scheinbar auch ;D

Interessant wird ob Nvidia grenzen ihrer Hardware mit Volta verändern wird Nathan Reed meinte ja das wird nicht so schnell passieren, wie weit er das in der Zukunft gerade im Gedanken hatte bleibt die Frage ;)

für VR eine tricky sache Tegra Stromsparen und Latency vertragen sich nicht wirklich, damals konnte VR ja keiner erahnen im Mobile Green Hype ;)

Sunrise
2016-08-14, 14:03:54
Die Architektur könnte sich mit Volta erheblich verändern: http://www.fool.com/investing/2016/08/12/nvidia-corporations-volta-rumored-to-be-a-monster.aspx
Irgendwie hat der Autor da einen ziemlichen Brainfart im Artikel. Er schreibt, NV würde mit Volta gleich drei High-End Chips bringen (GV104, GV102 und GV110), im Gegensatz zu Pascal. Blöd nur, dass doch genau mit Pascal eben bereits genau diese drei Chips kamen, nämlich GP100, GP102 und GP104.

Ebenso ist schon seit Jahren sicher, dass Volta starke Änderungen ggü. Pascal haben wird, da Pascal "nur" ein Maxwell-Einschieber war. Eben genau deshalb wurden ja die Roadmaps mehrmals geändert.

prinz_valium
2016-08-14, 14:36:00
vllt meint er 3 "gamer" chips anstatt nur 2
aber auch wäre wieder ziemlich unsinnig
außer es gibt HBM nur bei dem 110 und 102 setzt wieder normal auf gddr und 110 kommt dann ausnahmsweise auch als gamer karte und nicht nur hpc produkt.
aber wo wird dann der große vorteil für gamer bei der 110 gegenüber der 102 liegen?

ergibt irgendwie dann doch alles keinen sinn

kdvd
2016-08-14, 15:47:49
Blöd nur, dass doch genau mit Pascal eben bereits genau diese drei Chips kamen, nämlich GP100, GP102 und GP104.

GP104 gibts aber schon für unter 1000€, ergo kein High End. :biggrin: *scnr*

VooDoo7mx
2016-08-14, 17:15:59
Die Architektur könnte sich mit Volta erheblich verändern: http://www.fool.com/investing/2016/08/12/nvidia-corporations-volta-rumored-to-be-a-monster.aspx

Wenn nVidia von Pascal auf Volta nochmal so einen Sprung macht wie von Kepler auf Maxwell, dann kann AMD seine Radeon Division zu machen. :ulol:

vllt meint er 3 "gamer" chips anstatt nur 2
aber auch wäre wieder ziemlich unsinnig
außer es gibt HBM nur bei dem 110 und 102 setzt wieder normal auf gddr und 110 kommt dann ausnahmsweise auch als gamer karte und nicht nur hpc produkt.
aber wo wird dann der große vorteil für gamer bei der 110 gegenüber der 102 liegen?

ergibt irgendwie dann doch alles keinen sinn

GV 102 braucht gar kein HBM. Mit den maximal möglichen 16gbps an 384BitSpeicherbandbreite hätte man 768 GB/s absolut ausreichend. Warscheinlich reicht sogar weniger Speichertakt.

Ich frag mich ganz ehrlich was ihr alle nur mit diesen scheiß HBM habt. Also ob dadurch gleich alles viel besser wird oder dies in irgendeiner Form notwendig wäre. Was für ein Bullshit. So nach dem Motto "ist neu, also muss es dabei sein, was es bringt? Keine ahnung, ich brauch es aber."

Godmode
2016-08-14, 17:19:47
Wenn nVidia von Pascal auf Volta nochmal so einen Sprung macht wie von Kepler auf Maxwell, dann kann AMD seine Radeon Division zu machen. :ulol:

Da die non GV100 Chips wohl in 16ff+ gefertigt werden, wird der Sprung wohl eher so werden wie von Kepler auf Maxwell.

VooDoo7mx
2016-08-14, 17:25:11
Da die non GV100 Chips wohl in 16ff+ gefertigt werden, wird der Sprung wohl eher so werden wie von Kepler auf Maxwell.

Ich meinte auch den Sprung bei der Effizienz der EInheiten. Dadurch wäre ein spekulierter ~400mm² GV104 mit 3200 Cores schneller als eine Titan X. So wie eine GTX980 im Vergleich zur GTX780Ti Und wenn nVidia das wieder hinbekommt, wäre das schon ziemlich krass. Besonders im Vergleich zu AMD die nach 5 Jahren kaum ihre GCN Architektur großartig verbessert haben.

prinz_valium
2016-08-14, 18:03:19
GV 102 braucht gar kein HBM. Mit den maximal möglichen 16gbps an 384BitSpeicherbandbreite hätte man 768 GB/s absolut ausreichend. Warscheinlich reicht sogar weniger Speichertakt.

Ich frag mich ganz ehrlich was ihr alle nur mit diesen scheiß HBM habt. Also ob dadurch gleich alles viel besser wird oder dies in irgendeiner Form notwendig wäre. Was für ein Bullshit. So nach dem Motto "ist neu, also muss es dabei sein, was es bringt? Keine ahnung, ich brauch es aber."

z.b
weniger stromverbrauch, wie ich schon sagte
eine kleinere karte


also bleib mal ruhig. wir spekulieren hier nur, was nvidia bringen könnte oder auch nicht:rolleyes:

AnarchX
2016-08-14, 18:08:06
Wenn HBM2 2017 für >500€ wirtschaftlich ist, wäre es schon eine nette Sache, da man dadurch auch Platz auf dem Chip spart, der wieder in Recheneinheiten investiert werden kann. Bei GDDR5X muss sich erstmal zeigen ob man da deutlich über 12Gbps erreichen kann, den auch der IMC kann limitieren.

HOT
2016-09-20, 16:49:07
GV100 -> 10nm (ursprünglich geplant und gecancelt)
GV110 -> 16nm (vorgezogen auf Mitte 2017, damit mit zusammen mit Power9 launchen kann)
Ähnlich wie beim GP100 werden die Grafik-Auskopplungen von Volta sicherlich noch weniger mit dem GV110 zu tun haben. MMn fehlen aus Platzgründen auch TMUs und ROPs. Der wird voll auf XeonPhi-Konkurrenz getrimmt sein.
Die GV10x werden sicherlich erst spät in 2017 kommen, vllt. sogar eher 2018. Das Problem ist, dass jetzt wo mehr über Vega bekannt ist wohl kaum ne Notwendigkeit besteht da irgendwas zu beschleunigen, solange lässt man die GPxxx Geld verdienen. Zudem wird man mMn auch bei NV ein Tick/Tock-System anstreben, wie bei Maxwell schon durchexerziert. Deshalb ist auch noch nichts nach Volta bekannt. Die haben sicherlich alle alten strategischen Planungen über den Haufen geworfen.
2014 Maxwell -> Tock
2016 Pascal GFX -> Tick
2017/18 Volta GFX -> Tock
2019 Volta GFX @ N7 -> Tick
Außerdem denke ich, dass Volta komplett auf HBM setzt. Der Vorteil ist einfach zu groß. Man wird sicherlich 2 Stacks für GV104 und 106 vorsehen und 4 Stacks für GV102. Ich halte GDDRx, insbesondere GDDR5X für Karten in der Leistungsklasse einfach für tot und ich sehe nicht, warum NV auf HBM verzichten soll, wenn AMD das bei Vega komplett einsetzt, das macht keinen Sinn - ich denke, dass hier eher oft das Ego einiger NV-Fans das negiert. Zudem war Volta immer mit Stacked-RAM angekündigt.

Hübie
2016-09-20, 17:40:49
GV100 -> 10nm (ursprünglich geplant und gecancelt)
GV110 -> 16nm (vorgezogen auf Mitte 2017, damit mit zusammen mit Power9 launchen kann)
Ähnlich wie beim GP100 werden die Grafik-Auskopplungen von Volta sicherlich noch weniger mit dem GV110 zu tun haben. MMn fehlen aus Platzgründen auch TMUs und ROPs. Der wird voll auf XeonPhi-Konkurrenz getrimmt sein.
Die GV10x werden sicherlich erst spät in 2017 kommen, vllt. sogar eher 2018. Das Problem ist, dass jetzt wo mehr über Vega bekannt ist wohl kaum ne Notwendigkeit besteht da irgendwas zu beschleunigen, solange lässt man die GPxxx Geld verdienen. Zudem wird man mMn auch bei NV ein Tick/Tock-System anstreben, wie bei Maxwell schon durchexerziert. Deshalb ist auch noch nichts nach Volta bekannt. Die haben sicherlich alle alten strategischen Planungen über den Haufen geworfen.
2014 Maxwell -> Tock
2016 Pascal GFX -> Tick
2017/18 Volta GFX -> Tock
2019 Volta GFX @ N7 -> Tick
Außerdem denke ich, dass Volta komplett auf HBM setzt. Der Vorteil ist einfach zu groß. Man wird sicherlich 2 Stacks für GV104 und 106 vorsehen und 4 Stacks für GV102. Ich halte GDDRx, insbesondere GDDR5X für Karten in der Leistungsklasse einfach für tot und ich sehe nicht, warum NV auf HBM verzichten soll, wenn AMD das bei Vega komplett einsetzt, das macht keinen Sinn - ich denke, dass hier eher oft das Ego einiger NV-Fans das negiert. Zudem war Volta immer mit Stacked-RAM angekündigt.

Wie kommst du plötzlich darauf diesen Thread einfach mit wilden Spekulationen wo gerade mal 20% stimmen zu fluten? :| Stell dir mal vor das würde jeder machen, wenn er/sie mal Langeweile hat. Was für ein Chaos.
Deinen GDDR5X-ist-tot-Kreuzzug kannst du auch gleich mal an den Nagel hängen. Wie kommst du überhaupt zu dieser Schlussfolgerung?

HOT
2016-09-20, 17:46:27
Wie kommst du plötzlich darauf diesen Thread einfach mit wilden Spekulationen wo gerade mal 20% stimmen zu fluten? :| Stell dir mal vor das würde jeder machen, wenn er/sie mal Langeweile hat. Was für ein Chaos.
Deinen GDDR5X-ist-tot-Kreuzzug kannst du auch gleich mal an den Nagel hängen. Wie kommst du überhaupt zu dieser Schlussfolgerung?
Gibts denn überhaupt einen Kundenprodukte dafür als die paar GP104 und GP102-Karten, die damit ausgeliefert werden? Das kann sich doch gar nicht lohnen für Micron. Und hey, du kannst mir nicht verbieten zu spekulieren.

Hübie
2016-09-20, 17:57:12
Ich verbiete dir nix. Wo liest du das? Aber es gibt Null Komma Null neue Anhaltspunkte für irgendwas. Spekulieren braucht, zumindest nach meinem Verständnis, eine Basis. Die fehlt dir hier einfach, da nichts (neues) bekannt ist.

Leonidas
2016-09-21, 03:52:59
Also wenn es was gibt, wo man Gedanken freien Lauf lassen darf, dann im Speku-Thread.

Aber zur Sache: Alle vergessen immer ganz gern, das NV üblicherweise mit einer Chipgeneration zwei Grafikkartengenerationen bestreitet. Sofern NV dieses jahrelang durchexerizierte Schema nicht plötzlich nach der Ausnahme Maxwell aufgibt, sehe ich keinen Grund, wieso die GeForce 1100 Serie nicht wieder mit Pascal-Chips daherkommt. GV100/GV110 sind ja sowieso was ganz eigenes und betreffen Gamer nicht mehr.

HOT
2016-09-21, 06:44:50
Wenn du recht hast könnte das auch ganz anders laufen - angenommen Volta in 16nm wäre veralteter Quatsch, dann würde es viel mehr Sinn ergeben, dass die drei Volta-Chips Ende 2018 in N7 erscheinen. Das würde dann deutlich besser mit den bisherigen Infos zusammen passen mAn.

Ailuros
2016-09-21, 12:55:13
Wenn Volta GV100 tatsaechlich auf 16FF+ ausgelegt ist, dann wurde ueberhaupt nichts storniert.

HOT
2016-09-21, 14:41:35
Wer redet denn von storniert :confused:
dass Volta nicht mehr das ist, was noch vor Maxwell geplant war, sollte auf der Hand liegen.

Ailuros
2016-09-21, 18:38:47
Wer redet denn von storniert :confused:
dass Volta nicht mehr das ist, was noch vor Maxwell geplant war, sollte auf der Hand liegen.

http://cdn.wccftech.com/wp-content/uploads/2013/12/NVIDIA-GPU-Roadmap.png

Pascal P100 ist bei 5.3TFLOPs DP / 300W = 17.67 TFLOPs FP64

Ich sehe in dem Bild welches die alte roadmap ist "vor Maxwell" wie Du es nennst wo ich Volta auf 24 GFLOPs DP/Watt sehe.

7.0 TFLOPs DP / 300W = 23.34 TFLOPs FP64

.....egal ob es jetzt leicht mehr als 7 TFLOPs werden oder ein kleinerer TDP fuer GV100 aendert es nicht fundamentales an der originalen Positionierung in der roadmap. So jetzt wisch mal den Dreck von Deiner Hand und erzaehl was sich genau geaendert haben koennte, wenn Du Dir schon so "sicher" ueber alles bist.....:rolleyes:

Original Maxwell war bei 12 TFLOPs DP/W und Volta danach bei 2x Mal so viel. Ausser mein Gedaechtnis laesst mehr nach als ich es gern habe stammt die obrige roadmap in etwa aus dem gleichen Zeitraum wie die folgende ergo irgendwo 2013:

http://images.anandtech.com/doci/6846/TegraRoadmap.jpg

Parker war also original als Logan Nachfolger geplant unter 16FF TSMC fuer 2015. Ebenso Maxwell in diesem.

Nachdem sich die GPU roadmap oben aenderte wurde auch in der Zwischenzeit 16FF storniert und Parker wurde auf 16FF+ verschoben. Zwischen Logan und Parker wurde Erista unter 20SoC TSMC gequetscht.

Maxwell/GPU wurde auf 28HP zurueckgesetzt und eine Unmenge an DP Einheiten entfernt. Pascal kam als Zwischenschieber mit etwas mehr DP Leistung als original geplant zwischen Maxwell und Volta und auf 16FF+.

Nach wie vor: wenn GV100 schon immer fuer 16FF+ geplant war kann er nicht wirklich besonders grosse Unterschiede haben zu dem was in absehbarer Zukunft gelauncht wird. Eben weil P100 schon bei 610mm2 unter 16FF+ ist. Am originalen Parker hat sich auch nichts geaendert, ausser dass die libraries auf 16FF+ geaendert wurden und sie ein paar GPU Transistoren in diesem polsterten um hoehere Frequenzen zu erreichen.

Ailuros
2016-09-28, 12:39:05
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11169576&postcount=6136

HOT
2016-09-28, 13:03:00
Dafür würd ich 7nm mal als Zwingend ansehen.

Locuza
2016-09-28, 13:22:27
http://images.anandtech.com/doci/10713/14750582635821081937877_575px.jpg

Ailuros
2016-09-28, 14:02:28
Dafür würd ich 7nm mal als Zwingend ansehen.

Die Daten sind fuer Xavier und dieser hat als SoC laut dem slide selber um die 7 Mrd. Transistoren und wird auf 16FF TSMC hergestellt. Im schlimmsten Fall ist der SoC um die 270+mm gross, wofuer die Volta GPU in diesem mit ihren 512 SPs doppelt so viel hat wie die Parker GPU:

http://www.anandtech.com/show/10714/nvidia-teases-xavier-a-highperformance-arm-soc

Ausser ich verpasse etwas sind DL TOPs spottbillig in hw und deshalb sind Ryan's Zweifel ueber die 1 DL TOP/W wohl eher merkwuerdig um ehrlich zu sein.

Hübie
2016-09-28, 15:20:24
Dafür würd ich 7nm mal als Zwingend ansehen.

Ja deshalb steht da 16 FF :redface: Wieso soll da 7nm Voraussetzung sein? :|

@Ailuros: Welcher Anfänger hat dieses unheimlich miese Foto geschossen und auf anandtech veröffentlicht? :facepalm:

AffenJack
2016-09-28, 16:51:57
Ausser ich verpasse etwas sind DL TOPs spottbillig in hw und deshalb sind Ryan's Zweifel ueber die 1 DL TOP/W wohl eher merkwuerdig um ehrlich zu sein.

Auch bei spottbilligen DL-TOPs muss man sich fragen was da gemacht wurde. Das Ding hat 512SP. Pascal hat im Moment Int8 bei 4facher FP32 Geschwindigkeit. Aber das kommt noch nicht hin, denn das wären selbst bei 2 Ghz nur 2Gflops und 8 DL-TOPs. Selbst wenn man auf 8fache Geschwindigkeit im Vergleich zu FP32 geht, passt das noch immer nicht. Da braucht man noch immer 2,5ghz Shadertakt für 20 TOPs. Ich frage mich eher, ob die 512 SP von Volta nicht fundamental anders als bisher sind.

Hübie
2016-09-28, 17:06:04
Vorher: Zwei mal Quadcore-SoC + 256 Pascal ALUs = 20 TOPs
Nachher: Acht mal Custom-SoC + 512 Volta ALUs = 20 TOPs

Erstaunlich ist dabei eigentlich nur das die Leistungsaufnahme innerhalb eines Nodes geviertelt wird. Und genau daran sollte man eigentlich nur zweifeln. Wird also eher so eine "Entweder-Oder-Geschichte". Entweder 20 Watt oder 20 TOPs. Ansonsten lasse ich mich gerne belehren wie man etwas viertelt.

Edit: Ich glaube Anfang diesen Jahres war es wo NVIDIA einen höchst interessanten Workshop angeboten hatte: "Energy cost of moving a Bit" war das Thema. Genauer Wortlaut fällt mir nicht ein.
Edit2: Edge auf Smartphone macht mich fertig...:redface:

iuno
2016-09-28, 17:26:53
Was fuer Moeglichkeiten hat man denn beim Takt?
Ist es denkbar, dass Nvidia die ALUs funktional stark fuer deep learning zusammenstaucht? Vielleicht will man Taktraten erreichen, die man sonst nur von CPUs kennt? :ulol:
Was haelt sie davon ab bzw. was waere dafuer noetig?

AnarchX
2016-09-28, 17:43:08
Xavier N...vidia. ;D

20 DL TOPS bei 512SPs sprechen nach sehr großen Überarbeitungen in den Volta-SMs. Selbst wenn da die DLTOPs (DP4A)-Rate stark erhöht wird, wird da wohl FP32 pro Watt auch einen großen Sprung machen.

@2,5GHz:
20 DL TOPS -> 1024 DP4A Units
?512/1024FP32 Units -> 2,5/5 TFLOPs -> 125-250GFLOPs per Watt :ulol: (Wenn da Nintendo noch auf Maxwell setzt...)


Vorher: Zwei mal Quadcore-SoC + 256 Pascal ALUs + 2x GP106 = 20 TOPs (5 TFLOPs FP32)
Nachher: Acht mal Custom-SoC + 512 Volta ALUs = 20 TOPs

...

AffenJack
2016-09-28, 18:05:55
Vorher: Zwei mal Quadcore-SoC + 256 Pascal ALUs = 20 TOPs
Nachher: Acht mal Custom-SoC + 512 Volta ALUs = 20 TOPs


Ähmm nein, aktuell 2x Parker (2+4Kerne + 256SP) + 2x MXM GPU(GP106) =24TOPs
Man muss sich zwar fragen, wie auch immer die das bei PX2 rechnen um auf 24Tops zu kommen, aber nur die SoCs reichen auf keinen Fall. Da man 80W als TDP angibt, würde das zu nur der GPU passen. Denn nur bei den GPUs rechnet Nvidia beim Tesla P4 mit 22TOPs, dass ist aber nen GP106 mit 1280 Shadern. Wie man da auf ähnliche Werte mit 512SP kommt ist mir noch unklar.

AnarchX
2016-09-28, 18:57:45
Der "finale" PX2 hat vielleicht doch GP107 - welcher eher zu 128-Bit + ~ 2TFLOPs pro GPU passt. GP106 war wohl eher der Platzhalter für eine echte Pascal-GPU, nachdem man mit der GM204-Version Spott geerntet hat. ;D

HOT
2016-09-28, 18:58:03
Die Daten sind fuer Xavier und dieser hat als SoC laut dem slide selber um die 7 Mrd. Transistoren und wird auf 16FF TSMC hergestellt. Im schlimmsten Fall ist der SoC um die 270+mm gross, wofuer die Volta GPU in diesem mit ihren 512 SPs doppelt so viel hat wie die Parker GPU:

http://www.anandtech.com/show/10714/nvidia-teases-xavier-a-highperformance-arm-soc

Ausser ich verpasse etwas sind DL TOPs spottbillig in hw und deshalb sind Ryan's Zweifel ueber die 1 DL TOP/W wohl eher merkwuerdig um ehrlich zu sein.
Beeindruckend, definitiv. Volta ist echt heftig.

Hübie
2016-09-28, 19:23:31
Ähmm nein, aktuell 2x Parker (2+4Kerne + 256SP) + 2x MXM GPU(GP106) =24TOPs
Man muss sich zwar fragen, wie auch immer die das bei PX2 rechnen um auf 24Tops zu kommen, aber nur die SoCs reichen auf keinen Fall. Da man 80W als TDP angibt, würde das zu nur der GPU passen. Denn nur bei den GPUs rechnet Nvidia beim Tesla P4 mit 22TOPs, dass ist aber nen GP106 mit 1280 Shadern. Wie man da auf ähnliche Werte mit 512SP kommt ist mir noch unklar.

Stimmt, da is ja noch was gebuckelt. Wer weiß schon was NVIDIAs Marketing da errechnet. :uponder:

Nakai
2016-09-28, 20:27:12
Ausser ich verpasse etwas sind DL TOPs spottbillig in hw und deshalb sind Ryan's Zweifel ueber die 1 DL TOP/W wohl eher merkwuerdig um ehrlich zu sein.

DL-OPs sind INT8-OPs, also sehr billig.

AnarchX
2016-09-29, 06:17:43
Bei B3D vermutet man schon, dass es 512 FP64 Kerne sind. Wenn das so stimmen sollte braucht GV100 wohl dann für seine 7 TFLOPs keine 150W. Fragt sich nur wieviel 3D-Einheiten noch vorhandenen sind, aber das kann man dann vielleicht mit >2.5GHz kaschieren (z.B. imaginärer GV104: 1024SPs@2.8GHz, 12TFLOPs, 128T/64R, 400mm2, 100W).


Oder es wird ganz anders, man erinnere sich an die alten NV-Folie für einen 2018-Entwurf, wo von 3 FPUs pro CUDA-Core gesprochen wurde:
Cuda Core Volta - 1x FP64 Mixed ALU + 1x FP32 ALU (3x DP4A, 1x FP64, 3xFP32) -> 512CC@1.6GHz: 20 DL TOPS, 1,6TFLOPs FP64, 5 TFLOPs FP32). Klingt etwas realistischer als >>2GHz...

Skysnake
2016-09-29, 09:57:10
https://www.youtube.com/watch?v=S1m_p1ygMkg
Volta erst Ende 2017 (Minute 6 im Video), wobei wohl eher erst 2018.

WIR müssen uns um Volta 2017 wohl eher keine Gedanken machen, genau wie mit P100. Btw. Auf TOP500.org gibts jetzt sogar Meldungen von den ersten DGX Maschinen die ausgeliefert werden -.- Wuhu. 8-9 Monate (?) nach Vorstellung bekommen die ersten "Normals" einzelne Kisten...

HOT
2016-09-29, 10:07:49
Na ja, wenn sich das mit dem Pascal-Refresh nächstes Jahr bestätigt wirst du Volta-Grafiikkarten frühestens Mitte 2018 in Händen halten. Xavier + GV110 gibts sicherlich schon früher. Gibts nen Zeitrahmen für Xavier? Das PX2 ist doch grad taufrisch oder?

Skysnake
2016-09-29, 10:18:13
Das Problem ist, das nVidia seit einiger Zeit Produkte ankündigt, dann aber ers zich Monate später eine Verfügbarkeit gegeben ist. Also jetzt nicht bei Consumerprodukten, aber bei den Prestigeprodukten.

Sunrise
2016-09-29, 10:38:27
Das Problem ist, das nVidia seit einiger Zeit Produkte ankündigt, dann aber ers zich Monate später eine Verfügbarkeit gegeben ist. Also jetzt nicht bei Consumerprodukten, aber bei den Prestigeprodukten.
Wenn jemand da ein "Problem" damit hat, dass NV erst später liefert als bei der Ankündigung projeziert, soll er eben zur Konkurrenz gehen. Wobei, Konkurrenz? Scheint jedenfalls kein so großes "Problem" zu sein.

Ailuros
2016-09-29, 10:44:48
Auch bei spottbilligen DL-TOPs muss man sich fragen was da gemacht wurde. Das Ding hat 512SP. Pascal hat im Moment Int8 bei 4facher FP32 Geschwindigkeit. Aber das kommt noch nicht hin, denn das wären selbst bei 2 Ghz nur 2Gflops und 8 DL-TOPs. Selbst wenn man auf 8fache Geschwindigkeit im Vergleich zu FP32 geht, passt das noch immer nicht. Da braucht man noch immer 2,5ghz Shadertakt für 20 TOPs. Ich frage mich eher, ob die 512 SP von Volta nicht fundamental anders als bisher sind.

GPU + CVA (computer vision accelerator)?

Auf rein theoretischer Basis waere zusaetzliche dedizierte INT Logik wenn noetig auch nichts Neues: https://imgtec.com/blog/powervr-series7xt-plus-gpus-advanced-graphics-computer-vision/ Soll heissen: zu vorigen ALUs/pipelines hat sich sonst auch nichts geaendert ausser der zusaetzlichen INT Logik.

Das Problem ist, das nVidia seit einiger Zeit Produkte ankündigt, dann aber ers zich Monate später eine Verfügbarkeit gegeben ist. Also jetzt nicht bei Consumerprodukten, aber bei den Prestigeprodukten.


Es ist zwar wahr dass im Automotive die Hersteller normalerweise nur ankuendigen wenn das sampling fuer ihre Partner anfaengt, aber im gegebenen Fall interessiert es eher die Bohne da es fuer NV's high end automotive Material sowieso noch keinen wahren Konkurrenten giebt. Deutet ja Skynake oben auch an. Zeig mir mal wo es vergleichbares Material egal von wem genau momentan gibt.

Jetzt kaeme natuerlich die logische Frage, warum man so frueh vor-ankuendigen sollte wenn man im Grund konkurrenzlos ist....Moeglichkeiten waere:

* Man informiert seine Investoren wohin die zusaetzlichen Tegra Kosten der letzten Zeit gegossen wurden (ja NV hat zusaetzlich fuer den Denver Nachfolger engineers eingestellt).
* Man bleibt mal wieder im Gespraech weil fast jeder techno-freak fuer GPUs sich wundern wird was zum Henker genau mit Volta ankommen wird.

Hübie
2016-09-29, 12:40:27
Was oft hinten runter fällt ist ja dass es entsprechende Softwarelösungen geben muss. Bibs, Programme, APIs... Das ist nicht mal eben so geschrieben und angewandt.

Skysnake
2016-09-29, 18:26:58
Ja keineswegs, aber wenn man sich z.B. CUDA8 anschaut, dann ist das ziemlich ernüchternd.

Juhu, wir kopieren jetzt nicht mehr den kompletten buffer sondern machen pagefaults. Gut, dann muss man jetzt eine Page kopieren, wobei ich mich eigentlich daran erinnere, dass das mit CUDA 6 an sich schon so gehen sollte.... Zumindest hatten die Analysen von einem Kollegen das mal angedeutet. Ist jetzt aber auch schon einige Zeit her, vielleicht erinnere ich mich da auch falsch. Auf jeden Fall wird das wohl eher nicht performanter sein als von Hand zu kopieren. Also wenn man den gesamten Speicher brauch. Bei einzelnen pages muss man es sich eventuell nochmals im Detail anschauen.

Was ganz cool aussschaut ist der Sync auf Groups. Da wird man aber noch schauen müssen, wie es genau abläust, aber ingesamt vielversprechend :up: wenn auch an sich überfällig. AMD hats ja bis heute nicht geschissen bekommen, obwohl es die Hardware wohl können sollte...

Den ganzen CUDA-Libs rotz können Sie von mir aus aber behalten. Da halte ich nicht wirklich viel davon, da die Dinger auch nur so viel besser sind als alles andere, weil ihre DOKU zum kotzen ist.... Ich hätte lieber eine gescheite DOKU als irgendwelche LIBS.

Mancko
2016-09-29, 19:04:43
https://www.youtube.com/watch?v=S1m_p1ygMkg
Volta erst Ende 2017 (Minute 6 im Video), wobei wohl eher erst 2018.

WIR müssen uns um Volta 2017 wohl eher keine Gedanken machen, genau wie mit P100. Btw. Auf TOP500.org gibts jetzt sogar Meldungen von den ersten DGX Maschinen die ausgeliefert werden -.- Wuhu. 8-9 Monate (?) nach Vorstellung bekommen die ersten "Normals" einzelne Kisten...

Entspricht genau dem was sie gesagt haben. Die Maschinen davor gab es nur für die Premium Kunden / Partner.

Nakai
2016-10-01, 13:26:56
GPU + CVA (computer vision accelerator)?
Auf rein theoretischer Basis waere zusaetzliche dedizierte INT Logik wenn noetig auch nichts Neues: https://imgtec.com/blog/powervr-series7xt-plus-gpus-advanced-graphics-computer-vision/ Soll heissen: zu vorigen ALUs/pipelines hat sich sonst auch nichts geaendert ausser der zusaetzlichen INT Logik.


Die werden zusätzliche INT-Logik verbaut haben, ja.
Man weiß aber nicht, was die alles als DL-OP sehen.

Pro SP kann man schonmal drei Operanden laden, wegen FMA: AxB+C.
Jeder Operand ist FP32, also 32 Bit breit, ergo 96 Bit, was parallel verarbeitet werden kann.
Was macht ein DL-Netzwerk? Reduktions-Summen von gewichteten Vektoren bilden. welche dann in eine SF gestopft werden. Ergo FMA auf vektorisierten INT8-Daten klingt schonmal sehr gut.

Erster Teil:
AxB bei INT8 => sind schonmal 4 DL-OPs
(+C) bei INT8 => sind nochmal 4 DL-OPs
Das reicht nicht. Ich vermute, die haben noch Reduktionsfunktionalität für die AxB-Multiplikation und für den (+C)-Teil. Am Ende muss eine INT32-Summe rauskommen, ergo würde ich für jegliche Operation die hier notwendig ist, auf 11 (12) DL-OPs pro SP kommen, wenn man eine SFU hinzuzählt.

SFU[(A1xB1 + A2xB2 + A3xB3 + A4 x B4 ) + (C1 + C2 + C3 +C4)]


512SP x 12 x 1,5 (2,0 Ghz) = 9 DL-TOPs (12 DL-TOPs)

Das reicht nicht.
Sind das echte FP64-Einheiten, dann würde man mit Faktor ~2 arbeiten können und wäre auf diesem Level.

Hübie
2016-10-01, 17:14:00
Gut so einen Insider wie dich zu haben. :up: Meinst du mit "SF" die special function? Eine andere Abkürzung würde für mich gerade keinen anderen Sinn ergeben, aber ich frage sicherheitshalber mal nach. =)

Nakai
2016-10-01, 19:51:57
Gut so einen Insider wie dich zu haben. :up: Meinst du mit "SF" die special function? Eine andere Abkürzung würde für mich gerade keinen anderen Sinn ergeben, aber ich frage sicherheitshalber mal nach. =)

Mit SF meinte ich schon Special Function. Hierzu habe ich zwei Gedanken:
- Entweder man meint eine Saturierungsfunktion, welche die aufsummierten Werte (auf einen INT32-Register) wieder normalisiert und shiftet, damit wieder ein "brauchbarer" INT8-Wert ausgespuckt wird. Wie das WriteBack bei sowas dann funktioniert => kA
Oder:
-Bei DL also Neuronalen Netzwerken gibt es verschiedene untypischere Aktivierungsfunktionen, um den Endwert eines künstlichen Neurons zu berechnen.

https://en.wikipedia.org/wiki/Activation_function

Eine einfache ReLU wird man nicht mehr verwenden, bzw. das werden mittlerweile Modifikationen angewendet. Und diese können rechenintensiv sein, sind jedoch nur am Ende einer großen Menge an Summationen und Multiplikationen zu erwarten, also zu vernachlässigen, jedoch nicht für Marketingzahlen.;)

Die einzige Möglichkeit, die ich sehe, wie man mit den ganzen SPs auf diese nette Zahl von 20 DL-TOPs kommt, wären FP64-Einheiten mit support von 23~24 DL-OPs pro SP. Ich denke eher, der CVA (ComputerVisionAccelerator) wird hierbei verwendet werden.

AnarchX
2016-10-02, 09:39:13
http://img.pconline.com.cn/images/bbs4/200910/28/1256708292739.jpg
http://itbbs.pconline.com.cn/diy/10701383.html#

http://itbbs.pconline.com.cn/diy/10701383.html


Was ich ja nicht verstehe ist warum sie mit 3 FPUs/Throughput Core rechnen.


Die Triple-FPU ist vielleicht das Herz von Volta.

Ailuros
2016-10-02, 10:16:11
Na ja, wenn sich das mit dem Pascal-Refresh nächstes Jahr bestätigt wirst du Volta-Grafiikkarten frühestens Mitte 2018 in Händen halten. Xavier + GV110 gibts sicherlich schon früher. Gibts nen Zeitrahmen für Xavier? Das PX2 ist doch grad taufrisch oder?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11170482&postcount=6141

Da Xavier fuer ASIL C gemeint ist, klingt sogar H2 18' schon optimistisch.

Ailuros
2016-10-02, 10:17:01
Die werden zusätzliche INT-Logik verbaut haben, ja.
Man weiß aber nicht, was die alles als DL-OP sehen.

Pro SP kann man schonmal drei Operanden laden, wegen FMA: AxB+C.
Jeder Operand ist FP32, also 32 Bit breit, ergo 96 Bit, was parallel verarbeitet werden kann.
Was macht ein DL-Netzwerk? Reduktions-Summen von gewichteten Vektoren bilden. welche dann in eine SF gestopft werden. Ergo FMA auf vektorisierten INT8-Daten klingt schonmal sehr gut.

Erster Teil:
AxB bei INT8 => sind schonmal 4 DL-OPs
(+C) bei INT8 => sind nochmal 4 DL-OPs
Das reicht nicht. Ich vermute, die haben noch Reduktionsfunktionalität für die AxB-Multiplikation und für den (+C)-Teil. Am Ende muss eine INT32-Summe rauskommen, ergo würde ich für jegliche Operation die hier notwendig ist, auf 11 (12) DL-OPs pro SP kommen, wenn man eine SFU hinzuzählt.

SFU[(A1xB1 + A2xB2 + A3xB3 + A4 x B4 ) + (C1 + C2 + C3 +C4)]


512SP x 12 x 1,5 (2,0 Ghz) = 9 DL-TOPs (12 DL-TOPs)

Das reicht nicht.
Sind das echte FP64-Einheiten, dann würde man mit Faktor ~2 arbeiten können und wäre auf diesem Level.

Aus dem B3D forum schamlos kopiert, siehe Eyeriss:

http://www.rle.mit.edu/eems/wp-content/uploads/2016/02/eyeriss_isscc_2016_slides.pdf

AnarchX
2016-10-02, 10:31:05
Da kann man auch gleich wieder den Rasterteil/TMUs/ROPs in FLOPs umrechnen... :ugly:

AffenJack
2016-10-02, 11:24:38
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11170482&postcount=6141

Da Xavier fuer ASIL C gemeint ist, klingt sogar H2 18' schon optimistisch.

Xavier in Autos ist ein ~2020 und später Produkt. Vorher wirst du da nix von sehen. Es geht nur um Sampling erstmal und das vorzeigen bei Partnern. Während PX2 mit externen GPUs eigentlich nur ne Entwicklungsplattform in Kleinstserie ist, soll Xavier dies dann gelernte auf den Markt bringen. 2018 ist eher nen Zeitpunkt wo erste Autos mit PX2(ohne GPU) erscheinen könnten.

Hübie
2016-10-02, 11:44:53
Aus dem B3D forum schamlos kopiert, siehe Eyeriss:

http://www.rle.mit.edu/eems/wp-content/uploads/2016/02/eyeriss_isscc_2016_slides.pdf

Ich sehe da gerade keinen Zusammenhang zu Volta :D Erklärt jedoch gut wie die DL-TOPs gerechnet werden.

Nakai
2016-10-02, 16:46:35
Aus dem B3D forum schamlos kopiert, siehe Eyeriss:

http://www.rle.mit.edu/eems/wp-content/uploads/2016/02/eyeriss_isscc_2016_slides.pdf

Wie, ich hab das schamlos kopiert?:confused:

Ich habe selber vor ~1 Jahr schon eine Lib für DL für CPU und GPGPU geschrieben, mit Trainingsalgorithmen (Gradient-Descent Backpropagation, PSO) und Support verschiedener Datentypen (Fixpoint verschiedener Größen bis hin zu FP64). Hinzu mehrere Ansätze für ASIC-FPGA-Implementierungen in VHDL mit Interaktion von CortexA9-Kernen und CustomLogik über AXI4.

Ich sehe da gerade keinen Zusammenhang zu Volta :D Erklärt jedoch gut wie die DL-TOPs gerechnet werden.

Bis auf, dass Joel Emer ein Mitarbeiter von NV ist.

Leonidas
2016-10-02, 18:53:44
Rein terminlich sehe ich auf allen früheren und neueren NV-Roadmaps Volta immer im selben Abstand zu Pascal eingezeichnet wie zu den früheren Chips - und bei diesen gibt NV den Abstand mit 2 Jahren.

Sieht für mich also aus, als wäre Volta grob genauso zu sehen. Consumer-Modelle nicht vor Mitte 2018 wäre demzufolge das normalste von der Welt. Und dann kann man sicherlich schon auf TSMCs 10nm zurückgreifen. Jener soll schließlich ganz anständig werden - und ist zu diesem Zeitpunkt auch ziemlich sicher verfügbar:
http://www.3dcenter.org/news/tsmc-mit-geringeren-technischen-fortschritten-bei-der-10nm-und-7nm-fertigung

Hübie
2016-10-03, 00:49:02
Also wer glaubt 2017 Volta in seine Kiste schrauben zu können sollte sich mal an den Kopf fassen und fühlen ob die Temperatur stimmt. =)
@Nakai: NV forscht ja viel. So ein custom ASIC steckt selbstverständlich jede GPU in die Tasche. Gewonnene Erkenntnisse gehen sicher früher oder später in so eine 'GPU' ein (sofern man den Prozessor dann überhaupt noch so bezeichnen sollte).

Ailuros
2016-10-03, 10:41:20
Ich sehe da gerade keinen Zusammenhang zu Volta :D Erklärt jedoch gut wie die DL-TOPs gerechnet werden.

Wenn Du Nakai's post mit meinem quote zurueckverfolgst kann man leicht sehen dass der link dazu gemeint war um die fehlenden DL TOPs spekulativ zu gerechtfertigen, Captain Obvious :biggrin:

----------------------------------------------------------------------
Nakai,

Nein. Ich hab den Link aus dem B3D forum hier reinkopiert.

----------------------------------------------------------------------

Xavier in Autos ist ein ~2020 und später Produkt. Vorher wirst du da nix von sehen. Es geht nur um Sampling erstmal und das vorzeigen bei Partnern. Während PX2 mit externen GPUs eigentlich nur ne Entwicklungsplattform in Kleinstserie ist, soll Xavier dies dann gelernte auf den Markt bringen. 2018 ist eher nen Zeitpunkt wo erste Autos mit PX2(ohne GPU) erscheinen könnten.

Musst Du mir nicht erzaehlen. Eher den Herren die nichts besseres zu tun haben als im unendlichen Klugscheisser-modus das forum vollzuspammen *hust* :P

Also wer glaubt 2017 Volta in seine Kiste schrauben zu können sollte sich mal an den Kopf fassen und fühlen ob die Temperatur stimmt. =)

https://forum.beyond3d.com/threads/nvidia-volta-speculation-thread.53930/page-2

Es waere eine ziemlich grosse Ueberraschung wenn folgendes NICHT zutreffen sollte:

* GV100 ist HPC only und auf 16FF+ TSMC.
* NV wird 10FF TSMC womoeglich links liegen lassen und sie gehen direkt von 16FF+ auf 7FF, weil eben 10FF ein zu kleiner Zwischenschritt sein wird fuer N Mal hoehere Herstellungskosten.
* Desktop Volta SKUs werden NICHT vor 2018 erscheinen.

HOT
2016-10-03, 11:37:51
Hm, war das nicht ein GV110? Gibt ja offenbar keinen GV100 mehr.

Der würde 10nm nutzen, da hat Leo recht. Ich denke das wird eher so laufen:
2017 16nm Pascal Refresh
2018 10nm Volta-Ergänzung (nur GV104 und GV102, GV110 dann als GP100-Ersatz)
2019/20 7nm Volta-"Shrink", dann mit komplettem Lineup

ODER

Volta ist 16nm, dann ersetzen GV104 und GV102 GP104 und GP102, dann ist der Leistungssprung aber lange nicht so groß.

Hübie
2016-10-03, 11:44:59
So richtig mitlesen tust du nicht, oder? :|

Ailuros
2016-10-03, 11:54:30
So richtig mitlesen tust du nicht, oder? :|

Wozu? Ein so brutaler Kontrast hilft immer :P

HOT
2016-10-03, 11:55:05
So richtig mitlesen tust du nicht, oder? :|
Erhelle mich :D Ail versteht mich :D.
Habs mal etwas angepasst.

Hübie
2016-10-03, 11:59:36
Es waere eine ziemlich grosse Ueberraschung wenn folgendes NICHT zutreffen sollte:

Reicht das?:biggrin:

HOT
2016-10-03, 12:01:09
Reicht das?:biggrin:
Hä? ne...:frown:
Ich seh das anders, wie gesagt. Die werden die Mehrkosten tragen um jeden kleinen Vorteil direkt in den HPC-Markt mitzutragen.

Ailuros
2016-10-03, 12:02:48
Erhelle mich :D Ail versteht mich :D.
Habs mal etwas angepasst.

"Verstehen" im gegeben Fall wuerde heissen dass ich abwarten sollte was Du zu X Thema spekulieren wuerdest und genau das Gegenteil behaupten :biggrin:

iuno
2016-10-03, 12:04:39
* GV100 ist HPC only und auf 16FF+ TSMC.
* NV wird 10FF TSMC womoeglich links liegen lassen und sie gehen direkt von 16FF+ auf 7FF, weil eben 10FF ein zu kleiner Zwischenschritt sein wird fuer N Mal hoehere Herstellungskosten.
* Desktop Volta SKUs werden NICHT vor 2018 erscheinen.
Heißt das jetzt, dass der große Volta einen shrink bekommt und die desktop chips dann direkt in 7FF kommen? Oder erst die Architektur danach in 7FF?
Und was ist eigentlich vom Pascal refresh zu erwarten? Nur höhere Taktraten oder auch neue Revisionen (GP2xx oder GP11x)?

Ailuros
2016-10-03, 12:09:48
Heißt das jetzt, dass der große Volta einen shrink bekommt und die desktop chips dann direkt in 7FF kommen? Oder erst die Architektur danach in 7FF?

Der Nachfolger von Volta wird wohl schwer vor 2020 erscheinen. IMHO wenn GV100 ein waschreiner HPC only chip sein wird, dann klingt es verdammt eng selbst einen GV104 auch in 16FF+ quetschen zu wollen.

Und was ist eigentlich vom Pascal refresh zu erwarten? Nur höhere Taktraten oder auch neue Revisionen (GP2xx oder GP11x)?

Marketing wird immer etwas kreatives finden koennen um mit dem Eindruck zu spielen dass etwas "Neues" geliefert wird. Dank diametrisch besserer yields erwarte ich auf jeden Fall ein um einiges besseres perf/$ Verhaeltnis.

HOT
2016-10-03, 12:11:06
Heißt das jetzt, dass der große Volta einen shrink bekommt und die desktop chips dann direkt in 7FF kommen? Oder erst die Architektur danach in 7FF?
Und was ist eigentlich vom Pascal refresh zu erwarten? Nur höhere Taktraten oder auch neue Revisionen (GP2xx oder GP11x)?
Würd ich jedenfalls sagen. Erst ersetzen die wieder nur die obenren Segmente, mit 7nm dann glaub ich alles.
Da die GP-Serie noch einige Zeit aktuell bleiben könnte, wär beides denkbar.

AffenJack
2016-10-03, 13:55:01
Der Nachfolger von Volta wird wohl schwer vor 2020 erscheinen. IMHO wenn GV100 ein waschreiner HPC only chip sein wird, dann klingt es verdammt eng selbst einen GV104 auch in 16FF+ quetschen zu wollen.


Da muss ich wiedersprechen, der Nachfolger von Volta wird bestimmt 2019 erscheinen, denn man wird nicht AMD den 7nm Vorteil lassen(Ja ich gehe von Navi in 7nm 2019 aus). Der Nachfolger von GV100 ist was anderes, den kann ich mir durchaus erst 2020 vorstellen.

Wieso sollte es eng sein, GV104 in 16FF+ zu quetschen? Auf 400mm² kann man da durchaus gehen. Für GV102 wird es eher eng, aber wenn man nah an 600mm² geht, hätte man da auch den Platz. Nur die Kosten sind dann nicht allzu gering. Am fragwürdigsten ist immernoch GV100 für mich in 16FF+ und bisher würde ich da immernoch 10nm annehmen. Der kann dann auch locker bis 2020 so bleiben.

scully1234
2016-10-03, 13:59:31
"Verstehen" im gegeben Fall wuerde heissen dass ich abwarten sollte was Du zu X Thema spekulieren wuerdest und genau das Gegenteil behaupten :biggrin:

Wenn es der Trefferquote dient nur zu =)



Wieso sollte es eng sein, GV104 in 16FF+ zu quetschen?

Vielleicht nicht eng, aber möglicherweise gar nicht benötigt

Die zweite Iteration von Pascal im Consumer Bereich steht ja auch noch aus, kann mir nicht vorstellen das man die Architektur nicht noch mal melkt naechstes Jahr in 16 nm

Allein dadurch duerfte sich der Bedarf an einem 16nm GV104 doch sehr weit nach hinten verlagern, gar so weit das 7nm schon spruchreif ist und man diesen Vorteil selbstredend mit nimmt


Und hier im Video wird auch schon von 10 nm Testchips geredet...

https://youtu.be/pRz_CG3DZb4?t=485

iuno
2016-10-03, 14:10:56
ok, danke
Da muss ich wiedersprechen, der Nachfolger von Volta wird bestimmt 2019 erscheinen, denn man wird nicht AMD den 7nm Vorteil lassen(Ja ich gehe von Navi in 7nm 2019 aus). Der Nachfolger von GV100 ist was anderes, den kann ich mir durchaus erst 2020 vorstellen.
Wir wissen noch gar nichts zu GFs 7nm Prozess und genausowenig zu AMD GPUs die damit kommen sollen. Es waere ja nicht das erste Mal, dass sich in der Fertigung etwas verspaetet oder den Anspruechen nicht gerecht wird. Vielleicht bringt AMD analog zu Polaris mit Navi auch erstmal nur kleine Chips. Was sollte das NV jucken?

Wieso sollte es eng sein, GV104 in 16FF+ zu quetschen? Auf 400mm² kann man da durchaus gehen. Für GV102 wird es eher eng, aber wenn man nah an 600mm² geht, hätte man da auch den Platz
Fragt sich nur, ob man es ueberhaupt je wieder so ausarten lassen will, wie noch bei 28 nm. Und das auch noch ohne Not.

Hübie
2016-10-03, 14:33:16
Wenn mich nicht alles täuscht kommt mit 7nm auch quadruple pattering. Da wird das Design also noch mal um einiges ausgeweiteter und somit (so stelle ich mir das zumindest vor) exponentiell schwieriger. Das im Umkehrschluß bedeutet entweder längere validating- bzw. bugfixing-phase und / oder yields. Kann genau so gut geistiger Dünnpfiff von mir sein, aber ich glaube eher nicht. ;)

Ailuros
2016-10-04, 08:40:26
Da muss ich wiedersprechen, der Nachfolger von Volta wird bestimmt 2019 erscheinen, denn man wird nicht AMD den 7nm Vorteil lassen(Ja ich gehe von Navi in 7nm 2019 aus). Der Nachfolger von GV100 ist was anderes, den kann ich mir durchaus erst 2020 vorstellen.

Dummerweise meinte ich eigentlich den HPC Nachfolger. Sonst klingt mir 7nm fuer die Gruenen in 2019 sogar zu spaet.

Wieso sollte es eng sein, GV104 in 16FF+ zu quetschen? Auf 400mm² kann man da durchaus gehen. Für GV102 wird es eher eng, aber wenn man nah an 600mm² geht, hätte man da auch den Platz. Nur die Kosten sind dann nicht allzu gering. Am fragwürdigsten ist immernoch GV100 für mich in 16FF+ und bisher würde ich da immernoch 10nm annehmen. Der kann dann auch locker bis 2020 so bleiben.

Du hast Recht; ich meinte natuerlich den groessten desktop chip ergo alles "102".

Fuer GV100@16FF+ ist IMHO wahrscheinlich so manches entfernt worden, sonst passt es auch nie und nimmer.

HOT
2016-10-04, 09:16:47
10nm ist diesmal nicht wie 20nm zu sehen, da musste ich meine Meinung ändern. Sicherlich sind die Kosten recht hoch für den Prozess, aber die Wirkung ist nicht so vernachlässigbar offenbar. Und der Zwang durch die Die-Größe ist wohl auch stärker dieses Mal. Noch besser wär natürlich, wenn sie direkt auf N7 springen würden. Jedoch ist das ein Risiko, welches i.Ü. AMD ebenfalls eingeht.

Ailuros
2016-10-04, 09:32:37
Seit wann aenderst Du Deine Meinung? Nachdem etwas doch nicht so aussieht wie anfangs spekuliert? :P

Spass beiseite: das was 20SoC und 10FF quasi gemeinsam haben ist dass 16/7FF zu nahe zeitlich an den vorigen liegen.

HOT
2016-10-04, 09:36:24
Deswegen schrieb ich ja ganz zu Angang, dass Volta in 7nm in 2018 auch direkt denkbar wäre. Der SoC hat das etwas durcheinandergeworfen, da dieser Volta in 16FF bringt.

AffenJack
2016-10-04, 09:50:35
Dummerweise meinte ich eigentlich den HPC Nachfolger. Sonst klingt mir 7nm fuer die Gruenen in 2019 sogar zu spaet.

Ok, dann sindwa uns da ja einig. Wie stellst du dir 7nm vor 2019 vor? Den Anfang der ersten 7nm Wafer wird Apple etc abnehmen und ich glaube in 2018 bleibt da nix für GPU-Fertiger übrig, die Yield muss da auch erstmal steigen. Ich "freu" mich auch schon auf die Preisdiskussionen bei 7nm, denn da werden wir eher nen max. 200mm² GX104 im hohen Preisbereich sehen, das wird lustig.

Aber dann würden alle bisherigen Gerüchte über Volta @ 16FF bei den kleineren Chips kein Sinn mehr machen und es würde nur GV100 in 16FF kommen? Denn wenn man Anfang 2018 Volta noch launcht in 16FF, wird da das nächste wenn dann eher Mitte 2019 kommen. Gibts da irgendnen Hintergrundgeflüster, dass wir Consumervolta erstmal nicht sehen werden?

HOT
2016-10-04, 09:57:10
Schon die ganze Weile, bis auf ein kleines Asiagerücht zwischendurch und die allererste Roadmap die das erwähnt, ist doch von Volta immer für 2018 angesetzt gewesen.
Wann kommt der Apple 10nm SoC denn eigentlich konkret auf den Markt? Das würd bei der Einschätzung helfen.

AffenJack
2016-10-04, 10:03:50
Ja Volta natürlich 2018, aber die Frage war halt in welchem Prozess. Apple produziert ab Frühjahr 2017 A11 in 10nm. Frühjahr 2018 A12 dann wohl 7nm. Aber es sieht ja eher so aus, dass die meisten 10nm überspringen. 10nm in 2018 wäre überhaupt kein Problem, aber 7nm wird eher schwierig.

Ailuros
2016-10-04, 10:04:56
Ok, dann sindwa uns da ja einig. Wie stellst du dir 7nm vor 2019 vor? Den Anfang der ersten 7nm Wafer wird Apple etc abnehmen und ich glaube in 2018 bleibt da nix für GPU-Fertiger übrig, die Yield muss da auch erstmal steigen. Ich "freu" mich auch schon auf die Preisdiskussionen bei 7nm, denn da werden wir eher nen max. 200mm² GX104 im hohen Preisbereich sehen, das wird lustig.

Fuers letzte hoere ich staendig im Hintergrund dass 10FF die Kosten-steigerung fuer dessen Leistungssteigerung nicht wert ist. Es gab sogar Geruechte dass TSMC 10FF hauptsaechlich fuer Apple auflegte, welches mir aber etwas zu weit getrieben erscheint.

Weiss der Geier was TSMC fuer 7nm genau plant oder im Hinterkopf hat, es haengt ja auch hauptsaechlich von denen ab und was sie genau dafuer leisten koennen. Die naechste daemliche Frage waere wann Samsung ihren 7nm Prozess genau plant, ob Apple wieder ausschliesslich fuer 7nm bei TSMC bleiben will und was Sammy parallel dazu genau anrichten kann.

Aber dann würden alle bisherigen Gerüchte über Volta @ 16FF bei den kleineren Chips kein Sinn mehr machen und es würde nur GV100 in 16FF kommen? Denn wenn man Anfang 2018 Volta noch launcht in 16FF, wird da das nächste wenn dann eher Mitte 2019 kommen. Gibts da irgendnen Hintergrundgeflüster, dass wir Consumervolta erstmal nicht sehen werden?

Der Hintergrund will Volta so schnell wie moeglich um u.a. Vertraege wie fuer Oak Ridge zu bedienen. Dafuer macht 16FF+ in Zussammenhang mit Q3/4? 2016 fuer erste testsamples auch mehr Sinn.

H2 17' = Pascal reloaded 16FF+, GV100 mass production
H2 18' = GV10x 7FF?
H2 19' = GV100 Nachfolger?

Kann und muss auch nicht so stimmen, aber da ich keine Auslieferung von GV100 vor knapp Anfang 18' erwarte, erwarte ich auch von dessen Nachfolger nichts frueher als Anfang 20'.

Leonidas
2016-10-04, 10:12:16
Wann kommt der Apple 10nm SoC denn eigentlich konkret auf den Markt? Das würd bei der Einschätzung helfen.


Mediatek will mit dem X30 im Frühling 2017 den Anfang machen. Wobei schwer zu sehen ist, wann es dann kaufbare Produkte damit gibt - erst auf Basis dieses Datums kann man auf 10nm-Grafikkarten schließen (plus 9-12 Monate von diesem Datum aus).

HOT
2016-10-04, 10:30:40
Ok, dann wirds für Volta @N7 wirklich eng in 2018. Ich denke, das wird man so nicht machen wollen. Wenn man N10 eben überspringt, bleibt dann tatsächlich nur Volta @16FF+ in 1HJ 2018. Dann macht das mit den 3 Chips auch Sinn, dann ist das nämlich, ähnlich wie bei Maxwell, eine Lebensverlängerung des 16FF+ mit neuer Architektur, also ein Tock quasi. In 2019 kann man dann in Ruhe dann ein komplettes Refreshlineup in N7 von Volta bringen, ähnlich wie bei Pascal. Das dauert ja auch seine Zeit die ganzen Chips zu designen, das wären dann ja auch wieder 4-6 in N7. Je kleiner die Fertigung, desto "größer" die Chips, desto mehr Manntage in der Entwicklung.
GloFo wirds aber auch nicht früher schaffen mMn, V20 wird 14HP sein. Dann würde es 2019 dann Navi 7HP vs. Volta2 N7 heißen. Das klingt plausibel.

Ailuros
2016-10-04, 10:33:14
Mediatek will mit dem X30 im Frühling 2017 den Anfang machen. Wobei schwer zu sehen ist, wann es dann kaufbare Produkte damit gibt - erst auf Basis dieses Datums kann man auf 10nm-Grafikkarten schließen (plus 9-12 Monate von diesem Datum aus).

Αpple A11 wird hoechstwahrscheinlich im Herbst 2017 erscheinen. Apple geht stets Monate vor dem hard launch in Massenproduktion ergo ist MTKs Zeitplan diesbezueglich eher nebensaechlich, auch u.a. da MTK noch lange nicht so viele ihrer "high end" SoCs brauchen wie Apple.

***edit: ich sehe gerade dass fudzilla den ersten wirklich interessanten newsblurb ueber NVIDIA gepostet hat http://www.fudzilla.com/news/graphics/41746-fun-historical-fact-for-amd-fanboys

:D

AffenJack
2016-10-04, 12:38:21
H2 17' = Pascal reloaded 16FF+, GV100 mass production
H2 18' = GV10x 7FF?
H2 19' = GV100 Nachfolger?

Kann und muss auch nicht so stimmen, aber da ich keine Auslieferung von GV100 vor knapp Anfang 18' erwarte, erwarte ich auch von dessen Nachfolger nichts frueher als Anfang 20'.

Da seh ich einfach das Problem, 2018 7nm wird nix werden bei GPUs bei TSMC. Höchstens Gf nach den letzten News könnte da was haben, aber bei TSMC wird Apple etc einfach alles brauchen und die Yield wird noch zu schlecht sein. Höchstens GV102/GV104 in 16FF in H1 18 und GV106/GV107 dann direkt in 7FF 6-12 Monate später. Ich glaube Hot hatte das sogar mal vorgeschlagen.

Ailuros
2016-10-04, 13:09:28
Da seh ich einfach das Problem, 2018 7nm wird nix werden bei GPUs bei TSMC. Höchstens Gf nach den letzten News könnte da was haben, aber bei TSMC wird Apple etc einfach alles brauchen und die Yield wird noch zu schlecht sein. Höchstens GV102/GV104 in 16FF in H1 18 und GV106/GV107 dann direkt in 7FF 6-12 Monate später. Ich glaube Hot hatte das sogar mal vorgeschlagen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11174652&postcount=401

Man kann sich aber auch nicht auf die Tabelle verlassen da es sich nur um Projektion von jedermans Marketing Abteilung handelt.

Sonst sehe ich vor H2 2018 immer noch nichts von Volta desktop.

Hübie
2016-10-04, 13:45:26
Ende '17 Volta HPC, H2 '18 Volta Desktop. Erster noch 16FF+, letzterer würfeln wir. Ich sag 7nm wird erst mal den SoCs vorbehalten sein. 2019 können wir uns wahrscheinlich 7nm in die Daddelkisten schrauben. Für zwei meiner Statements lege ich die Hand ins Feuer.

Timbaloo
2016-10-04, 19:49:16
Wieso gerade 7nm für SoCs? Oder meinst du nicht-NV-SoCs?

Hübie
2016-10-04, 20:01:07
Allgemein SoCs. Nicht NV-spezifisch.

AffenJack
2016-11-22, 22:00:12
NextPlattform hat ein wenig zu Summit mit Volta geschrieben und da eine Folie von der Supercomputing 16:
https://www.nextplatform.com/wp-content/uploads/2016/10/oak-ridge-summit.jpg
https://www.nextplatform.com/2016/11/20/details-emerge-summit-power-tesla-ai-supercomputer/

Wenig konkretes in Bezug auf Volta dabei, aber die Node Performance mit >40Tflops und 6 Pascal passt zu den im Startpost genannten 7 TF DP.

Ailuros
2016-11-23, 10:33:16
Kann genauso eine Einschaetzung sein wie fuer Pascal, der vor dem launch auch stets mit ~4 TFLOPs DP erwaehnt wurde. Konservativ geht man natuerlich von 7 TFLOPs aus, aber mich wuerden im optimalsten Fall auch eine ~9 TFLOP peak Zahl wenig ueberraschen wenn sie wieder einen 300W TDP erlauben.

Leonidas
2017-01-24, 03:17:35
Was halten wir hiervon?
http://www.foxbusiness.com/markets/2017/01/22/nvidia-corporation-volta-architecture-rumor-emerges.html

Stammend allerdings aus einem Foren-Posting:
https://forum.beyond3d.com/threads/nvidia-volta-speculation-thread.53930/page-6

Blediator16
2017-01-24, 04:20:12
Custom 12nm dürfte unglaublich kostspielig werden, falls es so was überhaupt gibt.

Hübie
2017-01-24, 08:59:27
Was halten wir hiervon?
http://www.foxbusiness.com/markets/2017/01/22/nvidia-corporation-volta-architecture-rumor-emerges.html

Stammend allerdings aus einem Foren-Posting:
https://forum.beyond3d.com/threads/nvidia-volta-speculation-thread.53930/page-6

Er sagt selbst 'latest rumors'. Also würde ich da erst mal einen Furz drauf geben, da man nun schauen müsste was die Belichtungsmaschinen denn für Specs haben (falls das überhaupt was bringt, da man nicht zwangsläufig Strukturen verkleinern muss um weniger Spannung zu benötigen) und dann auch mal evaluieren ob Kosten<->Nutzen Relation wirklich sinnvoll ist.

Aus dem Bauch heraus würde ich sagen: 16FF+ und eher Einsparungen durch die Architektur. NVIDIA hatte mal einen Vortrag über Schaltvorgänge mit 'Restelektronen'. Da wurden auch einige weitere, interessante Technologien vorgestellt die in der Summe schon Richtung 13-15% gingen. Vielleicht erinnert sich da jemand dran. :D

Ein 'neuer' node kostet imo Zuviel...

tm0975
2017-01-24, 09:07:35
mal anders gefragt. gab es in den letzten jahren eine process node, die nicht zuerst für smartphone-chips verwendet wurde?

rentex
2017-01-24, 09:32:02
Ich glaube nicht. Volta Desktop wird man erst Q2/2018 sehen.

Hübie
2017-01-24, 09:44:41
mal anders gefragt. gab es in den letzten jahren eine process node, die nicht zuerst für smartphone-chips verwendet wurde?

Die ganzen HP Geschichten :biggrin: Aber ansonsten kam alles auf SoC und dort auch zuerst. Wobei ich mir bei 28nm nicht sicher bin. :uponder:

Wiki:

Announced: December 22, 2011
Released: January 9, 2012

Da war SoC-Silizium, so glaube ich mich zu erinnern, noch hinterher (32 & 40 nm). MSM8228 und Co kamen dann in 28 nm. Man korrigiere mich hier ggf.

@rentex: Full ack.

tm0975
2017-01-24, 09:54:31
Die ganzen HP Geschichten
dass ist klar. drum schrieb ich ja process node und nicht process.:smile:

Hübie
2017-01-24, 09:56:40
Daher mein Smiley. :naughty:

BoMbY
2017-01-24, 10:53:52
Custom 12nm dürfte unglaublich kostspielig werden, falls es so was überhaupt gibt.

Die Meldung gab es vor ein paar Monaten: TSMC preparing 12nm process technology (http://www.fudzilla.com/news/processors/42258-tsmc-preparing-12nm-process-technology)

Eigentlich ein nur nochmals verbessertes 16nm dem Anschein nach.

tm0975
2017-01-24, 11:55:02
also quasi ein marketing-prozess?

Ailuros
2017-01-24, 12:11:53
also quasi ein marketing-prozess?

It is expected to offer improved leakage characteristics at a lower cost than its 16nm lineup.

Kommt natuerlich darauf an wieviel weniger leakage und um wieviel niedrigere Preise. Mir klingt es eher nach einem Prozess der eher idealer fuer ULP SoCs waere so in etwa wie 28HPm.

tm0975
2017-01-24, 12:44:54
Immer, wenn ich expected to offer improved... lese, muß ich zwangsläufig an "flexibel, belastbar, innovativ, kreativ, teamfähig, begeisterungsfähig und kreativ" denken. :-)

Ailuros
2017-01-24, 13:43:26
"it is expected (to offer)" ist aber immer noch ehrlicher als "will offer", da der Author aus verstaendlichen Gruenden nicht fuer's Marketing von TSMC verantwortlich sein will.

tm0975
2017-01-24, 13:49:10
meinte auch eher das improved

Ailuros
2017-01-24, 13:55:10
Gegen Varianten wie 16FFC oder dergleichen koennte es sehr wohl ein paar Vorteile haben. Beim Verdacht dass beide GPU IHVs von 16/14FF wieder 10FF fuer 7FF auslassen werden, ist es dann wohl schon eher so dass fuer grosse Projekte alles nach 16FF+ bis zu 7FF wohl schwer der Rede wert ist (bei aber noch brutaleren Herstellungskosten fuers letzte anscheinend....).

HOT
2017-01-24, 14:18:42
Versteh ich das richtig, dann wäre TSMCs 12nm quasi eine High-End-Variante von 16nm? Das wär ja genau anders zu GloFo, die ja auch 12nm bringen (FDSOI planar), der aber nur für low-End-Zeug gedacht ist.

Hübie
2017-01-24, 19:37:16
Die Meldung gab es vor ein paar Monaten: TSMC preparing 12nm process technology (http://www.fudzilla.com/news/processors/42258-tsmc-preparing-12nm-process-technology)

Eigentlich ein nur nochmals verbessertes 16nm dem Anschein nach.

Steht aber auch nur haltloses Zeug (according to industry sources blah blah). Weder für wen, was oder wann. Ausschließen kann man es nicht, aber noch ist es nicht mal ein Luftballon; eher eine Seifenblase.

AffenJack
2017-01-24, 20:43:25
Euch ist schon klar, dass die gesamten News über 12nm auf einem einzigen Post des Users Xpea bei Beyond3d basieren? Ich lese da zwar nicht oft, aber mir ist bisher nicht aufgefallen, dass er irgendwelche Quellen hätte. Ailuros kann da vielleicht mehr zu sagen, da er oft da unterwegs ist. Ich glaube aber das ist nur Blödsinn und erinnere gerne an die ganzen Vega im Oktober Gerüchte die ihre Basis auch nur hier im Forum bei einem Post eines Members hatten und dann um die Welt gingen.

Unicous
2017-01-24, 23:06:23
Bin bei dem User auch skeptisch, er ist wie Affenjack schon sagte nicht mit Insiderwissen aufgefallen.

Aber generell ist es ja nur eine Frage des Geldes. Bietet der 16FF+++ Vorteile gegenüber seinem Vorgänger und wie viel lässt sich TSMC das kosten.
Da 16/14nm nicht ganz solange vorhalten wird wie 28nm könnte man zumindest das ein oder andere Produkt noch zwischenschieben bevor dann 7nm übernimmt.

Leonidas
2017-01-25, 10:28:57
Ich würde ja als erstes folgenden Gedanken anbringen: Wenn 10nm wegen des (angeblich) geringen Fortschritts nicht genutzt wird - wieso dann 12nm nutzen, was nun definitiv noch weniger Fortschritt bringt?

HOT
2017-01-25, 10:32:57
Na ja, Namen sind Schall und Rauch. Wenn 12nm jetzt eine Abart von 16nm sind ist der Prozess deutlich billiger als 10nm, muss aber theoretisch keine schlechtere Leistung haben (für GPUs). Ist natürlich alle graue Theorie. Ich vermute ja, dass es 12nm zwar gibt aber in Wahrheit auch ein Billigprozess ist. Ich denke weiterhin, dass Volta in 2018 in N7 erscheint.
Das wird auf GV104 vs. V20 hinauslaufen, beide 16GB HBM2, beide 7nm.

tm0975
2017-01-25, 10:35:33
Ich würde ja als erstes folgenden Gedanken anbringen: Wenn 10nm wegen des (angeblich) geringen Fortschritts nicht genutzt wird - wieso dann 12nm nutzen, was nun definitiv noch weniger Fortschritt bringt?

die demgegenüber stehenden kosten werden der grund sein. das verhältnis von aufwand zu nutzen entscheidet ja über die nutzung des prozesses, nicht der nutzen alleine.

Leonidas
2017-01-25, 10:55:39
Naja, wenn der Nutzen von 10nm (angeblich) gering ist, wird 12nm dagegen ein Furz sein - womit auch bei guter Kostenlage da nichts mehr zu retten ist. Da wäre eine reife 16nm-Fertigung der bessere Weg.

IMO denke ich sowieo, die ganzen Gerüchte über 10nm = Müll sind falsch. Dagegen sprechen allein die technischen Daten (16nm zu 10nm gut, 10m zu 7nm sogar minimal schlechter). Meine Vermutung ist, das da schlicht jemand die Geschichte 28nm-20nm-16nm interpoliert auf 16nm-10nm-7nm. Aber dieser Verlauf muß ja auf 16nm gar nicht zutreffen, das wäre reine Spekulation. Und GF bringt 10nm schlicht nur deswegen nicht, weil es für die zu teuer ist, jeden Node mitzugehen.

Ailuros
2017-01-25, 12:58:00
Euch ist schon klar, dass die gesamten News über 12nm auf einem einzigen Post des Users Xpea bei Beyond3d basieren? Ich lese da zwar nicht oft, aber mir ist bisher nicht aufgefallen, dass er irgendwelche Quellen hätte. Ailuros kann da vielleicht mehr zu sagen, da er oft da unterwegs ist. Ich glaube aber das ist nur Blödsinn und erinnere gerne an die ganzen Vega im Oktober Gerüchte die ihre Basis auch nur hier im Forum bei einem Post eines Members hatten und dann um die Welt gingen.

Ich weiss ueber xpea zu wenig weil er sich selber zu gruen anschmiert. Dass er irgendwelche ernsthafte Quellen hat wuerde ich bezweifeln, kann mir aber darueber nicht sicher sein.

------------------------

Leo,

10FF ist nicht "nutzlos" per se, es ist eben nur so dass 7FF zu kurz danach erhaetlich ist dass es die Investition in 10FF von 16FF fraglicher macht. Und nein da ich es selber immer und immer wieder wiederhole der Fetzen kam von einem hochrangigem hw engineer und nicht der Putzfrau von Charlie's Buero. Die genaue Aussage war dass die Investition in 10FF fraglich erscheint wenn man bedenkt wie kurz die Zeit zur 7FF Verfuegbarkeit sein wird.....wobei man auch nochmal betonen sollte dass 7FF womoeglich suendhaft teuer sein duerfte.

Ich hab keinen Schimmer ob ST Microelectronics Prozesse lizenziert oder ob sie selber entwickeln, aber Mobileye (ADAS SoCs) die alle ~3 Jahre einen neuen SoC auflegen werden von 28nm FD-SOI in H1 2018 auf 7FF (sampling) steigen: http://ir.mobileye.com/investor-relations/press-releases/press-release-details/2016/The-Road-to-Full-Autonomous-Driving-Mobileye-and-STMicroelectronics-to-Develop-EyeQ5-System-on-Chip-Targeting-Sensor-Fusion-Central-Computer-for-Autonomous-Vehicles/

Ich weiss jetzt nicht mehr wer bei B3D behauptet hatte dass TSMC 10FF nur fuer Apple entwickelt hat, aber es kann durchaus einer der Spinner wie xpea gewesen sein.

Sonst erfinden foundries wie TSMC Prozess-Varianten in der Art wie das angebliche 12FF meistens fuer ULP SoC Kunden, worauf so mancher Hersteller dieser springen wird wenn man etwas mehr Transistoren reinquetschen kann bei einem um N% niedrigeren Preis.

HOT
2017-01-25, 14:02:22
Naja, wenn der Nutzen von 10nm (angeblich) gering ist, wird 12nm dagegen ein Furz sein - womit auch bei guter Kostenlage da nichts mehr zu retten ist. Da wäre eine reife 16nm-Fertigung der bessere Weg.

IMO denke ich sowieo, die ganzen Gerüchte über 10nm = Müll sind falsch. Dagegen sprechen allein die technischen Daten (16nm zu 10nm gut, 10m zu 7nm sogar minimal schlechter). Meine Vermutung ist, das da schlicht jemand die Geschichte 28nm-20nm-16nm interpoliert auf 16nm-10nm-7nm. Aber dieser Verlauf muß ja auf 16nm gar nicht zutreffen, das wäre reine Spekulation. Und GF bringt 10nm schlicht nur deswegen nicht, weil es für die zu teuer ist, jeden Node mitzugehen.
Seh ich etwas anders. Ich vermute eher, dass die engen Zeitpläne der Foundries der Grund dafür sind, warum GloFo 10nm auslässt. Den braucht man eben nur für Smartphone-SoCs und da ist GloFo eh nicht so stark im Geschäft wie die anderen beiden. Ein zweiter Grund ist die IBM-Fertigung. Die hätten sowieso nur einen großen Sprung gemacht. Ich denke, dass GloFo einfach in einer anderen Situation ist als TSMC oder Samsung. Die Kurzlebigkeit von 10nm ist auch das große Problem für die Grafikchiphersteller, genau wie bei den nicht-ARM-Prozessoren. Wenn N7 bzw. 7nm schon Ende 2018 neue Produkte verspricht, dann ist es einfach sinnlos 10nm-Produkte zu machen, zumal die dann verfügbaren 7nm-Chips sich sehr lange am Markt halten werden, ohne neue Chips bringen zu müssen. Volta wird mMn sehr lange vorhalten bei NV - ist eben mMn ziemlich sicher NVs 7nm-Generation. Es gibt ja keinen weiteren bekannten Fahrplan bei NV. Bei AMD ist das ähnlich, V20 ist einfach ein Pipecleaner für weitere 7nm-Produkte (Zen+ 12-Kerner und Navi).
Man muss dabei wirtschaftlich denken, 7nm-Produkte bedeuten Cashcows am Markt für lange Zeit, 10nm-Produkte eben nicht. Bei Smartphones sind die Stückzahlen so groß und die Chips so klein, da ist das lukrativ aber für andere eben nicht.
Ich denke, dass man auch bei Intel total daneben liegt bei den ganzen Spekus. Cannonlake ist das 10nm-Stiefkind, aber Icelake ist mMn 7nm. 7nm ist der große neue Node und der wird sehr langlebig sein.

Loeschzwerg
2017-01-25, 14:20:29
Intel hat die IGP-Technik seit Skylake offensichtlich nicht mehr weiterentwickelt - weder bei KabyLake, noch bei CoffeeLake, noch bei Cannonlake, nur den Videoprozessor. 7nm ist der große neue Node und der wird sehr langlebig sein.

Woher nimmst du die Gewissheit?

Leonidas
2017-01-25, 15:37:09
10FF ist nicht "nutzlos" per se, es ist eben nur so dass 7FF zu kurz danach erhaetlich ist dass es die Investition in 10FF von 16FF fraglicher macht.



Das würde aber genauso auch für 12nm gelten.

Ich persönlich sehe 12nm eher als kostenoptimierte Zwischenvariante für diejenigen, die 10nm nicht mitgehen wollen. Eher interessant für Projekte mit besonderem Augenmerk auf die Kosten, weniger auf den Fortschritt. Damit exakt für GPUs nicht besonders gut verwendbar, da ohne größeren Vorteil gegenüber 16nm (außer besserem Namen).

Aber in der Tat stochern wir diesbezüglich weitgehend im Nebel.

Nightspider
2017-01-25, 15:41:55
Eigentlich müsste es sich doch lohnen wenigstens die Modelle, die sich am meisten verkaufen auf 10nm zu Shrinken oder?
Bei hohen Verkaufszahlen würde auch ein geshrinkter GP104 und GP106 durch die ~35% Platzersparnis die Prozesskosten wieder reinholen.

Was sind denn die aktuellen Spekus wann der GP104 Nachfolger auf den Markt kommen soll?
Volta war ja aus dem Spiel, richtig?
Also erst 2018 mit dem Volta Nachfolger?

Ailuros
2017-01-25, 16:31:27
Eigentlich müsste es sich doch lohnen wenigstens die Modelle, die sich am meisten verkaufen auf 10nm zu Shrinken oder?
Bei hohen Verkaufszahlen würde auch ein geshrinkter GP104 und GP106 durch die ~35% Platzersparnis die Prozesskosten wieder reinholen.

Wenn die Herstellungskosten unter 10FF gleich waeren dann ja. Da aber jeglicher neuer kleinere Prozess traditionell teurer ist, lohnt es sich wohl eher wenn man einen Pascal refresh will, einfach pro core etwas mehr die area unter 16FF+ zu benutzen.

Was sind denn die aktuellen Spekus wann der GP104 Nachfolger auf den Markt kommen soll?
Volta war ja aus dem Spiel, richtig?
Also erst 2018 mit dem Volta Nachfolger?

Ich weiss zwar nicht was sie fuer 2017 vorhaben, aber es gibt noch genug Platz fuer refreshes unter 16FF+.

HOT
2017-01-25, 17:22:33
Woher nimmst du die Gewissheit?
Habs wieder gestrichen. Hat hier nix verloren.

Eigentlich müsste es sich doch lohnen wenigstens die Modelle, die sich am meisten verkaufen auf 10nm zu Shrinken oder?
Bei hohen Verkaufszahlen würde auch ein geshrinkter GP104 und GP106 durch die ~35% Platzersparnis die Prozesskosten wieder reinholen.

Was sind denn die aktuellen Spekus wann der GP104 Nachfolger auf den Markt kommen soll?
Volta war ja aus dem Spiel, richtig?
Also erst 2018 mit dem Volta Nachfolger?

Shrinks wird es sicherlich nicht mehr geben. Das sind wenn dann immer aktualisierte Chips (siehe V20). Es wird eher so sein, dass NV dieses Jahr noch Pascal als Geforce 2000 Serie Refreshen wird, mit höheren Taktraten und schnellerem Speicher, das klingt jedenfalls für mich plausibel. GV104 dürfte dann Ende 2018 den Markt erreichen, die restlichen GV-Chips erst 2019. Es gibt bislang keinen Volta-Nachfolger, deshalb gehe ich sehr stark davon aus, dass man auch 7nm einsetzen wird. Wie gesagt ergibt das einfach am meisten Sinn. Dann kommt GV104 Ende 2018 und bleibt bis mindestens 2021 aktuell.

rentex
2017-01-25, 18:41:45
Wie geil ist das denn...

http://www.tomshardware.de/nvidia-pascal-refresh-geforce-gtx-20x0-volta-grafikkarten

...wo die das immer aus dem Hut ziehen?

iuno
2017-01-25, 18:50:50
http://www.tomshardware.de/nvidia-pascal-refresh-geforce-gtx-20x0-volta-grafikkarten

Was stand denn da? :ulol:

x-dragon
2017-01-25, 18:55:18
Hier der komplette Link:
*del*

Mist war gerade noch zu finden ...

[edit]
hm, wurde wohl nochmal überarbeitet:
http://www.tomshardware.de/nvidia-pascal-refresh-geforce-gtx-20x0-volta-grafikkarten,news-257757.html

Linmoum
2017-01-25, 18:58:31
Quelle: WCCFTech

:freak:

rentex
2017-01-25, 19:06:18
Verdammt 🙄☝️ Ach WCCF schon wieder...ja ich versteh euch ja schon. Sollten sich in WCTech umbennen 😂 Aber ich seh bei der Toilettenpolizei nix!

davidzo
2017-01-25, 23:33:33
8Ghz GDDR5 auf GP107 (ohne X) LoL ;D

interessanterweise gibt THG auch bei der 1080 8Gbps an, aber mit GDDR5. Dabei sind es bei der 1080 10gbps.
Selbst zum Tabellen kopieren sinds zu blöd:facepalm:

Korvaun
2017-01-26, 07:55:45
Hm, Volta GV104 bestenfalls Ende 2018 (in 7nm)? Das gefällt nV sicher nicht. Das sind knapp 2 Jahre die sie mit Pascal-Refreshes überbrücken müssten. Dazu noch diverse AMD Konkurrenzprodukte im High-End die 2017 erscheinen. Naja, machbar isses natürlich, Pascal-Refresh einfach erst im Frühherbst bringen (ca. September) dann ist der Abstand zu Volta nicht ganz so lang, auch wenn sich 7nm bis Anfang 2019 verschieben sollten. 2 Refresh-Generationen werden wohl nicht kommen (Mai/Juni 2017 und 2018), oder?

HOT
2017-01-26, 09:22:57
Mut dem Refresh wird Pascal dann wohl ausgereizt sein. Aber das da noch ordentlich Potenzial drin steckt sollte unstrittig sein.

Leonidas
2017-01-26, 11:57:30
Quelle: WCCFTech

:freak:


Quelle der Quelle: 3DCenter
https://www.3dcenter.org/news/wie-nvidias-geforce-2000-serie-pascal-refresh-aussehen-koennte

aufkrawall
2017-01-26, 12:03:16
Was will man bei Pascal refreshen? Die Customs boosten an den Rand des durch den Prozess machbaren.

BlacKi
2017-01-26, 13:04:12
naja, hat man 2013 mit kepler auch gemacht.

edit: ich hab erneut resumiert. die umstände sind doch sehr ähnlich. die 780 kam damals auch sehr spät und hat dann eine neue serie mit alten chips aufgelegt. variante 2 auf der hauptseite könnte ich mir durchaus vorstellen, aber dazu muss vega erstmal was taugen wie die 290(x) 2013.

2080ti mit gp102 und 200% für 650dollar?^^

prinz_valium
2017-01-26, 13:13:27
Imho ergibt das alles sinn. Es ist einfach noch genug platz da. Eine 1080ti ist nicht wirklich in sicht.


Lange auf volta warten bringt kein geld.
Für mich wäre nur interessant, was man dann taktmäßig noch rausholen kann.

2200 mhz für eine spekulative 2070 und 2080 müssten es dann schon mindestens sein.
Und je nach preis würde ich dann vllt von 1070 auf 2080 wechseln. Vllt sogar 2080ti.


Ich denke die boardpartner würden es auch begrüßen, weil man die layouts und kühler einfach weiter nutzen kann.

Eine 2080ti gamerock klingt doch nett

Palpatin
2017-01-26, 13:23:32
Was will man bei Pascal refreshen? Die Customs boosten an den Rand des durch den Prozess machbaren.
Kastrierten GP102 mit GDDR Speicher als 2080, Vollausbau mit GDDRX als Titan Nachfolger und falls notwendig noch irgendwas dazwsichen als 2080ti.

Leonidas
2017-01-27, 10:20:01
NV hat nie länger als 1,5J zwischen 2 Generationen gehabt, meistens nur 1J. Man muß halt immer mal wieder was neues bringen.

Ailuros
2017-01-27, 12:00:30
Was will man bei Pascal refreshen? Die Customs boosten an den Rand des durch den Prozess machbaren.

Im gegebenen Fall gilt das letzte eben nicht mit der ganzen Polsterei zwischen den Transistoren, ergo liegt der eigentliche "Rand" dort wo die engineers aufhoeren zu polstern. Sonst sind theoretisch heute die cores "klein" genug um N clusters mehr zu erlauben und metal spins koennen immer noch etwas an Frequenz herausquetschen was bei NV schon immer Tradition war. Bei 472mm fuer GP102 liegt theoretisch noch ein Luftraum von 138mm bis zur P100 Flaeche; ob sie es ausnutzen oder nicht bleibt abzusehen, technisch steht ihnen aber nichts im Weg.

Bei dem Unterton fuehlt es sich schon fast so an als ob Du in Santa Clara
mitentwickeln wuerdest :rolleyes:

NV hat nie länger als 1,5J zwischen 2 Generationen gehabt, meistens nur 1J. Man muß halt immer mal wieder was neues bringen.

Kommt drauf an was man genau unter "Generation" versteht. Maxwell war zwar schon eine quasi neue Generation im Vergleich zu Kepler, aber fuer HPC liegen eigentlich zwischen Kepler und Volta ueber 4 Jahre.

Leonidas
2017-01-27, 12:42:50
Kommt drauf an was man genau unter "Generation" versteht. Maxwell war zwar schon eine quasi neue Generation im Vergleich zu Kepler, aber fuer HPC liegen eigentlich zwischen Kepler und Volta ueber 4 Jahre.


Hätte ich genauer ausdrücken müssen. Ich meinte hier Grafikkarten-Generationen, nicht Architektur-Generationen. Sprich:
GeForce 400, 500, 600, 700, 900, 1000, 2000 ...

AffenJack
2017-01-27, 13:11:26
Im gegebenen Fall gilt das letzte eben nicht mit der ganzen Polsterei zwischen den Transistoren, ergo liegt der eigentliche "Rand" dort wo die engineers aufhoeren zu polstern. Sonst sind theoretisch heute die cores "klein" genug um N clusters mehr zu erlauben und metal spins koennen immer noch etwas an Frequenz herausquetschen was bei NV schon immer Tradition war. Bei 472mm fuer GP102 liegt theoretisch noch ein Luftraum von 138mm bis zur P100 Flaeche; ob sie es ausnutzen oder nicht bleibt abzusehen, technisch steht ihnen aber nichts im Weg.


Heutzutage wird Nv nicht mehr einfach nur paar Cluster dazupacken ohne architekturelle Änderungen. Refreshes werden wenn dann zur Frequenzsteigerung durch Metalspin oder bei besserer Ausbeute zur Aktivierung von ausgeschalteten Einheiten genutzt. Ein neuer Chip ist viel zu teuer im gleichen Prozess.

Ich glaube wie Leonidas schon schrieb an eine neue GPU Q1-Q2 nächsten Jahres und das Nvidia ihre Linie von Big/middle in etwa weiter fahren wird (Bei nicht Titan):
März 2012: Gk104
Mai 2013: GK110
September 2014: GM204 (Verschiebung wegen DX12)
Juni 2015: GM200
Mai 2016: GP104
~ März - Mai 2017: GP102
H1 2018: GV104 (16nm und schon ~400-450 mm²)
H1 2019: GX104 (7nm, mehr oder weniger Volta Shrink, wie Pascal bei Maxwell, da 7nm dann schon zu nah ist wäre ein GV102 in 16nm da dann zu spät)
H1 2020: GX102

Ailuros
2017-01-27, 13:44:24
Heutzutage wird Nv nicht mehr einfach nur paar Cluster dazupacken ohne architekturelle Änderungen.

Ich sagte theoretisch als Antwort dass es nichts mehr als refresh fuer Pascal geben koennte.

Refreshes werden wenn dann zur Frequenzsteigerung durch Metalspin oder bei besserer Ausbeute zur Aktivierung von ausgeschalteten Einheiten genutzt. Ein neuer Chip ist viel zu teuer im gleichen Prozess.

Den letzten Satz predigten wir auch bei vorigen Generationen von allen Daechern fuer dedizierte HPC high end chps. Wenn die Notwendigkeit erscheint dann ist es fuer NV eine Sackgasse und bei dem Schweinegeld dass sie kassieren ist es auch kein besonderes Problem mehr. Und erzaehl mir bloss nicht dass P100 seine R&D Kosten wieder reinholen wird.... :rolleyes:

Ich glaube wie Leonidas schon schrieb an eine neue GPU Q1-Q2 nächsten Jahres und das Nvidia ihre Linie von Big/middle in etwa weiter fahren wird (Bei nicht Titan):
März 2012: Gk104
Mai 2013: GK110
September 2014: GM204 (Verschiebung wegen DX12)
Juni 2015: GM200
Mai 2016: GP104
~ März - Mai 2017: GP102
H1 2018: GV104 (16nm und schon ~400-450 mm²)
H1 2019: GX104 (7nm, mehr oder weniger Volta Shrink, wie Pascal bei Maxwell, da 7nm dann schon zu nah ist wäre ein GV102 in 16nm da dann zu spät)
H1 2020: GX102

Ausser es hat sich im "Speicherland" etwas geaendert dass ich nicht wissen kann, sehe ich von GV104 nichts vor H2 18'. Mal absehen was V10 in allen seinen SKUs genau kochen kann. GP102 hat zwar noch deaktivierte Einheiten (wobei NV aus verstaendlichen Gruenden lieber volle 102-chips als P6000 Quadros fuer ueber 6000 EUR verkauft....), bei GP104 eben nicht.

AffenJack
2017-01-27, 15:56:17
Den letzten Satz predigten wir auch bei vorigen Generationen von allen Daechern fuer dedizierte HPC high end chps. Wenn die Notwendigkeit erscheint dann ist es fuer NV eine Sackgasse und bei dem Schweinegeld dass sie kassieren ist es auch kein besonderes Problem mehr. Und erzaehl mir bloss nicht dass P100 seine R&D Kosten wieder reinholen wird.... :rolleyes:

Wird er bestimmt nicht. Ist aber dafür da das Nvlink Ökosystem zu etablieren. GV100 soll dann Geld machen. Nur durch den Deap Learning Boom ist überhaupt an HPC Chips zu denken. Bei 7nm werden wir eh ein Sterben der Chipanzahl sehen, aufgrund der Kosten und das auch bei Nvidia. Amd ist auf 2 pro Jahr runter bei 16nm und mit 7nm wirds weiter runter gehen.


Ausser es hat sich im "Speicherland" etwas geaendert dass ich nicht wissen kann, sehe ich von GV104 nichts vor H2 18'. Mal absehen was V10 in allen seinen SKUs genau kochen kann. GP102 hat zwar noch deaktivierte Einheiten (wobei NV aus verstaendlichen Gruenden lieber volle 102-chips als P6000 Quadros fuer ueber 6000 EUR verkauft....), bei GP104 eben nicht.

Ich weiß nicht, an was für Speicher du denkst. G5X sollte mit 12Gbps zu der Zeit kein Problem sein, ist aber natürlich bei gleichem Interface nur ne kleine Steigerung. Aber auch bei 2 HBM Stacks wie bei Vega seh ich nun keine Probleme. Vega kommt H1 mit HBM von Hynix in Masse, Samsung produziert schon lange in Kleinserie. In H1 2018 wird HBM auch für Nvidia in Menge verfügbar sein, wenn sie den denn nutzen wollen. Bei 8Gb werden hier im Forum zwar wieder einige meckern, die schon bei Vega den Speichertod sterben, aber das sollte auch noch ausreichen.

Ailuros
2017-01-27, 16:23:31
http://www.digitaltrends.com/computing/samsung-reveals-gddr6-2018-release-hbm2-hbm3/

6. GDDR Generation 14-16Gbps mit geringerem Stromverbrauch.

http://www.tweaktown.com/image.php?image=imagescdn.tweaktown.com/news/5/4/54148_04_volta-based-geforce-cards-coming-2018-16gb-gddr6_full.png

Pascal Quadros gehen bis zu 24GB Speichermenge hoch; bei Volta wird sich der Wert verdoppeln. Von da ab kann man schon ausdenken was fuer Speicher sie fuer desktop benutzen werden und bei welchen Mengen.

Als ich im August einen insider fragte fuer wann Samsung den Speicher projeziert war die Antwort H2 18.

AffenJack
2017-01-27, 19:24:24
Den geringeren Verbrauch soll auch G5X haben. Der Unterschied von G5X zu GDDR6 ist glaube ich relativ gering. Wie schnell es dann auf 48 GB hoch geht wird man sehen müssen. Sehr abhängig von den Fertigungsgrößen. Ich seh jetzt aber keinen Grund weiso man auf GDDR6 unbedingt warten müsste.

Skysnake
2017-01-27, 21:17:24
Ich sagte theoretisch als Antwort dass es nichts mehr als refresh fuer Pascal geben koennte.



Den letzten Satz predigten wir auch bei vorigen Generationen von allen Daechern fuer dedizierte HPC high end chps. Wenn die Notwendigkeit erscheint dann ist es fuer NV eine Sackgasse und bei dem Schweinegeld dass sie kassieren ist es auch kein besonderes Problem mehr. Und erzaehl mir bloss nicht dass P100 seine R&D Kosten wieder reinholen wird.... :rolleyes:
.
Wobei man vor allem mal schauen muss, was aus den Aurora/Coral Systemen wird. Trump kürzt wohl ziemlich heftig die Gelder. Da muss man noch schauen, was da überhaupt noch passiert.

AffenJack
2017-01-27, 21:25:21
Wobei man vor allem mal schauen muss, was aus den Aurora/Coral Systemen wird. Trump kürzt wohl ziemlich heftig die Gelder. Da muss man noch schauen, was da überhaupt noch passiert.

Trump kürzt Gelder die ihm unwichtig erscheinen, aber Aurora/Coral ist eher der Weg zu Exascale. Da gehts auch viel um Prestige. Unter Trump würde es mich nicht wundern, wenn die Mittel für Exascale eher deutlich ansteigen. Prämisse ist: Schlag die Chinesen und dafür wird Trump auch mehr Geld in die Hand nehmen.

Skysnake
2017-01-27, 21:40:08
Es scheint aber wohl ein allgemeiner Cut zu sein, und die haben noch etwas anderes zu tun als die Exascale Systeme sich ins Haus zu stellen. Sofern da nicht wieder extra ein Topf aufgemacht wird, hat sich das erledigt.

Guckst du hier (https://www.top500.org/news/trump-administration-preps-plan-for-huge-cuts-to-department-of-energy/)

Was natürlich nicht heist, das man wo anders die Geld rein buttert und sogar noch mehr um das Ziel zu erreichen. Mit dem DOE hats Trump aber nicht so meiner Einschätzung nach.

AffenJack
2017-01-27, 22:18:08
Hast recht, so wie sich das liest wird da zumindest 1 der 3 Systeme rausfliegen und das Exascale Projekt dürfte auch eher nach hinten verschoben werden.

HOT
2017-01-27, 23:26:01
Trump kürzt Gelder die ihm unwichtig erscheinen, aber Aurora/Coral ist eher der Weg zu Exascale. Da gehts auch viel um Prestige. Unter Trump würde es mich nicht wundern, wenn die Mittel für Exascale eher deutlich ansteigen. Prämisse ist: Schlag die Chinesen und dafür wird Trump auch mehr Geld in die Hand nehmen.
Das ist mMn ne grandiose Fehleinschätzung.
Edit: politischen Mist rauseditiert

Ich glaub auch immer noch, dass Volta HBM bekommen wird, denn ich denke, das wird bei langfristiger Rechnung einfach billiger als GDDR6 oder 5X sein. Aber das mit den 10nm könnte doch stimmen, offenbar ist N7 sehr teuer für seinen Nutzen. Vielleicht macht NV N10 und lässt lieber N7 aus und deshalb gibt es bisher keine post-Volta-Informationen, weil N5 noch sehr weit weg ist.

rentex
2017-01-28, 07:10:04
@HOT: Ich finde das es gar nicht OT ist, da politische Entscheidungen auch auf die IT Wirtschaft (sprich Nvidia, Intel, AMD usw...) Auswirkungen hat. Im Falles Trumps um so mehr, da er sehr viel grundlegend ändern möchte.

Gipsel
2017-01-28, 08:16:27
Nur mal als prophylaktische Warnung:
Posts die zu stark in die Diskussion von Politik (und die Budgetentwicklung der F35 oder die allgemeinere Diskussion der Konkurrenz von USA und China hat hier nun kaum was zu suchen) abdriften, werden hart geahndet.

Hübie
2017-01-28, 08:47:01
Die Chinesen halten Staatsanleihen in Höhe von 1157 Mrd. US-Dollar. Die Amis werden da erst mal genau gar nix machen. Das DOE hat sich ja nun Jahre lang einiges an Spielzeug was Kosten lassen und NVIDIA's Preise sind bekanntermaßen auch nicht gerade gerechtfertigt (vielleicht schwenkt man zu AMD um). Nun ist das letzte Wort nicht gesprochen und das letzte Kapitel nicht geschrieben. ;)

Edit: @Gipsel: Dein Beitrag kam während ich schrieb also nicht als Missachtung deuten.

Skysnake
2017-01-28, 09:16:17
Man muss es auf jeden Fall im Auge behalten, denn wenn nVidia und IBM einen dieser Deals verlieren sollten, dann tut das echt weh.

Vor allem, gibt es inzwischen eigentlich funktionierende Power+Pascal mit nVLink zu kaufen? Mir wäre da noch nichts bekannt.

Hübie
2017-01-28, 09:27:13
Oh ja. Das wäre ein Seitenhieb in die Nieren. Ich glaube jedoch, dass diese Deals schon unter Dach und Fach waren. Bin mir aber nicht sicher. Und nein. Power+Pascal gibt's nicht.

AffenJack
2017-01-28, 09:39:30
Das ist mMn ne grandiose Fehleinschätzung.
Edit: politischen Mist rauseditiert

Ich glaub auch immer noch, dass Volta HBM bekommen wird, denn ich denke, das wird bei langfristiger Rechnung einfach billiger als GDDR6 oder 5X sein. Aber das mit den 10nm könnte doch stimmen, offenbar ist N7 sehr teuer für seinen Nutzen. Vielleicht macht NV N10 und lässt lieber N7 aus und deshalb gibt es bisher keine post-Volta-Informationen, weil N5 noch sehr weit weg ist.

Eigentlich sah ich Volta immer in 10nm. TSMCs 7nm non-EUV Prozess ist schlecht. Erst der 2te EUV 7nm dürfte besser werden.
Man vergleiche einfach mal Prozesse bei TSMC:
Density Geschwindigkeitsvorteil Verbrauchsreduktion
20nm vs 28nm : 1,9, 30%, 25%
16nm vs 20nm : 1,15 40% 60%
10nm vs 16nm : 2x 20% 40%
7nm vs 10nm :1,63x 15-20% 35-40%

16FF gegen 20nm war ein Riesensprung und deswegen war es klar, dass man 20nm weglässt. Aber der 7nm Prozess ist nix tolles und das einzige was er bringt ist Density, bei nicht soviel höheren Waferpreisen. Aber er hat noch viel höhere Designkosten als 10nm. 7nm EUV verbessert das dann wieder etwas glaube ich, da Tripple Patterining wegfällt. Bei GF und Samsung dagegen kann man 10nm ruhig überspringen, da die beiden gleich auf 7nm EUV gehen und damit wohl früher als TSMC ankommen.

Aber alle Gerüchte sprechen im Moment ja eher von 16nm.

Und nein. Power+Pascal gibt's nicht.

Ich glaube schon:
http://www-03.ibm.com/systems/de/power/hardware/s822lc-hpc/
https://www.microway.com/product/openpower-gpu-server-nvidia-tesla-p100-nvlink-gpus/

Hübie
2017-01-28, 09:55:10
Wenn mich nicht alles täuscht ist für Q1 ein konstanter Ausbau der ersten 7-nm-EUV-Anlagen geplant.

Die Kosten dürften mit EUV, je nach Bedarf relativ betrachtet, stagnieren und langfristig sogar sinken.


Based on our modelling, confirmed through regular interaction with customers, we believe that a productivity of around 1,500 wafers per day makes EUV more cost-effective than multiple patterning. When taking into account the additional benefits of EUV, such as better yield and faster time to market, the cost cross-over point may even be substantially lower.


Liest sich jetzt nicht so wie damals zu 16 nm. Man muss natürlich berücksichtigen, dass alles konjungiert ist bzw. vage Aussichten projizieren. ASML hat ja ein Eigeninteresse das alles zu verkaufen. :D

@Affenjack: Er wollte wissen ob's kaufbar ist. :D

AffenJack
2017-01-28, 10:03:03
@Hübie
Und? Du kannst die Systeme doch kaufen? Das IBM System ist scheinbar schon ab Oktober kaufbar gewesen.

Hübie
2017-01-28, 10:34:54
Bist du dir da sicher? ;) Nur weil du auf einen Button klicken kannst...? Ruf doch mal an und frage nach. :naughty:

Skysnake
2017-01-28, 10:52:48
WO?

Mir wäre nicht bekannt, das ich in irgend einen Laden oder sogar zu IBM gehen könnte und eine NvLink Kiste kaufen könnte.

Wenn mich nicht alles täuscht ist für Q1 ein konstanter Ausbau der ersten 7-nm-EUV-Anlagen geplant.

Die Kosten dürften mit EUV, je nach Bedarf relativ betrachtet, stagnieren und langfristig sogar sinken.



Liest sich jetzt nicht so wie damals zu 16 nm. Man muss natürlich berücksichtigen, dass alles konjungiert ist bzw. vage Aussichten projizieren. ASML hat ja ein Eigeninteresse das alles zu verkaufen. :D

Wobei ich neulich auch gelesen habe, das sich die Fertiger überlegen ob es überhaupt Sinn macht EUV ohne DoublePatterning zu bringen für die Poly Layer, und darüber nicht.

Der Punkt ist halt wohl, das man nicht nur einfach auf die Wafer pro Tag/Stunde schauen darf. Die Dinger kämpfen wohl noch ziemlich mit der Uptime, sprich die Maschinen laufen zu wenig, weil man zu oft Warten muss...

Bei EUV gibt es sehr viele wiedersprüchliche Aussagen von den unterschiedlichen Seiten. Ich würde daher nicht sagen, dass da auch nur irgendetwas in trockenen Tüchern ist.

Hübie
2017-01-28, 11:14:29
Ich habe zu wenig Ahnung um da eine qualifizierte Aussage zu treffen. Was ich weiß ist, dass vieles noch im Nebel liegt. Ob und was TSMC (und andere) da fabrizieren wird ja nicht nach außen kommuniziert bzw. nur cherry-picked news werden vermeldet. Volta in 2018 sehe ich jedenfalls nicht in 7 Nanometer kleinen Strukturen. Auch nicht ohne EUV. Entweder an der 12-nm-Story ist was dran oder 10 nm wird doch für GPUs angewandt. Schlimmstenfalls bekommen wir 16FF+ bei Pascal<->Volta; ähnlich Kepler<->Maxwell.

AffenJack
2017-01-28, 11:17:18
Bist du dir da sicher? ;) Nur weil du auf einen Button klicken kannst...? Ruf doch mal an und frage nach. :naughty:

Ach kaufen geht bestimmt, die Lieferzeit ist eine andere Frage:-)
Aber auf der Microway Seite kannst du auf jeden Fall den IBM Server konfigurieren. Das Anrufen überlasse ich dann doch dir:-)

Skysnake
2017-01-28, 11:39:18
Schau mer mal, vielleicht kann ich da ja in absehbarer Zeit dann etwas dazu sagen.

Hübie
2017-01-28, 11:49:01
Da wäre ich gespannt. =)

prinz_valium
2017-01-29, 00:18:46
Ist 10nm von tsmc denn überhaupt nur ein "mobile" prozess? Von den zahlen her sieht es doch super aus. Vorallem im gegensatz zu 20nm

Doppelte dichte und etwas mehr geschwindigkeit / weniger verbrauch.


Wie sieht es mit den kapazitäten aus? Iphone 8 und snapdragon 835 sind beiher sicher, oder?

Ailuros
2017-02-06, 16:28:26
http://www.guru3d.com/news-story/micron-to-release-gddr6-graphics-memory-by-years-end.html

Hmmmmmm......

Godmode
2017-02-06, 16:47:24
http://www.guru3d.com/news-story/micron-to-release-gddr6-graphics-memory-by-years-end.html

Hmmmmmm......

Das würde dann für den kleinen Volta GV104 im Frühjahr bis Sommer 2018 genau rechtzeitig kommen.

Ailuros
2017-02-06, 17:51:05
Das würde dann für den kleinen Volta GV104 im Frühjahr bis Sommer 2018 genau rechtzeitig kommen.

Wenn die Dinger auch wirklich zu dem Zeitpunkt fertig sein werden. Das vorige bedeutet fuer mich lediglich dass wenn NV N mehr Bandbreite braucht fuer Volta performance SKUs bei logischerem Stromverbrauch dann steht ihnen auf jeden Fall die GDDR6 Verfuegbarkeit nicht im Weg.

Ich bin auch nicht so naiv zu glauben dass Micron ohne Grund ihren GDDR6 release zeitlich vorgezogen hat....

Hübie
2017-02-06, 19:33:16
Kann irgendwer Unterschiede zum GDDR5X erkennen? GDDR6 hat wohl einfach kleinere Strukturen, höheren Takt und somit mehr Bits pro Pin pro Sekunde. GDDR5X ist ja auch schon erfolgreich auf 14 Gbps getestet worden. Man verkauft es offenbar einfach aus Nachfragemangel oder Exklusivität nicht.

Ailuros
2017-02-07, 08:06:30
Kann irgendwer Unterschiede zum GDDR5X erkennen? GDDR6 hat wohl einfach kleinere Strukturen, höheren Takt und somit mehr Bits pro Pin pro Sekunde. GDDR5X ist ja auch schon erfolgreich auf 14 Gbps getestet worden. Man verkauft es offenbar einfach aus Nachfragemangel oder Exklusivität nicht.

Bei Samsung's relevantem marketing Geblubber kann man auch nichts deutliches gegenueber 5X herauslesen bzw. verdaechtigen. Kann durchaus sein dass es sich bei 6 nur um schneller getakteten 5X handelt. Falls aber 6 doch einen geringeren Verbrauch mit sich bringen sollte, wird sich wohl keiner darueber beschweren.

Leonidas
2017-02-07, 09:25:33
Auch die Möglichkeit, das GDDR6 einfach nur schneller getakteter GDDR5 (ohne X) ist, wäre nicht von der Hand zu weisen. Immerhin ist GDDR5X ein ziemlicher Schnellschuß außerhalb der üblichen Roadmaps gewesen.

Man kann sich da einfach nur überraschen lassen. Fest steht für mich allerdings, das Speicherbandbreitensorgen derzeit nicht da sind. Man kommt mit 256 Bit GDDR5X im HighEnd-Segment sehr weit, dabei ist GDDR5X noch nicht einmal im Ansatz ausgereizt (Speichertakt 2500 MHz gegenüber bis zu 4000 MHz bei GDDR5). Für größere Bedürfnisse dürfte dann endgültig HBM übernehmen, nVidia hat dies nicht umsonst beim GP100 getestet.

Loeschzwerg
2017-03-10, 07:32:14
Aktuell zwitschern die Vögel von Mitte Q4 für den GP100 Nachfolger.

kander
2017-03-10, 08:23:27
Aktuell zwitschern die Vögel von Mitte Q4 für den GP100 Nachfolger.

Würde heissen, dass wir so im November eine GTX 2080 Ti haben? So nur aus Neugier...

Screemer
2017-03-10, 08:28:41
Ja vielleicht 2018.

AffenJack
2017-03-10, 08:35:45
Würde heissen, dass wir so im November eine GTX 2080 Ti haben? So nur aus Neugier...

Nein, GV100 hat nix mit Consumerprodukten zu tun.

Loeschzwerg
2017-03-10, 08:36:24
Würde heissen, dass wir so im November eine GTX 2080 Ti haben? So nur aus Neugier...

Nope, mit dem GV100 wird nur der Enterprise Markt bedient.

The_Invisible
2017-03-10, 09:37:16
Also wenn die 2070 ähnlich oder wenig schneller wie 1080Ti performt könnte man das erste mal eine 4k taugliche Karte für <= 500EUR bekommen wenn man Abstriche bei fps machen kann. Mit 2080 oder 2080Ti sollte man dann sogar relativ sorglos sein.

Hoffe nur AMD versaut nicht Vega und wir dürfen dann schon >500EUR für eine xx70 hinlegen.

KORE
2017-03-10, 09:43:50
Ich glaube das kann man so nicht sagen, denn die Spiele entwickeln sich doch auch stetig weiter.
Wenn du dich aber auf die aktuellen Spiele beziehst, gebe ich dir Recht.

HOT
2017-03-10, 10:59:58
Wenn sich das erhartet, dass Volta in Q2 kommen soll, schließt das 7nm schonmal aus. Es gibt fertigungstechnisch eigentlich nur folgende Möglichkeiten:

- 16nm FF+: billigste Variante, könnte schon Anfang 2018 soweit sein - denkbare Variante, wenn man schon einen Shrink direkt mit vorbereitet für 7nm.
- 12nm: gibt ja immer wieder dieses Gerücht, aber mMn sind hier Dinge vermengt worden, die nichts miteinander zu tun haben. TSMCs 12nm wird eine Antwort auf GloFs und Samsungs FDSOI-Billigprozesse sein, also ein auf Kostenoptimierung getrimmter 16nm-Prozess. Ich denke, das ist die unwahrscheinlichste Lösung
- 10nm: Sehr teuer für NV, allerdings, wenn man mit dem Marktanteil weiterhin rechnet ein lohnenswerter Vorteil. Allerdings stellt sich die Frage, ob der Prozess nicht doch nur als Zwischenstufe zu verstehen ist, da ja Mediatek beispielsweise schon recht früh einen 7nm-Chip vorgestellt hat beispielsweise. Ich weiss nicht, ob sich NV darauf einlässt, zumal absehbar ist, dass kaum Druck herrscht.
- 7nm: Würde Volta auf frühestens Q4 2018 verzögern. Das würde eine Pascal-Refresh-Generation noch nötig machen.

Ich halte zwei Varianten für die wahrscheinlichsten:
- 16FF+ und 2019 dann Shrink auf 7nm
- direkter Sprung auf 7nm Ende 2018
wobei sich ersteres zu erhärten scheint, das NV das einen Zwischenschritt macht. In dem Fall kann es sein, dass man dann schon Anfang 2018 mit GDDR5X und GDDR6-Varianten rechnen kann.
Da der GV100 von der Architektur her wahrscheinlich sowieso wieder deutlich unterschiedlich zu den Consumer-Varianten ist, könnte der außer der Reihe dennoch in 10nm erscheinen.

Ailuros
2017-03-10, 17:12:13
GV100 wird nicht auf 10FF hergestellt und dieses wird sich auch nicht mehr aendern koennen.

Hübie
2017-03-10, 17:44:00
Aktuell zwitschern die Vögel von Mitte Q4 für den GP100 Nachfolger.

Ende September will man erste Samples schon versendet haben. Kann sich nun auf Oktober verschoben haben, aber so exakt wird es so lang im Voraus auch gar nicht fixiert sondern eher rangiert. Deckt sich ja gut mit meinen (zugegebenermaßen recht alten) Infos.

Auch die Möglichkeit, das GDDR6 einfach nur schneller getakteter GDDR5 (ohne X) ist, wäre nicht von der Hand zu weisen. Immerhin ist GDDR5X ein ziemlicher Schnellschuß außerhalb der üblichen Roadmaps gewesen.

Man kann sich da einfach nur überraschen lassen. Fest steht für mich allerdings, das Speicherbandbreitensorgen derzeit nicht da sind. Man kommt mit 256 Bit GDDR5X im HighEnd-Segment sehr weit, dabei ist GDDR5X noch nicht einmal im Ansatz ausgereizt (Speichertakt 2500 MHz gegenüber bis zu 4000 MHz bei GDDR5). Für größere Bedürfnisse dürfte dann endgültig HBM übernehmen, nVidia hat dies nicht umsonst beim GP100 getestet.

https://abload.de/img/dasglaubichnichttim1g0kbk.jpg (http://abload.de/image.php?img=dasglaubichnichttim1g0kbk.jpg)

Weil so viel mehr Takt erforderlich wäre, dass die Effizienz dahin siecht. Zumindest müsste man ja extrem schnell schaltende Transistoren haben und sehr kleine Kapazitäten. Korrigiert mich wenn ich irre. Das Prefetching zu erweitern war schon genau so richtig wie es ist und ich würde meine linke Hand verwetten, dass wir es in GDDR6 wiedersehen, wenn ich diese nicht zum tippen hier bräuchte. :biggrin:

Was wir mit GP100 gesehen haben, war exakt der Weg, den man 2012 einschlug (damals sagte man unter der Hand schon dass man die Märkte künftig stärker durch Produktdifferenzierung trennen will). Ob und wann HBM2 in den consumer-market seitens NV entlassen wird stelle ich mal in Frage. Interne Studien zeigten schon, dass HBM eher eine Interims-Lösung ist / wird und man sich an alternativen Technologien orientiert (mglw. Richtung 3DX-Point??).

aceCrasher
2017-03-10, 18:41:14
Wenn GV100 tatsächlich Q4 erscheint, ist ein später Q1 bis Q2 Release für Consumer Karten durchaus plausibel oder? GP104 kam ja auch ~3 Monate nach GP100 auf den Markt.

crux2005
2017-03-10, 19:09:56
Ich würde schätzen das nVidia die Volta GeForce noch in 2017 vorstellen möchte. Die 1080 Ti kam jetzt früher im Jahr als 980 Ti (~ 3 Monate). Analog könnte GV104 früher auf den Markt kommen als GP104.

Loeschzwerg
2017-03-10, 19:23:57
Ende September will man erste Samples schon versendet haben. Kann sich nun auf Oktober verschoben haben, aber so exakt wird es so lang im Voraus auch gar nicht fixiert sondern eher rangiert. Deckt sich ja gut mit meinen (zugegebenermaßen recht alten) Infos.


Meine Infos sind taufrisch, aber das sind natürlich auch keine 100%ig festen Termine. Es bleibt spannend :)

aceCrasher
2017-03-10, 19:54:57
Ich würde schätzen das nVidia die Volta GeForce noch in 2017 vorstellen möchte.

Hoffen wirs, meine 1080 ist jetzt schon ziemlich... dürftig, für 4K.

scully1234
2017-03-10, 20:47:54
Wenn GV100 tatsächlich Q4 erscheint, ist ein später Q1 bis Q2 Release für Consumer Karten durchaus plausibel oder? GP104 kam ja auch ~3 Monate nach GP100 auf den Markt.

Ob man das daran fest machen kann?

Sind ja unterschiedliche Fertigungsstrassen, die sich so sollte man meinen, nicht gegenseitig beeinflussen

Greifbarer ist da doch eher der Tape Out der Chipkategorien, für eine ungefähres Release Datum

Ailuros
2017-03-11, 07:15:31
Ob man das daran fest machen kann?

Sind ja unterschiedliche Fertigungsstrassen, die sich so sollte man meinen, nicht gegenseitig beeinflussen.

Ja und nein zum letzten. Egal fuer was jeglicher chip bestimmt ist, es ist nach wie vor eine Chip-Familie sozusagen. Xavier kommt auch Ende 17' zum sampling.

Greifbarer ist da doch eher der Tape Out der Chipkategorien, für eine ungefähres Release Datum

Nur erfaehrt man solche Einzelheiten zunehmend seltener heutzutage. Aber um es auf eine hypothetische Basis zu bringen, fuer eine Massenproduktion in Q2 18' eines GV104 muss ein problemfreier finaler tape out ca. Anfang Sommer eintreffen und ein "design done" in etwa im heutigen Zeitraum. So und wer kann genau etwas zum letzten wissen?

=Floi=
2017-03-11, 16:53:55
was wird nv bei volta steigern? kommen jetzt wieder breitere chips, oder noch mehr takt? eine taktdomäne? Denke HBM2/HBM3 wird vor allem wegen der stromersparnis kommen.

von maxwell dachte man auch, dass die steigerung nicht mehr so groß ausfallen könnte, aber pascal ist dann doch normal eine sehr merkbare verbesserung.

scully1234
2017-03-11, 18:50:37
und wer kann genau etwas zum letzten wissen?

was ja sekundär wird, sofern im Sommer doch etwas vom Tape Out durchsickert,wie das eigentlich bisher immer der Fall war, bei den letzten Architekturen=)

prinz_valium
2017-03-11, 21:03:14
Ich würde schätzen das nVidia die Volta GeForce noch in 2017 vorstellen möchte. Die 1080 Ti kam jetzt früher im Jahr als 980 Ti (~ 3 Monate). Analog könnte GV104 früher auf den Markt kommen als GP104.

volta ja,
geforce natürlich nicht

aceCrasher
2017-03-11, 23:48:22
Ist der aktuelle Stand für Volta high end Karten eigentlich eher HBM2 oder GDDR5X?

Rampage 2
2017-03-12, 01:45:27
Kann jemand etwas zur Leistung von GV104 sagen (spekulieren)? Sind +100% zur GTX1080 etwas zu hoch gegriffen? Immerhin soll Volta ja eine grundlegend neue Architektur werden, im Gegensatz zu Pascal - wenigstens +75% zur 1080 sind mit Sicherheit drin.

Lohnt es sich denn, noch GDDR5(X)/GDDR6 für den Mittelklasse-Volta (GV104, GV106) zu verbauen? Ich denke mal, das hängt davon ab, ob die Technologie bis Q2/2018 ihren Zenith (16Gbps) erreichen kann...

R2

Hübie
2017-03-12, 02:28:16
Ich würde schätzen das nVidia die Volta GeForce noch in 2017 vorstellen möchte. Die 1080 Ti kam jetzt früher im Jahr als 980 Ti (~ 3 Monate). Analog könnte GV104 früher auf den Markt kommen als GP104.

Wenn du dir 2017 eine Volta GeForce in deinen PC schrauben kannst, bekommst du von mir einen runden Keks mit abgebissenen Ecken. :freak: (Not gonna happen).

Ist der aktuelle Stand für Volta high end Karten eigentlich eher HBM2 oder GDDR5X?

Sowohl als auch.

Volta kann das Rad nicht neu erfinden oder definieren, aber es wird viele neue Technologien geben, die vor allem die Energie-Effizienz betreffen. Leckströme werden sogar ausgenutzt und Elektronenrückfluss kompensiert. Taktmäßig erwarte ich erst mal nicht viel mehr als Pascal, aber diesbezüglich habe ich mich schon bei Pascal stark getäuscht. Wüsste nur nicht woher man da 25% mehr Takt nehmen sollte.

Rampage 2: Wie meinst du es? 'Lohnt es sich denn noch' :confused: Die 1080 Ti zeigt Eindrucksvoll was mehr Speicherbandbreite noch heraus holen kann. Lohnt sich also immer wenn mehr Bandbreite da ist.
Ich spekuliere hart darauf, dass GDDR6 ziemlich genau GDDR5X sein wird. Hier und da noch ein Schmankerl mehr... klar.

Rampage 2
2017-03-12, 04:37:05
Die 1080 Ti zeigt Eindrucksvoll was mehr Speicherbandbreite noch heraus holen kann. Lohnt sich also immer wenn mehr Bandbreite da ist.

Ich spekuliere hart darauf, dass GDDR6 ziemlich genau GDDR5X sein wird. Hier und da noch ein Schmankerl mehr... klar.

Genau deswegen ja die Frage;) - Du hast das falsch verstanden; es ging um die Frage ob GDDR5X/6 angesichts verfügbarer HBM-Technologie und klar höherem Bandbreitenbedarf von GV104+ (min. 400< GB bis hin zu ~ 500GB/sek.) die nötige Leistung noch liefern kann oder aber ob das dann Sinn macht - auf jeden Fall müsste die Technologie voll ausgefahren werden... (14Gbps oder 16Gbps - wobei es in den Sternen steht, ob Letztere überhaupt das Licht der Welt erblickt...)

R2

AffenJack
2017-03-12, 10:30:31
Kann jemand etwas zur Leistung von GV104 sagen (spekulieren)? Sind +100% zur GTX1080 etwas zu hoch gegriffen? Immerhin soll Volta ja eine grundlegend neue Architektur werden, im Gegensatz zu Pascal - wenigstens +75% zur 1080 sind mit Sicherheit drin.


Du bist viel zu optimistisch. 780Ti zu 980 Ti waren knapp über 50% und das war eine Allroundgpu (mit HPC Kram) gegen eine reine Gaminggpu. https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/2/

Sollte kein GV102 kommen, wie ich es glaube könnte GV104 größer als normal ausfallen und du +60% sehen. Ansonsten wirst du eher ~+40% sehen meiner Meinung nach.

HOT
2017-03-12, 10:36:11
Du bist viel zu optimistisch. 780Ti zu 980 Ti waren knapp über 50% und das war eine Allroundgpu (mit HPC Kram) gegen eine reine Gaminggpu. https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/2/

Sollte kein GV102 kommen, wie ich es glaube könnte GV104 größer als normal ausfallen und du +60% sehen. Ansonsten wirst du eher ~+40% sehen meiner Meinung nach.
Die Zahlen sind mMn immer noch zu hoch. Mehr als 30% mehr sollte man besser nicht erwarten im gleichen Prozess. Bei 10nm könnte sowas gehen.

maximus_hertus
2017-03-12, 11:26:29
Die Zahlen sind mMn immer noch zu hoch. Mehr als 30% mehr sollte man besser nicht erwarten im gleichen Prozess. Bei 10nm könnte sowas gehen.

GV104 wird schneller werde als GP102 aka 1080 Ti. Allerdings erwarte ich keine riesige Steigerung, so 10-20% schneller (zur 1080 Ti). Man muss ja wieder den neuen König ausrufen ;)

Der Preis sollte auch fest stehen =>

GK104 - 499 USD
GM204 - 549 USD
GP204 - 599 USD / 699 USD
GV204 - 649 USD / 749 USD ;)

Immer +50 USD...

HOT
2017-03-12, 13:17:44
Ich frag mich nur wie das gehen soll - NV hat mit Maxwell einen neuen Renderer eingeführt, da wird mit Volta wohl kaum noch mal so ein Coup gelingen. Ich würd meine Erwartungen echt im Zaum halten, sollte der Prozess gleich bleiben.
Ich denke, das eine breitere Architektur bei gleichem Takt versuchen wird. Da sind aber keine Wunder zu erwarten, das wird wieder ein TCR werden, wie die beiden Generationen davor. Sicherlich wird man auch doppelte half-precision updaten.

Ich denke mit GP104 -> GV104 @16FF+ sind 30% mehr schon ein echt guter Sprung. Es wird ja sicherlich eher 256Bit 12-14Gbps GDDR-RAM werden - auch da sind also keine riesen Sprünge zu erwarten.

scully1234
2017-03-12, 14:33:29
Ich denke mit GP104 -> GV104 @16FF+ sind 30% mehr schon ein echt guter Sprung.

Und wer soll den als Highendablöse für die GTX1080 TI dann kaufen,die jetzt schon ca 35% auflegt?

Da muss schon ein Bisschen mehr kommen wie das , wenn Nvidia ihr Portfolio so weiter führen will wie bisher

Midrange neue Architektur beerbt "Vollausbau" alte, Vollausbau neue beerbt Midrange neue Architektur, usw usf

Ailuros
2017-03-12, 15:59:05
GV104 wird schneller werde als GP102 aka 1080 Ti. Allerdings erwarte ich keine riesige Steigerung, so 10-20% schneller (zur 1080 Ti). Man muss ja wieder den neuen König ausrufen ;)

Der Preis sollte auch fest stehen =>

GK104 - 499 USD
GM204 - 549 USD
GP204 - 599 USD / 699 USD
GV204 - 649 USD / 749 USD ;)

Immer +50 USD...

Haarspalterei: GP104 und womoeglich auch GV104 und ich hab auch das Gefuehl dass die FE Masche gleich bleiben wird wie bei der 1080Ti. Insgesamt aber ja, es bestehen Chancen dass GV104 wieder etwas teurer werden koennte je nach der Transistoren-Anzahl.

Hübie
2017-03-12, 18:30:41
Es wird schwierig die 1080 Ti mit dem midrange-chip zu toppen. Ich sehe da noch nicht den immensen Sprung von Pascal zu Volta.
Von GP100 zu GV100 vielleicht eher, als von GP102 zu GV102 (so er denn so heißt). Noch, so glaube ich zumindest, wird es HBM2 nicht in den Gamer-Markt schaffen. Das ist jedoch nur meine Prognose ohne Fakten / Infos.

Ailuros
2017-03-12, 19:21:45
Es wird schwierig die 1080 Ti mit dem midrange-chip zu toppen. Ich sehe da noch nicht den immensen Sprung von Pascal zu Volta.
Von GP100 zu GV100 vielleicht eher, als von GP102 zu GV102 (so er denn so heißt). Noch, so glaube ich zumindest, wird es HBM2 nicht in den Gamer-Markt schaffen. Das ist jedoch nur meine Prognose ohne Fakten / Infos.

Es mag zwar naiv klingen, aber ich sehe auf Xavier trotz gleichem Herstellungsprozess doppelt so viel SPs in der GPU als bei Parker. Wuerde ich jetzt wissen dass die Flaeche der Volta GPU nicht sehenswert groesser ist als die der Pascal GPU im Parker dann waeren wir vielleicht schon ein Stueck weiter.

matty2580
2017-03-12, 19:28:34
Immer +50 USD...
Nvidia hat schon längst einen Punkt erreicht, wo man nicht mehr beliebig weiter den Preis erhöhen kann. In der Steam Statistik sind deutlich weniger Pascal GPUs als Maxwell. Z.B. ist dort die GTX 970 viel öfter vertreten als die 1070. Ich gehe eher davon aus, dass Nvidia bei Volta wieder etwas den Preis senken wird, um mehr verkaufen zu können.

... - auch da sind also keine riesen Sprünge zu erwarten.
Ich denke du unterschätzt da Nvidia. Pascal profitiert hauptsächlich durch die neue Fertigung, und hatte relativ "wenig" Änderungen zu Maxwell. Nvidia hatte also seit Maxwell schon über 3 Jahre Zeit sich auf Volta vorzubereiten. Und in dieser Zeit sollen die nichts gemacht haben, so dass du Volta als "kleinen" Sprung einschätzt?

Foobar2001
2017-03-12, 19:34:13
Bei Pascal wurden anscheinend vor allem die Schaltungen optimiert was Taktrate und Stromverbrauch angeht. Das Instruction-Set scheint absolut identisch zu sein. Dazu kommen noch diverse andere Optimierungen wie bessere Color-Compression und ein paar VR-Features und das war's.

Was Volta bringt ist sehr schwer zu sagen. Von aussen ist es quasi unmoeglich zu sagen wie viel Spielraum noch da ist was Optimierungen angeht.

Ich hoffe vor allem, dass Volta endlich "Resource Binding Tier 3" (DX12 Nomenklatur) bringt. Die Hardware ist gegenueber AMD sehr limitierend was das angeht. Maximal 12/14 constant buffers per Stage und nur maximal 64KiB gross ist ziemlich 2006.

HOT
2017-03-12, 19:36:28
matty2580
Aber bei gleicher Fertigung und nur 1/4 - 1/3 mehr Speicherbandbreite sind einfach keine Wunder drin. Ich unterschätze da gar nix. Der Maxwell-Vergleich hinkt einfach etwas.

GM204 brauchte auch 1/3 mehr Fläche als GK104 und hier war wie gesagt ein neues Renderingverfahren im Spiel. Davon ist bei Volta einfach nicht auszugehen. Es wird einiges an Optimierungen und Anpassungen geben, auch mehr Speicherbandbreite - sicherlich auch weider mehr Chipfläche, aber 30% halte ich für das Maximum im Optimum. Bei 10nm + HBM2 wär da deutlich mehr drin, aber Magie hat halt noch keiner entdecken können :D.
Man wird GV104 sicherlich von Fläche und TDP her so designen, dass er die 1080Ti grade so schlägt und einen potenziellen GV102/GV100 noch mal 30% darüber ansiedeln. (GV102 wär nicht nötig, wenn er eh kaum weniger Fläche als GV100 mitbringt, HBM2 wär sowieso angesagt bei so einem Chip).

scully1234
2017-03-12, 19:40:59
Es wird schwierig die 1080 Ti mit dem midrange-chip zu toppen.

Seit der GTX 680er wo man umgekrämpelt hat,und nicht mehr den Top Dog first released, geht dieses Szenario bisher jedenfalls auf=)

Foobar2001
2017-03-12, 19:41:31
GM204 hat doch auch 33% mehr ALUs und doppelt so viele ROPs als GK104?

AffenJack
2017-03-12, 19:46:32
Bei Pascal wurden anscheinend vor allem die Schaltungen optimiert was Taktrate und Stromverbrauch angeht. Das Instruction-Set scheint absolut identisch zu sein. Dazu kommen noch diverse andere Optimierungen wie bessere Color-Compression und ein paar VR-Features und das war's.

Was Volta bringt ist sehr schwer zu sagen. Von aussen ist es quasi unmoeglich zu sagen wie viel Spielraum noch da ist was Optimierungen angeht.

Ich hoffe vor allem, dass Volta endlich "Resource Binding Tier 3" (DX12 Nomenklatur) bringt. Die Hardware ist gegenueber AMD sehr limitierend was das angeht. Maximal 12/14 constant buffers per Stage und nur maximal 64KiB gross ist ziemlich 2006.

Preemption und was auch immer nun bei Async etwas verbessert ist würde ich bei Pascal auch noch zählen. Bei Binding Tier 3 würde ich mir jetzt weniger Sorgen machen, das sollte alles drin sein denke ich. Pascal war halt nur ne kleine Weiterentwicklung in die das alles nicht mehr rein konnte, aber Volta wird nach 4 Jahren wieder ne große Änderung. Das gute ist ja, dass wir wohl schon im Mai die Grundrisse von Volta sehen werden.

matty2580
2017-03-12, 19:58:26
....., aber Volta wird nach 4 Jahren wieder ne große Änderung.
Deswegen verstehe ich den Pessimismus einiger User zu Volta nicht ganz. 4 Jahre sind in der IT eine große Zeitspanne. Das ist sehr viel Zeit um die Architektur zu überarbeiten und neue Technologien zu entwickeln. Das selbst gesetzte Ziel von Nvidia ist Perf/Watt noch einmal deutlich zu erhöhen bei Volta. Bei Maxwell haben sie das teilweise durch Tiled Cache Renderer erreicht. Und der lange Zeitraum zwischen Maxwell und Volta sollte doch eigentlich ausreichen um neue Technologien entwickeln zu können.

Foobar2001
2017-03-12, 20:11:45
Bei Binding Tier 3 würde ich mir jetzt weniger Sorgen machen, das sollte alles drin sein denke ich.
So einfach ist das nicht. GCN kann das alles weil sie Skalareinheiten haben die alle uniformen Loads gleich behandelt (egal ob Constant Buffer oder Structured Buffer).

NVIDIA hat extrem spezialisierte Hardware bisher um Konstanten zu laden, die aber stark beschraenkt ist was Anzahl und Groesse der gebundenen Buffer betrifft. Die Adressen der Buffer sind z.B. immer noch Hardware-Register und koennen nicht durch den Shader-Code geandert werden.

Ich bin gespannt wie sie das loesen. Mein Wunsch waeren Skalar-Einheiten wie bei GCN weil die auch fuer andere Sachen nuetzlich sind. Es wird aber auf jeden Fall eine tiefgreifendere Aenderung sein.

Gut ist, dass Microsoft Tier 3 in DX12 genommen hat. Das setzt NVIDIA ziemlich unter Druck. Die wollen auf dem Papier schliesslich nicht schlechter aussehen was sowas angeht.