PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Hübie
2018-03-01, 18:45:06
Gibt offenbar keinen Thread(?).
Laut ausgestreckten Fühlern von Igor (THG) beerbt nicht Pascal sondern Turing die Geforce-Pascal-Karten. Aktuell ist frühestens Juni (FE Karten) bzw. eher August für Customs anvisiert.

News:

Update August 2018:

@Hubie

Das pdf fuer die GTX 2080 ist bei PNY noch online:
http://www.pny.com/File%20Library/Support/PNY%20Products/Resource%20Center/Graphics%20Cards/RTX%202000%20Series/XLR8-RTX-2080-XLR8-OC-TF.pdf

Habs auch angehangen falls es offline geht..
Ihr muesst die Dateien selbst von *_00n*.7z in *.7z.00n umbenennen.

Es gibt offiziellen PDFs von den Boardpartnern. An den 8GB gibt es sicher nichts mehr zu rütteln, das Zeug ist sogar noch immer online.

https://s15.postimg.cc/66hamc64r/1-1080.2575554993.png https://s15.postimg.cc/qduqenbbv/2-1080.2876035804.png

PNY hat anscheinend eine Produktseite der 2080 Ti versehentlich freigeschaltet gehabt. 1000$ sind als MSRP angegeben. Specs sehen für mich soweit glaubwürdig aus, Clocks wirken auf den zweiten Blick allerdings etwas niedrig für ne OC Variante.

via Reddit (https://www.reddit.com/r/nvidia/comments/987roy/rtx_2080_ti_leak/)

https://i.imgur.com/PVX5Yry.png
https://i.imgur.com/PVX5Yry.png

https://i.imgur.com/Wb3XXLU.png
https://i.imgur.com/Wb3XXLU.png

Gestern aus der Siggraph-Präsi:

Product Tesla K40 Tesla M40 Tesla P100 Tesla V100 Quadro RTX 8000 GTX 2080 Ti
GPU GK180 (Kepler) GM200 (Maxwell) GP100 (Pascal) GV100 (Volta) GT102 (Turing) GT102 (Turing)
SMs 15 24 56 80 72 68
TPCs 15 24 28 40 36 34
FP32 Cores / SM 192 128 64 64 64 64
FP32 Cores / GPU 2880 3072 3584 5120 4608 4352
FP64 Cores / SM 64 4 32 32 ?? ??
FP64 Cores / GPU 960 96 1792 2560 ?? ??
Tensor Cores / SM NA NA NA 8 8 8
Tensor Cores / GPU NA NA NA 640 576 544
GPU Boost Clock 810/875 MHz 1114 MHz 1480 MHz 1530 MHz 1736 MHz 1545 MHz
Peak FP32 TFLOP/s* 5,04 6,8 10,6 15,7 16,0 13,45
Peak FP64 TFLOP/s* 1,68 0,21 5,3 7,8 ?? ??
Peak Tensor Core TFLOP/s* NA NA NA 125 ?? ??
Texture Units 240 192 224 320 288 272
Memory Interface 384-bit GDDR5 384-bit GDDR5 4096-bit HBM2 4096-bit HBM2 384-bit GDDR6 352-bit GDDR6
Memory Size Up to 12 GB Up to 24 GB 16 GB 16 GB Up to 48 GB 11 GB
L2 Cache Size 1536 KB 3072 KB 4096 KB 6144 KB 6144 KB ??
Shared Memory Size / SM 16 KB/32 KB/48 KB 96 KB 64 KB Configurable up to 96 KB Configurable up to 96 KB (?) ??
Register File Size / SM 256 KB 256 KB 256 KB 256KB 256KB (?) ??
Register File Size / GPU 3840 KB 6144 KB 14336 KB 20480 KB 18432 KB (?)
TDP 235 Watts 250 Watts 300 Watts 300 Watts 300 Watts (?) 285 Watts
Transistors 7,1 billion 8 billion 15,3 billion 21,1 billion 18,6 billion 18,6 billion
GPU Die Size 551 mm² 601 mm² 610 mm² 815 mm² 754 mm² 754 mm²
Manufacturing Process 28 nm 28 nm 16 nm FinFET+ 12 nm FFN 12 nm FFN 12 nm FFN
Trans / mm² 12,89 million 13,31 million 25,08 million 25,89 million 24,67 million 24,67 million

https://videocardz.com/77260/nvidia-announces-quadro-rtx-6000-ray-tracing-gpu

PCB shots aus dem Chiphell Forum: https://www.chiphell.com/forum.php?mod=viewthread&tid=1889250&extra=page%3D1%26filter%3Dtypeid%26typeid%3D223

Bilder des PCBs vom kolportierten Gx104 Chip:

https://abload.de/thumb/gtx2080_pcb_bottomntivb.jpg (https://abload.de/image.php?img=gtx2080_pcb_bottomntivb.jpg) https://abload.de/thumb/gtx2080_pcb_topcnf0g.jpg (https://abload.de/image.php?img=gtx2080_pcb_topcnf0g.jpg)

Auffälligkeiten:

6+8 PIN
8 BGA für DRAM was auf 8/16 GB hindeutet
Geändertes Design der Energieversorgung
NVLINK für SLi Connector (?)
Deutlich kleinerer Chip als auf dem letzten PCB Shot



Update Juni 2018:

THG berichtet (https://www.tomshw.de/2018/06/27/board-bring-up-zeigt-gddr6-speicher-von-micron/) über den PRozess des Board bring up aufgrund eines Bild Leaks:

https://abload.de/thumb/board-bring-up_gddr6briho.png (https://abload.de/image.php?img=board-bring-up_gddr6briho.png) https://abload.de/thumb/board-bring-upxxiog.png (https://abload.de/image.php?img=board-bring-upxxiog.png) https://abload.de/thumb/nvidia-board-bring-upi0e4v.jpg (https://abload.de/image.php?img=nvidia-board-bring-upi0e4v.jpg)

Update Mai 2018:
videocardz.com (https://videocardz.com/newz/nvidia-teases-ultimate-gaming-experience-at-gtc-taiwan) spricht von einer taiwanesischer Folie zur GTC am 30.Mai 2018 wo indirekt bestätigt wird, dass Turing noch etwas entfernt ist.

This conference is listed on few NVIDIA websites, but only Taiwanese version mentions ‘ultimate gaming experience’.

The same site lists “Computex: Redefining Gaming Experience” with GeForce 10-series powered laptop and GSYNC 4K HDR displays. Not a word about new series.

September 2018 kommt Shadow of the Tomb Raider, dass mit Gameworks bzw. Optimierungen für Geforce-Karten aufwarten soll. Das berichtet wcctech.com (https://wccftech.com/shadow-of-the-tomb-raider-optimized-nvidia/). In dem Zusammenhang könnte man meinen, dass es ein Bundle mit neuen Grafikkarten geben wird, was implizieren würde, dass Turing dort bereits verfügbar ist.

NVIDIA will lend its gaming and PC development expertise to help bring the PC platform’s advanced gaming features to Shadow of the Tomb Raider. This effort will help maximize the performance benefits of the NVIDIA GeForce GTX 10-series GPUs for PC gamers across the world. This continues the collaboration that began in the series’ previous title, Rise of the Tomb Raider.

Techpowerup.com (https://www.techpowerup.com/gpudb/3224/geforce-gtx-1180) hat eine Platzhalterseite zur hypothetischen GTX 1180 eingerichtet.

Fund von BoMbY: Turing mit ~400 mm², 3584 SPs, 64 ROPs und 1600-1800 MHz und 8-16 GB GDDR6 @16Gbps I/O (weitgehend Variante 3; s.o.).

Aus China:

https://i.imgur.com/SbdcWCgl.jpg

https://i.imgur.com/J51doGU.jpg

https://i.imgur.com/Tz8Idfs.png

https://i.imgur.com/yb7x5t2.jpg

https://i.imgur.com/YZkzQ1hl.jpg

Keine Ahnung ob Fake oder nicht. China halt ...

Von hier:

http://tieba.baidu.com/p/5689594451
https://item.taobao.com/item.htm?id=569133208642

Gefunden über Twitter:

https://twitter.com/momomo_us/status/993839496637497344

März 2018
Tom's Hardware (http://www.tomshardware.de/nvidia-turing-ampere-launch-delay,news-259127.html) berichtet von einer möglichen Massenproduktion im Juni, was einen Launch im August wahrscheinlich macht.

Häppchen aus diversen anderen Quellen aus Industrie und Entwicklung legen zudem nahe, dass die Massenproduktion von Turing-Karten erst Mitte Juni beginnen soll, so dass ein Hard-Launch an Boardpartner-Karten nicht vor Juli zu erwarten sein dürfte.

CB News: Hinweise auf GTX 20xx und Ampere (https://www.computerbase.de/2018-08/nvidia-grafikkarten-gtx-2070-gtx-2080-ampere/)


Spekulation zur Hardware*:

Vorweg sei gesagt dass mir klar ist, dass es bereits Tesla mit GT216 etc. gab. Nicht dass es noch tausend weitere Male erwähnt wird. ;)


Release des Performance-Chips wahrscheinlich Juli für die Founders Edition (wenn man damit fortfährt) und August dann custom cards der AIB (ASUS, EVGA, Gigabyte, MSI etc.).
Aktuell kann man von 12nm ausgehen, wobei Leonidas auch Argumente pro 10nm gebracht hat
Erwartete Leistungszuwächse liegen zwischen 50 & 60% (analog zu GK104->GM204->GP104)
$749 als aktuelle Speku zum Preis. Wahrscheinlich gilt dies für die 2080 Ti, kann aufgrund der aktuellen Lage durch das Mining aber auch auf GT104 zutreffen.


Preis Spekulation:
https://abload.de/thumb/preisspeku9room.png (http://abload.de/image.php?img=preisspeku9room.png)

GT102:
4608 ALUs (top dog als Pendant zum GP102)
384 Bit GDDR6 (scheint ziemlich sicher)
Secret sauce, Secret Sauce, NVIDIA RTX in Hardware
<225 Watt

https://abload.de/thumb/gt102-spekuc5k00.png (http://abload.de/image.php?img=gt102-spekuc5k00.png)

GT104 Variante 1:
3072 ALUs
4 Rasterizer (GPCs)
24 MPs
128 SPs pro SM
256 Bit GDDR6
Simsalabim, Secret Sauce, NVIDIA RTX in Hardware(??)
<165 Watt

https://abload.de/thumb/gt104-spekujjkfo.png (http://abload.de/image.php?img=gt104-spekujjkfo.png)

Unwahrscheinlichere Varianten:
GT104 Variante 2:
4096 ALUs
8 Rasterizer (GPCs)
32 MPs
128 SPs pro SM
256 Bit GDDR6
Simsalabim, Secret Sauce, NVIDIA RTX in Hardware(??)
<165 Watt

https://abload.de/gt104-speku22ck3h.png (http://abload.de/image.php?img=gt104-speku22ck3h.png)

GT104 Variante 3:
3584 ALUs
7 Rasterizer (GPCs)
28 MPs
128 SPs pro SM
256 Bit GDDR6
Simsalabim, Secret Sauce, NVIDIA RTX in Hardware(??)
<165 Watt

https://abload.de/gt104-speku3tpjid.png (http://abload.de/image.php?img=gt104-speku3tpjid.png)

Weitere Ergänzungen folgen.

*DISCLAIMER: Ich erhebe keinen Anspruch auf Richtigkeit etc. Dies ist pure Spekulation, basierend auf Erfahrungswerten, Diskussionen und Gerüchten!

BlacKi
2018-03-01, 19:12:50
da sich die architektur komplett abspalten will und nur für gaming gestrickt wird gelten alte annahmen wohl nicht mehr, alles woran ich noch glaube sind die 60% als performance ziel ggü. der 1080.

Thunder99
2018-03-01, 19:15:41
GTxxx als Chipbezeichnung? Gab es doch schon als als Codenamen GT200(b) alias Tesla ;) :confused:

basix
2018-03-01, 21:47:50
Ich hätte eher GTu104 + 50% für den GTu102 angenommen. Und stimmt das Performance Ziel von +60% über das gesamte Portfolio wäre es ein schöner Sprung nach oben.

bbott
2018-03-01, 22:28:11
Bei >=50% muss sich AMD warm anziehen, aber in 12nm wäre das ein echtes Kunststück?!

Hübie
2018-03-01, 22:45:08
Na ja man hat auch zwei bzw. drei Titan X ;D Daher dachte ich mir nimmst halt GTxxx. Es scheint dass NV kurzfristig auf den Markt reagiert und etwas geändert hat. Ich pflege hier mehr Infos ein wenn Zeit ist.

mironicus
2018-03-01, 22:54:00
Und soll laut PCGH bis zu 1500 Euro kosten, da wohl konkurrenzlos. :D

Hübie
2018-03-01, 23:06:20
Das ist auch Sepku, wenn auch nicht abwegige Speku. Titan Z hat damals schon viele Gamer schockiert, aber spätestens Titan V hat gezeigt dass man keine Skrupel hat. Wobei mir klar ist dass die Adresse nicht der Gamer lautet. ;)

Käsetoast
2018-03-01, 23:15:29
Also bei den Gerüchten die ich so gelesen habe hatte ich stets dein Eindruck, dass das primär ein Pascal Shrink wird mit ein paar Kosmetikverbesserungen an der Architektur. Rein vom Bauchgefühl würde ich da eher auf +30% bei merkbar gesunkenem Verbrauch tippen. Also eine Custom 2070 die dann so knapp auf 1080 Ti Niveau liegt...

Mit dem späteren Release klingt das eben auch ein wenig so, als würde NVIDIA Personal abgezogen haben um stattdessen schon ein wenig fokussierter an der Nachfolgearchitektur zu arbeiten und natürlich um bessere Yields mitzunehmen durch einen Prozess, der ein paar Monate länger optimiert werden konnte - AMD hat halt nichts zum Dagegenhalten und da kann man sich das erlauben...

Troyan
2018-03-01, 23:24:48
GV100 ist alleine 50% effizienter als GP100. Und Turing kommt zwei Jahre nach Gaming-Pascal. Also Leute, einfach relaxt sein und abwarten.

Daredevil
2018-03-01, 23:26:30
Warum eigentlich der "merkbar gesunkene Verbrauch" ?
Pascal ist doch schon ziemlich weit im Sweet Spot drin. Wenn die Geschwindigkeit steigt und der Verbrauch fast identisch bleibt, muss sich keiner großartig Gedanken um neue Kühlkonstruktionen machen und die Karte würde sich noch weiter abheben von AMD.

Also nicht, das ich was gegen beide Möglichkeiten hätte, aber der Stromverbrauch ist nun echt nichts, was man der Pascal Generation negativ zuordnen kann. Da habe ich lieber eine 20-40% schnellere "GTX2080" mit 200w tpd als eine "GTX2080" mit 10-20% mehr Speed bei einem 150w TDP. ( Es sei denn, man kann die Kollegen gut übertakten. :D )

Käsetoast
2018-03-02, 00:20:45
Ich denke einfach, dass man eben irgendwas à la 30 % mehr ALUs verbaut, aber am Takt wegen fehlender tiefgreifender Veränderungen an der Architektur nicht viel drehen kann. Mit einem solchen Performancetarget dürfte man im Vergleich zu Pascal eine leichte Senkung im Verbrauch bedingt durch den neuen Herstellungsprozess feststellen können...

Ich denke einfach mangels Konkurrenz wird NVIDIA da ein wenig versuchen den Gewinn zu optimieren. Sie werden auch mit 30-40 % mehr Performance die schnellsten Karten haben und da die Massenfertigung noch nicht angelaufen ist kann man da nun ein wenig auf den Markt bzw. auf die Konkurrenz reagieren. Die Leistung einer 1080 Ti zum Preis einer 1070 kaufen zu können ist schon ein nettes Upgrade, das Turing dann liefern würde. Klar könnte NVIDIA auch mehr Leistung bieten, aber warum? Dazu müsste man mehr Einheiten auf den Chips verbauen, ihn also größer machen. Die Karten werden sich aber auch so verkaufen und einen respektablen Performanceboost bieten. Kleinerer Chip bedeutet für NVIDIA aber mehr Gewinn - ich sehe nicht wieso NVIDIA da das machbare Maximum der Performancesteigerung ausloten sollte in dieser Generation. Verkaufen wird man auch so - also lieber ein kleines Polster aufbauen, das man zur Not ausspielen kann wenn die Konkurrenz mit der nächsten Generation doch gut abliefert oder die eigene neue Architektur hinter den Erwartungen zurückbleibt. Aus einer Position der Stärke heraus da lieber Gewinne abgreifen und ich denke schon, dass NVIDIA das hier auf der einen Seite mit Chips machen wird, die ein wenig kleiner sind als sie in der jeweiligen Leistungsklasse sein könnten und man denke ich schon die UVPs ein wenig heraufsetzen wird wenn die Karten wegen der Miner sowieso zu viel höheren Preisen verkauft werden - warum sollte NVIDIA da nicht mit dran verdienen und nur den Händlern den erhöhten Gewinn lassen? Einen 50-100 $ Aufpreis einer GT104 gegen dem seinerzeitigen Preis einer GP104 kann ich mir da durchaus vorstellen. Verkauft wird die Karte so oder so, weswegen ich mir nicht vorstellen kann, dass ein gewinnorientiertes Unternehmen es sich entgehen lassen wird sowohl die Herstellungskosten durch einen "kleiner als gedachten" Chip zu senken und gleichzeitig höhere Preise aufzurufen, die der Markt einfach hergibt...

Daredevil
2018-03-02, 00:41:40
Jo das stimmt, das klappt ja auch mit der GTX1080ti/TitanXP/TitanV ganz gut, einfach dicke Einheiten und den Takt nicht so doll nach oben pushen aufgrund der besseren Effizienz.
Hab ja schon im anderen Thread gesagt, dass Nvidia sich meiner Meinung nach momentan wenig Sorgen machen muss und sie locker eine Generation vor ihren Hauptkonkurrenten sind.

AMD braucht mehr Geschwindigkeit und deutlich weniger Stromverbrauch um überhaupt Pascal dominieren zu können im Gesamtpaket.
Nvidia braucht einfach nur mehr Geschwindigkeit bei gleichem/gerne auch weniger Stromverbrauch um ihre alte Generation abzulösen.

Da muss AMD eine Aufgabe mehr lösen als Nvidia, aber das würde ich ihnen momentan echt zutrauen. Die sind ja schon aktuell für eine Überraschung gut.
Mal sehen, wie Nvidia das sieht und wie sehr sie unter, oder eben auch über das Ziel hinaus schießen. :)

Tesseract
2018-03-02, 00:54:50
Pascal ist doch schon ziemlich weit im Sweet Spot drin.

nicht wirklich. so richtig effizient wird pascal erst auf <=1700Mhz. im vergleich zu anderen architekturen fällt es zwar nicht so auf weil pascal generell sehr effizient ist aber >1900 - auf das viele karten boosten - ist eigentlich schon sehr nah an der kotzgrenze.

EinName
2018-03-02, 05:49:54
+1 für Tesseract.

Nur weil AMD seine Hardware bis zur Mega-Würg-Grenze bei den Default-Karten ausreizt um nur einen Stich gegen die überteuerte Midrange von NV zu sehen, heißt nicht, dass 2000 Mhz auf Pascal normal ist. War es nie, ist es nicht, wird es auch nicht sein. Otto-Normal-Karte läuft fröhlich bei 1550-1700Mhz vor sich hin. Meine 1070 braucht für die "normalo" Games dann nicht mal die Lüfter anschmeißen. Mit dem 1950Mhz Supi-Dupi-Bios wird es dann laut weil die Karte direkt soviel wie ne 1080+ verballert.

P(ersönlicher) S(enf): 10nm gibt es bei TSMC bislang nur als low-clock für die Smartphones, darum gibt es überhaupt 12nm. Siehe GloFo 14nm: optimiert für <3ghz - Samsung's "Galaxy" Prozess. Die 12nm sind halt speziell für NV auf High-Clock - wie auch immer sich das genau in der Density und der Komplexität der Masken darstellt. Das ist der NV Prozess und der kommt auch mit den nächsten (Überbrückungs)karten. GloFo gibt als Sweet-Spot für den kommenden 7nm High-Clock Prozess ca. 40% Takt über den aktuellen an. Also anstelle Zen mit 3,2 Ghz mal eben die glatten 5. Wenn das stimmt - großes Fragezeichen - dann ist 7nm halt ein Knüller. Und dazwischen gibt es nur die 12nm bei TSMC, weil die 10nm bisher nur in lower Voltage für die Handys sind. Ich glaube auch, dass das mit der Abnahme von Apple und Co. zwar einen Einfluß hat, aber sich der Fertigungsprozess der Smartphone Chips zu den GPU/CPU Prozessen dennoch unterscheidet. Und sei es "nur" in den Libraries und der Dichte der Masken.

So - und nu bitte weg von AMD Vega Design Fails mit kaputten Karten und back to 800 Euro Midrange Flaming. Danke.

spotz
2018-03-02, 08:16:08
In den 3DC News stand vor kurzem je später die nächste GeForce Generation erscheine, desto wahrscheinlicher sei das sie komplett in 10 nm gefertigt sein könnte. Wie ordnet ihr in diesem Zusammenhang die von THG kolportierte Verzögerung der neuen Geforces von April auf Juli ein? Kann ich da hoffen oder hat das eher andere Gründe?

Insbesondere interessiert mich eure Einschätzung bei der 1150 oder 2050 und 1130 oder 2030, deren Vorgänger bei Samsung gefertigt wird. Die werden ja auch viel im Mobile Bereich verbaut. Da müsste NVIDIA im Hinblick auf die Wettbewerber Kaby Lake-G und Ryzen G doch ein gesteigertes Interesse an einer möglichst leistungsfähigen und stromsparenden Fertigung haben. Einen Druck durch den Wettbewerb, der sie in den anderen Bereichen ihrer GPUs so nicht herausfordert.

HOT
2018-03-02, 08:40:02
Jetzt mal ernsthaft, wo soll die Mehrleistung in 12nm herkommen? Pascal ist schon extrem auf Gaming getrimmt, man braucht Computeleistung schließlich auch für Games...

Und es ändert sich genau überhaupt nichts zu den vorherigen Spekus, außer des Namens. Sonst bleibt alles gleich. Man könnte jetzt Spekulieren, wie Ampere jetzt aussieht. Die Profisparte ist diejenige, sie sich verändert, nicht die Gamingsparte.

Übrigens steht in Igors News, dass die Massenproduktion erst im Juni startet, da ist August aber der allerfrüheste Launchzeitpunkt, man muss bedenken, wieviel Absatz NV hier zu erwarten hat. Je mehr potenzielle Verkäufe zum Launch, desto länger der Vorlauf.

Monsta
2018-03-02, 08:48:26
Jetzt mal ernsthaft, wo soll die Mehrleistung in 12nm herkommen? Pascal ist schon extrem auf Gaming getrimmt, man braucht Computeleistung schließlich auch für Games...

Und es ändert sich genau überhaupt nichts zu den vorherigen Spekus, außer des Namens. Sonst bleibt alles gleich. Man könnte jetzt Spekulieren, wie Ampere jetzt aussieht. Aber bei Turing ändert sich schlicht nichts an den bisherigen Annahmen. Die Profisparte ist diejenige, sie sich verändert, nicht die Gamingsparte.

Gt104 wird einfach 400m2 groß, plus Optimierungen sollte Gp102 zu knacken sein. Gm104 ist auch 400m2 groß und konnte sich so super von Kepler absetzen.

Wenn GT102 500m2 groß wird sollte der Abstand groß genug sein.

HOT
2018-03-02, 09:00:58
Also genau so wie vorher spekuliert.

Bucklew
2018-03-02, 09:25:02
Jetzt mal ernsthaft, wo soll die Mehrleistung in 12nm herkommen?
Architekturverbesserungen.

AnnoDADDY
2018-03-02, 09:31:44
Was ist mit Volta im Vergleich? Der ist ja auch 50% effizienter das sollte also auch ein ganingchip packen.

Leonidas
2018-03-02, 09:47:52
Übrigens steht in Igors News, dass die Massenproduktion erst im Juni startet, da ist August aber der allerfrüheste Launchzeitpunkt, man muss bedenken, wieviel Absatz NV hier zu erwarten hat. Je mehr potenzielle Verkäufe zum Launch, desto länger der Vorlauf.

Ich denke, bei Massenfertigung an *Boards* im Juni kann der Launch schon im Juli sein. Die Chips müssen in der Tat vorher aufgelegt werden. 2-3 Monate vorher?



Architekturverbesserungen.

Möglich, aber fallen nicht vom Baum. Darauf sollte man eher nicht setzen, so was wie Kepler -> Maxwell ist ein singuläres Ereignis, nicht wirklich planbar.



Was ist mit Volta im Vergleich? Der ist ja auch 50% effizienter das sollte also auch ein ganingchip packen.

Sehe ich nicht wirklich, das der 50% effizienter ist. Da wird viel mit der TDP geschummelt - wohlwissend, das die Einhaltung irgendeiner PCI-Express-Spec im Großrechner-Bereich niemanden interessiert, da werden sowieso keine Standard-Systeme aufgestellt.

Volta bringt brachial mehr Leistung durch eine wesentlich größere Chipfläche, die auch - wenn komplett genutzt - mehr verbraucht. Die 12nm-Fertigung hilft da nur bedingt. Wenn man rein nur die Tensor-Power betrachtet, kann NV natürlich extreme Vorteile bei Volta darstellen, aber dies gilt nicht für das Gesamtbild. Und bei allen Gaming-Grafikchips wird es (mangels Relevanz von Tensor-Power im Gaming-Bereich) das gleiche sein: 50% mehr Effizienz allein durch die 12nm-Fertigung oder durch Architektur-Verbesserungen sind eine Illusion, wären ein echtes Wunder (nicht unmöglich, aber sehr unwahrscheinlich gerade in dieser Höhe). Wenn NV deutlich mehr Power bei 12nm will, muß es wieder mehr Chipfläche geben.

Igor TH
2018-03-02, 10:01:08
Mass Production / Ramp heißt fertige Boards. Chips und Packages müssen früher fertig sein und werden von NV wohl wie immer noch mit dem Speicher als Bundle kombiniert.

AffenJack
2018-03-02, 10:06:12
In den 3DC News stand vor kurzem je später die nächste GeForce Generation erscheine, desto wahrscheinlicher sei das sie komplett in 10 nm gefertigt sein könnte. Wie ordnet ihr in diesem Zusammenhang die von THG kolportierte Verzögerung der neuen Geforces von April auf Juli ein? Kann ich da hoffen oder hat das eher andere Gründe?

Insbesondere interessiert mich eure Einschätzung bei der 1150 oder 2050 und 1130 oder 2030, deren Vorgänger bei Samsung gefertigt wird. Die werden ja auch viel im Mobile Bereich verbaut. Da müsste NVIDIA im Hinblick auf die Wettbewerber Kaby Lake-G und Ryzen G doch ein gesteigertes Interesse an einer möglichst leistungsfähigen und stromsparenden Fertigung haben. Einen Druck durch den Wettbewerb, der sie in den anderen Bereichen ihrer GPUs so nicht herausfordert.

1150 und 1130 haben gute Chancen, dass diese bei Samsung in 7nm gefertigt werden. Die Chips kommen eh immer später, als die großen. Desto später diese also kommen, desto eher ist 7nm hier wahrscheinlich. Wie du schon sagst waren die vorher ja auch schon bei Samsung, also ich seh das mittlerweile als recht wahrscheinlich. Aber da wird dieses Jahr nix mehr kommen. Das ist dann Anfang bis Mitte 2019.

Bucklew
2018-03-02, 10:49:37
Möglich, aber fallen nicht vom Baum. Darauf sollte man eher nicht setzen, so was wie Kepler -> Maxwell ist ein singuläres Ereignis, nicht wirklich planbar.
Ich denke NVIDIA war sich bewusst, dass für einen Launch zwei Jahre nach Pascal die 7nm Schiene zeitlich mehr als nur eng wird. Warum also nicht mehr Engineering in die Architektur, als in die Fertigung stecken?

Jensen hat ja schon vor Jahren gesagt, dass man ähnlich wie Intel mit Tock/Tick agieren möchte. Also Architektur-/Fertigungsnode im Wechsel.

Da würde es also Sinn ergeben, wenn man mit Pascal in 16nm wenig an der Architektur gedreht hat, dafür viel in Richtung Fertigung (Tick). Mit Volta kam dann die neue Architektur aber wieder in (fast) 16nm (Tock).

Von daher würde eine neue Iteration, mit den Verbesserungen aus Volta + Secret Sauce fürs Gaming in 12nm extrem viel Sinn ergeben. NVIDIA hat das R&D, das KnowHow, die Leute und die Zeit, um nun durchaus wieder einen richtig großen Sprung in Sachen Architektur zu machen.

Jasch
2018-03-02, 11:13:33
Also bei Intel ist das ja wohl eher ein "leises" tick tick tick seit Jahren.
Wenn Sie das als Vorbild nehmen, und nur den "Vorsprung" verwalten, na dann gute Nacht.

Igor TH
2018-03-02, 11:28:24
Ich warte auf die erste wirkliche UHD-Karte. Selbst die bis an die Kotzgrenze aufgerissene 1080 Ti schafft das nicht wirklich und mGPU ist uncool. :(

MorPheuZ
2018-03-02, 11:29:47
Ja warum war das bei Intel wohl so? Und warum könnte das bei NV auch zutreffen? :uconf3:

spotz
2018-03-02, 11:42:56
Ich denke NVIDIA war sich bewusst, dass für einen Launch zwei Jahre nach Pascal die 7nm Schiene zeitlich mehr als nur eng wird. Warum also nicht mehr Engineering in die Architektur, als in die Fertigung stecken.
....
NVIDIA hat das R&D, das KnowHow, die Leute und die Zeit, um nun durchaus wieder einen richtig großen Sprung in Sachen Architektur zu machen.ich vermute mal das Leonidas davon ausgeht, das selbst wenn man mehr Ingenieure in die Architektur steckt ein derartiger architekturbedingter Leistungszuwachs wie bei Maxwell nicht planbar ist. Daher sein Begriff "singuläres Ereignis".
1150 und 1130 haben gute Chancen, dass diese bei Samsung in 7nm gefertigt werden. Die Chips kommen eh immer später, als die großen. Desto später diese also kommen, desto eher ist 7nm hier wahrscheinlich. Wie du schon sagst waren die vorher ja auch schon bei Samsung, also ich seh das mittlerweile als recht wahrscheinlich. Aber da wird dieses Jahr nix mehr kommen. Das ist dann Anfang bis Mitte 2019.
vielen Dank für die Antwort. :) Erste Jahreshälfte 2019 hört sich nicht gut an, aber dann wären 7 nm schon ein netter Ausgleich für die lange Wartezeit.

ShinyMcShine
2018-03-02, 12:00:08
Ich warte auf die erste wirkliche UHD-Karte. Selbst die bis an die Kotzgrenze aufgerissene 1080 Ti schafft das nicht wirklich und mGPU ist uncool. :(

+1

Leonidas
2018-03-02, 12:10:43
ich vermute mal das Leonidas davon ausgeht, das selbst wenn man mehr Ingenieure in die Architektur steckt ein derartiger architekturbedingter Leistungszuwachs wie bei Maxwell nicht planbar ist. Daher sein Begriff "singuläres Ereignis".


:up:
Genau davon gehe ich aus.

Aber NV darf gern was anderes machen als ich denke. "Moar Power" käme gut im aktuell eher traurigen Feld der Gfx.

TGKlaus
2018-03-02, 12:57:09
Ja warum war das bei Intel wohl so?

Weil Intel erst die Einführung des 14nm Prozesses verkackt hat und mittlerweile auch mit dem neuen 10nm Prozess meilenweit hinterher hängt.

Bei Intel waren/sind die "Ticks" fertigungstechnisch überhaupt nicht möglich.

Selbstversagen könnte man das nennen.

Daredevil
2018-03-02, 13:07:27
nicht wirklich. so richtig effizient wird pascal erst auf <=1700Mhz. im vergleich zu anderen architekturen fällt es zwar nicht so auf weil pascal generell sehr effizient ist aber >1900 - auf das viele karten boosten - ist eigentlich schon sehr nah an der kotzgrenze.
Ich habe doch nirgendwo davon gesprochen, dass ich ein Custom Modell als Beispiel genommen habe und auf 2GHz+ prügeln will. :confused:

+1 für Tesseract.

Nur weil AMD seine Hardware bis zur Mega-Würg-Grenze bei den Default-Karten ausreizt um nur einen Stich gegen die überteuerte Midrange von NV zu sehen, heißt nicht, dass 2000 Mhz auf Pascal normal ist. War es nie, ist es nicht, wird es auch nicht sein.
Ich habe doch nirgendwo davon gesprochen, dass ich ein Custom Modell als Beispiel genommen habe und auf 2GHz+ prügeln will. :confused:

HOT
2018-03-02, 13:09:08
Was ist mit Volta im Vergleich? Der ist ja auch 50% effizienter das sollte also auch ein ganingchip packen.
Stimmt ja nicht. Die Effizienz kommt ja nur daher, da das Ding mehr Shader hat und am Sweetspot betrieben wird. Und 50% ist da nirgends.

vinacis_vivids
2018-03-02, 13:19:54
+50% zu GP102 wäre ein 5760SP Chip und salvage 5120SP was TitanV entspricht.

Hübie
2018-03-02, 13:28:18
@HOT: Die Massenproduktion der AIBs beginnt im Juni. Das hält NVIDIA nicht davon ab, wie immer, früher an den Start zu gehen oder willst du das bestreiten? ;)

Tesseract
2018-03-02, 13:49:58
Ich habe doch nirgendwo davon gesprochen, dass ich ein Custom Modell als Beispiel genommen habe und auf 2GHz+ prügeln will. :confused:

so sieht der pascal-markt seit über einem jahr aber aus. klar kann man mal eben das power target runter schrauben aber sweet spot ist da OOTB so gut wie garnix.

Ravenhearth
2018-03-02, 14:05:38
Ich warte auf die erste wirkliche UHD-Karte. Selbst die bis an die Kotzgrenze aufgerissene 1080 Ti schafft das nicht wirklich und mGPU ist uncool. :(
+1 auch von mir. Da müssten nochmal >70% Performance auf die 1080 Ti drauf, um in aktuellen Games auf 60fps zu kommen (2160pUltra).

Daredevil
2018-03-02, 14:45:02
so sieht der pascal-markt seit über einem jahr aber aus. klar kann man mal eben das power target runter schrauben aber sweet spot ist da OOTB so gut wie garnix.
Ich nehme nicht irgendeine Drei Slot Grafikkarte in den Vergleich, wenn ich von einer "GTX1080" rede oder von einer "Vega64", weil das die Kommunikation im Forum schon ein wenig schwieriger macht.
Nur weil Hersteller xyz Bock hat, der Karte mehr Saft zu geben und demnach einen dicken Kühler draufzuschrauben, ändert das nichts an der Effizienz, wie Nvidia sie vorgesehen hat und die ist eben meiner Meinung nicht nur gut, sondern sehr beachtlich im Gegensatz zum AMD, als auch zum Custom Rest.

http://abload.de/img/unbenannt0bsnt.pnghttp://abload.de/img/unbenannt2k6s5v.png

Referenz Karten kann man im übrigen bei Nvidia selbst kaufen, also "Der Markt" bietet nicht nur Customs an.

Tesseract
2018-03-02, 15:15:34
verbrauch ist nicht gleich effizienz. die meisten customkarten sind mit runtergeregelten power targets sogar effizienter als die FE, bedingt duch effizientere spannungswandler, aggressivere voltage-curves usw. der niedrige verbrauch der FE ist eher den zu schwachen kühlern geschuldet.

und ja, man kann theoretisch noch FE kaufen, in der realität sind aber wohl >90% der verkaufen karten customs.

Daredevil
2018-03-02, 15:21:48
Ja ich weiß doch, ich bekomme meine Aorus GTX1080ti auch deutlich effizienter im Betrieb als bei Standard Settings ( und im Vergleich zur 1080 sowieso ). Mir ging es aber nur, der Übersicht halber, um die Standard Karten wie sie eben verkauft werden ohne Tweaks o.ä., weil sonst kann man eine Vega64 auch irgendwann als super effizient einstufen, wenn man da ein paar Stunden rumtweakt.

BoMbY
2018-03-02, 15:29:35
Laut ausgestreckten Fühlern von Igor (THG)

Der kann sich aber auch nicht entscheiden, oder? Erst war es ganz sicher Ampere, und nun doch Turing ...

Rampage 2
2018-03-02, 15:34:47
Möglich, aber fallen nicht vom Baum. Darauf sollte man eher nicht setzen, so was wie Kepler -> Maxwell ist ein singuläres Ereignis, nicht wirklich planbar.


In der Tat wird ein Quantensprung wie bei Maxwell schwerlich nochmal möglich sein; aber dennoch muss man sich fragen, was Nvidia die vergangenen 4 Jahre denn getrieben hat - Pascal war ja von Anfang an ein Zwischenschieber gewesen, weil Volta damals noch nicht möglich war.

Also muss Nvidia an einer neuen oder erheblich veränderten Architektur gearbeitet haben - denn nur mit 12nm und ein paar wenigen Feinschliffen an der Architektur kann man keine +50-60% zum GP104 erreichen. (außer die Zahl der Recheneinheiten wird ausreichend erhöht und der Takt noch weiter gesteigert)

Insofern kann ich es nicht wirklich glauben, dass bei Turing/Ampere die Architektur nur minimal aufgebohrt wurde:|

R2

Schnäppchenjäger
2018-03-02, 16:11:06
40% reichen doch auch.

Rampage 2
2018-03-02, 16:16:36
40% reichen doch auch.

Nein, GT104 muss die TXp überbieten (um 5-20%, Mittelwert 10%) und nicht die 1080Ti - da reicht 40% einfach nicht aus!

R2

Botcruscher
2018-03-02, 16:35:31
Wozu? TX Grundperformance mit gutem OC und deutlich günstiger reicht für eine Performace Chip mit den üblichen 300 bis 330mm² absolut aus.

Hübie
2018-03-02, 17:07:23
Der kann sich aber auch nicht entscheiden, oder? Erst war es ganz sicher Ampere, und nun doch Turing ...

Das liegt daran, dass er Kontakt zu AIBs, aber nicht NV selber hat und die erfahren auch nicht viel im Voraus. Erst wenn es konkret wird bekommen die sämtliche Infos. Lederjacke ist dafür bekannt impulsiv zu handeln. Für die Größe, welche NV mittlerweile hat, sind die doch erstaunlich flexibel.

Letztes Jahr stand sogar noch Volta auf deren Roadmap, dann nur noch 4th Gen, dann kam wohl Ampére hinzu und zu guter letzt halt Turing. Was am Ende daraus wird, zeigt sich schon noch. Bis dahin können wir spekulieren und diskutieren. :smile:

Thunder99
2018-03-02, 17:16:28
Es wird keine echte UHD Karte geben solange die Entwickler verstehen die Leistung zu verbrennen ;) ob sinnvoll oder nicht :D

Hübie
2018-03-02, 17:25:00
Es gibt so einige Kandidaten, welche auf maximalen Einstellungen deutlich zuviel Leistung pro visueller Qualität verbraten. Wenn die Leistung der Karten steigt, wird man zumindest auch partiell die Komplexität von Objekten und Partikeln erhöhen.

Rampage 2
2018-03-02, 21:02:41
Letztes Jahr stand sogar noch Volta auf deren Roadmap, dann nur noch 4th Gen, dann kam wohl Ampére hinzu und zu guter letzt halt Turing. Was am Ende daraus wird, zeigt sich schon noch. Bis dahin können wir spekulieren und diskutieren. :smile:

Kann jemand auf meine Aussage bzgl. neuer oder zumindest erheblich veränderter Architektur eingehen? (siehe mein vorletztes Posting)

Ansonsten zur Chipfläche: Wenn Leonidas' Einschätzungen zu 12nm vs. 16nm korrekt sind, dann würde ein GT104 mit 4096 SPs auf einen Chip mit 402 mm^2 reinpassen - 400 mm^2 sind nicht zuviel für einen Performance-Chip...

R2

ShinyMcShine
2018-03-02, 21:09:03
Kann jemand auf meine Aussage bzgl. neuer oder zumindest erheblich veränderter Architektur eingehen? (siehe mein vorletztes Posting)

Ansonsten zur Chipfläche: Wenn Leonidas' Einschätzungen zu 12nm vs. 16nm korrekt sind, dann würde ein GT104 mit 4096 SPs auf einen Chip mit 402 mm^2 reinpassen - 400 mm^2 sind nicht zuviel für einen Performance-Chip...

R2

Was willst Du denn hören? :confused: Keiner kann das mit Sicherheit wissen. Jede Glaskugel wird Dir was anderes sagen. Nvidia muss schonmal garnix (eben auch nicht an einer grundlegend veränderten Architektur arbeiten), weil der Konurrenzdruck fehlt. Und auch bei AMD wird so schnell nix weltbewegendes kommen, ergo noch weniger Druck auf Nvidia. Die werden schon wissen, wie sie Ihre Produktpalette aufstellen und fertigen müssen, aber von uns kann das eben keiner wissen, sondern nur mutmaßen

Tesseract
2018-03-02, 21:39:55
Ansonsten zur Chipfläche: Wenn Leonidas' Einschätzungen zu 12nm vs. 16nm korrekt sind, dann würde ein GT104 mit 4096 SPs auf einen Chip mit 402 mm^2 reinpassen - 400 mm^2 sind nicht zuviel für einen Performance-Chip...

natürlich ist das zu viel, so ein chip würde in der herstellung wohl mehr als GP102 kosten. sofern sich die chip-konfiguration nicht grundlegend ändert würde ich von ~3200 für GT104 und ~4800 für GT102 ausgehen und selbst das wird schon mit einem preisanstieg einher gehen.

Hübie
2018-03-02, 22:10:19
Es wird sicherlich auch keine fundamentale Änderung an der Konfiguration geben, weil da keine Not besteht. Im Detail gibt es sicher wieder viele Veränderungen von denen nur die Hälfte kommuniziert wird.

@Tesseract: Afaik ist 12 nm im Grunde 16FF+ da, soviel ich noch weiß, nur die Abstände zwischen metal layer der Transistoren verringert wurde. Dual pattering etc. bleibt gleich. Daher gehe ich nicht von einem deutlich erhöhten Preis aus. Man würde 471 mm² in Sachen Performance ersetzen und das wohl noch zu günstigeren Konditionen (u.a. höheres Volumen).

Bucklew
2018-03-02, 22:17:55
Nvidia muss schonmal garnix (eben auch nicht an einer grundlegend veränderten Architektur arbeiten), weil der Konurrenzdruck fehlt.
Doch, NVIDIA ist sich selbst der ärgste Feind. Zu wenig Vorsprung gegenüber Pascal und die Kunden rüsten einfach nicht auf. Siehe Intel.

pixeljetstream
2018-03-02, 22:36:04
@Rampage2 wie soll man als Aussenstehender Feinschliff und neue Architektur bei so großen Chips definieren. Wie einschneidend eine Änderung ist können nur die Hardware Designer beurteilen, es ist schwer das greifbar zu machen. Ein paar Dinge werden dann halt zum Release in den whitepapern beschrieben, aber kann man daraus schließen wie kompliziert es war oder was alles nicht in den Dokumenten steht weil "langweilig". Es gibt viel davon was in der Summe halt beiträgt das alles bissl flotter wird.

Da die Hersteller ihr Personal für diese Aufgaben haben wird N Arbeit am Design verrichtet und diese wird in erster Linie von der Zeit beeinflusst. Idealerweise noch mit etwas Personalzuwachs erhöht.

Rampage 2
2018-03-03, 01:22:30
natürlich ist das zu viel, so ein chip würde in der herstellung wohl mehr als GP102 kosten.

GM204 (GTX 980, 970) war auch 398 mm^2 groß und trotzdem nur ein Midrange-/Performance-Chip... (aber zum Preis eines HighEnd-Chips verkauft)

Warum sollen jetzt 402 mm^2 für einen GT104 zuviel sein?


Sofern sich die chip-konfiguration nicht grundlegend ändert würde ich von ~3200 für GT104 und ~4800 für GT102 ausgehen und selbst das wird schon mit einem preisanstieg einher gehen.

GT104 *kann* nicht weniger als 3584 SPs haben, da die Zahl der SPs pro GPC durch 128 geteilt eine Ganzzahl ergeben muss (3200/4 = 800, 800/128 = 6,25 -> nicht möglich!). Die nächste mögliche Konfiguration wären halt 4096 SPs (4096/4 = 1024, 1024/128 = 8 -> möglich!) ;)

R2

BoMbY
2018-03-03, 02:01:20
Klar, wird es nicht, weil es immer noch ein Pascal-Shrink ist - egal wie auch immer der Name gerade ist - aber in welchem Gesetz steht, dass sich das niemals ändern wird?

-=Popeye=-
2018-03-03, 02:30:53
Hieß es nicht zum Pascal Release es wäre ein Maxwell-Shrink? Jetzt ist Turing auf einmal ein Pascal-Shrink?
Leute könnt ihr euch mal entscheiden... oder basiert dass ganze nicht dann doch auf NV1. :uponder:

Ganz ehrlich dieses Spiel kann man auch bei der Konkurrenz anwenden... vielleicht nennt sich sowas auch einfach nur Weiterentwicklung.

Tesseract
2018-03-03, 03:43:41
GT104 *kann* nicht weniger als 3584 SPs haben, da die Zahl der SPs pro GPC durch 128 geteilt eine Ganzzahl ergeben muss (3200/4 = 800, 800/128 = 6,25 -> nicht möglich!). Die nächste mögliche Konfiguration wären halt 4096 SPs (4096/4 = 1024, 1024/128 = 8 -> möglich!) ;)

R2

die ~3200 und ~4800 waren keine genauen konfigurationen sondern der sprung von maxwell auf pascal zu turing extrapoliert um grob die größe zu schätzen. denkbar wären z.B. 3072 (128*6*4) oder 3584 (128*7*4) bzw. 4608 (128*6*6) oder 5376 (128*7*6)

man weiß halt auch nicht wie es mit dem auslastungsgrad aussieht. maxwell hatte 4 TPC pro GPC, pascal hat 5 und volta gleich 7, allerdings sehen die SM da ganz anders aus; und wenn der chip im bereich taktbarkeit oder async compute optimiert wurde steigt wahrscheinlich auch die transistorzahl relativ gesehen weiter an.

am liebsten wären mir natürlich möglichst große sprünge, aber an mehr als die konservativen 3072/4608 kann ich dann irgendwie nicht so recht glauben.

Leonidas
2018-03-03, 05:00:51
Ein 400mm² großer GT104 geht - aber dann wird der GT102 schwer herzustellen. Der geht dann locker auf über 600mm² - oder hat keine große Differenz zum GT104.

PS: Eigentlich dürfte NV die GTxxx-Codenamen nicht verwenden, denn GTxxx gab es schonmal: Tesla 2 Architektur mit den Chips GT200, GT215, GT216 und GT218.

mczak
2018-03-03, 05:41:04
Ein 400mm² großer GT104 geht - aber dann wird der GT102 schwer herzustellen. Der geht dann locker auf über 600mm² - oder hat keine große Differenz zum GT104.

Nimmt man an das ist wie bei GM204/GM200 und GP104/GP102 geht das "locker", da waren es ja jeweils 50% mehr Shader/ROPs etc. Und auch GM204 ist 400mm^2 gross und GM200 600mm^2, ein GT102 der dann auch 600mm^2 gross wäre sollte also durchaus möglich sein.
Wobei mir das persönlich auch etwas übertrieben scheint.


PS: Eigentlich dürfte NV die GTxxx-Codenamen nicht verwenden, denn GTxxx gab es schonmal: Tesla 2 Architektur mit den Chips GT200, GT215, GT216 und GT218.
Den GT200 gibt's sogar auch noch in einer geshrinkten GT200B-Variante. Habe mich auch schon gewundert, wobei diese Chips da ja nicht gerade berühmt waren - während deren ganzen Lebenszeit hat nvidia wohl mehr G92B verkauft als von diesen Chips zusammen :biggrin:. Aber so würde man sie vielleicht schneller vergessen :rolleyes:.

robbitop
2018-03-03, 08:30:19
Wenn es keinen echten Shrink gibt (12nm sind kaum als solcher zu merken), und man die übliche +60% haben will, müssen die irgendwo herkommen. MArch (puch pro Transistoren), Takt und Transistoren. Ein nicht unwesentlicher Teil wird wohl analog Maxwell aus der Chipfläche kommen. 400/600 sqmm würden mich jedenfalls nicht überraschen.

Korvaun
2018-03-03, 09:59:35
Durch das scheiß Mining-Gedöns (sorry) und die fehlende Konkurrenz (AMD wird ja wohl dieses Jahr nichts neues bringen) müsste nV GAR NICHTS tun. Die könnten einfach Pascal weiter produzieren und Ampere/Tuning um 1 Jahr verschieben und es würde wahrscheinlich immer noch ein super Jahr werden (Bilanztechnisch) :(

Wenn nV zum Sommer doch was neues bringt (fast egal wieviel wirklich besser als Pascal) kann man ja schon froh sein und Lederjacke-Jensen die Füße küssen...

Gez.,
Ein frustrierter Gamer ;)

HOT
2018-03-03, 10:04:00
GT104 ist wohl größer und teurer als GP104, deshalb die Verschiebung, das ist doch einfach. Man verdient halt mit GP104 exzellent. Sogar so gut, dass man den GP102 aus der Masse herausgekegelt hat, der er schlicht zu teuer war im Verhältnis. Das ist jedenfalls meine Meinung dazu.
Wie gesagt, ob das Ding vorher mal Volta geheißen hat oder man dachte, es wäre Apere, ist furzegal, Namen sind Schall und Rauch. Die Chips sind seit 2 Jahren mindestens in der konkreten Entwicklung, also wusste man vor mindestens 2 Jahren schon (mMn mehr), was GT104 wird. Das mag einigen hier das Weltbild etwas verhageln mit dem tollen "ach die können ja sooo flexibel reagieren". Das ist BS, das geht in der Chipindustrie schlicht nicht. MMn hat man aus reinen marketinggründen Turing von Volta abgetrennt. Das sollte sicherlich so laufen, dass GV100 und GV104 Mitte 2017 starten sollten, GV104 sicherlich etwas später, das verschob man auf Ende 2017 - und wollte es nicht rechtfertigen, also benannte man das Teil einfach um. Jetzt ist es so, dass das Teil mMn ein Jahr später als ursprünglich geplant kommt, da es schlicht keine Konkurrenz gibt, und man die Kapazität fürs Mining braucht und die geringe Chipgröße des GP104 einfach luktrativ ist.

Ich denke, dass das das wahrscheinlichste Sceanrio ist, denn sonst hätte man schon vor 2 Jahren alles erahnen müssen, was heute passiert, um darauf reagieren zu können. Ich halte das für BS, da Vega für NV nicht absehbar war, das hätte genausogut ne Granate werden können und der Miningboom startete erst im Mai 2017 ca. Reagieren kann man eigentlich nur dadurch, dass man etwas verschiebt oder eben Planungen, Masken oder ganze Produkte cancelt. Das könnte bei 10nm passiert sein, sodass davon nur noch Ampere, also GA100, übrigblieb.

basix
2018-03-03, 10:16:47
Ich denke 3584 Shader hören sich sinnvoll an. +40% Shader, +10-20% Takt. Damit wäre man gut +50-70% schneller, was mehr als genug für eine neue Generation wäre. Zusammen mit 256bit @ 14-16 GBit/s GDDR6 wäre das ebenfalls stimmig. GT102 dementsprechend von der Einheitenzahl einfach überall +50%.

Und ich tippe ebenfalls auf eine Kombi im Bereich 400/600mm2.

pixeljetstream
2018-03-03, 10:36:13
+1 für HOT's Hinweis auf die notwendigen Zeiträume bei der Entwicklung.
Aufgrund der Pipeline in der Entwicklung war als Pascal vom Band lief, Volta in heißer Entwicklung und der Nachfolger ebenfalls schon in frühem Stadium.

Denn beim cutoff für die Chip Features muss man ja wissen wo man den Rotstift ansetzt und was dann im Nachfolger passiert. Und wenn man größeres vorhat kann sich ein Umbau über mehrere Generationen hinziehen, da das Risiko für alles in einer Gen zu machen zu groß, bzw die Arbeitszeiten zu gering ist.

Eine gewisse Flexibilität bleibt übrig aber es sollte klar sein dass da kein großer Spielraum ist, und nachträgliche Änderung nur bis zu nem gewissen Zeitpunkt möglich sind, bzw. sehr gut begründet sein müssen und daher sehr selten. (Bitte nicht auf der website zitieren ;) ) Ich habe selbst an Dingen gearbeitet die in der Hardware landeten, und von der ersten Idee und Forschung bis es im Markt war, dauerte es z.B. einmal so 3-4 Jahre. Je nachdem wo der Zyklus gerade ist, kann man den nächsten Chip nicht mehr beeinflussen (Endphase ist meist so ein Jahr vor public release), der zweite ist dann auch schon relativ weit in der Umsetzung, so dass es hier nur klappt wenn es einfache lokale Änderungen sind oder man extrem guten usecase hat. Ergo wird's eher der dritte wo die Planung noch offener ist.
In Jedem Fall erforscht man was es bringt, sammelt Daten, vergleicht verschiedene Ansätze. Warum kann man es nicht in software (shader/treiber) lösen. Je größer das Feature, desto stärker steht auch der Mehrfachnutzen im Vordergrund, stimmen die anderen Business units zu, sprich ist's keine Geldverschwendung. Der Teil ist dann halt ein bisschen das Orakel beragen, man bezieht sich auf Trends in der Industrie, Wünschen von Entwicklern etc. Die Komplexität kann sehr unterschiedlich ausfallen, manchmal reicht es sich mit dem Verantwortlichen einer Unit zu unterhalten, und wenn man den überzeugt und die Änderung klein ist, ist's nicht so kompliziert wie wenn die Auswirkungen viele Abteilungen treffen (sprich teuer werden).
Die reinen Forschungsabteilungen der Firmen gucken dann noch weiter in die Ferne, so dass sie viel Erfahrung und potentielle Lösungen sammeln, so dass man dann, wenn sich ein Trend ergibt, reagieren kann. Nicht alles führt zum Erfolg, und nicht alles wird im Markt aufgenommen, aber je breiter man hier Spitzenforschung betreiben kann, desto weniger wird man überrascht.

Kann auch jedem diesen Artikel hier nahe legen https://rys.sommefeldt.com/post/semiconductors-from-idea-to-product/
Will sagen, all diese Arbeit wird immer getan, dafür hat man all die Mitarbeiter, investiert in die Logistik für Emulation, Simulation etc. es wäre pure Geldverschwendung nicht das Maximum rauszuholen, ergo sind diese "die lehnen sich zurück, warten hier mal" Theorien absoluter Bullshit, wie HOT sagte. Es gibt auch externe Einflüsse auf den Zeitplan, meist haben die mit der Fertigung zu tun, oder weil spezielle Kunden da Vorgaben machen (Großunternehmen wollen Produkt X bis Zeitpunkt Y weil ihr eigens Produkt davon abhängt).

Zur Komplexität: wenn ich mich nicht verrechnet habe hat GP104 5-6 Fußballfelder, wenn man die 16nm auf nen Standard 5mm Karoblock raufskaliert.

robbitop
2018-03-03, 10:52:14
Durch das scheiß Mining-Gedöns (sorry) und die fehlende Konkurrenz (AMD wird ja wohl dieses Jahr nichts neues bringen) müsste nV GAR NICHTS tun. Die könnten einfach Pascal weiter produzieren und Ampere/Tuning um 1 Jahr verschieben und es würde wahrscheinlich immer noch ein super Jahr werden (Bilanztechnisch)
Wenn man nicht drauflegt an Performance dann rennt man in die Marktsättigung. Man will sicherlich Pascalkunden auch zum Upgrade bringen.

Daredevil
2018-03-03, 11:26:59
Wenn jeder, der "scheiß Miner" schreibt, sich tatsächlich wirklich sofort ne neue Karte holen würde, ist wohl noch genug Kaufreiz vorhanden. :D

HOT
2018-03-03, 11:42:49
Wenn man nicht drauflegt an Performance dann rennt man in die Marktsättigung. Man will sicherlich Pascalkunden auch zum Upgrade bringen.
Davon sind wir weit entfernt.

reaperrr
2018-03-03, 13:08:52
Davon sind wir weit entfernt.
Mag sein, Nvidia's Ziel muss idealerweise aber lauten, eben nicht nur aktuelle Maxwell2.0-Besitzer, sondern auch möglichst viele Pascal-Besitzer und Vega-Besitzer zum Kauf der neuen Karten zu bewegen, um das zu erreichen müssen die neuen Karten gegenüber Pascal schon einen ordentlichen Sprung machen. (wobei ich alles über 40% gegenüber dem jeweiligen direkten Vorgänger für unwahrscheinlich halte, dafür ist Pascal schon zu gut und bringt 12nm zu wenig Vorteile ggü. 16FF+).

Meine Speku:
1180/2080: 28 SM (4 GPC mit je 7 SM, 3584SP), ca. 1080FE-Takt, 16GB GDDR6@256bit@16Gbps von Samsung
- Durch leichte uArch-Verbesserungen leicht schneller als 1080Ti bei <200W.

1170/2070: 21-24 SM (je nachdem, ob Yield-Rate einen deaktivierten GPC erfordert oder nicht), ca. 1070FE-Takt, 8GB GDDR6@256bit@12Gbps (Hynix/Micron/Samsung)
- Durch leichte uArch-Verbesserungen, mehr SM und mehr Bandbreite leicht (bei 21 SM/3 GPC) bis moderat (bei 4 GPC und 22+SM) schneller als 1080FE und V64, <175W.

GP104 wird erstmal weiterlaufen bis GT106 fertig ist, 1080 aber eingestellt.

BlacKi
2018-03-03, 13:13:27
ja stimmt, noch nicht jeder hat eine 1080ti:freak:

btw ich hab da mal ne frage. reduziert die produktion von gddr6 die produktionskapazitäten der andere speicher arten und wie steht hbm2 dazu? sind das dieselben fertigungsanlagen?

wenn nicht, wieso nimmt man an das gddr6 mangelware sein wird?

Hübie
2018-03-03, 14:19:30
Das mag einigen hier das Weltbild etwas verhageln mit dem tollen "ach die können ja sooo flexibel reagieren". Das ist BS, das geht in der Chipindustrie schlicht nicht.

Das ist Fakt. Du hast A) nur andere Vorstellungen von Flexibilität und Zeithorizont und B) war das nicht darauf bezogen, dass man mal eben einen neuen Chip aus dem Hut zaubert. :rolleyes: Ich bin mir nicht sicher ob damals bei Kepler bspw. alles nach Plan lief (man hörte so einiges), hat aber das Beste daraus gemacht und "gewonnen".
Wäre NV nicht flexibel hätte man Tegra nicht in so unterschiedlichen Einsatzgebieten, hätte keine zwei Schienen der Chip-Entwicklung etabliert (HPC/non-HPC) und könnte die Preise nicht so ansetzen wie sie es eben tun.

@pixeljetstream: Danke für die insights. ;) Sicherlich spannend für den ein oder anderen mal zu erfahren wie es hinter den Kulissen so läuft. Interdisziplinäres Arbeiten und Entwickeln ist immer noch ein Novum in vielen Unternehmen. Wer gibt dem Kind eigentlich die Namen? Ist es eine Abstimmung oder macht das der Chef himself?

@BlacKi: HBM hat die gleichen Speicherzellen, also werden sich die Silizium-ICs wahrscheinlich die Fertigungsstraßen mit normalen Speichermodulen teilen. Danach sind die völlig losgelöst von der reinen Chip-Kapazität. Aber irgendwo müssen ja auch die assembly-lines stehen und nehmen Platz weg. HBM2 wird immer noch sehr zögerlich erweitert, wenn auch stetig.

GDDR6 & HBM nehmen so winzige Marktsegmente ein, dass die kaum eine Rolle auf den Profit der Hersteller haben. Daraus resultierend muss der Preis entsprechend höher angesetzt sein. Genaue Zahlen habe ich jedoch nicht zur Hand. Die Masse wird flash-memory in all seinen Variationen sein, gefolgt von DDR4 (samt LP), DDR3 (wird der noch gefertigt?), GDDR5 (+X bei Micron) und dann halt der Rest.

x-force
2018-03-03, 16:04:37
Das ist Fakt.

das heißt intel schlägt nächste woche mit meltdown und spectre freien cpus auf?

herrlich! :freak:

Hübie
2018-03-03, 16:56:36
Vermisch die Dinge nicht! Die Rede war von NV. :rolleyes:

Ich habe den Startpost mal editiert. Was sagt ihr dazu? Habt ihr Wünsche, was ich einpflegen soll (News, Gerüchte aus Foren etc.). Lasst es mich wissen. :smile:

Sweepi
2018-03-03, 18:28:30
Wie sagen eigentlich eure Glaskugeln bzgl. einer "Gaming-Titan", also GT102 nicht als 2080 Ti, sonder als Titan T (or whatever)?

1) Wird es überhaupt nicht geben? (und dann eine GTX 2080 Ti 9 Monate später? Oder kommt die dann früher?)
2) Wird es kurz nach GT104/GTX2080 geben? (und dann eine GTX 2080 Ti 9 Monate später?)
3 ) ?

Botcruscher
2018-03-03, 18:47:59
Die Gerüchteküche spricht von einer weiteren Aufteilung. Es wird also nicht nur den Performance Gamingchip geben sodern auch einen reinen Highend Gamingchip ohne (notzlose) HPC funktionen. Was dran ist muss sich zeigen. Dann sieht aber AMD mit nur einem Chip für alles überhaupt kein Land mehr.
Eine TI und Titan kommen aber auf jeden Fall. Damit ist zwei mal melken in einer Generation möglich. Zwei mal der schnellste Chip ist einfach pures Gold.

basix
2018-03-04, 09:59:06
Die Gerüchteküche spricht von einer weiteren Aufteilung. Es wird also nicht nur den Performance Gamingchip geben sodern auch einen reinen Highend Gamingchip ohne (notzlose) HPC funktionen. Was dran ist muss sich zeigen. Dann sieht aber AMD mit nur einem Chip für alles überhaupt kein Land mehr.

Ehm GP102 und Titan Xp1 und Xp2 waren doch genau das?! Die Titan V mit V100 ist etwas anderes.

HOT
2018-03-04, 11:09:41
Ja... mit ein paar tiefgreifenden Architekturänderungen ;D
Eher mit weniger architektonischen Engpässen, wie man an Kabylake G sieht. Mehr ROPs, mehr Geometriedurchsatz, da gibts nen Haufen Baustellen. Das ist halt wieder ein Maximalwerk mit Auslastungsproblemen, so wie Fiji.

Botcruscher
Wie soll das aussehen? Viel weniger als Pascal geht da schon nicht, immerhin brauchst du auch Compute für Spiele :freak:. Pascal ist schon extrem auf Spiele zugeschnitten, ich glaube nicht, dass da noch großes Optimierungspotenzial besteht. Höchstens auf LL-Spiele kann man da noch was machen und das wäre eher mehr Compute (also mehr "Profi"), wie GCN eindrucksvoll vorführt.

Hübie
2018-03-04, 12:09:17
@HOT: Ich behaupte mal dass wir überhaupt keine Ahnung haben, was an Optimierungspotenzial noch wo schlummert. Compute hat den Vorteil, dass die pipe kürzer ist und man somit mehr im gleichen Zeitintervall abarbeiten kann. Jedoch lässt sich nicht alles damit machen und ggf. ist es nicht immer der schnellste Weg.

HOT
2018-03-04, 13:34:27
@HOT: Ich behaupte mal dass wir überhaupt keine Ahnung haben, was an Optimierungspotenzial noch wo schlummert. Compute hat den Vorteil, dass die pipe kürzer ist und man somit mehr im gleichen Zeitintervall abarbeiten kann. Jedoch lässt sich nicht alles damit machen und ggf. ist es nicht immer der schnellste Weg.
Und ich behaupte, dass die tiefhängenden Früchte abgepflückt sind. Die Herausforderung in Zukunft wird eher sein, die Auslastung auch bei noch größeren Strukturen zu garantieren. Man wird irgendwann eine neue tiefgreifende technische Änderung wie das TBR bei Maxwell oder nen komplett neuen Ansatz brauchen.

Digidi
2018-03-04, 15:48:13
Und ich behaupte, dass die tiefhängenden Früchte abgepflückt sind. Die Herausforderung in Zukunft wird eher sein, die Auslastung auch bei noch größeren Strukturen zu garantieren. Man wird irgendwann eine neue tiefgreifende technische Änderung wie das TBR bei Maxwell oder nen komplett neuen Ansatz brauchen.

Wenn es überhaupt einen neuen Ansatz gibt. Die meisten Technischen Dinge verhalten sich wie eine E-Funktion. Am Anfang geht es steil bergauf bis es oben dann immer weiter abflacht. Wir leben in einer Physikalischen Welt und die hat nun mal Ihre Grenzen. Glaube nicht das man den Polygonen bearbeitungsprozess noch etwas beschleunigen kann. Man dürfte mitlerweile beim Optimum angekommen sein.

Bucklew
2018-03-04, 17:02:14
Und ich behaupte, dass die tiefhängenden Früchte abgepflückt sind.
Ich glaube kaum, dass die Früchte, die zu Maxwell geführt haben, tiefhängend waren :rolleyes:

Nicht ohne Grund hat es AMD bis heute nicht kopieren können.

HOT
2018-03-04, 17:32:25
Die Maxwell-Architektur-Früchte waren gemeint.

prinz_valium
2018-03-04, 17:51:45
Ich halte ja leider die 3072 ALUs Variante für am wahrscheinlichsten.
12nm gegenüber 16nm FF hat keinen so deutlichen Area Vorteil.

Ich erwarte aber beim Takt deutlich mehr. 2000MHz durch die bank mit dem Referenz Design.
Leistungszuwachs am unteren ende mit rund 50%

Bucklew
2018-03-04, 18:06:35
Die Maxwell-Architektur-Früchte waren gemeint.
Warum sollten die tiefhängend gewesen sein?

Die Früchte von z.B. Fermi waren auch nicht tiefhängend, sondern im Gegenteil revolutionär.

Warum sollte ein Pascal-Nachfolger hier nicht ähnliches bieten? Nur weil von den üblichen Leuten das übliche NVIDIA-FUD kommt? Wenn man mal dein Prä-Pascal Geblubber mit dem vergleicht, was NVIDIA abgeliefert hat, dann wird deiner Vorhersage nach Turing die Über-Bombe :up:

Ravenhearth
2018-03-04, 18:26:41
Das Problem an den bisherigen Spekus hier, egal ob deutlich mehr Einheiten bei 400mm² und gleichbleibenden Takt oder nur 3072 ALUs bei 2000MHz, ist in meinen Augen der Stromverbrauch. 12nm bietet hier anscheinend einfach keine großen Spielräume, laut Leos Tabelle sinds entweder 10% mehr Takt oder 25% weniger Verbrauch. Das heißt, sowohl bei 4096 Einheiten ohne Mehrtakt als auch bei 3072 Einheiten bei 2GHz würde der Verbrauch des Chips der GTX 2080 laut Milchmädchenrechnung um etwa 30% hochgehen. Statt bei 180W für die Karte wäre man dann bei ~225W, und auch nur sofern der Speicher nicht durstiger wird, wovon allerdings eher auszugehen ist.

Dies alles basiert nun jedoch auf der Annahme, dass sich an der Architektur hinsichtlich Perf/W wenig/nichts ändert. Sollte Nvidia hier aber erneut einen großen Sprung hinlegen können, würde sich der Verbrauch nicht erhöhen. Oder aber es gibt ohne Architekturverbesserungen einfach nur einen kleineren Sprung bei den Recheneinheiten ohne Mehrtakt und ohne höheren Verbrauch, also nur ~30% mehr Performance. Also:

1) Keine bessere Perf/W der Arch, +50-60% Perf, >225W Verbrauch
2) Perf/W-Verbesserungen, +50-60% Perf, ~180W
3) Keine bessere Perf/W der Arch, +30% Perf, ~180W Verbrauch

Aber das gilt natürlich auch nur, sofern Nvidia 12nm nutzt...

pixeljetstream
2018-03-04, 18:46:29
Und ich behaupte, dass die tiefhängenden Früchte abgepflückt sind. Die Herausforderung in Zukunft wird eher sein, die Auslastung auch bei noch größeren Strukturen zu garantieren. Man wird irgendwann eine neue tiefgreifende technische Änderung wie das TBR bei Maxwell oder nen komplett neuen Ansatz brauchen.

Imo wird es ein noch stärkerer mix aus hardware und software sein, der den nächsten "Sprung" bietet. Es gibt sehr viel was im Moment unnötigerweise jeden Frame berechnet wird, einfach weil die standardisierten Programmiermodelle und die Hardware noch nicht so flexibel sind. Man wird in Zukunft noch cleverer aus weniger mehr machen und den Entwicklern dabei bessere Werkzeuge geben. So Dinge wie das AI-trainierte de-noising was Raytracing mal eben um Faktor 10 oder so flotter konvergieren lässt, oder diverse VRWorks Features, aber auch die Langlebigkeit der Konsolen, weil die Entwickler mehr rauskitzeln können.
Was ich mich Frage ist wieviel am Ende sich davon dann noch in Standards umsetzen lässt, weil die Hardwarehersteller in ihren Ansätzen vielleicht stärker divergieren. NVIDIA hatte drawcall overhead mit bindless schon mit der G80 als GL extension "gelöst", die hardware brachte auch pointer in GLSL, etwas was es bis dato immer noch in keiner PC Standard Grafikapi gibt, und wie lange schlummerte das async compute bei GCN herum... in Zukunft denke ich wird es immer wichtiger diese Dinge eher auszunutzen.

scully1234
2018-03-04, 19:14:14
Was ich mich Frage ist wieviel am Ende sich davon dann noch in Standards umsetzen lässt, weil die Hardwarehersteller in ihren Ansätzen vielleicht stärker divergieren. .

Ist es nicht so das der Marktführer größtenteils definiert ,welche Umsetzung sich als Standard etabliert ,weil jeder Spieleentwickler doch darauf achtet das deren Content eine große Zielgruppe anspricht

Standards zu setzten wenn sie sinnvoll erscheinen, sollte doch mit 80% Marktanteil weniger das Problem sein

Troyan
2018-03-04, 19:26:00
Vielleicht sollten "alte" Standards erstmal umgesetzt werden, bevor man mit neuen wieder viel verspricht. Tessellation in Final Fantasy 15 bringt mehr für das Endprodukt als alles, was wir seit drei Jahren von DX12 hören.

Die Konsolen basieren auf 4 Jahre alte Hardware. Solange wir PC-Spieler zu 90% Konsolenportierungen ohne vernünftige Anpassungen an PC-Technologien erhalten, braucht man auch keine weiteren "neuen" Standards.

dargo
2018-03-04, 19:29:31
Ist es nicht so das der Marktführer größtenteils definiert ,welche Umsetzung sich als Standard etabliert ,weil jeder Spieleentwickler doch darauf achtet das deren Content eine große Zielgruppe anspricht

Richtig, und der Markführer heißt Konsole. Erstaunlich, dass du das nach so vielen Jahren immer noch nicht einsehen willst.

Vielleicht sollten "alte" Standards erstmal umgesetzt werden, bevor man mit neuen wieder viel verspricht.
DX11 wird dieses Jahr im September 9 Jahre (Veröffentlichung der ersten DX11 Grafikkarte). :uconf3: Bei deinem Tempo wären wir noch bei Windows 3.11. :usweet:

scully1234
2018-03-04, 19:58:37
Richtig, und der Markführer heißt Konsole. Erstaunlich, dass du das nach so vielen Jahren immer noch nicht einsehen willst.


müde dreinblickend

http://www.mweb.co.za/games/view/tabid/4210/article/14333/pc-gaming-is-crushing-consoles-in-both-market-value-and-power.aspx

allein der letztjährige chinesische Zuwachs bei nur einer einzelnen PC Plattform wie Steam lässt mich an deiner Marktanalyse doch arg zweifeln:biggrin:

dargo
2018-03-04, 20:43:01
müde dreinblickend

http://www.mweb.co.za/games/view/tabid/4210/article/14333/pc-gaming-is-crushing-consoles-in-both-market-value-and-power.aspx

Ist das dein ernst? ;D

N0Thing
2018-03-04, 20:47:22
Der Zuwachs ist nicht überraschend, wenn die Anzahl an von Steam erfassten chinesischen Spielern zuvor bei 0 lag.

Den Standard im PC-Gaming setzt durchaus der Marktführer und das ist Microsoft mit Windows und ihrem DirectX. Zwar zusammen mit Nvidia und AMD, aber am Ende entscheidet doch Microsoft, wie es mit ihrer API weitergeht. Und in der Kronos Group sind wiederum viele weitere Firmen involviert, da wird Nvidia auch nicht alleine die Marschrichtung vorgeben können.

scully1234
2018-03-04, 21:33:19
Der Zuwachs ist nicht überraschend, wenn die Anzahl an von Steam erfassten chinesischen Spielern zuvor bei 0 lag.


Er ist in dem Sinne "überraschend" das man solche PC Units, bei irgendwelchen damaligen Statistiken gar nicht auf dem Radar hatte,während MS u Sony über ihr einziges Ökosystem belastbare Zahlen bringen.

Will heißen der PC Markt ist eben nicht nur Steam im kleinen Umfeld grob umrissen,sondern ist viel breiter gefächerter aufgestellt

Die Zuwanderung auf Steam wegen PUG zeigt das recht drastisch ,um welche Größenordnungen es da eigentlich geht

Digidi
2018-03-04, 23:49:43
Ist es nicht so das der Marktführer größtenteils definiert ,welche Umsetzung sich als Standard etabliert ,weil jeder Spieleentwickler doch darauf achtet das deren Content eine große Zielgruppe anspricht



Schon das du das erkannt hast! Und jetzt Leg das doch Mal auf die Konkurrenz um und was es für dich als Konsument bedeutet!

N0Thing
2018-03-05, 00:37:49
Er ist in dem Sinne "überraschend" das man solche PC Units, bei irgendwelchen damaligen Statistiken gar nicht auf dem Radar hatte,während MS u Sony über ihr einziges Ökosystem belastbare Zahlen bringen.

Will heißen der PC Markt ist eben nicht nur Steam im kleinen Umfeld grob umrissen,sondern ist viel breiter gefächerter aufgestellt

Die Zuwanderung auf Steam wegen PUG zeigt das recht drastisch ,um welche Größenordnungen es da eigentlich geht

Ja, die zuvor fehlenden chinesischen Spieler waren eine echte Überraschung, ich bin mir nur nicht so sicher, ob die Steam-Statistik damit belastbarer geworden ist. Auch wenn bekanntlich 1,3 Milliarden Menschen in China leben, finde ich doch überraschend, dass angeblich 65% der Steam-Nutzer Chinesen sein sollen.
Davon abgesehen sind die Umsätze der Publisher oft Richtung 90% für die Konsolenversion und ca. 10% für die PC-Ports aufgeteilt. Von daher würde ich auch weiterhin erwarten, dass die PC-Versionen im besten Fall die gleiche Aufmerksamkeit bekommen, wie die Konsolenversion.

Wird für den Thread aber auch langsam Offtopic, ich bin mir sicher, dass Turing mit allen APIs gut klar kommt und im jeweiligen Segment bessere Performance abliefern kann als Pascal, Vega oder Polaris.

Rampage 2
2018-03-05, 00:38:09
Was willst Du denn hören? :confused: Keiner kann das mit Sicherheit wissen. Jede Glaskugel wird Dir was anderes sagen. Nvidia muss schonmal garnix (eben auch nicht an einer grundlegend veränderten Architektur arbeiten), weil der Konurrenzdruck fehlt. Und auch bei AMD wird so schnell nix weltbewegendes kommen, ergo noch weniger Druck auf Nvidia. Die werden schon wissen, wie sie Ihre Produktpalette aufstellen und fertigen müssen, aber von uns kann das eben keiner wissen, sondern nur mutmaßen

Ich wollte nicht wissen, ob Turing eine neue Architektur ist (oder nicht), sondern ob es überhaupt Sinn ergibt, dass Nvidia eine nur leicht veränderte (bzw. nur optimierte) Architektur rausbringt bzw. die Frage, was Nvidia die letzten 3-4 Jahr denn getrieben hat - Pascal ist ja "nur" ein optimierter Maxwell und eine neue (oder wenigstens erheblich veränderte) Architektur ist in der Entwicklung noch BEVOR der Vorläufer (Pascal) im Markt erscheint. Selbst wenn dem nicht so wäre, ist Pascal schon seit fast 2 Jahren raus - Nvidia arbeitet also schon seit mindestens 2 Jahren an der Nachfolge-Generation.

Und in den Volta-Threads hier im Forum habe ich immer wieder gelesen, dass Volta mit größeren Architekturänderungen einhergehen wird (was NICHT bedeutet, dass es dann automatisch eine komplett neue Architektur ist;)). Und da Volta/Ampere/Turing wohl weiterhin auf 12nm (bzw. 16nm FF++) setzen werden, ist es naheliegend, dass die Architektur stärker umgebaut wurde, als Pascal - oder woher soll die Mehrleistung sonst herkommen? (die Zahl der Einheiten und vielleicht auch der Takt werden wohl sowieso erhöht sein, aber ob das alleine auch ausreicht?)

Jetzt wiederum, kommen Gerüchte, dass Ampere/Turing doch keine größeren Architektursprünge aufweisen sollen, was ich eben nicht nachvollziehen kann - was hat Nvidia denn die ganze Zeit gemacht?:|


...und wenn der chip im bereich taktbarkeit oder async compute optimiert wurde steigt wahrscheinlich auch die transistorzahl relativ gesehen weiter an.


Das heißt, die Transistorzahl/Chipfläche könnte auch ohne mehr Einheiten ansteigen? Zum Beispiel ein 3584SP GT104, der "eigentlich" nur ~ 352 mm^2 groß sein sollte (@ 12nm FFN), könnte dadurch ~ 400 mm^2 groß werden...?

R2

prinz_valium
2018-03-05, 02:25:04
Ist das dein ernst? ;D

Was gibt's da zu lachen?
PC gaming macht mehr Umsatz, hat mehr Spieler und höhere Wachstumsraten.
Mehr Spiele kommt auch noch hinzu.

vinacis_vivids
2018-03-05, 03:04:29
Jetzt wiederum, kommen Gerüchte, dass Ampere/Turing doch keine größeren Architektursprünge aufweisen sollen, was ich eben nicht nachvollziehen kann - was hat Nvidia denn die ganze Zeit gemacht?:|


Das heißt, die Transistorzahl/Chipfläche könnte auch ohne mehr Einheiten ansteigen? Zum Beispiel ein 3584SP GT104, der "eigentlich" nur ~ 352 mm^2 groß sein sollte (@ 12nm FFN), könnte dadurch ~ 400 mm^2 groß werden...?

R2

3584/3840SP@16nm kosten 471mm²
Wie kann der einfache 12nm shrink auf 352mm² kommen?
Die Packdichte von GV100 liegt bei 25,89MioTr/mm² und GP102 bei 25,47MioTr/mm²


Zu ersterem: Nvidia pflegt seine Gaming-Studios mit ner Gameworkz-Politur.

Leonidas
2018-03-05, 06:42:50
Das heißt, sowohl bei 4096 Einheiten ohne Mehrtakt als auch bei 3072 Einheiten bei 2GHz würde der Verbrauch des Chips der GTX 2080 laut Milchmädchenrechnung um etwa 30% hochgehen. Statt bei 180W für die Karte wäre man dann bei ~225W, und auch nur sofern der Speicher nicht durstiger wird, wovon allerdings eher auszugehen ist.


Für GT104 wäre das noch darstellbar. Aber was ist mit GT102? 230W von Pascal +30% mehr Stromverbrauch bei Turing? Dann würde NV mit der lange Zeit gehaltenen 250W-Grenze brechen.

Lösungen: 10nm. Oder tatsächlich Architektur-Verbesserungen gerade bei der Energieeffizienz.

HOT
2018-03-05, 08:40:35
Für GT104 wäre das noch darstellbar. Aber was ist mit GT102? 230W von Pascal +30% mehr Stromverbrauch bei Turing? Dann würde NV mit der lange Zeit gehaltenen 250W-Grenze brechen.

Lösungen: 10nm. Oder tatsächlich Architektur-Verbesserungen gerade bei der Energieeffizienz.
10nm wäre eher bei weniger Takt + mehr Einheiten eine Lösung, weniger für mehr Takt bei gleichbleibenden Einheiten. Ich denke, die 10nm werden eher für Ampere genutzt werden, während Turing 12FFN bleibt. Man wird einfach die Anzahl der Einheiten, weniger den Takt und gleichzeitig auch die TDP erhöhen, da gibts wie du schon erwähnt hast, ja auch noch Luft nach oben. Ich fänd das nicht so überraschend, wenn NV jetzt plötzlich wieder 220W für 80 und 275W für 80ti anbietet. Dafür stimmt dann aber die Leistung und man muss nicht mit den Fertigungskosten rauf. Da sind die paar W durchaus verschmerzbar.

Hübie
2018-03-05, 08:41:50
@Leo: Was spricht denn dafür, dass 10 nm auf HP bereit ist? Ich sträube mich zugegebenermaßen noch etwas das zu akzeptieren, da es doch hieß: Zu teuer, zu wenig Kapazität und zu geringe Vorteile...

Korvaun
2018-03-05, 10:03:41
Fraglich ist halt wie nV den echten Pascal Nachfolger geplant hat. Optimistisch auf 10nm für 2018 oder sogar schon für Herbst 2017? Oder doch konservativ für 12nm/16FF+(+). War 12nm vor 2+ Jahren überhaupt schon so geplant?

Möglicherweise hat man einen "einfachen" Pascal-Shrink auf 12nm dazwischengeschoben weil die Rahmenbedingungen für einen Release 2Q2018 der neu entwickelte Generation seit letztem Jahr absehbar nicht passen... 10nm nicht wirklich fertig, mining boom, AMD nicht konkurrenzfähig.

PHuV
2018-03-05, 13:37:20
Wenn man böse denken würde, könnte man meinen, Titan V mit Volta war ein Testlauf von Nividia, wie weit Enthusiasten gehen würden, um eine Karte mit akuellerLeistung zu kaufen. Kommt, daß Ding ist nicht ohne Grund spieletauglich gemacht worden. Wenn Nvidia wirklich gewollt hätte, daß diese Karte nur für HPC gedacht wäre, hätten sie es wie bei den anderen Profikarten gemacht.

Bucklew
2018-03-05, 13:48:45
Die Titans sind primär ein Lockmittel für die großen Teslas/Quadros.

Die Karten kann sich auch mal ein Institut oder eine kleinere Firma leisten und wenn man dann wirklich produktiv werden will, investiert man in die großen Karten.

=Floi=
2018-03-05, 18:09:10
1,2 x 1,2
3840 x 1,2 = 4608
20% mehr takt
faktor 1,44

Leonidas
2018-03-06, 06:27:04
@Leo: Was spricht denn dafür, dass 10 nm auf HP bereit ist?


Ich würde 10nm für Grafikchips durchaus auf Sommer/Herbst 2018 einordnen. Das passt zum bisherigen Schema bzw. den vorliegenden Infos. Aber: Da kann man sich natürlich irren. Oder aber der Kostenfaktor kann zu hoch sein. Solche Detailinfos (gerade zu nicht realisierten Projekten) bekommt man faktisch nie, auch nicht später.

MasterElwood
2018-03-06, 11:48:14
+1 für Tesseract.

Nur weil AMD seine Hardware bis zur Mega-Würg-Grenze bei den Default-Karten ausreizt um nur einen Stich gegen die überteuerte Midrange von NV zu sehen, heißt nicht, dass 2000 Mhz auf Pascal normal ist. War es nie, ist es nicht, wird es auch nicht sein. Otto-Normal-Karte läuft fröhlich bei 1550-1700Mhz vor sich hin.

Stimmt doch garnicht. Gibt praktisch KEINE Custom 1080er die NICHT locker 2000 schafft. Die meisten sogar 2050. OHNE superduper Bios oder Kühlermod. Einfach so - mit 2 minuten fummeln am Afterburner.

Und da rennt auch nix am Limit. Meine Palit SuperJetstream läuft z.B. stabil mit 2076. Und selbst in VR is Temp IMMER deutlich unter 70Grad (meistens so 65) - und das sogar sehr leise bei rund 50-55 Prozent Drehzahl.

Also am LIMIT rennt da garnix - das Ding is einfach thermal super-effizient :love:


Und TROTZDEM schmeiss ich das Ding sofort am Markt sollte die 2080er 50 Prozent drauflegen :biggrin:

MasterElwood
2018-03-06, 11:57:48
Das erste Bild (Preis Spekulation) ist falsch - weil eine 2080TI gibts GAAAANZ sicher nimmer in 2018. Glaube da sind wir uns alle einig :cool:

Tesseract
2018-03-06, 12:52:02
das Ding is einfach thermal super-effizient :love:

und rotzdem geht die effizienz der karte steil nach oben wenn du ~15% vom takt wegnimmst.

aufkrawall
2018-03-06, 13:11:56
Klappt das denn mit dem Curve-Editor wirklich ohne unerklärlichen Leistungsverlust? Wenn man einfach nur den Takt reduziert und nur das "UV" durch die Booststufen hat, lässt man doch wahrscheinlich ordentlich Potenzial brach liegen.

Thunder99
2018-03-06, 13:13:21
@MasterElwood:
Sicher? Legst du dafür die Hand ins Feuer? Ich würde eher sagen das 99% es schaffen aber es immer Karten gibt die es knapp nicht schaffen.

Das die neue Karte in 10nm kommt glaube ich eher nicht. Entweder 12nm oder 7nm. AMD zum Beispiel geht auch direkt auf 7nm.
Je später der Chip kommt desto eher wahrscheinlich wird es 7nm. Dann können wir uns auf ein wahres neues Performance Monster freuen!

aufkrawall
2018-03-06, 13:16:51
@MasterElwood:
Sicher? Legst du dafür die Hand ins Feuer? Ich würde eher sagen das 99% es schaffen aber es immer Karten gibt die es knapp nicht schaffen.

Imho hat er 100Mhz zu viel veranschlagt. Wäre bei 1:1 Skalierung natürlich auch nur 5% weniger Leistung, von daher..

robbitop
2018-03-06, 13:34:51
Stimmt doch garnicht. Gibt praktisch KEINE Custom 1080er die NICHT locker 2000 schafft. Die meisten sogar 2050. OHNE superduper Bios oder Kühlermod. Einfach so - mit 2 minuten fummeln am Afterburner.

Und da rennt auch nix am Limit. Meine Palit SuperJetstream läuft z.B. stabil mit 2076. Und selbst in VR is Temp IMMER deutlich unter 70Grad (meistens so 65) - und das sogar sehr leise bei rund 50-55 Prozent Drehzahl.

Also am LIMIT rennt da garnix - das Ding is einfach thermal super-effizient :love:


Und TROTZDEM schmeiss ich das Ding sofort am Markt sollte die 2080er 50 Prozent drauflegen :biggrin:

Meine 1080ti schafft keine 2ghz. Trotz 35C durch fetter Wakü. Ich brauche dafür zu viel Spannung so dass die 120% tdp nicht reichen.

MasterElwood
2018-03-06, 13:40:44
Meine 1080ti schafft keine 2ghz. Trotz 35C durch fetter Wakü. Ich brauche dafür zu viel Spannung so dass die 120% tdp nicht reichen.

Ich rede von "normale" 1080er - nicht TI und nicht 1070er

aufkrawall
2018-03-06, 13:41:29
Ich hatte zwei 1070s und kenne eine 1060, keine davon schafft diesen Takt. Alle gehen bis ca. ~1950, bei realistischen Temperaturen geringfügig weniger.

Tesseract
2018-03-06, 13:44:58
Klappt das denn mit dem Curve-Editor wirklich ohne unerklärlichen Leistungsverlust? Wenn man einfach nur den Takt reduziert und nur das "UV" durch die Booststufen hat, lässt man doch wahrscheinlich ordentlich Potenzial brach liegen.

was sollte da brach liegen?

Calypso
2018-03-06, 13:46:23
Wieso denkt Ihr eigentlich, dass 2018 ein Grafik-Chip in 7 nm kommen könnte? Ich habe es immer so verstanden, dass große Chips (Grafik-Chips) 1 Jahr nach den kleinen Smartphone-Chips kommen und diese kommen doch erst dieses Jahr raus. Das würde doch bedeuten, dass 7 nm frühestens Mitte bis Ende nächsten Jahres bei Grafikchips Verwendung findet.
Oder sind das bei Euch nur (unrealistische) Hoffnungen?

BoMbY
2018-03-06, 14:09:20
7nm? Nein, nein. Ganz bestimmt 5nm, 3000 MHz, GDDR7 und 1000% IPC-Steigerung. Also mindestens.

MasterElwood
2018-03-06, 14:13:19
@MasterElwood:
Sicher? Legst du dafür die Hand ins Feuer? Ich würde eher sagen das 99% es schaffen aber es immer Karten gibt die es knapp nicht schaffen.


Also "normale" Custom schaffen mit zwei einfachen Schritten (Power Limit auf 120% + Voltage auf +100 nen Takt zwischen 2050 und 2114. Die meisten davon so wie meine knapp unter 2100 (meine geht so zwischen 2088 und 2076 hin und her). Hab noch keinen Test gefunden der was anderes gesagt hätte.

Der Spielraum zu 2000 is also groß. Wenns also eine von 100 oder 1000 Karten es NICHT schafft - dann sind das absolute Ausreißer nach unten - die man dann fast schon als Konstruktionsfehler bezeichnen kann. Klar gibts sowas immer. Wenn ich sage "ALLE" - dann meine ich nicht damit

"alle Chips sind zu 100 Prozent von so exquisiter Gute..."

sondern das alle Custom Designs von der Kühlung und Spannungsversorgung her keine Probleme damit haben 99+ Prozent der Karten auf über 2000Mhz zu halten :wink:

Piefkee
2018-03-06, 14:52:06
Ich würde 10nm für Grafikchips durchaus auf Sommer/Herbst 2018 einordnen. Das passt zum bisherigen Schema bzw. den vorliegenden Infos. Aber: Da kann man sich natürlich irren. Oder aber der Kostenfaktor kann zu hoch sein. Solche Detailinfos (gerade zu nicht realisierten Projekten) bekommt man faktisch nie, auch nicht später.


Warum sollte sie 10nm nehmen der in der Branch nur für Mobile gedacht ist?

https://www.extremetech.com/gaming/264896-new-nvidia-gaming-gpus-unlikely-arrive-much-midsummer

The question of which node these GPUs will use is also up for some debate. TSMC’s 10nm nodes have, as far as we’re aware, been deployed almost entirely for mobile products. TSMC has also guided that it believes its 10nm products are a short-lived node. This is a similar strategy to what we saw at 20nm, where neither AMD nor Nvidia tapped the node for GPUs and it was replaced by FinFETs fairly quickly. It’s possible, therefore, that Nvidia will target TSMC’s interim 12nm node (think “optimized 16nm”) rather than moving to a brand-new node in 2018.

aufkrawall
2018-03-06, 14:54:21
was sollte da brach liegen?
Weil für ein optimales Ergebnis die Spannung der Booststufen nicht linear mit dem Takt fallen muss, je näher man dem Sweetspot kommt. Man könnte also sicherlich händisch noch weiter runter mit der Spannung, wenn einem Software/Treiber/Bios das erlauben.

Tesseract
2018-03-06, 15:00:15
linear ist die relation sowieso nicht, ist ja auch ein curve editor und kein line editor. die curve kann man händisch natürlich feiner optimieren als sie ab werk hinterlegt ist, aber besonders viel geht da meist nicht mehr - zumindest nicht in den oberen taktbereichen.

eine theoretisch perfekte curve garantiert bei jedem power limit den höchstmöglichen takt.

aufkrawall
2018-03-06, 15:10:03
Stimmt, es ist eine Kurve. :freak:
Ich glaub trotzdem nicht, dass die optimal ist, denn warum sollte das NV hinbekommen und AMD nicht?

Hübie
2018-03-06, 20:04:33
NV hat über die Jahre ein sehr raffiniertes binning ausgebaut. Getestet wird u.a. mit der Chroma 3260: http://www.chromaate.com/product/3260_automatic_system_function_tester.htm

https://abload.de/img/gp102-400-a130sqb.jpg (http://abload.de/image.php?img=gp102-400-a130sqb.jpg)

Ich müsste irgendwo noch ein Bild haben wo man sieht wie jeder BGA-Kontakt geschaltet wird (sieht dann wie ein buntes Lichterspiel auf dem Monitor aus).

Leonidas
2018-03-08, 04:51:12
Warum sollte sie 10nm nehmen der in der Branch nur für Mobile gedacht ist?

https://www.extremetech.com/gaming/264896-new-nvidia-gaming-gpus-unlikely-arrive-much-midsummer


Das ist eine blöde Mär. Die hierzu verlinkte Begründung ist einer Technik-Webseite glatt unwürdig. Wenn 10nm ausgelassen wird, dann *nicht* aus demselben Grund wie bei 20nm. Denn 20nm war für GPUs unnutzbar, weil kein Power-Vorteil erreicht wurde - man hätte mit der doppelten Transistoren-Anzahl also auch doppelte Verlustleistung gehabt. Dies trifft auf 10nm ganz entschieden nicht zu!

Finde es schade, das meine diesbezüglich sehr klare Begründungen nicht gelesen werden:
https://www.3dcenter.org/news/was-kann-nvidias-ampere-generation-mit-der-12nm-10nm-oder-7nm-fertigung-von-tsmc-erreichen

Ich lasse mich zudem gern auch (erneut) vom Gegenteil belehren. Aber bitte mit Fakten - und nicht Wertungen. Wertungen kann ich (auf Basis von Fakten) selber vornehmen.

Piefkee
2018-03-08, 09:10:53
Finde es schade, das meine diesbezüglich sehr klare Begründungen nicht gelesen werden:
https://www.3dcenter.org/news/was-kann-nvidias-ampere-generation-mit-der-12nm-10nm-oder-7nm-fertigung-von-tsmc-erreichen

Ich lasse mich zudem gern auch (erneut) vom Gegenteil belehren. Aber bitte mit Fakten - und nicht Wertungen. Wertungen kann ich (auf Basis von Fakten) selber vornehmen.

Ich habe deine Begründung gelesen, aber entschuldige da stehen auch keine Fakten sondern Speku.

Zurück zum Thema.
Warum ist der 10nm bei TSMC eine half-node? 10nm wird gestartet und dann relativ schnell auf 7nm umgestellt. In der selben FAB.
Der 10nm wird gut mit Mobile-SoC belegt sein.
https://www.semiwiki.com/forum/content/6662-tsmc-talks-about-22nm-12nm-7nm-euv-e.html

This proved to be very a wise approach since the same fabs were used for both 20nm and 16nm which simplified the 16nm ramp. We will see the same with 10nm and 7nm. TSMC ramped 10nm without quad patterning and will add it with 7nm, again using the same fabs.


Aber wie gesagt, ich denke man muss nur in die Vergangenheit schauen welcher Prozess der Consumer bekommt.
- erst kommt der BIG Quadro Chip mit neuem Prozess
- dann kommen der rest auf dem selben Prozess

--> GV100(12nm) --> rest ebenfalls 12nm

Andernfalls hätte NV eine GV100 in 10nm gebracht, aber das haben sie nicht.

HOT
2018-03-08, 09:17:10
Wenn TSMC den Node schnell wieder aus der Produktion nehmen will, ist er sowieso nix für Nvidia. Ich find das ist ein ziemlich gutes Argument.

Bucklew
2018-03-08, 10:56:59
<Andernfalls hätte NV eine GV100 in 10nm gebracht, aber das haben sie nicht.
10nm für HP im Mai 2017? Sportlich.

Hat da nicht gerade mal Apple mit ihren kleinen SoCs die Produktion gestartet? Und du denkst zeitgleich startet man einen 800mm² Chip mit 300W Verlustleistung? Läuft! :up:

Piefkee
2018-03-08, 11:03:36
10nm für HP im Mai 2017? Sportlich.

Hat da nicht gerade mal Apple mit ihren kleinen SoCs die Produktion gestartet? Und du denkst zeitgleich startet man einen 800mm² Chip mit 300W Verlustleistung? Läuft! :up:


Hast du überhaupt gelesen was ich geschrieben habe???

Mir ging es nicht darum das ein 800mm² Chip im Mai möglich wäre, übrings ist er nicht...^^

Es geht darum das ich nicht glaube das Nvidia genau 1 Chip GV100 in 12nm rausbringt und dann Ampere/Turining in 10nm bringt. Der 10nm Prozess lebt nicht lange weil er durch 7nm ersetzt wird, und das in der selben FAB auf der selben Produktionlinie...

Bucklew
2018-03-08, 13:27:36
Mir ging es nicht darum das ein 800mm² Chip im Mai möglich wäre, übrings ist er nicht...^^
Na dann siehst du ja, warum

a) GV100 in 12nm kam
b) deshalb noch lange nicht alles nach GV100 ebenfalls 12nm sein muss

Es geht darum das ich nicht glaube das Nvidia genau 1 Chip GV100 in 12nm rausbringt und dann Ampere/Turining in 10nm bringt.
Warum nicht?

Es würde sehr viel Sinn ergeben.

a) Sind die Nachfolger von GV100 ~12 Monate später dran
b) Hat 10nm ggü 12nm stark Vorteile
c) Würde es sehr gut in den Entwicklungsprozess passen

Der 10nm Prozess lebt nicht lange weil er durch 7nm ersetzt wird, und das in der selben FAB auf der selben Produktionlinie...
Wäre also sehr sinnvoll im H1/18 einen 10nm-Chip zu launchen und dann relativ kurz danach einen Refresh als MidLife-Kicker in 7nm.

Also ich finde deine Punkte, die du anbringst, sprechen eher für 10nm, als für 12nm.

Piefkee
2018-03-08, 14:13:28
b) Hat 10nm ggü 12nm stark Vorteile
c) Würde es sehr gut in den Entwicklungsprozess passen

Wäre also sehr sinnvoll im H1/18 einen 10nm-Chip zu launchen und dann relativ kurz danach einen Refresh als MidLife-Kicker in 7nm.




zu b) ja hat Vorteile
zu c) Warum? NV braucht doch keine Leistung wenn keine Konkurrenz da ist?

--> aber nochmal, der 10nm Prozess wird es nicht lange geben weil er durch 7nm ersetzt wird. TMSC wird 10nm nur über eine kurze Zeit anbieten. Abnehmer sind vorallem Mobile.
Danach wird in der selben FAB auf 7nm umgestellt. Das heißt das es überspitzt ausgedrückt, 2019 keine 10nm Chips mehr gibt weil alles auf 7nm umgestellt ist.
Nvidia will aber länge Chips produzieren.

12nm ist ein extrem ausgereifter und im Vergleich auch Billiger Prozess. Es macht meiner Meinung wesentlich mehr Sinn 2018 alle Geforce GPU mit 12nm zu launchen und erst im nächsten Jahr 2019 direkt auf 7nm zu springen.

Bucklew
2018-03-08, 14:18:51
--> aber nochmal, der 10nm Prozess wird es nicht lange geben weil er durch 7nm ersetzt wird. TMSC wird 10nm nur über eine kurze Zeit anbieten. Abnehmer sind vorallem Mobile. Danach wird in der selben FAB auf 7nm umgestellt. Das heißt das es überspitzt ausgedrückt, 2019 keine 10nm Chips mehr gibt weil alles auf 7nm umgestellt ist. Nvidia will aber länge Chips produzieren.
Warum "will" das NVIDIA? Hast du dafür einen Beleg?

Welches Problem sollte es darstellen, im H1/18 einen GeForce-Chip aufzulegen, den man im Laufe von 2019 mit einem Shrink beerbt?

Beispiel GeForce 200: Der GT200 kam noch in 65nm, die Karten wurden im Juni 2008 gelauncht. Bereits im Dezember 2008, nicht mal 6 Monate später, gab es die ersten Karten mit GT200b in 55nm.

Es gibt keine langlebigen Karten in 10nm und die GeForce-Chips wären problemlos austauschbar.

12nm ist ein extrem ausgereifter und im Vergleich auch Billiger Prozess. Es macht meiner Meinung wesentlich mehr Sinn 2018 alle Geforce GPU mit 12nm zu launchen und erst im nächsten Jahr 2019 direkt auf 7nm zu springen.
12nm ist aber auch nahezu 16nm. Die Vorteile sind sicherlich da, aber auch ziemlich marginal. Warum sollte man 2018 noch einen Chip mit einem so alten Prozess entwickeln, wenn die Nachfolger bereits da sind? Zumal du selbst sagst, dass 7nm der Nachfolger von 10nm ist und sogar die gleichen Fabs nutzt. Heißt: Der Entwicklungsaufwand 10->7nm ist vielfach kleiner, als erst von 12nm auf 7nm zu gehen.

Ich sehe immer noch kein Argument für 12nm, die 10nm klingen deutlich besser.

Hübie
2018-03-08, 14:35:55
Das ist eine blöde Mär. Die hierzu verlinkte Begründung ist einer Technik-Webseite glatt unwürdig. Wenn 10nm ausgelassen wird, dann *nicht* aus demselben Grund wie bei 20nm. Denn 20nm war für GPUs unnutzbar, weil kein Power-Vorteil erreicht wurde - man hätte mit der doppelten Transistoren-Anzahl also auch doppelte Verlustleistung gehabt. Dies trifft auf 10nm ganz entschieden nicht zu!

Finde es schade, das meine diesbezüglich sehr klare Begründungen nicht gelesen werden:
https://www.3dcenter.org/news/was-kann-nvidias-ampere-generation-mit-der-12nm-10nm-oder-7nm-fertigung-von-tsmc-erreichen

Ich lasse mich zudem gern auch (erneut) vom Gegenteil belehren. Aber bitte mit Fakten - und nicht Wertungen. Wertungen kann ich (auf Basis von Fakten) selber vornehmen.

Gelesen hab ich das schon, nur sträube ich mich wie gesagt wegen der Kapazität dies zu glauben. Natürlich gibt es keine belastbaren Zahlen und logisch betrachtet hast du den Nagel auf den Kopf getroffen (mit weniger Power und Fläche mehr erreichen bzw. das Performanceziel einfacher erreichen). Jensen ist immer für ne Überraschung gut - oder hatte hier jemand etwa mit 815 mm² in 12 nm gerechnet?? ;)

Ich denke da vielleicht zu konservativ und würde es freilich vorziehen die kommende Gen in 10 nm zu sehen.

@Bucklew: Damals war alles noch viel einfacher. Und 2018 kam sicher kein GT200b ;)

|MatMan|
2018-03-08, 14:41:47
Ist das wirklich so, das 10nm dann nicht mehr herstellbar ist? Bisher haben die Fabs doch noch sehr lange alte Prozesse laufen lassen und damit sogar große Teile ihres Unsatzes gemacht. Warum sollten sie die Tools für 10nm wegschmeißen, wenn der Nachfolgeprozess kommt? TSMC ist so groß, dass die 10nm mit ziemlicher Sicherheit weiter laufen lassen können, wenn es dafür Bedarf gibt.

Für mich stellt sich eher die Frage ob 10nm wirtschaftlich für nVidia ist. Wenn der Prozess kaum benutzt wird, sinkt der Preis evtl. nicht so stark über die Zeit. Für einen V100 Nachfolger (Ampere?) ist das egal, aber für ein Massenprodukt im Consumer Markt halt nicht.

robbitop
2018-03-08, 14:43:23
Die Frage ist, ob 10 nm als mobile Prozess vergleichbare oder Performance für GPUs bringt (im Vergleich zu 12nm) -> maximaler Takt, guter Betriebspunkt Leistungsaufnahme bei allgemein hohem Takt. Und auch die Serienreife für so große Chips. Bis dato wurden hauptsächlich relativ kleine mobile SoCs damit gebaut.
Wenn das alles passt (was hier wahrscheinlich niemand weiß :)), dann ist es sicherlich sinnvoll.

Ich kenne das bis dato auch nicht, dass Prozess nur "kurz" laufen und dann eingemottet werden. Investitionen müssen abgeschrieben werden. So lange signifikanter Bedarf da ist, wird man sicherlich die bestehenden Investitonen gerne weiter abschreiben und die eingerichteten Fertigungsstraßen weiter nutzen.

Piefkee
2018-03-08, 14:45:53
Welches Problem sollte es darstellen, im H1/18 einen GeForce-Chip aufzulegen, den man im Laufe von 2019 mit einem Shrink beerbt?




Wie ich oben bereits geschrieben habe wird wahrscheinlich die komplette 10nm Produktion durch 7nm ersetzt. Das das im H2 2018 in der Produktionlinie in der aktuell 10nm produziert wird nur noch 7nm Chips vom Band laufen.

IMHO hat NV seine Geforce Chip schon lange "fertig" sie haben noch auf die breite Verfügbarkeit von GDDR 6 gewartet. Warum sollte NV es auch Eilig haben? Ist doch eh keine Konkurrenz da und dazu noch der Mining Boom.

Ich sehe zwar eine Chance für 10nm aber ehrlich gesagt finde ich ist diese nur sehr gering.

Piefkee
2018-03-08, 14:52:52
Ist das wirklich so, das 10nm dann nicht mehr herstellbar ist? Bisher haben die Fabs doch noch sehr lange alte Prozesse laufen lassen und damit sogar große Teile ihres Unsatzes gemacht. Warum sollten sie die Tools für 10nm wegschmeißen, wenn der Nachfolgeprozess kommt? TSMC ist so groß, dass die 10nm mit ziemlicher Sicherheit weiter laufen lassen können, wenn es dafür Bedarf gibt.



Das wollte ich damit nicht sagen. Aber der 10nm ist ein Half-Node, wie damals der 20nm Prozess. Samsung und TMSC bieten ihn an, wegen den Mobile SoC's. Der 10nm Prozess kommt noch mit double Paterning aus, wohin gegen bei 7nm quad paterning ins Spielt kommt. Daher werden die Kapazitäten auf 7nm umgelenkt weil es für 10nm nicht die Anzahl an Kunden gibt. Die Industrie zielt auf 7nm, der auch länger laufen wird. Nur meine Meinung arbeite ja nicht bei TMSC... :wink:

N0Thing
2018-03-08, 15:01:14
Wie ich oben bereits geschrieben habe wird wahrscheinlich die komplette 10nm Produktion durch 7nm ersetzt. Das das im H2 2018 in der Produktionlinie in der aktuell 10nm produziert wird nur noch 7nm Chips vom Band laufen.

Das hast du geschrieben, das findet man in deiner Quelle aber nicht wieder. Da steht nur, dass wie schon zuvor in der gleichen Fabrik 10nm und später 7nm produziert werden sollen. Dass der 10nm Prozess damit eingestellt wird, steht da nicht.

Ravenhearth
2018-03-08, 15:01:43
12nm ist ein extrem ausgereifter und im Vergleich auch Billiger Prozess. Es macht meiner Meinung wesentlich mehr Sinn 2018 alle Geforce GPU mit 12nm zu launchen und erst im nächsten Jahr 2019 direkt auf 7nm zu springen.
Dass man ein Jahr nach Turing diesen dann gleich wieder ersetzt, ist jedoch unwahrscheinlich, insbesondere auch weil der Big Chip wohl erst nach dem Gamer-Chip erscheint. Turing wird bestimmt bis 2020 durchhalten müssen, das ist ganz schön lange für 12nm, insbesondere wenn AMD nächstes Jahr schon Navi in 7nm bringt.

AffenJack
2018-03-08, 15:19:29
Dass man ein Jahr nach Turing diesen dann gleich wieder ersetzt, ist jedoch unwahrscheinlich, insbesondere auch weil der Big Chip wohl erst nach dem Gamer-Chip erscheint. Turing wird bestimmt bis 2020 durchhalten müssen, das ist ganz schön lange für 12nm, insbesondere wenn AMD nächstes Jahr schon Navi in 7nm bringt.

GM200 wurde auch nach einem Jahr ersetzt und wer sagt überhaupt, dass ein großer Chip von Turing später kommen wird? Entweder wird der große Turing sehr zeitnah mit dem kleinen kommen oder es wird gar keinen großen Turing geben.

Hübie
2018-03-08, 16:16:05
Warum gibt man eigentlich keine Roadmaps mehr heraus? Das zieht uns ja auch irgendwie jede Grundlage für Diskussionsstoff unter den Füßen weg. Irgendwie schade. Nach Maxwell hat man damit aufgehört. Die letzte die ich kenne ist die, wo Pascal, statt Volta, plötzlich auftauchte.

N0Thing
2018-03-08, 16:19:14
Vielleicht genau aus diesem Grund: Die letzten Roadmaps waren nicht genau genug umzusetzen.

Hübie
2018-03-08, 16:20:26
Na ja, aber man kann seine Pläne doch so weit offenlegen wie man eben ist. :D

Bucklew
2018-03-08, 20:04:47
Wie ich oben bereits geschrieben habe wird wahrscheinlich die komplette 10nm Produktion durch 7nm ersetzt. Das das im H2 2018 in der Produktionlinie in der aktuell 10nm produziert wird nur noch 7nm Chips vom Band laufen.
Wie schon n0thing schrieb, steht das da nirgends. Wird man auch sicher kaum machen, Apple z.B. verbaut ihre SoCs ja auch noch länger als nur ein Jahr im Spitzengerät.

@Hübie: Das kommt von 2008/2018. Korrigiert :cool:

Leonidas
2018-03-10, 04:53:28
Ich habe deine Begründung gelesen, aber entschuldige da stehen auch keine Fakten sondern Speku.


Tut mir leid, das ist nicht korrekt. Dort ist eine Liste mit technischen Eckdaten zu finden, die auf Basis respektabler Quellen entstand. Diese Daten sagen klar aus, das 10nm von der Technik her ein ganz normaler Vollnode ist, der keinesfalls die "20nm-Charakteristik" trägt.

Man kann von 16nm zu 10nm genau das finden, was man von einem Fullnode erwartet: Nahezu Halbierung der benötigten Chipfläche bei gleichzeitig einem ausreichend geringeren Stromverbrauch, um diese Chipfläche mit der doppelten Transistorenanzahl zur gleichen Verlustleistung zu füllen. Genau das bot 20nm nicht: Doppelte Chipfläche ja - aber zu doppelter Verlustleistung. Große Differenz - welche sich klar aus den technischen Eckdaten ablesen läßt. Die technischen Eckdaten zu 10nm sprechen für regulären Fullnode. Ob jener nur kurz genutzt wird, steht auf einem ganz anderen Blatt, hat aber in jedem Fall nichts mit der Technik zu tun.

Sofern etwas an dieser Tabelle unklar sein sollte, mögen man mir dies sagen, dann erkläre bzw. verbessere ich dies.

robbitop
2018-03-10, 06:32:14
Fullnodes: 130 nm, 90 nm, 65 nm, 45 nm, 32 nm, 22 nm, 14/16 nm, 10 nm, 7 nm
Halfnodes: 150 nm, 110 nm, 80 nm, 55 nm, 40 nm, 28 nm, 20 nm, 12 nm, 8 nm

Es wurden sehr sehr lange alle Full und Halfnodes genutzt. Ab 45 nm fing man an, Nodes zu überspringen. 45 nm, 32 nm und 22 nm wurden für gpus nicht genutzt. Und später auch 20nm. Entweder wurde der Prozess im Zeitkorridor nicht reif oder entsprach nicht den technischen oder betriebswirtschaftlichen Erwartungen.

Mortalvision
2018-03-10, 07:20:19
Was kommt denn nach 7/5 nm?

Bambuslooter
2018-03-10, 14:16:37
Da ich kein Freund von Cloudgaming bin, kann ruhig noch ein 3nm Prozess kommen oder wie die auch immer bezeichnet werden.

Falls das mit den 10nm stimmen sollte, kann man sich echt überlegen mal wieder eine Grafikkarte von Nv zu kaufen.
Pascal war mir schon zu alt, nachdem es 1 Jahr überschritten und AMD liefert nicht wirklich.
Dümpele noch mit einer ausgeliehenen 290 rum.

4pple
2018-03-13, 19:45:37
https://www.digitimes.com/news/a20180313PD204.html
"Since profitability from graphics cards has been weakening, Nvidia and AMD have both been decelerating the developments of their new GPU architectures and prolonging their existing GPU platforms' lifecycle, the sources said, adding Nvidia's next-generation GPU architecture Turing will not enter the mass production until the third quarter."

Troyan
2018-03-13, 19:47:13
Der Satz ist sinnlos. Wenn Gewinne von den alten Produkten nachlässen, werden neue Produkte veröffentlicht.

Hübie
2018-03-13, 20:04:15
Mag sein dass man erst drittes Quartal hoch fährt, aber "Since profitability from graphics cards has been weakening" stelle ich angesichts der Jahreszahlen von NVIDIA doch mal in Frage. Wenn 3. Quartal stimmt schließe ich 7 nm nicht aus... :uponder: AMD will von GF auch Ende des Jahres schon was in 7 nm präsentieren und idR ist TSMC etwas voraus.

maximus_hertus
2018-03-13, 20:09:51
Der Satz ist sinnlos. Wenn Gewinne von den alten Produkten nachlässen, werden neue Produkte veröffentlicht.

Was machst du aber, wenn die Zulieferer nicht liefern können - Stichwort GDDR5(X)/6?

Mit einem zu frühen LAunch macht man die 1000er Karten obsolet und verschäft die Situation statt sie zu "lösen".

Troyan
2018-03-13, 20:13:26
Dort steht aber, dass die neuen Produkte verzögert werden, weil die Gewinne sinken. Das steht im Widerspruch des Produktlebenszyklus.

Schlussendlich muss nVidia rund 4 Monate früher aufhören zu produzieren, um das Inventar nicht anwachsen zulassen.

Dural
2018-03-14, 08:36:04
Der chip ist sicherlich schon fertig, nur macht ihnen die speicher situation eventuell zu schaffen.
Die karten wären so extrem nachgefragt, die würde man über monate nicht im regal finden. Zudem ist der speicher halt sehr teuer, der gewinn so mit kleiner.

Und zu guter letzt, nv ist in der lage den markt für sich einzuteilen da sie keine konkurenz haben und ihr aktuelles produkt schon überlegen ist.

Thunder99
2018-03-14, 08:54:35
Wenn neue Nodes später kommen könnte dann wirklich auch der Produktlebenszyklus länger werden. Mann kann zwar mehrere Produkte/Generationen auf einem Node raus bringen aber eventuell ist einfach die Möglichkeit raus ohne extrem großen Chip zu bauen um das Ziel zu erreichen. Für Consumer werden wir wohl eher nicht einen Chip in Volta Größe sehen um bei 800-1200$ zu positionieren

basix
2018-03-14, 10:33:13
Dort steht aber, dass die neuen Produkte verzögert werden, weil die Gewinne sinken. Das steht im Widerspruch des Produktlebenszyklus.

Da hast du recht. Aber ich glaube die Aussage wird von den meisten falsch verstanden. Wenn man nämlich früher Karten mit geringerer Rentabilität herausbringt, weil die Fertigungskosten höher sind, dann sinkt die Rentabilität. Also lieber die alten Karten mit sehr hoher Marge verkaufen, bevor man neue mit wahrscheinlich geringerer Marge herausbringt (grösseres Die, teurerer RAM, evtl. tiefere Handelspreise als heute).

Anders macht das ganze einfach keinen Sinn.

HOT
2018-03-14, 10:36:49
Geht um Gewinnmaximierung in einem Umfeld von sinkender Nachfrage.

TheAntitheist
2018-03-14, 13:04:02
Geht um Gewinnmaximierung in einem Umfeld von sinkender Nachfrage.
sinkende Nachfrage? Nur weil weniger komplett PCs verkauft werden? ohje :rolleyes:

HOT
2018-03-14, 13:17:52
Mining.

Hübie
2018-03-14, 13:31:32
So langsam wird es auch merkwürdig, denn die Entwicklung einer GPU dauert so ~2 Jahre. Wenn Turing erst im 3. Quartal kommt, hat NV damit erst nach dem Launch von GP104 begonnen, wo Volta auch schon fast fertig war (tapeout war doch August '16, wenn ich mich recht entsinne). Was haben die denn in der Zeit getrieben? Normalerweise überlappen die Entwicklungen ja (concurrent engineering). Volta muss so viel Ressourcen gebunden haben, dass man also erst ziemlich unmittelbar nach dem Launch von V100 im Juni '17 alles in Turing steckte. Tapeout müsste demnach ja dann auch erst vor kurzem erfolgt sein.
Daraus folgere ich, dass die zweigleisige Entwicklung massiv Resourcen bindet und Turing mehr ist als "Pascal evolved". Was aus Ampére geworden ist / wird sollten wir ja demnach bald sehen (vielleicht Ende März?).

Adam D.
2018-03-14, 14:00:07
So langsam wird es auch merkwürdig, denn die Entwicklung einer GPU dauert so ~2 Jahre.
Ich stimm dir ja zu, aber was, wenn der Chip längst fertig ist und andere Gründe für den verspäteten Marktstart verantwortlich sind?

Ich kann mir nicht vorstellen, dass Nvidia die aktuelle Marktsituation vorausahnen konnte. Ich spekuliere, die Entscheidung später zu launchen hat sich erst in den vergangenen Monaten entwickelt.

HOT
2018-03-14, 14:24:11
Wenn man das Produkt ca. ein halbes Jahr (oder mehr) verschiebt aus wirtschaftlichen Gründen ist das keine Entwicklungszeit...

|MatMan|
2018-03-14, 14:36:30
Immerhin hätte in dem Fall das Treiberteam genügend Zeit für den Feinschliff.

Rancor
2018-03-14, 14:46:49
Es wäre nur schön wenn es wenigstens ein paar Infos geben würde. Bisher ist ja nun komplett alles Spekulatius :)

fondness
2018-03-14, 15:12:38
Interessant, was hier für Theorien aufgestellt werden. Wäre nicht das erste mal, dass sich eine GPU aufgrund von technischen Problemen außerplanmäßig verspätet. Gerade wo die Verschiebung selbst den Partner erst vor kurzem mitgeteilt wurde ist das wohl wesentlich naheliegender.

Troyan
2018-03-14, 15:20:24
Du kennst dich ja aus mit Verschiebungen von GPUs. Lmao.

Es kann überhaupt keine Verschiebung geben, da seit Volta überhaupt nichts bekannt ist.

Hübie
2018-03-14, 15:20:46
Was schweben euch für Gründe vor? :| Es gibt zwei Szenarien: Der anvisierte Prozess ist noch nicht ausgereift oder Turing ging später an den Start als geplant. Im dritten Quartal ist Pascal 2¼-2½ Jahre alt. Wann hatten wir das zuletzt? :uponder:

Troyan
2018-03-14, 15:21:27
Kepler zu Maxwell v2 waren 2 1/2 Jahre.

BoMbY
2018-03-14, 15:25:19
Außer das Huang halt genau das gesagt hat vor Weihnachten.

"we expect Pascal to continue to be world’s best gaming platform for foreseeable future."

oder so ähnlich ... und den ganzen Spekulationen nach hat NVidia in der Zwischenzeit schon etwa drei Generationen veröffentlicht.

Rancor
2018-03-14, 15:32:12
Ich ärgere ich immer mehr keine 1080 TI gekauft zu haben. Die 1070 ist in WQHD einfach am Ende und nun noch bis Ende 2018 warten... Könnte ich Strahl kotzen.

Troyan
2018-03-14, 15:36:16
Die einzige offizielle Aussage zu "Nach Volta" stammt aus der Presseveröffentlichung des Pegasus-Moduls von der CES 2018:
Pegasus is built on two Xavier SoCs and two next-generation NVIDIA GPUs. Customers will get the first samples of Pegasus with its 320 trillion operations per second of processing performance in mid-2018.
https://blogs.nvidia.com/blog/2018/01/07/drive-xavier-processor/

AffenJack
2018-03-14, 15:52:08
Jup und hierbei handelt es sich anscheinend um Ampere, also eine nachfolgende Compute GPU.

Aber Ramknappheit oder einfach nur Preis käme für mich durchaus für eine Verschiebung in Frage. Vielleicht will Nv z.B. GT104 auf jeden Fall mit 16GB Ram bringen, aber davon kann Samsung zu wenig liefern oder fordert exorbitante Preise. Daneben kann es aber auch sein, dass der Chip ein weiteres Stepping mehr braucht, das würden wir dann zumindest sehen, da dann wohl erst A2 in den Handel kommen würde. Mit 0 Infos ist es aber einfach schwierig zu spekulieren.

BiZiNiZz
2018-03-14, 16:01:25
Da wir alle über die kommenden Generationen nichts wissen und wild spekulieren, werfe ich jetzt mal folgendes in den Raum:

MCM-GPU: Multi-Chip-Module GPUs for Continued Performance Scalability
http://research.nvidia.com/publication/2017-06_MCM-GPU%3A-Multi-Chip-Module-GPUs

Adam D.
2018-03-14, 16:33:02
Was schweben euch für Gründe vor? :| Es gibt zwei Szenarien: Der anvisierte Prozess ist noch nicht ausgereift oder Turing ging später an den Start als geplant. Im dritten Quartal ist Pascal 2¼-2½ Jahre alt. Wann hatten wir das zuletzt? :uponder:
Meine komplett laienhafte Spekulation: Warum bringt man neue Produkte auf den Markt? Weil ein Konkurrent ein besseres Produkt anbietet oder weil man mit dem neuen Produkt eine höhere Gewinnmarge im Vergleich zum bestehenden Angebot erzielen kann. Nvidia verkauft gerade 314mm2-Dies für absurde Preise. Der Konkurrent stellt keine ernsthafte Bedrohung dar. Warum sollte man da ein neues Produkt launchen?

Blediator16
2018-03-14, 16:37:24
Meine komplett laienhafte Spekulation: Warum bringt man neue Produkte auf den Markt? Weil ein Konkurrent ein besseres Produkt anbietet oder weil man mit dem neuen Produkt eine höhere Gewinnmarge im Vergleich zum bestehenden Angebot erzielen kann. Nvidia verkauft gerade 314mm2-Dies für absurde Preise. Der Konkurrent stellt keine ernsthafte Bedrohung dar. Warum sollte man da ein neues Produkt launchen?

Planung. Man ist typischerweise kein Hellseher. Bedeutet man plant so, wie man denkt die Zukunft aussehen wird. Man hat Verträge zu unterschreiben und einzuhalten. Man hat Lieferverträge einzuhalten. All das braucht Vorlaufzeit. Wenn Leute von "sie warten auf Karte X Y von Hersteller Z, um zu reagieren" dann ist es pure Naivität und Unwissenheit.

Von der Planung, Entwicklung und Verfügbarkeit auf dem Markt vergehen, je nach Produkt bzw. Branche, Jahre.
Man hat sicher ein kleines Zeitfenster, in dem man den Start etwas variieren kann, allerdings sind das sicher nicht gleich 6 Monate o.ä.

BoMbY
2018-03-14, 16:55:01
NVidia kann mit den AiBs machen was sie wollen - NVidia macht keine Verträge welche die zu irgendwas zwingen. Abgesehen davon ist es genauso im Interesse der AiBs den alten Kram weiter zu verkaufen, solange es gut geht und viel Geld abwirft. Da verliert man auch nichts, wenn man die Pläne noch ein paar Monate auf Eis legt.

Man darf halt nur nicht den Moment verpassen, wenn die Konkurrenz mal wieder was raus bringt, und dann muss man dem mindestens ebenbürtig sein.

Adam D.
2018-03-14, 16:56:41
Planung. Man ist typischerweise kein Hellseher. Bedeutet man plant so, wie man denkt die Zukunft aussehen wird. Man hat Verträge zu unterschreiben und einzuhalten. Man hat Lieferverträge einzuhalten. All das braucht Vorlaufzeit. Wenn Leute von "sie warten auf Karte X Y von Hersteller Z, um zu reagieren" dann ist es pure Naivität und Unwissenheit.

Von der Planung, Entwicklung und Verfügbarkeit auf dem Markt vergehen, je nach Produkt bzw. Branche, Jahre.
Man hat sicher ein kleines Zeitfenster, in dem man den Start etwas variieren kann, allerdings sind das sicher nicht gleich 6 Monate o.ä.
Wir hatten doch gar kein angekündigtes Zeitfenster, nur bekannte Zyklen. Wer sagt denn, dass Turing nicht von Anfang an mit 7nm für Sommer/Herbst geplant war?

Blediator16
2018-03-14, 18:01:05
Die Zyklen werden zur Hälfte vom Fertigungsprozess bestimmt. Wenn AMD/NV ihre GPUs fertig haben, aber der 7nm noch nicht reif genug ist, um einen breiten Marktstart zu gewährleisten, dann bringen denen bekannte Zyklen nichts. Die Zyklen der Prozesse haben sich in Vergangenheit nachweislich nach hinten verschoben. Nvidia darf sicher nicht alles machen was sie wollen. Verträge werden geschlossen und sind einzuhalten. Bestellungen für die Fertigung müssen abgenommen werden. Sowohl für mit OEMs/AIBs als auch Fertigern.

Aktuell haben wir einen Sonderfall. AMD bezieht ihre GPUs scheinbar von GF, die direkt zu 7nm gehen. TSMC bieten den "12nm" Prozess an, den Nvidia scheinbar nutzt und schiebt evtl. Karten dazwischen. Es ist ein Durcheinander. Einfache Antworten gibt es nicht. Viele Faktoren spielen eine Rolle. Hier wird es so dargestellt, als ob AMD und NV ständig mir nichts dir nichts aufeinander reagieren. Die so genannten Reaktionen aufeinander sind Zusammenspiele von Prozessreife und Marktreife. AMD wird auf die 12nm Karten von Nvidia nicht reagieren, weil es GF nicht zulässt. Wenn jemand nun sagt AMD kann nicht, weil sie nichts haben, dann haben sie evtl. nichts, weil sie ganz genau wussten, dass GF keinen Zwischenprozess auf Lager hat.

Vom Mining brauchen wir erst nicht anfangen. Das dürfte u.a mit dem knappen Speicher zusätzlich neue , verglichen mit sämtlichen letzten GPU Launches, Faktoren zu Verschiebungen beitragen.

Das sind nur Spekulationen auf den Bericht es könne sich etwas verschieben.

fondness
2018-03-14, 19:07:02
Produktionsstart Q3 bedeutet Launch eher Q4, und da macht alles andere als 7nm eigentlich wenig Sinn.

AffenJack
2018-03-14, 19:22:51
Produktionsstart Q3 bedeutet Launch eher Q4, und da macht alles andere als 7nm eigentlich wenig Sinn.

Stimmt schon, aber Q3 klingt immernoch extrem früh für 7nm Produktion, der Zeitpunkt passt irgendwie so gar nicht. In den letzten Jahren gingen immer die Mobile Chips vor. bei TSMC. Man muss sich langsam fragen ob überhaupt 2018 noch was kommt.
Dann wären aber wirklich alle News über frühere Launches nur schlechte Gerüchte und Nv hätte nie was früheres geplant.

Calypso
2018-03-14, 19:27:56
also rein aus den Aussagen, die bisher überall geäußert wurden, verstehe ich nicht, wieso 7 nm Grafikchips dieses Jahr erwartet werden können. Überall steht geschrieben, dass Mobilchips ca. 1 Jahr vor Grafikchips erscheinen und so wie ich das bisher lese, kommt nur Samsung und Apple mit einem 7 nm Chip dieses Jahr raus.

Info zum Beispiel hier:
https://apfeleimer.de/2017/12/apple-iphone-2018-mit-samsung-einzige-modelle-mit-7-nm-chips

Dementsprechend kann man frühestens Mitte 2019 mit 7 nm Grafikchips rechnen. Irgendwie klingt es bei den meisten hier so, als ob dieses Mal die Welt anders funktioniert?! Aber ist es nicht gerade mit jeder kleineren Fertigung noch schwieriger, so schnell am Start zu sein?

Wie gesagt, ich glaube nicht 7 nm dieses Jahr. Nicht für einen Gamer-Chip.

Cubitus
2018-03-14, 20:01:45
Was schweben euch für Gründe vor? :| Es gibt zwei Szenarien: Der anvisierte Prozess ist noch nicht ausgereift oder Turing ging später an den Start als geplant. Im dritten Quartal ist Pascal 2¼-2½ Jahre alt. Wann hatten wir das zuletzt? :uponder:

So was hatten wir eigl nie ;(

Geächteter
2018-03-14, 20:09:56
Daraus folgere ich, dass die zweigleisige Entwicklung massiv Resourcen bindet und Turing mehr ist als "Pascal evolved".
Wohl eher nicht, aber wenn der 12-nm-Prozess vielleicht im Fenster von 15-25 Prozent Vorteil bei Perf/Watt liefert, muss architekturmäßig noch ein bisschen Feinschliff gemacht werden, damit man vielleicht nochmal dadurch 15-25 Prozent gewinnt. Das würde die Kundschaft als neue Generation akzeptieren und auch hohe Summen über die Theke dafür drücken.


Wie gesagt, ich glaube nicht 7 nm dieses Jahr. Nicht für einen Gamer-Chip.
7-nm auf "TMSC-Qualität", da kann man froh sein, wenn der 2021 für große Chips und Massenproduktion steht. Kann auch sein, dass es schon gar nicht mehr wirtschaftlich darstellbar ist. Von den 3 Riesen sind nur der Blaue und Grüne voll im Geschäft, der Rote muss auf beiden Baustellen noch Rückstand aufholen, und selbst die 2 Vorderen rennen gegen die technologische Wand und schönen die Verzögerungen für die Aktionäre, a la wir könnten ja noch schneller, aber wir müssen ja nicht.

Hübie
2018-03-14, 20:35:43
Kepler zu Maxwell v2 waren 2 1/2 Jahre.

Kepler v1 zu v2 war auch schon einiges an neuer ISA und µArch. Dann kam Anfang 2014 Maxwell v1. Passt argumentativ nicht so richtig. Wir hatten so einen langen Zyklus iirc noch nie.

AffenJack
2018-03-14, 20:43:15
Was soll bitte Kepler V1 zu Kepler V2 sein? Es gab nur eine Kepler Gen. Nur hatte damals Nv noch keine Profi/Consumertrennung und dementsprechend hatte der große chip mehr Features.

Hübie
2018-03-14, 21:33:12
Alles bis GK104<->GK110/210.

pixeljetstream
2018-03-14, 22:21:10
https://docs.google.com/spreadsheets/d/e/2PACX-1vSnE2mTHKyDU7MmSkeuIuudRcUy-I1AR7j5mRNE8G8egWztLkNi-Axv96wi6KN3r61maNtHbvaAwQv3/pubchart?oid=1417877400&format=image

Daten des obigen Diagramms von wikipedia. Hab die shrinks und Zwischenschritte mal weggelassen.

solange der nächste Gaming Chip in diesem Jahr kommt, liegt er in den 1.5 bis 2.5 Jahren die es vorher gab. Pascal war halt sehr flott (wobei wenn man bei Pascal den Abstand zum kleinen Maxwell als Vorgänger nimmt ist man auch wieder eher beim Schnitt von zwei Jahren).

prinz_valium
2018-03-14, 23:52:00
Du siehst, dass Gaming mal vor Compute kam und das jetzt genau umgekehrt ist und auch der abstand deutlich zunimmt?!

JaniC
2018-03-15, 00:01:41
Ich bin zwar Geisteswissenschaftler .. aber Zeit (t) auf der Y-Achse? Das mal was neues.

basix
2018-03-15, 06:58:57
Ich bin zwar Geisteswissenschaftler .. aber Zeit (t) auf der Y-Achse? Das mal was neues.

Meistens umgekehrt, aber so lange die Achsen beschriftet sind ;) Für das Ziel der Grafik (relative zeitliche Abstände zwischen den Generationen herauslesen) ist es nicht mal schlechter, da man mehr geübt ist, Unterschiede in der Y-Skalierung zu differenzieren. Weil y = Messgrösse, x = Referenzgrösse. Da man Architekturen nicht messen kann, ergo eine sinnvolle Darstellung.

Godmode
2018-03-15, 07:55:50
also rein aus den Aussagen, die bisher überall geäußert wurden, verstehe ich nicht, wieso 7 nm Grafikchips dieses Jahr erwartet werden können. Überall steht geschrieben, dass Mobilchips ca. 1 Jahr vor Grafikchips erscheinen und so wie ich das bisher lese, kommt nur Samsung und Apple mit einem 7 nm Chip dieses Jahr raus.

Info zum Beispiel hier:
https://apfeleimer.de/2017/12/apple-iphone-2018-mit-samsung-einzige-modelle-mit-7-nm-chips

Dementsprechend kann man frühestens Mitte 2019 mit 7 nm Grafikchips rechnen. Irgendwie klingt es bei den meisten hier so, als ob dieses Mal die Welt anders funktioniert?! Aber ist es nicht gerade mit jeder kleineren Fertigung noch schwieriger, so schnell am Start zu sein?

Wie gesagt, ich glaube nicht 7 nm dieses Jahr. Nicht für einen Gamer-Chip.

Sehe ich genau so. 12nm passen IMHO am besten, da auch GV100 in diesem Prozess gefertigt wird.

Da wir alle über die kommenden Generationen nichts wissen und wild spekulieren, werfe ich jetzt mal folgendes in den Raum:

MCM-GPU: Multi-Chip-Module GPUs for Continued Performance Scalability
http://research.nvidia.com/publication/2017-06_MCM-GPU%3A-Multi-Chip-Module-GPUs

MCM-GPUs wären hoch interessant, aber der Aufwand wird nicht unerheblich sein. Es wird also abgewägt werden, was teurer ist: größerer Chip oder Kosten für Forschung und Entwicklung für MCM. IMHO wird MCM erst dann kommen, wenn der Prozess so teuer ist, dass sich große Chips einfach nicht mehr rechnen, bzw. der Endkundenpreis so hoch ist, dass sich die Hardware niemand mehr leisten kann.

Generell zu den Aussagen von NV, dass sie mit weniger Nachfrage aus dem Kryptosektor rechnen: :freak::freak:

Ich könnte mir gut vorstellen, dass es genau andersrum passiert: Die Kurse fallen jetzt und NV bestellt dadurch weniger GPUs. Sobald das ganze wieder zum steigen beginnt, gibt es wieder einen Nachfrageschub und dann haben wir den selben Käse wie 2017 bis jetzt. Falls das ganze Kryptozeugs doch eine Blase war, die jetzt abgebaut wird, würde es natürlich ganz anders aussehen, aber das bezweifle ich momentan eher noch.

DinosaurusRex
2018-03-15, 08:17:18
MCMs werden doch mit Sicherheit primär wegen des Dark Silicon Effekts eingesetzt, der bei kleineren Strukturen immer stärker in Erscheinung tritt. Unterm Strich dürften MCMs daher kostengünstiger sein, als traditionelle monolithische Prozessoren.

pixeljetstream
2018-03-15, 08:22:14
Ich bin zwar Geisteswissenschaftler .. aber Zeit (t) auf der Y-Achse? Das mal was neues.

Lag an meiner Unfähigkeit mit Google Docs schnell was anderes zu basteln.

pixeljetstream
2018-03-15, 08:34:43
Du siehst, dass Gaming mal vor Compute kam und das jetzt genau umgekehrt ist und auch der abstand deutlich zunimmt?!

Was compute macht, kann gaming ja egal sein, war es vorher auch schon.

Der Abstand bei Gaming war im Schnitt zwei Jahre, die haben wir noch nicht erreicht. Mit 1.5 und 2.5 haben wir auch ein relative große Varianz so dass man imo nicht sagen kann dass es sonderlich ungewöhnlich wäre, solange es dieses Jahr ist.
Die Hauptänderung ist dass die shrinks aus Fermi und Kepler Tagen wegfallen und dafür halt Volta für compute kam. Nvidia konnte damit seinen technologischen Fortschritt erhöhen (1 - 1.5 Jahre).

Godmode
2018-03-15, 08:37:26
MCMs werden doch mit Sicherheit primär wegen des Dark Silicon Effekts eingesetzt, der bei kleineren Strukturen immer stärker in Erscheinung tritt. Unterm Strich dürften MCMs daher kostengünstiger sein, als traditionelle monolithische Prozessoren.

Das schon, aber das Design für ein MCM wird komplizierter, weil du ja die Daten zwischen den Modulen hin und herschieben musst. Du brauchst dann ein Protokoll dafür, Switches, etc...

Swissr
2018-03-15, 08:46:41
Dennoch unterschlägt die Grafik die 700er Reihe, auch wenn das Kepler war, gab es mit der 780, 780 ti und der Titan neues Futter (mit Mehrwert) für Kaufinteressierte. Das fehlt hier momentan komplett.
Könnte man den Kommentar von Mr. Lederjacke evtl. auch so interpretieren, dass es keine neue Architektur, jedoch einen Pascal v2 geben könnte?

pixeljetstream
2018-03-15, 09:43:54
Die 780 kam ein halbes, die 780 Ti ein Jahr nach der compute (Tesla) Karte mit dem gleichen Chip (GK110), weswegen sie imo technologisch nicht so interessant für die Grafik ist. Maxwell v1 hab ich weggelassen weil er mir zu klein ist, auch wenn er aus technologischer Sicht relevanter wäre.

Du hast Recht dass es öfter Produkte früher gab, imo machen diese Art Chips aber heute weniger Sinn, weil es zu teuer ist den Kram aufzulegen, ohne sinnvolle Erkenntnisse daraus zu ziehen. Ohne zu wissen wie sich die Architektur in der Realität schlägt, kann man nicht ordentlich designen, weswegen es technologisch mehr Sinn macht ala Volta gleich was "richtiges" zu bauen.

Kommt halt auf die betrachtungsweise an, technologisch oder rein aus Konsumentensicht. Der Thread hier vermischt beides.

Was hat Jensen mit der Aussage gemacht, er hat das Produkt was sich im Markt befindet beworben.

Adam D.
2018-03-15, 15:27:39
Auch Golem (https://www.golem.de/news/auftragsfertiger-tsmcs-7-nm-node-soll-schon-40-kunden-haben-1803-133351.html) spekuliert, ob Turing/Ampere möglicherweise schon in 7nm kommen.

robbitop
2018-03-15, 16:01:06
7 nm bei einer GPU als Serienprodukt? Das wäre dann IMO aber eher Ende Q4 2018 bzw Q1 2019.

Linmoum
2018-03-15, 16:06:52
Ich würde da sogar eher noch ein Stück weiter ins Jahr 2019 hineingehen. Kann mir allerdings nicht vorstellen, dass Nvidia keine Gaming-Ableger in 12nm bringt, sondern stattdessen lieber länger auf 7nm wartet.

Triniter
2018-03-15, 16:08:01
Respekt wie gut Nvidia die Gerüchteküche im Griff hat, man weiß wirklich gar nichts... Hoffentlich gibts bald mal wieder ein paar Informationen von Nvidia direkt.

y33H@
2018-03-15, 16:22:30
Auch Golem (https://www.golem.de/news/auftragsfertiger-tsmcs-7-nm-node-soll-schon-40-kunden-haben-1803-133351.html) spekuliert, ob Turing/Ampere möglicherweise schon in 7nm kommen.Ich schreibe "ein" Chip ;) das wird nicht die 800 mm² Bad-Fliese sein, aber vll ein Midrange-Modell.
Hoffentlich gibts bald mal wieder ein paar Informationen von Nvidia direkt.Die kommen, soon(tm).

BoMbY
2018-03-15, 18:50:28
Die kommen, soon(tm).

Ja, wird bestimmt wieder ein total spannendes "AI something, something ..." *tumbleweed* ... auf der der GTC von der Lederjacke.

vinacis_vivids
2018-03-15, 19:09:48
Der Typ sagte doch erst letztens, dass Nvidia an die Grenze gegangen sei mit 815mm² für Volta 12nm und Pascal weiterhin top-top-top-Gaming GPU bleibt.
12nm + GDDR6 sind lediglich ein sanfter refresh. Was viel wichtiger wäre, wäre der Hardware-Umbau für LL-API, aber die "gameworken" wohl lieber hart an der Software rum.

Emil_i_Lönneberga
2018-03-15, 19:48:46
Poor Vega bietet auch keinen Anlass für mehr als einen sanften Refresh. Nachvollziehbar, dass Jensen seine Lederjacke nun länger im Schrank hängen lässt.

Blediator16
2018-03-15, 19:53:12
Poor Vega bietet auch keinen Anlass für mehr als einen sanften Refresh. Nachvollziehbar, das Jensen seine Lederjacke nun länger im Schrank hängen lässt.

Ich glaube du solltest noch mal lesen was ich weiter hinten geschrieben habe. Niemand wird lauter neu entwickelte GPUs im Lager liegen lassen für den Fall der Fälle. Was da ist wird auch zeitnah auf den Markt geschmissen.

Dural
2018-03-15, 20:51:29
Nö macht man nicht, siehe intel oder nv mit dem g90 der sogar nie auf den markt kam, oder aktuell amd mit dem v11.

Wenn die in 12nm kommen sind die sicherlich fertig, alles andere würde auch gar keinen sinn machen, da nächstes jahr ziemlich sicher die ersten gpu in 7nm kommen werden.

Für mich sieht das aktuell eher mehr danach aus als nv gleich eine komplette serie gestrichen hat, schade.

Blediator16
2018-03-15, 21:25:48
Nö macht man nicht, siehe intel oder nv mit dem g90 der sogar nie auf den markt kam, oder aktuell amd mit dem v11.

Wenn die in 12nm kommen sind die sicherlich fertig, alles andere würde auch gar keinen sinn machen, da nächstes jahr ziemlich sicher die ersten gpu in 7nm kommen werden.

Für mich sieht das aktuell eher mehr danach aus als nv gleich eine komplette serie gestrichen hat, schade.

Dann sollte man sich halt entscheiden was man predigt. Ruht sich Nvidia auf ihrer Arbeit nun aus oder haben sie aus purem Mitleid mit AMD eine ganze Serie gestrichen, die AMD dann endgültig 12 Generationen zurückliegen lässt.
Selbstverständlich werden nicht alle Designs auf den Markt gebracht.

Gebracht wird das, was Zeitnah und Prozess technisch Sinn macht.
Nur weil Vega, im Gaming, keine Granate ist, so heisst das nicht, dass Nvidia deswegen eine ganze Serie gestrichen hat und darum gehts hier gerade.

TheGood
2018-03-16, 08:07:08
Vielleicht haben Sie einfach nur ein Problem mit derm Produktion und mussten deshalb alles verschieben. Vielleicht war das teil in 12mm geplant, aber es kam nicht raus was sie wollten und es wurde wieder verworfen und er kommt jetzt eben in 10mm. ES gibt hunderte Gründe für, warum etwas nicht so kommt wie es ggf. mal geplant war. Vielleicht hat _Nvidia nach dem VEGA Flop ach bewusst Mitarbeiter abgezogen, weil sie wussten aktuell brauchen wir hier nicht mehr das riesen Tempo vorlegen...
Andererseits glaube ich auch nicht, dass AMD für dieses JAhr gar nichts im köcher hat. Da kommt für Gamer definitiv noch etwas.

HOT
2018-03-16, 08:35:56
Es gibt ein Verschieben -> andere Prozess. Es gibt nur geplant in 12, 10 oder 7nm vor 3+ Jahren. Die Verschiebung ist eigentlich nur aus wirtschaftlicher Sicht zu rechtfertigen, also bleibt es bei 12 so einfach ist das.

dargo
2018-03-16, 08:40:25
Nö macht man nicht, siehe intel oder nv mit dem g90 der sogar nie auf den markt kam, oder aktuell amd mit dem v11.

:confused:

https://www.amd.com/de/products/apu/amd-ryzen-5-2400g

Stimmt schon, aber Q3 klingt immernoch extrem früh für 7nm Produktion, der Zeitpunkt passt irgendwie so gar nicht. In den letzten Jahren gingen immer die Mobile Chips vor. bei TSMC. Man muss sich langsam fragen ob überhaupt 2018 noch was kommt.
Dann wären aber wirklich alle News über frühere Launches nur schlechte Gerüchte und Nv hätte nie was früheres geplant.
Hieße es nicht vor kurzen die Produktion von GP102 wäre EOL? Da passt doch was nicht zusammen. Das Jahr 2018 ist noch recht lang.

Dural
2018-03-16, 10:00:05
natürlich meine ich die desktop version vom v11.

dargo
2018-03-16, 10:03:51
Es war nie die Rede von einer Desktop dGPU @V11. Das waren alles falsche Gerüchte. Bekannt war nur, dass zwei Vegas kommen. Daraus schnürte man dann falsche Spekulationen.

Edit:
Und selbst die Gerüchteküche @zwei Vegas (V11 und V10) stellte sich als falsch heraus. Es gibt noch eine dritte Vega.
https://www.heise.de/newsticker/meldung/Intel-Core-i-8000G-Kombiprozessoren-mit-leistungsfaehiger-Vega-Grafik-fuer-Notebooks-3934804.html

AffenJack
2018-03-16, 11:01:05
Es gibt ein Verschieben -> andere Prozess. Es gibt nur geplant in 12, 10 oder 7nm vor 3+ Jahren. Die Verschiebung ist eigentlich nur aus wirtschaftlicher Sicht zu rechtfertigen, also bleibt es bei 12 so einfach ist das.

Wenn es eine Verschiebung gibt, was man eben nicht weiß. Kann genauso ne andere Planung sein. Bei Produktionsstart in Q3 wie Digitimes behauptet, somit Launch eher Q4 , macht eine Verschiebung keinen Sinn mehr. Mehr als 1 Quartal verschiebt man kaum. Auch wirtschaftliche Sicht macht bei Verschiebungen keinen Sinn, außer du kannst nicht genug liefern, weil zb GDDR6 noch zu rar ist. Aber das schiebt sowas eben vielleicht 1 Q nach hinten, aber nicht 1 halbes Jahr. Ende Q3-Q4 Launch kann ich mir 12nm nicht mehr vorstellen. Das macht keinen Sinn. Vielleicht hat Leo am Ende doch recht mit 10nm. Da macht ne Verschiebung schon eher Sinn, wenn TSMC die Yields oder Kapazitäten in 10nm nicht so schnell geliefert bekommt. 7nm würde man dann überspringen mit den Gaming GPUs und 2020 auf 7nm EUV gehen.

:confused:
Hieße es nicht vor kurzen die Produktion von GP102 wäre EOL? Da passt doch was nicht zusammen. Das Jahr 2018 ist noch recht lang.

Nichts als Gerüchte. Wer weiß schon was da wirklich abläuft. Wir wissen immernoch gar nix. Vielleicht gibts auf der GTC ja wenigstens nen groben Fahrplan, auch wenn ich dran zweifle.

fondness
2018-03-16, 12:40:56
Naja, wenn es ein Redesign inkl. neuem Tapeout braucht, ist man schnell mal bei einem halben Jahr Verschiebung. Ich bin auf den Fertigungsprozess gespannt, kommt das Ding wirklich in Q4 in 12nm, dann scheint da irgendwas nicht optimal gelaufen zu sein.

TheGood
2018-03-16, 13:32:28
Vermutlich hat Ihnen Volta auf 12mm gezeigt, dass das nichts werden kann und daraufhin wurde alles umgeplant.

Rancor
2018-03-16, 13:36:09
Mittlerweile gehe ich auch davon aus, das das irgendwas schief gelaufen sein muss.
Gut, natürlich zwingt VEGA Nvidia zu nichts. Mit Pascal steht man immer noch gut da, aber ich glaube nicht, das das der Grund für die Verzögerungen ist.

Thunder99
2018-03-16, 14:13:32
Die Gründe werden wir wohl nie erfahren

AffenJack
2018-03-16, 14:21:28
Naja, wenn es ein Redesign inkl. neuem Tapeout braucht, ist man schnell mal bei einem halben Jahr Verschiebung. Ich bin auf den Fertigungsprozess gespannt, kommt das Ding wirklich in Q4 in 12nm, dann scheint da irgendwas nicht optimal gelaufen zu sein.

Sicher, man baut pünktlich nen 800mm² Chip in 12nm zusammen, aber kriegt es bei nem kleineren Chip im gleichen Prozess überhaupt nicht hin. Lol, nee. Bei nem neuen Prozess könnte das vielleicht mal passieren, aber selbst da ist sowas seit Ewigkeiten niemanden mehr passiert. Dass man nen neues Stepping braucht ist möglich und somit 3 Monate verschieben muss, das wars aber auch.

Hübie
2018-03-16, 16:18:09
Hieße es nicht vor kurzen die Produktion von GP102 wäre EOL? Da passt doch was nicht zusammen. Das Jahr 2018 ist noch recht lang.

Herrje. Ich hatte damals erfahren, dass der große Pascal EOL ist und habe natürlich nicht an GP100 gedacht, sondern GP102. Leo hat es in einer News erwähnt und alle Welt abgeschrieben. Mea culpa. GP102 dürfte jetzt bald EOL gehen.
Es wird demnächst auch was kommen (Marc erwähnte zumindest kommende Infos beiläufig), was sich mit dem deckt, was schon aus dem Hintergrund rumorte. Es wird sich hierbei jedoch wohl nicht um die erhoffte Pascal-Ablösung handeln, sondern irgendwas anderes.
Also wäre ich nicht mal sicher ob überhaupt irgendwas verschoben wurde. Es kann auch direkt so geplant sein, denn wo Wachstum herrscht muss bedient werden. Das ist zufälligerweise nicht Gaming. :D

Troyan
2018-03-16, 17:01:37
Und so es beginnt: https://twitter.com/VideoCardz/status/974669151246716928

gravitationsfeld
2018-03-16, 17:26:13
:popcorn: :whisper:

Es wird spannend.

Digidi
2018-03-16, 17:27:33
Ihr könnt das Popkorn wieder einpacken :D
https://www.reddit.com/r/nvidia/comments/84wc7q/videocardz_whats_nvidia_rtx_mining/dvswc9v/

iuno
2018-03-16, 18:33:08
Wieso einpacken? Real-time ray-tracing ist doch interessant, egal wann die neuen Karten kommen. Angeblich sind MS mit DX und EA, Remedy, und 4A Games dabei, GW Effekte sollen schon dabei sein.
Und uebrigens: Volta :P
Bin gespannt, ob/was am Montag kommt, und vor allem auch, was optisch dabei rauskommt...

scully1234
2018-03-16, 19:10:11
Wieso einpacken? Real-time ray-tracing ist doch interessant, .

Hoffentlich mit einer noch unbekannten performanten Karte für diesen Einsatzzweck...

Troyan
2018-03-16, 20:19:20
Liest man den letzten Satz, könnte man denken, dass Microsoft eine standardisierte Raytracing API veröffentlicht wird.

Macht viel mehr Sinn als die Zeit in irgendwelche Low-Level APIs zu versenken, die null Fortschritt bringen.

AffenJack
2018-03-16, 20:30:00
Die DirectX Raytracing API ist das aller interessanteste an der Meldung. Ne standardisierte API dafür klingt auf jeden Fall gut. Generell bin ich bei Raytracing ansonsten immernoch skeptisch. Das ist ja schon seit 10 Jahren immer das next big thing.

dargo
2018-03-16, 20:30:45
Macht viel mehr Sinn als die Zeit in irgendwelche Low-Level APIs zu versenken, die null Fortschritt bringen.
Du bist einfach nur noch peinlich, selbst wenn man den Quatsch den du da selbst glaubst ausschließlich auf NV-GPUs beschränken würde.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11158521&postcount=3973

scully1234
2018-03-16, 20:43:21
Die DirectX Raytracing API ist das aller interessanteste an der Meldung. Ne standardisierte API dafür klingt auf jeden Fall gut. Generell bin ich bei Raytracing ansonsten immernoch skeptisch. Das ist ja schon seit 10 Jahren immer das next big thing.

zurecht

Denn die Performance für eine durchweg auf Raytracing aufbauende API müsste doch nach derzeitigen Kenntnisstand noch recht fordernd sein

Oder gibt es irgendwo Anzeichen dafür das man Rechenlast einspart beim Bouncing eventuell?

dildo4u
2018-03-16, 21:16:17
Es scheint heute flott genug für Echtzeit zu sein Power VR hatte ne UE 4.0 Demo auf einem Mobile Chip gezeigt.
Auf Turing läuft das vermutlich mit hohen fps oder halt in 4k.

Xcf35d3z890

Börk
2018-03-16, 21:18:35
zurecht

Denn die Performance für eine durchweg auf Raytracing aufbauende API müsste doch nach derzeitigen Kenntnisstand noch recht fordernd sein

Oder gibt es irgendwo Anzeichen dafür das man Rechenlast einspart beim Bouncing eventuell?

Path tracing ist mittelfristig(3-5 jahre) durcaus echtzeitfähig, solange man nen ordentlichen denoiser hat. Und so einen hat NVidia gerade herausgebracht (Optix AI-Denoiser).

Der Denoising Algorithmus braucht zwar derzeit noch eine eigene Titan V Grafikkarte für 30fps, aber das könnte man auch in Hardware gießen.

Für den Übergang wird aber vermutlich erstmal eine klassischer Rasterizierer der Standard sein, der einzelne Effekte Path/Ray traced (ist für Unreal/Unity schon angekündigt).

scully1234
2018-03-16, 21:21:39
Danke Börk:up:

Troyan
2018-03-16, 21:35:27
Im Beyond3d.com gibt es die Twitter-Posting von einem nVidia-Mitarbeiter, der an der Sache forscht: https://forum.beyond3d.com/posts/2019768/

scully1234
2018-03-16, 21:46:13
Der Denoising Algorithmus braucht zwar derzeit noch eine eigene Titan V Grafikkarte für 30fps, aber das könnte man auch in Hardware gießen.


Ist es möglich das der durch Training noch effizienter zu Werke geht, oder ist der Optimierungsgrad bereits ausgeschöpft für die Volta GPU?

Nur falls du da noch tiefere Einblicke hast=)

Im Beyond3d.com gibt es die Twitter-Posting von einem nVidia-Mitarbeiter, der an der Sache forscht: https://forum.beyond3d.com/posts/2019768/

Bin gespannt was die da am Montag zu den neuronalen Netzen preis geben

Digidi
2018-03-16, 23:29:39
Die leute im beyond3d sind immerhin sachlich und halten die ganzen nummern für total übertrieben.

Rampage 2
2018-03-17, 23:44:44
[...]Mag sein dass man erst drittes Quartal hoch fährt[...]

Warum glauben das jetzt alle? Am Anfang war von Q3 für den Verkaufsstart die Rede, nicht Produktionsstart - Fool's Edition im Juni oder Juli, Customs dann 1-2 Monate später.

Es ergibt keinen Sinn, eine 12 oder 10nm-Karte zu verschieben, wenn sie schon fertig ist. 7nm soll ja für Q3 noch etwas zu früh sein...

R2

Hübie
2018-03-18, 00:10:01
Wer denn alles? Ich z. B. ziehe es in Betracht, da die Informationslage sehr dünn ist, aber fest dran glauben tue ich nun nicht. :D Also irgendwo musst du da mal Abstufungen in der Wortwahl vornehmen.
AMD soll angeblich noch dieses Jahr was in 7 nm bringen (Navi in Q4). Allerdings nicht für Gamer...

Digidi
2018-03-18, 00:12:24
Wer denn alles? Ich z. B. ziehe es in Betracht, da die Informationslage sehr dünn ist, aber fest dran glauben tue ich nun nicht. :D Also irgendwo musst du da mal Abstufungen in der Wortwahl vornehmen.
AMD soll angeblich noch dieses Jahr was in 7 nm bringen (Navi in Q4). Allerdings nicht für Gamer...

Amd produziert aber auch bei Global Foundrys und da hat man den 12nm/10nm schritt ausgelassen und ging gleich auf 7nm.

Locuza
2018-03-18, 00:24:42
Wer denn alles? Ich z. B. ziehe es in Betracht, da die Informationslage sehr dünn ist, aber fest dran glauben tue ich nun nicht. :D Also irgendwo musst du da mal Abstufungen in der Wortwahl vornehmen.
AMD soll angeblich noch dieses Jahr was in 7 nm bringen (Navi in Q4). Allerdings nicht für Gamer...
AMD möchte Vega @7nm 2018 nur sampeln, fertige 7nm Produkte sind bei AMD sehr wahrscheinlich erst 2019 eine Realität.
https://videocardz.com/74690/amd-updates-gpu-roadmap-with-7nm-vega

Und bezüglich der GPUs ist es offen, welche AMD genau bei TSMC und/oder GloFo herstellen wird.
AMD hat jedenfalls schon bestätigt, sowohl bei GloFo, als auch bei TSMC herstellen zu lassen.

Hübie
2018-03-18, 00:49:52
Irgendwo las ich halt, dass man seitens AMD an ausgewählte Kunden verschicken wird. GloFo hat doch Samsung Tech lizensiert oder? TSMC hat schon Mitte letzten Jahres angefangen von ASML die neuen Belichtungsanlagen aufzubauen. Ich wäre da jetzt realistisch gesehen auch nicht allzu optimistisch, dass wir 2018 eine 7nm GPU in den Händen halten können, aber ganz ausschließen mag ich es auch nicht (was an meiner laienhaften Ahnung zur Materie liegen mag ;)).

reaperrr
2018-03-18, 01:26:58
GloFo hat doch Samsung Tech lizensiert oder?
Nur 14LPP. 7nm ist wieder Eigenentwicklung, die man dank des IBM-Know-Hows diesmal auch stemmen konnte.

Locuza
2018-03-18, 01:45:11
Irgendwo las ich halt, dass man seitens AMD an ausgewählte Kunden verschicken wird. GloFo hat doch Samsung Tech lizensiert oder? TSMC hat schon Mitte letzten Jahres angefangen von ASML die neuen Belichtungsanlagen aufzubauen. Ich wäre da jetzt realistisch gesehen auch nicht allzu optimistisch, dass wir 2018 eine 7nm GPU in den Händen halten können, aber ganz ausschließen mag ich es auch nicht (was an meiner laienhaften Ahnung zur Materie liegen mag ;)).
Die Meldung ist offiziell von AMD, also das man 2018 noch Vega@7nm sampeln möchte, aber Marktrealität wird entsprechend erst 2019 herrschen.
In Bezug auf 7nm besteht keine Fertigungskompatibilität mehr zwischen Samsung und GloFo, denn GloFo entwickelt bei 7nm wieder selbstständig.

GloFo's 14nm Fertigungskapazität ist laut einem Interview bei Anandtech zu 100% ausgelastet, bei 7nm muss AMD dann entsprechend schauen, mit was sie die verfügbare Kapazität buchen.
Die CPUs bleiben vermutlich bei GloFo und bei Vega@7nm oder vielleicht einem Navi-Chip könnte es TSMC mit 7nm heißen.
Jedenfalls ist TSMC bei 7nm schon ab Q2 2018 am Start und es erscheint nicht unwahrscheinlich, dass wegen dem zeitlichen Vorsprungs und AMDs Sample-Angabe bei Vega20 TSMC zum Zuge kommt, dass macht auch eine Angabe von TSMCs Chairman wahrscheinlich:
According to TSMC's Chairman Morris Chang, the company will see its revenues grow 10-15% on year in 2018, mainly driven by the three major sectors of HPC (high performance computing), automotive electronics and IoT (Internet of Things) applications, and it has also secured a 100% market share in terms of 7nm process fabrication orders in the year.
http://www.patentlyapple.com/patently-apple/2018/01/tsmc-announces-7nm-processors-will-be-the-story-of-the-year-with-production-kicking-off-in-q2.html


Bezüglich Nvidia zucke ich einfach nur die Schultern.
Auf der einen Seite sollte Geforce Next schon seit längerem fertig sein und 7nm für größere Chips in Q3/Q4 wären sehr sportlich, auf der anderen Seite hat Nvidia aber auch ein sehr große Entwicklungsressourcen und gute Finanzen, um sich Kapazität zu sichern.

reaperrr
2018-03-18, 03:34:43
Bezüglich Nvidia zucke ich einfach nur die Schultern.
Auf der einen Seite sollte Geforce Next schon seit längerem fertig sein und 7nm für größere Chips in Q3/Q4 wären sehr sportlich, auf der anderen Seite hat Nvidia aber auch ein sehr große Entwicklungsressourcen und gute Finanzen, um sich Kapazität zu sichern.
Die Frage ist halt, wie groß die Chips dann tatsächlich sind.

In 7nm wäre z.B. ein Chip mit 256bit GDDR6 SI und 32 SM (4096 SP, 256 TMU) wohl nicht größer, eher noch kleiner als GP104, aber durch die Mischung aus ähnlicher Bandbreite gepaart mit etwas mehr Einheiten, höherem Takt + Architekturverbesserungen könnte man damit trotzdem schon die 1080Ti/TXP ablösen.

Und GP100 mit seinen 600mm² kam ja auch nicht so viel später als andere 16FF+ Chips, solange die Yields akzeptabel sind bzw. die Nachfrage hoch genug ist, dass die Kunden Mondpreise zu zahlen bereit sind, sollte das nicht das Hindernis sein.

BoMbY
2018-03-18, 07:16:30
Schon wieder Gerüchte gegen GloFo? Das WSA jedenfalls sichert AMD feste Kapazitäten mit steigenden Werten zwischen 2016 und 2020 zu, inkl. Preisgarantie. Aber ja, es könnte sein, dass TSMC Vega20 machen wird, sofern die garantieren Wafer 100% für CPUs benötigt werden.

BoMbY
2018-03-18, 07:25:53
Im Beyond3d.com gibt es die Twitter-Posting von einem nVidia-Mitarbeiter, der an der Sache forscht: https://forum.beyond3d.com/posts/2019768/

Musste man unbedingt etwas gegen Open Source finden?

https://github.com/GPUOpen-LibrariesAndSDKs/RadeonRays_SDK
https://github.com/GPUOpen-LibrariesAndSDKs/RadeonProRender-Baikal

Locuza
2018-03-18, 08:22:47
Schon wieder dein Herstellerbias on Tour?

Der Standpunkt bezüglich 7nm Produkte und Wahrscheinlichkeiten war sachlich und gegen kein Unternehmen tendenziös gerichtet.

Und die offene Bibliothek von AMD trägt wenig zum Kontext bei, da man wenigstens einen groben Vergleich zwischen den Lösungen stellen sollte.
Oder soll einfach jeder mal ein Stück offene Software in die Runde werfen und Vergleiche bezüglich Qualität, Umsetzung und Möglichkeiten ignorieren und sich fragen wieso es proprietäres Zeug auf den Markt gibt?

Digidi
2018-03-18, 11:29:14
Und die offene Bibliothek von AMD trägt wenig zum Kontext bei, da man wenigstens einen groben Vergleich zwischen den Lösungen stellen sollte.
Oder soll einfach jeder mal ein Stück offene Software in die Runde werfen und Vergleiche bezüglich Qualität, Umsetzung und Möglichkeiten ignorieren und sich fragen wieso es proprietäres Zeug auf den Markt gibt?

Du hast doch genau so einen Herstellerbias. Proberitäre Technik war noch nie gut für den Konsumenten. Eigentlich sollte alles offen sein, nur bei einer Sachen wäre ich dagegen, nämlich Militärtechnik und vielleicht noch Medizin.

Mal ehrlich wann haben uns denn proberitäre Techniken denn irgend etwas gebracht? Meist wurden sie gegen Kundenintressen genutzt.

Und jetzt komm nicht mit Schutz vom geistlichen Eigentum. Das kann man auch per Patente schützen und wäre alles Open Source würde man sogar sehr einfach einen Verstoß dagegen finden.

Troyan
2018-03-18, 11:36:55
Lmao - Patente sind okay, aber "propritäre Techniken" nicht.

Achja, Tessellation ist "frei". Und ratet mal, wer gegen Tessellation ist, weil sein Lieblingshersteller immer noch nicht eine Lösung für seine veralterte Hardware gefunden hat? Richtig, der digidi.

Höre dich auf hier irgendwas von "offen" zu fasseln. AMD sind die ersten, die gegen "offen" hetzen und Fake-News verbreiten, wenn sie benachteiligt sind. Eine Scheindebatte geführt von Leuten, die keine Ahnung haben.

Mancko
2018-03-18, 11:43:48
Du hast doch genau so einen Herstellerbias. Proberitäre Technik war noch nie gut für den Konsumenten. Eigentlich sollte alles offen sein, nur bei einer Sachen wäre ich dagegen, nämlich Militärtechnik und vielleicht noch Medizin.

Mal ehrlich wann haben uns denn proberitäre Techniken denn irgend etwas gebracht? Meist wurden sie gegen Kundenintressen genutzt.

Und jetzt komm nicht mit Schutz vom geistlichen Eigentum. Das kann man auch per Patente schützen und wäre alles Open Source würde man sogar sehr einfach einen Verstoß dagegen finden.

Wie wärs mit x86 und x86-64 als Open Source bzw. frei verfügbar und durch jeden Billighersteller beliebig anwendbar. Das wäre doch mal ein echter Fortschritt. Dagegen sind doch die kleinen Themen über die Du hier sprichst Peanuts. Achso ja ich vergaß. Das Thema lieber nicht, weil dann der Lieblingshersteller plötzlich kein Geschäftsmodell mehr hat.