Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Troyan
2018-03-29, 12:15:33
Der Takt zwischen GP100 und GV100 ist fast identisch. Die Effizienz kommt einzig von der Architektur.

Ravenhearth
2018-03-29, 12:45:59
Deswegen sage ich 40% :biggrin:. An groß mehr glaube ich aber auch nicht. Titan V zeigt schon gut wo es hingeht. Bei PCGH (4k) 25% schneller als ne 1080TI. 5% mehr noch durch mehr Takt als die TV, 5% durch schnelleren Speicher, da TV ja beschnitten ist und 5% durch optimierte Treiber. Sindwa bei 40%. 2tes Verkaufsargument wird dann die Raytracingleistung. Während die 1080Ti dies nicht zuschalten kann oder dabei sehr langsam ist, werden die Tensor Cores dies in deutlich besserer Geschwindigkeit ermöglichen.

So sehe ich das auch. Und die 1180/2080/whatever wird dann ebenfalls um 40% zulegen und die GTX 1080 Ti leicht überholen, während die xx70 schneller als die GTX 1080 wird. Alles bei einem gleichbleibenden Stromverbrauch, aber größerer Chipfläche (~600mm² für den großen und ~400mm² für den 104er).

Lustige Leute sind hier mance.. 7nm.. im Ernst??!!?
7nm werden wir frühestens 2020 sehen... das ist ein riesiger Unterschied zu den jetzigen 16nm. So schnell kommt das nicht, außerdem würde das Leute vom Kauf von 10-12nm abhalten.
Turing wird in 12nm kommen, da bin ich mir sehhhr sicher. Mit winziger Wahrscheinlichkeit sind es 10nm.

Wenn Turing dieses Jahr in 12nm kommt, dann sehen wir eine 7nm-Geforce tatsächlich erst 2020. Aber 2019 soll es schon Ampere für den Profimarkt in 7nm geben. Zudem will AMD Ende diesen Jahres erste Samples von Vega20 in 7nm ausliefern, und Navi soll 2019 auch in 7nm launchen, dann auch für Spieler.

Triniter
2018-03-29, 12:57:15
Wenn Nvidia erst Ende Q3/H2 was bringt, und danach sieht es aktuell aus, muss die Leistungssteigerung zu Pascal einfach ordentlich sein. GP104 geht jetzt ins dritte Jahr und wird somit fast drei Jahre bestand haben. Keine Ahnung wann es das zuletzt so gab. Wenn dann eine Leistungssteigerung von weniger 50% bei raus kommt ist es wirklich als ein kleiner Fehlschlag zu sehen.

Korvaun
2018-03-29, 13:01:19
AMD GPU-Planungen... lol ;)

Wenn die neue nV-Generation wirklich erst Ende Q3 vorgestellt wird (in 12nm) sind das sozusagen Karten fürs Weihnachtsgeschäft, wenn nV ausreichend liefern kann und der Kram nicht komplett von asiatischen Mining-Farmen aufgekauft wird...

Für 2019 seh ich dann auch keine neue nV-Generation (für Gamer), wohl eher dann CES 2020 in 7nm :(

Da von AMD nix kommt dieses Jahr und der Markt wirklich langsam extrem ausgehungert ist würden auch 25% mehr Leistung reichen + nen paar Tensor-Cores für erste Rayracing-Spielereien. Die Karten gingen weg wie geschnitten Brot... den Namen könnten sie dann ändern in RayForce 1 ;)

AffenJack
2018-03-29, 13:15:50
Für 2019 seh ich dann auch keine neue nV-Generation (für Gamer), wohl eher dann CES 2020 in 7nm :(


Kommt drauf an, ob du die kleineren GPUs als Gaminggpus siehst :-)

Ich denke an GT102/GT104/(GT106?) in 12nm in Q3,Q4
Dann Mitte des Jahres 2019 GT107/GT108 in 7nm von Samsung. Rest 2020.

Nvidia hatte mit GP107/GP108 keine schlechten Erfahrungen mit Samsung und Samsung sucht händeringend nach Kunden für ihren 7nm Prozess. Da Apple bei TSMC bleibt und Qualcomm, wohl nach längerer TSMC Abstinenz, auch wieder teilweise zurückkehrt. GT106 hab ich als Fragezeichen, da in 7nm GP107 vielleicht schnell genug sein könnte, dass sich GT106 in 12nm nicht mehr lohnt.

robbitop
2018-03-29, 13:37:24
Der Takt zwischen GP100 und GV100 ist fast identisch. Die Effizienz kommt einzig von der Architektur.
Dass der Takt identisch ist, liegt an der TDP und des großen Chips. Ein GP102 in 12 nm würde wahrscheinlich etwas höher takten können IMO.
Die höhere Effizienz pro Ausführungseinheit und Takt kommt in der Tat aus der mArch und sicherlich ein kleines bisschen aus dem etwas besseren 12 nm Prozess.

--------------------

NVs größter Konkurrent ist im Moment IMO sie selbst. AMD ist überholt - aber man will sicherlich wieder Kaufanreize schaffen für Pascal und Maxwellkunden.

N0rG
2018-03-29, 17:24:35
Hieß es nicht mal, dass der 12nm Prozess 25% sparsamer bei gleichem Takt bzw. 10% schneller bei gleichem Verbrauch sei? Volta (PCIe) taktet laut Heise mit 1370MHz die 1080ti mit 1480MHz, also 8% höher bei jeweils 250W. Falls das so stimmt kann ich mir schon vorstellen, dass die Energieeffizienz von Volta fast ausschließlich aus dem Fertigungsprozess stammt.

fondness
2018-03-29, 18:14:28
Der Takt zwischen GP100 und GV100 ist fast identisch. Die Effizienz kommt einzig von der Architektur.

Der Vergleich hinkt IMO, weil GP100 ziemlich ineffizient ist ggü. GP102. Relativ niedriger Takt bei 300W TDP nur wegen der DP-Einheiten erscheint mir etwas unverhältnismäßig. GV100 erreicht eine etwas bessere Perf/Watt als GP102 u.a. dank 12nm, HBM-Speicher und deutlich mehr Fläche/niedrigerer Takt. Klar, den Overhead wie DP-Units und Tensor-Cores kann man abziehen, aber wenn die gut Power-Gated sind, sind das keine Welten. Aber wir werden sehen, was kommt. :) Ich tippe mittlerweile auf 7nm, dann macht auch eine neue Generation Sinn.

=Floi=
2018-03-29, 22:21:02
Bei der lebensdauer der chips und ohne refresh macht 7nm auch für den kunden sinn. Da kann ich gerne noch 6 monate länger warten, wenn das produkt dann dadurch besser wird. Die karten werden uns dann wieder mind. 2 jahre begleiten.


Ich bin schon auf das fertige produkt gespannt, weil so ganz leutet mir die trennung zwischen ampere und turing nicht mehr ein, wenn trotzdem tensor cores vorhanden sein werden.
was könnte man sonst großartig weglassen/einsparen?!

Rampage 2
2018-03-29, 22:43:14
Ich verstehe echt nicht, aus welchem Grund NV die nächste GPU-Generation (Turing/Ampere/Volta/whatever) so lange hinauszögern will/muss:|

Ich meine... 12nm ist doch schon seit letztem Jahr spruchreif und wenn Turing/Ampere wirklich in 12nm gefertigt wird, müsste es schon spätestens Ende Q1 2018 fertig sein - also Ende März/Anfang April, also jetzt. Launch dann Mitte/Ende April und kaufbare Karten im Mai oder Juni oder spätestens Juli.

Der einzige plausible Grund für eine so große Verschiebung wäre, dass NV doch noch auf 10nm umgeschwenkt hat und daher die Chips neu evaluiert werden müssen.

Anfang oder Mitte Q3 für erste *kaufbare* Karten klingen noch vernünftig, aber Ende Q3 für kaufbare Karten oder gar für den reinen Launch (Veröffentlichung) glaube ich sicher nicht - egal, was die Gerüchte sagen:P

Just my 2 cents...

R2

horn 12
2018-03-29, 23:13:23
Weil AMD´s Navi besser wird als vorab angenommen :-)

dildo4u
2018-03-29, 23:46:46
Warum sollte man Volta für Sub 1000€ verkaufen wenn sie Titan V kaum im Lager halten können?Das ist der aktuelle Stand im Prinzip kann NV bis 2019 warten bis sie Konkurrenz bekommen.

https://browser.geekbench.com/opencl-benchmarks

Intel hat auch über Jahre 1000€ für 8 Core genommen ohne Konkurrenz macht es kein Sinn die Preise zu senken.

Linmoum
2018-03-29, 23:55:14
Weil AMD´s Navi besser wird als vorab angenommen :-)
Ergibt keinen Sinn, sein Produkt dann noch später zu launchen.

Nvidia hat Turing scheinbar um ein viertel Jahr verschoben und irgendeinen Grund wird's dafür geben. Das macht man nicht mal eben so aus Spaß an der Freude.

horn 12
2018-03-30, 00:03:40
Weil der Speicher unzureichend ist, Ähnlich HBM ² bei der Konkurrenz
Dies ist nun aber ausgemärzt bei AMD,- und nun trifft es halt mal Nv

Rampage 2
2018-03-30, 00:38:40
Nvidia hat Turing scheinbar um ein viertel Jahr verschoben und irgendeinen Grund wird's dafür geben. Das macht man nicht mal eben so aus Spaß an der Freude.

Mein letztes Posting scheint durch h12's "Antwort" überschattet worden zu sein - daher bitte ich nochmal um Kommentare mit Verweis auf mein letztes Posting.

Und nein, nach aktueller Gerüchtelage sprechen wir von einem satten halben Jahr Verschiebung - und das kann einfach nicht wahr sein, und wenn doch, dann muss es dafür einen plausiblen Grund geben und den sehe ich überhaupt nicht...

R2

maximus_hertus
2018-03-30, 01:38:52
Mein letztes Posting scheint durch h12's "Antwort" überschattet worden zu sein - daher bitte ich nochmal um Kommentare mit Verweis auf mein letztes Posting.

Und nein, nach aktueller Gerüchtelage sprechen wir von einem satten halben Jahr Verschiebung - und das kann einfach nicht wahr sein, und wenn doch, dann muss es dafür einen plausiblen Grund geben und den sehe ich überhaupt nicht...

R2

Gibt es eine Roadmap die eine GeForce Next Gen für Q1 2018 drin hatte? Nope, ergo auch keine Verschiebung um 6 Monate.

Linmoum
2018-03-30, 01:41:39
Wieso ein halbes Jahr? Anfang 2018 war nichts weiter als ein Gerücht und mMn auch eher Wunschdenken von vielen. Igor sprach zuletzt von einer Verschiebung um drei Monate und da wir dahingehend auch keine anderen Informationen haben, halte ich das für die glaubwürdigste Variante.

Und natürlich kann es immer mal wieder vorkommen, dass man einen ursprünglich für Zeitpunkt X geplanten Launch aus irgendwelchen Gründen nach hinten verschiebt/verschieben muss. Das ist nun wahrlich nichts, was ungewöhnlich ist.

BoMbY
2018-03-30, 02:36:59
Nvidia Geforce 2018: Erstes Turing-Tape-Out soll fertig sein (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/2018-Turing-Tape-Out-7-nm-1253421/)

Wir sehen uns dann nächstes Jahr für weitere Spekulationen ...

Hübie
2018-03-30, 03:52:13
Interessant ist was C.C. Wei (TSMC Co-CEO) schon im Januar beim earnings call sagte:

During first quarter 2018, we expect to tape
out another 10 products. In total, we expect to have taped out more than 50 customer products in 7-nanometer by the end of 2018. Major applications
covered by these tape-outs are in mobile, gaming, CPU, FPGA, networking and AI.

Mobile=Apple, Gaming=????, CPU=Vielleicht die im SoC von Apple oder dieses China-Teil???, FPGA=Xilinx&Co (https://www.xilinx.com/news/press/2017/xilinx-arm-cadence-and-tsmc-announce-world-s-first-ccix-silicon-demonstration-vehicle-in-7nm-process-technology.html), networking/AI=unwichtig für uns hier.
GPU in 7 nm könnte AMDs Navi sein (und Ampére als Volta-Erbe?) sind aber nicht dedicated to gaming. :uponder: Gaming ist ja kein (ASIC-)Produkt so wie eine GPU, darüber sind wir uns einig.

Zwei Absätze später:

It is the fourth year today that our N16, N12 enter into high volume production. And we still expect to see very strong
demand for this node, which is supported by current plan of 120 tape-outs this year, covering a variety of mainstream smartphones, cryptocurrency,
AI, GPU, and RF products.

Das CC-ASICs und AI-ASICs in 12-nm kommen ist ja bekannt. RF sind eben hochfrequente Funkmodule, interessiert uns hier auch nicht sonderlich.
Irgendwie sträuben sich meine Nackenhaare wenn ich annehmen soll, dass von >10 tapeouts in 7 nm schon so ein fetter Gaming-ASIC dabei ist. Jensen sagte auf der GTC noch so beiläufig dass 12 FFC ein "netter Prozess" ist, was wir mal als Wink verstehen dürfen. Also was denkt ihr? Die Verwirrung ist perfekt. :freak:

dargo
2018-03-30, 08:23:24
Nvidia Geforce 2018: Erstes Turing-Tape-Out soll fertig sein (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/2018-Turing-Tape-Out-7-nm-1253421/)

Wir sehen uns dann nächstes Jahr für weitere Spekulationen ...
Lol. :tongue:

Wie lange dauert es vom Tape-Out bis zum Release? Mindestens 6 Monate? Also mit etwas Glück GT104 doch Ende 2018, GT106 Anfang 2019.

Skysnake
2018-03-30, 09:08:36
Aber definitiv mindestens. Ein lauf durch die Fab liegt heute wohl so bei 6 Wochen+.

Für Test Chips wo man schön extra Geld drauflegen kann vielleicht 4. Aber weniger wirds nicht sein. Dann noch die Validierung und dann Massenproduktion.

Bei 6Monaten darf da eigentlich kein respin nötig sein sonst kannste das gleich knicken.

Edgecrusher86
2018-03-30, 10:35:39
Könnte die Verschiebung nicht auch damit zusammen hängen, dass man zumindest für die 2018er Karten einen Deal mit SKHynix eingegangen ist? Nicht ohne Grund sind diese auch auf der GTC wieder vertreten. Bekanntlich startet die Massenproduktion ja erst in Q3, anders als bei der Konkurrenz. 2017 ging man ja noch von H1 2018 aus.
NV wird entsprechend pünktlich informiert worden sein, dass es sich weiter verzögert.

GT104 könnte also wie Drive PX2 entsprechenden GDDR6 verbaut haben. Wenn das der Fall ist, hat man die Produktionskapazitäten für 12FF vll. erstmal voll auf V100 konzentriert und sich etwas mehr Zeit für die Fertigstellung vom kommenden Performance-Chip gelassen.

In Bedrängnis, so schnell wie möglich den Desktop-Sektor beliefern zu müssen, ist NV ja eigentlich auch nicht wirklich dank Pascal. Zumindest der "102" und "104" Chip dürften in 12FF gefertigt werden, vielleicht auch noch "106". Die kleineren Chips, die sowieso erst im Laufe 2019 erscheinen, kann man dann als 7nm Testchips bringen.

Bei GM200 zum Beispiel hatte man für die GTX X und 980 Ti Ref auch entsprechend 7 Gbps G5 von SKH verbaut, während etwa die GTX 980 auf Samsung setzte.

HOT
2018-03-30, 10:53:39
Wenn das Teil jetzt erst Tapeout hatte gibts meiner Ansicht nach da eigentlich nur eine Erklärung: Volta_Gaming ist einfach 100% gecancelt worden und das wars. Denn wer jetzt noch ein Tapeout macht in so einem Bereich, der nutzt mit tödlicher Sicherheit 7nm dafür.
Und Es wird auch nicht so schnell gehen, wie das bei 28nm der Fall war, ne 7nm-Maske erfordert bestimmt doppelt oder 3x soviele Mannstunden als noch bei Maxwell. Vom Tapeout zur Fertigstellung kann man sicherlich mindestens 1 1/4 Jahr rechnen, wenn man es forciert. Jetzt kann sich jeder ausrechnen, wann Turing auf den Markt kommt (dafür taugt er dann was in 7nm).

AMDs 7 DUV Tapeouts waren alle schon letztes Jahr, NV ist hier 1/4 bis 1/2 Jahr im Verzug.

Die 1100-Serie könnte einfach ein Pascal-Refresh sein, um das Jahr noch rumzukriegen.

AffenJack
2018-03-30, 11:03:38
Lol. :tongue:

Wie lange dauert es vom Tape-Out bis zum Release? Mindestens 6 Monate? Also mit etwas Glück GT104 doch Ende 2018, GT106 Anfang 2019.

Jo, bei nem bekannten Prozess sind 6 Monate so der Zeitplan. Bei GM204 wars genauso. Erste Chips bekam Nv im April, Release September. Hier eben genauso, oder Anfang Oktober. Was für GPUs weiß niemand. Kann genauso auch mehrere Chips in Q4 sein. Aber meine Spekulation bleibt, dass es nur GT104 und GT102 gibt und nix drunter bis 7nm.

robbitop
2018-03-30, 11:25:11
Bei Vega war es (wenn Rajas Twitterpost den Tapeout meinte) deutlich länger als 6M.

Cubitus
2018-03-30, 11:27:53
Interessant ist was C.C. Wei (TSMC Co-CEO) schon im Januar beim earnings call sagte:

Mobile=Apple, Gaming=????,



Also Apple kann es eher nicht sein, da der aktuelle A11 Bionic von Apple mitsamt der GPU eine Eigenproduktion ist.
Dieser SOC wird bereits in 10nm hergestellt.

Aber vielleicht lässt Nvidia Tegra wieder aufleben :freak:

robbitop
2018-03-30, 11:36:14
A12 ist ja sicherlich schon in der Mache.

AffenJack
2018-03-30, 11:48:38
Bei Vega war es (wenn Rajas Twitterpost den Tapeout meinte) deutlich länger als 6M.

Vega hatte auch andere Probleme. Ich zweifle, dass es da am Chip lag. Eher HBM Verfügbarkeit oder sonstiges, die Mengen waren am Anfang ja auch nicht gerade groß. Der Post war im August, 12 Monate später im Handel, Frontier Edition nur 10 Monate. In den 2 Monaten gabs kein neues Stepping oder so, prinzipiell hätte man die Chipproduktion also hochfahren können. Außerdem ist Vega dank Interposer, HBM eh komplizierter als die Standard GDDR Gpus.
Wenn Nv Anfang April Silizium kriegt, dann war der Tapeout im Januar. Launch Oktober nach 9 Monaten klingt da durchaus akzeptabel.

dargo
2018-03-30, 11:51:21
Vega hatte auch andere Probleme. Ich zweifle, dass es da am Chip lag. Eher HBM Verfügbarkeit oder sonstiges, die Mengen waren am Anfang ja auch nicht gerade groß.
Die gleiche Frage kann man sich auch bei Turing stellen, ab wann ist GDDR6 massentauglich?

AffenJack
2018-03-30, 11:55:36
Die gleiche Frage kann man sich auch bei Turing stellen, ab wann ist GDDR6 massentauglich?

Durchaus und es würde mich nicht wundern, wenn der Grund für das später Erscheinen von Turing Zweifel von Nv an der schnellen Verfügbarkeit von GDDR6 waren. Allerdings wird GDDR6 von allen 3 Anbietern angeboten und ist nun nicht so kompliziert, wie HBM. Daher sollte es da weniger Probleme geben.

HOT
2018-03-30, 14:04:18
Jo, bei nem bekannten Prozess sind 6 Monate so der Zeitplan. Bei GM204 wars genauso. Erste Chips bekam Nv im April, Release September. Hier eben genauso, oder Anfang Oktober. Was für GPUs weiß niemand. Kann genauso auch mehrere Chips in Q4 sein. Aber meine Spekulation bleibt, dass es nur GT104 und GT102 gibt und nix drunter bis 7nm.

6 Monate war nur unter ganz besonderen Umständen möglich. Auch AMD hat für Fiji nur sehr kurze Zeit gebracht. Das gesamte Projekt (also nicht nur das Tapeout) dauerte AFAIK nur 18 Monate, was ne verdammt kurze Entwicklungszeit ist.
a.) Maxwell existierte schon in 2013
b.) 28nm war absolut 100% im Griff
c.) man hatte schon sehr viel Erfahrung mit dem Prozess

Keiner dieser Punkte trifft für 7nm zu. Pascal hat etwas mehr als ein Jahr gebraucht vom ersten Tapeout bis zum Release. Dann kann man bei 12nm ca. von 3/4 Jahr ausgehen. Aber wie gesagt, das wär sicherlich schön dämlich, jetzt noch 12nm zu machen, wenn AMD schon V20 und N10 in 7nm vorhält, damit war ja auch früh zu rechnen, dass AMD so handelt. Ich erwarte für N10 nicht weniger als 128CUs mit der neuen Effizienzerwartung für die Navi-CUs und 7nm.

Ich denke nach wie vor, dass die bisherige Informationslage alles irgendwo Marketing BS war. Gen 4 ist Turing (also Maxwell, Pascal, Volta_Gaming, Turing) und man hat Volta_Gaming einfach komplett gecancelt und verlängert Pascal halt noch ein Jahr. Warum auch immer das so gelaufen ist, wir werden das wohl nie erfahren. Volta als Generation würde auch exakt da hineinpassen. Maxwell Ende 2014, Pascal Mitte 2016, Volta_Gaming Ende 2017, Turing Mitte 2019.

Hübie
2018-03-30, 14:14:49
Also Apple kann es eher nicht sein, da der aktuelle A11 Bionic von Apple mitsamt der GPU eine Eigenproduktion ist.
Dieser SOC wird bereits in 10nm hergestellt.

Aber vielleicht lässt Nvidia Tegra wieder aufleben :freak:

Ähm. Dennoch brauchen sie doch tapeout etc... :confused:

A12 ist ja sicherlich schon in der Mache.

Definitiv.

6 Monate war nur unter ganz besonderen Umständen möglich. Auch AMD hat für Fiji nur sehr kurze Zeit gebracht. Das gesamte Projekt (also nicht nur das Tapeout) dauerte AFAIK nur 18 Monate, was ne verdammt kurze Entwicklungszeit ist.
a.) Maxwell existierte schon in 2013
b.) 28nm war absolut 100% im Griff
c.) man hatte schon sehr viel Erfahrung mit dem Prozess

Keiner dieser Punkte trifft für 7nm zu. Pascal hat etwas mehr als ein Jahr gebraucht vom ersten Tapeout bis zum Release. Dann kann man bei 12nm ca. von 3/4 Jahr ausgehen. Aber wie gesagt, das wär sicherlich schön dämlich, jetzt noch 12nm zu machen, wenn AMD schon V20 und N10 in 7nm vorhält, damit war ja auch früh zu rechnen, dass AMD so handelt.
Ich denke nach wie vor, dass das alles Marketing BS war. Gen 4 ist Turing (also Maxwell, Pascal, Volta_Gaming, Turing) und man hat Volta_Gaming einfach komplett gecancelt und verlängert Pascal halt noch ein Jahr. Warum auch immer das so gelaufen ist, wir werden das wohl nie erfahren. Volta als Generation würde auch exakt da hineinpassen. Maxwell Ende 2014, Pascal Mitte 2016, Volta_Gaming Ende 2017, Turing Mitte 2019.

NV bringt genau wie AMD eine 7nm GPU. Wir können spekulieren ob Gaming oder HPC (letzteres ist weniger Volumen aber deutlich höhere Marge...). Beim Gaming hat man ein komplettes lineup from top to bottom. Was ergibt also mehr Sinn? :cool:

@dargo: GDDR6 ist nicht viel komplexer als GDDR5(X) im Vergleich zu HBM, da hier nicht so viele Schritte für ein funktionierendes Produkt nötig sind. Daher gehe ich davon aus, dass GDDR6 sehr schnell geramped wird und 60-70% Kapazität schnell erreicht werden, was dann die MP ist.

Cubitus
2018-03-30, 14:54:46
Ähm. Dennoch brauchen sie doch tapeout etc... :confused:


Ich glaub wir reden einander vorbei.
Apple hat es nicht nötig mit Nvidia Geschäfte zu machen, die entwickeln ihr eigens Ding. Apples Philosophie ist eigen Produktion. Man will z.b auch weg von Samsung und Sharp und entwickelt im Geheimen jetzt angeblich an Micro LED Displays.

Die GPU im A11 ist eigen entwickelt und das wird beim A12 nicht anders laufen.

Bzgl Tapeout
Bei Apple weiß man eh so gut wie nix,
sogar der Ehepartner darf wegen deren komplett krassen Verschwiegenheitsklauseln nichts gesagt bekommen :freak:

Die Frage bleibt halt was macht Nvidia? Eigener Soc oder Zulieferer, nur für wen?
Eventuell Samsung im neuen Exynos vom Galaxy X..^^


Ich denke es wird ein neuer Tegra oder eine Neuentwcklung für Nintendo vielleicht, wer weiß ^^

AffenJack
2018-03-30, 15:07:29
6 Monate war nur unter ganz besonderen Umständen möglich. Auch AMD hat für Fiji nur sehr kurze Zeit gebracht. Das gesamte Projekt (also nicht nur das Tapeout) dauerte AFAIK nur 18 Monate, was ne verdammt kurze Entwicklungszeit ist.
a.) Maxwell existierte schon in 2013
b.) 28nm war absolut 100% im Griff
c.) man hatte schon sehr viel Erfahrung mit dem Prozess

Keiner dieser Punkte trifft für 7nm zu. Pascal hat etwas mehr als ein Jahr gebraucht vom ersten Tapeout bis zum Release. Dann kann man bei 12nm ca. von 3/4 Jahr ausgehen. Aber wie gesagt, das wär sicherlich schön dämlich, jetzt noch 12nm zu machen, wenn AMD schon V20 und N10 in 7nm vorhält, damit war ja auch früh zu rechnen, dass AMD so handelt. Ich erwarte für N10 nicht weniger als 128CUs mit der neuen Effizienzerwartung für die Navi-CUs und 7nm.

Ich denke nach wie vor, dass die bisherige Informationslage alles irgendwo Marketing BS war. Gen 4 ist Turing (also Maxwell, Pascal, Volta_Gaming, Turing) und man hat Volta_Gaming einfach komplett gecancelt und verlängert Pascal halt noch ein Jahr. Warum auch immer das so gelaufen ist, wir werden das wohl nie erfahren. Volta als Generation würde auch exakt da hineinpassen. Maxwell Ende 2014, Pascal Mitte 2016, Volta_Gaming Ende 2017, Turing Mitte 2019.

Schlag dir 7nm aus dem Kopf. Turing wird höchstwahrscheinlich 12nm und auch AMD wird in 7nm so schnell nix bringen. V20 in Q1 und Navi wirst du vor H2 nicht sehen. Da kann AMD durchaus 1 Quartal Vorsprung bei 7nm haben, aber so groß wird der Unterschied nicht werden.

dargo
2018-03-30, 15:09:54
Aber wie gesagt, das wär sicherlich schön dämlich, jetzt noch 12nm zu machen, wenn AMD schon V20 und N10 in 7nm vorhält, damit war ja auch früh zu rechnen, dass AMD so handelt. Ich erwarte für N10 nicht weniger als 128CUs mit der neuen Effizienzerwartung für die Navi-CUs und 7nm.

V20 ist in der Konstellation völlig uninteressant da nicht fürs Gaming vorgesehen. Vega in 7nm ist mehr oder weniger auch ein Testballon welchen man sich im entsprechenden Segment leisten kann. Bei den Margen im Gamingsektor eben nicht.

BoMbY
2018-03-30, 16:10:30
Wenn das Teil jetzt erst Tapeout hatte gibts meiner Ansicht nach da eigentlich nur eine Erklärung: Volta_Gaming ist einfach 100% gecancelt worden und das wars.

Ja, so sieht es aus. Die Frage ist nur warum? War das "Poor Volta" damals vielleicht gar nicht so abwegig (abgesehen davon, dass Vega auch nicht so gut war wie erhofft, und auch wohl Vega11 in die Tonne getreten wurde)? Oder war es nur eine reine Kosten/Nutzen-Frage, und man hat gespart was man kann, weil Pascal immer noch sehr gut geht, und keine Notwendigkeit besteht?

Hübie
2018-03-30, 16:40:43
Ich glaub wir reden einander vorbei.
Apple hat es nicht nötig mit Nvidia Geschäfte zu machen, die entwickeln ihr eigens Ding. Apples Philosophie ist eigen Produktion. Man will z.b auch weg von Samsung und Sharp und entwickelt im Geheimen jetzt angeblich an Micro LED Displays.

Die GPU im A11 ist eigen entwickelt und das wird beim A12 nicht anders laufen.

Bzgl Tapeout
Bei Apple weiß man eh so gut wie nix,
sogar der Ehepartner darf wegen deren komplett krassen Verschwiegenheitsklauseln nichts gesagt bekommen :freak:

Die Frage bleibt halt was macht Nvidia? Eigener Soc oder Zulieferer, nur für wen?
Eventuell Samsung im neuen Exynos vom Galaxy X..^^


Ich denke es wird ein neuer Tegra oder eine Neuentwcklung für Nintendo vielleicht, wer weiß ^^

Wie kommst du denn darauf? Hab ja auch nicht gesagt, dass Apple NVIDIA verwendet. Das hast du falsch aufgefasst. :freak: Apple wird fleißig Patente verletzt haben und weiß, dass sich IMG Tech oder sonst wer nicht überall wird durchsetzen können. Dennoch ist einer der genannten 7 nm mobile Chip tapeouts 100%ig von Apple, da die bisher immer Pionier waren und die Perf/W brauchen.

@BoMbY: Ja, wenn du das sagst, muss es ja so gewesen sein. NICHT! AMD wusste einen feuchten Furz über Volta, wetten wir?!

BoMbY
2018-03-30, 17:13:45
@BoMbY: Ja, wenn du das sagst, muss es ja so gewesen sein. NICHT! AMD wusste einen feuchten Furz über Volta, wetten wir?!

Wer lesen kann ich klar im Vorteil ... Ich sage nichts, ich frage etwas ...

N0Thing
2018-03-30, 19:25:38
War das "Poor Volta" damals vielleicht gar nicht so abwegig

Das war einfach ein Scherz vom Marketing. Keine Prophezeiung, keine Ankündigung.
Hätte man das ernst gemeint, hätte man das deutlicher ausgesprochen und nicht nur kurz für ein paar Sekunden in einem Video versteckt.

pixeljetstream
2018-03-30, 20:11:17
@BoMbY HOT's Schlussfolgerungen beruhen ja auf Gerüchten. Das wir hier schon im dritten Thread zum Gaming Nachfolger für Pascal sind sollte eigentlich die Unsicherheit zu dem Thema unterstreichen und nicht die vergangenen Annahmen zum Fakt machen. Noch ist Pascal keine zwei Jahre alt, Volta ist auch noch kein Jahr alt, ich verstehe nicht warum manche glauben es müsse Chaos in der Planung herrschen, wenn viel naheliegender ist dass die Gerüchte nix wert waren.

Wenn es etwas zu kaufen gibt, gibt's die Ankündigung und gut. Ist doch egal wie das Ding heißt, erst dann weiß man was es kann. All die Roadmaps mit Ziel Flops usw. waren doch Marketing um zu zeigen wie man in die Zukunft investiert, das zielte imo immer auf die non-Gamer. Aber nachdem man die jetzt nicht mehr vom GPU computing überzeugen muss, kann man sich das auch sparen und mehr auf die Produkte konzentrieren. Gaming war schon immer sehr heterogen so dass die Kennzahlen hier nicht viel bedeuteten.
Es ist natürlich etwas doof keinen Namen zu haben, aber einfach nur *-Next tut's ja auch.

Hübie
2018-03-30, 21:19:02
Ja das stimmt. Ich denke auch nicht, dass es eine Verschiebung gab, sondern eher eine Umbenennung zur klaren Differenzierung.
Dennoch wäre es schön, als Konsument auch planen zu können. Ich bange jeden Tag dass meine Karte jetzt abraucht und ich Pascal kaufen muss um dann drei Monate später festzustellen, dass bereits nach zwei Monaten was neues gekommen wäre. :rolleyes: Wir Gamer finanzierten "deine" Arbeit schon seit Jahren. Das änderte sich ja vor einiger Zeit, aber Querfinanzierung gibt es immer noch. Also warum dürfen wir dann nicht auch mal einen Blick in die Zukunft bekommen? Spricht doch nix dagegen...

pixeljetstream
2018-03-30, 21:31:54
Unter Zwang dann kaufen zu müssen ist immer Scheiße, aber im Moment wegen grundsätzlicher Preislage gleich doppelt ;) hab meine eigenen neuen PC auch verschoben.

Wurden früher wirklich die Releasedaten so viel eher offiziell angekündigt? Meist gab es ein Jahr und den Namen der Architektur.

Aber Du hast Recht ich brauch mich nicht über das Gerüchtechaos beschweren, wenn es logische Konsequenz ist. Allerdings ist die Qualität der Spekulation mancher ja durchaus fundiert, einfach historisch realitisch betrachten was drin ist, bei anderen dann halt leider nicht so.

Bei Pascal waren wenn ich mich erinnere die Gerüchte dass er später kommt, diesmal ist die Erwartungshaltung halt anders.

Was Deine Finanzierungsaussage angeht, so klingt das für mich komisch. Es sei denn die Leute hätten auch Aktien. Aber als Gamer kauf ich ja das Produkt was es mir zu meinem Zweck wert ist, nicht aus Gefälligkeit für die Leute dort oder für das was die in andere Sparten machen. Ich bin selbst Gamer und kaufe auch zum Vollpreis die Hardware und ich gucke mir auch die Reviews an und entscheide danach welches Modell ich nehme (wohlwissend das N Monate später was besseres kommt aber ist halt so).

Jupiter
2018-03-30, 21:33:02
eines steht für mich fest. Solange wie es dauert bis die Karten lohnt es sich kaum zu warten. Einfach sofort kaufen wenn sie herauskommen. Kann es aber sein das eine GTX 2080 in 12nm und eine GTX 2080Ti in 7nm käme? Das wäre dann natürlich auch etwas blöd. ^^

pixeljetstream
2018-03-30, 22:03:38
Ne so ne Art Prozesswechsel für die großen Chips ist unrealistisch, die Architektur wird primär für einen Prozess ausgelegt, bei nem derartigen Sprung wäre also die nächste Architektur angebracht.
Das ganze ist ja von Design eine Einheit, Prozess, verfügbare Speichertechnik, Schnittstellen und zu erfüllende Standards etc. mehrere so äußere Parameter beeinflussen die Entwicklung.

scully1234
2018-03-30, 22:41:55
Wenn es etwas zu kaufen gibt, gibt's die Ankündigung und gut.


Eine Eigenart die fast schon Nvidia Standard ist.

Wenn man vergleicht wie lange sich manch andere Firmen über ungelegte Eier den Mund fusselig reden, und was dann letztendlich beim wahren Produkt hängen bleibt.

Hübie
2018-03-30, 23:31:21
Was Deine Finanzierungsaussage angeht, so klingt das für mich komisch. Es sei denn die Leute hätten auch Aktien. Aber als Gamer kauf ich ja das Produkt was es mir zu meinem Zweck wert ist, nicht aus Gefälligkeit für die Leute dort oder für das was die in andere Sparten machen. Ich bin selbst Gamer und kaufe auch zum Vollpreis die Hardware und ich gucke mir auch die Reviews an und entscheide danach welches Modell ich nehme (wohlwissend das N Monate später was besseres kommt aber ist halt so).

"N" hat eine kritische Größe die eben von akzeptabel bis inakzeptabel rangiert. Es sollte auch eher ein Wink sein, dass man uns Gamer als Käuferschaft genau so ernst nehmen sollte wie die Pros, da wir genug Kohle lassen. Man wird durch gut getimte Ankündigungen ja nicht auf dem aktuellen Portfolio sitzen bleiben, oder? ;)
Ich kaufe dir übrigens nicht ab, dass du für deine Karten den Straßenpreis bezahlst und AMD in Betracht ziehst. :biggrin:

pixeljetstream
2018-03-31, 10:30:48
"N" hat eine kritische Größe die eben von akzeptabel bis inakzeptabel rangiert. Es sollte auch eher ein Wink sein, dass man uns Gamer als Käuferschaft genau so ernst nehmen sollte wie die Pros, da wir genug Kohle lassen. Man wird durch gut getimte Ankündigungen ja nicht auf dem aktuellen Portfolio sitzen bleiben, oder? ;)
Ich kaufe dir übrigens nicht ab, dass du für deine Karten den Straßenpreis bezahlst und AMD in Betracht ziehst. :biggrin:

Über Respekt (ernst nehmen) sprechen und das gegenüber der Lüge zu bezichtigen ist schon sportlich :) Und nein ich betrachte AMD nicht mehr zum privaten Kauf, aber das war schon vor meinem Job so, aber es gibt ja zig GeForce Varianten (Lüfter, OC etc.) und mich interessiert wie sie sich schlagen...

Die Einstellung zu frühen Ankündigungen, denke ich ist sehr subjektiv, allein dass scully meint ihm ist es so lieber, zeigt ja dass Dein Gebrauch von "uns" relativ ist. Wir sind ja beide keine gewählten Mehrheitsvertreter ;) Mir jedenfalls ist ein Produkt was ich kaufen kann lieber, als eine Ankündigung darüber in welchem Jahr es was gibt...

Imo bedeutet der Mangel an frühen Ankündingungen nicht, dass man die Gamer nicht ernst nimmt. Der Entwickler eines Spiels was ich selbst viel spiele hat relativ früh offen angekündigt an welchen DLCs sie arbeiten, teaser gezeigt usw. Das Problem war, der Content kam zum Teil nicht oder erst Jahre später. Das hat zu großen Verstimmungen geführt und die Spieler fühlten sich verarscht (obwohl sie die Sachen ja hätten zusätzlich kaufen müssen). Früher hab ich selbst an einer großen Q3 mod jahrelang gearbeitet. Das Spiel war umsonst, alle Entwickler unbezahlt und auch hier rächte es sich leider meist offen zu sein, oder zu verfrühte Ankündigungen zum Releaseplan zu machen, weil viele Spieler leider Informationen die man unter Vorbehalt rausgab, als Versprechen ansahen und dann eine stark aufgeheizte Stimmung entstand, die für alle Beteiligten nicht optimal war. Unter Partnern die via NDA ungefähre Informationen vorab bekommen klappt das wegen ihrer eigenen Erfahrung sowas Einschätzen zu können etwas besser, und auch hier unterscheidet sich wer was wie wann gesagt bekommt, aber es ist einfach "emotionslos" nur business. Dass die Produkte in dem Markt erfolgreich sind, zeigt denke ich schon dass die Firma Dinge getan hat, die Gamern wichtig sind.

Jupiter
2018-03-31, 14:29:16
Ne so ne Art Prozesswechsel für die großen Chips ist unrealistisch, die Architektur wird primär für einen Prozess ausgelegt, bei nem derartigen Sprung wäre also die nächste Architektur angebracht.
Das ganze ist ja von Design eine Einheit, Prozess, verfügbare Speichertechnik, Schnittstellen und zu erfüllende Standards etc. mehrere so äußere Parameter beeinflussen die Entwicklung.

Danke und dann kann ich beruhigt eine Karte kaufen. Hoffentlich gibt es dann auch wieder so gut gekühlte wie die Gainward Phoenix.

=Floi=
2018-03-31, 15:07:21
Die Einstellung zu frühen Ankündigungen, denke ich ist sehr subjektiv, allein dass scully meint ihm ist es so lieber, zeigt ja dass Dein Gebrauch von "uns" relativ ist. Wir sind ja beide keine gewählten Mehrheitsvertreter ;) Mir jedenfalls ist ein Produkt was ich kaufen kann lieber, als eine Ankündigung darüber in welchem Jahr es was gibt...


am produkt führt eh kein weg dran vorbei. Man könnte auch mal die hosen runterlassen was man nun ende 2018 verkaufen will.
Auch ist das produkt an sich kein großes geheimnis, weil keine neuentwicklung kommen wird.
Man muss sich eher fragen was der geiz soll. Pascal ist EOL und AMD flankiert man auch nicht sonderlich stark, weil die von sich aus die weiße flagge gehisst haben.

Hübie
2018-03-31, 15:33:18
Pascal ist noch nicht EOL. Einzig GP100.

scully1234
2018-03-31, 23:02:54
Pascal ist noch nicht EOL. Einzig GP100.

da gab es auch schon mal anders lautende Infos:upara:

Swissr
2018-03-31, 23:09:32
da gab es auch schon mal anders lautende Infos:upara:

Ja. Ebenfalls von Hübie. Aber er hatte es ja richtig gestellt.


Ontopic: Ich warte ebenfalls ungeduldig auf News. Habe meine Aorus 1080 TI bei 700 Euro gekauft und nun mit 840 Euro verkauft. Hoffe auf die neue Generation in den nächsten 3 Monaten, ein Ausblick von Nvidia wäre einfach nett...

TGKlaus
2018-04-01, 01:28:17
da gab es auch schon mal anders lautende Infos:upara:

Welche zu keinem Zeitpunkt seriös waren ...

Hübie
2018-04-01, 03:38:49
da gab es auch schon mal anders lautende Infos:upara:

Ja da habe ich mich mal wieder hinreißen lassen. Die Lager hatten keine GP102 mehr, ich geierte auf den Nachfolger und schlussfolgerte aus den Häppchen die ich bekam eben den falschen big chip. Hints sind eben nur hints. Leo nimmt eben unsere Spekulationen auch gerne mal als Anlass für ne News und rollt so das ganze Thema mal auf. Den Anspruch auf Richtigkeit oder Seriös zu sein erhebe ich dabei nie. ;) Meine Quelle lag bisher zwar immer richtig, aber ich habe falsch interpretiert. :P

scully1234
2018-04-02, 00:09:45
Meine Quelle lag bisher zwar immer richtig, aber ich habe falsch interpretiert. :P


Alles gut ich wollte dich doch nur triggern diesbezüglich :D

ShinyMcShine
2018-04-02, 09:35:17
DEL

TobiWahnKenobi
2018-04-02, 23:29:29
grmpf.. also wenn da jetzt echt nix neues rauskommt, bestelle ich halt ne
Titan V :P

ich werde schon sehen was nvidia davon hat.


(..)

mfg
tobi

Hübie
2018-04-02, 23:34:25
;D Dann aber mit fullcover cooler, denn die lohnt sich nur so richtig mit OC. Du hast ja schon die TXp...

TobiWahnKenobi
2018-04-02, 23:50:05
natürlich ;)



(..)

mfg
tobi

scully1234
2018-04-03, 08:19:41
grmpf.. also wenn da jetzt echt nix neues rauskommt, bestelle ich halt ne
Titan V :P

ich werde schon sehen was nvidia davon hat.


(..)

mfg
tobi

nimm die neue Quadro mit 32GB Ram ,da kannst du über NVLink noch nachrüsten wenns nicht ausreicht, und hast auf absehbare Zeit keinen Vram Mangel mehr:D

TobiWahnKenobi
2018-04-04, 11:23:30
zu spät, die karte liegt schon hier. nur das paket
von EKWB lässt noch auf sich warten. ärgerlich..


(..)

mfg
tobi

Rancor
2018-04-04, 12:36:52
Da ist man ja schon ein wenig neidisch :freak:

dildo4u
2018-04-04, 12:38:33
Als Gameingkarte kann man sie zur Zeit vergessen laut PCGH hat sie teilweise Bildfehler weil der Treiber nicht wirklich für Gameing optimiert ist.

http://abload.de/img/20180404_12434757ud0.jpg

TobiWahnKenobi
2018-04-04, 12:51:05
so, fertich..

https://abload.de/thumb/3dc624f2-8a85-41e7-a6urgv.jpeg (http://abload.de/image.php?img=3dc624f2-8a85-41e7-a6urgv.jpeg) https://abload.de/thumb/16316faf-5860-4db4-8i6q9m.jpeg (http://abload.de/image.php?img=16316faf-5860-4db4-8i6q9m.jpeg)

singleslot ist sexy.

jetzt muss ich was tun, gucke mir die bildfehler abends an. unter windows läufts.


(..)

mfg
tobi

Hübie
2018-04-04, 18:18:03
Falscher Thread, Tobi. ;) Aber nice. Das ging ja super schnell bei dir.

scully1234
2018-04-05, 00:32:40
sauber/sabber/schluchts :tongue:

Wenn doch nur nicht der Urlaub in Kuba wäre dieses Jahr, hätte ich die Revoluzion auch schon hier...

crux2005
2018-04-05, 00:43:07
PoorVoltage ;(

Hübie
2018-04-05, 01:46:28
sauber/sabber/schluchz :tongue:

Wenn doch nur nicht der Urlaub in Kuba wäre dieses Jahr, hätte ich die Revolution auch schon hier...

Bring mir bitte Zigarren mit :D Die Titan V ist imo eher eine Evolution, wenn man es von weiter weg betrachtet. Turing wird wohl mal als Volta gehandelt worden sein, wenn man es platt ausdrückt (FP16, Tensor Cores, nur halt GDDR6 statt HBM2).

Adam D.
2018-04-15, 12:42:59
Am 15.6. gehen die Turing-Packages in MP

Ich poste das einfach auch mal hier, August wird also hoffentlich dann Realität werden.

TobiWahnKenobi
2018-04-15, 12:47:42
spätsommer wäre dann realistisch.. bin auf die VKs gespannt.

wenn die leistung in spielen vergleichbar wird, kaufe ich nochmal.. für den zweitrechner, der atm nur eine 1050Ti hat (ryzen hat keine iGP).


(..)

mfg
tobi

Hübie
2018-04-15, 12:55:22
Oh, passend zu meinem Burzeltag. Wäre ja n Brett. :D

JaniC
2018-04-15, 13:53:30
Ich hab im November. Denke das ist realistisch, da schon ein schönes custombrett für 800€ abzugreifen..

robbitop
2018-04-15, 14:49:58
GT104 wird sicherlich zuerst kommen. Zumindest für GP102 Besitzer ist der kaum interessanr, da vermutlich kaum schneller. GT102 als halbwegs ökonomisch sinnvolle Ausführung (Ti und nicht die obligatorische Titan mit Pionierzuschlag) wird sicherlich eher in das Jahr 2019 rutschen...

MasterElwood
2018-04-15, 17:11:39
GT104 wird sicherlich zuerst kommen. Zumindest für GP102 Besitzer ist der kaum interessanr, da vermutlich kaum schneller. GT102 als halbwegs ökonomisch sinnvolle Ausführung (Ti und nicht die obligatorische Titan mit Pionierzuschlag) wird sicherlich eher in das Jahr 2019 rutschen...

1080er Besitzer hier.

Wenn das Ding 50 Prozent schneller is als meine: Sofortkauf - auch bei 900 Euro

Unter 30 Prozent kann es sich Lederstrumpf behalten.

Dazwischen... Dazwischen müssen mich neue Features überzeugen...
>

basix
2018-04-15, 19:02:29
Ist eigentlich gesichert, dass Turing in 12nm kommt? Oder wird es zu Weihnachten noch ne 7nm Titan geben?

scully1234
2018-04-15, 19:34:26
Ich würde mal nicht davon ausgehen das man die Architektur ,auf zwei verschiedene Strukturgrößen auflegt, innerhalb so kurzer Zeit, eher dann schon den Refresh falls es sowas noch geben sollte von Turing.

Ist ja auch ne Kostenfrage

basix
2018-04-15, 19:36:22
Ich würde mal nicht davon ausgehen das man die Architektur auf zwei verschiedene Strukturgrößen auflegt, eher dann schon den Refresh falls es sowas noch geben sollte von Turing

Gut, das sollte klar sein. Aber jetzt liegt so viel Zeit zwischen Pascal und Turing, wieso nicht schon die Nachfolge-Architektur oder eben schon den grössten Refresh in 7nm bringen. Sehr hohe Preise zu verlangen würde Nvidia ja nicht im Weg stehen :D

scully1234
2018-04-15, 19:42:30
Sehr hohe Preise zu verlangen würde Nvidia ja nicht im Weg stehen :D

Das können sie doch aber auch mit 12nm ,ohne all zu großes Risiko ,da der Prozess schon gereift ist

Notfalls ein bisschen mehr Silizium(#Volta V100) ,fürs selbe Resultat, aber weniger Ausschuss wie mit 7nm, und ne Lederjacke mehr im Schrank von Jensen

Troyan
2018-04-15, 19:46:06
Gut, das sollte klar sein. Aber jetzt liegt so viel Zeit zwischen Pascal und Turing, wieso nicht schon die Nachfolge-Architektur oder eben schon den grössten Refresh in 7nm bringen. Sehr hohe Preise zu verlangen würde Nvidia ja nicht im Weg stehen :D

7nm von TSMC wird von Apple und Qualcom zum Ende des Jahres komplett belegt werden. Für ein Massenprodukt wie Touring, macht 12nm viel mehr Sinn.

N0rG
2018-04-16, 06:23:18
Ist 10nm eigentlich keine Option mehr? Ich höre immer nur 12 und 7...

robbitop
2018-04-16, 07:43:21
Ist das selbe Spiel wie mit 20nm. Eher ein mobile Prozess.

HOT
2018-04-16, 09:08:41
Außerdem geht das in der kurzen Zeit nur mit einem Prozess, in dem man schon viel Erfahrung hat.

Godmode
2018-04-16, 09:47:10
Ich gehe immer noch von 12nm aus. GV100 wird darin gefertigt und somit wäre es am naheliegendsten, auch die kleineren Chips in 12nm zu fertigen.

robbitop
2018-04-16, 09:56:05
Sehe ich auch so.

basix
2018-04-16, 13:24:24
Ich gehe einfach von folgendem hypothetischen Fall aus:

GT10x bis und mit GT102 in 12nm. Rund +30% Performance aufs ganze Portfolio. Aber aufs Weihnachtsgeschäft nochmals eine 7nm Titan Super Duper Ultra XYZ auf was auch immer einer Architektur-Basis. Bis Ende Jahr wird Nvidia definitiv 7nm Chips haben (HPC). Und da es ja Gerüchte gab, dass es zwei grosse Chips dieses Jahr geben soll von Nvidia, frage ich mich einfach was der 2. Chip ist.

HOT
2018-04-16, 13:35:29
Denkbar wäre dann Ampere in 7nm zum Jahreswechel und eine spätere Verwertung als Titan A irgendwann in 2019.

Geächteter
2018-04-16, 14:31:12
Ich gehe immer noch von 12nm aus. GV100 wird darin gefertigt und somit wäre es am naheliegendsten, auch die kleineren Chips in 12nm zu fertigen.
Wahrscheinlich werden die ganzen neuen Produkte dann wieder über 2 Jahre gestreckt und wahrscheinlich wieder gleiche Reihenfolge, Oberklasse als neues High-End, dann Mainstream, ne Titan eingestreut, dann High-End-Chip für den Mainstream und noch ne teurere Titan, quasi das Publikum maximal abmelken, und dann frühestens Ende 2020 mit 7 nm begonnen.

Godmode
2018-04-16, 17:09:05
Wahrscheinlich werden die ganzen neuen Produkte dann wieder über 2 Jahre gestreckt und wahrscheinlich wieder gleiche Reihenfolge, Oberklasse als neues High-End, dann Mainstream, ne Titan eingestreut, dann High-End-Chip für den Mainstream und noch ne teurere Titan, quasi das Publikum maximal abmelken, und dann frühestens Ende 2020 mit 7 nm begonnen.

Ja, sehe 7nm auch nicht vor 2020. Zuerst Apple & Co., dann erst Consumer GPUs.

robbitop
2018-04-16, 17:30:44
Jap war in den letzten Jahren immer so dass neue Prozesse erstmal ca 1 Jahr bei den mobile SoCs gereift sind.

Andererseits nutzt V20 zum Jahreswechsel 7nm und Zen 3 Ende Q1 2019 auch. Beides aber GF 7nm duv und nicht tsmc (wie bei nvidia)

Maxwell nutzte auch noch relativ lange den 28nm Prozess.

Thunder99
2018-04-16, 21:07:16
Maxwell nutze auch deswegen 28nm da 20nm Schrott war für GPUs.

Bei 12nm kann man nicht unbedingt von riesen Sprüngen hoffen, wenn man von der Gx102 GPU spricht.

Gx104 macht nur das übliche wie die Generationen davor..., denke ich!

basix
2018-04-17, 11:20:04
Macht mir keine Angst :D Ich will unbedingt was neues, aber momentan ist nichts attraktiv (hätte die 1080 Ti vor einem Jahr doch kaufen sollen...). Und für 1 Jahr auf eine 12nm Karte zu setzen wenn dann mit 7nm ein grosser Sprung kommt ist nicht wirklich verlockend.

AffenJack
2018-04-17, 11:33:45
Der große Sprung muss erstmal kommen. Nvidias Taktik sieht man doch gut über die letzten Jahre. Man bringt jedes Jahr grob 30% Mehrperformance. Bei 7nm erwarte ich nix anderes, nur mit dem Unterschied, dass die TDP erstmal runter gehen wird. Dieses Jahr die 1180Ti und dann Weihnachten 2019 die 1280, die wieder 30% Mehrperformance bringt.

Grafikkarten kaufen lohnt sich mittlerweile generell nur noch zu Beginn einer Gen. Die Preise verändern sich über die Zeit eh nicht mehr groß.

BlacKi
2018-04-17, 11:43:30
Der große Sprung muss erstmal kommen. Nvidias Taktik sieht man doch gut über die letzten Jahre. Man bringt jedes Jahr grob 30% Mehrperformance. Bei 7nm erwarte ich nix anderes, nur mit dem Unterschied, dass die TDP erstmal runter gehen wird. Dieses Jahr die 1180Ti und dann Weihnachten 2019 die 1280, die wieder 30% Mehrperformance bringt.

Grafikkarten kaufen lohnt sich mittlerweile generell nur noch zu Beginn einer Gen. Die Preise verändern sich über die Zeit eh nicht mehr groß.
die 1080 war keine 30% schneller als die 980ti. ich könnte mir aber auch vorstellen, das mit der abspaltung alte traditionen über den haufen geworfen werden.

AffenJack
2018-04-17, 12:31:42
die 1080 war keine 30% schneller als die 980ti. ich könnte mir aber auch vorstellen, das mit der abspaltung alte traditionen über den haufen geworfen werden.

Nicht im übertakteten Zustand, Referenz zu Referenz waren etwa 30%. auf die 2,3 % kommt es nun auch nicht an. Welche abspaltung? Verschiedene Architekturen? Da weiß man nicht ob das nicht nur Marketing ist. Pro und Gaming waren auch schon bei Pascal getrennt. Die grundlegende Architektur wird auch hier wieder ähnlich sein.

Fragman
2018-04-18, 10:12:03
https://wccftech.com/nvidia-geforce-gtx-1180-specs-performance-price-release-date-prelimenary/

spekulation, und ich weiss nicht was von der quelle zu halten ist. ;)

Daredevil
2018-04-18, 10:26:48
Edit:
Zumindest kennt derjenige nicht einmal die Specs einer GTX1080. ^^
8GB GDDR5X

Anscheinend kenne ich nicht einmal die Specs einer GTX1080. ;D
Dachte, das X ist nur bei der Ti zu finden.

Das Bild könnte aber auch haargenau hier raus stammen.
https://cdn.wccftech.com/wp-content/uploads/2018/04/NVIDIA-GeForce-1180.jpghttps://www.hartware.de/wp-content/uploads/2017/03/GTX-1080-Ti.jpeg

Sven77
2018-04-18, 10:33:48
Zumindest kennt derjenige nicht einmal die Specs einer GTX1080. ^^


:confused:

Troyan
2018-04-18, 10:42:02
Das ist alles erfunden. Es gibt keine weiteren Leaks über Touring, außer das es GPUs mit 192bit, GDDR6 und TensorCores geben wird.

AffenJack
2018-04-18, 10:46:05
https://wccftech.com/nvidia-geforce-gtx-1180-specs-performance-price-release-date-prelimenary/

spekulation, und ich weiss nicht was von der quelle zu halten ist. ;)

Es sind nur die von Volta abgeleiteten Daten, die wir hier schon seit Monaten diskutiert haben, weil sie am wahrscheinlichsten wären. WTFTech hat eher notorisch keine Quellen. Sie haben sich einfach das gleiche gedacht und nen Artikel draus geformt. Heißt nicht, dass es falsch ist, da ich das auch für am wahrscheinlichsten halte. Aber Quellen stehen dahinter eher nicht.

JaniC
2018-04-18, 11:14:38
Falls es stimmt: eher enttäuschend, dann warte ich wohl auf die Ti.

Aber denke auch, klassischer wccftech "Leak".

robbitop
2018-04-18, 11:58:42
Naja dass nextgen 104 ca lastgen 102 Performance +wenige Prozent erreicht ist doch eigentlich im Rahmen des Erwartungshorizont. Selbst wenn die specs erfunden sind, passt die Größenordnung schon...

Hübie
2018-04-18, 12:00:34
Klingt zumindest nicht abgehoben nach feuchten Träumen. Entspräche meiner Variante 3 wobei mir da gerade auffällt, dass ich 3584 ALUs, aber nur 192 Bit SI angegeben habe. Etwas schief und mager für die Menge. =)

Troyan
2018-04-18, 12:15:56
192bit und 16GBit/s GDDR6 Speicher sind 384GB/s. Das ist mehr als bei einer GTX1080 und mit besserer Kompression und einem besseren Cache-System ausreichend. Und mit 12GB an Speicher kann man dann auch noch einen deutlich Zuwachs verbuchen.

JaniC
2018-04-18, 12:54:31
Wildlands 1440p Very High 140fps sind mein Anspruch/mein Wunsch.
GTX1080 kommt da auf 70-80fps.
Denke, das wird dann erst mit GT102 was.

Die lange Zeit zwischen den Generationen hat meine Erwartungshaltung halt etwas angehoben, so das ich mir einen größeren Sprung erhofft habe.

Daredevil
2018-04-18, 13:00:10
Da muss die Leistung aber auch zum Quadrat wachsen. ^^
Früher war es "nur" die Grafikpracht und Auflösung, heute müssen es dann auch eben noch 120fps+ sein.

Hübie
2018-04-18, 13:40:52
192bit und 16GBit/s GDDR6 Speicher sind 384GB/s. Das ist mehr als bei einer GTX1080 und mit besserer Kompression und einem besseren Cache-System ausreichend. Und mit 12GB an Speicher kann man dann auch noch einen deutlich Zuwachs verbuchen.

Die 104er GPUs haben die Aufgabe die top dogs der last gen zu schlagen. Also schielen wir auf GP104. Die 1080 kommt auf ~350GB/s. Meine 980 Ti auf 384 GB/s. Also nix Besonderes hier.
Wenn es 3584 SPs sind, dann kommt man besser mit 256 Bit um die Ecke. :D

robbitop
2018-04-18, 13:54:29
Im wccf link steht was von 256 but gddr6. Klingt imo so plausibel

Hübie
2018-04-18, 19:54:14
Ja deswegen. Weiß gar nicht, warum ich da 192 Bit genommen habe. Das würde bei 3456 SPs sinnvoll sein, da dann ein L2$ slice Anbindung an ein 32 Bit MC hat (27 SMs sind aber wiederum so krumm, dass man nur 3 oder gleich 9 GPC haben muss wenn die µArch hier gleich bleibt). Daher sind 3584 SPs/256 Bit für mich erst mal plausibel genug. Top dog dann ~4600/384.

Irgendwo habe ich aufgeschnappt wie groß ein Tensor Core ist. Weiß zufällig jemand wo das war? :D

TobiWahnKenobi
2018-04-18, 21:20:45
Wildlands 1440p Very High 140fps sind mein Anspruch/mein Wunsch.
GTX1080 kommt da auf 70-80fps.
Denke, das wird dann erst mit GT102 was.

Die lange Zeit zwischen den Generationen hat meine Erwartungshaltung halt etwas angehoben, so das ich mir einen größeren Sprung erhofft habe.

das wird ein wunsch bleiben. die 140fps gibts nichtmal mit mittleren details @1440p.

http://abload.de/img/wl_tv_1440_mittelrys9m.jpg

bis ein evtl. GT102 oder noch ne generation weiter das packt, spielt das spiel kein mensch mehr.


(..)

mfg
tobi

Hübie
2018-04-18, 21:32:39
Und jetzt das ganze in very high. :D

TobiWahnKenobi
2018-04-18, 21:54:17
110fps @1440p /VH (http://abload.de/img/wl_tv_1440_vhlrs7r.jpg)
70fps @1440p /U (http://abload.de/img/wl_tv_1440_ultrap6uev.jpg)
70fps @UHD /VH (http://abload.de/img/wl_tv_uhd_vha2ubg.jpg)
50fps @UHD /U (http://abload.de/img/wl_tv_uhd_uaqum4.jpg)

mit ner TV @2GHz




(..)

mfg
tobi

Hübie
2018-04-18, 22:00:58
Also bräuchte man grob 6144 SPs bei 2,1 GHz Takt für 140 fps. Da gebe ich dir Recht: wenn das geschieht spielt kein Arsch mehr GRW. :D

JaniC
2018-04-19, 09:22:24
Danke tobi, (für's Erden). Da habe ich mir dann wirklich zuviel versprochen von der nächsten Generation.
GP104 kommt in 1440p auf 72fps im Benchmark (siehe mein Screenshot im Wildlandsthread), 110fps sind also schon ganz gut Gewinn. Aber die 1440p Sorgloskarte wird's dann wohl erst nächste Rutsche geben.

PS: bis wann man noch Wildlands zockt, ist ja nun jedem selbst überlassen. Spiele viele Spiele erst Jahre später um alles auf Maximum ziehen zu können. Die werden ja nicht schlecht. Eher besser.

Rancor
2018-04-19, 09:45:54
Wenn die 1180 so kommt wird bei den Customs direkt zugeschlagen. Ist ein schönes Upgrade von der 1070 =)

robbitop
2018-04-19, 11:15:10
Ich glaube auch erst an Tensorcores bei GT104, wenn ich sie sehe. Sind ja sicherlich einige Transistoren, die man dafür investieren muss und die Verbreitung ist noch relativ klein. IHVs machen das manchmal zwar trotzdem aber häufig auch erst, wenn die Verbreitung hoch genug ist.
Man kann bis dahin ja auch Matritzen mit den regulären ALUs (langsamer) rechnen. Dann muss der Entwickler halt etwas sparsamer mit RT und Denoising umgehen. Neue Dinge (vor allem leistungshungrige) sind ja meist evolutionär und finden durchgängige Verbreitung erst Jahre später.

Edgecrusher86
2018-04-19, 11:37:06
80 und 70 werden die schon bekommen. Immerhin hat ja auch die GeForce Twitter Seite die GDC Demos geposted. Die Ti erscheint eh erst Laufe 2019. Metro: Exodus kommt im Oktober. Eine nahe erscheinende GTX 1180/1170 ohne dieses Feature wäre sicher keine gute PR und NV wird sicher nicht öffentlich sagen, dass die betuchten Gamer halt TITAN V holen sollen. 😎


Soviel Platz wird das schon nicht in Anspruch nehmen. Maximal werden es wohl 448 Tensor Cores bei 104 sein. Aber auch ein weiteres Beschneiden vs Big Chips würde mich nicht wundern. Evtl. sehen wir 128-256 (168 wäre etwa 1/4 von full GV100).

Auf jeden Fall wird man nur soviel aktivieren, wie unbedingt notwendig, damit die Demos und ersten Games sich zumindest unter 1440/1080p nicht tot ruckeln.

AffenJack
2018-04-19, 11:37:48
Ich bin sicher, dass wir Tensor Cores sehen werden. Die Frage ist nur wieviele. Ich geh bei GT104 im Moment von einer gleichen Anzahl wie V100 pro Shader aus, damit GT102 dann die Pegasus TOPs erreicht. Auf Geforces dann per Software ein die Hälfte der Tensor Cores deaktiviert. Also wie Edgecrusher86 schon schreibt, 448TCs bei GT104, wenn es 3584 Shader werden.

Hübie
2018-04-19, 11:40:31
Ich erspare mir jegliche 104er GPU. Die GK104 haben mir vorn und hinten nicht gereicht. Vor allem wenn SLi mal nicht lief. Der VRAM war mit 4 GB ganz okay, aber die Leistung... Pfff.

|MatMan|
2018-04-19, 15:47:00
Tensor Cores in den x06, x04 und x06 GPUs sehen wir IMO nur, wenn nVidia die Tensor Cores unbedingt für die professionellen Produkte auf Basis der GPUs braucht. Die Tensor Cores für RT zu benutzen ist doch nur Beiwerk. Wenn die Tensor Cores schonmal da sind, versucht man damit etwas exkusives anzubieten. nVidia will im DL Markt wohl breit aufgestellt sein und dann muss da auch eine vernünftige Menge an Tensor Cores in den kleineren GPUs drin sein.

robbitop
2018-04-19, 19:24:01
Wie gesagt, ich wette dagegen. Geht ja auch auf den normalen ALUs und bringt in 99,9% der existierenden SW keine Mehrleistung. Das war schon häufig Grund genug für beide ihvs, nicht vorschnell solche Dinge umzusetzen.

Digidi
2018-04-19, 19:27:40
Ich glaube auch erst an Tensorcores bei GT104, wenn ich sie sehe. Sind ja sicherlich einige Transistoren, die man dafür investieren muss und die Verbreitung ist noch relativ klein. IHVs machen das manchmal zwar trotzdem aber häufig auch erst, wenn die Verbreitung hoch genug ist.
Man kann bis dahin ja auch Matritzen mit den regulären ALUs (langsamer) rechnen. Dann muss der Entwickler halt etwas sparsamer mit RT und Denoising umgehen. Neue Dinge (vor allem leistungshungrige) sind ja meist evolutionär und finden durchgängige Verbreitung erst Jahre später.

Gameworks wirt es schon nutzen. Nicht umsonst hat Microsoft und Nvidia and RayTracing Erweiterung der API implimentiert die auf Tensor Core beruht. Man merkt das viele noch nicht Nvidias Masche Verstanden haben ;)

scully1234
2018-04-19, 19:44:55
Teufelszeug und wird gekauft wie die Hölle:devil:

Du könntest uns ja derweil mal AMDs Plan darlegen,anstatt dieser Kapitulationserklärung ,vor Nvidias neuen Ideen mmh?

Das hört sich bisher nur nach hilflosen Schimpfen an, vor den technologischen Skills anderer Firmen

Wenn Nvidia in der nächsten Generation die Tensor Units integriert, und andere Firmen das adaptieren, für ihre Software ,ist das also wieder mal was ganz Böses, weil ????

Nvidias "Masche" ist es das zu liefern was der Markt braucht, bzw ihm das glaubhaft zu vermitteln ,das das Sinn macht, womit du ein Problem zu haben scheinst

Digidi
2018-04-19, 19:58:34
Teufelszeug und wird gekauft wie die Hölle:devil:

Du könntest uns ja derweil mal AMDs Plan darlegen,anstatt dieser Kapitulationserklärung ,vor Nvidias neuen Ideen mmh?

Das hört sich bisher nur nach hilflosen Schimpfen an, vor den technologischen Skills anderer Firmen

Wenn Nvidia in der nächsten Generation die Tensor Units integriert, und andere Firmen das adaptieren, für ihre Software ,ist das also wieder mal was ganz Böses, weil ????

Nvidias "Masche" ist es das zu liefern was der Markt braucht, bzw ihm das glaubhaft zu vermitteln ,das das Sinn macht, womit du ein Problem zu haben scheinst

Nein Nvidia suggeriert das du was brauchste was du gar nicht brauchst wenn man es gescheit macht. Siehe Hair Works. Auf Shader basis sieht es besser aus und braucht weniger Resourcen auf dem Chip stats Nvidias Tessellation ansatz.

scully1234
2018-04-19, 20:06:02
Nein Nvidia suggeriert das du was brauchste was du gar nicht brauchst .

Das entscheidest nun mal nicht du, sondern die breite Masse da draußen, ob beworbene Featuresets Sinn ergeben, oder eben nicht

Du wirst dich wahrscheinlich noch oft ärgern, das die Akzeptanz nach neuen Herangehensweisen beim Rendering , nicht nach dem Gusto vergeben wird, was du dir ausmalst

Digidi
2018-04-19, 20:14:43
Das entscheidest nun mal nicht du, sondern die breite Masse da draußen, ob beworbene Featuresets Sinn ergeben, oder eben nicht

Du wirst dich wahrscheinlich noch oft ärgern, das die Akzeptanz nach neuen Herangehensweisen beim Rendering , nicht nach dem Gusto vergeben wird, was du dir ausmalst


Nein das entscheidet nicht die Masse das entscheidet gebildete Menschen die das nötige Fachwissen haben. Ich glaube nicht das du in der Branche tätig bist noch das du das gewisse Fachwissen besitzt sondern du hier nur Marketinggeschwavel verbreitest weil du selbst Besitzer eine Nvidia Karte bist und jetzt versuchst diese Kaufentscheidung gegenüber deinem Gewissen zu gerechtfertigen.

Locuza
2018-04-19, 20:16:05
Es gibt einige technische Kontra-Argumente gegenüber HairWorks, aber auch gegenüber RTX und der Beschleunigung von Tensor-Cores?
Wo ist denn da das Problem?

scully1234
2018-04-19, 20:21:28
Es gibt einige technische Kontra-Argumente gegenüber HairWorks, aber auch gegenüber RTX und der Beschleunigung von Tensor-Cores?
Wo ist denn da das Problem?

Er sprach nicht von technischen Argumenten, sondern von Nvidias "Masche" da ist das Problem

Wenn Raytracing so wie es irgendwann mal angedacht ist funktioniert ,ist es der Königsweg, das wirst du wohl hoffentlich nicht abstreiten

Nvidia bietet hier mit den Tensor Cores einen Ansatz ,der für ordentlichen Schub auf dem Sektor sorgt ,wo sich seit Jahren eigentlich nur minimale Sprünge gezeigt haben

Also ja wo ist das Problem?

Digidi
2018-04-19, 20:21:51
Es gibt einige technische Kontra-Argumente gegenüber HairWorks, aber auch gegenüber RTX und der Beschleunigung von Tensor-Cores?
Wo ist denn da das Problem?
Das Problem ist das ein großer grüner Konzern hier Gehirnwäsche seit Jahren verbreitet und es bei vielen Funktioniert. Immer wieder liest man hier das die Konkurrenz nicht fähig ist was tolles auf die Beine zu stellen als mal das Vorgehen des eigenen Unternehmens zu Hinterfragen.

Und nein Hairworks ist nicht sinvoll in Konsumer hinsicht. Der Konsument könnte bessere Leistung bei weniger Ressourcen (Chipflächenverbrauch) bekommen.

Ich finde Gameworks einen viel größeren Skandal als GPP. Wie würdet Ihr das nenne wenn jemand vorbei kommt und sagt hey ich mach euren Job kostenlos dafür behalten wir uns das recht vor das es nur auf unserer Hardware gut läuft?

Er sprach nicht von technischen Argumenten, sondern von Nvidias "Masche" da ist das Problem

Wenn Raytracing so wie es irgendwann mal angedacht ist funktioniert ,ist es der Königsweg, das wirst du wohl hoffentlich nicht abstreiten

Nvidia bietet hier mit den Tensor Cores einen Ansatz ,der für ordentlichen Schub auf dem Sektor, sorgt wo sich seit Jahren eigentlich nur minimale Sprünge gezeigt haben

Also ja wo ist das Problem?
Nochmal woher willst du das Wissen bist du Chip- oder Softwaredesigner?

AffenJack
2018-04-19, 20:33:05
Das Problem ist das ein großer grüner Konzern hier Gehirnwäsche seit Jahren verbreitet und es bei vielen Funktioniert. Immer wieder liest man hier das die Konkurrenz nicht fähig ist was tolles auf die Beine zu stellen als mal das Vorgehen des eigenen Unternehmens zu Hinterfragen.

Nochmal woher willst du das Wissen bist du Chip- oder Softwaredesigner?

Ach komm, du kommst bloß nicht damit klar, dass Nvidia was haben könnte, was AMD nicht hat. Gerade du musst mit Gehirnwäsche anfangen. Wo du überall Primitive Shader zum Himmel lobst, obwohl dir sogar Entwickler wie gravi versuchen klar zu machen, dass es im Moment völlig nutzlos ist. Aber für dich ist es das tollste Feature überhaupt. Tensor Cores können AI einfach gut beschleunigen und es scheint genug Anwendungsfälle zu geben, wo man das nutzen kann, so sehr du dich auch dagegen sträubst.

Du solltest einfach einsehen, dass es immer Features gibt, die mal der eine, mal der andere besser implementiert. Bei Tesselation wars Nvidia, bei Async Compute AMD.

Digidi
2018-04-19, 20:33:46
Ach komm, du kommst bloß nicht damit klar, dass Nvidia was haben könnte, was AMD nicht hat. Gerade du musst mit Gehirnwäsche anfangen. Wo du überall Primitive Shader zum Himmel lobst, obwohl dir sogar Entwickler wie gravi versuchen klar zu machen, dass es im Moment völlig nutzlos ist. Aber für dich ist es das tollste Feature überhaupt. Tensor Cores können AI einfach gut beschleunigen und es scheint genug Anwendungsfälle zu geben, wo man das nutzen kann, so sehr du dich auch dagegen sträubst.

Wo habe ich das zum Himmel gelobt. Ich bin sauer auf AMD das es nicht implementiert wurde. Und Gravitationsfeld hat nicht gesagt das es Nutzlos ist wieder hier lügen lügen lügen von Dir. Er hat nur gesagt das es nicht so schnell kommt.

Und noch mal woher weist du das Tensor Cores gut für z.B. RayTracing sind? Im Beyond3d Forum sind sich die Spieleentwickler nicht ganz so sicher.

Und versucht AMD mit kostenloser Entwickleruntserstützugn AsynCompute in jedes Spiel zu drücken? Findest du das Gut das wir dann bald für jedes Spiel eine eigene GPU brauchen?

Hübie
2018-04-19, 20:42:28
Alles schön und gut, aber es gibt für alles einen passenden Thread und wenn es mal nicht passt, dann gibt es PNs. Ich würde das hier gerne nicht so entgleisen lassen. Danke. :smile:
Ob Tensor Cores in den kleinen Derivaten kommen hängt imo davon ab, wie viele Entwickler man jetzt schon an der Angel hat, die es für Endkunden einsetzen. Gut möglich, dass es vorerst mehrheitlich für light baking im Studio genutzt wird und man den Geschwindigkeitsvorteil heraus hebt (iirc hat Forza Horizon z.B. prebaked lighting). Für Enduser dann eben nur im Highend-Segment so wie VXAO nur auf top tier GPUs (relativ) flüssig läuft.

Locuza
2018-04-19, 20:44:07
[...]
Und nein Hairworks ist nicht sinvoll in Konsumer hinsicht. Der Konsument könnte bessere Leistung bei weniger Ressourcen (Chipflächenverbrauch) bekommen.

Ich finde Gameworks einen viel größeren Skandal als GPP. Wie würdet Ihr das nenne wenn jemand vorbei kommt und sagt hey ich mach euren Job kostenlos dafür behalten wir uns das recht vor das es nur auf unserer Hardware gut läuft?

Wenn die Hardware ihre Ressourcen nicht in Tessellation investiert und die Performance schlecht ausfällt, dann ist der Chipflächenverbrauch dennoch gering.

Und das zweite Beispiel hinkt, denn GameWorks ist in fast jedem Spiel eine optionale Komponente.
Niemand zwingt einen GameWorks Effekte zu verwenden.
Es zwingt auch allgemein niemand einen High-End oder Ultra-Settings zu verwenden, wenn ein Effekt zuviel kostet oder nicht gut aussieht, hat man die Freiheit die Einstellungen anzupassen.

Und wenn AMD nicht die Ressourcen hat eigene Technik entsprechend weiter zu entwickeln und in Produkten zu integrieren, dann was?
Ist es dann Nvidias Masche das nur bei denen etwas hinten rauskommt, weil nunja nur bei denen etwas hinten rauskommt?

Nochmal woher willst du das Wissen bist du Chip- oder Softwaredesigner?
Gut das du einer bist und weißt wie jedes einzelne Feature abzuschätzen ist. ;)

Digidi
2018-04-19, 20:48:55
@Locuza
Die Entwickler machen dann meistens noch etwas mehr als nur die Effekte zu Intigrieren und ich als mündiger Kunde möchte eigentlich das es so gut wie möglich die Hardware von der Software getrennt ist.

zu2.
Ich weiß aber im gegensatz zu anderen wo ich die Information herbekomme und wie ich Sie zu bewerten habe.

scully1234
2018-04-19, 20:51:48
Tensor Cores können AI einfach gut beschleunigen und es scheint genug Anwendungsfälle zu geben, wo man das nutzen kann, so sehr du dich auch dagegen sträubst.


Auch das war schon mal Thema mit Gravi ,in einen der vergangen Posts, Stichwort Arbeitsentlastung durch neuronale Netze

Da war das mit den Tensor Cores aber damals hier noch kein Thema für den Praxiseinsatz, oder er durfte??? wegen Firmeninternas noch nicht darüber reden

Es gibt neben Raytracing in der Zukunft ,also auch noch Bedarf für Spieleentwicklung im hier und jetzt

Tensor Cores könnten also ein Werkzeug werden, was mehrere Aufgabengebiete abdecken kann

Locuza
2018-04-19, 21:00:35
@Locuza
Die Entwickler machen dann meistens noch etwas mehr als nur die Effekte zu Intigrieren und ich als mündiger Kunde möchte eigentlich das es so gut wie möglich die Hardware von der Software getrennt ist.
Was machen sie denn noch mehr, als nur die Effekte zu integrieren?
Und wie stellst du dir eine weitgehende Trennung von Software und Hardware vor, wenn jeder Hersteller andere Hardware designed und man für optimale Performance, eben hardwarespezifische Optimierungen benötigt?
Letztendlich wird meist das verwendet, was im Schnitt auf allen mehr oder weniger gut läuft bzw. auf der Masse der Rechner.
Einzelne Features hier und da sorgt für keinen Weltuntergang, erst Recht nicht wenn man die Wahl hat, ob man den haben möchte oder nicht.

zu2.
Ich weiß aber im gegensatz zu anderen wo ich die Information herbekomme und wie ich Sie zu bewerten habe.
Mehrere Beiträge machen auf mich den offensichtlichen Eindruck, dass du das nicht weißt, ansonsten würden viele Logikfehler und verzerrte Weltansichten nicht so deutlich zum Vorschein kommen.

Digidi
2018-04-19, 21:09:12
Was machen sie denn noch mehr, als nur die Effekte zu integrieren?
Und wie stellst du dir eine weitgehende Trennung von Software und Hardware vor, wenn jeder Hersteller andere Hardware designed und man für optimale Performance, eben hardwarespezifische Optimierungen benötigt?
Letztendlich wird meist das verwendet, was im Schnitt auf allen mehr oder weniger gut läuft bzw. auf der Masse der Rechner.
Einzelne Features hier und da sorgt für keinen Weltuntergang, erst Recht nicht wenn man die Wahl hat, ob man den haben möchte oder nicht. Und zu einem Lernprozess gehört es auch dazu das man sich Mal Irrt.

Mehrere Beiträge machen auf mich den offensichtlichen Eindruck, dass du das nicht weißt, ansonsten würden viele Logikfehler und verzerrte Weltansichten nicht so deutlich zum Vorschein kommen.
Ah ja und du bist hier der Oberentwickler? Was von Dir kommt ist nur pro Nvidia Werbung defiziel untergebracht. Ich vermute Mal du Arbeitest für die Grünen oder nutzt ausschließlich Ihre Produkte. Wenn dann hast du eine verzerrte Ansicht.


PS. Ja so gut es geht Getrennt und Transparent fehlt noch. In erster Linie soll der Entwickler den Code schreiben und nicht der Hardwarehersteller.

5CH4CHT3L
2018-04-19, 21:15:00
Wenn Nvidia Tensor Cores als versatil ansieht werden die auch eingesetzt.
Es wird sicherlich kein Unterschied zwischen Mainstream und High-End gemacht, weil es sehr viel Designarbeit kostet die Verhältnisse zwischen Tensor- und CUDA-Cores variabel zu machen.

Wenn Tensor-Cores verwendet werden werden halt auch Tools benötigt, um den Entwicklern eine einfache Integration der Tensor Cores in deren Spiel ermöglicht.
Vielleicht gibt es auch eine Abwandlung dieser Kerne, die mehr auf Spiele optimiert ist.

Digidi
2018-04-19, 21:17:50
Tensor Cores wurden schon in DirectX implementiert.
https://www.google.de/amp/s/www.heise.de/amp/meldung/Raytracing-fuer-Spiele-kommt-Microsoft-Schnittstelle-DirectX-Raytracing-und-Nvidia-RTX-angekuendigt-3998690.html

Troyan
2018-04-19, 21:20:50
Wenn Nvidia Tensor Cores als versatil ansieht werden die auch eingesetzt.
Es wird sicherlich kein Unterschied zwischen Mainstream und High-End gemacht, weil es sehr viel Designarbeit kostet die Verhältnisse zwischen Tensor- und CUDA-Cores variabel zu machen.

Wenn Tensor-Cores verwendet werden werden halt auch Tools benötigt, um den Entwicklern eine einfache Integration der Tensor Cores in deren Spiel ermöglicht.
Vielleicht gibt es auch eine Abwandlung dieser Kerne, die mehr auf Spiele optimiert ist.

Mindesten eine GPU von Turing wird Tensor-Cores haben. Das hat nVidia schon angekündigt.

AffenJack
2018-04-19, 21:34:25
Wo habe ich das zum Himmel gelobt. Ich bin sauer auf AMD das es nicht implementiert wurde. Und Gravitationsfeld hat nicht gesagt das es Nutzlos ist wieder hier lügen lügen lügen von Dir. Er hat nur gesagt das es nicht so schnell kommt.

Und noch mal woher weist du das Tensor Cores gut für z.B. RayTracing sind? Im Beyond3d Forum sind sich die Spieleentwickler nicht ganz so sicher.

Und versucht AMD mit kostenloser Entwickleruntserstützugn AsynCompute in jedes Spiel zu drücken? Findest du das Gut das wir dann bald für jedes Spiel eine eigene GPU brauchen?

Es gibt keine API und Entwickler können nix damit machen, daher ja es ist nutzlos im Moment. Wann sich das in Zukunft irgendwann mal ändert weiß man nicht, Gravi klang nicht gerade optimistisch, aber deine Entwicklerskills wussten natürlich mehr.

Tensor Cores sind gut für AI und das AI gut für Denoising ist, daran zweifelt niemand. Ansonsten hatten die Leute noch keinen Kontakt mit DXR oder RTX, da kann auch keiner was zu sagen.

AMD versucht genauso Async oder andere Features wie RPM in Spiele zu drücken, wie Nvidia versucht Gameworks in Spiele zu drücken.

Locuza
2018-04-19, 21:35:03
Ah ja und du bist hier der Oberentwickler? Was von Dir kommt ist nur pro Nvidia Werbung defiziel untergebracht. Ich vermute Mal du Arbeitest für die Grünen oder nutzt ausschließlich Ihre Produkte. Wenn dann hast du eine verzerrte Ansicht.

PS. Ja so gut es geht Getrennt und Transparent fehlt noch. In erster Linie soll der Entwickler den Code schreiben und nicht der Hardwarehersteller.
Ja ich bin der Oberentwickler, ich arbeite bei den Grünen und verwende nur deren Produkte, auch ein Nvidia Kopfkissen für den besseren Schlaf.

Ich stelle deine Argumente in Frage, du weichst aus oder schwabbelst wieder polemisch gegen Vorgehen, die dir nicht passen.

Middleware-Einsatz ist eine Standardpraxis, welche zum Einsatz kommt und welchen Stellenwert sie besitzt ist völlig situationsbedingt.
GameWorks stellt allgemein keinen integralen Bestandteil von Spielen dar, es ist fast immer nur ein Extra, dass auch wieder verschwinden kann, wenn die Kooperation aufhört, wie z.B. in Far Cry.
Far Cry 3 war ein Gaming Evolved Titel mit AMD, Far Cry 4 hat dagegen GameWorks implementiert, unter anderem HairWorks, Far Cry: Primal dagegen hat das ganze GameWorks-Zeug wieder entfernt und war in keiner Herstellerkooperation, bei Far Cry 5 hat man dagegen wieder mit AMD kooperiert und RPM implementiert.

Fast kein Entwickler hat seine eigene Arbeit mit GameWorks ersetzt, sondern optional erweitert.
Die einzige Ausnahme die mir bisher bekannt ist, ist Fallout 4 mit volumetrischen Lightning.

Tensor Cores wurden schon in DirectX implementiert.
https://www.google.de/amp/s/www.heise.de/amp/meldung/Raytracing-fuer-Spiele-kommt-Microsoft-Schnittstelle-DirectX-Raytracing-und-Nvidia-RTX-angekuendigt-3998690.html
Tensor Cores wurden nicht in DX implementiert.
DX12 wurde um eine weitere API DXR erweitert, mit neuen Shader-Typen und Operation, dass fällt aber sehr grob definiert aus, weswegen die Hardwarehersteller einen großen Freiraum haben, wie sie das intern unter der Hardware umsetzten.
Nvidia hat auf der Basis ihre eigene Middleware RTX entwickelt und verwendet dafür Tensor-Cores.

Troyan
2018-04-19, 21:41:57
Es werden keine Tensor-Cores für RTX verwendet. Tensor-Cores werden für den AI-Denoiser benutzt.

Digidi
2018-04-19, 21:44:19
Ja ich bin der Oberentwickler, ich arbeite bei den Grünen und verwende nur deren Produkte, auch ein Nvidia Kopfkissen für den besseren Schlaf.

Ich stelle deine Argumente in Frage, du weichst aus oder schwabbelst wieder polemisch gegen Vorgehen, die dir nicht passen.

Middleware-Einsatz ist eine Standardpraxis, welche zum Einsatz kommt und welchen Stellenwert sie besitzt ist völlig situationsbedingt.
GameWorks stellt allgemein keinen integralen Bestandteil von Spielen dar, es ist fast immer nur ein Extra, dass auch wieder verschwinden kann, wenn die Kooperation aufhört, wie z.B. in Far Cry.
Far Cry 3 war ein Gaming Evolved Titel mit AMD, Far Cry 4 hat dagegen GameWorks implementiert, unter anderem HairWorks, Far Cry: Primal dagegen hat das ganze GameWorks-Zeug wieder entfernt und war in keiner Herstellerkooperation, bei Far Cry 5 hat man dagegen wieder mit AMD kooperiert und RPM implementiert.

Fast kein Entwickler hat seine eigene Arbeit mit GameWorks ersetzt, sondern optional erweitert.
Die einzige Ausnahme die mir bisher bekannt ist, ist Fallout 4 mit volumetrischen Lightning.


Tensor Cores wurden nicht in DX implementiert.
DX12 wurde um eine weitere API DXR erweitert, mit neuen Shader-Typen und Operation, dass fällt aber sehr grob definiert aus, weswegen die Hardwarehersteller einen großen Freiraum haben, wie sie das intern unter der Hardware umsetzten.
Nvidia hat auf der Basis ihre eigene Middleware RTX entwickelt und verwendet dafür Tensor-Cores.



Und wieder so ein defiziler Beitrag von Dir. Bei the Witcher 3 wird das ganze Grünzeug mit Gameworks modelliert. Wenn du das ausstellst sieht die Welt einfach nur bescheiden aus. Das ist bei mir schon ein großer Eingriff ins Spiel und Spart viel Geld für die Entwickler die sich um Vegetation (was wohl 90% des Spielesettings ausmacht) sich nicht groß zu kümmern brauchen.
Hinzu kommt es das sich manche Feature nie ganz abschalten lassen. So sind sie zwar klein und kaum Sichtbar behindern aber trotzdem massiv die Konkurrenz weil nicht abschaltbar.

Und kleinlich bist du jetzt auch mit in DirectX erweitert und integriert. Fakt ist es kommt mit DirectX

Microsoft hat auf der GDC 2018 in San Francisco angekündigt, die Technologie künftig in seine Schnittstelle DirectX 12 zu integrieren
https://www.golem.de/news/raytracing-directx-geht-ein-lichtstrahl-auf-1803-133385.html


Möglich ist das wie erwähnt durch die DXR API innerhalb DX12, die die insgesamt 2560 Tensor Cores zur Hardware-Beschleunigung direkt ansprechen kann.
https://blog.notebooksbilliger.de/direct-x-12-mit-raytracing-zu-fotorealistischer-grafik/

Locuza
2018-04-19, 22:10:49
Es werden keine Tensor-Cores für RTX verwendet. Tensor-Cores werden für den AI-Denoiser benutzt.
RTX läuft aber (bisher?) nur auf Volta GPUs und Forbes hat mal folgendes geschrieben:
Nvidia noted today that, along with support for Microsoft DXR, the company’s RTX technology will enable real-time ray tracing in games utilizing its new Volta GPU architecture, that also has dedicated hardware on board to offload ray tracing workloads. Nvidia noted that RTX will also utilize the Tensor cores on board Volta for ray tracing, though these compute engines are typically utilized for machine learning applications.
Nvidia noted today that, along with support for Microsoft DXR, the company’s RTX technology will enable real-time ray tracing in games utilizing its new Volta GPU architecture, that also has dedicated hardware on board to offload ray tracing workloads. Nvidia noted that RTX will also utilize the Tensor cores on board Volta for ray tracing, though these compute engines are typically utilized for machine learning applications.

Wenn der AI-Denoiser Teil vom Paket ist, dann wäre es weiterhin richtig.

Bei der relativ dürren Informationslage ist es als Außenstehender nicht offensichtlich, was RTX genau anbietet und was potentiell durch Tensor-Cores beschleunigt werden kann.

Und wieder so ein defiziler Beitrag von Dir. Bei the Witcher 3 wird das ganze Grünzeug mit Gameworks modelliert. Wenn du das ausstellst sieht die Welt einfach nur bescheiden aus. Das ist bei mir schon eingroßer Eingriff ins Spiel und Spart viel Geld für die Entwickler die sich um Vegetation (was wohl 90% des Spielestrings ausmacht) sich nicht groß zu kümmern brauchen.

Und kleinlich bist du jetzt auch mit in DirectX erweitert und integriert. Fakt ist es kommt mit DirectX
Du meinst FF15 mit Turf-Effects.
Das Spiel hat Standard-Gras was die Entwickler selber entwickelt haben.
Das gibt es auf den Konsolen PS4(Pro) und Xbox One (X), wo das Spiel eben zuerst erschien, bis die Windows Version über ein Jahr später nachgeschoben wurde und das gleiche Gras vom Entwickler anbietet.
Turf-Effects ersetzt das Gras optional stattdessen mit einer tessellierten Variante.
Wenn die Welt ohne Turf-Effects nur bescheiden aussieht, dann???
Die zusätzliche Middleware soll dafür sorgen, dass Dinge schöner aussehen, wenn dir dann die Performance unter verschiedener Hardware nicht passt, dann keine Ahnung.
Schreib dem Entwickler das es nächstes mal selber besseres Gras entwickeln soll oder GameWorks nicht verwendet, damit niemand die Option hat besseres Gras zu erleben.

Laut Computerbase hat Turf-Effects 22% Performance bei einer Vega64 gekostet, bei einer 1080 GTX sind wesentlich geringere 14%:
https://www.computerbase.de/2018-03/final-fantasy-xv-benchmark-test/2/#abschnitt_nvidia_gameworks_im_detail

Bezüglich DXR bin ich nicht kleinlich, weil deine Ausführung keinen Sinn ergeben hat.
Denn Tensor-Cores sind kein offizieller Bestandteil von DXR und wurden dort auch nicht integriert, sie werden maximal von Nvidia für die API verwendet.
Jeder Hersteller kann nun DXR in der Hardware so umsetzen, wie es für ihn Sinn ergibt.

Digidi
2018-04-19, 22:14:40
Doch Tensor Cores würden Integriert. Besser gesagt wurden Befehle in die ApI integriert die Tensor Cores zur ausführung nutzen. Sonst macht das doch keinen Sinn! Deshalb macht man doch die API Erweiterung um neue Hardware nutzen zu können.

Nicht von FF15 reden wir waren bei Witcher. Da hast du die Wahl gar kein Gras oder Gameworks Gras.

robbitop
2018-04-19, 22:24:59
Mindesten eine GPU von Turing wird Tensor-Cores haben. Das hat nVidia schon angekündigt.

Quelle? Für explizit „Turing“ habe ich noch nirgends von offizieller Stelle gelesen.

@tensor cores

Das ist doch nur eine alu, die matritzen in einem Takt berechnen kann. Das muss nicht durch die 3d Schnittstelle implementiert sein. Das macht der Treiber in Zusammenarbeit mit dem Shadercompiler. Die Anwendung (welche aber auch über SIMD ALUs laufen kann) wurde implementiert.

Locuza
2018-04-19, 22:34:47
Doch Tensor Cores würden Integriert. Besser gesagt wurden Befehle in die ApI integriert die Tensor Cores zur ausführung nutzen. Sonst macht das doch keinen Sinn! Deshalb macht man doch die API Erweiterung um neue Hardware nutzen zu können.

Nicht von FF15 reden wir waren bei Witcher. Da hast du die Wahl gar kein Gras oder Gameworks Gras.
Nein, es wurden allgemeine Methoden in die API integriert, welche durch spezifische Hardware dafür beschleunigt werden können.
Nvidias hardware spezifische Umsetzung bzw. Tensor-Cores sind nicht der Standard von DXR.

Als Beispiel hilft vielleicht Tessellation.
Tessellation hat die DX11 API um drei Schritte erweitert, um einen Hull-Shader, die Tessellation-Stage und den Domain-Shader.
Anhand der Spezifikation ergibt es Sinn für die Tessellation-Stage Fixed-Function-Hardware zu implementieren und die Ausführung zu beschleunigen, während die programmierbaren Hull/Domain-Shader vom Shader-Array umgesetzt werden.
Das muss der Hardwarehersteller so aber nicht umsetzen, ARM hat damals die Tessellation-Stage auch über Shader umgesetzt, um das Feature zu unterstützen und nicht zusätzliche Fixed-Function-Hardware dafür zu verbauen, läuft dann halt langsamer, unterstützt das Zeug aber dennoch.

Und TW3 besitzt kein GameWorks-Modul für Gras.
Es besitzt CPU-PhysX (wie die meisten Spiele), Hairworks für Geralts Haare, sein Pferd, ein paar Monster, HBAO+ als zusätzliche Verschattungsmöglichkeit und nicht mehr.

scully1234
2018-04-19, 22:50:23
Quelle? Für explizit „Turing“ habe ich noch nirgends von offizieller Stelle gelesen.


Ich würde schon davon ausgehen das die Nachfolger "Titan T" schon das Featureset vorweisen kann womit sie jetzt bei Titan V vorgelegt haben, sonst macht solche Vermarktung mit Metro @Raytracing doch null Sinn,wenn es dann nur eine 3000 Euro teure Volta Karte gibt,die das ausfahren kann.

Ich würde angesichts des angekündigten Spieles,sogar davon ausgehen das sogar die kleineren Chips,wie GT104 damit aufwarten können, um auch eine genügend große Userbasis zu haben, die auf das Spiel anspringt

Troyan
2018-04-19, 22:52:44
Affenjack hat die "Pegasus" Folie gepostet: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11659296&postcount=437

Klar ersichtlich, dass GDDR6 und Tensor-Cores für mindesten eine GPU kommen werden.

RTX läuft aber (bisher?) nur auf Volta GPUs und Forbes hat mal folgendes geschrieben:

Wenn der AI-Denoiser Teil vom Paket ist, dann wäre es weiterhin richtig.

Bei der relativ dürren Informationslage ist es als Außenstehender nicht offensichtlich, was RTX genau anbietet und was potentiell durch Tensor-Cores beschleunigt werden kann.

Volta hat spezielle Anpassungen für die API - neue Shader-Stages, Speicherung der Informationen etc: https://devblogs.nvidia.com/introduction-nvidia-rtx-directx-raytracing/

TheGood
2018-04-19, 22:57:49
Bei der relativ dürren Informationslage ist es als Außenstehender nicht offensichtlich, was RTX genau anbietet und was potentiell durch Tensor-Cores beschleunigt werden kann.


Spannend, was ist dann der Grund es jetzt schon in den Himmel lobend zum Retter der Grafik auszusprechen? Weils cool und sexy ist? Das ist doch die Kritik die digidi ausspricht.

Es ist gut dass die Dinger irgendwas am Raytracing beschleunigen, aber bis wir rausfinden was es wirklich bringt, vergehen noch 2 Jahre, mindestens.

TheGood
2018-04-19, 22:59:23
Ich würde schon davon ausgehen das die Nachfolger "Titan T" schon das Featureset vorweisen kann womit sie jetzt bei Titan V vorgelegt haben, sonst macht solche Vermarktung mit Metro @Raytracing doch null Sinn,wenn es dann nur eine 3000 Euro teure Volta Karte gibt,die das ausfahren kann.

Ich würde angesichts des angekündigten Spieles,sogar davon ausgehen das sogar die kleineren Chips,wie GT104 damit aufwarten können, um auch eine genügend große Userbasis zu haben, die auf das Spiel anspringt

Der Punkt hier ist doch eher, dass das gezeigte Video von der Qualität schlechter war als was Crytek in "The Hunt" anbietet ohne raytracing... das einzige was in dem Video überzeugt hat waren die Schatteneffekte von den Blättern, welche durch das Fesnter gescheint haben. Im Gesamtbild war das Video aber bei weitem nicht state of the art.

scully1234
2018-04-19, 23:02:53
ach und du kennst natürlich schon die Qualität des Endprodukts, auf Basis eines geposteten Videos mit Beta Footage?

Hellseherische Fähigkeiten waren leider zu dem Zeitpunkt aus sorry

Digidi
2018-04-19, 23:13:36
Nein, es wurden allgemeine Methoden in die API integriert, welche durch spezifische Hardware dafür beschleunigt werden können.
Nvidias hardware spezifische Umsetzung bzw. Tensor-Cores sind nicht der Standard von DXR.

Als Beispiel hilft vielleicht Tessellation.
Tessellation hat die DX11 API um drei Schritte erweitert, um einen Hull-Shader, die Tessellation-Stage und den Domain-Shader.
Anhand der Spezifikation ergibt es Sinn für die Tessellation-Stage Fixed-Function-Hardware zu implementieren und die Ausführung zu beschleunigen, während die programmierbaren Hull/Domain-Shader vom Shader-Array umgesetzt werden.
Das muss der Hardwarehersteller so aber nicht umsetzen, ARM hat damals die Tessellation-Stage auch über Shader umgesetzt, um das Feature zu unterstützen und nicht zusätzliche Fixed-Function-Hardware dafür zu verbauen, läuft dann halt langsamer, unterstützt das Zeug aber dennoch.

Und TW3 besitzt kein GameWorks-Modul für Gras.
Es besitzt CPU-PhysX (wie die meisten Spiele), Hairworks für Geralts Haare, sein Pferd, ein paar Monster, HBAO+ als zusätzliche Verschattungsmöglichkeit und nicht mehr.

Hier Lief es aber anderster Rum Nvidia hatte die Hardware zur Darstellung eines Effekt für den es aber noch keine Schnittstelle gibt, deshalb wurde die Erweiterung eingefügt. Deshalb kann man auch grob sagen das Tensor Cores hinzugefügt wurden. Tensor Cores sind Recheneinheit die bestimmte Beechnungen ausführen um den Effekt darstellen zu können, die brauchen also für die spezielle Berechnung eine spezielle Schnitstelle, deshalb die Erweiterung.

Manchmal sind die Effektdesigner von Microsoft schneller manchmal die Hardwarehersteller mit neuen Effekten also wird die API dann auf die Hardware angepasst oder umgedreht. Natürich muss das redundant sein, es kommt auch oft vor das Hardwarehersteller einen Effekt nutzen möchten sie aber die Hardware nicht haben, aber sie können es über meist die normalen Shader simulieren, da diese Elementaren Rechenoperationen beherrschen

Anderster Gesagt Nvidia hat eine Mathematische Methode gefunden Ray Tracing zu realisieren, hierzu nutzen sie Tensor Cores welche die Mathematische Operation ausführt. Diese Methode mit den Tensor Cores muss in die APi integriert werden. Das ist eben nicht so losgelöst wie du schreibst. Um eine Mathematische Operation ausführen zu können muss die Hardware das auch können und umgedreht braucht die Hardware erst Mal passende Befehle mit der Sie was anfangen kann.

Mit Unifide Shader hat man Gluck das Sie Recht universell sind und sie auch andere Rechenarten simulieren können das gilt aber noch lange nicht für jeden Effekt. Beispiele hier sind AMDs Primitive Shaders, die gibt es in Hardware und brauchen auch eine API Erweiterung um die spezielle Mathematische Funktion nutzen kannst. Jedoch kannst du das Culling auch über die Unifide Shader ausführen ;)

Locuza
2018-04-19, 23:46:53
[...]
Volta hat spezielle Anpassungen für die API - neue Shader-Stages, Speicherung der Informationen etc: https://devblogs.nvidia.com/introduction-nvidia-rtx-directx-raytracing/
Die neuen Shader-Typen sind Bestandteil der DXR-API und gelten für jede Hardware.
Wie die Methoden von der Hardware ausgeführt werden und welche Anpassungen für die Hardware möglich bzw. notwendig sind, dass ist die interessante Frage.

Spannend, was ist dann der Grund es jetzt schon in den Himmel lobend zum Retter der Grafik auszusprechen? Weils cool und sexy ist? Das ist doch die Kritik die digidi ausspricht.

Es ist gut dass die Dinger irgendwas am Raytracing beschleunigen, aber bis wir rausfinden was es wirklich bringt, vergehen noch 2 Jahre, mindestens.
Man muss es nicht zum Retter der Grafik aussprechen, aber inwiefern ist die gegenteilige Behauptung besser, dass Nvidia nur einen Bedarf suggeriert, obwohl es niemand braucht, wenn man es "gescheit" machen würde?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11676239#post11676239

Objektivität würde sich vermutlich eher zwischen den beiden Extremen einstellen, oder?

[...] Diese Methode mit den Tensor Cores muss in die APi integriert werden. Das ist eben nicht so losgelöst wie du schreibst. Um eine Mathematische Operation ausführen zu können muss die Hardware das auch können und umgedreht braucht die Hardware erst Mal passende Befehle mit der Sie was anfangen kann.
[...]
Okay ich gehe da jetzt mal mit, DXR spezifiziert Methoden für welche sich Tensor-Cores anbieten und verwendet werden können.
Was ist jetzt genau das Problem, dass spezifische Hardwareanpassungen für schnelleres Raytracing umgesetzt werden und APIs programmiertechnisch klarer definiert?
Bezogen auf den Ursprung deiner Aussage scheint es etwas zu sein, was niemand braucht?

gravitationsfeld
2018-04-20, 00:35:36
Derzeitige Volta-Karten haben jedenfalls keine spezielle Raytracing-Hardware, nur Tensor-Cores fuer das Denoising.

BoMbY
2018-04-20, 01:12:40
War der Plan von NVidia nicht angeblich die Gaming und AI (HPC) Produkte zu diversifizieren? Es dürfte wahrscheinlich sein, dass die neuen Compute/AI-Features den teuren Karten (Quadro/Tesla, etc.) vorbehalten werden, oder das diese auf Gaming-Karten massiv beschnitten werden, weil man für Premium-Features Premium-Kohle sehen möchte.

Rampage 2
2018-04-20, 03:54:04
Also wie Edgecrusher86 schon schreibt, 448TCs bei GT104, wenn es 3584 Shader werden.

Und wie soll man dann einen GT104 in 400-430 mm^2 reinquetschen, wenn zu den 3584 SPs noch 448 TCs hinzukommen!?

Hätte der GP102 Vollausbau (TXp) nur 3584 statt 3840 SPs, dann wäre er rein rechnerisch ~ 440 mm^2 groß - das Ganze dann in 12nm und man landet bei 400-420 mm^2.

Ein GT104 mit 3584 Shadern @ 12nm könnte also 400-430 mm^2 groß werden - wenn dann aber Tensor-Cores dazukommen, dann kriegt man das Ding nicht unter 450 mm^2, vielleicht sogar etwas darüber!

R2

reaperrr
2018-04-20, 05:44:00
Und wie soll man dann einen GT104 in 400-430 mm^2 reinquetschen, wenn zu den 3584 SPs noch 448 TCs hinzukommen!?

Hätte der GP102 Vollausbau (TXp) nur 3584 statt 3840 SPs, dann wäre er rein rechnerisch ~ 440 mm^2 groß - das Ganze dann in 12nm und man landet bei 400-420 mm^2.

Ein GT104 mit 3584 Shadern @ 12nm könnte also 400-430 mm^2 groß werden - wenn dann aber Tensor-Cores dazukommen, dann kriegt man das Ding nicht unter 450 mm^2, vielleicht sogar etwas darüber!

R2

Wissen wir denn überhaupt, wie groß diese TensorCores sind?

GV100 ist jedenfalls trotz 40% mehr ShaderModulen + TensorCores und +50% L2-Cache in 12nm nur ~34% größer als GP100.

Außerdem fallen beim GT104 gegenüber GP102 ja auch 32 ROPs und 128bit SI weg, das allein sollte schon ca. 40mm² einsparen, zusätzlich zu den 2 SM weniger und den Einsparungen durch 12nm.

Troyan
2018-04-20, 08:49:21
Die neuen Shader-Typen sind Bestandteil der DXR-API und gelten für jede Hardware.
Wie die Methoden von der Hardware ausgeführt werden und welche Anpassungen für die Hardware möglich bzw. notwendig sind, dass ist die interessante Frage.

Nein. Die neuen Shader-Typen werden zur Zeit nur von Volta unterstützt. Der Rest läuft über den Kompartibilitätsmodus.

HOT
2018-04-20, 09:21:13
Affenjack hat die "Pegasus" Folie gepostet: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11659296&postcount=437

Klar ersichtlich, dass GDDR6 und Tensor-Cores für mindesten eine GPU kommen werden.



Volta hat spezielle Anpassungen für die API - neue Shader-Stages, Speicherung der Informationen etc: https://devblogs.nvidia.com/introduction-nvidia-rtx-directx-raytracing/
Da ist gar nix klar ersichtlich. Weder das Eine noch das Andere.
Nur weil Volta die Tensorcores für RT genutzt hat, bekommt nicht Turing Tensorcores. Ich würd eher darauf tippen, dass Turings RT-Support sehr viel effizienter umgesetzt wurde als bruteforce. Und man kann, wenn man entsprechende Verträge hat, auch erst mal auf GDDR5X setzen, denn die wird es in entsprechender Leistungsklasse ja ebenfalls geben. Zudem gab es dahingehend ja auch Gerüchte.


Und bei Witcher 3 hat man vorab viel mit dem GW-Krempel experimentiert und sich rundheraus dagegen entschieden. Davon ist nur HBAO+ (was ziemliches Allgemeingut ist mittlerweile) und Hairworks (damit man überhaupt was NV-mäßiges hat, denn HW ist scheisse) übriggeblieben. Kein Wasser, keine Vegetation, nichts.
Das einzige Spiel was ich kenne, was großflächig GW einsetzt ist FF15 und da hat man GW dafür benutzt, die PC-Grafik ggü. der Konsolenvariante aufzumöbeln - warum sich auch extra Arbeit machen. Das Ergebnis ist - naja - in erster Linie ressourcenmordend.

Locuza
2018-04-20, 09:31:14
@ Troyan

Zurzeit ist das Stichwort, denn es ist nicht offenkundig was einfach nur am fehlenden Software-Support liegt und welche Hardware-Änderungen je nach Hersteller, wo genau notwendig sind.

HOT
2018-04-20, 09:36:13
Ich würd auch mal darauf tippen, dass 3,5k Shader mit Tensor-Cores nicht in 400mm², auch nicht in 12nm, realisierbar sind.

Hübie
2018-04-20, 09:55:22
Vielleicht nicht 400, aber 430 mm² könnte klappen. Keine Ahnung wie ausladend ein GDDR6 Interface ist.

Edgecrusher86
2018-04-20, 10:49:10
Der Big Chip dürfte bei den spekulierten 430mm² für den Performance-Chip dann grob 650mm² groß werden, zumindest wenn man 5120/5376 SPs verwendet. Bei 4608 SPs max. kann man wohl grob 100mm² davon abziehen. Aber da dieser Chip bei ähnlichen Taktraten nur um die 20% vor einem GT104 liegen würde, wäre es wohl effizienter, mehr Einheiten mit weniger Takt zu kombinieren. Bis jetzt kam es ja quasi immer 1:1 hin, dass der große Chip auch entsprechend seinem Einheitenplus an Fläche drauf gepackt hat (siehe z.B. GK110 zu 104, GM200 zu 204 und auch GP102 zu 104). Vermutlich dürfte GDDR6 in ähnlichen Bereichen liegen wie 5X. Jedenfalls würde es ja zu den Gerüchten passen, dass die Karten teurer werden (große Fläche, voraussichtlich im NV exklusiven TSMC "12FF-Prozess" und GDDR6). ;)

HOT
2018-04-20, 14:20:51
Jetzt geht die Träumerei wieder los :freak:

Hübie
2018-04-20, 15:26:08
42*128 SPs würde bei irgendwas über 700 mm² herauskommen. Not gonna happen.

gravitationsfeld
2018-04-20, 16:18:20
Nein. Die neuen Shader-Typen werden zur Zeit nur von Volta unterstützt. Der Rest läuft über den Kompartibilitätsmodus.
Derzeitige Volta-Karten haben keine "neuen Shader-Typen". Sie haben Tensor-Cores und das war's. Das Raytracing vor dem Denoising ist vollstaendig Software, auch auf der Titan V.

Dural
2018-04-20, 16:29:15
Die GeForce Ableger werden ziemlich sicher Tensor-Cores haben, was anders würde mich überraschen. Hat NV von mir ausgesehen ja auch schon fast bestätigt: "Hardware Unterstützung ab Volta und neuer"

Und was an 3500SP in rund 400mm von träumen zu tun hat soll mir mal einer erklären. Ausgehend von GV100 dürfte das sogar ziemlich gut passen.

Hübie
2018-04-20, 16:42:50
Fermi und Kepler waren um die 300, Maxwell und Pascal um die 400 mm ². Ein Flächenanstieg auf ~430 mm² würde also keinen Aktionär abschrecken, weil die Kosten durch die Decke schießen. :uponder:

HOT meinte aber wohl eher die proklamierten 5000+ SPs. ;)

HOT
2018-04-20, 17:10:48
Ich geh mal schon davon aus, dass wir 3,5k shader sehen werden auf knapp 400mm² mit 256Bit SI auf 12nm.

Edgecrusher86
2018-04-20, 17:19:52
Wenn man zum Beispiel $999 und $1500 MSRP für Ti und TITAN ansetzt, wäre es sicher nicht tragisch, GPUs mit deutlich über 600mm2 zu veröffentlichen. 48 SM wäre natürlich schön, aber davon sprach niemand. 42 dürfte das absolute Maximum für eine zweite TITAN darstellen. Im ersten Fall vermute ich einen Status Quo zur V.

Es wäre doch ziemlich schlecht für das Marketing den "102" Chip so klein zu machen, dass dieser nur 10-20% über 104 landet, wenn wir bei Pascal 30-40% Differenz in 4K im Schnitt sehen.

Rampage 2
2018-04-20, 17:29:26
Wissen wir denn überhaupt, wie groß diese TensorCores sind?

GV100 ist jedenfalls trotz 40% mehr ShaderModulen + TensorCores und +50% L2-Cache in 12nm nur ~34% größer als GP100.


Richtig, und der GP100 ist schon 610 mm^2 groß, trotz nur 3584 bzw. 3840 Recheneinheiten...

Wir sprechen hier von GP102 und der hat nur 471 mm^2 bei ebenfalls 3840 SPs - und hier zeigt sich auch deutlich, welchen Einfluss zusätzlicher Kram (FP64, TCs, etc.) auf den Flächenbedarf haben kann... immerhin ist GP100 trotz gleicher Zahl an Ausführungseinheiten (96/240/3840 ROPs/TMUs/SPs) und flächensparendem HBM2-Speicher ganze 30% größer als GP102!

Auch ohne TCs (und anderem Kram) wäre es schon eine beachtliche Leistung, wenn man einen GT104 mit 40% Plus überall (SPs und auch ROPs und TMUs) auf ~ 400 mm^2 bekommt...

48 SM wäre natürlich schön, aber davon sprach niemand.


Dann wären das 32 SM (= 4096 SPs) beim GT104. Im optimalsten Fall würde man das auf +- 450 mm^2 quetschen können (@12nm). Ein GT102 würde dann auf +- 675mm^2 kommen - hier stellt sich dann die zentrale Frage, wieviel Chipfläche Nvidia für Consumerprodukte zumuten kann?

Leo hatte mal irgendwas von 700 mm^2 als das absolut mögliche Maximum angegeben...

R2

Troyan
2018-04-20, 17:49:19
GP104 hat die doppelten Ausführungseinheiten gegenüber GP106 und hat leicht weniger als 60% an Fläche zugenommen. Den größten Platzbedarf haben die Speichercontroller und der L2-Cache. Bei gleichbleibenen oder sogar reduzierten Speichercontrollern, kann nVidia den zusätzlichen Flächenbedarf für Ausführungseinheiten aufbringen.

scully1234
2018-04-20, 21:29:51
Derzeitige Volta-Karten haben jedenfalls keine spezielle Raytracing-Hardware, nur Tensor-Cores fuer das Denoising.


Hälst du es für möglich, das man hier nochmal den Hebel beim Platzbedarf/Optimierung auf dem Chip ansetzen kann,und angepasste Units speziell nur für diesen Zweck hin verbaut, auf den reinen Gamingkarten, die dann halt nicht mehr so flexibel sind für andere Szenarien die Volta noch abdecken kann?

Kriton
2018-04-20, 21:35:42
ach und du kennst natürlich schon die Qualität des Endprodukts, auf Basis eines geposteten Videos mit Beta Footage?

Hellseherische Fähigkeiten waren leider zu dem Zeitpunkt aus sorry

Er hat verglichen, was aktuell verfügbar ist. Nur weil Dir das Ergebnis nicht passt, musst Du nicht persönlich werden. Und wenn man dann noch bedenkt, dass Dein ganzer vorheriger Post, den er zitiert nur Annahmen bzgl. der Zukunft beinhalten wird es schon grotesk in der "Kritik".

scully1234
2018-04-20, 21:40:52
Er hat verglichen, was aktuell verfügbar ist. Nur weil Dir das Ergebnis nicht passt, musst Du nicht persönlich werden. Und wenn man dann noch bedenkt, dass Dein ganzer vorheriger Post, den er zitiert nur Annahmen bzgl. der Zukunft beinhalten wird es schon grotesk in der "Kritik".


Wenn du mir den Part bitte zeigst ,wo hier was persönlich war, dann bekommst du ein Eis mit Schokodrops

Grotesk ,werden nur langsam solche albernen Blutgrätschen ,von einigen hier, nicht mehr!


Das was die Demo vorführen wollte in Bezug auf Raytracing (die verbesserte/natürlichere Verschattung)hat sie auch geliefert, und alles andere ist "Schnee von Morgen",den man bewerten kann wenn das Game final ist!

Denn grotesker Weiße werden hier schon Standards verlangt, die ein fertiges Spiel wie Hunt liefert, was sich bereits auf der Zielgeraden befindet, und schon seine ersten Käufer hat

Ansonsten gibts hier gute Werkzeuge abseits des zu Grunde liegenden Kontent, um mangelnden Input auszugleichen, oder auch nicht...

https://www.google.de/search?q=Hellseher+Glaskugel&source=lnms&tbm=isch&sa=X&ved=0ahUKEwjww4-00MnaAhVKNxQKHXT6Aw0Q_AUICygC&biw=1916&bih=952

Kriton
2018-04-20, 22:00:16
"Hellseherische Fähigkeiten" war natürlich ein voll sachliches Argument im Kontext der Diskussion. Und wenn etwas veröffentlicht wird, kann man doch auf dieser Basis argumentieren. Es ist ja durchaus legitim, wenn Du darauf verweist, dass sich das noch ändern (besser werden) kann. Aber so zu tun, als wäre es illegitim die Demo heranzuziehen, weil es sich ja ändern könnte, während man in einem Post davor noch maximal Zukunftsannahmen trifft, das ist Hybris.

scully1234
2018-04-20, 22:14:59
"Hellseherische Fähigkeiten" war natürlich ein voll sachliches Argument im Kontext der Diskussion. .

Bezogen auf das was dort stand sehr wohl ,die passende Definition für das was an Skill nötig wäre ,um solche Kritik zu rechtfertigen !

Dennoch war es nicht das auf was du es gerne hinlenken möchtest ,mit deinem oben getätigten Post

EOD

N0rG
2018-04-20, 22:26:19
Wie viel Fläche nimmt eigentlich das ganze drum herum eines Chips ein? Also das Speicherinterface etc.
Und wie viel größer ist beispielsweise ein 256bit interface im Vergleich zu einem 128bit Interface? Kann man da sagen doppelt so breit = doppelt so groß?

scully1234
2018-04-20, 22:47:13
Und wie viel größer ist beispielsweise ein 256bit interface im Vergleich zu einem 128bit Interface? Kann man da sagen doppelt so breit = doppelt so groß?

würde ich von ausgehen das physisch auch der doppelte Aufwand betrieben werden muss bei der Anbindung

Schau dir doch nur mal die Verdrahtung von x8x16 Pcie an im Grafikkartenslot

N0rG
2018-04-20, 23:28:29
Das ist halt die Frage. Benötigt man für einen Speichercontroller beispielsweise 10mm² für die "Verwaltung" (oder was auch immer) und für 128bit dann nochmal 10mm²? Dann hätte ein 128bit Interface 20mm² und ein 256bit Interface 30mm², oder geht das linear mit der Breite hoch?

Wie groß wären GP102, GP104 und GP106 mit jeweils 0 SP? Damit könnte mann dann ganz gut die Größe kommender Chips abschätzen denk ich.

AffenJack
2018-04-20, 23:37:42
Hälst du es für möglich, das man hier nochmal den Hebel beim Platzbedarf/Optimierung auf dem Chip ansetzen kann,und angepasste Units speziell nur für diesen Zweck hin verbaut, auf den reinen Gamingkarten, die dann halt nicht mehr so flexibel sind für andere Szenarien die Volta noch abdecken kann?

Turing wird wohl Tensor Cores mit niedrigerer Genauigkeit haben, als V100. V100 rechnet mit FP16 Multiply und FP32 Akkumulation. Damit sind die Tensor Cores von V100 auch für Training geeignet. Turing wird wohl INT8 Tensor Cores kriegen, die nur für Inference geeignet sind. Das ist wohl schon bei Xavier der Fall. Bei DP hieß es immer doppelte Genauigkeit kostet mehr als die doppelten Transistoren, dementsprechend sollten dei Turing Tensor Cores weniger als halb so groß sein, wie die von V100. Aber ich weiß nicht, wie nun der Unterschied von FP zu INT Einheiten ist.

reaperrr
2018-04-21, 00:04:09
Das ist halt die Frage. Benötigt man für einen Speichercontroller beispielsweise 10mm² für die "Verwaltung" (oder was auch immer) und für 128bit dann nochmal 10mm²? Dann hätte ein 128bit Interface 20mm² und ein 256bit Interface 30mm², oder geht das linear mit der Breite hoch?
Wieviel der Speichercontroller braucht weiß ich nicht, aber der Flächenbedarf für ein 128bit Interface lag sowohl bei AMD als auch Nvidia die letzten Jahre ca. im Bereich von 25-28mm². Lediglich das SI von Tahiti und Bonaire war aufgrund von starker Taktoptimierung noch wesentlich größer (über 40mm² je 128bit).

Der Flächenbedarf von Speicherinterfaces sinkt aus physikalischen Gründen auch kaum bis gar nicht mit kleineren Fertigungsstrukturen, braucht in 12nm und wahrscheinlich selbst 7nm also noch quasi genauso viel Platz wie in 16/14nm.

gravitationsfeld
2018-04-21, 06:22:12
würde ich von ausgehen das physisch auch der doppelte Aufwand betrieben werden muss bei der Anbindung

Schau dir doch nur mal die Verdrahtung von x8x16 Pcie an im Grafikkartenslot
Das Speicherinterface an sich ist doppelt so gross, aber die interne Anbindung an den den Rest vom Chip skaliert nicht linear, sondern eher quadratisch.

scully1234
2018-04-21, 10:26:04
dementsprechend sollten dei Turing Tensor Cores weniger als halb so groß sein, wie die von V100. Aber ich weiß nicht, wie nun der Unterschied von FP zu INT Einheiten ist.

Danke ,also hätte man hier noch einen variablen Spielraum, wenn auch die Units selber auf dem Chip eher den kleinsten Part bekleiden


Das Speicherinterface an sich ist doppelt so gross, aber die interne Anbindung an den den Rest vom Chip skaliert nicht linear, sondern eher quadratisch.

Ok da kommt also noch ein Rattenschwanz hinzu der vom Platzbedarf nicht so direkt beziffert werden kann

Hübie
2018-04-21, 21:52:35
Nein. Das OCN geht eher in die Tiefe. Die großen Chips haben grundsätzlich mehr Lagen. Ich glaube es waren 13 bei GK110.

gravitationsfeld
2018-04-22, 01:05:20
Die zusaetzliche Komplexitaet ist nicht nur in der Verdrahtung.

Digidi
2018-04-22, 02:40:07
Könnte es sein das man bei GT102 dann HBM einsetzt weil es sonst zu komplex wird?

reaperrr
2018-04-22, 05:50:16
Könnte es sein das man bei GT102 dann HBM einsetzt weil es sonst zu komplex wird?
Warum? Bei gleichbleibender Interface-Breite mit GDDR6 @ 16Gbps @ wären doch immerhin ~45% mehr Speicherbandbreite möglich ggü. GP102, das sollte auf jeden Fall für 5376 SP reichen.

Ich glaube, dass sich an den Interface-Breiten im jeweiligen Performance-Segment nichts tun wird, also GT102 384 bit, GT104 256bit, GT106 192bit, GT107 128bit.

fulgore1101
2018-04-23, 16:04:25
Steht in nächster Zeit eine Messe, ein Event oder ähnliches an, auf dem Nvidia vielleicht ein paar Fakten
preisgeben könnte?

Troyan
2018-04-23, 16:13:01
Computex ist ende Mai. Man sollte aber nicht davon ausgehen.

Quartalsergebnis wird in der zweiten Mai-Woche veröffentlicht werden. Dort könnte man eventuell einige Aussagen erwarten.

Man sollte aber von September ausgehen.

Adam D.
2018-04-23, 17:14:33
Computex ist ende Mai. Man sollte aber nicht davon ausgehen.

Quartalsergebnis wird in der zweiten Mai-Woche veröffentlicht werden. Dort könnte man eventuell einige Aussagen erwarten.

Man sollte aber von September ausgehen.
Wenn Igor recht behält und Turing am 15.6. in Massenproduktion geht, wird a) hinter verschlossenen Türen auf der Computex bestimmt was gezeigt und b) die Karten früher als September gelauncht.

Troyan
2018-04-23, 17:17:22
Na, Massenproduktion im Juni bedeutet, dass frühsten im August genug Karten produziert werden können. Das ist Release im September. nVidia benötigt knapp 3 Monate vom Tape-Out bis Veröffentlichung.

Ravenhearth
2018-04-23, 17:23:04
Na, Massenproduktion im Juni bedeutet, dass frühsten im August genug Karten produziert werden können. Das ist Release im September. nVidia benötigt knapp 3 Monate vom Tape-Out bis Veröffentlichung.
Produktionsstart ist nicht Tape-Out

Hübie
2018-04-23, 19:07:01
Iirc sagte Igor Juni startet die MP, nicht das es da nen tapeout gibt (was man eh nicht so genau im Voraus sagen könnte).

Rampage 2
2018-04-25, 12:19:15
Iirc sagte Igor Juni startet die MP, nicht das es da nen tapeout gibt (was man eh nicht so genau im Voraus sagen könnte).

Wann kann man denn mit genaueren Infos oder Leaks zu Turing rechnen? Etwa im Mai? Sind danach ja nur noch 1-2 Monate zum Launch...

R2

Adam D.
2018-04-25, 13:16:35
Wann kann man denn mit genaueren Infos oder Leaks zu Turing rechnen? Etwa im Mai? Sind danach ja nur noch 1-2 Monate zum Launch...

R2
Wirklich brauchbare Leaks wird es hoffentlich zur Computex (5.6. - 9.6.) geben. Launch nach letzten Spekulationen irgendwann im August.

HPVD
2018-04-25, 13:33:58
Turing müsste dann ja auch die Basis für die kleineren Quadros also der Nachfolger der P1000-P6000 sein. Die sind ja auch schon teilweise 1,5+ Jahre auf dem Markt.

Habt ihr dazu schon was gehört? Details oder wann die vorgestellt werden?

Rampage 2
2018-04-25, 16:07:27
Wirklich brauchbare Leaks wird es hoffentlich zur Computex (5.6. - 9.6.) geben. Launch nach letzten Spekulationen irgendwann im August.

Ich dachte, die FE würde im Juli in den Handel kommen (Customs dann im August oder September) - so habe ich zumindest die letzten Meldungen dazu interpretiert? Wenn im Juli also der Verkaufsstart ist, dann muss die Vorstellung im Juni geschehen...

R2

AffenJack
2018-04-25, 16:12:04
Nö, die Produktion der Packages soll laut Igor im mitte Juni beginnen. Da wäre Verkaufsstart dann im August und wieso muss die Vorstellung 1 Monat früher sein? Nvidia hat das durchaus unterschiedlich gemacht in letzter Zeit. Die Vorstellung kann ne Woche früher sein z.b.

maximus_hertus
2018-04-25, 16:43:17
Die Zeiten von (echten) Leaks mit (großem) Zeitabstand zum Launch sind schon lange vorbei.

Imo könnte man auf der Computex ein mehr oder weniger klares Launch Zeitfenster erfahren (also z.B. Ende August zur Gamescom).

=Floi=
2018-04-25, 20:05:29
Die Zeiten von (echten) Leaks mit (großem) Zeitabstand zum Launch sind schon lange vorbei.


wirklich überraschendes kommt eh nicht.
40% mehr performance

N0rG
2018-04-25, 20:46:46
Interessant wird halt wie die ~40% zustande kommen. Sehr breiter Chip im Sweetspot bei etwa 180W oder nicht ganz so breiter Chip mit höherem Takt bei etwa 200W. Variante 1 wäre natürlich optimal, da dann noch ordentlich OC Potenzial da wäre. Bei Variante 2 wäre "GT104" mit OC vermutlich etwa genauso schnell wie GP102 mit OC.

Rampage 2
2018-04-25, 21:56:57
Interessant wird halt wie die ~40% zustande kommen. Sehr breiter Chip im Sweetspot bei etwa 180W oder nicht ganz so breiter Chip mit höherem Takt bei etwa 200W. Variante 1 wäre natürlich optimal, da dann noch ordentlich OC Potenzial da wäre. Bei Variante 2 wäre "GT104" mit OC vermutlich etwa genauso schnell wie GP102 mit OC.

Ich bin mir sicher, dass es deutlich mehr als 40% sein werden - man muss das Ganze ja immer in Relation zur 102er Vorgängergeneration sehen. TXp ist ca. 75% schneller als TXM.

Beim GT102 Topdog könnten es dann 60-75% zur TXp werden (40% mehr Einheiten, 10-20% (Mittelwert: 15%) durch Architekturverbesserungen und vielleicht auch nochmals 10% mehr durch höheren Takt: 1,4 x 1,15 = 1,61 (also +- 60%) und evtl. diese Zahl nochmal x 1,1 falls auch der Takt ca. 10% erhöht wird).

Also +60% zu GP102 würde ich definitiv erwarten und das ist auch gar nicht so unrealistisch...


Edit: bzgl. des ROP:TMU-Verhältnis von Turing würde ich mal einige Spekulationen wagen:

GT104 Variante 1: 64:224 ROPs/TMUs (ergibt ein ROP:TMU-Verhältnis von 1:3,5)

GT104 Variante 2: 96:224 ROPs/TMUs (ROP:TMU-Verhältnis von 1:2,333)

Beim GT102 dann diese Zahlen x 1,5...

IMO ist bei Variante 1 die Zahl der ROPs zu wenig; die TXp und 1080Ti haben 96 bzw. 88 ROPs - und GT104 wird ja gegen diese Karten antreten und der Chiptakt wird wohl nicht wesentlich höher sein als bei Pascal. Da könnte die niedrigere ROP-Anzahl zu einem Handicap werden...

R2

Digidi
2018-04-26, 00:07:47
Zwischen TXP und TXM liegt aber auch ein großer Sprung bei der Fertigung während bei GT10x nur ein kleiner Sprung in der Fertigung gemacht wird. Ich glaube nicht das GT102 in 7nm schon kommt. Im Ürbrigen hat Titan V die selbe Robanzahl und das selbe Frontendlayout wie Titan XP und kann sich trozdem steigern wegen den Shadern. Nvidia fehlt es an Shadern. Wenn dann gehen sie auf Shader und bohren vielleicht noch das Frontend auf denn hier ist auch falst Gleichstand was den Polygonendurchsatz zur Titan XP anbelangt.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Nvidias-Goldjunge-Titan-V-im-Test-1252002/

Rampage 2
2018-04-26, 00:22:19
Zwischen TXP und TXM liegt aber auch ein großer Sprung bei der Fertigung während bei GT10x nur ein kleiner Sprung in der Fertigung gemacht wird. Ich glaube nicht das GT102 in 7nm schon kommt .

16nm hat aber noch erheblich Luft nach oben, weil Nvidia diese Luft mit Pascal nur wenig erschlossen hat: BEVOR die Specs zu Pascal veröffentlicht wurden, hatte Leo von 3-4k Shadern für GP104 (also +50-100% zu GM204) bzw. 4-6k Shadern für GP102 spekuliert - am Ende legte GP104 bei der Zahl der Recheneinheiten nur um mickrige 25% ggü. GM204 zu (2560 vs. 2048 SPs für GP104 vs. GM204) und stattdessen wurde der Takt sehr stark erhöht, was leistungsmäßig am Ende auf das Gleiche hinauslief...

Dadurch bleiben bei 16nm noch eine Menge "Reserven" unerschlossen - die Nvidia jetzt für Turing ausgeben will. Vermutlich wurde für Pascal aus ebendiesem Grund so wenig spendiert - um Spielraum für die Nachfolge-Generation (Turing) zu haben und mit 16nm gleich 2 GPU-Generationen lang auskommen zu können. Wirklich sehr clever gemacht...

R2


http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Nvidias-Goldjunge-Titan-V-im-Test-1252002/

Ich kann den Artikel nicht lesen, weil ich zahlen muss...

Digidi
2018-04-26, 00:30:58
Das wird nicht kommen. Der Grund für die Geringen Shaderanzahlen von GP10x ist der hohe Takt. Die Stecken sehr viele Transistoren und freie Fläche darein den Takt zu halten. Der 16nm Prozess ist also schon ganz ausgereizt. Schau dir GV100 an. Riesen fläche und nur 5.120 Shader.

N0Thing
2018-04-26, 01:36:58
16nm hat aber noch erheblich Luft nach oben

Sicherlich nicht. Nvidia hat gemacht, was mit dem Prozess zu der Zeit sinnvoll war und da sind nicht extra Lücken gelassen worden, um Jahre später eventuell überraschen zu können. Dass ist einfach Humbug.

maximus_hertus
2018-04-26, 02:11:25
16nm hat aber noch erheblich Luft nach oben, weil Nvidia diese Luft mit Pascal nur wenig erschlossen hat: BEVOR die Specs zu Pascal veröffentlicht wurden, hatte Leo von 3-4k Shadern für GP104 (also +50-100% zu GM204) bzw. 4-6k Shadern für GP102 spekuliert - am Ende legte GP104 bei der Zahl der Recheneinheiten nur um mickrige 25% ggü. GM204 zu (2560 vs. 2048 SPs für GP104 vs. GM204) und stattdessen wurde der Takt sehr stark erhöht, was leistungsmäßig am Ende auf das Gleiche hinauslief...

Dadurch bleiben bei 16nm noch eine Menge "Reserven" unerschlossen - die Nvidia jetzt für Turing ausgeben will. Vermutlich wurde für Pascal aus ebendiesem Grund so wenig spendiert - um Spielraum für die Nachfolge-Generation (Turing) zu haben und mit 16nm gleich 2 GPU-Generationen lang auskommen zu können. Wirklich sehr clever gemacht...

R2

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Nvidias-Goldjunge-Titan-V-im-Test-1252002/

Ich kann den Artikel nicht lesen, weil ich zahlen muss...[/QUOTE]

Nein, da liegst du imo eher nicht richtig. Bei deinen Überlegungungen vergißt du den Speicher bzw. die Speicherbandbreite. Wenn man beim x04er bei 256 Bit bleiben will, ist die (sinnvolle) Rechenleistung von eben diesem Umstand begrenzt.

Aber wo siehst du die Menge Reserven für die 16nm Fertigung? Klar könnte man einfach einen GP102 nehmen und moderater takten, um bei <200W zu bleiben. Dann noch ein 256 Bit GDDR6 Interface. Aber der Siliziummehraufwand wäre zu hoch, die Kosten viel zu teuer. Falls AMD deutlich stärker wäre (in den letzten Jahren seit GCN) hätte nVidia jedoch die Möglichkeit gehabt auf Kosten der Marge etwas mehr Rechenkraft pro Chip zu verwirklichen. Aber Riesengroße Reserven gibt es da nicht.

Es hat ja seinen Grund, dass es eben keine weitere 16nm Generation gibt, sondern mindestens in 12nm, vielleicht sogar 10nm. Klar ist 12nm an sich 16nm, jedoch mit einigen deutlichen Verbesserungen.

robbitop
2018-04-26, 11:45:13
Das wird nicht kommen. Der Grund für die Geringen Shaderanzahlen von GP10x ist der hohe Takt. Die Stecken sehr viele Transistoren und freie Fläche darein den Takt zu halten. Der 16nm Prozess ist also schon ganz ausgereizt. Schau dir GV100 an. Riesen fläche und nur 5.120 Shader.
In GV100 stecken aber noch viele Dinge für HPC drin. GP100 ist ja auch sehr viel größer als GP102 bei gleicher SM Anzahl.

GP104: 315 mm²
GP102: 471 mm²

12nm bringt (wenn man GP100 auf GV100 die Transistordichte vergleicht ~5% höhere Transistordichte)

GP104 @ 12nm: 300 mm²
GP102 @ 12nm: 447 mm²

Zum Vergleich Maxwell:

GM104 398 mm²
GM102 601 mm²

Man hätte also, wenn man sich an Maxwell orientiert, noch ~32...34% mehr Fläche, bei der ökonomisch sinnvolle Produkte herauskommen. Also ist man keinesfalls an's Limit gegangen.

War mit Kepler -> Maxwell auch so. Man hat die Kepler GPUs gar nicht so groß gemacht und hatte im 2. Schritt im gleichen Prozess noch signifikante Steigerungsmöglichkeiten.


Baseline wären also ~33% mehr Leistung durch lineare Skalierung der Transistoren und ~5-10% mehr Takt. -> 42 % mehr Leistung.

Ich gehe davon aus, dass die mArch aber pro mm² mehr Leistung quetschen können wird, da moderner. Auch wenn man Tensor Cores (mit geringerer Präzision analog zu Xavier) verbauen wird.

Digidi
2018-04-26, 14:09:30
Ich bezog mich auf GP100 und GV100. Schau dir den Flächen und Shadersprung an der ist marginal. Nvidia kann nicht Dichter packen denn ansonsten verlieren zu Viel Takt. Gerade bei großen Chips wird es immer schwieriger die Wärme im Kern abzuführen.

Ich glaube nicht das Nvidia noch dichter packen kann.

robbitop
2018-04-26, 16:21:56
Stimmt die Packdichte bei GP100 und GV100 ist relativ ähnlich.
Grundsätzlich machen die kolportierten 5% den Braten aber auch nicht fett. Wären immernoch gut 28% mehr möglich ggü Maxwell. Ggf wird man halt ein paar Prozent größer als Maxwell...

Hübie
2018-04-26, 17:05:21
Mit 3072 SPs landet man rechnerisch bei ~358 mm² für GT104. Das klingt alles andere als teuer und / oder unrealistisch. :smile: Analog dazu dann der große "Bruder" bei 537 mm² (bei 4608 SPs).

Botcruscher
2018-04-26, 17:05:34
Sicherlich nicht. Nvidia hat gemacht, was mit dem Prozess zu der Zeit sinnvoll war und da sind nicht extra Lücken gelassen worden, um Jahre später eventuell überraschen zu können. Dass ist einfach Humbug.
Sinnvoll ist der springende Punkt. Schau dir an was NV noch aus 28nm rausoptimiert hat. Da sind genug Lücken als Reserve für den neuen Prozess gelassen wurden und über die Zeit dazu gekommen.

robbitop
2018-04-26, 18:28:22
Ich tippe auf ~400...450 mm2 (irgendwo in dem Bereich... eher im unteren) und 3584 sp für gt104.
Für gt102 5120 sp (Vollausbau) und ~600...650 mm2 (eher im unteren Bereich).

reaperrr
2018-04-26, 19:25:01
Ich tippe auf ~400...450 mm2 (irgendwo in dem Bereich... eher im unteren) und 3584 sp für gt104.
Für gt102 5120 sp (Vollausbau) und ~600...650 mm2 (eher im unteren Bereich).
Für GT102 sind 5376 realistischer (was physisch vorhandene Einheiten angeht, aktiviert sind dann wahrscheinlich tatsächlich "nur" 5120 sp), weil das eben bei 6 GPCs einen symmetrischen Aufbau der GPCs (7 SM je GPC) ermöglichen würde.

Stimme ansonsten aber zu. Nvidia wird nicht bei ~50-60% mehr Speicherbandbreite pro Interface-Bit durch GDDR6 nur 20% mehr SM verbauen, außer sie haben stattdessen nochmal massiv Transistoren/Fläche in einen weiteren großen Sprung der Taktbarkeit und/oder IPC pro SP investiert.

scully1234
2018-04-26, 21:17:58
Es sieht fast danach aus das Apple in nächster Zeit etwas kürzer tritt, wenn man so nachverfolgt wie schleppend der Verkauf ihres Top Handys voran geht, könnte das diesjährige 7nm Derivat an der kurzen Leine baumeln, um nicht unnötig eine Überproduktion anzuhäufen

http://www.pcgameshardware.de/iPhone-Serie-Smartphone-216880/News/iPhone-X-Analyst-erklaert-das-teuerste-Apple-Smartphone-fuer-tot-1255229/

7 nm Kapazitäten die TSMC nicht an Apple verbuchen kann, könnte doch dann auch jemand anderes verwerten...

=Floi=
2018-04-27, 00:43:09
was hat das "top handy" mit den restlichen mio. zu tun?
Das ding ist überteuert und auch nicht praktisch. Mit den anderen produkten wird das geld verdient. Das X ist imho in den vorhersagen.

Denke NV wird das mit 7nm schon hinbekommen.

HOT
2018-04-27, 07:58:06
Der Markt ist halt satt. Denn das nächste Top-Telefon von Apples wird ja nicht etwa weniger kosten, aber es wird genauso wenig laufen im Verkauf. Smartphones generell haben das Problem der Sättigung, da ja auch keine neuen Knallerfeatures mehr kommen können. Auch das S9 läuft nicht so super IIRC. Aber Apple kann sich die Chips auch auf Halde legen und diese dann für günstige Smartphones in der nächsten Generation immer noch absetzen.

7nm für Turing kannst vergessen, das würde man nicht in einem halben Jahr vom Tapeout zur Marktreife schaffen, das geht nur mit einem Prozess den man schon lange im Griff hat. Auch 10nm scheidet damit kategorisch aus.
Ampere wird schon 7nm sein, da investiert man aber sicherlich mindestens ein Jahr Arbeit hinein vom Tapeout zum fertigen Produkt.

Die 40% mehr Leistung sind denke ich ein realistischer Wert, mit gestiegener Shaderzahl, Fläche und TDP. Das man noch mal sowas wie Maxwell hinlegt ist extrem unwahrscheinlich, so Knaller wie das TBR in Verbindung mit dem Hochtaktdesign von Maxwell schafft man nicht alle Tage, das ist ne unrealistische Erwartung, die sicher enttäuscht wird. Man hält sich ja auch bei der Modellnummer zurück. Dafür, als Ausgleich quasi, gibts halt RT als neues Feature.

Hübie
2018-04-27, 15:31:28
Die Frage ist: Kann man dieses Mal wieder weniger SPs verbauen, um gleiche oder mehr Leistung zu erreichen.
Da die low hanging fruits mit Maxwell (weniger SPs/SM) und Pascal (mehr Takt/GPC) wahrscheinlich abgeerntet sind, würde ich sagen, man muss die Anzahl in etwa proportional zum erreichbaren Performancezuwachs verbauen, da man eventuell 5-10% über Takt heraus holen kann.

Edit: Sollte ich erwähnen, dass ~1850 MHz, 3072 SPs und 256 Bit bei 165-185 Watt meine aktuelle Spekulationsgrundlage für die 104er SKU sind (~350 mm²)? :D

scully1234
2018-04-27, 19:49:56
7nm für Turing kannst vergessen, das würde man nicht in einem halben Jahr vom Tapeout zur Marktreife schaffen, das geht nur mit einem Prozess den man schon lange im Griff hat.

AMD hat bereits lauffähige Vega Chips in 7nm von TSMC (https://twitter.com/AMDNews/status/989258151345229825), wieso sollte dann ein langjähriger Partner wie Nvidia nicht auch schon Chips bekommen haben,angesichts deren Status bei TSMC sogar früher, nur weil sich dieser etwas bedeckter hält bei solchen Aussagen

Einen so monströßen Volta Chip ,hätte zu damaliger Zeit auch niemand für möglich gehalten, aber die Fertigung hat es hinbekommen.

tm0975
2018-04-27, 19:53:38
amd beginnt mit einer ausgesprochenen kleinserie. das kannst du nicht 1:1 mit einem standard-chip vergleichen.

Locuza
2018-04-27, 19:56:22
Lauffähige Samples im Labor, wo am Ende des Jahres bestimmte Partner mit fortschrittlicheren Samples ausgestattet werden.
Ein Product Launch für alle 7nm Produkte von AMD erfolgt erst irgendwann 2019.

Nvidia muss AMD um einige Monate schlagen, wenn sie H2 2018 fertige Produkte verkaufen möchten.

fondness
2018-04-27, 19:58:40
Die Frage ist, ob sie die Kapazitäten bekommen. Vega20 ist absolute Kleinserie als reiner HPC-Chip.

scully1234
2018-04-27, 20:01:48
Nvidia muss AMD um einige Monate schlagen, wenn sie H2 2018 fertige Produkte verkaufen möchten.

Angesichts des premium Status direkt nach Apple für erste Chips, nicht völlig von der Hand zu weißen, und Apple scheint wie es aussieht die Fertigung etwas zurück zu fahrren, weil das Highendseqment nicht mehr so gut läuft

Zumindestens für die großen u teuren Chips (Tesla,Quadro, Titan) könnte sich das anbieten, um den Prozess relativ risikofrei zu testen

Troyan
2018-04-27, 20:08:01
7nm kommt nächstes Jahr. Dieses Jahr steht voll im Zeichen von Volta. Es macht auch kein Sinn, da der Sprung von Pascal zu Volta schon nach einem Jahr stattgefunden hat.

scully1234
2018-04-27, 20:19:10
7nm kommt nächstes Jahr. Dieses Jahr steht voll im Zeichen von Volta. .


P100 kam Q4 2016 in den Sale, ein Jahr später V100, was spricht in Q4 dieses Jahr für eine Neuauflage bzw Refresh von V100?

Möglicherweiße verbessert der Shrink sogar die Quote der lauffähigen V100 auf dem Wafer...

Wenn ich wüsste das der Mitbewerber da gerade auf 7nm was vorbereitet ,was in eben diese Kerbe schlägt, würde ich dem doch zuvor kommen wollen, mit einem noch besseren Produkt

tm0975
2018-04-27, 20:32:09
wollen ja, aber können bzw. zu welchen preis. also abwarten. nvidia kann sich zurück lehnen. was auch immer sie an dreisigkeiten in letzter zeit getan haben, die kundschaft scheint bedingungslos zu folgen. was wollen sie also mehr?!

Troyan
2018-04-27, 20:33:15
AMD ist kein Konkurrent. Deren Zeug vergammelt irgendwo im Project 47...
GV100 wird geordert und verbaut. Supercomputer werden ebenfalls noch mit GP100 Karten ausgerüstet. Ein Jahr Pause ist zwingend notwendig, um auch das Ökosystem aufzubauen.

Mit "Next-Gen Volta" wird man vor Allem den Inference-Bereich stärken. Und dafür reicht auch 12nm, da man mit Volta rund doppelt so effizient als Vega ist.

wollen ja, aber können bzw. zu welchen preis. also abwarten. nvidia kann sich zurück lehnen. was auch immer sie an dreisigkeiten in letzter zeit getan haben, die kundschaft scheint bedingungslos zu folgen. was wollen sie also mehr?!

Lmao. Immerhin hat nVidia Pascal nicht zweimal gerebrandet und GP102 mit Fake-Preisen und Fake-Features angekündigt. Lustig, wie aggressive AMD Fans die Lügen und Verarsche ihrer Firma immer sofort vergessen.

Hübie
2018-04-28, 00:40:25
Es wäre schön wenn ihr euch weniger auf Gefühle und mehr auf das Thema konzentrieren würdet. Nach meinen Informationen ist gar nicht gesagt worden, woher diese 7nm-Instinct Vega20 GPU denn nun kommt... Verstehe also gar nicht wieso alle wie aufgescheuchte Hühner herumgackern. :D

maximus_hertus
2018-04-28, 00:57:19
Wenn ich wüsste das der Mitbewerber da gerade auf 7nm was vorbereitet ,was in eben diese Kerbe schlägt, würde ich dem doch zuvor kommen wollen, mit einem noch besseren Produkt

Bis zum Launch von V20 haben wir 2019. Ob nV dann 1 oder 2 Monate später dran sein würde, ist völlig egal. Süß, wie du AMD als Mitbewerber bezeichnest. AMD ist bei GPUs das, was VIA bei CPUs ist. Sie existieren, einige Experten wissen von dessen Existenz, aber der große MAssenmarkt kennt sie nicht mehr ;)

Es ist völlig egal, wie gut oder schlecht die zukünftigen Karten von Grün oder Rot sein werden. Die Messe ist gelesen, für immer. Die einzige Chance auf einen 50/50 Markt wäre, wenn AMD irgendwo einen Sponsor auftreibt, der mehrere Milliarden jedes Jahr reinpumpt.

Das wird auch AMD wissen und sich auf die Zeit nach den High-End Gamingkarten vorbereiten.

Low/Lowest End: Intel iGPU
Mainstream (grob GF xx30): AMD iGPU
Oberes Mainstream / untere Performance Klasse (xx50 Ti): AMD iGPU mit HBM, siehe Kaby Lake G als Beispiel
Performance Klasse (xx60): Vollausbau der "iGPU"- einzige Karte
High-End (xx70 und xx80): nichts
Enthusiast (xx80 Ti): nichts

robbitop
2018-04-28, 07:27:01
Die Frage ist: Kann man dieses Mal wieder weniger SPs verbauen, um gleiche oder mehr Leistung zu erreichen.
Da die low hanging fruits mit Maxwell (weniger SPs/SM) und Pascal (mehr Takt/GPC) wahrscheinlich abgeerntet sind, würde ich sagen, man muss die Anzahl in etwa proportional zum erreichbaren Performancezuwachs verbauen, da man eventuell 5-10% über Takt heraus holen kann.

Edit: Sollte ich erwähnen, dass ~1850 MHz, 3072 SPs und 256 Bit bei 165-185 Watt meine aktuelle Spekulationsgrundlage für die 104er SKU sind (~350 mm²)? :D

Damit holt man IMO aber gp102 nicht ein, geschweige von überholen. Wie du sagst, eine Steigerung der rohleistungsnormierten Performance wird nicht all zu hoch sein.
GP102 +ein bisschen mehr ist sicherlich wie immer das Ziel für den Nachfolger 104...

@Troyan
Naja die gtx970 war imo schon grenzwertig, was „Verarschung“ angeht. Hat aber anscheinend nichts wesentliches an den Verkaufszahlen geändert.

fondness
2018-04-28, 09:08:43
Es wäre schön wenn ihr euch weniger auf Gefühle und mehr auf das Thema konzentrieren würdet. Nach meinen Informationen ist gar nicht gesagt worden, woher diese 7nm-Instinct Vega20 GPU denn nun kommt... Verstehe also gar nicht wieso alle wie aufgescheuchte Hühner herumgackern. :D

Doch, Lisa hat sehr deutlich gesagt, dass Vega 20 von TSMC kommt.

Hübie
2018-04-28, 12:36:43
Ah, okay. Das habe ich in der "News" nicht gelesen. Hast du mal bitte einen Link?

@robbitop: Man käme auf theoretische 11,3 TFLOPs (~1080 Ti). Da Pascal, dank hohem Takt, überraschend stark ausfiel (die 104er war ~25% schneller als die vorherige GM200 GPU), könnte es dieses Mal weniger sein (die üblichen ~10-15%).

MadPenguin
2018-04-28, 13:18:43
Lese gerne hier mit, da ich ein gutes Produkt schätze. Bevorzuge zwar grundsätzlich zurzeit AMD, da ich mich durch meine ex 970 und die aktuellen Preise von neuen Nvidia Produkte immer mehr auf den Arm genommen fühle. Finde es lustig, wie aktuell Turing gehypt wird. 40% mehr Leistung und vernünftige Preise zusammen sind einfach nur Wunschdenken. Auch 7nm im Q3 für einen Gamingchip.

Tesseract
2018-04-28, 13:48:55
Man käme auf theoretische 11,3 TFLOPs (~1080 Ti)

1080Ti haben in der regel eher 13-14 TFLOPs

HOT
2018-04-28, 13:49:13
AMD hat bereits lauffähige Vega Chips in 7nm von TSMC (https://twitter.com/AMDNews/status/989258151345229825), wieso sollte dann ein langjähriger Partner wie Nvidia nicht auch schon Chips bekommen haben,angesichts deren Status bei TSMC sogar früher, nur weil sich dieser etwas bedeckter hält bei solchen Aussagen

Einen so monströßen Volta Chip ,hätte zu damaliger Zeit auch niemand für möglich gehalten, aber die Fertigung hat es hinbekommen.
AMD gibt die Chips zu Evaluierung an die Partner weiter. Die werden aber sicher nicht vor Ende des Jahres in Massenproduktion gehen. Ähnliches dürfte für Ampere gelten. Turing ist hier völlig außen vor, da ja bereits fertige Produkte im September zu erwarten sind. Die sind ja schon in Massenproduktion. Das ist mit 7nm völlig illusorisch, zumal die Fertigung anfangs für Apple und Qualcomm reserviert sein dürfte.

Die Frage ist, ob sie die Kapazitäten bekommen. Vega20 ist absolute Kleinserie als reiner HPC-Chip.

Ersteres sicherlich erst mal ja, zweiteres glaub ich nicht dran. AMD kann es sich im Gegensatz zu NV nicht leisten den Chip für nur einen Markt zu designen. Die haben es verdammt schwer im Profimarkt und die Chance, dass denen das Teil auf Lager liegen bleibt ist einfach zu hoch. Dafür lohnt das Design nicht. V20 wird V10 ersetzen in 2019 - das war mMn immer so gedacht, deshalb heißt das Teil ja auch so.

Hübie
2018-04-28, 13:54:43
1080Ti haben in der regel eher 13-14 TFLOPs

Ja ist immer ein wenig vage da mit TFLOPs zu schmeißen, da boost von der leakage abhängt. Sieh es als Minimum. Bei mir im Kopf sind natürlich noch 5-10% bessere "IPC" mit eingeflossen. Sei es durch bessere Auslastung von front- und backend oder durch clevere Features. Ist ja nur so über den Daumen gepeilt. Fraglich ob man noch deutlich mehr Takt heraus holen könnte. Anfangs waren selbst einige IHV bei Kepler so euphorisch und nannten 2 GHz (:freak:) und bei Pascal hielt man auch 2,5 GHz für machbar. Beides nie passiert, aber Maxwell @28 nm legte da ja noch ne gute Schippe drauf.

Locuza
2018-04-28, 16:09:28
Ah, okay. Das habe ich in der "News" nicht gelesen. Hast du mal bitte einen Link?
[...]
Mir war so, als ob sie gesagt hat, dass Vega das erste 7nm Produkt sein wird + dass das erste Produkt von TSMC kommt, aber nur letzteres hört man im Call bei 38:40:
https://edge.media-server.com/m6/p/6fina885#

Man kann dadurch dennoch mit ziemlicher Sicherheit sagen, dass Vega20 zuerst in 7nm von TSMC erscheint.

horn 12
2018-04-28, 16:44:11
Turing wohl Mitte September, Vorstellung zur CES August 2018
Vorzeigeprodukt das NEUE Tomb Raider ?

https://wccftech.com/shadow-of-the-tomb-raider-optimized-nvidia/

gbm31
2018-04-28, 16:49:09
Turing wohl Mitte September, Vorstellung zur CES August 2018
Vorzeigeprodukt das NEUE Tomb Raider ?

https://wccftech.com/shadow-of-the-tomb-raider-optimized-nvidia/


Da steht explizit was von GTX 10-series - wo liest du daraus was über Turing?

Daredevil
2018-04-28, 16:53:00
Wenn ich das Setting sehe und Lara nur im dunklen Dschungel, in dunklen Höhlen mit Feuer, beim dunklen Mondschein im Wasser sehe, könnte ich wetten, dass da alles mit Raytracing Lichtkram zugeklatscht ist, damit Nvidia damit werben kann. :D
Falls das jetzt echt bald genutzt werden soll.

horn 12
2018-04-28, 17:06:07
Und AMD ist dort gleich schnell bis gar schneller :-)

PHuV
2018-05-01, 16:56:39
Turing wohl Mitte September, Vorstellung zur CES August 2018
Vorzeigeprodukt das NEUE Tomb Raider ?

https://wccftech.com/shadow-of-the-tomb-raider-optimized-nvidia/
Wo liest Du das da raus? :confused:

N0rG
2018-05-07, 22:04:46
GTX 1180leak? Oder nur speku seitens tpu
https://www.techpowerup.com/gpudb/3224/geforce-gtx-1180

BoMbY
2018-05-07, 22:11:26
Ein Platzhalter, mit sicher falschen Daten (GV104, Volta, etc.). Die Daten dort werden manuell hinzugefügt.

maximus_hertus
2018-05-07, 22:12:03
GTX 1180leak? Oder nur speku seitens tpu
https://www.techpowerup.com/gpudb/3224/geforce-gtx-1180

Speku....

Radeonfreak
2018-05-07, 22:14:04
384 GB/S und 11.3 TF wären ja arg jämmerlich.

N0rG
2018-05-07, 22:23:59
In dieser Form wäre die Karte langsamer als eine 1080ti. Naja, abwarten und tee trinken...

Hübie
2018-05-08, 06:48:18
GTX 1180leak? Oder nur speku seitens tpu
https://www.techpowerup.com/gpudb/3224/geforce-gtx-1180

Eher Fingerzeig auf eine mögliche Konfiguration für die hypotetische Gx104 SKU.