PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Mortalvision
2016-03-20, 21:52:55
Ja, der Faden ist nicht grade kurz, und Google hat mir eben nur news von 2015 angezeigt zu "Pascal async compute"

Timbaloo
2016-03-20, 22:20:00
Wissen tut man nichts, was ich so mitgenommen/verstanden habe:

Pascal ist kein allzu großes Architekturupdate und wird an der Stelle eher wenig Besserung bringen.

iuno
2016-03-21, 00:16:03
Dazu muesste Nvidia den Command Processor stark umbauen, oder eben einen extra CP fuer asynchrones computing rein packen. Dazu weiss man selbstverstaendlich noch nichts. Aber wenn sie den Bedarf nicht schon vor Jahren gesehen haben, wird das nicht kommen.
Vielleicht haben sie aber immerhin am CP geschraubt, sodass das context switching schneller geht. Dann waere AC immerhin kein grosser Nachteil

scully1234
2016-03-21, 00:20:07
on a side note; IF TRUE its interesting looking at the links already, that pascal isn't beating maxwell in all the graphics tests. seems pascel does much better w/tess and volumetric lightning (http://www.overclock.net/t/1595065/wccftech-nvidia-pascal-gtx-1080-1070-1060-benchmarks-leaked-3dmark-11-performance-entries-spotted/210#post_25003774).

Da hat wer mal diese Benchmarks genauer analysiert, klingt interessant

Nakai
2016-03-21, 00:26:30
on a side note; IF TRUE its interesting looking at the links already, that pascal isn't beating maxwell in all the graphics tests. seems pascel does much better w/tess and volumetric lightning (http://www.overclock.net/t/1595065/wccftech-nvidia-pascal-gtx-1080-1070-1060-benchmarks-leaked-3dmark-11-performance-entries-spotted/210#post_25003774).

Da hat wer mal diese Benchmarks genauer analysiert, klingt interessant

Wär was neues, wenn die Leute von WCCF-Tech etwas richtig interpretieren würden.

GP104 little ~ GM200

Das ist sehr erwartbar.

GP104 Big ~GM200 +20~30%

scully1234
2016-03-21, 00:29:31
Nicht Wccf sondern der Post in dem Thread zu den einzelnen Testszenarien des 3D Mark, ob da was dran sein koennte an der waagen Schlussfolgerung?

Waere ja dann ein Architekturmerkmal

Hier darum geht's mir

Very interesting find. Is that typical for Pascal?
Tessellation and lighting was what Maxwell did very well in: http://images.anandtech.com/graphs/graph9659/All-4K-render.png. While Fiji was good in the other parts. Perhaps they are moving towards async and the same features as AMD this time?

Hübie
2016-03-21, 00:56:07
Das ist Kaffeesatz-leserei. Da kann genau so viel richtig wie falsch sein. Vor allem anhand vom 3D Quark irgendwas aussagen zu wollen und Maxwell in Fable Legends gegenüber zu stellen ist... meh X-D

scully1234
2016-03-21, 01:07:47
seems pascel does much better w/tess and volumetric lightning.

what was that latest GW library?

http://scr3.golem.de/screenshots/1603/Gameworks-SDK-3.1/thumb620/Gameworks-SDK-3.1-04.png


mal den Aluhut auspacken, was wurde da bei der GDC hinzugefuegt:tongue:

Wie kommt der auf solche Querverweise, meint ihr das ist nur zusammengekehrt, oder will er ohne NDAs zu verletzen, nen Fingerzeig setzen in ne bestimmte Richtung?

HOT
2016-03-21, 13:36:25
Die neuen Ergebnisse würden auch prima auf neue Maxwell-Karten passen. Die gezeigten Werte sind teilweise "neue" mobil-GPUs mMn.

gedi
2016-03-21, 13:59:21
Sehe ich auch so. Gut zu sehen, dass beim GPU-Takt lediglich der P2 ausgelesen wird.

scully1234
2016-03-21, 14:08:01
Sehe ich auch so. Gut zu sehen, dass beim GPU-Takt lediglich der P2 ausgelesen wird.

Das soll ne Eigenheit sein von 3D Mark ,das er bei nicht bekannten GPUs auf diesen Takt pinnt, das ist auch bei anderen irregulaeren Ergebnissen zu sehen

Die gezeigten Werte sind teilweise "neue" mobil-GPUs mMn.


Falls das keine Testplatinen sind so kurz vor Release, ists doch sehr ungewoehnlich das hier Desktopmotherboards ploetzlich mobile Chips beherbergen sollten.

Und was hast du schon wieder mit diesem ''mobile Maxwell'' am Hut, ist das irgendwie so ne Art Running Gag, der hier alle 2 Seiten wiederholt wird:tongue:

Mandalore
2016-03-21, 15:03:25
@Nakai: Titan Pascal "nur" 20-30% mehr als 980Ti?!?! Das wäre ja echt low.

Ich hoffe doch sehr, dass Pascal vielleicht mehr ist als ein aufgebohrter Maxwell, mehr Richtung Volta....

Edgecrusher86
2016-03-21, 15:10:54
Er schreibt doch GP104 Big. ;) Ja, so um die +10-30% werden es da schon sein, in DX12 vermutlich auch etwas mehr. Möglich auch, dass die 70er etwas unterhalb von GM200 angesiedelt ist, um noch etwas mehr Luft für Custom-Modelle zu ermöglichen.

E: GM200 als stock Ti/X kommt ja iirc im 3DM11 P graphics score so auf um die 21-22k Punkte. Ja, so wirklich gut kann man da auch nichts ableiten, aber deutlich besser wie der Gesamtscore ist es schon.
Ja, leider stehen da eh einige Fragezeichen, selbst wenn es keine Fakes sind. ES könnten auch niedrige Boost-Clocks haben. Schade auch, dass man nicht zumindest 3DM11 X genommen hat. Etwas seltsam ist ebenso, dass die 3GB Karte (späterer GP106 per GP104-Cutdown simuliert?) aussieht, als hätte sie GDDR5X, während die 8GB Karten mit 8 Gbps GDDR5 gelistet sind. Da das SI von GP104 wohl nicht breiter als 256-bit sein dürfte, wäre es möglich, dass die Karten bei GM200+/- Performance (je nach Modell) mit GDDR5 doch arg Bandbreitenlimitiert sind, selbst mit nochmals verbesserter Kompression. Also imho wären zumindest 10 Gbps GDDR5X (320 GB/s) da schon ratsam.

Mandalore
2016-03-21, 15:12:28
Er schreibt doch GP104 Big. ;)


Oh sorry, mein Fehler xD Ok, das wiederrum wäre wirklich was Neues, da der Mainstream Chip (GK104, GM204) immer auf Niveau des Vorjahres BigChip war. Hoffentlich passierts^^

Nakai
2016-03-21, 15:18:44
Ehm, nein, das wäre nicht wirklich was neues. Die GTX 970 ist meistens oberhalb einer GTX 780Ti, und eine GTX 980 dementspechend darüber. Das ist ganz normal, was wir hier sehen werden. So wie immer.

dildo4u
2016-03-21, 15:23:47
@Nakai: Titan Pascal "nur" 20-30% mehr als 980Ti?!?! Das wäre ja echt low.

Ich hoffe doch sehr, dass Pascal vielleicht mehr ist als ein aufgebohrter Maxwell, mehr Richtung Volta....
Ein 6 Jahre alter 3D Mark ist vermutlich ordentlich CPU limitiert,erst ab der 2013 Version lief der Standardtest in 1080p.

Achill
2016-03-21, 16:16:35
Keine Ahnung wie man bei einen i3-2100 irgend etwas raus lesen können soll. Alle aktuellen GPUs von NV und AMD sind bei dieser CPU im +9000 Punkte Bereich. Und wir man aus den Murks-Punkten dann auf den Verbrach kommt - das ist dann noch interessanter.

Hübie
2016-03-21, 16:24:05
Amen... Kaffeesatz-Leserei.

scully1234
2016-03-21, 17:43:05
Keine Ahnung wie man bei einen i3-2100 irgend etwas raus lesen können soll. .

Ich hab jetzt mal in alten 3/4 Way SLI Tests gewuehlt, Test 3- 4 von dem dort die Rede ist, zeigen keine signifikanten Reaktionen auf die Taktrate der CPU

Gesetz dem Fall das die SLI Profile mitgespielt haben, kann man auch die zu geringe GPU Leistung von damals ausschließen

Der Abschnitt des Benchmarks ,scheint also eher im GPU Limit zu liegen

Wenn da also ne hoehere Geometrieleistung zu verzeichnen ist, ''koennte'' das schon von der Architektur selber kommen

Zumal die sich ja auch noch die Muehe gemacht haben, einen vergleichbaren Prozessor raus zu kramen, mit dieser Maxwell GPU im Gepaeck


Edit :mal was zur Belustigung;D

http://www.tweakpc.de/news/36556/nvidia-geforce-pascal-gpus-mit-doppelter-leistung-je-mhz-benchmark-leak/

Kann ihm mal jemand bescheid stossen bevor das die Runde macht und alle schwerlich enttaeuscht werden

Complicated
2016-03-22, 12:01:35
Mal eine Spekulation in negativer Richtung:
Es könnte sein, dass Pascal weder NVLink enthält noch HBM Speicher. Und auch, dass der GP100 es Aufgrund von Fertigungsproblemen vielleicht gar nicht in den Profisektor schafft.

Meine Spekulationsbasis:
Es gibt 2 angekündigte Projekte die mit Nvidias NVLink ausgestattet sind:
"Summit" in Oak Ridge https://www.olcf.ornl.gov/summit/
und "Sierra" in Livermore https://str.llnl.gov/march-2015/still

Beide erhalten ihre Systeme ab 2017 und in 2018 - mit Volta GPUs.
Es gibt ein Vorserien-Modell auf Basis von Pascal mit NVLink, welches lediglich als Entwicklersystem für die Volta-basierenden Systeme dient. Dies deutet IMHO auf zu hohen Verbrauch der Pascal-Charge. Zitat aus dem zweiten Link:
IBM will initiate delivery of the Livermore machine, called Sierra, in 2017. Sierra will provide more than 100 petaflops of capability. “We estimate that the peak power required to run this machine will be about 10 megawatts—just slightly higher than Sequoia,” says de Supinski. A small, early-access system scheduled for delivery in 2016 will have an earlier generation of the IBM Power processor architecture, NVIDIA Pascal GPUs, and a version of NVLink. “It will be a complete precursor system,” de Supinski adds, “so we can explore the capabilities and begin to deploy some early software and applications on the machine.”
Daraus könnte man fast ableiten es gäbe eine ähnliche Konstellation wie bei Polaris/Vega. Pascal ohne HBM und Volta darüber mit HBM. Denn welchen Sinn ergibt ein GP100 mit voller maximaler Ausstattung, HBM und NVLink wenn Volta ab 2017 schon in den HPCs fest eingeplant ist?

Weitere Quellen Nvidia und IBM:
http://www-03.ibm.com/press/us/en/pressrelease/47318.wss
http://www.teratec.eu/actu/calcul/Nvidia_Coral_White_Paper_Final_3_1.pdf
http://www.nvidia.com/object/exascale-supercomputing.html

y33H@
2016-03-22, 12:10:01
Dann würde NV den Roadmaps aller GTCs seit 2014 widersprechen.

Complicated
2016-03-22, 12:13:29
Nun ja das eine sind Roadmaps, doch wo soll da eine GP100 inkl. HBM seinen Platz haben wenn GV100 2017 ausgeliefert wird an Kunden?

y33H@
2016-03-22, 12:16:00
Es ist nicht unüblich im Jahresrhythmus neue Produkte auszuliefern ... Pascal komplett nur mit GDDR5(X) wäre hart, schaun wir mal was Jensen auf der GTC-Keynote in die Luft hält :ulol:

Hübie
2016-03-22, 12:17:31
Volta wird erst September '17 oder später exklusiv an das DoE geliefert und bedient voerst keinen Endkundenmarkt. Du wirst dir wohl erst 2017 eine Volta in den Rechner stecken können. GK110 hatte in etwa den gleichen Zyklus, ausgehend von Fermi (der ja ebenfalls ziemlich erfolgreich im "Profi"-Markt war).

Complicated
2016-03-22, 12:21:25
Schon klar, doch anscheinend werden erste produktive Systeme mit dem Nachfolge Modell Volta bestückt was zu dem Schluss führt, dass Pascal nicht tauglich für das finale System (vielleicht auch gar nicht vorgesehen) war. Für ein Testsystem um Software mit NVLink Unterstützung zu entwickeln spielt der Verbrauch am ehesten keine Rolle. Somit könnte Pascal erneut Gamer-optimiert sein.

iuno
2016-03-22, 12:23:10
Interessant, aber Volta ist ohnehin noch ein grosses Fragezeichen. Nvidias Roadmaps wurden auch die letzten Jahre immer revidiert und wieder umgebaut. Volta war urspr. fuer ~2016 gedacht, als erste Generation mit HBM. Pascal wurde ja auch nur eingeschoben. Bei Maxwell wurden haufenweise Features gestrichen und er kam trotzdem spaeter.
Kann schon sein, dass sie an Maxwell/Pascal nur rumkrebsen und den Fokus auf Volta legen. Das waere aber auch wieder bitter, wenn Polaris/Vega einschlagen und im HPC Markt Intel mit KNL Druck macht.
Volta wird eigentlich fuer 10 nm spekuliert, daher glaube ich nicht, dass man die Chips 2017 schon sieht. Und GK110/210 braucht definitiv Abloese. NVLink soll ja auch fuer mGPU funktionieren, nicht nur wenn die Host-CPU es unterstuetzt. Ich denke, dass eine dual-GPU Karte mit zwei Pascals + NVLink kommt, damit die Teslas mit Kepler in Rente geschickt werden konnen.

Dann würde NV den Roadmaps aller GTCs seit 2014 widersprechen.
Wie war das denn zuletzt so mit den Roadmaps? Maxwell mit hoher DP Leistung, ARM Kernen und unified memory 2013. Dann doch ohne ARM, dann erst 2014 in 20 nm und dann doch wieder nicht - achja und ohne nennenswerter DP Leistung. Dann Volta mit "Stacked RAM" Ende 2015? Dann Pascal und Volta erstmal komplett raus, usw. usf.


Pascal wurde erst 2014 als Einschub angekuendigt, da sollte die Planung fuer diese Grossprojekte auch schon angelaufen sein. Vielleicht gibt da teils auch einfach noch veraltete Infos.

Sunrise
2016-03-22, 12:30:35
Mal eine Spekulation in negativer Richtung:
Es könnte sein, dass Pascal weder NVLink enthält noch HBM Speicher.
Das widerspricht sich doch mit der Pascal-Lieferung, die als Test für manche Systeme, und z.B. den Entwicklern als Ausgangsbasis dient. NV hat hier wohl Verträge mit Vorleistung bestehen, die dem Kunden die Möglichkeit bietet, den Workflow auf IBM+NV anzupassen und das geht nicht von jetzt auf nachher.

Damit hat man automatisch auch eine bessere Position ggü. Intel, die bis 2017 keinen Volta aus dem Boden stampfen werden. Zumindest sieht es derzeit danach nicht aus.

Und was willst du bitte mit Pascal ohne HBM? Es steht doch in deinem Text drin, dass die Auslieferung der Pascal-Lieferung noch 2016 erfolgen wird, was wir schon lange von der IBM-Roadmap wissen. HBM2 wird 2016 in Massenproduktion gehen und NV hat sich hier auch ziemlich sicher schon Mengen gesichert, die sie benötigen für ihre Verträge/Lieferungen. Du glaubst doch hoffentlich nicht, dass man sich da auf "Glück" verlässt.

Auch die Ausbeute kann man mit einer gewissen Menge Testchips abschätzen. Und die hat sowohl AMD als auch NV schon vor Monaten zurückerhalten.

Ich sehe da absolut garkeine Argumentationsgrundlage gegen NVLink Gen. 1 oder HBM2, eher das Gegenteil, denn dann wäre Pascal wohl schon längst bei den Kunden in Mengen.

Complicated
2016-03-22, 12:35:21
Volta wird eigentlich fuer 10 nm spekuliert, daher glaube ich nicht, dass man die Chips 2017 schon sieht.
Also wenn IBM in seiner Presseerklärung mitteilt:
http://www-03.ibm.com/press/us/en/pressrelease/47318.wss
They will enable advanced, large-scale scientific and engineering applications both for supporting DOE missions, and for the Summit and Sierra supercomputer systems to be delivered respectively to Oak Ridge and Lawrence Livermore in 2017 and to be operational in 2018.
Dann denke ich entweder ist Volta in 16FF oder 10nm sind schneller da als alle erwarten. Auf jeden Fall sind die Chips da in 2017 wenn das ganze 2018 laufen soll. Die Meldung ist aus dem Juli 2015, daher scheint mir dass schon länger Pascal nicht vorgesehen ist für HPC.

Complicated
2016-03-22, 12:37:55
Das widerspricht sich doch mit der Pascal-Lieferung, die als Test für manche Systeme, und z.B. den Entwicklern als Ausgangsbasis dient.Nein, IBM schreibt doch selber, dass Pascal nur für die Entwicklung des Software Ökosystems genutzt wird als Entwicklersystem:
IBM will initiate delivery of the Livermore machine, called Sierra, in 2017. Sierra will provide more than 100 petaflops of capability. “We estimate that the peak power required to run this machine will be about 10 megawatts—just slightly higher than Sequoia,” says de Supinski. A small, early-access system scheduled for delivery in 2016 will have an earlier generation of the IBM Power processor architecture, NVIDIA Pascal GPUs, and a version of NVLink. “It will be a complete precursor system,” de Supinski adds, “so we can explore the capabilities and begin to deploy some early software and applications on the machine.” Nur hat halt jeder natürlich erwartet, dass es auch Produktivsysteme mit Pascal gibt, doch das scheint hier in diesem Fall schon gar nicht vorgesehen zu sein.

HOT
2016-03-22, 12:38:30
10nm TSMC Ende 2017 gibts sicher wieder nur für Apple. Oder NV nutzt auch den IBM/GloFo 10nm-Prozess. Halte ich nicht für ausgeschlossen. Nur ob die dann schon soweit sind ist natürlich ne ganz andere Frage.

Ich finde die Theorie von Complicated gar nicht mal so abwegig, dass GP100 gar nicht mehr existiert - was durchaus sein kann, da das ein Extrem-Risiko-Projekt war. Kann ja sein, dass es entsprechendes Silizium gibt, dass auch schon an IBM geliefert wurde, aber kann eben auch sein, dass man das einfach nicht weiter verfolgt zugunsten der Volta-Entwicklung. Intel drückt ja momentan auch nicht so auf die Tube, KnightsLanding hat wer weiss wieviel Verspätung mittlerweile. Vllt. sitzt man das einfach bis Anfang 2018 aus. So lange ist das auch nicht mehr hin. Für Gamer kann man dann GP107-GP102 bringen, alles mit GDDR5(X) und fertig.

Hübie
2016-03-22, 12:42:31
Das liegt einfach am Zeitplan. 2014 wurde der Vertrag für Sierra und Summer unterzeichnet. Pascal ist dann, 2017, schon "veraltet" um den als large scale machine zu bauen. Schau dir mal die road to exascale an, complicated.

NVLINK haben die ja jetzt schon am laufen.

Complicated
2016-03-22, 12:44:05
Nur wie wahrscheinlich ist es, dass AMD in 2016 Polaris in 14nm, 2017 Vega in 16FF bringt, wenn der 10nm Prozess für 2017 bereit ist für Volta? Da müsste ja auch Navi schon in 10nm in Spät 2017/Früh 2018 vor den Türen stehen. Vielleicht auch der Entwicklungsstau auf 28nm der zu solchem Tempo führt?

Hübie
2016-03-22, 12:45:33
Es ist eine Sache ein paar tausend Stück für einen Supercomputer zu haben, als ein paar hunderttausend für den weltweiten Markt. Interpretiere da mal nicht zu viel rein. :smile:

Complicated
2016-03-22, 12:48:03
Daher sage ich ja, dass GP100 vielleicht nie den Desktop erreicht da nur geringe Stückzahlen für die Volta-Entwicklungssysteme produziert werden. Das kann man sich leisten wenn die Voltas schon gebucht sind und man sowieso Schwierigkeiten hatte die Pascal-Architektur in den gewünschten Parametern/Features effizient genug zu gestalten auf dem Prozess.

Ich will es mal umformulieren:
Es erscheint mir sinnvoll als Reaktion und Plan-B für Probleme in der Fertigung.
Es erscheint mir unsinnig und unnötig teuer als geplante Variante.

Sunrise
2016-03-22, 12:52:11
Nur wie wahrscheinlich ist es, dass AMD in 2016 Polaris in 14nm, 2017 Vega in 16FF bringt, wenn der 10nm Prozess für 2017 bereit ist für Volta? Da müsste ja auch Navi schon in 10nm in Spät 2017/Früh 2018 vor den Türen stehen. Vielleicht auch der Entwicklungsstau auf 28nm der zu solchem Tempo führt?
Wenn AMD diese Chips für 14nm und 16nm entworfen hat, dann werden sie damit auch kommen. Wenn NV 10nm für Volta zwingend benötigt, dann wird er damit auch gefertigt und ausgeliefert werden, weil er bereits bei der Planung nur so realisiert werden konnte.

Navi kommt recht sicher auf 10nm/7nm, weil das für diese Multi-Die-Strategie auf einem Interposer fast schon zwingend ist.

Hübie
2016-03-22, 12:53:45
GP100 dürfte doch eh für uns gamer uninteressant sein. Das ist dann eher GP102, wenn wir die Zeichen richtig deuten.
Du hast ja noch den Markt für Workstations wo du bequem 2-4 GP100 mit dem kleinen NVLINK verknüpfen kannst und jeder Werbeagentur für 5000 Eier ordentlich Beine machen würdest. :smile: Was meinst du wieso damals Titan so übelst schnell ausverkauft war? ;D

HOT
2016-03-22, 12:53:58
Nur wie wahrscheinlich ist es, dass AMD in 2016 Polaris in 14nm, 2017 Vega in 16FF bringt, wenn der 10nm Prozess für 2017 bereit ist für Volta? Da müsste ja auch Navi schon in 10nm in Spät 2017/Früh 2018 vor den Türen stehen. Vielleicht auch der Entwicklungsstau auf 28nm der zu solchem Tempo führt?
Das ist Unsinn. AMD nutzt schon erfolgreich 14LPP, das wär einfach total sinnlos GPUs dann auch auf 16FF+ auszulegen - es gibt einfach keinen einzigen Grund dafür das so zu machen, das wär heftig teurer für Nüsse. Das ist absolut unwahrscheinlich. AMD nutzt 14LPP und Navi dann wahrscheinlich 10nm IBM/GloFo. Und sowohl AMD als auch NV 10nm-Cosumer-Chips, sprich kaufbare Grafikkarten, sind eh nicht vor Mitte 2018 zu erwarten.

Complicated
2016-03-22, 13:06:54
@Sunrise
Nein die Multidie-Strategie von AMD soll eben dazu führen nicht immer den teuersten Shrink für die verbauten IC-Komponenten nutzen zu müssen. Genau das Gegenteil wird bewirkt. Es kann auf einem reifen Prozess besser für die einzelnen Funktionen der Chips optimiert werden. (CPU, GPU, Memory, RF-Komponenten, IO) Der Interposer wird AMDs integrierte APUs ersetzen weil nicht alle Komponenten gleich gut mit neuen Fertigungen klar kommen auf diesen Leveln.

Dass Navi in 10nm kommt ist klar, doch schon in 2017? Das bezweifle ich ernsthaft für eine 10nm GPU. Und wenn Nvidia für Volta zwingend 10nm benötigt zweifle ich ebenfalls daran, dass diese schon 2017 ausgeliefert werden. Ich meine TSMC hat ja angekündigt Intel auf 10nm überholen zu wollen und früh in 2017 Massenfertigung zu liefern:
http://www.heise.de/newsticker/meldung/TSMC-will-Intel-bei-10-nm-ueberholen-2757231.html
Nur startete die 14nm LPE Produktion für Apple im November 2014 und wir werden vor Mitte 2016 keine GPUs in 14nm sehen und dann noch immer keine im Enthusiast oder HPC Bereich. Das selbe für Apples 16nm A9 der im Juni 2015 mit der Massenfertigung gestartet ist.

Ich denke einfach, dass Volta nicht in 10nm kommen kann 2017. Daher Pascal ähnlich wie Polaris mit GDDR5(X) und Volta wie Vega mit HBM2. Die Lineups werden sich vielleicht ähnlicher sein als alle denken.

scully1234
2016-03-22, 13:25:18
Mal eine Spekulation in negativer Richtung:
Es könnte sein, dass Pascal weder NVLink enthält noch HBM Speicher. Und auch, dass der GP100 es Aufgrund von Fertigungsproblemen vielleicht gar nicht in den Profisektor schafft.

Meine Spekulationsbasis:
Es gibt 2 angekündigte Projekte die mit Nvidias NVLink ausgestattet sind:
"Summit" in Oak Ridge https://www.olcf.ornl.gov/summit/
und "Sierra" in Livermore https://str.llnl.gov/march-2015/still

Beide erhalten ihre Systeme ab 2017 und in 2018 - mit Volta GPUs.
Es gibt ein Vorserien-Modell auf Basis von Pascal mit NVLink,

Dann waere das hier ja Null und Nichtig

http://www.computerpartner.at/sites/dynamic.pl?id=news20080805131659924

Ailuros
2016-03-22, 13:27:08
Daher sage ich ja, dass GP100 vielleicht nie den Desktop erreicht da nur geringe Stückzahlen für die Volta-Entwicklungssysteme produziert werden. Das kann man sich leisten wenn die Voltas schon gebucht sind und man sowieso Schwierigkeiten hatte die Pascal-Architektur in den gewünschten Parametern/Features effizient genug zu gestalten auf dem Prozess.

Ich will es mal umformulieren:
Es erscheint mir sinnvoll als Reaktion und Plan-B für Probleme in der Fertigung.
Es erscheint mir unsinnig und unnötig teuer als geplante Variante.

SA sucht sicher fuer neue Authoren :freak:

Complicated
2016-03-22, 13:29:55
Dann waere das hier ja Null und Nichtig

http://www.computerpartner.at/sites/dynamic.pl?id=news20080805131659924
Ich glaube eher das bestätigt es:
Der Supercomputer nutzt 2.304 Intel-Xeon-Prozessoren mit insgesamt 32.256 E5-Broadwell-Kernen mit 2,4 Ghz Taktfrequenz und 18 Hybridknoten auf Basis von Nvidia-Pascal-Prozessoren für die Remote-Berechnung und -Visualisierung.
Pascal ist dort nur für die Visualisierung und Remotezugriff zuständig und liefert keine Rechenpower zu den 1,4 Petaflops. Ich glaube das wurde hier im Thread auch schon beleuchtet

Hübie
2016-03-22, 13:37:07
Afaik sind die Belichtungsmaschinen mit EUV schon für 10 nm am Start und es wird schon angefangen Prototypen zu bauen. Von 28 auf 20/16/14 gab es einfach einen größeren Aufwand zu berücksichtigen, als jetzt von 16/14 auf 10/7. Zumal letztere Zahl nur ein Marketing-Stunt ist. EUV wird jetzt nach und nach günstiger, wenn man ASML mal so folgt. Die liefern glaube ich die kommenden Wochen noch ordentlich was aus.

Edit: Ich meine gelesen zu haben dass man auch erst ab 7 nm wirklich EUV benötigt...

scully1234
2016-03-22, 13:37:31
Vielleicht ist das fuer Oak Ridge dann auch nur ne weiter Ausbaustufe, man will ja wieder mit den Chinesen konkurrieren oder diese sogar verdraengen in den oberen Raengen, da sollte Volta also schon fest mit in der Planung sein

Complicated
2016-03-22, 13:40:27
Afaik sind die Belichtungsmaschinen mit EUV schon für 10 nm am Start und es wird schon angefangen Prototypen zu bauen. Wo hast du denn das gelesen?
Ich verlasse mich da auf TSMCs Aussagen in dem von mir schon geposteten Link: http://www.heise.de/newsticker/meldung/TSMC-will-Intel-bei-10-nm-ueberholen-2757231.html
Schon Anfang 2017 will TSMC mit der Massenproduktion in 10-nm-FinFet-Technik (CLN10) starten.Die sogenannte "Risk Produktion" also die Einlauf- und Testphase soll bereits Ende 2016 beginnen. Welche Lithografie TSMC bei 10 nm verwenden will, hat TSMC Forschungsdirektor Burn J. Lin schon im vorigen Jahr klar gestellt: optische Lithografie mit 193-nm-ArF-Laser und Immersionstechnik. Diese ist nach internen TSMC-Benchmarks deutlich günstiger als EUV (http://www.heise.de/newsticker/meldung/ASML-und-TSMC-melden-Erfolg-bei-der-EUV-Lithografie-2560469.html) bei angenommenen 125 Watt Lichtleistung. Und das gilt sogar noch bei dem für nur ein Jahr später geplanten 7-nm-Prozess. Erst bei 250 Watt wäre hier EUV etwa gleichwertig, aber da lohnt sich dann schon eher das direkte Beschreiben mit Multiple E-Beam (MEB).

AffenJack
2016-03-22, 13:41:58
Ich glaube eher das bestätigt es:

Pascal ist dort nur für die Visualisierung und Remotezugriff zuständig und liefert keine Rechenpower zu den 1,4 Petaflops. Ich glaube das wurde hier im Thread auch schon beleuchtet

Es gibt aber andere Designwins wie das eine Wetterberechnungsdings in USA wo Pascal dieses Jahr rienkommt und für Computing verwendet wird. Und man wird ganz sicher HBM da nicht rausschmeißen:freak:

Du solltest dir mal überlegen für wen Samsung mit der HBM2 Massenfertigung angefangen hat, wo AMD erstmal kein HBM braucht zur Mitte des Jahres.

Hübie
2016-03-22, 13:42:20
Schau mal bei ASML. Kann mich natürlich täuschen und es war nicht TSMC. ;)

Troyan
2016-03-22, 13:44:49
Können wir mit dem Fanfiction wieder aufhören? Pascal hat HBM2 und NVLink.

scully1234
2016-03-22, 13:45:27
Kam das jetzt von Charlie?

Complicated
2016-03-22, 13:47:05
Es gibt aber andere Designwins wie das eine Wetterberechnungsdings in USA wo Pascal dieses Jahr rienkommt und für Computing verwendet wird.
Und welche? Ich konnte bisher keine finden für Pascal HPCs. Für Links oder Infos bin ich dankbar. Ansonsten würde ich das ja nicht spekulieren wenn die einzigen Systeme mit IBM+NVLink auf Volta basieren. Pascal bisher Fehlanzeige für Produktivsysteme. Nur die Entwicklersysteme scheinen hier mit Pascal.

Wie ich schon sagte. Es ist eine Spekulation aufgrund von fehlenden Hinweisen auf Pascal-HPC Systeme mit NVLink. Gerne lasse ich mir meine Hypothese widerlegen, dazu ist das Forum ja schließlich da.

Ailuros
2016-03-22, 13:48:14
Es gibt aber andere Designwins wie das eine Wetterberechnungsdings in USA wo Pascal dieses Jahr rienkommt und für Computing verwendet wird. Und man wird ganz sicher HBM da nicht rausschmeißen:freak:

Du solltest dir mal überlegen für wen Samsung mit der HBM2 Massenfertigung angefangen hat, wo AMD erstmal kein HBM braucht zur Mitte des Jahres.

Nur mal so nebenbei bei SA wird behauptet dass es bei Samsung ein paperlaunch fuer HBM2 Herstellung war *grunz* ROFL :D

Complicated
2016-03-22, 13:53:43
Können wir mit dem Fanfiction wieder aufhören? Pascal hat HBM2 und NVLink.Das ist ein Spekulationsforum. ^^ Wo wurde das denn offiziell bestätigt?

Ailuros
2016-03-22, 13:55:41
Das ist ein Spekulationsforum. ^^ Wo wurde das denn offiziell bestätigt?

Wir wissen alle dass es ein Spekulationsforum ist; nur bleibt bullshit einfach bullshit auch in diesem.

Complicated
2016-03-22, 13:58:38
Also nur durch die Behauptung es wäre Bullshit?
Irgendwie habe ich das hier wohl missverstanden oder es gelten in diesem Forum andere Gegebenheiten als in anderen.

Hübie
2016-03-22, 13:59:54
Du kannst ja auch gerne einen Monolog führen. Führt nur zu nix.

iuno
2016-03-22, 14:00:47
Nur mal so nebenbei bei SA wird behauptet dass es bei Samsung ein paperlaunch fuer HBM2 Herstellung war *grunz* ROFL :D
Aus welchem Grund sollte Samsung paperlaunchen?
Ich meine, entweder braucht jemand HBM und Samsung kann liefern oder eben nicht. Dann haetten sie aber auch nicht den Start der Massenproduktion angekuendigt :confused:

Ailuros
2016-03-22, 14:02:18
Also nur durch die Behauptung es wäre Bullshit?
Irgendwie habe ich das hier wohl missverstanden oder es gelten in diesem Forum andere Gegebenheiten als in anderen.

Ja und ich trage auch die vole Verantwortung dafuer dass ich es als Bullshit abgestempelt habe. Sonst schau Dich mal um ob Du oder wir hier die Geisterfahrer auf der Autobahn sind.

Aus welchem Grund sollte Samsung paperlaunchen?
Ich meine, entweder braucht jemand HBM und Samsung kann liefern oder eben nicht. Dann haetten sie aber auch nicht den Start der Massenproduktion angekuendigt :confused:

Uhmmm siehe weiter oben :P Spass beiseite ich bin mir ziellich sicher dass GP100 HBM2 hat und ja Sammy hat fuer NV sehr frueh die Produktion fuer dieses angefangen.

Complicated
2016-03-22, 14:06:15
Letzter Stand zu HBM und Pascal war hier die Meldung:
In unserem Forum wird auf frühere wie aktuelle Nennungen von "HBM" auf nVidia-Präsentationsfolien zum Pascal-Chip GP100 hingewiesen – womit dann bestätigt wäre, das nVidia tatsächlich auf diese Schiene geht und für den GP100 nicht GDDR5X oder andere eingebettete Speicher wie HMC verwenden wird. Irritierend ist allerhöchstens, daß andere nVidia-nahe Folien immer mal wieder von "HMC" reden, wie beispielsweise noch im letzten Sommer. Aber womöglich entstammt dies auch (sehr) frühen Projektionen, wo HBM noch nicht bekannt war, HMC allerdings (als Forschungsprojekt seitens Micron) hingegen schon seit einigen Jahren. Möglich auch, daß der Begriff "HMC" einfach als Oberbegriff für eingebettete Speicher eingesetzt wurde, obwohl dann konkret HBM eingesetzt werden wird. Die angepeilte Speicherbandbreite von grob 1 TB/sec wird man so oder so nur mit HBM erreichen können – konkret mit einem 4096 Bit DDR Speicherinterface samt einer Taktrate von 1000 MHz QDR.Tatsache ist, dass ursprünglich Volta mit HMC kommen sollte. Möglicherweise wurde bei streichen von HMC Volta auf HBM umgestellt und GP100 einfach gestrichen, da GV100 zu schnell folgt und GP100 nicht rechtzeitig fertigt wir oder nur als kleine Stückzahl als "Pipecleaner" für den Fertigungsprozess auf Interposer dient. Ausreichend für Entwicklersysteme, doch nicht für den Massenmarkt gedacht wegen den Kosten.

Ailuros
2016-03-22, 14:13:58
Ja und? Was soll dieses jetzt genau "beweisen"? Und nein sooo "schnell" kommt Volta nicht wirklich, hat aber jetzt mit dem Thema wohl nichts zu tun.

scully1234
2016-03-22, 14:17:03
2 Wochen und so einige Dinge werden sich von selbst verfluechtigen

Das das auch immer der selbe Trott ist

Complicated
2016-03-22, 14:20:53
Es hat insofern mit dem Thema zu tun wie ich es auch ausführte.
Volta wird 2017 an Kunden ausgeliefert, die NVLink in HPCs nutzen werden.
Pascals HPC-Chips sollte GP100 sein und wird mit HBM2 und NVLink als Entwicklersystem zugänglich gemacht, jedoch nicht in Produktivsystemen mit NVlink zum Einsatz kommen.
Das ausliefern von Volta in 2017 könnte zur Folge haben, dass GP100 basierende Chips überhaupt nicht in den HPC-Endkundenmarkt kommen.

scully1234
2016-03-22, 14:27:55
Wie alt ist die Suppe die Charlie da neu zusammenkocht?

Lets look

http://wccftech.com/nvidia-volta-gpus-ibm-power9-cpus-deliver-300-petaflops-performance-2017-summit-sierra-supercomputers/

Hübie
2016-03-22, 14:34:05
Ich gebs auf... :rolleyes:

Complicated
2016-03-22, 14:45:59
Wie alt ist die Suppe die Charlie da neu zusammenkocht?

Lets look

http://wccftech.com/nvidia-volta-gpus-ibm-power9-cpus-deliver-300-petaflops-performance-2017-summit-sierra-supercomputers/
A: Was hat Charlie damit zu tun?
B: Ändert dies etwas an meiner Spekulation?
C: Alle von mir genannten Quellen stammen aus der selben Zeit und schreiben das selbe.
D: was wolltest du beweisen?

Complicated
2016-03-22, 14:50:31
Nur um es nochmals zu verdeutlichen. Ich schrieb
Mal eine Spekulation in negativer Richtung:
Es könnte sein, dass Pascal weder NVLink enthält noch HBM Speicher. Und auch, dass der GP100 es Aufgrund von Fertigungsproblemen vielleicht gar nicht in den Profisektor schafft.

Meine Spekulationsbasis:
Es gibt 2 angekündigte Projekte die mit Nvidias NVLink ausgestattet sind:
"Summit" in Oak Ridge https://www.olcf.ornl.gov/summit/
und "Sierra" in Livermore https://str.llnl.gov/march-2015/still

Beide erhalten ihre Systeme ab 2017 und in 2018 - mit Volta GPUs.
Es gibt ein Vorserien-Modell auf Basis von Pascal mit NVLink, welches lediglich als Entwicklersystem für die Volta-basierenden Systeme dient. Dies deutet IMHO auf zu hohen Verbrauch der Pascal-Charge. Zitat aus dem zweiten Link:

Daraus könnte man fast ableiten es gäbe eine ähnliche Konstellation wie bei Polaris/Vega. Pascal ohne HBM und Volta darüber mit HBM. Denn welchen Sinn ergibt ein GP100 mit voller maximaler Ausstattung, HBM und NVLink wenn Volta ab 2017 schon in den HPCs fest eingeplant ist?

Weitere Quellen Nvidia und IBM:
http://www-03.ibm.com/press/us/en/pressrelease/47318.wss
http://www.teratec.eu/actu/calcul/Nvidia_Coral_White_Paper_Final_3_1.pdf
http://www.nvidia.com/object/exascale-supercomputing.html
Was natürlich sofort als Bullshit identifiziert wurde ohne einen der Links überhaupt anzuklicken, während dieser flapsige Spruch:
SA sucht sicher fuer neue Authoren :freak:
Als sofortige Tatsache gesehen wird, dass Charlie damit zu tun hat?

P.S.: War jetzt keine Kritik an dem launigen Spruch, nur an dem daraus seltsam abgeleiteten, dass Charlie Quelle dafür war.

Unicous
2016-03-22, 14:53:30
Bist du dann irgendwann mal fertig? Dieser FUD der auf nichts fußt muss ja nicht wieder über mehrere Tage und Seiten geführt werden.:rolleyes:

Timbaloo
2016-03-22, 15:31:55
Ohje, es wird wirklich Zeit für handfestes.

Desweiteren bin ich gespannt was der Relaunch von 3DFX bringen wird.

scully1234
2016-03-22, 15:40:25
Auferstehung von SFR fuer VR Phoenix never die:)

Skysnake
2016-03-22, 15:46:30
Das liegt einfach am Zeitplan. 2014 wurde der Vertrag für Sierra und Summer unterzeichnet. Pascal ist dann, 2017, schon "veraltet" um den als large scale machine zu bauen. Schau dir mal die road to exascale an, complicated.

NVLINK haben die ja jetzt schon am laufen.
Am laufen ja, aber auch so wie geplant, bzw dargestellt?

Ansonsten muss man schon sagen, dass Summit und Sierra eben erst 2018 laufen werden. 2017 werden die nur bestückt und angefahren, soweit man das bisher abschätzen kann.

Vor Q4 muss man da also mit keinen Produkten rechnen, eher sogar erst 2018, weil die sehr sicher die ersten Chargen abbekommen werden.

Ansonsten sollte man sich auch durch den Kopf gehen lassen, dass die öffentliche Kommunikation von den Centern sehr klar macht, das man sich auch jetzt noch alle Optionen offen hält. Da ist also noch rein gar nichts in trockenen Tüchern.

N0Thing
2016-03-22, 15:56:50
Also nur durch die Behauptung es wäre Bullshit?
Irgendwie habe ich das hier wohl missverstanden oder es gelten in diesem Forum andere Gegebenheiten als in anderen.

Nimm es nicht persönlich, es war das gleiche mit dem Verzicht auf 20nm, was als Bullshit verschrien wurde.

Ich kann mir aber nicht vorstellen, daß der Pascal Top Dog ohne HBM kommt und Nvidia eine weitere Generation keine HPC-Karte mit hoher DP-Leistung heraus bringen wird. Da spricht alles mir bekannte Material von Nvidia dagegen und nur weil Summit auf Volta setzt (was scheinbar auch erst zu einem Zeitpunkt nach Q1 2018 für Nutzer freigegeben wird²), würde ich HBM und NV-Link nicht für Pascal ausschließen, das ist etwas dünn.


² https://www.olcf.ornl.gov/summit/

Summit General User Access Begins CY2018
Target date for user access to Summit

Complicated
2016-03-22, 16:03:41
Was einfach auffällt ist, dass es keinerlei solcher Ankündigungen für Pascal basierte HPCs gibt. Die sollten ja mittlerweile irgendwo vorhanden sein, wenn Volta-Systeme schon klare User-Roadmaps aufweisen. Wie gesagt es ist hoch Spekulativ und basiert auf der Abwesenheit solcher Meldungen zu diesem Zeitpunkt.

Wirklich bekannt sind kleine Chargen und eben Entwicklersysteme.

iuno
2016-03-22, 16:14:27
Die Quadro M6000 gibt es seit heute auch mit 24 GiB (http://images.nvidia.com/content/pdf/quadro/data-sheets/NV-DS-Quadro-M6000-24GB-US-NV-fnl-HR.pdf). Pascal not for HPC confirmed :eek: :tongue:

Unicous
2016-03-22, 16:24:36
Ok, damit ist es eindeutig. Wie konnte ich nur zweifeln.:eek:

Der Vergleich zu 20nm hinkt damit auch überhaupt gar nicht mehr, obwohl es ja mehrere fortgeschrittene Projekte gab, sogar die Konsolenchips geshrinked werden sollten.
Mit Wirtschaftlichkeit hatte das Ganze nämlich rein gar nichts zu tun, als die Verlautbahrungen von TSMC auf die Realität trafen und so gut wie jeder, außer Apple und Qualcomm 20nm fallen ließen.:rolleyes:

gedi
2016-03-22, 16:48:24
Das soll ne Eigenheit sein von 3D Mark ,das er bei nicht bekannten GPUs auf diesen Takt pinnt, das ist auch bei anderen irregulaeren Ergebnissen zu sehen




Falls das keine Testplatinen sind so kurz vor Release, ists doch sehr ungewoehnlich das hier Desktopmotherboards ploetzlich mobile Chips beherbergen sollten.

Und was hast du schon wieder mit diesem ''mobile Maxwell'' am Hut, ist das irgendwie so ne Art Running Gag, der hier alle 2 Seiten wiederholt wird:tongue:

Bei meinem Laptop ist lediglich der Inspector in der Lage die korrekten Taktraten (also P0) auszulesen. Und ich habe eine eigentlich bekannte 980m im Laptop verbaut. BTW. passend zu einem Notebook-Chip die niedrigen Vram Werte von 2G

Sunrise
2016-03-22, 17:59:20
@Sunrise
Nein die Multidie-Strategie von AMD soll eben dazu führen nicht immer den teuersten Shrink für die verbauten IC-Komponenten nutzen zu müssen. Genau das Gegenteil wird bewirkt.
Es geht nicht um den teuersten Shrink bei meiner Aussage, sondern darum, dass Navi auch deshalb wahrscheinlich erst ab 10nm kommt, weil du, damit Multi-Die richtig funktioniert kleine Chips benötigst, die nach oben skalieren müssen mit zusätzlichem Verschnitt für Logik, damit die einzelnen Chips zusammen arbeiten können. Diese müssen alleine (ein Chip) aber bereits die besten Eigenschaften haben, damit du nach oben überhaupt skalieren kannst und die Dinger eben schnell genug sind und effizient (und zwar beides besser als deine letzte Generation). Sowas kannst du nicht nur aus der Architektur rausholen, da gibt dir der Prozess Grenzen, die du nicht umgehen kannst.

Gegenüber Polaris/Vega wird AMD relativ sicher einen kleineren Prozess benötigen, damit man sowohl schneller als Polaris/Vega in den jeweiligen Segmenten skalieren kann, weil die Logik eingerechnet werden muss und die Chips ja komplexer werden. Das ist meine Aussage im Kern. Das ist wohl auch einer der Gründe, warum das bisher (zusätzlich zur API und Software-Hindernissen) nicht umgesetzt wurde.

Das wird ja auch nicht aus Spaß gemacht, sondern aus dem Grund, da die Fertigung immer teurer wird und der Mehrwert geringer, also wird natürlich auch nicht immer der teuerste Prozess genommen, sonst könntest du auch gleich wieder einzelne Chips bauen und in den entsprechenden Märkten verkaufen. Es sollten aber keine Prozesse sein, die dich limitieren, denn was bringen dir kleine Chips die du nach oben skalieren kannst, die aber schlichtweg platzlimitiert sind um deine Architekturverbesserungen umzusetzen und du selbst wenn, dann an Verbrauchslimits rennst, die bei den jeweils älteren Prozessen eben schneller erreicht werden.

Complicated
2016-03-22, 18:10:00
Sicherlich ist es besser je kleiner die verwendeten ICs sind auf einem Interposer. Nur vielleicht sind sie ja in 14nm klein genug. AMD wollte ja 14nm lange nutzen.

Sunrise
2016-03-22, 18:16:51
Sicherlich ist es besser je kleiner die verwendeten ICs sind auf einem Interposer. Nur vielleicht sind sie ja in 14nm klein genug. AMD wollte ja 14nm lange nutzen.
Ich würde das jetzt auch nicht unbedingt ausschließen, ist nur laut gedacht. Eventuell schüttelt AMD nach Polaris und Vega ja irgendwas aus dem Ärmel und erreicht wieder rein über die Architektur soviel, dass die zusätzliche Logik für Multi-Die nicht so stark ins Gewicht fällt. Es war aber meist so, dass man eben zusätzlich komplexer wurde, weil sowohl zusätzliche Einheiten als auch Architekturverbesserungen wohl meist nicht umsonst sind, sondern Platz brauchen und wenn man die TDP schon ganz unten möglichst weit runterdrücken kann, man eben nach oben deutlich mehr Skalierungsspielraum hat. Darüber gibts leider meines Wissens nur ein paar Patente, aber nichts Konkretes.

Generell aber sind die Zeiträume der Vorstellung Yield-gebunden und sowohl bei NV als auch AMD hinsichtlich Wirtschaftlichkeit maßgeblich entscheidend. Wenn NV feste Verträge mit ordentlich Geld im Sack hat, dann kann NV auch 2017 schon Produkt X produzieren und ausliefern (wenn es läuft), das muss aber mit dem Massenmarkt nicht kompatibel sein, weil der Preis (Yield zu schlecht) viel zu hoch ist für Endkunden, damit NV Gewinne machen kann. Ich bezweifle es allerdings stark, NV gibt hier sehr aggressive Zeitpläne vor, die sie immer wieder revidieren.

Ailuros
2016-03-22, 18:18:30
Es hat insofern mit dem Thema zu tun wie ich es auch ausführte.
Volta wird 2017 an Kunden ausgeliefert, die NVLink in HPCs nutzen werden.
Pascals HPC-Chips sollte GP100 sein und wird mit HBM2 und NVLink als Entwicklersystem zugänglich gemacht, jedoch nicht in Produktivsystemen mit NVlink zum Einsatz kommen.
Das ausliefern von Volta in 2017 könnte zur Folge haben, dass GP100 basierende Chips überhaupt nicht in den HPC-Endkundenmarkt kommen.

Volta wird es nicht in 2017 schaffen; warte in der Zukunft auf den naechsten roadmap update, aber wie schon gesagt es hat ueberhaupt nichts mit dem Thema hier zu tun.

Nur um es nochmals zu verdeutlichen. Ich schrieb

Was natürlich sofort als Bullshit identifiziert wurde ohne einen der Links überhaupt anzuklicken, während dieser flapsige Spruch:

Als sofortige Tatsache gesehen wird, dass Charlie damit zu tun hat?

P.S.: War jetzt keine Kritik an dem launigen Spruch, nur an dem daraus seltsam abgeleiteten, dass Charlie Quelle dafür war.

Du kannst Dich nach wie vor fuer SA als Autor bewerben. Das Talent fuer frei erfundene Maerchen ist allemal da. Man nennt so etwas Sarkasmus. Koennen wir jetzt endlich wieder zur Realitaet zurueckkommen?

Ok, damit ist es eindeutig. Wie konnte ich nur zweifeln.:eek:

Der Vergleich zu 20nm hinkt damit auch überhaupt gar nicht mehr, obwohl es ja mehrere fortgeschrittene Projekte gab, sogar die Konsolenchips geshrinked werden sollten.
Mit Wirtschaftlichkeit hatte das Ganze nämlich rein gar nichts zu tun, als die Verlautbahrungen von TSMC auf die Realität trafen und so gut wie jeder, außer Apple und Qualcomm 20nm fallen ließen.:rolleyes:

Das Problem mit 20SoC war hauptsaechlich dass manche vehement darauf bestanden dass 20SoC nur fuer ULP SoCs geeignet waere. Ich hab damals spezifisch nachgefragt und die Antwort war klipp und klar dass 20SoC praktisch fuer alles geeignet ist, nur eben problematisch ist weil es zu wenig Strom spart fuer die groessere Transistoren-dichte die es liefern kann.

Hier nochmal die neueste relevante Behauptung von einem ULP SoC Hersteller:

http://images.anandtech.com/doci/9762/P1030606.jpg

Complicated
2016-03-22, 18:34:44
Dein Sarkasmus war kaum gehaltvoller als meine Spekulation. Mehr inhaltslose Seiten hat er auf jeden Fall produziert. Gratuliere :freak:

Ailuros
2016-03-22, 18:41:25
Dein Sarkasmus war kaum gehaltvoller als meine Spekulation. Mehr inhaltslose Seiten hat er auf jeden Fall produziert. Gratuliere :freak:

Na wenigstens ein ehrliches Eingestaendnis. Ergo hat jetzt GP100 HBM odfer nicht? 50-50, 60-40 oder 80-20 Chancen? :P

Hübie
2016-03-22, 18:47:54
Am laufen ja, aber auch so wie geplant, bzw dargestellt?

Ansonsten muss man schon sagen, dass Summit und Sierra eben erst 2018 laufen werden. 2017 werden die nur bestückt und angefahren, soweit man das bisher abschätzen kann.

Vor Q4 muss man da also mit keinen Produkten rechnen, eher sogar erst 2018, weil die sehr sicher die ersten Chargen abbekommen werden.

Ansonsten sollte man sich auch durch den Kopf gehen lassen, dass die öffentliche Kommunikation von den Centern sehr klar macht, das man sich auch jetzt noch alle Optionen offen hält. Da ist also noch rein gar nichts in trockenen Tüchern.

Du weißt ja selber wie kompliziert Differenzialsignale bei hohen Taktraten sind. Wahrscheinlich viel besser als ich es je wissen werde. ;)
PS: Scheinst ja gut untergekommen zu sein. :up: Darf man Glückwunsch sagen?

Unicous
2016-03-22, 18:53:32
@Ailuros

So meinte ich es ja auch. Projekte gab es genug, nur war 20SOC nicht der goldene Gral als den TSMC es vor ein paar Jahren noch dargestellt hatte. Als langsam klar wurde, dass die Vorteile gegenüber 28HP(M) nicht so üppig ausfallen, wurde er wieder fallen gelassen. Für Apple jedoch reichte der Flächenvorteil wohl aus, bzw. sie hatten keine andere Wahl, wenn sie die Abermillionen an Chips rechtzeitig unters Volk bringen wollten.

Es war also ein rein wirtschaftliche Abwägung, die 20nm letztendlich zu Fall brachte, nicht der Name 20SOC.:wink:

Complicated
2016-03-22, 19:00:03
@Ailuros
Nur halte ich mich an das Topic und frage mich wozu deine Berufsberatung aka Selbstdarstellung hier gehört. :rolleyes:

Wenn du als Themen-Wegelagerer nun fertig bist mit deinen Einwürfen würde ich gerne dem Topic noch weitere Quellen hinzufügen:
http://vrworld.com/2014/11/14/ibm-and-nvidia-to-build-100-petaflop-supercomputers/
In order to achieve this level of performance, the laboratories participating in the CORAL initiative are harnessing the power of IBM’s (NYSE: IBM) Power 9 architecture CPUs and Nvidia’s (NASDAQ:NVDA) yet-t0-be-announced Volta GPUs. This means that since this machine is expected to come online in 2017, that we can very likely expect to see Volta GPUs in 2017. The project will use Mellanox’s interconnect technologies to connect the systems together, but in order to connect the GPU to the CPU, they will be using Nvidia’s own NVLink GPU interconnect.
[...]
It also means that Nvidia will finally make use of NVLink, which they announced will be coming out with the Pascal GPU, the predecessor to Volta. Nvidia has already said we can expect to see Pascal in 2016, which means the transition from Pascal to Volta will be a fairly quick one.

Pascal wird wohl nicht lange eine Rolle spielen und daher auch GP100 am ehesten keinen Endkunden erreichen und daher auch kein HBM in Endprodukten mit Pascal. GP104 sehe ich nicht als HBM Produkt kommen sondern als GDDR5 Chip.

Zudem geht aus dem zitierten Teil hervor, dass Nvidias NVLink nicht zur Anbindung der Nodes untereinander verwendet wird, sondern ausschließlich zur Anbindung an die CPU als PCIe Ersatz.

scully1234
2016-03-22, 19:05:24
Sollte das Huang mal jemand mitteilen, bevor der im April in den Ring steigt, und falsche Erwartungen weckt

Ailuros
2016-03-22, 19:07:48
Ein newsblurb aus 2014. Wir sind im ersten Quartal 2016 und es kann sich einiges seither geaendert haben. NV engineering ist sich heute aber nicht mehr so selbstsicher ueber einen 2017 release und nein Du wirst es leider nicht in irgend einem newsblurb, Geruecht oder auf Daechern wo Katzen scheissen finden koennen, weil ich es einfach aus erster Hand gehoert habe. Und wer kam zu der tollen Schlussfolgerung, Anshel? Ok :D

N0Thing
2016-03-22, 19:11:05
@Ailuros

Es war also ein rein wirtschaftliche Abwägung, die 20nm letztendlich zu Fall brachte, nicht der Name 20SOC.:wink:


Und genau dies hatte damals auch der Blog anhand von Folien und Aussagen heraus gestellt. Hat trotzdem nicht verhindert, dass jeder, der hier im Forum diese Spekulation als realistisch angesehen hat, als Idiot bezeichnet wurde und der Autor als Lügner und der Beitrag als clickbait hingestellt wurde.

Das Highlight war dann, dass trotz Hinweis auf die wirtschtliche Komponente unterstellt wurde, es würde nur wegen dem Namen dieses Gerücht in die Welt gesetzt. Von daher würde es manchen Membern nicht schaden, hier etwas weniger überheblich aufzutreten.




Wenn du als Themen-Wegelagerer nun fertig bist mit deinen Einwürfen würde ich gerne dem Topic noch weitere Quellen hinzufügen:
http://vrworld.com/2014/11/14/ibm-and-nvidia-to-build-100-petaflop-supercomputers/

Die Meldung ist auch schon fast 1 1/2 Jahre alt und offensichtlich soll es ja nicht mehr in 2017 zum Einsatz von Volta kommen, sondern erst im Verlauf des Jahres 2018, sofern alles glatt geht.

Complicated
2016-03-22, 19:12:34
@Ailuros
Die aktuellste Quelle stammt von IBM und ist vor 3 Seiten gepostet worden. Juli 2015. Du siehst wie sich das sinnlos ohne Inhalt füllt? Lesen hilft ungemein vor dem antworten bevor man sich als Thread-Seiten-Saver aufspielt. Und niemand kann ohne eine Volta GPU in 2017 ein HPC-System aufbauen das in Q1 2018 von Usern genutzt werden soll. Es ist doch wohl klar dass Volta dann auch in 2017 vor Dezember verfügbar sein muss.

N0Thing
2016-03-22, 19:15:41
Und niemand kann ohne eine Volta GPU in 2017 ein HPC-System aufbauen das in Q1 2018 von Usern genutzt werden soll. Es ist doch wohl klar dass Volta dann auch in 2017 vor Dezember verfügbar sein muss.

Es soll nicht in Q1 2018 genutzt werden, sondern im Jahr 2018. In Q1 2018 finden Workshops zur Schulung statt.

Complicated
2016-03-22, 19:20:15
http://www-03.ibm.com/press/us/en/pressrelease/47318.wss
They will enable advanced, large-scale scientific and engineering applications both for supporting DOE missions, and for the Summit and Sierra supercomputer systems to be delivered respectively to Oak Ridge and Lawrence Livermore in 2017 and to be operational in 2018.
Lieferung in 2017 und betriebsbereit in 2018. Gemeldet 13.07.2015

Edit: Ich hatte aus deinem Zitat Q1 2018 im Kopf anstatt CY 2018.
Edit2: Daher hatte ich das Q1
On-site, hands-on workshops to prepare users for Summit

Ailuros
2016-03-22, 19:20:43
@Ailuros
Die aktuellste Quelle stammt von IBM und ist vor 3 Seiten gepostet worden. Juli 2015. Du siehst wie sich das sinnlos ohne Inhalt füllt? Lesen hilft ungemein vor dem antworten bevor man sich als Thread-Seiten-Saver aufspielt. Und niemand kann ohne eine Volta GPU in 2017 ein HPC-System aufbauen das in Q1 2018 von Usern genutzt werden soll. Es ist doch wohl klar dass Volta dann auch in 2017 vor Dezember verfügbar sein muss.

NV wird es wohl schwer zum letzten schaffen. Wie gesagt warte auf die naechste roadmap ab.

Unicous
2016-03-22, 19:25:03
@N0Thing

Dann lies dir mal durch, was HOT so alles in den entsprechenden Threads gedropped hat. Ich weiß nicht welche "Propheten" du gerade im Kopf hast, aber es gab genug Leute, die behauptet haben, mit 20SOC könnte man gar keine großen Chips herstellen. Bei Beweisen oder gar Indizien die darauf hindeuten würden wurde es dann ganz dünn.

Den wirtschaftlichen Faktor hat dabei niemand angesprochen. Außer der Behauptung, iirc, die Yields wären total schlecht bie 20SOC und noch mehr substanzloser FUD.

Welchen Blog meinst du eigentlich?:confused:

Und mit Überheblichkeit hat das nichts zu tun. Du kannst dir gerne meine Beiträge von damals heraussuchen.

Dural
2016-03-22, 19:40:03
Ich wäre mir da gar nicht mehr so sicher das volta in 10nm kommt. Könnte auch so laufen wie bei maxwell: neue architekur im alten prozess. Zudem hat Amd letztes jahr ganz klar gesagt das 14/16nm die selbe lebenszeit haben wird wie 28nm. Die aussage finde ich immer noch erstaunlich.

Ailuros
2016-03-22, 19:44:53
Ich wäre mir da gar nicht mehr so sicher das volta in 10nm kommt. Könnte auch so laufen wie bei maxwell: neue architekur im alten prozess. Zudem hat Amd letztes jahr ganz klar gesagt das 14/16nm die selbe lebenszeit haben wird wie 28nm. Die aussage finde ich immer noch erstaunlich.

Es ist normal dass IHVs selbst die absehbare Zukunft leicht falsch abschaetzen. Bei der letzten offiziellen roadmap war Volta nur noch randmaessig im 2017 und eigentlich im 2018 Bereich. http://www.kitguru.net/wp-content/uploads/2015/09/NVIDIA-Pascal-GPU_Roadmap.jpg

Complicated
2016-03-22, 19:45:57
no Hotlink zur Quelle..

Ailuros
2016-03-22, 19:49:49
no Hotlink zur Quelle..

Die roadmap ist offiziell.

Complicated
2016-03-22, 20:20:10
"No Hotlink allowed" ist die Meldung die kommt wenn man den Link anklickt. Die Roadmap ist nicht zu lesen egal wie offiziell sie ist.

Unicous
2016-03-22, 20:21:27
Zu faul zu suchen oder was?:rolleyes:

http://www.kitguru.net/components/graphic-cards/anton-shilov/nvidia-changes-roadmap-volta-is-now-due-in-2018/

Hier noch mal mit einer vertrauenswürdigen Person im Bild.

http://media.gamersnexus.net/media/k2/items/cache/2740b6ea1c9985b0dc5c6f8505b85edc_XL.jpg

Timbaloo
2016-03-22, 20:22:34
http://www.kitguru.net/components/graphic-cards/anton-shilov/nvidia-changes-roadmap-volta-is-now-due-in-2018/

(man kann auch nach dem Link suchen, zumindest habe ich das so gemacht)

E: Zu langsam oder was :(

Ailuros
2016-03-22, 20:23:11
http://www.kitguru.net/components/graphic-cards/anton-shilov/nvidia-changes-roadmap-volta-is-now-due-in-2018/

Ailuros
2016-03-22, 20:30:59
Zu faul zu suchen oder was?:rolleyes:

http://www.kitguru.net/components/graphic-cards/anton-shilov/nvidia-changes-roadmap-volta-is-now-due-in-2018/

Hier noch mal mit einer vertrauenswürdigen Person im Bild.



Das Du jetzt die schraegste Perspektive der roadmap ausgewaehlt hast, muss Absicht sein LOL :biggrin:

Unicous
2016-03-22, 20:33:07
Nicht schräger als die Theorien die hier gerade umher schwirren.:eek:

Hübie
2016-03-22, 21:14:54
Zu faul zu suchen oder was?:rolleyes:

http://www.kitguru.net/components/graphic-cards/anton-shilov/nvidia-changes-roadmap-volta-is-now-due-in-2018/

Hier noch mal mit einer vertrauenswürdigen Person im Bild.


:biggrin:X-D(y)

Ich glaub manchmal haben einige User langeweile und dann geht der Kopf in den idle-mode. Daher seitenlang viel quatsch. Und scully scheint geil auf was neues zu sein. :freak:

Godmode
2016-03-22, 21:26:07
Naja, wer ist nicht geil auf was neues? GM200 ist ~1 Jahr auf dem Markt und zu langsam für 4k und volle Details. GP100/2 wird es hoffentlich richten.

scully1234
2016-03-22, 22:37:24
Halt halt ich hab die wilde Theorie nicht ins leben gerufen,oder pflichte dem in irgend einer Weise bei, auch wenn ich vorhin sagte, man solle Huang in Kenntnis setzen darueber:biggrin:

Ich bin einfach nur geil.... auf was Neues:tongue:

Naja, wer ist nicht geil auf was neues? GM200 ist ~1 Jahr auf dem Markt und zu langsam für 4k und volle Details. GP100/2 wird es hoffentlich richten.

Damit gehe ich konform, nichts ist schlimmer als ein Jahr alte Hardware, gut die Frau manchmal, aber das ist ne andere Story

BigKid
2016-03-23, 15:43:39
Ich spekulier mal wieder mit (und ja - ich weiss ich bin ein Noob also ...)

Es gab doch Gerüchte dass wir Pacal zuerst in Notebooks sehen könnten ? Hier haben das natürlich viele als Rebrands abgetan ... aber:
Will AMD nicht auch zuerst ins Mainstream/Notebook Segment ? Speziell im Notebookmark ist es aber wichtig jedes Jahr ne "neue" GPU verbauen zu können...
FALLS NV davon Wind bekommen hat könnte es doch gut sein, dass sie genau hier kontern um zu verhindern, dass zu viele Hersteller zu AMD gehen ?

Jedenfalls gibt es am Markt MXM -> PCIe Adapter:
http://www.xtremesystems.org/forums/...PCI-e-x16-card

Eventuell sind die Benchmarkwerte doch von nem Chip für den mobile Markt ? Macht es dann eventuell auch doch auch Sinn, dass sie für MXM und die "kleinen" Pascals kein HMB sondern "konventionellen" Speicher nutzen ?

iuno
2016-03-23, 15:59:56
Die kleinen Pascals nutzen sowieso keinen HBM, wahrscheinlich nichtmal GP104.
Die Benchmarkwerte sind nutzlos, da lohnt sich nicht weiter nachzuschauen.

Was willst du mit einem MXM PCIe Adapter? Selbstverstaendlich kommt eine mobile Karte auf MXM Board und eine fuer den Desktop mit PCIe. Im Testaufbau verbaut man eine "mobile" GPU auch mal auf einem PCIe Board. Aber die Pascals werden sicher ohnehin alle auch in den Desktop kommen. An einen Notebook-only Chip glaube ich nicht.

BigKid
2016-03-23, 16:08:27
Die kleinen Pascals nutzen sowieso keinen HBM, wahrscheinlich nichtmal GP104.
Die Benchmarkwerte sind nutzlos, da lohnt sich nicht weiter nachzuschauen.

Was willst du mit einem MXM PCIe Adapter? Selbstverstaendlich kommt eine mobile Karte auf MXM Board und eine fuer den Desktop mit PCIe. Im Testaufbau verbaut man eine "mobile" GPU auch mal auf einem PCIe Board. Aber die Pascals werden sicher ohnehin alle auch in den Desktop kommen. An einen Notebook-only Chip glaube ich nicht.
Es würde erklären wieso/wie die Werte auf einem Desktop System gemessen wurden aber trotzdem von einer MXM/Mobile GPU stammen könnten...
Übrigens... SOO Klein sind die Laptop-Chips nu auch nicht mehr... Eine GTX980M mit 8GB kann sich fast mit einer GTX970 anlegen (beide um die 10.000 Punkte im Firestrike) - hat aber deren Probleme (Speicheraufteilung) nicht...
Und nein... Die Werte ziehe ich mir nicht aus dem Hintern sondern hab sie selbt gemessen...
http://www.3dmark.com/fs/3994549

Wenn die nächste Generation noch effizienter wird, dann wird der Abstand hier eventuell noch kleiner... Denn in LT limitiert vor allem der Verbrauch/die Hitze...

Und wieso ich mit Laptops anfange:
https://www.reddit.com/r/nvidia/comments/48xbdq/nvidia_pascal_to_be_unveiled_at_gtc_in_april/

Ich denke bei Laptops sind die Vorlaufzeiten höher... Wenn es NV nicht schafft rechtzeitig zu liefern, dann muss der LT Hersteller halt auf die existierenden Chips (oder AMD) zurückgreifen... Wie gesagt - in speziell diesem Markt scheint es SO wichtig zu sein immer die aktuelle/neue GPU am start zu haben, dass NV eigens und nur dafür die "GTX800" Reihe erschuf (ja - war nur rebrand)... Trotzdem sah man sich wohl im Laptop Markt genötigt das zu tun wärend man im Desktop-Markt darauf verzichtet hat...

Dazu kommt, dass man beim Laptop erstmal ohne HBM und NVLINK antreten kann (bzw. muss?) ... auch kann man es sich leisten hier erstmal niedriger zu tackten und nicht ans limit zu gehen...

Also quasi ein Softlaunch des Pascals...

iuno
2016-03-23, 16:18:57
Es würde erklären wieso/wie die Werte auf einem Desktop System gemessen wurden...

Dass Pascal direkt ins Notebook kommt wurde ja schon spekuliert. Das heisst aber nicht, dass es keine Desktop Karten gibt.
Davon abgesehen
das muss nichts heissen, der [Polaris] Chip, der im Dezember gezeigt wurde, war angeblich auch fuer Notebooks vorgesehen, testweise auf einem PCIe Board.
Selbst ImgTec baut ihre PowerVRs auf PCIe Boards zum Testen

Es ist nicht wichtig, die neueste/beste GPU am Markt zu haben, sondern den Kunden bestmoeglich zu trollen, sonst gaebe es ja ueberhaupt keine Rebrands.

BigKid
2016-03-23, 16:28:14
Dass Pascal direkt ins Notebook kommt wurde ja schon spekuliert. Das heisst aber nicht, dass es keine Desktop Karten gibt.
Davon abgesehen


Es ist nicht wichtig, die neueste/beste GPU am Markt zu haben, sondern den Kunden bestmoeglich zu trollen, sonst gaebe es ja ueberhaupt keine Rebrands.

Mir gings auch eher darum wo er ZUERST auftaucht und da hielten/halten es ja viele für unwarscheinlich, dass er ZUERST in Laptops sein Debut feiert...
Und dazu sahen die jetzt grad aufgetauchten Benchwerte und Takte "mau" aus... Und da dachte ich mir wieder... Joo... Aber für Laptops... ... ...
Konkret gings mir um diese Meldung:
http://www.3dcenter.org/news/3dmark11-ergebnisse-von-mutmasslich-pascal-basierten-beschleunigern-aufgetaucht

Die Frage ist doch:
- WILL man den Kunden auch dann Trollen wenn man es vermeiden kann ?
- Macht der Partner (in dem Fall die Laptophersteller) das beliebig oft mit ?
- Vor allem wenn er alternativen hätte ?

AffenJack
2016-03-23, 17:14:30
Mir gings auch eher darum wo er ZUERST auftaucht und da hielten/halten es ja viele für unwarscheinlich, dass er ZUERST in Laptops sein Debut feiert...
Und dazu sahen die jetzt grad aufgetauchten Benchwerte und Takte "mau" aus... Und da dachte ich mir wieder... Joo... Aber für Laptops... ... ...
Konkret gings mir um diese Meldung:
http://www.3dcenter.org/news/3dmark11-ergebnisse-von-mutmasslich-pascal-basierten-beschleunigern-aufgetaucht

Die Frage ist doch:
- WILL man den Kunden auch dann Trollen wenn man es vermeiden kann ?
- Macht der Partner (in dem Fall die Laptophersteller) das beliebig oft mit ?
- Vor allem wenn er alternativen hätte ?

Zuerst wird er in HPC auftauchen denke ich und in Laptops muss Pascal nicht so früh auftauchen. Die Laptopgeneration ist vorbei, große Refreshes mit neuen Grafikkarten wird es mit Skylake nicht mehr geben. Der Termin den Nv nicht verpassen sollte ist die Auslieferung von Kabylake, weil dann die neuen Designs kommen.

Kaby Lake ist wenn ich es richtig in erinnerung habe ja für August angesetzt, aber es heißt nicht, dass es sofort viele kaufbare Laptops geben wird. Erst wenn man diesen Zeitpunkt verpasst (Auslieferung von GPUs an Laptophersteller im Juli, kaufbar ab September) dann hat man ein Problem.
Falls ich den Kaby Lake Termin falsch habe, dann bitte korrigiert mich, aber im Prinzip wisst ihr was ich meine.

BigKid
2016-03-23, 17:42:24
Zuerst wird er in HPC auftauchen denke ich und in Laptops muss Pascal nicht so früh auftauchen. Die Laptopgeneration ist vorbei, große Refreshes mit neuen Grafikkarten wird es mit Skylake nicht mehr geben. Der Termin den Nv nicht verpassen sollte ist die Auslieferung von Kabylake, weil dann die neuen Designs kommen.

Kaby Lake ist wenn ich es richtig in erinnerung habe ja für August angesetzt, aber es heißt nicht, dass es sofort viele kaufbare Laptops geben wird. Erst wenn man diesen Zeitpunkt verpasst (Auslieferung von GPUs an Laptophersteller im Juli, kaufbar ab September) dann hat man ein Problem.
Falls ich den Kaby Lake Termin falsch habe, dann bitte korrigiert mich, aber im Prinzip wisst ihr was ich meine.
Meinst du wirklich das 1 Monat reicht ? Integratoren haben da eigentlich schon gerne mehr vorlauf... Bei Laptops ist da schon noch einiges mehr an Feinabstimmung notwendig... Da gibts keinen Rückzug auf nen zweiten Strom-Stecker... Da muss die Leiterbahn einfach dick genug sein um den Strom zu liefern... Das Netzteil muss passen... Eventuell die Spannungswandler etc... Und das Kühlsystem muss auch passend dimensioniert sein... Und am Ende muss es auch funktionieren... Out of the box funktioniert nämlich leider nicht jedes MXM Modul einfach mal so... Es kann... muss aber nicht... Wie die (leidvolle) Erfahrung zeigt...

Ejal :-)
Wir werden es ja sehen...

AffenJack
2016-03-23, 17:57:50
Meinst du wirklich das 1 Monat reicht ? Integratoren haben da eigentlich schon gerne mehr vorlauf... Bei Laptops ist da schon noch einiges mehr an Feinabstimmung notwendig... Da gibts keinen Rückzug auf nen zweiten Strom-Stecker... Da muss die Leiterbahn einfach dick genug sein um den Strom zu liefern... Das Netzteil muss passen... Eventuell die Spannungswandler etc... Und das Kühlsystem muss auch passend dimensioniert sein... Und am Ende muss es auch funktionieren... Out of the box funktioniert nämlich leider nicht jedes MXM Modul einfach mal so... Es kann... muss aber nicht... Wie die (leidvolle) Erfahrung zeigt...

Ejal :-)
Wir werden es ja sehen...

Ich meinte 2 Monate Anfang Juli zu Anfang September und ich rede von Auslieferung an den Notebookhersteller, Zusammenbau und Auslieferung der Laptops. Dafür sollten 2 Monate locker reichen.

Du redest von Samples, die die Hersteller kriegen müssen. Sowas passiert natürlich früher, aber das wird auch lange vor der Massenproduktion gemacht. Die kriegen pre-productions samples und das reicht diesen. Damit kann man locker alles anpassen und die TDP wird da auch schon festgelegt. Schaffen die Chips der Massenproduktion dann diese TDP nicht, muss Nvidia die Taktraten senken, aber am Notebookdesign ändert sich da nix mehr.

Generell denke ich immernoch eher an Ende Q3 für alles von Nvidia und traue den Gerüchten um die Computex bisher noch nicht, aber ich lass mich gerne überraschen.

BigKid
2016-03-23, 18:29:07
Ich meinte 2 Monate Anfang Juli zu Anfang September und ich rede von Auslieferung an den Notebookhersteller, Zusammenbau und Auslieferung der Laptops. Dafür sollten 2 Monate locker reichen.

Du redest von Samples, die die Hersteller kriegen müssen. Sowas passiert natürlich früher, aber das wird auch lange vor der Massenproduktion gemacht. Die kriegen pre-productions samples und das reicht diesen. Damit kann man locker alles anpassen und die TDP wird da auch schon festgelegt. Schaffen die Chips der Massenproduktion dann diese TDP nicht, muss Nvidia die Taktraten senken, aber am Notebookdesign ändert sich da nix mehr.

Generell denke ich immernoch eher an Ende Q3 für alles von Nvidia und traue den Gerüchten um die Computex bisher noch nicht, aber ich lass mich gerne überraschen.
PS: Ich korrigiere dich...
http://www.computerbase.de/2016-01/intel-kaby-lake-notebook-varianten-in-heisser-testphase/

Die Laptop-Hersteller sind JETZT schon dabei ihre Modelle für den Spätsommer zu testen - inklusive CPUs - ich denke da werden sie bei den GPUs nicht weit hinterher sein (wollen)...

Wenn NVidia kein "Wood Screw Gate 2.0" abgeliefert hat, haben wir die MXM Module vlt. sogar schon gesehen:
http://www.extremetech.com/wp-content/uploads/2016/01/PX2GPUs.jpg

Dass NV hier betrogen hat stützt sich auf 2 Behauptungen:
a) Es wird behauptet es müsse HBM sein, HBM wäre aber es aber nicht auf diesem Bild -> bei MXM Modulen wird vielleicht gar nicht auf HBM gesetzt (http://www.3dcenter.org/news/nvidia-sieht-langfristig-stromverbrauchsprobleme-bei-hbm-speicher ) ?
b) Es gibt User die behaupten die Aufschrift gelesen zu haben... Solange ich kein besseres Photo gesehen habe zweifel ich das mal an...

Zettabit
2016-03-23, 19:17:34
Kaby Lake ist wenn ich es richtig in erinnerung habe ja für August angesetzt, aber es heißt nicht, dass es sofort viele kaufbare Laptops geben wird. Erst wenn man diesen Zeitpunkt verpasst (Auslieferung von GPUs an Laptophersteller im Juli, kaufbar ab September) dann hat man ein Problem.
DigiTimes sagt Mass Production Ende des Jahres (Nov-Dez):
http://www.digitimes.com/news/a20160302PD204.html

Das heißt tatsächlich kaufbare Produkte vllt noch zu Weihnachten, richtig breite Verfügbarkeit erst 2017.

Bis dahin hat NVIDIA auch Pascal im Notebook fertig, wetten?

Auch wenn Leo das total geil fand in seiner News - ich sehe keinen großen Vorteil von AMD mit dem frühen Polaris Launch im Notebook. Auf breiter Front wird da kein OEM anfangen, sein Design anzupassen.

Hübie
2016-03-23, 23:52:59
Jetzt würfelt ihr ja. Kabylake im Notebook Ende August, Kabylake auf dem Desktop Q4'16. Pascal wird definitiv nicht zuerst im Notebook landen. Das untermauere ich jetzt auch nicht argumentativ, da es vielschichtig ist (ich hab keine Zeit). ;)

Ailuros
2016-03-24, 10:44:18
Hab's gerade auch im Polaris thread gepostet: https://www.guru3d.com/news-story/micron-starts-sampling-gddr5x-memory-to-customers.html

Die Kurve im Bildchen unten fuer GDDR5X faengt bei 10Gbps an. Ich erwartete eigentlich 11, aber es ist auch kein Weltuntergang.

10Gbps GDDR5X@256bit: 320GB/s

Timbaloo
2016-03-24, 10:48:39
Was locker für einen GP104 ausreichen dürfte...

Ailuros
2016-03-24, 10:54:43
Was locker für einen GP104 ausreichen dürfte...

...und jegliche konkurrierende Loesung dafuer von AMD.

AffenJack
2016-03-24, 11:08:46
Hab's gerade auch im Polaris thread gepostet: https://www.guru3d.com/news-story/micron-starts-sampling-gddr5x-memory-to-customers.html

Die Kurve im Bildchen unten fuer GDDR5X faengt bei 10Gbps an. Ich erwartete eigentlich 11, aber es ist auch kein Weltuntergang.

10Gbps GDDR5X@256bit: 320GB/s

Nur weil das Mindestmaß 10Gbps ist, muss es nicht heißen, dass dies im Desktop benutzt wird. Nachdem Micron schon 13Gbps Samples hat könnte ich mir 12Gbps vorstellen. 10Gbps ist dann eher für den Notebookbereich wo man Strom sparen will mit niedrigeren Taktraten. Aber gut, dass es schon Samples gibt. Vielleicht doch Hoffnung, dass wir größtenteils GDDR5X statt GDDR5 sehen.

Ailuros
2016-03-24, 11:13:43
Nur weil das Mindestmaß 10Gbps ist, muss es nicht heißen, dass dies im Desktop benutzt wird. Nachdem Micron schon 13Gbps Samples hat könnte ich mir 12Gbps vorstellen. 10Gbps ist dann eher für den Notebookbereich wo man Strom sparen will mit niedrigeren Taktraten. Aber gut, dass es schon Samples gibt. Vielleicht doch Hoffnung, dass wir größtenteils GDDR5X statt GDDR5 sehen.

Bloede Frage: da der writeup andeutet dass Micron die Produktion vorgezogen hat, macht es irgendwelchen Sinn sich vorzustellen dass sie vielleicht mit Absicht mit 10Gbps angefangen haben um die Produktion bzw. Stueckzahlen schneller zu erhoehen oder ist so etwas Bloedsinn bei Speicher?

Hübie
2016-03-24, 11:17:42
Hab's gerade auch im Polaris thread gepostet: https://www.guru3d.com/news-story/micron-starts-sampling-gddr5x-memory-to-customers.html

Die Kurve im Bildchen unten fuer GDDR5X faengt bei 10Gbps an. Ich erwartete eigentlich 11, aber es ist auch kein Weltuntergang.

10Gbps GDDR5X@256bit: 320GB/s

Vor allem:
Told ya ;)

:biggrin::biggrin: Damit dürften ja nun auch die letzten Zweifler erst mal beruhigt sein, oder?

iuno
2016-03-24, 11:19:50
Naja, welchen Sinn sollte das machen?
Wenn ein Chip/Karte mit 12 Gbps vorgesehen war, wird man ihn nicht hoffentlich nicht mit 10 Gbps frueher releasen, verhungern lassen und wenige Monate spaeter re-releasen. Und wenn eine Karte sowieso mit GDDR5 (ohne x) angedacht war, bekommt sie dadurch bestimmt keinen GDDR5X, weil teurer und vermutlich auch unnoetig.
Die wissen ja ungefaehr wie der Bedarf ist/was die Kunden wann brauchen.

Godmode
2016-03-24, 11:22:54
Naja, welchen Sinn sollte das machen?
Wenn ein Chip/Karte mit 12 Gbps vorgesehen war, wird man ihn nicht hoffentlich nicht mit 10 Gbps frueher releasen, verhungern lassen und wenige Monate spaeter re-releasen. Und wenn eine Karte sowieso mit GDDR5 (ohne x) angedacht war, bekommt sie dadurch bestimmt keinen GDDR5X, weil teurer und vermutlich auch unnoetig.
Die wissen ja ungefaehr wie der Bedarf ist/was die Kunden wann brauchen.

Bei der Geforce 256 haben sie das gemacht, da kam dann später die Geforce DDR Version.

Ailuros
2016-03-24, 11:31:27
Naja, welchen Sinn sollte das machen?
Wenn ein Chip/Karte mit 12 Gbps vorgesehen war, wird man ihn nicht hoffentlich nicht mit 10 Gbps frueher releasen, verhungern lassen und wenige Monate spaeter re-releasen. Und wenn eine Karte sowieso mit GDDR5 (ohne x) angedacht war, bekommt sie dadurch bestimmt keinen GDDR5X, weil teurer und vermutlich auch unnoetig.
Die wissen ja ungefaehr wie der Bedarf ist/was die Kunden wann brauchen.

Bleibt eben die Frage ob etwas wie ein GP104 mit "nur" 320GB auskommen kann oder ob es unbedingt 384GB brauchen wuerde. Hat Pascal nun keine sehenswerte Effizienz-Steigerungen gegenueber Maxwell, duerfte sie schon etwas in der Richtung von 384GB brauchen.

Sonst ist der chip entweder fuer GDDR5 oder 5X ausgelegt; da es einen anderen MC voraussetzt.

Hübie
2016-03-24, 11:34:40
GDDR5X hat einen fallback auf GDDR5 und das PHY ist sehr ähnlich. Wer sagt denn überhaupt dass GP104 auf GDDR5 ausgelegt ist? :|

Ailuros
2016-03-24, 11:43:37
GDDR5X hat einen fallback auf GDDR5 und das PHY ist sehr ähnlich.

Dafuer muesste es keinen kaufbaren GDDR5X Speicher geben, damit ein IHV den MC dafuer umkrempelt um am Ende nur GDDR5 zu benutzen.

Wer sagt denn überhaupt dass GP104 auf GDDR5 ausgelegt ist? :|

Keiner. Ausser vielleicht irgendwelche frei erfundene fakes die auch einen 384bit bus erwaehnen.

Hübie
2016-03-24, 11:49:32
Es ist ja nicht so dass Micron da erst seit gestern dran sitzt und das auf einmal Jensen zu wirft. :D Ich sagte ja dass es kein Zufall ist, dass München das testbed stellt. *auf-die-Uni-schielt*

scully1234
2016-03-24, 16:24:45
.

10Gbps GDDR5X@256bit: 320GB/s







Keiner. Ausser vielleicht irgendwelche frei erfundene fakes die auch einen 384bit bus erwaehnen.

schmales SI bei dem Takt ist schon ok fuer den ''Zwerg'':smile:

AffenJack
2016-03-24, 17:29:42
Bloede Frage: da der writeup andeutet dass Micron die Produktion vorgezogen hat, macht es irgendwelchen Sinn sich vorzustellen dass sie vielleicht mit Absicht mit 10Gbps angefangen haben um die Produktion bzw. Stueckzahlen schneller zu erhoehen oder ist so etwas Bloedsinn bei Speicher?

Nochmal rumgeguckt, sieht so aus als wäre das einfach ne Pressemitteilung von Micron über erste Samples, aber der Zeitplan ändert sich nicht wirklich. Massenproduktion immernoch Sommer. Damit raus für Polaris und Pascal, falls vor Herbst was ankommt. In Anbetracht des 3DMarks den wir kennen sind 10GBps vielleicht doch realistischer. Generell kann das aber natürlich auch was mit dem Bining zu tun haben, ob man schon früh höher kommt. Aber auch kein Plan.

Dafuer muesste es keinen kaufbaren GDDR5X Speicher geben, damit ein IHV den MC dafuer umkrempelt um am Ende nur GDDR5 zu benutzen.


Der Unterhschied GDDR5X zu GDDR5 soll klein sein und es sollte kein Problem sein kombinierte Controller zu haben. Guck doch im Mobilebereich, alle Speichercontroller aktuell können GDDR5 und DDR3. Das wird mit 5X auch so sein. Falls etwas Im Juni von Nvidia kommen sollte, dann ohne 5X, amd wohl ebenso. Aber ein 5X Controller kann einem druchaus helfen, schnell mal nen Refresh nachzuwerfen.

Hübie
2016-03-24, 17:43:54
Jetzt muss ich mal doof fragen: Welcher Mobilchip kann DDR3 & GDDR5? :confused:

AffenJack
2016-03-24, 17:53:20
GM108 und GM107 werden mit beidem ausgeliefert. Es würde mich arg wundern, wenn die größeren Chips nicht das gleiche könnten, aber bei diesen macht die Nutzung von DDR3 natürlich keinen Sinn.

iuno
2016-03-24, 17:53:23
Die kleinsten, also aktuell GM107/108, vorher eben GK107/208 oder bei AMD Oland

Hübie
2016-03-24, 18:06:13
X-D Das sind so furchtbar lahme Gurken, dass ich deren Existenz immer vergesse. Danke euch Zweien. :up:

mczak
2016-03-24, 19:52:09
Bei AMD konnte zumindest Cape Verde das auch, nicht nur Mars/Oland. Bei der Sun/Hainan Obergurke bin ich mir nicht sicher ob die gddr5 kann. (Ich schätze mal ein nur-ddr3 Interface spart tatsächlich Transistoren und Platz, hingegen ein nur-gddr5 gegenüber einem das sowohl gddr5 wie ddr3 kann so gut wie gar nichts.)

Hübie
2016-03-24, 20:13:53
Ich müsste jetzt noch mal hart nachsehen ob es da wirklich größere Unterschiede als z.B. bei den Treibern im PHY gibt. Grundlegend sind ja Protokoll und Zellenaufbau (somit read/write) gleich.

Korvaun
2016-03-25, 08:27:24
Na ist doch perfekt (für den Umsatz und die Marketing-Abteilung). Zuerst kommen die normalen GDDR5 Versionen, die werden dann zum Weihnachtsgeschäft noch mal released als "GDDR5x Turbo Editions"...

Hübie
2016-03-25, 08:54:11
Wohl kaum. Ich habe übrigens gerade über eine Speichertechnologie gelesen, die im pico-Sekundenbereich refreshes/reads/writes umsetzt. Und wir plappern hier von Gigabittchen :freak:

Skysnake
2016-03-25, 09:18:48
Link?

Hübie
2016-03-25, 10:25:21
Hast Post. ;)

scully1234
2016-03-25, 14:11:58
man merkt das Ostern ist^^


http://www.bitsandchips.it/52-english-news/6785-rumor-pascal-in-trouble-with-asyncronous-compute-code

AffenJack
2016-03-25, 16:23:13
Prinzipiell vertraue ich da eher dem hier:

I can't say to much on this topic, but Pascal will be an improvement over Maxwell especially at this feature. But no, it won't have GCN-like capabilities. It will be close to GCN 1.0, but nothing more.
http://forums.anandtech.com/showpost.php?p=38121238&postcount=36

Zlatan ist Gamedev (weiß allerdings nicht wo). Auch wenn er nicht groß bei Nvidia Quellen haben mag, so kann ich mir gut vorstellen, dass er mit den Leuten da auchmal über zukünftigen Support von Features in Hinblick auf kommende Spiele redet. Ich würde da also eher ein Nullsummenspiel bei Async erwarten, aber wenigstens keine Leistungsverluste mehr.

Ailuros
2016-03-25, 16:39:50
Ich weiss zwar nicht wer er ist, aber ich wuerde so manchen Russen fuer Quellen bei NV nicht unterschaetzen.

y33H@
2016-03-25, 16:45:49
Die Osteuropa-Connections bei NV sind ziemlich gut, wie man an Titeln wie Metro 2033/Last Light oder Cryostasis oder Mafia 2 sieht.

scully1234
2016-03-25, 16:59:32
Ich würde da also eher ein Nullsummenspiel bei Async erwarten, aber wenigstens keine Leistungsverluste mehr.

Wenn da die richtige Balance gefunden ist warum nicht, spricht ja nun nicht unbedingt alles dafuer , das jeder Dev das Feature so forciert wie Oxide das getan hat

fondness
2016-03-25, 17:23:20
Ist das nicht eh schon länger mehr oder weniger offiziell? Gab ja AFAIK sogar mal eine NV-Folie, wo man da auch in punkto next-gen sehr zurückhaltend war. AsyncCompute mit Pascal würde mich sehr überraschen. Verbesserungen wird es wohl beim ContextSwitch geben, nicht aber beim parallelen Ausführend von Grafik und Compute.

Nakai
2016-03-26, 17:02:06
Pascal wird fine-grain preemption mit sich bringen. Maxwell und davor konnten nur bei Drawcall Boundaries einen Context Switch vollziehen. Pascal wird das wohl auch währenddessen ausführen können.

Seit GCN1.2 kann AMD auch laufende Wavefronts unterbrechen und preempten. Pascal wird aber wohl trotzdem Graphics+Compute Context NICHT gleichzeitig ausführen können. AC scheint damit eher weniger Probleme zu bereiten, aber eine Mehrperformance wird dadurch eher nicht rausspringen. Der springende Punkt ist einfach, dass NVs SMs nicht parallel Graphics+Compute ausführen können. AMDs CUs haben da keinerlei Probleme.

Eventuell ein Trost für die Nvidia ist, dass Polaris die Effizienz er Ausführung erhöht und AC nicht mehr soviel bringen wird. AMD wird dennoch diesbezüglich mehr profitieren.

fondness
2016-03-26, 17:11:45
Pascal wird aber wohl trotzdem Graphics+Compute Context gleichzeitig ausführen können. [...] Der springende Punkt ist einfach, dass NVs SMs nicht parallel Graphics+Compute ausführen können.

Sorry, aber :ugly:
Graphics und Compute wird Pascal wahrsch weiterhin nur hintereinander, nicht parallel ausführbar sein. Man kann mit Pascal aber wie schon von dir erwähnt wohl effektiver den Context switchen.

Eventuell ein Trost für die Nvidia ist, dass Polaris die Effizienz er Ausführung erhöht und AC nicht mehr soviel bringen wird.

Das ist eine IMO eine Fehlannahme wie Polaris vermutlich auch zeigen wird.

Nakai
2016-03-26, 17:17:09
Sorry, aber :ugly:
Graphics und Compute wird bei Pascal weiterhin nur hintereinander, nicht parallel ausführbar sein. Man kann mit Pascal aber wie schon von dir erwähnt wohl effektiver den Context switchen.

Das ist eine IMO eine Fehlannahme wie Polaris wohl zeigen wird.

Oke, ich wollte noch ein NICHT reinschreiben. ;D

Zu Letzterem abwarten. AC ermöglicht einfach die zugrundeliegenden Ressourcen besser auszunutzen. Wenn ich nun 75% meiner Rechenleistung mit Graphics belege, kann man noch 25% mit zusätzlichem Compute auslasten. Wenn Polaris die grundlegende Auslastung erhöht, dank Frontend-Verbesserungen wird AC nicht mehr soviel bringen.

horn 12
2016-03-26, 17:31:16
Dafür Fiji umso mehr und jener bleibt uns noch ein knappes, bis ganzes Jahr erhalten.
Sieht man doch jetzt schon dass immer mehr ins AMD Lager wechseln.
Würde mich nicht wundern wenn bald die 25% Marktanteile erreicht werden.

dargo
2016-03-26, 19:45:46
Zu Letzterem abwarten. AC ermöglicht einfach die zugrundeliegenden Ressourcen besser auszunutzen. Wenn ich nun 75% meiner Rechenleistung mit Graphics belege, kann man noch 25% mit zusätzlichem Compute auslasten. Wenn Polaris die grundlegende Auslastung erhöht, dank Frontend-Verbesserungen wird AC nicht mehr soviel bringen.
Ein "schräger" Quervergleich... warum skaliert bei Intel HT immer in etwa gleich gut von Generation zu Generation obwohl die IPC steigt? Oder anders gefragt... wieso kriegt Intel seine CPUs ohne HT nicht voll ausgelastet?

fondness
2016-03-26, 20:02:56
Zu Letzterem abwarten. AC ermöglicht einfach die zugrundeliegenden Ressourcen besser auszunutzen. Wenn ich nun 75% meiner Rechenleistung mit Graphics belege, kann man noch 25% mit zusätzlichem Compute auslasten. Wenn Polaris die grundlegende Auslastung erhöht, dank Frontend-Verbesserungen wird AC nicht mehr soviel bringen.

Das sind zwei Paar Schuhe. Auch mit AC wird das Frontend nicht irgendwie magisch breiter. Gaps in der Pipeline sind bei vielen Dingen prinzipbedingt unvermeidbar. Der Vorteil von AC ist, dass keine Abhängigkeiten bestehen und die Berechnungen fast beliebig eingeschoben werden können. Oder anders gesagt: Es wird nie einen non-AC-Architektur geben, die AC ersetzen kann, da kann die Auslastung noch so gut sein.

AffenJack
2016-03-26, 20:15:32
Ein "schräger" Quervergleich... warum skaliert bei Intel HT immer in etwa gleich gut von Generation zu Generation obwohl die IPC steigt? Oder anders gefragt... wieso kriegt Intel seine CPUs ohne HT nicht voll ausgelastet?

Weil Cpus anders als Gpus sind. Warum skaliert AC selbst bei kleinen Veränderungen schon völlig unterschiedlich. Z.B. keine Vorteile für Tahiti (noch verständlich wegen GCN1.0), aber auch keine Vorteile für Tonga bei Hitman, nur Hawaii und Fiji kriegen Mehrleistung.

fondness
2016-03-26, 20:25:04
So unrecht hat dargo nicht, gab auch auf der GDC einen Vergleich mit HT AFAIK...mom. Das mit Tonga würde ich noch unter Startschwierigkeiten einordnen.

/Edit: so die Folie habe ich gesucht:

https://s23.postimg.org/vh5i06cvf/Direct-X12-Panel-Slides-23.jpg (https://postimage.org/)

Nakai
2016-03-26, 20:34:06
Ein "schräger" Quervergleich... warum skaliert bei Intel HT immer in etwa gleich gut von Generation zu Generation obwohl die IPC steigt?]Oder anders gefragt... wieso kriegt Intel seine CPUs ohne HT nicht voll ausgelastet?

Fangfragen?
Intels HT skaliert doch nicht immer gleich. Bestes Beispiel wäre P4 mit HT.

OoO ist in erster Linie da, um Speicherlatenzen zu verstecken. SMT tut das auch indirekt. SMT bringt aber noch viel mehr, vor allem um redundante Ausführungsressourcen besser zu auszunutzen.
Latenzen für Speicheroperationen kann man nicht wegzaubern, genauso wie man jegliche Abhängigkeiten zwischen Operationen ignorieren kann. Wenn ein Thread viele sequentielle Elemente aufweißt, dann wird man nie eine sehr breite Ausführungsschicht damit ausfüllen können.

AC geht in die gleiche Kerbe. Nicht jeder Kernel/Shader hat die gleichen Anforderungen an die Hardware. Wenn ein Kernel nur 50% der maximalen Bandbreite benötigt, kann die restliche Bandbreite eben für andere Kernels/Shader verwendet werden. Und AC zielt ziemlich genau darauf hinaus.

€:
Das sind zwei Paar Schuhe. Auch mit AC wird das Frontend nicht irgendwie magisch breiter. Gaps in der Pipeline sind bei vielen Dingen prinzipbedingt unvermeidbar. Der Vorteil von AC ist, dass keine Abhängigkeiten bestehen und die Berechnungen fast beliebig eingeschoben werden können. Oder anders gesagt: Es wird nie einen non-AC-Architektur geben, die AC ersetzen kann, da kann die Auslastung noch so gut sein.

Natürlich wird das Frontend breiter. Wenn ich nur über den GCP gehe, habe ich eine ComputePipe, eine Pipe für VS, PS, GS, HS, etc... (für jeden Shadertyp, welche über den GDS synchronisiert sind)

Benutze ich AC, habe ich 8 zusätzliche ACEs bei AMD, welche gleichzeitig auf die Hardware (bedingt) zugreifen können.

€2: Jede ACE kann gleichzeitig 8 Queues verwalten. Kurz, erstelle ich 8 Computepipes (plus die Computepipe über den GCP), dann laste ich das Compute-Frontend bereits maximal aus.

€3: Wenn ich Compute Kernels schreibe und auf einer GPU ausführe, dann versuche ich natürlich mehrere Pipes zu verwenden. Eine Pipe für LD/ST, eine Pipe für Compute, eine Pipe für Compute2, etc. Dass nun AC aufeinmal für GFX kommt und als Neuheit bezeichnet wird, ist schon lächerlich. Man benutzt die gleichen Prinzipien, wie es für GPGPU-Geschichten schon seit längerer Zeit (seit Keplers Hyper-Q und GCNs ACEs) der Fall ist und auch angewendet wird.

fondness
2016-03-26, 20:44:42
Natürlich wird das Frontend breiter. Wenn ich nur über den GCP gehe, habe ich eine ComputePipe, eine Pipe für VS, PS, GS, HS, etc... (für jeden Shadertyp, welche über den GDS synchronisiert sind)

Benutze ich AC, habe ich 8 zusätzliche ACEs bei AMD, welche gleichzeitig auf die Hardware (bedingt) zugreifen können.

€2: Jede ACE kann gleichzeitig 8 Queues verwalten. Kurz, erstelle ich 8 Computepipes (plus die Computepipe über den GCP), dann laste ich das Compute-Frontend bereits maximal aus.
.

Ist die Frage was man unter Front-End versteht und was dann jeweils limitiert, der GCP selbst wohl kaum.

€3: Wenn ich Compute Kernels schreibe und auf einer GPU ausführe, dann versuche ich natürlich mehrere Pipes zu verwenden. Eine Pipe für LD/ST, eine Pipe für Compute, eine Pipe für Compute2, etc. Dass nun AC aufeinmal für GFX kommt und als Neuheit bezeichnet wird, ist schon lächerlich. Man benutzt die gleichen Prinzipien, wie es für GPGPU-Geschichten schon seit längerer Zeit (seit Keplers Hyper-Q und GCNs ACEs) der Fall ist und auch angewendet wird.

Es geht um Pixelshader plus Computeshader parallel, nicht um mehrere Computestreams, das ist ein fundermentaler Unterschied. Das scheint auch den NV-Chips das Genick zu brechen. Ich finde ja die Präsi von NV und AMD auf der GDC ganz witzig, NV scheint allgemein ziemlich viele Restriktionen zu haben, während man bei AMD wann immer möglich Compute verwenden sollte:

When deciding whether to use a pixel shader or a compute shader, there are “extreme” difference in pros and cons on Nvidia and AMD cards

https://s12.postimg.org/mxny7ouzh/Direct-X12-Panel-Slides-59.jpg

http://www.dualshockers.com/2016/03/14/directx12-requires-different-optimization-on-nvidia-and-amd-cards-lots-of-details-shared/

Nakai
2016-03-26, 20:54:45
Es geht um Pixelshader plus Computeshader parallel, nicht um mehrere Computestreams, das ist ein fundermentaler Unterschied. Das scheint auch den NV-Chips das Genick zu brechen. Ich fand ja die Präsi von NV und AMD auf der GDC ganz witzig, NV scheint allgemein ziemlich viele Restriktionen mit Compute zu haben:

https://s12.postimg.org/mxny7ouzh/Direct-X12-Panel-Slides-59.jpg

Ja, bei NV ist das nochmal zusätzlich dramatisch. Ansonsten welchen Unterschied gibt es, dass eine Pixelpipe und eine Computepipe eben auch nur Wavefronts/Warps auf die CU/SM schedulen? Ich wüsste jetzt nicht, dass bei GCN Pixel-Wavefronts anders behandelt werden würden, als Compute-Wavefronts. Die CUs machen da keinen Unterschied.

dargo
2016-03-26, 22:34:23
Weil Cpus anders als Gpus sind. Warum skaliert AC selbst bei kleinen Veränderungen schon völlig unterschiedlich. Z.B. keine Vorteile für Tahiti (noch verständlich wegen GCN1.0), aber auch keine Vorteile für Tonga bei Hitman, nur Hawaii und Fiji kriegen Mehrleistung.
Bei AotS profitiert jede Radeon GPU von AC bis runter zum Tahiti.
http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/3/

Wenn es bei Hitman keine Vorteile für Tonga gibt liegts wohl eher an der Implementierung.


/Edit: so die Folie habe ich gesucht:

https://s23.postimg.org/vh5i06cvf/Direct-X12-Panel-Slides-23.jpg (https://postimage.org/)
Genau die Folie habe ich gesucht, danke. :D

Hübie
2016-03-27, 09:30:55
Es muss nicht unbedingt an der Implementierung liegen. Wenn zu wenig genutzt wird macht es sich einfach nicht bemerkbar. AotS ist wirklich best case scenario. Man kann halt viele Aufgaben unterschiedlich lösen und man kann hier sagen, dass die nicht unbedingt AC nutzen müssen um z.B. Projektileinschläge zu berechnen oder auch das Glare so umzusetzen. Es bietet sich hier wohl sehr gut an und ist ggf. nicht schwierig umzusetzen. Wer weiß.
Und wer weiß was in Hitman über AC läuft? Genau wie RoTR.

fondness
2016-03-27, 09:40:37
Async Compute unter DX12 steht erst am Anfang. Man erhofft sich hier durch weitere Optimierungen und bessere Techniken in Zukunft durchaus etwas mehr.

Hübie
2016-03-27, 09:49:56
Ich schätze dass man auch erst mal sehen muss was sich alles realisieren lässt. Gerade was Licht anbelangt ist viel Algebra im Spiel...
Dennoch sind wir damit hier total OT.

AffenJack
2016-03-27, 10:25:16
Bei AotS profitiert jede Radeon GPU von AC bis runter zum Tahiti.
http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/3/

Wenn es bei Hitman keine Vorteile für Tonga gibt liegts wohl eher an der Implementierung.


Jepp, wie die Hitmanentwickler ja schön schreiben "Hard to tune". Die Frage ist da einfach wie Architekturunabhängig sich das implementieren lässt. Wenn es immer angepasst werden muss, kann sich das bei neuen Gpus vielleicht ganz schnell ändern. Das ist die generelle Befürchtung die ich mit DX12 einfach habe, da AMD und Nvidia ja selbst schreiben, es sollte je IHV einen DX12 path geben.
Wenn die beiden neue Architekturen starten, hab ich da einfach kein so gutes Gefühl mit. Hatte schon mit GCN und älteren Spielen genug Probs und befürchte das wird nur schlimmer.

Kriton
2016-03-27, 13:35:17
Das ist aber auch durchaus logisch wenn hardwarenäher programmiert wird und sich die jeweiligen HW-Architekturen unterscheiden.

HOT
2016-03-27, 13:43:18
An Tonga würd ich mich bezüglich AsyncCompute nicht allzusehr stören. Den limitiert sein Frontend genauso wie Tahiti. Er hat eben nur mehr Tesselationspower und das passende Featureset.

BlacKi
2016-03-27, 13:49:58
Async Compute unter DX12 steht erst am Anfang. Man erhofft sich hier durch weitere Optimierungen und bessere Techniken in Zukunft durchaus etwas mehr.
die messungen die ich gesehen habe zeigen 10% plus minus. NV könnte das einfach aussitzen, und dank 2/3 marktanteil sogar töten wie mantle.

irgendwie denke ich das Async Compute nur mit Nvidia eine chance gehabt hätte.

scully1234
2016-03-27, 13:52:26
Hatte schon mit GCN und älteren Spielen genug Probs und befürchte das wird nur schlimmer.

Es kommt bei DX12 wohl noch mehr darauf an wer sich den Mehraufwand ''leisten'' kann, fuer nen vollumfänglichen Support beider IHVs ,und wer von wem noch mehr in Abhängigkeit gerät ,ein funktionierendes Spiel abzuliefern, mit dem man Gewinn einfaehrt.

Nen Fallback auf DX11 um sich dem Theater zu entziehen, waere fuer einige nicht so gut betuchte Devs /Gameschmieden sicher auch ne Altenative ???

Dieses ''Mehr'' an Verantwortung, was man den Entwicklern mit DX12 zuspricht, ist hinter vorgehaltener Hand, ja letztendlich primär auch ein finanzieller Fallstrick

Und wenn man sieht wie schwer sich da schon Microsoft tut, etwas vernünftiges abzuliefern, schwant einen da nix Gutes

dargo
2016-03-27, 15:15:58
die messungen die ich gesehen habe zeigen 10% plus minus. NV könnte das einfach aussitzen, und dank 2/3 marktanteil sogar töten wie mantle.

Du hast auch nur die ersten Gehversuche gesehen. Entwickler sprachen auch schon von 20-30%.


Und wenn man sieht wie schwer sich da schon Microsoft tut, etwas vernünftiges abzuliefern, schwant einen da nix Gutes
Ach komm... das was Microsoft da mit DWM abliefert hat doch nichts primär mit DX12 bzw. low level zu tun. Ganz andere Baustelle.

Hübie
2016-03-27, 16:43:44
Ich schätze scully1234 meint GoW. ;)

fondness
2016-03-27, 16:56:19
Weiß man eigentlich schon was, wann GP100 jetzt kommen soll? Das Ding hatte angeblich im Juni 2015 sein Tapeout, da müssen ja einige Respins nötig sein, wenn das wirklich noch bis 2017 dauert...

scully1234
2016-03-27, 17:58:34
Ich schätze scully1234 meint GoW. ;)

Richtig auch wenn der Renderpfad dort nur aufgesetzt ist auf die alte Engine

wenn das wirklich noch bis 2017 dauert...

Das wuerde Jensens Präsentation naechste Woche aber nicht ins Konzept passen... auch wenn der gerne mal unter die Holzschnitzer geht, wuerde man dann Tesla Modelle doch in etwa zeitnah erwarten

Hübie
2016-03-27, 18:44:44
GP100 kommt ~Oktober oder leicht früher. Kann man sich halt nicht in seine Daddelkiste packen ;)

Edit: A1

AffenJack
2016-03-27, 20:01:18
Weiß man eigentlich schon was, wann GP100 jetzt kommen soll? Das Ding hatte angeblich im Juni 2015 sein Tapeout, da müssen ja einige Respins nötig sein, wenn das wirklich noch bis 2017 dauert...

Nächste Woche Montag dürftest du deinen Termin erhalten, wenn auch nur für Tesla. Aber entweder zeigt Nvidia GP100 und nennt nen Erscheinungstermin. Dann hat man zumindest in etwa ne Ahnung und einige Monate danach könnte er als Titan kommen. Und sollte es dazu keine genaueren Infos geben, weiß man auch bescheid, denn dann kann man Consumer GP100 dieses Jahr sowieso vergessen. (Glaube aber eh nicht an GP100 für Consumer dieses Jahr, vielleicht Titan als Weihnachtsgeschenk und das wars)
Ein Erscheinen von GP100 bei Consumern erst 2017 würde ich aber eher von den astronomischen Produktionskosten abhängig machen als von den Respins, wobei GP100 auch da bestimmt einige benötigt mit HBM2, Nvlink, neuem Prozess usw.

dargo
2016-03-27, 20:11:24
Ich schätze scully1234 meint GoW. ;)
Ganz ehrlich? Diesen GoW Quatsch hätte man sich gleich sparen können. Ich kann den Remastered-Spielen absolut nichts abgewinnen. Habe es schon bei der PS4 nicht verstanden. Als ob die Entwickler keine neuen Spielideen mehr hätten.

Hübie
2016-03-27, 20:12:17
Gewöhnt euch lieber an den Gedanken dieses Jahr keinen GP100 zu erhalten. Das hat auch nix mit Respin zu tun.

@dargo: Das ist deine persönliche Meinung zu einem Thema dass mit diesem hier wenig zu tun hat. ;) Wenn ein aktualisiertes Renderbackend genutzt wird kann man sich eh streiten ob es nun toll ist oder nicht. Wer weiß was die Engines der großen schon alles abstrahieren...

scully1234
2016-03-27, 20:30:16
Gewöhnt euch lieber an den Gedanken dieses Jahr keinen GP100 zu erhalten. Das hat auch nix mit Respin zu tun.
...

Die sollen in Oak Ridge einfach mal nicht so gierig sein ,dann faellt fuer uns kleinen Fische auch was ab:P

Complicated
2016-03-27, 22:02:18
Oak Ridge bekommt nur wenige GP100 zum entwickeln für die Volta-HPCs die sie bauen. Da werden keine großen Stückzahlen gehen. Auch die Produktivsysteme werden keinen GP100 enthalten in "Summit".
https://www.olcf.ornl.gov/summit/
Summit will deliver more than five times the computational performance of Titan’s 18,688 nodes, using only approximately 3,400 nodes when it arrives in 2017. Like Titan, Summit will have a hybrid architecture, and each node will contain multiple IBM POWER9 CPUs and NVIDIA Volta GPUs all connected together with NVIDIA’s high-speed NVLink. Each node will have over half a terabyte of coherent memory (high bandwidth memory + DDR4) addressable by all CPUs and GPUs plus 800GB of non-volatile RAM that can be used as a burst buffer or as extended memory.

kdvd
2016-03-27, 22:59:04
Gewöhnt euch lieber an den Gedanken dieses Jahr keinen GP100 zu erhalten. Das hat auch nix mit Respin zu tun.

Sollte nicht GP102 der Topdog Gamingchip ohne FP64 werden?

Korvaun
2016-03-28, 11:00:59
Async compute wird sicher nicht so einfach verschwinden, denn es gibt da ein riesen Problem für NV: PS4 & XBone! Die benutzen das und je länger die Dinger erfolgreich laufen desto stärker werden Spiele auf die entsprechende Architektur optimiert. Was soll NV gegen 50+ mio potenzielle Konsolenkunden machen? Im Zweifel werden Entwickler wohl eher auf "NV-Support" verzichten wenn sie sich dadurch bessere Konsolenverkäufe versprechen...

Hübie
2016-03-28, 11:01:53
Sollte nicht GP102 der Topdog Gamingchip ohne FP64 werden?

Ja irgendwie so. Was da nun genau los ist weiß wohl keiner hier draußen.

@Korvaun: Da hast du nicht Unrecht, jedoch müsste man jetzt erst einmal eruieren, was denn alles über computeshader effizienter berechnet werden kann und was nicht. Und da sag ich dir, dass es in AotS schon best case ist. Die AMD-Folien sagen selber "use with care" und nicht "use wherever it's possible". Denn so eine Queue füttern heißt auch Overhead durch die Prioritäten der Threads. Im Zweifelsfall lastet man zwar gleichmäßig aus, gewinnt aber wenig bis gar nix dazu. Es ist ja nun auch nicht so dass AC gratis ist.

BlacKi
2016-03-28, 11:16:53
Async compute wird sicher nicht so einfach verschwinden, denn es gibt da ein riesen Problem für NV: PS4 & XBone! Die benutzen das und je länger die Dinger erfolgreich laufen desto stärker werden Spiele auf die entsprechende Architektur optimiert.
jap, schon 3 jahre am markt und siehe da, async compute bringt nur 10%, und trotz dx12 tauglichkeit in manchen spielen 0% mehreprformance.

wenn async compute nicht so ein schwieriges thema wäre, dann hätten wir die 10% schon mit mantle gesehen, tatsächlich lief manches unter mantle sogar schlechter.

ich sehe das wie mit dx11.2, amd hatte besseren featuresupport und was hats gebracht?

ich könnte mir vorstellen das man async compute am pc einfach nur aussitzt.

dargo
2016-03-28, 11:28:23
@Korvaun: Da hast du nicht Unrecht, jedoch müsste man jetzt erst einmal eruieren, was denn alles über computeshader effizienter berechnet werden kann und was nicht. Und da sag ich dir, dass es in AotS schon best case ist.
Es wird nicht richtiger je öfter es wiederholt wird. Oxide schrieb selbst, dass AotS bei weitem kein Showcase für Async Compute sei.

Ashes uses a modest amount of it, which gave us a noticeable perf improvement. It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn't a poster-child for advanced GCN features.

Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven't made their way to the PC yet, but I've heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC. I don't think Unreal titles will show this very much though, so likely we'll have to wait to see. Has anyone profiled Ark yet?

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/36454-oxide-nvidia-gpus-unterstuetzen-asynchronous-computeshaders-unter-dx12-nicht.html

Zu AC selbst. Ihr kennt sicherlich diese Folie noch?
http://extreme.pcgameshardware.de/attachments/847528d1441050775-directx-12-asynchronous-shader-auf-geforces-laut-oxide-ein-absolutes-desaster-async_games.png

Die müsste mal natürlich aktualisiert werden. Immerhin ist die schon 1 Jahr alt. Dennoch zeigt sie eines ganz deutlich. Die Entwickler fangen erst an mit AC zu "spielen".

Thunder99
2016-03-28, 11:29:23
jap, schon 3 jahre am markt und siehe da, async compute bringt nur 10%, und trotz dx12 tauglichkeit in manchen spielen 0% mehreprformance.

wenn async compute nicht so ein schwieriges thema wäre, dann hätten wir die 10% schon mit mantle gesehen, tatsächlich lief manches unter mantle sogar schlechter.

ich sehe das wie mit dx11.2, amd hatte besseren featuresupport und was hats gebracht?

ich könnte mir vorstellen das man async compute am pc einfach nur aussitzt.
Was "async compute" mit Mantle zu tun? :confused: Das Feature bringt schon eingies wenn man es entsprechend implementiert.

Wenn nvidia das aussitzen wollen, da sie es nicht wirklich brauchen (zu scheinen) ist das doch "ok" für den Spieler. Hauptsache die Performance passt einigermaßen (gewinnt halt öfters AMD, ist dann halt so :freak:). Unspielbar wird es ja nicht

fondness
2016-03-28, 11:30:36
@Korvaun: Da hast du nicht Unrecht, jedoch müsste man jetzt erst einmal eruieren, was denn alles über computeshader effizienter berechnet werden kann und was nicht.

Das hängt von der Hardware ab, bei AMD so ziemlich alles. :)

Ätznatron
2016-03-28, 11:34:17
Marktanteil Nvidia im 3. Quartal 2015 81,1 %, im 4. Quartal 2015 78,8 % (Jon Peddie Research).

Wenn Nvidia glaubt, das aussitzen zu können, können sie zugucken, wie die Marktanteile weiter schrumpfen.

horn 12
2016-03-28, 11:38:16
Sind nun wohl nochmals runter.
Bis Polaris aufschlägt sollten es wohl unter 75% sein!

Ätznatron
2016-03-28, 11:41:32
Ja, GTX 970 und AC wirken.

woodsdog
2016-03-28, 11:51:38
quatsch.

Das hat eher damit zu tun, das die 380er und 390er zum EK Preis verschleudert werden.
Als ob irgend jemand abseits bekannter Foren was mit AC anfangen könnte...

Ätznatron
2016-03-28, 11:53:06
Ach, das spricht sich schneller rum, als man denkt...auch bei MM-Kunden.

woodsdog
2016-03-28, 11:54:51
yep - genau wie das 970er Problem unmittelbar Auswirkungen auf NVs Marktanteil hatte.

nach oben.

=Floi=
2016-03-28, 11:55:54
war sagt denn, dass bei amd mit der nächsten generation AC so toll laufen wird?
die werden sicherlich mal den bottleneck in der verwaltung angehen und dafür die shaderleistung stagnieren lassen. Da kann es ganz schnell dann zum NV "vorteil" kommen und AC verschwindet wieder in der versenkung. denke darauf wird es auch hinauslaufen.

Korvaun
2016-03-28, 11:55:56
Das AMD aktuell mehr verkauft sind eher die 8GB, die geben da den Ausschlag. Da muss NV mit Pascal nachziehen.

dargo
2016-03-28, 12:12:53
Ja, GTX 970 und AC wirken.
Ich weiß zwar nicht wie es weltweit aussieht. Aber immerhin sieht man öfter in den MF-Rezensionen, dass die GTX970 Verarschung doch hier und da Wirkung zeigt. Es bewegt manche zum Wechseln auf die R9 390 oder es wird von Anfang an die 970 gemieden. Immerhin. (y)

Ätznatron
2016-03-28, 12:14:14
yep - genau wie das 970er Problem unmittelbar Auswirkungen auf NVs Marktanteil hatte.

nach oben.

Unmittelbar nicht, aber so langsam summiert es sich.

@dargo

Der Marktanteil sinkt ja weltweit.

Der Ruf ist ziemlich ruiniert.

scully1234
2016-03-28, 12:50:49
Das hängt von der Hardware ab, bei AMD so ziemlich alles. :)

Nicht verwunderlich nachdem kein Tag vergeht ,an dem man zusammen mit den Oxide Devs ,das Ganze aufs Neue instrumentalisiert.

Gleiches hat man allerdings auch schon mal bei Mantle mit Crytec zelebriert. Das war ja damals quasi auch schon der ''totale Untergang'' fuer Nvidia, nach Meinung eines gewissen Klientels.

Ein gewisser Anflug eines Deja Vue laesst sich also unschwer erkennen.

Dauert zwar immer ein Weilchen, aber wenn dann der Schachzug kommt, ist er meistens um so ausgepraegter.

Von daher wuerde ich mir da um das derzeitige Werbemittel, auch nicht all zu viele Gedanken machen, zumal DX12 aus einer Palette an Featuren besteht

BlacKi
2016-03-28, 12:58:06
Hauptsache die Performance passt einigermaßen (gewinnt halt öfters AMD, ist dann halt so :freak:). Unspielbar wird es ja nicht

darauf wollte ich hinaus, und letztendlich sinkt der preis der nvidia karten. NV kann das locker verkraften.

Screemer
2016-03-28, 13:08:18
Gleiches hat man allerdings auch schon mal bei Mantle mit Crytec zelebriert. Das war ja damals quasi auch schon der ''totale Untergang'' fuer Nvidia, nach Meinung eines gewissen Klientels.

Crytek und mantle? Hab ich was verpasst? Du meinst sicher DICE. Du hast richtig Ahnung von Markt, oder?!

scully1234
2016-03-28, 13:09:48
Ja DICE sorry , und deiner einer hat sich wahrscheinlich noch nie verschrieben stimmts?

Mancko
2016-03-28, 13:27:39
Marktanteil Nvidia im 3. Quartal 2015 81,1 %, im 4. Quartal 2015 78,8 % (Jon Peddie Research).

Wenn Nvidia glaubt, das aussitzen zu können, können sie zugucken, wie die Marktanteile weiter schrumpfen.


Die werden förmlich zittern. 2,3% Marktanteil in einem Quartal verloren ist wirklich gigantisch bei der Ausgangsbasis zumal AMD auch im 4. Quartal einen Nettoverlust 102 Mio. $ ausgewiesen hat während Nvidia ein Rekordquartal hatte. Vom sinkenden Umsatz bei AMD rede ich gar nicht erst. Sorry aber solche Marktbewegungen haben wohl eher weniger mit irgendwelchen Features sondern eher was mit der Preisbildung zu tun und AMDs Preise sind einfach niedrig. Das zeigen ja deren Zahlen und großartige Besserung scheint mir da nicht in Sicht zumal deren Zahlen komplett davon abhängig sind, was Intel und Nvidia in Sachen Preisgestaltung ihrerseits machen. Senkt Nvidia die Preise und zwar so das es bemerkbar ist, dann drückt das AMD noch weiter in die roten Zahlen. Nicht zu vergessen dass sowohl Intel als auch Nvidia genügend Cash haben um AMD jederzeit finanziell an die Wand zu drücken und zwar so, dass Marktanteile zurückwandern. Und das gilt selbst dann, wenn AMD mal eine bessere Produktpalette hätte.

Weckt mich also bitte, wenn AMD es geschafft hat mal mehrere Quartale am Stück Geld zu verdienen. Ich fürchte nur, dass ich mich da noch lange schlafen legen kann.

Ätznatron
2016-03-28, 13:52:53
Die werden förmlich zittern.

Mindestens der überaus ehrgeizige CEO wird zittern - vor Wut.

Senkt Nvidia die Preise und zwar so das es bemerkbar ist, dann drückt das AMD noch weiter in die roten Zahlen.

Nvidia sollte erstmal den technologischen Rückstand betreffend DX12, HBM etc., aufholen.

Damit dürften sie erstmal genug beschäftigt sein.

maximus_hertus
2016-03-28, 14:01:22
Nicht zu vergessen dass sowohl Intel als auch Nvidia genügend Cash haben um AMD jederzeit finanziell an die Wand zu drücken

Nein, es würde den CEOs den Kopf kosten, den ASP drastisch zu senken. Am Ende gibt es nur eine Frage: Wie verdiene ich am meisten? Und ein dahinsiechendes AMD ist keine Bedrohung bzw. erlaubt keine deutliche Reduzierung des ASP.

scully1234
2016-03-28, 14:04:52
Nvidia sollte erstmal den technologischen Rückstand betreffend DX12, HBM etc., aufholen.



''FL12.1 Conservative Rasterization, ROVs / Tiled Resources Tier 3 / Async Compute, Resource Binding Tier 3''


jetzt pick dir mal dein Featureset raus, bei dem Nvidia ''patzt'', und dann reden wir ueber die anderen Aspekte, die dir bei der gesamten Werbetour entgangen??? sind :wink:

Die DX12 Suppe besteht eben nicht nur aus dem was AMD zum Vorteil gereicht, also mal lieber den Stein im Glashaus liegen lassen ,wo er ist.

=Floi=
2016-03-28, 14:08:46
ja, nv sollte auch 4gb HBM1 karten bringen. ;D
fette 1024bit, welche in der luft verpuffen.


bei steam ist die 970er unangefochten weit vorne. die müssen so viel von den dingern verkauft haben. betriebswirtschaftlich ist die 970er wohl mit die erfolgreichste karte. Anhand des preises durchaus beachtlich.

Blediator16
2016-03-28, 14:22:16
Woher kommt eigentlich der negative Ton gegenüber Async her? Ist es generell schlecht?

Ätznatron
2016-03-28, 14:23:10
Die DX12 Suppe besteht eben nicht nur aus dem was AMD zum Vorteil gereicht

Richtig, allerdings hat bisher nur AMD Vorteile DX12 betreffend.

Die ganzen netten Features hin und her:

Nvidia-Besitzer können doch schon froh sein, wenn unter DX12 die Leistung nicht einbricht. Das spricht nicht für eine technologische Führerschaft seitens Nvidias, eher im Gegenteil.

dargo
2016-03-28, 14:43:27
''FL12.1 Conservative Rasterization, ROVs / Tiled Resources Tier 3 / Async Compute, Resource Binding Tier 3''

Soll das ein verfrühter Aprilscherz sein? :tongue: Was CR und ROVs bringen müssen wir erstmal abwarten. Nicht, dass dies nur, in typischer Manier von NV, ein Checklisten-Feature ist. Siehe Async Compute. ;D

R.I.P.
2016-03-28, 14:46:51
Richtig, allerdings hat bisher nur AMD Vorteile DX12 betreffend.

Die ganzen netten Features hin und her:

Nvidia-Besitzer können doch schon froh sein, wenn unter DX12 die Leistung nicht einbricht. Das spricht nicht für eine technologische Führerschaft seitens Nvidias, eher im Gegenteil.

Pöse, pöse Worte sagst du da! Die Nvida Jünger werden dich dafür vierteln :)
Ich glaube nicht, dass Nvidia so abstinken wird mit Dx12. Irgendein Trick wird sicherlich wieder aus dem Hut gezaubert. Oder durch Unterstützung der Spieleschmieden einfach verhindert, dass AC unterstützt wird. Haste Geld, haste Macht und kannst machen was du willst. Wenn die Kunden dann auch noch zusehen und applaudieren, dann kannst du nicht viel falsch machen. Pascal wird sicherlich ne anständige GPU. Obwohl ich Nvidias Parktiken nicht für gut heiße, wissen sie, wie gute GPUs gemacht und vor allem vermarktet werden. Keine Sorge.

Screemer
2016-03-28, 14:51:19
Soll das ein verfrühter Aprilscherz sein? :tongue: Was CR und ROVs bringen müssen wir erstmal abwarten. Nicht, dass dies nur, in typischer Manier von NV, ein Checklisten-Feature ist. Siehe Async Compute. ;D
Sollen doch schon unter dx 11 über nvapi ansprechbar und mit gameworks auch genutzt werden. Zumindest für vxgo und noch irgendwas hatte ich das so verstanden.

Locuza
2016-03-28, 14:58:17
VXAO in Rise of the Tomb Raider.
HFTS in The Division.

Beides sieht prinzipiell cool aus, frisst aber viel Leistung und VXAO verschattet etwas zu dunkel.
Die Effizienz der Software ist aber wahrscheinlich noch nicht am Limit, ebenso könnte die Hardware bei Pascal stärker ausfallen.

Irgendwann wird es durch die Standard-API umgesetzt und Intel hat auch dabei geholfen CR und ROVs in bisher zwei Spiele einzubringen. (Just Cause 3 + F1 2015).

dildo4u
2016-03-28, 15:05:10
Richtig, allerdings hat bisher nur AMD Vorteile DX12 betreffend.

Die ganzen netten Features hin und her:

Nvidia-Besitzer können doch schon froh sein, wenn unter DX12 die Leistung nicht einbricht. Das spricht nicht für eine technologische Führerschaft seitens Nvidias, eher im Gegenteil.
Hast du dir schon mal die Spec's der Karten angeguckt eine 970 hat 3.5Tflops eine 390 5Tflops,NV ist einfach in der Lage die Karte unter DX11 auszulasten,daher gibt es im GPU Limit kein Sprung mit DX12.
Die Leistung pro Watt ist immer noch Meilen besser selbst wenn die AMD je nach Game mal 20% schneller ist wird reden hier von 150 vs 300 Watt.
Im CPU Limit hingegen bewegt sich wohl was unter DX12 siehe meine Sig.

dargo
2016-03-28, 15:12:43
Sollen doch schon unter dx 11 über nvapi ansprechbar und mit gameworks auch genutzt werden. Zumindest für vxgo und noch irgendwas hatte ich das so verstanden.
Hast du die Kosten dafür gesehen?

Hast du dir schon mal die Spec's der Karten angeguckt eine 970 hat 3.5Tflops eine 390 5Tflops,NV ist einfach in der Lage die Karte unter DX11 auszulasten,daher gibt es im GPU Limit kein Sprung mit DX12.

Immer die gleiche Leier. Wird dir das nicht langsam langweilig? Wo ist die überlegene Leistung einer GTX770 mit 3,2TFLOPs oder GTX780 mit 4TFLOPs? :rolleyes:

Botcruscher
2016-03-28, 15:16:24
Woher kommt eigentlich der negative Ton gegenüber Async her? Ist es generell schlecht?

Der Einsatz will gut überlegt sein und es bedarf ordentlich Entwickleraufwand. Insgesamt das gleiche Problem wie bei DX12/Vulcan und warum wir alles in der Masse nicht so bald sehen werden.
Mal sehen was vom Marketing übrig bleibt.

Kriton
2016-03-28, 15:21:40
Die Leistung pro Watt ist immer noch Meilen besser selbst wenn die AMD je nach Game mal 20% schneller ist wird reden hier von 150 vs 300 Watt.

Können wir den FUD mal lassen? Nvidia ist effizienter in dieser Gen, ja. Aber Deine Zahlen sind nun wirklich eine Frechheit.

Mancko
2016-03-28, 15:27:29
Nein, es würde den CEOs den Kopf kosten, den ASP drastisch zu senken. Am Ende gibt es nur eine Frage: Wie verdiene ich am meisten? Und ein dahinsiechendes AMD ist keine Bedrohung bzw. erlaubt keine deutliche Reduzierung des ASP.

Der CEO bei dem Du der Meinung bist dass es ihn den Kopf kosten würde hat genau diese Nummer schon einmal gemacht. Bei FERMI war Nvidia in den Anfängen unterlegen. Sie haben aber einfach ihre Marktmacht genutzt und den Markt geschwemmt. Ihre Marktmacht und ihr finanzielles Polster ist heute erheblich höher als damals und AMD ist erheblich schwächer als damals. Und wenn ich als Unternehmen Gefahr laufe signifikant Marktanteile abzugeben, dann dränge ich die Konkurrenz halt mit Geld an die Wand. Diese Option hat Nvidia jederzeit. AMD umgekehrt hat diese Option nicht.

Mancko
2016-03-28, 15:30:05
Soll das ein verfrühter Aprilscherz sein? :tongue: Was CR und ROVs bringen müssen wir erstmal abwarten. Nicht, dass dies nur, in typischer Manier von NV, ein Checklisten-Feature ist. Siehe Async Compute. ;D

Nvidia hat das Geld eigene Features via Gameworks und Co in Spielen unterzubringen und die werden sehr genau analysieren wo AMD Schwachstellen hat und genau diese Sachen Pushen. Machen sie ja heute schon. AMD versucht es andersherum genauso.

Mancko
2016-03-28, 15:34:15
Hast du die Kosten dafür gesehen?


Wenn es besser aussieht sind die Kosten sekundär. Nvidia ist extrem erfolgreich darin die Dinge entsprechend zu vermarkten. Im Übrigen sind Leistungskosten für bessere Bildqualität immer ein gutes Argument neue Produkte abzusetzen. Daran wirst weder Du noch AMD etwas ändern. Genau dafür gibt es das Gameworks Programm. Differenzierung gegenüber dem Wettbewerb und den Konsolen und genau dafür gibt Nvidia extrem hohe Summen aus und mein Gefühl sagt mir, sie werden zukünftig noch mehr dafür ausgeben. Schließlich kauft im Optimalfall jeder Maxwell/Kepler Kunde dann einen Pascal Ableger. Die Unternehmen haben nichts davon, wenn die Kunden ewig auf ihrer Hardware sitzen. Deswegen werden SmartPhones und andere Produkte auf eine Nutzungsdauer von 2 bis 3 Jahren ausgelegt aber nicht mehr.

Timbaloo
2016-03-28, 15:36:14
Könnt ihr mir mal den Link zum Pascal-Thread geben?

maximus_hertus
2016-03-28, 15:37:13
Der CEO bei dem Du der Meinung bist dass es ihn den Kopf kosten würde hat genau diese Nummer schon einmal gemacht. Bei FERMI war Nvidia in den Anfängen unterlegen. Sie haben aber einfach ihre Marktmacht genutzt und den Markt geschwemmt. Ihre Marktmacht und ihr finanzielles Polster ist heute erheblich höher als damals und AMD ist erheblich schwächer als damals. Und wenn ich als Unternehmen Gefahr laufe signifikant Marktanteile abzugeben, dann dränge ich die Konkurrenz halt mit Geld an die Wand. Diese Option hat Nvidia jederzeit. AMD umgekehrt hat diese Option nicht.

Hö? Geschwemmt mit Fermi? Habe ich was verpasst? Die GTX 480 war lange nur eher schlecht lieferbar, die GTX 470 nun nicht gerade ein Preiswunder. Die GTX 460 hatte einen ganz "normalen" Preis zum Release im Sommer 2010.

Natürlich hat nV die Möglichkeit, falls sie mal signifikant Marktanteile verlieren (wie soll das gehen, friert die Hölle zu?), einen Preiskampf für eine Gen durchzuziehen. Es geht eher um die 81 vs 78%. Dafür wird man keinen Preiskampf anzetteln.


Es wäre irgendwie witzig, wenn nV (wie auch AMD) in der 2016er Gen alles auf Effizienz setzt. Quasi keinen Performancegewinn, aber weniger Watt ;) Ich wäre da mal auf die Reaktionen gespannt :D Quasi 980 Ti Leistung bei 130W. Ob das der Wunsch der Spieler ist?

Mich würde es nicht wundern, wenn GP104 am Ende bei GTX 980 Ti (Referenz) + 20% Performance raus kommt und dabei eine TDP im Bereich von 160-175W aufweist. Deutlich weniger Watt machen imo keinen Sinn, da man einfach zu viel Performance verschenkt bzw. man möglichst die alte Gen schlagen sollte.
Der GP104 Salvage dann auf Augenhöhe mit der Referenz 980 Ti bei ca. 140-150W. Preislich würde ich auf 599 USD bzw. 399 USD tippen - also rund 650 bzw. 440 Euro.

aufkrawall
2016-03-28, 15:42:24
Können wir den FUD mal lassen? Nvidia ist effizienter in dieser Gen, ja. Aber Deine Zahlen sind nun wirklich eine Frechheit.
Wenn man Hawaii einen Boost von 970-1020Mhz spendieren würde, um niedrigere Spannungen fahren zu können, hätte man bei Ashes oder Hitman mit DX12 wahrscheinlich schon so gut wie Maxwell-Effizienz, und das mit 1:2 DP.
AMD hat durch DX12 und die Konsolen-Entwicklungen gar nicht so viel Boden gutzumachen, das geschieht zu einem guten Teil schon quasi von allein.

BlacKi
2016-03-28, 15:49:11
Wenn man Hawaii einen Boost von 970-1020Mhz spendieren würde, um niedrigere Spannungen fahren zu können, hätte man bei Ashes oder Hitman mit DX12 wahrscheinlich schon so gut wie Maxwell-Effizienz, und das mit 1:2 DP.
AMD hat durch DX12 und die Konsolen-Entwicklungen gar nicht so viel Boden gutzumachen, das geschieht zu einem guten Teil schon quasi von allein.
steigt denn nicht bei besserer auslastung auch der stromverbrauch? oft ist doch der grund warum amd´s karten halbwegs sparsam sein können genau der grund weil sie nicht richtig ausgelastet werden.

Hübie
2016-03-28, 15:49:23
Eigenartig dass immer ein paar Monate vor Release die üblichen Verdächtigen aufkreuzen, die sowie so keine NV-GPU in Erwägung ziehen hier aufkreuzen und stänkern. Schade. 130 Seiten blieb es sachlich und weitgehend ontopic. Das wünsche ich mir zurück. :smile:

Edit: selbst mit undervolting kommt man laut Igor's Messungen nicht annähernd auf Maxwell-Effizienz.

dargo
2016-03-28, 16:00:36
Nvidia hat das Geld eigene Features via Gameworks und Co in Spielen unterzubringen und die werden sehr genau analysieren wo AMD Schwachstellen hat und genau diese Sachen Pushen.
Na dann sind wir doch alle froh, dass sich immer weniger Entwickler von Nvidia fi.... lassen.
http://www.thecountrycaller.com/54684-watch-dogs-2-features-directx-12-support-will-be-highly-optimized-for-amd/

Schrotti
2016-03-28, 16:03:57
Es wäre irgendwie witzig, wenn nV (wie auch AMD) in der 2016er Gen alles auf Effizienz setzt. Quasi keinen Performancegewinn, aber weniger Watt ;) Ich wäre da mal auf die Reaktionen gespannt :D Quasi 980 Ti Leistung bei 130W. Ob das der Wunsch der Spieler ist?


Nein ist er sicher nicht. Habe meine beiden 980er schon mal verscherbelt (gibt ja noch gut Kohle dafür).

Ich möchte eine Karte die sowohl unter DX11 wie auch DX12 in 4k vernünftige fps generieren kann, und damit meine nicht 30-35 sondern eher im hohen zweistelligen Bereich.

Bis dahin lebe ich jetzt mit einer ASUS R9 390.

fondness
2016-03-28, 16:08:49
Ich möchte eine Karte die sowohl unter DX11 wie auch DX12 in 4k vernünftige fps generieren kann, und damit meine nicht 30-35 sondern eher im hohen zweistelligen Bereich.


Da kannst du aber mindestens noch bis 2017 warten....

Schrotti
2016-03-28, 16:10:41
Dann warte ich eben.

Nakai
2016-03-28, 16:22:29
GP104 wird definitv das nicht bringen. GDDR5X und 256Bit reichen mal, um mit einem GM200 gleichzuziehen, reinher von der effektiven Bandbreite.

GM200-Besitzer brauchen sich da erstmal keine Sorgen machen und selbst GM204-Besitzer werden keinen revolutionären Sprung erleben.

Na dann sind wir doch alle froh, dass sich immer weniger Entwickler von Nvidia fi.... lassen.
http://www.thecountrycaller.com/54684-watch-dogs-2-features-directx-12-support-will-be-highly-optimized-for-amd/

Eigentlich ist doch das Problem tiefer. Die Software-Entwicklung lebt von gutem Treibersupport und sogar Technologiesupport. NV hat mit Gameworks eben versucht, ihren Sourcecode in die Spiele zu pressen, was meistens ziemlich gescheitert ist...bisher. AMD ging noch eine Stufe tiefer und versuchte ihre Technologie als Standard durchzudrücken. Im Hinblick auf Mantle, Vulkan und DX12 und den Konsolen, ist das ziemlich geglückt.
Das könnte NV für Pascal richtig wehtun und ich denke selbst die NextGen wird eher auf AMD setzen als andere Custom-Lösungen. Aber ich denke NV wird schon dementsprechend gegenschießen.

Es kommt wohl in Zukunft eher drauf an, für welche Firma die Spieleentwickler ihre Seele verkaufen.

aufkrawall
2016-03-28, 16:25:46
Edit: selbst mit undervolting kommt man laut Igor's Messungen nicht annähernd auf Maxwell-Effizienz.
Meine Karte verbraucht laut Wattmeter ca. 220W bei Trine 2 mit leichter Drosselung (deckt sich in etwa mit Anzeige von Software-Tools).
Bei Ashes mit AC läuft sie nicht in die Drosselung, verbraucht also weniger. Meine ehemalige 980 mit 1,4Ghz/2Ghz verbrauchte ohne AC afair dabei auch ca. 200W oder noch mehr, und die war nur ca. 5% schneller.
Nähme man jetzt einen Hawaii XT statt Pro mit ähnlicher ASIC-Quality und würde den Takt leicht senken, sollte das die Effizienz noch etwas erhöhen.
Damit wären GM204 und Hawaii bei Ashes ziemlich auf dem gleichen Performance- und Effizienz-Level. Bei Hitman wär es genau so.

Michalito
2016-03-28, 16:33:42
Eigentlich ist doch das Problem tiefer. Die Software-Entwicklung lebt von gutem Treibersupport und sogar Technologiesupport. NV hat mit Gameworks eben versucht, ihren Sourcecode in die Spiele zu pressen, was meistens ziemlich gescheitert ist...bisher. AMD ging noch eine Stufe tiefer und versuchte ihre Technologie als Standard durchzudrücken. Im Hinblick auf Mantle, Vulkan und DX12 und den Konsolen, ist das ziemlich geglückt.
Das könnte NV für Pascal richtig wehtun und ich denke selbst die NextGen wird eher auf AMD setzen als andere Custom-Lösungen. Aber ich denke NV wird schon dementsprechend gegenschießen.



Gute Analyse.

Raff
2016-03-28, 16:38:07
Edit: selbst mit undervolting kommt man laut Igor's Messungen nicht annähernd auf Maxwell-Effizienz.

Doch, es ist allerdings wichtig, dass man dafür ein ab Werk sparsames Design wählt und nicht den größten Schluckspecht. Nachzulesen in der PCGH 04/2016 (Fury-Effizienztuning). :) Bei Hawaii gilt das gleiche. Grundsätzlich schwankt der Verbrauch bei AMD stärker zwischen Spielen und auch zwischen einzelnen Auflösungen, während Geforce-Karten nach Möglichkeit immer knapp unter der TDP arbeiten.

MfG,
Raff

Nakai
2016-03-28, 16:43:18
Doch, es ist allerdings wichtig, dass man dafür ein ab Werk sparsames Design wählt und nicht den größten Schluckspecht. Nachzulesen in der PCGH 04/2016 (Fury-Effizienztuning). :) Bei Hawaii gilt das gleiche. Grundsätzlich schwankt der Verbrauch bei AMD stärker zwischen Spielen und auch zwischen einzelnen Auflösungen, während Geforce-Karten nach Möglichkeit immer knapp unter der TDP arbeiten.

MfG,
Raff

AMD hat eben noch nicht diese Art von Powertuning und Clockgating in ihr Design integriert. Das kommt mit Polaris und wird mit Finfet noch etwas interessanter. Ich könnte vermuten, dass AMD mit der nächsten Gen + optimierter Software Kreise um NV bzgl Effizienz ziehen könnte. Erkauft wird sich das mit einem Ausbleiben von einer Performance/Enthusiasten-Karten seitens AMD für 2016. AMD wollte wohl hierfür gleich auf HBM2 gehen.

Kurz, GP104 wird für 2016 wohl die schnellste Karte/GPU werden. GP104 wird erst aufkreuzen wenn Apple sein 16FF+-Volumen etwas zurückdreht. September/Oktober klingt hierfür ganz gut.

Mancko
2016-03-28, 17:51:33
Hö? Geschwemmt mit Fermi? Habe ich was verpasst? Die GTX 480 war lange nur eher schlecht lieferbar, die GTX 470 nun nicht gerade ein Preiswunder. Die GTX 460 hatte einen ganz "normalen" Preis zum Release im Sommer 2010.


Nicht mit FERMI aber mit der Vorgängergeneration. Die eher suboptimale Aufstellung von FERMI im Vergleich zur Konkurrenz hat Nvidia damals aber dazu veranlasst geradezu den gesamten Markt mit den Ablegern der Vorgeneration zu fluten und schlechtere Quartalszahlen in Kauf genommen und somit AMD aber schön an die Wand gedrängt. Die haben nur sehr wenig Marktanteile in der Zeit gut machen können, trotz damals überlegener Produkte und haben viel schneller größere Marktanteile später wieder verloren als Nvidia gleichauf oder besser war. Das ist eben der Luxus den sich Nvidia nach fast durchweg bis auf wenige Außnahmen erfolgreichen Jahren jederzeit leisten kann, wenn es notwendig wird. Aktuell sehe ich dafür aber keinen Bedarf und schon gar nicht bei den 3% Marktanteilsverschiebungen. Da müsste schon mehr passieren und aktuell sind sie nach wie vor top aufgestellt. Die eigene Palette ist durch die Bank weg billiger zu produzieren als AMDs Produkte und das eben genau wegen der optimalen DX11 Auslastung der Hardware. Da bleibt fast nichts liegen.

Mancko
2016-03-28, 17:56:20
Es kommt wohl in Zukunft eher drauf an, für welche Firma die Spieleentwickler ihre Seele verkaufen. Genau das wird der Fall sein. Ist im übrigen heute auch schon so. Ich sehe das als normalen Bestandteil des Wettbewerbs. Hat ja keiner gesagt, dass ausschließlich Hardware Wettbewerbs relevant ist.

horn 12
2016-03-28, 18:20:21
Die Effizienz wird wohl zu hoch angepreist. Verkauft man eine "Alte" Karte kann man mit der Neuen Jahre zocken bis der Mehrverbrauch wieder drinn ist und man pari ausgeht.
Gut, Effizienz ist wichtig, aber eben doch nicht das Allheilmittel :-)
Dies ist auch erst seit Maxwell so in Mode gekommen, früher krähte kaum ein Hahn danach!
Da war Leistung weitaus wichtiger.

Timbaloo
2016-03-28, 18:39:02
Die Effizienz wird wohl zu hoch angepreist. Verkauft man eine "Alte" Karte kann man mit der Neuen Jahre zocken bis der Mehrverbrauch wieder drinn ist und man pari ausgeht.
Gut, Effizienz ist wichtig, aber eben doch nicht das Allheilmittel :-)
Dies ist auch erst seit Maxwell so in Mode gekommen, früher krähte kaum ein Hahn danach!
Da war Leistung weitaus wichtiger.
GTX 480...

=Floi=
2016-03-28, 19:05:52
wenn man auf einmal mit dem gleichen oder weniger powerbudget erheblich mehr power unterm hintern hat und die karte auch noch (dankt teillast) viel leiser ist, dann lernt man die neueren sparsameren designs zu lieben lernen. (das ist nur auf NV bezogen!)


@krawall
was soll denn der shit mit DX12 und 1:2DP bei ati? was willst du uns damit sagen?
ich kann es auch nicht ändern, wenn ati keine sparsame normale karte bringen will. (die firepro reihe wäre ja dafür ganz gut geeignet.)

Ailuros
2016-03-28, 19:58:01
Die Effizienz wird wohl zu hoch angepreist. Verkauft man eine "Alte" Karte kann man mit der Neuen Jahre zocken bis der Mehrverbrauch wieder drinn ist und man pari ausgeht.
Gut, Effizienz ist wichtig, aber eben doch nicht das Allheilmittel :-)
Dies ist auch erst seit Maxwell so in Mode gekommen, früher krähte kaum ein Hahn danach!
Da war Leistung weitaus wichtiger.

Es gab mal eine Zeit wo HPC fast nicht nennenswert war und Handys es schwer hatten selbst einfachen text zu bearbeiten. Es hat sich eben so viel seither geaendert dass die Firmen die Supercomputers betreiben wohl doch im Stromverbrauch bei so grossen Maschinen interessiert sind (noch schlimmer bei 24/7 Betrieb) und die 1.5 Milliarde die im vergangenen Jahr neue smartphones gekauft haben wollen auch nicht oefters als einmal am Tag die Dinger nachladen.

Eigentlich zaehlte Effizienz schon immer und ja es war, ist und wird auch der wichtigste Aspekt einer jeglichen Einheit bleiben; der eigentliche Unterschied ist dass heutzutage viel zu viel die Herstellungsprozesse limitieren und jegliche processing Einheit oefters zu stark am Rand des moeglichen laueft.

Wer jetzt glaubt dass Effizienz erst mit Maxwell ankam, hat wohl die vorigen Jahrzehnte einfach verpennt.

Hübie
2016-03-28, 20:06:07
Oder nicht gecheckt was außerhalb des Gamer-PCs sinnvoll angebracht ist. NVIDIA's Ingenieure überlegen sich zweimal ob ein Bit nun übertragen werden soll oder ob es andere Möglichkeiten gibt, damit man einfach am Rande des Möglichen ist. Mit Maxwell konnte man erstmals innerhalb eines Nodes die Effizienz signifikant steigern. Das ist das was neu war.

Dürfte ich die anderen bitten aus dem Jahr 2011 heraus zu treten um 2016 zu spekulieren, anstatt über eine defekte GPU zu sinnieren??

-/\-CruNcher-/\-
2016-03-28, 20:30:10
wenn man auf einmal mit dem gleichen oder weniger powerbudget erheblich mehr power unterm hintern hat und die karte auch noch (dankt teillast) viel leiser ist, dann lernt man die neueren sparsameren designs zu lieben lernen. (das ist nur auf NV bezogen!)


@krawall
was soll denn der shit mit DX12 und 1:2DP bei ati? was willst du uns damit sagen?
ich kann es auch nicht ändern, wenn ati keine sparsame normale karte bringen will. (die firepro reihe wäre ja dafür ganz gut geeignet.)

Absolut richtig es fasziniert einfach das du das Ergebniss selbst deines Codes hören kannst du brauchst teils nicht mal mehr auf Daten zu achten du hörst einfach nur zu wie die Lüftersteuerung Reagiert und bestimmst daran die Effizienz innerhalb der Balance zwischen GPU und CPU, die Lüftersteuerung ist genauer unter Windows als wie jedes Tool ;)

Screemer
2016-03-28, 21:03:18
Hast du die Kosten dafür gesehen?


Genau darauf wollte ich hinaus. Denn ein wirklicher nutzen lässt sich bei den bisherigen Implementierungen für mich nicht sehen. Das Ende der Fahnenstange ist hier zwar wohl auch noch nicht erreicht, aber AC bringt wenigstens mehr Leistung. Zumindest auf der passenden hw.

Hübie
2016-03-28, 21:21:15
Meine Karte verbraucht laut Wattmeter ca. 220W bei Trine 2 mit leichter Drosselung (deckt sich in etwa mit Anzeige von Software-Tools).
Bei Ashes mit AC läuft sie nicht in die Drosselung, verbraucht also weniger. Meine ehemalige 980 mit 1,4Ghz/2Ghz verbrauchte ohne AC afair dabei auch ca. 200W oder noch mehr, und die war nur ca. 5% schneller.
Nähme man jetzt einen Hawaii XT statt Pro mit ähnlicher ASIC-Quality und würde den Takt leicht senken, sollte das die Effizienz noch etwas erhöhen.
Damit wären GM204 und Hawaii bei Ashes ziemlich auf dem gleichen Performance- und Effizienz-Level. Bei Hitman wär es genau so.

Ich kann nur das widergeben was ich aus dem Test gelesen habe. Andere machen sich ja nicht mal ansatzweise diese Arbeit, wie Igor. Das war die MSI-Karte. Keine Ahnung wie stark die Serienstreuung ist, aber Hawaii hat doch eh immer gleiche Spannung bei Takt. Bei Fury (das war mir bis vor kurzem neu) scheint man da tatsächlich zu binnen.

Doch, es ist allerdings wichtig, dass man dafür ein ab Werk sparsames Design wählt und nicht den größten Schluckspecht. Nachzulesen in der PCGH 04/2016 (Fury-Effizienztuning). :) Bei Hawaii gilt das gleiche. Grundsätzlich schwankt der Verbrauch bei AMD stärker zwischen Spielen und auch zwischen einzelnen Auflösungen, während Geforce-Karten nach Möglichkeit immer knapp unter der TDP arbeiten.

MfG,
Raff

Mal sehen ob ich die beim nächsten Einkauf mit einsacke.:wink:

Nakai
2016-03-28, 23:41:08
Ich kann nur das widergeben was ich aus dem Test gelesen habe. Andere machen sich ja nicht mal ansatzweise diese Arbeit, wie Igor. Das war die MSI-Karte. Keine Ahnung wie stark die Serienstreuung ist, aber Hawaii hat doch eh immer gleiche Spannung bei Takt. Bei Fury (das war mir bis vor kurzem neu) scheint man da tatsächlich zu binnen.


AMD gab Faktor 2.5x für Perf/Watt an. Der Prozess alleine wird das natürlich nicht bewältigen, da wurden die CUs definitiv diesbezüglich erweitert.

Auf Basis von Maxwell ausgehend, wäre ein möglicher GP104 bei irgendwas zwischen 3000~4000 SPs. Was wäre eine vernünftige SP-Zahl für 256Bit GDDR5X? Bei etwa 320~384GB/s? Mehr als 3840 SPs würde ich niemals erwarten.

horn 12
2016-03-28, 23:46:39
Und Performancemässig GTX 980TI Stock plus 15 bis 20%
Sprich eine GTX 980TI 1500+ Mhz sollte in etwa GP104 entsprechen dürfen?

Der_Korken
2016-03-29, 02:15:04
Mit 4096 SPs wäre GP104 locker um die 400mm² groß. Da ich vor kurzem noch in einem der Spekulationsthreads hier Folien dazu gesehen habe (ich glaube Gipsel war es), dass die Kosten pro Transistor mit 14/16nm gegenüber 28nm eher leicht steigen als sinken, wären 400mm² horrend teuer. Ich finde ein "GM200 mit mehr Takt" wäre deutlich plausibler. 3072SPs mit 1300Mhz und dazu vielleicht 12Gps GDDR5X@256bit SI klingt doch recht ausgewogen und würde sich trotzdem von der stock 980Ti absetzen. Außerdem hätte Nvidia noch Spielraum für eine zweite Generation in 14/16nm.

Das hängt natürlich davon ab, ob 10nm wirklich schon 2018 zur Verfügung stehen. Ich hätte eher gedacht, dass lange Lebenszyklen wie die von 28nm zur Regel werden. Zumindest hat Intel das Tick-Tock-System aufgegeben und auch von Lisa Su gab es afaik mal eine Andeutung, dass uns 14nm noch etwas länger begleiten werden.

Ailuros
2016-03-29, 07:24:06
Mich wuerde es SEHR ueberraschen wenn die GP104 die area nicht eher in der GK104-Region liegt.

robbitop
2016-03-29, 08:50:15
Woher kommt eigentlich der negative Ton gegenüber Async her? Ist es generell schlecht?
Es ist alles andere als schlecht. Sobald man Dinge über Compute parallel zur eigentlichen Grafikberechnung erledigen möchte (Effektphysik, Post Processing etc) kann man es gut nutzen, um die Ausführungsressourcen der GPU zu erhöhen.

NVs Maxwell GPUs sind dank mehr Transistoraufwand in die Kontrolllogik von haus aus besser ausgelastet als AMDs GCN und NVs Kepler GPUs.
Eine GPU mit geringerer Auslastung der Ausführungsressourcen profitiert natürlich stärker als eine mit weniger Auslastung. Ein bisschen analog zu SMT bei in order CPUs und ooo CPUs. Auch wenn die Analogie hier nur sehr sehr oberflächlich passt.

Selbst GPUs mit hoher Auslastung der Ausführungsressourcen würden von Async Compute profitieren. Denn Vollauslastung wird außerhalb von synthetischen Fällen nie existieren.
Sobald NV eine Generation mit GPUs bringt, die das ordentlich unterstützt (frühestens Pascal aber sicherlich spätestens Volta), wird auch NV dieses Feature toll finden. :)

Hübie
2016-03-29, 11:04:28
Pascal wird in dieser Hinsicht wohl nicht großartig anders. Afair wird es jetzt jedoch möglich laufende Tasks zu unterbrechen um einen context switch für compute auszuführen und dann wieder in den vorherigen state zurück zu kehren. Ob das jetzt volles Preemption ist glaub ich nicht, da es sehr viel Netzwerklayer und Speicher bräuchte... Wäre untypisch für die Architektur.

Ailuros
2016-03-29, 12:12:14
http://www.anandtech.com/show/10195/oculus-rift-launch-day-news

Damit der durchschnittliche Leser auch versteht um was es mit dem async compute Zeug geht:

http://images.anandtech.com/doci/10195/pastedImage_5.png

AMD benutzt die dritte Methode und als Laie klingt sie mir als die beste temporaere Loesung. Obwohl ich keine Ahnung wieviel Zeit (in millisec?) der rote Bereich repraesentiert, erscheint mir das ein- und ausschalten von graphics bei pre-emption nicht gerade als ideal, aber ich hab als Laie wohl auch nicht den richtigen Durchblick....

iuno
2016-03-29, 12:21:59
AMD benutzt nicht nur die 3. Methode, die QRQ wurde erst neu mit einem Treiber Update eingefuehrt und funktioniert auch erst bei den Chips mit einer extra MEC, die auch scheduling microcode ausfuehren koennen. Die GPUs, die noch den alten CP mit zwei Compute Queues hatten (Tahiti, Pitcairn) koennen das nicht. QRQ wird auch nur fuer ganz bestimmte Computing Tasks verwendet, die eben kritisch sind und moeglichst schnell fertig werden sollen. Das 'normale' Vorgehen ist Methode 2 (laut dem vereinfachten Schaubild ja auch die schnellste).

https://community.amd.com/community/gaming/blog/2016/03/28/asynchronous-shaders-evolved

Natuerlich ist pre-emption nicht ideal. An dem Schaubild ist das ja einfach zu erkennen, die auf/absteigenden Flanken erzeugen viel weisse Flaeche und das ist genau Nvidias Problem. Und es bleibt imho auch solange ein Problem, bis man context in "0 Zeit" switchen kann und entweder volles preemtion funktioniert, sodass sowohl gfx als auch compute Tasks wieder unterbrochen werden koennen oder eben beides parallel ausgefuert werden kann - im besten Fall eben mit Prio wie in Fall 3. Man kann sicher Compute und GFX Tasks verketten und geschickt schedulen, sodass weniger context switches passieren, aber eben nicht beliebig lange - zumal die Daten ja auch noch voneinander abhaengen koennen.

Pascal sollte laut irgendwelchen Aussagen jedenfalls Verbesserung bringen. Ob das nur das context switching beschleunigt oder Richtung dem alten GCN CP geht, der immerhin (sehr wenige) compute queues wirklich auch nebenher ausfuehren kann, weiss man halt noch nicht. @Huebie: woher hast du denn die Info?

Ailuros
2016-03-29, 12:38:27
Da die horizontale Achse fuer "time" steht, sieht mir die mittlere Loesung auch nicht als besonders ideal aus, da compute/rot um einiges laenger dauert bis es bearbeitet wird. Natuerlich ist bei diesem der Vorteil dass der Grafik-Datenfluss fast ueberhaupt nicht beinflusst wird. Ich wuerde mir aber schon vorstellen dass ein Developer dann auch so programmieren kann dass es dann so laeuft wie er es sich vorstellt?

iuno
2016-03-29, 12:51:33
Naja das kommt auf die Situation an. die mittlere Loesung ist insofern "ideal" als dass sie eben insgesamt (gfx+compute) am kuerzesten braucht. Das ist aber natuerlich wie du sagst nur voellig unproblematisch, sofern der compute-Task nicht zeitkritisch ist, denn der braucht absolut gesehen laenger.

Zum letzten Punkt hatten wir im GPUOpen Thread auch schon was
Entwickler sollen tatsaechlich Zugriff auf das Scheduling erhalten. Dazu wird es Erweiterungen in HLSL geben.
Inwieweit man dann als Entwickler genau zuweisen kann, welchen Anteil an den Ressourcen welche Queue bekommt, kann ich aber nicht sagen. Ich bin mir aber sicher, dass es darueber hinaus geht, einfach nur sagen zu koennen "wichtig" oder "unwichtig". Die MECs fuehren scheduling microcode aus, haben dann aber insgseamt weniger Queues zur Verfuegung (afaik). Das funktioniert sicher mit abgestuften Prioritaeten. Wie das dann mit der ME (gfx cp) synchronisiert wird, weiss ich allerdings auch nicht.

N0Thing
2016-03-29, 12:58:55
Ich denke, dass beim Erstellen der Graphik die Auslastung der Shader im Vordergrund stand.
Bei der Zeitachse sieht der Unterschied nicht gewaltig aus, wenn man die maximale Zeitersparnis als Maßstab nimmt, schafft Quick Resonse Queue nur die Hälfe. Ich würde bei der Graphik aber auch nicht so wahnsinnig viel in die Zeitachse reinlesen, es dürfte wie gesagt hauptsächlich um die Auslastung der Shader gehen.

Ailuros
2016-03-29, 13:29:04
Womoeglich eine bloede Laien-Idee aber ich wundere mich ob man fuer sehr zeitlich kurze compute Aufgaben nicht den bzw. die dafuer benoetigten SIMDs einfach noch weiter hoeher takten koennte, um damit schneller ueber den Berg zu kommen....

Skysnake
2016-03-29, 13:37:56
Wäre eine durchaus angenehme Sache, die auch insbesondere dann nett ist, wenn man loadinbalance hat.

Also für HPC auch was feines. Ich habe mich vor einer Weile mal mit jemand über eine derartige Hardware Architektur unterhalten, und wie ein entsprechendes Programmiermodell aussehen müsste.