PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Nakai
2016-03-29, 13:39:49
Mit 4096 SPs wäre GP104 locker um die 400mm² groß. Da ich vor kurzem noch in einem der Spekulationsthreads hier Folien dazu gesehen habe (ich glaube Gipsel war es), dass die Kosten pro Transistor mit 14/16nm gegenüber 28nm eher leicht steigen als sinken, wären 400mm² horrend teuer. Ich finde ein "GM200 mit mehr Takt" wäre deutlich plausibler. 3072SPs mit 1300Mhz und dazu vielleicht 12Gps GDDR5X@256bit SI klingt doch recht ausgewogen und würde sich trotzdem von der stock 980Ti absetzen. Außerdem hätte Nvidia noch Spielraum für eine zweite Generation in 14/16nm.

Das hängt natürlich davon ab, ob 10nm wirklich schon 2018 zur Verfügung stehen. Ich hätte eher gedacht, dass lange Lebenszyklen wie die von 28nm zur Regel werden. Zumindest hat Intel das Tick-Tock-System aufgegeben und auch von Lisa Su gab es afaik mal eine Andeutung, dass uns 14nm noch etwas länger begleiten werden.

~4000 SPs würde ich niemals erwarten.

3840 SPs, 3200 SPs, 3072 SPs, 2560 SPs und 2304 SPs sind schöne runde Zahlen. Dann ist eher die Frage, welchen Takt man schafft und wie sich das auf die Packdichte auswirkt. 300~350 mm² darf man erwarten. Ich könnte mir eine sub 300 mm² sogar vorstellen, welche eher in Richtung 2,5K SPs geht.


Natuerlich ist pre-emption nicht ideal. An dem Schaubild ist das ja einfach zu erkennen, die auf/absteigenden Flanken erzeugen viel weisse Flaeche und das ist genau Nvidias Problem. Und es bleibt imho auch solange ein Problem, bis man context in "0 Zeit" switchen kann und entweder volles preemtion funktioniert, sodass sowohl gfx als auch compute Tasks wieder unterbrochen werden koennen oder eben beides parallel ausgefuert werden kann - im besten Fall eben mit Prio wie in Fall 3. Man kann sicher Compute und GFX Tasks verketten und geschickt schedulen, sodass weniger context switches passieren, aber eben nicht beliebig lange - zumal die Daten ja auch noch voneinander abhaengen koennen.


Das mit den fallenden und steigenden Flanken ist ganz wichtig zu erwähnen. Nach meiner Erfahrung ist GCN bei kleinen Kernels dahingehend etwas "träge". Kurz, GCN braucht viel Backpressure, um die CUs gut auszulasten. AC kann da wirklich gut helfen. Bei NV hatte ich nie das Gefühl.

Troyan
2016-03-29, 13:52:32
Das Schaubild oben ist auch inkorrekt. Anstelle von einer Unterbrechung in der Mitte der Arbeit, kann man Arbeit auch so verteilen, dass beide Queues nacheinander abgearbeitet werden.

iuno
2016-03-29, 14:04:16
Das ist nicht inkorrekt. Pre-Emption bedeutet, dass ein Task zugunsten eines anderen unterbrochen werden kann, nicht dass man sequenziell Tasks ausfuehren kann (was ja sowieso trivial ist).
Und du kannst auch nicht beliebig schieben. Und wenn du dann danach weitere Tasks aufmalst (die ja definitiv auch kommen), hast du wieder dieselben Luecken. Darum geht es aber wie gesagt hier auch nicht.
Man kann Compute und GFX Tasks verketten und geschickt schedulen, sodass weniger context switches passieren, aber eben nicht beliebig lange - zumal die Daten ja auch noch voneinander abhaengen koennen.

Nakai
2016-03-29, 16:05:12
Das ist nicht inkorrekt. Pre-Emption bedeutet, dass ein Task zugunsten eines anderen unterbrochen werden kann, nicht dass man sequenziell Tasks ausfuehren kann (was ja sowieso trivial ist).
Und du kannst auch nicht beliebig schieben. Und wenn du dann danach weitere Tasks aufmalst (die ja definitiv auch kommen), hast du wieder dieselben Luecken. Darum geht es aber wie gesagt hier auch nicht.

Pre-Emption ist natürlich ein Problem, da man die alten Daten "wegsichern" muss. Vor allem, wenn die Hardware nur eine Art von Tasks ausführen kann, ist das richtig bitter. Das ist mit einem Overhead verbunden. GCN ist es egal, welche Art von Wavefronts ausgeführt werden. Da muss erstmal nichts weggesichert werden, außer es gibt nicht genug Register, etc. dann muss das gecacht werden (will man auch nicht). Und klar kann GCN 1.2 auch pre-emption, was bedeutet, dass hochpriore Tasks eben niedrigprioren Tasks vorgezogen werden. Diesbezüglich ist GCN 1.2 allem vom NV noch stark überlegen.

Auf der Grafik sind das Mittlere und das Untere eben GCN-style. Das Mittlere ohne Priorisierung und das Untere eben mit. Das die Graphen je nach Hardware nochmal unterschiedlich sind, sollte klar sein.

Wenn ein Kernel gestartet wird, dauert es eben dementsprechend lange bis der ganze Kernel auf Hardware geschedult ist (bei AMD pro Takt eine Wavefront pro ACE). Das kann gut mit der steigenden Flanke korrespondieren. Ebenso muss sich immer eine Verarbeitungspipeline aufbauen, wenn mehrere Shader/Kernels von anderen abhängen. Kurz Shader/Kernel1/2 sind von Shader/Kernel 0 abhängig und Shader/Kernel3/4 von Shader/Kernel1. Dementsprechend dauert es seine Zeit bis eine maximale Auslastung der Hardware erreicht wird.

Und was die Developer bezüglich AC+Tuning erklären, bedeutet das man sehr viel Profilen muss. Workgroupsize etc. anpassen. Und da muss man definitiv anhand der VendorID bzw DeviceID unterschiedliche Codepfade anbieten. Das was Oxide mit Ashes of Singularity gemacht, also ein Pfad für alles, macht nur Sinn, wenn die Basishardware fest ist. Kurz in diesem Fall für den Nachteil von NV.

iuno
2016-03-29, 16:11:51
Auf der Grafik sind das Mittlere und das Untere eben GCN-style. Das Mittlere ohne Priorisierung und das Untere eben mit.
Wenn keine MEC/ACEs verwendet werden (also im Normalfall, das aendert sich ja jetzt erst langsam) macht man doch auch mit GCN pre emption, wenn ein hoeher priorisierter computing Task/Queue ploetzlich mitten in die Grafik queue spazieren sollte.
ACEs werden nur vom reinen Compute Stack und eben mit DX12/Vulkan benutzt (+ evtl. mit Erweiterungen von DX11 im Zusammenhang mit LiquidVR). Die ME/CP kann ja auch immer noch Compute Tasks in die Queue einreihen (und macht auch das bei compute shadern <DX12/VK), da gibt es aber halt nur 1 Queue - also nicht gleichzeitig.

Nakai
2016-03-29, 16:35:58
Wenn keine MEC/ACEs verwendet werden (also im Normalfall, das aendert sich ja jetzt erst langsam) macht man doch auch mit GCN pre emption, wenn ein hoeher priorisierter computing Task/Queue ploetzlich mitten in die Grafik queue spazieren sollte.
ACEs werden nur vom reinen Compute Stack und eben mit DX12/Vulkan benutzt (+ evtl. mit Erweiterungen von DX11 im Zusammenhang mit LiquidVR). Die ME/CP kann ja auch immer noch Compute Tasks in die Queue einreihen (und macht auch das bei compute shadern <DX12/VK), da gibt es aber halt nur 1 Queue - also nicht gleichzeitig.

Wird da wirklich schon pre-emption durchgeführt bei GCN? Ich hab das leider noch nicht selber ausprobiert. Soweit ich das beurteilen kann, muss man das leider händisch lösen, also auf dem Host oder per DynamicParallelism/OpenCL2.0.
Und nun könnten wir einen Schritt weitergehen und schauen, inwieweit der GCP bei Polaris/Vega aufgewertet wird. Es wäre jedenfalls sehr schön, wenn der GCP mehrere Queues parallel verarbeiten kann. Derzeit ist eben pro Shadertyp+Compute bei dem ME/GCP nur eine Pipe vorhanden. Eventuell sehen wir UnifiedPipes im GCP bei Polaris.

Hier mal nette Graphen diesbezüglich, die das etwas erklären:
http://vgleaks.com/orbis-gpu-compute-queues-and-pipelines/

iuno
2016-03-29, 17:14:43
Selber ausprobiert habe ich in die Richtung auch noch nichts. Soweit ich das sehe, sollten fuer OpenCL 2 (und HSA, neuer Compute Stack halt) eh schon die ACEs genutzt werden. Ob preemption gemacht werden kann? Warum nicht?
It [This architecture] still supports prioritization and pre-emption when required, but this will often not be necessary if ahigh priority task is also a relativelylightweight one.
http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2012/10/Asynchronous-Shaders-White-Paper-FINAL.pdf

Und nun könnten wir einen Schritt weitergehen und schauen, inwieweit der GCP bei Polaris/Vega aufgewertet wird. Es wäre jedenfalls sehr schön, wenn der GCP mehrere Queues parallel verarbeiten kann. Derzeit ist eben pro Shadertyp+Compute bei dem ME/GCP nur eine Pipe vorhanden. Eventuell sehen wir UnifiedPipes im GCP bei Polaris.

Hier mal nette Graphen diesbezüglich, die das etwas erklären:
http://vgleaks.com/orbis-gpu-compute-queues-and-pipelines/

Nein so wie ich das sehe hat der "GCP" nicht pro Typ eine Pipe, sondern insgesamt nur eine Queue, die eben gfx und compute Tasks abarbeitet.
Liverpool scheint dahingehend eine Besonderheit zu sein (steht ja auch auf der Seite), dass er noch eine extra gfx Pipe (HP3D) nur fuer gfx, ohne compute hat.
Warum soll der GCP mehrere Queues gleichzeitig abarbeiten? Wofuer mehrere gfx queues? Fuer Compute Queues gibt es doch die ACEs :confused:
Vor allem ist man ja extra davon weggegangen: der alte CP (1gfx, 2 compute queues) wurde aufgesplittet in die ME (1 gfx/compute) und 1-2 MECs (je 8 pipes (ACEs) mit je 8 queues).

Ich denke nicht, dass da viel gemacht wird, sehe aber ehrlich gesagt auch keinen grossen Bedarf. AMD hat in dem Bereich einen grossen Vorsprung. Vielleicht werden es insgesamt nochmal ein paar queues mehr oder so, grundsaetzliche Aenderungen erwarte ich aber eigentlich nicht so schnell.

Sollten das aber vielleicht in den richtigen Thread tragen
sorry fuer ot :redface:

Troyan
2016-03-29, 18:01:59
Das ist nicht inkorrekt. Pre-Emption bedeutet, dass ein Task zugunsten eines anderen unterbrochen werden kann, nicht dass man sequenziell Tasks ausfuehren kann (was ja sowieso trivial ist).
Und du kannst auch nicht beliebig schieben. Und wenn du dann danach weitere Tasks aufmalst (die ja definitiv auch kommen), hast du wieder dieselben Luecken. Darum geht es aber wie gesagt hier auch nicht.

Natürlich ist es oben inkorrekt, da der hoch priorisierte Task auch am Ende des Grafik-Task ausgeführt werden könnte. Dann erspart man sich ein "Context Switch" und Zeit.

nVidia setzt den ATW Task kurz vor V-Sync Ende und unterbricht somit den Grafik-Task genau einmal.

fondness
2016-03-29, 18:14:53
Natürlich ist es oben inkorrekt, da der hoch priorisierte Task auch am Ende des Grafik-Task ausgeführt werden könnte. Dann erspart man sich ein "Context Switch" und Zeit.

nVidia setzt den ATW Task kurz vor V-Sync Ende und unterbricht somit den Grafik-Task genau einmal.

Der Sinn eines latenzkritischen Tasks ist es, möglichst sofort ausgeführt zu werden und nicht warten zu müssen bis man dran kommt. Darüber braucht man nun wirklich nicht zu diskutieren.

Ailuros
2016-03-29, 19:27:29
Mehr von Micron's GDDR5X:

http://www.anandtech.com/show/10193/micron-begins-to-sample-gddr5x-memory

Ergo 10,11 & 12 Gbps Varianten fuer den Anfang.

Timbaloo
2016-03-29, 20:33:47
"Estimated DRAM Power Consumption" ist aber ohne SI. Das wäre sehr interessant zu wissen wie sich das bei GDDR5->GDDR5X verhält.

Unicous
2016-03-29, 20:37:13
Das ist ja auch mMn wirklich nur geraten. Die anderen Werte hat Anton Shilov sicherlich vom HBM-GDDR5 Vergleich und am Ende ist das großer Mist. Wie so vieles, das Shilov verzapft.:rolleyes:

AT muss ja echt verzweifelt sein, wenn sie solche "Qualitätsjournalisten" beschäftigen.:eek:

Ailuros
2016-03-29, 20:59:55
Das ist ja auch mMn wirklich nur geraten. Die anderen Werte hat Anton Shilov sicherlich vom HBM-GDDR5 Vergleich und am Ende ist das großer Mist. Wie so vieles, das Shilov verzapft.:rolleyes:

AT muss ja echt verzweifelt sein, wenn sie solche "Qualitätsjournalisten" beschäftigen.:eek:

Xbit ist tot und VR zone ist auch nicht mehr das was es mal wahr; generell gehen solche Seiten eine ziemlich grosse Krise durch. Wenn eine Seite wie Anandtech 10 neue Leute einstellt, dann wird wohl wie ueberall nur die Aussnahme wirklich gut sein wenn sie schon umsonst schreiben.

Aber wenn's schon sein muss ich kann Opfer machen und Anton's Zeug leichter lesen als den Unsinn von Farell & Fudo@fudzilla oder jeglichem Ahmed, Mohammed oder Ali oder wie die alle bei wccftech heissen und sogar als "Experten" unterschreiben *schluck*

Wichtig war erst mal dass Micron anfangs bis zu 12Gbps liefern kann, welches eine durchaus gute Nachricht ist fuer alle Seiten :)

Rampage 2
2016-03-29, 21:39:28
Wichtig war erst mal dass Micron anfangs bis zu 12Gbps liefern kann, welches eine durchaus gute Nachricht ist fuer alle Seiten :)

Insbesondere für mich;D

Wieviel schneller "darf" denn der GP104-Topdog sein ggü. GM200? 20% oder gar 30%?

Ich halte 20% für wahrscheinlich - dazu sollten 3072SPs mit etwas höherem Chiptakt (1.3GHz default - Boost bis ~ 1.5GHz) und nochmals verbesserter Architektur (Effizienzsteigerung und Optimierungen) in Kombination mit 256Bit SI @ 12Gbps GDDR5X eigentlich völlig ausreichen...

R2

Ailuros
2016-03-30, 06:01:20
Noch keine Ahnung; mir persoenlich wuerde auch quasi Gleichstand bei <160W Verbrauch gefallen.

Loeschzwerg
2016-03-30, 07:50:18
Gut möglich dass NV diesen Weg gehen wird, denn hinsichtlich dieser Leistungsklasse ist man nicht im Zugzwang.

Für die Enthusiasten gibt es die "Mehrleistung" via OC + Brechstange. Eigentlich alles wie gehabt.

Gipsel
2016-03-30, 09:28:08
Mehr von Micron's GDDR5X:

http://www.anandtech.com/show/10193/micron-begins-to-sample-gddr5x-memory

Ergo 10,11 & 12 Gbps Varianten fuer den Anfang.
Also praktisch wie schon vermutet.
Also ich würde eher erst mal sowas wie maximal 10-12 GT/s erwarten

Gut, daß das jetzt bestätigt ist. Mal schauen, wie schnell wir Produkte damit auf dem Markt sehen.

Interessant ist übrigens, daß alle Speedgrades im DDR-Modus maximal 6GT/s pro Pin unterstützen und es nur im QDR-Mode Unterschiede im Maximaltakt gibt.

mksn7
2016-03-30, 10:34:52
Ich vermute dass Preemption bei GPUs anders funktioniert als bei CPUs. Bei CPUs wir der ganze architectural state gesichert, damit der danach wieder reingeladen werden kann. Ich denke bei GPUs hört der Command Processor auf Wave Fronts/Warps des aktuellen Tasks zu schedulen, und wartet dann bis alle fertig gelaufen sind. Danach werden die Threads des neuen Tasks geschedult. Wenn die fertig sind wird mit den Threads des ersten Tasks weider begonnen. Auf diese Weise spart man sich das sichern von Registerzuständen usw. was bei GPUs auch massiv mehr ist als bei CPUs. Aber das ist nur meine Spekulation wie ich es machen würde...

Was dann lange dauern würde, ist das Warten bist die vorherigen Threads fertig sind wegen des damit verbundenen Tail Effect. Bei 1 Wavefront/Takt dürfte das Starten eines neuen Tasks doch sehr schnell sein. Bei bis zu 40 Wavefronts/CU * 40 CUs dauert das nur 1600 Takte, also im Mikrosekundenbereich. Erfahrungsgemäß sind sehr kurze Kernel auch innnerhalb von Mikrosekunden abgewickelt.

Godmode
2016-03-30, 10:37:31
Gut möglich dass NV diesen Weg gehen wird, denn hinsichtlich dieser Leistungsklasse ist man nicht im Zugzwang.

Für die Enthusiasten gibt es die "Mehrleistung" via OC + Brechstange. Eigentlich alles wie gehabt.

Wenn man schon einen GM200 mit 1,4-1,5 GHz besitzt - bzw. AMD Äquivalent, dann wird GP104 wohl nicht sehr interessant sein, außer natürlich der geringere Stromverbrauch. Irgendwo habe ich auch gelesen, dass sich die 16FF+ Chips nicht mehr so gut übertakten lassen werden.

iuno
2016-03-30, 10:44:56
Es gibt ein AMD Aequivalent zu GM200@1,5 GHz? :eek: scnr
Auf welchen Infos beruht die Annahme zu den Taktraten? Da gibt es ja keine Infos, weil einfach keine Chips da sind, ausser die kleinen, niedrig taktenden SoCs und die scheinen zumindest keine Probleme damit zu haben. Und halt Intels Chips, aber das laesst sich eh nicht vergleichen.
Ob sich die Chips gut takten lassen wird auch weiterhin stark von der Architektur/vom Design abhaengen

Sunrise
2016-03-30, 10:46:27
...Irgendwo habe ich auch gelesen, dass sich die 16FF+ Chips nicht mehr so gut übertakten lassen werden.
Das hängt sehr stark davon ab, wie dicht die Dinger werden und generell gibt das ja das Design (die Architektur) vor. Generell halte ich diese Aussage aber für sehr weit hergeholt und auch falsch.

Die Apple SoCs wurden immer komplexer, dichter und Twister taktet inzwischen bei locker über 2GHz im Vergleich zu Cyclone und Cyclone+ davor.

Ich erwarte zwar keinen allzu großen Sprung, aber wenn überhaupt, dann ist das eher Design bedingt, weil man einen Parameter wie Packdichte so stark erhöht, dass die Taktbarkeit leidet.

AMD wird wohl konservativer sein (siehe GCN), bei NV erwarte ich aber auch aufgrund ähnlicher Strategie nur mit deutlich kleinerem Die wieder einen gesunden Taktsprung.

Godmode
2016-03-30, 10:48:00
Es gibt ein AMD Aequivalent zu GM200@1,5 GHz? :eek: scnr
Auf welchen Infos beruht die Annahme zu den Taktraten? Da gibt es ja keine Infos, weil einfach keine Chips da sind, ausser die kleinen, niedrig taktenden SoCs und die scheinen zumindest keine Probleme damit zu haben. Und halt Intels Chips, aber das laesst sich eh nicht vergleichen.
Ob sich die Chips gut takten lassen wird auch weiterhin stark von der Architektur/vom Design abhaengen

Ja sonst heißt es wieder ich bin bias, weil ich AMD nicht nenne. :biggrin:

In irgend einer Präsentation habe ich das gesehen. Dort stand, dass die IHVs mit 16FF+ weniger Spielraum einberechnen müssen. Das hießt ja nicht, das die Taktraten generell sinken, ganz im Gegenteil. Natürlich erwarte ich mit 16FF+ höhere Takte, aber eben weniger OCing oben drauf.

Loeschzwerg
2016-03-30, 10:48:59
Nüchtern betrachtet braucht man von so einem gut übertakteten GM200 Kärtchen nicht wechseln, stimmt schon. Aber wo bleibt da der Spaß :D

Welches AMD Äquivalent? Das mit den 4GB :uconf2: Also ich lasse mich da gerne locken, sofern alles passt :)

Ailuros
2016-03-30, 11:09:52
In irgend einer Präsentation habe ich das gesehen. Dort stand, dass die IHVs mit 16FF+ weniger Spielraum einberechnen müssen. Das hießt ja nicht, das die Taktraten generell sinken, ganz im Gegenteil. Natürlich erwarte ich mit 16FF+ höhere Takte, aber eben weniger OCing oben drauf.

Wenn sich NV relativ konservativ mit Frequenzen haelt, dann werden Uebertaktungen auch nichts im Weg stehen. NV hat mit den <Kepler hotclocks einige Erfahrung mit hohen Frequenzen gemacht. Der wichtigste Anteil dafuer wird in den design gegossen und sie schrauben eben noch etwas an Prozess-bedingten Optimierungen fuer einen Schuss noch hoehere Frequenz.

Unter normalen Umstaenden haben sie das meiste an der zusaetzlichen Transistorendichte ausgenutzt dass 16FF+ bietet und haben womoeglich noch etwas Luftraum fuer leicht hoehere Frequenzen. Das was viele falsch verstehen ist dass bei einem neuen Prozess X% mehr Transistoren/mm2 moeglich sind oder Y% hoehere Frequenz; "oder" !- "und".

HOT
2016-03-30, 13:01:08
Die Frequenzen sind bei Maxwell schon recht hoch, ob sich da viel ändert finde ich fraglich.
Aber mal was anderes in den Raum geworfen: Was wenn NV auch eine neue Produktstrategie macht und GP102 gar nicht als Ersatz für GP100 gedacht ist, sondern einfach ein Lückenfüller? Ich könnt mir auch vorstellen, dass GP104 eben wegen der früh angepeilten Veröffentlichung auf 7GB/s GDDR5-RAM angewiesen ist und derer 256Bit mitbringt. Damit wäre es gar nicht sinnvoll den Chip mit besonders vielen Shadern zu bauen sondern sich auf maximal 2048 zu begrenzen. Damit hätte der Chip auch nur maximal 250mm² (GM204 ist ja sehr groß für diese Klasse, was eher untypisch war). NV könnte einfach noch einen 4x0mm²-Chip dazuwischenschalten, wenn GP100 600mm² haben soll. Dann wäre Pascal ein Quasi-Maxwell-Shrink mit mehr Potenzial. Vielleicht orientiert man sich da auch völlig falsch, immerhin hat sich NV ja recht wenig Zeit genommen für dessen Entwicklung, vielleicht muss man Maxwell und Pascal zusammen als die ursprünglich geplante 20nm-Generation sehen, die ja bis Volta aktiv ist.
GP106 -> GM206 < 75W (128Bit GDDR5) (kein PCIe-Stecker)
GP104 -> GM204 < 125W (256Bit GDDR5) (ein 6Pin-PCIe-Stromstecker)
GP102 -> GM200 < 175W (384Bit GDDR5) (ein 8er-PCIe-Stecker)
GP100 -> 250W (HBM2) (volle Lotte)

Volta -> GDDR5X

Ailuros
2016-03-30, 13:22:10
Man muesste zum vorigen so oft "nein" sagen dass es keinen Spass mehr macht.

HOT
2016-03-30, 13:30:32
Man muesste zum vorigen so oft "nein" sagen dass es keinen Spass mehr macht.
Aha, dann bin ich ja mal gespannt :D. Der Ball liegt immer noch bei dir.

Nakai
2016-03-30, 13:39:23
Ein 10 Gbps GDDR5X würde für GP104 erstmal reichen. Das wären 320GB/s und wäre sehr nach an GM200-Bandbreite. Geht man sogar auf 11 oder gar 12 Gbps kratzt man sogar an den 400 GB/s.

Ein "geshrinkter" GM200 als GP104 mit Pascal-Verbesserungen und etwas Mehrtakt klingt ganz vernünftig. Immerhin gibt es noch einen GP102 und GP100, je nachdem was nun ein reiner HPC-Chip oder Gaming-Chip wird.

Bei NV kann man sich denken, dass sie entweder höher takten oder mehr Einheiten verbauen. Eine GTX 980Ti/Titan X mit Standardtakt hat 1075Mhz Boost. Wenn GP104 eine ähnliche Einheitenkonstellation nimmt, sollte man schon Taktraten von ~1,3Ghz erwarten dürfen. Evtl noch ein netter Boost und alles ist fein. Ein GP104 muss auch in eine TDP von ~175W gequetscht werden.
Ein GP100/2 wird bei ~250W liegen.

€: Wie gesagt, so ~20% vor einem GM200 sollte man für GP104 erwarten dürfen.

Und GP100? Die Existenz eines GP102 sollte schon Bände sprechen. An ein MCM auf einem Interposer glaube ich zwar noch nicht. Eher ist GP100 ein reiner Computechip und GP102 erfüllt diese Aufgabe dann. Wenn man den ganzen Graphics-Ballast rausnimmst, sollte ~500mm² für GP100 locker reichen, ich würde eher leicht darunter gehen.

GP102? Da bin ich mir nicht sicher, ob NV auf HBM2 diesbezüglich geht. HBM2 bringt auch Perf/Watt-Verbesserungen, welche im HPC-Bereich gerne dankend angenommen werden. Für dem Gaming-Bereich wäre HBM2 ziemlich schick, aber ob notwendig? Ich bezweifel das. Es wird die Lösung genommen werden, welche am vernünftigsten ist.

Ailuros
2016-03-30, 13:53:07
Gibt es ueberhaupt wenigstens eine Indizie fuer die Existenz eines GP102?

Nakai
2016-03-30, 13:55:23
Gibt es ueberhaupt wenigstens eine Indizie fuer die Existenz eines GP102?

Treibereinträge.

Zettabit
2016-03-30, 14:04:34
Die Frequenzen sind bei Maxwell schon recht hoch, ob sich da viel ändert finde ich fraglich.
Maxwell hat eine extrem konservative Taktung im Referenzdesign, man schaue sich mal die Overclocking-Ergebnisse und die Custommodelle an.

"recht hoch" ist da nur wieder dein typisches Trolling.

Hübie
2016-03-30, 15:28:17
Ich habe mir mal die Arbeit gemacht den durchschnittlichen Takt aller Karten, welche im Luxx Sammelthread gelistet sind zu errechnen. Dabei kamen 1354 1311 Mhz heraus. Für 28 nm bei 13,5-14 Mio Transistoren pro Quadratmillimeter ist das gar nicht so übel.
Der Takt hängt letztlich am Design der Transistoren ab. Einmal die Art, Größe und Anordnung. Es gibt Feldversuche mit anderen Rohstoffen, wo man schon mal straight auf 10 GHz zu marschiert. Also ist auch dies ein Faktor.
Darüber zu spekulieren ist also schon von Grund auf quatsch. Am Ende kommt noch das binning vom Prozeß etc.

Zu pre-emption: Gipsel sagte da mal dass moderne GPUs dies noch nicht (so) beherrschen wie es in CPUs funktioniert. Also wird wahrscheinlich nur ein Zwischenergebnis oder so gespeichert. Wer weiß was da jetzt kommt. Pascal ist ja eher ein sidegrade gegenüber Maxwell.

Edit: meine Karte boostet übrigens out of the box auf 1418 MHz. Das ist enorm für soviel Rechenwerke. Kenne im Grunde keine Karte, welche nur auf 1006 MHz läuft.

BlacKi
2016-03-30, 15:31:35
Edit: meine Karte boostet übrigens out of the box auf 1418 MHz. Das ist enorm für soviel Rechenwerke. Kenne im Grunde keine Karte, welche nur auf 1006 MHz läuft.
jaber die 2ghz werden die neuen chips mit normalem OC nicht sehen. ich glaube eher 1700 wird das neue 1500.

Hübie
2016-03-30, 15:41:34
Wie ich sagte ist das schwer zu sagen. Ich glaube gar nicht mal an mehr Takt. Aber glauben ist eben nicht wissen. :D

scully1234
2016-03-30, 15:44:54
Ich wuerde annehmen, das pendelt sich eher wieder dort ein wo es jetzt steht , eher durch den frischen FinFET Prozess noch etwas darunter.

Auch bei GPUs kommt irgendwann der Taktwall wie beim Pentium 4

Raff
2016-03-30, 16:01:42
Also praktisch wie schon vermutet.

Gut, daß das jetzt bestätigt ist. Mal schauen, wie schnell wir Produkte damit auf dem Markt sehen.

Interessant ist übrigens, daß alle Speedgrades im DDR-Modus maximal 6GT/s pro Pin unterstützen und es nur im QDR-Mode Unterschiede im Maximaltakt gibt.

Ich tippe darauf, dass es 14 oder gar noch mehr GT/s (man sprach ja vom Potenzial, 16 GT/s zu liefern) erst mit erhöhter Spannung gibt – wie bei GDDR5 (8 GT/s) auch.

Ich habe mir mal die Arbeit gemacht den durchschnittlichen Takt aller Karten, welche im Luxx Sammelthread gelistet sind zu errechnen. Dabei kamen 1354 Mhz heraus. Für 28 nm bei 13,5-14 Mio Transistoren pro Quadratmillimeter ist das gar nicht so übel.

[...]

Edit: meine Karte boostet übrigens out of the box auf 1418 MHz. Das ist enorm für soviel Rechenwerke. Kenne im Grunde keine Karte, welche nur auf 1006 MHz läuft.

1.354 MHz als durchschnittlicher OC-Wert? Zieh da mal mindestens 50 MHz mit Richtung zu 100 ab, denn in solchen Listen ist fast nie etwas rockstable. ;) Zumal Referenzkarten niemals solche Gefilde sehen – wenn da ausnahmsweise mal nicht das Powerlimit das Problem ist, glüht der Kühler. Neue Custom-Karten wie die MSI Lightning, Asus Strix, Inno Hybrid oder Zotac AMP Extreme haben hingegen wirklich kein Problem, dauerhaft über 1.300 MHz zu arbeiten, dann aber eben mit rund 300 Watt TDP.

So und so landet man bei einer Idee, die seit vielen Jahren bei Nvidia zu sehen ist: wenig Referenztakt, aber viel OC-Spielraum bei den Parterkarten. Richtig los ging es mit der GTX 460. Von Pascal erwarte ich das gleiche. Interessant wird eher, was AMD macht – auf die Dinger bin ich persönlich wesentlich mehr gespannt als auf Nvidias Aufguss, der vermutlich genauso öde ausgehen wird wie der Sprung von Titan/780 Ti auf die GTX 980.

MfG,
Raff

Zettabit
2016-03-30, 16:15:45
1.354 MHz als durchschnittlicher OC-Wert? Zieh da mal mindestens 50 MHz mit Richtung zu 100 ab, denn in solchen Listen ist fast nie etwas rockstable.
Selbst wenn du 100 abziehst, wären das 1,25 GHz bei 1 GHz Referenztakt.

Wenn NVIDIA also auf die Leistungsaufnahme keinen Wert gelegt hätte, hätten sie 25% Leistung in der Referenz raus holen können. Ich finde nicht, dass das tatsächlich gewählte Taktziel somit "recht hoch" war. Eigentlich doch sogar eher recht niedrig.

Frosty
2016-03-30, 16:25:38
Interessant wird eher, was AMD macht – auf die Dinger bin ich persönlich wesentlich mehr gespannt als auf Nvidias Aufguss

MfG,
Raff


dito.
ich würde es amd wünschen, dass sie mal eine cashcow mit polaris züchten.:D:ucoffee:

Ailuros
2016-03-30, 16:45:44
Selbst wenn du 100 abziehst, wären das 1,25 GHz bei 1 GHz Referenztakt.

Wenn NVIDIA also auf die Leistungsaufnahme keinen Wert gelegt hätte, hätten sie 25% Leistung in der Referenz raus holen können. Ich finde nicht, dass das tatsächlich gewählte Taktziel somit "recht hoch" war. Eigentlich doch sogar eher recht niedrig.

IMHO pure Absicht fuers letzte; erstens haben vendors und Verbraucher den Spass massiv zu uebertakten und zweitens konnten sie clever Maxwells als Verbrauchs-wunder verkaufen wobei es eigentlich fast oder ueberhaupt keine SKU mit Referenz-Frequenzen (und ergo so niedrigem wie vermarktet Verbrauch) eigentlich zu kaufen gibt.

Hübie
2016-03-30, 16:46:57
Ich tippe darauf, dass es 14 oder gar noch mehr GT/s (man sprach ja vom Potenzial, 16 GT/s zu liefern) erst mit erhöhter Spannung gibt – wie bei GDDR5 (8 GT/s) auch.



1.354 MHz als durchschnittlicher OC-Wert? Zieh da mal mindestens 50 MHz mit Richtung zu 100 ab, denn in solchen Listen ist fast nie etwas rockstable. ;) Zumal Referenzkarten niemals solche Gefilde sehen – wenn da ausnahmsweise mal nicht das Powerlimit das Problem ist, glüht der Kühler. Neue Custom-Karten wie die MSI Lightning, Asus Strix, Inno Hybrid oder Zotac AMP Extreme haben hingegen wirklich kein Problem, dauerhaft über 1.300 MHz zu arbeiten, dann aber eben mit rund 300 Watt TDP.

So und so landet man bei einer Idee, die seit vielen Jahren bei Nvidia zu sehen ist: wenig Referenztakt, aber viel OC-Spielraum bei den Parterkarten. Richtig los ging es mit der GTX 460. Von Pascal erwarte ich das gleiche. Interessant wird eher, was AMD macht – auf die Dinger bin ich persönlich wesentlich mehr gespannt als auf Nvidias Aufguss, der vermutlich genauso öde ausgehen wird wie der Sprung von Titan/780 Ti auf die GTX 980.

MfG,
Raff

Nö. Das sind keine OC-Werte sondern Werkszustand. Die gehen eins, maximal zwei Stufen herunter. Da reden wir also von 13 bzw. 26 MHz. Ich stell das gleich mal hier rein.

Nakai
2016-03-30, 16:57:57
Marketingtechnisch ist das schon clever gelöst seitens NV. Da kann sich AMD definitiv eine Scheibe abschneiden. Man kann durch die Release-Reviews sich als Verbrauchswunder profilieren und gleichzeitig werden nur OC-Modelle geliefert.
Pascal wird das definitiv auch ähnlich lösen.

Und reinher von den Erwähnungen bzgl Finfet, kann man in Richtung Takt oder in Richtung Packdichte optimieren. Unterm Strich wird wohl ein ähnliches Resultat erreicht. Also was ist GP104?
~20% vor GM200, entweder mit dementsprechend mehr Einheiten oder etwas mehr Takt, oder irgendetwas dazwischen. Wird eine doppelt so hohe Packdichte angepeilt, kann man GP104 irgendwas zwischen 300 und 350mm² einordnen und dabei eine ähnlich Anzahl an SMs und einen ähnlichen Takt erreichen.

Bei Finfet sollte man aber eher bei einer kleineren Diesize spekulieren. Der Prozess ist teuer, womöglich wird man GM200 bzgl den Kosten schlagen wollen, aber den Verkaufspreis ähnlich hoch lassen.
Niedrigerer Verbrauch => kleineres Kühlsystem, weniger Spawas, leisere Kühlung, kleineres PCB
256Bit GDDR5X => kleineres SI, womöglich weniger kompliziertes PCB

Das sollte man auch berücksichtigen. Wenn ich NV wäre, würde ich GP104 wie immer positionieren, aber mit größerem Augenmerk auf die Kosten.
Wenn man GTX970-Besitzer zum Wechseln bewegt, wär doch toll. ;)

Leonidas
2016-03-30, 17:08:30
Marketingtechnisch ist das schon clever gelöst seitens NV. Da kann sich AMD definitiv eine Scheibe abschneiden. Man kann durch die Release-Reviews sich als Verbrauchswunder profilieren und gleichzeitig werden nur OC-Modelle geliefert.



Halbes Gegenargument: Oftmals liegen nur Verbrauchsmessungen von OC-Karten vor. Und runtertakten ist ja in dem Sinne sinnlos, wenn die sich frei hochboosten dürfen.

Zettabit
2016-03-30, 17:09:06
IMHO pure Absicht fuers letzte; erstens haben vendors und Verbraucher den Spass massiv zu uebertakten und zweitens konnten sie clever Maxwells als Verbrauchs-wunder verkaufen wobei es eigentlich fast oder ueberhaupt keine SKU mit Referenz-Frequenzen (und ergo so niedrigem wie vermarktet Verbrauch) eigentlich zu kaufen gibt.
Logisch Absicht. Die ersten Reviews laufen immer im Sweetspot und die späteren OC-Modelle können da nichts mehr "versauen". Ist ja jetzt nicht so, als würden die OC-Modelle nur mehr Leistung aufnehmen - liefern ja auch mehr Performance.

Refernzmodelle findet man übrigens massig, gerade zum Marktstart.

scully1234
2016-03-30, 17:10:05
Marketingtechnisch ist das schon clever gelöst seitens NV. Da kann sich AMD definitiv eine Scheibe abschneiden. Man kann durch die Release-Reviews sich als Verbrauchswunder profilieren und gleichzeitig werden nur OC-Modelle geliefert.
Pascal wird das definitiv auch ähnlich lösen.


Das geht aber auch nur auf wenn die Architektur das so ermoeglicht wie bei Nvidia

Andere Hersteller wuerden diese ''Taktik'' so wohl auch anwenden

Nakai
2016-03-30, 17:17:51
Halbes Gegenargument: Oftmals liegen nur Verbrauchsmessungen von OC-Karten vor. Und runtertakten ist ja in dem Sinne sinnlos, wenn die sich frei hochboosten dürfen.

Naja, das stimmt schon. Der erste Eindruck ist doch immer sehr wichtig und da wurde GM204 als Verbrauchswunder vermarktet. Selbst den OC-Modellen klebt dieser Ruf dran. Cleveres Marketing eben. Dem technikverliebten LEser ist das natürlich bewusst, nicht dem 0815-DAU.

GM204 lief maximal mit ~170W als Base-Modell. GP104 wird ähnliches leisten. Wenn ein GM200-artiger Chip mit halber Größe und halbem Verbrauch unter Finfet kommt, wäre noch genug Spielraum für mehr Takt (wenn es das Design zulässt).

Hübie
2016-03-30, 17:26:40
So hier die Liste für die, die es interessiert:

https://onedrive.live.com/redir?resid=A3366AE7AEDA0E90!6404&authkey=!AGYEFbAl2esh2QQ&ithint=file%2cxlsx

Das sind keine durchschnittlichen OC-Werte, sondern der maximale Boostwert. Korrigiere mich hier: 1311 MHz im Durchschnitt - nicht 1354! Jetzt kann man ja mal ausrechnen wie es bei computerbase aussehen würde, wenn die mit höherem Takt testen würden, denn bisher basieren fast alle Tests auf dem sehr konservativen Standardtakt. Das ganze bei deutlich unter 300 Watt. Wie kommst du überhaupt da drauf, Raff? :confused:

Edit: Das ist hier jedoch OT. Will einfach nur sagen, dass man also wirklich wenig über den Takt im Voraus anhand der zugrunde liegenden Daten sagen kann.

Schrotti
2016-03-30, 19:29:34
Mir ist das egal.

Ich brauch ne Karte die in 4k vernünftige fps liefern kann (auch ohne Übertaktung).
Wenn Pascal das nicht kann, muss ich schauen wo AMD mit Polaris landet.

Thunder99
2016-03-30, 19:55:19
Eher Vega ;)

Zettabit
2016-03-30, 21:16:59
Ich brauch ne Karte die in 4k vernünftige fps liefern kann (auch ohne Übertaktung).
Wenn Pascal das nicht kann, muss ich schauen wo AMD mit Polaris landet.
4K vernünftig auf einer Mobile GPU?

Träum weiter ;D

Schrotti
2016-03-30, 21:25:49
4K vernünftig auf einer Mobile GPU?

Träum weiter ;D

Was wäre denn deine Schätzung?

scully1234
2016-03-30, 22:10:59
Was ist mit der Liste die WCCFtech da zusammengezaubert hat, irgendwelche Anmerkungen dazu?

danach zu urteilen soll Jensen da wohl 5 Modelle praesentieren

Einen davon ziemlich hoch versichert in der Zauba Datenbank

Mancko
2016-03-30, 22:17:47
Was ist mit der Liste die WCCFtech da zusammengezaubert hat, irgendwelche Anmerkungen dazu?

danach zu urteilen soll Jensen da wohl 5 Modelle praesentieren

Einen davon ziemlich hoch versichert in der Zauba Datenbank

Der präsentiert in seinen 2 Stunden Key Note niemals 5 Modelle. Maximal 1 bzw. 2 Modelle wobei das 2te dann ein Salvage Part m.E. wäre.
Auf jeden Fall werden sie wohl in Summe was zu Pascal erzählen ob nun mit Hardware oder ohne.

iuno
2016-03-30, 22:19:21
Liste? Nicht gesehen. Aber wccf fabriziert viel Muell und Zauba Preise sagen nichts aus.

http://asc-events.org/ASC15/ASC-Industry-2015-dis.pdf

Gab es das hier schon? Ist scheinbar schon alt, habe ich aber noch nie gesehen

scully1234
2016-03-30, 22:27:40
mmmh 2017 fuer Volta??? oder hab ich n Knick in der Optik:smile:

War da nicht letztens ne Folie die schon fast in 2018 lag?

Troyan
2016-03-30, 22:29:46
Liste? Nicht gesehen. Aber wccf fabriziert viel Muell und Zauba Preise sagen nichts aus.

http://asc-events.org/ASC15/ASC-Industry-2015-dis.pdf

Gab es das hier schon? Ist scheinbar schon alt, habe ich aber noch nie gesehen

Keine neuen Information.

Sunrise
2016-03-30, 22:38:06
Liste? Nicht gesehen. Aber wccf fabriziert viel Muell und Zauba Preise sagen nichts aus.

http://asc-events.org/ASC15/ASC-Industry-2015-dis.pdf

Gab es das hier schon? Ist scheinbar schon alt, habe ich aber noch nie gesehen
Nochmal eine Bestätigung, dass bei Pascal bei 16GB VRAM (HBM2) Ende ist. Mehr (32GB) scheinen für Volta reserviert zu sein. Eventuell ist das einer der Gründe, warum Pascal nicht ganz Fisch und Fleisch ist. Es wird eben Neues geben, perfektioniert wird es erst mit Volta.

Unicous
2016-03-30, 22:38:36
Wo kommt eigentlich die Zuversicht her, dass FinFET so geil für OC geeignet ist und sogar die Taktraten steigen?:confused: Es spricht vieles dagegen, zumal man ja bei Ivy Bridge, Haswell und Co. schon sieht, dass die chips irgendwann zu machen(Extreme-OC ausgeschlossen:wink:). Überall wird davon gesprochen, dass FinFET sehr effizient bei niedrigen Takten ist und danach eine scharfe Kurve nach unten macht.

Der Vergleich Apple CPU Cores vs. zigtausend Shader Cores hinkt meiner Meinung nach gewaltig.

AMD hat das unlängst auch angedeutet, auch wenn sie hier leakage als Ausgangspunkt genommen haben.

http://scr3.golem.de/screenshots/1512/AMD-Polaris-FinFET/thumb620/2015-12-19_173842_cr.png

Leakage ist nichts schlechtes beim OC, im Gegenteil. Wenn der Chip eine geringe Leakage hat, macht er nach oben hin irgendwann zu und man kann noch so viel Spannung drauf jagen, man bekommt keinen rock stable Takt.

Es wird also deutlich weniger Ausreißer geben, dafür mehr Einheitsbrei. Gut für AMD und Nvidia, schlecht für OC, behaupte ich.

scully1234
2016-03-30, 22:43:19
Liste? Nicht gesehen. Aber wccf fabriziert viel Muell und Zauba Preise sagen nichts aus.



Ich wollt ihn nicht verlinken dachte das waere schon irgendwie rum da es 1 Tag alt ist

iuno
2016-03-30, 22:43:52
mmmh 2017 fuer Volta??? oder hab ich n Knick in der Optik:smile:

War da nicht letztens ne Folie die schon fast in 2018 lag?
Ende 17, aber das ist wie immer ungenau... Die Praesentation scheint auch von Mai 2015 zu sein, also inzwischen sicher ueberholt

Interessant sind die techn. Details zu Pascal: 80 GiB/s NVLink (pro GPU, bei mehr als 2 GPUs dementsprechend weniger). Wie zu erwarten 16 GiB HBM mit 1 TiB/s und >3 TFLOPS (FP64). Rohleistung und Speicherausbau waere demnach nicht so der Hammer.
Verstehe das GFLOPS/Watt Diagramm nicht (Bild oben). Wie kommt man da bei Maxwell auf ~10? Sind die da lustig und tun so, als haette Maxwell 1:2 DP?
Bei Kepler kommt es dann ungefaehr hin: ~1,4 TFLOPS / 250(?) Watt = knapp 6 GFLOPS/Watt. Bei Maxwell waeren es dann theoretische ~3 TFLOPS bei 250 Watt = 12 (etwas zu viel fuers Diagramm) und bei Fermi muessten es 3 statt 2 sein... ich hasse diese Diagramme :usad:
Pascal hat laut dem Diagramm auch mMn. zu wenig Perf/Watt Verbesserung ggue. Maxwell

Keine neuen Information.
Nicht? und was ist mit den techn. Angaben aus einer offenbar offiziellen Praesentation?

aufkrawall
2016-03-30, 22:47:27
Leakage ist nichts schlechtes beim OC, im Gegenteil. Wenn der Chip eine geringe Leakage hat, macht er nach oben hin irgendwann zu und man kann noch so viel Spannung drauf jagen, man bekommt keinen rock stable Takt.

Wenn nach angenommenen ~25% Taktbonus dichtgemacht wird, ist das für jemanden mit Luftkühlung wohl kaum schlechter als für niedrigere Steigerungen schon die Spannung erhöhen zu müssen.

scully1234
2016-03-30, 22:51:47
zudem das noch, wohl eher selbst gebastelt

Troyan
2016-03-30, 22:51:49
Nicht? und was ist mit den techn. Angaben aus einer offenbar offiziellen Praesentation?

16GB sind seit der GTC aus Japan bekannt. Die restlichen Bilder gab es auch schon öfters in offiziellen Folien. ;)

iuno
2016-03-30, 22:54:28
Okay dann bin ich immerhin jetzt wieder up to date :usad:
Bin gespannt, wie NVLink durchschlaegt, insbesondere im Zusammenhang mit der IBM CPU. Schon nett, wie man das zu je 20 GiB/s Kanaelen in den verschiedenen Varianten kombinieren kann

Hübie
2016-03-31, 02:59:06
zudem das noch, wohl eher selbst gebastelt

Es wäre wirklich schade, wenn man die Nomenklatur stumpf +100 weiter nach oben geht. 1080 klingt einfach beschissen. :D Eine Schnellanalyse hat zumindest das Foto nicht als Fake enttarnt.

Edit: Das hier wollte ich euch aber nicht vorenthalten (gefunden auf wccftech.com):

http://abload.de/img/nvidia-tr0lld9ssc.jpg (http://abload.de/image.php?img=nvidia-tr0lld9ssc.jpg)

;D;D;D

Loeschzwerg
2016-03-31, 07:09:10
Warum sollte man den Rahmen des Kühlers fräsen? Prototyp Kühlelemente ja, aber doch nicht das Gehäuse drum herum. Wozu gibt es 3D Drucker.

Was wäre denn deine Schätzung?

Mit GP104 und Polaris10 wirst du in 4k nicht glücklich werden. GP100 bzw. Vega11 => 2017

scully1234
2016-03-31, 08:01:38
Edit: Das hier wollte ich euch aber nicht vorenthalten (gefunden auf wccftech.com):


;D;D;D


Holy Cow was fuer kreative Koepfe :tongue:

Edit: hoher Besuch

http://gfxspeak.com/2016/03/30/looking-forward-to-nvidias-gtc-conference/

And of course, I will learn all about Nvidia’s latest GPUs; Pascal will of course be the headliner this year

Skysnake
2016-03-31, 08:03:50
Wo kommt eigentlich die Zuversicht her, dass FinFET so geil für OC geeignet ist und sogar die Taktraten steigen?:confused: Es spricht vieles dagegen, zumal man ja bei Ivy Bridge, Haswell und Co. schon sieht, dass die chips irgendwann zu machen(Extreme-OC ausgeschlossen:wink:). Überall wird davon gesprochen, dass FinFET sehr effizient bei niedrigen Takten ist und danach eine scharfe Kurve nach unten macht.

Der Vergleich Apple CPU Cores vs. zigtausend Shader Cores hinkt meiner Meinung nach gewaltig.

AMD hat das unlängst auch angedeutet, auch wenn sie hier leakage als Ausgangspunkt genommen haben.

http://scr3.golem.de/screenshots/1512/AMD-Polaris-FinFET/thumb620/2015-12-19_173842_cr.png

Leakage ist nichts schlechtes beim OC, im Gegenteil. Wenn der Chip eine geringe Leakage hat, macht er nach oben hin irgendwann zu und man kann noch so viel Spannung drauf jagen, man bekommt keinen rock stable Takt.

Es wird also deutlich weniger Ausreißer geben, dafür mehr Einheitsbrei. Gut für AMD und Nvidia, schlecht für OC, behaupte ich.

Ich wollte es vorher schon mal schreiben.

Da dreht es sich halt um die Charakteristik der Transistoren, und wie man diese anschliessen kann.

Nach Berichten von Leuten die mit FinFet fullCustom hoch takt ASICs gebaut haben, haben die Dinger halt eine ziemliche Treiberstaerke. Was dazu führt, dass du die Leiterbahnen ziemlich breit machen musst, wenn du die wirklich voll ausfahren willst. Dann sind aber die Metalstrukturen einfach zu groß und man bekommt gar nicht mehr alle Transistoren verdrahtet, was natürlich de Packdichte der Transistoren reduzierst.

Wenn man jetzt aber die dich Packt und OC betreiben will, dann keulen zwar je nachdem die FinFets gut rein, aber das PowerDeliveryNetwork verpackt das nicht und man hat zu viel Voltage drop, ganz zu schweigen von der Elektromigration. Durch die fallende Spannung schalten die Transistoren aber wieder langsamer, und man muss eben mit der Spannungskeule rangehen, wobei man schnell einfach gegen die Wand rennt.

Ein bitterer Punkt ist hierbei eben auch, das man durch die gute Performance der FinFets die tendenziell etwas länger machen kann, was die Kapazität dieser allerdings vergrößert und gleichzeitig auch langsamer macht. Die Kapazitätserhöhung ist nicht soooo schlimm, weil der Interconnect heutzutage eh schon ziemlich reinhaut, aber die Reduzierung der Schaltgeschwindigkeit eben schon.

Wenn jetzt auch noch weniger Variation bei den FinFets drin ist, was meiner Erinnerung nach so ist, dann muss man die Margen auch nicht so groß machen.

Alles in allem halt alles Dinge die sich negativ auf OC auswirken.

Wens interessiert, der kann sich ja mal bezüglich GM/ID-Methode informieren, dann ist das verständlicher, wie die Charakteristik von Transistoren mit Spannung und Dimensionierung zusammenhängt

Ailuros
2016-03-31, 08:54:45
Der Vergleich Apple CPU Cores vs. zigtausend Shader Cores hinkt meiner Meinung nach gewaltig.

Keine Ahnung wer zum Henker CPUs mit GPUs verglichen hat, aber die GPU im Apple A9x (147mm2@16FF+) hat 768 FP32 SPs und 1536 FP16 SPs. Das daemliche ist dann eben dass Apple die GPU im PRO bei 470MHz und im 9.7" tablet bei 400MHz taktet :P

Leakage ist nichts schlechtes beim OC, im Gegenteil. Wenn der Chip eine geringe Leakage hat, macht er nach oben hin irgendwann zu und man kann noch so viel Spannung drauf jagen, man bekommt keinen rock stable Takt.

Es wird also deutlich weniger Ausreißer geben, dafür mehr Einheitsbrei. Gut für AMD und Nvidia, schlecht für OC, behaupte ich.

Ich war jetzt zugegeben zu faul die vorigen 2 Seiten durchzulesen, aber wie ich schon sagte wie TSMC z.B. angiebt kann man unter 16FF+ entweder so und so viel mehr Transistoren pro mm2 benutzen oder um N% hoeheren Takt. Wenn man jetzt ueber 2x Mal so viel Transistoren im GP100 im Vergleich zum GM200 hat, sollte man halt nicht so naiv sein und einen Referenzclock von 1.2GHz erwarten.

Sonst sind Frequenzen ein ziemlich kompliziertes Thema das von zu vielen diversen Konstanten abhaengt; ich hab leider noch keine Indizien selbst von ihrem Parker SoC. Taktet bei diesem jetzt ploetzlich die GPU bei =/<900MHz im Vollausbau waere es schon erstmal die erste Indizie dass 16FF+ weniger tolerant fuer ihre designs sein koennte. Ich glaube aber nicht wirklich daran. Ich tippe immer noch auf gleiche Frequenzen mit den heutigen oder leicht hoeher wo immer moeglich.

iuno
2016-03-31, 09:08:16
Naja, die Angabe ist halt
16FF+ technology can provide above 65 percent higher speed, around 2 times the density, or 70 percent less power than its 28HPM technology.

Verwendet Nvidia eigentlich auch eSilicon IP fuer Speichercontroller PHYs?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10987397#post10987397
Demnach gaebe es GP100 im Dezember...

Hübie
2016-03-31, 09:08:20
Warum sollte man den Rahmen des Kühlers fräsen? Prototyp Kühlelemente ja, aber doch nicht das Gehäuse drum herum. Wozu gibt es 3D Drucker.



Mit GP104 und Polaris10 wirst du in 4k nicht glücklich werden. GP100 bzw. Vega11 => 2017

Weil man Magnesium oder Aluminium nicht "drucken" kann? :| (Drucken hier eh schlecht gewählt, weil es afair eher sintern ist)

@Skysnake: Danke für die Erklärung. Hast du einen Link oder einen Suchbegriff für mich? :)

Zettabit
2016-03-31, 09:36:58
Wo kommt eigentlich die Zuversicht her, dass FinFET so geil für OC geeignet ist
"geil" für OC ist der ausgelieferte Referenztakt.

Ist da massig Luft nach oben (Maxwell), hat man auch massig OC-Potential. Ist da wenig Luft nach oben (Fiji) ists dann eben ein OC-Desaster, auch wenn man es "overclocker's dream" nennt.

Loeschzwerg
2016-03-31, 09:37:40
@Hübie: Magnesium wird gegossen und Alu ist als Rahmen schlichtweg unsinnig. Primär braucht man das Gehäuse für den Luftstrom und da reicht dann zunächst ein Teil aus dem 3D Drucker. Daher gehe ich von einem Fake aus.

iuno
2016-03-31, 09:44:04
Bei der Fury X ist der Rahmen doch auch aus Metall?

Und hier: https://youtu.be/sjiJ_B0yIMw?t=132 scheinbar auch (hatte noch keine 980 in der Hand). Auf jeden Fall wird das gefraest. Auf Bildern sieht es aber irgendwie nach Plastik aus :ugly:

Thunder99
2016-03-31, 09:56:21
@Schrotti

Auf der Hauptseite wurde es von Leo gut dargestellt, wie auch hier der allgemeine Tenor ist. Pascal smal (GP104) sowie Poloaris werden kaum schneller als jetzt werden, daher bleib für 4k+ nur die Big Chips übrig aka GP100/02 und oder Vega (10/11) :)
Also vor Ende 2016 bis Mitte 2017 wird es nichts mit ordentlich 4k Performance schätze ich

Loeschzwerg
2016-03-31, 10:06:24
Bei der Fury X ist der Rahmen doch auch aus Metall?

Und hier: https://youtu.be/sjiJ_B0yIMw?t=132 scheinbar auch (hatte noch keine 980 in der Hand). Auf jeden Fall wird das gefraest. Auf Bildern sieht es aber irgendwie nach Plastik aus :ugly:

Fury X ist auch Magnesium. Aber man kann natürlich nach dem Guss lediglich das "Logo" ausfräsen (GTX 980 Video?!).

Alu würde mich in jedem Fall stark wundern. Hat aber auch keiner behauptet -> Fail meinerseits :hammer:

iuno
2016-03-31, 10:19:20
Der Ausschnitt war auch etwas bloed gewaehlt, man kann noch etwas zurueckgehen und das Teil anschauen.
Fuer mich sieht das Teil an sich echt aus. Ein etwas abgewandeltes Design ist denke ich nach dreieinhalb Jahren schon mal drin ;)
Fraglich bleibt natuerlich ob der Arbeiter da rein kann wenn es dunkel ist, er trotzdem noch seine Arbeitshandschuhe traegt, er mit Blitzlicht im ein Foto macht und die Nummern auch stimmen

Loeschzwerg
2016-03-31, 10:32:01
Ja, kann schon passen. Wusste nicht dass da so viel nachbearbeitet wird und bin fälschlicherweise von Alu ausgegangen.

Hübie
2016-03-31, 10:53:51
@Hübie: Magnesium wird gegossen und Alu ist als Rahmen schlichtweg unsinnig. Primär braucht man das Gehäuse für den Luftstrom und da reicht dann zunächst ein Teil aus dem 3D Drucker. Daher gehe ich von einem Fake aus.

Titan690 war Magnesium; der Rest Alu (Edit: und Magnesium). Was siehst du denn im Hintergrund, was dich so sicher macht? Das ist ein Druckguss. Warum also noch mal genau Fake? :confused:

Dural
2016-03-31, 10:57:11
Nach meiner Info war nur die GTX690 Magnesium, alles andere Alu.

Loeschzwerg
2016-03-31, 11:21:53
Titan war Magnesium; der Rest Alu. Was siehst du denn im Hintergrund, was dich so sicher macht? Das ist ein Druckguss. Warum also noch mal genau Fake? :confused:

Von meiner Fake Aussage bin ich mittlerweile wieder etwas abgewichen (siehe Verlauf) :)

Woher hast du die Info bezüglich Alu Abdeckung? Die GTX 980 ist ziemlich sicher ebenfalls Magnesium.

Generell bietet Magnesium für den Einsatzzweck nur Vorteile und ist in der Produktion nicht (mehr) teurer als z.B. Alu.

Edit: Gerne auch PN, mit Pascal selber hat es ja recht wenig zu tun.
Edit2: Ok, hab es gefunden => http://www.tomshardware.com/reviews/nvidia-history-geforce-gtx-690,3605-4.html

Zettabit
2016-03-31, 11:39:41
Woher hast du die Info bezüglich Alu Abdeckung? Die GTX 980 ist ziemlich sicher ebenfalls Magnesium.

Generell bietet Magnesium für den Einsatzzweck nur Vorteile und ist in der Produktion nicht (mehr) teurer als z.B. Alu.
Ist ein Mix:
Externally the only real clues that something is up are the name change, I/O plate, and the use of a functional back plate used to cool the components on the back side of the GTX 980. You get the same magnesium shroud, aluminum frame, and poly carbonate window over the cooling solution seen on the previous cards, so there is that continuity in the looks department.
http://www.overclockersclub.com/reviews/nvidia_gtx_980/

Dass es nach Plastik aussieht, kann ich nicht bestätigen, auch nicht auf Bildern.

N0Thing
2016-03-31, 12:10:28
Naja, die Angabe ist halt

16FF+ technology can provide above 65 percent higher speed, around 2 times the density, or 70 percent less power than its 28HPM technology.



Das Komma (zwischen speed und around) würde ich als oder und nicht als und lesen.

Ailuros
2016-03-31, 12:12:39
Zwei mal "or" im gleichen Satz klingt marketingtechnisch einfach zu lahm :P :freak:

N0Thing
2016-03-31, 12:35:20
Das ist ganz klar ein "oder", aber das Komma fett zu drucken war mir dann zu laecherlich (haette man eh nicht gesehen ;) )

Okay, es klang so, als ob du Ailuros mit der Textstelle nachweisen wolltest, dass die maximale Taktsteigeung und die maximale Dichte gleichzeitig möglich sind.
Und nur Mut, Kommata fett zu drucken, kann gar nicht lächerlich sein. :redface:

Godmode
2016-03-31, 16:32:49
Nach meiner Info war nur die GTX690 Magnesium, alles andere Alu.

Richtig! http://www.nvidia.de/object/article-keynote-de.html

Und jetzt B2T

Zettabit
2016-03-31, 16:43:53
Ich glaube das Posting wurde gelöscht, warum auch immer, daher nochmal die passende Topicfrage:

Angenommen, das Bild mit der Magnesiumabdeckung für die GTX1080 ist valide - was heißt das für den Zeitrahmen des Release?

- Marktingname ist fertig
- Kühler in der Volumenproduktion

Da werden wir wohl kaum ein halbes Jahr von einem Launch entfernt sein. Doch Präsentation auf der GTC nächste Woche? Das wäre natürlich ein Knaller :)

Richtig! http://www.nvidia.de/object/article-keynote-de.html
Die Vorderseite der Karte besteht aus zwei verschiedenen Materialien. Der Außenrahmen ist aus Aluminium-Guss mit einer dreiwertigen Chrom-Beschichtung; dies gibt der Karte ein widerstandsfähgies und matt anmutendes Finish. Das zentrale Lüfter-Gehäuse wird im Spritzguss-Verfahren aus einer Magnesium-Legierung hergestellt.
Also genau der gleiche Mix, wie bei der Titan, 980, TitanX, 980 Ti etc. pp.

Loeschzwerg
2016-03-31, 17:12:15
Angenommen, das Bild mit der Magnesiumabdeckung für die GTX1080 ist valide - was heißt das für den Zeitrahmen des Release?


Würde gut zu einem Launch im Sommer passen bzw. zu den Gerüchten für Juni.

scully1234
2016-04-01, 08:15:07
Zur Computex Modelle mit GDDR5X

http://www.sweclockers.com/nyhet/21927-nvidia-geforce-gtx-970-och-gtx-980-ersatts-av-pascal-med-gddr5x-till-computex

Hübie
2016-04-01, 08:35:00
Wird Zeit meine 980 Ti abzustoßen ;D

Godmode
2016-04-01, 10:53:05
Wird Zeit meine 980 Ti abzustoßen ;D

Und dann enttäuscht sein, wenn nur GP104 kommt.

Hübie
2016-04-01, 10:57:51
Ach, war doch eh nicht ernst gemeint. :smile: sidegrades sind nix für mich. Da meine eh mit 1430/3800 läuft kann ich mich noch einige Zeit entspannt zurück lehnen. Ich erwarte für GP104 so ziemlich die gleiche Performance wie GM200 @~1200. Also grob die prognostizierten GM200 +20% @stock. Wobei es wohl fast keine GM200 in freier Wildbahn gibt die nur auf 1006 MHz läuft...

Ailuros
2016-04-01, 11:00:51
Und dann enttäuscht sein, wenn nur GP104 kommt.

Uhhmmm er wird sicher nicht "enttaeuscht" sein, weil das letzte um einiges weniger Strom verdonnern sollte und von beschissen fuer async auf weniger beschissen sein wird :freak: (<----j/k)

Dural
2016-04-01, 11:19:48
Wird doch so kommen wie bei der 980, GP104 wird etwas besser sein als GM200 bei deutlich weniger verbrauch @ 8GB

Es kann durchaus Sinn machen seine 980Ti kurz vorher los zu werden, für 980 Besitzer erst recht.

Palpatin
2016-04-01, 11:27:00
Noch ist ja nicht klar ob GP104 mit GDDR5 oder GDDR5x kommt. Mit 256 Bit und normalen GDDR5 (wenn auch etwas höher getaktet) wird es schon sehr schwer nochmal 20% auf GM200 drauf zu legen.

Dural
2016-04-01, 11:31:06
wer sagt den was von 20%? Ich tippe ja mehr auf 5-10% bei 50% weniger verbrauch und die vergangenheit hat ganz klar gezeigt das die konsumenten wie blöd zuschlagen werden.

Botcruscher
2016-04-01, 11:33:56
Bei quasi Priesstabilität bis zum nächsten Herstellungsverfahren kann von "blöd" keine Rede sein. Ich glaub noch nicht an 10nm für 2017.

iuno
2016-04-01, 11:41:52
Wird Zeit meine 980 Ti abzustoßen ;D
Mal davon abgesehen, ob es sinn macht von GM200 auf GP104 zu wechseln: GTX 970/980 Abloese, worum es in dem Artikel ja geht, ist fuer mich GP106 und konkurriert mit Polaris 10.
Macht es fuer Nvidia Sinn aus Effizienzgruenden auch dort unten schon auf GDDR5X zu setzen? 10 Gbps + 128 Bit -> nur 4 Chips noetig fuer 4 GiB und 160 GiB/s.
Man weiss ja noch nichts zu den Preisen. Wenn GDDR5X nicht bedeutend teurer ist, warum nicht?
GP106 passt auch zu den Geruechten, Pascal kaeme fuer Notebook zur Computex.
edit: oder 192 bit fuer GP106? 240 GiB/s und 6 GiB als 980 Abloese waeren doch ok...

Was soll eigentlich der Status "Contact Factory" bedeuten? 11 und 12 Gbps wird noch unter "Sampling" gelistet https://www.micron.com/products/dram/gddr/gddr5x-part-catalog#/

Troyan
2016-04-01, 11:58:31
wer sagt den was von 20%? Ich tippe ja mehr auf 5-10% bei 50% weniger verbrauch und die vergangenheit hat ganz klar gezeigt das die konsumenten wie blöd zuschlagen werden.

Die GTX980 hat $549 gekostet und war
schneller (ca. 10%),
günstiger,
stromsparender,
hatte mehr Speicher und
war fortschrittlicher

als die GTX780TI.

Wenn eine neue $549 Karte das selbe gegenüber 980TI bietet, werden die Leute kaufen. Man muss eben bedenken, dass eine GTX980 auch schon 18 Monate alt ist und die Spiele anspruchsvoller geworden sind.

Godmode
2016-04-01, 12:09:59
Uhhmmm er wird sicher nicht "enttaeuscht" sein, weil das letzte um einiges weniger Strom verdonnern sollte und von beschissen fuer async auf weniger beschissen sein wird :freak: (<----j/k)

Und dafür legt man wieder mehrere hundert Euro auf den Tisch, oder was? Die Stromersparnis macht den Wertverlust der alten Karte und der Aufpreis auf die neue Karte niemals wett. Außer Hübie spielt 24/7, wovon ich nicht ausgehe.

Palpatin
2016-04-01, 12:24:57
So hoch ist der Wertverlust nicht. Imo bekommt man noch locker 550+x je nach Modell für ne 980TI. Wenn man jetzt gut verkauft, zahlt man mit Glück vielleicht nur so 50€ drauf auf GP104, das kann sich schon lohnen. Allein schon wegen der spekultierten 8GB.

Ailuros
2016-04-01, 12:34:22
Und dafür legt man wieder mehrere hundert Euro auf den Tisch, oder was? Die Stromersparnis macht den Wertverlust der alten Karte und der Aufpreis auf die neue Karte niemals wett. Außer Hübie spielt 24/7, wovon ich nicht ausgehe.

j/k = just kidding in meinem vorigen Post :P

Es geht auch nicht um Huebie, aber es gibt tatsaechlich Leute die gerne jedes Jahr etwas Neues kaufen.

Godmode
2016-04-01, 14:16:36
Ich hab mich schon gefragt was j/k heißen soll. ^^

Ja natürlich, die gibt es immer und ich muss mich da selber bei der Nase nehmen.

Timbaloo
2016-04-01, 15:14:13
und ich muss mich da selber bei der Nase nehmen.
http://i.imgur.com/OTV7ujA.png
:freak:

Hübie
2016-04-01, 16:36:14
Mal davon abgesehen, ob es sinn macht von GM200 auf GP104 zu wechseln: GTX 970/980 Abloese, worum es in dem Artikel ja geht, ist fuer mich GP106 und konkurriert mit Polaris 10.
Macht es fuer Nvidia Sinn aus Effizienzgruenden auch dort unten schon auf GDDR5X zu setzen? 10 Gbps + 128 Bit -> nur 4 Chips noetig fuer 4 GiB und 160 GiB/s.
Man weiss ja noch nichts zu den Preisen. Wenn GDDR5X nicht bedeutend teurer ist, warum nicht?
GP106 passt auch zu den Geruechten, Pascal kaeme fuer Notebook zur Computex.
edit: oder 192 bit fuer GP106? 240 GiB/s und 6 GiB als 980 Abloese waeren doch ok...

Was soll eigentlich der Status "Contact Factory" bedeuten? 11 und 12 Gbps wird noch unter "Sampling" gelistet https://www.micron.com/products/dram/gddr/gddr5x-part-catalog#/

Mich interessieren solche Gurken z.B. überhaupt nicht und manchmal vergesse ich sogar deren Existenz X-D Aber das mit GDDR5X ist so ne Sache. Der wird zwischen GDDR5 und HBM liegen. Wobei man letzteren teuer verheiraten muss.
Ich nehme also einfach mal an dass GDDR5X nicht so schnell in die Volumina verstößt in denen das Risiko der Massenproduktion vernachlässigen kann.

Also jetzt panisch eine GM200 GPU zu verkaufen wird sicher nicht nötig sein. Sollte GP104 deutlich besser zu übertakten sein, dann kann man darüber nachdenken. Für mich persönlich hieße das meine Karte plus 10% Leistungszuwachs. Erst dann könnte man über den Aufwand des Wechsels nachdenken. Ein zusätzlicher Anreiz im Falle der ASUS STRIX könnte die Lautstärke sein. Aber wirkliche Gedanken hege ich nicht. ;)

Nakai
2016-04-01, 19:34:05
Laut Fottemberg @SA-Forum hat NV Probleme mit dem TSMC Interposer. Kein Wunder das AMD einen Pipecleaner mit Fiji gebracht hat. Mal abwarten wie sich das entwickelt...

https://semiaccurate.com/forums/showpost.php?p=259098&postcount=521

Troyan
2016-04-01, 20:13:21
Es steht im Internet - es muss stimmen. :freak:

R.I.P.
2016-04-01, 20:16:32
Laut Fottemberg @SA-Forum hat NV Probleme mit dem TSMC Interposer. Kein Wunder das AMD einen Pipecleaner mit Fiji gebracht hat. Mal abwarten wie sich das entwickelt...

https://semiaccurate.com/forums/showpost.php?p=259098&postcount=521

Sollte das wirklich stimmen, dann lach ich mir gerade ins Fäustchen, nicht wegen Nvidia,sondern wegen all jenen grünen Fanboys, welche Fiji als Totgeburt, Kacke, etc. bezeichnet haben. Zwar ist Fiji etwas Komisches und Halbgares, aber mMn ist die Erfahrung, die Amkor (?? richtig ??) und AMD mit dem Interposer und HBM sammeln konnten, goldwert.
Sollte Nvidia mit HBM2 erst Anfang 2017 auf den Markt kommen, haben sie doch noch genug Zeit. Die ersten Pascals kommen scheinbar sowieso mit GDDRX

Kartenlehrling
2016-04-01, 20:19:34
um am 04.juni auf der computex eine silberschwarze Plastikbox hoch zu halten wird es wohl reichen.

http://media.bestofmicro.com/huang-gtc2014,U-B-428771-22.png

scully1234
2016-04-01, 21:06:30
sieht aus wie die ultimative Katastrophe mit dem Interposer fuer die GDDR5X Karten....das hier schon wieder provoziert werden muss

Tamagothi
2016-04-01, 22:36:43
Das Nvidia evtl. Probleme bekommen könnte wegen HBM war ja klar. Die Frage ist ob sie sich abgesichert haben?

GP100 -> GDDR5X ?
GP102 -> HBM2 ?

Blediator16
2016-04-01, 22:56:44
Es wäre natürlich etwas überzeugender rübergekommen hätte man im Januar echte GPUs mit HBM in die Kamera gehalten. Stattdessen entschied man sich Maxwell als Pascal auszugeben mit falschen? HBM Chips.

Wieso sollte man so etwas tun? Irgendetwas geheimes wird man dem Konkurrenten ja nicht verraten können, was dieser bereits funktionierend auf dem Markt hat.

scully1234
2016-04-01, 23:00:33
guten Morgen das war ein Drive PX Modul was auch fuer Pascal nicht auf HBM zurueck greift

Wozu soll der Winzling denn bitte die Bandbreite benoetigen:freak:

GP106 wenns hoch kommt, und das dessen Fertigung noch nicht angelaufen war, wussten die interessierten Quellen der Automobilindustrie auch ohne Zutun von aussen, ,koennte man den Eindruck gewinnen

Huang hat glaub ich auch klipp und klar, Ende des Jahres auf der Praesentation angepeilt gehabt, wenn mich da die Erinnerung nicht taeuscht

dildo4u
2016-04-01, 23:04:16
Sollte das wirklich stimmen, dann lach ich mir gerade ins Fäustchen, nicht wegen Nvidia,sondern wegen all jenen grünen Fanboys, welche Fiji als Totgeburt, Kacke, etc. bezeichnet haben. Zwar ist Fiji etwas Komisches und Halbgares, aber mMn ist die Erfahrung, die Amkor (?? richtig ??) und AMD mit dem Interposer und HBM sammeln konnten, goldwert.
Sollte Nvidia mit HBM2 erst Anfang 2017 auf den Markt kommen, haben sie doch noch genug Zeit. Die ersten Pascals kommen scheinbar sowieso mit GDDRX
Hab ich was verpasst AMD bringt auch kein HBM 2 in 2016 wo ist da der Vorteil durch Fury?

Blediator16
2016-04-01, 23:05:54
guten Morgen das war ein Drive PX Modul was auch fuer Pascal nicht auf HBM zurueck greift

Wozu soll der Winzling denn bitte die Bandbreite benoetigen:freak:

Stimmt ich habe mich nicht gut genug ausgedrückt.

Hab ich was verpasst AMD bringt auch kein HBM 2 in 2016 wo ist da der Vorteil durch Fury?


Er sagte ja als Pipecleaner.

Hübie
2016-04-02, 03:11:59
Ja bei NV hat man erst jetzt HBM entdeckt und es sitzen alle Experten schon bei AMD herum und drehen Däumchen. :rolleyes:
Also jetzt mal Butter bei die Fische, liebe Tr0lle Fans: NVIDIAs Ingeneure sind doch nicht bescheuert. Und die Maschinen sind auch nicht vom Mond, während AMD welche von der Erde nutzt. Man muss nicht einfach alles schlucken, was da vorgekaut wird. Bitte etwas Grips. Danke. Ich denke dass der Interposer ein sehr geringes Problem darstellt und auch dass der Verschmelzungsprozess nicht neu ist denn immerhin arbeitet NVIDIA schon seit fast 10 Jahren mit IBM zusammen und testen alle möglichen BGA-Variationen.

Unicous
2016-04-02, 03:17:49
Hab ich was verpasst AMD bringt auch kein HBM 2 in 2016 wo ist da der Vorteil durch Fury?

Ganz einfach, Amkor, SK hynix und Co. haben über die letzten Monate eine komplette supply chain aufgebaut, die ganz gut ineinander zu greifen scheint,

http://www.amkor.com/index.cfm?objectid=CB613A26-B5B8-6EE3-717DFA3F87641141

(oder auch http://www.3dincites.com/2016/03/the-hbm-supply-chain-is-open-for-business/)

während TSMC das ganz alleine macht. TSMCs CoWoS Lösung sollte eigentlich Q2'16 verfügbar sein, aber es wurde offenbar ins H2 verschoben.

Lee also spoke about the foundry’s offerings in 3D chips, featuring “full integration of packaging and IC design” with TSMC’s InFO technology. The HBM2 CoWoS design kit will be out in the second quarter of 2016, he said. “We’re very excited about that,” Lee added.
http://semimd.com/blog/2016/03/16/tsmc-readies-7nm-chip-ecosystem-infrastructure-for-2017/

As I expected, Lee also talked about TSMC’s advanced packaging capabilities and announced a CoWoS based reference design kit with HBM2 memory cubes, to become available in the second half of 2016.
http://www.3dincites.com/2016/03/22nd-tsmc-symposium-conveys-accomplishments-and-looks-at-the-road-ahead/

Das was ich schon vor ein paar Monaten vor Fiji-Release prophezeiht hatte, könnte sich jetzt bewahrheiten. Nvidia könnte zeitlich etwas zurückfallen, weil TSMC Probleme hat HBM und GPU auf den Interposer zu bekommen, während AMD und die Zulieferer diese hard lessons wohl das ganze Jahr 2014 lernen mussten. Sonst hätten sie Fiji sicherlich noch 2014 released.

@Hübie

Es ist eine Sache, Test-Chips zu evaluieren und eine ganz andere das Endprodukt in HVM herzustellen.

Skysnake
2016-04-02, 07:51:18
Ja bei NV hat man erst jetzt HBM entdeckt und es sitzen alle Experten schon bei AMD herum und drehen Däumchen. :rolleyes:
Also jetzt mal Butter bei die Fische, liebe Tr0lle Fans: NVIDIAs Ingeneure sind doch nicht bescheuert. Und die Maschinen sind auch nicht vom Mond, während AMD welche von der Erde nutzt. Man muss nicht einfach alles schlucken, was da vorgekaut wird. Bitte etwas Grips. Danke. Ich denke dass der Interposer ein sehr geringes Problem darstellt und auch dass der Verschmelzungsprozess nicht neu ist denn immerhin arbeitet NVIDIA schon seit fast 10 Jahren mit IBM zusammen und testen alle möglichen BGA-Variationen.
Hübie, das hat nicht unbedingt etwas mit der Fähigkeit der Ingies zu tun, sondern einfach mit den Werkzeugen, die diese zur Vefügung haben.

Beim Chip design bist du zu 100% auf die Tools und die Foundry Daten angewiesen. Wenn die halt falsch/fehlerhaft sind, was durchaus vorkommen kann, dann biste halt gearscht....

Manche Dinge muss man einfach machen, um auf die Fresse zu fliegen, wieder auf zu stehen und die Probleme zu fixen. Das passiert einfach, und ja Testchips reduzieren die Gefahren, aber Testchips sind IMMER nochmals etwas anderes als Massenproduktion. Von Testchips haste oft nur ein Dutzend, oder vielleicht mal hundert, aber keine großen Mengen, und selbst wenn, haste nicht die Kapazitäten die alle richtig durch zu nudeln. Sprich eventuell haste ein Sigma in deinem Design unterschätzt und bekommst statt 1% Ausschuss plötzlich 10%. Das ist natürlich fatal.

Ich hoffe du verstehst was ich meine.

BigKid
2016-04-02, 07:53:57
Und dann enttäuscht sein, wenn nur GP104 kommt.

Ich tipp immer noch auf Mobile ;)

Weil sies auch für die Auto Geschichten brauchen... Dieses Drive PX setzt auch auf MXM...

horn 12
2016-04-02, 08:01:45
Deshalb ist und war Fiji für AMD Gold wert und haben die Pionierarbeit hervorragend gemeistert und eben auch Verspätung des Release von Fury hinnehmen müssen!
Somit wird sich die HBM Karte wesentlich verzögern und auch für die GTX 1080/ 1070 oder wie jene heißen mögen sehe ich keinen HardLaunch mit guter Verfügbarkeit vor Anfang Oktober 2016!

Complicated
2016-04-02, 08:49:34
NVIDIAs Ingeneure sind doch nicht bescheuert. Und die Maschinen sind auch nicht vom Mond, während AMD welche von der Erde nutzt. Man muss nicht einfach alles schlucken, was da vorgekaut wird. Bitte etwas Grips. Danke. Ich denke dass der Interposer ein sehr geringes Problem darstellt und auch dass der Verschmelzungsprozess nicht neu ist denn immerhin arbeitet NVIDIA schon seit fast 10 Jahren mit IBM zusammen und testen alle möglichen BGA-Variationen.
Also da möchte ich widersprechen. Nvidia ist erst recht spät auf den HBM Zug aufgesprungen als es mit HMC nicht geklappt hatte. AMD hat da einige Jahre Vorsprung, zumal sie in der Entwicklung mit SKHynix kooperiert haben.
Siehe hier: http://www.3dcenter.org/news/nvidia-zeigt-neue-langfristige-tegra-gpu-roadmaps
2013 war weder Pascal noch HBM auf der Roadmap zu finden. Stattdessen Volta und HMC. HMC ist gestrichen worden. Die großen Änderungen der Roadmap waren in 2014 (http://www.heise.de/newsticker/meldung/Nvidia-Entwicklung-gebremst-Volta-wohl-noch-vor-2020-2160743.html) dann. Und erst seitdem ist bekannt, dass Nvidia auf HBM setzt - dies muss also zwischen März 2013 (http://www.anandtech.com/show/6842/nvidias-gpu-technology-conference-2013-keynote-live-blog) und April 2014 (http://www.heise.de/newsticker/meldung/Nvidia-Entwicklung-gebremst-Volta-wohl-noch-vor-2020-2160743.html) geändert worden sein und HBM in die Produktentwicklung aufgenommen worden sein. Das ist deutlich kürzer als AMD HBM in der Produktplanung hat. Der JEDEC-Standard wurde von AMD und SKHynix in 2010 beantragt und im Oktober 2013 standardisiert. Ab da hat Nvidia angefangen HBM zu nutzen - AMD hat 2008 angefangen mit SKHynix zu entwickeln. Das sind schlappe 5 Jahre. Klar die IP hat Nvidia kostenlos erhalten, doch die Erfahrungen wiegen doch einiges, welche AMD gesammelt hat.

Knuddelbearli
2016-04-02, 09:03:54
Deshalb ist und war Fiji für AMD Gold wert und haben die Pionierarbeit hervorragend gemeistert und eben auch Verspätung des Release von Fury hinnehmen müssen!
Somit wird sich die HBM Karte wesentlich verzögern und auch für die GTX 1080/ 1070 oder wie jene heißen mögen sehe ich keinen HardLaunch mit guter Verfügbarkeit vor Anfang Oktober 2016!


Das Problem ist nur immer das AMD vorangeht, teuer ausprobiert usw aber NV dann natürlich auch davon massiv profitiert. AMD bzw damals teilweise noch ATI war ja auch immer deutlich früher beim shrink dran als NV

y33H@
2016-04-02, 10:38:10
*erledigt*

horn 12
2016-04-02, 14:45:27
GTX 980TI eingestellt
Nur Wunschdenken und mal wieder WccTech
oder gar die Hoffnung dass NV doch schneller releast als AMD schauen kann:

http://wccftech.com/nvidia-geforce-pascal-coming-computex/

nalye
2016-04-02, 15:56:33
Macht diese Kindergartenscheisse per PN oder so, aber nicht hier im Forum. Danke

Ailuros
2016-04-02, 17:49:44
Mal ganz am Rand aber Fottemberg ist genauso "zuverlaessig" wie Valich.

R.I.P.
2016-04-02, 18:02:34
Mal ganz am Rand aber Fottemberg ist genauso "zuverlaessig" wie Valich.

Sehe ich anders. Er lag öfters richtig und wenn er dann mal falsch liegt, kommentiert er es ganz offen :)

Hübie
2016-04-02, 18:03:38
Ja der hat auch schon so einiges fehlinterpretiert. TSMC beschäftigt sich ebenfalls nicht erst seit gestern mit TSV, Interposer und Die-stacking. Also ich sehe jedenfalls keine fundierten Hinweise und meine letzte Info ist nach wie vor man sei "on track".

BlacKi
2016-04-02, 18:07:01
Also da möchte ich widersprechen. Nvidia ist erst recht spät auf den HBM Zug aufgesprungen als es mit HMC nicht geklappt hatte. AMD hat da einige Jahre Vorsprung, zumal sie in der Entwicklung mit SKHynix kooperiert haben.

Und trotzdem hat nvidia die erste karte (GP100)mit HBM im sommer am start die "halbwegs" vernünftig(16gb) ausgestattet sein wird. bei amd dauert das wohl ein knappes jahr länger. das werden die sich auch sicher gut bezahlen lassen.

Ailuros
2016-04-02, 18:09:29
Sehe ich anders. Er lag öfters richtig und wenn er dann mal falsch liegt, kommentiert er es ganz offen :)

Machen alle die eine Spur von Anstand haben. Sonst ist das meiste abgeschrieben und wie Huebie schon sagt leider zu oft falsch interpretiert. Von 3DC schreibt er natuerlich nichts mehr ab nachdem ich ihn mehr als einmal auf die Palme gejagt habe.

Das hauptsaechliche Interesse liegt nach wie vor bei allem GP104 und kleiner fuer den Moment.

Nakai
2016-04-02, 18:11:51
Da kann sehr viel schiefgehen. Dass Finfet+HBM2 verdammt problematisch wird, war abzusehen.

Ansonsten spoilert er gerade bzgl Zen in Semiaccurate und prophezeit für Zen eine gute Performance.:)

Sonst liegt das hauptsaechliche Interesse bei allem GP104 und kleiner fuer den Moment.

Ich wollte es vorher schon schreiben. GP100 ist erstmal völlig uninteressant.

Ansonsten, die upgedatete NV Roadmap lässt für Pascal einen kleineren Sprung erwarten. Die Frage, was unterm Strich dabei rauskommt, bleibt bestehen. Ich vermute Mixed-Precision bläht die SMs ziemlich auf, wenn man auf hohen Durchsatz geht.

Locuza
2016-04-02, 19:20:25
Ich bin gespannt darauf, wie viel Mixed-Precision in Hardware kostet vs. native Einheiten ohne.
ARM verbaut glaube ich FP16-FP64 Mixed-Precision ALUs und das ist absolute mobile Hardware.
Intel hat mindestens seit Gen 8 (Broadwell) FP16:FP32 im Verhältnis von 2:1 und FP32:FP64 von 4:1.

So wie Intel es macht oder wenigstens FP64:FP32 von 1:8 wäre ziemlich nett für Consumer.

Nakai
2016-04-02, 19:45:20
Auf CPUs ist das alles etwas anders. Meistens wird dort die Latenz einfach erhöht, wenn man von FP16->FP32->FP64 hochgeht. AMD macht das sehr ähnlich mit GCN. Das zieht andere Konsequenzen nach sich, da man dann nicht pro Takt eine Operation schedulen kann.

http://www.anandtech.com/show/6971/exploring-the-floating-point-performance-of-modern-arm-processors

Wie man sieht, je nach Architektur gibt es unterschiedliche Ergebnisse.
Da die Latenz eigentlich nur erhöht wird, kann eigentlich der gleiche Durchsatz erreicht werden. Das Problem ist eher wenn Instruktionen und Ops gemischt werden und sogar die gleichen internen Ports verwenden. Da kann es zu starken Einschränkungen kommen. Ebenso brauchen größere Datentypen deutlich mehr Bandbreite. Im Endeffekt können sehr viele Faktoren einen hohen Durchsatz behindern.

MixedPrecision seitens NV sieht eher so aus:
FP16Vec4 -> FP32Vec2 -> FP64Skalar

Im Grunde sind es FP64-Einheiten, welche dementsprechend aufgespaltet werden können. Ein bisschen Overhead kommt dazu.

Kurz bei 4000 SPs ~1Ghz, sind es eher 2000 FP64 Einheiten.
Wenn NV in diese Richtung geht, wird GP100 deutlich weniger SPs haben, als erwartet. Die letzte Roadmap veranschaulicht bereits, dass es für Pascal nicht soviel wird.

Locuza
2016-04-02, 19:58:50
Mit Broadwell meinte ich die iGPU Gen 8.

Mancko
2016-04-02, 20:00:34
Mal ganz am Rand aber Fottemberg ist genauso "zuverlaessig" wie Valich.

Und er postet sehr Nvidia kritisch. Zumindest bei SA. Wir werden sehen wie es ausgeht. Für die erste Charge an Produkten wird sowieso kein HBM2 im Consumer Markt gebraucht und bis AMD mit den richtig großen Chips kommt ist noch genügend Zeit für das Thema.

fondness
2016-04-02, 20:29:31
Ich bin gespannt darauf, wie viel Mixed-Precision in Hardware kostet vs. native Einheiten ohne.
ARM verbaut glaube ich FP16-FP64 Mixed-Precision ALUs und das ist absolute mobile Hardware.
Intel hat mindestens seit Gen 8 (Broadwell) FP16:FP32 im Verhältnis von 2:1 und FP32:FP64 von 4:1.

So wie Intel es macht oder wenigstens FP64:FP32 von 1:8 wäre ziemlich nett für Consumer.

AMD hat ebenfalls FP16-FP64 Mixed-Precision ALUs. Nur gibt es durch FP16 halt keine Beschleunigung, also FP16:FP32 von 1:1, dafür bei FP32:FP64 bis zu 2:1.

Nvidia schafft es trotzdem irgendwie, soetwas als Neuheit zu verkaufen.

scully1234
2016-04-02, 21:02:51
Eigentlich hat er doch auch nur geschrieben ''some Problem'' .

Ich mein wenn das kein Geheimcode fuer ''alles ist rum'' ist, kann das doch alles moegliche bedeuten oder etwa nicht?

Vielleicht wird da auch zuviel hinein interpretiert

Nakai
2016-04-02, 21:37:34
AMD hat ebenfalls FP16-FP64 Mixed-Precision ALUs. Nur gibt es durch FP16 halt keine Beschleunigung, also FP16:FP32 von 1:1, dafür bei FP32:FP64 bis zu 2:1.

Nvidia schafft es trotzdem irgendwie, soetwas als Neuheit zu verkaufen.

GCNs FPUs sind eher ähnlich zu einer normalen FPU in einer CPU.
GCN kann nicht FP64->2xFP32->4xFP16.
GCN macht Latenz-FP64=2xLatenz-FP32 (konfigurierbar 2,4,8,16).

Pascals FPUs werden aber noch mehr Operationen können.

Aber B2T. Im Endeffekt kann man es darauf reduzieren, dass wenn einer der typischen Vertreter etwas komisches sagt, dass das Internet explodiert.

Dimitri Mayakovsky
2016-04-02, 23:17:21
Mal ganz am Rand aber Fottemberg ist genauso "zuverlaessig" wie Valich.
Ja und hat noch dazu ein massives AMD-Bias. Wie doch faktisch jeder in dem Forum, warum sollte man da sonst auch posten? :freak:

Zwei Postings vorher behauptet er noch NVIDIA würde es sich mit Microsoft "verscherzen", weil der Fermitreiber für DX12 so lange braucht ;D

AMD hat ebenfalls FP16-FP64 Mixed-Precision ALUs. Nur gibt es durch FP16 halt keine Beschleunigung, also FP16:FP32 von 1:1, dafür bei FP32:FP64 bis zu 2:1.

Nvidia schafft es trotzdem irgendwie, soetwas als Neuheit zu verkaufen
Ja, ist ja auch ne Neuheit, wenn man mit FP16 auch tatsächlich mehr Performance bekommt. Wo ist denn sonst der Sinn darin FP16 zu nutzen? :freak:

Locuza
2016-04-02, 23:54:10
Bei Intel und selbst bei Nvidia selber ist das keine Neuheit, im Sinne von first time.
Bei AMD spart es ab GCN Gen 3 Register-Space und Energie, was auch insgesamt helfen sollte.

Hübie
2016-04-03, 00:04:12
AMD hat ebenfalls FP16-FP64 Mixed-Precision ALUs. Nur gibt es durch FP16 halt keine Beschleunigung, also FP16:FP32 von 1:1, dafür bei FP32:FP64 bis zu 2:1.

Nvidia schafft es trotzdem irgendwie, soetwas als Neuheit zu verkaufen.

Das neue ist doch, dass man auf einmal 2*FP16 auf einer ALU absetzen kann. Mir wäre es neu dass GCN dies könnte denn dann würde man doppelte Geschwindigkeit bei einer reinen 16 Bit Berechnung über die ganze GPU erhalten. GCN looped doch auch FP64 afaik. Mit Fiji hast dann ja böse Latenz. Von Maxwell und FP64 brauchen wir gar nicht reden. :D
Wobei es fernab der Praxis wäre...

Nakai
2016-04-03, 00:14:10
Das neue ist doch, dass man auf einmal 2*FP16 auf einer ALU absetzen kann. Mir wäre es neu dass GCN dies könnte denn dann würde man doppelte Geschwindigkeit bei einer reinen 16 Bit Berechnung über die ganze GPU erhalten. GCN looped doch auch FP64 afaik. Mit Fiji hast dann ja böse Latenz. Von Maxwell und FP64 brauchen wir gar nicht reden. :D
Wobei es fernab der Praxis wäre...

Man muss es ja direkt nutzen, sonst bringt es nichts. Nur weil man die doppelte Rate theoretisch hat, heißt das nicht, dass es automatisch die Performance erhöht. Man muss explizit Vec FP16 Ops verwenden. Es ist immer noch SIMT mit einer bestimmten Verarbeitungsgröße, also Warpsize und Wavefronts. Eine SIMD16 verarbeitet in 4 Takten 64 Threads, man kann nicht einfach aus 64 dann 128 machen. Es sind ja keine FP32-Threads. ;)

Ich befürchte ja wirklich, dass NV mit FP16-SPs Marketing betreibt.
Wie hoch steht die Chance auf echte FP16-SPs?

Hübie
2016-04-03, 00:29:32
Das kann ich dir beim besten Willen nicht sagen. :D Letztlich muss man sich ja fragen was nun am besten in die Prämisse Perf/W passt und da kann ich dir nicht sagen was besser ist weil ich absolut keine Ahnung habe wieviel der Berechnungen von Spielegrafik in halber, voller oder doppelter Präzision gemacht werden.
Es wird sich wahrscheinlich um 32 Bit Breite Vektor-ALUs handeln die auch zwei 16 Bit Operanten parallel ausrechnen können.
Wird ja auch vom Scheduler (Compiler?) abhängig sein. Der wird ja zwangsläufig größer werden müssen. Ich würde auch mal vermuten, dass der Interconnect mehr assoziativ sein müsste und dass man sowas wie bei GCN mit LDS/GDS einführt.

scully1234
2016-04-03, 18:41:15
hat jemand schon nen Live Stream Kanal zur GTC Keynote gesehen?

Hübie
2016-04-03, 18:46:43
Guck mal auf ustream.tv. Aber jetzt wo du es erwähnst: die letzten Jahre bekam ich immer ne Einladung per E-Mail. Dieses Jahr nüx... :confused: :|

scully1234
2016-04-03, 18:49:10
Habs gefunden direkt ueber Nvidia

http://www.theverge.com/2016/1/4/10708376/nvidia-ces-2016-keynote-live-stream-time-blog

Ach das ist ja CES sorry:facepalm:

W4RO_DE
2016-04-03, 18:50:38
Da gehts um die CES.

Hübie
2016-04-03, 18:53:53
Habs gefunden direkt ueber Nvidia

http://www.theverge.com/2016/1/4/10708376/nvidia-ces-2016-keynote-live-stream-time-blog

Ach das ist ja CES sorry:facepalm:

Na wirst vogelig? :freak: :D Du hast doch ne GK110 oder?

scully1234
2016-04-03, 18:57:09
Na wirst vogelig? :freak: :D Du hast doch ne GK110 oder?

Schauen kann man ja ,gegessen wird zu Hause:biggrin:

Aber bisher keinen Link erwischt komisch

Auf Ustream find ich nur die alte GTC

Jetzt aber

http://www.ustream.tv/channel/fWbQyaEMfbh

Hübie
2016-04-03, 19:00:57
Für dich lohnt sich GP104 ja schon fast. Aber ernsthaft betrachtet wird es erst 2017 kompromisslose 4k-Karten geben.

W4RO_DE
2016-04-03, 19:03:25
Jetzt aber

http://www.ustream.tv/channel/fWbQyaEMfbh

:up:

Müsste dann bei uns um 16 Uhr starten, oder?

Ailuros
2016-04-03, 19:28:50
Und er postet sehr Nvidia kritisch. Zumindest bei SA. Wir werden sehen wie es ausgeht. Für die erste Charge an Produkten wird sowieso kein HBM2 im Consumer Markt gebraucht und bis AMD mit den richtig großen Chips kommt ist noch genügend Zeit für das Thema.

Man gewinnt keine "Freundschaften" bei SA wenn man nicht NV feindlich ist :P

scully1234
2016-04-03, 19:30:05
sind 9 stunden hinter uns wenn ich nicht schon wieder falsch liege

http://www.zeitzonen.de/pacific_standard_time_pst_-_usa.html

Hübie
2016-04-03, 19:34:13
17:30. Steht doch auf ustream.tv (5:30 CET). Ratet mal wo Zentraleuropa liegt. :freak:

scully1234
2016-04-03, 19:41:27
Wo siehst du denn die CET Zeit:biggrin:

Ich seh da nur 9.00AM

Tomahawk
2016-04-03, 21:11:48
Vor allem haben wir jetzt auch CEST...

Hübie
2016-04-03, 21:33:25
Okay das sieht man nur mobil, wie ich feststellen muss. Da steht 5:30 CET. ;)

http://www.abload.de/thumb/j0uim.jpg (http://www.abload.de/image.php?img=j0uim.jpg)

Knuddelbearli
2016-04-04, 01:37:08
Für dich lohnt sich GP104 ja schon fast. Aber ernsthaft betrachtet wird es erst 2017 kompromisslose 4k-Karten geben.

nicht wirklioch bis dahin steigen ja auch die Anforderungen wieder.

scully1234
2016-04-04, 04:29:14
@Fottemberg
About the interposer, TSMC is planning to do 1200mm2 (and greater) interposers during 7nm era for high performance GPUs and CPUs ... O_O

Haengen die Probleme vielleicht mit dieser Aussage zusammen

iuno
2016-04-04, 09:29:02
Kann mal bitte einer zusammenfassen, worum es gerade geht?
Es scheinen Posts zu fehlen (?), werde aus den letzten Posts nicht schlau. Wer hat Probleme genannt und in welchem Zusammenhang?
Und was ist mit dem 1200 sqmm interposer? TSMC hat angekuendigt, dass es solche irgendwann (7nm?) mal geben soll (war auch auf Golem) und jetzt wird diese Groesse direkt auf GP100 projiziert?
Btw: alleine durch die Vergroesserung der HBM Stacks (7,75 mm statt 5,48 mm auf der kurzen Seite) waere der Interposer bei aehnlicher Anordnung und Chipgroesse wie bei Fiji schon >1100 sqmm gross, sofern die µBumps nicht gerade komplett am Rand liegen, sodass der HBM Stack den Interposer am Rand 'ueberragt'.

Locuza
2016-04-04, 09:34:15
Es fing hiermit an (Angebliche Interposerprobleme bei TSMC, was im worst case dann direkt GP100 betrifft):
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10989122#post10989122

iuno
2016-04-04, 10:40:11
oops, den link habe ich dann wohl verpasst, danke :weg:
TSMC hat angekuendigt, dass es solche irgendwann (7nm?) mal geben soll (war auch auf Golem)
Habe nochmal geschaut, die Info ist vom Technology Symposium. Offenbar meint es TSMC ernst damit, die Interposer in so kleinen Strukturbreiten zu fertigen.
The foundry taped out last month a 16FF+ device merging a CPU and two HBM2 memory stacks on a silicon interposer to pave the way for its 7nm offering. The prototype will complete silicon validation this fall.
:eek: http://www.eetimes.com/document.asp?doc_id=1329217&page_number=2
Ein 16 FF+ Interposer als Wegbereiter fuer 7 nm Interposer... Was die da wohl als Test Chip genommen haben? Eine CPU mit HBM SI :confused:
Bin mal gespannt, was Nvidia fuer einen Interposer nimmt. Sollte der auch in 16 FF+ sein, waere das Ding doch unbezahlbar...

Godmode
2016-04-04, 10:42:44
Sollte der auch in 16 FF+ sein, waere das Ding doch unbezahlbar...

Der Interposer ist ja ziemlich einfach gestrickt, verglichen mit einer GPU. Allerdings würde mich das auch ziemlich wundern, wenn sie den Interposer in 16FF+ fertigen würde, gerade wo doch die 16FF+ Kapazitäten so knapp sind?

W4RO_DE
2016-04-04, 11:41:23
Was bringt es denn den Interposer so klein zu fertigen? Soweit ich das verstanden habe ist er ja "nur" das Verbindungsstück.

Complicated
2016-04-04, 11:56:50
Frotenbergs Aussage lese ich eher als Problem beim Assembling mit dem Interposer und nicht mit der Fertigung damit.

Botcruscher
2016-04-04, 13:10:32
Ein 7nm Interposer würde auch keinen Sinn ergeben. Die Micro Pumps sind einfach viel größer.

iuno
2016-04-04, 13:14:31
Was bringt es denn den Interposer so klein zu fertigen? Soweit ich das verstanden habe ist er ja "nur" das Verbindungsstück.
Daran raetseln wir ja auch...
Ein 7nm Interposer würde auch keinen Sinn ergeben. Die Micro Pumps sind einfach viel größer.
Fakt ist aber, dass TSMC den bauen will, also muss es irgendeinen Sinn haben. Die µBumps haben damit wenig zu tun, die sind sowieso viel groesser

Denkbar ist, dass es auf dem Interposer noch zusaetzliche (bzw. vom Chip 'extrahiert') Logik gibt, die Ueberlegungen hatten wir hier auch schon

Nakai
2016-04-04, 13:35:19
GP100 wird eh niemals richtig auf den Gaming-Markt erstmal aufschlagen. Das Ding wird einfach noch teurer oder NV hat eben deutlich geringere Margen.

Das Pascal-Gaming-Lineup wird davon erstmal nicht beeinträchtigt sein.

€: Nur AMD hat bislang ein HBM-TSV-Design für "normale" Consumer releast. Ich vermute, ein HBM2-Design seitens NV werden wir im Gaming-Sektor erstmal nicht sehen. Bis in einem Jahr oder ähnliches.

Kartenlehrling
2016-04-04, 14:00:24
150 Seiten Forum und noch kein Pascal in Sicht ...

ndrs
2016-04-04, 14:08:22
Was bringt es denn den Interposer so klein zu fertigen? Soweit ich das verstanden habe ist er ja "nur" das Verbindungsstück.
Möglicherweise ist hier die Leitungskapazität ein Grund. Dünnere Leitungen mit entsprechend kleinerer Kapazität könnten sich höher Takten lassen. Ein weiterer Grund könnte sein, dass sich das Routing zwischen den µBumps vereinfacht. Letzterer Punkt ist wohl weniger für HBM als für die Verbindung komplexerer Chips relevant.

HOT
2016-04-04, 14:49:46
150 Seiten Forum und noch kein Pascal in Sicht ...
Nur GP100 und das auch nur mit Fragezeichen aufgrund seiner angezweifelten Gaming-Eignung. Vom Rest sieht man gar nichts, die Lieferungen könnten durchaus auch neue PCBs mit alten Chip sein - da ist also nichts sicher. Vielleicht wissen wir ja bald endlich mehr.

Skysnake
2016-04-04, 17:12:51
Möglicherweise ist hier die Leitungskapazität ein Grund. Dünnere Leitungen mit entsprechend kleinerer Kapazität könnten sich höher Takten lassen. Ein weiterer Grund könnte sein, dass sich das Routing zwischen den µBumps vereinfacht. Letzterer Punkt ist wohl weniger für HBM als für die Verbindung komplexerer Chips relevant.
Schmalere Leitungen bedeuten normal auch flachere Querschnitte, was höhere ohmsche Widerstände bedeutet.

Zudem ist die Lineroughness höher, was ziemlich uncool für Hochfrequenz ist. (Ausnahme, man verwendet halt EUV statt normaler Litho. EUV hat ne bessere lineroughness ium Allgemeinen, ansonsten gilt da aber auch wieder das Gleiche.)

Die Leitungen wirste sehr wahrscheinlich als Transmission Lines behandeln können/müssen. Da ist die höhere Kapazität also nicht ganz so schlimm.

AnarchX
2016-04-04, 18:07:47
Hat Videocardz einen echten GP100 abgebildet?
http://videocardz.com/58743/nvidia-pascal-prototype-gpus-analysis
... bei WCCFTech gab es nur mal eine verschwommene Folie mit diesem Prototypen zu sehen.

Timbaloo
2016-04-04, 18:58:18
Wie soll das vor über einem Jahr ein echter GP100 gewesen sein? Oder raff ich mal wieder irgendwas nicht?

Nakai
2016-04-04, 19:06:07
22FDX ist ein echt netter Prozess. Aber für GPUs wird dieser Prozess nur sehr bedingt geeignet sein.

Hübie
2016-04-04, 19:08:38
Na so verkehrt können die ja nicht mehr liegen wenn man 12 TFLOPs als Basis nimmt. Wobei man bei Maxwell im Vorfeld immer was von 7 TFLOPs sagte und es mit Boost 6,6 sind. ;) Um die Wirtschaftlichkeit zu erhalten müsste man ja eher bei 550 als bei 600 Quadratmillimeter bleiben.

scully1234
2016-04-04, 19:36:46
Hat Videocardz einen echten GP100 abgebildet?
http://videocardz.com/58743/nvidia-pascal-prototype-gpus-analysis
... bei WCCFTech gab es nur mal eine verschwommene Folie mit diesem Prototypen zu sehen.

Das war doch perspektivisch entzerrt von der Nvidia Folie abgekupfert

y33H@
2016-04-04, 20:40:07
Und anhand von sowas machen die ne "Die Shot Analyse"? :usad:

Kriegsgeier
2016-04-04, 20:48:49
Gab es heute eine neue Presäntation von Nvidia oder nicht?
Danke

Mancko
2016-04-04, 21:12:34
Gab es heute eine neue Presäntation von Nvidia oder nicht?
Danke

Nein morgen gibt es die Keynote von Huang. Was er da erzählt ist aber nicht bekannt.

ndrs
2016-04-04, 22:58:20
Schmalere Leitungen bedeuten normal auch flachere Querschnitte, was höhere ohmsche Widerstände bedeutet.

Zudem ist die Lineroughness höher, was ziemlich uncool für Hochfrequenz ist. (Ausnahme, man verwendet halt EUV statt normaler Litho. EUV hat ne bessere lineroughness ium Allgemeinen, ansonsten gilt da aber auch wieder das Gleiche.)

Ah, danke. An den Widerstand hatte ich jetzt nicht gedacht und letzteres war mir eh neu :uup:

Die Leitungen wirste sehr wahrscheinlich als Transmission Lines behandeln können/müssen. Da ist die höhere Kapazität also nicht ganz so schlimm.
Habe mich genau zu informieren was das eigentlich ist, aber ich glaub dir das einfach mal ;D

Troyan
2016-04-05, 00:56:11
Wer ein bisschen Rätseln will:
https://pbs.twimg.com/media/CfOmEgRVIAAtS3U.jpg:large
https://twitter.com/theovalich/with_replies

GPU soll Pascal sein. 80GB/s sind klar 128bit mit 2500Mhz. 8TFLOPs kommen von den GPUs. Parker hat wohl maximal 1TFLOPs (FP32 - 512SP). Dann wären es 3TFLOPs je GPU (1536SP or 1024SP * 1500MHz).

Ailuros
2016-04-05, 06:27:02
Was soll man tolles aus dem oeden PX2 slide herauslesen? Dass selbst die Bandbreite fuer die dGPUs in diesem eigentlich eher fuer die DL TOPs ausreicht?

Sonst afaik ist die Frequenz bei allen GPU Einheiten auf dem Modul bei einer glatten 1.

scully1234
2016-04-05, 07:14:17
http://www.computerbase.de/2016-04/supermicro-high-end-gpu-server-mit-pascal-gpu-noch-dieses-jahr/


http://pics.computerbase.de/7/1/5/5/0/1-1080.2679984900.jpg


Mal eine Spekulation in negativer Richtung:
Es könnte sein, dass Pascal weder NVLink enthält noch HBM Speicher. Und auch, dass der GP100 es Aufgrund von Fertigungsproblemen vielleicht gar nicht in den Profisektor schafft.


duerften solche Slides ja jetzt fuer Klarheit sorgen

Complicated
2016-04-05, 07:40:01
Ja damit ist das geklärt. Interessant, dass AMD die exakt gleichen Märkte mit der Dual-Fiji adressiert. Kein HBM aber mit NVlink.

Wegen den Märkten: Das sind die selben die AMD als Single-Precision Märkte identifiziert hat. Ob mit dem geringeren Speicherausbau der FijiX2 Pascal da in Schwierigkeiten zu bringen ist?
http://pics.computerbase.de/7/1/5/5/0/3-630.1306743184.jpg

starfish
2016-04-05, 10:48:24
Meint ihr, Nvidia präsentiert heute Abend Pascal?

iuno
2016-04-05, 10:58:22
In irgendeiner Weise, ja
Soll heissen, Jensen wird sicher wieder irgendwas (http://www.venturesquare.net/wp-content/uploads/2016/01/wpid-201601T_CES_NV700.jpg) in (http://images.bit-tech.net/news_images/2009/09/first-fermi-card-pictured/fermi2.jpg)die (http://www.easybranches.eu/wp-content/uploads/2015/02/nvidia-ceo-jen-hsun-huang-gtc-titan-z-gtx.jpg)Hoehe (http://adrenaline.uol.com.br/files/upload/noticias/2013/03/gtc_2013/kayla.jpg)halten (http://img.clubic.com/07261784-photo-nvidia-gtc-2014-pascal-jen-hsun-huang.jpg) ;) Genaues weiss man noch nicht.

scully1234
2016-04-05, 11:03:17
Tesla wohl ausfuehrlich, und den Geforce vielleicht angeteasert am Schluss von Jensens Wort zum Sonntag ist mein Tip

Skysnake
2016-04-05, 13:02:22
Im Prinzip ist es egal, wir werden Pascal eh frühestens Q3 sehen.

MiamiNice
2016-04-05, 13:07:36
Pessimisten Pack :P
Jen-Hsun wird heute Abend Pascal vorstellen und verkünden das 1070 & 1080 GTX noch im Mai/Juni kommen werden. 970 & 980 GTX + 25% so in etwa.
Dazu wird er die Titan für Ende des Jahres ankündigen mit HBM2 Speicher.
[/Optimismus]

Hübie
2016-04-05, 13:24:01
Warum Mai/Juni, wenn ich fragen darf? :confused:

scully1234
2016-04-05, 13:27:55
Computex Geruecht auf der die Dinger vorgestellt werden sollen u danach ein ''Paperlaunch '' folgen soll


war der Slide schon mal da?

http://diit.cz/sites/default/files/styles/large/public/nvidia_pascal_gpu_compute_performance.jpg?itok=pyyCdSxO

HOT
2016-04-05, 13:44:54
Warum Mai/Juni, wenn ich fragen darf? :confused:

Aus Q2-Vorstellung für GP100 wurde offenbar Mai/Juni für die Pascal-Grafikchips :freak:.

Godmode
2016-04-05, 14:20:57
Pessimisten Pack :P
Jen-Hsun wird heute Abend Pascal vorstellen und verkünden das 1070 & 1080 GTX noch im Mai/Juni kommen werden. 970 & 980 GTX + 25% so in etwa.
Dazu wird er die Titan für Ende des Jahres ankündigen mit HBM2 Speicher.
[/Optimismus]

Wen GP104 nur 25% auf GM204 drauflegen sollte, dann wäre das eine extrem schwache Vorstellung, wenn man bedenkt, dass man einen neuen Prozess verwendet, der um einen ganzen Fullnode kleiner ist, als der bisherige 28nm Prozess. Ich erwarte von GP104 eher so zwischen 60-70% Mehrleistung, verglichen mit GM204. Das wäre dann etwa +30% auf GM200. [1] Also ~3000 SPs und etwas mehr Takt und das ganze in einem ~280mm2 Die.

[1] http://www.computerbase.de/thema/grafikkarte/rangliste/

ShinyMcShine
2016-04-05, 14:23:17
Wen GP104 nur 25% auf GM204 drauflegen sollte, dann war das eine extrem schwache Vorstellung, wenn man bedenkt, dass man einen neuen Prozess verwendet, der um einen ganzen Fullnode kleiner ist, als der bisherige 28nm Prozess.

+1

scully1234
2016-04-05, 14:32:45
NVIDIA’s 5th Gen Flagship Pascal GPU is 70% Faster Than Maxwell in CUDA Deep Neural Network Workloads

http://cdn.wccftech.com/wp-content/uploads/2016/04/Pascal-CudNN-boost-635x350.jpg

wccftech

iuno
2016-04-05, 14:34:46
So viel erwarte ich ehrlich gesagt nicht, wo soll das auch her kommen?
~30% auf GM204 sind imho Pflicht, so kann man GM200 schlagen und absetzen. Viel mehr wird es aber denke ich nicht werden

Godmode
2016-04-05, 14:35:04
NVIDIA’s 5th Gen Flagship Pascal GPU is 70% Faster Than Maxwell in CUDA Deep Neural Network Workloads

wccftech

Das wäre aber eher enttäuschend, wenn man bedenkt, dass Maxwell bei FP16 nur den halben Durchsatz hat. Naja vielleicht backen sie für den ersten Wurf wirklich nur ganz kleine Mini-Dies.

scully1234
2016-04-05, 14:35:20
Die meinen den grossen Chip und der Tesla ist ja immer niedriger getaktet wie der Geforce Chip

Deep Learning, sind das eher FP32 Operationen oder doch vornehmlich double Precision ?

Godmode
2016-04-05, 14:42:55
Die meinen den grossen Chip und der Tesla ist ja immer niedriger getaktet wie der Geforce Chip

Deep Learning, sind das eher FP32 Operationen oder doch vornehmlich double Precision ?

Hauptsächlich FP16 Operationen, wenn ich es richtig verstanden habe:
http://wccftech.com/nvidia-pascal-gpu-gtc-2015/

Nakai
2016-04-05, 14:51:17
Nicht mal das, wenn man es will und darauf anlegen möchte. Einfache Integer-Arithmetik reicht auch aus. Man braucht keine Floats. FP16 war so der Zwischenschritt, welcher ganz in Ordnung ist, wenn man keine numerischen Probleme haben möchte. Fix-Point-Arithmetik (Q-number-format) und noch andere numerische Tricks reichen vollkommen aus. ;)

Deswegen kommt NV mit DLTOPS. Die gehen weg von den Floats.

iuno
2016-04-05, 14:53:34
http://petewarden.com/2015/05/23/why-are-eight-bits-enough-for-deep-neural-networks/
;)

scully1234
2016-04-05, 14:55:21
Macht mir irgendwie Angst wenn sowas'' ungebildetes von minderer Rechenqualitaet '''auf oeffentlichen Strassen rumfaehrt:biggrin:

MiamiNice
2016-04-05, 14:57:53
Warum Mai/Juni, wenn ich fragen darf? :confused:

Weil die VR Dinger in dem Zeitraum kommen und sich die Kunden sehr gerne mit neuen Grafikchips eindecken möchten. Die aktuellen Chips sind allesamt zu langsam für VR, kauft doch keiner mehr.

Wen GP104 nur 25% auf GM204 drauflegen sollte, dann wäre das eine extrem schwache Vorstellung, wenn man bedenkt, dass man einen neuen Prozess verwendet, der um einen ganzen Fullnode kleiner ist, als der bisherige 28nm Prozess. Ich erwarte von GP104 eher so zwischen 60-70% Mehrleistung, verglichen mit GM204. Das wäre dann etwa +30% auf GM200. [1] Also ~3000 SPs und etwas mehr Takt und das ganze in einem ~280mm2 Die.

[1] http://www.computerbase.de/thema/grafikkarte/rangliste/

Ich meine GP104 (GTX1080) legt auf auf die 980TI ca. 25% drauf. Wir meinen das selbe ich habe mich nur unglücklich ausgedrückt. Sorry.

Nakai
2016-04-05, 15:19:34
http://petewarden.com/2015/05/23/why-are-eight-bits-enough-for-deep-neural-networks/
;)

Genau ;).

Man muss sich dennoch, um Overflow, Underflow und Saturation kümmern. Außerdem sind Neural Networks unglaublich Load-Intensiv. Hat ein Neuron 64 Vorgänger (8x8 Convolutional Layer Kernel), muss man 64 Loads durchführen (eigentlich 128: Inputs und Weights), um einen Ausgabewert zu generieren. Da nimmt man gerne kleinere Datentypen. Ebenso ist intelligentes Caching extrem wichtig, bzw. Shared Memory.


Die letzte NV-Roadmap lässt auf sehr wenig hoffen. Ein Faktor 2 FP64-FLOPs/Watt bzgl Kepler wird es werden. Mixed-Precision wird kosten, vorallem mit hohem FP64-Durchsatz.

Disco_STFU
2016-04-05, 17:18:17
Ab wann spricht der Huan Son zu uns? 19 Uhr unserer Zeit?

Godmode
2016-04-05, 17:24:08
18:00 unserer Zeit: http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/GTC-Eroeffnungs-Keynote-Live-Stream-Live-Ticker-deutsch-1191315/

Korvaun
2016-04-05, 17:39:46
Wen GP104 nur 25% auf GM204 drauflegen sollte, dann wäre das eine extrem schwache Vorstellung, wenn man bedenkt, dass man einen neuen Prozess verwendet, der um einen ganzen Fullnode kleiner ist, als der bisherige 28nm Prozess. Ich erwarte von GP104 eher so zwischen 60-70% Mehrleistung, verglichen mit GM204. Das wäre dann etwa +30% auf GM200. [1] Also ~3000 SPs und etwas mehr Takt und das ganze in einem ~280mm2 Die.

[1] http://www.computerbase.de/thema/grafikkarte/rangliste/

Kommt drauf an, gibt 3 Möglichkeiten:

1. NV geht brutal auf Energieffizienz, dann gibts nicht viel mehr Leistung, aber die Karten werden nur noch die Hälfte an Strom brauchen.

2. Selber Stromverbrauch wie bisher 970/980 haben, dafür aber viel mehr Leistung.

3. Eine Mischung aus Möglichkeit 1 und 2, je nachdem was NV erreichen will...

Godmode
2016-04-05, 17:43:01
Kommt drauf an, gibt 3 Möglichkeiten:

1. NV geht brutal auf Energieffizienz, dann gibts nicht viel mehr Leistung, aber die Karten werden nur noch die Hälfte an Strom brauchen.

2. Selber Stromverbrauch wie bisher 970/980 haben, dafür aber viel mehr Leistung.

3. Eine Mischung aus Möglichkeit 1 und 2, je nachdem was NV erreichen will...

@1: Und damit hätte man deutlich kürzere Balken, als die Konkurrenz.
@2: Davon gehe ich aus. Warum sollte man auch die TDP Klassen ändern? Es gibt verschiedene Klassen für verschiedene Marktsegmente. Wenn man weniger Strom verbrauchen will, kauft man eben eine kleinere GPU.

Hübie
2016-04-05, 17:56:33
Hier übrigens noch mal der link zum livestream:

http://abload.de/img/gtc2016rmsj0.png (http://www.ustream.tv/channel/fWbQyaEMfbh)

dildo4u
2016-04-05, 18:13:50
Noch ein Link.

https://www.twitch.tv/nvidia

Skysnake
2016-04-05, 18:13:54
habt ihr einen Stream der funktioniert?

Godmode
2016-04-05, 18:14:39
habt ihr einen Stream der funktioniert?

Klar: http://www.ustream.tv/channel/fWbQyaEMfbh

Nakai
2016-04-05, 18:17:49
Deep Learning und Cars.

GP100 als Deep Learning Chip. Für Gamer wird wohl nicht viel kommen. ;)

w0mbat
2016-04-05, 18:27:05
Hm, mods mögen es wohl nicht, wenn man den livestream kommentiert. Schade, aber auch klar: die posts nehmen zu viel bits und bytes weg...

Relative wenig genaues über VR.

Godmode
2016-04-05, 18:28:24
Mods mögen es nicht, wenn die Kommentare nur Spam sind. Wir sind hier nicht in der Trollbox. Also entweder man trägt was zu einer Diskussion bei oder eben nicht.

iuno
2016-04-05, 18:29:34
Youtube streamt gluecklicherweise auch: https://www.youtube.com/watch?v=fS6N96bDcLk
edit: oops, ist ja nur irgend ein Typ?!

w0mbat
2016-04-05, 18:30:30
Der livestream läuft, alle sind gespannt und im twitchchat kann man ja nicht wirklich kommentieren. Ich finde es blöd wenn man gegen jede reaktion direkt vor geht, macht allen spaß, den livestream mit 3dc offen zu schauen, kaputt :(

on-topic: sieht aus wie wenn es nur um business anwendungen geht.

Godmode
2016-04-05, 18:31:33
Relative wenig genaues über VR.

Jetzt fängt er erst mit VR an.

Der livestream läuft, alle sind gespannt und im twitchchat kann man ja nicht wirklich kommentieren. Ich finde es blöd wenn man gegen jede reaktion direkt vor geht, macht allen spaß, den livestream mit 3dc offen zu schauen, kaputt :(

on-topic: sieht aus wie wenn es nur um business anwendungen geht.

Es ist ja auch eine GTC und keine GDC, somit ist es logisch, das es eher um Business geht.

Hübie
2016-04-05, 18:33:51
Na ja auf der GTC geht es auch eher um R&D, als um Gaming und VR. Da sitzen Leute / Institutionen mit Kohle. :naughty:
Merkwürdig dass ich der einzige bin, den VR noch gar nicht so sehr interessiert.

Godmode
2016-04-05, 18:38:10
Irgendwie wirkt Huang sehr unflüssig und nervös. Eventuell hat er ja wirklich noch keinen Pascal zum herzeigen?

Nakai
2016-04-05, 18:39:48
Irgendwie wirkt Huang er sehr unflüssig und nervös. Eventuell hat er ja wirklich noch keinen Pascal zum herzeigen?

Er kann das einfach nicht. Sehr viele seiner Präsentationen sind einfach grottenschlecht. Wobei vor einem Jahr oder so, war es noch schlimmer.
Wenn man sich als GPU-Apple präsentieren möchte, sollte man schon deutlich bessere Präsentationskünste vorweisen können.

Hübie
2016-04-05, 18:40:54
Das fiel mir aber auch sofort auf. Ich glaube er wird einfach nur alt. ;) Der war in den letzten Wochen auch viel unterwegs.

w0mbat
2016-04-05, 18:42:00
The WOZ!!

Blediator16
2016-04-05, 18:43:28
Bis dahin fand ich es noch ok, aber die Schalte mit Woz ist mal übelste sinnlos. Capsaicin Niveau.

Korvaun
2016-04-05, 18:43:38
Naja soo schlecht is er jetzt auch nicht, die AMD Präsentation zu Fiji waren da wesentlich schlimmer. Ist halt typisch USA, alles absolut supi dupi und noch nie dagewesen wahnsinnig toll ... ;)

Godmode
2016-04-05, 18:44:26
Irgendwie kommen die Witze einfach nicht so richtig gut rüber...

Eventuell ist ja die Deep Learning Box dann ein kleiner Pascal Teaser, ich hoffe es zumindest mal.

Nakai
2016-04-05, 18:48:09
So weg mit VR und in Richtung Pascal. Go!

€: Nein, kein IRay VR. Pascal or Riot.

Es wird langsam wirklich lächerlich. Wehe, es gibt einen Pascal Mockup.

€2:
Eventuell ist ja die Deep Learning Box dann ein kleiner Pascal Teaser, ich hoffe es zumindest mal.

Eine M6000 für IRay VR. Pascal löst sich langsam auf...

w0mbat
2016-04-05, 18:49:09
Ne, IRAY VR. Pre-rendered VR?

iuno
2016-04-05, 18:52:56
Was ist das?
Ich habe dem noch nicht so oft live zugesehen, dachte aber dass Jensen einigermassen praesentieren kann. Bisher ist das wenn ueberhaupt unfreiwillig komisch... Und sonst ungefaehr so lame wie das Capsaicin Event ;D Der verzettelt sich auch dauernd
Was hat woz eigentlich geritten da mitzumachen? Der Auftritt war ja mal komplett laecherlich und unnoetig.

scully1234
2016-04-05, 18:53:41
Das fiel mir aber auch sofort auf. Ich glaube er wird einfach nur alt. ;) .

Ja irgend was stimmt heut nicht mit ihm er wirkt leicht abwesend

Mancko
2016-04-05, 18:59:37
Ich finde er ist wie immer und es ist so herrlich amerikanisch bzw. US like. Wenn man sich Präsentationen in den USA oder Reden ansieht, dann sind die alle sehr ähnlich. Immer relaxed mit dem ein oder anderen Spass bzw. Ironie. Ich mag den Stil. Ist halt grundsätzlich anders als Präsentationen bei uns.

Ailuros
2016-04-05, 19:02:45
Das fiel mir aber auch sofort auf. Ich glaube er wird einfach nur alt. ;) Der war in den letzten Wochen auch viel unterwegs.

Spass hin und her irgendwann gehoert neues Blut und eine neue Dynamik in die Bude. Ich liebe zwar die Stones aber ein Konzert von denen hab ich schon seit Jahren nicht mehr besucht; alte Knacker auf der Buene sind einfach nichts :freak:

scully1234
2016-04-05, 19:02:47
Los jetzt lass endlich die Pascal Hosen runter

iuno
2016-04-05, 19:02:55
Wie gesagt, ich hab dem noch nicht so oft live zugesehen das aber anders in Erinnerung/andere Erwartungen

Habe ich eigentlich richtig verstanden, dass sie mit Iray VR in der cloud rendern? Wie wollen sie das mit der Latenz hinbekommen?

Ailuros
2016-04-05, 19:06:18
Los jetzt lass endlich die Pascal Hosen runter

Wieso? CUDA8 kommt doch erst im Juni :freak:

iuno
2016-04-05, 19:08:28
"Deep Learning Chip" (oder so) ist schon als Programmpunkt angekuendigt ;p

Hübie
2016-04-05, 19:09:23
Wie gesagt, ich hab dem noch nicht so oft live zugesehen das aber anders in Erinnerung/andere Erwartungen

Habe ich eigentlich richtig verstanden, dass sie mit Iray VR in der cloud rendern? Wie wollen sie das mit der Latenz hinbekommen?

Der Dativ ist dem Genitiv sein Tod. :D SCNR

Er sagte es wird auf einer Workstation gerendert. Man braucht halt massig Speicher, also wird das nix mit einer 8 oder 12 GB Karte. ;)

Blediator16
2016-04-05, 19:11:46
Dass Woz nach einigen Sekunden bereits "schlecht" war, war ja mal übelst peinlich.

Hübie
2016-04-05, 19:13:19
Das liegt aber an der Natur des Menschen. ;) VR ist eben was anderes, da man viel mehr "drin" ist, als mit herkömmlichen Technologien.

Edit: Ach übrigens. Wer wusste hier eigentlich dass es schon dual-GM204 gibt? :D

scully1234
2016-04-05, 19:13:49
Die kleben wohl hinter der Buehen noch das Mockup zusammen

Kartenlehrling
2016-04-05, 19:15:56
Wie geil, im Dunklen Kämmerchen ein Baby Tesla entwickelt.

Kriegsgeier
2016-04-05, 19:16:27
Weil er 2017 meint :-)

Nakai
2016-04-05, 19:17:26
Wie geil, im Dunklen Kämmerchen ein Baby Tesla entwickelt.

Gibts doch schon lange.

Puh, Pascal wird immer unwahrscheinlicher.

€: So und nun prahlen die noch mit Deep Restricted Boltzmann Maschinen. Ich fass es nicht. Jedesmal wenn NV irgendwas bzgl. Deep Learning bringt, präsentieren sie Sachen und Tehcnologien welche schon etwas betuchter sind.

iuno
2016-04-05, 19:19:20
Wer wusste hier eigentlich dass es schon dual-GM204 gibt? :D
alt
Wie geil, im Dunklen Kämmerchen ein Baby Tesla entwickelt.
alt

:P

Ailuros
2016-04-05, 19:21:12
Teaching AI to draw landscapes inspired by those images

aaaaaaawwwwwwwwwwwwwwwwwwwwwwwwwwwww :freak:

Nakai
2016-04-05, 19:21:43
aaaaaaawwwwwwwwwwwwwwwwwwwwwwwwwwwww :freak:

Eigentlich auch schon alt.

€: Pascal or Riot.

€2: Es KOMMT.

Blediator16
2016-04-05, 19:23:01
Vielleicht bringen sie Fischen Unterwasser auszuweichen, wenn der Spieler näher kommt :freak:

Edit:

GPU!!!

Ailuros
2016-04-05, 19:23:48
Ok .....jetzt vielleicht doch? :eek:

scully1234
2016-04-05, 19:23:54
na also

w0mbat
2016-04-05, 19:24:12
15 Millarden Transistoren :ugly: