PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Volta - 2017/2018 (GV100, Xavier, ...)


Seiten : 1 2 3 4 5 6 [7]

wolik
2017-12-08, 12:56:13
Ich habe mit 1799$ bis 2000$ "gerechnet" :redface: Wer weisst ob TitanV SLI hat / kann ? ( Ob jetzt 3000$ im BTC reinstecken ? und in 3 Monate 4St. davon kaufen :) )
Ok. "Gute Nachricht" kein SLI oder NVLink.

Timbaloo
2017-12-08, 12:56:19
Die Karte ist doch für Gamer total uninteressant...

Und mit Spekulationen hat das auch nix zu tun.

scully1234
2017-12-08, 13:19:31
Mit so Fanboys wie bei Nvidia kann man denen jeden Schrott zu jedem Preis verkaufen.

Wenn ich dich schon wieder höre , der Schrott auf der Gegenseite ist doch der einzige Grund , warum sich NVIDIA solch eine Preisgestaltung leisten kann;D

Und ja als Unternehmer Sicht ist das eine völlig normale Preisgestaltung, da kannst du noch so sehr auf irgendwelchen Fans rumhacken wollen.

dildo4u
2017-12-08, 14:49:24
Es gab schon Titan Z und danach wieder "normale" Titans.4 Stacks an HBM2 scheinen absurd teuer daher die 12GB,die Gamer Titan kommt vermutlich mit 16GB GDDR6.

horn 12
2017-12-08, 14:54:07
Bei AMD wohl nicht, oder
Verbauen auch 16 GB HBM ² und verschleudern die Karte für 650 bis 750 Euro.

Loeschzwerg
2017-12-08, 15:00:12
Dem Auftrag beim Schreiner stornieren, meine Vega Limited und den Monitor verticken, ebenso meinen Xeon BDW-EP... dann könnte es für diese Karte reichen :freak:

Hätte lieber den Vollausbau gesehen.

wolik
2017-12-08, 15:10:39
Wer sich diese Karte allen ernstes zum Zocken kauft, der hat schlicht keine Ahnung.
:confused: Wie bitte ? Für wem denn sind alle Quadro und Tesla Karten ? Und natürlich, das TitanV zum Weihnachten rauskam ist völlig zufällig. Um die "arme" AI Entwickler zu bedienen, wer für QUADRO GP100 7199€ nicht das klein Geld hat... und auch ein Zufall das NVIDIA GeForce Game Ready 388.59 WHQL Support für TitanV hat ;D

Loeschzwerg
2017-12-08, 15:17:53
Also ich würde mich über jeden "Verrückten" freuen der sich diese Karte kauft und entsprechend Tests veröffentlicht :)

wolik
2017-12-08, 15:44:57
http://www.pcgameshardware.de/Titan-X-Grafikkarte-265165/Specials/Titan-Y-Test-Review-1224564/
Wie genauer lag man am 01.04.17... Preislich...

BlacKi
2017-12-08, 15:57:31
Also ich würde mich über jeden "Verrückten" freuen der sich diese Karte kauft und entsprechend Tests veröffentlicht :)
das würde mich auch mal interesiseren.

http://www.pcgameshardware.de/Titan-X-Grafikkarte-265165/Specials/Titan-Y-Test-Review-1224564/
Wie genauer lag man am 01.04.17... Preislich...

das war kein zufall. die titan z hat offiziell auch 3000€ gekostet. von daher verstehe ich die ganze kritik nicht wirklich.

wolik
2017-12-08, 16:04:24
Also ich würde mich über jeden "Verrückten" freuen der sich diese Karte kauft und entsprechend Tests veröffentlicht :)
Bei 3DC gibts "viele" Leute wer SLI Titan Xp eigene nennt. Anschaffungspreis (mit HB Bridge) 2700€.:wink:

BoMbY
2017-12-08, 16:06:54
Mit 6.9 TFLOP/s DP ist die Karte sicher super für Compute-Aufgaben - und das wäre der einzige Grund warum jemand die kaufen sollte, vor allem zu dem Preis.

wolik
2017-12-08, 16:09:41
das war kein zufall. die titan z hat offiziell auch 3000€ gekostet. von daher verstehe ich die ganze kritik nicht wirklich.
:rolleyes: Lüstig ist nur das man die Karte "rein" Wissenschaftlich präsentiert, und das die Leute gibts die das Glauben. Betonung auf "rein". NV sind viel zu lange ganz allein (top segment) auf dem Markt.
Gibts schon tests ?

Loeschzwerg
2017-12-08, 16:10:23
und das wäre der einzige Grund warum jemand die kaufen sollte,

Laaaaangweilig :D

Rancor
2017-12-08, 17:14:17
Ja mit den Tensor Cores kannste halt im Gaming nix anfangen.

BlacKi
2017-12-08, 17:38:19
die karte wird deutlich schneller sein als gp102. 25% oder mehr. wenn man die tensorcores abzieht wird man wohl einen 550-600mm² chip haben mit hbm, welcher strom einspart, was die taktrate wohl ziemlich hoch boosten lassen wird. zusätzlich bringt die karte einen ordentliche bandbreite durch hbm. die karte wird img gaming ne gute schippe drauflegen, aber keine 60% wie man es von einem neuen chip erwartet.

die titan z wurde damals ebenfalls in komplett pcs für 1500€ verkauft. gut möglich das die TV für 1600-2000€ in komplett pcs erwerblich sein wird.

letztendlich würde wohl keiner, wie genau beider Z damals, eine empfehlung ausstellen.

basix
2017-12-08, 18:09:21
Ich als HW Enthusiast finde die Karte geil. Nur schon weil sich das dickste Silizium, das es für Gamer zu kaufen gibt, unter dem Kühler befindet. Natürlich ist der Preis völlig überrissen für reine Gaming-Zwecke. Wers hat, der darf es sich natürlich leisten. Ich würde :D

Für mich ist die Titan V aber auch die allererste ihrer Art nach der Titan Classic, bei welcher ein deftiger Aufpreis auch drin liegt. Bei der Titan Classic war es die konkurrenzlose Leistung sowie DP. Hier ist es ebenfalls die Leistung, DP, Tensor Cores und HBM. Wer privat auch solche Compute Tasks verwenden kann, für den ist die Karte schon schick. 3k$ sind aber eine Ansage.

Edit:
Und ausserdem ist die Titan V ein weg, wie man teildefekte Assemblies verticken kann (GPU + HBM, wo jeweils 1x HBM Stack broken ist)

Gipsel
2017-12-08, 18:48:25
Bleibt sachlich und beim Thema!

scully1234
2017-12-08, 19:05:44
Ja mit den Tensor Cores kannste halt im Gaming nix anfangen.


fraglich ob man mit ner angepassten Engine , darüber nicht auch Hairwork,Waveworks generell billige Physik u.u.u realisieren könnte

Nur ist das Ding halt nicht sehr verbreitet, darum wird sich da auch kein Spieleentwickler dran vergehen

pixeljetstream
2017-12-08, 19:14:56
Als Gamingkarte denke ich sollte man wegen dem geringere Clock keine Wunder erwarten. Das gleiche war schon bei Quadro GP100 vs P6000 mit GP102 der Fall weswegen NVIDIA explizit das Ding nicht Quadro P10000 oder so nannte. Mit dem geringeren Basis Clock macht jede fixed function unit effektiv weniger Arbeit pro Zeit. Weniger Dreiecke/Drawcalls pro Sekunde etc. Natürlich hat man mehr shader power um wieder "aufzuholen" aber die anderen Faktoren sollte man nicht unterschätzen.

scully1234
2017-12-08, 19:20:57
Als Gamingkarte denke ich sollte man wegen dem geringere Clock keine Wunder erwarten. .

Wenn sie sich ähnlich verhält, wie ihre Pascal Derivate, sollte sie wassergekühlt schon in Richtung 2GHZ maschieren, das wären dann schon ansehnliche Resultate beim Rendern

Es ist halt schade das der FE Kühler hier schon limitiert, und dieses Monster zurück hält

Aber auf den ersten der sie unter Wasser setzt bin ich gespannt...

5CH4CHT3L
2017-12-08, 20:48:21
Als Gamingkarte denke ich sollte man wegen dem geringere Clock keine Wunder erwarten. Das gleiche war schon bei Quadro GP100 vs P6000 mit GP102 der Fall weswegen NVIDIA explizit das Ding nicht Quadro P10000 oder so nannte. Mit dem geringeren Basis Clock macht jede fixed function unit effektiv weniger Arbeit pro Zeit. Weniger Dreiecke/Drawcalls pro Sekunde etc. Natürlich hat man mehr shader power um wieder "aufzuholen" aber die anderen Faktoren sollte man nicht unterschätzen.
Naja, die Titan V hat 1455 MHz, die Titan Xp 1583 (und lässt sich bis 2000 hochprügeln). Ich denke die Titan V geht genauso hoch, nur ist der Base Takt geringer weil man trotz den 815mm^2 noch in den 250W TDP bleiben muss

pixeljetstream
2017-12-08, 22:29:41
Okay da bin ich aber auch mal gespannt wer das bei nem 3k Chip wagt. Da sitzt nun auch der HBM drauf...

robbitop
2017-12-08, 23:08:45
Die Frage ist wie optimiert die Treiber für Gaming mit der Volta mArch sind. Macht sicher auch einiges aus...

5CH4CHT3L
2017-12-08, 23:37:20
Die Frage ist wie optimiert die Treiber für Gaming mit der Volta mArch sind. Macht sicher auch einiges aus...
Selbst wenn man nur die FP32 Einheiten betrachtet hat man schon mehr Rohleistung als GP102. Und die Leistung sollste man mit kleinen Pascal-Treiber Anpassungen schon herausholen können.
Jede FP64-Einheit als eine FP32-Einheit zu nutzen ist ja ebenfalls kein Problem

horn 12
2017-12-08, 23:46:49
Dies ist ja mal wieder toll:


€3,100.00
IN DEN WARENKORB
VORAUSSICHTLICHER VERSANDTERMIN: 30/12/2017

Somit KEIN Volta mehr fürs Jahr 2017
Nur groß Angekündigt, ohne Voranmeldung aber man wollte dies wohl noch 2017 erledigen.

Zergra
2017-12-08, 23:49:25
Das Teil ist einfach Geil, wenn ich damit was anfangen könnte. Würde ich mir das sofort kaufen,aber selbst meine V64 ist mir schnell genug für alles was ich überhaupt noch Spiele. Momentan ist das nämlich nix :D

scully1234
2017-12-09, 00:00:55
Dies ist ja mal wieder toll:


€3,100.00
IN DEN WARENKORB
VORAUSSICHTLICHER VERSANDTERMIN: 30/12/2017

Somit KEIN Volta mehr fürs Jahr 2017
Nur groß Angekündigt, ohne Voranmeldung aber man wollte dies wohl noch 2017 erledigen.

Redet mal jemand mit Jensen damit Bernie sein bestelltes Exemplar früher bekommt:D

Okay da bin ich aber auch mal gespannt wer das bei nem 3k Chip wagt. Da sitzt nun auch der HBM drauf...
gibt da auf Anhieb ein paar Verdächtige ,die relativ schmerzbefreit sind ,was den Umbau anbelangt

HISN scharrt bestimmt schon mit dem Hufen um die Pizza zu belegen...

pixeljetstream
2017-12-09, 00:41:48
Edit: doofer Kommentar entfernt.

gravitationsfeld
2017-12-09, 00:55:06
Selbst wenn man nur die FP32 Einheiten betrachtet hat man schon mehr Rohleistung als GP102. Und die Leistung sollste man mit kleinen Pascal-Treiber Anpassungen schon herausholen können.
Jede FP64-Einheit als eine FP32-Einheit zu nutzen ist ja ebenfalls kein Problem
Es ist ein Problem, weil der Scheduler nicht beide gleichzeitig fuettern kann.

scully1234
2017-12-09, 00:58:15
@gravitationsfeld

Wie sieht das mit den Tensor Units aus ? Wären die rein hypothetisch für sowas wie Game Physik zu gebrauchen,würde man die Engine modifizieren,oder ist das eine Sackgasse?

gravitationsfeld
2017-12-09, 01:03:11
Ich glaube das wird nur fuer neural nets benutzt werden, aber vielleicht laesst sich NVIDIA ja was einfallen in GameWorks.

Von den neuronalen Netzen erwarte ich aber einiges. Depth of Field, AA, screen space reflections, SSAO, etc. Kann man fuer alles ein Netz trainieren wenn man will.

scully1234
2017-12-09, 01:32:45
Von den neuronalen Netzen erwarte ich aber einiges. Depth of Field, AA, screen space reflections, SSAO, etc. Kann man fuer alles ein Netz trainieren wenn man will.

Als Arbeitserleichterung bei euch an der Basis beim Erstellen des Contents, oder dann später auch im fertigen Produkt für den Endkunden?

Beides vermute ich mal...

pixeljetstream
2017-12-09, 01:52:22
Beides wird nachgefragt, ersteres wird eher verbreitet sein vermute ich. Die Studios haben starkes Interesse Contentkosten von AAA Grafik zu senken, Iterationszeiten zu verkürzen.
Da kann man auch Sachen machen die für Games im Massenmarkt noch zu langsam sind, bzw. zu sehr high-end brauchen.

Bei letzterem wird man sicher viele neue coole Sachen von Forschern bei Siggraph & Co in den nächsten Jahren sehen.

reaperrr
2017-12-09, 03:24:28
Die Karte ist für mich ein Indiz, dass es bis zu einem GA102 noch dauern und dieser dann eher in ehemaligen Titan-Preisregionen um 1000$/€ landen wird.

wolik
2017-12-09, 06:40:56
Die Karte ist für mich ein Indiz, dass es bis zu einem GA102 noch dauern und dieser dann eher in ehemaligen Titan-Preisregionen um 1000$/€ landen wird.
Stimmt. Was noch schlimmer ist. Wird Amper mehr als 15 TFlops bitten ? VRAM ? 12GB? Soll schon in 6-9 Monaten Titan V zu alte Möhre werden oder wird man Amper künstlich ausbremsen? Abwarten.
Ich glaube das wird nur fuer neural nets benutzt werden, aber vielleicht laesst sich NVIDIA ja was einfallen in GameWorks.

Von den neuronalen Netzen erwarte ich aber einiges. Depth of Field, AA, screen space reflections, SSAO, etc. Kann man fuer alles ein Netz trainieren wenn man will.
Für die User unter 0,1 %? Eher nicht. Nicht mal PhisX wird weiter entwickelt...

basix
2017-12-09, 13:29:01
Als Show Case natürlich nicht zu verachten. Und neben Tensor Cores ist Double-Rate FP16 / Quad-Rate INT8 ist für neuronale Netze ebenfalls gut geeignet. Und was können die Pascal GeForces? Quad-Rate INT8 ;) Für das Inferencing ist man also gut aufgestellt und Pascal hat bereits eine sehr breite Userbasis. Mich würde es jedenfalls nicht wundern, wenn sowas mal kommen sollte.

=Floi=
2017-12-09, 18:26:11
gibt es für den laien eine erklärung, wie die tensor cores arbeiten und wie diese im chip aufgebaut sind?!

robbitop
2017-12-09, 20:49:52
Matrixoperation in einem Takt. Die herkömmlichen ALUs verrrechnen pro Kanal nur einen Wert.

pixeljetstream
2017-12-09, 21:52:55
http://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#wmma

5CH4CHT3L
2017-12-10, 11:51:39
Hier scheint einer eine Titan V zu haben und macht benchmarks:
https://www.reddit.com/r/nvidia/comments/7iq5tk/just_got_a_titan_v_this_morning_ask_me_to/

scheint echt zu sein, die FireStrike Scores kann man auch online einsehen

Lehdro
2017-12-10, 12:00:56
Soll schon in 6-9 Monaten Titan V zu alte Möhre werden oder wird man Amper künstlich ausbremsen? Abwarten.

Was ist denn an 6 - 9 Monaten "schon"? Das ist eine verdammt lange Zeit und nur knapp unter dem derzeitigen NV Rhythmus mit dem NV von sich aus die Topmodelle austauscht. Der zeitliche Vorteil den die Titans bei der jetzt kaufbaren Leistung bieten war den Leuten schon immer Geld wert.

crux2005
2017-12-28, 18:18:04
Ich würde schätzen das nVidia die Volta GeForce noch in 2017 vorstellen möchte. [...]

Wenn du dir 2017 eine Volta GeForce in deinen PC schrauben kannst, bekommst du von mir einen runden Keks mit abgebissenen Ecken. :freak: (Not gonna happen).
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11317789#post11317789

Wo zum Teufel ist mein Keks?

:biggrin: :biggrin: :biggrin:

(sehe schon die Ausreden, "aber GeForce Titan V ist keine Gamer Karte, mimimimi".) :P

Hübie
2017-12-28, 18:26:58
Korrekt. Geforce. So wurde mir es damals auch gesagt und ich hab's net mal gecheckt. :D NV aka Jensen ist immer für eine Überraschung gut, dass muss man ihm lassen.

crux2005
2017-12-28, 18:33:14
Korrekt. Geforce. So wurde mir es damals auch gesagt und ich hab's net mal gecheckt. :D NV aka Jensen ist immer für eine Überraschung gut, dass muss man ihm lassen.

Schick bitte Kekse an. Adresse per PN. :D

Hübie
2017-12-28, 18:34:14
Das wird dann auch nur n halber, weil meine Aussage noch stimmt. Jensen wird in den kommenden Tagen sicher keine Geforce Volta auf den Markt werfen. :D Wie wäre es mit Brieftaubenpostluftfracht? X-D

Troyan
2018-01-08, 07:09:56
Xavier:
https://i.imgur.com/wGiWAoh.png

https://i.imgur.com/HFj4KLu.png

Ampere btw. der HPC Nachfolger von Volta wird wohl doppelt soviele Tensor-Cores haben. Xavier hat 20TOPS bei 1,3TFLOPs FP32 Leistung.

y33H@
2018-01-08, 07:23:07
Xavier hat nun 9B statt 8B an Transistoren, aha.

basix
2018-01-08, 07:26:04
Xavier:
https://i.imgur.com/wGiWAoh.png

https://i.imgur.com/HFj4KLu.png

Ampere btw. der HPC Nachfolger von Volta wird wohl doppelt soviele Tensor-Cores haben. Xavier hat 20TOPS bei 1,3TFLOPs FP32 Leistung.

Wieso nicht gleich 4x? Zusammen mit 7nm könnte das 1 PFLOPs einer Single-GPU ergeben. Diesen Marketing-Satz will sich Jensen sicher nicht entgehen lassen ("first PFLOP Processor ever made") ;)

BoMbY
2018-03-21, 22:44:03
The Register: 2 + 2 = 4, er, 4.1, no, 4.3... Nvidia's Titan V GPUs spit out 'wrong answers' in scientific simulations - Fine for gaming, not so much for modeling, it is claimed (http://www.theregister.co.uk/2018/03/21/nvidia_titan_v_reproducibility/)

Troyan
2018-03-27, 20:38:19
nVidias DGX-2 hat 16x GV100, die alle direkt über einen Interconnect mit 300GB/s verbunden sind: https://www.nvidia.com/en-us/data-center/dgx-2/

/edit: NVSwitch: https://news.developer.nvidia.com/nvswitch-leveraging-nvlink-to-maximum-effect/

AffenJack
2018-03-27, 20:40:51
Es gab zwar keine Infos zu den Gaming Chips direkt, aber die Presentation war dann doch aufschlußreich. Immerhin wissen wir jetzt, dass all das Gelaber über eine Gaming und eine weitere HPC/AI Architektur Müll sind und Nv anscheinend schön Falschinfos streut. Ampere und Turing ist wohl ein und dasselbe, bzw existiert 1 von beiden gar nicht.

dildo4u
2018-03-27, 20:53:26
Wenn sie Denoising im Gaming Bereich nutzen wollen müssen ja alle Chips mit Tensor Cores kommen.Also vielleicht ist doch alles Volta.

Troyan
2018-03-27, 20:57:12
Wenn sie Denoising im Gaming Bereich nutzen wollen müssen ja alle Chips mit Tensor Cores kommen.Also vielleicht ist doch alles Volta.

Wer weiß es schon. Pegasus wird jetzt gesampelt. Das heißt, die "Next-Gen" GPUs mit GDDR6 werden nun produziert. Und die haben auch Tensor-Cores.

AffenJack
2018-03-27, 21:02:40
Die Next-gen GPU hat Tensor Cores und wird wohl ebenso als Gaminggpu zu finden sein. Nv hätte es sonst auf der GTC vorgestellt. Der Einzige Grund die GPU auf Pegasus nicht vorzustellen, ist, dass man diese als Gaminggpu vorstellen möchte und deshalb die genauen Daten noch geheim hält.

Troyan
2018-03-27, 21:03:50
Und das wäre das exakt selbe Vorgehen wie bei Pascal, wo man die Ankündigung schon auf der CES (mit Maxwell GPUs) gemacht hat.

Börk
2018-03-27, 21:06:19
Wenn sie Denoising im Gaming Bereich nutzen wollen müssen ja alle Chips mit Tensor Cores kommen.Also vielleicht ist doch alles Volta.
Das denoising funktioniert auch ohne tensor cores, ist nur langsamer.

AffenJack
2018-03-27, 21:18:54
Und das wäre das exakt selbe Vorgehen wie bei Pascal, wo man die Ankündigung schon auf der CES (mit Maxwell GPUs) gemacht hat.

Jupp. Man beachte auch die Betonung, dass Xavier und Pegasus eine Architektur sind, wie TX2 und Drive PX2. Dementsprechend alles Volta der Shadercore. Einzig einige Grafikfeatures können etwas anders sein. Die 192 Bit GPU aus der Autopresentation ist dann wohl eine massiv am Speicherinterface beschnittene GV102. Schon GP106 wurde bei PX2 von 192 GB/s auf 80 Gb/s beschnitten. Entweder, weil es bei Inference keine Rolle spielt oder weil man eine vergleichbare Bandbreite wie der Chip für die Massenproduktion, also Xavier, auf der Devplattform haben will.

So bleibt für GV102 aber eben auch nur die 5376 Shader Konfiguration um dann auf 130 TOPS zu kommen.

Digidi
2018-03-27, 21:38:00
Das denoising funktioniert auch ohne tensor cores, ist nur langsamer.
Kann man das abschätzen um wie viel Langsamer das ist?

Xavier hat nun 9B statt 8B an Transistoren, aha.
Bitte mehr Info :D

Digidi
2018-03-27, 21:50:03
delete

Rampage 2
2018-03-27, 22:05:53
So bleibt für GV102 aber eben auch nur die 5376 Shader Konfiguration um dann auf 130 TOPS zu kommen.

5376 Shader stehen also für Ampere/Turing mehr oder weniger fest...?

R2

Troyan
2018-03-27, 22:06:34
Es ist mir jetzt auch erst aufgefallen, dass auf dem Schaubild von Oktober beim Pegasus-Modul GPUs mit GDDR-Speicher abgebildet waren:
http://media.marketwire.com/attachments/201710/92899_nvidia-drive-px-pegasus-web.jpg

Bei der CES hat man GV100 gezeigt. Aber nach der GTC ist klar, dass das Schaubild der Wirklichkeit entspricht.

Mortalvision
2018-03-27, 23:45:00
32 GB HBM2 mit Möglichkeit der Zusammenlegung

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/46026-nvidia-praesentiert-die-quadro-gv100-mit-32-gb-hbm2.html

BoMbY
2018-03-28, 01:38:03
Wow, man darf jetzt sogar zwei 10k Euro Compute-Karten von NVidia gleichzeitig nutzen? Das ist aber gnädig von denen ...

y33H@
2018-03-28, 08:58:01
Drive Pegasus nutzt zwei Volta-Derivate, freilich keine GV100.

deLuxX`
2018-03-28, 09:21:59
Sehe ich das richtig, dass keinerlei Informationen zu Consumerkarten herausgegeben wurden?
Man könnte meinen, ich muss ewig auf meiner 1060 sitzen bleiben.

y33H@
2018-03-28, 09:25:35
Keine offiziellen Infos, aber vor Ort auf der GTC gibt's natürlich ein paar Aussagen.

Rancor
2018-03-28, 09:33:10
Ich verstehe diese Geheimniskrämerei um die Gamingkarten nicht :confused:
Es nervt echt nur noch.
Erst VOLTA, dann Ampere, dann Turing und nichts genaues weiß man..

N0Thing
2018-03-28, 10:08:46
Warum sollen sie schon vor ihrer Marketingkampagne PR-Material heraus geben? Klar ist es nett für uns Spekulanten, aber welchen Nutzen hätte Nvidia davon? Pascal hat doch gezeigt, dass sie nicht ein halbes Jahr vorher schon Informationen streuen müssen. Die Taktik hat AMD bei Polaris und Vega am Ende ja auch keinen Vorteil gebracht.

Rancor
2018-03-28, 10:26:00
Warum sollen sie schon vor ihrer Marketingkampagne PR-Material heraus geben? Klar ist es nett für uns Spekulanten, aber welchen Nutzen hätte Nvidia davon? Pascal hat doch gezeigt, dass sie nicht ein halbes Jahr vorher schon Informationen streuen müssen. Die Taktik hat AMD bei Polaris und Vega am Ende ja auch keinen Vorteil gebracht.

Kundenfreundlichkeit? Warum sollten Sie es nicht tun?
AMD wird so oder so schon wissen, was Sie erwartet.

N0Thing
2018-03-28, 10:39:27
Für den Kunde reicht es doch, ein paar Wochen vor dem Release Informationen zu bekommen.
Kaufentscheidungen sollte man eh erst nach den Reviews treffen und die gibt es in der Regel erst zum Releasetag.
Ich fände mehr Informationen auch schön, damit man etwas besser über die Features und Leistung spekulieren könnte. Aber es macht im Endeffekt keinen Unterschied, es wäre nur nett für uns Nerds.

DrumDub
2018-03-28, 11:06:00
noch ein paar infos zu DGX-2:

Nvidia DGX-2: Machine-Learning-Monster mit 16 GPUs und 2 Petaflops Rechenleistung (Heise) (https://www.heise.de/newsticker/meldung/Nvidia-DGX-2-Machine-Learning-Monster-mit-16-GPUs-und-2-Petaflops-Rechenleistung-4006751.html)

Mortalvision
2018-03-28, 15:22:50
Wow, man darf jetzt sogar zwei 10k Euro Compute-Karten von NVidia gleichzeitig nutzen? Das ist aber gnädig von denen ...

Du Scherzkeks, ich meinte: du kannst 64 GB HBM2 memory rausbekommen. Das ist doch der eigentliche Clou!

Skysnake
2018-03-28, 20:17:02
Also das interessanteste an der GTC ist definitiv NVSwitch.

Man muss noch schauen, iep die Latenzen sind, aber das sieht schon verdammt gut aus.

NVIDIA hat da mal echt ein heißes Eisen im Feuer. Meinen Respekt! Das habe ich mir zwar gewünscht aber NICHT damit gerechnet. Das ist echt eine riesen Überraschung

BoMbY
2018-03-28, 20:37:33
Naja, wenn es funktioniert ist es sicher nicht schlecht, aber im Prinzip ist das auch nur ein weiterer aufgebohrter Bus wie PCIe (oder wie CCIX, oder GenZ, etc.) mit einem großen Switch - nur halt schneller, und vor Allem teurer weil man alles von NVidia kaufen/lizenzieren muss, inkl. vermutlich nochmal extra Software-Lizenzen dafür.

Skysnake
2018-03-28, 21:22:44
Nvlink sollte ab 64 bete an sich bereits Peak Bandbreite erreichen. Pcie brauch MB dazu

Das kann man nicht vergleicehn

basix
2018-03-29, 10:54:08
bete = Byte? :) Dann meinst du noch Zugriffsgranularität oder was genau?

Skysnake
2018-03-29, 21:22:46
Ja Byte und nein nicht die Granularität.

Nvlink was identisch zu Bluelink oder OpenCAPI ist erreicht bei 64 Byte die maximale Effizienz der Übertragung.

Wenn du mehr schickst steigt auch der Overhead.

Ansonsten ist es nur allgemeiner Overhead aber nicht von der Übertragung an sich

reaperrr
2018-03-31, 00:41:11
Es ist mir jetzt auch erst aufgefallen, dass auf dem Schaubild von Oktober beim Pegasus-Modul GPUs mit GDDR-Speicher abgebildet waren:
http://media.marketwire.com/attachments/201710/92899_nvidia-drive-px-pegasus-web.jpg

Bei der CES hat man GV100 gezeigt. Aber nach der GTC ist klar, dass das Schaubild der Wirklichkeit entspricht.

Und es sieht nach 8 Speicherchips aus (die anderen Teile neben den untersten beiden Speicherchips sind etwas größer und quadratischer, also wohl etwas anderes), also 256 bit. Sollte daher GV/GT104 sein.

Hübie
2018-03-31, 02:23:27
Das ist ein NV Memory. Ich tippe auf Micron QuantX. Auf dem Bild rechts sind die Xavier SoC und links auf den MCM(?) sind die Nachfolger der GP106 GPU mit 6 VRAM-Chips was auf 192 Bit schließen lässt.

Auf allen Bildern wurde bisher immer die GPU mittels MCM drauf gesteckt, daher denke ich wird es hier nicht anders sein (auch wenn das Package auf diesem Bild von Troyan anders aussieht):

https://abload.de/thumb/nvidia-xavier-soc-varfkuyj.jpg (http://abload.de/image.php?img=nvidia-xavier-soc-varfkuyj.jpg)

Troyan
2018-03-31, 14:34:34
Und es sieht nach 8 Speicherchips aus (die anderen Teile neben den untersten beiden Speicherchips sind etwas größer und quadratischer, also wohl etwas anderes), also 256 bit. Sollte daher GV/GT104 sein.

Sind 6 auf den SMX-Modulen. Ich würde die andere Darstellung mal als "künstlerische" Freiheit interpretieren. :D

Affenjack hat ja die eine Folie von der GTC gepostet: 192bit = 6 Speicherchips.

Ailuros
2018-04-07, 10:54:45
https://en.wikichip.org/w/images/5/51/ces2018_-_nvidia_drive_xavier.pdf

Zwar ein sehr spezialisierter SoC dediziert fuer automotive aber sowohl die Transistoren-Anzahl als auch die benutzte die area fuer die GPU sind ziemlich heftig. Ausser es handelt sich natuerlich um einen bloeden marketing render wie in der Vergangenheit.

AffenJack
2018-04-07, 11:26:03
Deutlich heftiger finde ich dei Größe des CPU Clusters, fall das Bild halbwegs der Realität entspricht. Die GPU hat immerhin auch haufenweise Tensor Cores, da wundert mich die Größe jetzt weniger.

scully1234
2018-04-07, 11:54:25
https://en.wikichip.org/w/images/5/51/ces2018_-_nvidia_drive_xavier.pdf

Zwar ein sehr spezialisierter SoC dediziert fuer automotive aber sowohl die Transistoren-Anzahl als auch die benutzte die area fuer die GPU sind ziemlich heftig. Ausser es handelt sich natuerlich um einen bloeden marketing render wie in der Vergangenheit.


habt ihr euch beide abgesprochen mit dem Eintreffen auf der Showbühne=)

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11666508&postcount=328


welcome back:P

Ailuros
2018-04-09, 13:10:52
habt ihr euch beide abgesprochen mit dem Eintreffen auf der Showbühne=)

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11666508&postcount=328


welcome back:P

Nie!!!! :freak:

Der die shot ist echt ergo haben wir eine ~90mm2 @12FF TSMC (UltraLotsOfPower SoC) GPU mit >2.3 Mrd. Transistoren.

Edgecrusher86
2018-04-09, 14:05:07
Kleines GPU-Z Preview Quadro GV100:

https://abload.de/img/6b6348b8-49a0-4f84-bzgsph.jpeg

Also wohl 128 ROPs maximal. Die ROPs wurden ja auch schon damals mit GPU-Z 2.5.0 auf TV korrekt ausgelesen, die TMUs auch falsch (ebenso 426).
Interessant, dass der Boost doch einiges höher als bei der V (1455 MHz) angegeben wird. Eventuell der max. Boost bei der GV100. Die TV hält ja out of the Box so um die 1550 MHz avg. mit dem DHE unter 84°C TT.

http://www.overclock.net/forum/69-nvidia/1680377-official-nvidia-quadro-gv100-ownera-s-club-2.html#post27120297


E: Bezüglich Taktverhalten:
It can easily maintain that Boost level and often scales higher...even into the 1700’s on occasion...

http://www.overclock.net/forum/69-nvidia/1680377-official-nvidia-quadro-gv100-ownera-s-club-2.html#post27122889

Hübie
2018-04-09, 16:39:24
Nie!!!! :freak:

Der die shot ist echt ergo haben wir eine ~90mm2 @12FF TSMC (UltraLotsOfPower SoC) GPU mit >2.3 Mrd. Transistoren.

Das gesamte SoC hat 90 mm² oder nur der GPU-Cluster (inkl Video DSP+IMC+PHYs)? :| Dann kommt man schon mit 4608 FP32 CC auf 810mm² (GV100 hat 84*64=5.376 FP32 CC). Kommt mir also etwas zu groß vor (ich weiß: Überschlagsrechnung). Ich kann mir gut vorstellen, dass Turing Volta stark ähnelt nur halt weniger TCs pro GPC, wenn man es high level betrachtet (bevor pixeljetstream wieder meckert wie bei meiner Aussage GP100 ist näher an Volta als an Pascal).

AffenJack
2018-04-09, 18:47:28
Das gesamte SoC hat 90 mm² oder nur der GPU-Cluster (inkl Video DSP+IMC+PHYs)? :| Dann kommt man schon mit 4608 FP32 CC auf 810mm² (GV100 hat 84*64=5.376 FP32 CC). Kommt mir also etwas zu groß vor (ich weiß: Überschlagsrechnung). Ich kann mir gut vorstellen, dass Turing Volta stark ähnelt nur halt weniger TCs pro GPC, wenn man es high level betrachtet (bevor pixeljetstream wieder meckert wie bei meiner Aussage GP100 ist näher an Volta als an Pascal).

Xavier hat 2x soviele Tensor Cores wie V100 pro SM und nicht deshalb, weil es vielleicht wieder 128 SP SMs sind. V100 hätte bei 512 SP 64 Tensor Cores. Xavier hat aber 128 Tensor Cores. Wer weiß wieviel Platz das wegnimmt.

Nein, Turing wird eher genauso viele Tensor Cores wie V100 haben. Sieht man schon an den Pegasusdaten. Der Unterschied wird wohl in der Genauigkeit der Tensor Cores liegen, da Turings Tensor Cores, wie wahrscheinlich auch Xaviers TCs, keine ausreichende Genauigkeit für Traning besitzen werden. Ausgehend von den Pegasusdaten wäre nichtmal auszuschließen, dass Turing (oder zumindest 1 Turing) genauso wie Xavier eine Verdopplung der TCs bekommt. Dann müssten die aber wirklich relativ klein sein, aber mit Int8 TCs vielleicht möglich.

Ailuros
2018-04-10, 12:01:05
Das gesamte SoC hat 90 mm² oder nur der GPU-Cluster (inkl Video DSP+IMC+PHYs)? :| Dann kommt man schon mit 4608 FP32 CC auf 810mm² (GV100 hat 84*64=5.376 FP32 CC). Kommt mir also etwas zu groß vor (ich weiß: Überschlagsrechnung). Ich kann mir gut vorstellen, dass Turing Volta stark ähnelt nur halt weniger TCs pro GPC, wenn man es high level betrachtet (bevor pixeljetstream wieder meckert wie bei meiner Aussage GP100 ist näher an Volta als an Pascal).

Gross und viel schon aber weiss der Geier was sie alles an Transistoren fuer ASIL-FROM HELL in das Ding schuetten mussten; IMHO gerade deshalb hinkt jeglicher Vergleich mit N chip fuer alternative Maerkte.

Troyan
2018-06-09, 00:41:00
Summit ist fertig und läuft: https://blogs.nvidia.com/blog/2018/06/08/worlds-fastest-exascale-ai-supercomputer-summit/?ncid=so-twi-frsc-43048

27.648 GV100 Karten sind verbaut. Damit kann man den Thread hier eigentlich schließen, da er mit einer Folie zu Summit angefangen hat.

/edit: Mehr Informationen aus nVidias Sicht zur Entstehung von Summit: https://devblogs.nvidia.com/summit-gpu-supercomputer-enables-smarter-science/

Leonidas
2018-07-24, 08:15:25
Support für nVidia-Chips GV102 & GV104 in PC-Analysetool "HWinfo":
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-juli-2018

Skysnake
2018-10-07, 14:21:01
Hier ein Bericht über die Installation der smx2 gv100 Boards. Finde ich jetzt ganz interessant. Vor allem sollte das dem einen oder anderem bezüglich Kühlertausch bei den Consumer Karten zu denken geben.

https://youtu.be/ipQXdjjAPGg

Entspricht auch dem Kommentar eines Nvidia Mitarbeiters auf der ISC18. Die SMX2 gehen teilweise beim montieren einfach kaputt. Also beim verschrauben

Godmode
2018-10-08, 15:59:59
Hier ein Bericht über die Installation der smx2 gv100 Boards. Finde ich jetzt ganz interessant. Vor allem sollte das dem einen oder anderem bezüglich Kühlertausch bei den Consumer Karten zu denken geben.

https://youtu.be/ipQXdjjAPGg

Entspricht auch dem Kommentar eines Nvidia Mitarbeiters auf der ISC18. Die SMX2 gehen teilweise beim montieren einfach kaputt. Also beim verschrauben

Die Consumer-Karten haben keine SMX2 Steckverbindungen, daher wüsste ich jetzt nicht, was es zu bedenken gäbe?

Skysnake
2018-10-08, 22:30:06
Die Montage des Kühlers ist praktisch identisch meines Wissens nach. Und dabei kann man wohl relativ leicht das Package zerstören. ;)

Godmode
2018-10-11, 14:46:43
Auf Computerbase schreiben sie, dass 2x Turing im Nvidia Drive AGX Pegasus verbaut ist. Seit wann gibt es Turing mit HBM? Oder ist das wieder nur ein Modellboard und es sind einfach zwei GV100 Boards verbaut?

https://www.computerbase.de/2018-10/nvidia-ceo-jensen-huang-auto-hardware/

Links:
https://pics.computerbase.de/8/5/0/0/5/3-1080.4174496913.jpg

y33H@
2018-10-11, 14:58:37
Mock-up, es wurde hier vor Ort explizit von Turing und zuvor Next-Gen-Tensor-GPU gesprochen.

Dural
2018-10-11, 15:39:02
Das sind GV100 GPUs.

Ich frage mich wie so NV da so viel Geld und Zeit in diese Entwicklung steckt, von mir ausgesehen wird das nie funktionieren, sprich NV wird damit nie viel Geld verdienen.

In 10-20 Jahren wird es diese Hardware für Level 5 im "Hosentaschenformat" von den Chinesen geben. Ich sehe keine Möglichkeit wie sich da NV behaupten kann. :confused:
NV müsste hoch spezialisierte Chips extra für das Autonomen fahren Entwickeln, ein wir nehmen jetzt unser (Tesla) GPUs wird nicht mehr drin liegen.

dildo4u
2018-10-11, 15:44:52
Wenn man sich die Berichte zum neuen Apple Chip anguckt,kann man sich mit genug Geld auch im Arm Bereich noch ein ordentlichen Vorsprung verschaffen auch gegen die China Konkurrenz.

Dural
2018-10-11, 15:49:24
Das ist ja der Witz, NV kann sich bei den GPUs behaupten weil da immer nach MEHR Leistung gefragt wird!

Beim Autonomen fahren bracht man die Leistung X danach ist schluss, und wenn man die in Massen Herstellen kann geht es doch nur noch um den Preis.

Armaq
2018-10-11, 15:53:29
Das sind GV100 GPUs.

Ich frage mich wie so NV da so viel Geld und Zeit in diese Entwicklung steckt, von mir ausgesehen wird das nie funktionieren, sprich NV wird damit nie viel Geld verdienen.

In 10-20 Jahren wird es diese Hardware für Level 5 im "Hosentaschenformat" von den Chinesen geben. Ich sehe keine Möglichkeit wie sich da NV behaupten kann. :confused:
NV müsste hoch spezialisierte Chips extra für das Autonomen fahren Entwickeln, ein wir nehmen jetzt unser (Tesla) GPUs wird nicht mehr drin liegen.
Was erzählst du denn da?

Nvidia ist in Fahrzeugen unglaublich erfolgreich. In so ziemlich jedem Premiumhersteller läuft in einer oder mehreren Serie nvidia ...

Dural
2018-10-11, 15:57:17
Lesen und verstehen ;)

Und unheimlich viel Erfolg, erstens gibt es Aktuell praktisch nichts vergleichbares auf dem Markt und die wenigsten Autos die derzeit verkauft werden haben solche Hardware drin.

Das wird in 10-20 Jahren eben deutlich anders aussehen.

dildo4u
2018-10-11, 16:03:34
Das ist klar aber warum sollte man dann nicht die ersten 5 Jahre mitnehmen?
Sie haben jetzt Kunden wie Porsche die können es sich leisten Absurde Preise für die Chips zu zahlen,da die Modelle mit Level 2+ im Schnitt weit über 50k€ kosten werden.

Dural
2018-10-11, 16:11:40
Kann man natürlich mitnehmen, aber am Ende ist es eine ganz einfach kosten/nutzen Rechnung.
Der SoC wird aktuell praktisch nur noch für das weiter entwickelt und hergestellt, bei der aktuell relativ geringen Stückzahlen dürften sich die Kosten dafür wohl kaum lohnen. Dies könnte sich in der Übergangsfrist natürlich etwas ändern.

Armaq
2018-10-11, 16:11:57
Lesen und verstehen ;)

Und unheimlich viel Erfolg, erstens gibt es Aktuell praktisch nichts vergleichbares auf dem Markt und die wenigsten Autos die derzeit verkauft werden haben solche Hardware drin.

Das wird in 10-20 Jahren eben deutlich anders aussehen.
Stimmt. Die Unternehmen die jetzt schon in die Serienfertigung arbeiten und reibungslose Prozesse, Vertriebskanäle und Partnerschaften haben, werden morgen direkt von den Chinesen verdrängt.

Meine ehemalige Unternehmung hatte 40 % des Umsatzes im Automobilzuliefererumfeld und meine Fresse hast du keine Ahnung. Die Chinesen sind da und wollen in den Markt, aber ihnen fehlt genau das oben beschriebene Phänomen. Huawei ist echt erfolgreich, aber im Automobilsektor reicht es einfach nicht, weil die Fertigungsintegration, Absprachen im R&D usw. fehlen.

Kurz gesagt: auch deine prophetischen Weisheiten entsprechen nicht den Marktgegebenheiten.

Da ich kein NDA mehr habe und auch über 2 Jahre raus bin, kann ich da auch Namen nennen. Nvidia steckt in jeweils folgenden Herstellern (Kenntnisstand ist also ca. 2-3 Jahre alt): Audi, Porsche, BMW, Mercedes, Toyota, GM. Bei Audi war es glaube der A5 und A4 konkret. Sie hatten direkte und gute Verbindungen zu allen Tier1 Zulieferern (was dramatisch wichtig ist, um in der Serie der großen OEMs zu landen) und waren dort an allen Neuentwicklungen gerade für autonomes Fahren beteiligt. Der Umsatz wuchs auch drastisch und hatte mehrere andere Felder überholt.

N0Thing
2018-10-11, 16:12:17
Das ist klar aber warum sollte man dann nicht die ersten 5 Jahre mitnehmen?
Sie haben jetzt Kunden wie Porsche die können es sich leisten Absurde Preise für die Chips zu zahlen,da die Modelle mit Level 2+ im Schnitt weit über 50k€ kosten werden.


Und wer weiß schon, wohin die Reise gehen wird. Wenn man jetzt mit Automotive Geld verdienen kann, ist es doch der richtige Weg, evtl. fällt durch Forschung und Entwicklung auch etwas für die anderen Einsatzgebiete ab. Und wenn man irgendwann wirklich nur noch in einer Preisschlacht mit anderen Anbietern kämpft, kann man sich wie bei Smartphone und Tablets aus dem Markt zurückziehen.

Armaq
2018-10-11, 16:18:21
nvidia hat da keine Preisschlacht geführt. Sie waren einfach besser.

N0Thing
2018-10-11, 16:27:38
Ich glaube, du hast mich falsch verstanden.

=Floi=
2018-10-11, 19:27:49
bild hat kein wasserzeichen. dacht schon das bild ist von privat. ;D

Dural
2018-10-12, 10:56:30
Ja die Chinesen können es nicht, das hat man vor 10-30 Jahren in sehr vielen Bereichen auch schon gesagt. :freak:

Was am ende daraus wurde kennen wir ja. :rolleyes: