Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Raff
2020-05-12, 16:58:37
Can you smell, what the Jensen Huang is cooking: https://www.youtube.com/watch?v=So7TNRhIYJ8&feature=emb_logo

Enjoy.

Ich check's nicht.

Jensen muss nach dem Umzug in seine Prunkbude sparen, hat bereits seine Lederjacke gegen eine Plastiktüte getauscht und backt als Nebenverdienst alte Grafikkarten heile, oder wat? :confused:

MfG
Raff

Asaraki
2020-05-12, 16:59:25
Wäre ja auch absurd, wenn er bei den eigenen Produkten schlecht gelaunt wäre. :freak:

Du hast noch nie Produkte vor "Kunden" vorgestellt, ne? :D Oder du hast das Glück, dass in deiner Firma alle Produkte top sind ^^
Ich freu mich total, wenn ich was vorstellen kann, hinter dem ich auch voll stehen kann, sieht man mir zieeeemlich gut an - aber ich hab auch kein Pokerface ^^

(jaja ich weiss schon, dass es dann das video auch nicht geben würde ^^)

Troyan
2020-05-12, 17:04:59
Die hatten auch seit Volta drei Jahre und zwei volle Prozessnodes Zeit. Da sollte schon was gutes aus dem Ofen kommen.

Dampf
2020-05-12, 17:10:58
Ich check's nicht.

Jensen muss nach dem Umzug in seine Prunkbude sparen, hat bereits seine Lederjacke gegen eine Plastiktüte getauscht und backt als Nebenverdienst alte Grafikkarten heile, oder wat? :confused:

MfG
Raff

was im Ofen gebacken= Sprichwort für "was vorbereitet"

Jensen backt ne GPU im Ofen = Jensen hat im Hintergrund Ampere vorbereitet

Timbaloo
2020-05-12, 17:30:43
Schaut auf die Uhrzeit: 2:39 -> Summe der Ziffern 14 -> Ampere wird in 14nm hergestellt!!!

Asaraki
2020-05-12, 18:00:54
Quatsch xD Verlesen / Quersumme gerechnet :D

crux2005
2020-05-12, 19:47:35
Ich check's nicht.

Jensen muss nach dem Umzug in seine Prunkbude sparen, hat bereits seine Lederjacke gegen eine Plastiktüte getauscht und backt als Nebenverdienst alte Grafikkarten heile, oder wat? :confused:

MfG
Raff

Danke Raff, YMMD :biggrin:

Schaut auf die Uhrzeit: 2:39 -> Summe der Ziffern 14 -> Ampere wird in 14nm hergestellt!!!

Nö. Video ist 0:27 Lang. Also first 9nm GPU confirmed!

basix
2020-05-12, 21:16:28
Schaut auf die Uhrzeit: 2:39 -> Summe der Ziffern 14 -> Ampere wird in 14nm hergestellt!!!

Quatsch. Du musst rechnen, bis nur noch eine Zahl übrig ist

2+3+9=14
1+4 = 5

5nm !!!111einself :D

Weiss jemand, was da Jensen aus dem Ofen hebt? Ist das Volta oder doch etwas neues?

BoMbY
2020-05-12, 21:37:28
Naja, da werden wohl viele Enthusiasten ein neues Gehäuse brauchen für die größte GPU der Welt ...

Troyan
2020-05-12, 21:42:34
Quatsch. Du musst rechnen, bis nur noch eine Zahl übrig ist

2+3+9=14
1+4 = 5

5nm !!!111einself :D

Weiss jemand, was da Jensen aus dem Ofen hebt? Ist das Volta oder doch etwas neues?

Das ist so cheesy, das ist Ampere. Siehe auch die französische Flagge an der Jogginghose. ;)

Kleine Zusammenfassung und Vergleich zwischen bekannten Board für Volta und das, was Jensen gebacken hat: https://www.servethehome.com/nvidia-tesla-a100-hgx-2-edition-shows-updated-specs/

basix
2020-05-12, 21:58:07
Das ist so cheesy, das ist Ampere. Siehe auch die französische Flagge an der Jogginghose. ;)

Kleine Zusammenfassung und Vergleich zwischen bekannten Board für Volta und das, was Jensen gebacken hat: https://www.servethehome.com/nvidia-tesla-a100-hgx-2-edition-shows-updated-specs/

Ampere war natürlich auch meine Vermutung ;) Aber es genau zu wissen wäre auch nicht schlecht.

Gutes Auge mit der Flagge :D

wolik
2020-05-12, 22:21:21
So7TNRhIYJ8

Leder Jacke schon auch grau geworden :smile:

Ex3cut3r
2020-05-12, 22:28:14
Nein, der war schon länger grau, aber wegen Corona gehen die Leute nicht mehr zum Friseur.

SKYNET
2020-05-12, 22:44:01
scheint ihn RDNA2 wohl graue haare wachsen lassen ;D

Troyan
2020-05-13, 15:06:33
So T-24h. So lang ist es nicht mehr hin, um zu sehen, was nVidia mit 7nm erreichen kann.

Troyan
2020-05-14, 08:16:36
Hier ist das Kind, zuzusahen als Ultraschallbild:
https://cdn.videocardz.com/1/2020/05/NVIDIA-GA100-GPU-Tesla-A100-1536x986.jpg
https://videocardz.com/newz/nvidia-tesla-a100-with-ga100-ampere-gpu-pictured

Im Vergleich zu den Vorgängern und sollte das Bild "echt" sein, dann reden wir locker wieder von 800mm^2+. nVidia sollte locker die 41 Millionen Transistoren von AMD erreichen,
liegt man bei mindesten 32,8 Mrd. Transistoren...

Zum Vergleich V100:
https://www.aspsys.com/images/solutions/hpc-processors/nvidia-gpu/nvidia-v100-volta2.png
https://www.aspsys.com/solutions/hpc-processors/nvidia-gpu/

P100:
https://techgage.com/wp-content/uploads/2016/04/NVIDIA-Tesla-P100-GPU-Press-Shot-680x255.jpg
https://techgage.com/article/nvidia-gtc-2016-recap-pascal-gpus-iray-vr-ai-and-autonomous-racing/

Raff
2020-05-14, 08:43:22
Mh, 6.144 Datenleitungen, lecker! =)

MfG,
Raff

just4FunTA
2020-05-14, 08:45:10
Kann man hoffen auch gaming gpus heute zu sehen oder eher nicht?

Troyan
2020-05-14, 08:47:08
Eher nicht. Huang hat letztes Jahr auch über Turing und Raytracing gesprochen, aber dieses Jahr steht wohl wieder HPC und viel mehr DL auf der Agenda.

Troyan
2020-05-14, 09:28:01
Spoileralert:

https://webcache.googleusercontent.com/search?q=cache:LF156Iu5XPwJ:https://www.eetimes.com/nvidia-reinvents-gpu-blows-previous-generation-out-of-the-water/+&cd=9&hl=en&ct=clnk&gl=in

Hab nur kurz überflogen, keine Ahnung ob es stimmt. Aber wenn ja...

Raff
2020-05-14, 09:56:31
Spoileralert:

https://webcache.googleusercontent.com/search?q=cache:LF156Iu5XPwJ:https://www.eetimes.com/nvidia-reinvents-gpu-blows-previous-generation-out-of-the-water/+&cd=9&hl=en&ct=clnk&gl=in

Hab nur kurz überflogen, keine Ahnung ob es stimmt. Aber wenn ja...

An 20-fache FP32-Leistung gegenüber Volta glaubt wohl nur die Dame und der Osterhase, beim INT-Durchsatz kann ich mir das aber vorstellen. €dit: Ah, genaues Lesen bildet. Das bezieht sich rein auf AI und eine neue Iteration der Tensor Cores. Okay, cool und beeindruckend, aber nichts, das Spiele beschleunigt (möglicherweise aber "DLSS 3.0"). Wir sollten bei Ampere generell vom verspielten Ansatz wegkommen. :D

MfG
Raff

robbitop
2020-05-14, 10:08:51
GA100 wird dann wohl maximal als Titan A (?) für Consumer verfügbar sein. Sicherlich >3000 €.
Allerdings sollte das Teil schon ziemlich brachial sein. Riesen Bandbreite und deutlich mehr SMs als GA102 haben wird.
Das Ding würde vermutlich endlich 5K Downsampling in jedem Spiel zu einer echten Option werden lassen.

Raff
2020-05-14, 10:13:20
Da fehlen aber Zahlen zur "echten" FP32-Leistung. Ich erwarte da nicht viel mehr als 20 TFLOPS. Und wenn das Ding derart HPC-ish ist, wird da auch nicht viel beim Raytracing gehen (äquivalent zu Volta über die ALUs). Schaumer mal.

MfG
Raff

Timbaloo
2020-05-14, 10:13:48
GA100 wird dann wohl maximal als Titan A (?) für Consumer verfügbar sein.
Hat man jemals was anderes erwartet? Ernstgemeinte Frage.

Zum Artikel: Erwähnenswert, dass RT mit keinem Wort erwähnt wird. GA100 also ohne RT-Cores?

Da fehlen aber Zahlen zur "echten" FP32-Leistung. Ich erwarte da nicht viel mehr als 20 TFLOPS. Schaumer mal. Und wenn das Ding derart HPC-ish ist, wird da auch nicht viel beim Raytracing gehen (äquivalent zu Volta über die ALUs).
Zu FP64 steht ja

The same device used for high-performance scientific computing can beat Volta’s performance by 2.5x (for double precision, 64-bit numbers).
Wenn man davon ausgeht, dass man das Verhältnis FP64/FP32 konstant lässt gegenüber Volta, dann wäre das milchmädchengenau auch 2.5x FP32-Durchsatz.

Raff
2020-05-14, 10:19:25
... was weit über 30 TFLOPS entspräche und absolut krank wäre. :naughty:

MfG
Raff

Troyan
2020-05-14, 10:22:25
Warum? Von 16nm auf 7nm sind zwei volle Prozessschritte. Alles unter einer Verdopplung bzw. doppelte Effizienzsteigerung wäre eher enttäuschend.

basix
2020-05-14, 10:24:59
Da fehlen aber Zahlen zur "echten" FP32-Leistung. Ich erwarte da nicht viel mehr als 20 TFLOPS. Und wenn das Ding derart HPC-ish ist, wird da auch nicht viel beim Raytracing gehen (äquivalent zu Volta über die ALUs). Schaumer mal.

MfG
Raff

Dort steht was von 2.5x FP64 performance. Es ist mir allerdings unklar, ob das jetzt "real" HPC FLOPs sind oder eine Vermischung von FP64 über die SMs und die Tensor Cores (was diese jetzt können sollen). In dem Artikel wird relativ viel "big number bingo" betrieben und Nvidia hat diese "up to" Zahlen auch in ihrem Marketing-Blut (RTX OPS anyone?). Aber ein weiteres Indiz um die 2.5x zu untermauern ist die Angabe zu GA100 vs. GV100. Anscheinend 7x so schnell bei BERT. Nimmt man 2x Tensor Cores pro SM raus ist man noch bei Faktor 3.5x. Jetzt kann Ampere anderweitig effizienter als Volta sein, dann könnte man schon 2-2.5x erreichen. Ein weiterer Punkt ist die Angabe bei DGX-A100. 5.0 PetaFLOPs sind genau 5x von DGX1. Hier wieder 2x Tensor Cores rausnehmen und man landet bei der Rohperformance bei 2.5x.

Bis jetzt hiess es in Gerüchten allerdings immer etwas von 1.4-1.7x.

Sind es bei 2.5x "real HPC" FP64 kann man das wohl auf die Gaming-Ableger übertragen, vorausgesetzt die Chipfläche ist ähnlich wie bei Turing (vermutlich aber eher kleiner) und der Herstellungsprozess ist bei GA10x gleichwertig (TSMC oder Samsung?). Und schon kommen wir den 1.5-1.7x wieder näher :D

Mal schauen, was der Nachmittag bringt. Von den 2.5x wäre ich aber dennoch positiv überrascht.

Raff
2020-05-14, 10:25:06
Warum? Von 16nm auf 7nm sind zwei volle Prozessschritte. Alles unter einer Verdopplung bzw. doppelte Effizienzsteigerung wäre eher enttäuschend.

Stimmt schon, Volta ist schon drei 3 Jahre im Amt und somit, in IT-Maßstäben, kalter Kaffee. Wir sind derartige Sprünge einfach nicht mehr gewöhnt. Vor gut 20 Jahren hatten wir die alle sechs Monate. :D

Dort steht was von 2.5x FP64 performance. Es ist mir allerdings unklar, ob das jetzt "real" HPC FLOPs sind oder eine Vermischung von FP64 über die SMs und die Tensor Cores (was diese jetzt können sollen). In dem Artikel wird relativ viel "big number bingo" betrieben und Nvidia hat diese "up to" Zahlen auch in ihrem Marketing-Blut (RTX OPS anyone?). Aber ein weiteres Indiz um die 2.5x zu untermauern ist die Angabe zu GA100 vs. GV100. Anscheinend 7x so schnell bei BERT. Nimmt man 2x Tensor Cores pro SM raus ist man noch bei Faktor 3.5x. Jetzt kann Ampere anderweitig effizienter als Volta sein, dann könnte man schon 2-2.5x erreichen. Bis jetzt hiess es in gerüchten allerdings immer etwas von 1.4-1.7x.

Sind es bei 2.5x "real HPC" FP64 kann man das wohl auf die Gaming-Ableger übertragen, vorausgesetzt die Chipfläche ist ähnlich wie bei Turing (vermutlich aber eher kleiner) und der Herstellungsprozess ist bei GA10x gleichwertig (TSMC oder Samsung?). Und schon kommen wir den 1.5-1.7x wieder näher :D

Mal schauen, was der Nachmittag bringt.

Effizienz und Nummernposerei ist schön. Wir brauchen einfach harte Äpfel-gegen-Äpfel-Zahlen der einzelnen Recheneinheiten. Inwiefern diese parallel arbeiten können, um die Effizienz zu erhöhen, steht auf einem anderen Blatt. Aber wie du schon sagtest, ab 15 Uhr wissen wir's hoffentlich genauer. :)

MfG
Raff

basix
2020-05-14, 10:31:30
Sorry, habe meinen Beitrag noch editiert. Das ist dazugekommen:
"Ein weiterer Punkt ist die Angabe bei DGX-A100. 5.0 PetaFLOPs sind genau 5x von DGX1. Hier wieder 2x Tensor Cores rausnehmen und man landet bei der Rohperformance bei 2.5x."

2.5x könnte sich also schon Bewahrheiten :D

Dural
2020-05-14, 10:54:02
Monster, es war so klar.

Sunrise
2020-05-14, 10:54:36
Mh, 6.144 Datenleitungen, lecker! =)

MfG,
Raff
War ja schon durch die notwendige BW quasi vorgegeben und auch durch diverse DB-Einträge bestätigt. NV baut eben immer ans Limit bei den Dingern.

Der einzige Wehrmutstropfen, wir werden sowas nicht kaufbar testen können, was schade ist. Ist aber beeindruckend, was möglich ist, wenn Geld keine Rolle spielt. NV muss aber auch, Intel sollte man nicht unterschätzen.

Troyan
2020-05-14, 10:57:25
Naja, was heißt "Geld spiele keine Rolle"? Um sowas bauen zu können, muss die Architektur auch effizient genug sein. AMD liegt bei 41 Millionen Transistoren pro mm^2. Ampere hat 50% mehr...

robbitop
2020-05-14, 11:03:16
Da fehlen aber Zahlen zur "echten" FP32-Leistung. Ich erwarte da nicht viel mehr als 20 TFLOPS. Und wenn das Ding derart HPC-ish ist, wird da auch nicht viel beim Raytracing gehen (äquivalent zu Volta über die ALUs). Schaumer mal.

MfG
Raff
Die aktuellen Gerüchte sprechen von 7936 SPs. Das wären fast 50% mehr SPs als GA102.

Volta war IMO eine Ausnahme, da deutlich vor Turing gelauncht. Prinzipiell ist Turing eine Weiterentwicklung von Volta. Ich würde darauf tippen, dass die SMs diesmal unter Ampere alle auch RT Cores haben.

Dampf
2020-05-14, 11:10:26
Das hört sich ja fantastisch an! Aber mal abwarten!

Dural
2020-05-14, 11:11:25
Glaube ich nicht, NV wird das wie mit Volta-Turing weiter führen, sprich der Gaming Ableger von Ampere wird was weg haben, dafür Sachen die Gaming relevant sind mehr haben.

Gaming und HPC wird sich immer wie mehr voneinander wegbewegen.

robbitop
2020-05-14, 11:13:58
Dann (wenn GA100 keine RT Cores haben sollte) dürfte die nächste Titan RTX allerdings auf GA102 basieren. Ansonsten wäre es ein technischer Rückschritt bezogen auf die jetzige Titan RTX.

Daredevil
2020-05-14, 11:17:00
Eher nicht. Huang hat letztes Jahr auch über Turing und Raytracing gesprochen, aber dieses Jahr steht wohl wieder HPC und viel mehr DL auf der Agenda.
Dieses Jahr gibt es allerdings keine Gamecon, wo der ganze Gaming Bums gezeigt werden kann. (:
So sicher wäre ich mir da also noch nicht.

BlacKi
2020-05-14, 11:17:40
die spannungsversorgung sieht komplett anders aus. neu und undefinierbar für mich.

Dieses Jahr gibt es allerdings keine Gamecon, wo der ganze Gaming Bums gezeigt werden kann. (:
So sicher wäre ich mir da also noch nicht.
gamescom soll soch notfalls online stattfinden. für mich die bessere gamescom.

pixeljetstream
2020-05-14, 11:17:51
Gaming und HPC wird sich immer wie mehr voneinander wegbewegen.
+1

Troyan
2020-05-14, 11:19:42
Also bei der Ankündigung nimmt man bezug auf Grafik:
Get Amped for Latest Platform Breakthroughs in AI, Deep Learning, Autonomous Vehicles, Robotics and Professional Graphics

Und in den Tags zur Keynote:
Topics: Autonomous Machines, Deep Learning - Use Cases & Success Stories, Deep Learning Inference - Optimization and Deployment, Graphics - Real-Time Rendering and Ray Tracing, AI Business Track, HPC & AI

Es ist nicht ausgeschlossen. Aber man sollte eben nicht seine Hoffnung drauf setzen.

Daredevil
2020-05-14, 11:20:49
gamescom soll soch notfalls online stattfinden. für mich die bessere gamescom.
Ja klar. Nvidia hat letztes Jahr allerdings auch die Gunst der drölftausend physischen Influenzern genutzt, um auf der GC ne RTX Welle zu machen.

Wenn sie jetzt was im Stream zeigen, hat es ja den selben Effekt, ob jetzt oder eben halt in ein paar Monaten zur GC.
Ich glaub zwar auch nicht dran, aber hoffen bzw. ein wenig deuten kann man ja vielleicht danach. :D

BlacKi
2020-05-14, 11:21:25
hoffentlich bekommt der dlss fred heute mehr futter

Sunrise
2020-05-14, 12:43:35
Naja, was heißt "Geld spiele keine Rolle"? Um sowas bauen zu können, muss die Architektur auch effizient genug sein. AMD liegt bei 41 Millionen Transistoren pro mm^2. Ampere hat 50% mehr...
Im Moment schlecht vergleichbar, GA100 wird auf 7nm+ sein (EUV) und da gewinnt man nochmal ordentlich Dichte und Effizienz. Natürlich sollte man trotzdem den Hut vor so einer Leistung ziehen, aber NV steckt die Ziele sowieso schon hoch und da überrascht mich persönlich das nicht. Siehe auch den Aktienkurs, der spiegelt exakt wieder, wie die Erwartungen an NV sind.

Spannend wird, wie stark NV hier an der Architektur optimieren konnte, also jetzt mal ohne Schwanzvergleich, denn was zählt ist was innen steckt.

Troyan
2020-05-14, 13:04:44
TSMC steht jedem Kunden mit den selben Möglichkeiten zur Verfügung. Microsoft ist auch nur bei 43 Millionen Transistoren pro mm^2. Wenn nVidia 50% mehr packen und eben bis zu 54 Mrd. bei <=350W laufen lassen kann, dann hat das nur sekundär mit dem Prozess zu tun sondern mit der Investition in die Architektur.

Jetzt sieht man doch erst, dass Navi auf 7nm ein ziemliches Versagen ist, wenn der Konkurrent 9 Monate später Lichtjahre voraus ist.

Leonidas
2020-05-14, 13:30:07
Wenn jetzt 8192 SP & 6144 Bit HBM2 kommen, sei daran erinnert, das Kopite7Kimi das alles schon im Mai 2019 (!) derart genannt hatte. Was auch bedeutet, das seine anderen Aussagen zu den weiteren Ampere-Chips an Gewicht gewinnen:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-mai-2020

Dampf
2020-05-14, 13:34:39
Wenn jetzt 8192 SP & 6144 Bit HBM2 kommen, sei daran erinnert, das Kopite7Kimi das alles schon im Mai 2019 (!) derart genannt hatte. Was auch bedeutet, das seine anderen Aussagen zu den weiteren Ampere-Chips an Gewicht gewinnen:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-mai-2020

Ja, diese Leaks von diesen Twitterern fand ich schon immer realistisch. So wirds wohl sein.

Hoffe nur, dieser Moores Law Typ bekommt keine Kredits wenn das stimmt, denn diese Infos hat er dreist von Twitter geklaut.

Sunrise
2020-05-14, 13:45:11
TSMC steht jedem Kunden mit den selben Möglichkeiten zur Verfügung. Microsoft ist auch nur bei 43 Millionen Transistoren pro mm^2. Wenn nVidia 50% mehr packen und eben bis zu 54 Mrd. bei <=350W laufen lassen kann, dann hat das nur sekundär mit dem Prozess zu tun sondern mit der Investition in die Architektur.

Jetzt sieht man doch erst, dass Navi auf 7nm ein ziemliches Versagen ist, wenn der Konkurrent 9 Monate später Lichtjahre voraus ist.
Wird schwierig ohne Grundstück ein Haus zu bauen, daher hat das natürlich sehr wohl primär auch etwas mit dem Prozess zu tun, wie dicht du packen kannst, weil das die Basis ist. Wie dicht du dein Haus auf das Grundstück bauen kannst, wird hier festgelegt. Die Kunst liegt natürlich darin, das Haus so zu bauen, dass wirklich alles vorhanden ist und hier wenig Abstriche gemacht werden müssen. Beides ergänzt sich, bei beidem wird NV nicht gekleckert haben.

Da NV um das Vielfache mehr R&D als AMD zur Verfügung hat und daher bei Ampere HPC eben wirklich alles reinpackt, was NV zur Zeit des Grunddesigns an IP zur Verfügung hatte, ist das eben teuer. Genauso wie alles, was TSMC beim Packaging an IP zur Verfügung hat. Auch das bekommt NV oder jemand anderes nicht geschenkt. Ist nur nicht so relevant, weil die Dinger so teuer sind, weil sie einzigartig sind, dass man sich das problemlos leisten kann.

Wäre das weniger, wäre das gelinde gesagt auch enttäuschend. An Ingenieurskunst hat es bei NV aber auch noch nie gemangelt.

Wenn jetzt 8192 SP & 6144 Bit HBM2 kommen, sei daran erinnert, das Kopite7Kimi das alles schon im Mai 2019 (!) derart genannt hatte. Was auch bedeutet, das seine anderen Aussagen zu den weiteren Ampere-Chips an Gewicht gewinnen:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-mai-2020
War wirklich sehr früh, auch wenn man vieles herleiten kann.

robbitop
2020-05-14, 13:54:27
Der hatte doch aber auch etwas von 8 nm Samsung geschrieben für GA102. Da bin ich noch recht skeptisch (möglich wär's aber). Die letzten Gerüchte sehen den 102 ja auch auf 7nm.

boxleitnerb
2020-05-14, 14:01:38
Spoileralert:

https://webcache.googleusercontent.com/search?q=cache:LF156Iu5XPwJ:https://www.eetimes.com/nvidia-reinvents-gpu-blows-previous-generation-out-of-the-water/+&cd=9&hl=en&ct=clnk&gl=in

Hab nur kurz überflogen, keine Ahnung ob es stimmt. Aber wenn ja...

Link geht nicht?

Wake
2020-05-14, 14:04:10
EE Times-Artikel screencap:

https://abload.de/img/1d29f4a30fce0e893aa7eepkxo.png

Dampf
2020-05-14, 14:08:53
https://twitter.com/VideoCardz/status/1260903348158554112

Sieht so als, als hätte Kitty felsenfeste Quellen. Das heißt, dieses Lineup wird sehr wahrscheinlich stimmen:

https://pbs.twimg.com/media/ES1eBPxUEAIEyGl?format=jpg&name=small

Grendizer
2020-05-14, 14:12:30
Das wäre dann eine 3070 mit nur 8 Gb und die 3060 wieder zurück auf 6GB? Und die 3080 Ti hat dann sagenhafter 12 Gb statt 11 ?

Timbaloo
2020-05-14, 14:12:57
Hier mal den Text kopiert, ohne Bilder oder deren Unerschriften:

Nvidia Reinvents GPU, Blows Previous Generation Out of the Water

Jensen Huang’s much-anticipated keynote speech today, postponed from Nvidia’s GPU Technology Conference (GTC) in March, will unveil the company’s eighth-generation GPU architecture. Emerging three years after the debut of the previous generation Volta architecture, Ampere is said to be the biggest generational leap in the company’s history.

Ampere is built to accelerate both AI training and inference, as well as data analytics, scientific computing and cloud graphics.

The first chip built on Ampere, the A100, has some pretty impressive vital statistics. Powered by 54 billion transistors, it’s the world’s largest 7nm chip, according to Nvidia, delivering more than one Peta-operations per second. Nvidia claims the A100 has 20x the performance of the equivalent Volta device for both AI training (single precision, 32-bit floating point numbers) and AI inference (8-bit integer numbers). The same device used for high-performance scientific computing can beat Volta’s performance by 2.5x (for double precision, 64-bit numbers).

Hundred billion-dollar industry
In a press pre-briefing ahead of Huang’s keynote today, Paresh Kharya, director of product management for accelerated computing at Nvidia said that the cloud is the biggest growth opportunity for the computer industry; it’s a hundred-billion dollar industry growing 40% per year.

“To advance this industry, what if we were able to create a data center architecture so it not only increases the throughput to scale up and scale out applications to meet their insatiable demands, but it’s fungible to adapt as the [workloads] are changing throughout the day. To create this fungible data center, we have to reimagine our GPU,” Kharya said.

Data centres’ infrastructure has become fragmented because of the diversity in applications, meaning they use compute clusters of many different types, including hardware for AI training separate to AI inference servers. The different compute types needed are difficult to predict as demand for applications can vary throughout the day.

“It’s impossible to optimize [today’s] data center for high utilization, or so the costs can be down and servers are running applications all the time,” Kharya said. “[Ampere]…unifies AI training and inference acceleration into one architecture. It provides massive scalability, so a single server can scale up as one giant GPU or scale out as 50 different independent accelerators. Our next generation GPU enables this flexible, elastic, universal acceleration, something that we’ve been seeking for a long time for multiple generations.”

Key innovations
Ampere is built on several new key technologies.

Nvidia invented a new number format for AI, Tensor Float 32 (TF32), which its third generation Tensor Cores support. For AI acceleration, working with the smallest number of bits is desirable, since that’s more efficient for computation and data movement, but this is traded off with the accuracy of the final result. TF32 aims to strike this balance using the 10-bit mantissa (which determines precision) from half-precision numbers (FP16), and the 8-bit exponent (which determines the range of numbers that can be expressed) from single-precision format (FP32) (read more about AI number formats here).

“With this new precision, A100 offers 20 times more compute for single-precision AI, and because developers can continue to use the inputs as single-precision and get outputs back as single-precision, they do not need to do anything differently. They benefit from this acceleration automatically out of the box,” Kharya said.

The Tensor Cores now also natively support double-precision (FP64) numbers, which more than doubles performance for HPC applications.

Nvidia is also using a feature of neural networks, called sparsity, to reduce their size and therefore double performance. Sparsity is a well-known phenomenon which involves identifying which branches of a network have little to no effect on the outcome and ignoring them, but it is complex to implement. Nvidia claims it has done so and that the results are both predictable and consistent, which doubles performance. This mainly benefits inference, but will also have an effect on training.

Another new capability, multi-instance GPU (MIG) allows multiple applications to run on the same GPU without having to share resources such as memory bandwidth. Previously, individual applications could hog the memory bandwidth, reducing performance for other applications. With MIG, each GPU instance gets its own dedicated resources, including compute cores, memory, cache and memory bandwidth. Each A100 can be partitioned into up to 7 pieces of varying size, and they operate completely independently. This level of flexibility is very attractive for data centers’ variable workloads which often comprise many jobs of different sizes.

In terms of delivered performance, Nvidia benchmarked its A100 against its leading Volta GPU running BERT (a large transformer network for natural language processing which, with 350 million parameters, is 10x the size of ResNet-50). The A100 beat its predecessors’ speed by a factor of 7. Further, if the A100 is partitioned (as above), it can run 7 BERT networks concurrently, in real time.

DGX-A100
Nvidia has built eight of these A100s into a cloud accelerator system it calls the DGX-A100, which offers 5 petaflops. Each DGX-A100 offers 20x the peak performance of previous generation DGX systems. Unlike predecessors, the new systems can be used not only for AI training but also for scale-up applications (data analytics) and scale-out applications (inference). Nvidia’s figures have a single rack of five DGX-A100s replacing 25 data centre racks of CPUs, consuming 1/20th of the power and costing a tenth of the capex for an equivalent CPU-based system.

A reference design for a cluster of 140 DGX-A100 systems with Mellanox HDR 200Gbps InfiniBand interconnects, the DGX-superPOD, can achieve 700 petaflops for AI workloads. Nvidia has built a DGX-superPOD as part of its own Saturn-V supercomputer, and the system was stood up from scratch within three weeks. Saturn-V now has nearly 5 exaflops of AI compute, making it the fastest AI supercomputer in the world.

DGX-A100 systems are already installed at the US Department of Energy’s Argonne National Laboratory where they are being used to understand and fight Covid-19.

Nvidia DGX A100 systems start at $199,000 and are shipping now.

Thunder99
2020-05-14, 14:15:12
Navi mit 7nm und Ampere mit 7nm 9Monate später released zu vergleichen ist falsch. Wenn dann bitte RDNA2 mit Ampere vergleichen.
Das Rad dreht sich weiter

Grendizer
2020-05-14, 14:18:37
Navi mit 7nm und Ampere mit 7nm 9Monate später released zu vergleichen ist falsch. Wenn dann bitte RDNA2 mit Ampere vergleichen.
Das Rad dreht sich weiter


Ja... wenn beides dann zeitgleich kommt. Aber nVidia kann nunmal auch nicht gegen etwas vergleichem von dem sie die Leistung offiziell nicht kennen können.:biggrin:

Leonidas
2020-05-14, 14:20:02
Sieht so als, als hätte Kitty felsenfeste Quellen. Das heißt, dieses Lineup wird sehr wahrscheinlich stimmen:


Die Quelle war der Kopite7kimi. Der hatte das alles schon notiert (bis auf die Speichermenge und die Performanceabschätzung).

Raff
2020-05-14, 14:23:08
https://twitter.com/VideoCardz/status/1260903348158554112

Sieht so als, als hätte Kitty felsenfeste Quellen. Das heißt, dieses Lineup wird sehr wahrscheinlich stimmen:

https://pbs.twimg.com/media/ES1eBPxUEAIEyGl?format=jpg&name=small

Das wäre furchtbar. Vor allem angesichts der "Fatness" und dem damit verbundenen "Habenwill-Faktor" von GA100.

MfG
Raff

Leonidas
2020-05-14, 14:24:51
Nachdem was VCZ schreibt, scheint GA100 nicht die doppelte, sondern die halbierte Anzahl an Tensor-Cores aufzuweisen:
https://videocardz.com/newz/nvidia-announces-tesla-a100-specifications

BlacKi
2020-05-14, 14:29:50
Das wäre dann eine 3070 mit nur 8 Gb und die 3060 wieder zurück auf 6GB? Und die 3080 Ti hat dann sagenhafter 12 Gb statt 11 ?
nur wenn 3080ti kein fullchip sondern salvage ist^^

Dural
2020-05-14, 14:34:34
54 Milliarden Transistoren :freak:

dildo4u
2020-05-14, 14:36:27
Stimmen die 400TDP?Passt vermutlich wenn das Ding mit 2.2Ghz läuft.

Sunrise
2020-05-14, 14:37:29
Nachdem was VCZ schreibt, scheint GA100 nicht die doppelte, sondern die halbierte Anzahl an Tensor-Cores aufzuweisen:
https://videocardz.com/newz/nvidia-announces-tesla-a100-specifications
Eigenartige Zahlen, die VCZ da hat. Egal wie ich rechne, es wird krumm. Beim SI und Speichermenge passt alles.

Stimmen die 400TDP?Passt vermutlich wenn das Ding mit 2.2Ghz läuft.
Die Power-Delivery scheint stark angewachsen, bzw. auch die notwendige Kühlung dafür, könnte ein Hinweis sein. Der Takt wäre brachial bei dem Brett.

Dural
2020-05-14, 14:41:24
2,2GHz wären ja auch "nur" 30TFlops.

Die Desktop Gaming Ableger werden somit sicher 2,5GHz+ haben / OC 3GHz ahoi.

Ravenhearth
2020-05-14, 14:50:58
Das wäre furchtbar. Vor allem angesichts der "Fatness" und dem damit verbundenen "Habenwill-Faktor" von GA100.

MfG
Raff
Ja, ich denke auch nicht, dass sie vorhaben die Preise zu reduzieren. Wenn die Performance-Angaben stimmen, bekommt man dann für $999 bis zu 40% mehr Leistung, und für $699 und $499 jeweils ca. 25% mehr als mit 2080S bzw. 2070S. Das ist quasi das absolute Minimum.

Platos
2020-05-14, 14:57:46
Ja, ich denke auch nicht, dass sie vorhaben die Preise zu reduzieren. Wenn die Performance-Angaben stimmen, bekommt man dann für $999 bis zu 40% mehr Leistung, und für $699 und $499 jeweils ca. 25% mehr als mit 2080S bzw. 2070S. Das ist quasi das absolute Minimum.

Aber das ganze mit weniger Speicher pro TFLOPS. Schon mit Turing hat man die 2080 gebracht, ca. auf 1080TI Leistung, aber mit 3GB weniger. Und jetzt soll ne 3070 kommen mit geschätzt ~ 20% mehr Leistung wie eine 1080Ti, aber schon wieder 4GB 3GB weniger?

Aus meiner Sicht ist das die totale Krücke. Genauso wie auch eig. alle anderen spekulierten Konfigurationen (mit diesen Speichermengen).

Nachdem was VCZ schreibt, scheint GA100 nicht die doppelte, sondern die halbierte Anzahl an Tensor-Cores aufzuweisen:
https://videocardz.com/newz/nvidia-announces-tesla-a100-specifications

Weniger Leistung wirds in diesem Bereich ja sicher nicht geben. Das müsste ja fast bedeuten, dass die Leistung der Tensorcores erheblich steigt?

Hakim
2020-05-14, 14:59:13
Link für stream?

Daredevil
2020-05-14, 15:00:48
Müsste gleich dann hier auftauchen:
https://www.youtube.com/user/nvidia/featured

Edit:
Hier gehts los
https://www.youtube.com/watch?v=bOf2S7OzFEg&list=PLZHnYvH1qtOZ2BSwG4CHmKSVHxC2lyIPL

https://abload.de/img/unben2annt1fjja.png

https://abload.de/img/unbenannthbkmj.png

Wake
2020-05-14, 15:01:02
Nvidia DGX-A100 datasheet (https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/nvidia-dgx-a100-datasheet.pdf)

CB: Nvidia A100: Ampere ist für KI eine 20 Mal schnellere GPU‑Architektur (https://www.computerbase.de/2020-05/nvidia-ampere-a100-gpu/)

Leonidas
2020-05-14, 15:01:05
Weniger Leistung wirds in diesem Bereich ja sicher nicht geben. Das müsste ja fast bedeuten, dass die Leistung der Tensorcores erheblich steigt?


Nein, das wäre ja nur GA100-bezogen. Das würde bedeuten, GA100 weicht noch mehr von Gaming-Ampere ab. Oder es ist eine Fehlinfo.

Ravenhearth
2020-05-14, 15:03:02
Aber das ganze mit weniger Speicher pro TFLOPS. Schon mit Turing hat man die 2080 gebracht, ca. auf 1080TI Leistung, aber mit 3GB weniger. Und jetzt soll ne 3070 kommen mit geschätzt ~ 20% mehr Leistung wie eien 1080Ti, aber schon wieder 4GB weniger?

Aus meiner Sicht ist das die totale Krücke. Genauso wie auch eig. alle anderen spekulierten Konfigurationen (mit diesen Speichermengen).
Ja, wenn Nvidia Pech hat, kommt Big Navi mit RTX 3080 Ti Performance und 16GB.

MiamiNice
2020-05-14, 15:05:46
Das wäre furchtbar. Vor allem angesichts der "Fatness" und dem damit verbundenen "Habenwill-Faktor" von GA100.

MfG
Raff

Das ist genau das was ich seit Wochen schreibe aber niemand hören will.
Die ganze Gaming Ampere Geschichte ist Verarschung und Low End im angesicht der Fatness von vom wahrem Ampere. Jeder Cent den man für Ampere ausgibt, weiß man genau, man kauft nur Abfall (2. Wahl what ever). Die erste Ampere Gen ist damit gestorben, ich warte auf den Nachfolger.

Wer soll 1400+€ für etwas zahlen wo jeder genau weiß das geht in 5 Monaten viel viel viel besser und zum selben Preis. Jeder Gaming Ampere Käufer verarscht sich quasi selbst.

Hauwech
2020-05-14, 15:08:19
https://twitter.com/VideoCardz/status/1260903348158554112

Sieht so als, als hätte Kitty felsenfeste Quellen. Das heißt, dieses Lineup wird sehr wahrscheinlich stimmen:

https://pbs.twimg.com/media/ES1eBPxUEAIEyGl?format=jpg&name=small

Vom Ram her wäre das schon irgendwie ein wenig mau wenn es so kommt. Das ein 512er Interface jetzt nicht unbedingt zu erwarten war, ok. Aber 1,5er Chips hätten es bei 104, 106 und 107 schon sein dürfen. Bei 103 und 102 dann 2GBit Chips damit sie sich doch deutlicher absetzen. Vielleicht heben sie es sich für einen Refresh auf.

Sofern die "besseren" PCBs für höheren Speichertakt und diese (gerüchteweise?) besseren AI-Kompressionsverfahren von top-to-bottom eingesetzt werden mag das vielleicht den erwarteten/erhofften größeren Ram ein biiiiiiisschen kompensieren aber es bleibt ein sehr fader Beigeschmack wenn es tatsächlich so kommen sollte.

Andererseits, vielleicht weiss nVidia in etwa was von AMD kommen wird und falls es da so ähnlich aussieht, warum sollten sie was verschenken? Bis auf die R7 und die Pro Karten gibts da bis dato auch nichts mit > 8GB.

Grendizer
2020-05-14, 15:08:23
Cool, was nVidia für die Forschung tun kann....

Neurosphere
2020-05-14, 15:08:24
Naja, wenn das für die 3080 TI stimmen sollte mit den "Up to 140%" wäre das nun nicht unbedingt ein Knüller.

Die 2080 ti hat damals auch ähnlich gegen die 1080 ti abgeschnitten, im Endeffekt also ein ganz normaler Sprung für eine neue Gen.

Wake
2020-05-14, 15:09:13
8 YT-Videos sind nun up, ein Video mit Kapitel ist ja zu schwierig...

Sunrise
2020-05-14, 15:11:30
Cool, was nVidia für die Forschung tun kann....
Da wird alles geritten, was aktuell „in“ ist, herrlich diese Heilsbringer...

...leider hat er zum großen Teil Recht, die Welt wird mehr und mehr zur Tech-Welt in welcher die Abhängigkeit davon immer größer wird.

pilzsammler2002
2020-05-14, 15:12:08
The Tensor Cores now also natively support double-precision (FP64) numbers, which more than doubles performance for HPC applications.

Nvidia is also using a feature of neural networks, called sparsity, to reduce their size and therefore double performance. Sparsity is a well-known phenomenon which involves identifying which branches of a network have little to no effect on the outcome and ignoring them, but it is complex to implement. Nvidia claims it has done so and that the results are both predictable and consistent, which doubles performance. This mainly benefits inference, but will also have an effect on training.

Sollte man sowas bei FP64 / double precision nicht tunlichst unterlassen :freak:
Also einfach mal was weglassen weil die KI das meint...

JaniC
2020-05-14, 15:13:05
20 Videos da auf dem nvidia YouTube Channel, ich warte auf einen Summary Artikel, 90% davon ist eh irrelevant.

Sach mir, wieviel % die 3080 (Ti) schneller ist in 4K als meine 2080 und wat der Hobel kosten wird, dann is gut. ;)

Ravenhearth
2020-05-14, 15:15:59
https://i.imgur.com/j7P5BGn.jpg

maximus_hertus
2020-05-14, 15:16:35
20 Videos da auf dem nvidia YouTube Channel, ich warte auf einen Summary Artikel, 90% davon ist eh irrelevant.

Sach mir, wieviel % die 3080 (Ti) schneller ist in 4K als meine 2080 und wat der Hobel kosten wird, dann is gut. ;)

Wir wecken dich wenn es soweit ist, also vielleicht 2021... ;) Gute Nacht!

Ex3cut3r
2020-05-14, 15:22:21
20 Videos da auf dem nvidia YouTube Channel, ich warte auf einen Summary Artikel, 90% davon ist eh irrelevant.

Sach mir, wieviel % die 3080 (Ti) schneller ist in 4K als meine 2080 und wat der Hobel kosten wird, dann is gut. ;)

Häää? Sowie ich das verstanden habe, haben die Videos aber nichts mit Gaming Ampere zu tun....Vlt.kommt was zur Gamescom im September...ach nee....geht auch nicht wegen Corona. Vlt. 2021, wir sehen uns. :wink:

Ravenhearth
2020-05-14, 15:25:14
Sind bei A100 tatsächlich 20 SMs deaktiviert oder hat der Chip gar keine 8192 Cores? Und ein Teil des Speichercontrollers auch?

Leonidas
2020-05-14, 15:30:13
DAT war jetzt noch weniger als erwartet. Falls es jemand falsch auffasst: A100 ist eine HPC-SKU und nicht der eigentliche Grafikchip. Ergo kein Wort zum eigentlichen Grafikchip.

Grendizer
2020-05-14, 15:30:32
Marble Madness :biggrin:

Dampf
2020-05-14, 15:36:12
Bitte, ich brauch dieses Murmel Spiel.

BlacKi
2020-05-14, 15:51:06
alter ist das zusammengeschnitten... teilweise echt komisch

mironicus
2020-05-14, 16:06:49
He, He! NVidia verbaut AMD 64 Kern-CPU (ROME) zusammen mit den Ampere-GPUs. :)

Sweepi
2020-05-14, 16:11:08
Woher kommen die FP32 und FP64 Zahlen bei Anandtech her?
Im Video sind die Zahlen anders:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70186&stc=1&d=1589465416
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70187&stc=1&d=1589465416

pilzsammler2002
2020-05-14, 16:12:18
8x (die besagten) 2,5 = 20 :)

Sweepi
2020-05-14, 16:15:59
Welche 2.5?

(Alles in TFLOPS FP64)
Laut Anandtech:
V100: 7.8
A100: 9.7

Laut nVidia:
V100: 8 (kommt gerundet hin)
A100: 20 (??)

BlacKi
2020-05-14, 16:19:49
typo?

Sweepi
2020-05-14, 16:21:26
Anandtech oder nVidia?

V100: 5120 Cores in 21.1B Transistoren auf 815mm2 in 12 nm TSMC
A100: 6912 Cores in 54.2B Transistoren auf 826mm2 in 7N nm TSMC
Wo geht die Fläche hin? Alles Tensor?


Oh:

In their specification graphics, they say general FP64 is still 9.7 but the Tensor Core matrix multiplication units can bump it to ~19.5. So the truth is in between.


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70188&stc=1&d=1589466227

Dural
2020-05-14, 16:27:15
A100 besteht aus 7 "GPUs", die unabhängig Arbeiten können.

Wird seit etwa 10 Jahren AMD nachgesagt, und NV liefert es jetzt mal ab.

HOT
2020-05-14, 16:27:17
Für seinen Anwendungszweck ist das sicher extrem cool, aber die reinen Daten der Grafik sind doch sehr enttäuschend. Nur N7, nur 1,41GHz und trotzdem 400W, keine 128SMs, offenbar kein HBM2e usw. wollen wir mal hoffen, dass die Grafik ne andere Liga wird.

Dural
2020-05-14, 16:29:29
Takt bin ich auch entäuscht, weniger als mit 12nm :rolleyes:

pilzsammler2002
2020-05-14, 16:29:32
2,5 x performance?
Kann ja sein das Videocardz die Folien "predicted" hat...

Ich bin immernoch überrascht über die AI FP64... Das wird doch wahrscheinlich keiner nutzen oder?

basix
2020-05-14, 16:35:53
2,5 x performance?
Kann ja sein das Videocardz die Folien "predicted" hat...

Ich bin immernoch überrascht über die AI FP64... Das wird doch wahrscheinlich keiner nutzen oder?

Muss ja kein AI sein. Auch in wissenschaftlichen Anwendungen könnten Matrizen-Operationen nützlich sein. Um hohe Performance zu erreichen werden Vektorrechner eingesetzt. Eine Matrize kann man als 2D-Vektor oder gar 3D-Vektor ansehen, da gibt es sicher Anwendungsfälle.

AI-Performance und alles drum herum ist top. GPGPU Effizienzsteigerung in FLOPS ist eher meh.

mironicus
2020-05-14, 16:37:18
Ihr geht doch jetzt nicht davon aus, dass eine RTX 3080 Ti diesen riesigen Chip drauf hat, oder?

Wenn AMD einen 500 nm² Chip bringt, der mit einer vermeintlichen 3080 Ti mithalten kann, dann wird das ein Verlustgeschäft für NVidia.

Sweepi
2020-05-14, 16:40:42
noe, das ist der 100er chip, die x80 Ti kommt ja traditionell mit dem 102er

Ab hier gibt es 2 Wege:
1) Der A102 wird schneller als der A100 in FP32
2) Keine grosse Steigerung vom T102 zum A102, Kaufanreize kommen durch RTX, DLSS, RTX Voice, ..?

HOT
2020-05-14, 16:42:48
Das wird schon gehen mit dem A102. 80 SMs mit 1,9-2,1GHz wirds schon werden. Das reicht auf jeden Fall um >30% schneller zu sein als die alte Gen. Vielleicht geht es mit 7LPP (also Samsung offenbar) ja etwas besser als mit N7.

pilzsammler2002
2020-05-14, 16:43:22
Muss ja kein AI sein. Auch in wissenschaftlichen Anwendungen könnten Matrizen-Operationen nützlich sein. Um hohe Performance zu erreichen werden Vektorrechner eingesetzt. Eine Matrize kann man als 2D-Vektor oder gar 3D-Vektor ansehen, da gibt es sicher Anwendungsfälle.

AI-Performance und alles drum herum ist top. GPGPU Effizienzsteigerung in FLOPS ist eher meh.

Ich meinte es allg. auf FP64 bezogen. Man benutzt Fp64 umd ja möglichst genau berechnungen durchzuführen. Damit es nicht zu Rundungsfehlern etc. kommt.

Jetzt wird bei Nvidia aber "AI" (Normal+Tensor) FP64 beworben, was das Ergebniss aber nur "minimal bis gar nicht verfälscht"... Das ist aber genau das Gegenteil was man von FP64 erwartet bzw. warum man FP64 überhaupt benutzt... :freak:

Mangel76
2020-05-14, 16:44:54
2,2GHz wären ja auch "nur" 30TFlops.

Die Desktop Gaming Ableger werden somit sicher 2,5GHz+ haben / OC 3GHz ahoi.

;D

Sweepi
2020-05-14, 17:00:15
Das wird schon gehen mit dem A102. 80 SMs mit 1,9-2,1GHz wirds schon werden. Das reicht auf jeden Fall um >30% schneller zu sein als die alte Gen. Vielleicht geht es mit 7LPP (also Samsung offenbar) ja etwas besser als mit N7.
80 SMs -> 5120 Cores
1.9 GHz Takt ist ein interessanter Vorschlag, denn damit wäre der A102 immerhin auf dem Papier minimal langsamer (1.946 TF) als der A100 (1.949 TF) in FP32...
Bei 2.1 GHz sinds schon 2.15 TF.

basix
2020-05-14, 17:11:09
Ich meinte es allg. auf FP64 bezogen. Man benutzt Fp64 umd ja möglichst genau berechnungen durchzuführen. Damit es nicht zu Rundungsfehlern etc. kommt.

Jetzt wird bei Nvidia aber "AI" (Normal+Tensor) FP64 beworben, was das Ergebniss aber nur "minimal bis gar nicht verfälscht"... Das ist aber genau das Gegenteil was man von FP64 erwartet bzw. warum man FP64 überhaupt benutzt... :freak:

Wer sagt, das die Tensor FP64 weniger genau rechnen? FP64 ist ein IEEE 754 Standard. Genau so wie FP16. Ungenau wird das Resultat nur durch das AI-Network und dessen geringere Präzision (oder Nvidia hat für FP64 den IEEE 754 Standard nicht angewendet / befolgt). Rechnet man "normale" Daten mit FP16 oder neu FP64 auf den Tensor Cores (keine Runterskalierung auf weniger genaue Datentypen, kein AI-Network) sollte es eben zu keiner geringigeren Präzision führen als auch zu einem 100% deterministischen Output. Wenn ich FP32 Eingangsdaten auf FP16 runterskaliere wird es ungenauer. Das passiert mit den FP64 Daten ja nicht ;)

Ravenhearth
2020-05-14, 17:17:02
A100 besteht aus 7 "GPUs", die unabhängig Arbeiten können.

Wird seit etwa 10 Jahren AMD nachgesagt, und NV liefert es jetzt mal ab.
AMD wurde nachgesagt, eine größere GPU aus mehreren Chiplets zu bauen, das hier ist der genau umgekehrte Fall: Eine große monolithische GPU kann 7 unabhängige Instanzen bearbeiten.

pilzsammler2002
2020-05-14, 17:17:09
Wer sagt, das die Tensor FP64 weniger genau rechnen? FP64 ist ein IEEE 754 Standard. Genau so wie FP16. Ungenau wird das Resultat nur durch das AI-Network und dessen geringere Präzision (oder Nvidia hat für FP64 den IEEE 754 Standard nicht angewendet / befolgt). Rechnet man "normale" Daten mit FP16 oder neu FP64 auf den Tensor Cores (keine Runterskalierung auf weniger genaue Datentypen, kein AI-Network) sollte es eben zu keiner geringigeren Präzision führen als auch zu einem 100% deterministischen Output. Wenn ich FP32 Eingangsdaten auf FP16 runterskaliere wird es ungenauer. Das passiert mit den FP64 Daten ja nicht ;)

"Little to no impact" liest sich schon so als wenn es etwas ungenauer wäre :freak:

y33H@
2020-05-14, 17:28:13
A100 besteht aus 7 "GPUs", die unabhängig Arbeiten können. Wird seit etwa 10 Jahren AMD nachgesagt, und NV liefert es jetzt mal ab.So ein Bullshit :rolleyes: es geht hier um GPU-Instanzen, sprich vGPUs.
The new Multi-Instance GPU (MIG) feature allows the A100 Tensor Core GPU to be securely partitioned into as many as seven separate GPU Instances for CUDA applications, providing multiple users with separate GPU resources to accelerate their applications.
https://devblogs.nvidia.com/nvidia-ampere-architecture-in-depth/

Raff
2020-05-14, 17:29:29
Stark gefiltertes Aggregat der Info-Bombe inkl. Unterscheidung zwischen Chip (GA100) und Produkt (A100): Nvidia A100 (Ampere): Die technischen Daten des Next-Gen-Rechenmonsters (https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/Specials/Technische-Daten-1350209/)

MfG
Raff

y33H@
2020-05-14, 17:30:27
Vollausbau des GA100 hat 128 SMs und 6144 Bit, die (Tesla) A100 hat nur 108 SMs und 5120 Bit.

Edgecrusher86
2020-05-14, 17:31:48
Blockschalt-Diagramm - 128 SM theor., wie erwartet:

https://abload.de/img/ga100_fullzdjkw.png

Quelle:
https://developer.download.nvidia.com/devblogs/ga100-full-gpu-128-sms.png


https://devblogs.nvidia.com/nvidia-ampere-architecture-in-depth/ (https://devblogs.nvidia.com/nvidia-ampere-architecture-in-depth/)

Also 20SM deaktiviert. Ja, es ist schon ein Unterschied zu Volta in optimierter 16FF+ Fertigung. Die Yields wären sicher absolut unterirdisch, wenn sie bis zu 124/128SM aktiv hätten, wie das größte ES damals betrieben wurde.
Mal sehen, wie stark Arcturus wird - evtl. legt man dieses mal bei NV ja nicht nur an VRAM+Bandbreite+Takt nach, sondern auch mit Einheiten bis zu 7936 in 2021. Zumindest das Upgrade auf 48GB(+) und 1,92 TB/s @ 6144-bit SI dürfte kommen.

Eine kommende TITAN würde wohl mit 108SM + 4096-bit (1,28 TB/s) und 32GB Sinn ergeben. Eventuell spendiert man dieser dann auch NVL, zumindest, dass sich zwei Karten betreiben lassen können. Ich erwarte einen gesalzenen Preis von $/€3000-5000. So eine Karte könnte man auch einige Monate VOR der 3080 Ti bringen; die Zeit wird es zeigen.
Interessant wird sein, ob sie es wirklich wagen, nur maximal 12GB für den "normalen Enthusiasten" unterhalb einer TITAN zu bringen - das wäre doch arg wenig und zudem ein Stillstand über fünf Jahre (ähnlich Intel und 14nm). Big Navi Highend dürfte wohl entweder weiterhin mit 16GB HBM2(e) oder 24GB GDDR6 kommen.
Das würde nicht gut aussehen, wenn man hier unter Umständen nur die Hälfte bringt für vermutlich locker $/€ 1500 @ FE.
Auch eine mögliche RTX 3070 mit fast RTX 2080 Ti Leistung und weiterhin 8GB wäre ein ziemliches Desaster in meinen Augen.

Dural
2020-05-14, 17:32:14
"GPUs"

:rolleyes::rolleyes::rolleyes:

Das es eine ist dürfte wohl jedem klar und ersichtlich sein...

basix
2020-05-14, 17:37:27
Eine kommende TITAN würde wohl mit 108SM + 4096-bit (1,28 TB/s) und 32GB Sinn ergeben. Eventuell spendiert man dieser dann auch NVL, zumindest, dass sich zwei Karten betreiben lassen können. Ich erwarte einen gesalzenen Preis von $/€3000-5000. So eine Karte könnte man auch einige Monate VOR der 3080 Ti bringen; die Zeit wird es zeigen.

Eine Titan ohne Raytracing Einheiten? Glaube nicht, dass das einen Spieler anziehen würde.

Sweepi
2020-05-14, 17:38:51
Vollausbau des GA100 hat 128 SMs und 6144 Bit, die (Tesla) A100 hat nur 80 SMs und 5120 Bit.

Stimmt.


The NVIDIA GA100 GPU is composed of multiple GPU processing clusters (GPCs), texture processing clusters (TPCs), streaming multiprocessors (SMs), and HBM2 memory controllers.

The full implementation of the GA100 GPU includes the following units:

8 GPCs, 8 TPCs/GPC, 2 SMs/TPC, 16 SMs/GPC, 128 SMs per full GPU
64 FP32 CUDA Cores/SM, 8192 FP32 CUDA Cores per full GPU
4 third-generation Tensor Cores/SM, 512 third-generation Tensor Cores per full GPU
6 HBM2 stacks, 12 512-bit memory controllers

The A100 Tensor Core GPU implementation of the GA100 GPU includes the following units:

7 GPCs, 7 or 8 TPCs/GPC, 2 SMs/TPC, up to 16 SMs/GPC, 108 SMs
64 FP32 CUDA Cores/SM, 6912 FP32 CUDA Cores per GPU
4 third-generation Tensor Cores/SM, 432 third-generation Tensor Cores per GPU
5 HBM2 stacks, 10 512-bit memory controllers


https://devblogs.nvidia.com/nvidia-ampere-architecture-in-depth/

Ravenhearth
2020-05-14, 17:45:53
"GPUs"

:rolleyes::rolleyes::rolleyes:

Das es eine ist dürfte wohl jedem klar und ersichtlich sein...
Und wo ist dann der Bezug zu dem, was AMD seit 10 Jahren nachgesagt wird? :rolleyes:

Edgecrusher86
2020-05-14, 18:08:05
Eine Titan ohne Raytracing Einheiten? Glaube nicht, dass das einen Spieler anziehen würde.

Ich schon, wenn die restliche Leistung passt. Solange die Karte das schnellste am Markt für Rasterizing wäre, werden sicherlich genug Karten auch ihren Weg in luxuriöse Gaming-Systeme finden -
auch z.B. 32GB VRAM mit 1+ TB/s wäre sicherlich ein gern gesehener Pluspunkt. Es ist ja außerdem nicht so, dass RT nicht laufen würde - der Sprung zu Volta dürfte schon spürbar sein. :cool:

E: DLSS würde ja auch ohne Einschränkungen gehen - da braucht es ja nur TC. Dann könnte man unter Umständen auch gute Ergebnisse inkl. RT erziehlen.

Sunrise
2020-05-14, 18:13:27
Ich schon, wenn die restliche Leistung passt. Solange die Karte das schnellste am Markt für Rasterizing wäre, werden sicherlich genug Karten auch ihren Weg in luxuriöse Gaming-Systeme finden -
auch z.B. 32GB VRAM mit 1+ TB/s wäre sicherlich ein gern gesehener Pluspunkt. :cool:
Den sowieso schon hochpresigen Markt noch weiter zu verengen halt ich für keine gute Idee, ums mal diplomatisch auszudrücken. Raytracing wird am Ende des Jahres jeden packen und dann gibts nur noch alten Schrott.

Ghost1nTh3GPU
2020-05-14, 18:18:01
Die für Gaming Ampere interessante Metrik FP32/Watt gibt man leider nicht an. Da werden es für die 30% gegenüber V100 hoffentlich keine 400W sein.

Da wird man bei klassischer Performance wohl keine großen Sprünge erwarten können. Wenn jedoch Tensor eingesetzt wird, können wohl selbst die kleinen GPUs sich das PetaTOP (Binary TC) auf die Packung schreiben.

Screemer
2020-05-14, 18:20:32
Gab's schon Mal >35% deaktivierte SMs? Das find ich ziemlich viel bei so einem Produkt. Da scheint die yield rate ziemlich bescheidens und auch die Entscheidung zu Gunsten von Gewinnoptimierung gefallen zu sein anstatt mehr Leistung zur Verfügung zu stellen. Oder liegt ich da falsch?

80 SMs sind ja Turing...

basix
2020-05-14, 18:21:03
"Little to no impact" liest sich schon so als wenn es etwas ungenauer wäre :freak:

Hat sich geklärt. Ist IEEE kompatibel und somit voll Science fähig. Jensen hat es nur etwas unglücklich ausgedrückt ;)
"IEEE-compliant FP64 Tensor Core instructions for HPC"

https://devblogs.nvidia.com/nvidia-ampere-architecture-in-depth/?ncid=afm-chs-44270&ranMID=44270&ranEAID=a1LgFw09t88&ranSiteID=a1LgFw09t88-jVbzshl_EMy.FrAxsK8P0Q



Was mich nun interessieren würde: Kann man Tensor Cores und Shader-Units concurrent laufen lassen?

pixeljetstream
2020-05-14, 18:57:32
Was mich nun interessieren würde: Kann man Tensor Cores und Shader-Units concurrent laufen lassen?

Ja, sieht man hier zum Beispiel

https://www.techpowerup.com/forums/attachments/qr86ctlnbfwcrcfc-jpg.119117/

basix
2020-05-14, 19:07:47
Kann man dann die TC FP64 FLOPS mit den normalen FP64 FLOPS addieren? Zumindest in der Theorie, wenn keine der beiden Einheiten bottlenecked ist?

fondness
2020-05-14, 19:19:02
Vollausbau des GA100 hat 128 SMs und 6144 Bit, die (Tesla) A100 hat nur 80 SMs und 5120 Bit.

Really? Die deaktivieren mehr als 1/3 des Chips beim Topdog?

Dampf
2020-05-14, 19:23:45
Also unterstützen die Tensor Cores jetzt Fp32? Soll heißen, Fp32 bei Ampere wird genauso beschleunigt wie FP16 bei Turing. Das könnte doch bedeuten, dass die Gaming Performance bei Ampere enorm zunimmt, da die ganze Spielgrafik in FP32 läuft, somit werden dann die Tensor Cores automatisch für Spieleffekte genutzt. Oder seh ich das falsch?

Daredevil
2020-05-14, 19:27:41
Ich fand in der Präse sehr nennenswert, wie sehr über DLSS gesprochen wurde und leite zumindest daher ab, dass das sicherlich nicht das Ende sein wird mit der 2.0 "Version". :)

Wenn man 1080p Material mit 560p Ausgang darstellen kann, teilweise sogar besser, müssen wir vielleicht gar nicht mehr nach schnellen GPUs Ausschau halten, nur eben nach ganz besonders klugen. (:
Es ist für den Heimanwender halt sehr Ressourcen schonend und das bringt einem viel, bei seinem eigenen Usecase. Völlig egal, ob man mit ner 2060 einfach nur viel FPS möchte, oder selbst einem mit ner 2080ti Eyecandy wichtig ist. Egal ob man RTX nutzen will, oder nicht.

Man kommt an der Stelle allerdings stark in Nvidias Ökosystem, wo man dann nicht mehr so schnell flüchten kann. :<

|MatMan|
2020-05-14, 19:31:48
Kann man dann die TC FP64 FLOPS mit den normalen FP64 FLOPS addieren? Zumindest in der Theorie, wenn keine der beiden Einheiten bottlenecked ist?
Bei Turing sind die Tensor Cores ja quasi aufgeblähte FP16 Einheiten. Da konnte man also die Tensor Cores nicht zum regulären FP16 Speed hinzurechnen (außer vielleicht man hätte die FP32 Units dafür benutzt). Spannende Frage also ob die FP64 Tensor Cores separat zu den regulären FP64 Alus sind!

Ansonsten sind die FP64 Tensor Cores echt interessant für HPC / GPGPU. Praktisch alles was auf GPUs gut skalieren soll, arbeitet mit großen Matritzen und eine Matrix-Muliplikation ist dermaßen grundlegend, dass die Tensor Cores schon etwas bringen sollten.

Ob die Gaming Ableger für die Software Kompatibilität zumindest eine sehr geringe Anzahl der FP64 Tensor Cores bekommen? Das würde ich sehr cool zum entwickeln / testen finden. Bisher hatten die Consumer Produkte ja immer dieselben Compute Capabilities wie die Profi Chips, nur mit viel weniger Geschwindigkeit...

Fliwatut
2020-05-14, 19:33:34
Wenn man 1080p Material mit 560p Ausgang darstellen kann, teilweise sogar besser, müssen wir vielleicht gar nicht mehr nach schnellen GPUs Ausschau halten, nur eben nach ganz besonders klugen. (:
Es werden nur halt leider sehr wenig Spiele unterstützt :frown:

Leonidas
2020-05-14, 19:36:19
V100: 5120 Cores in 21.1B Transistoren auf 815mm2 in 12 nm TSMC
A100: 6912 Cores in 54.2B Transistoren auf 826mm2 in 7N nm TSMC


Beides falsch. GV100 hat 5376SP und GA100 hat 8192SP. Bitte nicht von teil-deaktivierten SKUs ausgehen.




A100 besteht aus 7 "GPUs", die unabhängig Arbeiten können. .


Die können logisch so operieren. Silizium-technisch ist es ein Chip.





Eine Titan ohne Raytracing Einheiten? Glaube nicht, dass das einen Spieler anziehen würde.


Exakt. Dieser GA100-Chip ist nicht mehr für eine Titan oder andere Gaming-Lösung verwendbar.

Troyan
2020-05-14, 19:40:57
Also unterstützen die Tensor Cores jetzt Fp32? Soll heißen, Fp32 bei Ampere wird genauso beschleunigt wie FP16 bei Turing. Das könnte doch bedeuten, dass die Gaming Performance bei Ampere enorm zunimmt, da die ganze Spielgrafik in FP32 läuft, somit werden dann die Tensor Cores automatisch für Spieleffekte genutzt. Oder seh ich das falsch?

Nein, es ist ein neues Format. Ob das Verfahren auch für Spiele übertragbar ist, wird interessant sein. Laut nVidia sei es für das Trainieren von Netzwerken nicht nachteilig.

Da die TensorCores nun im Durchfluss 4x besser sind, ist deswegen auch der FP16 Durchsatz ohne TensorFlops 4x besser? Oder eine fehlerhafte Angabe?

nordic_pegasus
2020-05-14, 19:59:02
Exakt. Dieser GA100-Chip ist nicht mehr für eine Titan oder andere Gaming-Lösung verwendbar.

wenn die Daten aus dem Leak von Kitty wirklich stimmen sollten, kann man die 3080Ti sicherlich den GA102 mit 5120 Shadern unterstellen und bei der Titan den GA102 mit vollen 5376 Shadern erwarten. Bei 100% Preisaufschlag für 5% Mehrleistung.

Nur beim Speicher kann man Nvidia nur schwer einschätzen. Ich befürchte nochmal 11/24 GB für die 3080Ti/Titan.

Achill
2020-05-14, 20:41:32
Irgendwie habe ich es hier noch gar nicht gelesen (ist auch etwas OT) aber die eigentliche Vorstellung war doch nicht Ampere (ohne hier die Bedeutung herunter spielen zu wollen) sondern der Push des eigenen Ökosystems und mit der Referenz auf Corvid-19 auch bestens den Nerf der aktuellen Zeit getroffen.

Imho ist hier auch gar nicht mehr AMD Konkurrenz sondern NV hat das Feld gegen andere Firmen in den angesprochenen SW-Segmenten eröffnet bzw. jetzt noch einmal klar Herausgestellt.

Das Produkt ist der abgestimmte SW-Stack, Vorbereitete Lösungen für bekannte/gelöste Probleme, trainierte Modelle und damit auf eine breite Zahl von Einsatzgebieten in verschiedensten Industriezweigen ausgerichtet. Einer der Unique Selling Points ist die Möglichkeit alles aus einer Hand zu bekommen - mit allen Vor- und Nachteilen.

BoMbY
2020-05-14, 21:03:35
Ja, und das wird sich alles bald ändern wenn erstmal die ganzen Supercomputer mit AMD-Beschleunigern ausgerollt werden (Frontier, El Capitan und etliche kleinere). Der vermutete Exascale Heterogeneous Processor dürfte es für NVidia deutlich schwerer machen im HPC-Markt, und der Software-Stack dafür hat auch ein ordentliches Budget.

Und bis jetzt hat man auch noch nicht mal was von AMD's erster CDNA-Karte (Arcturus) gesehen.

Ist aber immer wieder lustig wie viele Leute durch ein einziges Produkt hätte NVidia plötzlich "gewonnen". Wobei das Produkt dann mal schlappe $200K kostet (Edit: Das sind mehr als $20k für eine GA100-Karte) und dazu noch 6500 Watt verbrät, was für die Leistung nicht schlecht ist, aber auch keine Offenbarung.

Grendizer
2020-05-14, 21:11:38
Ja... das mag sein. Ich bin da nicht vom Fach, aber als Außenstehender habe ich den Eindruck, das nVidia ein riesen Portfolio an Hard- und Software für alle möglichen Probleme im Forschungsbereich bieten kann.

Und von AMD bekomme ich nur den Eindruck, das es zwar ab und an mal Workstationkarten gibt und das höchste der Gefühle ist, das es den AMD Pro Renderer gibt.

Troyan
2020-05-14, 21:15:02
nVidia hat nicht plötzlich gewonnen sondern schon seit Jahren. Ampere ist einfach der nächste Schritt.

In deren Keller steht jetzt ein fast 90 Petaflops Supercomputer, der 5. schnellste auf diesem Planeten. Der schnellste Supercomputer, wenn es zu DL kommt.

Wen interessiert AMDs erste "CDNA"-Karte, wenn diese schon veraltet ist. Ampere wird der Goldstandard werden, anderen selbst Firmen wie Xilinx zu knabbern haben.

Tarkin
2020-05-14, 21:30:49
Ja... das mag sein. Ich bin da nicht vom Fach, aber als Außenstehender habe ich den Eindruck, das nVidia ein riesen Portfolio an Hard- und Software für alle möglichen Probleme im Forschungsbereich bieten kann.

Und von AMD bekomme ich nur den Eindruck, das es zwar ab und an mal Workstationkarten gibt und das höchste der Gefühle ist, das es den AMD Pro Renderer gibt.

Und die meisten neuen Supercomputer wie Frontier, El Capitan und zick andere.

Komisch, wenn nvidia doch so toll ist, dass AMD hier das Rennen gemacht hat.

Das ist mal wieder typisch.. "nVidia has won" bevor AMD alle "Karten" auf den Tischs gelegt hat :rolleyes:

Grendizer
2020-05-14, 21:39:01
Mache ich ja nicht, wie gesagt, das ist einfach so die Wirkung als komplett Aussenstehender, wenn man so Techmainstream wie heise.de liest und sich nicht mit den Spezialthemen wirklich beschäftigt.

edit: z.B. wegen sowas:

https://www.heise.de/newsticker/meldung/Deutschland-bekommt-zwei-Supercomputer-mit-Nvidia-Ampere-und-Intel-Ice-Lake-SP-4721166.html

Deutschland bekommt zwei Supercomputer mit Nvidia Ampere und Intel Ice Lake-SP
Lenovo baut die beiden Rechenzentren für das Kalsruher KIT und die Max-Planck-Gesellschaft bei München. Kostenpunkt: Zusammen über 35 Millionen Euro.

Dural
2020-05-14, 21:46:18
AMD? Die verscherbeln immer noch komplett veraltete GPUs @ 7nm.
Was soll da kommen? Ampere ist eine komplett neue Liga von GPUs. Weist du eigentlich was es bedeutet so ein hoch komplexes Monster zu entwickeln und herzustellen? Das kostet mehr als AMD in einem Jahr an Umsatz macht :rolleyes:

Die ganze vorarbeit die NV mit Volta und Turing schon geleistet hat, hat AMD bis heute nicht auf dem Markt. Die deutlich grössere gefahr sehe ich viel mehr bei Intel.

AMD lebt aktuell von ihren CPUs und sicher nicht von den GPUs. Sie haben den vorteil dies geschickt zu kombinieren, und das werden sie sicher auch machen.

Neurosphere
2020-05-14, 21:53:52
Welche GPU von NV kannst du denn in 7nm kaufen?

mboeller
2020-05-14, 22:01:14
54 Mrd Transistoren @ 826mm² und dafür nur ca. 1,4GHz

Kann es sein, dass Ampere wirklich den LP 7nm Prozess, der ja normalerweise für Smartphone SoC benutzt wird nutzt?

Das würde zumindest die sehr hohe Transistor-Dichte gut erklären.


Ampere scheint ja ein "reines" Tensor-Produkt zu sein. Warum?
Die "Gegner" scheinen ja damit googles Tensorflow TPU's zu sein.
Ist das nicht ein wenig zu schmalspurig bzgl. der Einsatzfälle für so ein teures Projekt?
Ist damit IMHO kein Wunder, dass es bei den HPC Projekten unten durchgefallen ist.

Linmoum
2020-05-14, 22:01:59
AMD? Die verscherbeln immer noch komplett veraltete GPUs @ 7nm.Also wie GA100, der noch nicht einmal in N7+ daherkommt, obwohl AMD schon seit 2018 "veraltete" GPUs in N7 verscherbelt? :confused: ;D

Grendizer
2020-05-14, 22:03:20
Für mich hört sich das so an, das die Karten für Supercomputer wohl verfügbar sind ... oder man kauft sich halt ein DGX A100 für 200.000 Euro.

Ex3cut3r
2020-05-14, 22:09:43
Scheiße für AMD, die haben Nichtmal Turing/Volta eingeholt, da kommt schon das nächste Schwergewicht. Nvidia schläft im Gegensatz zu Intel nicht. Das wird ganz schwer für AMD im GPU Sektor. Da muss man nun wirklich kein Experte sein um das zu erkennen.

horn 12
2020-05-14, 22:11:33
mal abwarten …
Vor August - September kommt eh nix,- bei Beiden Lagern.
und so nahe wie jetzt kam AMD Nvidia schon lange nicht mehr.

Blediator16
2020-05-14, 22:30:25
mal abwarten …
Vor August - September kommt eh nix,- bei Beiden Lagern.
und so nahe wie jetzt kam AMD Nvidia schon lange nicht mehr.

Ich glaube es nicht. Ich stimme dir zu :freak:

maximus_hertus
2020-05-14, 23:01:55
Was ist hier los? Die Brot und Butter Einnahmequelle sind afair immer noch die Geforce SKUs und diesbzgl. gab es genau 0 Infos. Halt, stimmt ja nicht, es gab Infos:

Ampere wird auch im Gaming Bereich benutzt. Was das am Ende bedeuten wird? Abwarten.

Imo sind selbst Spekus wie "AMD holt das nie auf etc." wenig sinnvoll. Spekus sind schön, aber imo ist die Infolage sehr dünn, imo sogar zu dünn, um sinnvoll bzgl. Geforce Ampere zu spekulieren. [bezogen auf die heutige "Keynote"]

Neurosphere
2020-05-14, 23:03:50
Bislang hatte ich noch nie eine GPU von AMD. Bei der CPU schon lange keine mehr, Zen 3 könnte mich da seit langer Zeit wieder zum umdenken bewegen.

Das gehype hier nervt allerdings.

Zum einen:

Das was NV da bis jetzt geliefert hat ist HPC und dürfte 99,99% der User hier nicht wirklich interessieren. Ja, das Teil ist schnell, in den Anwendungen für die der Chip gemacht ist.

Der GA102 wird nach den bisherigen Gerüchten zur 2080 ti 40% drauf legen, das ist nichts besonderes und eben das was man von einer neuen Generation erwarten sollte. Features wie DLSS sind super. In der Vergangenheit hat NV allerdings mit der Politik bei solchen Features dafür gesorgt das sie nicht den Markt durchdrungen haben, siehe PhysX, obwohl sie die Möglichkeiten dazu gehabt hätten.


Zum anderen:

Wenn AMD einen guten Konter bzw. schon vorher vergleichbaren Chip bringt, ist das für uns als User doch super. Konkurenz belebt das Geschäft. Die Preiselage wird besser. Die nächsten Produkte ebenfalls. Und ich habe als Käufer eine Wahl wenn ich Top-Tier haben möchte und muss nicht nur zu NV rennen.

Digidi
2020-05-14, 23:16:47
Wenn Acturus von AMD wirklich mit 8000 Shader kommt gute nacht Nvidia.

Troyan
2020-05-14, 23:23:03
54 Mrd Transistoren @ 826mm² und dafür nur ca. 1,4GHz

Kann es sein, dass Ampere wirklich den LP 7nm Prozess, der ja normalerweise für Smartphone SoC benutzt wird nutzt?

Das würde zumindest die sehr hohe Transistor-Dichte gut erklären.


Ampere scheint ja ein "reines" Tensor-Produkt zu sein. Warum?
Die "Gegner" scheinen ja damit googles Tensorflow TPU's zu sein.
Ist das nicht ein wenig zu schmalspurig bzgl. der Einsatzfälle für so ein teures Projekt?
Ist damit IMHO kein Wunder, dass es bei den HPC Projekten unten durchgefallen ist.

Du meinst HPC-Projekte wie Perlmutter? :rolleyes:
Single-Application-Processors haben keinen Markt mehr. Ampere bietet 19,5 TFLOPs FP64 und bis zu einem Petaflops für Inference. Ein Chip, zig verschiedene Märkte.

Ampere ist für alles geeignet und damit in einer Liga für sich selbst.

Linmoum
2020-05-14, 23:23:40
Wenn Acturus von AMD wirklich mit 8000 Shader kommt gute nacht Nvidia.Dir sind die 128 SM von GA100 im Vollausbau aber schon bewusst, oder?

Digidi
2020-05-15, 00:13:35
Ich glaube nicht das der Chip 128 Sms hat. Das wäre eine Ausschussquote von 15% das wäre massive. Denke der Chip hat 124sm

Das würde dann auch mit den Gelakten 7.936 Shadern in Hand gehen.

|MatMan|
2020-05-15, 00:16:50
Wenn Acturus von AMD wirklich mit 8000 Shader kommt gute nacht Nvidia.
Und der Software Stack fällt vom Himmel?
Bis vor kurzem war AMD für DL praktisch nicht zu gebrauchen, da z.B. Tensor Flow schlicht nicht lief (bis auf instabile händische Frickellösungen). Ich weiß nicht genau wie es jetzt ist.

Ampere bietet 19,5 TFLOPs FP64 und bis zu einem Petaflops für Inference.
Du weißt selbst, dass es auch nur rund 7 TFLOPs sein können. Die 19,5 wird man praktisch nie erreichen. Niemand macht ausschließlich Matrix Multiplikation. Da kann es sicherlich Fälle geben, in denen der vermutete Acturus schneller ist. Gerade die Berreiber der riesigen Supercomputer, die ihren Code selbst schreiben, wissen sicherlich ziemlich gut, was am besten zu ihrem Anforderungsprofil passt.

Richtig erstaunlich finde ich den Grad der Deaktivierung. Da hofft man wohl auf zukünftige Verbesserungen der Fertigung, sonst hätte doch ein kleinerer Chip mehr Sinn ergeben?!
Die 400W erstaunen auch. Die Skalierung über so wenige GPUs wie nötig ist wohl besser.

pixeljetstream
2020-05-15, 00:18:43
Ich glaube nicht das der Chip 128 Sms hat. Das wäre eine Ausschussquote von 15% das wäre massive. Denke der Chip hat 124sm

Das würde dann auch mit den Gelakten 7.936 Shadern in Hand gehen.
der volle chip hat 128

steht auch im offiziellen blog
https://devblogs.nvidia.com/nvidia-ampere-architecture-in-depth/

Troyan
2020-05-15, 00:42:52
Du weißt selbst, dass es auch nur rund 7 TFLOPs sein können. Die 19,5 wird man praktisch nie erreichen. Niemand macht ausschließlich Matrix Multiplikation. Da kann es sicherlich Fälle geben, in denen der vermutete Acturus schneller ist. Gerade die Berreiber der riesigen Supercomputer, die ihren Code selbst schreiben, wissen sicherlich ziemlich gut, was am besten zu ihrem Anforderungsprofil passt.


Anwendungen passen sich an. Die Hardware muss nunmal den ersten Schritt machen. Des Weiteren wandern viele Berechnungen weg von FP64 und nur die Teile werden mit doppelter Genauigkeit berechnet, die notwendig sind.

In irgendein einen Beitrag hat nVidia das beschrieben, dass TF32 mit FP64 die Berechnung verdoppelt.

|MatMan|
2020-05-15, 00:59:09
Anwendungen passen sich an. Die Hardware muss nunmal den ersten Schritt machen. Des Weiteren wandern viele Berechnungen weg von FP64 und nur die Teile werden mit doppelter Genauigkeit berechnet, die notwendig sind.

In irgendein einen Beitrag hat nVidia das beschrieben, dass TF32 mit FP64 die Berechnung verdoppelt.
Wenn ein optimierter Algorithmus kaum Matrix Mul macht, dann entwickelst du nicht mal eben einen, der darauf basiert. Probleme sind nunmal unterschiedlich. Je nachdem kann eben auch die eine oder die andere Hardware besser passen.

Man denkt schon sehr lange darüber nach, wann man die Genauigkeit reduzieren kann. Das ist nicht trivial. Im Zweifelsfall benutzt man oft lieber die höhere Genauigkeit um nicht unnötige Probleme zu bekommen. Es kostet auch einfach Zeit sich damit zu beschäftigen, die ggf. woanders besser angelegt ist.

Den Boost durch die neuen Tensor Cores finde ich so oder so sehr cool!

MR2
2020-05-15, 01:10:25
Cooler finde ich ja, dass den DGX A100 immer 2 Epyc Rome zur Seite gestellt werden und Intel rausgeflogen ist;-)

TheAntitheist
2020-05-15, 01:34:17
der volle chip hat 128

steht auch im offiziellen blog
https://devblogs.nvidia.com/nvidia-ampere-architecture-in-depth/
ich seh auf den Shema-Bildern auch nie RT Cores aber es wurde ja die Marble RTX Demo gezeigt. Gibts da infos ob die A100 Raytracing jetzt nicht mehr über RT Cores berechnet oder wurden die einfach nur nicht dargestellt? Ich will keine Insiderinfos damit raus locken, frage mich nur ob ich was übersehen habe.

pixeljetstream
2020-05-15, 02:20:28
Die marble demo (und auch anderes) wurde unabhängig und nicht im Zusammenhang mit dem A100 gezeigt.

Einfach den Blog lesen :)

Note: Because the A100 Tensor Core GPU is designed to be installed in high-performance servers and data center racks to power AI and HPC compute workloads, it does not include display connectors, NVIDIA RT Cores for ray tracing acceleration, or an NVENC encoder.

Leonidas
2020-05-15, 03:32:52
Das verstehe ich dann mal als letzte Bestätigung, das man nicht nach RT-Cores bei GA100 suchen muß.

Tomahawk
2020-05-15, 08:34:34
Mich wundert der starke Fokus auf KI: Ist der Markt wirklich so groß? "Kleine" Netze kann man doch problemlos auf einen handelsüblichen Rechner trainieren, für "große" Netze haben zumindest die großen Tech-Firmen eigene ASICs, die um ein Vielfaches schneller sein sollten.

dildo4u
2020-05-15, 08:38:03
Das sind nur ganz wenige Firmen die eigene AI SOC bauen, du hast z.b die ganzen Deutschen Autohersteller die an Nvidias Titte hängen um Elon Musk beim Autonomen fahren Paroli zu bieten.

https://blogs.nvidia.com/blog/2019/01/08/mercedes-benz-nvidia-next-gen-vehicles/

MasterElwood
2020-05-15, 08:43:10
Mich wundert der starke Fokus auf KI: Ist der Markt wirklich so groß? "Kleine" Netze kann man doch problemlos auf einen handelsüblichen Rechner trainieren, für "große" Netze haben zumindest die großen Tech-Firmen eigene ASICs, die um ein Vielfaches schneller sein sollten.

Alles rennt bald über KI. Alles...

mironicus
2020-05-15, 09:35:25
Ich weiß nicht, vielleicht wäre es klüger Ampere zu überspringen, denn 5 nm klopft schon an die Tür und beide großen Hersteller werden bestimmt schon 2021 etwas damit veröffentlichen. Ich habe eine RTX 2080 Ti und 40% Mehrleistung sind mir zu wenig, vor allem weil ich nur in 4K spiele hätte ich lieber mindestens 100% Mehrleistung.

HOT
2020-05-15, 09:39:38
2021 sehr sicher nicht bei NV (AMD) und für Consumer schonal auf gar keinen Fall. Die ersten N5+-Produkte wirste im Herbst21 im IPhone sehen (also A15, aber eben auch Snapdragon 875 und Kirin 1100). AMD wird auch zu den early Adopers gehören mit Zen4, sodass man im Frühjahr 2022 launchen kann, der Rest kommt deutlich später.
Ich würd davon ausgehen, dass alle 3 (!), also NV Hopper Consumer, AMD RDNA3 als auch Intel XE im 2.HJ 2022 in N5+ launchen werden.

Das sind nur ganz wenige Firmen die eigene AI SOC bauen, du hast z.b die ganzen Deutschen Autohersteller die an Nvidias Titte hängen um Elon Musk beim Autonomen fahren Paroli zu bieten.

https://blogs.nvidia.com/blog/2019/01/08/mercedes-benz-nvidia-next-gen-vehicles/

Na das hat Zukunft (Achtung Sarkasmus) ;D

dildo4u
2020-05-15, 09:41:20
Die fetten GPUs sind eher API limitiert,du wirst nie optimal skalieren so lange DX11 Games im Mix sind.
Davon ab das jetzt niemals finale Clocks für die Gameing GPUs feststehen,die Zahlen sind also ausgedacht.

rentex
2020-05-15, 09:41:36
PCI Express 4.0? Ebenfalls für ne Gaming Karte?!

mironicus
2020-05-15, 09:45:31
2021 sehr sicher nicht bei NV (AMD) und für Consumer schonal auf gar keinen Fall. Die ersten N5+-Produkte wirste im Herbst21 im IPhone sehen.
Ich würd davon ausgehen, dass alle 3 (!), also NV Hopper Consumer, AMD RDNA3 als auch Intel XE im 2.HJ 2022 in N5+ launchen werden.

5 nm hat bereits die Iphone 12-CPU und die wird noch 2020 veröffentlicht.

HOT
2020-05-15, 09:54:21
Jep in N5.

N5 -> A14 -> Ende 2020
N5+ -> A15 -> Ende 2021
N3 -> A16 -> Ende 2022

N5 verwenden nur Apple und Huawei nach bisherigem Stand.

dildo4u
2020-05-15, 11:47:36
5 nm hat bereits die Iphone 12-CPU und die wird noch 2020 veröffentlicht.
Warum sollte NV 7nm nicht so lange strecken wie es geht?
Ohne Konkurrenz im High-End macht es kein Sinn früh auf 5nm zu gehen.

JVC
2020-05-15, 12:02:11
Macht für NV doch sinn.
Nen günstigeren Prozess nehmen und trotzdem mehr verlangen.

Es bringt NV doch nicht wirklich was, doppelt so schnell wie AMD zu sein !?
Merklich schneller reicht doch auch ;)

Ich würde auch keine "12.9" Schrauben verbauen wenn auch "8.8"er für das geforderte Ergebnis reichen.

M.f.G. JVC

HOT
2020-05-15, 12:16:53
Na, das sind 7 Chips. Die müssen sich amortisieren und dann gibts da noch die recht hohe Gewinnerwartung. NV wird nicht vom 2 Jahres Zyklus abweichen.

basix
2020-05-15, 12:28:42
Na, das sind 7 Chips. Die müssen sich amortisieren und dann gibts da noch die recht hohe Gewinnerwartung. NV wird nicht vom 2 Jahres Zyklus abweichen.

Ihr wisst schon, dass Volta im Juni 2017 und somit vor 3 Jahren vorgestellt wurde ;) Das Ding hat sich einfach extrem gut gehalten, deutliche Leistungssteigerungen wurden über SW-Optimierungen erreicht und es gab wenig bis keine direkte Konkurrenz. V100 war für Nvidia eine Cash Cow.

Ich vermute stark, dass Nvidia im Verlauf der nächsten 12 Monate eine schnellere GA100 SKU vorstellen wird (+20%, 6144bit, 48 oder gar 96 GByte) und in spätestens 2 Jahren eine 5nm SKU kommen wird, eher sogar früher. AMD versucht hier mit CDNA vorzupreschen und Intel das gleiche mit Xe, da kann es sich Nvidia nicht erlauben auf GA100 zu bleiben und sich von AMD oder Intel überholen zu lassen (zumindest auf HW-Seite, SW-Stack ist ein anderes Thema).

amdfanuwe
2020-05-15, 12:30:50
Mich wundert der starke Fokus auf KI: Ist der Markt wirklich so groß? "Kleine" Netze kann man doch problemlos auf einen handelsüblichen Rechner trainieren, für "große" Netze haben zumindest die großen Tech-Firmen eigene ASICs, die um ein Vielfaches schneller sein sollten.
Vergiss nicht die langen Entwicklungszeiten.
Vor 3 - 5 Jahren war noch nicht abzusehen, wie stark KI sich entwickelt.
Von daher würde ich Ampere HPC ähnlich einer APU sehen, für mehrere Welten etwas. Nvidia hat noch weitere Produkte für KI, zB. Jetson Xavier NX, Orin etc.
Könnte mir auch vorstellen, dass Nidia schon an reinen KI Beschleunigern arbeitet. Die Kompetenz hat Nvidia. Dann brauchen die Tech Firmen keine eigenen ASICs mehr entwickeln.
Und ja, der Markt wächst ständig und ist riesig. Ein Ende ist wohl erst in Sicht, wenn jeder seinen perfekten, allwissenden, lästige Arbeiten abnehmenden Butler hat bzw. wir in einer uns genehmen Matrix leben können. Aber starten wir erst mal mit autonomen Fahren, Pflegeroboter und automatisierten Zustelleung von Paketen und sonstigen Drohnen.

HOT
2020-05-15, 12:32:15
Ihr wisst schon, dass Volta im Juni 2017 und somit vor 3 Jahren vorgestellt wurde ;) Das Ding hat sich einfach extrem gut gehalten, deutliche Leistungssteigerungen wurden über SW-Optimierungen erreicht und es gab wenig bis keine direkte Konkurrenz. V100 war für Nvidia eine Cash Cow.

Ich vermute stark, dass Nvidia im Verlauf der nächsten 12 Monate eine schnellere GA100 SKU vorstellen wird (+20%, 6144bit, 48 oder gar 96 GByte) und in spätestens 2 Jahren eine 5nm SKU kommen wird. AMD versucht hier mit CDNA vorzupreschen und Intel das gleiche mit Xe, da kann es sich Nvidia nicht erlauben auf GA100 zu bleiben und sich von AMD oder Intel überholen zu lassen (zumindest auf HW-Seite, SW-Stack ist ein anderes Thema).
Die Frage stellt sich nicht. Ich vermute auch einen Refresh (so ne Art GA100B oder GA200) in 2021 in N6 (ist ja kompatibel zu N7) mit deutlich höheren Yields und deutlich weniger salvage. GH100 wird sicherlich so ca. Mitte 22 vorgestellt werden.

basix
2020-05-15, 12:43:50
Was mir noch aufgefallen ist:
Der L2 ist neu in 2 Teile partitioniert. Zudem die GPU-Virtualisierung über MIG mit explizit dedizierten GPU-Ressourcen. Sind das vielleicht die ersten Vorboten für Chiplets?

Hauwech
2020-05-15, 12:57:24
Was mir noch aufgefallen ist:
Der L2 ist neu in 2 Teile partitioniert. Zudem die GPU-Virtualisierung über MIG mit explizit dedizierten GPU-Ressourcen. Sind das vielleicht die ersten Vorboten für Chiplets?

Mir würde da jetzt spontan eher Cloud-Zeugs und VMs statt Chiplets einfallen.

Platos
2020-05-15, 12:57:27
Mich wundert der starke Fokus auf KI: Ist der Markt wirklich so groß? "Kleine" Netze kann man doch problemlos auf einen handelsüblichen Rechner trainieren, für "große" Netze haben zumindest die großen Tech-Firmen eigene ASICs, die um ein Vielfaches schneller sein sollten.

In 5-10 Jahren wird in allem und überall KI eingesetzt werden. KI ist die Zukunft und nicht nur in der Unterhaltungsbranche (Gaming/Film). Das wird ein deutlich grösseres Geschäft als Gaming werden und von daher ist es wichtig für nvidia, da richtig in den Markt vorzupreschen und die schwache Stellung von AMD im Gamingbereich kommt ihnen ja gerade gelegen, das zu tun, dann ist es nämlich einfach, beim Gaming bei der normalen Shaderleistung gleichauf zu sein und parallel den Rest extrem zu pushen.

Wenn sich nvidia da gut positionieren kann, wird nvidia in 10 Jahren ein deutlich grösseres Unternehmen sein. Das ist viel wichtiger wie die paar Gaming-GPUs. Man bedenke, Intel z.B ist vom Umsatz her 10 Mal so gross wie nvidia oder AMD. nvidia ist also ein kleiner Wurm im Gegensatz zu solchen Grössen wie Intel, Microsoft, Sony oder Samsung.

JVC
2020-05-15, 13:05:20
Wenn sich nvidia da gut positionieren kann, wird nvidia in 10 Jahren ein deutlich grösseres Unternehmen sein.
Das ist viel wichtiger wie die paar Gaming-GPUs.

Ahmen.
Da steckt die Kohle.

Ich hoffe trotzdem, das NV den Gaming Markt nicht zu sehr vernachlässigt.
(nach der Monster-Kuchen Aufteilung von KI könnte NV eventuell auf die "kleinen Stücke", für Konsolen und andere Zocker, "verzichten"?)

M.f.G. JVC

basix
2020-05-15, 13:14:20
Mir würde da jetzt spontan eher Cloud-Zeugs und VMs statt Chiplets einfallen.

Für die momentane Anwendung und in Zukunft sicher auch. Aber wenn man die SW schon in diese Richtung weiterentwickeln kann (Partitionierung des L2) auf Basis eines existierenden Chips, ist das extrem viel Wert. Weil irgendwann "muss" man auf Chiplets umsteigen, wenn man die Chipgrössen nicht verringert (Stichwort HiNA EUV).

Es gab zudem Gerüchte um einen GA101 welcher ein halber GA100 hätte sein sollen. Wäre GA101 eben die eine Hälfte des GA100, wie weit ist man dann noch davon entfernt zwei GA101 zu einem GA100 zusammenzufügen? Zwei GA101 auf einem Interposer über NVLink verbunden (L2 Cache zu L2 Cache?).
Das wäre deutlich günstiger zu fertigen und man hätte noch die Option, eine SKU mit halbierter Chipfläche anzubieten.

@pixeljetstream:
Darfst du uns verraten, wie hoch die L2-Bandbreite total ist und wie hoch die Bandbreite zwischen den zwei L2-Slices?

pixeljetstream
2020-05-15, 13:14:42
Zum Thema größeres Unternehmen, vor fast 10 Jahren als ich anfing waren es um die 6.000 Mitarbeiter, jetzt sind’s glaub ich 3x. Gaming bzw.. Grafik ist aber schon nachwievor stark in der Firmen DNA, viele selbst im Management haben ja auch genug Jahre damit verbracht.

Ich kann logischerweise nix verraten was nicht sonst schon veröffentlicht ist. Und da ich das ganze öffentliche Material nicht im Kopf habe, kann ich nur auf suche/talks gucken verweisen.

basix
2020-05-15, 13:20:59
Was, du hast noch keine GA100 in deinem Arbeitsrechner? :D

HPVD
2020-05-15, 14:03:27
Analyse auf CB:
https://www.computerbase.de/2020-05/nvidia-ga100-ampere/

Alex1973
2020-05-15, 15:43:18
[QUOTE=Troyan;12309344]nVidia hat nicht plötzlich gewonnen sondern schon seit Jahren. Ampere ist einfach der nächste Schritt.

AMD wird mit Konsolen-Marktanteilen allein schon ordentlich zurückschlagen.

Alleine die Existez einer xbox Scarlett in sechs Monaten ist sicher eine Ansag. Nehmen wir mal an, dass die GPU der xbox samt 16 GB VRAM 300 euro im Verkauf kostet, der Rest noch mal 300 euro.
Wie will ich den Leuten erklären, warum ich 1200 euro für eine GTX 2080 ti mit 11 GB VRAM zahlen soll, die vieleicht 10 % schneller ist, aber eben mit weniger VRAM.
Mir zumindest kann niemand so was beibringen.
Mit der Ampere werden die Preise wohl auch nicht purzeln.
Nvidia hat gewonnen, aber niemals bei preisbewusst Kunden.

In der Preispolitik sehe ich die grössten Möglichkeiten für AMD.
Ich will nicht trollen, ist nur so ein Gedanke.

Gouvernator
2020-05-15, 16:27:44
[QUOTE=Troyan;12309344]nVidia hat nicht plötzlich gewonnen sondern schon seit Jahren. Ampere ist einfach der nächste Schritt.

AMD wird mit Konsolen-Marktanteilen allein schon ordentlich zurückschlagen.

Alleine die Existez einer xbox Scarlett in 6 Monaten ist sicher eine Ansag. Nehmen wir mal an, dass die GPU der xbox samt 16 GB VRAM 300 euro im Verkauf kostet, der Rest noch mal 300 euro.
Wie will ich den Leuten erklären, warum ich 1200 euro für eine GTX 2080 ti mit 11 GB VRAM zahlen soll, die vieleicht 10 % schneller ist, aber eben mit weniger VRAM.
Mir zumindest kann niemand so was beibringen.
Mit der Ampere werden die Preise wohl auch nicht purzeln.
Nvidia hat gewonnen, aber niemals bei preisbewusst Kunden.

In der Preispolitik sehe ich die grössten Möglichkeiten für AMD.
Ich will nicht trollen, ist nur so ein Gedanke.
Hast du NV YT Kanal und Jensen Huang neulich gesehen? Der schwärmt doch schon lange von der Cloud und dadurch einem Billionen $ Umsatz. AI und Automotive sind auch dabei mit paar Dutzend Milliarden. Angesichts des Monsters was er aus dem Backofen rausgeholt hat, sehen gewöhnliche GPUs aus und das Geschäft mit Gamer PCs wie ein Jobcenter voll Asylanten.

Alex1973
2020-05-15, 16:54:48
[QUOTE=Alex1973;12310095]
Hast du NV YT Kanal und Jensen Huang neulich gesehen? Der schwärmt doch schon lange von der Cloud und dadurch einem Billionen $ Umsatz. AI und Automotive sind auch dabei mit paar Dutzend Milliarden. Angesichts des Monsters was er aus dem Backofen rausgeholt hat, sehen gewöhnliche GPUs aus und das Geschäft mit Gamer PCs wie ein Jobcenter voll Asylanten.


Ja, wenn nvidia solche Sachen leisten kann, warum werden preisbewusste Kunden wie ich nicht auch mit anständiger Hardware für unter 300 euro bedient, mit Raytracing und allem drum und dran.
Das ist wie bei der deutschen Bank, die alle Privatkunden abgestoßen hat. Nur die teueren Karten von nvidia sind gut, alle anderen sind schlechter als bei der Konkurrenz.
Ich habe auch eine nvidia Karte in meinem Rechne, die ich für 80 euro bei ebay geschossen habe (Hahaha )und meine
Nächste wird auch nicht viel mehr kosten.

Sweepi
2020-05-15, 16:58:21
[...]und das Geschäft mit Gamer PCs wie ein Jobcenter voll Asylanten.

nVidia legt großen Wert auf Datacenter & Automotive, aber dieser Vergleich ist an der Realität vorbei. Gaming ist immer noch die groesste Sparte bei nVidia und erzeugt fast 50% des Umsatzes.

Thunder99
2020-05-15, 17:09:44
Ich weiß nicht, vielleicht wäre es klüger Ampere zu überspringen, denn 5 nm klopft schon an die Tür und beide großen Hersteller werden bestimmt schon 2021 etwas damit veröffentlichen. Ich habe eine RTX 2080 Ti und 40% Mehrleistung sind mir zu wenig, vor allem weil ich nur in 4K spiele hätte ich lieber mindestens 100% Mehrleistung.

Sowie ich es sehe kann man immer eine Generation von Nvidia überspringen, wenn man deutlich mehr Leistung haben möchte, außer es gibt neue Features die man nutzen möchte :).

Wann hat es zuletzt einen Sprung von gegen 100% gegeben? Vom NV70 (71) auf G80

Gouvernator
2020-05-15, 17:44:28
nVidia legt großen Wert auf Datacenter & Automotive, aber dieser Vergleich ist an der Realität vorbei. Gaming ist immer noch die groesste Sparte bei nVidia und erzeugt fast 50% des Umsatzes.
Ja aber wie ich das verstanden habe will Huang von seinem Auftreten her den Gaming auf eine Linie mit Profi GPU bringen. Sprich die normale GPU ist denen nicht mehr viel wert. Sie wollen das die "normale GPU" 2000-3000$ kostet. Haben sie schon getan erst Volta für 3000€ und jetzt eine Titan für 3000€. Alles drunter ist für die uninteressant. Sollen AMD und Xbox die armen Schlucker bedienen. Huang will stattdessen die Welt retten und BigData wird ihm sein Silicon eh aus den Händen reißen. Seiner Meinung nach sollen alle echte Ray Tracing Games per Cloud spielen wo eine GPU 200k$ kostet. Das ist Business und nicht irgendwelche nackte Gamer.

Alex1973
2020-05-15, 17:50:54
Ja aber wie ich das verstanden habe will Huang von seinem Auftreten her den Gaming auf eine Linie mit Profi GPU bringen. Sprich die normale GPU ist denen nicht mehr viel wert. Sie wollen das die "normale GPU" 2000-3000$ kostet. Haben sie schon getan erst Volta für 3000€ und jetzt eine Titan für 3000€. Alles drunter ist für die uninteressant. Sollen AMD und Xbox die armen Schlucker bedienen. Huang will stattdessen die Welt retten und BigData wird ihm sein Silicon eh aus den Händen reißen. Seiner Meinung nach sollen alle echte Ray Tracing Games per Cloud spielen wo eine GPU 200k$ kostet. Das ist Business und nicht irgendwelche nackte Gamer.

Nur werde die Studios auf nächste Konsolengeneration und somit für die armen Schlucker entwickeln, und die Reichen werden leer ausgehen,
so wie es jetzt schon läuft. Betrachte mal das Video Unreal Engine 5 und du wirst erkennen, dass es erst für PS 5 kommt, aber nicht für zwei Jahre alte RTX 2080 ti, auch wenn viele es sich sehr gewünscht hätten.

Asaraki
2020-05-15, 17:53:40
Euch fehlt bisschen die Perspektive im echten Leben, hm?
Jobsenter (^^), Asylanten, arme Schlucker, nackte Gamer... man könnte meinen ihr redet über etwas lebenswichtiges und nicht Luxusgüter.

Gouvernator
2020-05-15, 17:55:53
Nur werde die Studios auf nächste Konsolengeneration und somit für die armen Schlucker entwickeln, und die Reichen werde leer ausgehen.
So wie es jetzt schon läuft.
NV unterhält den stärksten Supercomputer auf der Welt in ihrem Hinterhof der paar Mal stärker ist als alles andere. Die wollen stark ins AI und damit quasi die Weltherrschaft übernehmen da hängt alles mit dran von Finanzindustrie bis zum fahrerlosen Fahren. Wir Gamer sind nur lästige Überbleibsel einer vergangenen Epoche.

Ghost1nTh3GPU
2020-05-15, 19:08:57
Was ist eigentlich die 4 Chip HBM Ampere GPU auf dem Orin Drive Computer:
https://images.anandtech.com/doci/15800/orin-800W.png
https://www.anandtech.com/show/15800/nvidia-announces-new-drive-platforms-with-orin-and-ampere-
Oder sind das nur Volta Dummys?

AffenJack
2020-05-15, 19:10:25
Was mir noch aufgefallen ist:
Der L2 ist neu in 2 Teile partitioniert. Zudem die GPU-Virtualisierung über MIG mit explizit dedizierten GPU-Ressourcen. Sind das vielleicht die ersten Vorboten für Chiplets?

Die Partitionierung des L2 seh ich erstmal als eine Folge des Wachstums vom L2. 40mb und damit fast 7x soviel wie bei volta ist einfach riesig. Zusätzlich soll er auch noch schneller sein. Das dürfte vom Chipaufbau sonst kaum möglich gewesen sein, da der Abstand der SMs zum Cache nicht zu groß werden darf.

Aber hast schon recht, dass es schon so wie der letzte Zwischenschritt vor MCM GPUs (bei HPC) aussieht. Auch der Interconnect dürfte kein Problem mehr sein. Schließlich hat man auch keine Probleme die GPUs über Nvlink mit 600Gb/s übers PCB zu verbinden. Ich will nicht wissen, was das an Strom kostet. Ich schätze nen PciE A100 könnte mit 300W auskommen im Vergleich zum 400W SXM4 A100.

Troyan
2020-05-15, 19:11:24
Das sind Renderbilder. Die haben nichts mit der Wirklichkeit zu tun.

Apropos Orin: nVidia gibt jetzt 45W und 200 TOPS an. Im Dezember fahren es noch 65W.

JVC
2020-05-15, 19:15:28
Üble Stimmung :frown:

Keine Angst :)
Ich denke, NV wird mit einem eher niedrigen Preis an uns denken.
(all zu hoch geht doch aufgrund der Konsolen schon gar nicht)

Noch herrscht im Gaming-Sektor Konkurrenzkampf Stimmung :smile:
(wir wollen ja "verköstigt" und "belustigt" werden...)

M.f.G. JVC

Platos
2020-05-15, 19:32:53
NV unterhält den stärksten Supercomputer auf der Welt in ihrem Hinterhof der paar Mal stärker ist als alles andere.

Dann liefere doch mal eine Quelle, für diese Aussage.

bloodflash
2020-05-15, 19:40:11
Vielleicht wird AMD den Stream der PCIe4-SSD direkt in den Grafikspeicher der Navi2-GPU auf Ryzen3-Systemen ermöglichen und damit PS5-Performance auf PCs in 2021 ermöglichen.


Das freut die Spieleentwickler und AMD bekommt Lizenzzahlungen von nV.


;)

w0mbat
2020-05-15, 19:46:47
Wieso Lizenzzahlungen von nV?

Alex1973
2020-05-15, 19:50:34
Das sind Renderbilder. Die haben nichts mit der Wirklichkeit zu tun.

Apropos Orin: nVidia gibt jetzt 45W und 200 TOPS an. Im Dezember fahren es noch 65W.

Laut Gamestar wurde Unreal Engine 5 auf der PlayStation 5 in Echtzeit berechnet. (1440p (2560x1440) und 30 fps)

???

pixeljetstream
2020-05-15, 20:42:58
Vielleicht wird AMD den Stream der PCIe4-SSD direkt in den Grafikspeicher der Navi2-GPU auf Ryzen3-Systemen ermöglichen und damit PS5-Performance auf PCs in 2021 ermöglichen.
Das freut die Spieleentwickler und AMD bekommt Lizenzzahlungen von nV.
;)

das geht schon, siehe https://devblogs.nvidia.com/gpudirect-storage/ es brauch für consumer "nur" Schnittstellen vom OS (Windows), aber die sollen ja auch irgendwann von MS kommen.

Platos
2020-05-15, 20:48:34
das geht schon, siehe https://devblogs.nvidia.com/gpudirect-storage/ es brauch für consumer "nur" Schnittstellen vom OS (Windows), aber die sollen ja auch irgendwann von MS kommen.

Wird sowas auch für RAM kommen? Oder wird eine nvme SSD dann zum Mindeststandart (glaube ich kaum). Am PC müsste doch dann der RAM übernehmen und vom RAM in den VRAM geladen werden?

Denn wie gesagt, eine nvme SSD mit 4-5GB/s wird ja wohl kaum standart werden.

Grendizer
2020-05-15, 20:51:53
Wird sowas auch für RAM kommen? Oder wird eine nvme SSD dann zum Mindeststandart (glaube ich kaum). Am PC müsste doch dann der RAM übernehmen und vom RAM in den VRAM geladen werden?

Denn wie gesagt, eine nvme SSD mit 4-5GB/s wird ja wohl kaum standart werden.


Evtl. dann schon, wenn die Konsolen das intensiv nutzen.

amdfanuwe
2020-05-15, 21:19:11
Vielleicht bewirbt AMD deshalb auch auf ihrer Seite für den B550 Chipsatz die PCIe 4.0 SSD.
https://www.amd.com/de/chipsets/b550
Einfach mal nach unten scrollen.

Tarkin
2020-05-15, 21:24:19
Mache ich ja nicht, wie gesagt, das ist einfach so die Wirkung als komplett Aussenstehender, wenn man so Techmainstream wie heise.de liest und sich nicht mit den Spezialthemen wirklich beschäftigt.

edit: z.B. wegen sowas:

https://www.heise.de/newsticker/meldung/Deutschland-bekommt-zwei-Supercomputer-mit-Nvidia-Ampere-und-Intel-Ice-Lake-SP-4721166.html

Deutschland bekommt zwei Supercomputer mit Nvidia Ampere und Intel Ice Lake-SP
Lenovo baut die beiden Rechenzentren für das Kalsruher KIT und die Max-Planck-Gesellschaft bei München. Kostenpunkt: Zusammen über 35 Millionen Euro.

ist der falsche Thread dafür aber... WTF ?!? Ice Lake SP?? 38 Cores und Wasserkühlung? Fertigstellung Sommer 2021? :eek: Also wenn Ice Lake SP kein kompletter Fail wird, dann weiß ich auch nicht. Das Ding hat gegen Milan nicht die geringste Chance. Milan mit Zen 3 Cores wird dann vermutlich min. die doppelte Leistung haben als Ice Lake... bei geringerem Energieverbrauch :freak: - sorry für OT :wink:

amdfanuwe
2020-05-15, 21:30:53
nVidia legt großen Wert auf Datacenter & Automotive, aber dieser Vergleich ist an der Realität vorbei. Gaming ist immer noch die groesste Sparte bei nVidia und erzeugt fast 50% des Umsatzes.
Zumindest bei MF verkauft sich die 2070Super am besten.
Was passiert da wohl, wenn AMD mit Big Navi auch in den Preisbereich vordringt?
Mit der 5700er Serie hat AMD da einiges im 300€ - 400€ Bereich an Marktanteilen gutgemacht.

dildo4u
2020-05-15, 21:31:08
ist der falsche Thread dafür aber... WTF ?!? Ice Lake SP?? 38 Cores und Wasserkühlung? Fertigstellung Sommer 2021? :eek: Also wenn Ice Lake SP kein kompletter Fail wird, dann weiß ich auch nicht. Das Ding hat gegen Milan nicht die geringste Chance. Milan mit Zen 3 Cores wird dann vermutlich min. die doppelte Leistung haben als Ice Lake... bei geringerem Energieverbrauch :freak: - sorry für OT :wink:



Du hast null Einsicht was für ein Code sie dort Laufen haben,Intel hat AVX512 mit Bfloat16 Support in den neuen Xeons.

https://en.m.wikipedia.org/wiki/Bfloat16_floating-point_format

BiZiNiZz
2020-05-16, 01:02:59
Und abgesehen davon, in Rechenzentren werden die Racks und die Komponenten immer öfter mit Wasser gekühlt. Teils auch um die Wärme fürs heizen etc weiter zu verwenden. Daher direkt auf eine fail CPU zu schließen ist mehr als zu kurz gedacht.

Davon ab, können die Konsolen Fans wieder in ihren Konsolen Thread gehen, damit wir hier wieder back 2 topic kommen.

wolik
2020-05-16, 07:59:06
nVidia legt großen Wert auf Datacenter & Automotive, aber dieser Vergleich ist an der Realität vorbei. Gaming ist immer noch die groesste Sparte bei nVidia und erzeugt fast 50% des Umsatzes.
2019 Gaming 67%. Ob so ein Produkt GV102 1000+ Euro "kostet" oder / und man nutzt in Top Segment Machtmonopol, bleibt fast rhetorische Frage.
Ich freu mich auf GA102. Ob der für RDR2 und WD2 für 4K/60fps auf max. endlich ausreicht werden wir sehen.

crux2005
2020-05-16, 20:33:54
Wenn WD2 - Watch Dogs 2 ist, dann eher nicht. Das Spiel bräuchte wahrscheinlich +50% oder noch mehr Shaderleistung ggü. Turing. Dann wiederum würde ein anderer Flaschenhals entstehen. Das gleiche Spiel in DX12 oder Vulkan und auf M2.SSD zugeschnitten würde um Welten besser laufen und aussehen. :)

Slipknot79
2020-05-16, 21:25:50
Würde Sinn machen wenn die 3080Ti zusammen mit Cyberpunk 2077 im Sept rausgeballert wird...
Plastiktüte stellt dann 3 statt 2 Ray Bounces pro Pixel ein und schon "müssen" wir uns ne 3080TI kaufen, weil sie 70% schneller sein wird in RT ("40 GIGARAYS/S") als die 2080Ti?
:redface:

rentex
2020-05-16, 21:58:59
Würde Sinn machen wenn die 3080Ti zusammen mit Cyberpunk 2077 im Sept rausgeballert wird...
Plastiktüte stellt dann 3 statt 2 Ray Bounces pro Pixel ein und schon "müssen" wir uns ne 3080TI kaufen, weil sie 70% schneller sein wird in RT ("40 GIGARAYS/S") als die 2080Ti?
:redface:

CDPR wird diesen Fehler wohl nicht machen.

Dampf
2020-05-16, 22:11:18
Würde Sinn machen wenn die 3080Ti zusammen mit Cyberpunk 2077 im Sept rausgeballert wird...
Plastiktüte stellt dann 3 statt 2 Ray Bounces pro Pixel ein und schon "müssen" wir uns ne 3080TI kaufen, weil sie 70% schneller sein wird in RT ("40 GIGARAYS/S") als die 2080Ti?
:redface:

Das ist Unsinn, es muss ja noch auf der 2060 laufen, da das das schwächste RTX Mitglied ist. Natürlich kann es aber höhere RT Settings für die stärkeren Ampere Karten geben, das steht außer Frage.

Edgecrusher86
2020-05-16, 22:17:43
Im Prinzip langt doch auch 1080p max. Details auf einer 3060er bei 30 fps und 50-60 fps inkl. DLSS. Nun ja, falls der Boost mit RT ähnlich groß ausfällt, wie dem der TC bei A100 dürfte wohl auch mehr drin sein.
Im Normalfall dürfte man wohl auch deutlich mehr erwarten - ist es doch der NV Aushängetitel des Jahres, da wird sicher gut optimiert werden. TW3 lief damals auch gut mit Maxwell 2.0, zumindest abseits 4K (SGPU). :)

E: Achso, es ging um die 2060 - ja, denke mit DLSS sollte das zufriedenstellend möglich sein in FHD.
Eine 3060 sollte eigentlich maximierte Settings sicher deutlich mehr schaffen - mit RT dürfte auch ein TU104 zu schlagen sein.

=Floi=
2020-05-16, 22:19:28
Am 18.05 soll RTX 2.0 kommen, hab ich gerade bei nem streamer gesehen.

Raff
2020-05-16, 22:25:02
Das ist Unsinn, es muss ja noch auf der 2060 laufen, da das das schwächste RTX Mitglied ist. Natürlich kann es aber höhere RT Settings für die stärkeren Ampere Karten geben, das steht außer Frage.

Das dürfte kein Problem sein. Nvidia wird seit März nicht müde, DLSS 2.0 zu bewerben. Jaaaa, 540p sieht aus wie 1080peeee! Also irgendwie. Ähnlich. Bröselig und hässlich ist beides. Aber es läuft - und passt gerade so in 6 GiB. :ugly: Langer Spam, kurzer Sinn: Cyberpunk & Co. werden gewiss auch auf heruntergedumbtem RTX 1.0 laufen (und dann exakt 5,9 GiB adressieren ;)), aber wirklich hübsch erst mit Dickschiffen.

MfG
Raff

Slipknot79
2020-05-16, 22:26:44
Das ist Unsinn, es muss ja noch auf der 2060 laufen, da das das schwächste RTX Mitglied ist. Natürlich kann es aber höhere RT Settings für die stärkeren Ampere Karten geben, das steht außer Frage.

Klar gings mir um Ultrasettings. :cool:

just4FunTA
2020-05-16, 22:54:41
Das ist Unsinn, es muss ja noch auf der 2060 laufen, da das das schwächste RTX Mitglied ist. Natürlich kann es aber höhere RT Settings für die stärkeren Ampere Karten geben, das steht außer Frage.


du kriegst am PC keine Garantien darauf das deine GPU schnell Genug für irgend eine Technik ist. Wenn die RTX2060 zu Langsam für raytracing in irgend einem Spiel ist dann ist das nicht weiter erwähnenswert...

Dampf
2020-05-17, 09:28:35
Am 18.05 soll RTX 2.0 kommen, hab ich gerade bei nem streamer gesehen.

Was soll RTX 2.0 sein? Meinst du vielleicht DXR 1.1 oder DLSS 2.0? Hast du dafür ne Quelle?

HOT
2020-05-17, 10:16:05
Die 2060 wird für RT vollkommen unbrauchbar sein, ist sie ja jetzt schon.

Troyan
2020-05-17, 10:30:43
Unsinn. 2060 mit DLSS ist für Raytracing ausreichend - hier in Control: https://www.youtube.com/watch?v=jSvsqQftPWw

unl34shed
2020-05-17, 11:26:47
Wenn man in 2020 mit einer 350€ Karte nicht mal in 1080p60 rendern kann ist das mMn. nicht ausreichend.

Dampf
2020-05-17, 11:29:04
Wenn man in 2020 mit einer 350€ Karte nicht mal in 1080p60 rendern kann ist das mMn. nicht ausreichend.

Kann man doch. BF5, Metro Exodus, Shadow of the Tomb Raider, Wolfenstein usw. geht alles ohne Probleme in 1080p60

Control ist halt ne Ausnahme weil das enorm aufwendig ist, auch ohne Raytracing.

Ich denke Cyberpunk 2077 wird sich auch in diese Liste einreihen. Sollte auf hohen Settings, 1080p60 mit Raytracing machbar sein.

Wenn ich von 1080p spreche, mein ich natürlich natives 1080p. D.H. mit DLSS ohne Probleme 1440p und eventuell sogar 4K.

w0mbat
2020-05-17, 12:43:15
Zu Wolfenstein YB hab ich jetzt keinen Test gefunden, aber laut CB bringt die RTX 2060 @1080p bei Metro Exodus ca. 46 FPS avg. und 35 FPS min., bei BF5 schafft die 2070 (2060 nicht getestet) auf RT "niedrig" im avg. gerade so 68 FPS, fällt bei den min. aber schon auf <60 FPS (will nicht wissen wie es hier für die 2060 aussieht) und bei SotTR (nicht auf Ultra) haut die 2060 ganze 52 FPS avg. und 26 FPS min. raus.

Ganz sicher eine RTX 1080p/60 Karte :ugly:

aufkrawall
2020-05-17, 12:47:32
Ironischerweise könnte sie das durch DLSS 2.0 für die nahe Zukunft eher sein als für den Zeitraum von Release bis jetzt.

Daredevil
2020-05-17, 12:52:50
Und das Leben besteht nicht nur aus AAA Games.
Wenn mit den Konsolen auch Anspruchslose/Indie Games mit RT bespaßt werden ( Ori nenne ich immer gerne als Beispiel ), kann ne 2060 auch ein wenig Licht zaubern.
Richtiges Eyecandy kostet halt immer richtig viel Leistung. (:

Wenn aber ne 2060 DLSS nutzt und RTX einfach weglässt, wo ist dann Navi? :D
Will sagen, Optionen hat man bei Nvidia und das ist ein Vorteil. Ob, wie und in welcher Kombination man das ganze nun einsetzt, kann jeder ja selbst entscheiden. ( Die bezahlt man aber auch fürstlich :> )

Platos
2020-05-17, 13:32:50
Seit wann gibt es für GPUs irgendwelche Garantien?

Und man konnte mit den richtigen Spielen schon immer jede 350Euro GPU unter 60FPS bringen auf 1080p. Ich wüsste nicht, wo das etwas neues ist.

Wenn man es richtig drauf an legt, geht das auch mit ner High-End Grafikkarte.

Dampf
2020-05-17, 13:42:49
Zu Wolfenstein YB hab ich jetzt keinen Test gefunden, aber laut CB bringt die RTX 2060 @1080p bei Metro Exodus ca. 46 FPS avg. und 35 FPS min., bei BF5 schafft die 2070 (2060 nicht getestet) auf RT "niedrig" im avg. gerade so 68 FPS, fällt bei den min. aber schon auf <60 FPS (will nicht wissen wie es hier für die 2060 aussieht) und bei SotTR (nicht auf Ultra) haut die 2060 ganze 52 FPS avg. und 26 FPS min. raus.

Ganz sicher eine RTX 1080p/60 Karte :ugly:

Und wie alt sind diese Tests? Durch Treiberoptimierungen wurde da schon einiges getan. Und wenn man das Ultra Preset bei Metro Exodus nutzt, dann haut das schon richtig auf die Performance. Da stellt man von RTX Ultra auf High, dann läuft das wesentlich besser, und von den visuals her sieht man auch kaum Unterschiede.

Aber ja, am Anfang wurde da einiges verhauen. Jetzt muss sich Nvidia besonders Mühe geben, dass man vernünftige RTX Performance auf den RTX Karten hat, um den Ruf wiederherzustellen, denn die meisten sind noch auf dem alten Stand und denken RTX wäre unspielbar auf den kleinen RTX Karten. Cyberpunk 2077 ist imo die perfekte Gelegenheit dazu. Gute RTX Performance auf 1080p (2060) 1440p (2070), 4K (2080), exzellente Performance mit DLSS. Durch DXR 1.1 kann man auch weiter optimieren als bisher, bis dahin dürften die ganzen Treiber und Windows Versionen auch draußen sein. CP2077 ist wohl der RTX Flagschiff Titel dieses Jahr, die Performance wird interessant zu beobachten sein!

RLZ
2020-05-17, 14:19:11
Ich denke Cyberpunk 2077 wird sich auch in diese Liste einreihen. Sollte auf hohen Settings, 1080p60 mit Raytracing machbar sein.
Das wird doch eine komplett willkürliche Festlegung vom Entwickler. Drehen die nur minimal an der Raytracing-Qualität, ist es für die nächsten 10 Jahre auf keiner Karte mit 60fps spielbar.

w0mbat
2020-05-17, 14:48:05
Und wie alt sind diese Tests? Durch Treiberoptimierungen wurde da schon einiges getan. Und wenn man das Ultra Preset bei Metro Exodus nutzt, dann haut das schon richtig auf die Performance. Da stellt man von RTX Ultra auf High, dann läuft das wesentlich besser, und von den visuals her sieht man auch kaum Unterschiede.
Das war das "high" preset...

nordic_pegasus
2020-05-17, 16:57:54
was erwartet Ihr eigentlich bei den Anschlüssen? Wird der USB-C Anschluss wieder verschwinden oder bleiben bei Gaming Ampere? Ich glaube nicht daran, dass VR einen Durchbruch im Massenmarkt erleben wird.

Ich denke, dass HDMI 2.1 fix sein sollte, aber was ist mit Display-Port 2.0? Ist Ampere hierfür zu früh oder wird das mit an Bord sein?

robbitop
2020-05-17, 20:22:02
Für DP wäre es (wenn man schaut wie lange es vom Verabschieden von einer Spec bis zu den Grafikkarten dauert) wahrscheinlich noch zu früh.

=Floi=
2020-05-18, 00:42:43
Was soll RTX 2.0 sein?
Hast du dafür ne Quelle?

Könnte auch eine überarbeitung wie bei DLSS 2.0 sein. Da dort noch jedes fps zählt fände ich es auch nicht wirklich schlecht, wenn man hier verstärkt rangeht.


Hab gestern keinen shot gemacht und bringt auch nichts, weil am ende noch der ytuber ärger bekommt.
Er hatte es so im uploadplan stehen. Kann auch DLSS 2.0, oder eben etwas neues zu RTX.

Dampf
2020-05-18, 00:45:55
Könnte auch eine überarbeitung wie bei DLSS 2.0 sein. Da dort noch jedes fps zählt fände ich es auch nicht wirklich schlecht, wenn man hier verstärkt rangeht.


Hab gestern keinen shot gemacht und bringt auch nichts, weil am ende noch der ytuber ärger bekommt.
Er hatte es so im uploadplan stehen. Kann auch DLSS 2.0, oder eben etwas neues zu RTX.

Klingt interessant. Naja, wir werden ja schon heute sehen, ob da was dran ist. Ich hätte mal wieder Bock auf Nvidia News, nach März mit DLSS 2.0 und Minecraft RTX kam ja nix mehr :biggrin:

RTX 2.0 könnte eventuell eine Kombination aus Denoising auf den Tensor Cores und DXR 1.1 sein..!

w0mbat
2020-05-18, 19:11:02
https://twitter.com/kopite7kimi/status/1260897297065365504
A good news and a bad news.
GA104 has been taped out.
GA103 may be cancelled.

via PCGH (https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/Angeblicher-Tape-Out-des-GA104-Chips-wirft-Fragen-auf-1350445/)

Gouvernator
2020-05-18, 19:20:12
Pünktlich zum Launch hat TSMC nun Huawei rausgeworfen. Da können wir ja Onkel Donald nochmal danken. Weil sonst wären bestimmt keine Grafikkarten zu kaufen. Alle wollen ja bekanntlich auf überfälliges HDMI 2.1 aufrüsten. Und zwar alle gleichzeitig. Da kommt es gerade Recht wenn 20% Kapazität freiwerden.
https://www.golem.de/news/us-embargo-huawei-verliert-seinen-wichtigsten-chiphersteller-tsmc-2005-148550.html

BlacKi
2020-05-18, 19:54:07
hast du es nicht mitbekommen? gaming ampere kommt mit samsungs 8nm(10++). confirmed from leaker nr.1!

HOT
2020-05-18, 20:01:01
Jetzt erst Tape Out :eek:
Nicht gut... das wird ja dann nix vor Frühjahr 2021. Immerhin kommt der 102er noch dieses Jahr wie es aussieht. Vielleicht erst mal als Ergänzung nach oben hin?

Aber mal ehrlich SO SPÄT alles und das auch noch in 8LPP ... was haben die gemacht die ganze Zeit? Geschlafen?

Mit Huawei hat das alles nichts zu tun, die Entwicklung der NV-Chips läuft ja jetzt schon lange. Das kann man nicht mal eben so umschalten. Das wird eh in erster Linie den Kirin 1100 treffen.

TheAntitheist
2020-05-18, 20:07:11
hast du es nicht mitbekommen? gaming ampere kommt mit samsungs 8nm(10++). confirmed from leaker nr.1!
der nen Monat dafür schrieb "7nm confirmed" :D
kopite7kimi
@kopite7kimi
Now it can be confirmed that Ampere does not use Samsung and there is no GA101.

der letzte Post von KarCorgi sagt ja selbst GDDR6X or 8nm ??? I am NOT SURE und der hat vor 3 Monaten die Die-Size vom A100 genau auf den Millimeter vorhergesagt.
Aber leider wirklich nur 12GB laut ihm.

PS: er hat auch vorher schon GA103 mit 10/20GB angegeben.

Ghost1nTh3GPU
2020-05-18, 20:12:03
Jetzt erst Tape Out :eek:
Nicht gut... das wird ja dann nix vor Frühjahr 2021.

5 Monate bis zu finalen Karten ist nicht so unüblich. An den PCB arbeiten die Partner laut Igor schon länger.

BlacKi
2020-05-18, 20:31:41
5 Monate bis zu finalen Karten ist nicht so unüblich. An den PCB arbeiten die Partner laut Igor schon länger.
ja, aber ich glaub nicht dass das nur ampere bezogen war. genauso wenig glaube ich, das man wegen pcbs solch einen vorlauf benötigt.

der nen Monat dafür schrieb "7nm confirmed" :D

war auch nicht ernst gemeint.

Troyan
2020-05-18, 20:33:07
5 Monate bis zu finalen Karten ist nicht so unüblich. An den PCB arbeiten die Partner laut Igor schon länger.

Ist bei nVidia noch kürzer. Die simulieren alles bis zum Umfallen. Deswegen können die auch einen 827mm^2 Die mit 54 Mrd. Transistoren produzieren.

Gouvernator
2020-05-18, 21:14:08
hast du es nicht mitbekommen? gaming ampere kommt mit samsungs 8nm(10++). confirmed from leaker nr.1!
Ich habe eher eine Titan im Sinn gehabt. Das kann durch Huawei Ausfall vielleicht sogar noch bezahlbar werden.

wolik
2020-05-18, 21:19:05
Ich habe eher eine Titan im Sinn gehabt. Das kann durch Huawei Ausfall vielleicht sogar noch bezahlbar werden.
Leider (IMXO) Titan wird nicht mehr unter 2,5K geben. und +300 Euro noch auf neuste Ti. C’est la vie

BlacKi
2020-05-18, 21:37:38
Ich habe eher eine Titan im Sinn gehabt. Das kann durch Huawei Ausfall vielleicht sogar noch bezahlbar werden.
die titan preise haben nichts mit der marge zu tun die nv damit macht. leider. eine titan rtx für 2700 wäre auch nicht billiger wenn die produktion des chips nur die hälfte kosten würde.

HOT
2020-05-18, 22:33:56
5 Monate bis zu finalen Karten ist nicht so unüblich. An den PCB arbeiten die Partner laut Igor schon länger.
Nope, bis zum Verkaufsstart brauchst du mindestens 8 Monate, eher länger. Weniger geht einfach nicht.

aufkrawall
2020-05-19, 00:08:35
Ah ja, deshalb waren es bei GM204 auch fünf Monate.

Korvaun
2020-05-19, 07:30:20
Nur weil er das jetzt twittert heißt das ja nicht das der GA104 erst gestern frisch sein tapeout hatte. Könnte auch schon letzten Monat oder 2 Monate her sein, er hats halt jetzt erst erfahren...

Und durchschnittlich 6-7 Monate drauf bis Release heißt also Herbst (Okt-Nov), passt doch gut für NV-Vorstellungs-Event im Sept/Okt.

Timbaloo
2020-05-19, 08:58:43
All previous "leaks" are wrong. Next gaming lineup won't be named Ampere. It will be Hopper directly (like Volta-Turing). Will be a multi chip solution, designed to minimize production cost. Launch Q4 2020.

HOT
2020-05-19, 09:41:11
Ah ja, deshalb waren es bei GM204 auch fünf Monate.
Das mag ja sein, aber heute geht das nicht mehr. Ging mit Turing und Pascal auch nicht. 8 Monate ist Minimum, ich bleibe dabei. Man kann jetzt nicht überall GM204 annehmen.

Korvaun
Dann wäre das früher gekommen. Ich sag nicht, dass das vor Tagen war, aber es war sehr sicher zeitnah.
September für GA104 ist jedenfalls extrem unwahrscheinlich geworden. Frühstens CES würd ich sagen.

Klevapalis
2020-05-19, 12:27:36
8 Monate ist Minimum, ich bleibe dabei.
Ach deshalb liegst du mit deinen Prognosen immer 6-9 Monate daneben ;D

Aber klar, bleib ruhig dabei. Waren bisher ja auch immer komplett falsch, man sollte eine gute Sache nicht ändern :ugly:

Linmoum
2020-05-19, 12:32:08
Dann wäre das früher gekommen. Ich sag nicht, dass das vor Tagen war, aber es war sehr sicher zeitnah.
September für GA104 ist jedenfalls extrem unwahrscheinlich geworden. Frühstens CES würd ich sagen.
Kommt immer darauf an, was man als Grundlage nimmt. ;) Angebliches Tapeout für GA102 soll laut kopite ja schon Anfang März gewesen sein: https://mobile.twitter.com/kopite7kimi/status/1237687606869188608

HOT
2020-05-19, 12:49:14
Genau. Nimm März + 8 Monate und du hast nen sinnvollen Releasezeitpunkt, also Verfügbarkeit so Ende Oktober.