PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Volta - 2017/2018 (GV100, Xavier, ...)


Seiten : 1 2 3 4 5 [6] 7

scully1234
2017-10-01, 11:26:41
Bei Projekten die quasi gegen die Wand gefahr3n wurden wäre ich da aber vorsichtig. Vorallem, wenn man ne DL-Maschine haben will, warum dann von Intel und nicht von IBM und nVidia?

Wenn man das System nur aufstocken möchte ,bestehen vielleicht auch Verträge und ein Grundgerüst auf Cray/Intel Basis, das man nicht mal so einfach portiert in Richtung IBM/Nvidia.

Vertragsbruch/Vertragsstrafen, nötiger weiterer Zeitverlust für die Umstellung,auf eine neue Plattform ec pp

Aurora system. That computer had originally been scheduled to be delivered in 2018 with a performance of 180 petaflops. However, the revised plan for the system is for a 1,000 petaflops (or 1 exaflops) computer to be delivered in 2021. The machine would use “novel technology choices” and would focus on the three pillars of simulation, big data, and machine learning (https://www.hpcwire.com/2017/09/28/us-exascale-program-additional-clarity/)

Sierra u Summit auf Volta Basis sind jedenfalls On Track

Another important piece of news was about the status of the installation of the Oak Ridge National Laboratory (ORNL) Leadership Computing Facility’s Summit computer. This is expected to be a 150 petaflops computer based on the IBM Power9 processors with Nvidia Volta graphic processing units (GPUs). During the meeting, it was reported that the system cabinets had been installed along with the interconnection switches. The computer node boards are expected to arrive sometime towards the end of October and that acceptance testing would start soon after that. It was also reported, that installation of the NNSA’s Lawrence Livermore National Laboratory (LLNL) Sierra computer (similar to Summit) was also underway. One interesting feature of the ORNL computers is that they are installed on a concrete slab with all of the supporting wiring and cooling coming from overhead. (https://www.hpcwire.com/2017/09/28/us-exascale-program-additional-clarity/)

Skysnake
2017-10-01, 12:32:05
@AffenJack
Das merkt man aber nicht erst Monate bevor man ein System hinstellt... Die wussten schon seit Jahren was da kommen wird und haben auch schon länger mit der Portierung angefangen. Mal ganz abgesehen davon das jetzt auch die Schulungen für die "normalen" Nutzer bald angefangen hätten. Man hat da also schon massig Geld und vor allem Manpower versenkt.

Also sorry, wie soll man das bitte sonst bezeichnen als komplett gegen die Wand gefahren? Die Politik muss man da auch immer bedenken. Man versucht da einen Gewichtsverlust aka Imageschaden zu verhindern. Erinnert euch mal an Blue Waters, bei dem IBM hingeschmissen hat.

Wenn das vor nem Jahr oder zwei passiert wäre ok. Aber nicht so knapp vor der Auslieferung. Die ganzen vorlaufzeiten sind einfach viel zu lange. Allein schon die umbauten an der Infrastruktur beginnen meist mindestens ein Jahr bevor die Kiste kommt.

Und bezüglich Klagen. Genau das provoziert man doch mit der aktuellen Situation. An sich handelt es sich um ein neues System.

Und ansonsten. Das System kommt gar nicht. Das ist heftig für Argone , denn das bedeutet dass sie keinen Ersatz für ihr Mira System von 2012 bekommen. Das Ding wird also wahrscheinlich ein Jahrzehnt im Einsatz bleiben wenns dumm läuft. Darauf sind die Systeme aber gar nicht ausgelegt. 3 Jahre voll ok. 5 von mir aus auch noch, aber danach steigt im Allgemeinen die Ausfallrate wohl wieder deutlich weshalb man dann eigentlich auch anfängt die Systeme zu ersetzen. MPI ist halt nicht fault tolerant. Wenn dir also ein Knoten wegfliegt warst das, und bei restart times im Bereich von ner Stunde für ein System wie Mira at scale tut das echt weh.

Als Zweit System weiterverwenden und dann auf Durchsatz umstellen mit relativ kleinen Jobs ist es ja ok. Dann wird man eventuell das Ding sogar wirklich 10 Jahre betreiben können, aber als capability System??? Also ich weiß nicht.

Und wenn Sie einen anderen Ersatz bekommen" dann unterstreicht das eigentlich, dass das Ding vor die Wand gefahren wurde

Skysnake
2017-10-01, 12:37:39
intel wird den besseren preis gemacht haben.

Es gab keine Ausschreibung... Es konnte also niemand einen Preis machen...

DAS ist doch das Problem das ich explizit mit erwähnt habe. An sich sollte man das wie bei den Deals im Rüstungs und Luftfahrt Bereich sehen, und da gab es in den letzten Jahrzehnten wegen deutlich weniger heftige Klagen.

Ein Vorteil könnte nur sein, das es an sich ein inneramerikanisches Ding ist.

Naja, vielleicht bekomme ich ja noch ein paar Infos off record. Kenne paar Leute die an National Labs gearbeitet haben.

cat
2017-10-01, 13:52:12
Bei Volta GeForce kann eine einzige beantwortete Frage fast alle Probleme lösen.

Frage:
Können Tensor-Cores nach dem Wegfall der FP16-Fähigkeit,
der jetzt getrennten INT- und FP32-Cuda-Cores,
die in Games gestellten FP16-Befehle verarbeiten bzw. beschleunigen ? :confused:

gravitationsfeld
2017-10-01, 14:12:35
Was haben Tensor-Cores mit FP16 zu tun?

AffenJack
2017-10-01, 14:23:00
@Skysnake

Es waren aber nicht Monate, die wussten das auch schon seit einiger langer Zeit, dass Aurora doch nix werden wird. Es ist um Aurora Anfang des Jahres still geworden. 1,5 Jahre vor der Installation der ersten Racks. Intel hat ende 2016 noch gesagt, dass alles on Track für Q4 18 ist. Also kann man ziemlich sicher sein, dass Argonne nicht gecancelt wurde, weil Intel das wollte, sondern weil das DOE das wollte. Gut möglich, dass man Anfang 2017 gecancelt hat und dann erstmal in Verhandlungen für eine Neuausrichtung war. Ich zweifle, dass 1,5 Jahre vor der Installation schon soviele Vorbereitungsarbeiten gemacht wurden. Für Argonne natürlich blöde, die müssen erstmal damit leben, was sie haben und sind deutlich limitiert.

@cat
Wieso löst die Frage alle Probleme? Tensor Cores sind erstens nicht nutzbar für die normalen FP16 Befehle und zweitens bestimmt in den Geforce sogut wie nicht vorhanden. Ein paar Stück aus Kompatibilitätsgründen wie es bei DP auch gemacht wird.

pixeljetstream
2017-10-01, 16:29:05
Ob sie nutzbar oder nicht sind, liegt doch nur am compiler. Wenn der ein fp16 pattern erkennt was sich auf die tensor operation abbilden lässt, ist doch egal woher es kommt.
Die Wahrscheinlichkeit dafür ist natürlich geringer im Vergleich zu generischen fp16.

=Floi=
2017-10-02, 00:02:18
Es gab keine Ausschreibung... Es konnte also niemand einen Preis machen...


dann spricht es noch mehr für intel. bei denen dürfte es ja gar kein problem sein, wenn ihre fabs sowieso nicht voll ausgelastet sind.
ein wenig ABM für ihre fabs, was gutes für den namen und dann wieder neue offizielle aufträge...

Gipsel
2017-10-02, 13:41:00
Den Verbleib einiger Member könnt ihr gerne hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11507143#post11507143) diskutieren.

AffenJack
2017-10-03, 10:49:34
In einem anderen Forum gesehen und vielleicht für irgendwen hier interessant:

Volta Designhintergründe mit C++
https://www.youtube.com/watch?v=86seb-iZCnI

Allerdings kein Plan, ob da irgendwas neu oder nützlich ist.

Hübie
2017-10-03, 11:57:23
Neu, nein. Nützlich für die, die es brauchen. Aber ist schon sehr simplifiziert. Danke für den Link. :up:

deLuxX`
2017-10-07, 09:47:47
Gibt es eigentlich schon einen ungefähren Termin für GV104 + GV106?

Skysnake
2017-10-07, 10:07:22
Nicht das ich wüsste

Sweepi
2017-10-07, 10:20:14
Die noch sehr trübe Glasskugel sagt Feb 2018.

AffenJack
2017-10-07, 11:30:02
Für GV104 könnte Q1 hinkommen. Gv106 wird eher Ende Q2 kommen, sonst würde man keine 1070Ti mehr bringen.

Platos
2017-10-07, 12:23:25
Bekannt ist noch nichts. Keine Leaks bisher, alles nur Schätzungen, mehr nicht.

Es kann sein, dass Volta schon im 1. Quartal kommt. Es kann aber auch genau so gut sein, dass es April-Mai für GV 104 und Juli-August für GV 106 wird. Das der GV 106 früh kommt, ist aus 2 Gründen eher nicht anzunehmen (irgendwelche Fakten gibts aber nicht).

1. Wie AffeJack sagt, glaube ich nicht, dass nvidia im November eine 1070Ti raus bringt um sie dann im Feb. gleich wieder abzulösen. Ich denke die wird bis April nicht abgelöst.
2. Die letzten Male kamen immer zuerst die GTX 1070&1080 (also GV 104) und erst nachher GV 106 (welcher dann vermutlich die GTX 1070(ti) ablösen würde).

Rampage 2
2017-10-08, 03:42:35
Für GV104 könnte Q1 hinkommen. Gv106 wird eher Ende Q2 kommen, sonst würde man keine 1070Ti mehr bringen.

Wann werden denn die ersten Details durchsickern? - also Infos VOR der eigentlichen Vorstellung...

R2

AffenJack
2017-10-08, 12:26:43
Wann werden denn die ersten Details durchsickern? - also Infos VOR der eigentlichen Vorstellung...

R2

Da es mittlerweile nur noch wenig Leaks gibt, 2-3 Monate vor Release. Also nächstes Jahr. Bis dahin bleibt der Thread eher ne Glaskugel.
Bei der Konkurrenzsituation würde es mich auch nicht wundern, wenn die anderen diesmal erst nach der Titan erscheinen, die wohl Ende März kommt.

Troyan
2017-10-10, 11:36:10
Volta für den Kofferraum:
https://images.anandtech.com/doci/11908/1507627944124292908386_575px.jpg
https://www.anandtech.com/show/11908/gtc-europe-nvidia-keynote-live-blog-10am-cet-9am-utc

Bucklew
2017-10-10, 11:40:13
Geiles Ding....

Hübie
2017-10-10, 11:51:05
Soviel ich weiß wird dies die erste Generation sein die man durchgängig und zeitgleich anbieten wird. Volle Skalierung von embedded, mobile, iGPU (theoretisch über IP licencing), entry level, performance, highend, enthusiast bis zu professional und HPC. Das spart noch mals Kostenstrukturen an einigen Stellen. Die Erwartungen am Börsenmarkt sind entsprechend hoch (wobei ich persönlich die teilweise für überzogen halte).

Volta soll uns in puncto Perf/W noch mal das Staunen lehren. Da bin ich ja mal gespannt. :D

Bucklew
2017-10-10, 11:57:21
Volta soll uns in puncto Perf/W noch mal das Staunen lehren. Da bin ich ja mal gespannt. :D
Stimmt, wie ich schon vor ca. 2 Monaten angemerkt hatte:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11462857&postcount=1077

Troyan
2017-10-10, 12:04:33
"Pegasus" wird nicht Volta verwenden, sondern den Nachfolger. Spricht imo dafür, dass Volta V1 nicht als Consumer-Version kommt.

Bucklew
2017-10-10, 12:07:24
Sowohl als auch.

GPU-Part im SoC ist weiterhin Volta, die GPUs selbst bekommen den Volta-Nachfolger.

Eventuell sehen wir etwas wie GM107/GM204.

Hübie
2017-10-10, 12:32:50
"Pegasus" wird nicht Volta verwenden, sondern den Nachfolger. Spricht imo dafür, dass Volta V1 nicht als Consumer-Version kommt.

Das bezog sich auf Xavier. ;) War also keine direkte Antwort auf dein Bild.

BoMbY
2017-10-10, 14:21:07
Volta für den Kofferraum:
https://images.anandtech.com/doci/11908/1507627944124292908386_575px.jpg
https://www.anandtech.com/show/11908/gtc-europe-nvidia-keynote-live-blog-10am-cet-9am-utc

Na, hab ich ja schon gesagt: NVidia wird sich jetzt halt ganz auf ihr Kerngeschäft AI konzentrieren, und neue Gaming-Produkte haben die vermutlich gar nicht mehr auf dem Schirm.

AffenJack
2017-10-10, 14:33:49
"Pegasus" wird nicht Volta verwenden, sondern den Nachfolger. Spricht imo dafür, dass Volta V1 nicht als Consumer-Version kommt.

Jupp, macht zeitlich am meisten Sinn. PX2 hatte damals early access ende q2 16, q4 16 auslieferung an mehr devs, während die GPUs darauf in der Mitte des Jahres kamen.

Pegasus ist nurn Ende Q1 Early access und H2 Auslieferung an Devs. Passende GPUs sollten also in Q2 kommen. Kann daher eigentlich nur Volta V2 sein. Möglich, dass V100 zb. keine erweiterten DX12 Features bekommen hat und man sowas weggelassen hat.

Zu den TOPS von Pegasus, 320 TOPS sind angegeben, minus die 60 von den 2 Xavier sind wir bei 260 TOPS von GPUs. Das ist mehr als V100 leistet, aber ich könnte mir vorstellen, dass hier nur INT8 TOPS für Interferencing gemeint sind. Die Tensorcores dafür sollten deutlich kleiner sein, als die von V100. Aber trotzdem bräuchte man die gleiche Anzahl Tensorcores wie bei V100. V100 hat bei 5120 SP 640 Tensorcores mit 128Flops/Tensor. Wenn man dann einen GV102 Vollausbau nehmen würde mit Int8, 672T x 128Flops x 1500mhz = 129 TOPS pro GPU. Klingt für mich ziemlich passend. Nur frage ich mich, wie groß GV102 wird, wenn sogar TCs dabei sind.

Bucklew
2017-10-10, 15:34:43
Interessant:

ZF hat DrivePX adaptiert und verbaut es aktuell u.A. in ein Test-Elektroauto (Streetscooter) von DHL.

https://www.heise.de/newsticker/meldung/Autonomer-StreetScooter-Deutsche-Post-DHL-will-selbstfahrende-Lieferwagen-testen-3854689.html

Na, hab ich ja schon gesagt: NVidia wird sich jetzt halt ganz auf ihr Kerngeschäft AI konzentrieren, und neue Gaming-Produkte haben die vermutlich gar nicht mehr auf dem Schirm.
Ähm, ja. Völliger B.S. Weder ist bei NVIDIA AI das Kerngeschäft, noch werden Sie in Zukunft Gaming vernachlässigen.

Mancko
2017-10-10, 17:14:08
Na, hab ich ja schon gesagt: NVidia wird sich jetzt halt ganz auf ihr Kerngeschäft AI konzentrieren, und neue Gaming-Produkte haben die vermutlich gar nicht mehr auf dem Schirm.

Ganz bestimmt. Setzen ja nur knapp 50% ihres Quartalsumsatzes mit Gaming um. Sieht nach einem echten Randgeschäft aus...

BoMbY
2017-10-10, 17:36:47
Ähm, ja. Völliger B.S. Weder ist bei NVIDIA AI das Kerngeschäft, noch werden Sie in Zukunft Gaming vernachlässigen.

Jo, deswegen sprechen die auch in letzter Zeit soviel von Gaming, und so wenig von AI. Das einzige was der NVidia-Hansel in den letzten ~3 Keynotes zu Gaming gesagt hat, war das Pascal in der vorhersehbaren Zukunft deren Gaming-Architektur bleiben wird, oder so ähnlich.

Bucklew
2017-10-10, 18:07:36
Jo, deswegen sprechen die auch in letzter Zeit soviel von Gaming, und so wenig von AI.
Logisch. Es gibt noch keine Gamingprodukte. Wenn es die gibt, wird darüber auch geredet. Ganz simpel, oder?

Das einzige was der NVidia-Hansel in den letzten ~3 Keynotes zu Gaming gesagt hat, war das Pascal in der vorhersehbaren Zukunft deren Gaming-Architektur bleiben wird, oder so ähnlich.
"vorhersehrbare Zukunft" = Weihnachtsgeschäft 2017

Bin mir sicher, das gilt auch für 2018 ;D

BoMbY
2017-10-10, 21:19:29
Ja, und die ganzen heute angekündigten Produkte liegen auch alle schon in den Regalen und warten nur auf Käufer ... :rolleyes:

Welchen Stellenwert Gaming mittlerweile bei denen einnimmt ist eigentlich offensichtlich, aber da müsste man wohl die grüne Brille abnehmen um das zu sehen. Und die letzte große technische "Innovation" in dem Bereich war dieses sinnlose Ansel-Screenshot-Gedöns, und ein SLI-interface mit Zusatzkosten.

Rampage 2
2017-10-10, 22:33:58
Da es mittlerweile nur noch wenig Leaks gibt, 2-3 Monate vor Release. Also nächstes Jahr. Bis dahin bleibt der Thread eher ne Glaskugel.
Bei der Konkurrenzsituation würde es mich auch nicht wundern, wenn die anderen diesmal erst nach der Titan erscheinen, die wohl Ende März kommt.

Naja, wenn GV104 (oder 102) schon im Q1/2018 (Januar oder Februar) offiziell vorgestellt wird, dann könnten (nach deiner Logik) schon im Dezember 2017 erste Details bekannt werden...


Pegasus ist nurn Ende Q1 Early access und H2 Auslieferung an Devs. Passende GPUs sollten also in Q2 kommen. Kann daher eigentlich nur Volta V2 sein. Möglich, dass V100 zb. keine erweiterten DX12 Features bekommen hat und man sowas weggelassen hat.


Diese Behauptung wird in letzter Zeit häufiger aufgestellt - muss man das so verstehen, dass es eine Wiederholung der GM107 zu GM204-Geschichte ist und dass deswegen GV10x erst in Q2/2018 vorgestellt wird? Und dass deswegen GV100 nicht die Architekturveränderungen und Featuresets der Gaming-Voltas besitzt, weil es noch "Volta V1" ist?

R2

AffenJack
2017-10-11, 00:52:34
Naja, wenn GV104 (oder 102) schon im Q1/2018 (Januar oder Februar) offiziell vorgestellt wird, dann könnten (nach deiner Logik) schon im Dezember 2017 erste Details bekannt werden...

Falls sie dann kommen ja, aber ich würde da eher von März, April ausgehen.


Diese Behauptung wird in letzter Zeit häufiger aufgestellt - muss man das so verstehen, dass es eine Wiederholung der GM107 zu GM204-Geschichte ist und dass deswegen GV10x erst in Q2/2018 vorgestellt wird? Und dass deswegen GV100 nicht die Architekturveränderungen und Featuresets der Gaming-Voltas besitzt, weil es noch "Volta V1" ist?

R2

Wie kommst du darauf, dass die Behauptung öfter aufgestellt wird? Das ist gerade der Gedanke, weil Nvidia gesagt hat, dass auf Drive PX Pegasus post-Volta-Gpus drauf sind. Davor war eher die Behauptung von Leuten wie BoMbY, dass es Pascal V2 wird. Aber da solltest nix drauf geben, weil das von den roten Fanboys immer kommt.

basix
2017-10-11, 03:58:18
Wenn Volta eine so viel höhere Shader-Effizienz als Pascal hat, wird man das garantiert mitnehmen für Gaming. Alles andere wäre sinnbefreit (ausser man unterstellt Nvidia Innovationsverzögerung für Profitmaximierung).

scully1234
2017-10-11, 09:14:22
. Davor war eher die Behauptung von Leuten wie BoMbY, dass es Pascal V2 wird. Aber da solltest nix drauf geben, weil das von den roten Fanboys immer kommt.

Da spricht doch nur der pure Neid , das es NVIDIA versteht , sich schnell neuen Märkten zu öffnen

Das sie dabei ihr Kerngeschäft vernachlässigen würden , ist angesichts der Quartalszahlen ja schon wiederlegt

Anscheinend ist Ryan Shrouds Einschätzung , schon wieder zu viel gewesen;)

http://www.marketwatch.com/story/nvidia-has-now-become-the-leader-in-autonomous-driving-technology-2017-10-10?siteid=rss&rss=1

pixeljetstream
2017-10-11, 11:42:20
Die GTC ist keine Gamingkonferenz, da wurde in fast allen Jahren so gut wie nix über Gaming groß in der Keynote gesagt. Dass sich die Firma ganz auf das umorientieren würde ist zu weit hergeholt. Selbst beim Training in der virtuellen Realität für Roboter, Autos usw. brauch man top Grafik/Physik usw. für Realismus und hyper real-time training...
Imo interessiert sich an der Börse keiner für den Erfolg im Gaming, sondern nur die Wachstumssektoren, das ist auch schon ewig so und hat nix an den Investments in Gaming geändert.
VR und AI sind einfach die zwei Topics, die die Industrie am meisten interessieren, also kriegen sie auch das zu hören auf ner Messe für die Industrie...

Iruwen
2017-10-11, 15:04:56
Ja, und die ganzen heute angekündigten Produkte liegen auch alle schon in den Regalen und warten nur auf Käufer ... :rolleyes:

Welchen Stellenwert Gaming mittlerweile bei denen einnimmt ist eigentlich offensichtlich, aber da müsste man wohl die grüne Brille abnehmen um das zu sehen. Und die letzte große technische "Innovation" in dem Bereich war dieses sinnlose Ansel-Screenshot-Gedöns, und ein SLI-interface mit Zusatzkosten.

Die verticken im Gamingbereich doch ihre kaputten Chips, machen ne irre Marge mit dem Enthusiast Zeug und würden mit einer Vernachlässigung AMD einen Fuß in die Tür kriegen lassen, das ergibt 0,0 Sinn. Zumal die anderen Märkte viel härter umkämpft sind.

Hübie
2017-10-11, 17:06:06
Na, hab ich ja schon gesagt: NVidia wird sich jetzt halt ganz auf ihr Kerngeschäft AI konzentrieren, und neue Gaming-Produkte haben die vermutlich gar nicht mehr auf dem Schirm.

Bist du dir sicher, dass du das so stehen lassen willst? :confused: Klar wird man den Fokus weiter ausbauen und fährt seine Strategie um Partnerschaften weiter auszubauen, aber es fließt doch noch immer der Großteil in die Entwicklung von GPUs (graphics processing units). Das wird nie ein Selbstläufer sein und wenn du dir die Umsätze der großen Publisher anschaust ist das kein schrumpfender Markt - genau so wenig wie Systemanforderungen oder Verkäufe dedizierter Grafikchips rückläufig sind.

Nur wird sich mit Volta das Portfolio eben flächendeckend implementieren lassen - zumindest theoretisch. Die reelle Verfügbarkeit wird sich sicherlich innerhalb eines Jahres ab Starttermin von Volta (Endkundenmarkt) ergeben. AI - oder besser allgemein - Deep Learning ist halt ein Wachstumsmarkt wo aber auch schon schnell Konkurrenz in Form von CNN Accelerators auftaucht (Intel Nervana (https://www.intelnervana.com/intel-nervana-hardware/), Google's TPU (https://cloud.google.com/tpu/), alles mögliche an FPGAs von Xilinx und ASICs von Broadcom, ST Micro sowie einigen startup-companies...).

BoMbY
2017-10-11, 18:04:43
Nvidia setzt im Moment eindeutig nur auf das AI-Pferd bei der Entwicklung, alles andere ist ein Nachgedanke. Ich wäre wirklich nicht überrascht, wenn NVidia nächstes Jahr im März, oder so, einen Pascal-Refresh mit GDDR5X als GTX 2000 Reihe auf den Markt bringt, anstelle irgendwas das etwas mit Volta zu tun hat. NVidia ist was Gaming-GPUs da angekommen, wo Intel mit der Core-Reihe kalt von Ryzen erwischt wurde - die haben nur Glück, dass der RTG kein großer Wurf gelungen ist bisher - könnte gut sein, dass es bei Vega 11, mit möglicherweise GDDR6, in 12LP nächstes Jahr schon ein bisschen anders aussieht.

scully1234
2017-10-11, 18:19:48
Glaskugel scheint wohl wieder mal nicht zu funktionieren

NVIDIA bringt Pascal Refresh und dann noch die Assoziation mit Intel^^

Genau wegen eben solcher Unbedachtheiten stehen sie auch da wo sie jetzt stehen...

pixeljetstream
2017-10-11, 19:03:20
Nvidia setzt im Moment eindeutig nur auf das AI-Pferd...

Darf ich dagegen wetten ;)

Mit Pascal sieht man doch dass es parallel geht. Gp100 für Data center, Gp10x für Desktop etc.
Man investiert doch nicht Unsummen in ne Architektur um die dann links liegen zu lassen. Das ganze funktioniert doch gerade wegen dem Reuse über verschiedene Bereiche und der Kostenteilung. Treiber, Compiler, testinfrastruktur usw. Das alles wegen genau einem Business ist doch viel zu teuer und würde kaum lohnen. Es geht immer nur vorwärts. Man nutzt die Erkenntnisse für spätere Generationen... Ein Rückschritt wie du ihn prophezeist ist viel zu unwirtschaftlich.

In dem Moment wo man an dem Fortschritt spart lauern AMD, Intel, Google und Microsoft mit ihren eigenen Chips, nur so lange man fröhlich mehr investieren kann, kann man vorne bleiben. Und das Geld für diese Investitionen kommt von allen Businessbereichen, und Gaming ist da extrem wichtig.

Hübie
2017-10-11, 19:15:52
Nvidia setzt im Moment eindeutig nur auf das AI-Pferd bei der Entwicklung, alles andere ist ein Nachgedanke. Ich wäre wirklich nicht überrascht, wenn NVidia nächstes Jahr im März, oder so, einen Pascal-Refresh mit GDDR5X als GTX 2000 Reihe auf den Markt bringt, anstelle irgendwas das etwas mit Volta zu tun hat. NVidia ist was Gaming-GPUs da angekommen, wo Intel mit der Core-Reihe kalt von Ryzen erwischt wurde - die haben nur Glück, dass der RTG kein großer Wurf gelungen ist bisher - könnte gut sein, dass es bei Vega 11, mit möglicherweise GDDR6, in 12LP nächstes Jahr schon ein bisschen anders aussieht.

Ach so? Dann wirft man also alles in die Tonne und verkauft nur ein paar Volta Chips (denn das Volumen ist wirklich klein), anstatt die Investitionen seit 2013 (ungefähr da wurde mit Volta angefangen) wieder herein zu holen.
Mal etwas weiter ausholen:

Das binning der aktuellen Gen ist sehr ausgereift, was OC-Spielraum verkleinert. Zu sehen an der Tabelle bei computerbase.de (https://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/) wo der durchschnittliche Takt bei ~1.667 MHz liegt und durch den schlechten Kühler limitiert wird. 1780 MHz wenn man den Lüfter aufdreht oder das TT aushebelt. Durchschnittlich boosten customs auf 1950 MHz (stets PT-Limit). Das heißt 10% Werks-OC sind aktuell drin (bei Maxwell waren es 21%!). Resultieren auch fast 1:1 in mehr Performance. Jetzt müsste man irgendwie 20% mindestens heraus holen um den Absatz stagnieren zu lassen und Kunden bei Laune zu halten (wenn überhaupt). Das bei gleichem Prozess und gleicher Architektur wäre bewundernswert, aber unrealistisch. Was bringt dich also zu der Schlußfolgerung? :confused:
Ein weiteres Indiz: R&D Budget ist gestiegen, was impliziert, dass man mehr forscht und entwickelt. Würde man Gaming jetzt fallen lassen würde das Budget seit einiger Zeit stagnieren oder rückläufig sein (AI ist nicht sehr neu und aufwändig).
Außerdem müsstest du mir verraten warum man immer noch ROPs, TMUs und sämtliche Frontend stages (vertex, DS/HS etc) implementiert?


Das alles lässt mich zumindest nicht ganz das schlussfolgern was du uns hier unterjubelst. :freak:

scully1234
2017-10-11, 19:16:22
Zumal es auch nicht einleuchtet eine rentable Sparte,( und das ist in dem Sinne auch der GeForce Markt ein aufs andere Quartal immer wieder)stiefmütterlich zu behandeln, auch wenn andere Sektoren zusätzlich boomen

Die bestehenden u kommenden Architekturen gleichermaßen auf die lukrativen Sparten zu verteilen, solange es die Fertigungskapazitäten bei TSMC zulassen, liegt eigentlich auf der Hand

=Floi=
2017-10-11, 19:39:48
Die verticken im Gamingbereich doch ihre kaputten Chips, machen ne irre Marge mit dem Enthusiast Zeug und würden mit einer Vernachlässigung AMD einen Fuß in die Tür kriegen lassen, das ergibt 0,0 Sinn. Zumal die anderen Märkte viel härter umkämpft sind.

wer sagt denn, dass vega 64 cluster hat und nicht 66 oder 68?

sehe den rest auch wie die anderen user.

Timbaloo
2017-10-11, 19:46:30
NVidia ist was Gaming-GPUs da angekommen, wo Intel mit der Core-Reihe kalt von Ryzen erwischt wurde - die haben nur Glück, dass der RTG kein großer Wurf gelungen ist bisher - könnte gut sein, dass es bei Vega 11, mit möglicherweise GDDR6, in 12LP nächstes Jahr schon ein bisschen anders aussieht.
Jaja, mit dem Angriff Steiners wird das alles in Ordnung kommen...

Hübie
2017-10-11, 20:03:46
Also mehr Hinweise dass er falsch liegt können wir wohl kaum noch geben. :freak: Intel und NVIDIA sind extrem unterschiedliche Organisationen. Das einzige was die verbindet ist das
Interesse eines jeden Unternehmens: Profitabel zu sein. NVIDIA macht die Salamischeibchen höchstens mal durch Takt dünner, nicht durch das aktive vorenthalten von Technologien. Bisher wägte man imo seit einigen Gens ganz gut ab, was herein kommt und was nicht.

BoMbY
2017-10-20, 18:31:11
NVIDIA macht die Salamischeibchen höchstens mal durch Takt dünner, nicht durch das aktive vorenthalten von Technologien.

Ähh ja. NVidia will sich genauso wie Intel das Freischalten von bestimmten Funktionen (SLI, vGPU, etc.) extra bezahlen lassen. Und wer nicht merkt wie die Gaming-Kunden von NVidia regelmäßig verarscht werden, der sieht offensichtlich nicht ganz klar.

Eine Tesla V100 kann man jetzt immerhin für schlappe 10.000 Euro (https://www.sona.de/.1547279962-Supermicro-NVTV100-16-NVIDIA-Tesla-V100-16GB-PCIe-3.0-%28Bulk%29) kaufen.

Timbaloo
2017-10-20, 19:27:40
Ähh ja. NVidia will sich genauso wie Intel das Freischalten von bestimmten Funktionen (SLI, vGPU, etc.) extra bezahlen lassen. Und wer nicht merkt wie die Gaming-Kunden von NVidia regelmäßig verarscht werden, der sieht offensichtlich nicht ganz klar.
"Overclockers dream" und so... :rolleyes:

Menace
2017-10-20, 19:39:45
"Overclockers dream" und so... :rolleyes:

Whataboutism (https://de.wikipedia.org/wiki/Whataboutism)und so... :rolleyes:

scully1234
2017-10-20, 19:52:34
Whataboutism (https://de.wikipedia.org/wiki/Whataboutism)und so... :rolleyes:



Ist halt schlecht wenn man andere plump denunzieren will die erfolgreicher sind,und dann den eigenen traurigen Spiegel vorgehalten bekommt

Das trifft sowohl für Bombys Aussage zu, als auch für das Zitat aus Timbaloos Signatur, beides bietet ein ähnlichem Level an Komik u Surrealismus ;)

BoMbY
2017-10-21, 12:35:50
Naja, einige Dinge sind jedenfalls offensichtlich: Der Konjunktiv gehört nicht zu den Stärken vieler Schreiber hier, und dass NVidia versucht ihre Kunden mit allen Mitteln zu melken ist eigentlich offensichtlich.

"Overclockers dream" und so... :rolleyes:

Und dazu: https://www.gtx970settlement.com/ ... "4 GB Speicher" und so ... Und die 1070 Ti dürfte auch ein Knaller werden, Reviews erst eine Woche nach Vorbestellung, und sehr wahrscheinlich nicht Übertaktbar.

Fragman
2017-10-21, 12:43:43
versucht ihre Kunden mit allen Mitteln zu melken ist eigentlich offensichtlich.


wuerdest du das anders machen?
gerade im hinblick darauf, das der einzige konkurrent die preisschraube auch kraeftig angezogen hat? die preise zu senken, oder anders auf den kunden zu zugehen, macht aus nv sicht aktuell keinen sinn.

Mancko
2017-10-21, 13:45:57
Naja, einige Dinge sind jedenfalls offensichtlich: Der Konjunktiv gehört nicht zu den Stärken vieler Schreiber hier, und dass NVidia versucht ihre Kunden mit allen Mitteln zu melken ist eigentlich offensichtlich.

Und dazu: https://www.gtx970settlement.com/ ... "4 GB Speicher" und so ... Und die 1070 Ti dürfte auch ein Knaller werden, Reviews erst eine Woche nach Vorbestellung, und sehr wahrscheinlich nicht Übertaktbar.

Was heißt schon melken. Die Konkurrenz ist halt aktuell eińfach zu unfähig. Braucht riesige, komplexe Designs und ist im Zeit und Kostennachteil und zieht nicht vorbei. Dementsprechend spielt Nvidia mit denen. Die Situation ist günstig und Nvidia macht genau das was man in so einer Situation macht. Noch mehr abschöpfen und die Kriegskasse weiter auffüllen. Das ist halt einfach erfolgreich.

scully1234
2017-10-21, 14:17:08
und dass NVidia versucht ihre Kunden mit allen Mitteln zu melken ist eigentlich offensichtlich.


Entweder Marktwirtschaft ist für dich ein Fremdwort, oder du willst aus Prinzip einfach nur jemanden den schwarzen Peter zu schieben


die Kriegskasse weiter auffüllen. Das ist halt einfach erfolgreich.

das ist nicht nur erfolgreich, das ist überlebenswichtig

Keinen Rückhalt fürs R&D mehr zu haben, falls mal eine Architektur floppt ,und der Konzern ist mehr oder minder aus dem Rennen

Die Blaupausen dafür gibts zur Genüge in der Vergangenheit einiger Konzerne

Kriton
2017-10-21, 18:35:09
Ich finde es ja putzig, dass Menace verlinkt, wie von den Inhalten abgelenkt wird, und dann kommt man und nutzt dieselbe Methode erneut um der von ihm geäußerten Kritik zum (nicht vorhandenen) Diskussionsstil aus dem Weg zu gehen.

Aber diese Ironie geht vermutlich an den Betroffenen vorbei...

Grendizer
2017-10-23, 23:32:51
Igor meinte im 1070 Ti thread, das es wohl eine Roadmapanpassung für die Hersteller gab und es für die nächste Generation von nVidia Karten nicht mehr explizit Volta heissen würde und auch nicht mehr Q1 genannt wird.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11529644&postcount=140

Ex3cut3r
2017-10-23, 23:38:35
Ja kacke für mich, wollte meine 1070 im Q1/2017 mit einer 1170 oder 1180 ersetzen. Aber war klar, Vega setzt einer 1080Ti und eine 1080 in 95% der Fälle nicht in Gefahr.

Timbaloo
2017-10-24, 00:25:26
Naja, wie soll man das jetzt einordnen? Dass NV es dank Versagen der Konkurrenz nicht nötig hat aufs Gas zu drücken ist offensichtlich. Aber das erklärt irgendwie nicht warum das dann nicht mehr Volta genannt werden soll?

Oder trennt man Compute und Grafik nun komplett, also auch bei den Architektur(bezeichnung)en und lässt das was bisher GV104 gewesen wäre komplett fallen und liefert (später) eine reine 3D-Architektur? Gibt es überhaupt schon einen Namen für eine Architektur nach Volta?

Also klingt irgendwie ein wenig schräg. Bis auf die Verschiebung.

aufkrawall
2017-10-24, 00:33:03
Er glaubt das offenbar schon länger, stand auch schon früher auf TH.

Hübie
2017-10-24, 00:53:41
Kepler, Maxwell, Pascal, 4th Gen... :D Ich seh das mal ganz entspannt.

Timbaloo
2017-10-24, 01:01:13
Er glaubt das offenbar schon länger, stand auch schon früher auf TH.
Was konkret? Die Verschiebung oder die "Umbenennung"?

pixeljetstream
2017-10-24, 01:01:38
So schlecht ist AMD nicht dass NV sich ausruhen könnte und die anderen großen schlafen auch nicht.

Timbaloo
2017-10-24, 01:06:42
Doch sind sie. Vega 484 mm² @ HBM auf einer Höhe mit 314 mm² @ GDDR5(X). Das sind, für ein Spekulationsforum, die relevanten Fakten. Das ist nicht "so schlecht", das ist erbärmlich.

Und wer sind die anderen Großen?

Hübie
2017-10-24, 01:45:30
Ich fürchte du hast da einen falschen Blickwinkel, Timbaloo. ;)

Unter wirtschaftlichen Gesichtspunkten ergibt es an keiner Ecke Sinn so viel Geld in eine µArch zu stecken um am Ende ein paar zehntausend davon abzusetzen. Iirc sind für dieses Jahr schon weit über 400 Mio $ R&D verbraten. Das schießt man aus vielen Gründen nicht in den Wind.

Die Großen sind übrigens Google, IBM, Qualcomm, Intel, Samsung und AMD (in sinnloser Reihenfolge wie die mir in den Kopf kamen). Gibt noch mehr player auf dem Feld, sogar startups die man im Auge behalten muss.

Platos
2017-10-24, 05:54:32
Naja, schlafen ist halt das falsche Wort, aber Vega 64 ist halt auch nicht gerade ein Tritt in den Arsch. Sie können sich vlt. nicht zurück lehnen (das kann man nie ganz, denn man ist immer sein eigener Konkurrent), aber sie müssen nicht ganz so viel machen, wie wenn AMD jetzt einen guten 1080Ti Konter gebracht hätte. Dann wäre sicher mehr drin. Ist halt schon schade.

Edgecrusher86
2017-10-24, 07:07:19
Theoretisch könnte 4th Gen auch Salami-Maximal sein: Pascal 2.0 in 12FF - ein GP110/112 mit der Größe von GM200 - Taktraten leicht höher, zum Beispiel 4608-5120 SP und grob 20-30% über der Xp.
Damit es schön teuer wird, könnte man natürlich 16GB HBM2 beim TITANEN verbauen. Die Ti dann später so 5-10% dahinter; etwa mit 384-bit und 12GB.
Als aller Erstes würde man natürlich einen fetteren GP114 mit 3072-3584 SPs um die 370-400mm² bringen (20-25% oberhalb der GTX 1080) - zum Beispiel inkl. 320-bit SI und 10GB. :freak:


Nun ja, Volta, nächstes Jahr im Consumer-Bereich, wäre schon etwas Feines.


Hoffentlich nimmt sich NV kein Beispiel an Intel, die die neueste Gen. immer erst für ein Segment (Mainstream) bringen und dann die großen Modelle (HEDT) erst über ein Jahr später veröffentlichen (also so ähnlich wie zu Kepler-Zeiten).
Also 2017/2018 TESLA/Quadro und 2019 dann erst GV104, 102 usw. bringt, ein paar Monate, bevor AMD Navi fertig hat. Derzeit würde die Marktsituation das wohl ermöglichen. :rolleyes:
Volta für Desktop könnte man dann z.B. gleich in 7nm bringen und dem großen Chip bei Bedarf auch mehr Einheiten spendieren, als dies GV100 vorsieht (bis zu 5376 SP). Auf jeden Fall lag seitens einer NV-Simulation
das Maximum eines monolithischen GPU bzgl. Skalierbarkeit ja bei 8192 SPs - da hätte man mit einem Shrink noch ein gewisses Spielraum, um einiges mehr an FP32-Rechenleistung über einem GV100 zu liegen.
6144 SPs wären z.B. 20% über V100 mit gleichen Taktraten, 7680 SPs dann 50% zum Beispiel.

Das einzig Positive wäre dann, dass man mit einem aktuellen Enthusiasten-Modell noch länger Ruhe hätte - zwar wohl nicht so extrem wie bei den CPUs, wo z.B. meine für Fokus Gaming vermutlich noch langt, bis PCI-E 5.0 erscheint
(2020 oder ff @ HEDT), aber halt 2-3 Jahre. Andererseits wäre es auch etwas langweilig, wenn man ehrlich ist, brachten neue NV GPUs doch immer zu jeder Generation mindestens 50% Mehrleistung im Vergleich zum jeweiligen
Vorgängermodell über die letzten Jahre.

Hübie
2017-10-24, 07:52:01
Du meinst also eine Querfinanzierung durch Pascal? Klar wäre dies möglich. Verzögert aber den Armortisationszeitraum und ohne genügend Anreize wird man wohl kaum ausreichend Kunden überzeugen können. Ich denke man wird es wie bei Pascal zweigleisig machen wobei das Featureset im Desktop nicht so gravierend voneinander abweichen wird. Mehr als 5500 SPs würden mich darüber hinaus wundern.

Ps: HBM & GDDR sind unterschiedliche Schnittstellen weshalb das nicht auf einem Chip gehen wird. Glaube kaum dass man HBM von NV bei consumer-products nächstes Jahr sehen wird.

Sonyfreak
2017-10-24, 07:56:56
Die Großen sind übrigens Google, IBM, Qualcomm, Intel, Samsung und AMD (in sinnloser Reihenfolge wie die mir in den Kopf kamen). Gibt noch mehr player auf dem Feld, sogar startups die man im Auge behalten muss.Es ist derzeit aber nicht absehbar, dass irgendeine dieser Firmen in den Desktop-Grafikkartenmarkt einsteigen wird, oder?

mfg.

Sonyfreak

Rancor
2017-10-24, 08:09:28
Ich wollte meine 1070 eigentlich ebenfalls im Q1 2018 ersetzen... Es ärgert mich schon ein wenig, das es überhaupt keine Infos gibt, wie und wann es bei NV weitergeht.

AffenJack
2017-10-24, 10:33:19
Naja, wie soll man das jetzt einordnen? Dass NV es dank Versagen der Konkurrenz nicht nötig hat aufs Gas zu drücken ist offensichtlich. Aber das erklärt irgendwie nicht warum das dann nicht mehr Volta genannt werden soll?

Oder trennt man Compute und Grafik nun komplett, also auch bei den Architektur(bezeichnung)en und lässt das was bisher GV104 gewesen wäre komplett fallen und liefert (später) eine reine 3D-Architektur? Gibt es überhaupt schon einen Namen für eine Architektur nach Volta?

Also klingt irgendwie ein wenig schräg. Bis auf die Verschiebung.

War doch schon durch die offiziellen Aussagen zu Drive-PX Pegasus klar, dass es kein Volta mehr wird. Nv redet bisher von post-Volta für die GPU die da drauf ist und das ist die Gen die wohl nächstes Jahr erscheint. Anschneinend benennt Nv die Architektur nun anders bei Consumer und HPC.
Das Ding wird aber natürlich eher auf Volta, als auf Pascal basieren. Anderes macht entwicklungstechnisch gar keinen Sinn. Ich tippe ja, dass Volta nur bei HPC Features erweitert wurde und nix mehr in Sachen Grafik wie z.B. der Rest der DX12 Features bekommen hat. post-Volta wird das nun nachholen.

HOT
2017-10-24, 12:07:36
Vielleicht hat man Volta in 16FF+/12FFN auch einfach komplett ausfallen lassen und bringt ne neue Architektur direkt in 7FFN. Dann würde man nur GV100 in 12FFN fertigen und kann mit Pascal ja durchaus bis dahin klarkommen.

w0mbat
2017-10-24, 12:10:05
Vielleicht hat man Volta in 12FFN auch einfach komplett ausfallen lassen und bringt ne neue Architektur direkt in 7FFN. Macht AMD ja auch so.

Hm, es gibt ja Gerüchte über eine AMD GPU in 12nmLP, wer weiß was da drann ist.

HOT
2017-10-24, 12:12:13
Nein, V20 und Navi sind 7nm und sollen schon in 2018 kommen. Ein früher 12nm Refresh von V10 wäre ebenfalls denkbar und wahrscheinlich, da das keine neue Maske erfordert. NV könnte die ursprünglich geplanten Gaming-Voltas einfach zugunsten einer Folgegeneration gestrichen haben, da N7FF eben doch früher verfügbar ist als man zuerst dachte. In dem Falle würde das ein heißer Herbst werden in 2018.

aufkrawall
2017-10-24, 12:21:30
Mangels vernünftiger 4k-Monitore gibts imho eh keinen Grund (außer vll. 21:9), von Pascal oder eine 980 Ti schon wieder unbedingt aufzurüsten. Persönlich hab ich daher gegen ein "Ausfallen" von Volta nicht viel. Wär ohne Konkurrenz eher schädlich fürs PC-Gaming.

Triniter
2017-10-24, 12:33:37
Mangels vernünftiger 4k-Monitore gibts imho eh keinen Grund (außer vll. 21:9), von Pascal oder eine 980 Ti schon wieder unbedingt aufzurüsten. Persönlich hab ich daher gegen ein "Ausfallen" von Volta nicht viel. Wär ohne Konkurrenz eher schädlich fürs PC-Gaming.
Wenn man wirklich auf Maxed out steht (keine Diskussion über pro und con bitte) "reicht" eine 980ti jetzt schon nicht wirklich für 1440p.
Kleine Liste: Wildlands, ME:A, AC:S packe ich alle nicht mit stabilen 60fps wenn ich die Regler nach rechts schiebe. Wie "gravierend" die Einschnitte beim Reduzieren der Details jeweils sind steht natürlich auf einem anderen Blatt aber die Karte ist einfach nicht mehr ganz oben mit dabei.

aufkrawall
2017-10-24, 12:35:18
Dafür gibts halt die 1080 Ti.

Edgecrusher86
2017-10-24, 13:47:00
Ps: HBM & GDDR sind unterschiedliche Schnittstellen weshalb das nicht auf einem Chip gehen wird. Glaube kaum dass man HBM von NV bei consumer-products nächstes Jahr sehen wird.


Ja, dann müsste man quasi auch GV100 neu auflegen und auch entsprechend vermarkten - das wollte ich damit sagen. Sinnig oder nicht, sei jetzt mal dahin gestellt. Quasi eine PCI-E TITAN analog zu Quadro GP100 (https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/documents/quadro-GP100-US-NV-27Feb17-HR.pdf) aktuell.
Zumindest hat NV die Xp auch schon hier und dort beschleunigt, damit sie besser gegen die Frontier Edition da steht. Natürlich würde man diese Karte offiziell nicht für Gaming bewerben, wie immer. :P

Auf jeden Fall bräuchte man irgendein Alleinstellungsmerkmal, um den willigen Enthusiasten wieder zu gewinnen - da käme 16GB @ 900 GB/s HBM2 und z.B. auch NVLink für PCI-E gerade recht - vielleicht ja auch noch die FP64-Leistung und Deep Learning-Leistung (112 TF/s) von V100
dazu oder ähnlich - gelöst über entsprechend niedrigere Taktraten - GTX TITAN (Black) lässt grüßen.

Preisbereich Richtung 2000-3000€... (dann käme dann ein wieder ein Spruch a la TITAN Z Vorstellung recht - only $0,50 per CC :biggrin:)
Hm...wobei die GP100er Quadro 7000€ kostet - da müsst man dann doch eher Konsorten wie 1/2 DP kastrieren oder Quadro-Features streichen, um einen deutlich niedrigeren Preis auszurufen.
Ja, alles ein wenig verrückt. :freak:

HOT
2017-10-24, 14:03:30
Das passiert nicht und ist auch nicht nötig. Mit einem 7nm 300mm²-Chip (Gx104) fängt man so ein Produkt lässig wieder ein. Und den kann man ja auch wieder bei 800€ starten, wie GP104. Und den kann man ja schon in 2018 erwarten.

vinacis_vivids
2017-10-24, 14:33:18
AMD scheint Recht zu behalten was "poor Volta" angeht. Gibs jetzt seit Monaten als compute Variante ohne dass jemals ne Gaming Version rauskommt. Grund dafür ist die veraltete uArch, die kein LL beherrscht. Für die Revision auf Hardwarebasis wird mehr Zeit als ein einfacher Shrink benötigt.

Das zweite Problem ist die Speicheranbindung, auch hier ist Nvidia im Rückstand wenn man >12GB verbauen möchte. Mit 16 oder gar 24GB wird es einfach nicht mehr rentabel. HBM2 würde auch eine komplette Überarbeitung brauchen. Nvidia ist mit Pascal auch nicht mehr fähig noch was draufzupacken. In der Pipeline steht höchstens 3840SP. Die ganzen Zwischenschritte wie 1070Ti sind Blendwerk.

Daredevil
2017-10-24, 14:46:28
"poor Volta" .... veraltete uArch....Problem.... Speicheranbindung.....Nvidia im Rückstand .....
Ich sehe da momentan eine Karte ganz oben, die aufgrund ihres großen Abstands schon fast als "Next Gen" durchgeht. Nicht mal im Vergleich zu Vega, sondern ebenfalls im Vergleich zu einer stinknormalen GTX1080
http://abload.de/img/unbenanntxws2x.png

So schlecht scheint es wohl halt auch nicht zu laufen mit der aktuellen Architektur.

Adam D.
2017-10-24, 14:48:42
Auf Troll eingegangen, sollte es besser wissen, bitte löschen

Rancor
2017-10-24, 14:48:44
AMD scheint Recht zu behalten was "poor Volta" angeht. Gibs jetzt seit Monaten als compute Variante ohne dass jemals ne Gaming Version rauskommt. Grund dafür ist die veraltete uArch, die kein LL beherrscht. Für die Revision auf Hardwarebasis wird mehr Zeit als ein einfacher Shrink benötigt.

Das zweite Problem ist die Speicheranbindung, auch hier ist Nvidia im Rückstand wenn man >12GB verbauen möchte. Mit 16 oder gar 24GB wird es einfach nicht mehr rentabel. HBM2 würde auch eine komplette Überarbeitung brauchen. Nvidia ist mit Pascal auch nicht mehr fähig noch was draufzupacken. In der Pipeline steht höchstens 3840SP. Die ganzen Zwischenschritte wie 1070Ti sind Blendwerk.

Fängt deine sinnlose Trollerei nach deiner Sperre direkt wieder an? Wie lernresistent bist du eigentlich?

HOT
2017-10-24, 15:28:19
Sicher war das Trollerei von ihm :D. "poor Volta" kann man natürlich immer sagen, wenn Volta nicht erscheint, aber das ist ja absurd. Daredevils Beitrag ist aber nicht weniger Trollerei.
Aber die Frage nach dem Speicher stellt sich tatsächlich. Mehr als 8Gb Chips scheints ja auf absehbare Zeit nicht zu geben, was bei 256Bit eben 8GB bedeutet (wenn man nicht doppelt belegen möchte). Ein weiteres Problem ist die Bandbreite. Bei 256Bit braucht man schon sicherlich Minimum 18GT/s, 512GB/s reichen mMn nicht aus für so einen Chip. HBM ist hier tatsächlich ein Ausweg. Hier sind tatsächlich größere Speichermengen und u.U. mehr Bandbreite möglich. Ich würd das gar nicht so verurteilen. Ich würd das gar nicht mal so in die AMD-Ecke schieben und das ganze etwas neutraler sehen, auch NV kann das problemlos einsetzen.

Fertigungstechnisch scheint das ein Duell auf Augenhöhe zu werden:
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/News/Vega-Nachfolger-Navi-TSMC-7-nm-1241930/

Hübie
2017-10-24, 16:52:46
Ich seh das in der mittleren Zeitspanne gar nicht so kritisch wie du. GDDR6 geht noch locker auf 16 Gbps und kann von der Kosteneffizienz HBM in Schach halten. HBM ist langfristig* auch nur eine Interimslösung für sämtliche IHV.
Was ich mir gut vorstellen kann ist natürlich dass man die Energiespartechnoligien wie grounding etc. von Volta mit Pascal kombiniert und dann einen neuen Namen da drauf stempelt (meinetwegen kann es Einstein sein, der Name fiel iirc mal in Zusammenhang mit Tegra).

*bis 2025

Edit: Wir müssen uns ja immer vor Augen führen, dass Gaming einen völlig anderen Anspruch stellt (zumindest aktuell), als HPC-Produkte. Letztere entwickeln sich schneller und brauchen auch solche Geschichten wie Matrixmultiplikation. Wenn ich das noch richtig verstanden habe könnte man so etwas allerdings auch für z.B. oit (order independent transperancy) verwenden.

Ex3cut3r
2017-10-24, 18:35:19
Mangels vernünftiger 4k-Monitore gibts imho eh keinen Grund (außer vll. 21:9), von Pascal oder eine 980 Ti schon wieder unbedingt aufzurüsten.

Ich habe aber "leider" einen UWQHD hier stehen :redface:

1080Ti wäre eine Option von der 1070 aus, aber der Stromverbrauch und die 11GB VRAM sind imo "falsch" eine 1170 mit der Performance einer 1080Ti mit 16GB und weniger Stomverbrauch für 500€ wären nice.

Ähnlich wie damals 980Ti -> 1070

Da Volta jetzt aber angeblich weg fällt, muss ich mir was anderes überlegen.
Naja mal abwarten, Igors Erzählungen vertraue ich nicht mehr 100% Der Typ schwankt mir zu sehr in seinen Aussagen.

HOT
2017-10-24, 19:22:24
Ich seh das in der mittleren Zeitspanne gar nicht so kritisch wie du. GDDR6 geht noch locker auf 16 Gbps und kann von der Kosteneffizienz HBM in Schach halten. HBM ist langfristig* auch nur eine Interimslösung für sämtliche IHV.
Was ich mir gut vorstellen kann ist natürlich dass man die Energiespartechnoligien wie grounding etc. von Volta mit Pascal kombiniert und dann einen neuen Namen da drauf stempelt (meinetwegen kann es Einstein sein, der Name fiel iirc mal in Zusammenhang mit Tegra).

*bis 2025

Edit: Wir müssen uns ja immer vor Augen führen, dass Gaming einen völlig anderen Anspruch stellt (zumindest aktuell), als HPC-Produkte. Letztere entwickeln sich schneller und brauchen auch solche Geschichten wie Matrixmultiplikation. Wenn ich das noch richtig verstanden habe könnte man so etwas allerdings auch für z.B. oit (order independent transperancy) verwenden.

16GT/s mit 8Gbit, also maximal 8GB und 512GB/s. Mehr ist mit GDDR6 an 256Bit erst mal nicht drin. Mit 2 HBM-Stacks schafft man immerhin 16GB mit 512GB/s. Und interim ist da gar nichts, so ein Quatsch hab ich lange nicht gelesen. Die Kapazität wird auf HBM schneller wachsen als bei klassischem RAM, das ist absehbar. Das ist der eigentliche Vorteil meiner Ansicht nach. GDDR6 wird wohl erst, zusammen mit dem rechtlichen DRAM, frühestens 2019 auf 16Gbit springen, da wirds aber schon HBM3 mit mehr Kapazität als HBM2 geben. Wenn man nicht ausufernde Speicherinterfaces für mehr RAM bauen will kommt man langfristig nicht um HBM herum, das ist finde ich jetzt schon klar. Als VRAM für HighEnd bis Enthusiast und Professionell kommt keiner an HBM vorbei.

Hübie
2017-10-24, 20:28:23
Du kannst ja denken was du willst, aber unterlasse doch bitte so unqualifizierte Aussagen alá "so ein Quatsch hab ich lange nicht gelesen". Was ist das bitte für eine Diskussionsgrundlage? :rolleyes:

Diese Aussage stammt btw. nicht von mir und ich bezweifel, dass du mehr Plan hast als die Person die es sagte. HBM in der aktuellen Form bringt auch viele Probleme mit sich. Kapillare sollen das Problem des Hitzstau etwas umschiffen, aber bringen Produktionstechnisch ein weiteren Risikofaktor für die Defektrate mit in die Gleichung. Warum denkst du wohl ist HBM noch nicht sehr weit verbreitet? Der Preis ist die Fassade, der entsteht wiederum durch Angebot und Nachfrage. Das Angebot ist nicht sehr hoch, einfach weil es noch nicht aus dem Stegreif läuft und dementsprechend reagiert die Industrie noch relativ verhalten.
Wir reden 2025 gerne weiter. Das sind bis jetzt auch nur Projektionen aus dem aktuellen Wissensstand heraus. Sollte ein bahnbrechender Durchbruch erfolgen, wird sich dies mit Sicherheit ändern.

HBCC ist aktuell ein Ansatz (den NV übrigens auch geht), welche die onboard-capacity verringert. Warum also klotzen wenn kleckern reicht? ;)

Cubitus
2017-10-24, 21:07:48
Wieso sollte Nvidia Volta für das zweite Quartal streichen :confused:

Wenn man eines weiß, Nvidia nimmt die Kohle :wink:
Und wenn dann in einem halben Jahr irgendwas kannibalisiert werden sollte, wird die Kohle im gleichen Jahr nochmal genommen. ;)

Oder es wird auf eine Gegen-Reaktion von AMD gewartet und dann nachgelegt.

scully1234
2017-10-24, 21:44:25
Oder es wird auf eine Gegen-Reaktion von AMD gewartet und dann nachgelegt.

Ich würde dazu tendieren, sie optimieren in aller Ruhe den Prozess, oder experimentieren gar schon mit kleinerer Strukturbreite

Oder Pegasus hat erstmal Vorrang vor allen anderen...

Optionen haben sie genug, da derzeit an der Geforce Front niemand drängt

=Floi=
2017-10-25, 00:22:19
..

https://de.wikipedia.org/wiki/ATI-Radeon-HD-2000-Serie
AMD brachte vor 10 jahren schon 512bit breite SI. Damit kann ich stand _heute_ bis 750gb/sek gehen. 16gb sind damit auch kein problem. Denke das nächste große ding beim ram werden abschaltbare controller und chips sein.

Hübie
2017-10-25, 01:12:12
Es gingen auch 16 GB mit 256 Bit wenn die Topologie des PCB entsprechend designed ist. Afaik war Kepler das fetteste PCB der letzten Jahre, danach ging es mit der Anzahl der layer zurück.

GDDR5X kann man jedenfalls im Clamshell-Mode operieren und somit die Speicherkapazität pro 32-Bit-Kanal verdoppeln. Also statt 8 x 8 Gbps dann 16 x 8 Gbps. Soviel ich weiß wird die Fertigung 2019 auf 10 nm umgestellt womit die Datendichte noch einmal signifikant ansteigt. 16 nm ist eher Kosmetik für den Verbrauch, da wird sich (imo) nix an der Kapazität ändern.

Rampage 2
2017-10-25, 05:57:14
https://de.wikipedia.org/wiki/ATI-Radeon-HD-2000-Serie
AMD brachte vor 10 jahren schon 512bit breite SI. Damit kann ich stand _heute_ bis 750gb/sek gehen. 16gb sind damit auch kein problem.

Ja, aber nicht für das Performance-Segment (Gx104). Was bei Volta ebenfalls eine mögliche Option wäre: GV104 mit 384Bit bzw. 12GB VRAM und GV102 mit 512Bit bzw. 16GB VRAM - aber Letzterer müsste dann mit schnellerem Speicher bestückt sein (18-20 Gbps GDDR5X), da 512 zu 384Bit nur +33% sind verglichen mit +50% bei 384 zu 256Bit. Oder aber NV müsste bei GV104 langsameren Speicher (12-14 Gbps GDDR5X) verbauen.

Warum sollte Nvidia denn Volta verschieben? Oder anders gefragt: wann WILL Nvidia Volta rausbringen? Nach welchen Faktoren entscheidet Nvidia?

R2

woodsdog
2017-10-25, 07:12:45
Warum glaubt ihr eigentlich, dass die x04 Chips mehr als 8GB bekommen [müssten]?

- Konsolen haben max 8GB
- Nach unten kann man wie mit der 1060 gut abgrenzen
- Nach oben kann man gut abgrenzen und z.B. der TI 12GB/der Titan 16GB geben
- Leistung für 50%/100% mehr RAM auf den x04 Karten kostet vergleichsweise viel vom beschränkten Powerbudget. Das geht bei den großen Chips mit >=250W besser.

8GB ist IMO aktueller sweetspot abgesehen vom Top-Highend.

pixeljetstream
2017-10-25, 09:31:02
Die Entwicklung der Chips dauert relativ lang (1-2 Jahre bis im Markt), das heißt ein neuer Chip der nächstes Jahr kommen würde, wäre schon lange in der Entwicklung gewesen bevor Vega im Markt erschienen ist. Da beide Hersteller nun auf versetzten Zeitlinien unterwegs sind, gibt es nicht ein unmittelbares reagieren.

Es wird auch nie nur eine Generation entwickelt, sondern es sind immer mehrere in der Pipeline in unterschiedlichen Entwicklungsstadien: planung/evaluation der features, ausführung des designs, testen/simulation/verbessern, produktion

Man kann also "versetzt" an mehreren Architekturen arbeiten, insbesondere dann wenn sich die feature blöcke nicht in die Quere kommen. Was man ja bei Maxwell (GM10x vs GM20x) und Pascal (GP100 vs GP10x) schön gesehen hat, wo jeweils der zweite die "Gaming/Grafik" Features bekam.

Das funktioniert weil man nicht von generation zu generation plant, sondern über generationen hinweg sich Ziele vornimmt, diese sind aber eher so "Richtungen" wo man langfristig hin will. Das ist zwingend notwendig, da nicht alle Umbauten sich in einer Generation machen lassen, bzw. das manchmal sehr riskant wäre, iterativ kann besser sein. Bei der Planung berücksichtigt man auch ein gewissen Spielraum für Sachen zu haben wo man kurzfristiger reagieren kann. Es gibt eine unendlich lange Liste von Verbesserungen, Erneuerungen usw. In einem Gremium machen sich die unterschiedlichen Business units für diverse Features stark, von den sie glauben dass sie im Markt erfolgreich sind. Es gibt sowas wie offensive und defensive Maßnahmen. Es wird unterschiedlich argumentiert, benchmarks, tests, simulationen usw. ein ziemlicher Aufwand je nach Feature kosten, irgedwann muss dann der cut gemacht werden. Die nächste Generation erbt dann teilweise von der Liste usw.

Es ist also nie ein simples +1, sondern +n, was effektiv entwickelt wird. Daher ist's auch so wichtig über die Zukunft zu orakeln, es sich leisten zu können in die Breite zu gehen, im Chip Sachen zu haben die sich dann hoffentlich später auszahlen, oder es sich leisten zu können, wenn etwas nicht so eintritt.
Je vertikaler eine Firma ist, siehe Apple/Samsung, desto effektiver, planungssicherer ist das ganze, da man ja selbst der größte Abnehmer der Technik ist und so die Zukunft stärker selbst beeinflusst.

Rampage 2
2017-10-25, 10:25:48
Mangels vernünftiger 4k-Monitore gibts imho eh keinen Grund (außer vll. 21:9), von Pascal oder eine 980 Ti schon wieder unbedingt aufzurüsten.

Q1/2018 kommen die neuen 4K-Monitore von ASUS & Acer (QLED, HDR, G-Sync, 144Hz) - das eigentliche Problem wäre dann nicht eine leistungsstarke GPU, sondern der Preis dieser Monitore, der die eines 1080Ti fast um das 3fache übertrifft (~ 2000€).

R2

Rampage 2
2017-10-25, 10:33:12
War doch schon durch die offiziellen Aussagen zu Drive-PX Pegasus klar, dass es kein Volta mehr wird. Nv redet bisher von post-Volta für die GPU die da drauf ist und das ist die Gen die wohl nächstes Jahr erscheint. Anschneinend benennt Nv die Architektur nun anders bei Consumer und HPC.
Das Ding wird aber natürlich eher auf Volta, als auf Pascal basieren. Anderes macht entwicklungstechnisch gar keinen Sinn. Ich tippe ja, dass Volta nur bei HPC Features erweitert wurde und nix mehr in Sachen Grafik wie z.B. der Rest der DX12 Features bekommen hat. post-Volta wird das nun nachholen.

Das wäre wohl auch das sinnvollste Szenario, oder? "Neue" (!) Architektur mit unbekannten Codenamen, neuen Gaming-Features + Creme de la Creme-Features (bzgl. Leistungssteigerung) aus der HPC-Volta-Architektur.

Aber warum verschiebt es sich auf Herbst 2018? :|

R2

Hübie
2017-10-25, 10:40:58
Wie kommst du auf Herbst? :|

HOT
2017-10-25, 10:44:17
Bei 7nm wäre es sicher nicht vor Q3, eher Herbst.

https://de.wikipedia.org/wiki/ATI-Radeon-HD-2000-Serie
AMD brachte vor 10 jahren schon 512bit breite SI. Damit kann ich stand _heute_ bis 750gb/sek gehen. 16gb sind damit auch kein problem. Denke das nächste große ding beim ram werden abschaltbare controller und chips sein.

Klar, ein 512Bit Interface mit so hohem Controllertakt :freak:. Wieviel Saft willst du verbrauchen?

Hübie
2017-10-25, 10:45:05
Ich glaube kaum dass du 2018 eine 7nm GPU in den Händen halten wirst.

HOT
2017-10-25, 10:45:28
Ich denke doch. Fertigungstechnisch spricht nichts dagegen.

Hübie
2017-10-25, 10:47:08
Ach ja? Wie viel lanes sind denn schon ausgerüstet? ;)

Edit:

TSMC’s first-generation CLN7FF will enter risk production in Q2 2017 and will be used for over a dozen of tape outs this year. It is expected that high-volume manufacturing (HVM) using the CLN7FF will commence in ~Q2 2018, so, the first “7-nm” ICs will show up in commercial products in the second half of next year. When compared to the CLN16FF+, the CLN7FF will enable chip developers to shrink their die sizes by 70% (at the same transistor count), drop power consumption by 60% or increase frequency by 30% (at the same complexity). - Quelle (https://www.anandtech.com/show/11337/samsung-and-tsmc-roadmaps-12-nm-8-nm-and-6-nm-added/2)

Das klingt vertraut und die Vergangenheit hat uns gelehrt, dass zuerst alle möglichen Chips mit neuen Prozessen an den Start gehen, bevor eine GPU (ASIC) damit daher kommt. Ich will also nicht sagen, dass du falsch liegst (möglich ist nach Murphy's Gesetz ja alles) , sondern dass ich es nicht glaube. Da stocher ich jedoch auch nur im Dunkeln. Mir ist jedoch nicht bekannt, dass ASML signifikant mehr geliefert hat und/oder TSMC signifikant mehr konfiguriert hat. Tapeouts laufen ja schon. Aber nicht mal Apple hat 7nm bekommen und die sind oft early adaptors (der Bionic nutzt 10nm, was ja irgendwie 16nm++++* ist).
Iirc geht mit dem neuen Prozess auch ein vierfaches Muster pro Maske einher, was die Komplexität massiv erhöht und somit auch die Defektrate und Fehlerquote steigen lässt (plus Streuung).

*Dazu von TSMC:

TSMC's 10nm Fin Field-Effect Transistor (FinFET) process provides the most competitive combination of performance, power, area, and delivery parameters. The Company began accepting customer tape-outs for its 10nm FinFET process in the first quarter of 2016.

With a more aggressive geometric shrinkage, this process offers 2X logic density than its 16nm predecessor, along with ~15% faster speed and ~35% less power consumption. This process continues leveraging the revolutionary FinFET advantages to help customers achieve best density and power efficiency. - Quelle (http://www.tsmc.com/english/dedicatedFoundry/technology/10nm.htm)

Techinside hat 30% Flächenersparnis gemessen:

30% die area shrink compared to A10 - Quelle (http://techinsights.com/about-techinsights/overview/blog/apple-iphone-8-teardown/)

Es ist also wahrscheinlicher dass man diesen Prozess einsetzen wird, da zumindest die design rules nicht so krass anders sind (dual pattering).

cat
2017-10-25, 14:01:42
Mit Geforce Volta dürfte doch mehr geändert werden als von Maxwell2 auf Pascal. oder?
Ich meine:
- Shrink
- +1 SM pro GPC
- Änderung bei "Viewport Transform" auf "Simultanious Multi-Projection"
- Änderung bei Preemption

ist jetzt nicht die Welt.

Bei Geforce Volta dürfte mehr passieren.

HOT
2017-10-25, 15:14:35
Hübie
Apple bekommt auch 7nm DUV nicht, da Apple kein Interesse daran hat. Das macht die Sache auch einfacher für andere Kunden. Sowohl Apple als auch Qualcomm nutzen erst die EUV-Variante. Der A12 kommt in N7FF+ frühestens Anfang 2019 und Qualcomm erst mit Samsungs 7LPP Anfang 2019. Sowohl N7FF als auch 8LPP sind nicht mit den großen SoC-Herstellern belastet. Das macht auch Sinn, da die letzten SoC-Designs jetzt für 10nm jetzt an den Start gingen und die nächsten auch ne Weile brauchen. Die bringen ja nicht jedes Jahr ein neues SoC-Design. Bei N7FF+ wird man wieder kein Bein an die Erde bekommen, weil Apple wieder die gesamte Produktion in Beschlag nehmen wird.
TSMC will, wie verlinkt, ab Q2 die Massenproduktion hochfahren für N7FF, das gibt genug Vorlauf für etwaige Produkte.

Rampage 2
2017-10-25, 16:56:43
Wie kommst du auf Herbst? :|

Ich hatte weiter oben gelesen, dass es doch in einem neuen Fertigungsprozess kommen wird und dass NV es möglicherweise deswegen weiter nach hinten verschoben hat. Oder aus welchem Grund sonst sollte NV eine eigentlich fertige GPU-Generation verschieben? :|

Das war ja auch meine Frage weiter oben gewesen - was NV sich dabei gedacht hat und nach welchen Parametern sich NV für einen Release entscheidet;)


TSMC will, wie verlinkt, ab Q2 die Massenproduktion hochfahren für N7FF, das gibt genug Vorlauf für etwaige Produkte.

Wann begann nochmal die Massenproduktion von 16nm FF+ und wie lange war dann der zeitliche Abstand, an dem Pascal released/vorgestellt wurde? (Vorstellung war irgendwann im April 2016, wenn ich mich recht erinnere...)

R2

Hübie
2017-10-25, 17:05:29
@HOT:
Apple hat Interesse am neuen Prozess nur ist der noch nicht marktfähig. As simple as that. Dein Optimismus in Ehren, aber dass ein komplexes high speed, high power design vor den LP Varianten kommt ist unwahrscheinlich.

@Rampage 2:
Wo liest du dass NV etwas verschoben hat? Dazu müsste es ja erst mal ne Ankündigung geben. Ich vermute dass der Sprung von Pascal-Desktop zu Volta-Desktop geringer ausfallen wird als die Gx100-Derivate, was also eher ein Pascal-Chip mit Volta Genen entsprechen würde.

AffenJack
2017-10-25, 17:07:04
Hübie
Apple bekommt auch 7nm DUV nicht, da Apple kein Interesse daran hat. Das macht die Sache auch einfacher für andere Kunden. Sowohl Apple als auch Qualcomm nutzen erst die EUV-Variante. Der A12 kommt in N7FF+ frühestens Anfang 2019 und Qualcomm erst mit Samsungs 7LPP Anfang 2019. Sowohl N7FF als auch 8LPP sind nicht mit den großen SoC-Herstellern belastet. Das macht auch Sinn, da die letzten SoC-Designs jetzt für 10nm jetzt an den Start gingen und die nächsten auch ne Weile brauchen. Die bringen ja nicht jedes Jahr ein neues SoC-Design. Bei N7FF+ wird man wieder kein Bein an die Erde bekommen, weil Apple wieder die gesamte Produktion in Beschlag nehmen wird.
TSMC will, wie verlinkt, ab Q2 die Massenproduktion hochfahren für N7FF, das gibt genug Vorlauf für etwaige Produkte.

Doch, Apple benutzt 7nm DUV nächstes Jahr. Dementsprechend wird TSMC keine Kapazitäten in 7nm für größere andere Bestellungen haben. TSMCs Prozessplan ist mittlerweile genau an Apples Bedürfnisse angepasst. Apple will jedes Jahr einen neuen Prozess. Dieses Jahr 10nm, 2018 7nm DUV, 2019 7nm EUV, 2020 5nm. Samsung erhofft sich ja auch noch was von Apple, dürfte wohl einer der Gründe für das Auflegen des 8nm Nodes sein (QC spielt da auch ne Rolle, da die wohl auch teilweise zurück zu TSMC wollen) , da 7nm EUV zu spät für Apples nexte Gen kommt.


Wann begann nochmal die Massenproduktion von 16nm FF+ und wie lange war dann der zeitliche Abstand, an dem Pascal released/vorgestellt wurde? (Vorstellung war irgendwann im April 2016, wenn ich mich recht erinnere...)
R2

Q2 15 war Massenproduktion, dementsprechend 1 Jahr. Deswegen habe ich auch keine Hoffnung auf 7nm in 2018 bei GPUs, außer vielleicht HPC Low-Volume Produkten wie V20. Aber man weiß nie, wie es dieses Mal wird. Vielleicht stellt TSMC größere 7nm Kapazitäten schon sehr früh bereit, die für Apple und andere ausreichen. Später als Q2 machen Volta in 16/12nm auf jeden Fall keinen Sinn mehr, da zu nah am 7nm Node. Außer man will den DUV Node überspringen und von 12nm auf 7nm EUV wechseln. Aber das könnte gegen AMD ganz schön kritisch sein, da AMD eine agressive 7nm Roadmap verfolgt und bestimmt 7nm DUV benutzen wird.

Rampage 2
2017-10-25, 17:32:26
@Rampage 2:

Wo liest du dass NV etwas verschoben hat? Dazu müsste es ja erst mal ne Ankündigung geben. Ich vermute dass der Sprung von Pascal-Desktop zu Volta-Desktop geringer ausfallen wird als die Gx100-Derivate, was also eher ein Pascal-Chip mit Volta Genen entsprechen würde.

1.) Igor schrieb, dass Gaming-Volta nicht mehr für Q1/2018 gelistet ist und auch nicht mehr unter dem Namen "Volta" kommen soll, sondern "4th Gen." - entweder wurde Volta verschoben oder er wurde umbenannt und die Architektur und/oder der Node modifiziert oder aber es hat nie einen Gaming-Volta gegeben und die nächste Gamer-GPU Generation ist bereits post-Volta und wurde/wird separat entwickelt. Natürlich nur, wenn seine Aussage stimmt;) Das sind die Zeichen, die ich aus den vergangenen Posts herausgelesen habe...

2.) Das heißt also, die nächste Gamer-GPU Generation, die möglicherweise nicht mehr "Volta" heißt, wird die Architektur-Vorteile und das Featureset von Volta verkörpern, aber keinen großen Leistungssprung hinlegen...?

R2

AMDoderNvidia
2017-10-25, 18:59:45
Kann mir jemand von Euch auf meinen Beitrag hier antworten? Die ursprüngliche Diskussion scheint ins Leere gelaufen zu sein und hier passt es eigentlich auch besser. Würde mich freuen, danke :)

Link: Re: Diskussion zu: nVidias verschiebt die Volta-Gamingchips auf Frühling bis Sommer 2 (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11530738&postcount=8)


Ich versuchs mal noch zu zitieren:

Nachdem nun im Artikel über den Zeitpunkt und die Fertigung gesprochen wurde, bin ich gespannt, wieviel Mehrperformance wir sehen werden.

Spannend ist dann auch die Frage, wodurch die Performance zustande kommen wird: Taktfrequenzsteigerung? Architekturverbesserung? Simples Aufblähen der Einheiten (Shader, Shader-Cluster, Rasterizer, ...)?

Bei der Taktfrequenz erwarte ich keine große Steigerung, wenn überhaupt. Ein paar Gedanken dazu: Warum takten GPUs überhaupt noch so deutlich unterhalb von CPUs? Und wenn man sich ansieht, wie schwer sich AMD tat, mit ein paar Extra-Transistoren gewisse Strecken im Chip für hohe Taktfrequenzen zu optimieren (und damit dann doch nur ca. 1.600 MHz erreicht).

Architekturverbeserung: Was ist bereits von Volta bekannt? Die Tensor Cores werden sicher nicht im Gaming-Chip drin sein. Wenn ich mich richtig erinnere, dann hat man ein paar Caches vergrößert und gewisse Latenzen verringert.

Aufblähen der Einheiten: Das bringt vermutlich erst was in Richtung 5k oder 8k-Auflösung. Für eine Performance-Steigerung rund um 4k muss vermutlich vor allem die Speicherbandbreite erhöht werden. Hallo GDDR6? Hallo HBM2?

Mal schauen, was da kommt :)

Edit: Zitat aus dem ursprünglichen Thread erfolgreich eingefügt

BlacKi
2017-10-25, 19:04:50
wäre es möglich das gddr6 schuld am späteren erscheinen vom gaming volta hat?

Leonidas
2017-10-26, 07:07:07
Sogar dies wäre denkbar.

Und am Ende könnte es auch schlicht sein, das NV Volta durchaus im Q1/2018 bringen könnte, wenn man denn unbedingt müsste. Muß man aber nicht, da AMD erst einmal sein Pulver verschossen hat. Was spricht also gegen eine kleine Ehrenrunde zur weiteren Optimierung?

Hübie
2017-10-26, 10:31:03
Warum? Afaik ist GDDR6 fast identisch mit GDDR5X und die Teilen sich mit Flash-Speicher die Fertigungsstraßen. Wenn dann sind es Kapazitätsprobleme.

Und irgendwie klingt das völlig überzogen, dass NV irgendwas verschiebt. Bisher wurde Feb/März spekuliert und nun könnte es Apr/Mai werden. Uuuuuh, NV sitzt herum weil AMD nichts gebacken bekommt - NICHT!

Für eine Verschiebung braucht's ne Ankündigung.

AffenJack
2017-10-26, 11:39:06
Nur Micron hat GDDR5X und die haben GDDR6 in Q1 18 angekündigt. Hynix wollte zwar angeblich 14 Gbps schon in Q4 haben, aber da sie eben GDDR5X nicht hatten kann ich mir ne kleine Verschiebung da schon vorstellen. Q1 könnte eben für große Quantitäten von GDDR6 noch etwas zu knapp sein. Man muss die grafikkarten ja noch zusammenbauen und liefern. Also selbst wenn mal Q1 angedacht war, rechne ich da wie du mit keiner großen Verspätung. Aber RAM als Hauptgrund klingt da durchaus plausibel. Ich denke immernoch, dass wir die nächste TITAN noch in Q1 auf der GTC sehen werden.

Hübie
2017-10-26, 17:12:50
Die wird's wohl eh wieder nur via NVIDIA geben und die AIBs werden eh relativ spät informiert. Von daher gut möglich.

Platos
2017-10-26, 18:09:28
Und irgendwie klingt das völlig überzogen, dass NV irgendwas verschiebt. Bisher wurde Feb/März spekuliert und nun könnte es Apr/Mai werden. Uuuuuh, NV sitzt herum weil AMD nichts gebacken bekommt - NICHT!

Für eine Verschiebung braucht's ne Ankündigung.

Eine erstmalige Ankündigung gab es doch nie? Also ist es auch nicht wirklich eine Verschiebung.

Kriton
2017-10-26, 22:09:07
Für eine Verschiebung braucht's ne Ankündigung.

Das weisst Du besser. Es gibt auch interne Roadmaps auf deren Basis man verschieben kann. Womit ich nicht sage, ob da was passiert ist. Dein Argument ist nur nicht tragfähig.

Hübie
2017-10-26, 22:45:58
Doch ist es. Die Roadmap die Igor gesehen hat war bei MSI oder Gigabyte, wetten. Die bekommen nicht mit wenn NV nun doch ne Titan veröffentlicht, weil NV das ja nun selbst vertreibt.
Und die Roadmaps die du kennst, sind so präzise wie ein schweizer Käse, nicht wie ein schweizer Uhrwerk. ;) Oder willst du den Chip auf der schwarzen Leinwand einem Quartal zuordnen? :D
Fakt 1: NVIDIA hat keine Volta-basierte Gamingkarte angekündigt.
Fakt 2: NVIDIA hat keinen Zeitraum genannt.
Fakt 3: Igor hat bei einem IHV eine Änderung vom Namen "Volta" -> "4th Gen." und Q1 -> Qx auf einer (internen) Roadmap gesehen.

Also hat sich nur für die AIBs etwas (GeForce-Karten?) nach hinten verschoben. Daraus kann man nicht ableiten, dass NVIDIA nichts im Q1 bringt und auch nicht dass sich alles verschoben hat. Aber selbst wenn es tatsächlich eine Verschiebung gibt: Warum schlussfolgern (fast) alle gleich es liege an der schwachen Vega-Performance? Ich stelle mir da erst mal acht andere Gründe vor, bevor dieser eine Grund kommt.

Wir werden sehen...

@Platos: Das habe ich doch geschrieben. ;)

Kriton
2017-10-26, 23:23:35
Dein Argument war: Keine Ankündigung, keine Verschiebung (möglich), weil keine Änderung einer Ankündigung (notwendig).

Nur darauf habe ich mich bezogen. Das sollte doch eigentlich nachvollziehbar sein?

Was Du also als Fakt 3 und einen Satz später beschreibst, ist doch das, auf was ich hinaus wollte.
Deine nachfolgenden Ausführungen waren kein Thema für mich.

Ich meine üblicherweise genau das, was ich schreibe. :wink:

Hübie
2017-10-27, 00:01:47
Gut. Dann halte dich dran. Für uns hier "draußen" wurde nichts angekündigt. Exakt das meine ich. Oder hast du so eine Roadmap gesehen? Und wer weiß wie alt die war, wo Volta noch drauf stand? Richtig. Wir schon mal nicht.

vinacis_vivids
2017-10-27, 01:31:27
Huang weißt schon genau, dass ein potentieller GV102 zu groß und zu unökonomisch sein wird. Der Leistungsgewinn dafür auch zu schwach.
471mm² ~ GP102 ~ 12,0Mrd ~ 25,47mio/mm²
610mm² ~ GP100 ~ 15,3Mrd ~ 25,08mio/mm²
815mm² ~ GV100 ~ 21,1Mrd ~ 25,89mio/mm²

Die Packdichte ist bei "12nm" nicht revolutionär, dass man das Wunder erwarten könnte. poor Volta eben ;)

Platos
2017-10-27, 03:04:34
@Platos: Das habe ich doch geschrieben. ;)

Ah so, ich dachte du meinst damit, dass du der Meinung bist, dass nvidia zuerst eine Ankündigung raus bringen muss, um etwas zu verschieben (das aber gar nie angekündigt wurde) :biggrin:

Hübie
2017-10-27, 03:51:28
Es bräuchte in der Tat einen neuen Prozess noch über 12 nm (der ja im Grunde nur die Density der um wirtschaftlich unter 550 mm² bei ~33% mehr Leistungsfähigkeit aka SPs/Caches/etc. und etwa gleichem Takt zu sein (legen wir mal zu grunde, dass der Datendurchsatz pro SP-Cluster etwa Pascal entspricht). Nutzt NV 10 nm müsste man also auf 580 mm² bei gleicher Steigerung des Corecount etc. wie GM200<->GP102 ausgehen (extrapoliert).
Schaut man jedoch zurück benötigte man jetzt seit Kepler immer weniger SPs für gleiche Leistung*, was u.a. dem Takt geschuldet ist - aber eben auch der Arch. Sagen wir also, dass man nicht 3840 Cores in Kauf nimmt sondern 24*128=3072 mit mehr Takt bei GP102-Leistung käme man auf 380 mm².
Genau darauf schätze ich den Nachfolger von GP104 (mit GP102-Leistung) ein.

*Ein hypotetischer Pascal benötigt keine 1000 SP um einen Kepler mit 2880 abzuhängen (Gaming-Performance). Analog dazu eben ~2200 Pascal-Cores für 3072 Maxwell-Cores.

btw: Ich weiß dass vinacis_vivids gerne stänkert. ;)

matty2580
2017-10-28, 05:07:40
Eine grobe "Ankündigung" zu den Volta-Geforces gab es ja von Huang selbst.

Der Grafikchiphersteller Nvidia soll laut Medienberichten planen, die nächsten Generation von GPUs, basierend auf der Volta-Architektur, bei Auftragsfertiger TSMC ab dem vierten Quartal 2017 produzieren zu lassen.....Spieler müssen sich aber noch eine Weile gedulden, ehe der Gaming-Markt mit Volta-Grafikkarten bedient wird. Nvidia-CEO Jen-Hsun Huang hat vor Investoren angekündigt, dass derzeit Pascal unschlagbar sei und Spieler keine Volta-Geforces vor dem Frühjahr 2018 erwarten sollten.
http://www.pcgameshardware.de/Volta-Codename-266151/News/Fertigung-von-neuen-12-nm-GPUs-startet-2017-1236211/
Volta for gaming, we haven’t announced anything. And all I can say is that our pipeline is filled with some exciting new toys for the gamers, and we have some really exciting new technology to offer them in the pipeline. But for the holiday season for the foreseeable future, I think Pascal is just unbeatable.
http://www.dsogaming.com/news/nvidia-to-increase-12nm-production-for-next-gen-volta-gpu/

Das war natürlich das übliche Marketinggeschwafel von Huang, um den fürs Weihnachtsgeschäft wichtigen Verkauf der aktuellen Pascal-GPUs nicht zu stören.

Fragt sich nur, wann für Nvidia das Frühjahr 2018 endet, und überhaupt was geplant ist.
Leider gibt es kaum noch klassische Leaks, und Nvidia hat alle Infolecks seit Jahren gestopft.

Erste brauchbare Leaks zum GP 104/106 gab es erst Anfang Mai 2016, und Ende Mai die offiziellen Test dazu.
http://www.pcgameshardware.de/Pascal-Codename-265448/News/1070-1080-laut-Leak-teurer-GTX-1060-6-GB-GDDR5-1194022/
Wahrscheinlich wird das bei GV 104/106 ähnlich laufen, offizielle Tests Ende Mai - Anfang Juni 2018, und erste Leaks dazu (leider) erst einen Monat davor.

wolik
2017-10-28, 06:22:07
Huang weißt schon genau, dass ein potentieller GV102 zu groß und zu unökonomisch sein wird.
Unökonomisch ? Bei 1990 $ pro Stück ? Ich denke doch...

Kriton
2017-10-28, 13:41:53
Gut. Dann halte dich dran. Für uns hier "draußen" wurde nichts angekündigt. Exakt das meine ich. Oder hast du so eine Roadmap gesehen? Und wer weiß wie alt die war, wo Volta noch drauf stand? Richtig. Wir schon mal nicht.

Das mag sein. Aber auch interne Roadmaps, die sich ändern bedeuten eine Verschiebung. Auch wenn diese nach draußen nicht kommuniziert wird. ob das der Fall ist, wissen wir wiederum nicht.
Können wir uns darauf im Ergebnis einigen?

berhan
2017-10-28, 22:38:47
Huang weißt schon genau, dass ein potentieller GV102 zu groß und zu unökonomisch sein wird. Der Leistungsgewinn dafür auch zu schwach.
471mm² ~ GP102 ~ 12,0Mrd ~ 25,47mio/mm²
610mm² ~ GP100 ~ 15,3Mrd ~ 25,08mio/mm²
815mm² ~ GV100 ~ 21,1Mrd ~ 25,89mio/mm²

Die Packdichte ist bei "12nm" nicht revolutionär, dass man das Wunder erwarten könnte. poor Volta eben ;)

Ziel des GV100 war vermutlich nicht die Erhöhung der Packdichte, sondern neben den Architekturverbesserungen die Erhöhung der Effizienz. Die Leistung p. Watt steigt ca. um den Faktor 1,4 gegenüber dem GP100.

pixeljetstream
2017-10-29, 11:47:36
Aber auch interne Roadmaps, die sich ändern bedeuten eine Verschiebung.

Interne roadmaps unterliegen häufigeren Änderungen, die werden eigentlich immer ein bißchen hin und hier verschoben. Wie ich schon öfter erwähnt habe sind die Zeiträume viel größer und wirken sich auf mehrere Generationen aus, ergo liegt alles deutlich in der Vergangenheit, egal was sich im nächsten Jahr tut. Wann wer was gesagt bekommt ist dann noch mal auf ner anderen Zeitlinie...

Als Entwickler sind mir größere Sprünge lieber, als so refresh kram, und auch die stärkere Trennung von hpc vs consumer ist imo gut, weil so etwas weniger Kompromisse gemacht werden können. Und evtl kann man so das Gesamttempo des Fortschritts steigern um den Konkurrenten in den verschiedenen Märkten immer etwas voraus zu sein.

Hübie
2017-10-29, 15:10:42
Deshalb glaube ich ja nach wie vor dass sich grundlegend im Desktop nicht so viel tut, wie bei der HPC-Sparte. Quadro/Geforce und Tesla haben unterschiedliche Anforderungen. Das einzig Gemeinsame sind Energiespartechnologien. Was mir Sorge bereitet ist, dass die 1070 Ti jetzt Schule macht um künftig klare Abgrenzungen zwischen den Segmenten zu erzwingen. Das wäre schade, da es keine Alternative gibt. :(

Troyan
2017-10-29, 19:19:00
Bissl Volta-Aktion im Luxxmark:
http://www.luxmark.info/top_results/LuxBall%20HDR/OpenCL/GPU/1
http://www.luxmark.info/top_results/Microphone/OpenCL/GPU/1
http://www.luxmark.info/top_results/Hotel/OpenCL/GPU/1

Man, V100 als Gaming-Karte... Könnte bestimmt mächtig abgehen. :eek:

berhan
2017-10-29, 19:45:22
Auch im Geekbench schneidet Volta ziemlich gut ab.
www.pcgameshardware.de/Volta-Codename-266151/News/Nvidia-Tesla-V100-DGX-1-Geekbench-Benchmarks-1239081/amp/

TGKlaus
2017-10-29, 20:17:45
Bissl Volta-Aktion im Luxxmark:


nach "Abzug" von zusätzlichen Shadern und Takt bleibt bleibt da ziemlich genau NULL übrig, was Architekturverbesserungen bringen.

Das wäre ne absolute Enttäuschung.

Kein Wunder, das die "neue" Generation auf sich warten lässt.

Klevapalis
2017-10-30, 09:33:12
nach "Abzug" von zusätzlichen Shadern und Takt bleibt bleibt da ziemlich genau NULL übrig, was Architekturverbesserungen bringen.
Das Mehr an Shadern und Takt ist NUR durch die Architekturverbesserungen möglich!

Nur weil man den Unterschied nicht versteht heißt das nicht, dass es ihn nicht gibt.

robbitop
2017-10-30, 09:53:43
Genau. Es scheint so zu sein, dass die mArch nicht in erster Linie mehr IPC liefert, sondern die Leistungsaufnahme senkt und somit die Effizienz verbessert. Wobei hier sicherlich auch ein Teil davon auf den besseren Fertigungsprozess und im Falle von gv100 auf den Betrieb in einem guten Betriebspunkt (sweetspot takt/spannung) zurück zu führen sein wird.

Die Taktrate der GPU ist relativ zu Pascal relativ moderat. Da gehen dann kleinere vcores und somit deutlich geringere Leistungsaufnahme. Hoher Takt kostet halt immer mehr elektrische Leistung im zusammenhang einer Potenzfunktion.

Troyan
2017-10-30, 09:57:01
Hört doch bitte auf von IPC zu reden. Dieses ganze Buzzwort-Bingo-Nonsense ist echt lächerlich und führt einfach dazu, dass die Bedeutungen von Begriffen nicht mehr verstanden wird.

IPC steht simpel für "Instructions per Clock". Mehr Recheneinheiten bedeuten mehr Anweisungen. Also steigt natürlich die "IPC" mit Volta.

Wovon ihr redet, macht für GPUs seit über einem Jahrzehnt keinen Sinn mehr. Wobei mit den Tensor-Cores ja die IPC von 2 auf 64128 steigt...

robbitop
2017-10-30, 10:02:01
Wortklauberei. Gemeint ist taktnormierte Leistung pro Ausführungseinheit. Das wissen/meinen (unterstelle ich jetzt mal) alle Beteiligten. IPC schreibt sich kürzer und ist nicht hundert prozentig korrekt. Ob man sich unter diesem Kontext hoch ziehen muss entscheidet wohl der Charakter.

Troyan
2017-10-30, 10:06:26
Eine Recheneinheit macht eine MADD (Add+MUL) Operation pro Takt. Wie genau soll die "taktnormierte Leistung pro Ausführungseinheit" daher steigen, wenn nicht über mehr Recheneinheiten?

Ein TensorCore macht pro Takt 64 MADD Operationen...

robbitop
2017-10-30, 10:11:17
Durch die Kontrolllogik, den Shadercompiler, die Eigenheiten der Shaderalus (sfus, bestimmte Randbedingungen für multi issue) etc pp. Da gibt es einen riesen Blumenstrauß an Einflussgrößen, welche über die tatsächlich verfügbare Leistung in den Zielapplikationen darstellen.

Der Tensorcore ist für Spezialwnwendungen gedacht (Maschines Lernen). Außerhalb dieser Anwendung jedoch ohne bis jetzt absehbare Wirkung. Ggf kann eine andere Applikation ja auch diese Art der Matritzenrechnung sinnvoll und in hohem Maße einsetzen.

AffenJack
2017-10-30, 12:28:18
Genau. Es scheint so zu sein, dass die mArch nicht in erster Linie mehr IPC liefert, sondern die Leistungsaufnahme senkt und somit die Effizienz verbessert. Wobei hier sicherlich auch ein Teil davon auf den besseren Fertigungsprozess und im Falle von gv100 auf den Betrieb in einem guten Betriebspunkt (sweetspot takt/spannung) zurück zu führen sein wird.

Die Taktrate der GPU ist relativ zu Pascal relativ moderat. Da gehen dann kleinere vcores und somit deutlich geringere Leistungsaufnahme. Hoher Takt kostet halt immer mehr elektrische Leistung im zusammenhang einer Potenzfunktion.

PPF (Performance per Flop):biggrin: lässt sich nunmal nicht unendlich steigern oder ist unverhältnissmäßig teuer. Bei Luxmark ist Volta aber eh gut dabei:

V100 15,66 Tflops Bandbreite 900Gb/s 57,5 Gbps/Tflop
GP100 10,33 Tflops Bandbreite 720 Gb/s 69,7 Gbps/Tflop
Vega (1630mhz) 13,34 Tflops Bandbreite 484Gb/s 36,3 Gbps/Tflop
TitanX 12,15 TFlops Bandbreite 548Gb/s 45,1Gbps/Tflop

Luxball (geringe Komplexität)
V100 64,8 4,14/Tflop
GP100 36,0 3,48/Tflop
Vega 31,6 2,37/Tflop
TitanX 30,45 2,51/Tflop

Micro (mittlere Komplexität)
V100 35,7 2,28/Tflop
GP100 23,3 2,25/Tflop
Vega 21,4 1,6/Tflop
TitanX 17,18 1,41/Tflop

Hotel (Hohe Komplexität)
V100 12,8 0,82/Tflop
GP100 7,9 0,76/Tflop
Vega 6,5 0,487/Tflop
TitanX 7,42 0,61/Tflop

Ich weiß aber nicht wirklich, wo in den einzelnen Benches die Limitierungen sind. Es ist ja hauptsächlich das mit geringer Komplexität was zunimmt. Also vielleicht aufgrund des größeren und schnelleren Caches, während bei den anderen Benches anderes limitiert? Bandbreite wird bestimmt überall auch etwas limitieren, weswegen Vega wohl auch nicht so toll performt.

Edit:
Vega und TITAN X muss man die Werte sehr mit Vorsicht genießen, da man nicht erkennen kann ob es nicht übertaktete Karten sind, was bei der Bandbreite der Ergebnisse durchaus möglich ist. Aber dann würde das Ergebnis/Gflop ja nur noch schlechter werden.

RLZ
2017-10-30, 12:56:28
Der Tensorcore ist für Spezialwnwendungen gedacht (Maschines Lernen). Außerhalb dieser Anwendung jedoch ohne bis jetzt absehbare Wirkung. Ggf kann eine andere Applikation ja auch diese Art der Matritzenrechnung sinnvoll und in hohem Maße einsetzen.
Die Tensorcores sind für GEMM Operationen mit fp16 Input gedacht und sind auch aus der cuBLAS verfügbar. Da wird es wahrscheinlich einige Anwendungen geben.
Dazu ist das eine ideale Spielwiese für die Integration von neuralen Netzwerken in der Rendering-Pipeline.

Hübie
2017-10-30, 15:27:21
nach "Abzug" von zusätzlichen Shadern und Takt bleibt bleibt da ziemlich genau NULL übrig, was Architekturverbesserungen bringen.

Das wäre ne absolute Enttäuschung.

Kein Wunder, das die "neue" Generation auf sich warten lässt.Volta wird zumindest die Perf./W noch einmal Leute zum Staunen bringen (war die Aussage von vor ein paar Monaten). Vom V100 sollte man da allerdings erst mal nicht viel ableiten, da sich die µArch konzeptionell zwar ähnelt aber von der Umsetzung wohl doch abweichend ist (FP64, INT8, Registerspaces, Scheduler, I/O und IMC).

@robbitop: Ich sags ungern aber Troyan hat schon Recht. Es einfach als Wortklauberei abzustempeln ist imo der falsche Weg. Besser wäre es sich auf korrekte Terminologien zu einigen. Dafür hatte ich auch schon mal ne Klatsche bekommen. :smile: Flops pro Watt ist hier imo eine sinnvolle Metrik.

@RLZ: Wozu könnte man z.B. neuronale Netzwerke in der Rendering-Pipeline verwenden? Optimierung von Algorithmen oder verstehe ich das gerade völlig falsch? :redface:

robbitop
2017-10-30, 16:26:34
@robbitop: Ich sags ungern aber Troyan hat schon Recht. Es einfach als Wortklauberei abzustempeln ist imo der falsche Weg. Besser wäre es sich auf korrekte Terminologien zu einigen. Dafür hatte ich auch schon mal ne Klatsche bekommen. :smile: Flops pro Watt ist hier imo eine sinnvolle Metrik.


"FLOPS pro Watt" ist so ganz und gar nicht das, was gemeint war. Da hat der Fertigungsprozess und der Betriebspunkt einfach einen zu großen Einfluss. Das würde ich nicht als Wortklauberei abstempeln. IPC hingegen schon. Ist bei CPUs ja trotz mehrere Cores auch ein Term der gebräuchlich ist. Ist verbreitet und jeder weiß was gemeint ist.

Idealerweise müsste man "Rohleistungsnormierte Performance" sagen um das zu beschreiben, was die meisten (inkl. mir) hier meinen. Oder aber auch "takt- und einheitennormierte Performance".

Hübie
2017-10-30, 16:47:17
Ich weiß, dass dies nicht gemeint war, aber es ist [stets imo] die sinnvollere Metrik in der Hinsicht. Vor 2-3 Jahren sagte ein Ingenieur/Entwickler mal, dass es eigentlich kein Problem ist eine 800 mm² GPU mit 500 Watt herzustellen, aber es ist eben nicht marktfähig. Also ist man bei 300 Watt im oberen Limit, eher 250 und weniger. Da versuchen die Entwickler bei NVIDIA das beste herein zu packen und wägen ab, was am meisten bringt und bringen könnte. Es ist auch nicht wie bei CPUs dass man einfach mehr Issue-Ports, mehr Register und Queue-depths implementiert, mit großem Cache paart, logische branch prediction und so dann mehr Instruktionen in einem Takt durch drückt*. Die issued instructions per clock verändern sich bei einer GPU-Gen im Grunde nicht (wirklich) immer und auch nicht immer signifikant. Iirc haben Maxwell, Pascal und Volta vier instructions per clock (per SM) zum dispatchen gemeinsam, aber was ausgeführt wird unterscheidet die Archs dann. Das ist es was du meinst, aber daraus lässt sich wenig ableiten bzw. es ist kaum möglich dies ohne weitere Einflüsse zu messen geschweige denn in die Praxis zu münzen.

*Mir ist natürlich klar, dass es doch nicht so "einfach" ist wie projiziert, nur ist man hier weniger power constrainted oder am rectangle limit.

Sorry für offtopic. Wir können das gerne weiter ausdiskutieren und Argumente vorbringen, wenn da Bedarf besteht. :smile:

vinacis_vivids
2017-10-30, 16:57:45
IPC wird jetzt als Flops bzw Perf/Watt verstanden. :facepalm:
Hubie at his best beim Verdrehen.

RLZ
2017-10-30, 17:04:16
@RLZ: Wozu könnte man z.B. neuronale Netzwerke in der Rendering-Pipeline verwenden? Optimierung von Algorithmen oder verstehe ich das gerade völlig falsch? :redface:
Da sind der Fantasie momentan wenig Grenzen gesetzt. Rumgespielt wird mit so ziemlich allem... Shading (http://deep-shading-datasets.mpi-inf.mpg.de/), Antialiasing (http://openproblems.realtimerendering.com/s2017/05-msalvi-dl-future-of-rendering.pptx), Animationssynthese (http://theorangeduck.com/page/phase-functioned-neural-networks-character-control)(inklusive Gesichtsanimationen (https://www.youtube.com/watch?v=VtttfrmfMZw&feature=youtu.be)), Fluidsimulation (https://www.youtube.com/watch?v=9pXubxPsIJw), Global Illumination (https://arxiv.org/pdf/1710.09834.pdf), Denoising, Resampling usw.

robbitop
2017-10-30, 17:17:57
Ich weiß, dass dies nicht gemeint war, aber es ist [stets imo] die sinnvollere Metrik in der Hinsicht.
Es mag eine sinnvolle Metrik sein. Aber es ist eine andere Metrik. Mich und viele andere interessiert unabhängig davon aber die rohleistungsnormierte Performance. Völlig andere Baustelle. ;)
Es ist ja gar nicht der Anspruch, sich auf eine einzelne Metrik festzulegen. Es können doch mehrere parallel existieren.
Zumal Perf/W bei noch niedrigen Taktraten sicherlich noch besser würde. Aber oftmals interessiert den Gamer ein guter Kompromiss aus Leistung und Leistung pro Watt und nicht nur reine Perf/W.

gravitationsfeld
2017-10-30, 17:30:28
IPC wird jetzt als Flops bzw Perf/Watt verstanden. :facepalm:
Hubie at his best beim Verdrehen.
Bei GPUs ist das auch keine so schlechte Annahme weil man fast immer von der TDP limitiert wird.

robbitop
2017-10-30, 17:39:16
Naja aber Perf/W hat zwar auch mit der mArch zu tn aber eben auch massivst mit dem Betriebspunkt und dem Fertigungsprozess. Bspw Fury Nano. Läuft eine GPU in ihrem Sweetspot ist nicht selten die Leistungsaufnahme massiv besser. Und somit auch die Perf/W. IMO zu viele Variablen. Es ist - zumindest für mich - schon äußerst interessant, wieviel rohleistungsnormierte Performance herauskommt.

Hübie
2017-10-30, 18:04:07
IPC wird jetzt als Flops bzw Perf/Watt verstanden. :facepalm:
Hubie at his best beim Verdrehen.

[ ] Ich habe Hübie's Text nicht gelesen
[ ] Ich habe Hübie's Text nicht verstanden
[ ] Ich habe Hübie's Text zwar verstanden aber tr0lle gern herum


Setze mit Edding dein Kreuz (Mehrfachauswahl ist möglich sofern die Logik sich nicht ausschließt).


@robbitop: Ich denke doch dass mein Text da eindeutig ist. Wie ermittelt man die reine IPC? ;) Zwei Architekturen auf den gleichen Takt setzen und fertig? Da hast du mindestens genau so viele Einflussfaktoren. Ich will mich da jetzt nicht am Begriff aufhängen, aber der ist denkbar unpassend, weshalb ich ja darauf plädiere dass wir uns da mal einigen können. :D Oder wir belassen es dabei dass wir unterschiedliche Meinungen dazu haben.

Hübie
2017-10-30, 18:59:47
Übrigens habe ich das hier vorhin gesucht und nun gefunden (okay ist älter, aber hat Gültigkeit):

https://docs.nvidia.com/gameworks/content/developertools/desktop/analysis/report/cudaexperiments/kernellevel/instructionstatistics.htm

Passt eigentlich ganz gut und zeigt auf, dass IPC relativ betrachtet seit Kepler (?) konstant ist. Hier hat man aber sogar schon auf Treiberebene Einflüsse (sorting of instructions), was das Argument mit Betriebspunkt bzgl. der Metrik Flops/W von der Gewichtung so ziemlich aushebelt. Dazu kommen Fähigkeiten gemeinsam reads auf adress space zu machen ohne ein copy auszuführen. Das ist natürlich direkt mit der Architektur verbunden und eine zulässige Größe, also Argument pro IPC-Betrachtung wenn das Ergebnis lautet: Die SMs werden besser ausgelastet.

So langsam wird es aber zu OT, oder? :redface:

robbitop
2017-10-30, 19:20:06
@robbitop: Ich denke doch dass mein Text da eindeutig ist. Wie ermittelt man die reine IPC? ;) Zwei Architekturen auf den gleichen Takt setzen und fertig? Da hast du mindestens genau so viele Einflussfaktoren. Ich will mich da jetzt nicht am Begriff aufhängen, aber der ist denkbar unpassend, weshalb ich ja darauf plädiere dass wir uns da mal einigen können. :D Oder wir belassen es dabei dass wir unterschiedliche Meinungen dazu haben.
Im Schnitt über Anwendungen und Spiele. Genau wie bei CPUs. Ich verstehe den Diskussionsbedarf nicht. Beide Metriken sind für sich legitim, jeweils anders und jeweils interessant.

Bspw holt Maxwell rohleistungsnormiert ~30-40 % mehr Leistung heraus ggü Kepler im Schnitt bei Spielen. Pascal nochmal zusätzliche 5-10 %. (fehlende Treiberoptimierung bei neusten AAA Titeln für Kepler mal außen vor). Interessant wäre zu sehen, was Volta hier bringt.

Übrigens habe ich das hier vorhin gesucht und nun gefunden (okay ist älter, aber hat Gültigkeit):

https://docs.nvidia.com/gameworks/content/developertools/desktop/analysis/report/cudaexperiments/kernellevel/instructionstatistics.htm

Passt eigentlich ganz gut und zeigt auf, dass IPC relativ betrachtet seit Kepler (?) konstant ist. Hier hat man aber sogar schon auf Treiberebene Einflüsse (sorting of instructions), was das Argument mit Betriebspunkt bzgl. der Metrik Flops/W von der Gewichtung so ziemlich aushebelt. Dazu kommen Fähigkeiten gemeinsam reads auf adress space zu machen ohne ein copy auszuführen. Das ist natürlich direkt mit der Architektur verbunden und eine zulässige Größe, also Argument pro IPC-Betrachtung wenn das Ergebnis lautet: Die SMs werden besser ausgelastet.

So langsam wird es aber zu OT, oder? :redface:
Gemeint ist nicht der Rohdurchsatz (von mir und anderen), sondern die effektiv verfügbare Performance in Anwendungen und Spielen relativ zu anderen mArchs. Rohleistungsnormiert. Und da hat sich seit Kepler einiges getan.

Hübie
2017-10-30, 19:28:25
Gemeint ist nicht der Rohdurchsatz [...], sondern die effektiv verfügbare Performance in Anwendungen und Spielen [...]

Das gibt der Link ja wieder. Interessant ist da natürlich die Auslastung. Die konnte iirc von 73% (Kepler) auf ~98% (Maxwell) gesteigert werden, was u.a. den Schub bei Perf/W erklärt. Ich sehe nun aber auch keinen weiteren Bedarf. IPC ist zwar nicht der korrekte Begriff, aber so lang jeder weiß wovon man spricht sehe ich kein Problem - stimmt schon.

Platos
2017-10-30, 20:56:16
Das ist bei Grafikkarten aber noch schwierig. Wenn ständig mehr Recheneinheiten dazu kommen, ist es ja klar, dass dann die mögliche Leistung bei gleichem Takt steigt. Das ist ja bei CPUs mit mehr Kernen ja auch nicht viel anders.

Aber mal zum Thema: Wo soll denn die Mehrperfomance bei Volta GeForce herkommen? Wenn man mal den GV100 anschaut, sieht man, dass dieser schon mal keine wirklich höhere Packdichte hat als der GP100. Die Taktrate ist auch nicht höher. Einzig der Stromverbrauch ist viel geringer (also gleich bei aber viel mehr Recheneinheiten/grösserem Chip).

Wenn man jetzt aber davon ausgeht, dass der GV 104 nicht so extrem vergrössert wird, wie der GV100 (und davon kann man wirklich ausgehen), wo soll dann die Mehrperfomance herkommen? Das einzige, was übrig bleibt ist eine "normale" Erhöhung der Recheneinheiten und Taktsteigerung. Nur zumindest die Volta Tesla Karte hat keinen höheren Takt. Also wo soll die Leistung herkommen?

robbitop
2017-10-30, 22:07:07
Das ist bei Grafikkarten aber noch schwierig. Wenn ständig mehr Recheneinheiten dazu kommen, ist es ja klar, dass dann die mögliche Leistung bei gleichem Takt steigt. Das ist ja bei CPUs mit mehr Kernen ja auch nicht viel anders.


Deshalb ja rohleistungsnormiert. Dann speilt der Takt und die Anzahl an Einheiten keine Rolle mehr. ;)

Volta wird analog zu Maxwell ggü Kepler halt größer. GV102 halt 550–600 sqmm und 400—450 sqmm für GV104.

Hübie
2017-10-30, 22:12:04
Da sind der Fantasie momentan wenig Grenzen gesetzt. Rumgespielt wird mit so ziemlich allem... Shading (http://deep-shading-datasets.mpi-inf.mpg.de/), Antialiasing (http://openproblems.realtimerendering.com/s2017/05-msalvi-dl-future-of-rendering.pptx), Animationssynthese (http://theorangeduck.com/page/phase-functioned-neural-networks-character-control)(inklusive Gesichtsanimationen (https://www.youtube.com/watch?v=VtttfrmfMZw&feature=youtu.be)), Fluidsimulation (https://www.youtube.com/watch?v=9pXubxPsIJw), Global Illumination (https://arxiv.org/pdf/1710.09834.pdf), Denoising, Resampling usw.

Danke für die Antwort. Ich zieh mir das mal in Ruhe rein. Heute ist kinderfrei und das muss ich auskosten. ;D

@Platos: Es gilt afaik nicht als gesichert dass alle Volta in 12 nm kommen, was impliziert, dass es schon 10 nm sein könnten. Und Wege um Performance zu erlangen gibt es genügend. Fangen wir bei Speicherbandbreite und interne Bandbreite an. Wenn ich intern einen Cache mit 1 TB/s anbinde während vorher nur 750 GB/s drin waren, habe ich schon mal 33% mehr bzw. hatte vorher nur 75% Potenzial genutzt. Im Front und Backend gibt es auch noch einiges wie instancing, fetching, culling oder so etwas wie branch prediction "light". Platos hat darüber hinaus auch interessante Ideen / Konzepte verlinkt. Womöglich ließen sich Tensorcores auch anderweitig einsetzen (generell als solver für Matrixoperationen?).

Ich beschäftige mich aktuell mit 'quantitative approaches for logistic demand problems' was auch solche Matrixoperationen erfordert. Es gibt wahrscheinlich eine Menge Einsatzgebiete von denen ich nicht mal weiß, dass diese existieren (und andere wohl auch nicht). :D

btw: Ich habe mal mit einem Iraner gesprochen, der an Image-Separation gearbeitet hat und genau so etwas in Hardware brauchte*. Der wird jetzt dankend auf die Knie gefallen sein, als Volta kam. :D

*(Die TPUs haben halt keine Grafikfunktionen und fielen somit aus der Auswahl.)

Klevapalis
2017-10-30, 22:14:54
Wenn man jetzt aber davon ausgeht, dass der GV 104 nicht so extrem vergrössert wird, wie der GV100 (und davon kann man wirklich ausgehen), wo soll dann die Mehrperfomance herkommen? Das einzige, was übrig bleibt ist eine "normale" Erhöhung der Recheneinheiten und Taktsteigerung. Nur zumindest die Volta Tesla Karte hat keinen höheren Takt. Also wo soll die Leistung herkommen?
Man hätte bei der GV100-Karte auch die Taktung statt die Größe anpassen können. Offensichtlich hat NVIDIA das vorher simuliert und bemerkt, dass der größere Chip mehr Sinn ergibt (= mehr Leistung).

Das wird im Geforcebereich wohl nicht anders sein, das Fertigungsverfahren ist inzwischen mehr als zwei Jahre gereift, es sollte für NVIDIA kein Thema sein einen 550 - 600mm² wie schon zu GeForce 200er Zeiten zu fertigen und als HighEnd-Karte zu verkaufen. Zumal es fraglich ist, ob AMD da was gegen anzubieten hat. Der GP102 wird wohl für immer konkurrenzlos da stehen, genauso wie GP100/GV100.

Deshalb ja rohleistungsnormiert. Dann speilt der Takt und die Anzahl an Einheiten keine Rolle mehr. ;)
Das wäre dann wohl eher was ala FPC (Frames per Clock), aber eben kein IPC (Instructions per Clock).

Bei CPUs mag das noch bedingt Sinn ergeben, weil Instruktionen eben das sind, was bei CPUs an Leistung hinten raus kommt. Bei Grafikkarten aber nicht.

Rampage 2
2017-10-30, 22:23:53
Das wird im Geforcebereich wohl nicht anders sein, das Fertigungsverfahren ist inzwischen mehr als zwei Jahre gereift, es sollte für NVIDIA kein Thema sein einen 550 - 600mm² wie schon zu GeForce 200er Zeiten zu fertigen und als HighEnd-Karte zu verkaufen.

Bei aktueller Hochrechnung bekommt NV aber "nur" etwas knapp unter 5000 SPs im selben Prozess (16FF+) in 610mm^2 reingequetscht...

Selbst durch einen evtl. Fertigungsvorteil durch "12nm" bekommt man den Vollausbau (5376 SPs) nicht in 600-610mm^2 gequetscht...

R2

Platos
2017-10-30, 23:36:58
Ah so, dann könnte es so eine Art Refresh werden.

Und stimmt, 10nm könnte es natürlich auch sein. Wäre ja nicht das erste Mal, dass in der selben Gen verschiedene Grössen/Verfahren genutzt werden. TSMC hat ja auch schon in 10nm produziert, wenn auch "nur" für Smartphones. Könnte also eigentlich gut sein, dass 10nm im Sommer 2018 für GeForce genutzt wird.

Klevapalis
2017-10-31, 00:08:53
Bei aktueller Hochrechnung bekommt NV aber "nur" etwas knapp unter 5000 SPs im selben Prozess (16FF+) in 610mm^2 reingequetscht...
Das wären schon mal +30% auf den aktuellen GP102.

Dabei sind die Shader ca. 50% effizienter als bei Pascal, d.h. beim aktuellen Powerenvelop könnte man den Takt noch etwas hochdrehen. Sind unterm Strich locker 40-50% auf den GP102 drin.

Für einen Midlifekicker im nahezu gleichen Fertigungsprozeß völlig ok. Und selbst der "kleine" GV104 wäre völlig konkurrenzlos, weil der locker mal 30% schneller als Vega wäre. Wenn nicht sogar mehr.

Rampage 2
2017-10-31, 01:00:52
Das wären schon mal +30% auf den aktuellen GP102.

Dabei sind die Shader ca. 50% effizienter als bei Pascal, d.h. beim aktuellen Powerenvelop könnte man den Takt noch etwas hochdrehen. Sind unterm Strich locker 40-50% auf den GP102 drin.

Für einen Midlifekicker im nahezu gleichen Fertigungsprozeß völlig ok. Und selbst der "kleine" GV104 wäre völlig konkurrenzlos, weil der locker mal 30% schneller als Vega wäre. Wenn nicht sogar mehr.

Du meinst wohl 15-20% (1,3 x 1,15 = 1,5) ;)

Die Shader-Anzahl des GV102 muss durch 1,5 exakt teilbar sein (da GV102 = GV104 + 50%) und auch durch 6 (da GV102 wohl wieder aus 6 GPCs bestehen wird). Da kämen dann nur folgende Konfigurationen in Frage:

- 5376 SPs (896 SPs pro GPC wie beim jetzigen GV100) -> GV104 dann 3584 SPs

- 4992 SPs (832 SPs pro GPC; eher unwahrscheinlich, da bei den Gamer-Voltas wohl wieder 128 statt 64 SPs pro SMX enthalten sein werden) -> 3328 SPs für GV104

- 4608 SPs (768 SPs pro GPC; sowohl durch 128 als auch durch 64 teilbar) -> 3072 SPs für GV104

IMO sind Varianten 1 und 3 am Wahrscheinlichsten...

R2

robbitop
2017-10-31, 07:58:17
Das wäre dann wohl eher was ala FPC (Frames per Clock), aber eben kein IPC (Instructions per Clock).

Bei CPUs mag das noch bedingt Sinn ergeben, weil Instruktionen eben das sind, was bei CPUs an Leistung hinten raus kommt. Bei Grafikkarten aber nicht.
Beides nein.

@huebie
Geht es da um Transportmatritzen? (Erinnert mich an meine Diplarbeit vor 10 Jahren :-)

Hübie
2017-10-31, 09:01:13
Ja. Manhattan Modell etc. :) Ganz interessant. So simple Übungen kann man mit Lingo solver machen, aber wenn man die Komplexität erhöht merkt man schon wie der Rechner schwitzt ^^ DHL & Co planen afaik auch auf die Art ihre Routen.

Klevapalis
2017-10-31, 19:15:12
Du meinst wohl 15-20% (1,3 x 1,15 = 1,5) ;)
Nein.

Lies dir mal die Daten des GV100 durch, der GV100 erreicht fast 50% mehr FP32-Performance, als der GP100 - bei identischem Powerbudget.

Beides nein.
Du darfst gern eine bessere Metrik vorschlagen, IPC ist definitiv nicht.

Hübie
2017-10-31, 19:29:32
In dem Kontext ist mit IPC nicht exakt das gemeint, wovon man bei CPUs spricht. Das hat robbitop ja nun schon klar gemacht. Können wir uns nun dem Thema zuwenden? :smile:

pixeljetstream
2017-11-01, 00:34:18
Perf/Watt und perf/mm² sind imo die einzig "normierten" Metriken. Perf=Schwung an benchmarks.

Wenn man es an anderen Kennziffern wie die float units oder so festmacht, hat man schon nen Architektur abhängigen bias drin.

Hübie
2017-11-01, 01:47:41
Mein Reden. Aber da scheiden sich die Geister wie du siehst.

robbitop
2017-11-01, 11:48:56
Du darfst gern eine bessere Metrik vorschlagen, IPC ist definitiv nicht.
In den letzten 2-3 Beiträgen habe ich es ausreichend beschrieben.

Perf/Watt und perf/mm² sind imo die einzig "normierten" Metriken. Perf=Schwung an benchmarks.

Wenn man es an anderen Kennziffern wie die float units oder so festmacht, hat man schon nen Architektur abhängigen bias drin.
Da hast du Recht. Und dennoch ist es hoch interessant. Kann ja jeder sehen wie er will. Es gibt keine Notwendigkeit der Beschränkung von Metriken.

pixeljetstream
2017-11-01, 15:29:22
Und dennoch ist es hoch interessant. Kann ja jeder sehen wie er will. Es gibt keine Notwendigkeit der Beschränkung von Metriken.
Für die Betrachtung der Evolution sind die flops durchaus praktischer Faktor, das stimmt.

robbitop
2017-11-01, 15:46:24
Interessant (aber nicht zwangsweise kausal zusammenhängend sondern nur korrelierend) ist es, dass die mArch, welche die höchste rohleistungsnormierte Performance hat auch die größte Perf/W hat. Sowohl bei CPUs (Intel) als auch bei GPUs (NV).

Klevapalis
2017-11-01, 16:39:30
In den letzten 2-3 Beiträgen habe ich es ausreichend beschrieben.
Die Frage ist halt wie man "Rohleistung" in Sachen GPU definieren will, weil es einfach nicht die Rohleistung gibt. Vergleiche sind ja im Grunde nur innerhalb des IHVs möglich, schon zwischen AMD und NV ist das fast gar nicht zu vergleichen.

Hübie
2017-11-01, 18:05:09
Interessant (aber nicht zwangsweise kausal zusammenhängend sondern nur korrelierend) ist es, dass die mArch, welche die höchste rohleistungsnormierte Performance hat auch die größte Perf/W hat. Sowohl bei CPUs (Intel) als auch bei GPUs (NV).

Ist dem tatsächlich so? Man müsste es jetzt irgendwie hinbekommen, eine GPU sagen wir seit Fermi bis Pascal mit der gleichen Anzahl an Ausführungseinheiten zu bekommen, die man auf bpsw. 900 MHz setzt (sollte jeder Fermi eigentlich mitmachen) und dann vergleicht - oder alternativ ein Programm entwickelt was eben nur eine bestimmte Anzahl von Warps / Threads generiert.

So aus dem Bauch heraus klingt es erst mal richtig und plausibel was du schreibst. Hab ich noch nie so betrachtet.

robbitop
2017-11-01, 19:59:58
Die Frage ist halt wie man "Rohleistung" in Sachen GPU definieren will, weil es einfach nicht die Rohleistung gibt. Vergleiche sind ja im Grunde nur innerhalb des IHVs möglich, schon zwischen AMD und NV ist das fast gar nicht zu vergleichen.
GFLOPs und Bandbreite. ROPs limitieren idR nicht und Texturleistung auch nicht mehr. Nun ist aber EOD. ;)

Ist dem tatsächlich so? Man müsste es jetzt irgendwie hinbekommen, eine GPU sagen wir seit Fermi bis Pascal mit der gleichen Anzahl an Ausführungseinheiten zu bekommen, die man auf bpsw. 900 MHz setzt (sollte jeder Fermi eigentlich mitmachen) und dann vergleicht - oder alternativ ein Programm entwickelt was eben nur eine bestimmte Anzahl von Warps / Threads generiert.

So aus dem Bauch heraus klingt es erst mal richtig und plausibel was du schreibst. Hab ich noch nie so betrachtet.
Fermi (und auch Tesla und G80) sind interessante Einwürfe. Die waren rohleistungsnormiert ziemlich fix. Die haben IIRC ne ganze Menge der Rohleistung effektiv auf die Straße bringen können. Insbesondere Fermi war aber in Bezug auf Perf/W nicht so toll(sicherlich auch wegen der Hotclocks). Kepler verbesserte die Perf/W, ging aber mit der rohleistungsnormierten Performance runter. Erhöhte die Breite aber so stark, dass er trotzdem schneller war. Fermis SMs waren wohl relativ teuer.
Maxwell und Pascal hingegen steigerten den effektiven Durchsatz wieder. Jetzt dürfte man ggf. wieder auf Fermi Niveau liegen. Und die Taktraten sind heute da, wo sie damals mit hotclocks lagen.

Klevapalis
2017-11-01, 20:41:54
GFLOPs und Bandbreite. ROPs limitieren idR nicht und Texturleistung auch nicht mehr. Nun ist aber EOD. ;)
Offensichtlich sinnlose Metriken. In jeder dieser Disziplin liegen AMD-Karten vorne - zum Teil sogar ziemlich viel - und trotzdem sind die NVIDIA-Karten unterm Strich gleich schnell oder sogar schneller.

Nach den zwei Metriken müsste Vega64 selbst mit einem GP102 locker mal eben den Boden aufwischen. GFLOPs mal eben so +20% mehr, Bandbreite identisch. Trotzdem prügelt sich Vega10 eher mit dem GP104, auf den sie sogar fast +50% mehr GFLOPs und Bandbreite hat.

Eine Grafikkarte anhand von GFLOPs und Bandbreite zu beurteilen ist offensichtlich nicht sinnvoll.

(Wenn man das jetzt mal so ausrechnet, ist es wirklich krass, wie weit vorne NVIDIA in Sachen Chipdesign ist. Dass Vega eigentlich +50% größer und auf dem Papier schneller ist, als der GP104, aber sich mit diesem misst, ist ziemlich heftig.)

Insbesondere Fermi war aber in Bezug auf Perf/W nicht so toll(sicherlich auch wegen der Hotclocks).
Fermi hatte Probleme auf dem physikalischen Layer, danach hat NVIDIA ja angefangen stark in den Engineeringbereich für die physikalische Chipentwicklung zu setzen und nicht nur das Layout zu entwerfen. Das Ergebnis ist u.A. die Taktfreudigkeit von Pascal.

robbitop
2017-11-01, 20:56:30
Was? :eek:
Ich habe das Gefühl, dass wir aneinader vorbeireden. Wie gesagt OT und jetzt EoD. Das Thema ist eh erschöpft und ausreichend beschrieben.

Rampage 2
2017-11-01, 21:50:46
Wieviel mm^2 Die-Fläche würden 5376 SPs (OHNE Tensor-Cores und mit 1/32 statt 1/2 DP-Einheiten) zusammen mit 384 Bit SI schätzungsweise einnehmen, wenn sie in dem verbesserten "12nm" FFN-Verfahren gefertigt würden?

(ich hoffe, dass ich diese Frage nicht bereits gestellt habe;))

Ich rate aufs Geratewohl mal auf ~ 630mm^2 - wäre das schon inakzeptabel über dem Limit?

R2

Hübie
2017-11-02, 01:37:34
Ganz grob irgendwo bei 730-740 mm². Das reticle limit ist nicht (mehr) bei ~600 mm². 5376 ist imo Zuviel des Guten. ;) Ich gehe diese Runde allerdings davon aus, dass man nicht weniger ALUs verbauen kann und dennoch mehr Leistung erreicht. Allein schon wegen des Takts.

@Klevapils: Das hast du jetzt aber völlig falsch aufgeschnappt. :D

robbitop
2017-11-02, 06:29:22
Ja. Wenn Volta pro ALU oder besser pro mm2 mehr Performance liefert sondern nur mehr Perf/W muss die Steigerung der Performance ggü dem Vorgänger rein über die Erhöhung der Breite bzw der Transistorzahl gehen. „12nm“ (also eigentlich 20nm FF+ mit 7,5t ...) bringt ggü 16nm nur gute 5% mehr Packdichte. Für einen ordentlichen Generationssprung bräuchte man besser einen echten Shrink. Oder aber Volta (gv102, 104 und 106) wird wirklich groß. Oder aber der Sprung wird nicht so groß. Ohne deutlich mehr Perf/m2 ist es keine Kepler-> Maxwell Situation. Oder aber NV spendiert wie bei gv100 ungewöhnlich viel Fläche.

HOT
2017-11-02, 09:48:25
Moment, Klevapalis vergleicht doch GP100 vs. GV100? Da kann man eh kaum Schlüsse daraus ziehen, da GP100 1.) nicht auf dem Sweetspot läuft, GV100 dank der verbesserten Fertigung aber schon und 2.) die ALUs einfach andere sind als bei GP10x.

Klevapalis
2017-11-02, 10:03:16
Moment, Klevapalis vergleicht doch GP100 vs. GV100? Da kann man eh kaum Schlüsse daraus ziehen, da GP100 1.) nicht auf dem Sweetspot läuft, GV100 dank der verbesserten Fertigung aber schon und 2.) die ALUs einfach andere sind als bei GP10x.
Woher willst du wissen, dass GP100 nicht im Sweetsport läuft, GV100 aber schon? Und natürlich sind die ALUs bei Volta anders, das ist ja auch gerade der Fortschritt, dass NVIDIA massiv an der Effizienz gearbeitet hat :rolleyes:

HOT
2017-11-02, 11:01:26
GP100 braucht mit den gleichen Shadern mehr Saft als GP102 und das trotz HBM, aber das ist nur ein Beispiel. Das ist auch kein Wunder, da die ALUs beispielsweise auch RPM unterstützen sind, also anders aufgebaut sein müssen als bei GP10x. Du vergleichst sowas von Äpfeln mit Birnen... Robbi und Hubie haben das schon gut dargelegt, was zu erwarten ist bei 12FFN, das klingt alles überaus plausibel.

30% mehr Leistung pro Watt bei vergrößertem Flächenbedarf ist schon eine sehr realistische Annahme.

10nm werden wir nicht sehen, deshalb gibt es ja überhaupt 12FFN, weil 10nm kaum mehr leistet sondern "nur" kleiner und erheblich teurer ist.

Klevapalis
2017-11-02, 11:20:51
GP100 braucht mit den gleichen Shadern mehr Saft als GP102 und das trotz HBM, aber das ist nur ein Beispiel.
- FP16/FP64
- NVLink
- Kleinere Shadercluster
usw.

Du vergleichst sowas von Äpfeln mit Birnen...
Nö. Ich sehe nur, dass NVIDIA mit GV100 50% mehr Rechenleistung ggü GP100 raus hauen kann bei identischer Rechenleistung.

Warum sollte man diesen Fortschritt nicht auch im Gamingbereich sehen?

[QUOTE=HOT;11539855]30% mehr Leistung pro Watt bei vergrößertem Flächenbedarf ist schon eine sehr realistische Annahme./QUOTE]
Das wäre angesichts des GP100/GV100 Vergleichs sehr pessimistisch. Und ich denke auch nicht, dass NVIDIA einen neuen Chip für nur 30% mehr auslegt.

=Floi=
2017-11-02, 12:42:17
weil auch etwas anderes als die shaderleistung limitieren könnte. Imho ist die reine shaderleistung bei NV nicht der flaschenhals.
Sonst wäre eine vega auch erheblich besser aufgestellt.

robbitop
2017-11-02, 13:40:34
NVs SMs sind eigentlich ganz gut ausbalanciert was Arithmetik, Texturfüllrate und Z/Stencilfillrate angeht. Bei Vega vermute ich ähnliches. Mal limitiert mehr das eine und mehr das andere.

Am Ende ist NV pro Rechenleistung effizienter, weil die Kontrolllogik, der Compiler und die bandbreitenschonenden Maßnahmen mehr hergeben.

gravitationsfeld
2017-11-02, 14:30:24
Man wird mir nicht glauben, aber pures Compute dass den Chip wirklich fuellt ist auf den AMD-Chips sogar effizienter. Es liegt nicht am Design der CUs/ALUs bei AMD.

AffenJack
2017-11-02, 14:51:38
Man wird mir nicht glauben, aber pures Compute dass den Chip wirklich fuellt ist auf den AMD-Chips sogar effizienter. Es liegt nicht am Design der CUs/ALUs bei AMD.

Das Compute auf GCN gut ist hat man ja schon öfter gehört.
Könntest du das bitte mal etwas erläutern, woran es bei AMD so wirklich happert? (Im AMD Thread) Man liest gefühlt überall höchstens halbwissen, dann theorien oder einfach die Aussage das Front-End ist schuld, aber was daran ist schuld, dass sie die shader nicht ausgelastet kriegen ? Oder was macht Nvidia da anders, dass sie damit keine Probleme haben?

Hübie
2017-11-02, 15:01:19
Außer dem Namen haben Pascal GP100 und 102 nicht wirklich viele Gemeinsamkeiten. Ebenso wird es wohl bei Volta sein.

@gravitationsfeld: Definiere compute. Matrixoperationen wohl nicht, wenn ich das so betrachte. Aber da gibt es dann ja wieder TPU2 mit FP16 multiply und add (Volta iirc FP16 multiply + FP32). Also schon alles sehr use case sensitive, wenn der Begriff so gestattet ist.

Klevapalis
2017-11-02, 15:16:01
Man wird mir nicht glauben, aber pures Compute dass den Chip wirklich fuellt ist auf den AMD-Chips sogar effizienter. Es liegt nicht am Design der CUs/ALUs bei AMD.
Nur fehlt AMD da völlig das Softwareumfeld, das NVIDIA mit CUDA hat. Also bringt ihnen das ziemlich wenig.

Zumal ein GP100 eben ein völlig anderes Spielzeug als ein Vega10 ist.

AffenJack
2017-11-02, 15:48:54
Gerade bei b3d gefunden:
https://www.bdti.com/InsideDSP/2017/10/31/NVIDIA

paar Details zu Nvidias Open Source DL Beschleuniger der auch in Xavier drin ist. Könnte man das Ding vielleicht statt der Tensor Cores in die nächsten geforceprodukte einbauen, damit man die auch für inference nutzen kann? Vielleicht ja nicht in allen, aber zumindest einigen, denn nicht jeder wird in einem datacenter mit v100 interference machen wollen.

BoMbY
2017-11-02, 17:13:00
Zu 99% wird NVidia kein AI-Kram in GeForce-Produkte packen - wozu auch? Das könnte den Absatz bei ihren 10.000,- Euro Karten mindern, und NVidia möchte nicht, dass jemand die günstigen GeForce-Karten für HPC nutzt (http://fudzilla.com/news/graphics/44819-nvidia-stops-distributors-from-selling-geforce-cards-to-server-and-hpc-markets).

robbitop
2017-11-02, 17:24:09
Man wird mir nicht glauben, aber pures Compute dass den Chip wirklich fuellt ist auf den AMD-Chips sogar effizienter. Es liegt nicht am Design der CUs/ALUs bei AMD.
Auch nicht an der Kontrolllogik? Reines Shadercompilerproblem @Spielen?

Troyan
2017-11-02, 17:33:17
Gerade bei b3d gefunden:
https://www.bdti.com/InsideDSP/2017/10/31/NVIDIA

paar Details zu Nvidias Open Source DL Beschleuniger der auch in Xavier drin ist. Könnte man das Ding vielleicht statt der Tensor Cores in die nächsten geforceprodukte einbauen, damit man die auch für inference nutzen kann? Vielleicht ja nicht in allen, aber zumindest einigen, denn nicht jeder wird in einem datacenter mit v100 interference machen wollen.

Das ist ein reiner Inference-Chip, ziemlich nutzlos für Grafikkarten.

gravitationsfeld
2017-11-02, 19:01:56
Auch nicht an der Kontrolllogik? Reines Shadercompilerproblem @Spielen?
Ich sagte reines Compute. Spiele sind kein reines Compute.

pixeljetstream
2017-11-02, 19:15:47
Zu 99% wird NVidia kein AI-Kram in GeForce-Produkte packen - wozu auch? Das könnte den Absatz bei ihren 10.000,- Euro Karten mindern, und NVidia möchte nicht, dass jemand die günstigen GeForce-Karten für HPC nutzt (http://fudzilla.com/news/graphics/44819-nvidia-stops-distributors-from-selling-geforce-cards-to-server-and-hpc-markets).

Nach dem Bericht wäre es aber egal ob die Karten die Features bekommen oder nicht, weil sie rechtlich eh nicht so eingesetzt werden dürfen.

aufkrawall
2017-11-02, 19:17:15
Ich sagte reines Compute. Spiele sind kein reines Compute.
Was ist denn reines Compute? Bei OpenCL gibts auch Tasks, wo Radeons völlig abstinken, etwa Folding.

fondness
2017-11-03, 18:58:47
Das Compute auf GCN gut ist hat man ja schon öfter gehört.
Könntest du das bitte mal etwas erläutern, woran es bei AMD so wirklich happert? (Im AMD Thread) Man liest gefühlt überall höchstens halbwissen, dann theorien oder einfach die Aussage das Front-End ist schuld, aber was daran ist schuld, dass sie die shader nicht ausgelastet kriegen ? Oder was macht Nvidia da anders, dass sie damit keine Probleme haben?

Ganz interessanter Artikel dazu am Beispiel von Wolfenstein:
https://wccftech.com/wolfenstein-ii-deferred-rendering-and-gpu-culling-performance-impact/

Man sieht, dass Culling über die Shader bei AMD deutlich Leistung bringt, NV sogar etwas Leistung verliert, ergo verwirft NV wesentlich effizienter Content schon im Front-End. Auch die unterschiedlichen Ergebnisse mit Deferred Rendering sind interessant, AMD hat also auch bei den ROPs bzw. am Backend einiges aufzuholen. Teilweise ist Vega ja schon in die Richtung gegangen, aber ich bezweifle, dass man NV-Niveau erreicht.

Digidi
2017-11-04, 10:11:56
Ganz interessanter Artikel dazu am Beispiel von Wolfenstein:
https://wccftech.com/wolfenstein-ii-deferred-rendering-and-gpu-culling-performance-impact/

Man sieht, dass Culling über die Shader bei AMD deutlich Leistung bringt, NV sogar etwas Leistung verliert, ergo verwirft NV wesentlich effizienter Content schon im Front-End. Auch die unterschiedlichen Ergebnisse mit Deferred Rendering sind interessant, AMD hat also auch bei den ROPs bzw. am Backend einiges aufzuholen. Teilweise ist Vega ja schon in die Richtung gegangen, aber ich bezweifle, dass man NV-Niveau erreicht.

Bei AMD schlummern noch immer die Primitive Shader die genau da ansetzen sollen.

Auch muss man vorsichtig sein wie viel Zeit Idtech in diese Features und die jeweilige GPU gesteckt hat....

Interessant ist auch das Wolfenstein sehr Rasterizer lastig ist und dies Nvidia wohl nicht so schmeckt trotz 2 Rasterizer mehr bei GP102.

https://twitter.com/idSoftwareTiago/status/926144468570529792

Troyan
2017-11-04, 10:24:26
Äh, dir ist klar, dass "GPU Culling" ein zusätzlicher Schritt ist? Natürlich verliert eine GTX1060 Leistung, wenn die Recheneinheiten missbraucht werden, um Culling zu betreiben. Und natürlich gewinnt eine 480 Leistung, wenn brachliegende Rechenleistung für zusätzliches Culling verwendet wird.

Es zeigt aber auch, wie lächerlich die Engine und id ist: Tessellation für das Wasser wird auch nicht über die Geometrieeinheiten gemacht sondern über die Recheneinheiten. Einzig und allein, um nVidia-Hardware auszubremsen.

Naja, zum Glück floppt das Spiel am PC heftig. Vielleicht überdenkt Bethesda ihre Anti-nVidia-Haltung für die Zukunft.

Digidi
2017-11-04, 10:29:17
Naja, zum Glück floppt das Spiel am PC heftig. Vielleicht überdenkt Bethesda ihre Anti-nVidia-Haltung für die Zukunft.
Quellen Beweise? :facepalm:

Nvidias starken sah ich immer den Rasterizer an, da scheint sich aber einiges zu Gunsten der Konkurrenz verschoben zu haben. Selbst ohne GPU culling ist die Konkurrenz vorne mit dabei.

TGKlaus
2017-11-04, 11:17:26
Es zeigt aber auch, wie lächerlich die Engine und id ist: Tessellation für das Wasser wird auch nicht über die Geometrieeinheiten gemacht sondern über die Recheneinheiten. Einzig und allein, um nVidia-Hardware auszubremsen.


Genau, denn Bethesda möchte nicht, das Nvidia-Nutzer ihre Spiele kaufen....

:facepalm:

Hübie
2017-11-04, 11:22:01
Äh, dir ist klar, dass "GPU Culling" ein zusätzlicher Schritt ist? Natürlich verliert eine GTX1060 Leistung, wenn die Recheneinheiten missbraucht werden, um Culling zu betreiben. Und natürlich gewinnt eine 480 Leistung, wenn brachliegende Rechenleistung für zusätzliches Culling verwendet wird.

Es zeigt aber auch, wie lächerlich die Engine und id ist: Tessellation für das Wasser wird auch nicht über die Geometrieeinheiten gemacht sondern über die Recheneinheiten. Einzig und allein, um nVidia-Hardware auszubremsen.

Naja, zum Glück floppt das Spiel am PC heftig. Vielleicht überdenkt Bethesda ihre Anti-nVidia-Haltung für die Zukunft.

Das ist eher dem Umstand geschuldet, dass die Konsolen AMD-Hardware haben und das wiederum kam weil NV zu hohe Preise angesetzt hat. ;)

Edit: Und jetzt bitte Schluss mit derailing. Die AMD'ler beschweren sich in Ihren Threads über die NV-T0lle, sind aber kein Stück besser. Echt cleverer Schachzug von euch. :rolleyes:

Digidi
2017-11-04, 12:10:53
Edit: Und jetzt bitte Schluss mit derailing. Die AMD'ler beschweren sich in Ihren Threads über die NV-T0lle, sind aber kein Stück besser. Echt cleverer Schachzug von euch. :rolleyes:
Ich finde es nicht zielführend die Gegenseite aus der Diskussion auszuschließen. Zumal sich beide Konkurrenten an einander orientieren. Wo ich aber dagegen bin ist das immer wieder auftauen von widerlegten Ansichten und das Beweislose Dissen gegen eine Marke.

Hübie
2017-11-04, 12:19:12
Ich schließe keine Gegenseite aus, sondern sage was gegen die Tr0lle. Ich selber gucke in jeder Runde ob es AMD oder NV wird. Das macht nicht jeder und von der Gruppe die es nicht macht die Stänkerfritzen. Die meine ich explizit. ;)

Das die beiden sich aneinander orientieren stimmt in gewisser Weise ja auch, denn man sieht wie sich beide Architekturen einander annähern. Aber vom Standpunkt der Entwicklung wohl eher nicht. Viele denken dass NV Volta einfach wegen der (nicht ernsthaften) Konkurrenz zurück hält. Das ist ein Ammenmärchen.

Ps: Ich tr0lle auch manchmal auf Faktenbasis, aber dann offensichtlich genug weil ich mich köstlich amüsiere wie dann andere Schaum vorm Mund und Durchfall bekommen. X-D

scully1234
2017-11-04, 12:39:16
Das ist eher dem Umstand geschuldet, dass die Konsolen AMD-Hardware haben und das wiederum kam weil NV zu hohe Preise angesetzt hat. ;)


zu hohe Preise?

Wenn man sich den Gewinn der letzten Jahre bei AMD anschaut, muss man sich eher fragen, was die da für einen mega Deal geschlossen haben, der bei solchen Stückzahlen von PS4 u Xbox nix signifikantes abwirft.

Marktwirtschaftlich sinnvolle Preise, mit denen man auch wieder großzügig in R&D investieren kann, bekommst du nicht von Sony u MS, das dürfte Jensen wohl zu recht ausgeschlagen haben.

Prostituieren muss man sich nicht ,wenn man die Position von Nvidia inne hat, die Halsabschneider kommen schon von selbst wieder an, wenn sie AMD kaputt gespielt haben,weil es dann null Alternativen gibt

Oder gar früher ,wenn die Performanceschere der konkurierenden Chips noch weiter auseinanderklafft,wegen fehlendem Budget in der Entwicklung...

Hübie
2017-11-04, 13:40:34
Ja, zu hohe Preise. Apple genau so. Es ist ein Unterschied zwischen dem was man nehmen muss und dem was man nimmt. Was denkst du wohl ist der Grund warum die Switch mit Micky-Maus SoC über 300 € kostet? ;)

scully1234
2017-11-04, 13:45:02
Ja, zu hohe Preise. Apple genau so. Es ist ein Unterschied zwischen dem was man nehmen muss und dem was man nimmt. Was denkst du wohl ist der Grund warum die Switch mit Micky-Maus SoC über 300 € kostet? ;)

Was denkst du ist der Grund dafür das trotz Mega Deals AMD auf keinen grünen Zweig kommt?

Die müssten eigentlich im Geld schwimmen, wenn sie gut verhandelt hätten, bei den Absatzzahlen der Konsolen, aber genau das ist nicht der Fall

Marktwirtschaftlich ist das genau das ,und Nvidia hat das auch kommuniziert,warum sie die Finger von solchen Deals lassen.Sich unter Wert zu verkaufen ist der Anfang vom Ende

Apple u Nvidia geht es gut und deren Produkte verkaufen sich auch. Also kann man auf marktwirtschaftlicher Ebene nur attestieren alles richtig gemacht, und die Preise nicht zu hoch angesetzt, sondern den richtigen Sweetspot getroffen

So bleibt die Kriegskasse gefüllt, und man kann auch wieder großzügig reinvestieren in neue Projekte, und Märkte.

Gejammert wird im Grunde immer beim Käufer über "zu hohe Preise", dort den richtigen Punkt zu treffen, wo man hart bleiben muss, und wo man nachgeben darf, zeichnet ein erfolgreiches Unternehmen aus

Hübie
2017-11-04, 14:14:14
AMD hat sein Budget für Marketing fast verdreifacht und R&D wurd um das über 2,5-fache angehoben. So falsch können die es also auch nicht gemacht haben. Das ist wohl eine Strategie von denen. Gehört aber alles nicht hier rein und wir können das gerne per PN oder im gesonderten Thread klären. :smile:

Schnoesel
2017-11-04, 16:37:30
Ohne den Konsolendeal gäbe es AMD nicht mal mehr. Es hat sie immerhin ein paar Jahre über Wasser gehalten, aber was hat das mit Volta zu tun?

w0mbat
2017-11-10, 16:24:40
Samsung 16Gb GDDR6 Memory – The fastest and lowest-power DRAM for next generation, graphics-intensive applications. It processes images and video at 16Gbps with 64GB/s data I/O bandwidth, which is equivalent to transferring approximately 12 full-HD DVDs (5GB equivalent) per second. The new DRAM can operate at 1.35 volts, offering further advantages over today’s graphics memory that uses 1.5V at only 8Gbps.

https://news.samsung.com/global/samsung-honored-for-outstanding-design-and-engineering-with-36-ces-2018-innovation-awards

Das könnte für die consumer Voltas kommen, oder?

basix
2017-11-10, 17:10:05
Das ist sehr wahrscheinlich. Ob mit 16GBps oder 14GBps sehen wir dann. Die +40-60% Bandbreite korrelieren gut mit den angeblich +50% effizienteren Volta SMs im Vergleich zu Pascal.

Swissr
2017-11-11, 00:06:13
Schaut mal, laut Heise News ist der Nachfolger von Pascal nicht Volta, sondern Ampere:

https://www.heise.de/newsticker/meldung/Nvidia-Milliarden-Umsatz-und-kraeftiger-Gewinnsprung-dank-Gaming-3887633.html


Von Pascal zu Ampere

Ende des dritten Quartals hat Nvidia die GeForce GTX 1070 Ti vorgestellt, die sich zwischen den bereits erhältlichen Gaming-Grafikkarten GeForce GTX 1070 und GeForce GTX 1080 positioniert. Die GTX-1000-Grafikkarten basieren allesamt auf GPUs der Serie Pascal. Informationen zu kommenden GPU-Generation, die unter der Bezeichnung "Ampere" erscheinen soll, dürfte es zur GPU Technology Conference 2018 geben.

:biggrin:

BoMbY
2017-11-11, 01:09:59
Na, sag ich doch. 2018 ein Pascal-Refresh, und 2019 vielleicht dann Ampere - wenn man Lust und Laune hat.

Hübie
2017-11-11, 01:57:16
Red kein Unsinn. Namen sind nur Schall und Rauch. Es würde zumindest zu den Plänen passen, dass man HPC autark fährt. Damals war es noch zu ungewiss um es in Stein zu meißeln, jetzt sieht es dagegen rosig aus. Ampere oder was auch immer da kommen mag wird natürlich neueste Technologien verwenden. Streng genommen ist GP100 auch nicht wirklich ein Pascal.

scully1234
2017-11-11, 02:23:40
Red kein Unsinn. Namen sind nur Schall und Rauch.

Na nicht unbedingt es ist ja nicht nur Volta in der Entwicklungspipeline

Vielleicht macht aufgrund der Pegasus Platine für autonome Fahrzeuge, eine komplette Fertigung auf Basis der Architektur, für die Kostenoptimierung mehr Sinn, als mit 2 Designs zu hantieren

Pegasus muss kommen damit man dort den Fuß in der Tür behält, und Mobile Eye/Intel zuvor kommt, dann wäre es für TSMC doch sicher idealer darauf aufbauend, auch den Chip für die Grafiksparte herzustellen

Gerade und erst recht ,da Intel sich nun anschickt GPU Ambitionen zu entwickeln, noch nen Gang höher zu schalten.

Fragman
2017-11-11, 10:59:18
irgendwie aendert nv seit pascal vieles nach lust und laune, also recht "kurzfristig".
dabei liest man doch immer, das das angeblich nicht geht?
das heisst, das alle bekannten infos nichts mehr wert sind...

Mancko
2017-11-11, 11:04:11
Das liegt vermutlich daran, dass Nvidia mittlerweile ein richtig dickes Budget hat und vieles parallel entwickelt und kleineren Einheiten und dann zusammenstöpselt je nach Marklage und Bedarf.

Da sind sie m.E. AMD mittlerweile ordentlich enteilt. Der Laden ist echt brutal auf Effizienz, Schnelligkeit (Time to Market) und Marge getrimmt. AMD konzentriert sich da m.E. immer zu sehr auf irgendwelche Leuchturmideen. Die haben halt einfach finanziell brutal den Anschluss verloren.

Ich bin echt gespannt auf das Q1/Q2. Was immer Nvidia dann auch vorstellt. Langsamer werden die m.E. nicht machen. Die Zeit ist günstig weil beide Konkurrenten mit sich selber erstmal wieder beschäftigt sind und vor allem der Datacenter Bereich so richtig brummt.

Troyan
2017-11-11, 11:13:30
irgendwie aendert nv seit pascal vieles nach lust und laune, also recht "kurzfristig".
dabei liest man doch immer, das das angeblich nicht geht?
das heisst, das alle bekannten infos nichts mehr wert sind...

nVidia hat 2012 mitbekommen, dass Machine Learning durch GPUs massiv beschleunigt werden kann. Ab dem Zeitpunkt hat man angefangen intern alles darauf auszurichten. Was wir jetzt sehen, sind die Ergebnisse. Deswegen kam GV100 auch schon ein Jahr nach GP100, weil GV100 massiv viel besser für diesen Markt ist.

Was nVidia für den Consumermarkt vorsieht, weiß einfach niemand. Aber die generellen Architekturverbesserungen von GV100 werden hier mindesten einfließen.

pixeljetstream
2017-11-11, 12:05:53
Es gibt nicht diese kurzfristigen Änderungen, an der Entwicklungszeit einer Architektur hat sich nicht fundamental was geändert. Da es ja keine offiziellen Ankündigungen gab und sehr lange viel spekuliert wird, geht es zwangsläufig nun hin und her.

Seit Maxwell gibt es die SM-lastige Architektur (damals die kleinen GM10x, bei Pascal halt GP100), dann die Grafik-lastige. Das wird nun wie Troyan sagt einfach konsequenter auf die Märkte zugeschnitten und wie Mancko meint damit die Output-Rate erhöht. Fundamental ist's aber schon ne Weile so, Namen und Abstände sind halt etwas flexibler.

Fragman
2017-11-11, 13:14:40
Ich bin echt gespannt auf das Q1/Q2. Was immer Nvidia dann auch vorstellt.

jup, das wird spannend.
ich muss mittlerweile aber sagen, das egal was man hoert, ich meine erwartungen nicht mehr so hoch schraube nach pascal und vor allem dem "missing" volta. ob das am ende an dem machine learning zeugs liegt wird man dann sehen.

mir persoenlich geht die trennung zu weit. nv bietet praktisch keine semiprofessionellen loesungen an (diese billig quadros kann man vergessen). den weg, den man mit profi pascal und volta geht, also die klaffende schlucht im preisgefuege, ist zuviel. ich hoffe immernoch, das man die tech teilweise verschmelzen wird, aber meine hoffnungen werden kleiner.

Hübie
2017-11-11, 13:23:26
Ich glaube das da, wenn überhaupt, nur der Name relativ kurzfristig geändert wurde. An der Konstruktion wohl weniger, da jede Änderung nach tapeout teuer wird. Im Grunde ist es egal ob das Ding dann Volta, Mickey Mouse oder Ampere heißt. Es ist sinnvoll den Kindern andere Namen zu geben.

Swissr
2017-11-11, 16:57:56
Die News wäre dann aber weltexklusiv bei Heise zu finden, oder? Nicht, dass der Redakteur Volt(a) und Ampere verwechselt hat.. ;D

Hübie
2017-11-11, 17:37:10
Es geistert ne Menge herum und Physiker haben wir genug. :D

Mal zur Erinnerung: Maxwell war mal auf 22 nm spekuliert, der Nachfolger sollte Einstein heißen und in 14 nm kommen. Pascal war lange Zeit nirgends erwähnt und kam mit einem Paukenschlag (und hätte eigentlich Volta heißen sollen, da Volta immer als erste HBM-Chip-Generation angekündigt wurde) :D Davon war nichts korrekt. Einstein / Echolon sind ja auch nicht vom Tisch. Das nur mal zu Vorabinfos und deren Präzision. Geändert wird ständig und am Ende sind es nicht die Code-Namen sondern die Produkte, welche über Erfolg oder Misserfolg entscheiden.

Aber ja: Bisher ist heise die einzige "Quelle", wenn ich das bei google so betrachte.

BlacKi
2017-11-13, 10:26:57
Gaming Alessandro Volta ist tot, es lebe André-Marie Ampère.
Übers WE mal etwas mit meinem Wakü-Umbau der Vega64 gespielt. Für NFS Payback in 4K reicht es auch mit max. OC nicht ganz. Wolfenstein 2 rennt hingegen recht ordentlich bis sehr gut. Heizung etwas runtergedreht - dann kompensiert sich das auch mit der Leistungsaufnahme wieder. Immerhin hat man noch das Spiel ja noch als Mehrwert, während die normale Heizung ja nur dröge vor sich hin simmert. :)

BTW: Volta ist gestorben, da kommt für Consumer nichts mehr. Man kann den Namen der nächsten Generation in Q2 aber leicht erraten, wenn man mal James Watt durch Alessandro Volta teilt :P

Wer macht nen neuen Fred auf?^^

da konnte ich mit der 2080 im januar / februar garnicht richtig liegen wenn volta gar nicht kommt:freak:

scully1234
2017-11-13, 11:17:07
Jetzt fragt man sich allerdings ob Volta mehr HPC optimiert ist, und Ampere als 2tes Gleis die anderen Sektoren abdecken soll/sollte

Die Musterversendung von Pegasus Anfang nächstes Jahr, ist da wohl doch schon der Vorbote

Ob Nvidia jetzt schon ganze Architekturen, ihrem speziellen Einsatzzweck zuordnet?

Oder man hat doch vor dem Respekt was Intel da aufziehen möchte, und will dem keinen Nährboden für Marktanteile bieten...

reaperrr
2017-11-13, 20:02:19
Jetzt fragt man sich allerdings ob Volta mehr HPC optimiert ist, und Ampere als 2tes Gleis die anderen Sektoren abdecken soll/sollte

Die Musterversendung von Pegasus Anfang nächstes Jahr, ist da wohl doch schon der Vorbote

Ob Nvidia jetzt schon ganze Architekturen, ihrem speziellen Einsatzzweck zuordnet?
Überraschen würde es mich nicht, wenn die Trennung zumindest etwas ausgebaut wird, da NV mittlerweile in beiden Gebieten ordentlich Kohle macht. Außerdem können sie damit den Vorsprung auf AMD mit ihren JOATMON*-Architekturen noch schneller ausbauen, was im jeweiligen Gebiet noch höhere Preise und Margen erlaubt.

*Jack of all trades, master of none

Troyan
2017-11-13, 20:14:35
Wer in Denver ist, kann ja probieren ein GV100 Modul zu stehlen: https://twitter.com/NVIDIADC/status/930095457690296320

mksn7
2017-11-14, 10:41:05
Wenn man schon in Denver ist dann geht mal lieber zum Student Cluster Competition Bereich und klaut den Studenten ein paar V100's. Die funktionieren wenigstens (die Module auf dem Foto sind wahrscheinlich alle futsch) und als PCIe Karten auch noch sinnvoll verwendbar.

Nvidia hat unter den den Studentteams wohl recht größzügig verteilt. Ich bin schon gespannt auf den neuen Linpackrekord.

basix
2017-11-20, 23:44:48
Jensen hat den Ingenieuren wohl ein wenig auf den Kopf gehauen :ulol: Die V100 hat jetzt 125 TFLOPs anstatt 120 TFLOPs wie bei der Produktvorstellung und somit in der DGX-1 mit V100 1.0 PetaFLOP FP16 Tensor-Operationen :D
https://www.nvidia.com/en-us/data-center/tesla-v100/

Man hat es damals bei der Produktpräsentation sofort gemerkt, dass ihm die 960 TFLOPs überhaupt nicht gefallen haben ;D Nun gut, ich habe mir das selbe gedacht. 1 PFLOPs in-a-box ist marketingtechnisch einfach gut zu gebrauchen. Die Ingenieure haben sich halt auf die 15 TFLOPs FP32 fixiert, was ja auch eine runde Zahl ist.

reaperrr
2017-11-21, 00:05:05
Jensen hat den Ingenieuren wohl ein wenig auf den Kopf gehauen :ulol: Die V100 hat jetzt 125 TFLOPs anstatt 120 TFLOPs wie bei der Produktvorstellung und somit in der DGX-1 mit V100 1.0 PetaFLOP FP16 Tensor-Operationen :D
https://www.nvidia.com/en-us/data-center/tesla-v100/

Man hat es damals bei der Produktpräsentation sofort gemerkt, dass ihm die 960 TFLOPs überhaupt nicht gefallen haben ;D Nun gut, ich habe mir das selbe gedacht. 1 PFLOPs in-a-box ist marketingtechnisch einfach gut zu gebrauchen. Die Ingenieure haben sich halt auf die 15 TFLOPs FP32 fixiert, was ja auch eine runde Zahl ist.
Tja, manchmal ist das der feine Unterschied. Die 7970 wäre unter einem CEO wie Jensen niemals unter 1GHz gelauncht, und wenn die anfänglichen Yields noch so schlecht und/oder die TDP 300W gewesen wäre. Nimmt man halt dafür 50$ mehr und gut is.

Tesseract
2017-11-21, 19:50:59
hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585163) gehts weiter mit der architekturdiskussion.

Pirx
2017-12-08, 08:13:04
Titan V für 3000 $

http://www.gamestar.de/artikel/nvidia-titan-v-volta-gpu-mit-hbm2-fuer-3000-us-dollar,3323284.html

AMDoderNvidia
2017-12-08, 08:45:28
Aus dem Gamestar-Artikel:

Laut Nvidia verdoppelt Volta die Energieeffizienz im Vergleich zur aktuellen Pascal-Architektur und erlaubt so einen starken Anstieg der Leistung innerhalb des gleichen Energieverbrauchs. Die neuen Tensor-Kerne wurden speziell für Deep Learning entwickelt und liefern die bereits genannte hohe Rechenleistung. Außerdem ist Volta viel effizienter bei gemischten Aufgaben und bietet mit einem kombinierten L1-Cache und geteiltem Speicher mehr Leistung und vereinfachte Programmierung.


Das bezweifle ich, dass man mit Volta die Energieeffizienz verdoppelt. Letztlich ist das doch eine Frage des Standpunkts, d.h. in welchem Benchmark der Vergleich gezogen wird. Bei KI-Aufgaben, bei denen Volta davonzieht, könnte ich mir das vorstellen. Für die zukünftige Gaming-Karten (Ampere) jedoch bestimmt nicht.

Pirx
2017-12-08, 08:51:41
Werden wohl die "Tensor Cores" sein, die fürs Marketing ausgeschlachtet werden.

Hübie
2017-12-08, 08:54:36
Das ist schön gerechnet bei mixed workloads. Pascal kann kein FP16 mit 2:1 und muss dass iirc auf ein Quad vom SM schedulen. In solchen Fällen stimmt es, aber das ist best case.
Jensen hat mich mal wieder aus den Socken gehauen. :D Jetzt habe ich ne Wette verloren.

Ps: Dargo's Aussage es gäbe keine 4k-Karte ist somit nichtig.

Triniter
2017-12-08, 08:56:10
Die Anzahl der Transistoren hat sich von 12 auf 21,1 Millarden halt fast mal verdoppelt. Das ist schon beeindruckend. Interessant finde ich, dass man bei Pascal keinen GP100 Ableger für PC gebracht hat, diesen aber bei Volta direkt auf den Markt bringt. Mal sehen wo die Reise in den nächsten Monaten noch hin geht, angefixed bin ich mal auf die XX80 und ti Karte.

Hübie
2017-12-08, 09:05:57
Na ja verdoppelt...? Außerdem musst Du vom GP100 mit 15,1 Mrd ausgehen. ;)

Triniter
2017-12-08, 09:09:31
Na ja verdoppelt...? Außerdem musst Du vom GP100 mit 15,1 Mrd ausgehen. ;)
Hast recht, ich hab hab GP102 mit GV100 verglichen, das passt natürlich nicht.

pixeljetstream
2017-12-08, 09:11:33
Mit der Quadro GP100 gibt's auch ne PC Karte...

Hübie
2017-12-08, 09:12:25
Aber deine Aussage hat ja Gültigkeit: Beeindruckend was die heraus hauen. Schade um AMD. Wieder ein Tritt in die Nüsse und wo die Reise preislich hin geht sieht man ja. Wobei prosumer Produkte eh teurer sind als alles am enthusiast-market.

@pixeljetstream: Ich glaube er meint für Gaming / Prosumer. ;) Kannst du sagen ob es lange geplant war die Karte zu bringen?

pixeljetstream
2017-12-08, 09:45:18
Nein. Aber überraschen sollte es nicht, da NVIDIA immer starkes Interesse hatte Unis und Start-ups mit ihrer Technologie zu versorgen um die professionelle Zukunft voranzutreiben. Was kein Selbstläufer ist, da Technik die beim entwickeln eingesetzt wird, nicht zwangsläufig auch das ist was sich dann in Masse im Einsatz findet. Aber zumindest die Chance ist größer.

Hübie
2017-12-08, 10:29:39
Und eben fiel es mir wie Schuppen vor die Augen: Mir sagte man Anfang des Jahres dass man sich 2017 keine Gaming Volta in den PC schrauben könne. Jetzt fällt mir auf: Titan V ist keine Geforce, somit keine explizit an den Gaming-market adressierte Karte. X-D Ich muss echt lernen genau zuzuhören. Ihr seid pedantisch. ;D

BoMbY
2017-12-08, 10:35:56
Abgesehen davon dürfte es mit der Verfügbarkeit in 2017 eher nicht funktionieren - das Jahr ist praktisch rum.

HOT
2017-12-08, 11:12:31
Ab sofort war die Ankündigung. Das Teil ist etwa 15% schneller in Games als ne Custom 1080ti von Rechenleistung und Bandbreite her.

bertramfx
2017-12-08, 11:17:34
Ein Traum! Die 2080 liefert dann Titanen-Leistung zum halben Preis, was dann geschmeidige 1500 USD vor Steuern waeren.

:biggrin:

horn 12
2017-12-08, 11:22:41
Und mit Vega 64 dann in etwa gleichauf mit Adrenalin Treiber...

scully1234
2017-12-08, 12:06:21
Immer für ein Späßchen da hmm Bernie?

Pirx
2017-12-08, 12:13:25
Der war aber gut!:D

Rancor
2017-12-08, 12:24:49
Glaube Vega 64 sieht dagegen gar kein Land mehr. Ist aber auch eigentlich egal. 3000$ ist auch einfach krank und definitiv nicht zum Spielen gedacht.

scully1234
2017-12-08, 12:33:50
was ich nicht verstehe 3000 Öcken und immer noch der bekloppte Ref Kühler , können die der Rechenleistung nicht auch einen adäquate Kühlung entgegenstellen?!Selbst wenn das Ding ja für „Wissenschaftler“sein soll, landet es doch zu 80% wieder in Enthusiasten PCs


Jensen hat mich mal wieder aus den Socken gehauen. :D Jetzt habe ich ne Wette verloren.
.
Ich sagte dir doch die Weihnachtszeit völlig ohne ein neues Prestigeobjekt wäre seltsam gewesen

Rancor
2017-12-08, 12:44:22
Los Igor kauf das Teil und teste es :D

Digidi
2017-12-08, 12:52:34
was ich nicht verstehe 3000 Öcken und immer noch der bekloppte Ref Kühler , können die der Rechenleistung nicht auch einen adäquate Kühlung entgegenstellen?!Selbst wenn das Ding ja für „Wissenschaftler“sein soll, landet es doch zu 80% wieder in Enthusiasten PCs


Ich sagte dir doch die Weihnachtszeit völlig ohne ein neues Prestigeobjekt wäre seltsam gewesen

Mit so Fanboys wie bei Nvidia kann man denen jeden Schrott zu jedem Preis verkaufen. Und weiter geht die Preissteigerung. Gv102 GA102 wir dann wohl auch die Sterne erreichen.

Und die Fanboys feiern als weiter ihre Produkte die sie sich eigentlich nicht mehr leisten können.

Rancor
2017-12-08, 12:54:11
Mit so Fanboys wie bei Nvidia kann man denen jeden Schrott zu jedem Preis verkaufen. Und weiter geht die Preissteigerung für Gv102 GA102 wir dann wohl auch die Sterne erreichen.

Und die Fanboys feiern als weiter ihre Produkte die sie sich eigentlich nicht mehr leisten können.

Jo, ich befürchte auch das Ampere nicht billig sein wird. Ich sehe die 2070 schon bei 600€ :mad: