PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia stellt ... die ersten Teile der Turing-Generation vor


Leonidas
2018-08-14, 11:18:09
Link zur News:
https://www.3dcenter.org/news/nvidia-stellt-mit-quadro-rtx-5000-6000-8000-die-ersten-teile-der-turing-generation-vor

Gast
2018-08-14, 12:48:10
Interessant wird auch wie performant die RT Lösung wird bzw. welche Dichte möglich ist, das man am Anfang mit hohen Preisen und schlechter Auswahl an Tietel rechnen muss ist klar , aber spätestens wenn RT Lösungen in Frostbyte , Anvil Next und Cryengine integriert sind gibt es einen signifikanten Sprung in der Optik der deutlich sichtbar sein sollte und auch die anderen zum nachziehen bewegen sollte.

Die Karten stehen gut das NVIDIA mit ihren Marktanteilen hier genung Zugkraft besitzt um neue Standarts zu etablieren und als Nebeneffekt evtl. die aktuellen LL APIs wie DX12/Vulkan zu weiterer Verbreitung führt.

Ein Blocker könnte das Monopol der Konkurenz bei den Konsolen sein die aktuell und wohl auch in nächster Instanz auf AMD Lösungen setzen , andererseits war der PC technisch allein schon durch dem Entwicklungszyklus bedingt schon immer die Lead Plattform bei neuen Technologien. Man kann es auch als Möglichkeit sehen den PC neben höherer Auflösung und mehr Details mit RT interresanter für PC only AAA Tietel zu machen.

Klar hätten sich nicht wenige bei der Chipfläche Lösungen mit mehr Rohleistung erhoft um höhere FPS zu ermöglichen, Solch inovative Änderungen sind halt bei der Einführung immer etwas riskokbehaftet und allen Recht machen kann mans halt nicht.
Ich bin jedenfalls auf den Eyecandy gespannt der uns erwartet und ob AMD auf den Zug mit aufspringt.

cat
2018-08-14, 15:39:30
https://videocardz.com/press-release/nvidia-reinvents-computer-graphics-with-turing-architecture

4608 Cores bei 6 GPC (Baugruppe 102) (bei 1736 MHz 16 TFLOPS FP32)
3072 Cores bei 4 GPC (Baugruppe 104) (bei 1736 MHz 10,7 TFLOPS FP32)

Der gegenüber V100 gesunkene Core-Count wird durch den Mehrtakt ausgeglichen.
Die Tensor-Ops betrifft das Gleiche.

https://media.discordapp.net/attachments/466892087045128194/478722323659227137/Screenshot_46.png?width=831&height=468
https://media.discordapp.net/attachments/466892087045128194/478722703142944782/Screenshot_39.png?width=831&height=468
https://cdn.discordapp.com/attachments/466892087045128194/478723013668241412/Screenshot_36.png

Falls die kommenden Geforce 50% des Tensor Cores und 50% des RT Cores bekommen, könnten die jeweiligen Nachfolgekarten evtl. nur ca. 20% mehr Chipfläche haben als ihre Pascal-Vorgänger.
z.B.
Quaddro RTX 8000 hat 754 mm² --> 565 mm² bei 2080 Ti
Quaddro RTX 5000 etwa 502 mm² --> 377 mm² bei 2080

Gast
2018-08-14, 17:10:26
10 GigaRays/s sind schon ganz ordentlich (vermutlich bei mindestens 250 Watt). Zum Vergleich (falls NV und IMG das gleiche meinen): Der 28nm PowerVR-Chip soll bei einem Verbrauch von 2 Watt 300 Millionen Strahlen pro Sekunde (http://techreport.com/news/26178/powervr-wizard-brings-ray-tracing-to-real-time-graphics) berechnen können. Für 10 GigaRays/s bräuchte man also theoretisch ~33 Chips (mit insgesamt 66 Watt) oder einen ~33 Mal so schnellen Chip.

Gast Ritis
2018-08-14, 17:40:51
...
Ein Blocker könnte das Monopol der Konkurenz bei den Konsolen sein die aktuell und wohl auch in nächster Instanz auf AMD Lösungen setzen , andererseits war der PC technisch allein schon durch dem Entwicklungszyklus bedingt schon immer die Lead Plattform bei neuen Technologien. Man kann es auch als Möglichkeit sehen den PC neben höherer Auflösung und mehr Details mit RT interresanter für PC only AAA Tietel zu machen.

....

Die Konsolen waren für low level API und massive Drawcalls sowie parallel Optimierungen bis zu 8 Threads die technologische Lead Plattform.

überspitzt:
Allein DX11 und Gameworx Ökosystem verhindern eine schnellere Adaption der MeToo Entwickler. Id-Tech musste mal wieder den Weg bahnen, leider wie so oft fast ganz allein..., die anderen Entwickler als Abhängige der Majors sind zu sehr vom Geld getrieben.

Kommerz wird entscheiden wie es weitergeht

Gast
2018-08-14, 18:11:37
Bei den 10 Gigarays frag ich mich ob das echte sind oder durch die Tensor Core praktisch emulierte?

Gast
2018-08-14, 20:03:04
10 GigaRays/s sind schon ganz ordentlich (vermutlich bei mindestens 250 Watt).


Auf 4k@60fps immerhin ca. 20 Rays pro Pixel.
Für den Anfang nicht so schlecht.
Wobei natürlich leider sehr wahrscheinlich ist, dass wir die 10GigaRays noch lange nicht außerhalb von Titan-Preislagen bekommen werden.

Gast
2018-08-14, 21:06:41
Bei den 10 Gigarays frag ich mich ob das echte sind oder durch die Tensor Core praktisch emulierte?

Die Tensor-Cores sind fürs Denoising, nicht fürs Raytracing per se.
Abgesehen davon was soll der Unterschied sein.

Ob die 10GRays nun die Cuda-Cores, Tensor Cores oder der RT-Core berechnet ist duch egal.
10GRays bleiben 10Grays.

Gast
2018-08-14, 21:07:17
Die Konsolen waren für low level API und massive Drawcalls sowie parallel Optimierungen bis zu 8 Threads die technologische Lead Plattform.

überspitzt:
Allein DX11 und Gameworx Ökosystem verhindern eine schnellere Adaption der MeToo Entwickler. Id-Tech musste mal wieder den Weg bahnen, leider wie so oft fast ganz allein..., die anderen Entwickler als Abhängige der Majors sind zu sehr vom Geld getrieben.

Kommerz wird entscheiden wie es weitergeht

Was sollte auch anderes kommen und das typische NVIDIA ist geldgeil und AMD der Samerieter gemecker version 1000 und 1.

Die Konsolen beinhalten PC Hardware die zum Zeitpunkt des verbauens schon als schwach und von vorgestern zu bezeichnen ist.
Gerade der CPU Müll aka Jaguar cores ist hier ein Paradebeispiel, und warum hat mans gemacht , richtig ne kalt wirtschaftliche Entscheidung ohne blick auf innovation , das Nutzen LLAPis und massiver parallelisierung war bei der Luftpumpen Hardware kein von nächstenliebe getriebener Inovationsdrang sondern simple einfach zum überleben notwendig.

Ich hab ne Traurige nachricht für dich alle Firmen sind vom Geld getrieben

iamthebear
2018-08-14, 23:07:35
1.) Die Frage ist warum Nvidia so viel Chipfläche verschleudert für Raytracing, das derzeit noch absolut keinen Nutzen bringt und so wie ich das verstanden habe braucht man hier insgesamt eine neue Engine und kann nicht einfach einen netten Effekt auf ein bestehendes Spiel drauf klatschen. Im Endeffekt werden die neuen Karten an der Leistung aktueller Spiele gemessen werden.

2.) Wissen wir überhaupt gesichert, dass die Gamerkarten denselben Chip verwenden oder könnte es sein, dass Nvidia bei den Gamer Karten nur die klassichen Einheiten verbaut?

Gast
2018-08-15, 00:51:55
Was ein "geiler" Beitrag Leo (Hut hab)! Dieses ganze Geschwafel auf all den anderen Seiten deiner Kollegen, die schon 2080ti, 2080, 2070 kommen sehen und alles für 500-700$ suggerieren ist einfach nur noch feinstes Klickbait. Was ist nur aus dem www geworden?

NVidia wird vermutlich beim Preis richtig reinhauen (900-1750 oder auch 3000$ verlangen für Tensor-Schrott) und die Pascal's weiterhin schön im Portfolie halten um die Massen zu befriedigen. RT spielt unter PC/Konsolen-Gaming überhaupt keine Rolle und verpufft vermutlich wie DX12 mit all seinen Queue, Drawcalls und Tierstufen im Nirvana. Die Entwickler machen für die Masse bei DX11 weiter. Nvidia kann zwischenzeitlich gut melken und vergräbt, abseits professioneller 3D Anwendungsgebiete den Krempel in 5 Jahren in der Wüste.

Was ist jetzt eigentlich aus Volta-Ampere und Turing geworden, da sieht ja nun wirklich niemand mehr durch?:udevil:

Danke für deine News!:up:

MaxMax
2018-08-15, 02:01:14
naja, metro exodus dürfte eines der ersten spiele werden, wo im hybridansatz raytracing eyecandy in eine normale engine eingeflochten wird, laut div. youtube videos aber mal mehr und mal weniger optisch ansprechend. mir persönlich wär es irgendwie wichtiger gewesen, die neue turing generation hätte massiv (>5000 cuda cores, 512 bit SI, 2 GHz, und soviele TMUs und ROPs wie nur möglich gehabt hätte) Rohleistung um eben 4k@144Hz zu poweren. Raytracing klingt für mich mehr nach marketinggedönse derzeit anstelle eines wirklichen benefit, und ich pers. hab schon "zu oft" hardware insb. grakas wg. features gekauft, welche nach launch dann sang und klanglos im sand verliefen oder einfach nach 2-3 jahren stillschweigend "eingedampft" wurden (3d vision defacto tod, sli support am sterben, by gsync beschleicht mich auch langsam das gefühl, als wenn da nv nicht mehr viel treiberarbeit reinlegt, SMP bei Pascal gabs 1 oder sogar 2 games die das nutzten? VR anyone? embm & FAA bei der Matrox G400 damals)

Gast
2018-08-15, 02:18:14
Die Entwicklung erinnert an Hardware T&L - transform&lightning bei der GeForce 256. Wurde massenwirksam beworben und von Nvidia und ATI folgte später.

Leonidas
2018-08-15, 04:59:09
die schon 2080ti, 2080, 2070 kommen sehen und alles für 500-700$ suggerieren ist einfach nur noch feinstes Klickbait.


Die kommen allerdings trotzdem.



Wissen wir überhaupt gesichert, dass die Gamerkarten denselben Chip verwenden


Das ist ohne Nachzudenken gesichert. NV legt maximal im HPC-Bereich extra Chips auf. Aber diese Chips wird man natürlich auch fürs Gaming verwenden. Gerade da sie ja doch etwas schneller ist. Ganz egal ob man im Gaming den RT-Core vielleicht ganz abschalten *würde*.

Gast Ritis
2018-08-15, 08:47:41
Was sollte auch anderes kommen und das typische NVIDIA ist geldgeil und AMD der Samerieter gemecker version 1000 und 1.

Die Konsolen beinhalten PC Hardware die zum Zeitpunkt des verbauens schon als schwach und von vorgestern zu bezeichnen ist.
Gerade der CPU Müll aka Jaguar cores ist hier ein Paradebeispiel, und warum hat mans gemacht , richtig ne kalt wirtschaftliche Entscheidung ohne blick auf innovation , das Nutzen LLAPis und massiver parallelisierung war bei der Luftpumpen Hardware kein von nächstenliebe getriebener Inovationsdrang sondern simple einfach zum überleben notwendig.

Ich hab ne Traurige nachricht für dich alle Firmen sind vom Geld getrieben

Schlecht geschlafen? Es ging nur darum dass deine These völliger Unsinn ist und der Beweis die technologischen Eigenheiten von Konsolen sind, die nachträglich bei PCs in der Spieleentwicklung Verwendung fanden.
Um Nvidia ging es garnicht! Fanboiism? Hat jemand übrigens schon bemerkt, dass die ihre Material Language Open Source gemacht haben?

Eine Konsole wird immer auf dem Stand verfügbarer Technik ein möglichst optimaler Kompromiss zwischen Herstellungskosten, Grösse und Abwärme bzw. Nutzbarkeit sein.
Ob nun 4 hochtaktende Jaguars oder 8 niedrig taktende war eine Entscheidung des Design-Teams. Man darf davon ausgehen, dass das Spezialisten waren und keine Forentrolle.

Wenn man die Grundlagen der Halbleitertechnik und Informatik nicht verstanden hat sollte man aber sich darüber keine Gedanken machen. Aber man könnte zurückhaltender auftreten. ;D

Wenn man noch nie in der Games-Industrie gearbeitet kann man wohl auch nicht wissen, dass die meisten dort eher Selbstverwirklicher und Künstler sind denen das Geld verhältnismässig egal ist, im Gegensatz zu SAP-Konsultants und Co.

Erst der Mainstream hat die Majors richtig träge gemacht, was die lebhafte Indie Szene immer wieder beweist. Und wenn ein gut funktionierender DX12 Pfad nachträglich abgeschaltet oder kastriert wird war es sicherlich nicht der Programmierer, der darüber entschieden hat.

Gast
2018-08-15, 08:54:33
Auf 4k@60fps immerhin ca. 20 Rays pro Pixel.
Für den Anfang nicht so schlecht.
Wobei natürlich leider sehr wahrscheinlich ist, dass wir die 10GigaRays noch lange nicht außerhalb von Titan-Preislagen bekommen werden.

Aber reicht das wirklich für Echtzeit RT? Selbst bei FHD denke ich das es nicht ausreichen wird.

Es reicht ja nicht nur 1 Ray zu berechnen pro Pixel. Wenn der Strahl irgendwo auftrifft geht der Spaß doch erst richtig los... Wie transparent ist die Oberfläche, ist sie opak, reflektiert sie, wie hell ist es (je mehr lichtquellen, desto mehr rays notwendig),...

Pro Pixel wird man denke ich mehrere Tausend Rays benötigen.
FHD@30FPS sind es aber nur ca.160.

Gast
2018-08-15, 11:50:18
1.) Die Frage ist warum Nvidia so viel Chipfläche verschleudert für Raytracing, das derzeit noch absolut keinen Nutzen bringt und so wie ich das verstanden habe braucht man hier insgesamt eine neue Engine und kann nicht einfach einen netten Effekt auf ein bestehendes Spiel drauf klatschen. Im Endeffekt werden die neuen Karten an der Leistung aktueller Spiele gemessen werden.


Wenn man nie anfängt wird auch nie jemand anfangen Software dafür zu schreiben.
Aktuell ist für NV der absolut ideale Startzeitpunkt. Mangels Konkurrenz braucht man nicht die geringste Angst zu haben bei alter Software zurückzufallen.
Mittlerweile kann ich mir sogar vorstellen das Turing wirklich so kommt wie er kommt (und nicht das ursprüngliche Volta-Grundgerüst) weil von AMD in absehbarer Zeit keine Konkurrenz kommen wird.

Dank Gameworks werden zumindest Eye-Candy-Effekte wie das neue Antialiasing auch verhältnismäßig schnell (gegenüber früheren Zeiten, als jede neue DX-Version Jahre brauchte um auch verwendet zu werden) in neuer Software verwendet werden.
Ray-Traced shadows sollten sich auch recht schnell einbauen lassen.

Ein begrenzter Nutzen der Raytracing-Hardware sollte also durchaus schon in der Lebenszeit von Turing gegeben sein, groß durchsetzen werden sich Hybrid-Engines logischerweise erst wenn schon Nachfolgerhardware am Markt ist. So ist das aber immer mit neuen Features, und es wird eher ein fließender Übergang werden, nicht bis zum Tag X nur Rasterizing und ab dann nur mehr Raytracing.

BTW: Die Captcha Bilder könnten auch was von Nvidias neuem Denoising-Algo vertragen und warum muss man die 20x beantworten bis man endlich was posten kann?

Gast
2018-08-15, 14:33:45
2.) Wissen wir überhaupt gesichert, dass die Gamerkarten denselben Chip verwenden oder könnte es sein, dass Nvidia bei den Gamer Karten nur die klassichen Einheiten verbaut?


Natürlich, ein Tape-Out kostet mittlerweile mindestens 1/2Mrd. das "verschwendet" man nicht für nur 1 Produkt.

Gast
2018-08-15, 14:49:29
Was ist jetzt eigentlich aus Volta-Ampere und Turing geworden, da sieht ja nun wirklich niemand mehr durch?:udevil:



Vermutlich:

Volta = GV100.
Turing = Volta + RT-Core
Ampere = Next Gen 7nm-Architektur

Gast
2018-08-15, 22:15:47
Aber reicht das wirklich für Echtzeit RT? Selbst bei FHD denke ich das es nicht ausreichen wird.

Es reicht ja nicht nur 1 Ray zu berechnen pro Pixel. Wenn der Strahl irgendwo auftrifft geht der Spaß doch erst richtig los... Wie transparent ist die Oberfläche, ist sie opak, reflektiert sie, wie hell ist es (je mehr lichtquellen, desto mehr rays notwendig),...



Prinzipiell reicht natürlich mal 1 Ray pro Pixel um ein Bild darstellen zu können.
Die Frage ist vielmehr was dieser Wert aussagt, und unter welchen Bedingungen dieser wirklich erreichbar ist.
Vermutlich ist dies ein ähnlich theoretischer Wert wie die Pixelfüllrate.

Die Karte ist durchaus in der Lage eine Szene mit vollem Raytracing darzustellen:
http://www.pcgameshardware.de/Unreal-Engine-Software-239301/Videos/Neue-Raytracing-Techdemo-zeigt-Porsche-911Speedster-1262885/

Wie komplex diese Szenen sein dürfen ist natürlich eine ganz andere Frage, für mehr als Techdemos dürfte es wohl (noch) nicht reichen.

Gast2
2018-08-15, 23:17:37
Pro Pixel wird man denke ich mehrere Tausend Rays benötigen.
FHD@30FPS sind es aber nur ca.160.

Laut IMG benötigt man "16-32 rays per pixel" (https://techreport.com/news/26178/powervr-wizard-brings-ray-tracing-to-real-time-graphics). Die folgende FHD-Demo soll in Echtzeit auf einem System laufen, das 2400 bis 4800 Millionen Strahlen pro Sekunde berechnen kann (8x bis 16x PowerVR GR6500 GPUs laut IMG).
https://www.youtube.com/watch?v=uxE2SYDHFtQ

Gast
2018-08-15, 23:28:19
Die Karte ist durchaus in der Lage eine Szene mit vollem Raytracing darzustellen:
http://www.pcgameshardware.de/Unreal-Engine-Software-239301/Videos/Neue-Raytracing-Techdemo-zeigt-Porsche-911Speedster-1262885/

Wie komplex diese Szenen sein dürfen ist natürlich eine ganz andere Frage, für mehr als Techdemos dürfte es wohl (noch) nicht reichen.

Naja, das mit dem Porsche sieht zwar gut aus, aber was wird da groß berechnet? Im großen und ganzen nur eine Reflektion von Kamere->Auto->Leinwand mit den Lichtern drauf. Haut mich jetzt wirklich vom Hocker.