PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Dural
2018-08-14, 10:50:30
ich denke schon das er leicht über dem volta liegen wird, der volta zeigt in einigen benchmarks ein ziemlich komisches verhalten, zudem wird sich turing sicherlich gut takten lassen, wenn die quadro schon stock 1750mhz hat.

am ende entscheidet eh die energie bilanz, was man aus zb. 250watt rausholt.

mironicus
2018-08-14, 10:51:54
Wenn man sich nur auf ein einziges Feature konzentriert bleibt dafür anderes auf der Strecke.

Dural
2018-08-14, 10:57:05
zwischen pascal und turing liegen alleine ca. 35% mehr rohpower ;)

je nach dem wie der takt halt ausfallen wird, rein auf die rohpower müsste turing somit ca. 30% schneller als pascal sein.

das interessante wird aber der verbrauch sein, da wir praktisch die gleiche fertigung haben.

Fragman
2018-08-14, 10:57:14
Da muss ich Dir Recht geben!
AMD muss nun die Gunst der Stunde nutzen und eine RX Vega - Navi - was auch immer - im 7nm Prozess in den Gaming Markt werfen.
Eine GTX 2080 schafft man locker,- eine GTX 2080TI kann man wohl nicht ganz erreichen!

navi wird doch midrange, das hat amd selbst gesagt.
interessant wird jetzt eigentlich nur, was von dem rt zeugs nutzbar in der ps5 landen wird und dann warten wir den navi nachfolger ab. erst dann will amd wieder high end bieten und den werden sie gegen nvidias 7nm chip setzen.

amd setzt diese runde aus, weil sie nix haben aufgrund knapper resourcen. ist halt pech fuer pc gamer im aktuellen zyklus. 2020 kann man die situation dann neu bewerten. aber deshalb jetzt nv schlechtreden ist irgendwie daneben.

Cubitus
2018-08-14, 10:59:31
sorry aber was wird das?
die effekte sind vereinfacht gesagt das original was mit dein pixel und shader model mit viel aufwand versucht wird zu simulieren.

nicht 4k ist der heilige grahl sondern realistische effekte mit denen selbst simple scenen sehr realistisch aussehen koennen.

Global illumination mit schoenen hdr hintergrund ballert dir ohne groessere muehe jedes spiel auf ein neues level.

In dem Beispiel von mir ging es um den neuen AA Mechanismus welcher mit ziemlicher Sicherheit mit Turing kommen wird,
und an diesem Beispiel sehe ich bisher jetzt nicht unbedingt ein Feature welches alle anderen klassischen Modis obsolete machen würde.

Da muss mehr kommen, und vermutlich wird es das auch.
Nur das braucht Zeit und Entwicklung, ist zumindest klasse das die Lead Engine UE4 vorbereitet zu sein scheint.

Bzw. die jetzigen emulierten Lösungen sind in Sachen Performance und Kosten/Nutzen imo nicht so schlecht?
Da muss sich Raytracing schon deutlich abheben, mir ist es als Endkunde im Prinzip egal was hinten raus kommt.

Hauptsache es sieht gut aus und es läuft flüssig ;)

Adam D.
2018-08-14, 11:01:11
amd setzt diese runde aus, weil sie nix haben aufgrund knapper resourcen. ist halt pech fuer pc gamer im aktuellen zyklus. 2020 kann man die situation dann neu bewerten. aber deshalb jetzt nv schlechtreden ist irgendwie daneben.
Finde auch sehr interessant, dass die meisten hier meinen, es wäre besser nichts zu haben, als mit 12nm zu launchen. Denn AMD hat ja bereits 7nm-Produkte angekündigt, das ist alle Mal besser als kaufbare Produkte in 12nm zu haben :freak:

ShinyMcShine
2018-08-14, 11:04:43
Das mag alles schön aussehen, keine Frage. Aber das sind Techdemos. Solange das nicht in Games ankommt, für mich eher uninteressant. Sollte das Preis-Leistungs-Verhältnis nicht stimmen, werde ich mit meiner 1080 die Turing-Generation aussitzen und auf die nächste Generation warten (und dabei hoffen, dass es nicht wieder mehr als zwei Jahre dauert)...

Troyan
2018-08-14, 11:07:06
Turing hat doch auch neue und erweiterte Rasterizing-Features. Computerbase spricht von 3x soviel Pixelleistung pro SM und bis zu einer Billion Dreiecke pro Sekunde. Dazu nun auch FP16 über die FP32 Einheiten, gleichzeitig nutzbare INT16 Einheiten und mehr Bandbreite durch GDDR6.

Irgendwann müssen wir akzeptieren, dass ein "Weiter So" nicht mehr funktioniert. Raytracing erleichtert ja vor Allem die Entwickler und senkt die Kosten. Das sollte doch positiv aufgenommen werden. nVidia hat sich entschieden eben einen deutlichen Schnitt zu machen und Transistoren dort zu investieren, wo es heute kaum eine Auswirkung hat.

Triniter
2018-08-14, 11:13:16
Die Frage ist jetzt halt was man am Chip ändern/weglassen kann um die Gamer zu bedienen. Bin da nicht wirklich in der Materie drin.

Interessant ist aus diesem Artikel:
https://www.tomshw.de/2018/08/14/quadro-rtx-mit-turing-was-im-live-event-nicht-gesagt-wurde-und-noch-mehr-bilder-siggraph-2018/
Volta war mehr oder weniger nur ne Spielwiese um zu sehen was damit am Ende möglich sein könnte. Bedeutet für mich, der Chip ist jetzt offiziell am Ende und wird schnellstmöglich durch neue Modelle ersetzt.

Bösewicht
2018-08-14, 11:13:53
Da muss mehr kommen, und vermutlich wird es das auch.
Nur das braucht Zeit und Entwicklung, ist zumindest klasse das die Lead Engine UE4 vorbereitet zu sein scheint.

stimmt schon alles ja aber ich bin mir sicher amd wird da mitgehen muessen weil es in zukunft einfach noetig sein wird und selbst wenn turing haette schneller sein koennen in klassischer grafik so muss ja irgendwann umgestellt werden daran fuehrt kein weg dran vorbei.
vielleicht ist das auch der grund warum amd inzwischen so lange offline ist die werden vielleicht schon vor jahren gewusst haben das sie da neu entwickeln muessen und deswegen vega nur noch halbherzig ewig verspaetet gebracht haben.

und vielleicht ist das auch der grund warum nvidia bei dx12 nicht so viel ressourcen verbraucht hat und amd dort kleine vorteile hat.

bei cb hat wer geschrieben
Raytracing ist das neue PhysX.
Wird ein paar von Nvidia gesponsorte Spiele geben die das nutzen werden, abseits davon wird man nicht viel zu sehen bekommen.
ich wuerde er sagen das Raytracing das neue Shader sein wird.

Mancko
2018-08-14, 11:16:05
Mir ist auch nicht klar was einige hier haben. Fakt ist einfach mal, dass Nvidia offensichtlich nicht langsam tritt sondern eher kräftig weiter investiert. Mit dem ganzen Raytracing Thema kommt jetzt auch wieder ein Thema auf die Agenda, was anders als AC und andere Themen optischen Mehrwert bietet in Richtung mehr Realismus und vor allem für Nvidia einen weiteren Umsatzkanal abseits Gaming aufmacht der den CPU Herstellern weh tun wird.

Darüber hinaus ist hier erstmal per sé nichts proprietär sondern ganz klar auf Basis DX12 und der entsprechenden von M$ angekündigten Schnittstelle. Nvidia setzt nur einen Layer noch oben drüber um optimaler mit der eigenen Hardware sprechen zu können und serviert daüfür die passenden Tools bzw. den Softwarestack. Das ist doch gut und es steht AMD ja frei das ebenso zu tun. Ist doch klar, dass ein IHV das Optimum aus seiner Hardware herausholen möchte. Deswegen ist das Thema aber noch lange nicht proprietär. Das ist einfach falsch.

Zum Thema 12nm vs. 7nm ist eigentlich alles gesagt. Stand jetzt ist 7nm nicht verfügbar, also nimmt man 12nm. Warum soll man auch warten. Wenn man sieht welche Produkte Nvidia mit 12nm bringt und welche sie nicht bringen, zeigt doch ganz deutlich, dass Nvidia sich bereits auf die 7nm Migration vorbereitet. In 2019 werden wir 7nm sehen und zwar angefangen von unten bis dann im weiteren Verlauf ganz oben. Da die Konkurrenz erstmal komplett abgemeldet ist gibts auch gar kein Problem. Die Konkurrenz wird kein High End / Enthusiast Produkt in 7nm vor Nvidia launchen können. Das ist ziemlich evident.

Abschließend noch der Hinweis dass bei der Präsentation gestern Nvidia bzw. Huang ganz bewusst bestimmte Themen explizit außen vor gelassen hat. Die Infos hierzu werden wir dann kommende Woche präsentiert bekommen. Warum das so ist kann sich jeder von mir aus selber zusammenreimen :)

Triniter
2018-08-14, 11:18:28
stimmt schon alles ja aber ich bin mir sicher amd wird da mitgehen muessen weil es in zukunft einfach noetig sein wird und selbst wenn turing heatte schneller sein koennen in klassischer grafik so muss ja irgendwann umgestellt werden daran fuehrt kein weg dran vorbei.
vielleicht ist das auch der grund warum amd inzwischen so lange offline ist die werden vielleicht schon vor jahren gewusst haben das sie da neu entwickeln muessen und deswegen vega nur noch halbherzig ewig verspaetet gebracht haben.

und vielleicht ist das auch der grund warum nvidia bei dx12 nicht so viel ressourcen verbraucht hat und amd dort kleine vorteile hat.

Wenn man bedenkt das Nvidia mit den ersten Arbeiten an Turing vor 10 Jahren und mit der eigentlichen Architektur vor 5 Jahren begonnen hat ist das durchaus im Bereich des Möglichen. Man muss schon sagen das solche langfristigen Projekte ein enormes Risiko darstellen 10 Jahre und wohl etwas über 10000 Mannjahre Entwicklungszeit, sollte das Stimmen, Respekt das muss man erst mal wieder erwirtschaften.

Sunrise
2018-08-14, 11:20:48
Haben wir alle den gleichen Stream gesehen? :freak:
Wieso seid ihr alle aus dem Häuschen? Ernst gemeinte Frage. Die neuen GPUs scheinen, ehm, Standardkost. Habe ich was verpasst außer dem Hype um Raytracing?
Die Frage ist eher, was deine Erwartungen waren? Wieder zum 100. Mal nur Performance und langweilige Aufgüsse?

Raytracing ist die Zukunft und NV bereitet sich jetzt darauf vor. Keine "Fakes" mehr, die man jahrzehntelang benötigte, da die HW zu langsam war. Extrem realistische Szenen mit sehr hoher Komplexität quasi for free.

Und dass das Ganze noch Demo-Charakter hat ist doch logisch...Far Cry: The Project anyone? Und wo führte uns das hin?

Ist doch geil, dass endlich mehr Qualität und Realismus möglich ist, anstatt altes immer wieder aufzuwärmen.

Daredevil
2018-08-14, 11:24:00
Das mag alles schön aussehen, keine Frage. Aber das sind Techdemos. Solange das nicht in Games ankommt, für mich eher uninteressant. Sollte das Preis-Leistungs-Verhältnis nicht stimmen, werde ich mit meiner 1080 die Turing-Generation aussitzen und auf die nächste Generation warten (und dabei hoffen, dass es nicht wieder mehr als zwei Jahre dauert)...
Du hast in Vergangenheit ja auch keine Quadro zum zocken benutzt, wieso solltest du das auch heute tun? :)
Was in einem Gaming Turing steckt, weiß ja niemand und ob der Fokus dort eben auch so sehr auf RT gesetzt wird, ebenfalls nicht.

Dem Gamer wird es wenig nutzen, nun für volle RT Geschwindigkeit 1000$ zu zahlen, damit man nun endlich Spider Man gescheit beleuchten kann, da wird der Fokus wohl bestimmt auf was anderes gelenkt. Eher seichtes RT, dafür aber mehr Gaming spezifische Dinge.

Btw. da war ich mit dem Speicher auf der Rückseite gar nicht so falsch gelegen, die dicke Version ist eine Sandwich Konstruktion mit RAM auf dem Rücken. :)

Hübie
2018-08-14, 11:25:16
Sorry, ich habe die letzten Seiten jetzt nicht gelesen, aber ich fürchte das viele Anwesende Details übersehen / überfliegen und die Tragweite dessen was da kommen mag noch nicht ganz klar ist.
Concurrent execution von INT8 bis hin zu FP32, Compute / Graphics / Matrix Multiplikation / Raytracing plus Denoising (linkback zu Compute / MM). Haaaallooooohoooo? Ja aller Anfang ist schwer, aber ich gehe mit, dass dies ein game changer wird.

fondness
2018-08-14, 11:28:27
Die Frage ist eher, was deine Erwartungen waren? Wieder zum 100. Mal nur Performance und langweilige Aufgüsse?

Raytracing ist die Zukunft und NV bereitet sich jetzt darauf vor. Keine "Fakes" mehr, die man jahrzehntelang benötigte, da die HW zu langsam war. Extrem realistische Szenen mit sehr hoher Komplexität quasi for free.

Und dass das Ganze noch Demo-Charakter hat ist doch logisch...Far Cry: The Project anyone? Und wo führte uns das hin?

Ist doch geil, dass endlich mehr Qualität und Realismus möglich ist, anstatt altes immer wieder aufzuwärmen.

Das heißt eine Turning-GPU ist schnell genug, um Raytracing in Echtzeit darzustellen und das in besserer Qualität wie heutige Renderingansätze (die bisherigen Raytracing-Demos sahen ja eher meh aus was Details betrifft mangels Performance)? Ernst gemeinte Frage.

Bösewicht
2018-08-14, 11:30:18
Tragweite dessen was da kommen mag noch nicht ganz klar ist.
Concurrent execution von INT8 bis hin zu FP32, Compute / Graphics / Matrix Multiplikation / Raytracing plus Denoising (linkback zu Compute / MM). Haaaallooooohoooo? Ja aller Anfang ist schwer, aber ich gehe mit, dass dies ein game changer wird.
na ja eigentlich ist es nur ein game changger wenn das game vorher in anderer hand gewesen ist so ist es ehr eine revolution :biggrin:

robbitop
2018-08-14, 11:33:39
Ich sehe es ebenfalls als Analogie zu neuen Features, die vor 1-1,5 Jahrzehnten eingeführt worden sind, massig Transistoren kosteten und nicht direkt Mehrleistung brachten (siehe Pixelshader 1.x @NV20/R200, Shadermodel 2.0 @NV30, Parallax Mapping @Parhelia, Truform @R200, nPatches @NV20 etc). Man führt erstmal die HW Unterstützung ein. Jedoch dauert es einige Jahre bzw 1-2 Generationen bis die breite Unterstützung in Spielen so weit ist und die HW auch schnell genug für breiten Einsatz ist.

Jedoch ohne dies gibt es weniger Fortschritte.

Deutlich mehr Spieleleistung out of the box bei bisherigen Spielen scheint es ja dann erst mit 7 nm zu geben.
Die GT104 scheint ein wenig schneller als GP102 zu sein und GT102 (sofern sie mal als bezahlbares ti Spielerprodukt herauskommt) 30-50% schneller als GP102.

7 nm kann dann aber wiederum nochmal ordentlich Mehrleistung on top liefern, da es ja mehr als 1x fullnode shrink ist. Ggf. wird dies aber etwas aufgeweicht, da die Turing GPUs überdurchschnittlich groß sind. In 7 nm (Ampere?) wird man sicherlich analog zu Pascal wieder relativ kleine GPU Größen nehmen. (IMO)

Troyan
2018-08-14, 11:34:14
Von Twitter:
https://pbs.twimg.com/media/DkhPe_XU0AEIayv.jpg
https://twitter.com/YuriyODonnell/status/1029159912943771648

X-Bow
2018-08-14, 11:36:10
Auf den ersten Blick war ich auch angetan, auf den zweiten ist mir aber aufgefallen das die Schatten einfach nur falsch aussehen. Lediglich wie wenn die Schatten weichgezeichnet wurde.
Gerade auch bei den Kugeln und den unterschiedlich farbigen Wänden/Lichtquellen. Bei letzterem kamen mir die Berechnungen von Licht, Schatten und Reflektionen sogar komplett falsch vor.
Wird dabei überhaupt unterschieden ob ein Licht Hart oder Diffus ist? Weil wenn nein, dann ist mit der Technik schon mal strahlender Sonnenschein passe.

tEd
2018-08-14, 11:40:13
Möchte lieber vergleiche zu volta sehen und wenn schon vergleiche zu pascal dann bitte gp102 vs gt102 nicht gp104 vs gt102

Screemer
2018-08-14, 11:41:46
Jetzt ist die Katze aus dem Sack. Das Ding ist ein game changer.
Wenn das Spielzeug ja wohl schon länger bei Epic liegt, habt ihr auch schon was zum rumbasteln bekommen? Werdet ihr vielleicht sogar schon was in id-tech 7 integrieren?

Gipsel
2018-08-14, 11:44:05
Sorry, ich habe die letzten Seiten jetzt nicht gelesen, aber ich fürchte das viele Anwesende Details übersehen / überfliegen und die Tragweite dessen was da kommen mag noch nicht ganz klar ist.
Concurrent execution von INT8 bis hin zu FP32, Compute / Graphics / Matrix Multiplikation / Raytracing plus Denoising (linkback zu Compute / MM). Haaaallooooohoooo? Ja aller Anfang ist schwer, aber ich gehe mit, dass dies ein game changer wird.Ob die SMs jetzt Int und FP gleichzeitig oder nacheinander machen, ist jetzt im Großen und Ganzen wenig relevant, es ändert halt die Performance für bestimmte Aufgaben ein wenig (am Ende limitiert durch die Bandbreite der Registerfiles; man nutzt im Prinzip den Spielraum, den man wegen der 4 Operanden-Instruktionen und vielleicht ein wenig Reserve wegen möglichen Bank-Collisions hat, um im Schnitt da mehr rauszuquetschen; das ist eine Optimierung, keine Revolution). Das ist rein die Geschwindigkeit der Abarbeitung (im Schnitt vielleicht 15-25% [aber wie gesagt je nach Workload stark variierend]).

Interessanter weil wegweisender ist, daß nV offenbar zum Schluß gekommen ist, genügend Vorsprung vor der Konkurrenz zu haben, um in Features zu investieren, die vermutlich nicht sofort zu höherer Spieleperformance führen werden, aber die Art und Weise, wie Spiele gerendert werden, für die Zukunft deutlich ändern könnte. Da muß man aber vielleicht noch abwarten, wie viel davon in Consumer-Produkten in dieser Generation ankommt. Beim großen Chip geht man vielleicht (wie in der Präsentation angekündigt) in die Vollen und versucht den Offline-Rendering- und Special-Effects-Markt von CPUs zu erobern. Da ist ja eine Menge Geld drin.
Bei Consumer-GPUs könnte das anfangs beträchtlich beschnitten sein, einfach weil der Markt heute noch nicht bereit dafür ist und es schlicht zu 99% Verschwendung wäre. Also vielleicht gibt es aus Kompatibilitätsgründen ein Zehntel der RT-Leistung des großen Chips, was dann für erste Gehversuche und ein paar nette Effekte (GameWorks?) irgendwo genutzt wird. Spätere Generationen bauen dann darauf auf und bauen es aus, wenn es gut angenommen wird. Aber da wissen wir in einer Woche vielleicht schon mehr.

Aber ich vermute mal, daß doch einige Entwickler sich so eine Quadro besorgen werden (wenn sie die nicht schon von nV bekommen haben) und damit erst mal ausführlich rumspielen, um zu sehen, wie sich das genau nutzen läßt und was die effizienteste Möglichkeit ist, neue Rendermethoden für die Steigerung der Grafikqualität zu benutzen. Und hier kommt der "Gamechanger" ins Spiel, den Gravitationsfeld angesprochen hat. Eine moderne Engine könnte in 5 -10 Jahren eben deutlich anders aussehen und funktionieren als heute.

Troyan
2018-08-14, 11:44:33
Quadro RTX5000 benutzt Turing104. Da sind die selben Features enthalten.

Möchte lieber vergleiche zu volta sehen und wenn schon vergleiche zu pascal dann bitte gp102 vs gt102 nicht gp104 vs gt102

GP102 ist 40% schneller. Ging ja auch nicht um den Vergleich, sondern um die Zeitkosten von Turing.

Cubitus
2018-08-14, 11:46:52
Sorry, ich habe die letzten Seiten jetzt nicht gelesen, aber ich fürchte das viele Anwesende Details übersehen / überfliegen und die Tragweite dessen was da kommen mag noch nicht ganz klar ist.
Concurrent execution von INT8 bis hin zu FP32, Compute / Graphics / Matrix Multiplikation / Raytracing plus Denoising (linkback zu Compute / MM). Haaaallooooohoooo? Ja aller Anfang ist schwer, aber ich gehe mit, dass dies ein game changer wird.

Klar, sobald die Games breit flächig Raytracing einsetzten und das vorerst nur mit Turing zufriedenstellend läuft, dann wirds ein Game-Changer ;)

bei cb hat wer geschrieben
Zitat:

Raytracing ist das neue PhysX.
Wird ein paar von Nvidia gesponsorte Spiele geben die das nutzen werden, abseits davon wird man nicht viel zu sehen bekommen.
ich wuerde er sagen das Raytracing das neue Shader sein wird.


Also ich finde die Aussage von dem CB-User auch sehr blauäugig.
Vor allem definiert M$ sein DX12 neu und zementiert Raytracing und Fallback Lösungen in die API, was auch AMD ne Chance gibt.
Nvidia geht schon mit der Industrie mit.

Nvidia führte bei der 6800er Ultra Serie auch als erster den Pixelshader 3 ein,
war aber nicht in der Lage in Sachen Performance die X850er Serie zu schlagen obwohl diese nur mit veralteten 2.0er Version arbeitete.
Die Games hingen, waren bis auf Far Cry, hinten dran.

Wie gesagt mal abwarten was dann beim Consumer Raytracing am Ende raus kommt, Konkurrenz von AMD gibt es ja so gesehen nicht mehr..
Wobei die Rohdaten der neuen Gen an sich ja ganz solide aussehen, auch mit der klassischen Pixelmethode sind die Karten definitiv schnell genug.

MasterElwood
2018-08-14, 11:50:34
Was überhaupt noch keiner erwähnt hat:

Lederjacke hat uns bis jetzt beschissen - weil die Star Wars Demo läuft ned auf 4 - sondern nur auf EINER Karte!!!! :eek::eek::eek:

Gipsel
2018-08-14, 11:57:25
Quadro RTX5000 benutzt Turing104. Da sind die selben Features enthalten.Kann auch ein Salvage Modell sein. Die RTX 6000 ist es ja nicht (nur halbierter Speicher). Warum nicht einfach ein Drittel des kompletten Chips deaktivieren? Etwas niedriger getaktet ist das Ding ja auch, falls man die offizielle RT-Leistung für eine genaue Angabe hält.

Troyan
2018-08-14, 12:00:16
Das habe ich heute Nacht schon mal kommentiert: nVidia reduziert den 754mm^2 Die nicht um 1/3, um ihn dann für 1/5 des Preises zu verkaufen. Sie haben es weder mit GM200 noch mit GP100 oder GV100 getan.

Korvaun
2018-08-14, 12:00:50
Ich frage mich nur ob die Tensor/RT Cores bei Spielen ohne explizite Unterstützung komplett brach liegen oder ob die dann trotzdem bei gewissen Dingen mithelfen können (z.b. AA Modi im Treiber?) Wenn nicht dann wäre das für Gamer-Karten schon eine heftige "Platzverschwendung" zumindest in dieser Generation bei 12nm...

Troyan
2018-08-14, 12:04:32
Gibt doch schon neues DLAA: https://developer.nvidia.com/rtx/ngx

Außerdem sind die TensorCores nur Recheneinheiten, die spottbillig sind. Der Flächenbedarf ist marginal.

dildo4u
2018-08-14, 12:07:13
Ich frage mich nur ob die Tensor/RT Cores bei Spielen ohne explizite Unterstützung komplett brach liegen oder ob die dann trotzdem bei gewissen Dingen mithelfen können (z.b. AA Modi im Treiber?) Wenn nicht dann wäre das für Gamer-Karten schon eine heftige "Platzverschwendung" zumindest in dieser Generation bei 12nm...
Es nutzten massig Games z.b Unreal Engine 4 wenn dort z.b Raytracing AA integriert wird muss sich der Entwickler selber da nich mehr drum kümmern.

NVIDIA researchers have successfully trained a neural network to find these jagged edges and perform high-quality anti-aliasing by determining the best color for each pixel, and then apply proper colors to create smoother edges and improve image quality. This technique is known as Deep Learning Anti-Aliasing (DLAA). DLAA is like an “Ultra AA” mode-- it provides the highest quality anti-aliasing with fewer artifacts than other types of anti-aliasing.

Many games today support Temporal Anti-Aliasing (TAA), an anti-aliasing technology that combines high-quality Multi-Sample Anti-Aliasing (MSAA), post processes, and temporal filters. Unfortunately, the temporal aspect of TAA can deliver a blurry-looking image, especially in static scenes. TAA also suffers from flickering and ghosting that is inherent in the technology. DLAA by comparison provides sharp images and is temporally stable.

https://developer.nvidia.com/rtx/ngx

robbitop
2018-08-14, 12:07:33
@Gipsel
Für Spiele gibt es ja entsprechend eine Schnittstelle (DX12) über die das IHV unabhängig angesprochen werden kann. Somit dort für AMD sicherlich unproblematisch, wenn sie erst später mit entsprechender Hardware antanzen, wenn es breiter unterstützt ist, oder?

Hat (damals) ATI ja hin und wieder ähnlich gemacht. Siehe SM3.

Für Professionelle Anwendungen wird es dann sicherlich eher proprietäre Implementierungen (siehe CUDA) geben, so dass AMD dann ein Problem haben wird, oder?

Screemer
2018-08-14, 12:08:09
Was überhaupt noch keiner erwähnt hat:

Lederjacke hat uns bis jetzt beschissen - weil die Star Wars Demo läuft ned auf 4 - sondern nur auf EINER Karte!!!! :eek::eek::eek:
Sie lief auf 4 voltas und jetzt auf einer Turing. Beschissen ist die Aussage von wegen "First raytraceing gpu", denn das ist halt schlicht nicht war.

Ich bin schon sehr geapannt, was wirklich in rtx 5000 steckt und um wie viel gaming gpus beschnitten werden. Sei es per soft- oder Hardware. NV kann bei den angesagten Preisen für da rtx überhaupt nicht daran gelegen sein, dass geforces, oder wie sie auch heißen werden, nur ansatzweise so Performer wie die quadros. Da ist die gap noch größer als bisher. Mich würde 1/4 der max Tensor- und rt-lesutung nicht wundern. Das würde den Sprung von Pascal auch ziemlich relativieren.

Dural
2018-08-14, 12:08:16
Gibt doch schon neues DLAA: https://developer.nvidia.com/rtx/ngx

Außerdem sind die TensorCores nur Recheneinheiten, die spottbillig sind. Der Flächenbedarf ist marginal.

Für was wurde den die fläche gegenüber pascal verwendet? Das ding ist rund 300mm2 grösser als gp102 bei nur 800sp mehr.

Daredevil
2018-08-14, 12:11:08
Wo hier gerade PhysX angesprochen wurde.... wenn die Quadros auch "Remote" genutzt werden können und NVLink die Möglichkeit bietet, zwei Karte extrem schnell zusammen zu binden, vielleicht haben wir ja dann in Zukunft die Möglichkeit, eine Karte fürs Raytracing abzustellen, wie früher bei PhysX halt auch. :)

So kann Nvidia auch wieder fröhlich ihr mGPU pushen mit einem Mehrwert. Bei Jenson sparst du ja Geld, wenn du mehr kaufst. :D

Screemer
2018-08-14, 12:13:23
Wo hier gerade PhysX angesprochen wurde.... wenn die Quadros auch "Remote" genutzt werden können und NVLink die Möglichkeit bietet, zwei Karte extrem schnell zusammen zu binden, vielleicht haben wir ja dann in Zukunft die Möglichkeit, eine Karte fürs Raytracing abzustellen, wie früher bei PhysX halt auch. :)

Und die SMs der anderen Karte machen dann nichts, wenn Tensor- und rt-cores am Tanzen sind? Was für eine Verschwendung.

dildo4u
2018-08-14, 12:13:48
Wo hier gerade PhysX angesprochen wurde.... wenn die Quadros auch "Remote" genutzt werden können und NVLink die Möglichkeit bietet, zwei Karte extrem schnell zusammen zu binden, vielleicht haben wir ja dann in Zukunft die Möglichkeit, eine Karte fürs Raytracing abzustellen, wie früher bei PhysX halt auch. :)

So kann Nvidia auch wieder fröhlich ihr mGPU pushen mit einem Mehrwert. Bei Jenson sparst du ja Geld, wenn du mehr kaufst. :D
Das macht kein Sinn man sollte in dem Fall von beiden Karten alle Einheiten nutzen.Raytracing ist deutlich besser als der ganze SLI/Crossfire Mist davor da es vermutlich immer zu 100% skalieren wird.

dargo
2018-08-14, 12:13:50
Sieht aus wie die Transition von Geforce 2 auf Geforce 3. Dort gab es auch kaum Zuwächse, aber irgendwann muss man den nächsten Schritt nun mal machen. Ansonsten endet man wie AMD, die seit fünf Jahren die selbe Architektur verkaufen.
Witzbold. ;D

Nvidia bietet nicht mal Features bei Pascal die GCN 1.0 onboard hatte. Ich frage mich auch wann du endlich begreifst, dass sich Features die es ausschließlich am Desktop-PC gibt kaum bis gar nicht durchsetzen wenn die Konsolen diese nicht bieten? Auch wenns weh tut... die Konsolen bestimmen was in Spielen von morgen genutzt wird! Die paar "Tech-Demos" die da einzelne Spiele bieten sind zwar nettes Marketing, mehr aber auch nicht.

MadPenguin
2018-08-14, 12:14:36
Die Frage ist eher, was deine Erwartungen waren? Wieder zum 100. Mal nur Performance und langweilige Aufgüsse?

Raytracing ist die Zukunft und NV bereitet sich jetzt darauf vor. Keine "Fakes" mehr, die man jahrzehntelang benötigte, da die HW zu langsam war. Extrem realistische Szenen mit sehr hoher Komplexität quasi for free.

Und dass das Ganze noch Demo-Charakter hat ist doch logisch...Far Cry: The Project anyone? Und wo führte uns das hin?

Ist doch geil, dass endlich mehr Qualität und Realismus möglich ist, anstatt altes immer wieder aufzuwärmen.

Raytracing ist doch schon ein altes Thema eigentlich. Auch bei AMD: Mit dem RadeonPro Renderer eigentlich schon seit März 2018, jedoch nicht in Spielen, natürlich, das ist neu.

Die Frage ist, wann es kommt und ob Turing ein cooles flüssiges Spielerlebnis bieten kann. Alle spekulierten mit Turing in 7nm, es gab einen Aufguss mit 12nm mit von allem ein bisschen mehr und eigentlich wieder nicht, beim Verbrauch werden wir ja sehen. Ist irgendwie genauso, als in Vergangenheit AMD immer mit den neuen DirectX Features gekommen ist und sie dann in der Spielebranche niemand (noch) verwendet hat.
Dafür soll ich mehr bezahlen? Ich persönlich bin enttäuscht.

Daredevil
2018-08-14, 12:17:06
Und die SMs der anderen Karte machen dann nichts, wenn Tensor- und rt-cores am Tanzen sind? Was für eine Verschwendung.
Das macht kein Sinn man sollte in dem Fall von beiden Karten alle Einheiten nutzen.Raytracing ist deutlich besser als der ganze SLI/Crossfire Mist davor da es vermutlich immer zu 100% skalieren wird.
Enthusiasten Grafik macht selten Sinn, ist aber halt geil und kostet viel Geld.
Ne 8800GTX wurde von manchen auch als PhysX Bitch abgestempelt, nur um um die Details maximal höher zu schrauben. Die hat sich auch einfach nur gelangweilt.

Zudem muss man ja nicht die größte Karte nehmen als Companion. :)

Troyan
2018-08-14, 12:18:26
Sie lief auf 4 voltas und jetzt auf einer Turing. Beschissen ist die Aussage von wegen "First raytraceing gpu", denn das ist halt schlicht nicht war.

Ich bin schon sehr geapannt, was wirklich in rtx 5000 steckt und um wie viel gaming gpus beschnitten werden. Sei es per soft- oder Hardware. NV kann bei den angesagten Preisen für da rtx überhaupt nicht daran gelegen sein, dass geforces, oder wie sie auch heißen werden, nur ansatzweise so Performer wie die quadros. Da ist die gap noch größer als bisher. Mich würde 1/4 der max Tensor- und rt-lesutung nicht wundern. Das würde den Sprung von Pascal auch ziemlich relativieren.

Stimmt, kann nVidia überhaupt nicht. Deswegen existiert ja auch keine Titan XP und keine GTX1080. :rolleyes:

robbitop
2018-08-14, 12:20:09
Wo hier gerade PhysX angesprochen wurde.... wenn die Quadros auch "Remote" genutzt werden können und NVLink die Möglichkeit bietet, zwei Karte extrem schnell zusammen zu binden, vielleicht haben wir ja dann in Zukunft die Möglichkeit, eine Karte fürs Raytracing abzustellen, wie früher bei PhysX halt auch. :)

So kann Nvidia auch wieder fröhlich ihr mGPU pushen mit einem Mehrwert. Bei Jenson sparst du ja Geld, wenn du mehr kaufst. :D
Nein das funktioniert so nicht. Raytracing ist ja teil der Renderingpipeline. Letztenendes werden die TC für das Denoising genutzt und das geschieht in Spielen in Echtzeit und ist Teil der Renderpipeline.

Das ist bei Physikbeschleunigung etwas anderes, da am vorherigen Frame gearbeitet wird. CPU -> PPU -> GPU (für Effektphysik) und CPU -> PPU -> CPU -> GPU (für Physik die relevant für die Spielmechanik ist). Letzteres ist seitens der Latenz zu langsam (übrigens war die PPU von Ageia damals nicht grundlos auf PCI - dort ist die Latenz geringer als für PCIe).
Für Effektphysik war der Weg etwas kürzer und entkoppelt von der CPU, dadurch sinnvoll.

Vollumfängliche Physikbeschleunigung wäre auf einer APU/SoC (sofern die Bandbreite zwischen PPU und CPU und jeweils zum Hauptspeicher hoch genug) wäre sinnvoll, da Latenz dann kein großes Problem mehr, da beides auf einem Chip wäre. Aber auch hier gibt es einige Bottlenecks bei aktueller HW und SW. Hatte gravitationsfeld mal geäußert in Bezug auf die APUs der aktuellen Konsolen...


Ne 8800GTX wurde von manchen auch als PhysX Bitch abgestempelt, nur um um die Details maximal höher zu schrauben. Die hat sich auch einfach nur gelangweilt.
Kann eigentlich nicht sein. G80 war der größte Sprung IIRC zwischen 2x Gens bei NV. Mehr als doppelt so viel Leistung wie der Vorgänger (G71) bei gleichem Node!

deekey777
2018-08-14, 12:23:29
:popcorn:

Der Sommer ist gerettet. Danke, Nvidia!

Hatten wir vor zehn Jahren physikalisch korrekt berechnete Bettlaken, bekommen wir sie auch korrekt beleuchtet.

Was für eine sinnlose Diskussion über neue Features. Wenn RT in Spielen intergriert wird, ist doch schön. Wenn RT hier oder da langsamer läuft, Pech gehabt.

Bucklew
2018-08-14, 12:32:54
Es ist auf jeden Fall toll, wie NVIDIA wieder mal nur Pascal refresht und gar nichts Neue zu bieten hat, wie viele hier ja verkündet haben ;D

Na, Horn, kann da AMD wirklich mit nem Treiber kontern?! :cool:

Thunderburne
2018-08-14, 12:36:04
https://wccftech.com/nvidia-geforce-rtx-2080-benchmarks/

Sunrise
2018-08-14, 12:38:08
Für was wurde den die fläche gegenüber pascal verwendet? Das ding ist rund 300mm2 grösser als gp102 bei nur 800sp mehr.
+ 12nm vs. 16nm, was den Unterschied noch größer macht.

Linmoum
2018-08-14, 12:39:26
https://wccftech.com/nvidia-geforce-rtx-2080-benchmarks/
Lastly, its the simple fact that while it is very easy to fake names, it is almost impossible to fake the score
Genau, fast unmöglich den Score zu faken. ;D

Bösewicht
2018-08-14, 12:48:17
Was überhaupt noch keiner erwähnt hat:

Lederjacke hat uns bis jetzt beschissen - weil die Star Wars Demo läuft ned auf 4 - sondern nur auf EINER Karte!!!! :eek::eek::eek:
s sagte lederjacke vor oder nach dem video auch, sie lauft auf einer einzigen und zwar der kleinsten quadro karte!

edit
ok schrieb Screemer schon.

gravitationsfeld
2018-08-14, 12:50:46
echt? Wieso? wirklich eine ernst gemeinte Frage.
Ist doch offensichtlich. HW Raytracing.

Das erste große Feature seit D3D9 SM3 das wirklich einen Unterschied machen wird langfristig.

Kriegsgeier
2018-08-14, 12:52:37
Was macht eigentlich NVIDIA?

Mein Gedanke: SmartShader sind universell einsetzbar und für die Hauptaufgaben super!

Nun stellt NVIDIA mit Turing 2 Helfer zur Seite, sehr, sehr schnelle und extrem effiziente Rechenwerke, fast schon FPGAs: RayTracing-Logik + AI-Logik

Nun kann die Engine noch paralleler die Aufgaben verteilen und die Ausgaben in diesen kritischen 20 ms (bei 60 fps) effizienter und schneller lösen!

Denn, vergessen wir nicht: alles in 3D ist Vektormatematik. Alles is ähnlich, AI in Bilderkennung und Antialiasing sind auch sehr ähnlich... USW.

Perfekter Schachzug von NVIDIA würde ich sagen!

Dural
2018-08-14, 12:55:19
+ 12nm vs. 16nm, was den Unterschied noch größer macht.

Es sind 58% mehr transistoren bei 20% mehr SP gp102 - gt102

Sunrise
2018-08-14, 12:57:07
Das heißt eine Turning-GPU ist schnell genug, um Raytracing in Echtzeit darzustellen und das in besserer Qualität wie heutige Renderingansätze (die bisherigen Raytracing-Demos sahen ja eher meh aus was Details betrifft mangels Performance)? Ernst gemeinte Frage.
So siehts aus. Was hier geöffnet wurde, ist quasi das Tor zur Realität wie wir sie kennen. Klar ist das nur die erste Generation, aber spätestens mit den kommenden 7nm-RTX-Produkten dürfte das (z.B. UE4 usw.) so starken Anklang finden, dass man davon mehr und mehr nutzen wird. Nur eine Frage der Zeit und dem Aufwand, Konsolen sind halt leider ein wenig die Bremse...

Screemer
2018-08-14, 12:57:08
Enthusiasten Grafik macht selten Sinn, ist aber halt geil und kostet viel Geld.
Ne 8800GTX wurde von manchen auch als PhysX Bitch abgestempelt, nur um um die Details maximal höher zu schrauben. Die hat sich auch einfach nur gelangweilt.

Zudem muss man ja nicht die größte Karte nehmen als Companion. :)
Das lief aber auf dem kometten Chip und nicht nur auf ein paar Einheiten und der Großteil des Chips lag brach. Das ist ein himmelweiter Unterschied.

Mal ne andere Frage. Weil von NV ja herausgestellt wurde, dass 10 gigarays mit der rtx 6000 verabreitet werden können, wie sieht es bei den andern karten aus? Das hab ich irgendwie verpasst.

Bösewicht
2018-08-14, 12:57:15
Raytracing ist doch schon ein altes Thema eigentlich. Auch bei AMD: Mit dem RadeonPro Renderer eigentlich schon seit März 2018, jedoch nicht in Spielen, natürlich, das ist neu.

also das was amd da bietet gab es schon 2004 in cinema 4d teilweise nur mit workarounds aber funktionierte, vergleichst oder verwechselst du render mit realtime raytracing?

es ist die erste hybrid raytrace karte und nicht die erste raytrace ever.

Rancor
2018-08-14, 12:57:38
Aber, Aber kann denn Turing auch AC und RPM? :D

Edgecrusher86
2018-08-14, 13:02:27
Mal ne andere Frage. Weil von NV ja herausgestellt wurde, dass 10 gigarays mit der rtx 6000 verabreitet werden können, wie sieht es bei den andern karten aus? Das hab ich irgendwie verpasst.


Stand auf der letzten Folie:
RTX 8000 - 10 GR/s
RTX 5000 - 6 GR/s

ntldr
2018-08-14, 13:03:55
Mal ne andere Frage. Weil von NV ja herausgestellt wurde, dass 10 gigarays mit der rtx 6000 verabreitet werden können, wie sieht es bei den andern karten aus? Das hab ich irgendwie verpasst.

Ebenfalls 10 Gigarays bei der RTX 8000 und 6 Gigarays für die kleine RTX 5000.

Steht auch in der Pressemitteilung, knapp hinter die erste Seite scrollen https://nvidianews.nvidia.com/news/nvidia-unveils-quadro-rtx-worlds-first-ray-tracing-gpu

Screemer
2018-08-14, 13:04:05
Stimmt, kann nVidia überhaupt nicht. Deswegen existiert ja auch keine Titan XP und keine GTX1080. :rolleyes:
Du hast nicht verstanden was ich meine. Hätte mich vielleicht deutlicher ausdrücken sollen da ich ja weiß, dass es da bei dir manchmal Probleme gibt.

Es geht mir darum, dass sich NV sich, bei gleicher rt- und Tensor-performance bei consumerkarten, das Alleinstellungsmerkmal der rtx Karten zerstört. Haut eine potentielle GeForce rtx 2080ti für 900€ in professionellen Anwendungen (Catia, Solidworks, Arnold, etc.) die gleiche Performance raus wie eine rtx 5000/6000, machen sie sich den margenträchtigen Prosumermarkt kaputt. Das hat NV noch nie getan und wird GeForce irgendwie beschneiden müssen.

Ist doch offensichtlich. HW Raytracing.

Das erste große Feature seit D3D9 SM3 das wirklich einen Unterschied machen wird langfristig.
Als powervr entsprechende gpus vorgestellt hat, da hat es keine Sau interessiert. Die haben 2016 mit 2W 0,1+ GRays/s, um mal in Nvidias Terminologie zu bleiben, gecastet mit nem octane prototype als renderer. Das lief damals 2016 auf der siggraph auch schon als fertige gpu mit Hybridrendering. Deswegen ist Nvidias "First raytraycing gpu"-aussage auch einfach gelogen. Naja daran wollen wir uns aber Mal nicht aufhängen. Ich lasse mich gern überraschen wie sich das für den Endkunden entwickelt. Für euch devs ist das natürlich endlich Mal wieder ne neue Spielwiese auf der ihr euch austoben könnt. Das freut mich sehr.

Ebenfalls 10 Gigarays bei der RTX 8000 und 6 Gigarays für die kleine RTX 5000.

Steht auch in der Pressemitteilung, knapp hinter die erste Seite scrollen https://nvidianews.nvidia.com/news/nvidia-unveils-quadro-rtx-worlds-first-ray-tracing-gpu
Nope, siehe:
Stand auf der letzten Folie:
RTX 8000 - 10 GR/s
RTX 5000 - 6 GR/s

https://abload.de/imgimg_20180814_13040433ike.jpg
Danke. Das ist auf jeden Fall schon Mal ein eklatante Unterschied.

Dural
2018-08-14, 13:08:26
Die RTX 8000 soll eine TDP von 300watt haben, davon 30watt alleine nvlink mit 100gb/s

Ohne nvlink und 12gb sollten 250w drin liegen.

Thunder99
2018-08-14, 13:09:47
Hört sich sehr interessant an. Aber Mal abwarten wann es wirklich breitflächig genutzt wird ;). PhysX war ja auch nur wenig vertreten ;).

Und wie oft wird es sich wenn dann langfristig erst etablieren. Daher nice to have aber nicht zwingend notwendig aktuell, vermute ich :)

Troyan
2018-08-14, 13:11:37
Als powervr entsprechende gpus vorgestellt hat, da hat es keine Sau interessiert

Liegt vielleicht dran, dass das eine real und das andere Vaporware ist. :rolleyes:

Fragman
2018-08-14, 13:15:21
jo, powervr hatte halt nichts, ausser dem "prototypen". nv hat die api, die partner im gaming und professionellen bereich und eben die software um die hardware zu supporten.

Loeschzwerg
2018-08-14, 13:15:29
da hat es keine Sau interessiert

Wie so ziemlich alles was PowerVR an IPs entwickelt hat. Ohne großen Partner wird das halt einfach nichts.

gravitationsfeld
2018-08-14, 13:21:08
Als powervr entsprechende gpus vorgestellt hat, da hat es keine Sau interessiert.
Low-end mobile chips sind nicht relevant fuer Grafik-Fortschritte. Ein grosser Desktop-Player mit Raytracing-Hardware und integration in DX und Vulkan ist eine komplett andere Situation.

Liegt vielleicht dran, dass das eine real und das andere Vaporware ist. :rolleyes:
Sie haben schon ein paar Karten verkauft soweit ich mich erinnern kann, aber wirklich viel war da nicht.

Rancor
2018-08-14, 13:22:01
Die Raytracing Geschichte ist schon recht nice. Aber es muss natürlich auch was kommen und ich sehe das leider so wie die meisten. Ohne Konsolensupport wird das großflächig nichts werden.

Es wird sicherlich den ein oder anderen Titel geben der es unterstützt, aber bist das in der breiten Masse angekommen ist, ist Turing sicherlich wieder zu langsam.

Mich würde viel mehr interessieren wie sich die Performance bei dem klassischen Rendering verändert hat.

Screemer
2018-08-14, 13:23:25
Liegt vielleicht dran, dass das eine real und das andere Vaporware ist. :rolleyes:
Vaporware? Die haben auf der siggraph 2016 "genau so viel gezeigt" wie Nvidia. Damit meine ich funktionierende Hardware und Software. Letztere werden es aber wohl eher nicht dabei belassen und das Zeug auch kaufbar anbieten. Imgtech war oft schon voraus und konnte deshalb ip, dann bei niemandem unterbringen. Das ist das eigentlich traurige.

dildo4u
2018-08-14, 13:23:59
Es geht mir darum, dass sich NV sich, bei gleicher rt- und Tensor-performance bei consumerkarten, das Alleinstellungsmerkmal der rtx Karten zerstört. Haut eine potentielle GeForce rtx 2080ti für 900€ in professionellen Anwendungen (Catia, Solidworks, Arnold, etc.) die gleiche Performance raus wie eine rtx 5000/6000, machen sie sich den margenträchtigen Prosumermarkt kaputt. Das hat NV noch nie getan und wird GeForce irgendwie beschneiden müssen.

Welche Vorteile hat die Pascal Quadro p5000 gegenüber der GTX 1080 abseits des Vram?Meiner Meinung nach zahlt man bei den Pro Karte für den Treiber Support.
Die Geforce Karten werden einfach wieder bei CAD etc beschnitten.

gravitationsfeld
2018-08-14, 13:24:31
Die Raytracing Geschichte ist schon recht nice. Aber es muss natürlich auch was kommen und ich sehe das leider so wie die meisten. Ohne Konsolensupport wird das großflächig nichts werden.
Da stimme ich dir zu, solange es nicht auf allen Platformen verfuegbar wird, wird's wohl bei leicht besserer Grafik und Effekthascherei bleiben. Zumindest ausserhalb von Forschung und Demos.

In naher Zukunft liegen die grossen Vorteile bei der Content-Produktion.

aufkrawall
2018-08-14, 13:25:46
Man kann es auch positiv sehen, dass diese nicht so erfolgreiche Firma nun ihre hellen Köpfe nicht mehr der Welt vorenthält. ;)

Mancko
2018-08-14, 13:26:02
jo, powervr hatte halt nichts, ausser dem "prototypen". nv hat die api, die partner im gaming und professionellen bereich und eben die software um die hardware zu supporten.

Und nicht zu vergessen auch das nötige Kleingeld um diese Themen zu pushen.

dargo
2018-08-14, 13:26:45
Ein grosser Desktop-Player mit Raytracing-Hardware und integration in DX und Vulkan ist eine komplett andere Situation.

Hoffentlich gibts wenigstens mit Hilfe von Raytracing einen stärkeren Schub Richtung low level, zumindest bei AAA-Titeln. Das ist eigentlich das einzige was ich daran aktuell positiv sehe. Diese Steinzeit-APIs am PC nerven nur noch.


In naher Zukunft liegen die grossen Vorteile bei der Content-Produktion.
Na immerhin. :)

Gipsel
2018-08-14, 13:26:56
Das habe ich heute Nacht schon mal kommentiert: nVidia reduziert den 754mm^2 Die nicht um 1/3, um ihn dann für 1/5 des Preises zu verkaufen. Sie haben es weder mit GM200 noch mit GP100 oder GV100 getan.Wenn RTX6000/8000 der Vollausbau ist, benötigt man irgendwo ein Salvage-Modell (wenn man die teuren Dies nicht verschwenden will und Gewinnmaximierung betreibt). Und wenn man dafür nicht mehrere Modelle einführen will (um verschiedene Arten von Defekten abzudecken), dann bietet sich an, ein deutlich reduziertes und gleichzeitig niedriger getaktetes Modell anzubieten, damit man keine Dies wegwerfen muß. Und 1/5 des Preises stimmt doch auch nicht (oder nur, wenn man Äpfel mit Birnen vergleicht). Die RTX6000 (auch Vollausbau) mit 24GB RAM kostet 6300$, die RTX5000 mit 16GB RAM 2300$ (das ist mehr als ein Drittel). Und Alles, was man damit über dem Herstellungspreis verdienen kann, ist besser, als das Die einfach wegzuwerfen. Und in der Vergangenheit hat nV durchaus auch Quadro-Modelle verkauft, die sehr stark beschnittene Chips benutzten. Also sicher ist das anhand der bekannten Daten durchaus noch nicht, was genau da drin steckt.

Mancko
2018-08-14, 13:27:31
Welche Vorteile hat die Pascal Quadro p5000 gegenüber der GTX 1080 abseits des Vram?Meiner Meinung nach zahlt man bei den Pro Karte für den Treiber Support.
Die Geforce Karten werden einfach wieder bei CAD etc beschnitten.

Und bei Server Racks verbietet man einfach den Einsatz von Consumer Karten. Das ist überhaupt kein Problem.

dildo4u
2018-08-14, 13:28:40
Hoffentlich gibts wenigstens mit Hilfe von Raytracing einen stärkeren Schub Richtung low level, zumindest bei AAA-Titeln. Das ist eigentlich das einzige was ich daran aktuell positiv sehe. Diese Steinzeit-APIs am PC nerven nur noch.
Du zockst doch selber nur 1440p,das Rennen nach besserer Grafik und nicht nur höheren Auflösungen ist für alle positiv.Wenn keiner den Anfang macht passiert nie was.

Screemer
2018-08-14, 13:31:07
Welche Vorteile hat die Pascal Quadro p5000 gegenüber der GTX 1080 abseits des Vram?Meiner Meinung nach zahlt man bei den Pro Karte für den Treiber Support.
Die Geforce Karten werden einfach wieder bei CAD etc beschnitten.
Einfach nur in CAD beschnitten? Du hast die Präsentation gesehen. Den 20whatever-billion$ Market? Das ist Visualisierung per rt in eben auch CAD und anderen Sachen. Gerade dafür haben wir gerade Jensen gerade werben sehen.

Keine Ahnung ob folgende Zahlen noch aktuell sind. Für die nächste quadro/GeForce Differenzierung erwarte ich aber nichts anderes auch bei rt und Tensor:


https://www.geeks3d.com/public/jegx/2017q2/pny/nvidia-gtx1080-specviewperf-scores.jpg
https://www.geeks3d.com/public/jegx/2017q2/pny/nvidia-quadro-p5000-specviewperf-scores.jpg

deekey777
2018-08-14, 13:31:20
...

Als powervr entsprechende gpus vorgestellt hat, da hat es keine Sau interessiert. Die haben 2016 mit 2W 100k Rays gecastet mit nem octane prototype als renderer.


N....

https://home.otoy.com/otoy-and-imagination-unveil-breakthrough-powervr-ray-tracing-platform/

"OctaneRender 4 prototype achieves 100+ million rays/second on a 2 watt PowerVR Ray Tracing mobile GPU core – a 10x increase in ray-tracing performance/watt compared to GPGPU compute ray tracing in OctaneRender 3”

Und eingekauft haben sie das auch noch (Caustic); damals hat man ja gewitzelt, ob Caustic nur deswegen gegründet wurde, um übernommen zu werden.

Vielleicht lizensiert AMD schnell PowerVR RT, wenn sie nichts eigenes haben.

Troyan
2018-08-14, 13:33:22
Vaporware? Die haben auf der siggraph 2016 "genau so viel gezeigt" wie Nvidia. Damit meine ich funktionierende Hardware und Software. Letztere werden es aber wohl eher nicht dabei belassen und das Zeug auch kaufbar anbieten. Imgtech war oft schon voraus und konnte deshalb ip, dann bei niemandem unterbringen. Das ist das eigentlich traurige.

Es existiert nicht. Der Prototyp ist genau das: Ein Prototyp. Turing dagegen ist real und wird an Entwickler längst verteilt.

Loeschzwerg
2018-08-14, 13:33:57
Vielleicht lizensiert AMD schnell PowerVR RT, wenn sie nichts eigenes haben.

Ist längst Legacy.

gravitationsfeld
2018-08-14, 13:36:09
Es existiert nicht. Der Prototyp ist genau das: Ein Prototyp. Turing dagegen ist real und wird an Entwickler längst verteilt.
https://www.techpowerup.com/179604/imagination-ships-caustic-series2-r2500-and-r2100-ray-tracing-accelerators

Da wurde schon was verkauft.

MiamiNice
2018-08-14, 13:36:46
Weiß nicht so recht was ich von der Karte halten soll. Aktuell fehlt es halt massiv an Power. Jetzt kommt nach 2 Jahre ein richtig fetter Chip - der allerdings die hälfte an Platz für Features verwendet - die wahrscheinlich erstmal 0 extra Power bringen. Hätte man sich das Raytracing Zeug nicht für die 7nm Gen aufheben können und Touring dafür mit mehr klassischen Einheiten bestücken können?

Wer soll was mit den Karten anfangen? Die Leute die Power brauchen und gewillt sind die hohen Preise zu zahlen bekommen einen Tropfen auf den heißen Stein dafür Features die aktuell niemand braucht. Alle anderen zahlen die Preise eh nicht.

Was soll dat?

Meine 1080Ti bleibt mir wohl bis zum ersten NV 7nm TI Produkt erhalten.

Gääääääääääääääääähn.

Gibt es halt nur einen 9900K + Board + Speicher dieses Jahr -> so kann man auch sparen lol

MadPenguin
2018-08-14, 13:38:03
also das was amd da bietet gab es schon 2004 in cinema 4d teilweise nur mit workarounds aber funktionierte, vergleichst oder verwechselst du render mit realtime raytracing?

es ist die erste hybrid raytrace karte und nicht die erste raytrace ever.

https://www.anandtech.com/show/12552/amd-announces-real-time-ray-tracing-for-prorender-and-radeon-gpu-profiler-12

Ich verwechsle eigentlich, glaube ich, nichts. Außer beim Anwendungsgebiet, das ist klar.

gravitationsfeld
2018-08-14, 13:38:54
AMD hat bisher keine Karten mit Hardware-Raytracing.

Kriton
2018-08-14, 13:39:25
Anfangs werden sie das sicher über GW nutzen, denn ohne Konsolenunterstützung werden das wenige Devs von sich aus einbauen wollen (unter wirtschaftlichen Gesichtspunkten).

dargo
2018-08-14, 13:39:55
Du zockst doch selber nur 1440p,das Rennen nach besserer Grafik und nicht nur höheren Auflösungen ist für alle positiv.Wenn keiner den Anfang macht passiert nie was.
Ich weiß ja nicht ob du mich richtig verstanden hast. Sollte Raytracing die Lösung schlechthin sein, dass wir am PC endlich die Steinzeit-Apis loswerden dann nur her damit. Lieber gestern als morgen. ;)

robbitop
2018-08-14, 13:41:54
Meine 1080Ti bleibt mir wohl bis zum ersten NV 7nm TI Produkt erhalten.

Gääääääääääääääääähn.

Gibt es halt nur einen 9900K + Board + Speicher dieses Jahr -> so kann man auch sparen lol
Naja die GT102 wird @jeweils maxOC schon ~30-50% mehr Leistung in Spielen bringen als GP102.
Dass GT104 beim Launch deutlich mehr Leistung als GP102 bringen wird, war eh illusorisch.

Die Frage ist, ob und wann eine Gamerversion von der GT102 kommen wird. Also eine halbwegs bezahlbare 2080ti. (~1T €) Keine Titan.

deekey777
2018-08-14, 13:42:26
Die Raytracing Geschichte ist schon recht nice. Aber es muss natürlich auch was kommen und ich sehe das leider so wie die meisten. Ohne Konsolensupport wird das großflächig nichts werden..

Es wird zumindest so ablaufen: Du wirst eine superduperhohe Einstellung haben, die jede kleinere Grafikkarte in die Knie zwingt und selbst auf starker Hardware ein Leistungsabfall zu verzeichnen ist. Und dann wird es die Diskussion geben, ob es wirklich wert ist. Aber das war schon immer so.

Loeschzwerg
2018-08-14, 13:43:09
Jo, eben der Crysis-Effekt ^^

gravitationsfeld
2018-08-14, 13:45:31
Anfangs werden sie das sicher über GW nutzen, denn ohne Konsolenunterstützung werden das wenige Devs von sich aus einbauen wollen (unter wirtschaftlichen Gesichtspunkten).
Ein paar Sachen sind relativ einfach mit besseren Raytracing-Varianten zu ersetzen. Die offensichtlichsten fuer mich sind Ambient Occlusion, Reflexionen und Contact Shadows.

AwesomeSauce
2018-08-14, 13:50:01
Ich hab auch gleich an Ambient Occlusion gedacht. Mit Raytracing wird das ja ziemliich trivial und man kommt endlich von den hässlichen und falschen Screen-Space Approximationen weg.

https://www.youtube.com/watch?v=yag6e2Npw4M

Screemer
2018-08-14, 13:51:06
AMD hat bisher keine Karten mit Hardware-Raytracing.
Pro renderer nutzt compute/vulkan fürs raytracen und denoisen, wenn ich mich richtig erinnere. Er ist allerdings schnell auf entsprechender Hardware. Mit >500ms aber natürlich weit weg von 16.66ms für 60fps.

Ein paar Sachen sind relativ einfach mit besseren Raytracing-Varianten zu ersetzen. Die offensichtlichsten fuer mich sind Ambient Occlusion, Reflexionen und Contact Shadows.
Wieviele rays/pixel sind denn da nötig um das ganze optisch passabel zu halten? Wenn rtx 5000 schon um 40% weniger rt-leistung hat, dann kann ich mir auch vorstellen, dass es bei GeForce noch weniger wird. Ist das dann noch sinnvoll nutzbar. AO und reflexions sahen auf jeden Fall in den Demos Sahne aus. Die caustics und refraction fand ich auch super. Flüssigkeiten sind da ja prädestiniert für, oder?

Rancor
2018-08-14, 13:53:51
Jo, eben der Crysis-Effekt ^^

Das kann schon sein.

gravitationsfeld
2018-08-14, 13:55:29
Pro renderer nutzt compute/vulkan fürs raytracen und denoisen, wenn ich mich richtig erinnere. Er ist allerdings schnell auf entsprechender Hardware. Mit >500ms aber natürlich weit weg von 16.66ms für 60fps.
AMD hat bisher keine Raytracing-Hardware. Laeuft alles auf Compute Shadern in Software. Das hat NVIDIA jahrelang auch gemacht mit OptiX.

Die komplette Architektur von DXR ist von OptiX kopiert. Die Shader-Stages sind exakt die selben.

Chris Lux
2018-08-14, 14:00:03
Wieviele rays/pixel sind denn da nötig um das ganze optisch passabel zu halten? Wenn rtx 5000 schon um 40% weniger rt-leistung hat, dann kann ich mir auch vorstellen, dass es bei GeForce noch weniger wird. Ist das dann noch sinnvoll nutzbar. AO und reflexions sahen auf jeden Fall in den Demos Sahne aus. Die caustics und refraction fand ich auch super. Flüssigkeiten sind da ja prädestiniert für, oder?
Das Strahlen/Pixel Verhältnis für nettes AO drückt man durch den effizienten Denoiser. Das wurde auf der GTC schon vorgestellt.

Edit: Video https://www.youtube.com/watch?v=tjf-1BxpR9c

MiamiNice
2018-08-14, 14:00:22
Naja die GT102 wird @jeweils maxOC schon ~30-50% mehr Leistung in Spielen bringen als GP102.
Dass GT104 beim Launch deutlich mehr Leistung als GP102 bringen wird, war eh illusorisch.

Die Frage ist, ob und wann eine Gamerversion von der GT102 kommen wird. Also eine halbwegs bezahlbare 2080ti. (~1T €) Keine Titan.

30-50% halte ich eben für zu wenig. Gerade mit Blick darauf wofür NV die Fläche ver(sch)wendet hat und was möglich wäre, wenn man die Fläche traditionell genutzt hätte. Ich habe nichts gegen neue Features aber imo hätte man sich diese Features sparen können bis zur 7nm Gen, wenn wieder Platz genug auf dem DIE ist. Aktuell braucht man diese Einheiten halt 0.

Aktuell pfeifft die 1080TI mal massiv aus letzten Loch unter VR und es müssten Karten her die doppelt so schnell sind, bei selbem Featureset.
Und wenn NV schon neue Features bringt wäre mir aktuell die Möglichkeit lieber MGPU unter VR nutzen zu können. Das könnte man quasi sofort nutzen und nicht erst in 5 Jahren mit eh einer anderen Karte im Rechner :biggrin:

Wir sollen für einen knapp 700mm² DIE zahlen von dem nur ca. 350mm² für uns Gamer verwertbar sind, wenn ich das richtig verstehe? Das ist quasi doppelt falsch. 1. falsch Belegung von Chipfläche 2. für diese unnützen Transis auch noch extra zahlen :freak:

Von daher sehe ich hier nicht tolles. Erinnert mich schon fast an eine Vorstellung des Konkurrenz. Ich hätte hier wesentlich mehr erwartet aufgrund der Vorabinfos und NVs Ruf und bisheriger Produktpalette.

Für mich der schlechteste NV "Release" seit dem Fön Desaster :freak:

Chris Lux
2018-08-14, 14:03:38
Die komplette Architektur von DXR ist von OptiX kopiert. Die Shader-Stages sind exakt die selben.
Wie gefällt dir das (persönlich)?

Ich für meinen Teil wünschte mir da doch etwas, was mehr low-level ist: Meshes transparent in einer Acceleration-Structure verpacken und dann aus einem beliebigen Shader heraus ein trace_ray() durchführen zu können (any oder closest hit).

Screemer
2018-08-14, 14:05:51
Das Strahlen/Pixel Verhältnis für nettes AO drückt man durch den effizienten Denoiser. Das wurde auf der GTC schon vorgestellt.
Denoisen läuft ja über die tensor-cores und ich gehe auch da davon aus, dass rtx 5000 weniger hat und consumerkarten noch weiter beschnitten sein werden. Kann mich natürlich auch irren. Lasse mich da gerne überraschen.

Chris Lux
2018-08-14, 14:08:52
Wir sollen für einen knapp 700mm² DIE zahlen von dem nur ca. 350mm² für uns Gamer verwertbar sind, wenn ich das richtig verstehe? Das ist quasi doppelt falsch. 1. falsch Belegung von Chipfläche 2. für diese unnützen Transis auch noch extra zahlen :freak:
Das ist Quatsch. Man kann sich das nicht so einfach vorstellen wie "Der Teil ist RTcore, der Teil ist Tensor Cores." Mehr kann ich da leider nicht verraten (vielleicht kommt ja noch ein White Paper zur Arch).

gravitationsfeld
2018-08-14, 14:09:41
Wie gefällt dir das (persönlich)?

Ich für meinen Teil wünschte mir da doch etwas, was mehr low-level ist: Meshes transparent in einer Acceleration-Structure verpacken und dann aus einem beliebigen Shader heraus ein trace_ray() durchführen zu können (any oder closest hit).
Was meinst du mit "Meshes transparent in einer AS verpacken"?

Ja, rays von rasterization stages aus waere definitiv eine gute Sache. Vielleicht kommt das ja noch mit den naechsten Chips.

PHuV
2018-08-14, 14:11:20
Für mich der schlechteste NV "Release" seit dem Fön Desaster :freak:
Watt? :eek: Die Raytracing Demos sind doch der Hammer. Zu Deinem Schluß kommt man nur aus einer wirklich sehr tiefen Froschperspektive. :rolleyes: Fakt ist doch, daß alle bisherigen Rendermodi bisher an sich nur suboptimale Ergebnisse liefert. Im Endeffekt sind es eigentlich nur Fakes oder Tricks mit vielen Problemen, um einigermaßen reale Bilder in Form von Schattierungen und Reflexionen zu bilden, Spiegelungen sind gar unmöglich.

Gute künstlich erzeugte Bilder mit hohem Realismusgrad funktioniert eigentlich nur mit RT, bisher gibt es keine andere Technologie, die das bisher schafft. Daher ist diese Präsentation ein wirklicher Gamechanger. In 5 Jahren werden wir das als so normal und selbstverständlich in Spielen sehen, und uns amüsieren über die veralteten Spielegrafiken. Schau Dir mal heute Spiele wie Gunship oder F16 aus Ende der 80er an, und schau mal an, was sich seit dem Erscheinen von Crysis 2007 sich wesentlich getan hat. In meinen Augen nicht viel. Das hier ist endlich wieder mal etwas, wo ich sage, WoW, wirklich revolutionär.

Es ist auf alle Fälle für den Profibereich mit CGI und CAD ein sehr großer Sprung. Die Zahlen sagen doch alles:
https://i.imgur.com/TnuRY0u.png

Chris Lux
2018-08-14, 14:15:26
Was meinst du mit "Meshes transparent in einer AS verpacken"?
Das die Implementierung eben eine passende AS baut, von der die Applikation nichts genaues wissen muss. Ähnlich wie wir heute kaum an die Details des eigentlichen Speicherlayouts von Texturen kommen.

Das macht DXR ja schon so, jedoch dann hängt da diese fixe Ray Tracing Pipeline dran.


Ja, rays von rasterization stages aus waere definitiv eine gute Sache. Vielleicht kommt das ja noch mit den naechsten Chips.
Das hat, glaube ich, nichts mit dem Chip zu tun. Mal schauen wenn mehr Devs nach Low-Level Access schreien (hint).

Der_Korken
2018-08-14, 14:18:22
Kann jemand einem Laien wie mir erklären, was genau die dedizierte Raytracing-HW anders macht, als z.B. ein Compute Shader? Prinzipiell könnte man auf letzteren ja alles rechnen, was man will, wenn man es entsprechend programmiert. Wo kommt also plötzlich diese extreme Steigerung der Leistung her, die offensichtlich mit einer Verbreiterung der bisherigen Architektur nicht hätte erreicht werden können? Bei den Tensor-Cores kann ich nachvollziehen, dass man dort quasi spezielle Operationen wie Matrix-Multiplikationen in HW realisiert und das dann viel schneller (und energieffizienter) laufen, als wenn man alles in "primitive" Operationen zerlegt und per Shader zu Fuß ausrechnet. Muss man sich das bei Raytracing auch so vorstellen?

RLZ
2018-08-14, 14:20:07
Fakt ist doch, daß alle bisherigen Rendermodi bisher an sich nur suboptimale Ergebnisse liefert.
Raytracing in der aktuellen Form schließt sich da den anderen Verfahren an. :D
Es löst nur gewisse Teilprobleme effizienter.

Wir sind aber jetzt am Anfang einer neuen GPU Generation. Wie immer gibt es Leute die drüber meckern (mimimi... mein Lieblingsspiel läuft damit nicht mit 200fps) und Leute die das Potential erkennen, aber den kurzfristigen Einfluss vielleicht auch überwerten.

Nvidia muss jetzt für die Minimalanforderungen erstmal kräftig Chipfläche investieren. In Zukunft skaliert die RT/Tensor-Performance einfach mit.

MiamiNice
2018-08-14, 14:27:38
Watt? :eek: Die Raytracing Demos sind doch der Hammer. Zu Deinem Schluß kommt man nur aus einer wirklich sehr tiefen Froschperspektive. :rolleyes: Fakt ist doch, daß alle bisherigen Rendermodi bisher an sich nur suboptimale Ergebnisse liefert. Im Endeffekt sind es eigentlich nur Fakes oder Tricks mit vielen Problemen, um einigermaßen reale Bilder in Form von Schattierungen und Reflexionen zu bilden, Spiegelungen sind gar unmöglich.

Gute künstlich erzeugte Bilder mit hohem Realismusgrad funktioniert eigentlich nur mit RT, bisher gibt es keine andere Technologie, die das bisher schafft. Daher ist diese Präsentation ein wirklicher Gamechanger. In 5 Jahren werden wir das als so normal und selbstverständlich in Spielen sehen, und uns amüsieren über die veralteten Spielegrafiken. Schau Dir mal heute Spiele wie Gunship oder F16 aus Ende der 80er an, und schau mal an, was sich seit dem Erscheinen von Crysis 2007 sich wesentlich getan hat. In meinen Augen nicht viel. Das hier ist endlich wieder mal etwas, wo ich sage, WoW, wirklich revolutionär.

Es ist auf alle Fälle für den Profibereich mit CGI und CAD ein sehr großer Sprung. Die Zahlen sagen doch alles:
https://i.imgur.com/TnuRY0u.png

Ich habe nichts gegen das Feature oder die Technik. Nur jetzt ist der falsche Zeitpunkt dafür. Jetzt brauchen wir mehr Power - in wie viel % der Games kannst Du diese Features zu Lebzeiten der Karte nutzen. Und Lebzeit der Karte ist wohl maximal Mitte 2020. Raytracing wäre das perfekte Thema zur 3080 RTX gewesen. Aktuell bekomme ich eher Pickel wenn ich an nur knapp 40% mehr Power denke bei einem fast doppelt so großen Chip (TI zu TI).
Wie viel Power da verpufft die aktuell bitter nötig wäre und Konkurrenz ist weit und breit nicht in Sicht.

Es ist auf alle Fälle für den Profibereich mit CGI und CAD ein sehr großer Sprung.

Dafür gibt es Quadros. Mit den GTX äh RTX Teilen wird i.d.R. gespielt. Für was anderes werden die wohl kaum gekauft. Jetzt sollen wir Gamer also die Entwicklung für die CGI und CAD Industrie mitzahlen?

PHuV
2018-08-14, 14:27:41
Raytracing in der aktuellen Form schließt sich da den anderen Verfahren an. :D
Es löst nur gewisse Teilprobleme effizienter.
Was meinst Du damit genauer? Spiegelungen und Reflexionen ist physikalisch korrekt nur mit RT möglich, mir ist kein anderes Verfahren bekannt, was das kann.
Ich habe nichts gegen das Feature oder die Technik. Nur jetzt ist der falsche Zeitpunkt dafür. Jetzt brauchen wir mehr Power - in wie viel % der Games kannst Du diese Features zu Lebzeiten der Karte nutzen.
Wo braucht man aktuell wirklich viel Power? Aus meiner Sicht stagniert das doch schon seit ca. 3-4 Jahren gewaltig. Wer sich eine Titan X/XP kaufte, hatte jetzt fast 3 Jahre Ruhe und für fast alles genug, um alles gut zu spielen. Crysis konnte man selbst 6-8 Jahre danach noch nicht mit aktueller HW in allen Details spielen. :tongue:

Und genau das ist doch das geniale: Spiele schwenke um auf RT in Echtzeit, was rein paktisch viel besser skalierbar ist als SLI und Crossfire. Wer mehr Power will und braucht, rammt sich einfach mehrere Karten rein.

BlacKi
2018-08-14, 14:29:20
Für mich der schlechteste NV "Release" seit dem Fön Desaster :freak:
naja, ich lass das mal noch offen, denn die gaming karten und ihre performance werden wir erst am nächsten montag sehen.

ich glaube das einzige was dieses event aus gamer sicht für die nächsten 1-2 jahre brachte, ist das wir am nächsten montag eine 2080 mit 16gb, und titan mit 24gb sehen werden. der rest wird wohl erst am montag klarer.

ich bin gespannt wie hoch die performance gehalten werden kann bei aktuellen spielen, trotz des ganzen RT und TC krams auf dem chip.

Chris Lux
2018-08-14, 14:30:03
Kann jemand einem Laien wie mir erklären, was genau die dedizierte Raytracing-HW anders macht, als z.B. ein Compute Shader? Prinzipiell könnte man auf letzteren ja alles rechnen, was man will, wenn man es entsprechend programmiert. Wo kommt also plötzlich diese extreme Steigerung der Leistung her, die offensichtlich mit einer Verbreiterung der bisherigen Architektur nicht hätte erreicht werden können? Bei den Tensor-Cores kann ich nachvollziehen, dass man dort quasi spezielle Operationen wie Matrix-Multiplikationen in HW realisiert und das dann viel schneller (und energieffizienter) läuft, als wenn man es in "primitive" Operationen zerlegt und per Shader zu Fuß ausrechnet. Muss man sich das bei Raytracing auch so vorstellen?
Was macht Ray Tracing: Du willst für einen Strahl für ein Sample/Pixel den nächsten Schnitt mit einem typischerweise Dreieck bestimmen. Dazu willst du nicht jedes Dreieck der Szene testen, wofür sogenannte hierarchische Beschleunigungsstrukturen genutzt werden.

Teile davon wird die Hardware nun direkt beherrschen ohne über die ALUs gehen zu müssen.

Godmode
2018-08-14, 14:35:34
Ich habe nichts gegen das Feature oder die Technik. Nur jetzt ist der falsche Zeitpunkt dafür. Jetzt brauchen wir mehr Power - in wie viel % der Games kannst Du diese Features zu Lebzeiten der Karte nutzen. Und Lebzeit der Karte ist wohl maximal Mitte 2020. Raytracing wäre das perfekte Thema zur 3080 RTX gewesen. Aktuell bekomme ich eher Pickel wenn ich an nur knapp 40% mehr Power denke bei einem fast doppelt so großen Chip (TI zu TI).
Wie viel Power da verpufft die aktuell bitter nötig wäre und Konkurrenz ist weit und breit nicht in Sicht.


Und du glaubst allen ernstes, dass ein Chip mit 700mm2 und 8000 Stream-Prozessoren in ein 250W-300W Powerbudget gepasst hätte? Wenn ja, dann hast du einen sehr niedrigen Takt, wodurch die größere Chipfläche dann genau gar nichts bringt. Sieh einfach ein, dass der Vorteil in der Fertigung dieses mal recht klein ist.

Und weiters, kennst du schon die Spieleperformance, also ich nicht!?

Menace
2018-08-14, 14:37:13
Auch als alter AMDler muss ich sagen, dass sich das doch sehr gut anhört. Aber mal eine Frage zu Ray-Tracing: Früher fand ich den Look sehr "künstlich". Sehe ich es richtig, dass es dabei darauf ankommt, was man daraus macht?

Könnte man zwei Beispielbilder verlinken, wo man direkt sieht, was für ein extrem positive Auswirkung es hat?

Und momentan ist diese Art von Ray-Tracing ja nur für bestimmte Effekte vorgesehen, oder?

Troyan
2018-08-14, 14:40:42
Von Futuremark: https://benchmarks.ul.com/news/watch-our-new-directx-raytracing-tech-demo

MiamiNice
2018-08-14, 14:41:35
Wo braucht man aktuell wirklich viel Power? Aus meiner Sicht stagniert das doch schon seit ca. 3-4 Jahren gewaltig. Wer sich eine Titan X/XP kaufte, hatte jetzt fast 3 Jahre Ruhe und für fast alles genug, um alles gut zu spielen. Crysis konnte man selbst 6-8 Jahre danach noch nicht mit aktueller HW in allen Details spielen. :tongue:


Aktuell ist VR der Leistungsfresser schlechthin. Dadurch das die Displays in den HMDs so klein auflösen, spielt man mit massiv Downsampling damit man die Grafik ertragen kann. Destiny 2, als non VR Beispiel, sieht auf 3440 x 1440 Pixel ziemlich stufig aus und könnte auch gut 200% Renderauflösung vertragen. Die 1080Ti ist dafür aber zu langsam. Selbst für 150%.
Ich könnte noch weitere Games aufzählen aber brauche ich wirklich einen Grund für mehr Power im 3DC? Ich könnte locker eine GPU auslasten die doppelt so schnell wie eine Titan V ist. Sinnvoll wohlgemerkt.

Was bitte soll ich als High End Gamer in 2018/19 mit Tension Cores und Raytracing Möglichkeiten auf meiner GPU anfangen? In 2020 steckt dann eh eine 3080 im Rechner. Wo ist hier der Sinn?

dildo4u
2018-08-14, 14:43:51
Auch als alter AMDler muss ich sagen, dass sich das doch sehr gut anhört. Aber mal eine Frage zu Ray-Tracing: Früher fand ich den Look sehr "künstlich". Sehe ich es richtig, dass es dabei darauf ankommt, was man daraus macht?

Könnte man zwei Beispielbilder verlinken, wo man direkt sieht, was für ein extrem positive Auswirkung es hat?

Und momentan ist diese Art von Ray-Tracing ja nur für bestimmte Effekte vorgesehen, oder?

Kein Plan was du mit künstlich meinst alle aktuellen Techniken versuchen Raytracing Optik zu erreichen,das Ziel war immer echtes Licht zum simulieren.

lFnWy0Odsh8

dargo
2018-08-14, 14:44:39
Ich habe nichts gegen das Feature oder die Technik. Nur jetzt ist der falsche Zeitpunkt dafür. Jetzt brauchen wir mehr Power...
Wer ist "wir"?

Adam D.
2018-08-14, 14:51:09
Was bitte soll ich als High End Gamer in 2018/19 mit Tension Cores und Raytracing Möglichkeiten auf meiner GPU anfangen? In 2020 steckt dann eh eine 3080 im Rechner. Wo ist hier der Sinn?
Du hättest dasselbe doch auch gesagt, wenn Nvidia 2020 mit RT in den Massenmarkt gegangen wäre. Es gibt NIE genug Leistung, aber Nvidia geht hier IMO einen guten Kompromiss ein. Die Leute, die wirklich drin stecken, sehen aktuell einen Generationenwechsel. Wenn das mittelfristig zu etwas geringeren Performance Zuwächsen führt, nehme ich das gerne in Kauf.

Man könnte ja sonst auch zur Konkurrenz greifen, wenn du kein RT willst. Oh wait :freak:

dildo4u
2018-08-14, 14:56:02
Nvidia schluckt hier die Die Size der RTX Cores damit sich die Technik irgendwann durchsetzt,hätte man alles in Cuda Cores gesteckt könnten sie deutlich mehr Kohle verlangen.Sie haben viel zu viel Vorsprung als das sie einem zweifache Titan X Performance für 700€ gegeben hätten.

MiamiNice
2018-08-14, 14:59:03
Du hättest dasselbe doch auch gesagt, wenn Nvidia 2020 mit RT in den Massenmarkt gegangen wäre. Es gibt NIE genug Leistung, aber Nvidia geht hier IMO einen guten Kompromiss ein. Die Leute, die wirklich drin stecken, sehen aktuell einen Generationenwechsel. Wenn das mittelfristig zu etwas geringeren Performance Zuwächsen führt, nehme ich das gerne in Kauf.

Man könnte ja sonst auch zur Konkurrenz greifen, wenn du kein RT willst. Oh wait :freak:

Natürlich gibt es nie genug Leistung. Es gibt aber imo Generationssprünge wo man derart Features unterbringen kann ohne auf zu viel andere Dinge zu verzichten. Ich stecke nicht drin aber der Wechsel von 12 auf 7nm nächstes Jahr hört sich für mich eher nach dem richtigen Zeitpunkt an um Features, die derart viel Chupfläche belegen, sinnvoll zu verbauen.

Ist sehe natürlich nur meine Blase aber hier fehlt es halt massiv Power und eine Raytracing Option habe ich in noch keinem Spiel gesehen. Ich muss da nicht lang überlegen wo meine Prios liegen und wofür ich 1000€ ausgeben mag und für was nicht.

Menace
2018-08-14, 14:59:14
Kein Plan was du mit künstlich meinst alle aktuellen Techniken versuchen Raytracing Optik zu erreichen,das Ziel war immer echtes Licht zum simulieren.

http://youtu.be/lFnWy0Odsh8

Danke für die Links.

Künstlich meine ich, dass das mit "Spiegel", Roboter, glänzende Metall-Oberflächen sehr shiny wirkt und auch gut; aber das ist halt schon eine "künstliche", steril wirkende Umgebung. Bei den Screenshots von Futuremark musste ich sogar auf "on" und "off" schauen, damit mir klar wurde, wo der Vorteil liegen könnte. Ich schaue mal weiter. :smile:

aufkrawall
2018-08-14, 15:01:18
Du musst nicht weiter schauen, sondern mit Screen Space Reflexionen nur auf den Boden, um die Misere zu erleben.

Bösewicht
2018-08-14, 15:03:44
Auch als alter AMDler muss ich sagen, dass sich das doch sehr gut anhört. Aber mal eine Frage zu Ray-Tracing: Früher fand ich den Look sehr "künstlich". Sehe ich es richtig, dass es dabei darauf ankommt, was man daraus macht?
im prinzip limitiert nur die hardware.
von cartoon southpark look hin zu Avatar CGI bis hin zu fast photorealistischer optik ist da eigentlich alles moeglich, das ding ist die rechengenauigkeit die extrem angehoben werden kann was mit normaler grafik nie und nimmer so tief ins detail gehen koennte.

PHuV
2018-08-14, 15:04:50
Natürlich gibt es nie genug Leistung. Es gibt aber imo Generationssprünge wo man derart Features unterbringen kann ohne auf zu viel andere Dinge zu verzichten. Ich stecke nicht drin aber der Wechsel von 12 auf 7nm nächstes Jahr hört sich für mich eher nach dem richtigen Zeitpunkt an um Features, die derart viel Chupfläche belegen, sinnvoll zu verbauen.
Wann wäre für Dich den überhaupt ein "richtiger" Zeitpunkt, um neue Features einzuführen?

Bösewicht
2018-08-14, 15:06:51
@MiamiNice
deswegen ist vr auch ehr ein gimmick das kaum relevant ist und deswegen wurde es bei mir 3,5 meter diagonale, das schaut auch in 1440p schon gut manchmal sehr gut aus und 4k reicht dicke:tongue:

robbitop
2018-08-14, 15:11:19
30-50% halte ich eben für zu wenig. Gerade mit Blick darauf wofür NV die Fläche ver(sch)wendet hat und was möglich wäre, wenn man die Fläche traditionell genutzt hätte. Ich habe nichts gegen neue Features aber imo hätte man sich diese Features sparen können bis zur 7nm Gen, wenn wieder Platz genug auf dem DIE ist. Aktuell braucht man diese Einheiten halt 0.

Aktuell pfeifft die 1080TI mal massiv aus letzten Loch unter VR und es müssten Karten her die doppelt so schnell sind, bei selbem Featureset.
Und wenn NV schon neue Features bringt wäre mir aktuell die Möglichkeit lieber MGPU unter VR nutzen zu können. Das könnte man quasi sofort nutzen und nicht erst in 5 Jahren mit eh einer anderen Karte im Rechner :biggrin:

Wir sollen für einen knapp 700mm² DIE zahlen von dem nur ca. 350mm² für uns Gamer verwertbar sind, wenn ich das richtig verstehe? Das ist quasi doppelt falsch. 1. falsch Belegung von Chipfläche 2. für diese unnützen Transis auch noch extra zahlen :freak:

Von daher sehe ich hier nicht tolles. Erinnert mich schon fast an eine Vorstellung des Konkurrenz. Ich hätte hier wesentlich mehr erwartet aufgrund der Vorabinfos und NVs Ruf und bisheriger Produktpalette.

Für mich der schlechteste NV "Release" seit dem Fön Desaster :freak:
Nicht übertreiben. Das Schaubild ist PR Kram. Der Vollausbau von GT102 ist wahrscheinlich 5120 SP, wovon 46xx zugänglich sind. GP102 hat 3840.
Hochgerechnet inkl 5 % Dichtevorteil von 12 nm wären ~ 600 sqmm. Es sind also nur ~120 sqmm "verschwendet".
Wobei wir noch nicht wissen, wie viel von den 120 sqmm auch etwas für die generelle Performance etwas bringt (FP16 double speed, verbessertes AC?, mehr perf/rohleistung, mehr maximaler Takt etc).
Am Ende tippe ich auf vieleicht noch ~20-25% "Verschwendung" :D
(wobei ich das nicht als Verschwendung sehe).

Ohne Tensor Cores etc hätte NV auch IMO niemals eine 7xx sqmm GPU gebracht, sondern eine 6xx sqmm GPU - wahrscheinlich auch nicht mit mehr SPs. Insofern bekommt man gleiche Leistung aber mit etwas höheren Kosten (die size).

Screemer
2018-08-14, 15:16:12
Von Futuremark: https://benchmarks.ul.com/news/watch-our-new-directx-raytracing-tech-demo
was sie können ist graphics. von animation haben sie aber scheinbar echt keine ahung und die assets sind auch teilweise echt gruselig. was mir direkt ins auge sprang ist, dass der schatten des chars teilweise extrem schlecht ist. es sieht aus als würder der char über dem boden schweben. fällt vor allem in der renn-szene massiv auf. da gibt's abstimmungsprobleme zwischen schatten und reflektion.

deekey777
2018-08-14, 15:18:38
Mir fällt der uralte Spruch ein: Alphablending ist ein Hack.

gravitationsfeld
2018-08-14, 15:24:24
Das die Implementierung eben eine passende AS baut, von der die Applikation nichts genaues wissen muss. Ähnlich wie wir heute kaum an die Details des eigentlichen Speicherlayouts von Texturen kommen.
Da gibt's mehrere Gruende warum das opak ist.

Bevor du damit ankommst: Standard-Swizzle bei Texturen ist genauso Muell.

Korvaun
2018-08-14, 15:31:50
Ich hab auch gleich an Ambient Occlusion gedacht. Mit Raytracing wird das ja ziemliich trivial und man kommt endlich von den hässlichen und falschen Screen-Space Approximationen weg.

https://www.youtube.com/watch?v=yag6e2Npw4M

Wenn das so großflächig umgesetzt werden kann in allen Spielen mit ner normalen 2080 dann wäre das allein schon die neue Karte wert... die Verbesserung ist echter Wahnsinn :)

Rancor
2018-08-14, 15:38:25
was sie können ist graphics. von animation haben sie aber scheinbar echt keine ahung und die assets sind auch teilweise echt gruselig. was mir direkt ins auge sprang ist, dass der schatten des chars teilweise extrem schlecht ist. es sieht aus als würder der char über dem boden schweben. fällt vor allem in der renn-szene massiv auf. da gibt's abstimmungsprobleme zwischen schatten und reflektion.

Haben wir unterschiedliche Videos gesehen? Das ist ganz klar Referenz in Licht/Schatten und Echtzeitreflexionen..

gravitationsfeld
2018-08-14, 15:39:13
Wenn das so großflächig umgesetzt werden kann in allen Spielen mit ner normalen 2080 dann wäre das allein schon die neue Karte wert... die Verbesserung ist echter Wahnsinn :)
Bitte beachten, dass das mit Texturen und Shading oben drauf lange nicht so auffaellt.

Chris Lux
2018-08-14, 15:39:43
Da gibt's mehrere Gruende warum das opak ist.

Bevor du damit ankommst: Standard-Swizzle bei Texturen ist genauso Muell.
Die Gründe kenne ich (vielleicht habe ich opak und transparent verwechselt - war eine kurze Nacht ;)). Darum ging es eigentlich auch gar nicht. Mir geht es nur darum, dass man bei DXR und ggf. Vulkan eben eine parallele Pipeline etabliert, welche IMHO nicht nötig gewesen wäre. Low-level RT Primitiven für den generellen Einsatz im Shader hätten ggf. gereicht und die Pipeline inkl. den Ray Scheduling hätte eine externe Lib gern übernehmen können (schlanke API undso...).

PHuV
2018-08-14, 15:39:55
NVIDIA GeForce RTX 2080 ‘Turing GPU’ Ashes of the Singularity Benchmarks Leak out (https://wccftech.com/nvidia-geforce-rtx-2080-benchmarks/)
Lastly, its the simple fact that while it is very easy to fake names, it is almost impossible to fake the score – which is one of the highest (if not the highest) we have seen in the Crazy 4k and 5k setting. The benchmark session shown here actually outperforms a TITAN V – which is an absolutely mammoth GPU and should by all logic remain un challenged by anything other than a Turing. You can tell that this is a single GPU setup because of the fact that the benchmark states so. All in all, I am fairly certain that these benchmarks are either of the Quadro family or the GeForce RTX 2080.
https://cdn.wccftech.com/wp-content/uploads/2018/08/NVIDIA-GeForce-RTX-2080-AotS-Benchmarks-2.png

MiamiNice
2018-08-14, 15:45:40
Wann wäre für Dich den überhaupt ein "richtiger" Zeitpunkt, um neue Features einzuführen?

Kommt wohl auf das Feature an. Ein Feature welches rund 50% an DIE Fläche frisst wohl am besten beim Wechsel der Fertigungstechnologie :biggrin:

JaniC
2018-08-14, 15:48:02
Die Ashes Bechmarks von wccftech hatten wir schon vor 5 Seiten (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11768646#post11768646)...

Sieht aber ganz ok aus, auch wenn das immer ein sehr CPU lastiger Bench ist. Aber ist ja 4k Crazy Preset hier, also passt schon.

Titan V Peformance für 800€ ist gekauft, denke ich.

Dural
2018-08-14, 15:49:42
Könnt ihr euch noch an den Satz erinnern:
"Wir werden ihnen den Hintern versohlen“

Ich glaube das war im 2008, NV liefert jetzt gewaltig ab und was hat Intel? Genau nichts :freak::freak::freak:

pixeljetstream
2018-08-14, 15:50:49
@MiamiNice, Das ist doch bullshit mit der vielen Fläche. Es stecken doch auch andere Umbauten von Volta drin.

Consumer Pascal war cash cow weil primär shrink/internes Aufräumen. Ergo ist es imo klüger nicht viele neue Features + shrink zu kombinieren.

gravitationsfeld
2018-08-14, 15:56:54
Die Gründe kenne ich (vielleicht habe ich opak und transparent verwechselt - war eine kurze Nacht ;)). Darum ging es eigentlich auch gar nicht. Mir geht es nur darum, dass man bei DXR und ggf. Vulkan eben eine parallele Pipeline etabliert, welche IMHO nicht nötig gewesen wäre. Low-level RT Primitiven für den generellen Einsatz im Shader hätten ggf. gereicht und die Pipeline inkl. den Ray Scheduling hätte eine externe Lib gern übernehmen können (schlanke API undso...).
Ich habe keine Ahnung wovon du redest. Das Ray-Scheduling ist bei Turing in Hardware. Deshalb ist es schnell.

Meiner Meinung nach ist der grosse Grund, warum es einen Ray-Gen-Shader gibt und nicht einfach ein CS verwendet wird dass die Hardware die Rays beliebig sortieren kann. Das waere auch bei Rays von anderen Stages ein Problem.

Vermutung: Turing buffert grosse Mengen an Rays und Payloads in L2, sortiert sie dann nach Kohaerenz und macht dann erst neue Warps.

Troyan
2018-08-14, 15:59:10
@MiamiNice, Das ist doch bullshit mit der vielen Fläche. Es stecken doch auch andere Umbauten von Volta drin.

Consumer Pascal war cash cow weil primär shrink/internes Aufräumen. Ergo ist es imo klüger nicht viele neue Features + shrink zu kombinieren.

So, selber Aufbau wie GP100/GV100? :D

Der_Korken
2018-08-14, 16:05:00
Was macht Ray Tracing: Du willst für einen Strahl für ein Sample/Pixel den nächsten Schnitt mit einem typischerweise Dreieck bestimmen. Dazu willst du nicht jedes Dreieck der Szene testen, wofür sogenannte hierarchische Beschleunigungsstrukturen genutzt werden.

Teile davon wird die Hardware nun direkt beherrschen ohne über die ALUs gehen zu müssen.

Ok, das klingt einleuchtend. Aber sind die Raytracing-Algorithmen so weit standardisiert bzw. ausoptimiert, dass man Teile in HW auslagern kann? Allein effiziente Datenstrukturen sind eine Wissenschaft für sich. Die HW soll ja auch in Jahren noch nutzbar sein.

N0Thing
2018-08-14, 16:05:25
Kommt wohl auf das Feature an. Ein Feature welches rund 50% an DIE Fläche frisst wohl am besten beim Wechsel der Fertigungstechnologie :biggrin:

Das mit den 50% extra Fläche habe ich zu Beginn etwas überspitzt in den Raum geworfen, aber inzwischen haben ja alle mit Ahnung schon geschrieben, dass dies Quatsch ist und der Anteil im Prinzip viel geringer ausfällt.

Was für mich etwas untergegangen ist, ist die Äußerung von Chris Lux, dass die Einheiten stärker (untrennbar?) miteinander verbunden sind, als man vielleicht denkt:

Das ist Quatsch. Man kann sich das nicht so einfach vorstellen wie "Der Teil ist RTcore, der Teil ist Tensor Cores." Mehr kann ich da leider nicht verraten (vielleicht kommt ja noch ein White Paper zur Arch).

gravitationsfeld
2018-08-14, 16:14:08
Meine Einschaetzung ist dass es <10% sind. Tensor-Cores sind sowieso FP16-Multiplier und 32-Bit-Adder. Das ist winzig. Sehr wahrscheinlich kleiner als eine normale ALU.

Chris Lux
2018-08-14, 16:18:38
Allein effiziente Datenstrukturen sind eine Wissenschaft für sich. Die HW soll ja auch in Jahren noch nutzbar sein.
Da hast du Recht.

Kartenlehrling
2018-08-14, 16:18:38
https://www.computerbase.de/2018-08/samsung-gddr6-nvidia-quadro-rtx/
GDDR6: Samsung stellt den Speicher der Nvidia Quadro RTX vor

Troyan
2018-08-14, 16:20:13
Viel weniger. GV100 hat 40% mehr Einheiten bei einem 33% größeren Die gegenüber GP100. Die TensorCores sind flächenmäßig vollkommen irrelevant.

MadPenguin
2018-08-14, 16:21:25
AMD hat bisher keine Karten mit Hardware-Raytracing.

Doch :)
http://ir.amd.com/news-releases/news-release-details/amd-introduces-radeontm-pro-wx-8200-siggraph-2018-delivers

Hmm, bin mir nur nicht sicher ob hardwarebeschleunigt :)

Chris Lux
2018-08-14, 16:22:22
Was für mich etwas untergegangen ist, ist die Äußerung von Chris Lux, dass die Einheiten stärker (untrennbar?) miteinander verbunden sind, als man vielleicht denkt:
Hier noch einmal das Volta White Paper [1]. Dann wird meine Aussage vielleicht klarer. Die GPU ist Blockweise aufgebaut (GPC -> SM -> TPC)...

[1] http://images.nvidia.com/content/volta-architecture/pdf/volta-architecture-whitepaper.pdf

MiamiNice
2018-08-14, 16:22:26
Meine Einschaetzung ist dass es <10% sind. Tensor-Cores sind sowieso FP16-Multiplier und 32-Bit-Adder. Das ist winzig. Sehr wahrscheinlich kleiner als eine normale ALU.

Der Chip ist weit mehr als 10% größer als der direkte Vorgänger. Wohin verschwindet der Rest an Chipfläche? RT?

N0Thing
2018-08-14, 16:23:14
@Troyan / @ gravitationsfeld

Und für die RT Cores gilt das Gleiche?

gravitationsfeld
2018-08-14, 16:24:52
Doch :)
http://ir.amd.com/news-releases/news-release-details/amd-introduces-radeontm-pro-wx-8200-siggraph-2018-delivers

Hmm, bin mir nur nicht sicher ob hardwarebeschleunigt :)
Ist es nicht.

Der Chip ist weit mehr als 10% größer als der direkte Vorgänger. Wohin verschwindet der Rest an Chipfläche? RT?
Mehr ALUs? Ist das jetzt ernst gemeint?

Tesseract
2018-08-14, 16:25:58
Doch :)
http://ir.amd.com/news-releases/news-release-details/amd-introduces-radeontm-pro-wx-8200-siggraph-2018-delivers

Hmm, bin mir nur nicht sicher ob hardwarebeschleunigt :)

natürlich nicht, das ist ein vega10.

Chris Lux
2018-08-14, 16:29:16
Ich habe keine Ahnung wovon du redest. Das Ray-Scheduling ist bei Turing in Hardware. Deshalb ist es schnell.

Meiner Meinung nach ist der grosse Grund, warum es einen Ray-Gen-Shader gibt und nicht einfach ein CS verwendet wird dass die Hardware die Rays beliebig sortieren kann. Das waere auch bei Rays von anderen Stages ein Problem.

Vermutung: Turing buffert grosse Mengen an Rays und Payloads in L2, sortiert sie dann nach Kohaerenz und macht dann erst neue Warps.
Wir warten auf das Arch White Paper bevor wir an der Stelle weiter machen. ;)

dildo4u
2018-08-14, 16:30:17
Das ganze könnte auch erklären das Navi vermutlich erstmal nur die 580 ersetzt,ein Teil der Die Space geht für Raytracing drauf.
Wäre jedenfalls für alle besser wenn die 2020 Konsolen RT können,ich denke Sony wird dort druck auf AMD machen.

Mancko
2018-08-14, 16:30:25
Kommt wohl auf das Feature an. Ein Feature welches rund 50% an DIE Fläche frisst wohl am besten beim Wechsel der Fertigungstechnologie :biggrin:

1)
Dazu müsstest Du wenn Du mit dem Design einer GPU oder GPU Architektur beginnst genau wissen welche Fertigung zum Releasezeitpunkt verfügbar ist. Dazu gibt es aber, genauso wie für die GPU Entwicklungszeit, nur Projektionen. Sprich wenn der Zielprozess nicht verfügbar ist, dann ist er nicht verfügbar und dann wird eben mit dem nächst besseren Prozess sofern vertretbar gelauncht.

2) Architekturkomplexität und Prozesskomplexität bei großen GPUs möchte man natürlich vermeiden. Sprich im Idealfall krempelt man auf erprobten Gelände die Architektur um, zumindest bei den fetten Schlachtschiffen, und hebt dann die Kosteneffizienz mit einem separaten Shrink. Beides zusammen geht auch gern mal in die Hose(siehe NV30). Kann auch Funktionieren aber ist erheblich riskanter und aktuell ist eben 7nm dafür nicht verfügbar. Also kannst Du jetzt nicht Nvidia vorwerfen sie sollen alles rausnehmen weil 7nm nicht da ist. So funktioniert das Spiel nicht und auch Du als Consumer musst zukünftige Entwicklungen bei aktuellen Produkten mitbezahlen. So sieht es halt einfach mal aus.

Bösewicht
2018-08-14, 16:32:19
Doch :)
http://ir.amd.com/news-releases/news-release-details/amd-introduces-radeontm-pro-wx-8200-siggraph-2018-delivers

Hmm, bin mir nur nicht sicher ob hardwarebeschleunigt :)
alleine der satz schnellste karte unter 1k wuerde mich schon stutzig machen

horn 12
2018-08-14, 16:37:10
@ Format C
@ Igor

Wo bleibst denn heute, kann und wird uns NV als Gamer noch überraschen können ?

Troyan
2018-08-14, 16:37:35
Das ganze könnte auch erklären das Navi vermutlich erstmal nur die 580 ersetzt,ein Teil der Die Space geht für Raytracing drauf.
Wäre jedenfalls für alle besser wenn die 2020 Konsolen RT können,ich denke Sony wird dort druck auf AMD machen.

Die Wahrscheinlichkeit ist gering, dass AMDs nächste Generation ebenfalls über einen Raytracing-Block verfügen wird.

Es steht ja noch nicht mal fest, ob Vega@7nm TensorCores hat...

aufkrawall
2018-08-14, 16:38:25
Die Wahrscheinlichkeit ist gering, dass AMDs nächste Generation ebenfalls über einen Raytracing-Block verfügen wird.

Weil?

dildo4u
2018-08-14, 16:39:58
alleine der satz schnellste karte unter 1k wuerde mich schon stutzig machen
Schnellste Workstation Karte unter 1k kommt schon hin die GTX 1080 als P5000 kostet über 1.5k,die P4000 hat nur 1792 Shader.(Weniger als GTX 1070)

Bucklew
2018-08-14, 16:42:02
Ein Feature welches rund 50% an DIE Fläche frisst:

Tut es nicht :rolleyes:

Bin gespannt, wie AMD den Schritt kontern möchte. Einfach nur mit der Brechstange mehr FPS ist da definitiv zu wenig.

Screemer
2018-08-14, 16:42:45
Haben wir unterschiedliche Videos gesehen? Das ist ganz klar Referenz in Licht/Schatten und Echtzeitreflexionen..
hast du gelesen was ich geschrieben habe? ich mach gleich mal ein paar screenshots und wenn dir nicht auffällt wie beschissen der char animiert ist, dann kann ich dir nicht helfen.

Troyan
2018-08-14, 16:43:52
Weil?

Aus dem selben Grund wieso Vega gegenüber GV100 keine Chance hat: Zeit.

Wer hätte hier den gedacht, dass Turing bei Raytracing fast 3x schneller als Volta ist? Niemand...

dildo4u
2018-08-14, 16:47:58
AMD hat genau wie Nvidia vermutlich 3-5 Jahre im voraus Zugang zu den kommenden DX12 Specs,das ganze macht Sinn für AMD damit auf 7nm zu warten da sie keine Monster Dies wie NV bauen wollen.

aufkrawall
2018-08-14, 16:48:06
Aus dem selben Grund wieso Vega gegenüber GV100 keine Chance hat: Zeit.

Ist aber auch nur Speku. Bisher war man bei AMD-GPUS mit Tiefstapeln bez. der Erwartungen gut beraten, aber das ist ja kein Naturgesetz.

So lange das nur als sündhaft teure GW-Effekte kommt, interessiert mich das RT im Vergleich zu z.B. FreeSync herzlich wenig.

MiamiNice
2018-08-14, 16:52:00
Mehr ALUs? Ist das jetzt ernst gemeint?

Irgendwie schon. Bei einer groben Hochrechnung der Fläche hat der Chip zu viel mm² wenn nur 10% für Tension Cores draufgehen sollen, imho. Aber ich habe sicher was übersehen bei meiner Rechnung.



Bin gespannt, wie AMD den Schritt kontern möchte. Einfach nur mit der Brechstange mehr FPS ist da definitiv zu wenig.

Ich dachte der Zug ist mittlerweile aus der Halle und wir warten auf Intel damit die demnächst das 2. Zepter schwingen? Können auch nur meine Gedanken sein ...

Troyan
2018-08-14, 16:54:56
AMD hat genau wie Nvidia vermutlich 3-5 Jahre im voraus Zugang zu den kommenden DX12 Specs,das ganze macht Sinn für AMD damit auf 7nm zu warten da sie keine Monster Dies wie NV bauen wollen.

DXR ist experimentell. Das Ding wurde wahrscheinlich innerhalb von ein paar Monaten hochgezogen - auch weil nVidia sich bei deren Optix bedient hat.

Es ist Unsinn einfach so anzunehmen, dass AMD ebenfalls auf dem selben Niveau wäre. Polaris ist technologisch nicht mal auf Maxwell Niveau und der Chip wurde fast 2 Jahre vorher veröffentlicht. Jetzt haben wir Turing mit Extra Raytracing Einheiten und man glaubt nun, dass AMD 9-12 Monate später etwas ähnliches bringen werde...

Bösewicht
2018-08-14, 16:56:01
Schnellste Workstation Karte unter 1k kommt schon hin die GTX 1080 als P5000 kostet über 1.5k,die P4000 hat nur 1792 Shader.(Weniger als GTX 1070)
ich sehe grade das da unten sind ja benches, sah wie gewoehnliches kleingedruckte aus.

na gut allerdings gilt das nur fuer die alten karten da kann auch noch was kommen die moeglichkeiten sollte nvidia ja haben:wink:

Rancor
2018-08-14, 16:56:07
Wäre ich Nvidia, würde ich jeden AAA-Entwickler bis zu get no finanzieren, damit er die RT Technik einsetzt, unabhängig vom Konsolenmarkt.

Nur wenn sie das agressiv auf den Markt bringen, hat es eine Chance sich durchzusetzen.

dargo
2018-08-14, 16:59:14
Polaris ist technologisch nicht mal auf Maxwell Niveau und der Chip wurde fast 2 Jahre vorher veröffentlicht.
Alter... was ist denn mit dir wieder los? :facepalm:

Jetzt haben wir Turing mit Extra Raytracing Einheiten und man glaubt nun, dass AMD 9-12 Monate später etwas ähnliches bringen werde...
Es ist noch nicht mal ein einziges Game mit Raytracing veröffentlicht worden. Aber schön, dass du RT schon so abfeierst. Erst recht wo noch überhaupt keine Daten zu Gaming SKUs bekannt sind und vorallem wie performant RT auf dem wichtigsten Chip GT106 tatsächlich ist.

Rampage 2
2018-08-14, 17:04:42
Nicht übertreiben. Das Schaubild ist PR Kram. Der Vollausbau von GT102 ist wahrscheinlich 5120 SP, wovon 46xx zugänglich sind. GP102 hat 3840.
Hochgerechnet inkl 5 % Dichtevorteil von 12 nm wären ~ 600 sqmm. Es sind also nur ~120 sqmm "verschwendet".
Wobei wir noch nicht wissen, wie viel von den 120 sqmm auch etwas für die generelle Performance etwas bringt (FP16 double speed, verbessertes AC?, mehr perf/rohleistung, mehr maximaler Takt etc).
Am Ende tippe ich auf vieleicht noch ~20-25% "Verschwendung" :D
(wobei ich das nicht als Verschwendung sehe).



zu 1.) Kann man das Schaubild wirklich exakt/proportional auf die Gaming-Turings übertragen? - also bzw. HW-Konfiguration (ROPs, TMUs, SPs, Speichertakt). Bis jetzt gab es bei Nvidia immer deutliche Unterschiede im Chipaufbau zwischen einer Gaming-GPU und dessen HPC-Pendant (z.B. GP102 vs. GP100). Und übrigens muss der GV100-Vollausbau (5376 SPs, 336 TMUs) mehr als 128 ROPs haben, denn was im Schaubild gezeigt wird, ist der Salvage (5120 SPs, 320 TMUs)! Ich tippe auf 144 ROPs für den vollen GV100 (welcher noch gar nicht existiert...).

zu 2.) Der GT102 Vollausbau *kann* nicht 5120 SPs haben, weil diese Zahl nicht durch 1,5 teilbar ist - das vergessen Einige hier immer wieder;)

Der GT102-Full hat entweder 4608, 5376, 5760 oder 6144 SPs (die letzten beiden Varianten kann man fast 100%ig ausschließen;))

zu 3.) bzgl. der IPC: Kann man hier 20% Mehrleistung ggü. Pascal bei gleicher Anzahl an Einheiten und gleichem Takt erwarten? Immerhin war Pascal keine wirklich neue Architektur sondern nur ein optimierter Maxwell und IPC-mäßig keine signifikante Steigerung. D.h. im Umkehrschluss hatte Nvidia seit Ende 2014 Zeit, an der Architektur für Volta/Turing zu feilen (also satte 4 Jahre) - zumal Pascal ja nur ein Zwischenschieber gewesen sein soll, weil Volta nicht rechtzeitig fertig werden würde...

zu 4.) Was kann man zu der Anzahl der ROPs und zur Taktbarkeit von Turing/Volta sagen? Bei Anandtech habe ich gelesen, dass die ROPs mit Bandbreite gefüttert werden müssen - da bei Turing die Bandbreite anscheinend um mindestens 40% steigen soll (14Gbps versus 10Gbps + evtl. nochmals verbesserte DCC) sollte auch der ROP-Throughput um mindestens 40% steigen (eher 50%), ansonsten wäre das Plus an Bandbreite ja sinnlos! Ist es durchaus möglich, dass GT104 gleich 96 ROPs spendiert bekommt (der 102-Pendant dann 144)?

Und wie sieht es mit der Taktbarkeit aus? Wäre eine 10% höhere Taktbarkeit vgl. mit Pascal realistisch? Also 2.3 GHz für GT104 und 2.2 GHz für GT102 - sollte die Zahl der Recheneinheiten wirklich nur um 20% steigen, wäre das eine sinnvolle Annahme...

R2

Bucklew
2018-08-14, 17:05:03
Es ist noch nicht mal ein einziges Game mit Rytracing veröffentlicht worden, aber schön, dass du RT schon so abfeierst.
Immerhin gibt es schon eine API, nicht wie bei anderen Features *hust* Primitive Shaders *hust* ;D

Screemer
2018-08-14, 17:05:28
Aus dem selben Grund wieso Vega gegenüber GV100 keine Chance hat: Zeit.

Wer hätte hier den gedacht, dass Turing bei Raytracing fast 3x schneller als Volta ist? Niemand...
jeder, seit den rtx demos vor monaten...

MadPenguin
2018-08-14, 17:14:43
alleine der satz schnellste karte unter 1k wuerde mich schon stutzig machen

Will hier für keinen einen Pfahl vom Zaun brechen, aber was wir bei Nvidia schon für Sprüche gehört haben....;D

Aber touchè. Hatte geglaubt es wäre hardwaresupportet raytracing. ;)

Loeschzwerg
2018-08-14, 17:24:54
@ Format C
@ Igor

Wo bleibst denn heute, kann und wird uns NV als Gamer noch überraschen können ?

Bin mir nicht sicher ob du da noch eine Antwort bekommen wirst... Die User-Accounts wurden gelöscht.

Troyan
2018-08-14, 17:40:06
Alter... was ist denn mit dir wieder los? :facepalm:

Lmao. Hier mal ein paar Beispiel, was Maxwell v2 kann, was bei Polaris MIA ist:
Tiled Cache Binning, Delta Color Compression (nicht das lächerliche 15% Ding von Tonga), CR, ROV, Tiled Ressource T3, Anbindung des L2 Caches mit den ROPs...

Polaris war ein reiner Shrink von GCN 1.2 mit minimalen Anpassungen. Und bei Release war DX12 und vor Allem die Hardwarefeatures fast zwei Jahre bekannt.


Es ist noch nicht mal ein einziges Game mit Raytracing veröffentlicht worden. Aber schön, dass du RT schon so abfeierst. Erst recht wo noch überhaupt keine Daten zu Gaming SKUs bekannt sind und vorallem wie performant RT auf dem wichtigsten Chip GT106 tatsächlich ist.

Lmao #2. Natürlich gibt es keine Spiele, weil es keine Hardware gibt. Wieviele DX12 Spiele gab es eigentlich im Jahr 2014? :rolleyes:

=Floi=
2018-08-14, 17:46:07
@ Format C
@ Igor

Wo bleibst denn heute, kann und wird uns NV als Gamer noch überraschen können ?


Er hat seine beiden accounts gelöscht. Da musst du schon ins thg forum gehen.


Ich wundere mich über den klopper schon. Die DIE size ist ja krank für ein consumer gerät.
Zum glück samsung speicher.


gibt es etwas zu den giga rays? Wie viel sind 10 giga rays?

EinName
2018-08-14, 17:51:17
Also das war doch bisher alles quasi bekannt. Ich sehe das auch als den Weg in die Zukunft an, aber abseits von 1-2 AAA Spielen wird das in dieser Generation wohl noch kaum interessieren - und dann auch nur mit der Ti halbwegs performant laufen. Für mich kein Grund zu Turing zu greifen, eher eine nette Spielerei.

Warten auf die Performance und Preise (und Freesync support? ;D)...

wolik
2018-08-14, 17:58:39
Igor Wallossek schrieb am 14.08.2018 um 16:53 Uhr
Ich fand das Ganze wirklich beeindruckend, vor allem die Echtzeit-Demos. Neben Unreal arbeiten auch Firmen wie Crytek und andere bereits mit der RTX. Das wird sich bei der Content Creation schneller verbreiten, als man Mops sagen kann. Was dann davon und wann im Endkundenmarkt ankommt, das muss man natürlich sehen. Aber irgendetwas neues muss man schon wagen, sonst krebsen wir in 10 Jahren immer noch mit DX11 rum.

IMXO. Hurra !!! Aber praktisch für Gamer kein nutzen... Es wird keine Spiele geben für 2% Markt. Weisst einer was bringt GPU-GPU Memory Access ? :)

Platos
2018-08-14, 18:02:19
Er hat seine beiden accounts gelöscht. Da musst du schon ins thg forum gehen.




Schon wieder ? :biggrin: Vom 2. Mal habe ich gar nichts mitbekommen.

deekey777
2018-08-14, 18:07:10
...

gibt es etwas zu den giga rays? Wie viel sind 10 giga rays?

Die Frage ist, ob dieser Wert genau so viel Aussagekraft hat wie Pixelfillrate oder Texelfillrate.

Wie viele Strahlen müssen pro Pixel sein?

Ex3cut3r
2018-08-14, 18:07:34
Wenn das in den neunen Konsolen @ 2022 integriert ist, dann sehe ich das schnell und weit verbreitet, ansonsten eher nicht. Ist dann auch die Frage ob, MS und Sony diesmal nicht lieber Nvidia Hardware verbauen wollen? Denke mal AMD muss für die PS5 und XBOX X2 auch so etwas bringen, sonst geht der Zuschlag wohl diesmal an Nvidia.

dargo
2018-08-14, 18:13:50
Genau... für Konsolenhersteller ist bei den APUs alles außer RT-Durchsatz ab heute unwichtig. Oh man... :facepalm:

dildo4u
2018-08-14, 18:15:40
Wenn das in den neunen Konsolen @ 2022 integriert ist, dann sehe ich das schnell und weit verbreitet, ansonsten eher nicht. Ist dann auch die Frage ob, MS und Sony diesmal nicht lieber Nvidia Hardware verbauen wollen? Denke mal AMD muss für die PS5 und XBOX X2 auch so etwas bringen, sonst geht der Zuschlag wohl diesmal an Nvidia.
Sony bereitet schon den Umstieg auf Ryzen vor,die aktuellen Konsolen haben viel zu wenig CPU Power.Diesmal wird nicht alles vom Budget in die GPU gehen.

https://www.phoronix.com/scan.php?page=news_item&px=Sony-LLVM-Ryzen-Improvements

Niemand wird AMD unterbieten was Preise für ne High-End APUs angeht,die Intel + AMD APU für Notebooks ist absurd überteuert.
Und mit ARM hättest du wieder das Problem das PS4 Games nicht nativ laufen.

Platos
2018-08-14, 18:33:07
Glaube auch kaum, dass Sony auf nvidia zurückgreifen wird. Ne Konsole muss nunmal billgi sien. Mit nvidia schwer zu realisieren.

Hübie
2018-08-14, 18:34:32
Hat jemand eigentlich schon mal Zahlen geschubst?

Product Tesla K40 Tesla M40 Tesla P100 Tesla V100 Quadro RTX 8000
GPU GK180 (Kepler) GM200 (Maxwell) GP100 (Pascal) GV100 (Volta) GT102
SMs 15 24 56 80 72
TPCs 15 24 28 40 36
FP32 Cores / SM 192 128 64 64 128
FP32 Cores / GPU 2880 3072 3584 5120 4608
FP64 Cores / SM 64 4 32 32 NA
FP64 Cores / GPU 960 96 1792 2560 NA
Tensor Cores / SM NA NA NA 8 8
Tensor Cores / GPU NA NA NA 640 2304
GPU Boost Clock 810/875 MHz 1114 MHz 1480 MHz 1530 MHz 1736 MHz
Peak FP32 TFLOP/s* 5,04 6,8 10,6 15,7 16,0
Peak FP64 TFLOP/s* 1,68 0,21 5,3 7,8 0,5
Peak Tensor Core TFLOP/s* NA NA NA 125 500
Texture Units 240 192 224 320 288
Memory Interface 384-bit GDDR5 384-bit GDDR5 4096-bit HBM2 4096-bit HBM2 384-bit GDDR6
Memory Size Up to 12 GB Up to 24 GB 16 GB 16 GB Up to 48 GB
L2 Cache Size 1536 KB 3072 KB 4096 KB 6144 KB 6144 KB
Shared Memory Size / SM 16 KB/32 KB/48 KB 96 KB 64 KB Configurable up to 96 KB Configurable up to 96 KB (?)
Register File Size / SM 256 KB 256 KB 256 KB 256KB 256KB (?)
Register File Size / GPU 3840 KB 6144 KB 14336 KB 20480 KB 18432 KB (?)
TDP 235 Watts 250 Watts 300 Watts 300 Watts 250 Watts (?)
Transistors 7,1 billion 8 billion 15,3 billion 21,1 billion 18,6 billion
GPU Die Size 551 mm² 601 mm² 610 mm² 815 mm² 754 mm²
Manufacturing Process 28 nm 28 nm 16 nm FinFET+ 12 nm FFN 12 nm FFN
Trans / mm² 12,89 million 13,31 million 25,08 million 25,89 million 24,67 million


Was verstehen wir denn unter "interoperability between rasterization"? Interoperability ist für mein Verständnis grundlegend die Möglichkeit Daten untereinander auszutauschen. Aber was könnte das sein :redface: Ich muss gerade an AMD denken... Da war doch was :confused:

@Screemer: Stimmt. Imgtech mit PowerVR hatte RT schon im Mobilsektor demonstriert. War glaub ich anno 2017. Hatte ich ganz vergessen.

@Gipsel: Ich finde es ist schon erstaunlich, dass Turing plötzlich die Eier legende Wollmilchsau sein will. Pascal / Volta musste irgendwo noch die Kompromisse suchen (GP102 = hohe INT8 Leistung, GP100 = kein INT8, aber hohe FP16 Leistung). GV100 hat zwar auch schon getrennte Datenpfade für INT/FP, jedoch wiederum weniger TOPs (vermutlich hat Turing höher getaktete TCs) und keine RT-Cores. Turing verschmilzt alles miteinander.

Ex3cut3r
2018-08-14, 18:36:02
Glaube auch kaum, dass Sony auf nvidia zurückgreifen wird. Ne Konsole muss nunmal billgi sien. Mit nvidia schwer zu realisieren.

Man könnte doch mit dem Preis entgegen kommen? Wenn Nvidia AMD endgültig den Todeschoß geben will, dann kämpfen sie um den Konsolen Zuschlag!

Und für die "Nex Gen" Konsolen muss eigentlich Raytracing drin sein, einfach nur wegen dem Marketing.

Cubitus
2018-08-14, 18:38:32
Igor Wallossek schrieb am 14.08.2018 um 16:53 Uhr
Ich fand das Ganze wirklich beeindruckend, vor allem die Echtzeit-Demos. Neben Unreal arbeiten auch Firmen wie Crytek und andere bereits mit der RTX. Das wird sich bei der Content Creation schneller verbreiten, als man Mops sagen kann. Was dann davon und wann im Endkundenmarkt ankommt, das muss man natürlich sehen. Aber irgendetwas neues muss man schon wagen, sonst krebsen wir in 10 Jahren immer noch mit DX11 rum.

IMXO. Hurra !!! Aber Praktisch, für Gamer kein nutzen... Es wird keine Spiele geben für 2% Markt. Weisst einer was bringt GPU-GPU Memory Access ? :)

Wäre interessant zu wissen ob allg in den aktuellen Engines nur auf Nvidia angepasst wird?
Also ein Teil des Gameworks-Gesamtpaket welches eben Raytracing in eines von den bekannten Gameworks Techniken verwebt.

Da würde AMD vorerst in die Röhre schauen, und die Technik wäre zu proprietär um sich schnellstens zu verbreiten..

Troyan
2018-08-14, 18:40:15
Glaube auch kaum, dass Sony auf nvidia zurückgreifen wird. Ne Konsole muss nunmal billgi sien. Mit nvidia schwer zu realisieren.

Naja, Publisher haben auch eine Macht. Und wenn die sehen, dass (Hybrid-) Raytracing schneller als erwartet kommt, wird man auf Sony und Microsoft ziemlichen Druck ausüben. Immerhin haben die die meisten Mehrkosten für die AAA Spiele.

w0mbat
2018-08-14, 18:41:37
Raytracing wird mit sehr hoher Wahrscheinlichkeit innerhalb der nächsten 5 Jahre überhaupt keine Rolle spielen. Kommt mal runter, noch gibt es gar nichts.

prinz_valium
2018-08-14, 18:48:00
Aus dem selben Grund wieso Vega gegenüber GV100 keine Chance hat: Zeit.

Wer hätte hier den gedacht, dass Turing bei Raytracing fast 3x schneller als Volta ist? Niemand...

Weil niemand dachte, es wird spezielle Hardware dafür verbaut.
Wäre das der Fall, hätten viele 3 mal mehr Raytracing Leistung erwartet, oder sogar mehr ;)

Es ist ja nicht so, als ob es solche Sachen nicht schon früher gab.
z.B mit Tessllation oder PhysX

Platos
2018-08-14, 18:49:15
An sinkende Preise seitens nvidia kann ich nicht glauben, zumindest nicht in die Tiefe, wie sie von AMD zu haben sind.

Und Marketing... naja, wer weiss schon was das ist? Also ist ja jetzt nicht so, dass die Konsolennutzer gestern alle den Stream geschaut haben. Denen entgeht somit eig. gar nichts. Aber bei einer Veröffentlichung von 2021 wird es vermutlich schon längst 7nm+ GPUs bei AMD geben. Also mal sehen, ob AMD nicht einfach selbst was bringt.

Ist ja nicht so, dass AMD ganz still steht.

x-force
2018-08-14, 18:54:47
Man könnte doch mit dem Preis entgegen kommen? Wenn Nvidia AMD endgültig den Todeschoß geben will, dann kämpfen sie um den Konsolen Zuschlag!

dann stehen sie vor dem gleichen problem wie intel: monopol

N0Thing
2018-08-14, 18:55:26
Immerhin gibt es schon eine API, nicht wie bei anderen Features *hust* Primitive Shaders *hust* ;D

Auf einmal wird DX12 willkommen geheißen. ;D

Platos
2018-08-14, 18:55:40
dann stehen sie vor dem gleichen problem wie intel: monopol

Problem ? Nicht aus sicht von Intel bzw. nvidia

dargo
2018-08-14, 19:01:56
Auf einmal wird DX12 willkommen geheißen. ;D
Das war doch von Anfang an klar oder? Sobald Nvidia die API braucht ist es wichtig. ;)

Ex3cut3r
2018-08-14, 19:02:53
dann stehen sie vor dem gleichen problem wie intel: monopol
Jap schlecht für uns, gut für Nvida, Cash Cash. :redface:

x-force
2018-08-14, 19:06:01
ich glaube nicht, daß die das so auf die leichte schulter nehmen, im schlimmsten fall droht die zerschlagung des unternehmens in den usa

dildo4u
2018-08-14, 19:09:07
Raytracing wird mit sehr hoher Wahrscheinlichkeit innerhalb der nächsten 5 Jahre überhaupt keine Rolle spielen. Kommt mal runter, noch gibt es gar nichts.
Das ganze wurde schon mit Metro gezeigt vermutlich auf Volta welche bei RT deutlich langsamer als RTX ist.

GI per Raytracing.

https://farm2.staticflickr.com/1836/43314868774_c6f0a6f4ca_o.png (https://flic.kr/p/28ZA2qj)raytaring (https://flic.kr/p/28ZA2qj) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://youtu.be/D3sTpugNmrk?t=50s

crux2005
2018-08-14, 19:11:19
Das ganze wurde schon mit Metro gezeigt vermutlich auf Volta welche deutlich langsamer als RTX ist.

https://youtu.be/D3sTpugNmrk?t=50s

Deswegen wurde das Spiel auch nach 2019 verschoben.

dildo4u
2018-08-14, 19:13:08
Kann sein oder es macht kein Sinn das Game gegen Call of Duty und Battlefield zu bringen,das verkauft sich deutlich besser wenn es weniger Konkurrenz hat z.b Sommer 2019.

crux2005
2018-08-14, 19:14:53
Das auch.

RTX wird schon in Spielen in 2019 benutzt. Und ich glaube nicht das Metro das einzige Spiel sein wird.
Die Frage ist wie viele Dedizierte Einheiten es dafür in GPUs braucht.

Troyan
2018-08-14, 19:16:55
Futuremark will zum Ende des Jahres einen neuen 3DMark mit DXR bringen. Sollte das geschehen, hat nVidia doch schon gewonnen.

Ex3cut3r
2018-08-14, 19:18:25
Klar. Nvidia muss halt einfach nur etwas Geld reinpumpen, und den Entwicklern beistehen, dann kann mir das schon in einigen Gameworks Titeln @ 2019 vorstellen. Die Frage ist nur, wie läufts dann noch? Fällts total in den Keller @ 30 FPS oder ist es einigermaßen flott?

Screemer
2018-08-14, 19:18:59
Die Frage ist, ob dieser Wert genau so viel Aussagekraft hat wie Pixelfillrate oder Texelfillrate.

Wie viele Strahlen müssen pro Pixel sein?
Die Demos in nem Video weiter vorne waren es zwei 2 Rays pro Pixel für ao. Der Rest kam vom denoiser. yag6e2Npw4M


@Screemer: Stimmt. Imgtech mit PowerVR hatte RT schon im Mobilsektor demonstriert. War glaub ich anno 2017. Hatte ich ganz vergessen.

War auf der siggraph 2016 als hybrid lauffähig. Bist aber in guter Gesellschaft beim vergessen, wenn ich mir so anschaue wie rtx als Neuerung gefeiert wird ;) mach dir also nix draus.

dargo
2018-08-14, 19:22:48
Futuremark will zum Ende des Jahres einen neuen 3DMark mit DXR bringen. Sollte das geschehen, hat nVidia doch schon gewonnen.
Weil auch jeder Gamer den 3DMark spielt. :ulol:

crux2005
2018-08-14, 19:24:35
Klar. Nvidia muss halt einfach nur etwas Geld reinpumpen, und den Entwicklern beistehen, dann kann mir das schon in einigen Gameworks Titeln @ 2019 vorstellen. Die Frage ist nur, wie läufts dann noch? Fällts total in den Keller @ 30 FPS oder ist es einigermaßen flott?

IMHO wird Titan V Leistung (samt Tensor Cores) gebraucht um das mit RTX flüssig (>60 FPS) darzustelle. Also definitiv im Rahmen für eine RTX 2080.

Brillus
2018-08-14, 19:26:47
Wenn das in den neunen Konsolen @ 2022 integriert ist, dann sehe ich das schnell und weit verbreitet, ansonsten eher nicht. Ist dann auch die Frage ob, MS und Sony diesmal nicht lieber Nvidia Hardware verbauen wollen? Denke mal AMD muss für die PS5 und XBOX X2 auch so etwas bringen, sonst geht der Zuschlag wohl diesmal an Nvidia.

NV ist ziemlich sicher bei den Konsolen drausen, weil keine CPU. Höchstens Intel geb ich da eine Chance sollte es dismal mit ihrer GPU klappen.

MiamiNice
2018-08-14, 19:28:18
Das ganze wurde schon mit Metro gezeigt vermutlich auf Volta welche bei RT deutlich langsamer als RTX ist.

GI per Raytracing.

https://farm2.staticflickr.com/1836/43314868774_c6f0a6f4ca_o.png (https://flic.kr/p/28ZA2qj)raytaring (https://flic.kr/p/28ZA2qj) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://youtu.be/D3sTpugNmrk?t=50s

Schon schick.

Wann kommt die RTX2080TI? N

Screemer
2018-08-14, 19:29:19
IMHO wird Titan V Leistung (samt Tensor Cores) gebraucht um das mit RTX flüssig (>60 FPS) darzustelle. Also definitiv im Rahmen für eine RTX 2080.
Irgendwo habe ich gelesen, dass wenn man alles was lighting (ao, reflections, refraction, ect.) mit rt erledigt, die 6grays der 5000er gerade so ausreichen für 16,667ms aka 60fps in fhd. kA ob's stimmt.

Troyan
2018-08-14, 19:31:11
NV ist ziemlich sicher bei den Konsolen drausen, weil keine CPU. Höchstens Intel geb ich da eine Chance sollte es dismal mit ihrer GPU klappen.

Keine CPU? Wolfenstein 2 läuft auch auf der Switch. ARM ist vollkommen ausreichend.

Brillus
2018-08-14, 19:33:06
Naja, Publisher haben auch eine Macht. Und wenn die sehen, dass (Hybrid-) Raytracing schneller als erwartet kommt, wird man auf Sony und Microsoft ziemlichen Druck ausüben. Immerhin haben die die meisten Mehrkosten für die AAA Spiele.

Du vergisst, das die Konsolen die Mehrheit des Spielemarktes ausmachen. Wenn die Konsolen es nicht können wird es halt nicht genutzt. Könnte sogar wenn es ganz blöd für NV geht so lasufen das AMD eine nicht kompatible Raytracing Variante einbaut und dann auf dem PC nur auf AMD läuft.

dargo
2018-08-14, 19:38:08
Keine CPU? Wolfenstein 2 läuft auch auf der Switch. ARM ist vollkommen ausreichend.
Genau... deswegen bereitet sich Sony auf Ryzen vor. Was hier wieder abgeht ist kaum mehr auszuhalten.

Irgendwo habe ich gelesen, dass wenn man alles was lighting (ao, reflections, refraction, ect.) mit rt erledigt, die 6grays der 5000er gerade so ausreichen für 16,667ms aka 60fps in fhd. kA ob's stimmt.
Lol... wenn das stimmt. ;D

BlacKi
2018-08-14, 19:40:54
Wann kommt die RTX2080TI?
erst wenn genug leute die rtx titan gekauft haben mit 24gb.

prinz_valium
2018-08-14, 19:41:18
Wenn das in den neunen Konsolen @ 2022 integriert ist, dann sehe ich das schnell und weit verbreitet, ansonsten eher nicht. Ist dann auch die Frage ob, MS und Sony diesmal nicht lieber Nvidia Hardware verbauen wollen? Denke mal AMD muss für die PS5 und XBOX X2 auch so etwas bringen, sonst geht der Zuschlag wohl diesmal an Nvidia.

Die neuen Konsolendeals sind schon lange fix.
Das hier ist also höchstens Relevant für die Generation nach Ps5 und next Xbox

Troyan
2018-08-14, 19:41:41
Genau... deswegen bereitet sich Sony auf Ryzen vor. Was hier wieder abgeht ist kaum mehr auszuhalten.


Schön für Sony. Ist die Konsole vor dem Erscheinen technisch veraltet. Damit haben sie ja mit der Pro schon Erfahrung gesammelt.

mczak
2018-08-14, 19:43:50
Hat jemand eigentlich schon mal Zahlen geschubst?

Product Tesla K40 Tesla M40 Tesla P100 Tesla V100 Quadro RTX 8000
GPU GK180 (Kepler) GM200 (Maxwell) GP100 (Pascal) GV100 (Volta) GT102
SMs 15 24 56 80 72
TPCs 15 24 28 40 36
FP32 Cores / SM 192 128 64 64 128
FP32 Cores / GPU 2880 3072 3584 5120 4608
FP64 Cores / SM 64 4 32 32 NA
FP64 Cores / GPU 960 96 1792 2560 NA
Tensor Cores / SM NA NA NA 8 8
Tensor Cores / GPU NA NA NA 640 2304
GPU Boost Clock 810/875 MHz 1114 MHz 1480 MHz 1530 MHz 1736 MHz
Peak FP32 TFLOP/s* 5,04 6,8 10,6 15,7 16,0
Peak FP64 TFLOP/s* 1,68 0,21 5,3 7,8 0,5
Peak Tensor Core TFLOP/s* NA NA NA 125 500

Die TPCs (und FP32 Cores / SM) passen nicht zu den Reg File Size / GPU. Entweder hat Turing denselben Aufbau wie die Pro-Pascal / Volta (dann stimmen die Anzahl TPCs bzw. Cores / SM nicht) oder wie Consumer-Pascal (dann ist das Reg-File nur halb so gross).
Auch hat der Chip "nur" 576 Tensor Cores pro GPU, und auch nur ~125 TFlops/s - sonst macht das in der Tabelle so im Vergleich keinen Sinn. Die vierfache Zahl ist doch einfach packed 4bit Arithmetik. Ausserdem, wenn du schon Peak FP64 TFlops angibst kann du genausogut auch die Anzahl der Einheiten angeben - ist beides schliesslich die gleiche Vermutung...

dildo4u
2018-08-14, 19:44:29
Schön für Sony. Ist die Konsole vor dem Erscheinen technisch veraltet. Damit haben sie ja mit der Pro schon Erfahrung gesammelt.
Es gibt Null Infos zu Navi und auch nicht wie Ryzen in 7nm performt.

Brillus
2018-08-14, 19:49:07
Keine CPU? Wolfenstein 2 läuft auch auf der Switch. ARM ist vollkommen ausreichend.

Was wohl er zeigt wie wenig CPU-Leistung das Spiel braucht.

Screemer
2018-08-14, 19:51:38
Lol... wenn das stimmt. ;D
Wie gesagt hab ich keine Ahnung ob das stimmt. Da kann Gravitationsfeld oder andere Pros sicher mehr dazu sagen. Vielleicht ist die Einschätzung auch völlig daneben. Dazu kommt ja auch noch, dass man ja nicht für alles er nutzen muss. Man kann ja Teile weiterhin rastern.

aufkrawall
2018-08-14, 19:53:20
Schön für Sony. Ist die Konsole vor dem Erscheinen technisch veraltet. Damit haben sie ja mit der Pro schon Erfahrung gesammelt.
Nach der Geldmenge, die dadurch reinkam, offenbar ziemlich gute.

Hübie
2018-08-14, 19:53:24
Die TPCs (und FP32 Cores / SM) passen nicht zu den Reg File Size / GPU. Entweder hat Turing denselben Aufbau wie die Pro-Pascal / Volta (dann stimmen die Anzahl TPCs bzw. Cores / SM nicht) oder wie Consumer-Pascal (dann ist das Reg-File nur halb so gross).
Auch hat der Chip "nur" 576 Tensor Cores pro GPU, und auch nur ~125 TFlops/s - sonst macht das in der Tabelle so im Vergleich keinen Sinn. Die vierfache Zahl ist doch einfach packed 4bit Arithmetik. Ausserdem, wenn du schon Peak FP64 TFlops angibst kann du genausogut auch die Anzahl der Einheiten angeben - ist beides schliesslich die gleiche Vermutung...

Bei FP64 bin ich nicht sicher ob die dediziert sind / sein müssen. Das ist eine vorläufige Tabelle. Ich ändere das noch ab, aber muss jetzt ins Bett. Letzte Nacht bekam ich dank des späten Streams deutlich zu wenig Schlaf. :freak:

Wo die 500 TOPs her kamen war mir auch nicht ganz klar, wo doch GV100 mit 120 angegeben ist. Nun ist mir ein Lichtlein aufgegangen. ;) Danke.

@Screemer: Na ja ich erinnere mich nur an ein Video was ca. 15 Minuten lang war und einen Blog Eintrag. Danach kam auch nix mehr über RT. Deshalb glatt vergessen wobei ich schon stutzig war als er die Worte "first Raytracing GPU" in den Mund nahm. Mir kam dann aber echt nur Larabee plus Derivate in den Sinn. :redface:

dargo
2018-08-14, 20:02:06
Schön für Sony. Ist die Konsole vor dem Erscheinen technisch veraltet. Damit haben sie ja mit der Pro schon Erfahrung gesammelt.
Du kennst schon alle technischen Details einer PS5 und dem Nachfolger der XBX? Erzähl uns mehr...

Linmoum
2018-08-14, 20:04:33
Schön für Sony. Ist die Konsole vor dem Erscheinen technisch veraltet. Damit haben sie ja mit der Pro schon Erfahrung gesammelt.
Haben sicherlich Erfahrungen gesammelt. Wie mit dem Blick auf die Verkaufszahlen, der deine ganze Argumentation ad absurdum führt. Aber mach ruhig weiter. Dass selbst 7nm Produkte für dich technisch veraltet wären, sagt alles.

Nvidia kann nicht das bieten, was AMD bieten kann. Dasselbe gilt (noch) für Intel. Fertig. Inwiefern sich das dann auf die Verbreitung von Raytracing auswirkt, wird man sehen.

MikePayne
2018-08-14, 20:04:36
Keine CPU? Wolfenstein 2 läuft auch auf der Switch. ARM ist vollkommen ausreichend.

Schön für Sony. Ist die Konsole vor dem Erscheinen technisch veraltet. Damit haben sie ja mit der Pro schon Erfahrung gesammelt.


Und für die "Nex Gen" Konsolen muss eigentlich Raytracing drin sein, einfach nur wegen dem Marketing.

Das Feature ist viel zu teuer für Konsolen. Auch noch 2019. Das wisst Ihr auch.

Und Wolfenstein auf der Switch ist runterskalierter Pixelbrei mit minimalen Details, ein Witz (nur der kleine Bildschirm rettet es, das wars).

Nvidia wird sich das - wie immer - gut bezahlen lassen. Aber der Massenmarkt lässt das links liegen, für Demos und 1-2 mögliche Spiele kauft sicher keiner eine 800 Euro+ RTX Geforce (abgesehen von ein paar Hardcore NV-Fans).

EDIT: Andere Frage - bringen die Tensor/RT-Cores was für Mining? Wenn ja: Damit könnten dann einige über den Ladentisch gehen.

crux2005
2018-08-14, 20:08:25
Reine Spekulation basierend auf: Quadro RTX 5000 Specs + Preis ($2,300 ESP)
https://nvidianews.nvidia.com/news/nvidia-unveils-quadro-rtx-worlds-first-ray-tracing-gpu

GeForce "RTX 2080":

Basierend auf Turing uArch
26 TCPs
52 SMs
3328 FP32 Cores
104 Tensor Cores (1/32 der CUDA Cores)
2105 MHz GPU Takt
14 TFLOP/s FP32 Peak
2-3 GigaRays/s
208 Texture Units
256 bit SI
8 GiB GDDR6 (kann mir auch 16 GiB vorstellen)


Editiert... Und jetzt haut mich. :P

RLZ
2018-08-14, 20:18:32
Irgendwo habe ich gelesen, dass wenn man alles was lighting (ao, reflections, refraction, ect.) mit rt erledigt, die 6grays der 5000er gerade so ausreichen für 16,667ms aka 60fps in fhd. kA ob's stimmt.
Das wäre 48 Strahlen pro Pixel. Ihre Demos hatten wesentlich weniger...

Screemer
2018-08-14, 20:20:08
Ich sag 15-20% bei reinem rasterizing uf die ti + Option auf mehr wenn Ressourcen durch rt frei werden. Z.b. durch ao und AA auf den neuen Einheiten.

Das wäre 48 Strahlen pro Pixel. Ihre Demos hatten wesentlich weniger...
Die hatten 2-4. Wird bei denn nur der raycast oder auch die dadurch entstehenden weiteren Rays gezählt? Es hieß ja shadowrays sind quasi umsonst, so und anderes braucht aber Leistung. Wie kommst du auf 48 (10gigawats/1920*1080*60 sind eher 80 :?)?

dargo
2018-08-14, 20:25:36
Ich sag 15-20% bei reinem rasterizing uf die ti + Option auf mehr wenn Ressourcen durch rt frei werden. Z.b. durch ao und AA auf den neuen Einheiten.

Was willst du bei TAA noch beschleunigen wenn es jetzt schon fast nichts kostet? Ernst gemeinte Frage. :)

MasterElwood
2018-08-14, 20:26:08
@MiamiNice
deswegen ist vr auch ehr ein gimmick das kaum relevant ist und deswegen wurde es bei mir 3,5 meter diagonale, das schaut auch in 1440p schon gut manchmal sehr gut aus und 4k reicht dicke:tongue:

:facepalm:

VR ist die Zukunft. Wer das nicht kapiert hat die Welt nicht verstanden...

Timbaloo
2018-08-14, 20:27:16
Eigentlich kann mit "ray" ja nur eine Punkt-zu-Punkt-Verbindung gemeint sein.

Screemer
2018-08-14, 20:28:04
Wer will denn TAA. Ich ging da von qualitativem AA aus und sowas erhoffe ich mir durch Mustererkennung.

dildo4u
2018-08-14, 20:28:28
Was willst du bei TAA noch beschleunigen wenn es jetzt schon fast nichts kostet? Ernst gemeinte Frage. :)
Die Nvidia Version soll nicht schneller sondern schärfer sein.

Many games today support Temporal Anti-Aliasing (TAA), an anti-aliasing technology that combines high-quality Multi-Sample Anti-Aliasing (MSAA), post processes, and temporal filters. Unfortunately, the temporal aspect of TAA can deliver a blurry-looking image, especially in static scenes. TAA also suffers from flickering and ghosting that is inherent in the technology. DLAA by comparison provides sharp images and is temporally stable.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11768597&postcount=3281

RLZ
2018-08-14, 20:30:17
Die hatten 2-4. Wird bei denn nur der raycast oder auch die dadurch entstehenden weiteren Rays gezählt? Es hieß ja shadowrays sind quasi umsonst, so und anderes braucht aber Leistung.
Primärstrahlen werden in der Regel wohl immer noch über Rasterisierung abgedeckt. Aber warum sollten Schattenstrahlen umsonst sein? Je nach Implementierung können sie etwas günstiger sein (irgendeine Intersection vs erste Intersection finden), aber keine Ahnung was die Hardware oder API da anbietet.

Screemer
2018-08-14, 20:31:43
Das sagte Jensen so in der Präsi. Würde mich wundern wenn ich mich da falsch erinnern würde. Boah will da jetzt aber nicht noch Mal den ganzen Cast dafür anschauen. Ziehe die Aussage also lieber zurück ;)

VooDoo7mx
2018-08-14, 20:36:01
Also 4608 shader sind doch nicht der Vollausbau, dafür ist mir die GPU zu groß. Selbst auf hypothetischen übertakteten 2 GHz wären dies nicht mal 30% mehr Rechenleistung als bei meiner jetztzigen Titan X, Leute die eine Titan Xp haben sogar noch weniger.
Hoffentlich kommt noch was mit über 5000 Shadern, ich will schon 50% mehr Leistung haben. :usad:

Loeschzwerg
2018-08-14, 20:41:22
VR ist die Zukunft.

Deswegen wird auch Virtuallink unterstützt. Alles gut :comfort:

dargo
2018-08-14, 20:45:49
Die Nvidia Version soll nicht schneller sondern schärfer sein.

Naja... die Bilder die ich bisher gesehen habe waren bei dem neuen Verfahren eher unschärfer. Mal was aus der Praxis abwarten.

HOT
2018-08-14, 20:53:31
[...]

Zitat von HOT Beitrag anzeigen
Und noch was weiters: Damit ist 7nm bis 2020 definitiv vom Tisch. Das muss sich amortisieren.
NV ist hier ne Wette eingegangen und hat sich mMn grandios verzockt. Ich erwarte eure Prügel.


Bookmarked ;D

Jo und wieder ein fall von nicht verstanden. Ich korrigiers mal, vielleicht verstehst du es jetzt auch mal.

dildo4u
2018-08-14, 20:54:35
Ich hoffe auf Frostbite Support da dort das TAA extrem matschig ist,wäre ne Möglichkeit da Nvidia diesmal Technologie Partner bei BF5 ist.

dargo
2018-08-14, 20:59:34
Da fehlt einfach nur ein Schärferegler. Ein id oder Ubisoft schaffen es auch. ;)

Ex3cut3r
2018-08-14, 21:02:28
Schön das Nvidia auch einige Mythen endlich bei Seite gelegt hat, in diesem Werbe Video. RTX 2080 mit Turing Architektur in Köln am 20.08 ist damit sicher. :)

F7ElMOiAOBI

basix
2018-08-14, 21:50:50
Ich finde die Angabe von 6-10 GRays/s für Turing ziemlich interessant. Bei der Zahl ist folgendes Rechenbeispiel noch ein Augenöffner:

3840 x 2160 Pixel = 8.294 MPixel
8.294 MPixel * 60fps = 498 MPixel/sec
Nividia RTX Denoising Framework = 2...6 rpp (Rays per Pixel) https://arstechnica.com/gaming/2018/03/star-wars-demo-shows-off-just-how-great-real-time-raytracing-can-look/
2...6 rpp * 500 MPixel/sec = 1...3 GRays/sec


Könnte man nicht schon damit anständiges Realtime Raytracing machen? :deal:

Mal zum Vergleich: Quake 4 Raytraced mit 640 x 480 und 17fps :D
https://www.computerbase.de/2007-01/bericht-raytracing-in-spielen/5/

prinz_valium
2018-08-14, 22:26:18
Welche Mythen bei Seite gelegt ;D
In dem Video wurde doch nur gesagt, dass es eine Konferenz kurz vor der gamescom gibt und das wusste man schon lange vorher

Ex3cut3r
2018-08-14, 22:31:29
2080 anstatt 1180
Turing anstatt Volta oder Ampere
RTX anstatt GTX

Schau dir die Chats an.

Q-ahiZbF9bs

Troyan
2018-08-14, 22:57:40
Ich finde die Angabe von 6-10 GRays/s für Turing ziemlich interessant. Bei der Zahl ist folgendes Rechenbeispiel noch ein Augenöffner:

3840 x 2160 Pixel = 8.294 MPixel
8.294 MPixel * 60fps = 498 MPixel/sec
Nividia RTX Denoising Framework = 2...6 rpp (Rays per Pixel) https://arstechnica.com/gaming/2018/03/star-wars-demo-shows-off-just-how-great-real-time-raytracing-can-look/
2...6 rpp * 500 MPixel/sec = 1...3 GRays/sec


Könnte man nicht schon damit anständiges Realtime Raytracing machen? :deal:

Mal zum Vergleich: Quake 4 Raytraced mit 640 x 480 und 17fps :D
https://www.computerbase.de/2007-01/bericht-raytracing-in-spielen/5/

Die Star Wars Demo läuft in 1080p mit 24FPS auf Turing. Und das sieht besser aus alles andere, was heutzutage als Echtzeit gibt.

Ansonsten habe ich das hier auf Youtube gefunden: https://www.youtube.com/watch?v=-NCf85ilN58

Cubitus
2018-08-14, 23:15:07
2080 anstatt 1180
Turing anstatt Volta oder Ampere
RTX anstatt GTX

Schau dir die Chats an.

http://youtu.be/Q-ahiZbF9bs

Marketing der höchsten Güte, nicht übel ;D
Aber trotzdem nice one

Ex3cut3r
2018-08-14, 23:24:12
Genau, mich wundert es nur, dass es hier anscheinend untergegangen ist, dass wird seit heute Morgen auf Reddit hoch und runter gepostet.

Timbaloo
2018-08-14, 23:52:39
Das wurde schon gepostet. Ist aber dann im Rauschen des Zweifels und der Verzweiflung untergegangen.

Troyan
2018-08-14, 23:57:08
Hier ebenfalls, dass Turing als Geforce kommt: https://www.youtube.com/watch?v=gTbWVt2_OWc

@0:40: "The first Turing GPUs that we are announcing...".

Ex3cut3r
2018-08-15, 00:00:15
Ja, siehe auch im Werbe Video Chat Name "AlanaT" - Alan Turing. ;)

crux2005
2018-08-15, 00:17:39
Ja, siehe auch im Werbe Video Chat Name "AlanaT" - Alan Turing. ;)

Da musste ich an Southpark denken: https://www.youtube.com/watch?v=3c-irSUdij4 "Cancelled" Episode @6min7s ;D

Troyan
2018-08-15, 00:23:53
100% Power-Limit der RTX6000 Karte:
https://pbs.twimg.com/media/Dkl74bTVsAA9jE3.jpg

270W mit 24GB. Dazu kommen dann noch die 30W von NVLink. /edit: Oder die 30W von NVLink sind da schon enthalten...

PHuV
2018-08-15, 00:49:41
Raytracing wird mit sehr hoher Wahrscheinlichkeit innerhalb der nächsten 5 Jahre überhaupt keine Rolle spielen. Kommt mal runter, noch gibt es gar nichts.
Ich halte und wette mit Dir dagegen, daß wir sehr wohl schon früher einen oder mehrere Blockbustertitel mit RT haben werden, und alle werden staunen.

Ihr kapiert alle noch nicht, was RT in Echtzeit hier für ein Gamechanger in Sachen Computergrafik und Spiele ist. Wir erleben wirklich eine Revolution mit. Alle bisherigen Technologien, die bisher für Grafik und Spiel in Echtzeit, sind in Wahrheit nur mangelhafte und kaschierende suboptimale Workarounds gewesen. RT ist physikalisch die einzige Technologie, die annähernd fotorealtische Bilder ermöglich. Alles andere ist, platt gesagt, Käse und schlecht. Spiegelungen, Reflexionen, dynamische Schatten waren so noch nicht möglich, und gegen RT sieht alle das bisherige einfach nur sch..lecht aus. Ganz einfach. Zudem waren diese Workarounds stets aufwendig und komplex, mit RT wird vieles einfacher, weil nicht mehr so viel rumgetrickst werden muß wie bisher, um gewisse Effekte zu erreichen. Die Engineentwickler werden sich darauf stürzen wie frisch geschnittenes Brot. Zudem ist es nach jahrelanger Stagnation endlich wieder mal eine wirklich "neue" und spannende Neuerung im GK-Markt. Leute, es wird nun so abgehen, weil sich alle daran hängen werden, weil es schlichtweg die bessere und effizientere Technologie ist. Nur fehlte dafür bisher eines: Rechenpower! Nix mehr mit aufwendigen Texuturenkleben und Schattenfälschen, schlichtes und simples Rechnen auf hohem Niveau.

Und die haben wir nun mit Turing. Genial, sag ich nur, genial Nvidia.

N0Thing
2018-08-15, 01:15:52
Keine CPU? Wolfenstein 2 läuft auch auf der Switch. ARM ist vollkommen ausreichend.

;D Sonst war ID immer die inkompetente, vom AMD-Marketing gekaufte Butze.