PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 30. Juli 2019


Leonidas
2019-07-30, 19:08:23
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-30-juli-2019

cat
2019-07-30, 20:07:40
Diese Aussage lege ich so aus:
- Weiterhin ein Hybrid-Renderer im Einsatz
- dieser wird aber Grundvorraussetzung
- einige Spielanteile werden nichtmehr zusätzlich als "Oldschool-Anteil" vorhanden sein
- diese betreffenden Anteile können auch z.B. "trivial oder mengenmäßig wenig" sein
- diese werden ausschließlich mit Ray-Tracing-Beteiligung umgesetzt
- somit ist "Ray-Tracing/Hybrid-Render-fähigkeit" nichtmehr optional aufgesetzt sondern die einzige Weise diese Spiele auszuführen

Also könnte es sich z.B. auch nur um das Weglassen von einer einzelnen Baking-Art handeln oder von mehreren.
Allerdings werden die ersten Games kein zu großes Risiko gehen sich die Userbase durch zu hohe Anforderungen zu stark zu schmälern.

JVC
2019-07-30, 20:22:01
"- immerhin würde dies bedeuten, daß das jeweilige Spiel RayTracing derart intensiv nutzt, das man keine RayTracing-lose Alternativ-Grafik mehr anbieten kann."

"Nein"

Man will es nutzen, aber weniger und dafür immer :wink:
(die wollen sich doch Arbeit ersparen :biggrin:)

M.f.G. JVC

Gast
2019-07-30, 20:43:49
Sehr unwahrscheinlich, dass so schnell Raytracing-Only Spiele erscheinen werden.

Dass dies in der Vergangenheit so war ist ja gut und schön, nur hatte damals Moores Law noch Gültigkeit, heute ist es defakto tot, damit wird sich das eher um 50-100% verlängern.

Das Einzige was evtl. wirklich eine derart schnelle Durchsetzung von Raytracing führen könnte sind die Konsolen.

Dabei ist es nichtmal wichtig wie schnell diese wirklich Raytracing können.
Weil wenn man ein Spiel hauptsächlich für die neuen Konsolen erstellt kann man zu 100% davon ausgehen, dass diese Raytracing können.
Falls es daher zuviel Aufwand ist einen Fallback ohne Raytracing zu erstellen, bzw. falls es aus Balancegründen nicht möglich ist, könnte man dann natürlich schon ein reines Raytracing-Spiel erstellen.
Nachdem allerdings nicht zu erwarten ist, dass die Konsolen besonders viel schneller Raytracing können, dürfte das durchaus auf Turing noch verwendbar sein, zumindest auf 2080(Ti)

Gast
2019-07-30, 23:04:06
Für die Durchsetzung von "Path Tracing" als der eigentlichen, "puren" RayTracing-Variante geht nVidia derzeit immerhin erst vom Jahr 2035 (!) aus.

Für nVidia mag das stimmen, aber zum Glück ist deren ineffiziente RT-Hardware nicht alternativlos. In der Praxis ist Turing beim Raytracing nur ca. 2x effizienter als Pascal und verbraucht trotz Fertigungsvorsprung 100 mal mehr Strom als PowerVR GR6500 (https://www.youtube.com/watch?v=ND96G9UZxxA&t=120) für etwa gleiche RT-Performance. Bereits 2016 reichte es immerhin schon für rauschfreie 20fps in 1080p (100% raytraced) (https://www.youtube.com/watch?v=uxE2SYDHFtQ). Mit 7nm, 1800Mhz und gleicher Chipgröße wie Turing käme man damit auf ca. 480 Rays pro Pixel bei 60fps in 1080p.

Thomas555
2019-07-31, 00:00:05
Die Grafikleistung ist derzeit viel zu schwach für "richtiges" RayTracing.
Wenn das nichtmal in Full HD 120fps läuft, wie sieht das erst in 4k aus?...
Das Marketing wird es schon richten: "Wer brauch schon 120fps @ 4k, wenn er RayTracing hat..."

Thomas Gräf
2019-07-31, 00:39:52
Wenn man mal von den 3nm ausgeht, die ja hoffentlich realisierbar sein werden. Kann man dann mal so Pi mal Daumen hochrechnen was überhaupt noch an Echtzeit GPU Rechenleistung erwartet werden kann?

Fusion_Power
2019-07-31, 01:24:54
Welche Spielefirma kann es sich leisten, ein Spiel nur für so nen kleines (zahlungskräftiges) Klientel zu entwickeln? Ich bezweifle, dass Ray Tracing im Jahre 2023 in bezahlbaren und spielbaren Regionen ankommt, außer es ist wie derzeit halt "nur" ein Teil des Spieles.
Auf Rasterizer-Effekte wird man vermutlich nicht verzichten wollen, auch wenn es sicher verlockend klingt wenn ein Spiel nur aus RT besteht und man quasi Beleuchtung, Schatten und Oberflächeneffekte ganz nebenbei bekommen kann, ohne Tricks und Kniffe.
Das wäre vllt. was für die Arcadehallen oder ne neue Spielekonsole. Möglich sicher, aber auch wahrscheinlich?

Platos
2019-07-31, 03:01:54
Ich glaube nicht, dass man damit meinte, dass es 100% Raytracing ist sondern, dass eben die Dinge, die mit Rays gerechnet werden, keine alternative mehr haben sollen. Das bedeutet aber nicht zwingend, dass auch alles in Rays gerendert wird.

Und ich glaube ehrlich gesagt kaum daran, wenn die PS5 nicht auf wundersame Weise übelst "krasse" RayTracing-Hardware hat.

Summerbreeze
2019-07-31, 07:51:46
Raytracing Only wird es frühestens geben, wenn die Nutzerbasis, welche RT (gescheit) ausführen kann, >50% liegt. Vorher schneidet man sich (zu sehr) ins eigene Fleisch.
Ob dies 2023 schon der Fall sein wird, stelle ich mal in frage.
Viel hängt auch von den wirklichen Fähigkeiten der Konsolen ab und wie das implementiert wird.

Ich könnte mir nebenbei gut vorstellen, das AMD einen größeren Anteil der Berechnungen auf die CPU auslagern will? Dann gäbe auch der PCIE4 (mehr) Sinn und viele Kerne, brächten dann endlich einen Vorteil. AMD muss ja auch schauen, wie sie ihre Vielkernprozessoren verkauft bekommen.
Und ich kann mir im Moment irgendwie noch nicht so richtig vorstellen, das sie in den Grafikchips genug Power haben und die Threadripper / 3950X hätten für Gamer dann auch eine echte Daseinsberechtigung.

tm0975
2019-07-31, 07:58:46
"immerhin würde dies bedeuten, daß das jeweilige Spiel RayTracing derart intensiv nutzt, das man keine RayTracing-lose Alternativ-Grafik mehr anbieten kann"
ich kann in der meldung keinen hinweis erkennen, der diese schlußfolgerung zuläßt. das scheint mir sehr an den haaren herbei gezogen. zumal 4 jahre wirklich eine sehr lange zeit sind. daraus werden gerne auch mal 6 jahre...

für mcih ist raytracing in erster linie eine sache, um den kontinuierlich steigenden hardwareleistungen einen rechenintensiven verbrauch entgegenzusetzen. die leistung der grakas wächst doch schon seit läängerem schenller als die software diese sinnvoll und effizient nutzen kann. und da nvidia was braucht, um grakas für 500 € und mehr verkaufen zu können, war "pillepalle" raytracing einenette sau, die mal durchs dorf getrieben werden konnte. mich freut es insofern, dass mittlerweile 250 € karten schon meinen bedarf decken. vor paar jahren mußte ich dafür noch 500 € und mehr ausgeben.

Legendenkiller
2019-07-31, 08:06:13
Wenn NVidia nächstes Jahr ein 300€ RT Graka bringt die mit RT 60FPS schafft, dann passt das mit 2023 :-)

Legendenkiller
2019-07-31, 08:10:10
Raytracing Only wird es frühestens geben, wenn die Nutzerbasis, welche RT (gescheit) ausführen kann, >50% liegt. Vorher schneidet man sich (zu sehr) ins eigene Fleisch.

....

Die Spiele-Industrie nutzt eine Technik als Standard wenn die Marktabdeckung 85% erreicht hat.

Also bevor nicht auch 150€ Grakas sinnvoll RT können, passiert da nichts.

PS: obwohl er hat vom 1. Spiel geredet... Gut das geht. 2023 kann ein Spiel kommen das exklusiv RT nutzt.
Aber Standard wird das erst wenn es Mainstream Grakas können.

pixeljetstream
2019-07-31, 08:43:10
Die Vorträge aus der Session zum Thema RT gibt es hier, da ist auch der Vortrag von Morgan dabei.
https://sites.google.com/view/arewedonewithraytracing

Käsetoast
2019-07-31, 11:04:19
Naja, ob die Aussage jetzt eine so große News wert ist sei mal dahingestellt. Grundsätzlich klingt die Aussage realistisch, aber auch bei weitem nicht überraschend. Da die Konsolen ja tatsächlich wohl AMDs Raytracing via erweiterter TMU bekommen wenn die Gerüchte stimmen, dann wird Raytracing auch bei AMD Grafikkarten im Jahr 2020 bei hardware beschleunigtem Raytracing angekommen sein. Dann noch mal 3 Jahre drauf was vielleicht zwei weitere Generationen an Grafikkarten bedeutet - da kann man schon davon ausgehen, dass RT kompatible Hardware eine gute Marktdurchdringung hat weil einfach jede neue Grafikkarte das haben wird. Das wäre so als würde man jetzt ein Spiel rausbringen, dass mindestens eine Maxwell Grafikkarte voraussetzt. Geht ja nicht darum, dass jedes Spiel dann nur noch so ist, sondern dass ein erstes Spiel entwickelt mit großem Budget halt mal anfängt für ein Raytracing Feature keine Rasterizing Fallback Shader mehr zu schreiben. Halte ich so gesehen für realistisch, ist aber wie gesagt auch nicht groß überraschend - das kann jeder für sich halt abschätzen...

Lehdro
2019-07-31, 11:22:00
Dass dies in der Vergangenheit so war ist ja gut und schön, nur hatte damals Moores Law noch Gültigkeit, heute ist es defakto tot, damit wird sich das eher um 50-100% verlängern.
Das Moores Law durchaus lebt wird derzeit von einem Konkurrenten bewiesen...
Für nVidia mag das stimmen, aber zum Glück ist deren ineffiziente RT-Hardware nicht alternativlos. In der Praxis ist Turing beim Raytracing nur ca. 2x effizienter als Pascal und verbraucht trotz Fertigungsvorsprung 100 mal mehr Strom als PowerVR GR6500 (https://www.youtube.com/watch?v=ND96G9UZxxA&t=120) für etwa gleiche RT-Performance. Bereits 2016 reichte es immerhin schon für rauschfreie 20fps in 1080p (100% raytraced) (https://www.youtube.com/watch?v=uxE2SYDHFtQ). Mit 7nm, 1800Mhz und gleicher Chipgröße wie Turing käme man damit auf ca. 480 Rays pro Pixel bei 60fps in 1080p.
Nur das Turing nicht "nur" RT macht, sondern auch gleichzeitig "stinknormale" Grafik. Wir wissen doch gar nicht wieviel die RT Einheiten von NV isoliert verbrauchen - einen großen Mehrbedarf an Leistungsaufnahme oder krassen Taktabfall der restlichen Einheiten zwecks Strombudgets gibt es aber auch nicht. Von daher: Keine Ahnung warum hier Äpfel und Birnen verglichen werden.

Das Marketing wird es schon richten: "Wer brauch schon 120fps @ 4k, wenn er RayTracing hat..."
Und wer brauch unbedingt 120 fps wenn er 4k und RT für den Augenschmaus hat? Das ist genauso eine legitime Sicht der Dinge. RT ist sowieso eher etwas für "hübsche" Titel und nix für high FPS Titel. Daher war RT in BFV auch nur nen müder Marketinggag - wer das ernsthaft online zockt, hat eh meist RT aus.
Wenn man mal von den 3nm ausgeht, die ja hoffentlich realisierbar sein werden. Kann man dann mal so Pi mal Daumen hochrechnen was überhaupt noch an Echtzeit GPU Rechenleistung erwartet werden kann?
Kann man sehr wohl, allerdings ist der größte Unsicherheitsfaktor die Architketur selbst, nicht der Prozess. Man bedenke welchen Sprung Maxwell zu Kepler machte, trotz selber Node.
Ich glaube nicht, dass man damit meinte, dass es 100% Raytracing ist sondern, dass eben die Dinge, die mit Rays gerechnet werden, keine alternative mehr haben sollen. Das bedeutet aber nicht zwingend, dass auch alles in Rays gerendert wird.
Genau so sehe ich das auch. Irgendwann hört die Zweigleisigkeit auf, also entweder "RTX on" oder "RTX off". Das bedeutet aber eben nicht das alles 100% Raytraced ist - sondern nur das immer RT aktiv ist - und wenns nur beim global lightning ist.

Und ich kann mir im Moment irgendwie noch nicht so richtig vorstellen, das sie in den Grafikchips genug Power haben und die Threadripper / 3950X hätten für Gamer dann auch eine echte Daseinsberechtigung.
Wir stehen erst am Anfang der Raytracing Beschleuniger - man erinnere sich an die Anfangszeiten der 3D Grafik, da gab es auch einige Leute die das lieber alles mit der CPU berechnen wollten, aber schau wo wir heute sind.
die leistung der grakas wächst doch schon seit läängerem schenller als die software diese sinnvoll und effizient nutzen kann. und da nvidia was braucht, um grakas für 500 € und mehr verkaufen zu können, war "pillepalle" raytracing einenette sau, die mal durchs dorf getrieben werden konnte. mich freut es insofern, dass mittlerweile 250 € karten schon meinen bedarf decken. vor paar jahren mußte ich dafür noch 500 € und mehr ausgeben.
Schön dass dir das reicht, freut mich. Ich hingegen möchte auch weiterhin 4k genießen können und da tut schnellere Hardware echt nicht weh, aber Not. Nur weil deine Ansprüche nicht steigen (ich gehe mal von 1080p aus) heißt das nicht, dass das bei jedem Nutzer so ist. Ich nutze 4k schon seit Jahren (Downsampling sogar seit GTX 480 Zeiten) und freue mich über jedes bisschen Mehrleistung um die Optik der Spiele aufzuhübschen. Da braucht es beileibe kein RT um mich zu stärkerer Hardware zu treiben.

Also bevor nicht auch 150€ Grakas sinnvoll RT können, passiert da nichts.

Aber Standard wird das erst wenn es Mainstream Grakas können.
RT gibt es als Feature doch heute schon ab etwas über 300 €. Rechne da noch zwei, drei Generationen drauf, in denen jeweils das Feature einen Stack tiefer im Portfolio wandert und schon sind wir innerhalb von 3 Generationen bei rund 150 €. Finde das jetzt nicht so utopisch, das bis 2023 zu schaffen. Gerade wenn es wieder Wettbewerb in dem Sektor gibt - Intel will sicherlich auch mitspielen.

RLZ
2019-07-31, 11:30:30
Kontext:
Morgan ist Professor an einer Uni und Forscher bei Nvidia.
Er macht auf einer Forschungskonferenz eine gewagt optimistische Aussage für sein Themengebiet.
Das ist halt sein Job.

Summerbreeze
2019-07-31, 12:08:19
Nachdem eine größere Marktdurchdringung stattgefunden hat, ist es natürlich realistisch. Ich sehe 2023 als frühestmöglichen Zeitpunkt. Eher 2024-25. Oder gesponsert durch einen Hardwarehersteller.

Wenn man das Maxwell Beispiel nimmt, hat man ~4 Jahre bis >50% erreicht sind. Man muss aber auch sagen, mit der 2060(S) ist in meinen Augen noch kein gescheit nutzbares RT möglich. Vielleicht noch in in HD, aber wer will das denn schon? Daher fehlt für mich z.Zt. die mengenmäßige Marktdurchdringung. Diese findet erst ab nächstem Jahr statt, wenn die Konsolen, RDNA2 und Ampere? starten.

Das große Fragezeichen ist für mich RDNA2. Ist das jetzt ein SuperDuperRaytraycingChip, welcher RT auch in die breite Mittelklasse von ~300€ tragen kann? Oder dann doch wieder die übliche AMD-Grafikkrücke mit der ich im Winter keine Heizung brauche?
(Sorry, aber in Sachen Grafik muss AMD bei mir erst einmal wieder gescheit liefern. Da haben sie mir zuviel Kredit verbraucht)
Wir stehen erst am Anfang der Raytracing Beschleuniger - man erinnere sich an die Anfangszeiten der 3D Grafik, da gab es auch einige Leute die das lieber alles mit der CPU berechnen wollten, aber schau wo wir heute sind.
Nur kann AMD heute fast beliebig die CPU Kerne nach oben skalieren. In meinen Augen wäre dieser Ansatz, zumindest zunächst, nicht der dümmste. Quasi 3 Fliegen auf einen Streich. Grafikschwächen kaschiert, CPU-Verkauf angekurbelt und die Rechenlast besser verteilt.

Gast
2019-07-31, 12:18:52
Nur das Turing nicht "nur" RT macht, sondern auch gleichzeitig "stinknormale" Grafik.

Der PowerVR Raytracer kann ebenfalls Hybrid-Rendering und Rasterisation.

Wir wissen doch gar nicht wieviel die RT Einheiten von NV isoliert verbrauchen - einen großen Mehrbedarf an Leistungsaufnahme oder krassen Taktabfall der restlichen Einheiten zwecks Strombudgets gibt es aber auch nicht.

Das brauchen wir nicht, weil wir wissen, um wieviel effizienter Turing beim Raytracing gegenüber den Vorgänger-Architekturen in der Praxis ist:
https://cdn.wccftech.com/wp-content/uploads/2018/10/NVIDIA-DirectX-Simple-Ray-tracing-Benchmark-RTX-2080-Ti-RTX-2080.jpg

"In our testing, the RTX 2080 Ti scored 360 in Octane bench, almost 80% faster than the GTX 1080 Ti. Without RT acceleration, the RTX 2080 Ti is about 40% faster than the GTX 1080 Ti on CUDA core performance alone."
https://www.forbes.com/sites/moorinsights/2018/09/25/nvidia-geforce-rtx-2080-2080-ti-very-fast-with-untapped-potential/

Von dedizierter Hardware kann man mehr erwarten. Insbesondere wenn man bedenkt, dass Nvidia dafür mehr Zeit und ein Vielfaches an Ressourcen zur Verfügung hatte als IMG. Aber diese werden offenbar lieber in Marketing und andere Bereiche investiert.

Gast
2019-07-31, 12:37:35
Ich bin ein wenig erstaunt über Thesen wie: RTX ist nur 2 mal so Leistungsfähig wie Pascal was Raytracing angeht. Und CPU Kerne können einen nennenswerten Beitrag zum Raytracing Rendering liefern.
1. Quake 2 RTX läuft auf einer RTX2080ti fast 200 mal schneller als auf meiner GTX1080ti (0,3 FPS : 70 FPS)
2. Die CPU ist als Universalrechner maximal ungeeignet massenhaft parallel Rechenoperationen mit minderer Genauigkeit durchzuführen.
In Zwei Jahren werden wir nicht mehr über die Sinnhaftigkeit von Raytracing reden, und nur noch an dessen Leistungsfähigkeit interessiert sein.

Warum macht ihr aus dem Hardwarekauf eine Glaubenssache?

Gast
2019-07-31, 12:42:37
Ich möchte nur mal darauf verweisen, dass DirectX 10 exklusive Spiele auch entwickelt wurden, als die erste Generation DX10 Karten auf den Markt kam und Vista quasi keinen existierenden Marktanteil hatte ...

Aussagen wir "Mindestens 85%" etc. sind komplett an den Haaren herbeigezogen.

Desweiteren sagte Morgan McGuire nicht, dass RayTracing 2023 der STANDARD ist, sondern das dort das RayTracing exklusive AAA Spiel erscheinen wird.

cat
2019-07-31, 13:46:57
Wie ich schon sagte es wird vermutlich von einer erforderten Hybrid-Renderer-Tauglichkeit gesprochen, welche keine Schlüsse auf den Umfang des eingesetzten Ray-Tracing zulässt.

Ich kann nur vermuten, dass zuerst das fehleranfälligste oder kosten/zeitintensivste Baking ersatzlos durch RT ersetzt werden wird.
Und das kann auch von Spiel zu Spiel ein Anderes sein oder mehrere Baking-Varianten betreffen. (Schatten, Reflexionen etc.)

Pures RT inkl. perfekter Global-Illumination usw., ohne Hybrid-Renderer dürfte eher noch weit über 10 Jahre brauchen, eher 25 Jahre für Fotorealismus.


CPUs sind vermutlich wegen Mangel an Bandbreite ungeeignet, heutige GPUs wälzen auf Register-, bzw. L0/L1 Cache Ebene viele Terabyte pro Sekunde um, mMn mindestens 2-stellig.

Selbst der L2-Cache der GPUs wälzt weit über 1 TB/s um, vermutlich auch mittlerweile nah an 10TB/s bei einer 2080Ti.

Diese Box- und Triangel-Intersection-Tests in Echtzeit beschleunigt, dürften auf einer CPU aktuell unmöglich sein für brauchbare Spielequalität, auch mit dem dicksten Zen2 EPIC oder Intels schnellster CPU.

Lehdro
2019-07-31, 13:47:10
Ich möchte nur mal darauf verweisen, dass DirectX 10 exklusive Spiele auch entwickelt wurden, als die erste Generation DX10 Karten auf den Markt kam und Vista quasi keinen existierenden Marktanteil hatte ...
Welche denn?
Halo2?

Halo 2 ist offiziell nur für Microsofts Betriebssystem Windows Vista veröffentlicht worden – angeblich um die 64-Bit-Engine des neuen Betriebssystems auszunutzen. Dies wurde mit Skepsis aufgenommen, da das Spiel auf Basis von DirectX 9.0 entwickelt worden war was auch vom Vorgängersystem Windows XP unterstützt wird. Teilweise wurde in der Presse eine reine marketing-technische Motivation für den Ausschluss von XP als unterstütztes Betriebssystem vermutet, um Kunden dazu zu bringen auf Windows Vista umzusteigen.[2] Tatsächlich gelang es Hackern wenige Tage nach der Veröffentlichung, das Spiel auch auf Windows XP zu starten und veröffentlichten einen inoffiziellen Patch, der diese künstliche Limitierung entfernte.
Shadowrun?
Shadowrun is a first-person shooter video game, developed by FASA Studio for Xbox 360 and Windows Vista. It was later cracked to work on Windows XP,[1] confirming speculation that it was intentionally limited to Windows Vista.
Alan Wake wurde vor der Exklusivität für die 360 auch als Windows Vista only gehandelt, lief dann aber doch später auf XP.

Was fällt auf? Alle drei kommen direkt von Microsoft und es gab keine technischen Gründe. Alle drei laufen auch auf XP.

Lehdro
2019-07-31, 14:14:00
Das brauchen wir nicht, weil wir wissen, um wieviel effizienter Turing beim Raytracing gegenüber den Vorgänger-Architekturen in der Praxis ist:
[...]
Von dedizierter Hardware kann man mehr erwarten. Insbesondere wenn man bedenkt, dass Nvidia dafür mehr Zeit und ein Vielfaches an Ressourcen zur Verfügung hatte als IMG. Aber diese werden offenbar lieber in Marketing und andere Bereiche investiert.
Und jetzt noch einmal für ganz Dumme wie mich: Wer sagt das NV nicht einfach die RT Einheiten verzehnfachen kann? Wieviel braucht denn so ein RT Core? Ohne Stromverbrauch im Vergleich ist doch jede Aussage über die Implementierung völlig an den Haaren herbei gezogen. Das ist halt einfach mal die wichtigste Metrik. Gab schon genug Spekulationen darüber das RT von NV mehr oder minder nachträglich drangeflanscht wurde als Testballon.

JVC
2019-07-31, 14:57:18
Das große Fragezeichen ist für mich RDNA2. Ist das jetzt ein SuperDuperRaytraycingChip, welcher RT auch in die breite Mittelklasse von ~300€ tragen kann? Oder dann doch wieder die übliche AMD-Grafikkrücke mit der ich im Winter keine Heizung brauche?
(Sorry, aber in Sachen Grafik muss AMD bei mir erst einmal wieder gescheit liefern. Da haben sie mir zuviel Kredit verbraucht)

Da werden die meisten hier deiner Meinung sein ...
Aber die Vorzeichen standen schon lange nicht mehr so gut ;)

N.f.G. JVC

Summerbreeze
2019-07-31, 14:59:49
CPUs sind vermutlich wegen Mangel an Bandbreite ungeeignet, heutige GPUs wälzen auf Register-, bzw. L0/L1 Cache Ebene viele Terabyte pro Sekunde um, mMn mindestens 2-stellig.

Selbst der L2-Cache der GPUs wälzt weit über 1 TB/s um, vermutlich auch mittlerweile nah an 10TB/s bei einer 2080Ti.

Diese Box- und Triangel-Intersection-Tests in Echtzeit beschleunigt, dürften auf einer CPU aktuell unmöglich sein für brauchbare Spielequalität, auch mit dem dicksten Zen2 EPIC oder Intels schnellster CPU.

OK?, 10TB ist natürlich eine Marke.
Ich stecke da auch nicht so tief drin, wäre halt eine Überlegung wert gewesen, zu schauen, was sich so an (Vor)Berechnungen noch so auslagern lässt.
Zu irgendetwas müssen die vielen Kerne + PCIE4 doch zu gebrauchen sein.
Vielleicht überschätze ich AMD, aber seit Lisa Su, macht AMD eigentlich nichts mehr einfach nur so. Da scheint mittlerweile ein Rädchen viel besser ins andere zu greifen. Ich kann mir irgendwie nicht so recht vorstellen, das sie PCIE4 nur als Verkaufsgimick eingeführt haben.
Da hätten sie auch locker bis 2021 warten und direkt PCIE5 nehmen können.

Lehdro
2019-07-31, 15:46:26
Ich kann mir irgendwie nicht so recht vorstellen, das sie PCIE4 nur als Verkaufsgimick eingeführt haben.
Da hätten sie auch locker bis 2021 warten und direkt PCIE5 nehmen können.
Von Servern hast du schon einmal gehört? Wenn du da PCIe 4.0 hast und dein Konkurrent nur 3.0, ist das mehr als nur ein "Gimmick". Wenn du allerdings sowieso PCIe 4.0 implementierst, wieso dann nicht gleich auch für den Desktop nutzen? Immer daran denken, Zen dreht sich hauptsächlich um Server und wir auf dem Desktop kriegen den runtergebrochenen Rest.

Gast
2019-07-31, 16:48:25
Und jetzt noch einmal für ganz Dumme wie mich: Wer sagt das NV nicht einfach die RT Einheiten verzehnfachen kann? Wieviel braucht denn so ein RT Core?


Das kann NV nicht, weil der Chip dann viel zu groß für die Fertigung wäre und/oder dies dann zu Lasten der Chipteile ginge, die beim Raytracing Aufgaben übernehmen, die Nvidias RT Cores nicht berechnen können. Das würde auch nichts an der Ineffizienz von Turing beim Raytracing ändern.


Ohne Stromverbrauch im Vergleich ist doch jede Aussage über die Implementierung völlig an den Haaren herbei gezogen. Das ist halt einfach mal die wichtigste Metrik.


Der Stromverbrauch beim Raytracing ist bekannt und dabei wird der gesamte Chip genutzt, weil Nvidias RT Cores nur einen Teil des Raytracings beschleunigen können.


Gab schon genug Spekulationen darüber das RT von NV mehr oder minder nachträglich drangeflanscht wurde als Testballon.

Das wäre eine mögliche Erklärung für diese Ineffizienz.

JVC
2019-07-31, 17:47:20
"PCIE4" könnte sich bei einer "Software basierten RT Lösung" durchaus etwas mehr bemerkbar machen...

M.f.G. JVC

Gast
2019-07-31, 17:57:00
Das Moores Law durchaus lebt wird derzeit von einem Konkurrenten bewiesen...

Welcher Konkurrent genau und vor allem wie beweist dass Moores law lebt?

[/QUOTE]

Gast
2019-07-31, 18:12:43
Das brauchen wir nicht, weil wir wissen, um wieviel effizienter Turing beim Raytracing gegenüber den Vorgänger-Architekturen in der Praxis ist:
https://cdn.wccftech.com/wp-content/uploads/2018/10/NVIDIA-DirectX-Simple-Ray-tracing-Benchmark-RTX-2080-Ti-RTX-2080.jpg


Nein wissen wir nicht, zumindest nicht aus diesen Balken.

FPS sagen 0 darüber aus wieviel effizienter nun der RT-Teil in Turing gegenüber Pascal ist.

Man müsste wieviel ms pro Frame das eigentliche Raytracing auf jeder Karte braucht.

Gast
2019-07-31, 18:57:12
Totaler Analyse-fail.

Insbesondere Microsoft hat schon ganz andere und unnötige Zwangsvorgaben gebracht. Dagegen ist die Abfrage nach 4 Kernen (die bekanntlich keinen Sinn macht) Peanuts.
Warum also nicht 2023 ein Spiel raus bringen, dass RTX in HW verlangt? Es muss RTX nicht mal spektakulär dolle nutzen.
Sehe ich kein Problem. Leuchtturm-Projekt und so. Kann Nvidia bezahlen.

JVC
2019-07-31, 19:21:48
Warum also nicht 2023 ein Spiel raus bringen, dass RTX in HW verlangt?

Es gibt kein "RTX", sondern DXR welches RT ermöglicht.

"RTX in NV-HW" wird wohl auch 2030 kein Spiel verlangen ...

Leuchtturm-Projekt und so. Kann Nvidia bezahlen.
Wenn dem so wäre, würde Tu weniger kosten...

M.f.G. JVC

Gast
2019-07-31, 19:27:59
"PCIE4" könnte sich bei einer "Software basierten RT Lösung" durchaus etwas mehr bemerkbar machen...



Das musst du mir jetzt noch erklären wie.

Nehmen wir an du machst das Tracing auf der CPU und nur das Shading auf der GPU. Dann musst du nur das Ergebnis vom Tracing über PCIe an die GPU schicken.
Das sind minimale Daten, die lasten denn PCIe niemals aus, wenn du pures Raytracing machst kannst du dir sogar ersparen die Geometrie an die GPU zu senden und brauchst damit weniger Bandbreite am PCIe als mit herkömmlichem Rasterizing.

Lehdro
2019-07-31, 20:01:28
Welcher Konkurrent genau und vor allem wie beweist dass Moores law lebt?

TSMC & Samsung. Schau dir doch an was zb AMD mit deren Nodes so treibt und die gehen nicht einmal ans Limit, so wie es Intel seinerzeit tat. Ansonsten hier (https://en.wikipedia.org/wiki/Moore%27s_law) mal stöbern, gibt genug Auslegungen.

Gast
2019-07-31, 20:53:32
TSMC & Samsung. Schau dir doch an was zb AMD mit deren Nodes so treibt und die gehen nicht einmal ans Limit, so wie es Intel seinerzeit tat.


Die beweisen eben genau das Moores Law tot ist.

Das Gesetz, was eigentlich kein Gesetz war sondern eine Marktbeobachtung besagt nämlich nicht, dass es technisch möglich ist auf gleicher Fläche doppelt so viele Schaltkreise zu bauen.

Es besagt vielmehr, dass man doppelt so viele Schaltkreise zu gleichen Kosten verbauen kann.

Und davon sind wir weit entfernt, ganz im Gegenteil. Klar wird es irgendwann 5nm und auch 3nm geben, technisch möglich ist es sicher, aber nicht zu gleichen Kosten. Im Moment ist es überhaupt Fraglich ob die Kosten pro Schaltkreis noch sinken, aber halbieren werden sie sich ganz bestimmt nicht mehr, was man auch schön an den Preisen der 5700er sieht, die für einen 250mm² Chip ganz schön teuer sind.

Gast
2019-07-31, 21:40:23
Nein wissen wir nicht, zumindest nicht aus diesen Balken.

FPS sagen 0 darüber aus wieviel effizienter nun der RT-Teil in Turing gegenüber Pascal ist.

Man müsste wieviel ms pro Frame das eigentliche Raytracing auf jeder Karte braucht.

Du irrst dich. Dieser Benchmark nutzt Raytracing und kein Hybridrendering und gibt nicht nur FPS sondern auch MPR/s an.

Gast
2019-08-01, 19:16:36
Du irrst dich. Dieser Benchmark nutzt Raytracing und kein Hybridrendering und gibt nicht nur FPS sondern auch MPR/s an.

Trotzdem besteht das Rendering immer noch aus Raytracing + Shading und die weder die FPS noch die Anzahl der Rays / Sekunde geben Auskunft darüber um wieviel der Raytracing-Anteil mit Turing schneller ist.

Das einzige was in diese Richtung gehen wurde, ist der Quake 2 RT-Mod mit allen Flächen 100% spiegelnd.

Dann gibt es wirklich praktisch nur mehr Raytracing und fast kein Shading mehr, und da ist der Vorsprung von Turing gegenüber Pascal auch um Größenordnungen größer.

Gast
2019-08-02, 18:19:08
Geseier eines NVidia Entwicklers (Forscher - ich lach mich schlapp), was nichts anderes bedeutet als den Leuten ins Ohr zu säuseln, sie müssten unbedingt jetzt RT Hardware kaufen was derzeit im Bereich dGPU nur NVidia wäre. Bullshitmarketing³ und Profitgier lässt grüßen...geht denen wohl wegen Ansätzen der Konkurrenz der *rsch wieder mal auf Grundeis. Schnell raus damit. Anscheinend verkauft sich Turing nicht so gut wie NVidia ständig behauptet.

2023 RT-Spielezwang für Nvidia geförderte Games?, macht doch dann bleibt der Krempel halt im Regal stehen. Weder Battled*of, Metro drölfste Version noch SotTR konnten mich überzeugen, sichtbar zuweilen nur auf Ultrapreset bei 30-40fps :rolleyes:, DLSS Matschmüll abgeschaltet. Dafür gebe ich keine 1000-1700 Euro aus. Alles unter einer ti kann man in 4K getrost vergessen.

Mir geht RT wie die letzten 25 Jahre schon, recht herzlich am Hintern vorbei. NVidia tut ja so als gäbe es das erst ab Turing. Hollywood braucht es zunehmend, Gamer eher nicht. Gimmick mehr nicht, von NVidia auch noch zweitklassig und viel zu Ressourcen fordernd umgesetzt. Die wissen schon warum, da kann man schön und die nächsten Jahre weiter an der Preisspirale drehen. Hoffentlich haben Intel und AMD was dagegen.

Gast
2019-08-08, 22:14:57
Geseier eines NVidia Entwicklers (Forscher - ich lach mich schlapp), was nichts anderes bedeutet als den Leuten ins Ohr zu säuseln, sie müssten unbedingt jetzt RT Hardware kaufen was derzeit im Bereich dGPU nur NVidia wäre. Bullshitmarketing³ und Profitgier lässt grüßen...geht denen wohl wegen Ansätzen der Konkurrenz der *rsch wieder mal auf Grundeis. Schnell raus damit. Anscheinend verkauft sich Turing nicht so gut wie NVidia ständig behauptet.

Und wo macht er das? Wenn 2023 erst Spiele kommen die RT voraussetzen heißt es doch genau das gegenteil, nämlich dass man bis dann mit einer Hardware ohne RT immer noch das Auslangen finden kann.

Alles unter einer ti kann man in 4K getrost vergessen.

Glücklicherweise bringt RT (zumindest in Tomb Raider und Metro) deutlich mehr Bildqualität als der Sprung auf 4k.

Gast
2019-08-10, 19:31:30
Dann gibt es wirklich praktisch nur mehr Raytracing und fast kein Shading mehr, und da ist der Vorsprung von Turing gegenüber Pascal auch um Größenordnungen größer.
Egal welche Form von RT, wird es letztlich durch Shader ausgeführt, wie soll es dann kein Shading mehr geben?

Habe selten so einen Quatsch gelesen...

Gast
2019-08-11, 23:28:56
Egal welche Form von RT, wird es letztlich durch Shader ausgeführt, wie soll es dann kein Shading mehr geben?


Beim Raytracing wird als erstes der Schnittpunkt vom Strahl mit einem (üblicherweise dem nächstliegenden) Dreieck gesucht.

Genau dieser Schritt wird von Turing in Hardware beschleunigt, nicht mehr und nicht weniger.

Nachdem man damit das Dreieck gefunden hat findet das eigentliche Shading statt, was mehr oder weniger Aufwändig sein kann, um die Farbe des jeweiligen Punktes den der Strahl getroffen hat zu berechnen.

Je nachdem wie groß der Anteil des einen und jeweils anderen ist, kann sich Turing damit logischerweise mehr oder weniger von GPUs ohne dezidierter RT-Hardware absetzen.

Vereinfacht gesagt, wenn Turing 50% der Zeit des Frames mit dem Raytracing und 50% der Zeit beim Shading verbringt, kann die Framerate, wenn das Raytracing 10x schneller als auf herkömmlicher Hardware erfolgt, maximal 5x so hoch sein.

Je nachdem wie groß der Anteil des jeweiligen Teils der Berechnung ist, kann sich dieser Faktor natürlich in die eine oder andere Richtung verschieben.

Bei der Quake 2 RT-Umsetzung kann man über die Konsole alle Oberflächen spiegelnd einstellen. Damit wird der Ray an jeder Oberfläche weitergeworfen, und damit verbringt man in jedem Frame den Großteil der Zeit mit dem Raytracing, und der Shading-Anteil wird minimiert.