PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD wird definitiv auf RayTracing reagieren


Leonidas
2018-11-13, 11:51:23
Link zur News:
https://www.3dcenter.org/news/amd-wird-definitiv-auf-raytracing-reagieren

AffenJack
2018-11-13, 12:10:56
Bei der nächsten XBox dürfte dies letztlich nicht viel anders sein, da auch dort derzeit faktisch nur AMDs Grafikchip-Technologie als "Auswahl" zur Verfügung steht und die nächste XBox nicht später als die PS5 erscheinen sollte.

Achja? Und wieso steht faktisch nur AMD zur Verfügung? Selbst wenn man Nv beiseite lässt wegen den fehlenden X86 Kernen, bleibt immernoch Intel. Die haben einerseits auch selber länger an RT geforscht und könnten auch Ihren eigenen SoC bauen. Das wäre ein gutes Marketinginstrument für ihre neue GPU Sparte, da ansonsten erstmal Skepsis herschen wird. Dafür wäre ihnen auch ein günstiger Preis zuzutrauen. Aber genauso wäre eine ARM Konsole von Nv möglich. Damit könnte MS dann auch stärker ARM Windows pushen.

Klar hat AMD die besten Karten für die nächste Konsolengen, aber zu behaupten, dass es faktisch keine anderen Möglichkeiten gibt, ist schon etwas vermessen. Mich würde genausowenig überraschen, wenn MS Konsole entgegen deiner Aussage später erscheint als die PS4. Die Xbox One X ist nunmal auch 1 Jahr jünger und wenn das eine Jahr ausreicht, um zb RT drin zu haben und damit gegen die PS5 Marketing zu betreiben, dann ist das durchaus möglich.

etp_inxession
2018-11-13, 12:36:53
Intel hat doch gar nicht die Kapazitäten um ein CustomSoC für Konsolen herzustellen.

Die kommen ja so schon nicht hinterher mit ihrer Fertigung.

ARM ist zwar möglich, aber unwahrscheinlich. Alleine wegen der Abwärtskompatiblität.

7nm SoC von AMD wird wohl den Weg in die neuen Konsolen finden.
Natürlich kann es Überraschungen geben.

Generell hat der Typ aber Recht.

Die RTX Karten wären, bei Konkurrenzfähigen Karten ohne RTX, absolute Ladenhüter.
So wird RTX von nVidia zwar verbreitet, aber niemand kann es effektiv nutzen.

Die Konsolen (evtl erst übernächste Gen) bringen Raytracing den Durchbruch.
Die Technologie muss aber einfacher und besser implementiert werden. Zudem ist es sehr wahrscheinlich das AMD einen gewissen Teil, der CPU rechnen lässt.

Soll es ja Ansätze geben.

Lustig wäre, wenn die brach liegende Leistung bei Vega/Navi gerade bei Raytracing so richtig zur Geltung käme.

Schon jetzt beeindruckend wie nVidia die Pascal Gen fallen lässt.
1080 wird nun von Vega 64 in nahezu allen Spielen geschlagen.

Screemer
2018-11-13, 12:47:01
@affenjack: du glaubst doch wohl selbst nicht, dass Intel bis Mitte 2020 irgendwas konkurrenzfähiges beim gpu-part im Vergleich zu amd socs auf die Beine stellen wird, oder doch?

AffenJack
2018-11-13, 13:15:42
Ich glaube ganz schön viele Leute unterschätzen, was Intel im GPU Bereich leisten kann, wenn sie Geld reinstecken, vor allem mit den ganzen Leuten die sie rekrutiert haben. So wie viele auch gedacht haben, Intel wäre uneinholbar, bevor Zen kam. Ich habe wenig Zweifel, dass sie was Konkurrenzfähiges bauen können. Das größte Risiko sehe ich allerdings beim Prozess. 2020 könnte es 7nm EUV gegen Intels 10nm sein und damit sehr schwierig für Intel.

Gast
2018-11-13, 13:16:18
Die Konsolen (evtl erst übernächste Gen) bringen Raytracing den Durchbruch.
Die Technologie muss aber einfacher und besser implementiert werden. Zudem ist es sehr wahrscheinlich das AMD einen gewissen Teil, der CPU rechnen lässt.


Also das gerade Konsolen RTX sinnvoll nutzen können sollen, halte ich für sehr unwahrscheinlich. Dazu ist der Abstand von Konsolenhardware zur jeweils aktuellen High-End-Hardware zu groß.

Aus meiner Sicht sollte AMD zumindest bei den Gamer-Karten besser den ganzen Hype um RTX ignorieren und lieber genug Rechenleistung in die Mid-Range-Karten bringen, um 4K auch mit 60 Hz darstellen zu können. Als Early Adopter ist man doch immer der Loser, bezahlt hohe Preise und bekommt selten die versprochene Leistung, wenn man Pech hat, kommt das Ganze sogar nie richtig zum Fliegen.

Gast
2018-11-13, 13:32:33
Ernstgemeinte Frage:
Warum sind sich eigentlich alle so sicher, dass Intel an Gaming-Grafikkarten arbeitet?
Intel hat noch NIE Interesse an dem Markt gezeigt. Geht es hier nicht einfach darum Nvidia im Compute/Datacenter-Markt Konkurrenz zu machen?
Ich glaube da wird von Intel nichts im Gamingbereich kommen.

MrSpadge
2018-11-13, 14:01:13
Ich verstehe an der Diskussion nicht, warum immer gesagt wird, die kleineren Chips wären zu langsam für Ray Tracing. Die normale Rechenleistung über die Shader wirkt sich doch annähernd linear auf die berechenbaren Pixel aus, wenn man nicht in andere Limits läuft (CPU Limit ist im low-end irrelevant, Speicherbandbreite und -menge muss natürlich genug da sein im Verhältnis zur Rechenleistung, sonst ist der Chip eh ein absichtlich so ausgelegter Rohrkrepierer). Damit heißt: mit z.B. 1/4 der Rechenleistung kann man auch nur 1/4 der Pixel bei gleicher Bildwiederholrate darstellen und muss die Auflösung halbieren. Skaliert man nun die RT-Kerne genauso wie die sonstigen Shader, reicht für diese 1/4 der Pixel auch 1/4 der RT-Rechenleistung - welche dann automatisch mit an Bord ist.

Dieses Prinzip funktioniert solange, wie die kleineren GPUs die gleiche Bildqualität auf geringerer Auflösung darstellen. Möchte man stattdessden gleiche Auflösung bei geringerer Raster-Qualität haben, klappt es natürlich nicht mehr. Außer man nimmt beim Ray Tracing ein bisschen mehr Rauschen als reduzierte Bildqualität in Kauf.

Beispiel:
GTX1060 6 GB mit 76% 4k-Index und 4,37 TFlops SP vs.
GTX1080 8 GB mit 132% 4k-Index und 8,87 TFlops SP

D.h. für die 2,03-fache Rechenleistung gibt's bei diesen recht ähnlich ausbalancierten Karten im GPU-Limit (in FHD klappt die Betrachtung wegen des CPU-Limits nicht) die 1,74-fache Leistung. Was sicherlich noch durch die nur um den Faktor 1,67 gestiegene Speicherbandbreite limitiert wird.

MrS

cat
2018-11-13, 14:05:15
Ich finde an der privaten Einschätzung von AMDs Mr. Wang nichts Schlechtes.
Ich empfinde es als wahr was er sagte.

AMD ist mit z.B. Mantle vorrangegangen als Alle anderen mit DX11 und OpenGL in einer Sackgasse standen. Dieser neue Weg mit seinen ganzen Möglichkeiten ist bis heute nicht voll geöffnet.

Doom Eternal wird pure Vulkan sein und im DX12-Lager kommen bald auch pure DX12 Titel.
Volle Nutzung aller zu beschleunigenden Teile der neuen APIs kommt erst Stück für Stück.

Mit DXR leistet jetzt Nvidia auch wiedermal einen Teil zum Fortschritt, es ist gut das er so viel früher passiert.

Mit DXR ist der Unterbau da, wie flexibel und zugänglich für Software- und HW-Entwickler er ist wird sich zeigen.

Zu Navi gibt es seit einiger Zeit ja Gerüchte, es würden schon dort die Fesseln von GCN gesprengt, obwohl es ursprünglich von AMD eindeutig als letzte Inkarnation eben dieser GCN bezeichnet wurde.

WCCFtech meldete vor ein paar Tagen abermals die non-GCN These
https://wccftech.com/exclusive-first-amd-navi-gpu-will-have-40-cus-and-is-codenamed-navi-12/
40 ComputeUnits und damit vermutlich 2560 Cores
Der Chip würde mit ca. 110mm² wirklich winzig, und könnte tatsächlich mit einigen Verbesserungen und Taktratensteigerungen in Performancebereiche einer Vega56 vordringen.

Zur Intention zu einem "kleiner als 64CU Chip" gibt es auch seit Längerem die Spekulation zu Sony als Abnehmer für eine PS5 oder weiteren Steigerung der PS4pro um die "Xbox One X" zu überflügeln.
Unnütz ist so ein 40CU Chip bei ca. 2GHz sicher nicht für AMD.

Für mich perönlich zieht auch die Idee das Wagnis einer modifizierte Architektur eben nicht mit einem riesigen Chip, dessen eingeschränkten Einsatzspektrum anhand seiner TDP, VK-Preis, etc. einzugehen, sondern mit einem schnellen kleinen Chip die selben Erkenntnisse mit viel weniger Risiko zu ernten.

Gast
2018-11-13, 17:10:32
Ich verstehe an der Diskussion nicht, warum immer gesagt wird, die kleineren Chips wären zu langsam für Ray Tracing. Die normale Rechenleistung über die Shader wirkt sich doch annähernd linear auf die berechenbaren Pixel aus, wenn man nicht in andere Limits läuft
Ich glaube nicht, dass man das bei RT auch so machen kann. Da müsste man die Rays reduzieren um Rechenleistung zu sparen. Aber das wirkt sich nicht auf die Auflösung aus, sondern auf die Anzahl der Objekte, die man sieht.

Gast
2018-11-13, 17:21:34
Ich glaube ganz schön viele Leute unterschätzen, was Intel im GPU Bereich leisten kann, wenn sie Geld reinstecken, vor allem mit den ganzen Leuten die sie rekrutiert haben. So wie viele auch gedacht haben, Intel wäre uneinholbar, bevor Zen kam. Ich habe wenig Zweifel, dass sie was Konkurrenzfähiges bauen können. Das größte Risiko sehe ich allerdings beim Prozess. 2020 könnte es 7nm EUV gegen Intels 10nm sein und damit sehr schwierig für Intel.
Zunächst mal gehe ich auch davon aus, dass Intel erst mal HPC abdecken will, weil man da viel Geld machen kann.
Aber was auch noch gegen Intel spricht, ist das gewaltige Risiko, was Microsoft da auf sich nehmen müsste:
Was, wenn man Intel tatsächlich als Hersteller wählen würde und die dann nicht liefern können, weil ihre GPU nicht funktioniert oder zu langsam ist? Das kommt auch bei Intel vor (siehe XMM 8060, was Intel eigentlich als erstes 5G Modem launchen wollte und nun nicht am Markt verkaufen wird). AMD kann man grob einschätzen, NVidia auch, aber bei Intel ist da noch ein riesen Fragezeichen. Und so eine Konsole ist nun mal auch ein nicht unerheblicher Teil der Bilanz... Wenn der weg bricht, dann rollen die Köpfe im Management, also setzt man da sicher auf Nummer sicher.
ARM ist zu langsam, da sind ja die Jaguar Kerne ja noch schneller. Also bleibt nicht allzu viel übrig.

Gast
2018-11-13, 17:31:47
denn logischerweise sollte es aufgrund des erheblichen Transistorenaufwands eine ganze Weile dauern, ehe RayTracing-Funktionalität bis ins LowCost-Segment wandert.

Der ist nicht größer als bei einer 28nm mobile GPU (https://www.youtube.com/watch?v=ND96G9UZxxA&t=120) und das bei ca. gleicher Raytracing-Leistung wie Turing (https://cdn.wccftech.com/wp-content/uploads/2018/10/NVIDIA-DirectX-Simple-Ray-tracing-Benchmark-RTX-2080-Ti-RTX-2080.jpg) mit nur 1% des Strombedarfs. Nvidias Raytracing-Versuch sollte man daher nicht als Maßstab nehmen.

Dafür sind möglicherweise sogar zwei zusätzliche Grafikchip-Generationen notwendig

Das scheint leider bei Nvidia der Fall zu sein. Von einem dedizierten HW-Raytracer mit >200 Watt Verbrauch, besserer Fertigung, einem Vielfachen der Chipfläche sowie Taktrate, längerer Entwicklungszeit und Angesichts des vielfach höheren Budgets, das Nvidia zur Verfügung steht, hätte ich ein Vielfaches an Raytracing-Performance erwartet. Ich bin mal gespannt, ob AMD und Intel das besser hinbekommen.

RLZ
2018-11-13, 17:47:20
Warum wird die News so formuliert, als ob Hybridrenderer etwas schlechtes wären? Solange die Rasterizer günstiger sind als in allen Fällen Primärstrahlen mit Raytracing zu schießen, werden sie uns erhalten bleiben. Also sehr sehr lange.


Dazu würde ich Raytracing Support auch nicht als Midlife-Kicker für die nächste Konsolengeneration ausschließen.

Gast
2018-11-13, 19:28:17
Ich verstehe an der Diskussion nicht, warum immer gesagt wird, die kleineren Chips wären zu langsam für Ray Tracing. Die normale Rechenleistung über die Shader wirkt sich doch annähernd linear auf die berechenbaren Pixel aus, wenn man nicht in andere Limits läuft (CPU Limit ist im low-end irrelevant, Speicherbandbreite und -menge muss natürlich genug da sein im Verhältnis zur Rechenleistung, sonst ist der Chip eh ein absichtlich so ausgelegter Rohrkrepierer). Damit heißt: mit z.B. 1/4 der Rechenleistung kann man auch nur 1/4 der Pixel bei gleicher Bildwiederholrate darstellen und muss die Auflösung halbieren. Skaliert man nun die RT-Kerne genauso wie die sonstigen Shader, reicht für diese 1/4 der Pixel auch 1/4 der RT-Rechenleistung - welche dann automatisch mit an Bord ist.


Wenn eine große GPU ohne Raytracing 180FPS schafft, mit Raytracing immer noch 60FPS ist sie immer noch brauchbar.

Die kleine GPU schafft aber schon ohne Raytracing nur 60FPS. Mit Raytracing werden es dann 20FPS und damit für die meisten Genres unbrauchbar.

Gast
2018-11-13, 19:47:37
Raytracing only wird es nie geben, ganz einfach weil egal wie stark die Performance noch steigen wird viele Dinge einfach immer effizienter mit Rasterizing sein wird.

Man kann wohl auch davon ausgehen, dass Nvidia mit der nächsten Generation durchgehend Raytracing bieten wird. Und nein eine Einstiegskarte muss nicht schnell genug sein um das real ausführen zu können, eine Geforce 1030 ist auch zu langsam für reales Gaming.

Und wie so man sich so sicher ist, dass AMD wieder alle Konsolendeals schnappen wird ist mir schleierhaft.
Klar haben sie die besten Karten aber sind alles andere als alternativlos.

Sowohl Nvidia als auch Intel wären durchaus denkbare Alternativen, und in Zeiten in denen der Trend wieder dahin geht mehrere einzelne DIEs zu verbauen wäre es durchaus denkbar wieder unterschiedliche GPUs und CPUs zu verbauen, womit man auch verschiedene Hersteller verwenden kann.

Insbesondere hat Nvidia im Moment den großen Vorteil für gleiche Performance wesentlich weniger Transistoren zu benötigen, was für Konsolen bedeutet geringere Herstellungskosten. Damit sind sie alles Andere als aus dem Rennen.

Gast
2018-11-13, 20:56:42
AMD hat seine GPU Varianten mehr oder weniger immer für eine bestimmte Auflösung bei 60fps designt.
Das ist denen ab und an auf die Füsse gefallen, als z.B unsinniges Tesselation oder Polycount zu schlechten Benchmarks für AMD führten.

NVidia hat jetzt DXR Hybridrendering auf 30fps bei HD ausgelegt? Der DXR Teil arbeitet ab vom VRAM Zugriff sehr unabhängig in der Renderpipe

Klar sollte doch sein es wird auf lange Sicht nur Hybridrendering für hohe Auflösung in Echtzeit geben. Echtes RT in Echtzeit braucht dann doch noch 20 Jahre ;D
Für Einsteiger GPUs bei halben HD und vollem HD genügt wohl nVidias aktuelle DXR Leistung, Die Frage ist wie viel Platz will man der RT Einheit zugestehen und ob das auch als Chiplet angeklebt werden kann...
Ich vermute es kann und die nächsten Konsolen kommen mit so nem Chplet von ImgTech an nen Vega Rasterizer geklebt... ;)

Screemer
2018-11-13, 22:14:12
Ich glaube ganz schön viele Leute unterschätzen, was Intel im GPU Bereich leisten kann, wenn sie Geld reinstecken, vor allem mit den ganzen Leuten die sie rekrutiert haben. So wie viele auch gedacht haben, Intel wäre uneinholbar, bevor Zen kam. Ich habe wenig Zweifel, dass sie was Konkurrenzfähiges bauen können. Das größte Risiko sehe ich allerdings beim Prozess. 2020 könnte es 7nm EUV gegen Intels 10nm sein und damit sehr schwierig für Intel.
Intel hat vor nicht all zu langer Zeit schon einmal versucht Erfahrung mit Geld und manpower zu schlagen. Heraus kam larrabee und jeder weiß was aus dem wurde. Wie lange es dauert IP aus dem Nichts zu ziehen sieht man an Apples gpu-ip. Die haben ein halbes Jahrzehnt gebraucht um ihren alten ip-prvider abzulösen und die haben das Problem mit noch mehr Köpfen und noch mehr grünen Scheinen erschlagen als es bei Intel derzeit der Fall zu sein scheint. Die Planungen für die nächste Generation der Konsolen ist in vollem Gange und von Intel weiß man rein gar nichts. Ob es zeitlich, fertigungstechnisch oder gespeichert hwindigkeitstechnisch überhaupt was wird ist nicht Mal im Ansatz abzusehen. Imho ist der zug da schon abgefahren. Die einzige Combo die ich mir überhaupt neben amd vorstellen könnte, ist eine nv-gpu+arm als xavier in richtig dick. Damit würde man aber jegliche Abwärtskompatibilität direkt in die Tonne treten und da konnten die Partner schlicht nicht mitspielen. MS ist da leider sehr darauf angewiesen, denn ihre eigenen Studios bringen einfach nichts auf die Kette.

MrSpadge
2018-11-13, 23:35:37
Ich glaube nicht, dass man das bei RT auch so machen kann. Da müsste man die Rays reduzieren um Rechenleistung zu sparen. Aber das wirkt sich nicht auf die Auflösung aus, sondern auf die Anzahl der Objekte, die man sieht.
Du brauchst eine bestimmte Anzahl an Strahlen pro Pixel oder Pixelblock, damit es nicht zu sehr rauscht. Da werden sie direkt an's Limit gegangen sein. Aber weniger Pixel beutet automatisch weniger Strahlen. Ende der 90'er konnte mein Celeron 466 MHz schon Echtzeit Raytracing mit ner eher schlechten Engine, wenn die Szene nicht zu komplex war und vor allem das Vorschaubild sehr klein. Das volle Bild hat dann Minuten bis Stunden gedauert.

Wenn eine große GPU ohne Raytracing 180FPS schafft, mit Raytracing immer noch 60FPS ist sie immer noch brauchbar.

Die kleine GPU schafft aber schon ohne Raytracing nur 60FPS. Mit Raytracing werden es dann 20FPS und damit für die meisten Genres unbrauchbar.
Dann stell bei der kleinen GPU die Auflösung um nen Faktor 2 runter -> nur noch 1/4 so viele Pixel zu berechnen. Dann wird sie auch mit ca. 180 FPS rennen, wenn's die CPU denn zulässt.

MrS

Gast
2018-11-14, 01:29:30
Leider finde ich meine Accountdaten grad nicht (gelöscht?), jedenfalls wollte ich zu dieser Passage reagieren

"Allerdings dürfte sich die übernächste Spielekonsolen-Generation dann in vollen Zügen an dieser Pionierarbeit bedienen und möglicherweise auf reine RayTracing-Beschleuniger ohne jede (oder nur eine mickrige) Rasterizer-Funktionalität setzen."

Als jemand der Jahrelang mit Raytracing gearbeitet hat - sowohl einfach als Anwender von diversen Programmen die mit Raytracing arbeiten - als auch meine eigenen Raytracing Minirenderer geschrieben habe: das wird nicht innerhalb der nächsten 10-15 Jahre passieren - außer man schraubt in den Spielen die Details massiv nach unten.

Raytracing ist so dermaßen Leistungsintensiv, dass auch heute noch eine 2080 Ti einige Sekunden bis Minuten (je nach Details) für einen einzelnen Frame benötigen (gut, Techdemos mit lächerlich geringen Detaisl mal außen vorgelassen). Sofern keine Tricks gefunden werden das weiter drastisch zu reduzieren wird das eher nichts. Heutige Grafik KOMPLETT raytraced wäre wohl bei Frameraten in den Kommastellen möglich. Um Raytracing in Realtime (ganz ohne bzw mit kaum Rasterizing, wie es suggeriert wird) umzusetzen, braucht es ein vielfaches an der heutigen RT Leistung. Ich meine damit nicht 4-5x so viel, ich rede hier eher vom Faktor 300-500, vielleicht sogar mehr. Und da reden wir noch nichtmal von höheren Auflösungen (4K oder gar 8K).

Wo soll diese Leistung herkommen bei den sich immer langsamer entwickelnden Prozessfortschritten?

Klar gehört Raytracing die Zukunft, aber die nächsten 15 Jahre haben wir bestimmt noch einen hybriden Ansatz.

Leonidas
2018-11-14, 04:10:46
Danke @ Gast für diese wertvolle Einordnung.

Calypso
2018-11-14, 08:08:47
Und wie so man sich so sicher ist, dass AMD wieder alle Konsolendeals schnappen wird ist mir schleierhaft.
Klar haben sie die besten Karten aber sind alles andere als alternativlos.

Sowohl Nvidia als auch Intel wären durchaus denkbare Alternativen, und in Zeiten in denen der Trend wieder dahin geht mehrere einzelne DIEs zu verbauen wäre es durchaus denkbar wieder unterschiedliche GPUs und CPUs zu verbauen, womit man auch verschiedene Hersteller verwenden kann.

Insbesondere hat Nvidia im Moment den großen Vorteil für gleiche Performance wesentlich weniger Transistoren zu benötigen, was für Konsolen bedeutet geringere Herstellungskosten. Damit sind sie alles Andere als aus dem Rennen.

man sollte nicht nur immer die reine Geschwindigkeit sehen - Intel war schon immer nur hochpreisig unterwegs und nvidia setzt da zur Zeit noch die Krone oben drauf - und mit solchen Preisvorstellungen kann man keine Konsole verkaufen. Das sollte man mal nicht ganz außer Acht lassen...

Mortalvision
2018-11-14, 08:26:11
@Gast gehe konform, aber ein Raytracing Bild mit DLSS (insofern es was bringt) dürfte in 720p schon bald machbar sein. Sobald du zur reinen rtx power eine ki-berechnung dazustellst, die über die Zeit bessere Bilder liefert, und man sich auf das Fokus-Halo unseres Sehvermögens konzentriert (eine liegende Acht in der Mitte des Bildschirms) hast du wohl schnell brauchbare 30-60fps in Bewwgung.

Platos
2018-11-14, 11:09:45
Man schaut nicht immer auf die selbe Stelle auf dem Bildschirm. Das wird gerade bei Monitoren/TVs nie funktionieren. Dazu sind die zu klein bze. der Sitzabstand zu gross. Und selbst bei VR Brillen wird sich zeigen, wie gut das funktioniert (ohne eye tracking )

FlashBFE
2018-11-14, 13:08:27
nvidia setzt da zur Zeit noch die Krone oben drauf - und mit solchen Preisvorstellungen kann man keine Konsole verkaufen. Das sollte man mal nicht ganz außer Acht lassen... Dann frage ich mich, warum sich die Switch so gut und günstig verkaufen lässt. Natürlich kann NV billiger bauen, wenn es sein muss. Und bei den Fortschritten, die ARM-Kerne in ihrer Leistung machen können (siehe A12X), würde ich die auch nicht ganz ausschließen, selbst wenn dann 16 Stück in der CPU landen müssten.

Ich würde das Herstellerrennen um die Konsolen also längst nicht abhaken, vor allem da durch die langjährige (20?) Vereinbarung zwischen Nintendo und NV letztere nun zwangsweise in dem Markt bleiben müssen.

Gast
2018-11-14, 13:58:13
Wo soll diese Leistung herkommen bei den sich immer langsamer entwickelnden Prozessfortschritten?

Klar gehört Raytracing die Zukunft, aber die nächsten 15 Jahre haben wir bestimmt noch einen hybriden Ansatz.
Bestätige ich Dir gern und sehe es genauso. Der Hype den Nvidia darum verantstaltet dient sicher auch RT überhaupt erst im Gamerbereich zu etablieren. Mit guten Frameraten sollte man die nächsten Jahre trotzdem nicht rechnen.

Hitman 2 zeigt das es auch ohne geht und realer Leistungszuwachs in der Hardware-Entwicklung helfen kann, ähnlich optische/visuelle Ergebnisse zu generieren. Leider hat nVidia sich imo zu sehr auf Raytracing konzentriert, anstatt auch Leistungszuwächse in bestimmten Größenordnungen zuzulassen, was ihre Hardware in der Vergangenheit auch auszeichnete. Denke denen geht es mehr um Kontrolle anstatt vorerst wirklichen Nutzen (Hybrid hin oder her), denn mit den DLSS Verfahren entscheiden die was RTX on oder RTX off ist. Den Highend-Konsolenbereich haben sie bezüglich der Software-/Hardwareentwicklung komplett verloren, was auch einen massiven Verlust darstellt, seine Strategie bezüglich dieses Marktes sinnvoll auszurichten.

Von AMD erwarte ich da brennend eine Antwort, schon weil Wang meinte RT kann sich erst flächendeckend etablieren, wenn auch Midrange Hardware in der Lage ist lauffähige Ergebnisse abzuliefern (da meinte er wohl auch Konsolen; mal abgesehen von dem RT Hype - übelst - eine XOX ist in H2 unter nativem 4K schneller als eine 2080ti! siehe Youtube). Ich hoffe das sie demnächst leistungstechnisch was drauf legen. 25% wie bei Vega20 sind mir zu wenig. RT ist mir ehrlich gesagt egal. Mir gehts da wie nVidia, ich mag den Kontrollverlust nicht. Wenn ich in 4K investiere möchte ich auch echtes 4K nativ und nichts gesampeltes. Auch wenns noch so "ähnlich" oder "nahe dem" aussieht. AA kann man unter höheren Auflösungen auch weitgehend vernachlässigen wenn der Entwickler keinen Mist baut. DXR hat mit zuviele Baustellen, dass zu koordinieren ist sicher schwer (DXR API; OS; Treiber; RTX; Engine) und viel zu viele "aber" an denen der Entwickler wieder nicht beteiligt wird, warum es dann doch nicht gut funktioniert.

Alles in einer API und der Engine unter Kontrolle der Entwicklung erscheint mir leichter umsetzbar, anstatt dieser Kontrollwahn der Hersteller und proprietären/dedziertem Zeugs dazwischen.

Gast
2018-11-14, 15:20:08
Ich meine damit nicht 4-5x so viel, ich rede hier eher vom Faktor 300-500, vielleicht sogar mehr. Und da reden wir noch nichtmal von höheren Auflösungen (4K oder gar 8K).

Wo soll diese Leistung herkommen bei den sich immer langsamer entwickelnden Prozessfortschritten?

Aus effizienteren ASIC als bei der Turing-GPU, die für die etwa gleiche RT-Performance 100x mehr Strom verbraucht als eine 3 Jahre alte 28nm mobile GPU der Konkurrenz. Wenn man deren Taktrate(~3x) und Chipfläche(~8x) auf Desktop-Niveau mit 7nm Fertigung(~4x Transistordichte) vervielfachen würde, würde das für rauschfreie ~240 rays per pixel bei 60fps in 1080p (oder ~60 rays per pixel bei 60fps in 4K) ausreichen. 2016 reichte es immerhin schon für rauschfreie 20fps in 1080p (https://www.youtube.com/watch?v=uxE2SYDHFtQ).

Falls das nicht reicht, könnte man (wieder (https://www.extremetech.com/extreme/161074-the-future-of-ray-tracing-reviewed-caustics-r2500-accelerator-finally-moves-us-towards-real-time-ray-tracing)) 2 davon auf eine Karte packen und hätte damit schon Faktor ~200. Mit 2 solcher Karten im Rechner wäre man bei Faktor ~400 und könnte die Heizung abstellen.

Gast
2018-11-14, 16:25:16
Zwischen 16nm und 7 nm gibt es ja noch 10nm. Also ~8x Transistordichte und nicht 4x gegenüber 28nm und damit ~480 rays per pixel bei 60fps in 1080p (oder ~120 rays per pixel bei 60fps in 4K) und Faktor ~400 für 2 GPUs & ~800 für 2 Karten.

Gast
2018-11-14, 19:14:20
Alles in einer API und der Engine unter Kontrolle der Entwicklung erscheint mir leichter umsetzbar, anstatt dieser Kontrollwahn der Hersteller und proprietären/dedziertem Zeugs dazwischen.
Genauso guter Post!

Und die Posse nimmt ihren Lauf, wir optimieren weiter. Phil kann sich das Lachen fast nicht verkneifen (natürlich NDA jedes böse Wort oder Belächeln und jede andere Gesichtsmimik nicht gestattet):

http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Videos/Battlefield-5-Raytracing-Performance-unter-die-Lupe-genommen-1269324/

FHD und was NVIDIA dabei für eine Performance abliefert unglaublich. Ehrlich es sieht schlimmer aus als ohne Raytraycing. Und dazu auch noch schlecht implementiert von Dice. Glanz überall, da wo er nicht hingehört. Das ist so Echtzeit als wenn würde jemand bemerken wenn in China ein rostiges Fahrrad umfällt.;)

Mein Gott Jensen was soll dieser Quatsch! Ein Glück das ich abgewartet habe und für diesen Mumpitz nicht 1,4K auf den Tisch gelegt habe. Dann bis 2021 NVIDIA. Nach dem ganzen Touwabo um die 2080ti FE, wo mittlerweile jede dritte Karte der ersten Chargen langsam den Geist aufgibt einfach nur lachhaft...selbsternannter Marktführer, naja wers glaubt. Ich hoffe mal AMD äfft diesen Quatsch nicht nach. Bitte nicht! Lasst Raytracing bei den Filmstudios und Grafikbuden. Raus damit aus Spielen und bitte nie wieder Pixelbrühe FHD!!!!

Gast
2018-11-14, 21:50:56
So, nochmal der Gast von Beitrag 19

Bestätige ich Dir gern und sehe es genauso. Der Hype den Nvidia darum verantstaltet dient sicher auch RT überhaupt erst im Gamerbereich zu etablieren. Mit guten Frameraten sollte man die nächsten Jahre trotzdem nicht rechnen.
Jep, außer man lässt es bei einigen kleinen Effekten (etwa Spiegelungen)mit wenig bounces... also Strahlungstiefe oder wie auch immer man es übersetzen mag. Das ist aber nur ein Bruchteil dessen, was Raytracing kann.


Hitman 2 zeigt das es auch ohne geht und realer Leistungszuwachs in der Hardware-Entwicklung helfen kann, ähnlich optische/visuelle Ergebnisse zu generieren.

Natürlich geht es auch ohne RT.
Die sache ist die: bislang war Rastern klar effizienter, aber je detaillierter die Grafik sein soll, je eher man richtung "FOtorealismus" geht, desto weniger effizient wird Rasterizing - und wird an irgendeinem Punkt von Raytracing überholt. Was wir bislang hatten waren optische Tricks die uns physikalisch korrekte Grafikberechnungen vorgaukeln. Reflexionen gab es ja schon länger (Comanche 4 mit DX8), und die wurden natürlich immer besser, sind aber lange noch nicht physikalisch korrekt.

Leider hat nVidia sich imo zu sehr auf Raytracing konzentriert, anstatt auch Leistungszuwächse in bestimmten Größenordnungen zuzulassen, was ihre Hardware in der Vergangenheit auch auszeichnete.
Natürlich hätte Nvidia die riesigen Chipfläche rein fürs Rastern einsetzen können. Nur bewegen wir uns da - wie oben erwähnt - in eine Sackgasse. Denn wenn die Performance weiter steigt, die Objektmengen und details (Polygone) weiter steigen, steigt der Anspruch im Falle von Raytracing ja auch an (weil die Strahlen ja an den Oberflächen abprallen - detailliertere Oberflächen= mehr benötigte Rays). Insofern - und das mag jetzt niemanden schmecken - gabs keinen besseren Zeitpunkt als Raytracing jetzt zu bringen. Die Polygonzahlen stagnieren seit Jahren aufgrund der schwachen Konsolen und erst jetzt ist Raytracing überhaupt ( zu wenigen Prozent des Gesamtbildes) als Hybridlösung Leistungsfähig genug, diese Grafik (nennen wir sie von 2013, weil da auch die Konsolen herkommen) mit Rays "abzutasten".

Dieses "Stehenbleiben" der Grafikentwicklung hat es also ermöglicht, dass Raytracing endlich ein bisschen eingesetzt wird. Hätten wir die letzten Jahre die Polygonzahlen und Objektmengen weiter erhöht, hätte Raytracing keine Chance gehabt. Es gilt unter anderem den Konsolen ein Dank dafür, dass wir jetzt erstmals endlich Raytracing in Echtzeit erleben können. Wenn auch nur zu kleinen Teilen.

In 2 Jahren, wenn die neuen Konsolen mit potenteren Rasterizing-Chips ausgestattet werden und die Spiele auch mehr Details haben, wäre Raytracing schon wieder viel schwerer umzusetzen. Somit haben wir "Glück im Unglück", denn damit Raytracing sich weiter etabliert, müssen es Entwickler von Anfang an in die Entwicklung einplanen.

Ich führe an dieser Stelle immer gerne Doom 3 und seine (für damalige Verhältnisse) komplexen Licht und Schattenberechnungen an. FÜr die damalig geringe Shaderleistung eine Idee die eher auf Kopfschütteln gestoßen ist. Aber ID Software hat es geschafft das ganze trotzdem flüssig darzustellen. Wie? Nun man hat im Vergleich zur Konkurrenz die Objektdetails massiv zurückgeschraubt. Die reinen Objekte in Doom 3 wirken gar nicht wie ein Spiel aus 2004, eher eins aus den 90ern, die Charaktere usw sind sehr grobkantig und auch Carmack hat erklärt, dass dies aus Performancegründen nötig war. Es ist also durchaus so, dass wenn ein Spiel rund um die Technik gebaut wird, das ganze beeindruckend aussieht und ordentlich nützt - sowie sogar performant ist.



Von AMD erwarte ich da brennend eine Antwort, schon weil Wang meinte RT kann sich erst flächendeckend etablieren, wenn auch Midrange Hardware in der Lage ist lauffähige Ergebnisse abzuliefern (da meinte er wohl auch Konsolen; mal abgesehen von dem RT Hype - übelst - eine XOX ist in H2 unter nativem 4K schneller als eine 2080ti! siehe Youtube). Nun da wurde halt deutlich Low-Level optimiert und auch das LOD perfekt angepasst. Natürlich ist die XOX nicht wirklich schneller, außer die Entwickler wollen das so.

Aber ja, AMD wird antworten mit 7nm Chips die deutlich schneller sind als Vega 20 und Co. Keine Sorge

Gast
2018-11-14, 23:04:52
Nachtrag zu meinem obigen Beitrag und zum Beitrag 19.

Ja es wird auf absehbare Zeit immer Teilszenarien geben, wo Rasterizing effektiver ist als Raytracing. Das hat übrigens auch schon vor ~15 Jahren John Carmack so gesagt und gemeint, dass für viele Jahre ein Hybridansatz existieren wird und sich Raytracing auf keinen Fall mal eben so durchsetzen wird. Carmack äußerte sich in den vergangenen Jahren immer mal wieder zu Raytracing/casting oder Voxel-Based Rendering und auch der "Unlimited Detail" Technik.

Zu meiner Einschätzung (educated(!) guess, also nicht einfach so ins blaue geraten) bezüglich 400-500x Performance die benötigt wird, möchte ich kurz ausführen wie ich zu dieser Zahl gekommen bin (diese ist natürlich ohne Tricks, LOD und andere Detailreduktionen gemeint).

Ich bin dabei davon ausgegangen, dass das Ziel eine ähnliche, mindestens jedoch geringfügig bessere Grafik ist, als was wir heute maximal mit Rasterizing erreichen können, idealerweise richtung Kino CGI oder gar Fotorealismus. Und da sei ganz klar gesagt, dass einzelne Frames beim Kino-CGI nach wie vor nicht in Sekunden, sondern Minuten/Stunden berechnet werden. Das dann in Echtzeit (30+ FPS) darzustellen wird also noch dauern und Performance abverlagnen. Außer natürlich man reduziert die Details so weit, dass aber dann Rasterizing dasselbe oder gar bessere Ergebnis bringt.
Raytracing von heutiger Grafik wäre also auch schon bei 100xer RT Performance möglich, aber nicht, wenn man bedenkt, dass Grafik sich ja weiterentwickelt und detaillierter wird bzw. werden soll. Um traditionelles Rasterizing fast völlig abzulösen, braucht es so unglaublich viel mehr Rohleistung als wir heute haben + Tricks die ersparen jedes Frame neu zu zeichnen sondern nur Teile (dann geht da gleich die Performance sehr viel höher) und auch gutes LOD.

Größte verhindernde Faktoren von Echtzeit Raytracing sind also die bald wieder steigenden Details (mit den neuen Konsolen) statt stagnierenden, sowie den immer langsamer werdenden Fortschritten beim Prozess (nicht nur Intel hat hier nicht mehr die Geschwindigkeit von früher).

Kurzum: Raytracing alleine - ohne Tricks (etwa: nur teile eines neuen Frames berechnet, der Rest wird "übertragen"; GPU und CPU teilen sich RT aufgaben (kann gut sein, moderne CPUs haben viel Leistung und viele Kerne, die Engine muss dies nur unterstützen, eine Art Checkbox-Rendering, also das eigentliche Bild wird in niedrigerer Auflösung berechnet und hochgerechnet, verbesserte LOD Techniken etc etc) wird es ohne Rasterizing noch lange nicht geben. Einen Hybriden Ansatz gibt es schon heute und er funktioniert. Der Raytracing-Anteil wird dabei langsam und stetig steigen. Hybride Renderingmethoden werden dennoch noch mindestens 10-15 Jahre in Spielen verwendet werden, ehe es tatsächlich mal (falls überhaupt) reines Raytracing gibt.
Mehr und mehr Raytracing wird kommen. Aber es wird genauso ein "Feature" werden wie andere zuschaltbare Features, und nicht das gesamte Rastern ersetzen

Nachtrag:
Hier etwa einige Worte zu Raytracing von John Carmack - inklusive eigener Engineexperimente:
http://raytracey.blogspot.com/2011/08/john-carmack-eventually-ray-tracing.html
https://www.pcper.com/reviews/Editorial/Carmack-Interview-GPU-Race-Intel-Graphics-Ray-Tracing-and-Voxels-Multi-Display-a-0

Eine Interessante Antwort von JC im Jahr 2013 zum Bereich Hardware-Raytracing:

Ray Tracing" has always been an overhyped or misunderstood technology, at least in my experience. Because of the impressive lighting effects it's famous for producing, people view it as some "holy grail" of superior computer graphics technology that we just need to optimize a bit for use in games.

As Carmack described, those highly realistic ray traced renders come at a price: billions of ray calculations. You don't get all that pixel-perfect refraction, etc. for free (and probably never will - at least not with ray tracing.) He also explains that for most people, this (e.g. pixel perfect refraction) really doesn't matter, when rasterization techniques exist that achieve extremely high quality approximations at a fraction of the computational cost.

Conversely though, ray tracing and related concepts (ray casting) are not at all without value. Many modern video games today actually use a sort of hybrid rasterization / ray casting approach. Macrostructure objects are rasterized the normal way, while smaller high resolution detail patterns (like a brick wall, or stones in the ground) are "added" to surfaces via per-pixel displacement mapping, which is ray casting at its core. This is one of the few cases where you can take advantage of the "log2" efficiency Carmack mentioned -- in a highly specialized implementation without a huge time constant. von hier https://news.ycombinator.com/item?id=5107022

und hier
https://arstechnica.com/gadgets/2013/01/shedding-some-realistic-light-on-imaginations-real-time-ray-tracing-card/?comments=1&post=23723213

Und genau diesen letztgenannten Artikel hat auch PCGH hier aufgegriffen:
http://www.pcgameshardware.de/Raytracing-Hardware-255905/News/John-Carmack-ueber-Raytracing-1045727/

Gast
2018-11-15, 13:20:31
Intel hat doch gar nicht die Kapazitäten um ein CustomSoC für Konsolen herzustellen.

Die kommen ja so schon nicht hinterher mit ihrer Fertigung.

ARM ist zwar möglich, aber unwahrscheinlich. Alleine wegen der Abwärtskompatiblität.

7nm SoC von AMD wird wohl den Weg in die neuen Konsolen finden.
Natürlich kann es Überraschungen geben.

Generell hat der Typ aber Recht.

Die RTX Karten wären, bei Konkurrenzfähigen Karten ohne RTX, absolute Ladenhüter.
So wird RTX von nVidia zwar verbreitet, aber niemand kann es effektiv nutzen.

Die Konsolen (evtl erst übernächste Gen) bringen Raytracing den Durchbruch.
Die Technologie muss aber einfacher und besser implementiert werden. Zudem ist es sehr wahrscheinlich das AMD einen gewissen Teil, der CPU rechnen lässt.

Soll es ja Ansätze geben.

Lustig wäre, wenn die brach liegende Leistung bei Vega/Navi gerade bei Raytracing so richtig zur Geltung käme.

Schon jetzt beeindruckend wie nVidia die Pascal Gen fallen lässt.
1080 wird nun von Vega 64 in nahezu allen Spielen geschlagen.

Selten soviel rotmotivierten Käse gelesen.

Gehen wir mal auf Vega 64 vs. GTX1080 FE ein:
Ein aktueller Querschnitt hier im 3DC von Leo Aufgestellt sagt genau das Gegenteil aus , weils jetzt in letzter Zeit 3-4 Spiele( von wievielen erschienen im selben Zeitraum ? ) gab die Vega 64 sehr gut geschmeckt haben macht man einfach "nahezu allen draus" , seems legit oder eher :ich mach mir die Welt wie sie mir gefällt.

RTX wären keine konkurenzfähigen Karten bei Konstellation XYZ.....

Die Realität ist einfach das es bis auf Restposten von NVIDAs alter Generation keine Konkurenz im Bereich der RTX GPUs gibt und auch in naher Zukunft von AMD scheinbar nicht geben wird , hätte -wäre -wenn spielt keine Rolle.

AMD rennt technologisch so gewaltig hinterher das sie selbst in 7nm mit der Vega Arch bei 300W ohne RTX Einheiten kein Blumentopf im Bereich Gaming gegen Pascal/Turing Lösungen im gleichen Powerbuget mit 16/12nm Fertigung zu gewinnen .
Du erwartets ernsthaft das eine schon zu Pascal Zeiten im Gaming unterlegenen Vega jetzt über 3-4 magische Softwaretricks auftrumpft, was der die fine Wine Theorie wert war zeigen Zahlreiche Test , im Prinziepo nix ???

Schau dir an wie lange es gedauert hat bis Zen da war und man sich vom Bulldozerfail erholt hat das waren +5 Jahre mit dem Glück das Intel sich recht letarg im Desktop Bereich gezeigt hat.

Das mach NVIDA aber momentan aber nicht , man knallt in 12nm nen riesen Chip mit RT Einheiten hin wo man sich auch locker die gewohnten 30% mehr Leistung hätte erlauben können , AMD erreicht im aktuellem klassichem Rasterizing Markt weder die Performance noch Mehrleistung und Effiziens . Der Abstand scheint hier eher größer zu werden als sich zu schließen.

Bevor die leistungschwachen kostenoptimierten SoCs in den Konsolen Raytraycing bieten ist das schon im PC enthusiast Segment etabliert oder vergessen bei deren Stand & Entwicklungszyclen.
Welche SoC - CPUkonfig soll den bitte die Softwarelösung berechnen? die Dinger sind so kastriert und powerlimitiert das das nix wird ohne dedizierte Hardware wenn man sieht wie Selbst ein 32Kern64T Threadripper an RT Berechnungen schwitzt.

Ferenzo
2018-11-15, 14:57:00
eine sehr sachliche Diskussion, danke für die vielen Einblicke :smile:

Gast
2018-11-15, 15:25:51
Bestätige ich Dir gern und sehe es genauso. Der Hype den Nvidia darum verantstaltet dient sicher auch RT überhaupt erst im Gamerbereich zu etablieren. Mit guten Frameraten sollte man die nächsten Jahre trotzdem nicht rechnen.

Hitman 2 zeigt das es auch ohne geht und realer Leistungszuwachs in der Hardware-Entwicklung helfen kann, ähnlich optische/visuelle Ergebnisse zu generieren. Leider hat nVidia sich imo zu sehr auf Raytracing konzentriert, anstatt auch Leistungszuwächse in bestimmten Größenordnungen zuzulassen, was ihre Hardware in der Vergangenheit auch auszeichnete. Denke denen geht es mehr um Kontrolle anstatt vorerst wirklichen Nutzen (Hybrid hin oder her), denn mit den DLSS Verfahren entscheiden die was RTX on oder RTX off ist. Den Highend-Konsolenbereich haben sie bezüglich der Software-/Hardwareentwicklung komplett verloren, was auch einen massiven Verlust darstellt, seine Strategie bezüglich dieses Marktes sinnvoll auszurichten.

Von AMD erwarte ich da brennend eine Antwort, schon weil Wang meinte RT kann sich erst flächendeckend etablieren, wenn auch Midrange Hardware in der Lage ist lauffähige Ergebnisse abzuliefern (da meinte er wohl auch Konsolen; mal abgesehen von dem RT Hype - übelst - eine XOX ist in H2 unter nativem 4K schneller als eine 2080ti! siehe Youtube). Ich hoffe das sie demnächst leistungstechnisch was drauf legen. 25% wie bei Vega20 sind mir zu wenig. RT ist mir ehrlich gesagt egal. Mir gehts da wie nVidia, ich mag den Kontrollverlust nicht. Wenn ich in 4K investiere möchte ich auch echtes 4K nativ und nichts gesampeltes. Auch wenns noch so "ähnlich" oder "nahe dem" aussieht. AA kann man unter höheren Auflösungen auch weitgehend vernachlässigen wenn der Entwickler keinen Mist baut. DXR hat mit zuviele Baustellen, dass zu koordinieren ist sicher schwer (DXR API; OS; Treiber; RTX; Engine) und viel zu viele "aber" an denen der Entwickler wieder nicht beteiligt wird, warum es dann doch nicht gut funktioniert.

Alles in einer API und der Engine unter Kontrolle der Entwicklung erscheint mir leichter umsetzbar, anstatt dieser Kontrollwahn der Hersteller und proprietären/dedziertem Zeugs dazwischen.

Es bleibt doch quasi nix ausser Vorbereiteter Lösungen wenn man sich die Komplexität der Geschichte auf der einen Seite und den Skill und die Mittel der Wald & Wiesen Entwickler für ein Großteil der Games anschaut.
Selbst Läden wie EPIC die ihre Engine als Geschäftsmodell mit markigen sprüchen wie NEXTgen lizenzieren haben massiv Probleme in dem Feld.

Im Schnitt haben wir noch immer beschissene Multithreatausrichtung und das zur Verfügungstellen von LL APIs für mehr Einfluss der Entwickler stellt deren Fähigkeiten massiv auf die Probe und endet oft genung negativ.

Gameworks war auch einfach deswegen so erfolgreich weil man sich mit fremder Arbeit schmücken konnte.
Wenn ich sehe das viele der meistgespielten Games mit eingekaufter Technik entstehen die man nicht beherscht glaub ich nicht das da ohne zutun und massive personelle wie auch finazielle Mittel der Hardwarehersteller überhaupt nennenswert was in der Breite passiert.

Allein die liste der UE4 Fails wenns mans von der Technischen Seite berachtet läßt mich da nicht gerade hoffen.
*ARK
*PUBG
*Paragon ( EPIC !)
*Das neue UT ( EPIC ! lief für das Gebotenen grottig )
*Fortnight ( Epic! lief am Anfang auch richtig scheiße bis das große Geld kam )
*Squad , noch heute stark CPU limitiert und für dei Optik überzogenen GPU anforderungen.
*PostScriptum , Sqaud basis läuft aber noch schlechter
*WW3 , wieder CPU bound from Hell auf 1-2 Kernen
*Conan Exiles, ausnahmsweise überdeckt der GPU hunger den CPU Hunger .

Selbst im Bereich technisch führende Firmen wie DICE die einst mit treibende Kraft hinter LL APIs waren haben ihre Mühe und Not damit , wie soll den da beim Durchschnitt eine eigene vernünftige Lösung zu stande kommen?

Ich sehe das Ganze auch bestätigt dadurch das einst gute technische Ansätze und Neuerung von AMD im Prinzip nie angenommen wurden weil sie im nur bereitgestellt wurden aber nicht stark monitär und personell forciert und den entsprechenden Entwicklern als fertigen Baustein gereicht wurden der nurnoch on off geschaltet werden musste.

MasterElwood
2018-11-18, 05:28:34
Nachtrag zu meinem obigen Beitrag und zum Beitrag 19.

Ja es wird auf absehbare Zeit immer Teilszenarien geben, wo Rasterizing effektiver ist als Raytracing. Das hat übrigens auch schon vor ~15 Jahren John Carmack so gesagt und gemeint, dass für viele Jahre ein Hybridansatz existieren wird und sich Raytracing auf keinen Fall mal eben so durchsetzen wird. Carmack äußerte sich in den vergangenen Jahren immer mal wieder zu Raytracing/casting oder Voxel-Based Rendering und auch der "Unlimited Detail" Technik.

Zu meiner Einschätzung (educated(!) guess, also nicht einfach so ins blaue geraten) bezüglich 400-500x Performance die benötigt wird, möchte ich kurz ausführen wie ich zu dieser Zahl gekommen bin (diese ist natürlich ohne Tricks, LOD und andere Detailreduktionen gemeint).

Ich bin dabei davon ausgegangen, dass das Ziel eine ähnliche, mindestens jedoch geringfügig bessere Grafik ist, als was wir heute maximal mit Rasterizing erreichen können, idealerweise richtung Kino CGI oder gar Fotorealismus. Und da sei ganz klar gesagt, dass einzelne Frames beim Kino-CGI nach wie vor nicht in Sekunden, sondern Minuten/Stunden berechnet werden. Das dann in Echtzeit (30+ FPS) darzustellen wird also noch dauern und Performance abverlagnen. Außer natürlich man reduziert die Details so weit, dass aber dann Rasterizing dasselbe oder gar bessere Ergebnis bringt.
Raytracing von heutiger Grafik wäre also auch schon bei 100xer RT Performance möglich, aber nicht, wenn man bedenkt, dass Grafik sich ja weiterentwickelt und detaillierter wird bzw. werden soll. Um traditionelles Rasterizing fast völlig abzulösen, braucht es so unglaublich viel mehr Rohleistung als wir heute haben + Tricks die ersparen jedes Frame neu zu zeichnen sondern nur Teile (dann geht da gleich die Performance sehr viel höher) und auch gutes LOD.

Größte verhindernde Faktoren von Echtzeit Raytracing sind also die bald wieder steigenden Details (mit den neuen Konsolen) statt stagnierenden, sowie den immer langsamer werdenden Fortschritten beim Prozess (nicht nur Intel hat hier nicht mehr die Geschwindigkeit von früher).

Kurzum: Raytracing alleine - ohne Tricks (etwa: nur teile eines neuen Frames berechnet, der Rest wird "übertragen"; GPU und CPU teilen sich RT aufgaben (kann gut sein, moderne CPUs haben viel Leistung und viele Kerne, die Engine muss dies nur unterstützen, eine Art Checkbox-Rendering, also das eigentliche Bild wird in niedrigerer Auflösung berechnet und hochgerechnet, verbesserte LOD Techniken etc etc) wird es ohne Rasterizing noch lange nicht geben. Einen Hybriden Ansatz gibt es schon heute und er funktioniert. Der Raytracing-Anteil wird dabei langsam und stetig steigen. Hybride Renderingmethoden werden dennoch noch mindestens 10-15 Jahre in Spielen verwendet werden, ehe es tatsächlich mal (falls überhaupt) reines Raytracing gibt.
Mehr und mehr Raytracing wird kommen. Aber es wird genauso ein "Feature" werden wie andere zuschaltbare Features, und nicht das gesamte Rastern ersetzen

Nachtrag:
Hier etwa einige Worte zu Raytracing von John Carmack - inklusive eigener Engineexperimente:
http://raytracey.blogspot.com/2011/08/john-carmack-eventually-ray-tracing.html
https://www.pcper.com/reviews/Editorial/Carmack-Interview-GPU-Race-Intel-Graphics-Ray-Tracing-and-Voxels-Multi-Display-a-0

Eine Interessante Antwort von JC im Jahr 2013 zum Bereich Hardware-Raytracing:

von hier https://news.ycombinator.com/item?id=5107022

und hier
https://arstechnica.com/gadgets/2013/01/shedding-some-realistic-light-on-imaginations-real-time-ray-tracing-card/?comments=1&post=23723213

Und genau diesen letztgenannten Artikel hat auch PCGH hier aufgegriffen:
http://www.pcgameshardware.de/Raytracing-Hardware-255905/News/John-Carmack-ueber-Raytracing-1045727/

Carmack ist ein Gott - unbestritten. Aber was du zitierst is von 2011/13!

Niemand - auch JC ned - hat absehen können dass man durch KI/DL mal einfach so rund 90 Prozent Rays sparen kann indem man die KI denoisen lässt.

Das is ja gerade DAS was RTX überhaupt möglich macht! (plus dieses super-aussortieren der nicht benötigten Rays).

Das hast du aber nicht berücksichtigt bei deinen Berechnungen. Und aus 400-500x Performance werden auf einmal 40-50x Performance.


Und das IST machbar in 10 Jahren oder 2 Konsolen Generationen!