PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : RTX=off: Crytek stellt neue RayTraycing-Demo für Vega-Hardware vor


ChaosTM
2019-03-15, 18:27:10
Crytek zeigt Raytracing auf Radeon Vega 56

https://www.overclockers.at/attachment.php?attachmentid=236923&thumb=750 (https://www.overclockers.at/attachment.php?attachmentid=236923&fullpage=1)
Nicht nur Nvidias Turing-Grafikkarten beherrschen Raytracing, auch AMDs Radeon-Modelle: Die Raytracing-Demo von Crytek nutzt eine Voxel-basierte globale Beleuchtung für

Link: www.golem.de (https://www.golem.de/news/cryengine-crytek-zeigt-raytracing-auf-radeon-vega-56-1903-140042.html)


1nqhkDm2_Tw

Tesseract
2019-03-15, 18:58:27
Nicht nur Nvidias Turing-Grafikkarten beherrschen Raytracing

CPUs beherrschen raytracing seit über 30 jahren und GPUs seit über 10 jahren, das entscheidende ist wie schnell das ganze läuft.

ChaosTM
2019-03-15, 19:11:13
Ich weiß, und gesagt hat das Golem.
Erinnere mich noch gut an einen PCPlayer Artikel über Raytracing Anno 1994.

Alles was nicht proprietär ist, ist mmn zu bevorzugen.
Wie gut das in einem echten Spiel ausschaut muss sich natürlich noch beweisen.

Timbaloo
2019-03-15, 19:55:46
DXR ist nicht proprietärer als DirectX ohnehin schon ist.

Was letzenendes technisch die beste Lösung ist, ist zu bevorzugen.

Gast
2019-03-15, 20:12:17
Voxel-Basierte Raytracing-Emulation ist jetzt nicht wirklich was neues.

https://www.nvidia.de/object/vxgi-technology-de.html

Fusion_Power
2019-03-15, 20:24:40
Und um wie viel schneller läuft jetzt diese Demo auf RTX Karten gegenüber GraKas ohne Ray Tracing Einheit?

ChaosTM
2019-03-15, 20:25:09
Ich vergaß den RTRT Thread. Dildo hats dort schon gepostet. Den hier kann man zu/wegmachen wenn ihr wollt.

gravitationsfeld
2019-03-15, 21:55:37
Das sieht nicht nach Voxeln aus. Zu high res. das muss mindestens ein Hybrid mit echtem Raytracing sein.

Gast
2019-03-15, 22:44:09
Auf dem Bild oben haben die rechten beiden Patronenhülsen keine Reflektion in der Pfütze. Sieht man im Video am besten in dem Frame, wo das blaue Licht sie an leuchtet. Selbiges für die ganz linke Patrone.
Wie kommts?

Mr. Lolman
2019-03-15, 22:51:35
Wie kommts?

Die liegen nicht direkt in der Pfütze. Das ist ja der Showcase in der Szene ;)

Schnoesel
2019-03-16, 11:23:19
RT für alle. Der einzig richtige Weg.

HOT
2019-03-16, 11:52:41
Es hat noch Probleme. Es kommt nicht gut mit Partikeleffekten zurecht, das ist nicht implementiert bisher und die CPU-Komponente sorgt für Latenzen bei schnellen Bewegungen. Das ist sicherlich ein sinnvoller Ansatz, aber das erfordert auf jeden Fall noch Hirnschmalz. RT universell für Beleuchung i.V.m. Voxel baiserter Umgebungsverdeckung ist auf jeden Fall eine echt spannende Lösung.

Gabs nicht vor einiger Zeit schonmal einen Entwickler, der auf die Unnötigkeit von spezieller Hardware hinwies und meinte, das wird sowieso ein Ansatz für die Zukunft, auch bei den Konsolen?

iuno
2019-03-16, 12:20:24
Und um wie viel schneller läuft jetzt diese Demo auf RTX Karten gegenüber GraKas ohne Ray Tracing Einheit?
Gar nicht. Weil kein RTX benutzt wird...

Gabs nicht vor einiger Zeit schonmal einen Entwickler, der auf die Unnötigkeit von spezieller Hardware hinwies und meinte, das wird sowieso ein Ansatz für die Zukunft, auch bei den Konsolen?
Dass es geht ist ja klar. Man kann auch ohne fixed function rasterizer rasterisieren oder ohne tessellator tesselieren. Die Frage ist, wie viel Sinn es macht, Leistung zu verbrauchen fuer etwas, dass man durch fixed function beschleunigen kann. Dabei kommt es natuerlich auch darauf an, wie gross der Implementierungsaufwand in Hardware ist und wie viel Flaeche es kostet, die man sonst anderweitig nutzen oder sparen kann.

SKYNET
2019-03-16, 13:20:59
wird ja zum teil auf die CPU geschoben... was freue ich mich auf meinen 16 kerner im sommer :D

Screemer
2019-03-16, 13:52:27
Für die Aussage würde jetzt schon zigfach nach ner belastbaren Quelle gefragt.

ChaosTM
2019-03-16, 14:03:42
Solange es funktioniert und zumindest so gut ausschaut wie NV`s Insellösung und nicht mehr Aufwand verursacht UND auf allen System läuft. Win - Win.

Das "Lose" für ein paar hardcore Fanjungs ist da durchaus verkraftbar. ;)

Timbaloo
2019-03-16, 14:46:22
"NVs Insellösung" ist eine nette Umschreibung von "AMD unterstützt bestimme DirectX-Features nicht".

ChaosTM
2019-03-16, 14:52:36
Die Insellösung bezog sich auf die expliziten RTX Kerne.

Fusion_Power
2019-03-16, 14:57:30
Gar nicht. Weil kein RTX benutzt wird...

Schon klar. Aber wie viel schneller könnte die Demo mit RTX denn sein? Reicht dann vllt. in Spielen ne relativ preiswerte RTX 2060 für 60+ FPS Raytracing Vergnügen?

Timbaloo
2019-03-16, 15:11:45
Die Insellösung bezog sich auf die expliziten RTX Kerne.
Wie unerhört in einem Hardwarebeschleuniger beschleunigende Hardware zu verbauen. Was erlaube Nvidia.

:facepalm:

ChaosTM
2019-03-16, 15:22:48
Was ist für den Kunden besser. Eine Lösung die überall läuft oder eine Hardwarelösung die einen Teil außen vor lässt ?
Was aus Hardwarelösungen wird wissen wir seit physiX. Das war auf einmal, O wunder ! mit normalen Shadern machbar.. ;)
Warum lassen sich so viel Leute von dieser Firma verarschen.

Complicated
2019-03-16, 15:26:21
Sollte Crytek hiermit tatsächlich einen Treffer landen können, ist natürlich schwer in Frage zu stellen, ob sich extra RayTracing-Hardwareeinheiten wie bei nVidias Turing-Generation überhaupt lohnen – aber wie gesagt ist dies ein Punkt, welche erst später anhand realer Produkte entschieden werden kann, diese Fragestellung hat derzeit schlicht nur hypothetischen Status.Es ist doch das selbe Muster wie bei Gsync. Nvidias Versuch allgemein verfügbare Technologie auf die eigene Hardware zu verdongeln, mit minimalen Änderungen. Diese Appliance-Strategie ist nun mal die mit dem Versprechen für die höchsten Margen wenn es denn gelingt.

Dass General Compute Hardware auch nicht schlechter performt als Nvidias Version, ist doch schon länger offen gelegt.
https://www.extremetech.com/gaming/280479-amd-will-answer-nvidias-ray-tracing-technology-eventually
You can run a GPU-based ray tracer on many different kinds of hardware, which is why we covered the topic six years ago in the first place. Adding specialized hardware blocks to a GPU to handle specific parts of the ray tracing process is a good way to improve efficiency and performance/watt, but AMD has a point when it says it wants to be able to offer the feature at every price point in the product stack.

Daredevil
2019-03-16, 15:38:59
Was isn los bei euch? :D

Nvidia hat zwar eine eigene Lösung gebaut, diese nutzt aber die offizielle DX12 Schnittstelle und beschleunigt damit halt Raytracing.
Wieso hat man denn auf den DX12 Patch von Microsoft waren müssen bei Battlefield? Weil Nvidia sein eigenes Süppchen kocht?

Nvidia hat den Beschleuniger halt in Hardware, AMD aktuell nicht. Trotzdem ist es bei beiden verfügbar eben unter DX12.
Es wäre falsch, nun Nvidias Weg als einzig richtigen zu nennen, aber ebenfalls auch der "Software" Weg ist nicht unbedingt der beste.
Deswegen gibt es ja eben diese Schnittstelle und jeder nutzt sie, wie er Bock hat.

Nur weil Nvidia technologisch weiter ist und Hardware in der Pipeline, ist es keine Insellösung, sondern ein Workaround, weil normale Hardware einfach zu lahm ist.

deekey777
2019-03-16, 15:42:00
Wie unerhört in einem Hardwarebeschleuniger beschleunigende Hardware zu verbauen. Was erlaube Nvidia.

:facepalm:
Erinnert mich irgendwie an die "HDR"-Demo von Crytek von 2004, die extra für die X850er erstellt wurde.

Diese neue Demo ist eher eine Insellösung.

Timbaloo
2019-03-16, 15:51:22
Was ist für den Kunden besser. Eine Lösung die überall läuft oder eine Hardwarelösung die einen Teil außen vor lässt ?
Für den Kunden ist besser was am Ende die technisch bessere Lösung ist. Dass AMD DXR nicht implementiert ist nicht die Schuld von NV. Und irgendwie glaube ich, dass hardwarebeschleunigte Lösungen am Ende die technisch bessere Lösung sind. Sollte sich herausstellen, dass die hier von Crytek vorgestellte Lösung nicht von einer DXR-Hardwareunterstützung profitiert und dabei trotzdem besser oder gleich gut performt, dann ist es die bessere Lösung. Aber glaube ich das? LOL

Was aus Hardwarelösungen wird wissen wir seit physiX. Das war auf einmal, O wunder ! mit normalen Shadern machbar.. ;)
Warum lassen sich so viel Leute von dieser Firma verarschen.
Ohje, hier bringst du so ziemlich alles durcheinander was man durcheinander bringen kann.

Nightspider
2019-03-16, 15:54:16
Gar nicht. Weil kein RTX benutzt wird...

Was bedeutet RTX? Du meinst RT? RTX ist immer noch ein Name einer Nvidia Grafikkartenreihe.

Daredevil
2019-03-16, 15:59:03
https://tse1.mm.bing.net/th?id=OIP.GBMNWkj2uJEJiS-cR6AnawHaDl&pid=Api&dpr=1
Nvidia bezeichnet RTX für sich als Feature Paket, welches Raytracing und DLSS umfasst.
Das Paket bzw. Partner deswegen, weil Raytracing die Leistung deutlich mindert und DLSS sie wieder intelligent nach oben bügeln soll.

deekey777
2019-03-16, 16:01:18
Was bedeutet RTX? Du meinst RT? RTX ist immer noch ein Name einer Nvidia Grafikkartenreihe.
Nein, RTX ist mehr: https://www.nvidia.com/de-de/design-visualization/technologies/rtx/

pixeljetstream
2019-03-16, 16:33:25
Streitet ihr euch jetzt echt um irgendwelche Marketing Begriffe die flexibler als Kaugummi sind?

@ChaosTM alle Grafik IP Hersteller haben komplett selbst designte Kerne, das macht ja den technologischen Wettkampf aus.

Nightspider
2019-03-16, 17:07:13
Nvidia bezeichnet RTX für sich als Feature Paket, welches Raytracing und DLSS umfasst.
Das Paket bzw. Partner deswegen, weil Raytracing die Leistung deutlich mindert und DLSS sie wieder intelligent nach oben bügeln soll.
Nein, RTX ist mehr: https://www.nvidia.com/de-de/design-visualization/technologies/rtx/

Oh, sorry. Ist mir echt entgangen.

GSXR-1000
2019-03-16, 17:07:46
Für den Kunden ist besser was am Ende die technisch bessere Lösung ist. Dass AMD DXR nicht implementiert ist nicht die Schuld von NV. Und irgendwie glaube ich, dass hardwarebeschleunigte Lösungen am Ende die technisch bessere Lösung sind. Sollte sich herausstellen, dass die hier von Crytek vorgestellte Lösung nicht von einer DXR-Hardwareunterstützung profitiert und dabei trotzdem besser oder gleich gut performt, dann ist es die bessere Lösung. Aber glaube ich das? LOL


Ohje, hier bringst du so ziemlich alles durcheinander was man durcheinander bringen kann.

Technisch besser? Ist wohl keine, da grundsätzlich verschiedene Ansätze. Das dürfte wohl je nach Anwendung variieren.
Nur liebster Timbaloo, (um mal deine Sprechweise zu verwenden): Du vergessen eines: Eine Hardwarelösung ist mit ziemlicher Sicherheit dauerhaft die deutlich teurere und IMMER exklusiv, da sie explizit in Programmierung und Treiber angesprochen werden muss. Damit wird sie sogar in doppelter Hinsicht teurerer: Im Kaufpreis und im Entwicklungsaufwand. Denn es ist eine "on top" Lösung, sofern man kein NV exklusives Spiel veröffentlichen will, was allein aufgrund des Konsolenmarktes als Option längerfristig ausscheidet.
Aus Kundensicht also zu behaupten, eine Hardwarelösung sei die bessere, und dabei vollkommen unberücksichtigt zu lassen, das derselbe Kunde dafür einen massiven Aufpreis bezahlt (die RTX Aufschläge der aktuellen Generation hast du zumindest wahrgenommen?) mag für den Fanboy so sein. Für den gemeinen Kunden allerdings eher nicht.
Ich sehe auch nicht, warum die Voxellösung prinzipiell die technisch schlechtere sein sollte. Für mich wird das auf die jeweilige Implementierung ankommen und sieht momentan wie zwei Ansätze mit vergleichbarem Ergebnis aber deutlichen Preisunterschieden aus.

Timbaloo
2019-03-16, 17:12:01
Eine Hardwarelösung ist mit ziemlicher Sicherheit dauerhaft die deutlich teurere und IMMER exklusiv, da sie explizit in Programmierung und Treiber angesprochen werden muss.
Nicht wenn es eine allgemeine Schnittstelle (DXR...) dafür gibt. Glückwunsch, damit wird dein gesamter Beitrag obsolet.

GSXR-1000
2019-03-16, 17:24:59
Nicht wenn es eine allgemeine Schnittstelle (DXR...) dafür gibt. Glückwunsch, damit wird dein gesamter Beitrag obsolet.
Nein mein lieber Freund.
HARDWAREeinheiten werden IMMER extra geld kosten Brudi. Aber schön das du dein Loch immer tiefer buddelst Fanboy.

Und genau darum geht es. Dezidierte Hardwareeinheiten sind in der Konsequenz per se die a)teurere und b)eingeschränktere Lösung. Wird die unterstützte Lösung nicht verwendet (zum Beispiel beim Crytek Ansatz) liegen grosse Teile des Chips (die vom Kunden vorher teuer bezahlt wurden) schlicht brach. Wie es momentan bei 99% aller am Markt verfügbaren Spiele der Fall ist, bezogen auf RTX.

Was war deinem Verständnis nach NVs Begründung für die perversen Preissteigerungen der RTX Generation?
Ich kann mich erinnern das exakt diese "Hardwarebasierte Umsetzung" DAS Hauptargument war. (ansonsten gab es ja auch kein auch nur ansatzweise akzeptables)

arcanum
2019-03-16, 17:29:29
die lösung, die die höhere adapationsrate hat, ist die bessere lösung. sieht man auch daran, dass bislang jedes proprietäre spiele-feature von nvidia gegen die wand gefahren wurde trotz marktdominanz.
rtx wird dem trend wahrscheinlich folgen wenn man die kosten dafür in den kommenden generationen nicht senken kann.

Troyan
2019-03-16, 17:29:46
Hm, da die RT Kerne 10x schneller sind, scheint mir eine Hardwarelösung irgendwie effizienter.

Timbaloo
2019-03-16, 17:33:34
Nein mein lieber Freund.
HARDWAREeinheiten werden IMMER extra geld kosten Brudi. Aber schön das du dein Loch immer tiefer buddelst Fanboy.
Ich bin nicht dein "Brudi". Steck die Psycho-Nummer gleich wieder ein.

Dezidierte Hardwareeinheiten sind in der Konsequenz per se die a)teurere und b)eingeschränktere Lösung.
So wie ROPs, Shader, TMUs, h264/5 Encoder/Decoder, ...

Wird die unterstützte Lösung nicht verwendet (zum Beispiel beim Crytek Ansatz)
Woher weisst du das? Nur weil es diese nicht benötigt heisst es nicht, dass es diese nicht doch nutzt.

liegen grosse Teile des Chips (die vom Kunden vorher teuer bezahlt wurden) schlicht brach.
RT-Kerne sind nicht groß.

Was war deinem Verständnis nach NVs Begründung für die perversen Preissteigerungen der RTX Generation?
Ich kann mich erinnern das exakt diese "Hardwarebasierte Umsetzung" DAS Hauptargument war. (ansonsten gab es ja auch kein auch nur ansatzweise akzeptables)
Keinerlei ernstzunehmende Konkurrenz bei gleichzeitiger Fehleinschätzung des Marktes.

Schnoesel
2019-03-16, 18:43:56
Ich frage mich ja schon warum Nvidia immer extra Hardware für alles braucht (Gsync, RT) und andere bekommen es tatsächlich ohne dedizierte Hardware hin. Unvermögen von NV oder einfach ein billiges Mittel um Leute an sich zu binden? Darf ja jeder für sich selbst entscheiden. Kann mir gut vorstellen, dass der Softwareansatz von Crytek über kurz oder lang mehr RT Spiele bieten wird als der "Vorreiter". 2 Games in 7 Monaten ist schon etwas mager für die Kosten.

dargo
2019-03-16, 19:21:18
Was ist für den Kunden besser. Eine Lösung die überall läuft oder eine Hardwarelösung die einen Teil außen vor lässt ?

Momentan ist es eher so, dass nur ein winziger Teil der Gamer überhaupt RT aktivieren kann. Selbst Turing bietet nicht in seiner ganzen Bandbreite Raytracing. TU116 hat es bsw. nicht. Gerade das wichtige Segment bis ~300€ ist 2019 noch komplett außen vor.

Daredevil
2019-03-16, 20:08:27
Ich frage mich ja schon warum Nvidia immer extra Hardware für alles braucht (Gsync, RT) und andere bekommen es tatsächlich ohne dedizierte Hardware hin.
Das fragst du dich wirklich? :D
Wunderst du dich auch, wieso jede Eisdiele ihre eigenen Eissorten hat und nicht nur Schoko, Erdbeer und Vanille?
Wenn man Kaufanreize setzen will, indem man sich von der Masse abhebt, muss man sich nun einmal von der Masse ( Masse = Der offene Standard ) absetzen.
Manchmal funktioniert das ganz gut, manchmal halt nicht.

pixeljetstream
2019-03-16, 20:15:45
Schnoesel, dedizierte Hardware ist effizienter als generische Units. Zu Modem Zeiten wäre ein h264 Decoder auch was feines gewesen, gab's aber nicht ;) Die Rasterizer sind auch verschieden bei den Herstellern und ne black box für Entwickler.

Mich überrascht die Argumentation einiger sehr, die ganze Architektur ist spezialisiert von vorne bis hinten. Selbst sowas wie Verfahren zur voxelisierung werden durch spezielle Fähigkeiten beschleunigt (ist der Maxwell Launch schon so alt?).
Es ist das Tagesgeschäft von Hardware-Herstellern in der Architektur nen mix von spezialisierten Funktionen und generischen zu haben und die Balance aus beiden stetig anzupassen.
Manche argumentieren als ob wir wieder alles per CPU machen sollten.

Schnoesel
2019-03-16, 20:21:26
Manche argumentieren hier als würden sie sich wünschen nicht 2 (3) PCs mit 2 (bald 3) unterschiedlichen Grakaherstellern zulegen zu müssen um alle Features eines Games zu nutzen. Krass oder? Insofern bevorzuge ich Lösungen bei denen ich mich nicht schon im Vorfeld entscheiden muss auch wenn sie dann langsamer sind. Dann warte ich halt noch 3 Jahre. Kein Problem.

Ich mein wir wissen doch wie es läuft. Klar AMD kann DXR auch nutzen und dann eigene Hardwareeinheiten verbauen speziell für RT und dann wird es Nvidia gesponserte Spiele geben, bei denen RT mit den Einheiten von AMD nicht läuft und umgekehrt. Finde ich Scheiße Punkt. Und wenn Intel tatsächlich erfolgreich sein sollte möchte ich gar nicht wissen was die nicht alles tun um den Markt zu fragmentieren.

Platos
2019-03-16, 20:58:02
Wieso sollte das so sein? Mit/dank DXR kann AMD Einheiten entwicklen, die dafür angepasst sind und dann können auch beide Hersteller hardwarebasiert damit umgehen

Das ist ja nicht das selbe wie z.B ein nvidia physx.

Screemer
2019-03-16, 21:06:40
Wieso sollte das so sein? Mit/dank DXR kann AMD Einheiten entwicklen, die dafür angepasst sind und dann können auch beide Hersteller hardwarebasiert damit umgehen

Das ist ja nicht das selbe wie z.B ein nvidia physx.
Dann Mal ne provokante Frage: warum nutzt crytek nicht dxr um die Demo vendoragnostisch umzusetzen? Oh wait die Demo ist vendoragnostisch.

Platos
2019-03-16, 21:26:18
Weil DXR nicht auf Shader ausgelegt ist sondern auf spezialisierte Ratracing-Einheiten ?

Und wenn AMD in der übernächsten oder überübernächsten Gen. "RT-Cores" bringt, dann wird voraussichtlich genau das auch genutzt werden.

pixeljetstream
2019-03-16, 21:49:40
Imo ist es nicht zwingend was für Einheiten es bei DXR gibt. Das ist ja der Sinn von abstrakten Schnittstellen. Und diese sind nicht in Stein gemeißelt. So wie wir 12 DX Iterationen hatten wird es auch bei DXR Bewegung geben je mehr Erfahrung alle Beteiligten sammeln.

@Schnoesel irgendein Hersteller war bei den letzten DX Versionen die neue Features brachten auch immer der erste. Das Risiko des Veralten der HW existiert immer bei neuen Features.

Nazar
2019-03-16, 23:11:25
Für den Kunden ist besser was am Ende die technisch bessere Lösung ist. Dass AMD DXR nicht implementiert ist nicht die Schuld von NV. Und irgendwie glaube ich, dass hardwarebeschleunigte Lösungen am Ende die technisch bessere Lösung sind. Sollte sich herausstellen, dass die hier von Crytek vorgestellte Lösung nicht von einer DXR-Hardwareunterstützung profitiert und dabei trotzdem besser oder gleich gut performt, dann ist es die bessere Lösung. Aber glaube ich das? LOL


Ohje, hier bringst du so ziemlich alles durcheinander was man durcheinander bringen kann.

Deine Aussage ist im Kern komplett falsch!
Zum einen ist nie die angeblich technisch bessere Lösung immer die beste für den Kunden und zum anderen ist dem Kunden oft nicht bewusst was er technisch wirklich braucht.
Braucht der Kunde jetzt RTX?

NEIN! RTX braucht der Kunde gerade so sehr wie einen Pickel am Arsch!
Einfach nur unnütze Grütze. Eine technische "Lösung" für ein Problem, was es so gar nicht gibt und das wahre Problem mit dem RT wird dadurch nur EXTREM schlecht "gelöst", sodass oft die reine RZ Lösung 1000 Mal besser aussieht (wenn diese nicht gerade für Werbezwecke für RTX stark beschnitten wird (METRO)).

Insellösungen, wie sie nV seit Decaden brachte, haben nur aufgezeigt, dass der Kunde NICHT die technisch beste Lösung benötigt, da der Kunde gar KEIN Problem hatte für das er eine angebliche Lösung benötigte (PhysX + G-Sync + RTX).
nV baut nur "Insellösungen", um Geld zu generieren und NICHT, um den Kunden die für IHN beste technische Lösung zu präsentieren. Man denke nur an den kompletten PhysX Scheiss, der sogar so weit ging (nachweislich), dass nV PhysX abgeschaltet hat, wenn ZUSÄTZLICH zu einer nV GPU auch ein AMD Beschleuniger an Board war. Oder die nV "the way it's meant to be played" Scheisse, die soweit ging (auch nachweislich), dass nV einen extra "Loop" für AMD Karten einbaute, sodass diese, ohne ersichtlichen Grund, in einem Spiel deutlich langsamer waren, bis jemand den Source Code des Spiels hackte und nV danach dann kleinlaut von einem "Fehler" sprach. Einem "Fehler" der EXTRA" eingebaut werden musste, weil diese Code Zeile VON nV NUR für AMD Beschleuniger geschrieben war! Ja, was für Engel, nicht war? ;D

nV will nur das beste für sich und das ist nur das Geld des Kunden. Wäre es anders, würden sie an offenen Lösungen mitarbeiten und nicht ständig ihre eigene Suppe kochen!

Atma
2019-03-16, 23:53:25
sodass oft die reine RZ Lösung 1000 Mal besser aussieht (wenn diese nicht gerade für Werbezwecke für RTX stark beschnitten wird (METRO)).
Für RTX haben die Entwickler die normale Beleuchtung also absichtlich "stark beschnitten" ... :rolleyes: Gibt's aktuell wieder Aluhüte zum Sonderpreis?

Der Rant will auch so gar nicht zu deiner RTX 2080 Ti im Rechner passen.

Screemer
2019-03-16, 23:57:47
Schau dir halt Mal Metro ohne rtx an. Da ist quasi kaum ordentliches ao eingebacken worden. Das sieht stellenweise so aus als wäre man wieder in Zeiten ohne ao angekommen. Selbst Last light sieht stellenweise hübscher aus.

Atma
2019-03-17, 00:11:26
Schau dir halt Mal Metro ohne rtx an. Da ist quasi kaum ordentliches ao eingebacken worden. Das sieht stellenweise so aus als wäre man wieder in Zeiten ohne ao angekommen. Selbst Last light sieht stellenweise hübscher aus.
Ich kenne Metro ohne RTX. Ändert trotzdem nichts daran, dass die Aussage von Nazar völliger Quatsch ist. Die Entwicklung des Spiels war schon viel zu weit fortgeschritten, als dass man die herkömmliche Beleuchtung absichtlich schlecht aussehen lässt.

Mal abgesehen davon ist Metro Exodus auch ohne RTX ein sehr hübsches Spiel.

Timbaloo
2019-03-17, 02:14:43
Deine Aussage ist im Kern komplett falsch!
Na dann ist jede Diskussion hinfällig...

Zum einen ist nie die angeblich technisch bessere Lösung immer die beste für den Kunden
Ich sagte "die technisch beste Lösung", nicht "angeblich". Ich bin, im Gegensatz zu dir, wertfrei.

und zum anderen ist dem Kunden oft nicht bewusst was er technisch wirklich braucht.
Das stimme ich dir zu. Ändert aber nichts daran, dass dem Kunden die technisch beste Lösung auch am besten gefallen sollte. Was auch immer die beste Lösung ist. (Vielleicht ist es die Crytek-Lösung, ich weiss es nicht, du scheinst es zu wissen?).

Braucht der Kunde jetzt RTX?
Aktuell sicher nicht, denn es gibt wenig DXR-Spiele.

NEIN! RTX braucht der Kunde gerade so sehr wie einen Pickel am Arsch!
Huch, Sachlichkeit scheint nicht so dein Metier?

Einfach nur unnütze Grütze.
Huch, Wiederholung scheint so eher dein Metier zu sein?

Eine technische "Lösung" für ein Problem, was es so gar nicht gibt
Es gibt kein Raytracing? Krass!!!



und das wahre Problem mit dem RT wird dadurch nur EXTREM schlecht "gelöst", sodass oft die reine RZ Lösung 1000 Mal besser aussieht (wenn diese nicht gerade für Werbezwecke für RTX stark beschnitten wird (METRO)).
Keine Ahnung was RZ sein soll. RechenZeit? Aber muss schon geil sein dieses "RZ" wenn es tausendmal besser aussieht. Link zu einem Paper hast du nicht zufällig?

Insellösungen, wie sie nV seit Decaden brachte, haben nur aufgezeigt, dass der Kunde NICHT die technisch beste Lösung benötigt, da der Kunde gar KEIN Problem hatte für das er eine angebliche Lösung benötigte (PhysX + G-Sync + RTX).
Welche Insellösung? DXR ist ein offener Standard, naja so offen wie MS halt ist. Wenn sich die Hardware-Implementierung namens RTX nicht durchsetzt dann ist das blöd für NV, aber kein Grund für dich hohen Blutdruck zu bekommen.

nV will nur das beste für sich und das ist nur das Geld des Kunden. Wäre es anders, würden sie an offenen Lösungen mitarbeiten und nicht ständig ihre eigene Suppe kochen!
Oha, welcher Hersteller will das nicht?

Irgendwie ziemlich viel Schaum vor dem Mund für ziemlich wenig Argumentation...

Megatron
2019-03-17, 10:01:16
Das ufert ja echt extrem aus hier.
Da will Crytek zeigen, dass sie selbst ohne separate RT Einheiten mit der Engine ein ansehnliches Ergebnis schaffen und dann kommt hier so ein Grabenkrieg bei rum.

Das Video an sich ist spitze geraten. Es wird spannend, wie die Performance später in der realen Umsetzung aussieht. Das wird sich ja dann mit der offiziellen Verfügbarkeit der neuen Version eruieren lassen.
Es kann ja auch sein, dass hier via DXR eine weitere Beschleunigung möglich ist, dass wird dann erst die Zukunft zeigen.

Aber es ist schon lustig wie hier gewettert wird. Da bringt Nvidia endlich mal ein Feature, welches wirklich einen Standard nutzt und dann wird gefühlt noch viel mehr rumgemosert als bei den proprietären Geschichten. :freak:

Zumal es auch nicht verwunderlich ist, dass es kaum DXR Spiele gibt. Die großen Grafikengines müssen jetzt erstmal dafür fit gemacht werden und dann müssen diese Versionen auch in der Entwicklung genutzt werden - und das nicht erst in einem Wochenendprojekt kurz vor Toreschluss.

Sprich: Das hier ist die Demo, was mal kommen wird und die zugehörige Engine muss dann intern DXR bei Vorhandensein nutzen können.
Und wenn das erfüllt ist, kann ein Studio ja anfangen das Artwork entsprechend darauf auszurichten, dass dann irgendwann mal ein Spiel dazu erscheint.
Ich wäre jetzt nicht überrascht, wenn der DXR Zug erst 2012 so richtig ins Rollen kommt.
Und bis dahin dürfte auch AMD entsprechende RT Optimierungen in der Entwicklung haben bzw. DXR per Treiber unterstützen (jetzt mal ungeachtet, wie gut die Performance an dieser Stelle wird).

Radeonfreak
2019-03-17, 10:16:46
Ich wäre jetzt nicht überrascht, wenn der DXR Zug erst 2012 so richtig ins Rollen kommt.

Ich schon. :freak:

hq-hq
2019-03-17, 10:25:53
Das ufert ja echt extrem aus hier.
Da will Crytek zeigen, dass sie selbst ohne separate RT Einheiten mit der Engine ein ansehnliches Ergebnis schaffen und dann kommt hier so ein Grabenkrieg bei rum.

Das Video an sich ist spitze geraten. Es wird spannend, wie die Performance später in der realen Umsetzung aussieht. Das wird sich ja dann mit der offiziellen Verfügbarkeit der neuen Version eruieren lassen.
Es kann ja auch sein, dass hier via DXR eine weitere Beschleunigung möglich ist, dass wird dann erst die Zukunft zeigen.

Aber es ist schon lustig wie hier gewettert wird. Da bringt Nvidia endlich mal ein Feature, welches wirklich einen Standard nutzt und dann wird gefühlt noch viel mehr rumgemosert als bei den proprietären Geschichten. :freak:

Zumal es auch nicht verwunderlich ist, dass es kaum DXR Spiele gibt. Die großen Grafikengines müssen jetzt erstmal dafür fit gemacht werden und dann müssen diese Versionen auch in der Entwicklung genutzt werden - und das nicht erst in einem Wochenendprojekt kurz vor Toreschluss.

Sprich: Das hier ist die Demo, was mal kommen wird und die zugehörige Engine muss dann intern DXR bei Vorhandensein nutzen können.
Und wenn das erfüllt ist, kann ein Studio ja anfangen das Artwork entsprechend darauf auszurichten, dass dann irgendwann mal ein Spiel dazu erscheint.
Ich wäre jetzt nicht überrascht, wenn der DXR Zug erst 2012 so richtig ins Rollen kommt.
Und bis dahin dürfte auch AMD entsprechende RT Optimierungen in der Entwicklung haben bzw. DXR per Treiber unterstützen (jetzt mal ungeachtet, wie gut die Performance an dieser Stelle wird).


2021, hoffe auf 2020 :freak:

Die Demo ist klasse, z.B. für einen Titel wie Bladerunner würde es sehr gut passen.

Abgesehen davon, du weisst ja, AMD ist der weisse Ritter und NVidia + Intel sind die bösen schwarzen Ritter die sich nur an unserer Finanzkraft laben wollen :biggrin:

Megatron
2019-03-17, 18:21:26
Ups, ja ich meinte natürlich 2021. 😉

gravitationsfeld
2019-03-17, 18:24:17
Imo ist es nicht zwingend was für Einheiten es bei DXR gibt. Das ist ja der Sinn von abstrakten Schnittstellen. Und diese sind nicht in Stein gemeißelt. So wie wir 12 DX Iterationen hatten wird es auch bei DXR Bewegung geben je mehr Erfahrung alle Beteiligten sammeln.
Elf! Es gab kein DirectX 4 :)

deekey777
2019-03-18, 10:43:57
Schau dir halt Mal Metro ohne rtx an. Da ist quasi kaum ordentliches ao eingebacken worden. Das sieht stellenweise so aus als wäre man wieder in Zeiten ohne ao angekommen. Selbst Last light sieht stellenweise hübscher aus.
Zwei Linke Hände, unfähige Entwickler. Oder null Bock unnötig Zeit und Arbeit in etwas zu investieren, was am Ende nichts bringt.

Irgendwie haben manche hier Erinnerungslücken oder wissen selbst nicht, was sie wollen, Hauptsache dagegen.

Screemer
2019-03-18, 10:55:00
Zwei Linke Hände, unfähige Entwickler. Oder null Bock unnötig Zeit und Arbeit in etwas zu investieren, was am Ende nichts bringt.

Irgendwie haben manche hier Erinnerungslücken oder wissen selbst nicht, was sie wollen, Hauptsache dagegen.
was hat das denn mit dagegen zu tun. die arbeit rtx einzubasteln bringt wesentlich weniger leuten was, als ordentliches ao für den großteil der spieler. ich sage übrigens nicht, dass exodus ein schlechtes oder hässliches spiel ist. nein, dass ist es absolut nicht und auch nicht ohne rtx. es sieht großteils superb aus und hat die spielwelt massiv erweitert im vergleich zu last light. das ist alles durchaus sehr, sehr positiv. stellenweise ist es grafisch aber eben fail und auch das sollte man anmerken dürfen.

HOT
2019-03-18, 12:48:10
Die dedizierten RT-Cores und auch die Tensor-Cores werden mMn wieder verschwinden aus der Consumergrafik, das hat einfach zuviele Nachteile ggü. universellen Lösungen. Stattdessen wird man die schon vorhandenen ALUs optimieren mMn.

Atma
2019-03-18, 13:10:09
Die dedizierten RT-Cores und auch die Tensor-Cores werden mMn wieder verschwinden aus der Consumergrafik, das hat einfach zuviele Nachteile ggü. universellen Lösungen. Stattdessen wird man die schon vorhandenen ALUs optimieren mMn.
Bei den Tensor-Cores erwarte ich persönlich auch, dass diese über kurz oder lang wieder verschwinden. Der Mehrwert ist fast nicht vorhanden. Bei den RT Cores hingegen sehe ich keinen Grund, die können RT deutlich besser und platzsparender beschleunigen als ALUs wie man beim Vergleich Titan V vs. Turing sehen kann.

Troyan
2019-03-18, 13:57:53
Die dedizierten RT-Cores und auch die Tensor-Cores werden mMn wieder verschwinden aus der Consumergrafik, das hat einfach zuviele Nachteile ggü. universellen Lösungen. Stattdessen wird man die schon vorhandenen ALUs optimieren mMn.

Wie genau sollen "universielle" Lösungen an die Effizient von speziellen Lösungen herankommen?

HOT
2019-03-18, 14:25:27
Bei den Tensor-Cores erwarte ich persönlich auch, dass diese über kurz oder lang wieder verschwinden. Der Mehrwert ist fast nicht vorhanden. Bei den RT Cores hingegen sehe ich keinen Grund, die können RT deutlich besser und platzsparender beschleunigen als ALUs wie man beim Vergleich Titan V vs. Turing sehen kann.
Das ist ja schön und gut, nur hat Crytek eben bewiesen, dass man eben nicht zwingend RT-Cores brenötigt und RT durchzuführen. Das mag zwar Anfangs einen gewissen Boost bringen, aber du siehst doch in BF usw. auch, dass RT trotzdem die Grafik massiv bremst. Das wird ein ähnlichens Phänomen sein, wie bei den Tensor Cores und DLSS, wo die Tensorcores die Grafikausgabe begrenzen können und DLSS plötzlich langsamer läuft, wenn die GPU nicht unter massiver Last steht (siehe Artikel in PCGH zum Thema DLSS).
Es ist einfach ne unglückliche Lösung. Also RTAO wird sich durchsetzen auf lange Sicht, auch auf den Konsolen, das halte ich für halbwegs sicher. Auch RT-Spieglungen natürlich, aber ich sehe nicht, wofür RT-Cores dafür essenizell sein sollen. Das ist bei Turing so, weil Turing selbst nicht genug Rohleistung für all das mitbringt, aber das muss in Zukunft so nicht bleiben.

Ich denke mal, die nächste Generation wird mehr oder weniger ein Shrink (also Pascal vs. Maxwell), aber in der Generation danach wird man da schon wieder deutlich flexibler agieren.

Daredevil
2019-03-18, 14:28:13
Crytek hat bewiesen, dass Raytracing ohne RT Cores möglich ist?
Das hat Tobiwahn auf seiner Titan-V schon letztes Jahr gemacht, sogar in nem Spiel und nicht nur in einer Techdemo.
https://www.3dcenter.org/news/raytracing-battlefield-v-laeuft-mit-guten-frameraten-auch-auf-der-titan-v
Es fehlen halt nur Werte von AMD, da gibts halt ( noch ) nichts.

Das alles ändert aber trotzdem nichts daran, dass RT Einheiten anscheinend aktuell deutlich effizienter sind.
In BF5 @ WQHD @ RT High verbraucht meine 2080ti "nur" ~180w.
Die RT Einheiten sind hier also ( vermutlich ? ) der Flaschenhals, so das der Rest der Karte relativ unbelastet bleibt.

HOT
2019-03-18, 14:36:21
Das ändert ja nix, sondern unterstreicht das ja nur.

Daredevil
2019-03-18, 14:43:41
Ich habe ja auch nicht gesagt, dass ich es anders sehe als du. :D

Siehe trotzdem noch mein Edit oben.
Es ist ( vermutlich ) aktuell einfach effizienter, die Last aufzuteilen ( GPU + RT Cores ), als das eine GPU alles stemmen soll, auch wenn es technisch irgendwo möglich wäre. Ähnlich wie früher PhysX und CPU Berechnung.

Gast
2019-03-18, 18:18:03
Das alles ändert aber trotzdem nichts daran, dass RT Einheiten anscheinend aktuell deutlich effizienter sind.
In BF5 @ WQHD @ RT High verbraucht meine 2080ti "nur" ~180w.

Das war mit dem ersten RTX-Patch. Mit dem nachfolgenden RTX-Patch, der massig Performance mit Raytracing brachte ist der Verbrauch auch wieder in üblichen Gefilden angelangt.


Die RT Einheiten sind hier also ( vermutlich ? ) der Flaschenhals, so das der Rest der Karte relativ unbelastet bleibt.

Soweit ich mich erinnern kann war in der ersten RTX-Umsetzung von Battlefield ein Problem, was verhindert hat, dass Dinge die eigentlich parallel laufen können seriell abgearbeitet wurden, was auch zu wesentlich schlechterer Performance, aber auch geringerem Verbrauch führt.

Da gab es sowohl einen neuen Treiber, als auch einen neuen Spielepatch der das behoben hat.

Generell sind die RT-Einheiten zumindest im Moment, nicht der Flaschenhals, wie die komplette RT-Umsetzung von Quake 2 zeigt.

Was oft Vergessen wird, und dann zu der Behauptung führt, wie schrecklich ineffizient Raytracing in Turing doch ist, ist dass die RT-Kerne einzig die Suche nach dem getroffenen Polygon beschleunigen. Wenn das gefunden wird braucht es immer noch eine Farbe, und die wird ganz gewöhnlich durch einen Pixelshader ermittelt. Raytracing braucht auch entsprechend viel Leistung im Shader, und da man in den aktuellen Hybrid-Renderern auf der Rasterizing-Seite mit Raytracing nicht wirklich viel einsparen kann, braucht das eben auch entsprechend Leistung.