PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unreal Engine 5


Seiten : 1 2 3 4 5 6 7 8 9 10 [11]

Rooter
2025-09-05, 22:46:20
Aber man kann doch sicher auch das LOD von Nanite so tunen, dass es kein Pop-in aus der Hölle gibt. :(

MfG
Rooter

Dampf
2025-09-06, 08:36:59
Hat eigentlich noch niemand das City Sample mit DLSS auf UE 5.6 und mit Einstellungsmenü sowie den aktuellesten Features wie das neue Streaming kompiliert? Würde mich mal interessieren, wie das heute laufen würde.

aufkrawall
2025-09-06, 10:19:10
Aber man kann doch sicher auch das LOD von Nanite so tunen, dass es kein Pop-in aus der Hölle gibt. :(

Wie meinen? Es gibt mit Nanite abseits von Gras und einigen wenigen Objekten gar kein Pop-In. Außer, der Dev hat etwa für niedrigere Detailstufen noch zusätzliches komplettes Objekt Pop-In festgelegt. Das bringt für die Performance aber vermutlich extrem wenig und dürfte eher eine Art Hack-Lösung sein, bis Nanite Assemblies + Voxel-Overdraw für die Vegetation endlich verfügbar sind.
Ohne eine Lösung wie Nanite passiert dann so etwas wie in TLOU2, wo die höchste Geometrie/Objekt-LOD-Einstellung mit hoher Sichtweite extrem die Performance keult. Und da wird der Polycount der jeweiligen Objekte schon nicht besonders hoch sein.
In Battlefield 6 ploppt auch immer noch zig Clutter genau vor einem auf, alles sieht bei näherer Betrachtung flach und detailarm aus und das läuft trotzdem nicht gerade rasend schnell.

Troyan
2025-09-06, 10:25:03
Unreal Engine 5 ist doch die Engine für Nvidias neueste PT Demos.
Wir brauchen Mikropolygones Rendering für top Assets da gibts kein Zurück.
UE5 ist die am meisten verwendete Engine für neue Titel.

Hast du überhaupt eine Ahnung von den aktuellen Vorgängen ?

Pathtracing ist keine Lösung. nVidia ersetzt die komplette Lichtberechnung und das läuft dann mit 60 FPS in 1080p...

Nein, wir brauchen keine "Mikropolygones Rendering für top Assets", wenn diese nicht mit einer hochmodernen und vorallem effizienten Lichtbereinigung einhergehen. Wie miserabel UE5 Spiele aussehen, wenn Software-Lumen auscheckt, kann man fast überall sehen. Und dann laufen diese Krücken mit vielleicht 100 FPS in 1440p bei superduper toller PS4 Grafik auf einer 5090.

/edit: Mafia zeigt eindrucksvoll, wie miserabel Software-Lumen und VSM sind: https://youtu.be/cK6xDT9PGmA?t=7376
60 FPS in 1080p auf einer 5070 TI mit PS4 Grafik: Fehlendes AO, kurze Distanz für VSM, schlechte Ingame-Charakter-Modelle etc. Wen interessiert es hier, dass die Assets alle "Mikropolygones Rendering für top Assets" erhalten haben, wenn die Fake-Licht-Darstellung es aussehen lässt wie etwas von vor 10 Jahren.

aufkrawall
2025-09-06, 10:34:08
Das Eine hat erstmal nichts mit dem Anderen zu tun. Hättest ja nicht so eine teure Grafikkarte kaufen müssen, wenn die in der Realität ständig Skalierungsprobleme hat. Kann recht gut UE5-Spiele mit maximalen Details auf der 5070 spielen, mit Nvidia-RT/PT wie in AW2 wird das schon schwieriger. So viel dazu, was für >90% des Marktes wirklich relevant ist.

Fragman
2025-09-06, 10:53:39
Wie meinen? Es gibt mit Nanite abseits von Gras und einigen wenigen Objekten gar kein Pop-In.

Popins kann ich bisher auch nicht feststellen.
Spekulation meinerseits wenn es passiert, es ist kein Nanite sondern normale Geo mit LOD Stufen.

Visuell hab ich ein paar sehr grobe Tests im Editor gemacht und man bekommt von der ständigen dynamischen Tesselierung nichts mit.
Irgendwas war aber mit dem Landscape System, habs nicht mehr genau im Kopf, da muss man aufpassen um auf Distanzen nicht die Form zu verlieren oder so.

Das Fooliage System erzeugt die Popins noch, aber das funktioniert bisher klassischer, auch wenn Nanite Meshes drin sind.

Was mich derzeit am meisten stört ist eher der Clusterfuck innerhalb der Engine, weil halt wie immer neue Features hinzugefügt werden und sich mit den Alten kombinieren lassen.
Die Workflows was im Shading und Lighting oder den Meshes passiert muss man sich zusammen basteln und eigentlich immer genau wissen was das dann bedeutet und sich dran halten. Gerade wenn viele Leute über Jahre dran arbeiten und Daten austauschen oder updaten passieren dann "Fehler" die man tracken muss weil die sonst zu Probleme führen.
Soviel zum Thema Optimierungen.

ChaosTM
2025-09-06, 10:53:58
Pathtracing ist keine Lösung. nVidia ersetzt die komplette Lichtberechnung und das läuft dann mit 60 FPS in 1080p...

Nein, wir brauchen keine "Mikropolygones Rendering für top Assets", wenn diese nicht mit einer hochmodernen und vorallem effizienten Lichtbereinigung einhergehen. Wie miserabel UE5 Spiele aussehen, wenn Software-Lumen auscheckt, kann man fast überall sehen. Und dann laufen diese Krücken mit vielleicht 100 FPS in 1440p bei superduper toller PS4 Grafik auf einer 5090.

/edit: Mafia zeigt eindrucksvoll, wie miserabel Software-Lumen und VSM sind: https://youtu.be/cK6xDT9PGmA?t=7376
60 FPS in 1080p auf einer 5070 TI mit PS4 Grafik: Fehlendes AO, kurze Distanz für VSM, schlechte Ingame-Charakter-Modelle etc. Wen interessiert es hier, dass die Assets alle "Mikropolygones Rendering für top Assets" erhalten haben, wenn die Fake-Licht-Darstellung es aussehen lässt wie etwas von vor 10 Jahren.



welche Lösungen bietet NV denn an, um Sachen wie PT oder Lumen/Nanite zu ersetzten?
In ihren Demos sieht man komischerweise sehr oft die UE5

Fragman
2025-09-06, 10:59:24
welche Lösungen bietet NV denn an, um Sachen wie PT oder Lumen/Nanite zu ersetzten?
In ihren Demos sieht man komischerweise sehr oft die UE5

Die nutzen den RTX Build der Engine von sich.
Der ermöglicht das Nutzen der RTX Features, es gibt einen eigenen RTXDI PT Modus zum rendern und man kann RTXDI in Lumen injekten und nutzt dann die Vorteile wie die höhere Genauigkeit beim Lighting sowie dem Denoiser im Viewport was die Lumen Artefakte deutlich reduziert.

Transistoryland
2025-09-06, 23:32:39
Pathtracing ist keine Lösung. nVidia ersetzt die komplette Lichtberechnung und das läuft dann mit 60 FPS in 1080p...

Nein, wir brauchen keine "Mikropolygones Rendering für top Assets", wenn diese nicht mit einer hochmodernen und vorallem effizienten Lichtbereinigung einhergehen. Wie miserabel UE5 Spiele aussehen, wenn Software-Lumen auscheckt, kann man fast überall sehen. Und dann laufen diese Krücken mit vielleicht 100 FPS in 1440p bei superduper toller PS4 Grafik auf einer 5090.

/edit: Mafia zeigt eindrucksvoll, wie miserabel Software-Lumen und VSM sind: https://youtu.be/cK6xDT9PGmA?t=7376
60 FPS in 1080p auf einer 5070 TI mit PS4 Grafik: Fehlendes AO, kurze Distanz für VSM, schlechte Ingame-Charakter-Modelle etc. Wen interessiert es hier, dass die Assets alle "Mikropolygones Rendering für top Assets" erhalten haben, wenn die Fake-Licht-Darstellung es aussehen lässt wie etwas von vor 10 Jahren.

Mikropolygone und Pathtracing sind das Endspiel beim Rendering und
das wird von NV und Epic zielsträbig verfolgt. Du solltest dich nochmal
tiefer Einlesen in die Materie sonst wirkt es etwas wirr was du schreibst.

basix
2025-09-08, 08:54:38
Hat eigentlich noch niemand das City Sample mit DLSS auf UE 5.6 und mit Einstellungsmenü sowie den aktuellesten Features wie das neue Streaming kompiliert? Würde mich mal interessieren, wie das heute laufen würde.

Kompiliert nicht mit 5.6 ohne Zeugs zu flicken. Im Editor läuft es aber das packaging failed. Habe dann keine Zeit fürs flicken investiert. Vielleicht wird es mit 5.6.2 was.

TheGood
2025-09-09, 20:05:42
Eigentlich krazz, mit welchen massiven Problemen die Unreal ENgine 5 ausgeliefert wurde.

Transistoryland
2025-09-10, 10:10:48
Eigentlich krazz, mit welchen massiven Problemen die Unreal ENgine 5 ausgeliefert wurde.

Es ist Software die ist nie fertig und die wird auch nicht "ausgeliefert"
wie so ein Karton mit kaputten Eiern.

TheGood
2025-09-10, 10:49:44
Es ist Software die ist nie fertig und die wird auch nicht "ausgeliefert"
wie so ein Karton mit kaputten Eiern.
seit wann kann man software nur im karton ausliefern? Wo lebst du denn noch :D

Natürlich ist sie nie fertig, aber die massiven probleme sind schon ziemlich drüber, aber jeder kann das ja selbst anders definieren. Da es viele nutzen haben sie den Nutzen der neuen TEchnologien wohl höher eingsetuft als den aufwand die probleme selbst zu beheben. ISt ja auch in Ordnung, am Ende muss ja auch nur der Enduser damit klarkommen...

Troyan
2025-09-12, 07:33:22
Das Eine hat erstmal nichts mit dem Anderen zu tun. Hättest ja nicht so eine teure Grafikkarte kaufen müssen, wenn die in der Realität ständig Skalierungsprobleme hat. Kann recht gut UE5-Spiele mit maximalen Details auf der 5070 spielen, mit Nvidia-RT/PT wie in AW2 wird das schon schwieriger. So viel dazu, was für >90% des Marktes wirklich relevant ist.

Stimmt, weil diese Qualität hier 40 FPS auf einer 5090 rechtfertigen, hätte ich mir doch liebers eine 5070 kaufen sollen. ;D

https://www.dsogaming.com/wp-content/uploads/2025/09/Borderlands4_2025_09_11_22_29_44_734.jpg
https://www.dsogaming.com/pc-performance-analyses/borderlands-4-4k-dlss-4-benchmarks-on-badass-settings/#gid=1&pid=3

Alan Wake 2 rennt mit >500W in 1080p auf meiner 5090. Das geht im Worst-Case auf 90 FPS mit der neuen Ultra-Einstellungen. Wie gut laufen nochmal UE5 Spiele mit Software-Lumen? 100 FPS in 1080p. Wow. Beeindruckend, wenn Rasterizing-Grafik nicht schneller läuft.

Indiana Jones rennt Indoors mit 100 FPS auf einer 5090 in 1440p. Finde mal ein UE5 Spiel mit Software-Lumen und VSM, dass in die Nähe kommt.

dargo
2025-09-12, 08:03:59
Das Eine hat erstmal nichts mit dem Anderen zu tun. Hättest ja nicht so eine teure Grafikkarte kaufen müssen, wenn die in der Realität ständig Skalierungsprobleme hat. Kann recht gut UE5-Spiele mit maximalen Details auf der 5070 spielen, mit Nvidia-RT/PT wie in AW2 wird das schon schwieriger. So viel dazu, was für >90% des Marktes wirklich relevant ist.
Da kannste auch mit einer Wand reden. Der Typ kapiert einfach immer noch nicht, dass Spiele nicht für eine RTX 5090 entwickelt werden. Das Ding wird nur halbwegs gut beschäftigt wenn NV teures PT drüber laufen lässt. Wie öfter schon gesagt... am Gamingmarkt vorbei entwickelt. Der einzige Zweck dieser RTX 5090 bzw. dem Topdog ist nur noch reines Marketing wie man wunderbar in diversen NV-Videos sehen kann wo Vergleiche in 4k Nativ RT On vs. RT On + DLSS 4 Performance angestellt werden wo beim letzteren auch noch 4x MFG aktiv ist... reinste Volksverdummung.

Holundermann
2025-09-12, 09:28:24
Also für PT lohnt sich eine 5090 auf jeden Fall. Man kann nicht Leistung genug haben... Und meiner Meinung nach ist die nicht am Markt vorbei entwickelt sondern eher für die Zukunft konzipiert - und die leuchtet nunmal in RT - da führt kein Weg vorbei, außer vielleicht mit AI.

Da scheint mir eher die ue5 am Markt vorbei entwickelt zu sein wenn man sich die Performance auf aktuellen Konsolen und Hardware ansieht. Nanite und Lumen können ihr Versprechen nicht halten und es bleibt eine Baustelle.

dildo4u
2025-09-12, 09:34:14
So lange die Entwickler kein PT in Unreal erwzingen bleibt die Hardware ungenutzt da immer weniger AAA Entwickler ihre eigene Engine Pflegen.

Relex
2025-09-12, 09:34:50
Lol, die 5090 Käufer haben die Karte doch eh längst gegen den Nachfolger ersetzt, lange bevor diese Pathtracing zukunft angekommen ist.

Stand jetzt gibts halt wirklich nur ne Handvoll PT games.

Ansonsten heißt es in UE5 Spielen Regler bedienen, Upscaling nutzen und ggf. FG dazu. Dann sind auch sehr hohe FPS drin. Ne 5090 ist noch VIEL zu schwach, um die UE5 mit Rohleistung zu bruteforcen.

SamLombardo
2025-09-12, 10:03:35
So lange die Entwickler kein PT in Unreal erwzingen bleibt die Hardware ungenutzt da immer weniger AAA Entwickler ihre eigene Engine Pflegen.
Gibt aber auch UE5 Spiele die mit der 5090 gut skalieren und sie schon ordentlich nutzen. Da fällt mir zum Beispiel das Oblivion Remaster ein in dem die 5090 30% vor der 4090 liegt. Oder Wuchang Fallen Feathers da ist die 5090 mehr als 30 Prozent vor der 4090 - und das trotz Software Lumen. Natürlich mit 100% Auslastung, da ist nichts ungenutzt. Dann gibt es natürlich auch die Beispiele, wo sie sich kaum absetzen kann, etwa Mafia. Ist merkwürdig manchmal mit der UE5.

dargo
2025-09-12, 10:11:47
Also für PT lohnt sich eine 5090 auf jeden Fall. Man kann nicht Leistung genug haben... Und meiner Meinung nach ist die nicht am Markt vorbei entwickelt sondern eher für die Zukunft konzipiert...
In Zukunft kommen neue GPUs die ähnliche bis schnellere Performance bieten bei weniger Power. Irgendwas für ferne Zukunft zu kaufen ist dumm.

Lol, die 5090 Käufer haben die Karte doch eh längst gegen den Nachfolger ersetzt, lange bevor diese Pathtracing zukunft angekommen ist.

This! Die haben dann ne RTX 7090/8090 drin und dann kommt immer noch einer mit Zukunft. :ulol:

Exxtreme
2025-09-12, 10:23:32
So lange die Entwickler kein PT in Unreal erwzingen bleibt die Hardware ungenutzt da immer weniger AAA Entwickler ihre eigene Engine Pflegen.

Nein, die Hardware bleibt genutzt. Der Punkt ist, UE5 verschwendet Ressourcen ohne Ende. Alleine Nanite erzeugt locker 300 - 400% Overhead. Da Nanite aber nicht das volle Budget pro Bild einnimmt, schlägt das real mit 50 - 100% Overhead durch. Sprich, ein Spiel, was mit 60 fps läuft, könnte mit 90 - 120 fps laufen. Und je kleiner die Geometrien werden und je weiter entfernt sie sind, desto schlimmer wird dieser Overhead. Und deshalb sieht man in vielen UE5-Spielen so ein spätes Aufpoppen von Geometrien. Da haben die Devs Optimierung (:freak: ) vorgenommen und blenden solche kleinen weiter entfernten Geometrien einfach mal aus. Ansonsten würde das Spiel noch viel beschissener laufen. Und das siehst du dann auch in Benchmarks. Doom Dark Ages läuft in 4K mit über 80 fps und ein Spiel wie Elder Scrolls 4 Oblivion kratzt in 4K grad so an der 40 fps-Marke auf einer RTX5090.

Das hat nichts mit "RTX 5090 ist nicht für Spiele gemacht" zu tun sondern mit exorbitanter Ressourcenverschwendung und Externalisierung von Entwicklungskosten. Assets aus dem Epic Store runterladen und in die Engine reinzukippen ist halt billig.

Fragman
2025-09-12, 10:54:15
Zu Doom und PT gab es vor ein paar Tagen ein nettes DF Video.

Aber, die UE kann das Realtime PT bisher nicht(?).
Man möge mich hier korrigieren, aber so ganzheitlich gedacht wie es bei der Doomtech den Anschein macht, ist das in der UE nicht, den nv Build mal aussen vor gelassen.

SamLombardo
2025-09-12, 11:11:20
Zu Doom und PT gab es vor ein paar Tagen ein nettes DF Video.

Aber, die UE kann das Realtime PT bisher nicht(?).
Man möge mich hier korrigieren, aber so ganzheitlich gedacht wie es bei der Doomtech den Anschein macht, ist das in der UE nicht, den nv Build mal aussen vor gelassen.

Black Myth Wukong hat UE5 und PT, Desordre auch. An der Engine ansich sollte es also nicht liegen.

dildo4u
2025-09-12, 11:11:49
vorgenommen und blenden solche kleinen weiter entfernten Geometrien einfach mal aus. Ansonsten würde das Spiel noch viel beschissener laufen. Und das siehst du dann auch in Benchmarks. Doom Dark Ages läuft in 4K mit über 80 fps und ein Spiel wie Elder Scrolls 4 Oblivion kratzt in 4K grad so an der 40 fps-Marke auf einer RTX5090.

Vergleichts du ohne und mit DLSS laut dem ist eine 5090 unter 40fps in 4k.

https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1475246&page=1&draft=-1&rank=1

dargo
2025-09-12, 11:16:24
Nein, ist sie nicht. Das sind keine fps, die da gezeigt werden sondern Latenzen in Millisekunden.
:freak:

Da steht sogar avg.fps, nicht mal 1% low. Die passenden Latenzen sind dort natürlich auch angegeben.

Exxtreme
2025-09-12, 11:30:19
Vergleichts du ohne und mit DLSS laut dem ist eine 5090 unter 40fps in 4k.

https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1475246&page=1&draft=-1&rank=1

Ich hatte die Werte von hier:
https://www.techpowerup.com/review/doom-the-dark-ages-performance-benchmark/5.html

Da ist aber kein Pathtracing dabei.

Dampf
2025-09-12, 13:13:31
In Zukunft kommen neue GPUs die ähnliche bis schnellere Performance bieten bei weniger Power. Irgendwas für ferne Zukunft zu kaufen ist dumm.


Bau mal deine 5700XT wieder ein und lass sie mal gegen meine Laptop 2060 in Doom The Dark Ages antreten :tongue:

dargo
2025-09-12, 13:17:16
Mehr Äpfel/Birnen ist dir gerade nicht eingefallen?

basix
2025-09-12, 13:23:03
Turing als Architektur ist auch eine riesen Ausnahme, was Langlebigkeit betrifft (wenn die VRAM-Menge reicht). Geh mal nur eine Generation zurück auf Pascal, dort sieht das ganz anders aus. Bei Turing konnte man bei Release auch nicht damit rechnen, dass man mit DLSS so weit kommt und die RT-Performance ausserhalb von PT-Use-Cases immer noch recht gut mithalten kann. Das ist mehr eine Mischung aus zukunftsorientiertem Chip-Design und ein bisschen glücklichem Zufall mit all den SW-Tricks wie DLSS ;)

Dampf
2025-09-12, 13:23:17
Mehr Äpfel/Birnen ist dir gerade nicht eingefallen?

Wieso Äpfel und Birnen? Sind doch beides Grafikkarten. Turing ist sogar ein Jahr jünger als RDNA1.

Wer sich damals für Turing entschieden hat, hat nun eine GPU die immer noch in allen Titeln sehr gut funktioniert. RDNA1 kann einige Games nicht mal abspielen und einige nur mit reduzierter Performance oder schlechtere Grafik.

Und ja es mag ja sein, man kann immer wieder neue Grafikkarten kaufen. Aber wer heute eine 5090 kauft, der kauft Zukunftssicherheit. Nicht jeder kauft 2 Jahre eine neue GPU, es ist also nicht relevant ob in 2 Jahren eine GPU erscheint die günstiger und trotzdem schneller ist. Dumm ist daran nichts. Ist auch besser für den Planeten, wenn man eine GPU eine sehr lange Zeit behält.

Turing als Architektur ist auch eine riesen Ausnahme, was Langlebigkeit betrifft (wenn die VRAM-Menge reicht). Geh mal nur eine Generation zurück auf Pascal, dort sieht das ganz anders aus. Bei Turing konnte man bei Release auch nicht damit rechnen, dass man mit DLSS so weit kommt und die RT-Performance ausserhalb von PT-Use-Cases immer noch recht gut mithalten kann. Das ist mehr eine Mischung aus zukunftsorientiertem Chip-Design und ein bisschen glücklichem Zufall mit all den SW-Tricks wie DLSS ;)

Auf jeden Fall. Turing ist sogar so gut, dass sich Nvidia auf den Lorbeeren ausruht und die selbe Architektur mit ein paar Neuerungen wieder erwärmt. Im Grunde genommen ist Blackwell immer noch Turing + + +.

Turing hatte auch Glück, dass die Konsolen und AMD bis heute keine BVH Traversal Hardwareunterstützung haben. Aber Nvidia muss sich jetzt endlich mal ranhalten. Mit UDNA könnte AMD endlich Nvidia ausstechen. Sie brauchen eine neue Architektur.

Vielleicht auch mal die Architektur auf UE5 optimieren. UE5 ist nebenbei bemerkt, ein richtiger Segen für alte GPU Architekturen wie RDNA1 und Pascal, da Lumen und Nanite auch gut ohne Hardware-Features funktionieren. Vielleicht sollte man SDFs auch mal in Hardware beschleunigen.

basix
2025-09-12, 13:43:16
Turing hat auch all die neuen Dinge wie Mesh Shaders, DX12U, Direct Storage usw. nachgereicht bekommen. Inkl. DLSS4 Super Resolution 6 Jahre nach dessen Release. Sowas hat es vorher noch nie gegeben.

The_Invisible
2025-09-12, 14:00:15
Turing als Architektur ist auch eine riesen Ausnahme, was Langlebigkeit betrifft (wenn die VRAM-Menge reicht). Geh mal nur eine Generation zurück auf Pascal, dort sieht das ganz anders aus. Bei Turing konnte man bei Release auch nicht damit rechnen, dass man mit DLSS so weit kommt und die RT-Performance ausserhalb von PT-Use-Cases immer noch recht gut mithalten kann. Das ist mehr eine Mischung aus zukunftsorientiertem Chip-Design und ein bisschen glücklichem Zufall mit all den SW-Tricks wie DLSS ;)

Jap war auch ein Risiko seitens Nvidia, man hätte die transis auch einfach in mehr Shadereinheiten stecken können, der Vorsprung gegenüber Pascal war nicht riesig in reiner Performance damals. Man hat das Ding aber voll durchgezogen.

@Dampf
Naja in Sachen PT ist AMD noch immer weit von NV entfernt bis jetzt. Wenn zusammen mit Redstone keine (Partner)PT-Techdemo kommt verstärkt sich das nur

dargo
2025-09-12, 14:07:34
Wieso Äpfel und Birnen? Sind doch beides Grafikkarten. Turing ist sogar ein Jahr jünger als RDNA1.

Wer sich damals für Turing entschieden hat, hat nun eine GPU die immer noch in allen Titeln sehr gut funktioniert.
Natürlich... insbesondere die erwähnte RTX 2060 (Laptop) mit ihren 6GB VRAM. :facepalm:
Und ja es mag ja sein, man kann immer wieder neue Grafikkarten kaufen. Aber wer heute eine 5090 kauft, der kauft Zukunftssicherheit. Nicht jeder kauft 2 Jahre eine neue GPU, es ist also nicht relevant ob in 2 Jahren eine GPU erscheint die günstiger und trotzdem schneller ist. Dumm ist daran nichts. Ist auch besser für den Planeten, wenn man eine GPU eine sehr lange Zeit behält.

Und weiter geht dieser Eiertanz. Erzähl das mal denen die jede Gen den TopDog mitnehmen, egal wie hirnverbrannt der Heizofen ausfällt. Das einzige was an einer RTX 5090 recht zukunftssicher ist sind die 32GB VRAM, das wars dann schon.

btw.
Apropo Planet... ich repariere gerade (warte noch auf das Ersatzteil) meinen 15 Jahre alten NEFF Geschirrspüler. Dann nenne ich nachhaltig. ;)


Auf jeden Fall. Turing ist sogar so gut, dass sich Nvidia auf den Lorbeeren ausruht und die selbe Architektur mit ein paar Neuerungen wieder erwärmt. Im Grunde genommen ist Blackwell immer noch Turing + + +.

Lol... guter Witz. Jeder IHV baut auf der Vorgängergeneration auf. Niemand kann es sich leisten eine neue Gen von Grund auf komplett neu zu designen. Außer vielleicht ein Neueinsteiger wie Intel. Der spielt dann aber eh im unteren Segment erstmal jahrelang nur mit und verdient dabei kaum Geld.

aufkrawall
2025-09-12, 15:07:20
Nein, die Hardware bleibt genutzt. Der Punkt ist, UE5 verschwendet Ressourcen ohne Ende. Alleine Nanite erzeugt locker 300 - 400% Overhead.
Du pöbelst wieder mit Halbwissen rum. Der Performance-Hit durch Nanite ist wesentlich geringer als durch VSM, die SWRT-Schatten und mit Nanite i.d.R. die einzigen verfügbaren Schatten sind. Zu deinen üblichen Quatsch-Rants passt dann auch nicht, dass es mit Megalights mit ausgerechnet HWRT wesentlich schneller sein wird.
Wobei ich nicht glaube, dass man auf den Konsolen das Ghosting damit in den Griff bekommen wird, sofern nicht doch noch der ML-Denoiser von Redstone dort laufen wird.

Gast
2025-09-12, 18:57:08
Das ist mehr eine Mischung aus zukunftsorientiertem Chip-Design und ein bisschen glücklichem Zufall mit all den SW-Tricks wie DLSS ;)

Das hat wenig mit Zufall zu tun, es hat nicht „zufällig“ irgendein Ingenieur die ML-Accelerators in den SMs vergessen, und Nvidia hat sie dann erst kurz vor Launch entdeckt, und da war es zu spät sie wieder auszubauen.

Nightspider
2025-09-14, 02:03:34
Embark Studios haben die Physik von The Finals noch weiter verbessert.

Das hätte ich gerne in Battlefield 6 gehabt:

https://youtu.be/-eeFeTI3tr4?t=435

Für sowas und noch mehr brauchen wir einfach noch mehr CPU Leistung.

Die 12 und 16 Kern CPUs können gar nicht schnell genug kommen.
Nur schade das die PS6 bei 8+2(LP) Kernen bleiben soll.

Edit:

Hier noch ein Making Of

hjUyrAGlHJI

dildo4u
2025-09-14, 04:28:29
Selbst mit einer neuen Version der Engine hat Nvidia immer noch massiv Overhead Probleme 80 vs 100fps Lows.

Nur mehr Hardware hinterherschmeißen ist nicht die finale Lösung.

https://youtu.be/3AJ2FXcBSLk?si=ERO7FTTDYEgZ-H4Y&t=546

Relex
2025-09-14, 09:31:08
Da sollte Nvidia wirklich nachbessern. Wobei ich mir dennoch die Frage stelle, wie aussagekräftig solche Messungen sind, nachdem Blackwell Hardware Flip Metering hat, was ja wahrscheinlich von keiner Software erfasst werden kann.

Mich wundert mal wieder, dass niemand das testet…

Lurtz
2025-09-14, 09:37:07
Was genau soll man da testen? Du meinst gemessene Frametimes vs Frametimes am Display?

Relex
2025-09-14, 10:08:06
Ja, zum Beispiel. Einfach mal grundsätzlich evaluieren, wann das Hardware Flip Metering überhaupt aktiv ist (vielleicht nur mit Reflex, vielleicht nur mit Frame Gen, vielleicht nur bei Multi Frame Gen) und dann die Unterschiede ausarbeiten.

Erst wenn man das weiß kann man schauen, ob solche Messungen überhaupt valide sind oder ob man die Messmethodik ggf. anpassen muss.

Aktuell ist das halt ein großes Fragezeichen für mich. Die Messungen können Valide sein. Oder auch nicht. Man weiß es nicht...


Grundlegender Gedanke wäre eben, dass auf Treiberseitiges Flipmetering verzichtet werden kann, wenn es die Hardware macht, was dann softwareseitig auch zu schlechteren Readouts führt.

Oder aber die Softwareseite ist identisch zu z.B. Ada und Ampere nur zusätzliches Flip Metering in Hardware verbessert das Framepacing weiter.

Also keine Ahnung. Ich hab nur viele Fragen und keine Antworten...


EDIT: Hier im Anhang mal ne Messung mit CapFrameX in Borderlands.
Was soll mir das jetzt sagen?

Diese Tools können alles messen. Nur nicht das was am Display ankommt.
Auch die Min Werte hier sind völliger unsinn. Wenn ich FG aus mache, sind sie z.B. bereits 50% besser. Nicht relativ, sondern absolut. Klingt plausibel oder? Was soll man denn davon glauben?

Für mich sind diese Tools mittlerweile völlig sinnlos. Das einzige was man rauslesen kann sind deutlicher Ruckler die man mit dem Auge eh bereits deutlich sieht. Alles andere bringt nichts.

Es ist ja z.B. auch so, dass CapFrameX bei den low frametimes z.B. 50 oder 55 FPS anzeigt, wenn man mit einem 60 Hz Vsync lock spielt. Selbst dann wenn das Spiel mit 300 FPS läuft und die Lows jenseits der 200 waren.
Am Monitor kommt dann alle 16,6 ms ein neues Frame an, alles perfekt sauber, aber CapFrameX will mir weiß machen, dass dem nicht so ist, obwohl ich es mit der Slow Motion Aufnahme eines Smartphones problemlos verifizieren kann.


Solche messungen taugen um die Performance des Spiels zu validieren oder um vielleicht die CPU performance/frametimes zu messen, aber es hat NICHTS, nichtmal im entferntesten irgend was damit zu tun, was am Display ankommt und wie smooth sich die Ausgabe anfühlt.

Und trotzdem nutzen viele genau jene Tools um dann aufzuzeigen oder zu argumentieren ob etwas flüssig läuft oder nicht.

Lurtz
2025-09-14, 10:57:56
Ich dachte DF messen es so, wie es am Display ankommt/ankommen würde?

Relex
2025-09-14, 11:18:17
Ja, aber nicht für VRR. Das tooling dafür entwickeln sie gerade noch.

Troyan
2025-09-14, 14:16:28
Selbst mit einer neuen Version der Engine hat Nvidia immer noch massiv Overhead Probleme 80 vs 100fps Lows.

Nur mehr Hardware hinterherschmeißen ist nicht die finale Lösung.

https://youtu.be/3AJ2FXcBSLk?si=ERO7FTTDYEgZ-H4Y&t=546

Klar "Overhead" bei 100 FPS auf einem Ryzen 9800X3D. Lmao. ;D

Die 5070TI hast fast 40% bessere Effizienz, eigentlich auch absurd, wie miserabel AMD ist.


So lange die Entwickler kein PT in Unreal erwzingen bleibt die Hardware ungenutzt da immer weniger AAA Entwickler ihre eigene Engine Pflegen.

UE5 setzt auf 10 Jahre alte Techniken. Rasterizing Shadow Maps und sonstigen Schrott, weil man sich mit dem Nanite-Pferd von der Klippe geritten hat. Die Ironie ist, dass Pathtracing nun so schnell ist, weil man vieles einfach als Beiprodukt benutzen kann: (Besseres) AO und Schatten sind einfach nur die Abwesenheit von Licht. Und die Infos hat man bei RestirGI ja vorliegen. In Alan Wake 2 und Indiana Jones kosten Schatten ~5% auf meiner 5090, VSM kosten über ~20% an Leistung in UE5. UE5 setzt ja nicht nur auf minderwertige, weniger komplexe Berechnungen, sondern eben auf viele dieser, die dann seriell abgearbeitet werden müssen. Und das schaffen die Leute von Epic auch nichtmal so effizient, dass die komplette Rechenleistung von nVidias GPUs vollständig ausgenutzt wird.

Diese Engine ist eine einzige Verschwendung von Ressourcen.

dargo
2025-09-14, 14:38:17
Die 5070TI hast fast 40% bessere Effizienz, eigentlich auch absurd, wie miserabel AMD ist.

Deine Inkompetenz ist mal wieder bezeichnend. Die Radeon boostet mit knapp 300Mhz höher in dieser Szene und du willst dann irgendwelche Effizienzvergleiche anstellen? :lol: Wenn du schon einfachste Zusammenhänge nicht verstehst... hier habe ich ausführlicher was dazu geschrieben.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13807354&postcount=6656

Mit einem Offset von -500Mhz bekommst du hier auch die gleiche Frequenz wie die Geforce bei massiv weniger Verbrauch. Frames dürften dann ausgehend von den 124fps auf ca. 120-121fps runter gehen.

btw.
Bald wirst du mit dem Refresh von Blackwell sehen wie effizient dieser ist wenn Nvidia die Taktbremse lockert. Bei einigen Modellen geht nur noch die Taktkeule mit entsprechend mehr Verbrauch da alle SM "verspielt" wurden.

Transistoryland
2025-09-16, 13:20:58
UE5 setzt auf 10 Jahre alte Techniken. Rasterizing Shadow Maps und sonstigen Schrott, weil man sich mit dem Nanite-Pferd von der Klippe geritten hat.

Diese Engine ist eine einzige Verschwendung von Ressourcen.

Im Vergleich sehen ALLE anderen Engines am Markt wie Amateur Schrott aus.
Selbst dieses billige Robocop lässt Cyberpunk 2077 schlecht aussehen.

Irgendwie kommt auch keine Alternative zur UE5, man sieht nur das die
legacy Engines über Bort geworfen werden. Komisch oder ?

SamLombardo
2025-09-16, 13:34:29
Im Vergleich sehen ALLE anderen Engines am Markt wie Amateur Schrott aus.
Selbst dieses billige Robocop lässt Cyberpunk 2077 schlecht aussehen.

Irgendwie kommt auch keine Alternative zur UE5, man sieht nur das die
legacy Engines über Bort geworfen werden. Komisch oder ?
Dafür sehen die Spiele aber auch alle ähnlich aus. Sehr gut zweifellos, aber irgendwie Einheitsbrei. Ich fand es echt schade dass CD Project nicht eine RED Engine 5 entwickelt sondern Witcher4 im UE Einheitslook bringt. Ich hoffe doch sehr dass die noch am Markt genutzten modernen Grafikengines (Anvil, Snowdrop, Cryengine, Unity) nicht auch noch aufgegeben werden und alle in der UE aufgehen

00-Schneider
2025-09-16, 16:38:27
Kommt es mir nur so vor, oder sind Nachladeruckler und Shader-Stutter deutlich häufiger in UE4 Games im Vergleich zu UE5?

Dovregubben
2025-09-17, 10:28:34
Dafür sehen die Spiele aber auch alle ähnlich aus. Sehr gut zweifellos, aber irgendwie Einheitsbrei.
Kann ich irgendwie nicht ganz nachvollziehen. Die größten Gemeinsamkeiten kommen dann oft vom Artstyle und Assets aus dem Fab Store.

Ich hoffe doch sehr dass die noch am Markt genutzten modernen Grafikengines (Anvil, Snowdrop, Cryengine, Unity) nicht auch noch aufgegeben werden und alle in der UE aufgehen
Wie viele Spiele mit der Cryengine gab es denn die letzten Jahre? 3? Kingdom Come 1 + 2 und Hunt? Das ist wirklich irrelevant und technisch wirkt das auch sehr angestaubt inzwischen.
Unity sieht man bei Non-Mobile Titeln mit etwas Budget auch nicht mehr.
Ein paar Engines wird es sicherlich noch kosten, weil der Aufwand für eine eigene Engine sich immer weniger lohnt. Es gibt aber ja noch ein ganz große Palette an Engines, die halt nicht für jeden kaufbar sind, die aber auch größtenteils durch special Features überleben werden (ID Tech, Decima, Insomnica Engine, ...) .


Insgesamt bin ich von den UE5 Games wirklich sehr positiv überrascht. Da schaffen kleinere Studios eine Grafikqualität, die vor ein paar Jahren komplett unvorstellbar war.

ChaosTM
2025-09-17, 10:52:45
Die Cryengine ist zwar technisch nicht mehr auf dem neuesten Stand, aber Kingdome Come 2 hat die schönsten Landschaftsbilder der letzten Jahre erzeugt. Und das flüssig und ohne grausliche (taversale) Ruckler.
Für die Rage Engine von Rockstar gilt dasselbe. Das steinalte RDR2 gehört immer noch zu den schönsten Spielen.
Und GTA6 wird das völlig neu definieren.

Oben genannte Engines wie ID, Decima, Insomnica usw darf man auch nicht vergessen.
Und Naughty Dogs Engine ist sowieso das angenehmste und flüssigste, das mir je untergekommen ist. Auch nicht technisch auf dem höchsten Level, aber da gibts keine Ruckler oder Aussetzer. Das lauft einfach perfekt

UE5 Spiel könne zwar gut ausschauen, aber ich freu mich über jedes Spiel, dass nicht mit dieser Unterlage kommt

Lurtz
2025-09-17, 10:56:39
Dann überlege mal was die alle gemein haben. Man kommt an die Engines als 3rd-Party entweder gar nicht ran oder nur ohne die passenden Tools.

Einzige Ausnahme die CryEngine, aber bis auf Warhorse, die sie stark modifiziert haben, scheint die auch niemand mehr regulär zu verwenden (und eben Star Citizen, aber die sind eh die Ausnahme aller Regeln).
Oder man heißt Kojima und liegt mit Sony im Bett.

ChaosTM
2025-09-17, 10:59:22
Das stimmt natürlich. Die sind alle proprietär und nicht für die Allgemeinheit zugänglich.

Schade

Dovregubben
2025-09-17, 11:27:47
Die Cryengine ist zwar technisch nicht mehr auf dem neuesten Stand, aber Kingdome Come 2 hat die schönsten Landschaftsbilder der letzten Jahre erzeugt. Und das flüssig und ohne grausliche (taversale) Ruckler.

Beim Landschaftsrendering hat sich technologisch am wenigsten getan. Da fällt mir die letzten 10 Jahre neben den volumetrischen Effekten quasi nichts ein. GI hat da in den meisten Fällen auch herzlich wenig Auswirkungen. Das würde erst bei starker Vegetation im Nahbereich eine Rolle spielen, aber genau damit haben aktuelle GI Lösungen noch die meisten Probleme.

Unreal ist ja an einem neuen Landscape System dran und bei Vegetation müssen wir wohl mal abwarten was Nanite Foliage taugt. Vielleicht bekommen wir da mal wieder einen Sprung.

Bin auf jeden Fall gespannt, ob Epic das Traversal Stutter irgendwann los wird. Spätestens bei UE6 mit der neuen Szenenrepräsentation würde ich das schon erwarten.

Das größte Problem war das "it just works" im Marketing, zusammen mit den Kit Bashing Demos, die für reale Spiele so einfach nicht funktionieren. Schon bei den ersten Entwicklerinterviews nach der ersten UE5 Präsentation hat man schon deutlich rausgehört, dass man viel beachten muss, damit das alles performant läuft. Realtime Rendering ist richtig hart und was Epic geschaffen hat ist mindblowing. Es gibt da kein "it just works" und wird es in absehbarer Zeit auch nicht geben. Selbst wenn wir jetzt Pathtracing haben, muss man wegen den super niedrigen Sample Counts noch tausende Dinge beachten und Performancefallen gibt es natürlich auch etliche.

Für die Rage Engine von Rockstar gilt dasselbe. Das steinalte RDR2 gehört immer noch zu den schönsten Spielen.
Ich habs letztes Jahr das erste Mal gespielt und einfach nope... Contentqualität ist absurd gut, aber technisch wirkt das auch so angestaubt, dass es Retrovibes verursacht. Kann das Spiel bei seinem Alter auch nix dafür.


UE5 Spiel könne zwar gut ausschauen, aber ich freu mich über jedes Spiel, dass nicht mit dieser Unterlage kommt
Bei den Blockbustern kann ich das nachvollziehen, bei den ganzen kleineren Titeln (AA und kleiner) freu ich mich über jeden UE5 Titel. Mafia würde nicht im entferntesten so gut aussehen mit einer eigenen Engine. Von den ganzen kleinen Indie Titeln mal ganz zu schweigen. Da verzeihe ich auch mal kleiner Ruckler.

Gast
2025-09-17, 11:55:04
Dafür sehen die Spiele aber auch alle ähnlich aus. Sehr gut zweifellos, aber irgendwie Einheitsbrei.


Content hat überhaupt nichts mit der Engine zu tun. Man kann mit der selben Engine einen komplett unterschiedlichen Look erzeugen.

basix
2025-09-17, 18:48:28
UE 5.7 Roadmap:
https://portal.productboard.com/epicgames/1-unreal-engine-public-roadmap/tabs/127-unreal-engine-5-7

Interessant bei Nanite Foliage:
Verbessertes TSR wird auch erwähnt (thin geometry detection)