PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 26. März 2026


Leonidas
2026-03-27, 04:23:00
Link zur News:
https://www.3dcenter.org/news/news-des-26-maerz-2026

MadManniMan
2026-03-27, 05:29:18
Total spannend.

Ich nutze DLSS eigentlich IMMER, wenn es geht, da Quality zumeist besser aussieht als "nativ" mit TAA oder ähnlichem. Klar gibt es offensichtliche Ausnahmen mit bspw. massivem Ghosting, aber das gibt es eigentlich kaum noch.

Haupteinsatz ist für mich jedoch, maximale "Bildqualität pro Pixel" zu bekommen und dabei gleichzeitig in hohen FPS (> 80) zu bleiben. Und das heißt bspw. Path Tracing mit meiner nicht superschnellen 4070, daher dann gern Performance und - wenn die Latenz es zulässt - Frame Generation.

Anderes Beispiel: Ich bekomme in Clair Obscur keine stabilen 60 FPS, wenn ich die Details hochdrehe. Da es aber ein Controller-Spiel ist, tut es auch nicht weh, auf 60 FPS zu begrenzen, (fast) alles hochzudrehen, diese 60 FPS aber per FG abzusichern.

Kurzum: DLSS wann immer es geht. Selbst ohne visuellen Vorteil würde es zumindest Strom sparen.

VfBFan
2026-03-27, 07:22:28
FG einsetzen, wenn es ohne FG nicht flüssig laufen würde. Hä?
Nicht flüssig bedeutet bei mir: dauerhaft stabil unter 60 fps. Warum sollten man dann FG einsetzen, außerhalb von Strategiespielen, wie z. B. Frostpunk 2?

Damit FG gut funktioniert sollten es doch immer mindestens so 60 bis 70 fps sein.

Grafikspachtel
2026-03-27, 08:15:01
Total spannend.

Ich nutze DLSS IMMER [...]
Haupteinsatz ist, maximale "Bildqualität pro Pixel" zu bekommen
aHAHAHA!
Danke, das war der Lacher zum Wochenende.

xojL9MdxcRs

Gast
2026-03-27, 08:55:34
Danke, das war der Lacher zum Wochenende.



Videos von ThreatInteractive sind immer gut für Lacher, egal zu welcher Tages oder Nachtzeit.

Gast
2026-03-27, 09:11:42
Ein YouTube-Video seitens 'Petar Insights' samt dazugehörigem Reddit-Beitrag weisen auf eine massive Diskrepanz bei der Stromverbrauchs-Anzeige von Apple-SoCs gegenüber der gemessenen Realität hin. Im konkreten Beispiel einer hohen GPU-Last mit einem M4 Max zeigte das Tool "Powermetrics" eine Idle/Last-Differenz von 65 Watt an, gemessen an der Steckdose ware es allerdings gleich 197 Watt Differenz – satte 114 Watt mehr als das Tool angezeigt hatte.

How obvious. Die Beschreibung des Tools powermetrics selbst weist explizit darauf hin, dass es sich nicht um eine gemessene Leistungsaufnahme sondern um ein reines Berechnungsmodell handelt und dass dementsprechend die angezeigten nur Richtwerte sind. Da Apple-SoCs nicht mit Powerlimits angesteuert werden und rein Temperaturbeding throtteln hat Apple auch keine Hardware verbaut die den Echtzeitverbrauch messen kann.
Ein tatsächlich gemessener Wert auf einem Mac ist die Gesamtleistungsaufnahme.

Speziell unter GPU-Lasten liegen die errechneten und tatsächlichen Werte oft deutlich auseinander. Ich schätze mal dass das Modell hier nicht gut abbilden kann wann welche Einheiten in den Shadercores wirklich ausgelastet sind und wie viel sich das auf den Verbrauch auswirkt.

Die CPU-Werte sind da deutlich plausibler, da liegen die angezeigten Verbrauchswerte deutlich näher an der beobachtbaren Leistungsaufnahme.

Gast
2026-03-27, 09:33:58
Das Thema Verbrauchs-"Messung" per Software nervt mich schon seit Jahren. Bei AMD war eigentlich schon immer klar, dass die Messung nicht wirklich genau ist. Bei Intel ist das allerdings auch klar, denn ein 285K soll laut Software im Idle kaum mehr als ein 14900K brauchen (1-2W), in der Realität liegen da aber schnell 50% Unterschied an (20W Unterschied sind kein Problem).
Generell sollte der Verbrauch an der Steckdose gemessen werden, dann ist auch die Plattform abgedeckt, welche in letzter Zeit ja immer mehr aus dem Ruder läuft, bei AMD noch etwas mehr als bei Intel. Von bis 80W Idle Verbrauch gehen unter 20W auf die CPU, der Rest auf die Plattform. Das ist einfach nur noch gaga... Bei Intel sind es dann etwas bessere 70W, bei 15W CPU Verbrauch. Generell finde ich aber über 50W Idle Verbrauch für die Plattform einfach nicht mehr zeitgemäß.
Dass Apple hier den Vogel abschießt, wundert mich aber auch nicht. In Tests mit tatsächlicher Messung des Verbrauchs schneidet deren Hardware zwar immer noch spitzenmäßig ab, aber der Abstand zur Konkurrenz - vor allem bei Multithread - ist oft gering und lässt sich meist durch eine bessere Fertigung erklären. Jedenfalls immer weit von den Fabelwerten entfernt, die sonst gerne genannt werden. Bei Singlethread ist das anders, weil x86 hier die meist überdrehten Boost-Mechanismen einen Strich durch die Rechnung machen.

MadManniMan
2026-03-27, 10:12:18
aHAHAHA!
Danke, das war der Lacher zum Wochenende.

https://youtu.be/xojL9MdxcRs

Könntest du bitte irgendwas dazu ausführen, ohne einfach ein Video zu verlinken?

Gast Ritis
2026-03-27, 18:55:45
Videos von ThreatInteractive sind immer gut für Lacher, egal zu welcher Tages oder Nachtzeit.

Er hat jedes Mal valide Punkte. Die Methoden der letzten Jahre haben oft genug erfolgreiche Konzepte im Rendering für zweifelhafte Marketinggimmiks geopfert.

Aber davon lebt Nvidia und die Newsbranche, Gamedevs und "Poweruser" lassen sich vor deren Karren spannen. So rollt der $-Rubel.

Man muss sich nur die von den Brancheninsidern gefeierten Spiele anschauen, da spielt der Fuzz um Graphik-Featuers seit Jahren gar keine Rolle mehr. Es geht ums Gameplay und um Artdesign.

Hochzeit2
2026-03-28, 13:54:44
Ich nutze DLSS eigentlich IMMER, wenn es geht, da Quality zumeist besser aussieht als "nativ"

Ich kann diesen Müll echt nicht mehr hören.
Alleine das Ghosting in fast allen Games beweist das Gegenteil!

Blase
2026-03-28, 17:53:14
Es steht dir frei, deine persönliche Meinung hier zu teilen und danach zu handeln... ;)

MfG Blase

MadManniMan
2026-03-28, 18:55:42
:freak:

Ich kann diesen Müll echt nicht mehr hören.
Alleine das Ghosting in fast allen Games beweist das Gegenteil!

Ich nutze DLSS eigentlich IMMER, wenn es geht, da Quality zumeist besser aussieht als "nativ" mit TAA oder ähnlichem. Klar gibt es offensichtliche Ausnahmen mit bspw. massivem Ghosting, aber das gibt es eigentlich kaum noch.

Oh und ich habe es anfangs WIRKLICH nicht ausgehalten. Natürlich ist es immer ein Tradeoff. Es gibt keinen magischen "EINFACH ALLE BESSER"-Knopf.

Aber meine Hauptprobleme mit DLSS sind aktuell: Kontrast zwischen hoher Ziel-Auflösung und Effekten, die in der Render-Auflösung berechnet werden (Reflexionen!) und Artefakten bei Frame Generation (bspw. auf der Karte bei Clair Obscur).


Aber eine differenzierte Analyse interessiert dich gar nicht, stimmt's?

Gast
2026-03-29, 20:02:33
Generell sollte der Verbrauch an der Steckdose gemessen werden, dann ist auch die Plattform abgedeckt, welche in letzter Zeit ja immer mehr aus dem Ruder läuft, bei AMD noch etwas mehr als bei Intel. Von bis 80W Idle Verbrauch gehen unter 20W auf die CPU, der Rest auf die Plattform.

Bei AM4 ging es noch, AM5 ist in der Hinsicht leider völlig verkorkst, gleichzeitig hat AMD bei AM5 den Beschiss bei der Watt-Ausleserei ihrer CPUs noch erhöht.

Gast
2026-03-29, 21:37:04
gleichzeitig hat AMD bei AM5 den Beschiss bei der Watt-Ausleserei ihrer CPUs noch erhöht.
Nicht nur AMD. Bei Intel klafft es fast noch mehr auseinander. Da werden für die CPU 8W angegeben und die Plattform braucht dann 72W. Bei AMD werden 17W angegeben und die ganze Pampe braucht dann 84W. Ist prozentual bei Intel mehr daneben als bei AMD, das Delta ist bei beiden gleich bescheiden...

Gast
2026-03-30, 03:09:36
Nicht nur AMD. Bei Intel klafft es fast noch mehr auseinander. Da werden für die CPU 8W angegeben und die Plattform braucht dann 72W. Bei AMD werden 17W angegeben und die ganze Pampe braucht dann 84W. Ist prozentual bei Intel mehr daneben als bei AMD, das Delta ist bei beiden gleich bescheiden...
Beim 245k auf Asrock ITX Z890 bekomme ich ca. 7-8 Watt angezeigt.
Mit RTX 4070 Super, 32 GB DDR7200, eine Festplatte, eine SSD und eine NVME versorgt von 450 Watt Platinum zieht er aus der Wand ca. 45 Watt. Alle Stromsparfeatures aktiviert.

Gast
2026-03-30, 12:52:59
Er hat jedes Mal valide Punkte.

Nein, er bringt irgendwelche total unrealistischen Beispiele in denen man jede einzelne Szene handoptimiert dass dies am Ende besser ist.

Oder sein Hate auf TAA.

Ja wenn wir unendlich Zeit und Geld hätten, könnten wir perfekt jede einzelne Szene handoptimieren und hätten am Ende eine bessere Performance.

Und wenn wir unendlich Rechenleistung hätten könnten wir mit 32x SSAA rendern.

Beides wäre besser als der Status Quo, aber ungefähr so realistisch wie die Aussage wenn wir mit Überlichtgeschwindigkeit reisen könnten, könnten wir fremde Sonnensysteme besuchen.

ExperimentalBoards
2026-04-01, 00:31:53
Selbst mit der 1060 spiel ich lieber mit 30FPS nativ als mit FSR 45 FPS....

Upscaling war mal für Lowend und Konsolen gedacht und nicht mit einer 2000€ Karte von 1440p auf 4K hoch zu skalieren.

Wenn ich ghosting und Fake Frames haben will brauch ich keine GK um mehre 100€ kaufen,
sondern spar mir den Weg und kauf eine Konsole.

Platos
2026-04-01, 17:03:48
Seit Model K verwende ich auf meinem 4k Bildschirm meist gleich auch DLSS Quality und wenn die Perfomance fehlt, je nachdem auch Perfomance.

Ausnahmen sind dort, wo es üble fehler gibt, die aber schon eher selten geworden sind.

Vor Model K war ich gar nicht überzeugt von DLSS, da es in Bewegung verschwimmener Mist war.

Auf 1440p oder gar 1080p Zielauflösung würde ich das vermutlich aber aucu nicht verwenden. Aber da würde ich sowieso nie spielen, wenn möglich.