PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 23. März 2026


Leonidas
2026-03-24, 08:11:30
Link zur News:
https://www.3dcenter.org/news/news-des-23-maerz-2026

Niall
2026-03-24, 09:50:20
I'm empathic toward what they're thinking. That's just not what DLSS5 is trying to do

Yeah too bad it does.
Ich hoffe denen fällt der Blödsinn ordentlich auf die Füße. :freak:

NOFX
2026-03-24, 10:20:42
Wahrscheinlich braucht DLSS5 dann einfach grottenhässliche Charaktere im Spiel, damit die nach dem "aufhübschen" nur "normal" aussehen. Oder die Spiele brauchen einen Satz hochqualitativer Charakterbilder, die als Trainingsdaten dienen, dann kommt nachher auch (hoffentlich) das raus, was sich der Entwickler gedacht hat.

Vielleicht sollte man die Eingangsbilder der Instagramfilter nutzen und nicht deren Ergebnis... :)



Ganz allgemein finde ich die Kritik insgesamt schwierig, ich finde die Ergebnisse sind deutlich realitätsnäher aber eben nicht realistischer, da eben nur ein sehr ausgewählter Teil der Gesichter um einen herum da raus kommen würden. Umgekehrt spiegeln aber auch die Gesichter in Videospielen ohne Verbesserungen allgemein nicht oder nur unzureichend die Realität wieder.

Gast
2026-03-24, 11:35:13
Deren Wahrnehmung für "blöd" zu erklären, hilft dabei auch nicht weiter, Wahrnehmung ist immer subjektiv und kann nicht von oben verordnet werden.

Das stimmt eben nur zum Teil. Was man als schön empfindet ist klarerweise zu 100% subjektiv und ist einfach so hinzunehmen.

Wie sich die Ausbreitung von Licht verhält und wie Licht eine Szene verändert hat objektiv feststellbare physikalische Grundsätze. Und die Gamergemeinde hat leider schon sehr oft bewiesen, dass ein großer Teil davon einfach keine Ahnung hat und das nicht erst mit DLSS5.

Gast
2026-03-24, 11:42:56
Hiermit werden Spiele-Ausführungsdateien zur Laufzeit Intel-freundlich umgeschrieben, was durchaus etwas bringen kann (Intel ermittelte +8% im Schnitt von 12 Spielen)


Wahrscheinlich hebt das Tool nur den schlechten ISA-Level mit denen Binarys für Windows typischerweise compiliert an.

Gast Ritis
2026-03-24, 11:52:06
Das Problem ist ja nicht dass DLSS-5 ein Werkzeug für Games-Entwickler werden könnte, das nur richtig eingesetzt werden müsste.
Das Problem ist dass DLSS-5 ein Werkzeug für Games ist, die dann nur auf Hardware derart lauffähig sein würde wie Nvidia das jeweils für richtig hält.
Schon bei Tesselation und PhysX wurde das gemacht, sowohl ältere Nvidia-GPUs als auch alle Konkurrenz-GPUs blieben schnell auf der Strecke. Mit diesen KI-Postpro-Filtern von Nvidias Gnaden wäre der Effekt nur ungleich grösser.

Mit UE5 ist selbst ohne KI oder RT Hardwarebeschleuniger eine photorealistische Gaming-Grafik möglich, es hackelt nur noch ab und zu mehr als erhofft. Es braucht nur wenig schnellere GPUs im Mainstram und noch mal einen Schritt in Richtung mehr Multithreading. Ersteres kommt ganz von alleine, an letzterem arbeitet EPIC intensiv. Mit WorkGraph in DirectX wirds nochmal nen extremen Schub bei Animation und Simulation geben. Vermutlich erst mit UE6. Statt halbfertige Assets bei Gaming per KI im Treiber realistisch zu rechnen sollte KI eher für die Optimierung der Assets und Beleuchtung verwendet werden, die auch mal komplett unrealistisch aber dafür künstlerisch umso wertvoller sein dürfen. Eine Abhängigkeit von Hardware oder sogar bestimmter Treiber ist da völlig fehl am Platz.

Auf Postpro-Filter im Treiber kann man da eigentlich komplett verzichten, es sei denn man ist Nvidia und muss die Gamesindustrie für die eigenen KI-Beschleuniger umbiegen.

Hochzeit2
2026-03-24, 13:21:38
Also das kommt ja jetzt total unerwartet. Hahaha

Konnte ja niemand der sogenannten Fachmedien auch nur ahnen .... hahaha

ChaosTM
2026-03-24, 13:29:50
Den Friedman Podcast hab ich gesehen. Bis zum bitteren Ende.

Jensen ist schon ein verdammt schlaues Kerlchen aber an Lex`s Mine konnte man oft erkennen, das er den BS durchschaut hat.

Gethvel
2026-03-24, 15:14:31
>dies läßt sich wegen der grundsätzlichen Funktionsweise dieser KI-Bildverbesserer gar nicht unterbinden.

Das stimmt ja nicht. Prinzipiell sind alle Stile möglich, auch komplett verschiedene.

Leonidas
2026-03-24, 15:23:48
>dies läßt sich wegen der grundsätzlichen Funktionsweise dieser KI-Bildverbesserer gar nicht unterbinden.

Das stimmt ja nicht. Prinzipiell sind alle Stile möglich, auch komplett verschiedene.

Gut, aber das muß dann jemand der KI auch sagen. Wenn man sie ohne alles auf das Spiel loslöst, wird halt der allgemeine Schnitt der Trainingsdaten angesetzt. Erst mittels zusätzliche Infos kann es genauer bzw. spezifischer werden als das.

Gast
2026-03-24, 15:53:46
Wenn man sie ohne alles auf das Spiel loslöst, wird halt der allgemeine Schnitt der Trainingsdaten angesetzt.


Genau das macht KI nicht, wenn sie das machen würde wäre der Output im wesentlichen ein blurry mess.

Leonidas
2026-03-24, 17:54:27
Ich glaube, wir meinen verschiedene Dinge. Ich meine sicherlich nicht, dass KI einen Mittelwert über *alle* Objekte benutzt ;)

Gast
2026-03-24, 18:14:17
Ich glaube, wir meinen verschiedene Dinge. Ich meine sicherlich nicht, dass KI einen Mittelwert über *alle* Objekte benutzt ;)

Dann schreib halt was du meinst.
Was auch immer es ist, ich bin mir ziemlich sicher dass es nicht stimmt, was alleine der Vergleich mit dem Instagram-Look. Der „Instagram-Look“ ist ein Instagram-Look weil es sich hier üblicherweise eben nicht um KI sondern um „traditionelle“ Bildfilter handelt die bei jedem Bild das selbe machen.

Generative KI ist genau das Gegenteil davon.

VfBFan
2026-03-24, 20:11:39
Typo: Instagramm -> Instagram

Kathy
2026-03-24, 20:40:11
Wie sich die Ausbreitung von Licht verhält und wie Licht eine Szene verändert hat objektiv feststellbare physikalische Grundsätze. Und die Gamergemeinde hat leider schon sehr oft bewiesen, dass ein großer Teil davon einfach keine Ahnung hat und das nicht erst mit DLSS5.

Absolut korrekt.

Leonidas
2026-03-25, 02:18:40
Typo: Instagramm -> Instagram

Ofc. Gefixt.

Prinzenrolle
2026-03-25, 09:32:15
Jetzt fängt Leonidas auch noch zum Schwurbeln mit seinen Instagram Filter an. Telegram lässt grüßen. Scheinbar sind die Gamer verrückt geworden.

Zeitverschwendung in irgendwelchen Foren Zeit zu verbringen.

Kathy
2026-03-25, 10:02:28
Scheinbar sind die Gamer verrückt geworden. Zeitverschwendung in irgendwelchen Foren Zeit zu verbringen.


Den Eindruck bekomme ich inzwischen auch..

MiamiNice
2026-03-25, 15:40:13
Auch der höhere offizielle Speichersupport bringt unter dem Geekbench wenig, so dass als einzige gravierende Änderung der (klar) höhere D2D-Takt übrig bleibt. .

Das solltest du imho nochmal überdenken: Der IMC sitzt nicht im Core Tile, weshalb das Intel Zeug derzeit vergleichsweise schwach performt. Wenn die Verbindung zwischen den Tiles schneller wird, wirkt sich das überproportional aus. Genau deshalb wandert der IMC auch wieder zurück in den Core Tile.
Letztlich hängt vieles, was aktuell an Intel CPUs kritisiert wird, mit dem ausgelagerten IMC zusammen (neben dem Stromsparansatz ^^). Ergo: Alles, was diesen Nachteil reduziert oder umgeht, schlägt entsprechend stark durch.

Leonidas
2026-03-25, 16:19:14
Ok, aber was bringt der IMC dem Geekbench? Üblicherweise so gut wie gar nichts. Oder?

MiamiNice
2026-03-25, 16:31:25
Geekbench ist zwar kein klassischer Memory Benchmark, aber komplett unabhängig vom Speicher ist er eben auch nicht.

Der IMC beeinflusst Geekbench indirekt über mehrere Faktoren:

1. Latenzen statt Bandbreite
Geekbench reagiert stärker auf Speicherlatenz als auf reine Bandbreite.
Wenn der IMC außerhalb des Core Tiles sitzt, entsteht zusätzliche Latenz durch die Kommunikation über die Tile Verbindung (D2D).
→ Wird diese Verbindung schneller (höherer D2D Takt), sinkt effektiv die Speicherlatenz.
→ Das wirkt sich direkt auf viele Geekbench-Subtests aus (z. B. Integer, Compression, AI-Kram).

2. Viele kleine Speicherzugriffe
Geekbench besteht aus vielen Workloads mit:

kleinen Datensätzen
häufigen Cache-Misses
gemischten Zugriffsmustern

Das heißt:
Sobald Daten nicht mehr im Cache sind, spielt der Weg zum RAM eine Rolle → und damit auch der IMC.

3. Singlethread ist besonders sensibel
Der hohe ST ist genau der Punkt, der für meine These spricht:
Ein Singlethread kann weniger gut Latenzen verstecken als ein Multithread Workload.
→ Jede Verbesserung bei der Speicheranbindung (oder beim D2D-Link) schlägt hier überproportional durch.

4. Tile Architektur ist der eigentliche Knackpunkt
Bei klassischen monolithischen CPUs war der IMC “nah dran”, Effekt gering.
Bei Intel’s aktuellem Design gilt:

Core Tile ↔ IO Tile Kommunikation = zusätzlicher Hop
IMC sitzt im IO Tile
→ Jede Beschleunigung dieser Verbindung wirkt global auf sehr viele Workloads

Kurz gesagt:

Der IMC bringt Geekbench nicht direkt Punkte – aber seine Latenz bestimmt, wie schnell die CPU an Daten kommt.
Und genau das misst Geekbench in vielen Teiltests ziemlich gut.

Platos
2026-03-25, 17:11:52
Jetzt fängt Leonidas auch noch zum Schwurbeln mit seinen Instagram Filter an. Telegram lässt grüßen. Scheinbar sind die Gamer verrückt geworden.

Zeitverschwendung in irgendwelchen Foren Zeit zu verbringen.

Jaja, wenn nicht die eigene Meinung vertreten wird, ist es schwurbeln und alles Zeitverschwendung, zu diskutieren. Es ist hald viel angenehmer nur in seiner eigenen Bubble zu "diskutieren".

Leonidas
2026-03-26, 02:05:48
Der IMC bringt Geekbench nicht direkt Punkte – aber seine Latenz bestimmt, wie schnell die CPU an Daten kommt.
Und genau das misst Geekbench in vielen Teiltests ziemlich gut.

Ich hoffte eher auf ein konkretes Beispiel, an dem ich ermessen kann, dass entweder mehr BW oder bessere Latenz das Gesamtergebnis beachtbar beeinflusst. Denn Deine Rede gilt generell für alle Programme - relevant ist aber die Frage, ob diese grundsätzliche Verhaltensweise im Geekbench auch zu wirklich einem Unterschied führt.

MiamiNice
2026-03-26, 13:26:16
Ich verstehe Deinen Antritt nicht :confused:

RAM-Test: Geekbench 6 simuliert reale Anwendungen, die den Arbeitsspeicher (RAM) belasten, und misst so indirekt dessen Geschwindigkeit und Latenz im Zusammenspiel mit der CPU.

Laut WCCF Tech ergeben die gezeigten Punktwertungen von 3747/26117 immerhin +14,7% mehr Singlethread- sowie +17,3% mehr Multithread-Performance als beim Core Ultra 9 285K. Dies dürfte eigentlich nicht passieren, dafür sind die Technik-Unterschiede zu gering

Doch genau das muss sogar passieren, wenn ein eingebremster CPU, die Bremse gelockert bekommt.
Es wurde direkt am Flaschenhals der Archtitektur aufgebohrt.

Leonidas
2026-03-26, 17:22:07
Ich dachte, Du gibst mir einen konkreten Beweis in Form von Benchmarks, wo auch ein echter Unterschied zu sehen ist.

MiamiNice
2026-03-27, 11:54:17
Du brauchst für zwingende Logik und Physik einen Benchmark, der Dir das visualisiert?!
Du hast doch einen Bench gepostet, glaubst nur die Werte nicht ... ;)

Raff
2026-03-27, 12:26:16
Es gibt tatsächlich Fälle, wo selbst der 250K+ den 285K abzieht (https://www.pcgameshardware.de/Crimson-Desert-Spiel-72378/Specials/Prozessor-Benchmark-Vergleich-AMD-Ryzen-Intel-Core-Ultra-1523508/). Insofern sind +15 Prozent nicht aus dem Weltraum, aber es muss verdammt viel zusammenkommen bzw. der Test gezielt die Flaschenhälse penetrieren. Einen 285K kann man durch "200S Boost" (= Plus-Verbesserungen) und Speicher-Tuning um 10–20 Prozent beschleunigen, ohne den eigentlichen Kerntakt anzufassen. Ein derartiges Plus ist für einen 290K+ über eine breite Palette von Anwendungen nicht haltbar, dafür müssten die Kerne auch deutlich an Takt zulegen.

Mindestens die diskutierten Singlethread-Ergebnisse sind fishy. Dafür müsste die CPU weit jenseits 6 GHz laufen. Über Multicore könnte man bei entsprechend großem Powerlimit reden (ein 285K knallt unter AVX-Volllast, etwa im Cinebench R26, schon mal an den Deckel, und die Auslastung mit Boost/Plus ist besser).

MfG
Raff

MiamiNice
2026-03-27, 13:26:17
Da ist wieder einer, der nicht verstanden hat, warum die CPU durch das Tile Design effektiv kastriert wird
Das Ding ist eigentlich simpel. Durch den extra IMC Tile kommt zusätzliche Latenz ins System und genau das bremst bestimmte Workloads aus.
Und genau das siehst du auch in Geekbench Single Core. Da sind genug Tests drin, die nicht nur vom Takt leben, sondern davon, wie schnell Daten beim Kern ankommen, zum Beispiel Text Processing oder Compression.
Am Ende ist es ganz simpel. Mehr Latenz heißt weniger Score, obwohl die eigentliche Rechenleistung da ist.
Und ja, die CPU, die nie gekommen ist, hätte genau das gefixt.
Ganz ehrlich, es ist einfach nur nervig, das Leuten zu erklären, die sich selbst als Tech Spezis sehen.
Wenn ihr’s nicht glaubt, fragt halt die KI eures Vertrauens ...
Die erklärt euch auch, warum das absolut realistisch ist, was HXL da gezeigt hat.

Ich empfehle btw. Claude, der Rest ist Murks.

Raff
2026-03-27, 13:28:44
Du kommst echt nie auf die Idee, dass die Leute, denen du Unwissen vorwirfst, einfach noch mehr bedenken als du – oder? ;)

Wie gesagt, die Werte sind nicht unmöglich. Aber selbst wenn das echt Spec vs. Spec ist, sehen wir einen Best-Case. Denn wäre das Ding überall 15 Prozent flotter, hätten wir einen Launch vor der Nase. Ich lasse über das Wochenende mal den Geekbench auf meinem 285K laufen. Da müsste sich angesichts der Werte allein durch den Wechsel von Stock auf 200S Boost ja viel tun.

MfG
Raff

Leonidas
2026-03-28, 01:32:13
Ich sehe einfach nicht, das besserer IMC aka mehr Speichertakt was unter einem Mix an Anwendungs-Benchmarks bringt, wo bewußt auf ST-Tests verzichtet wird. Ich dachte, Du könntest mich ganz einfach widerlegen @MiamiNice.