PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 4. Juli 2023


Leonidas
2023-07-05, 08:46:34
Link zur News:
https://www.3dcenter.org/news/news-des-4-juli-2023

Exxtreme
2023-07-05, 08:57:48
Kleiner Rechtschreibfehler:

"entsprechenden Bausteils generell umgestellt"

Das muss "Bauteils" heissen. :)

Leonidas
2023-07-05, 09:22:11
Gefixt.

Gastone
2023-07-05, 10:52:35
Kaum vorstellbar, dass AMD für solche "F" CPUs teildefekte IO-Chiplet verwendet. Diese sind mit sehr hohem Yield billig und der GPU-Anteil ist sehr gering. Deshalb ist eine APU Verwertung realistischer. Es sei denn das Ganze ist OEM-getrieben, dass die einfach billigere Krücken brauchen, also nur für die Preisgestaltung in Kombi mit Einsteiger-GPUs.

Gast Ritis
2023-07-05, 11:40:10
Die komplette iGPU im Ryzen IO macht ca. 1/3 dessen Fläche aus. Man kann nicht ausschliessen, dass es hier für billigere SKUs eine separate Fertigung gibt. Das liefe aber einer einheitlichen Produkstrategie mit simpleren Support für AM5 und modernen Desktops zuwieder.
Man hatte doch angenommen ohne iGPU bliebe künftig den Servern und Embedded CPUs vorbehalten.

crnkoj
2023-07-05, 11:49:55
Man muss ganz ehrlich sein, der 7500f erscheint recht sinnlos zu sein. Allerhöchstens wenn man den als Platzhalter kauft, für wenn man auf ryzen 8xxx wechseln möchte. Ansonsten ist die platform mit mono und ram für die Performance viel zu teuer, da kaufst lieber B550 mit ddr4 und einem 5800x3d für den gleichen Preis und hast dabei zumindest 20 wenn nicht 35% je nach Anwendung mehr Performance...

Aroas
2023-07-05, 19:33:34
Finde auch, dass AM5 derzeit einfach zu teuer ist für eine Budget CPU. Es gibt kaum ein Mainboard für unter 100€ (Geizhals listet ganze 5 Stück).
Und die bieten im Vergleich zu den AM4 Boards so gut wie keine neuen bzw. besseren Features.

Da kann man sich tatsächlich einfach ein 500er AM4 Board mit nem 5600 und günstigem DDR4 RAM kaufen und ab die Post.

Gast
2023-07-05, 19:55:07
Gleichfalls ist das Thema im Gaming-Feld weitaus schwieriger zu beherrschen, da die dort abzuarbeitenden Rechenaufgaben viel schwerer in voll voneinander getrennte Teil-Jobs aufzutrennen sind (was hingegen bei HPC-Aufgaben das normalste der Welt ist).

Das gilt nur für Rasterizing. Raytracing hingegen skaliert hervorragend über mehrere Chips. Zum Beispiel die W6800X Duo ist unter TSE schneller als eine 4080. Die aufwendige Entwicklung von Chiplet-Architekturen kann man sich sparen.

Gast Ritis
2023-07-05, 20:34:35
Finde auch, dass AM5 derzeit einfach zu teuer ist für eine Budget CPU. Es gibt kaum ein Mainboard für unter 100€ (Geizhals listet ganze 5 Stück).


Aber die OEM-Kisten sind noch auf AM4, der Wechsel steht an.

Falls mit dem F die iGPU eingespart werden soll kann das nur ein OEM-Wunsch sein. Hier könnte es Sinn machen neben CPU auch am Mainboard die iGPU einzusparen, wenn eine dGPU mitkonfiguriert wird.

Clever wäre die Entwicklung jedoch nicht, AMD wollte eigentlich mit Advance die Vorteile von iGPU+dGPU Kombi auch für Desktops etablieren.

Aroas
2023-07-05, 20:36:56
Die aufwendige Entwicklung von Chiplet-Architekturen kann man sich sparen.

Nein, kann man nicht.
Das Problem besteht darin, dass man nicht ewig monolitische Chips bauen kann, weil sie immer größer und größer werden und dabei eine immer geringere Ausbeute an wirklich 100% funktionsfähigen Einheiten herauskommt.

Gast
2023-07-05, 21:03:20
Nein, kann man nicht.
Das Problem besteht darin, dass man nicht ewig monolitische Chips bauen kann, weil sie immer größer und größer werden und dabei eine immer geringere Ausbeute an wirklich 100% funktionsfähigen Einheiten herauskommt.

Das Problem gibt es nur unter Rasterizing. Raytracing hingegen skaliert bereits hervorragend mit mehreren Chips. Eine aufwendige Entwicklung von Chiplet-Architekturen ist daher nicht notwendig.

https://www.pugetsystems.com/wp-content/uploads/2022/11/1-7x-NVIDIA-GeForce-RTX-4090-GPU-Scaling-Performance-in-OctaneBench.png
https://www.pugetsystems.com/wp-content/uploads/2022/11/1-7x-NVIDIA-GeForce-RTX-4090-GPU-Scaling-Performance-in-VRay-Benchmark.png

Gast
2023-07-05, 23:45:45
Das Problem gibt es nur unter Rasterizing. Raytracing hingegen skaliert bereits hervorragend mit mehreren Chips. Eine aufwendige Entwicklung von Chiplet-Architekturen ist daher nicht notwendig.

https://www.pugetsystems.com/wp-content/uploads/2022/11/1-7x-NVIDIA-GeForce-RTX-4090-GPU-Scaling-Performance-in-OctaneBench.png
https://www.pugetsystems.com/wp-content/uploads/2022/11/1-7x-NVIDIA-GeForce-RTX-4090-GPU-Scaling-Performance-in-VRay-Benchmark.png


Zwischen Echtzeit- und Offline Raytracing besteht ein meilenweiter Unterschied

Gast
2023-07-06, 01:37:18
Bei Echtzeit-Raytracing sind die Berechnungen weniger aufwendig (https://www.youtube.com/watch?v=xKEWWYBAJPo&t=430s). Es skaliert aber ebenfalls hervorragend wie z.B. der TSE-Benchmark mit der W6800X Duo zeigt.

Leonidas
2023-07-06, 03:54:43
Richtig, RT skaliert sehr gut mit Chiplets. Aber noch kann sich keiner einen Grafikchip leisten, der Raster-Rendering nur so nebenbei her macht.

Die sich hieraus ergebende Frage ist somit: Kann NV so lange mit Chiplets bei Gaming-Chips warten, bis Raster-Rendering keine wirkliche Bedeutung mehr hat? Man würde sich in der Tat viel Arbeit sparen können, wenn man dies überspringen kann. Aber kommt es so schnell zu *weit überwiegend* RT-only-Spielen?

Exxtreme
2023-07-06, 08:44:43
Rastern wird immer Bedeutung haben da man ohne schnelles Rastern auch kein schnelles RT haben kann. Die ganzen Upscaler ala DLSS sind nichts anderes als Raster-Leistung einsparen. Weil man diese zwingend braucht für schnelles RT.

Gast Ritis
2023-07-06, 08:46:38
Das Problem gibt es nur unter Rasterizing. Raytracing hingegen skaliert bereits hervorragend mit mehreren Chips. Eine aufwendige Entwicklung von Chiplet-Architekturen ist daher nicht notwendig.

https://www.pugetsystems.com/wp-content/uploads/2022/11/1-7x-NVIDIA-GeForce-RTX-4090-GPU-Scaling-Performance-in-OctaneBench.png
https://www.pugetsystems.com/wp-content/uploads/2022/11/1-7x-NVIDIA-GeForce-RTX-4090-GPU-Scaling-Performance-in-VRay-Benchmark.png

Bei Echtzeit-Raytracing sind die Berechnungen weniger aufwendig (https://www.youtube.com/watch?v=xKEWWYBAJPo&t=430s). Es skaliert aber ebenfalls hervorragend wie z.B. der TSE-Benchmark mit der W6800X Duo zeigt.
Richtig, RT skaliert sehr gut mit Chiplets. Aber noch kann sich keiner einen Grafikchip leisten, der Raster-Rendering nur so nebenbei her macht.

Die sich hieraus ergebende Frage ist somit: Kann NV so lange mit Chiplets bei Gaming-Chips warten, bis Raster-Rendering keine wirkliche Bedeutung mehr hat? Man würde sich in der Tat viel Arbeit sparen können, wenn man dies überspringen kann. Aber kommt es so schnell zu *weit überwiegend* RT-only-Spielen?

Alles Nonsense.

RT skaliert genausowenig gut oder schlecht wie Rasterizing. Am Ende zählt einzig und allein die Latenz von Eingabe bis zur Ausgabe aus dem einheitlichen Framebuffer. Damit Echtzeit RT überhaupt möglich ist muss die Auflösung drastisch reduziert werden, was nur möglich ist weil es mit Raster-Grafik kompensiert wird. Für besonders effiziente Strahlenverfolgung müssen die BVH Daten im SRAM Cache auf dem Die mehrfach verwendet werden was Vorsortierung notwendig macht. Das Schedulung off chip und der Datenzugriff off chip wäre in der Summe viel zu langsam. Das sieht man schon an den Dual-Die Ryzen, und dort ist weniger Synchronisation gefragt. All das verhindert eine simple Multi-Chip Skalierung in Echtzeit RT. Bis die Interconnects schnell und effizient genug wären sind auch einzelne Chips selbst leistungsfähig genug.

Wir hatten zuvor schon Dual-GPUs die nicht doppelt so teuer waren wie die single GPUs. Frühe 3D GPUs waren aus mehreren Chips auf Platine zusammengestellt. Es gibt gute Gründe warum man heute bei Echtzeit RT das nicht in separate Chiplets/Chips verteilt. Die Latenzen würden heute nie und nimmer akzeptiert werden welche bei den 3DFX Anfängen normal waren, als der Normalo am PC froh bei >20 FPS war.

Leonidas
2023-07-06, 09:37:25
Augenscheinlich habe ich hier die Latenzen für Echtzeit-RT nicht beachtet bzw. den generellen Unterschied zwischen non-Echtzeit-RT und Echtzeit-RT.

Gast
2023-07-06, 11:56:28
Bei Echtzeit-Raytracing sind die Berechnungen weniger aufwendig (https://www.youtube.com/watch?v=xKEWWYBAJPo&t=430s). Es skaliert aber ebenfalls hervorragend wie z.B. der TSE-Benchmark mit der W6800X Duo zeigt.

Darum geht es nicht. Du kannst alles wunderbar skalieren wenn egal ist wann es fertig wird.

Wenn du jeden Frame unabhängig voneinander Berechnen kannst hast du eine quasi perfekte Skalierung. Wenn man Echtzeit will stößt man damit aber sehr schnell an Grenzen, weil man eben nicht beliebig lange warten kann bis ein Frame fertig ist, und dann 10 gleichzeitig fertig sind weil man sie ja parallel berechnen konnte.

Gast
2023-07-06, 18:57:00
Alles Nonsense.

RT skaliert genausowenig gut oder schlecht wie Rasterizing. Am Ende zählt einzig und allein die Latenz von Eingabe bis zur Ausgabe aus dem einheitlichen Framebuffer. Damit Echtzeit RT überhaupt möglich ist muss die Auflösung drastisch reduziert werden, was nur möglich ist weil es mit Raster-Grafik kompensiert wird. Für besonders effiziente Strahlenverfolgung müssen die BVH Daten im SRAM Cache auf dem Die mehrfach verwendet werden was Vorsortierung notwendig macht. Das Schedulung off chip und der Datenzugriff off chip wäre in der Summe viel zu langsam. Das sieht man schon an den Dual-Die Ryzen, und dort ist weniger Synchronisation gefragt. All das verhindert eine simple Multi-Chip Skalierung in Echtzeit RT. Bis die Interconnects schnell und effizient genug wären sind auch einzelne Chips selbst leistungsfähig genug.


Du irrst dich:
https://www.youtube.com/watch?v=BpT6MkCeP7Y


Darum geht es nicht. Du kannst alles wunderbar skalieren wenn egal ist wann es fertig wird.

Wenn du jeden Frame unabhängig voneinander Berechnen kannst hast du eine quasi perfekte Skalierung. Wenn man Echtzeit will stößt man damit aber sehr schnell an Grenzen, weil man eben nicht beliebig lange warten kann bis ein Frame fertig ist, und dann 10 gleichzeitig fertig sind weil man sie ja parallel berechnen konnte.

Bei Raytracing können mehrere GPUs an einem Frame gleichzeitig arbeiten.

Gast Ritis
2023-07-06, 23:06:41
Du irrst dich:
https://www.youtube.com/watch?v=BpT6MkCeP7Y
Bei Raytracing können mehrere GPUs an einem Frame gleichzeitig arbeiten.

Auch bei Rasterizing können mehrere GPUs an einem Frame gleichzeitig arbeiten. Seit DX12 und Vulkan sogar recht probat entweder in Tiles oder diversen zeitlich gestaffelten Render Targets. Für Coder zu aufwändig, zu wenig Marktrelevanz.

Warum das Postpro Render Video verlinkt ist versteh ich auch nicht, soll das der Beweis sein, dass es schreckliche Latenzen hat?

Suche doch erst mal im Otoy Forum nach Raytracing oder check was da in UE oder Unity möglich ist. Auch da haben die sich auf Postpro fokussiert. Für anderes wie Game-Engines taugt das nicht.

Gast
2023-07-07, 00:40:11
Du irrst dich:


Bei Raytracing können mehrere GPUs an einem Frame gleichzeitig arbeiten.

Bei Rasterizing auch, es ist nur (in beiden Fällen) ziemlich ineffizient wenn low latency das erklärte Ziel ist.

Gast
2023-07-11, 23:03:38
Auch bei Rasterizing können mehrere GPUs an einem Frame gleichzeitig arbeiten. Seit DX12 und Vulkan sogar recht probat entweder in Tiles oder diversen zeitlich gestaffelten Render Targets. Für Coder zu aufwändig, zu wenig Marktrelevanz.


Das Ergebnis sieht dazu auch noch schlechter aus als bei RT.


Warum das Postpro Render Video verlinkt ist versteh ich auch nicht, soll das der Beweis sein, dass es schreckliche Latenzen hat?

Suche doch erst mal im Otoy Forum nach Raytracing oder check was da in UE oder Unity möglich ist. Auch da haben die sich auf Postpro fokussiert. Für anderes wie Game-Engines taugt das nicht.

Otoy ist auch kein Game-Engine-Entwickler. Das ändert aber nichts daran, dass deren Engine die effizienteste ist. Sogar eine GTS 450 reicht für 20 fps.


Bei Rasterizing auch, es ist nur (in beiden Fällen) ziemlich ineffizient wenn low latency das erklärte Ziel ist.

Es ist sogar viel effizienter, da eine einzelne GPU dafür etwa N-mal so hoch takten muss, wobei der Verbrauch exponentiell steigt.