PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 26. Mai 2023


Leonidas
2023-05-27, 09:41:30
Link zur News:
https://www.3dcenter.org/news/news-des-26-mai-2023

Rabiata
2023-05-27, 13:52:23
Diesmal können wir halbwegs fundierte Rückschlüsse auf den 3DC Performanceindex ziehen. Notebookcheck hat in vielen Tests auch die RX 5500XT-8GB (Desktop) dabei, mit 660% FullHD Index.
Eine leicht vereinfachte Gegenüberstellung der Performancewerte, mit RX 5500XT-8GB getestet auf AMD Ryzen 9 7950X. Die 5500XT sei die Referenz mit 100% Performance. Dann ergibt sich

3DMark Firestrike: Radeon 780M (Ally Z1E) = 55%
3DMark TimeSpy: Radeon 780M (Ally Z1E) = 57%
3DMark Port Royal: Radeon 780M (Ally Z1E) = 57%
Schnitt aus 6 Spiele-Benchmarks: Radeon 780M (Ally Z1E) = 49%

Die RX 5500XT-8GB hat einen FullHD Performanceindex von 660%. Bleiben der Radeon 780M in Spielen etwa 320%. In den synthetischen Benchmarks sieht sie etwas besser aus.

Eine zugegeben grobe Einordnung einer Notebook-GPU im Vergleich zum Desktop. Aber immerhin eine mit Zahlen belegte.

bbott
2023-05-27, 17:25:20
Preise und Stromverbrauch von den aktuellsten GDDR(X)6 Chips wären interessant.

Leonidas
2023-05-28, 05:10:29
Preise und Stromverbrauch von den aktuellsten GDDR(X)6 Chips wären interessant.

Der Stromverbrauch wird durch das Interface im Grafikchip hochgetrieben, nicht durch die Speicherchips selber.



Die RX 5500XT-8GB hat einen FullHD Performanceindex von 660%. Bleiben der Radeon 780M in Spielen etwa 320%. In den synthetischen Benchmarks sieht sie etwas besser aus.

Könnte eventuell passen, Vega 8 kam auch schon auf ~200-220%:
https://www.3dcenter.org/artikel/launch-analyse-amd-ryzen-5000g/launch-analyse-amd-ryzen-5000g-seite-2

Gast
2023-05-28, 09:12:07
So wie wieder der hype war, hatte man mehr von der 780m erwartet. Dass die Schrott 5500xt 8gb mehr als 1x schneller ist...

Rabiata
2023-05-28, 14:07:44
So wie wieder der hype war, hatte man mehr von der 780m erwartet. Dass die Schrott 5500xt 8gb mehr als 1x schneller ist...
Die hängt halt stark an der Speicherbandbreite. Welche sogar mit DDR5 stark hinter dem VRAM einer dedizierten GPU zurückbleibt.

Da könnte der Ansatz helfen, den Sony mit der PS5 verfolgt hat:
RAM und APU fest verlöten, mit schnellem Grafikspeicher als Hauptspeicher. So etwas ähnliches gab es sogar mal, ein PC Board mit der APU, die sonst in der PS5 verbaut wird. Aber unverständlicherweise mit deaktivierter Grafik. Der Nutzer konnte nur irgendwelche Krüppelgrafik in einen stark beschnittenen PCIe Slot stecken.

Meiner Meinung eine interessante Idee, aber in dem Fall miserabel umgesetzt.

Gast
2023-05-28, 14:22:05
Da könnte der Ansatz helfen, den Sony mit der PS5 verfolgt hat:
RAM und APU fest verlöten, mit schnellem Grafikspeicher als Hauptspeicher.

Was helfen würde wäre erstmal eine Menge LLC.
Und zweitens ein Package alá Apple mit einem breiten Interface.

Exxtreme
2023-05-28, 14:25:11
Für nennenswert mehr Bandbreite bräuchte man eine breitere RAM-Anbindung. Die 64-Bit sind nicht so der Hit. Nur wird das wohl neue CPU-Sockel erfordern und die Mainboards weiter verteuern.

Gast
2023-05-28, 15:29:23
Was helfen würde wäre erstmal eine Menge LLC.
Und zweitens ein Package alá Apple mit einem breiten Interface.

Genau, warum haben die kein if$ für diese verwendet. Dieses sollte sowohl für die CPU als auch gpu im Laptop Segment sehr vorteilhaft sein, nicht nur bei der perf, sondern auch bei dem Verbrauch.
Die Laptop cpus/apus sind eh miterweile alle verlötet, von daher wäre ja viel mehr machbar.

War das genannte teildefekte ps5 Mainboard nicht von der xbox tatsächlich, oder beides sogar? Vermutlich waren die gpus halt defekt und deswegen wurde es so verkauft.
Auch ich finde aber diese Idee sehr gut. Habe die ganze Zeit gehofft, dass es zu einem zbox series x/ps5 hack/jailbreak kommt womit man dann Linux oder Windows installieren könnte und diese als htpc zu nutzen.

bad_sign
2023-05-28, 20:55:57
Was helfen würde wäre erstmal eine Menge LLC.
Und zweitens ein Package alá Apple mit einem breiten Interface.

Bist du etwa mit 4MB L2$ nicht zufrieden 😱
Nachdem das verdreifachen der CUs kaum was bringt, wäre ein 64 MB Cache schon mega. Das sollte in FHD die effektive Bandbreite um Faktor 2 oder 3 erhöhen.
Aber AMD scheint kein Bock zu haben :/

ryan
2023-05-28, 22:53:40
Die hängt halt stark an der Speicherbandbreite. Welche sogar mit DDR5 stark hinter dem VRAM einer dedizierten GPU zurückbleibt.


AMD ist aber auch zu knausrig gewesen, sie sind bei 12 CUs geblieben trotz shrink von 6nm auf 4nm, haben nur den Takt erhöht. Zudem ist RDNA3 ein kleinerer Schritt als erwartet. Natürlich skaliert die Leistung nicht linear, aber wenn nur 20% mehr Papierleistung dazukommen, bleiben eben nur 10% übrig bei gleichbleibender Bandbreite, nur als Beispiel. Ich würde das nicht nur an der Speicherbandbreite festmachen.

Ich würde mir nur wünschen, dass AMD von Anfang an ehrlicher damit umgeht. Im Nachhinein wissen wir jetzt, warum AMD keine Benchmarks gegen die 680M gezeigt hat. Das gleiche gilt im Bezug zur Verfügbarkeit. Die ist wirklich ein Desaster, insbesondere was die U Serie angeht.

Gast
2023-05-28, 23:06:37
Bist du etwa mit 4MB L2$ nicht zufrieden 😱

Können die GPUs eigentlich bei AMD endlich mal den LLC überhaupt verwenden?

bad_sign
2023-05-29, 17:07:50
Können die GPUs eigentlich bei AMD endlich mal den LLC überhaupt verwenden?

Nope, auch bei Phoenix sieht's nicht so aus, sonst müssten die 12 CU ja weiter vorne liegen

Exxtreme
2023-05-29, 17:16:35
Man sollte auch nicht vergessen, dass das Nutzen des LLC auch Nachteile hat. Wenn die Grafikkarte den nutzen kann dann bleibt weniger Speicherplatz übrig für Anwendungen. Sprich, man bräuchte extrem viel LLC. Und extrem viel LLC treibt wiederum die Latenzen extrem nach oben.

bad_sign
2023-05-29, 17:37:22
32MB verdoppelt die Effektive Bandbreite für FHD, nach AMDs Folien zu RDNA2 und auch Nvidia nutzt 32 MB für ihre 4060Ti um sie effektive Bandbreite zu verdoppeln. Wenn AMD sein Cache Chiplet hernehmen würde (64MB) wäre der APU extrem geholfen

Gast
2023-05-29, 20:33:53
Wenn AMD sein Cache Chiplet hernehmen würde (64MB) wäre der APU extrem geholfen
Naja, das Ding muss halt auch jemand zahlen können. Ich bezweifle, dass es da ausreichend Nachfrage geben würde. Für Gaming braucht man ja eh eine dGPU, da reicht es nicht, die IGP um 30-40% zu beschleunigen (mehr würde der Cache wohl nicht schaffen). Und für weniger reicht dann auch ohne Cache.
AMD muss halt auch schauen, dass der Preis im Rahmen bleibt. Apple kann da natürlich mehr klotzen, aber die Dinger kosten dann halt auch. Das würde AMD niemand zu den Preisen abnehmen. Und das Thema Aufrüstbarkeit ist halt auch immer schwierig, das muss ja auch gegeben sein.
Die Vergleiche mit Apple sind halt auch immer schwierig. Apple ist halt ARM und hat auch keine Dx12U Kompatibilität. Apple fokussiert sich nur auf ihre eigenen APIs, das kann sich weder Intel noch AMD leisten.

Shink
2023-05-29, 21:38:48
Könnte eventuell passen, Vega 8 kam auch schon auf ~200-220%:
https://www.3dcenter.org/artikel/launch-analyse-amd-ryzen-5000g/launch-analyse-amd-ryzen-5000g-seite-2
Es wäre wirklich sehr toll, wenn ihr das mal in den Index (die Index-Seite) aufnehmt. Ungefähr hatte ich im Kopf, dass aktuelle DDR5-RDNA-IGPs ungefähr einer 1050Ti entsprechen aber das wäre ja sogar übertrieben.:freak:

Beim Launch der RX7600 haben Member gefragt, ob eine IGP da annähernd ran kommt. Das ist nicht so leicht zu erkennen, wie weit man da weg.

Gast
2023-05-30, 02:06:53
Man sollte auch nicht vergessen, dass das Nutzen des LLC auch Nachteile hat. Wenn die Grafikkarte den nutzen kann dann bleibt weniger Speicherplatz übrig für Anwendungen. Sprich, man bräuchte extrem viel LLC. Und extrem viel LLC treibt wiederum die Latenzen extrem nach oben.

So funktioniert Cache nicht, wenn die Bandbreite limitiert bringt mehr Cache immer mehr. Wenn mehrere Teile, es ist unmöglich dass ein Teil den anderen ausbremst weil er zu viel an Cache braucht. Es verschiebt das Nadelöhr nur weiter zum Speicherinterface.

Die einzige Möglichkeit dass mehr Cache langsamer ist, wäre wenn er gar nicht ausgenützt würde und der größere Cache zu mehr Latenz führt.

Gast
2023-05-30, 23:39:43
32MB verdoppelt die Effektive Bandbreite für FHD, nach AMDs Folien zu RDNA2 und auch Nvidia nutzt 32 MB für ihre 4060Ti um sie effektive Bandbreite zu verdoppeln. Wenn AMD sein Cache Chiplet hernehmen würde (64MB) wäre der APU extrem geholfen

Ja wirklich sehr seltsam, wie AMD hier viele der Low-Hanging-Fruits einfach liegen lässt.

Da macht man extra ein SOC für portable gaming devices, und dann keinen extra Cache draufpacken weil wir wissen ja nicht, dass Games sehr gerne viel Cache mögen.
Kein Package mit RAM auf dem Substrat, was das "Mainboard" auch enorm verkleinern würde, und damit für die gedachte Geräteklasse ein enormer Vorteil.

Ich meine alleine wenn man den geringen Vorsprung vom Z1 Extreme zum Z1 aus den AMD eigenen Benchmarks sieht, wäre der besser dran wenn man anstatt 12 CUs nur 8 verbaut hätte, und die frei werdende Fläche in Cache investiert hätte.