PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 4 (Raphael, Phoenix & Genoa, 5 nm, AM5, DDR5, PCIe 5.0, Ende 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25

BlacKi
2022-09-05, 19:59:38
Ob das so stimmt? 133GB/s read entsprechen 133GB/16B = 8313Mhz. Laut AIDA kann der RAM also schneller Daten übertragen, als theoretisch mit seinem Takt möglich sind. Eventuell läuft der Test nicht komplett im RAM, sondern teilweise auch im Cache, sodass die durchschnittliche Latenz dann so extrem niedrig ist.




hast recht, das liegt am fsb OC. das verfälscht werte.

basix
2022-09-05, 20:01:56
hast recht, das liegt am fsb OC. das verfälscht werte.

BCLK = 142 MHz, jepp.

Intel und DDR5-7800 bei ~46ns: https://www.overclock.net/threads/official-intel-ddr5-oc-and-24-7-daily-memory-stability-thread.1794772/page-318#post-29021668

Edit:
Hier DDR5-8000 mit CL32
https://www.overclock.net/threads/official-intel-ddr5-oc-and-24-7-daily-memory-stability-thread.1794772/page-324#post-29024259

Es geht, ist aber Extrem-OC

aufkrawall
2022-09-05, 20:03:54
Ich seh in dem Screenshot keinen Hinweis, mit welchem Teiler der IMC lief?

BlacKi
2022-09-05, 20:07:57
das liegt am fsb OC.


daher könnten die 48ns von amd stammen.


nichts genaues weiß man nicht:biggrin:

robbitop
2022-09-06, 04:37:09
Bei Intel nahm die Latenz mit steigender Coreanzahl am Ringbus zu. Ab Cometlake wenn nicht sogar schon dem 9900k.
Beim 7700K gab es Leute im Forum die 36 ns geschafft haben (sehr guter ram und tuning).

fondness
2022-09-06, 11:01:28
Bei Intel nahm die Latenz mit steigender Coreanzahl am Ringbus zu. Ab Cometlake wenn nicht sogar schon dem 9900k.
Beim 7700K gab es Leute im Forum die 36 ns geschafft haben (sehr guter ram und tuning).

Dann müsste ja die Latenz mit den zusätzlichen E-Cores weiter steigen.

davidzo
2022-09-06, 11:13:53
Dann müsste ja die Latenz mit den zusätzlichen E-Cores weiter steigen.
Tut sie auch, allerdings nicht signifikant. Es sind nur zwei zusätzliche Stops, also 12 statt 10, das fällt nicht ins Gewicht und wird anderswo wieder reingeholt.

Die L3 Latenz scheint sich den Leaks nach sogar minimal verbessert zu haben gegenüber Alderlake. Das spricht dafür dass Intel das Problem mit den reduzierten Ringbus-takt der E-Cores gelöst hat. Das waren fast 12% Latency Penalty sobald die E-Cores aktiv waren. Also eine low hanging fruit...

Nebenbei sorgt der größere L2 der P-Cores und der verdoppelte L2 der E-Cores auch für weniger Traffic auf dem L3/Ringbus. Die durchschnittlichen Latenzen gehen also ein gutes Stück runter weil die L2 Hitrate besser ist. Hier kommt wohl auch der Großteil der (begrenzten) Effizienzverbesserungen von Raptorlake her.

Nebenbei ist der L3 mittlerweile größer als bei Zen3/4 (36mb vs 32mb) ohne X3D. Damit ist jede einzelne Cache-Stufe größer als bei AMD, wenn auch definitiv mit höheren Latenzen (aber meist auch höhere Bandbreite). Raptorlake dürfte also noch etwas weniger auf niedrige DRAM Latenzen angewiesen sein als Zen4.

dildo4u
2022-09-07, 09:01:14
X670 Preise von MSI.


https://us-store.msi.com/Motherboards/AMD-Platform-Motherboard/AMD-X670

Exxtreme
2022-09-07, 09:10:09
X670 Preise von MSI.


https://us-store.msi.com/Motherboards/AMD-Platform-Motherboard/AMD-X670
Das habe ich beim X670E befürchtet: das gibt einen richtig fetten Aufpreis. :/

Platos
2022-09-07, 09:13:38
Man muss schon bescheuert sein, für so viel Geld ein Mainboard zu kaufen, auf das ne Consumer-CPU kommt.

dildo4u
2022-09-07, 09:30:53
Man muss schon bescheuert sein, für so viel Geld ein Mainboard zu kaufen, auf das ne Consumer-CPU kommt.
Macht schon Sinn AMD hat Threadripper massiv im Preis erhöht da es keine Konkurrenz gibt, Leute die z.b Videoschnitt betreiben und mehrere PCI 5.0 SSD nutzen wollen könnten Interesse an 700€ Boards haben.
Das ist massiv billiger als ein midrange Threadripper zu kaufen und diese Plattform hat auch noch kein PCI 5.0.

24 Core 2900€.

https://www.alternate.de/AMD/Ryzen-Threadripper-PRO-5965WX-Prozessor/html/product/1850959


Den müsste man schon kaufen da ein 16 Core Zen 3 Threadripper deutlich langsamer wäre als 16 Core Zen 4.

Exxtreme
2022-09-07, 09:44:46
Macht schon Sinn AMD hat Threadripper massiv im Preis erhöht da es keine Konkurrenz gibt, Leute die z.b Videoschnitt betreiben und mehrere PCI 5.0 SSD nutzen wollen könnten Interesse an 700€ Boards haben.
Das ist massiv billiger als ein midrange Threadripper zu kaufen und diese Plattform hat auch noch kein PCI 5.0.

24 Core 2900€.

https://www.alternate.de/AMD/Ryzen-Threadripper-PRO-5965WX-Prozessor/html/product/1850959


Den müsste man schon kaufen da ein 16 Core Zen 3 Threadripper deutlich langsamer wäre als 16 Core Zen 4.

Wobei die hohen TR-Preise andere Gründe haben. Diese CPUs werden seeeehr lange vorgehalten werden. Das sind Lagerkosten und die werden auf den Preis umgelegt. Ist bei Xeons genauso. Da kosten die CPUs und die Boards das vielfache.

Platos
2022-09-07, 11:33:26
Macht schon Sinn AMD hat Threadripper massiv im Preis erhöht da es keine Konkurrenz gibt, Leute die z.b Videoschnitt betreiben und mehrere PCI 5.0 SSD nutzen wollen könnten Interesse an 700€ Boards haben.
Das ist massiv billiger als ein midrange Threadripper zu kaufen und diese Plattform hat auch noch kein PCI 5.0.

24 Core 2900€.

https://www.alternate.de/AMD/Ryzen-Threadripper-PRO-5965WX-Prozessor/html/product/1850959


Den müsste man schon kaufen da ein 16 Core Zen 3 Threadripper deutlich langsamer wäre als 16 Core Zen 4.

Naja, ich meinte damit nicht solche Szenarien, sondern eben Consumer und nicht Prosumer. Wenn du das für die Arbeit brauchst, ok. Aber für durchschnittliche Videobearbeitung lohnt sich das kein bisschen. Da reicht auch 2x PCI-E 4.0 SSD und 5950X für weniger Geld plus deutlich günstigeren DDR4 und deutlich günstigere Mainboards.

Da muss man wirklich so richtig auf die Leistung angewiesen sein und das werden selbst in dieser Branche nur die wenigsten sein.

basix
2022-09-07, 12:03:50
Mit X670E hat man auch als Power User für die meisten Fälle genug Performance und m.2 Steckplätze. Die meisten (industriellen) Produktivanwendungen sind eh so optimiert, dass sie im RAM laufen und nicht von der Festplatte gestreamed werden. Naja, laden von Projekten wird mit einer schnellen SSD sicher schneller sein. Und dann gibt es da noch die Lizenzgeschichte, wo oftmals pro Core abgerechnet wird . Gerade letztens bei der Arbeit für Optik- und Thermofluid-Simulationen ein Thema gewesen: Mehr Cores hätten rein gar nichts genutzt, die Lizenz nur für 4 Cores ausgelegt war.

Exxtreme
2022-09-07, 12:25:42
Mit X670E hat man auch als Power User für die meisten Fälle genug Performance und m.2 Steckplätze.

Viel wichtiger ist die Frage: wieviel kostet ein Raptorlake Komplettsystem. :)

Es sieht bisher nicht so aus als ob ein Zen 4-System günstiger sein wird sondern im Gegenteil: viel teurer. Der RAM ist teurer und die Boards auch. Sprich, ein Zen 4 System muss da auch deutlich leistungsfähiger sein. Wenn sie das nicht schaffen dann freut sich Intel.

Pirx
2022-09-07, 12:33:03
braucht man X670E?

Platos
2022-09-07, 12:35:36
Viel wichtiger ist die Frage: wieviel kostet ein Raptorlake Komplettsystem. :)

Es sieht bisher nicht so aus als ob ein Zen 4-System günstiger sein wird sondern im Gegenteil: viel teurer. Der RAM ist teurer und die Boards auch. Sprich, ein Zen 4 System muss da auch deutlich leistungsfähiger sein. Wenn sie das nicht schaffen dann freut sich Intel.

Jep, schliesslich ist es immer CPU+RAM+MOBO. Wenn die CPU alleine günstig ist, bringt das auch nicht viel.

Linmoum
2022-09-07, 12:39:00
Viel wichtiger ist die Frage: wieviel kostet ein Raptorlake Komplettsystem. :)

Es sieht bisher nicht so aus als ob ein Zen 4-System günstiger sein wird sondern im Gegenteil: viel teurer. Der RAM ist teurer und die Boards auch. Sprich, ein Zen 4 System muss da auch deutlich leistungsfähiger sein. Wenn sie das nicht schaffen dann freut sich Intel.Warum freut sich Intel dann? RTL ist für einen Neukauf komplett belanglos, weil EoL. Wer schon ADL hat, braucht nur die CPU tauschen und wechselt sicher nicht wieder die Plattform zur Konkurrenz.

Wenn die Kosten bei einem Neukauf Relevanz haben, dann spielt genauso der Nutzungsfaktor eine Rolle. Bei AM5 kann ich dann bis mindestens Zen5 mit V-Cache einfach die CPU aufrüsten und den Rest behalten und bekomme deutlich mehr Power. Und bei RTL? Tjo.

Kriegsgeier
2022-09-07, 12:43:24
Nicht nur das! Mit AM5 Platform kann ich in 2024 ein Ryzen 8000 und wahrscheinlich sogar noch Ryzen 9000 verbauen!

AMD hat hier zum erstem Mal mit AM5 richtiges Vorsprung!

AM5 wird wahrscheinlich bis Anfang 2026 brauchbar bleiben!

Exxtreme
2022-09-07, 12:43:56
braucht man X670E?

Wenn du Pcie5 haben willst dann ja. Bessere Intel-Boards mit Pcie5 kosten in etwa so viel wie das Msi X670-Board ohne E. Also die 300€-Spanne.

basix
2022-09-07, 12:57:41
braucht man X670E?

Nur wenn mann möglichst viel IO und PCIe 5.0 auf dem PEG x16 Steckplatz haben will. AMD hat mit X670E, X670, B650E und B650 vermutlich für jedermann die persönlich gewünschte Ausstattung verfügbar.

Und ja, Raptor Lake sehe ich bei einem Neukauf nicht wirklich als sinnvoll an. Ausser man plant, das System erst in ~4-5 Jahren wieder zu tauschen. Ich möchte das MoBo nur selten tauschen - in etwa oben genannte Zeitspanne. AM5 ermöglicht es hier, mindestens auf Zen 5 und vermutlich auch Zen 6 upzugraden. Für mich persönlich die sinnvollere Wahl.

Pirx
2022-09-07, 12:58:01
Jo ist schon leicht blöd, zumal die CPUs ja PCIe5 bieten, aber erstmal abwarten, wie es sich wirklich entwickelt.

r3ptil3
2022-09-07, 12:59:38
Nicht nur das! Mit AM5 Platform kann ich in 2024 ein Ryzen 8000 und wahrscheinlich sogar noch Ryzen 9000 verbauen!

AMD hat hier zum erstem Mal mit AM5 richtiges Vorsprung!

AM5 wird wahrscheinlich bis Anfang 2026 brauchbar bleiben!

Spätestens dann wenn Intel ein Überprodukt vorstellt, interessiert das keinem mehr.

Und AMD ist nicht mehr der Underdog aus 2017. Die Strategie mit den langlebigen Boards, wird definitiv kürzer. Zen4, Zen4 3D-Cache, Zen5, Zen5 3D-Cache und das wars.

Platos
2022-09-07, 13:05:11
Spätestens dann wenn Intel ein Überprodukt vorstellt, interessiert das keinem mehr.

Und AMD ist nicht mehr der Underdog aus 2017. Die Strategie mit den langlebigen Boards, wird definitiv kürzer. Zen4, Zen4 3D-Cache, Zen5, Zen5 3D-Cache und das wars dann wohl mit AM5.

Zumal sie ja schon in der Vergangenheit lange kein Support für alte Boards geliefert haben. Damit hat sich dann für viele dieser sagenhafte Support in Luft augelöst. Gleicher Sockel bringt auch nichts, wenn man trotzdem einen neues Mainboard braucht. Und bis der Support dann kam, sind vermutlich schon viele auf ein neues Board umgestiegen.

Das die Leute nun einfach davon ausgehen, dass es dieses Mal anders läuft, ist natürlich naiv. Es wird AM5 3 Jahre supportet und mehr ist nicht versprochen. D.h aber nicht, dass die alten Mainboards auch Zeitnahe dann für die neuen CPUs lauffähig sind. Das hat die Vergangenheit ja gezeigt. Oder dann heisst es, die neuen CPUs laufen auf den neuen Mainboards 10% schneller, weil der Stromverbrauch steigt bei den neuen CPUs und die alten Mainboards das nicht abkönnen.

Alles Dinge, die man einkalkulieren muss. AMD hat bewiesen, dass sie sich am liebsten gerne um den Support drücken.

Pirx
2022-09-07, 13:29:55
...
Alles Dinge, die man einkalkulieren muss. AMD hat bewiesen, dass sie sich am liebsten gerne um den Support drücken.
Deshalb läuft jetzt auch quasi alles auf jedem AM4-Board

Exxtreme
2022-09-07, 13:42:54
Alles Dinge, die man einkalkulieren muss. AMD hat bewiesen, dass sie sich am liebsten gerne um den Support drücken.

Genau. Und deshalb laufen aktuelle Ryzen-CPUs auch auf den allerersten AM4-Boards weil sich AMD so um den Support drückt. :rolleyes:

basix
2022-09-07, 13:56:18
Dass der Support erst so spät kam ist ein Argument, das streite ich nicht ab. Aber er kam. Und bei AM5 besteht die Chance, dass man es hinsichtlich Systemarchitektur auch besser aufgegleist hat (BIOS ROM Size, Stromversorgung, usw., Klarheit welche Boards welche PCIe Version wo unterstützen).

Zen 5 auf den jetzt mit Zen 4 erscheinenden AM5-Boards sehe ich als gesetzt an. Zen 6 werden wir sehen. Egal wie man es dreht und wendet, AM5 ist zukunftsicherer als LGA1700 ;)

Platos
2022-09-07, 13:57:04
Genau. Und deshalb laufen aktuelle Ryzen-CPUs auch auf den allerersten AM4-Boards weil sich AMD so um den Support drückt. :rolleyes:

Sie laufen jetzt, aber wenn du gelesen hättest, dann wüsstest du, dass es um damals ging. Ich habe ja nie gesagt, dass er nicht kam oder nicht da ist.

fondness
2022-09-07, 13:58:33
Spätestens dann wenn Intel ein Überprodukt vorstellt, interessiert das keinem mehr.

Und AMD ist nicht mehr der Underdog aus 2017. Die Strategie mit den langlebigen Boards, wird definitiv kürzer. Zen4, Zen4 3D-Cache, Zen5, Zen5 3D-Cache und das wars.

Das stimmt nicht, die Angabe war 2025+. Bis Zen5 ist es garantiert, länger nicht unrealistisch wenn technisch nichts dagegen spricht. AM4 war dann auch langlebiger wie zu Beginn angekündigt.

dildo4u
2022-09-07, 14:02:26
Sie laufen jetzt, aber wenn du gelesen hättest, dann wüsstest du, dass es um damals ging. Ich habe ja nie gesagt, dass er nicht kam oder nicht da ist.
Weil es dafür teilweise Hardware Gründe gab die Bios Chips hatten zu wenig Speicher damit man alle Modelle gleichzeitig unterstützten konnte.(Z.b musste man je nach Board ältere AM4 Modelle rauswerfen um Zen 3 zu supporten)
In 2022 sollten diese Chips für die selben Kosten deutlich größer sein.

Exxtreme
2022-09-07, 14:08:08
Sie laufen jetzt, aber wenn du gelesen hättest, dann wüsstest du, dass es um damals ging. Ich habe ja nie gesagt, dass er nicht kam oder nicht da ist.
Der Grund war aber eher technischer Natur. Die haben ursprünglich nicht alle CPU-Typen ins Bios reinbekommen weil das zu klein ist. Also haben sie Prioritäten gesetzt und alte Sachen rausgeworfen. Aber irgendwannmal ging es halt doch. Wobei ich nicht weiss ob das wirklich so alles stimmt. Ich glaube, bei AM5 werden sie diesen Fehler nicht mehr machen.

dildo4u
2022-09-07, 14:12:06
Bei meinem eigenen B350 Board wurden die alten APU rausgeworfen das scheint also wirklich nötig gewesen zu sein.


https://www.asus.com/de/Motherboards-Components/Motherboards/PRIME/PRIME-B350-PLUS/HelpDesk_CPU/

aufkrawall
2022-09-07, 14:12:15
Ich verstehe die Debatte nicht, mit Zen 5 3D wird eine massive Beschleunigung gegenüber Zen 4 im gleichen Sockel drin sind. Reicht das nicht? :confused:
Und bez. der Plattform-Kosten muss man sich auch nicht immer an Highend-Boards orientieren. Besonders nicht, wenn bei AMD auch mit dem Mittelklasse-Chipsatz RAM-OC genauso gut geht (was hoffentlich weiterhin der Fall ist).

Achill
2022-09-07, 14:16:23
Das habe ich beim X670E befürchtet: das gibt einen richtig fetten Aufpreis. :/

Ja leider, Preise sind ähnlich und doch teurer als Intel Z690 Boards der gleichen Kategorien - einfach warten und dann schauen was man wirklich braucht ... :/

https://i.imgur.com/8SFxA6m.jpg

dildo4u
2022-09-07, 14:18:40
Es gibt ja diesmal ziemlich Bald B650 deutlich besser als beim B550, endlich wieder Konkurrenz Druck für AMD.

BlacKi
2022-09-07, 17:24:02
Bei AM5 kann ich dann bis mindestens Zen5 mit V-Cache einfach die CPU aufrüsten und den Rest behalten und bekomme deutlich mehr Power. Und bei RTL? Tjo.


wäre mir zu zeitnah. klar, wenn man eh umbaut, zb. MB faktor wechsel, dann nimmt man das mit, aber ich wüsste nicht, warum ich schon nach 2 jahren eine neue cpu bräuchte. klar, 30-50% schneller ist toll, aber cpus bleiben bei mir eigentlich 3 jahre und mehr drin. tatsächlich hab ich sogar die mainboards öfter getauscht als die cpus:freak: vielleich bin ich nicht der durchschnitt, aber die cpu öfter als alle 2 jahre zu tauschen ist auch nicht durchschnittlich.

Ex3cut3r
2022-09-07, 17:34:13
Wenn man die Option hat, dann macht das auch alle 2 oder 3 Jahre.

Wenn die Option wie bei Intel gar nicht verfügbar ist, hat sich die Sache nämlich schon vorher erübrigt. :freak:

Schon richtig enttäuschend von Intel. Ich wurde mir einen Intel + MB holen, wenn Intel auch Support bis 2025+ garanitert. So fällt meine Wahl ziemlich einfach aus, nämlich AMD, aber erst bei Zen 5 und X670/B650. Sry Intel. :freak:

BlacKi
2022-09-07, 17:40:33
Wenn man die Option hat, dann macht das auch alle 2 oder 3 Jahre.

Wenn die Option wie bei Intel gar nicht verfügbar ist, hat sich die Sache nämlich schon vorher erübrigt. :freak:

Schon richtig enttäuschend von Intel. Ich wurde mir einen Intel + MB holen, wenn Intel auch Support bis 2025+ garanitert. So fällt meine Wahl ziemlich einfach aus, nämlich AMD, aber erst bei Zen 5 und X670/B650. Sry Intel. :freak:
schade ist, das du meinen kommentar nicht verstanden hast.

Ex3cut3r
2022-09-07, 17:43:51
Doch habe ich, mit deiner Plattform kannst du eh nur 1 Gen + Refresh einbauen. Mehr bietet Intel einfach nicht. Und ein Refresh hat sich noch nie wirklich gelohnt -> Daher bist du so einer der die CPU länger als 3 Jahre behälts. Und dir ein neues MB kaufst + neue Intel CPU, da Intel halt nicht mehr bietet für "alte" MBs/Sockels, wirst du quasi sowieso dazu gezwungen.

mboeller
2022-09-07, 17:48:39
ist das neu?

AMD Ryzen 7000 Mobile erhält neue Bezeichnungen sowie sparsame 9 Watt APUs:
https://www.notebookcheck.com/AMD-Ryzen-7000-Mobile-erhaelt-neue-Bezeichnungen-sowie-sparsame-9-Watt-APUs.647832.0.html

BlacKi
2022-09-07, 17:49:06
ich hab gesagt, ich wechsel die boards vor den cpus. ich nehm die alten cpus mit auf die neuen mainboards.

Linmoum
2022-09-07, 17:52:40
wäre mir zu zeitnah. klar, wenn man eh umbaut, zb. MB faktor wechsel, dann nimmt man das mit, aber ich wüsste nicht, warum ich schon nach 2 jahren eine neue cpu bräuchte. klar, 30-50% schneller ist toll, aber cpus bleiben bei mir eigentlich 3 jahre und mehr drin. tatsächlich hab ich sogar die mainboards öfter getauscht als die cpus:freak: vielleich bin ich nicht der durchschnitt, aber die cpu öfter als alle 2 jahre zu tauschen ist auch nicht durchschnittlich.Du musst doch gar nicht direkt nach zwei Jahren wechseln. Du kannst auch einfach nach 4 Jahren auf eine entsprechende CPU aufrüsten, die CPUs verschwinden ja nicht plötzlich vom (Gebraucht)Markt.

Zossel
2022-09-07, 17:58:49
Zumal sie ja schon in der Vergangenheit lange kein Support für alte Boards geliefert haben. Damit hat sich dann für viele dieser sagenhafte Support in Luft augelöst. Gleicher Sockel bringt auch nichts, wenn man trotzdem einen neues Mainboard braucht. Und bis der Support dann kam, sind vermutlich schon viele auf ein neues Board umgestiegen.

Hier gab es auch Diskussionen über die vereinfachte Art eine neue Firmware auf die Boards zu flashen und das Teile der Funktionen die normalerweise von der X64-Firmware erledigt werden (u.a. Training) auf die ARM-Cores gewandert sind.

D.h. der Support für neue CPUs wird für den MB-Hersteller einfacher, das werte ich mal als Zeichen das es in Zukunft besser laufen kann/wird.

In einem Artikel bzgl. Coreboot habe ich auch gelesen das schon die jetzigen AMD-CPUs einfacher zu als Intel-CPUs zu unterstützen sind weil schon jetzt mehr Funktionen der Initialisierung auf den den ARM-Cores laufen.

BlacKi
2022-09-07, 18:03:38
ich wechsel die mainboards aus diversen gründen. das hat nichts mit den cpus oder kompatibilität zu tun. und sicherlich kauf ich mir kein 4 jahre altes board. dementsprechend kommt mit einer neuen cpu (bisher) sowieso immer ein neues board. das hat aber nichts mit der kompatibilität zu tun, sondern mit den anforderungen an das board. formfaktor, memory oc und features. das sind wichtige dinge die ich upgraden oder anpassen will.

aufkrawall
2022-09-07, 18:10:41
Dann kaufst du offenbar immer falsche Boards. Wenn das Board RAM-OC verkackt, sollte man es sofort zurückschicken, simple as that.

BlacKi
2022-09-07, 18:27:12
ja, das war kein reiner grund nur für den wechsel des mainboards.

Neurosphere
2022-09-07, 18:56:07
Ja leider, Preise sind ähnlich und doch teurer als Intel Z690 Boards der gleichen Kategorien - einfach warten und dann schauen was man wirklich braucht ... :/

https://i.imgur.com/8SFxA6m.jpg


Warum steht da AMD Multi-GPU?:sneak:

basix
2022-09-07, 20:54:23
Warum steht da AMD Multi-GPU?:sneak:

iGPU von Zen 4 ;)

RainingBlood
2022-09-07, 21:03:09
Ob AM4 Kühler mit AM5 kompatibel sein werden?

unl34shed
2022-09-07, 21:07:33
Angeblich sollen AM4 und AM5 Kühler kompatibel sein.
https://www.pcgamesn.com/amd/ryzen-7000-am5-cooler-compatibility

BlacKi
2022-09-07, 21:08:25
Ob AM4 Kühler mit AM5 kompatibel sein werden?ja und nein gleichzeitig. du wirst eine kompatibilitätsliste abklappern müssen. anfangs wird jene wohl nicht 100% alle kühler beinhalten, aber die beliebten modelle werden sicher schnell getestet.

https://youtu.be/ji4XbaTFWFk?t=452

Der_Korken
2022-09-07, 22:11:30
Igor hat das in einem Video mal erklärt: https://www.youtube.com/watch?v=ji4XbaTFWFk

AM5 verwendet eine andere Backplate, die nicht nur mit vier Schrauben befestigt ist, die durch das Board durchgreifen, sondern mit weiteren vier Schrauben, die mit dem Sockel selbst verbunden sind. Alle AM4-Kühler, die die Standard-Backplate verwendet haben, sollten auf AM5 problemlos laufen. Bei einer Custom-Backplate, wird das nicht der Fall sein, da man dort keine Bohrungen zum Halten des Sockels vorhanden sind. Bei einem Nachrüsten ist zudem fraglich, wie es mit der Garantie aussieht, da man beim Wechseln der Backplate automatisch den gesamten Sockel demontiert.

robbitop
2022-09-07, 23:00:58
Das ist schon länger bekannt.

vinacis_vivids
2022-09-08, 00:21:21
https://wccftech.com/amd-ryzen-7000-rdna-2-igpu-2-compute-units-faster-than-vega-6-igpu-benchmarks-leak/

2 RDNA iGPU CUs entsprechen 7-8 Vega iGPU CUs und kommen fast an Intels 32EUs dran.

basix
2022-09-08, 09:32:20
4 CUs wären mMn gut drin gelegen, da nur relativ wenig Fläche benötigt würde. 3 CU bei einigen Ryzen SKUs. Aber OK, sobald man eine dGPU hat spielt es eh keine Rollle.

Redneck
2022-09-08, 10:16:01
4 CUs wären mMn gut drin gelegen, da nur relativ wenig Fläche benötigt würde. 3 CU bei einigen Ryzen SKUs. Aber OK, sobald man eine dGPU hat spielt es eh keine Rollle.
Interessant wäre, ob es möglich wäre den Desktop Betrieb ausschließlich über die integrierte Gpu laufen zu lassen und die dGPU komplett damit lahm zu legen um die gesamt Effizienz weiter zu steigern und die DGPU nur noch bei Bedarf laufen zu lassen. Wäre doch cool wenn AMD das ermöglichen würde (und wenn es nur mit ner Kombo mit RDNA ginge)

MSABK
2022-09-08, 10:24:07
Interessant wäre, ob es möglich wäre den Desktop Betrieb ausschließlich über die integrierte Gpu laufen zu lassen und die dGPU komplett damit lahm zu legen um die gesamt Effizienz weiter zu steigern und die DGPU nur noch bei Bedarf laufen zu lassen. Wäre doch cool wenn AMD das ermöglichen würde (und wenn es nur mit ner Kombo mit RDNA ginge)

Alles andere würde mich stark überraschen.

][immy
2022-09-08, 10:29:43
Interessant wäre, ob es möglich wäre den Desktop Betrieb ausschließlich über die integrierte Gpu laufen zu lassen und die dGPU komplett damit lahm zu legen um die gesamt Effizienz weiter zu steigern und die DGPU nur noch bei Bedarf laufen zu lassen. Wäre doch cool wenn AMD das ermöglichen würde (und wenn es nur mit ner Kombo mit RDNA ginge)

Dgpus sind ja schon bei 4-10w. So viel lässt sich da nicht mehr einsparen. Als not-gpu gut genug und für den Office Bereich auch.

basix
2022-09-08, 10:31:20
Alles andere würde mich stark überraschen.

Jepp, bin der selben Meinung. Gab es bei den Crossfire Setups ja auch, dass man eine der GPUs komplett abgeschaltet hat. Cool wäre, wenn das auch mit Nvidia & Intel GPUs funktionieren würde, ist wohl aber technisch unrealistisch.

Gab es da nicht mal eine Technik, wo man das Bild über die iGPU führte und damit die Frametimes besser wurden? War irgendeine 3rd Party Software, vor 5 oder gar 10 Jahren war das ein Thema.

Nightspider
2022-09-08, 10:34:26
Interessant wäre, ob es möglich wäre den Desktop Betrieb ausschließlich über die integrierte Gpu laufen zu lassen und die dGPU komplett damit lahm zu legen um die gesamt Effizienz weiter zu steigern und die DGPU nur noch bei Bedarf laufen zu lassen. Wäre doch cool wenn AMD das ermöglichen würde (und wenn es nur mit ner Kombo mit RDNA ginge)

Das hoffen bestimmt viele.

Wären nochmal locker ~ 20-30 W im Windoof die man einsparen würde.

Vielleicht kann man auch im Multi-Monitor-Betrieb ordentlich strom sparen, wenn man das 2. Display an die CPU hängen kann.

basix
2022-09-08, 10:40:49
Gab es da nicht mal eine Technik, wo man das Bild über die iGPU führte und damit die Frametimes besser wurden? War irgendeine 3rd Party Software, vor 5 oder gar 10 Jahren war das ein Thema.

Lucid Virtu war es ;)
https://www.anandtech.com/show/4199/lucids-virtu-enables-simultaneous-integrateddiscrete-gpu-on-sandy-bridge-platforms

Zum Teil waren auch anständige Performance Gains möglich. Erinnert mich irgendwie an das Thema der AMD Mobile GPUs, welche neu auf einer AMD Plattform mit einem Display-Switch ausgestattet sind und so mehr Performance übrig bleibt. Nur einfach umgekehrt.
https://www.tweaktown.com/articles/4651/lucid_virtu_mvp_hyperformance_tested_with_asrock_z77_and_intel_ivy_bridge/index.html

Gleichzeitiges Rendering auf der iGPU wäre allerdings nicht meine Anforderung. Eher sowas wie Nvidia Optimus oder das AMD/Intel Äquivalent.

MSABK
2022-09-08, 10:41:48
Ahh, stimmt da fällt mir aber ein, dass der Monitor ja an der dGPU hängt. Wie würde da dann der Betrieb im Desktop über die iGPU funktionieren?

basix
2022-09-08, 10:54:48
Ich würde das dGPU Bild zur iGPU streamen und via Motherboard ausgeben. Hat den Nachteil, dass man am MoBo typ. weniger Display Anschlüsse hat und allenfalls auch mit älterer Version (z.B. HDMI 2.0).

Wenn man den Monitor an die dGPU hängen kann: GPU müsste das entsprechende Power Gating usw. ünterstützen, um den Verbrauch zu minimieren. Da weiss ich dann aber nicht, wie viel man dann noch einsparen kann. Zumindest im Idle vermutlich fast nichts. Immerhin wäre so Zeugs wie Web-Browsing, YT-Videos, Fenster schieben usw. vermutlich energieffizienter, da die grosse GPU weiterhin schlafen kann.

Redneck
2022-09-08, 11:26:13
Ahh, stimmt da fällt mir aber ein, dass der Monitor ja an der dGPU hängt. Wie würde da dann der Betrieb im Desktop über die iGPU funktionieren?
Ich denke da an die Zeiten von reinen 2d Karten (et4000 etc) mit Voodoo Beschleuniger.

Redneck
2022-09-08, 11:30:21
[immy;13101878']Dgpus sind ja schon bei 4-10w. So viel lässt sich da nicht mehr einsparen. Als not-gpu gut genug und für den Office Bereich auch.
Da habe ich aber andere Zahlen im Kopf (sowohl im idle als auch unter 2d Last)

Platos
2022-09-08, 11:51:38
Interessant wäre, ob es möglich wäre den Desktop Betrieb ausschließlich über die integrierte Gpu laufen zu lassen und die dGPU komplett damit lahm zu legen um die gesamt Effizienz weiter zu steigern und die DGPU nur noch bei Bedarf laufen zu lassen. Wäre doch cool wenn AMD das ermöglichen würde (und wenn es nur mit ner Kombo mit RDNA ginge)

Ist ja bei Laptops seit Jahren standart. Technisch wäre das locker möglich. Müsste eben nur Treiber dazu geben. Ich glaube sogar, mit so nem Razer Core irgendwas gabs mal Treiber für sowas am Desktop (E-GPU). Aber sind uralt. Bei manchen hat es anscheinend funktioniert laut Forenberichten.


[immy;13101878']Dgpus sind ja schon bei 4-10w. So viel lässt sich da nicht mehr einsparen. Als not-gpu gut genug und für den Office Bereich auch.

Wo denn 4Watt am Desktop? Da ist eher so 8-12 Üblich und das ist eine Menge für nichts tun. Es braucht endlich mal vernünftige Steomsparmechanismen.

basix
2022-09-08, 12:00:01
Das Problem ist nicht "True" Idle sondern wenn man nur schon eine neue Webseite aufbaut, Fenster rumschiebt oder YT-Videos schaut. Dort sind es je nach GPU auch 20-40W.

The_Invisible
2022-09-08, 12:53:25
Ob AM4 Kühler mit AM5 kompatibel sein werden?

Noctua hat eine nette Liste https://ncc.noctua.at/socket-compatibility-overview

Bin ready :D

robbitop
2022-09-08, 13:32:46
4 CUs wären mMn gut drin gelegen, da nur relativ wenig Fläche benötigt würde. 3 CU bei einigen Ryzen SKUs. Aber OK, sobald man eine dGPU hat spielt es eh keine Rollle.

Eigentlich sieht man an Intels langjährigem Erfolg mit besch…eidenen iGPUs in den meisten SKUs, dass die Erwartungshaltung an diese SKUs was 3D Grafik angeht sehr gering ist.
GT2 SKUs sind und waren um Größenordnungen erfolgreicher als GT3 und GT4.
Und dazu kommt, dass Intel offen sagt, dass sie für Xe alles an Treibern bis heute wegwerfen mussten und komplett neu beginnen mussten während AMD/NV das nicht tun müssen - das zeigt in welchem Zustand die iGPs bzgl Treiber und Leistung waren.

Die Erwartungshaltung für die meisten SKUs ist: soll ein Bild anzeigen, grundlegender 3D support, Videobeachleunigung. Good enough.

Die Gamer holen sich eine dGPU dazu (PC und Laptop) oder nehmen die dickere IGP.

Die winzige GPU in Raphael ist sinnvoll: bringt genau das was nötig ist um den Mehrwert einzusacken. Aber auch nicht mehr.

Bzgl der Stromeinsparung mit igp im Leerlauf: das ist seit Windows 10 so vorgesehen. Windows ordnet diese entsprechend als low power und main gpu ein. Damit das geht muss das Ausgabegerät aber an die IGP angeschlossen sein. Nachteill: die Outputs sind in der Regel weniger und schlechter vom Featureset. VRR wird dann ein Problem. Mit Rembrandt kein Problem grundsätzlich. Mit XeLP schon.

Allerdings sind moderne dGPUs im idle schon ziemlich sparsam. Ob das jetzt wirklich den Kohl fett macht?

basix
2022-09-08, 13:39:17
Klar, für einfaches Office und Browsing ist es gut genug. Vor allem wenn AV1, h.265 etc. Beschleunigung vorhanden ist.

Ein WGP ist aber halt nur 4-5mm2 gross. Sehr geringe Steigerung verglichen zu den ~120mm2 des gesamten IOD. Vielleicht ging mit 2 WGP das Chip Layout nicht mehr gut auf, keine Ahnung.

Platos
2022-09-08, 13:51:22
Das Problem ist nicht "True" Idle sondern wenn man nur schon eine neue Webseite aufbaut, Fenster rumschiebt oder YT-Videos schaut. Dort sind es je nach GPU auch 20-40W.

Stimmt, am besten nvidia inspector verwenden. Dennoch ist auch 10W Idle genug hoch. Das gleiche gilt für CPU. Da muss einfach mal deutlich an Innovation her. Das sollte eher 1-2Watt sein.

BlacKi
2022-09-08, 14:44:23
Ahh, stimmt da fällt mir aber ein, dass der Monitor ja an der dGPU hängt. Wie würde da dann der Betrieb im Desktop über die iGPU funktionieren?
ein zweites kabel ist auf jeden fall möglich.

Interessant wäre, ob es möglich wäre den Desktop Betrieb ausschließlich über die integrierte Gpu laufen zu lassen und die dGPU komplett damit lahm zu legen um die gesamt Effizienz weiter zu steigern und die DGPU nur noch bei Bedarf laufen zu lassen. Wäre doch cool wenn AMD das ermöglichen würde (und wenn es nur mit ner Kombo mit RDNA ginge)

beide gpus sind sowieso aktiv. eigentlich müsste also amd nur das alte feature zerocore power wieder einführen. technisch war das alles schon immer möglich. aber gemacht hat man es trotzdem nicht. wieso soll das ausgerechnet jetzt kommen?

Exxtreme
2022-09-08, 14:46:33
Das sollte eher 1-2Watt sein.

Problem ist, man kann nicht unendlich weit runtertakten damit das möglich ist. Zuviel Takt ist blöd, zuwenig aber auch. Allerhöchstens eine Komplettabschaltung würde da noch gehen.

Platos
2022-09-08, 15:05:20
Problem ist, man kann nicht unendlich weit runtertakten damit das möglich ist. Zuviel Takt ist blöd, zuwenig aber auch. Allerhöchstens eine Komplettabschaltung würde da noch gehen.

Also ja, vlt war es vorhin etwas missverständlich, aber ich meinte ja eine Komplettabschaltung bzw. "standby" bei Grafikkarten. Das ist ja genau das, was im Mobilebereich passiert mit z.B nvidia optimus.

Und bei der CPU: Meine Laptop-CPU macht im Idle Package unter 3Watt. Also geht schon. Liegt aber nicht an der CPU, sondern am Package, nehme ich an. Die Kerne ziehen ja glaube ich praktisch nix mehr bei Desktop-CPUs. Beim Laptop ist aber das Package sehr Stromsparend.

Und einzelne Kerne kann man ja auch abschalten/deepsleepen. Aber wir gesagt, das Package ist da vermutlich der Übeltäter bei Desktop-CPUs ?

Edit: Und ich glaube AMD hat mit Zerocore bei ihren Grafikkarten doch auch so idle von ganz wenigen Watt geschafft? Weiss aber nicht, was daraus wurde.

Redneck
2022-09-08, 15:20:19
ein zweites kabel ist auf jeden fall möglich.



beide gpus sind sowieso aktiv. eigentlich müsste also amd nur das alte feature zerocore power wieder einführen. technisch war das alles schon immer möglich. aber gemacht hat man es trotzdem nicht. wieso soll das ausgerechnet jetzt kommen?

Gegenfrage : warum sollte es nicht kommen ? auch wenn es am Ende nur 5 Watt spart und für viele die iGPU nur ein Checklistenfeature ist kann man daraus doch marketingtechnisch was nettes machen.. seht her, wir bauen euch nicht nur eine redundante GPU mit ein sondern bringen euch auch einen Nutzen dafür. Für den normalen Windows Betrieb dürfte die iGPU völlig ausreichen und die große dGPU kann man schlafen legen.
In einer Zeit in der überall optimiert wird (FPS, PQ, MHZ , Verbrauch , Selbstoptimierung..) wäre es doch blöd etwas zu verbauen, was nicht genutzt wird auf die eine oder andere Weise.

die Strompreise steigen Weltweit (ausser in RU vielleicht).. sich grün zu machen liegt da im Trend und es lohnt da jeden Stein zu wenden um hier und da noch ein Wättchen zu sparen. Schaut euch doch einmal die Diskussionen um die Standby Verbräuche von Geräten an. Da geht es auch nur um wenige Watt aber die Masse machts

Platos
2022-09-08, 16:45:41
Gegenfrage : warum sollte es nicht kommen ?

Vlt. weil es vorher auch nie kam (langfristig) und vlt. weil es einen Mehraufwand bedeutet ?

Der_Korken
2022-09-08, 16:55:09
Ist es technisch überhaupt möglich z.B. ein DP-Signal über PCIe wieder zur CPU
zurückzuschleifen, sodass es dann dort über den Port rausgeleitet wird? Wie sieht es mit der Latenz aus?

Gipsel
2022-09-08, 17:16:48
Ist es technisch überhaupt möglich z.B. ein DP-Signal über PCIe wieder zur CPU
zurückzuschleifen, sodass es dann dort über den Port rausgeleitet wird? Wie sieht es mit der Latenz aus?Möglich ist es sicher, wird in Notebooks doch auch gemacht (technisch streamt man den Framebuffer zur Displayausgabe über PCIe). Und die Latenz von Nano- bis Mikrosekunden ist für die Bildausgabe völlig unerheblich. Es kostet aber (je nach dem, wie man es macht) eventuell ein paar Prozentpunkte Performance.

Redneck
2022-09-08, 17:36:53
Vlt. weil es vorher auch nie kam (langfristig) und vlt. weil es einen Mehraufwand bedeutet ?
Lasse ich nicht gelten.. Was immer schon so war muss nicht zwangsläufig morgen auch noch so sein und ohne Mehraufwand gibt es keinen Fortschritt

BlacKi
2022-09-08, 17:47:26
Gegenfrage : warum sollte es nicht kommen ? auch wenn es am Ende nur 5 Watt spart und für viele die iGPU nur ein Checklistenfeature ist kann man daraus doch marketingtechnisch was nettes machen.. seht her, wir bauen euch nicht nur eine redundante GPU mit ein sondern bringen euch auch einen Nutzen dafür. Für den normalen Windows Betrieb dürfte die iGPU völlig ausreichen und die große dGPU kann man schlafen legen.
In einer Zeit in der überall optimiert wird (FPS, PQ, MHZ , Verbrauch , Selbstoptimierung..) wäre es doch blöd etwas zu verbauen, was nicht genutzt wird auf die eine oder andere Weise.

die Strompreise steigen Weltweit (ausser in RU vielleicht).. sich grün zu machen liegt da im Trend und es lohnt da jeden Stein zu wenden um hier und da noch ein Wättchen zu sparen. Schaut euch doch einmal die Diskussionen um die Standby Verbräuche von Geräten an. Da geht es auch nur um wenige Watt aber die Masse machts


weil es schonmal da war und wieder gegangen ist.
https://www.computerbase.de/2012-03/lucid-virtu-mvp-naechster-versuch-der-gpu-kombination/

Platos
2022-09-08, 17:49:41
Lasse ich nicht gelten.. Was immer schon so war muss nicht zwangsläufig morgen auch noch so sein und ohne Mehraufwand gibt es keinen Fortschritt

Ah ja und deshalb ist es wahrscheinlich, dass es kommt ?

Wohl kaum... Es gibt keine Hinweise, die das andeuten, ergo ist alles andere nicht anzunehmen.

Was ist das überhaupt für eine Argumentation? "Warum nicht?". Du bist hier derjenige, der es in Betracht zieht, dass es kommen könnte. Ergo bist auch du derjenige, der es mit Argumenten stützen muss, nicht alle anderen xD

Der_Korken
2022-09-08, 18:07:55
Möglich ist es sicher, wird in Notebooks doch auch gemacht (technisch streamt man den Framebuffer zur Displayausgabe über PCIe). Und die Latenz von Nano- bis Mikrosekunden ist für die Bildausgabe völlig unerheblich. Es kostet aber (je nach dem, wie man es macht) eventuell ein paar Prozentpunkte Performance.

Ja, da dämmert doch noch was: https://www.computerbase.de/2022-03/mux-switch-gaming-notebook-test/

Das klingt aber nicht so gut. Man braucht dann einen Multiplexer auf dem Board, den bestimmt wieder kein Hersteller verbaut hat (dafür aber jede Menge anderen Müll). Mir kommt aber der Leistungsverlust ohne MUX viel zu hoch vor. Warum sollte das bis zu 50% Leistung kosten? Nehmen wir mal 2560 x 1440 x 24bit x 144 fps = 1518MB/s. Das entspricht bei PCIe 4.0 weniger als einer Lane, wenn ich mich nicht verrechnet habe. Im Test waren es zwar teilweise über 200fps, dafür aber nur Full HD, sodass sich das nichts nimmt. Der Leistungsabfall kann also nicht daher kommen, dass die Bandbreite des PCIe-Ports nicht ausreicht.

Platos
2022-09-08, 18:21:09
Ja, da dämmert doch noch was: https://www.computerbase.de/2022-03/mux-switch-gaming-notebook-test/

Das klingt aber nicht so gut. Man braucht dann einen Multiplexer auf dem Board, den bestimmt wieder kein Hersteller verbaut hat (dafür aber jede Menge anderen Müll). Mir kommt aber der Leistungsverlust ohne MUX viel zu hoch vor. Warum sollte das bis zu 50% Leistung kosten? Nehmen wir mal 2560 x 1440 x 24bit x 144 fps = 1518MB/s. Das entspricht bei PCIe 4.0 weniger als einer Lane, wenn ich mich nicht verrechnet habe. Im Test waren es zwar teilweise über 200fps, dafür aber nur Full HD, sodass sich das nichts nimmt. Der Leistungsabfall kann also nicht daher kommen, dass die Bandbreite des PCIe-Ports nicht ausreicht.

Hmm, die Frage ist, warum das passiert? Beim Alienware Laptop macht es nämlich gar keinen Unterschied, wie man sieht. Egal ob über iGPU oder nicht.

Liegt es an den FPS? Also hat es erst bei sehr hohen FPS einen Einfluss? Oder warum hat es bei manchen Laptops keinerlei Einfluss?

Edit: Es sind zwar nur 3 Testmodelle, aber die, die drauf anschlagen haben ne AMD-CPU und ne AMD-GPU. Das Alienware hat ne Intel CPU und ne nvidia GPU. Möglicherweise hat das ja einen Einfluss oder irgendwas mit dem Mainboard und PCI-E beim Intelmodell.

Der_Korken
2022-09-08, 19:24:39
Vielleicht sollte ich mir meine eigenen Links selber durchlesen :freak:

Ich war durch die Überschriften so auf den Leistungsverlust fokussiert, dass ich mir nur das Problemmodell angeguckt habe. Dann könnten das auch Treiberprobleme sein. Kurioserweise scheint es bei der AMD+AMD Combo so einige Huckups zu geben. Ein Freund von mir hatte sich mal so Gaming-Laptop mit AMD+AMD geholt, ihn aber wieder zurückgeschickt, u.a. weil das Umschalten zwischen den beiden GPUs viele Probleme gemacht hat. Und ja, der Einbruch wird theoretisch größer, je höher die Auflösung und je höher die fps, unabhängig vom Content.

Ich persönlich würde es begrüßen, wenn man PCs hier im Idle und bei geringer Last sparsamer bekommen würde. Dass es prinzipiell geht, sieht man den Akkulaufzeiten von Laptops. Wenn ein Laptop 10h Laufzeit aus einem 60Wh-Akku zieht, dann lag der Durchschnittsverbrauch des gesamten Systems bei nur 6W - das Display eingerechnet! Von den 5W Einsparung, die angeblich den Aufwand nicht Wert sind, kann man also einen ganzen Laptop betreiben. Nur weil Desktops "schon immer" 80W im Idle gezogen haben, ist das weder gut noch sind Verbesserungen hier unmöglich oder unerheblich.

Platos
2022-09-08, 20:31:11
Nur Desktops "schon immer" 80W im Idle gezogen haben ist das weder gut noch sind Verbesserungen hier unmöglich oder unerheblich.

That's it!

Egal ob nun 40 oder 80Watt Idle oder niedriglast, das ist einfach lächerlich. Es muss da einfach deutliche Fortschritte geben. 20W Niedriglast (4k Video z.B) sollte inklusive Grafikkarte machbar sein, auch am desktop

Redneck
2022-09-08, 21:04:21
Ah ja und deshalb ist es wahrscheinlich, dass es kommt ?

Wohl kaum... Es gibt keine Hinweise, die das andeuten, ergo ist alles andere nicht anzunehmen.

Was ist das überhaupt für eine Argumentation? "Warum nicht?". Du bist hier derjenige, der es in Betracht zieht, dass es kommen könnte. Ergo bist auch du derjenige, der es mit Argumenten stützen muss, nicht alle anderen xD
Ließ meinen Text und vielleicht verstehst du dann, daß ich nicht glaube das es kommt aber das ich es cool finden würde falls es so wäre. Manoman...

Zossel
2022-09-08, 22:47:06
Das klingt aber nicht so gut. Man braucht dann einen Multiplexer auf dem Board, den bestimmt wieder kein Hersteller verbaut hat (dafür aber jede Menge anderen Müll).

Was für einen Multiplexer? (Der Begriff Multiplexer ist sehr generisch)
Das ging schon in den 90'ern. Die ganzen TV-Karten aus den 90'ern mit bt848, bt878 haben das so gemacht.

Allerdings sollte die GPU keine RMW-Operationen auf die Daten im eigentlichen Framebuffer ausführen, das dürfte via PCIe zu langsam sein. Weiß jemand ob das in modernen GPUs benötigt wird, xor ist ja beliebte Operation auf Framebuffer und eine RMW Operation. Falls ja bräuchte die diskrete GPU einen Mirrot/Shadow von dem Framebuffer.

Oder der "RAMDAC" der IGPU müsste ein PCI-DMA-Masterfähiges Device sein.

Gipsel
2022-09-09, 00:19:46
Ja, da dämmert doch noch was: https://www.computerbase.de/2022-03/mux-switch-gaming-notebook-test/

Das klingt aber nicht so gut. Man braucht dann einen Multiplexer auf dem Board, den bestimmt wieder kein Hersteller verbaut hat (dafür aber jede Menge anderen Müll).Mit MUX geht es dann aber nicht über PCIe.

=====================

Allerdings sollte die GPU keine RMW-Operationen auf die Daten im eigentlichen Framebuffer ausführen, das dürfte via PCIe zu langsam sein. Weiß jemand ob das in modernen GPUs benötigt wird, xor ist ja beliebte Operation auf Framebuffer und eine RMW Operation. Falls ja bräuchte die diskrete GPU einen Mirrot/Shadow von dem Framebuffer.

Oder der "RAMDAC" der IGPU müsste ein PCI-DMA-Masterfähiges Device sein.Rendert die dGPU den Frame, liegt der Framebuffer natürlich im VRAM der dGPU. Nur zur Displayausgabe wird der Framebuffer dann nicht von der in der dGPU integrierten Displayengine (hat heute den RAMDAC aus VGA-Zeiten ersetzt) gelesen, sondern über PCIe zur Displayengine der iGPU gestreamt (bzw. in den System-RAM [VRAM der iGPU] kopiert und dann von dort ausgelesen, was etwas mehr Performance kostet). Also die read-modify-write Operationen finden nicht über PCIe statt, sondern der fertige Framebuffer wird von der dGPU zur iGPU gestreamt/kopiert.

Zossel
2022-09-09, 00:30:57
Rendert die dGPU den Frame, liegt der Framebuffer natürlich im VRAM der dGPU. Nur zur Displayausgabe wird der Framebuffer dann nicht von der in der dGPU integrierten Displayengine (hat heute den RAMDAC aus VGA-Zeiten ersetzt) gelesen, sondern über PCIe zur Displayengine der iGPU gestreamt (bzw. in den System-RAM [VRAM der iGPU] kopiert und dann von dort ausgelesen, was etwas mehr Performance kostet). Also die read-modify-write Operationen finden nicht über PCIe statt, sondern der fertige Framebuffer wird von der dGPU zur iGPU gestreamt/kopiert.

Die diskrete GPU müsste noch die interne GPU mit *sauberen* Takten für VSync und Co versorgen, das könnte ohne PLL kribbelig werden, und erst recht bei variablen VSync.

Gipsel
2022-09-09, 00:56:17
Die diskrete GPU müsste noch die interne GPU mit *sauberen* Takten für VSync und Co versorgen, das könnte ohne PLL kribbelig werden, und erst recht bei variablen VSync.Mit Adaptive Sync gerade nicht, weil das VSync-Timing nicht so kritisch (da variabel) ist. Ein gewisses QoS wäre für die Streaming-Variante nett, so daß man garantieren kann, daß die Daten just-in-time geliefert werden. Für die Kopiervariante ist noch nicht mal das nötig.

Zossel
2022-09-09, 07:26:01
Mit Adaptive Sync gerade nicht, weil das VSync-Timing nicht so kritisch (da variabel) ist. Ein gewisses QoS wäre für die Streaming-Variante nett, so daß man garantieren kann, daß die Daten just-in-time geliefert werden. Für die Kopiervariante ist noch nicht mal das nötig.

Das fertigrendern des einzelnen Frames, das Kopieren und die anschließende Ausgabe des Frames über die Displayengine sollte schon sehr synchron stattfinden weil sonst die Ausgabe auf dem Display "zerreißt" bzw. solche Schnittstellen wie HDMI/DVI dürften ziemlich synchron sein. So ein Timing auf X64 rein in Software zu machen kann ich mir nicht vorstellen. Und alte Displays will man ja auch unterstützen.

Gibt es Code im Linux-Kernel dafür und hat jemand Lust das zu analysieren? :-)

dildo4u
2022-09-09, 11:56:49
7600x Benches mit und ohne CPB.

https://videocardz.com/newz/amd-ryzen-5-7600x-tested-in-cinebench-r23-with-amd-core-performance-boost-disabled

5.45 GHz 110 Watt Temperatur Limitiert bei 92°.

Platos
2022-09-09, 12:13:06
7600x Benches mit und ohne CPB.

https://videocardz.com/newz/amd-ryzen-5-7600x-tested-in-cinebench-r23-with-amd-core-performance-boost-disabled

5.45 GHz 110 Watt Temperatur Limitiert bei 92°.

uhh, sogar der salvage 8-Kerner (6-Kerner) wird temepraturlimitiert. Da will ich nicht wissen, wie es mit dem 8-Kerner aussieht.

Linmoum
2022-09-09, 12:20:24
>90°C bei nur 110W halte ich allerdings für absoluten Quatsch mit einer 240mm AiO.

dildo4u
2022-09-09, 12:36:05
Wundert mich nicht das er an der Kotzgrenze Läuft die neuen i5k Modelle haben mehr Cache und nutzt mehr Saft als ihre Vorgänger.
Multi Threading ist verloren daher muss man beim 7600X den Takt so ansetzen damit er zumindest eine Chance beim Gameing hat.

Neurosphere
2022-09-09, 12:56:56
Wundert mich nicht das er an der Kotzgrenze Läuft die neuen i5k Modelle haben mehr Cache und nutzt mehr Saft als ihre Vorgänger.
Multi Threading ist verloren daher muss man beim 7600X den Takt so ansetzen damit er zumindest eine Chance beim Gameing hat.

Watt?

Temp und Leistungsaufnahme passen hier nicht zusammen.

Linmoum
2022-09-09, 13:05:47
Wundert mich nicht das er an der Kotzgrenze Läuft die neuen i5k Modelle haben mehr Cache und nutzt mehr Saft als ihre Vorgänger.
Multi Threading ist verloren daher muss man beim 7600X den Takt so ansetzen damit er zumindest eine Chance beim Gameing hat.
Was ist denn an 110W bitte Kotzgrenze? :freak:

Eher beeindruckend, dass damit scheinbar fast 5.5GHz drin sind.

Birdman
2022-09-09, 13:28:03
>90°C bei nur 110W halte ich allerdings für absoluten Quatsch mit einer 240mm AiO.
Quatsch ist eher die Annahme, dass eine AiO irgendwas relevantes zu einer tieferen Core Temperatur beitragen würde... (im Vergleich zu einem Air-Cooler)

Linmoum
2022-09-09, 13:38:07
Ich habe nicht behauptet, dass das verglichen mit Lukü der Fall ist. Sondern lediglich festgestellt, dass eine 240mm AiO benutzt worden sein soll und damit bei nur 110W solche Temps nicht Zustandekommen.

Oder die Wattangabe ist schlicht falsch oder die ausgelesene Temperatur spinnt.

Meridian12
2022-09-09, 13:41:21
Bei 110 Watt kommt mir die Temp auch zu hoch vor. Haben die vergessen Wärmeleitpaste draufzupacken? :D

Der_Korken
2022-09-09, 13:46:52
Lasst zum Vergleich mal 6 Threads mit Prime o.ä. auf einem Zen 3 auf einem Chiplet laufen. Auf meinem 5900X ist es kein Problem ins Templimit zu laufen, bevor die 140W ausgeschöpft sind, wenn ich nur ein Chiplet belaste. Zudem sollte man bedenken, dass die Core Power dabei bei mir <110W ist, weil der IOD den Rest säuft. Wenn der neue IOD deutlich sparsamer ist, sind 110W Package bei Zen 4 deutlich mehr Saft auf den Kernen als 110W Package bei Zen 3.

basix
2022-09-09, 13:55:52
Bei 110 Watt kommt mir die Temp auch zu hoch vor. Haben die vergessen Wärmeleitpaste draufzupacken? :D

Kleineres CCD und die geringere Heatspreader Fläche sind halt schon nachteilig. Auch ein 5800X wird 90°C heiss, bei +15% CCD Fläche. Passt schon.

Geiler finde ich, dass 60W bei 4.7 GHz dort stehen. Ziehe ich 10W für das IOD ab, sind das gerade mal 50W fürs CCD. Ein 16-Kerner wäre also mit ~140...150W drin, das bei 4.7 GHz All-Core :D

Lehdro
2022-09-09, 13:56:36
Wenn der neue IOD deutlich sparsamer ist, sind 110W Package bei Zen 4 deutlich mehr Saft auf den Kernen als 110W Package bei Zen 3.
Und noch dazu auf einer kleineren Fläche!

Aber vielleicht ist das auch immer noch eine Folge der angeblichen Voltageprobleme (zu viel Vcore). Kann mir ansonsten nicht vorstellen wie das mit den noch höher taktenden CPUs aussieht - es sei denn das Binning ist dementsprechend stark, so dass der getestete 7600X quasi Abfall ist und wirklich geprügelt wurde damit der den Takt erreicht.

basix
2022-09-09, 14:02:54
Bei Single CCD ist es ein stärkeres Problem als bei Dual CCD. Die x900/x950 SKUs bleiben Kühler und Single Core wird das thermische Limit nicht ausreizen.

Tesseract
2022-09-09, 14:05:01
mit dem 5800X3D bei maximaler tortur in prime komme ich bei ~120W (fast alles auf einem chiplet) auf ~87-90°C, bei "gemischter" prime-last bei ~100W eher so auf 70-72°C, beides mit luft.

The_Invisible
2022-09-09, 14:16:00
>90°C bei nur 110W halte ich allerdings für absoluten Quatsch mit einer 240mm AiO.

Wieso Quatsch, war bei den 5000ern ja schon so, mein 5950x geht bei "ein CCD Belastung" auch auf >80°C hoch mit einem Noctua Highend Cooler und nicht mal vollen TDP Limit. Bei 7000ern verschärft sich das Problem noch, die Highend 7000er werden wohl sehr oft im Temp Limit hängen. Die 170W werden wohl nur errecht wenn beide CCDs belastet werden und die Temp besser abgeführt werden kann.
Bei mir sinken die Temperaturen auch sobald der 2. CCD ins Spiel kommt.

@basix
merke ich nix davon, bei single CCD Last geht die Temp ab wie Schmitzs Katze ; )

basix
2022-09-09, 17:15:50
@basix
merke ich nix davon, bei single CCD Last geht die Temp ab wie Schmitzs Katze ; )

Bei Single CCD Last ist es ja auch unerheblich, ob da noch ein zweites sitzt ;) Ich meinte mehr Cinebench und andere Anwendungen, wo alle Cores ausgelastet werden

BlacKi
2022-09-09, 17:37:55
Und noch dazu auf einer kleineren Fläche!



ich bin schon in der vergangenheit darauf eingegangen, das mehr silizium zwar hilft, aber ein 5600x mit 110w wäre wohl trotzdem kühler, weil die cores größer sind. auch der deutlich dickere heatspreader bei kleinerer kühlerfläche verschlimmbessert es eher als zu helfen. vergleiche mit einem 5800x(3d) helfen da nicht.


ein 5600x bei 110w hat höhere temperaturen als ein 5800x bei 110w.

Gipsel
2022-09-09, 17:51:53
Das fertigrendern des einzelnen Frames, das Kopieren und die anschließende Ausgabe des Frames über die Displayengine sollte schon sehr synchron stattfinden weil sonst die Ausgabe auf dem Display "zerreißt" bzw. solche Schnittstellen wie HDMI/DVI dürften ziemlich synchron sein.Die Displayengines bekommen es standardmäßig schon geregelt, synchron zur eigentlichen Ausgabe die benötigten Daten aus dem RAM zu lesen und entsprechend (vergleichsweise geringe Menge an) Bandbreite zu reservieren bzw. diese Vorgänge zu priorisieren. Die PCIe-Lanes werden ja nicht mit irgendwelchen anderen Geräten geteilt, es geht also lediglich um Priorisierung der Framebufferdaten im internen Datenfabric der APU/CPU mit iGPU und vielleicht Liefern von Feedback, die das beim Lesen vom eigenen RAM ja ebenso machen müßte. Das ist also eigentlich kein Problem.
Stellt die dGPU also einen Frame fertig (vorher wird ja sowieso der vorhergehende Framebuffer am Display dargestellt) erfolgt bei Ausgabe über die Ausgänge der dGPU anschließend (je nach gewählter VSYNC-Methode) der Bufferflip (der dGPU) und die Displayengine fängt an, den neuen Framebuffer auszulesen und zum Display zu schicken (das ist übrigens eher konfigurierbare Hardware als Software, die das handhabt). Soweit so bekannt.
Will man jetzt den Framebuffer über die iGPU ausgeben, ist natürlich eine gewisse Kommunikation zwischen iGPU und dGPU nötig (was bei Notebooks aber sogar herstellerübergreifend funktioniert und bei CPU und GPU aus einer Hand wohl kein größeres Problem darstellen sollte). Aber im Prinzip liest die dGPU dann den Framebuffer aus ihrem VRAM im Idealfall nicht zur eigenen Displayengine, sondern zu der der iGPU aus. Das eigentliche Lesen des VRAMs unterscheidet sich nicht.
Bei Kombination verschiedener Hersteller ist vermutlich das Anlegen einer Kopie des Framebuffers üblich. Die dGPU kopiert ihren Framebuffer per PCIe in den RAM der iGPU und bei Fertigstellung des Vorgangs erfolgt der Bufferflip auf der iGPU (weswegen man ja z.B. bei Kombination von nV dGPU und AMD APU quasi Adaptive Sync [in allerdings eingeschränkter Funktionalität] nutzen konnte, bevor nV-GPUs ASync konnten). Dies kostet nicht nur etwas Zeit sondern vor allem auch Speicherbandbreite (auf CPU/iGPU-Seite) und somit gegebenenfalls etwas Framerate.
An dem Ablauf ist insbesondere bei der Kopiermethode nichts wirklich zeitkritisch (keine supergenaue Synchronisation nötig, das just-in-time-streaming zur iGPU ist etwas anspruchsvoller, sollte aber über PCIe eigentlich möglich sein [man streamt halt zur Displayengine der iGPU statt zur der der dGPU], die Latenz der Kommunikation über PCIe [sub-µs] sollte locker dafür ausreichen, VRAM-Latenz ist nicht mehrere Größenordnungen schneller).

aufkrawall
2022-09-09, 17:51:55
Gibt es Code im Linux-Kernel dafür und hat jemand Lust das zu analysieren? :-)
Siehe etwa https://www.phoronix.com/news/RADV-Optimize-PRIME
Unter Wayland dürfte auch Vsync kein Problem sein.

Gipsel
2022-09-09, 18:06:38
7600x Benches mit und ohne CPB.

https://videocardz.com/newz/amd-ryzen-5-7600x-tested-in-cinebench-r23-with-amd-core-performance-boost-disabled

5.45 GHz 110 Watt Temperatur Limitiert bei 92°.
Offizieller Boosttakt 5,3GHz, fmax-Limit dann bei 5,45GHz und der läuft bei 110W quasi auch allcore mit 5,45GHz (mindestens 5,35 GHz wenn Score linear mit Takt skalieren würde)? Also single-Core-Max=allcore-Max, solange man unter 95°C bleibt oder wie?
Bei deaktiviertem Boost läuft er dann fix bei Basetakt von 4,7GHz und 60W. Die Scores passen ja anscheinend dazu (wann man berücksichtigt, daß der Speicher z.B. nicht mit dem Takt mitskaliert):
5,45/4,7: +15,9%
ST-Test: +14,2%
MT-Test: +13,5%

Sieht doch jetzt nicht so schlecht aus. Wer will kann ja einfach das PPT auf 90W oder so setzen. Dann bleibt man auch unter 90 80°C und erreicht trotzdem über 5GHz allcore.
Im Übrigen sind die Daten von internen Temperatursensoren traditionell schlecht zwischen Herstellern, aber auch CPU-Generationen vergleichbar, da nicht immer das Gleiche gemessen wird.

PJ
2022-09-10, 09:22:47
>90°C bei nur 110W halte ich allerdings für absoluten Quatsch mit einer 240mm AiO.
Where it was said 7600X cooled with the AIO? I'd guess some cheap air cooler used instead based on the temps reported.

The_Invisible
2022-09-10, 09:37:58
Bei Single CCD Last ist es ja auch unerheblich, ob da noch ein zweites sitzt ;) Ich meinte mehr Cinebench und andere Anwendungen, wo alle Cores ausgelastet werden

Aso, jap da liegt die Temp nur im mittleren bis hohen 60er Bereich obwohl 140W Auslastung. Ich hoffe AMD kann hier bei den 7000ern zaubern und kann diese Problematik entschärfen, sieht aber nicht so aus :D

Platos
2022-09-10, 09:45:05
Where it was said 7600X cooled with the AIO? I'd guess some cheap air cooler used instead based on the temps reported.

Im Videocardz-Link. Da steht dual-fan AiO.

PJ
2022-09-10, 10:25:05
Im Videocardz-Link. Da steht dual-fan AiO.
Ah... indeed. Then probably something is off with a cooling itself or even incorrect Tctl setup.
Still it's not clear what they mean
"tempetature limited" when the cpu hit the clock limit in MT according to hwinfo64? Or may be 5450 is actually ST clock kept in sensor panel aftet consecutive ST and MT runs?

OpenVMSwartoll
2022-09-10, 16:43:17
Ah... indeed. Then probably something is off with a cooling itself or even incorrect Tctl setup.
Still it's not clear what they mean
"tempetature limited" when the cpu hit the clock limit in MT according to hwinfo64? Or may be 5450 is actually ST clock kept in sensor panel aftet consecutive ST and MT runs?

I think it is too soon to draw any conclusions. Perhaps it will take some UEFI updates until the processor behaves like AMD meant it to be.

But like always, early adopters will have some fun.

w0mbat
2022-09-10, 17:17:44
uhh, sogar der salvage 8-Kerner (6-Kerner) wird temepraturlimitiert. Da will ich nicht wissen, wie es mit dem 8-Kerner aussieht.
Besser, da sich die gleiche TDP auf mehr Kerne verteilt.

BlacKi
2022-09-10, 18:42:02
Besser, da sich die gleiche TDP auf mehr Kerne verteilt.nur wenn der verbrauch auch gleich ist. es gibt ja einige 65w tdp cpus von amd, die unterschiedliche verbräuche haben. bei 20w mehr, wird das nicht besser, sondern heißer.

basix
2022-09-10, 19:12:08
Was ich eigentlich nicht so schlecht finde: Den Verbrauch pro Core. Ist je nach Referenzgrösse etwa 1.5...2.0x effizienter als Zen 3 bei selbem Takt.

Annahme: 10W fürs IOD
- 60W --> (60-10)/6 = ~8W bei 4.7 GHz
- 110W --> (100-10)/6 = ~16W bei 5.45 GHz

Nimmt man Anandtechs Werte des 5600X, wären es dort ~10W bei 4.45 GHz und ~12-13W bei 4.65 GHz. Man wäre >1.5x effizienter bei selbem Takt: https://www.anandtech.com/show/16214/amd-zen-3-ryzen-deep-dive-review-5950x-5900x-5800x-and-5700x-tested/8

Beim 5800X sind es aber sogar bereits 14-15W bei 4.45 GHz und ~17W bei 4.7 GHz. Man wäre ~2x effizienter bei 4.7 GHz.

Was ich gespannt bin: Wie das bei den grösseren SKUs aussieht. Ich erwarte >20W pro Core im Peak. Bei 230W könnte es bei einem guten 7950X Sample für 5.5GHz All-Core reichen. Heftig.

PJ
2022-09-11, 00:46:19
Annahme: 10W fürs IOD
- 60W --> (60-10)/6 = ~8W bei 4.7 GHz
- 110W --> (100-10)/6 = ~16W bei 5.45 GHz

Let me correct a little - the PPT and the "core logic power" delta is usually around 20-25W (HWinfo doesn't report power for the DFI and some minor rails, such as S3, VDD18, etc) for the single CCD Vermeer, and so far nothing indicates it'd be lower with Zen4.
5600X @4700Mhz and 1.35V (50mv Vdroop), with F/U/M-CLK 1900, delta is ~24W. So for the 5600 it's closer to 14-15W per core, but still...

dildo4u
2022-09-11, 04:58:18
Was ich eigentlich nicht so schlecht finde: Den Verbrauch pro Core. Ist je nach Referenzgrösse etwa 1.5...2.0x effizienter als Zen 3 bei selbem Takt.

Annahme: 10W fürs IOD
- 60W --> (60-10)/6 = ~8W bei 4.7 GHz
- 110W --> (100-10)/6 = ~16W bei 5.45 GHz

Nimmt man Anandtechs Werte des 5600X, wären es dort ~10W bei 4.45 GHz und ~12-13W bei 4.65 GHz. Man wäre >1.5x effizienter bei selbem Takt: https://www.anandtech.com/show/16214/amd-zen-3-ryzen-deep-dive-review-5950x-5900x-5800x-and-5700x-tested/8

Beim 5800X sind es aber sogar bereits 14-15W bei 4.45 GHz und ~17W bei 4.7 GHz. Man wäre ~2x effizienter bei 4.7 GHz.

Was ich gespannt bin: Wie das bei den grösseren SKUs aussieht. Ich erwarte >20W pro Core im Peak. Bei 230W könnte es bei einem guten 7950X Sample für 5.5GHz All-Core reichen. Heftig.
Die Frage ist ob man die Hitze abführen kann möglich das man 230 Watt in Performance umsetzen kann bringt aber nix wenn die CPU Trottelt.
Ich vermute langsam das AMD zu viel pusht weil sie erwartet haben das Intel massiv zulegt aber laut den Spec bleibt der i9 erstmal bei 250 Watt.

https://www.3dcenter.org/news/modell-spezifikationen-zu-intels-13-core-Generation-bestaetigen-teilweise-alder-lake-zweitverwe

Da können 230W für 7950X nicht im sinvollen Performance/Watt Fenster sein.

Zossel
2022-09-11, 08:09:26
bringt aber nix wenn die CPU Trottelt.

Alles aus Silizium ist sowieso dumm wie Stroh und daher ein Trottel.

Sry, couldn't resist.

basix
2022-09-11, 10:32:19
Let me correct a little - the PPT and the "core logic power" delta is usually around 20-25W (HWinfo doesn't report power for the DFI and some minor rails, such as S3, VDD18, etc) for the single CCD Vermeer, and so far nothing indicates it'd be lower with Zen4.
5600X @4700Mhz and 1.35V (50mv Vdroop), with F/U/M-CLK 1900, delta is ~24W. So for the 5600 it's closer to 14-15W per core, but still...

Yes, measurements with Zen 3 are showing the 20-25W you are mentioning, correct (Anandtech results shows exactly this as well). But I assume, that due to the IOD being manufactured in 6nm now and at the same time using DDR5, the SoC and MEM Power should decrease. Therefore, I made a rough estimation of ~10W instead of ~20W. That value could be off, sure. But if it does not decrease compared to the 12LP IOD of Zen 2/3, I would be heavily surprised.

Anyways, if the SoC Power increases, the per core power of Zen 4 would look even better ;) But I hope, that SoC Power drops. Because it is beneficial regarding power consumption whilst Idle and Low Thread Load.

Da können 230W für 7950X nicht im sinvollen Performance/Watt Fenster sein.

230W wird definitiv nicht im sinnvollen Performance/Watt Fenster liegen ;) Das kann man anhand der 65/105/170W Benches von AMD ablesen. Beste Performance/Watt wird man vermutlich bei ~100W Realverbrauch erreichen. Mit dann halt "nur" noch ~4.5 GHz oder so auf allen Cores.

Achill
2022-09-11, 10:46:10
Let me correct a little - the PPT and the "core logic power" delta is usually around 20-25W (HWinfo doesn't report power for the DFI and some minor rails, such as S3, VDD18, etc) for the single CCD Vermeer, and so far nothing indicates it'd be lower with Zen4.
5600X @4700Mhz and 1.35V (50mv Vdroop), with F/U/M-CLK 1900, delta is ~24W. So for the 5600 it's closer to 14-15W per core, but still...

Hey PJ, where can I find the PowerTableMonitor util seen in our second screenshot?

PJ
2022-09-11, 12:37:14
Hey PJ, where can I find the PowerTableMonitor util seen in our second screenshot?
Hi!
It's in Rusanov's utility
https://github.com/irusanov/SMUDebugTool
But I had to add labels to the PM monitor and build it myself to the forked sources, since they were missing in the original project atm.
If you have a single CCD Vermeer my build will probably work with a minor fixes, but for the two-CCD CPU you'll have to add PM table labels and build project yourself to make it work, because PM tables are differ much for one and two CCD models.
Let me know if you need it (assuming you're on 5800x3d atm).

Pirx
2022-09-13, 10:57:47
heute kommen die Tests?

basix
2022-09-13, 11:13:11
heute kommen die Tests?

Erst nächste Woche: https://www.3dcenter.org/news/news-des-8-september-2022

DozerDave
2022-09-13, 13:12:00
Schade

M4xw0lf
2022-09-13, 18:56:57
Angeblich doch erst am 26.

Neurosphere
2022-09-13, 19:06:32
http://tiebapic.baidu.com/forum/w%3D580/sign=85da75329400baa1ba2c47b37712b9b1/26c1f703918fa0ec121ddcd3639759ee3c6ddb23.jpg?tbpicau=2022-09-16-05_b638f25becea0aed3234a8b83dbe280a

http://c.tieba.baidu.com/p/8016898281

fondness
2022-09-13, 19:24:31
http://tiebapic.baidu.com/forum/w%3D580/sign=85da75329400baa1ba2c47b37712b9b1/26c1f703918fa0ec121ddcd3639759ee3c6ddb23.jpg?tbpicau=2022-09-16-05_b638f25becea0aed3234a8b83dbe280a

http://c.tieba.baidu.com/p/8016898281

Das wäre kaum weniger Takt wie ohne 3D Cache. Entsprechend werden aus den +15% bei zen3 vermutlich eher +20% bei zen4.

Tarkin
2022-09-14, 08:13:51
IPC Vergleich SPECint und SPECfp Vergleich von Raptor, Alder und Raphael

https://twitter.com/OneRaichu/status/1569904688933531649

quasi identische IPC @fixed clocks (3,6Ghz)

Ein Vergleich zu Zen 3 wäre interessant!

basix
2022-09-14, 08:26:11
IPC Vergleich SPECint und SPECfp Vergleich von Raptor, Alder und Raphael

https://twitter.com/OneRaichu/status/1569904688933531649

quasi identische IPC @fixed clocks (3,6Ghz)

Ein Vergleich zu Zen 3 wäre interessant!

Wurde da einfach der Durchschnitt der Scores gerechnet? Das funktioniert mMn nicht. Man müsste das in Prozent umrechnen und relativ zueinander vergleichen, da ansonsten die unterschiedlichen Werte der Subtests (4...20) automatisch eine Gewichtung ergeben und das Ergebnis verzerren. Ich nehme ja mal an, jeder Subtest ist gleich wichtig / gewichtet?

Edit
Spec Rates von andere CPUs inkl. Zen 3:
https://www.anandtech.com/show/17047/the-intel-12th-gen-core-i912900k-review-hybrid-performance-brings-hybrid-complexity/7
Hier wird anscheinend aber auch nur der Durchschnitt über alle Subtests gebildet.

Der_Korken
2022-09-14, 08:34:56
Stichprobe sieht für mich so aus, als wären die Gesamtscores im Screenshot jeweils das geometrische Mittel.

basix
2022-09-14, 08:42:19
Das würde besser passen ;)

Platos
2022-09-14, 09:46:47
http://tiebapic.baidu.com/forum/w%3D580/sign=85da75329400baa1ba2c47b37712b9b1/26c1f703918fa0ec121ddcd3639759ee3c6ddb23.jpg?tbpicau=2022-09-16-05_b638f25becea0aed3234a8b83dbe280a

http://c.tieba.baidu.com/p/8016898281

Was bedeuten die 16 und 32 da ?

Freestaler
2022-09-14, 10:05:59
CORE/Threads falsch? W und MB wurden wohl auch vertauscht. (192,192,96 solltenb wohl Cachegrösse sein). Halte die Tabelle für nen Fake.

r3ptil3
2022-09-15, 11:27:33
Woher kommt jetzt der 27.09 für die Reviews?

Ist doch der 20.09?

Lehdro
2022-09-15, 15:35:06
Angeblich sind die Reviews wegen UEFI Problemen verschoben worden.

Langlay
2022-09-15, 17:39:28
Angeblich sind die Reviews wegen UEFI Problemen verschoben worden.

Das würde dann bedeuten das die ganzen Board die du am Anfang kaufen kannst crappy UEFIs haben. Weil die in 3 Wochen im Laden stehen sollen, sollten schon aufm Schiff sein.

Zossel
2022-09-15, 17:58:59
Angeblich sind die Reviews wegen UEFI Problemen verschoben worden.

UEFI ist qua Definition ein Problem.

Lehdro
2022-09-15, 18:06:44
Das würde dann bedeuten das die ganzen Board die du am Anfang kaufen kannst crappy UEFIs haben. Weil die in 3 Wochen im Laden stehen sollen, sollten schon aufm Schiff sein.
Flashbacks zum Ryzen 1000 Launch :mad:

r3ptil3
2022-09-15, 18:16:30
Wäre sehr schade wenn durch die renommierten deutschen Hardware-Seiten im Fazit wirklich genau dies als negativer Punkt erwähnt wird.

Habe mir schon erhofft, dass AMD genau solche Probleme nun mit einer neuen Generation von Beginn an besser in den Griff hat.

Ansonsten wie bereits durch die vorherigen Generationen bekannt: 6 Monate-Reifezeit für AGESA einrechnen und dann (vermutlich zeitgleich mit Zen4 3D-Cache) in die neue Plattform investieren.

y33H@
2022-09-15, 20:50:20
Raphael ist kein Summit Ridge =)

Platos
2022-09-15, 21:33:25
Wäre sehr schade wenn durch die renommierten deutschen Hardware-Seiten im Fazit wirklich genau dies als negativer Punkt erwähnt wird.

Warum? Wenn/Falls es dann bei Launch ein Problem gibt, dann wäre es als Journalist fahrlässig, es nicht zu erwähnen. Die Tests sind Kundenberatung und da erwähnt man natürlich einen negativen Punkt dann auch im Fazit.

Sardaukar.nsn
2022-09-15, 21:52:03
Bis zu 5,8 Ghz, aber nur wenn man unter 50°C bleibt. https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/59471-amds-ryzen-9-7950x-soll-unter-50-celsius-mit-bis-zu-5-85-ghz-laufen.html

Wie realistisch ist das wohl? Mein 5800x liegt mit 5 Ghz im Single-Thread Benchmark schon drüber.

https://i.imgur.com/aii44Oz.jpg

Birdman
2022-09-15, 21:55:30
auf 1-2 Cores sollte das bei einem 9550x mit anständigem Cooler durchaus gehen, wenn das OS die entsprechenden Threads relativ zügig von einem Kern auf den nächsten schubst.

r3ptil3
2022-09-15, 22:39:46
Bis zu 5,8 Ghz, aber nur wenn man unter 50°C bleibt. https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/59471-amds-ryzen-9-7950x-soll-unter-50-celsius-mit-bis-zu-5-85-ghz-laufen.html

Wie realistisch ist das wohl? Mein 5800x liegt mit 5 Ghz im Single-Thread Benchmark schon drüber.

https://i.imgur.com/aii44Oz.jpg

Wenn die Zen4 CPUs Curve Optimizer "freundlich" sind, dann sieht das sowieso nochmals ganz anders aus.

Bin gespannt was bei einem 7950X mit optimalen CO -30 Werten für eine Performance rauskommt.

Dürfte nochmals locker 10%+ Leistung obendrauf schlagen.

PJ
2022-09-15, 23:23:58
Wie realistisch ist das wohl? Mein 5800x liegt mit 5 Ghz im Single-Thread Benchmark schon drüber.

Why not? The question is how much power an individual core consume at 5.8g, given that light-medium ST max boost for Zen3 is around its FIT limit at 55°C and Zen4 package presumably have higher thermal resistance at +800mhz.

PJ
2022-09-15, 23:35:53
Dürfte nochmals locker 10%+ Leistung obendrauf schlagen.
Idk ) It's hard to expect tbh such a bounty from amd this time considering the pressure from Intel on a perfomance side.

HOT
2022-09-19, 15:53:43
https://www.techpowerup.com/298992/gigabyte-z690-b660-and-follow-up-motherboards-will-support-amd-expo-memory

Sehr interessant, scheint EXPO scheint ja ziemlich durchzustarten, hätt ich nicht gedacht.

r3ptil3
2022-09-19, 17:05:46
Das Gigabyte Aorus Master X670E ist in der Schweiz lagernd und innerhalb von mind. 4 Tagen lieferbar (Foletti).

dildo4u
2022-09-20, 09:18:50
Sollten die Reviews Heute kommen oder erst zum Launch?

GrimReaper85
2022-09-20, 11:35:26
Gigabyte Aorus Master X670E sollte 360 Dollar kosten, das sind 430€:
https://www.guru3d.com/news-story/gigabyte-displays-its-x670e-and-x670-motherboardsand-their-pricing-are-known.html
Obwohl 550 € immer noch kein schlechter Preis für ein funktionsreiches Motherboard sind, das Sie 6 Jahre lang halten wird. Ich plane, in etwa 3 Jahren auf Zen 6 aufzurüsten.

Äquivalente ASUS Strix Boards werden voraussichtlich bei 700€ starten.

The_Invisible
2022-09-20, 11:43:36
Wäre auch mein Gedanke, ein fetteres Board nehmen mit 10G, viel m.2 und PCIe5 und dann einfach immer die CPU austauschen.

Aber mal sehen was die Reviews sagen

Ravenhearth
2022-09-20, 12:23:56
Sollten die Reviews Heute kommen oder erst zum Launch?
Angeblich nächsten Montag

r3ptil3
2022-09-20, 12:41:33
Obwohl 550 € immer noch kein schlechter Preis für ein funktionsreiches Motherboard sind, das Sie 6 Jahre lang halten wird.
Äquivalente ASUS Strix Boards werden voraussichtlich bei 700€ starten.

Zen4 + Zen4 3D-Cache
Zen5 + Zen5 3D-Cache

Von mehr Support wird man wohl träumen können.

Gemäss chinesischen Leaks kommen die Tests am 26.09.

mboeller
2022-09-20, 13:16:47
Von mehr Support wird man wohl träumen können.


warum?

AM4 = DDR4
AM5 = DDR5
AM6 = DDR6 (???)

laut wiki wird DDR6 erst 2024 definiert. Bis das auf dem Markt ist vergehen noch einige Jahre. Das hat ja schon bei DDR5 einige Jahre gebraucht (nachdem der Standard definiert war).

https://de.wikipedia.org/wiki/DDR-SDRAM#%E2%80%9EPost-DDR5%E2%80%9C-SDRAM

Platos
2022-09-20, 13:35:48
Falls der Sockel bis vor DDR6 benutzt wird, heisst das noch lange nicht, dass auch die ersten AM5 Boards dann mit CPUs der letzten AM5 Generation lauffähig sind.

Also nur weil der Sockel weiterhin genutzt wird, muss das nicht bedeuten, dass die neuesten CPUs auf den ältesten AM5 Boards lauffähig sind.

MSABK
2022-09-20, 13:55:05
Falls der Sockel bis vor DDR6 benutzt wird, heisst das noch lange nicht, dass auch die ersten AM5 Boards dann mit CPUs der letzten AM5 Generation lauffähig sind.

Also nur weil der Sockel weiterhin genutzt wird, muss das nicht bedeuten, dass die neuesten CPUs auf den ältesten AM5 Boards lauffähig sind.

Irgendwann wird es einen cut geben und neue CPUs nur auf bestimmten neuen Chipsätzen laufen werden bei AM5. Alleine schon damit die Hersteller neue Boards anbieten können.

Platos
2022-09-20, 14:11:37
Ja, wie ich sage. Nur weil AM5 x Jahre supportet wird, heisst das noch lange nicht, dass alle CPUs auf allen Chipsätzen laufen, so wie man es sich vlt. vorstellt.

HOT
2022-09-20, 14:47:33
warum?

AM4 = DDR4
AM5 = DDR5
AM6 = DDR6 (???)

laut wiki wird DDR6 erst 2024 definiert. Bis das auf dem Markt ist vergehen noch einige Jahre. Das hat ja schon bei DDR5 einige Jahre gebraucht (nachdem der Standard definiert war).

https://de.wikipedia.org/wiki/DDR-SDRAM#%E2%80%9EPost-DDR5%E2%80%9C-SDRAM

AM2 = DDR2
AM3 = DDR3

Lehdro
2022-09-20, 14:52:51
AM2 = DDR2
AM3 = DDR3
AM1 = DDR3 (https://de.wikipedia.org/wiki/Sockel_AM1) :P

HOT
2022-09-20, 15:02:35
Ach ja stimmt, den gabs ja auch kurzzeitig :D. Der Name war halt noch frei, bei DDR1 hießen die Sockel ja 754 und 939 (940 für Server/WS).

Lehdro
2022-09-20, 15:16:31
Ach ja stimmt, den gabs ja auch kurzzeitig :D. Der Name war halt noch frei, bei DDR1 hießen die Sockel ja 754 und 939 (940 für Server/WS).
Und Sockel A, Athlon/XP hatte auch schon DDR1.
Von den FM(x) Sockeln reden wir lieber nicht, da geht dann alles verquer.

Ich hoffe aber AMD hat aus AM4 gelernt und zieht solche Spielereien nicht wieder ab. Wenn Support, dann doch bitte durchgehend. Von mir aus leicht verzögert, damit die Boardpartner das vorbereitet ausrollen können, aber die generelle Kompatibilität wie Stand jetzt bei AM4 ist sehr erstrebenswert.

mboeller
2022-09-20, 15:24:40
Ja, wie ich sage. Nur weil AM5 x Jahre supportet wird, heisst das noch lange nicht, dass alle CPUs auf allen Chipsätzen laufen, so wie man es sich vlt. vorstellt.

Wie kommst ihr nach AM4 darauf, dass AMD es bei AM5 jetzt anders handhaben wird?

https://www.golem.de/news/sockel-am4-im-test-ein-ryzen-upgrade-nach-fuenf-jahren-ist-der-wahnsinn-2206-165937.html


Ein 2017 gekauftes Mainboard mit X370- oder B350-Chip nimmt sogar den aktuellen Ryzen 5800X3D auf, ein simples Firmware-Update reicht


2022 + 5 Jahre = 2027 ... und bis dahin könnte nach den gegenwärtigen Infos auch DDR6 soweit sein.

robbitop
2022-09-20, 15:33:35
Technisch wird es hoffentlich keine Gründe geben. Chipsätze sind ja seit Zen grundsätzlich gar nicht nötig, damit irgendwas läuft. Sicherlich wird man jetzt auch genug Speicher für das UEFI haben um AGESA zu updaten.
Ich vermute der eigentliche Inhibitor werden die Mainboard Vendors sein - die wollen halt neue HW verkaufen. Und ganz verscherzen will man es sich ggf. nicht mit ihnen.
Rein technisch sollte aber wenig gegen Support für AM5 geben bis es DDR6 gibt.

Ex3cut3r
2022-09-20, 15:37:42
Wirst du jetzt den 4790K endlich wechseln? @ Robbitop? :smile:

davidzo
2022-09-20, 16:43:02
@robbitop: Ist das so dass sich die mainboardvendors immer neue designs wünschen?

Ich hatte bisher den Eindruck dass die Vendors gerade AMDs Update-Modell sehr schätzen, da sie deutlich mehr Produktvielfalt mit geringerem Aufwand anbieten können. AMD bringt ja trotzdem regelmäßig eine neue Plattform, siehe promontory alias X370, B450, A520/B550.
Das spart deutlich an Engineering-Investitionen wenn die Board Schematics im wesentlichen gleich bleiben bzw. sogar zum teil direkte Upgrades per neuem Silkscreen/Aufkleber+Packaging und BIOS-update möglich sind.

Mit Intels Zyklus mitzuhalten ist deutlich kostspieliger und Risikoreicher falls man auf den lastgen boards sitzen bleibt. Dafür bietet Intel im Gegenzug deutlich mehr EDA-support und erfahrene Field Engineers an die den Boardvendors bei der Umsetzung helfen.

Zossel
2022-09-20, 18:46:33
Dafür bietet Intel im Gegenzug deutlich mehr EDA-support und erfahrene Field Engineers an die den Boardvendors bei der Umsetzung helfen.

Dafür machen die ARM-Cores bei den ZENs wesentlich mehr Kram was bei Intel der MB-Vendor selbst in die Firmware frickeln muss.

Bei Intel hat sich wohl im Laufe der Jahre einiges an hysterisch gewachsenen Altlasten angesammelt.

basix
2022-09-20, 22:57:51
Bei Intel hat sich wohl im Laufe der Jahre einiges an hysterisch gewachsenen Altlasten angesammelt.
Hört sich nicht gut an :D

Neurosphere
2022-09-21, 17:12:02
Es gibt ein Review:

https://www.sisoftware.co.uk/2022/09/21/amd-ryzen-9-7950x-zen4-raphael-review/

Summary: A powerhouse of a CPU: 10/10!

Tangletingle
2022-09-21, 19:57:01
Turbo 5.7ghz :ugly:

Tobalt
2022-09-21, 20:19:40
Man hat scheinbar auf dem Carrier von IDC caps auf X2Y caps umgestellt. möglicherweise hilft das bei dem doch beachtlichen Clockvorteil ggü. Zen3.

Nakai
2022-09-21, 20:22:12
Es gibt ein Review:

https://www.sisoftware.co.uk/2022/09/21/amd-ryzen-9-7950x-zen4-raphael-review/

Dafuq! Holy shit!

Redneck
2022-09-21, 20:23:19
Ich krieg nen Ständer bei den Zahlen.. Und dann noch günstiger als Zen3.
Denke nicht das RKL da mithalten kann.. auch nicht mit 6Ghz.

M4xw0lf
2022-09-21, 20:27:01
Hm naja, Sandra ist ja doch ein seehr theoretischer Benchmark, selbst was Synthies angeht.

Tobalt
2022-09-21, 20:39:21
In games bringt es wohl eher der gestiegene Takt, die gesunkene inter core latency, großer cache. Ich schätze ca. +35..40 % auf Zen 3

Nakai
2022-09-21, 20:48:08
Hm naja, Sandra ist ja doch ein seehr theoretischer Benchmark, selbst was Synthies angeht.

Naja synthetisch hin oder her, aber der Sprung zum Vorgänger ist schon sehr beachtlich. Und klar ist das auch dem Takt geschuldet.

Platos
2022-09-21, 20:51:31
Naja über Gaming sagt das natürlich 0 aus.

dildo4u
2022-09-22, 06:40:07
Paar OC Werte mit Wasserkühlung.


https://videocardz.com/newz/amd-ryzen-9-7950x-breaks-four-hwbot-world-records-with-aio-cooler

y33H@
2022-09-22, 08:11:54
At publication time, the products have not been directly tested by SiSoftwareLOL ^^ aber Review dran schreiben ...

KodeX
2022-09-22, 08:30:27
Ist halt nur eine Zusammenfassung von Leaks, kein Review. Aber trotzdem beeindruckend...

Twodee
2022-09-22, 08:39:27
Letztes Slide: Power Efficiency (Perf. vs. Power) (Points/W) +7%
Da hab ich mir mehr erhofft...

M4xw0lf
2022-09-22, 08:41:01
Letztes Slide: Power Efficiency (Perf. vs. Power) (Points/W) +7%
Da hab ich mir mehr erhofft...
Das ist der größte bullshit an diesem "Review" - die vergleichen einfach nur die TDP! ;D

Redneck
2022-09-22, 08:43:49
LOL ^^ aber Review dran schreiben ...

WTF..

Twodee
2022-09-22, 08:44:21
Das ist der größte bullshit an diesem "Review" - die vergleichen einfach nur die TDP! ;D
:facepalm::facepalm::facepalm::facepalm::facepalm:
tatsächlich

y33H@
2022-09-22, 09:45:28
AMD sagte ja schon, die Effizienz geht krass hoch bei 16C @ 142W PPT.

fondness
2022-09-22, 09:59:35
AMD sagte ja schon, die Effizienz geht krass hoch bei 16C @ 142W PPT.

Ja, schade dass man dann trotzdem für ein paar Prozent mehr MT Leistung die TDP derart erhöht statt 3 ccx zu verbauen.... Aber gut ist billiger.

davidzo
2022-09-22, 10:21:34
Ja, schade dass man dann trotzdem für ein paar Prozent mehr MT Leistung die TDP derart erhöht statt 3 ccx zu verbauen.... Aber gut ist billiger.

Man sieht ja schon dass diese TDP eigentlich nur für 16C/32T allcore AVX512 gebraucht wird weil da die register anfangen zu glühen. In normalen Integerworkloads oder normalem FP-code braucht man das nicht. Zen3 und Zen4 sollte man mit dem gleichen instruction set vergleichen was den Verbrauch angeht. AVX512 kommt dann einfach on top. Btw, die Effizienz pro Workload ist doch aber gerade in diesen Szenarien welche die TDP fast voll ausnutzen extrem hoch.

Die TDP Ratings sind nicht wegen Zen4 gewachsen, sondern weil AM5 die Plattform der nächsten jahre ist und AMD nicht wieder in die Situation kommen will dass Intel einfach die Spielregeln ändert und die TDP verdoppelt wie sie es aus Verzweiflung bei coffe lake refresh und comet lake gemacht haben. AMD hatte die besseren CPUs, aber die legacy Plattform und konnte somit einfach nur zugucken. Das wird man mit AM5 nicht wiederholen wollen.

Neurosphere
2022-09-22, 10:40:53
https://twitter.com/TUM_APISAK/status/1572861275834503168

6,5 Ghz allcore. Keine Ahnung welche Kühlung:

https://pbs.twimg.com/media/FdPs831VIAAXME2?format=png&name=small

amdfanuwe
2022-09-22, 10:43:24
Das wird man mit AM5 nicht wiederholen wollen.
Seh ich auch so.
Ist ja auch nicht unwahrscheinlich, dass man noch 24/32 Core CPUs auf AM5 bekommt. Wär doch blöd, wenn die All-Core wegen TDP runtertakten müssen wie das bei 3950 der Fall war.
Mal sehen, ob nächstes Jahr schon mehr Cores mit ZEN4 kommen.
Ein 8Core 3D Cache Chiplet + 16 Core ZEN4c Chiplet könnte schon interessant sein.
Ansonsten auf ZEN5 warten für mehr Cores.

Sunrise
2022-09-22, 10:59:28
https://twitter.com/TUM_APISAK/status/1572861275834503168

6,5 Ghz allcore. Keine Ahnung welche Kühlung:

https://pbs.twimg.com/media/FdPs831VIAAXME2?format=png&name=small
Das wird wohl LN2 sein, verglichen mit Ergebnissen vom 5950X und der sehr hohen Vcore Spannung. Wobei das nur minimal mehr ist als die Ergebnisse im Netz vom Vorgänger… nichts Genaues weiß man nicht.

unl34shed
2022-09-22, 16:13:04
https://www.computerbase.de/2022-09/am5-mainboards-amd-laedt-zur-vorstellung-der-b650-e-modelle/

650 Mainboards werden am 4.10 gezeigt

E: dummer google news ticker das ist ja schon alt...

davidzo
2022-09-22, 19:06:00
Mittlerweile ist das 7700x "review" auch online ;D

https://www.sisoftware.co.uk/2022/09/21/amd-ryzen-7-7700x-zen4-raphael-review/

12700k ist manchmal noch schneller, durch die 4x zusätzlichen cores und threads. Im Schnitt liegt der 7700x leicht vorne. beeindruckend mit weniger Cores und geringerer TDP.

Tobalt
2022-09-22, 19:33:35
Bei jedem neuen Zen wird der jeweilige Vorgänger vollständig zerschrottet :freak:

Aber auch Alder Lake sieht in dem Review ganz gut aus. Klar in Perf/W nicht mehr konkurrenzfähig, aber wäre interessant zu sehen, was Intel könnte, wenn sie ihre Litho besser im Griff hätten.

Blediator16
2022-09-22, 20:34:41
Bei jedem neuen Zen wird der jeweilige Vorgänger vollständig zerschrottet :freak:

Aber auch Alder Lake sieht in dem Review ganz gut aus. Klar in Perf/W nicht mehr konkurrenzfähig, aber wäre interessant zu sehen, was Intel könnte, wenn sie ihre Litho besser im Griff hätten.

Hätte hätte Fahrradkette.

basix
2022-09-22, 21:29:13
Zen wurde wirklich von Generation zu Generation ein gutes Stück besser. Aber man muss auch sagen, dass Alderlake im grossen und ganzen nicht so schlecht ist, wenn man ihn an die Watt-Leine legt (über die E-Cores kann man sich streiten). Und man muss auch anmerken, dass Zen 4 nun +1 Node vorne liegt. Auf dem Desktop ist es schon in der Nähe eines Kopf an Kopf Rennens. Bei Mobile und Server hat Intel aber keine Chance, spätestens wenn Zen 4 dort aufschlägt.

dargo
2022-09-25, 08:14:48
https://twitter.com/TUM_APISAK/status/1572861275834503168

6,5 Ghz allcore. Keine Ahnung welche Kühlung:

https://pbs.twimg.com/media/FdPs831VIAAXME2?format=png&name=small
Kann nur LN2 sein.

ccg6aU7Hmjw

M4xw0lf
2022-09-25, 15:22:41
Nochmal CB-Werte: https://videocardz.com/newz/amd-ryzen-7950x-7900x-7700x-7600x-stock-cinebench-scores-leaked?s=09

Alle wenn ich mich nicht irre etwas niedriger als bisher so umhergeschwirrt war.

davidzo
2022-09-26, 01:58:04
7,25Ghz 1-Core Takt.

https://twitter.com/TUM_APISAK/status/1572858941490331648/photo/1

1,5Volt sieht doch noch human aus. 7Ghz - neue 24/7 Settings mit Wakü+Chiller ;D

Cherubim
2022-09-26, 08:54:59
Moin,

ist schon was über einen Review-Release bekannt? Wurde ja irgendwie immer weiter zurück geschoben und morgen soll ja der launch sein.

KodeX
2022-09-26, 08:55:03
Kennt ihr schon diesen durchgesickerten Test?

https://uploads.disquscdn.com/images/f72d04efd5924ac6bc58d78227a5a55628b62920a8b02af8e72a498f6e6b9c5a.png
https://uploads.disquscdn.com/images/d0a67088fa3e6428434c68a0906ccbcd8d7dfca3709217d93fcadbb61b705dfb.png
https://uploads.disquscdn.com/images/b6ff33d210a9ac5d84a3201aa86d50b0df7a5d36ae12a57b0384e970676767a4.png
https://uploads.disquscdn.com/images/fffceceff0f1b615a8d7f082dc191c396f6288d19aef498d7b19c784299ff493.png

Ich habe die Ergebnisse mal auf die Schnelle zusammengefasst:

https://i.ibb.co/0qpx1mv/leak.png

Sardaukar.nsn
2022-09-26, 09:07:47
Wenn das so stimmt, braucht man Gaming Sicht erstmal kein Upgrade zu Zen 4. Soll denn dort auch ein 3D CPU erscheinen?

Tangletingle
2022-09-26, 09:13:33
Ja

Daredevil
2022-09-26, 09:18:11
Kennt ihr schon diesen durchgesickerten Test?

https://uploads.disquscdn.com/images/f72d04efd5924ac6bc58d78227a5a55628b62920a8b02af8e72a498f6e6b9c5a.png
https://uploads.disquscdn.com/images/d0a67088fa3e6428434c68a0906ccbcd8d7dfca3709217d93fcadbb61b705dfb.png
https://uploads.disquscdn.com/images/b6ff33d210a9ac5d84a3201aa86d50b0df7a5d36ae12a57b0384e970676767a4.png
https://uploads.disquscdn.com/images/fffceceff0f1b615a8d7f082dc191c396f6288d19aef498d7b19c784299ff493.png

Ich habe die Ergebnisse mal auf die Schnelle zusammengefasst:

https://i.ibb.co/0qpx1mv/leak.png
Danke für die Arbeit!
Hier sieht man vor allem auch sehr gut, wo AMD dastehen würde, wenn es den 5800X3D nicht geben würde, zumindest aus Gaming Sicht.
Also der Prozessor wurde offensichtlich schon gezielt da platziert, damit man einerseits dick MT/SC pushen kann in Workloads, aber die ( irrational hohe, da viel Strombedarf ) Hoheit an Intel nicht verliert.
Es ist immer noch erstaunlich, das Intel es schafft, bei AMD mithalten zu können im Gaming nach all den Jahren, wo sie wehement getreten werden. :ugly:

KodeX
2022-09-26, 09:21:00
Das ist aber erstmal nur ein (unvollständiges) Vorab-Review. Die tatsächlichen Endresultate könnten da durchaus noch anders ausfallen.

Daredevil
2022-09-26, 09:21:53
Ja ist schon richtig. :)
Heute ist es ja soweit. Bin mal gespannt ob wir im Gaming nen neuen Champ sehen werden.

dildo4u
2022-09-26, 09:26:32
Der 5800x3d kostet mehr als 7700x das ist kein Zufall, wird Interessant wo das neue 3D Modell von Preise her landet.

Exxtreme
2022-09-26, 09:27:48
Es ist immer noch erstaunlich, das Intel es schafft, bei AMD mithalten zu können im Gaming nach all den Jahren, wo sie wehement getreten werden. :ugly:

Liegt wohl daran, dass die Spiele für Intel angepasst sind. Wäre ja dämlich es nicht zu tun. :)

basix
2022-09-26, 11:05:38
Kennt ihr schon diesen durchgesickerten Test?

https://uploads.disquscdn.com/images/f72d04efd5924ac6bc58d78227a5a55628b62920a8b02af8e72a498f6e6b9c5a.png
https://uploads.disquscdn.com/images/d0a67088fa3e6428434c68a0906ccbcd8d7dfca3709217d93fcadbb61b705dfb.png
https://uploads.disquscdn.com/images/b6ff33d210a9ac5d84a3201aa86d50b0df7a5d36ae12a57b0384e970676767a4.png
https://uploads.disquscdn.com/images/fffceceff0f1b615a8d7f082dc191c396f6288d19aef498d7b19c784299ff493.png
Q
Ich habe die Ergebnisse mal auf die Schnelle zusammengefasst:

https://i.ibb.co/0qpx1mv/leak.png

Interessant sind die 7950X Eco Mode Ergebnisse. 89W anstatt 230W PPT und immer noch ~78% der MT Performance. Und bei 89W ebenfalls ein gutes Stück schneller als der 5950X mit 142W. Ich glaube, dass bei 230W das Ding >5.0 GHz auf allen Cores hämmert, was anscheinend die Energieffizienz den Bach runtergehen lässt.

Verglichen mit einem 5950X @ Eco ist der 7950X @ Eco etwa ~1.5x effizienter: https://www.computerbase.de/2020-11/amd-ryzen-5000-test/5/#abschnitt_multicoreszenarien

davidzo
2022-09-26, 11:18:50
Kennt ihr schon diesen durchgesickerten Test?

Ich habe die Ergebnisse mal auf die Schnelle zusammengefasst:

https://i.ibb.co/0qpx1mv/leak.png

Danke für deine Arbeit.
Ich wundere mich über die eher mauen Gaming-Ergebnisse.
Im gaming sollten eigentlich die höchsten Zuwächse zu verzeichnen sein, bei den Änderungen die Zen4 bringt:
- viel höherer Takt
- doppelter L2
- verbesserte FPU
- geringere core to core Latenz
- bessere Speicherlatenz durch höheren IFtakt
- Mehr Bandbreite durch DDR5-6000

Was waren denn die test Specs?
Kann sein dass die Ergebnisse mit Gammel DDR5 enstanden sind (4800?). Ich hatte erwartet das Zen5 in Spielen richtig glänzt. Sicher wird der x3d in manchen Titeln uneinholbar vorne sein, aber im average hatte ich schon erwartet dass Zen4 das Rennen macht.

Auf Twitter rechnet man aber schon damit dass der 13900K vorne liegt:
https://twitter.com/greymon55/status/1574263997536538624
The 13900K has more gaming perf improvements than the other 13gen SKUs, and I think it will be a bit ahead of the 7950X.
Auf der Habenseite wäre dann aber dass der 7700x mit 8-Core eine identische gaming Perfomance haben soll, während die RTL SKUs deutlich stärker gestaffelt sind (für den 13900k wird Golden sample silicon verwendet).

previous expectations: The 24C raptor lake has better productivity perf and 16c zen4 has better gaming perf.The result is indeed the opposite�� https://twitter.com/greymon55/status/1574270885766508544

You are right, 8c Zen 4 has the same gaming perf of 16c.
�� https://twitter.com/OneRaichu/status/1574228571576356867



Liegt wohl daran, dass die Spiele für Intel angepasst sind. Wäre ja dämlich es nicht zu tun. :)

Nicht wirklich, Spieleentwickler sind ja schon mit GPU Optimierung überfordert, da glaube ich kaum dass sie auf die Feinheiten von zwei CPU µArches optimieren würden.
Intel hatte mit dem Ringbus bisher einfach immer noch die geringeren Core to Core Latenzen, geringere Speicherlatenzen und die für Spiele optimale Cache Konfiguration. Zudem hat Intel seit RKL eine extrem Fette FPU was beduetet dass einige Vektor-Instruktionen bei Intel weniger Zyklen kosten als bei AMD. Daneben zählt gerade bei Vektorlastigem Code auch die Bandbreite und da sind Intels L1 und L2 caches ungeschlagen.
Es gibt genügend normale Gründe, bevor man die Unterschiede auf "unfaires Verhalten" zurückführen könnte.

KodeX
2022-09-26, 11:27:51
Ich habe noch ein paar Bilder.

ECO-Gaming:
https://uploads.disquscdn.com/images/948745a4e7fc7fa23eac4a66b7a64ad8885294861408049b717ca03c74a865c5.png

Verbraucht und Temperatur:
https://uploads.disquscdn.com/images/95e8aec401abed60e4631b7ebf1424f6321d5fd9d17b3ac7d9d4b40cd55e8110.png
https://uploads.disquscdn.com/images/1e156d17a454b041ce2c671747c79e3754ebf54078b68b77f3433d83ca6d3c2e.png

Testsystem:
https://uploads.disquscdn.com/images/9c2ad86576f52c94a84ab3c2264b54efb6de9a6428f5c990e39d72c5aa5269a6.jpg?w=800&h=674
https://uploads.disquscdn.com/images/b46c64fbdaa77f2d0aa9499cdea95fea8823e689ec02f5307b1310a10f72c5ac.png?w=800&h=1034

amdfanuwe
2022-09-26, 11:32:03
hatte ich schon erwartet dass Zen5 das Rennen macht.

Mal abwarten, der kommt ja erst frühestens nächstes Jahr.

Tobalt
2022-09-26, 11:34:46
nur 7% auf Zen 3 in Games??! das kann doch nicht stimmen, außer natürlich es wurde im GPU Limit gebencht.. schon der Takt Vorteil ist mehr als 7%

KodeX
2022-09-26, 11:36:18
Ich habe jetzt die Originalquelle. Hier kommt ihr an alle Bilder des Reviews:

https://www.profesionalreview.com/wp-content/uploads/2022/09/AMD-Ryzen-9-7950X-Review39.png

Zwischen Bild 39 und 84 befinden sich alle Messungen.

basix
2022-09-26, 11:39:02
del

Linmoum
2022-09-26, 11:39:05
Hab ich gestern schon gesehen. Wenn ein 5700X aber plötzlich fast 10% schneller als ein 5800X ist, weiß ich allerdings nicht, was die da für einen Quatsch gebencht haben.

davidzo
2022-09-26, 11:43:08
leider stehen nicht überall die Speichertaktraten dabei.

88,75ns Latenz zu 79ns beim 12900K mit DDR%-5200 sieht aber nicht so gut aus. Gerade nach dem was AMD so tolles über ihren Speichercontroller angekündigt haben hätte ich etwas geringere Latenzen erwartet.

Mit welchem Speichertakt sind die Ergebnisse denn nun entstanden?

BlacKi
2022-09-26, 11:43:37
idle verbrauch
ich bette es mal nicht ein. damit es nicht gleich wieder verschwindet.
https://www.profesionalreview.com/wp-content/uploads/2022/09/AMD-Ryzen-9-7950X-Review56.png

verbrauch oc last
https://www.profesionalreview.com/wp-content/uploads/2022/09/AMD-Ryzen-9-7950X-Review59.png

M4xw0lf
2022-09-26, 11:44:50
nur 7% auf Zen 3 in Games??! das kann doch nicht stimmen, außer natürlich es wurde im GPU Limit gebencht.. schon der Takt Vorteil ist mehr als 7%

Jo, das schaut ziemlich fragwürdig aus. Naja, wenige Stunden bis zu den ordentlichen Reviews. Ich hab schon Bock :usweet:

Cherubim
2022-09-26, 11:47:30
Ich hab schon Bock :usweet:

Dito. Hab mir eben gedacht "fuck it" und 32GB DDR5 PC6000 CL30 bestellt.

Ich brauch wieder was zu basteln.

M4xw0lf
2022-09-26, 11:49:00
Ich beschränke mich aufs abnerden mit Reviews von allen anständigen Quellen, mein 5800X3D muss nicht um seine Stelle fürchten :D

BlacKi
2022-09-26, 11:50:34
kann gelöscht werden

Radeonfreak
2022-09-26, 11:51:36
Ich beschränke mich aufs abnerden mit Reviews von allen anständigen Quellen, mein 5800X3D muss nicht um seine Stelle fürchten :D

Cerise würde dir dann mit dem Nudelholz eins überkloppen.

Exxtreme
2022-09-26, 11:51:36
Ich hab schon Bock :usweet:

Mich juckt's auch krass in den Fingern. X-D

r3ptil3
2022-09-26, 11:56:06
Der TimeSpy Score sieht nach CPU Score aus.
15'600 CPU-Score hatte ich bereits mit einem 5900X (CO+RAM optimiert).
Für einen 7950X klingt das viel zu wenig.

Gut, dass sowas in wenigen Stunden geklärt sein sollte.
Mir bekommt aber der Eindruck, dass der 5800X3D nach dem Launch heute, noch besser aussehen wird, als zum eigenen Release im April (Gaming-Leistung/Verbrauch).

BlacKi
2022-09-26, 11:58:21
gibts hinweise welcher ram genutzt wurde?

davidzo
2022-09-26, 12:35:25
gibts hinweise welcher ram genutzt wurde?

Die haben Screenshots mit zwei verschiedenen DDR5-6000 Kits gezeigt.

Allerdings stehen in den Speicherlatenz Diagrammen zwei verschiedene 7950X:
- 69ns 7950X + DDR5 6000
- 89ns 7950X

Also eine sehr erhebliche Differenz.
Was auch immer das letztere für den Speicher bedeutet, es ist sicher nicht 6000, eher sowas wie 4800 oder 5200 wie bei ADL.

Die anderen Werte sind alle mit 7950X beschriftet, also ohne den verwendeten Speicher. Könnte das 5200 sein, was ja die default Speichertaktrate seitens AMD für Raphael ist?

BlacKi
2022-09-26, 12:44:53
Könnte das 5200 sein, was ja die default Speichertaktrate seitens AMD für Raphael ist?


ich nehme mal an amd spec. 6000 ist ja oc. also 5200?

dildo4u
2022-09-26, 12:47:36
Der 3D sieht in dem Test besonderes gut aus sind weil das alte DX11 Games sind immer drauf achten was getestet wird.
Cyberpunk wird z.b komplett anderes auf Zen4 rennen als Far Cry 5.

FastAndy
2022-09-26, 13:40:17
So, noch 20 Min dann heißt es wieder

- zu teuer
- leistung zu gering
- stromverbrauch ein witz
- ...

:biggrin:

Ich persönlich bin schon gespannt. Wobei ich eher die X3D Modelle interessant fände.

davidzo
2022-09-26, 13:46:48
ich nehme mal an amd spec. 6000 ist ja oc. also 5200?

Naja, EXPO ist auch AMD Spec und bei einer Highend SKU wie dem 7950x sollte man imo schon davon ausgehen dass der mit EXPO memory mit 6Ghz läuft. Ebenso wie ein 12900K selten mit DDR5 4800 CL40 betrieben wird.
Bei performance SKUs und midrange würde ich das akzeptieren wenn man 5600er oder gar 5200er memory nimmt.
Hell yeah, den 7600X würde ich sogar mit günstigsmöglichem DDR5 befeuern, also 4800, damit er preislich konkurrenzfähig zu einem 12600K + DDR4 3200 ist.

Mortalvision
2022-09-26, 14:11:34
So, noch 20 Min dann heißt es wieder

- zu teuer
- leistung zu gering
- stromverbrauch ein witz
- ...

:biggrin:

Ich persönlich bin schon gespannt. Wobei ich eher die X3D Modelle interessant fände.

Noch 49 min :freak:

Duplex
2022-09-26, 23:00:02

ChaosTM
2022-09-26, 23:05:49
Über 7 Brücken musst du gehn ..

Schau dir die Benchmarks nochmal genauer.. an

Savay
2022-09-26, 23:14:46
Schau dir die Benchmarks nochmal genauer.. an

Aber aber...er betreibt seine CPUs seit 20 Jahren mit konstanten 3GHz weil er das schon seit 20 Jahren so macht.
Daran muss sich eine moderne Plattform halt messen lassen. :wink:

basix
2022-09-26, 23:18:16
Zen 4 macht mMn dort die grössten Sprünge, wo man bisher gegenüber Intel am schwächsten ausgesehen hat. Und bei gewissen Anwendungen noch viel mehr (z.B. ML/AI, wo Zen 3 einfach mal um 2x zersägt wird und in gewissen Fällen auch Alderlake weit hinter sich lässt https://www.techpowerup.com/review/amd-ryzen-9-7950x/10.html)

Thunderburne
2022-09-26, 23:53:30
Ich bleibe noch ne weile auf meinem 5800X3D!
Die rockt auf Base und PCGH ordentlich bei den Gaming Tests!
Ich werde das jetzt erstmal weiter beobachten bis Anfang 2024 vielleicht auch Paar Monate länger !

GrimReaper85
2022-09-27, 08:14:24
Ich denke, 7600X wird ein gutes Upgrade von 10900K oder schlechter sein.
Es hat eine zufriedenstellende Spieleleistung (Alder Lake oder 5800X3D Niveau oder knapp darunter), einen guten Verbrauch (max. 100W), eine hervorragende Effizienz und Leistung pro Dollar (nur CPU). Es hat auch keine Temperaturprobleme wie 7700X-7950X, Sie können es auf einem mittelgroßen Luftkühler betreiben, maximal um 85-90°C, in Spielen 70°C, ähnlich wie 5800X.

Sie haben auch das Speicherschreibproblem behoben. Jetzt sind es 80k bei DDR5-6000, 5600X hatte 29k auf 3600 CL14.

Ein gutes Spielbeispiel ist Spider-Man Remastered:
https://www.pcgameshardware.de/Spider-Man-Remastered-Spiel-73740/Specials/Steam-PC-Systemandorderungen-Benchmark-Test-Review-1400598/4/
https://www.pcgameshardware.de/Ryzen-9-7950X-CPU-279068/Tests/AMD-Ryzen-7000-Zen-4-Review-Launch-1403987/4/

10900K - 51,6 FPS
5800X3D - 73,1 FPS
12600K - 75,0FPS
7700X - 80-81 FPS
12900 K - 82 FPS

Fast +60% besser als 10900K.

Auch ein zukunftssicheres ASUS ROG Strix X670E-A, einige gute GPU wie 7900/7900 XT oder 4080 16GB und ich bin seit 5 Jahren gut. Ersetzen Sie einfach die CPU in der Mitte.

Natürlich ist dies nichts für diejenigen auf AM4, Sie können Zen 1 oder Zen 2 auf Zen 3 aufrüsten und 5600X oder 5800X3D sind sowieso immer noch gut.
Aber Intel der 10. Generation war so schlecht, dass ich nicht noch einen Tag warten kann, um es zu ersetzen.

Steve von Gamers Nexus bringt mich immer zum Schmunzeln, dass das 300 Dollar Board schon zu viel für 7600X ist. So wie Sie jedes Jahr ein Board ersetzen und dass alle mit Low End Boards zufrieden sind.
Dasselbe war, als 3070 herauskam und er sagte, es sei das Upgrade von 970 wert. Als wäre es nicht von 1070, 2060S oder 2070.
Nicht alle Menschen sind arm.

Kriegsgeier
2022-09-27, 08:20:20
"Fast +60% besser als 10900K."

Ja, wenn man in 600 x 320 Auflösung spielt ;)

ChaosTM
2022-09-27, 08:25:00
Ja, es gibt immer noch 2-4 Spiele wo Intel 1-3% schneller ist. Wer genau diese spielt -> Intel und auf den Dinosaurier hoffen :)

GrimReaper85
2022-09-27, 08:30:35
Für die CPU-Benchmarks kommen die niedrigste 16:9-Auflösung, maximale Details inkl. Raytracing ohne AF und das maximale Field of View (+25) zum Einsatz.
Niedrigste 16:9, was ist das, 1280x720?

Aber hier ist es genau gleich +57% und es ist 1920x1080:
https://gamegpu.com/action-/-fps-/-tps/marvel-s-spider-man-remastered-test-gpu-cpu


Ich interessiere mich auch für Spielunterschiede zwischen:
6000 36-36-36
6000 32-38-38 (dieser sollte gleich sein?)
6000 30-38-38
6400 32-39-39

Ich hoffe jemand testet es. Nicht, dass ich vorhabe, 100€ teurere 6000 30-38-38 zu kaufen, ich habe nur Interesse an diesem Vergleich.

Die höchsten Bewertungen, die sie erhalten haben, sind 6400 CL32, Hardware Unboxed und eine andere. Speichercontroller ist die Grenze und Sie möchten es nicht 1:2 ausführen.

Hardware Unboxed hat 6400 CL32 und 6000 CL30 getestet, der größte Unterschied war in Spider-Man Remastered, 121 vs. 113 FPS:
https://youtu.be/_WubXd2tXOA?t=1258

Aber ich interessiere mich mehr für verschiedene Timings bei 6000, ob Hynix 6000 CL30 wirklich diese 100€ mehr wert ist als Samsung 6000 CL36.

Badesalz
2022-09-27, 08:34:09
"Fast +60% besser als 10900K."

Ja, wenn man in 600 x 320 Auflösung spielt ;)Die Idee find ich jetzt auch mal erfrischend. Jemand einen Test in 2k und Quali mind. auf high bei all den Kandidaten?
Mundgerecht also für z.B. den ViewSonic VX2705-2KP-MHD? (von dem anscheinend aktuell die meisten FHD-Spieler träumen?)

Und mit der aktuell schnellsten Graka unter Wasser mit reichlich OC (damit sie die CPUs nicht limitiert).

Kriegsgeier
2022-09-27, 08:56:33
mein 8700k @ 5GHz limitiert ja auch noch nicht ein bisschen, da:

3440 x 1440 und immer alles auf HOCH

Plus: seit meinem 3090FE Kauf habe ich ein FPS-Limiter auf 97 FPS stehen. Da ich ein 100 Hz GSync Monitor habe

Badesalz
2022-09-27, 11:59:09
Es wird dich auch keiner wegen einem 8700@5Ghz verachten.

Lass sie rumhampeln ;)

BlacKi
2022-09-27, 12:25:56
Die Idee find ich jetzt auch mal erfrischend. Jemand einen Test in 2k und Quali mind. auf high bei all den Kandidaten?
Mundgerecht also für z.B. den ViewSonic VX2705-2KP-MHD? (von dem anscheinend aktuell die meisten FHD-Spieler träumen?)

Und mit der aktuell schnellsten Graka unter Wasser mit reichlich OC (damit sie die CPUs nicht limitiert).du hast auch in 4k, wenn du im cpu limit, bist diese fps sprünge. diese sprünge sind nicht auf 720p limitiert. und es gibt mit cyberpunk stellen, incl RT wo die fps auf jeden fall weit unter 100fps droppen. in solchen szenen kannst du die 720p benches auch auf 4k übertragen.

man kann zwar persönlich sagen, dass einem das kein upgrade wert ist, aber 2 oder 4k benches als avg wert herzunehmen um zu entscheiden ob die cpu noch tauglich ist, ist schon ziemlich bescheuert.

Badesalz
2022-09-27, 13:39:52
Warum sollte das avg. werden? Oder, sein? Es wäre mal etwas wo Normalos sich nicht erst für sich was zusammenrechnen und reimen müssten. Das war die einzige Idee.

Aber ok. Einem bzw. dem Forum ist das ja dienlich. Man muss sich erst anmelden und dann bei den NErds durchfragen was das für einen selbst bedeutet. Ist ja auch ok :wink:

Platos
2022-09-27, 14:40:56
du hast auch in 4k, wenn du im cpu limit, bist diese fps sprünge. diese sprünge sind nicht auf 720p limitiert. und es gibt mit cyberpunk stellen, incl RT wo die fps auf jeden fall weit unter 100fps droppen. in solchen szenen kannst du die 720p benches auch auf 4k übertragen.

man kann zwar persönlich sagen, dass einem das kein upgrade wert ist, aber 2 oder 4k benches als avg wert herzunehmen um zu entscheiden ob die cpu noch tauglich ist, ist schon ziemlich bescheuert.

Vor allem gibts auch Spiele, die man in 4k Zocken kann und noch weit über 100FPS sind. Also so oder so: 4K und CPU Limit ist nicht unmöglich sollte langsam aber sicher jeder mal begriffen haben.

Gott1337
2022-09-27, 18:12:12
Ja, es gibt immer noch 2-4 Spiele wo Intel 1-3% schneller ist. Wer genau diese spielt -> Intel und auf den Dinosaurier hoffen :)
übertreib doch nicht immer so maßlos... und wenn Intel den Dinosaurier hat, warum ist die IPC da höher?

klar ist Zen zurzeit das bessere Produkt (vor allem zen3) aber dennoch ist Intel nicht weit weg.