PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 4 (Raphael, Phoenix & Genoa, 5 nm, AM5, DDR5, PCIe 5.0, Ende 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25

why_me
2022-10-04, 15:43:20
Ob man 2-3mm wirklich runterschleifen willst? Dafür nimmt man eine Fräse. Ok, da muss man auch höllisch aufpassen, dass man beim festspannen nichts kaputt macht.

Aber die Dicke des IHS hat ja auch einen Grund. Da die CPU wie bei intel über den IHS an 2 punkten in den Sockel gedrückt wird. Kann sich der IHS durch den Druck der Pins durchbiegen.
Ob er jetzt natürlich so dick wie bei Zen4 sein muss, ist eine andere Frage.

MiamiNice
2022-10-04, 15:56:25
Wenn ich die Bilder richtig deute, wird Zen 4 mit der unteren Kante am IHS eingespannt. Oben sollte man daher richtig Gas geben können. Fräse würde ich vermeiden wollen wegen einspannen. Die einfachste Option wäre wohl wenn man das Sandpapier auf den Tisch legt und mit der CPU, geflipppt, Kreise auf dem Sandpapier zieht. Allerdings wird man damit die Schräglage des IHS nicht ausgleichen können, die laut Igor, von der Anpressmaschine kommt, die den IHS auf den CPU drückt.
Man müsste die Oberfläche irgendwie 3mm runter bekommen und den IHS dabei planen für ein optimales Ergebnis. Dann bleibt noch eine Wandstärke von 0,4 bis 0,5mm an der Oberkante am IHS. Das sollte relativ schmerzfrei einige Celvins bringen.
Damit sollte Zen4 immer bis ins Takt oder Powerlimit boosten und auch dort bleiben. Man hebelt das Temp Limit quasi aus. Und kann auch ein wenig besser schlafen - 90°+ auf der CPU sind nicht jedermanns Sache ^^

ryan
2022-10-04, 16:08:57
Von Asus gibt es offizielle Euro UVP Preise für die günstigeren Mittelklasse B650E und B650 Boards:


Die neuen ASUS B650E- und B650-Mainboards sind ab dem 10. Oktober 2022 in Deutschland, Österreich und der Schweiz verfügbar.

Die unverbindlichen Preisempfehlungen betragen:

ROG STRIX B650E-E GAMING WIFI - 428,- EUR / CHF
ROG STRIX B650E-F GAMING WIFI - 366,- EUR / CHF
ROG STRIX B650-A GAMING WIFI - 335,- EUR / CHF
ROG STRIX B650E-I GAMING WIFI - 397,- EUR / CHF
TUF GAMING B650-PLUS WIFI - 288,- EUR / CHF
TUF GAMING B650-PLUS - 272,- EUR / CHF
TUF GAMING B650M-PLUS WIFI - 280,- EUR / CHF
TUF GAMING B650M-PLUS - 258,- EUR / CHF
PRIME B650-PLUS - 242,- EUR / CHF
PRIME B650-PLUS-CSM - 250,- EUR / CHF
PRIME B650M-A WIFI - 242,- EUR / CHF
PRIME B650M-A - 219,- EUR / CHF
PRIME B650M-A-CSM - 225,- EUR / CHF
ProArt B650-CREATOR - 389,- EUR / CHF
https://www.pressebox.de/inaktiv/asus-computer-gmbh/asus-stellt-vier-neue-amd-b650-mainboard-serien-vor/boxid/1130285

Gipsel
2022-10-04, 16:10:45
Könnte man nicht stumpf den IHS 2-3mm abschleifen und einen Kühler verwenden der sich runter drehen lässt? Dann muss man nicht gleich köpfen und hat das Problem trotzdem umschifft und bekommt noch ein paar Mhz mehr raus und hat einen minimal geringeren Verbrauch. Also Win Win Win Win quasi :DOb das viel bringt, hängt stark vom verwendeten Kühler ab. Ich hatte ja schon mal geschrieben, daß Kühler je nach Qualität und Konstruktion unter Umständen mit dem dickeren Heatspreader sogar besser fahren (oder zumindest nicht schlechter). Dies betrifft insbesondere Kühler mit Heatpipes, die sich nicht direkt über den CCDs befinden (sondern z.B. zentral) und hier dann wieder insbesondere welche mit direct contact Heatpipes oder auch Wasserblöcke, in dem sich das Mikrofin-Array (mit passender Ausrichtung) ebenfalls nicht direkt über den CCDs befindet. Hier kann die laterale Verteilung durch den Heatspreader von größerem Vorteil sein, als der erhöhte Wärmewiderstand durch 2mm zusätzliches Kuper kosten. Weiterhin senkt ein dickerer Heatspreader die Anforderungen an die Wärmeleitpaste (weil die effektiv wirksame Kontaktfläche größer wird).

Einfach mal ein paar Zahlen:
Der Heatspreader ist aus ziemlich gutem Kupfer und die Wärmeleitfähigkeit liegt so bei etwa 400W/mK.
2mm zusätzliches Kupfer bei einer effektiven Fläche von ~1cm² haben einen Wärmewiderstand von 0,05K/W (bei 100W auf dem CCD wären das also etwa 5K Temperaturunterschied; IO-Die ist ja räumlich separiert und muß getrennt betrachtet werden).
Relativ gute Wärmeleitpaste liegt bei etwa 8W/mK (ganz billige eher bei der Hälfte). Beim relativ ebenen Heatspreader von Zen4 (durch die höhere Dicke ist der offenbar formtreuer, also ebener als die von intel) sind 50µm Schichtdicke vermutlich halbwegs realistisch. Das wären bei 1cm² dann ein Wärmewiderstand von 0,0625 K/W (bei 100W also gute 6K). Das ist also locker in der gleichen Größenordnung.
Das Interessante ist jetzt, daß ein CCD grob 7mm x 10mm mißt (0,7cm²) und die effektive Kontaktfläche zum Kühler mit dickerem Heatspreader größer wird (weil es im Heatspreader seitlich verteilt wird). Kann man für jeden Einzelfall modellieren (ist ein wenig Aufwand), aber als ganz einfache Annahme (falls Wärmewiderstand im Heatspreader ähnlich wie beim Übergang zum Kühler ist, was ja offenbar ganz gut hinkommt) kann man zu den Dimensionen des Dies jeweils die Dicke des Heatspreader hinzuaddieren, um auf die effektiv genutzte Kontaktfläche zu kommen. Bei 1mm dickem Heatspreader wäre man also bei etwa 8mm x 11mm, bei 3mm dickem Heatspreader schon bei 10mm x 13mm, also bei einer ~50% größeren effektiven Kontaktfläche. Damit sinkt der Wärmewiderstand beim Übergang vom Heatspreader zum Kühler auf etwa 2/3 beim dickeren Spreader. Der Effekt ist bei den oben erwähnten Problemfällen noch deutlich größer als bei perfekt ausgerichteten Mikrofin-Arrays von guten Wasserkühlern. Im Prinzip gibt es also je nach Kühler gewissermaßen eine optimale Dicke des Heatspreaders.

HOT
2022-10-04, 16:17:34
Von Asus gibt es offizielle Euro UVP Preise für die günstigeren Mittelklasse B650E und B650 Boards:



https://www.pressebox.de/inaktiv/asus-computer-gmbh/asus-stellt-vier-neue-amd-b650-mainboard-serien-vor/boxid/1130285
Warte mal 2 Monate, dann kosten die normale Preise. Das ist nicht zu halten auf dem Markt.

Das TUF 650 ist wirklich sehr cool von der Aufteilung her, auch die Gigabyte Aorus gefallen mir sehr gut. Was MSI liefert passt dieses Mal gar nicht zu meinen Präferenzen, obwohl ich derzeit wirklich überall MSI hab. Asrock ist ok.

MiamiNice
2022-10-04, 16:35:32
Das ist interessant Gipsel. Meine Idee war, mit wenig Aufwand/Kosten den Hitzkopf etwas kühler zu bekommen. AMD User haben nicht immer den besten Kühler, weil sie ihn bisher nicht haben musste. D.h. im ungünstigstem Fall handelt man sich mit dem Abschleifen einen Nachteil ein, blöd. Vermutlich ist es besser den IHS einfach so zu lassen oder klassisch, wenn man mehr will, direkt zu köpfen und einen Direct Die Frame, Liquid Metal und WaKü zu verwenden. Nur ist das schon wieder Overkill wenn man das erwartbare + gegenüber stellt.

Irgendwie blöde Situation. 90°+ auf der CPU sehen unschön aus und lassen ggf, den ein oder anderen unruhig schlafen. Tunen ist den monetären Aufwand kaum wert. Bleibt eigentlich nur noch die Möglichkeit die TDP verringern.

Ich bin auf den 3D gespannt, der sollte noch ein Stück stärker heizen.

OpenVMSwartoll
2022-10-04, 16:44:55
[...]

Irgendwie blöde Situation. 90°+ auf der CPU sehen unschön aus und lassen ggf, den ein oder anderen unruhig schlafen. Tunen ist den monetären Aufwand kaum wert. Bleibt eigentlich nur noch die Möglichkeit die TDP verringern.

Ich bin auf den 3D gespannt, der sollte noch ein Stück stärker heizen.

Scheint mir ein Stück weit Kopfsache. Wenn die CPU 95° anstrebt, dann wird das in punkto Haltbarkeit schon kein Problem sein. Also warum sich daran stoßen?

Lehdro
2022-10-04, 16:49:01
Finde das aus anderer Sicht unschön: Lüftersteuerung. Da konnte man früher "einfach" eine passende Lüfterkurve drüber bügeln, jetzt sollte man sich das gut überlegen. Fürs Gaming sicher irrelevant, da man da eher keine 90°C+ sehen wird, aber wenn man damit mal "härter arbeitet", wird das zwangsläufig zu schnell rotierenden Lüftern führen - obwohl man damit nur verursacht dass die CPU noch mehr boostet. Hier gilt es also einen Kompromiss zu finden, was durchaus komplizierter als eine Lüfterkurve sein kann.

Gipsel
2022-10-04, 16:53:04
Scheint mir ein Stück weit Kopfsache. Wenn die CPU 95° anstrebt, dann wird das in punkto Haltbarkeit schon kein Problem sein. Also warum sich daran stoßen?Wer sich wirklich dran stört, stellt im BIOS (oder über Ryzen Master) eine niedrigere PPT ein (oder auch eine niedrigere Zieltemperatur) und lebt dann mit minimal niedrigerer Performance (oder man nutzt gleich den Curve Optimizer noch dazu).
Am Ende wäre es vermutlich für AMD publicitytechnisch besser gewesen, AM5 zwar für bis zu 230W PPT zu spezifizieren, den Ryzen 9 7900X und 7950X aber nur 125W TDP und 170W PPT zu verpassen (wie zwischendurch ja mal vermutet). Da verliert man selbst bei schwersten allcore-Lasten nur minimalst Leistung, bleibt aber (zumindest mit den getesteten AIOs) locker unter 95°C.

Gipsel
2022-10-04, 17:01:12
Finde das aus anderer Sicht unschön: Lüftersteuerung. Da konnte man früher "einfach" eine passende Lüfterkurve drüber bügeln, jetzt sollte man sich das gut überlegen. Fürs Gaming sicher irrelevant, da man da eher keine 90°C+ sehen wird, aber wenn man damit mal "härter arbeitet", wird das zwangsläufig zu schnell rotierenden Lüftern führen - obwohl man damit nur verursacht dass die CPU noch mehr boostet. Hier gilt es also einen Kompromiss zu finden, was durchaus komplizierter als eine Lüfterkurve sein kann.Man darf halt keine Scheu haben, die Lüfterkurve an der persönlichen Nervgrenze hart zu kappen, so daß die Lüfter selbst bei 95°C einfach nicht schneller werden. Damit limitiert man zwar gewissermaßen die Wärmeabfuhr, aber die CPU regelt sich dann darauf ein, um die 95° zu halten. Bei geringeren Lasten erreicht die CPU ja keine 95°C und die Lüfter können dann trotzdem runterregeln.

dargo
2022-10-04, 17:30:44
Von Asus gibt es offizielle Euro UVP Preise für die günstigeren Mittelklasse B650E und B650 Boards:



https://www.pressebox.de/inaktiv/asus-computer-gmbh/asus-stellt-vier-neue-amd-b650-mainboard-serien-vor/boxid/1130285
Lol... die Strix Serie ist praktisch doppelt so teuer bei B650 wie bei B550 zum Release. ;D

amdfanuwe
2022-10-04, 17:30:45
den Ryzen 9 7900X und 7950X aber nur 125W TDP und 170W PPT zu verpassen
Na dann warten wir doch mal die non-X Varianten ab.
Könnten ja von Preis, Leistung, Verbrauch, Temperatur die wahren Knüller werden.

Nightspider
2022-10-04, 18:23:20
Finde das aus anderer Sicht unschön: Lüftersteuerung. Da konnte man früher "einfach" eine passende Lüfterkurve drüber bügeln, jetzt sollte man sich das gut überlegen. Fürs Gaming sicher irrelevant, da man da eher keine 90°C+ sehen wird, aber wenn man damit mal "härter arbeitet", wird das zwangsläufig zu schnell rotierenden Lüftern führen - obwohl man damit nur verursacht dass die CPU noch mehr boostet. Hier gilt es also einen Kompromiss zu finden, was durchaus komplizierter als eine Lüfterkurve sein kann.

Kannst du die Lüfterkurve nicht so einstellen, das die CPU 90 Grad laufen darf und die Lüfter nicht lauter werden?

Dann taktet die CPU doch selbst etwas runter oder?

Weiß jetzt nur nich ob das dramatischer ist, als wenn man von vornherein die TDP senkt.

Wie wir gesehen haben kostet es ja kaum Leistung das Powerbudget etwas einzugrenzen.


Am Ende wäre es vermutlich für AMD publicitytechnisch besser gewesen....

Imo hat AMD die Chance verpasst einfach eine optionale Efficiency Edition auf den Markt zu bringen.

Jeweils 7600EE, 7700EE und noch einen 7900EE wo das Power Target von vornherein schon so gesenkt ist, das man kaum Performance verliert aber die CPU wesentlich effizienter läuft.

Damit hätten sie auch Marketingtechnisch viel besser gegen Intel dagestanden, mit beiden Optionen.

ChaosTM
2022-10-04, 18:32:22
Man hat sich eher von der Marketing Abteilung überfahren lassen.
Bei Games ist ein 65 Watt ZEN4 praktisch genauso schnell wie einer mit 170.
Mit sehr wenigen Ausnahmen.

Man wollte für zukünftige Bechmark-Battles gegen den Raptor gewappnet sein...
Dumm, aber fast verständlich --

Ex3cut3r
2022-10-04, 18:37:46
Lol... die Strix Serie ist praktisch doppelt so teuer bei B650 wie bei B550 zum Release. ;D

Diese Preise für ein B Board sind nicht übel, alter Schwede.

Dr. Lloyd
2022-10-04, 18:39:35
Weiß bereits jemand, weshalb beim kommenden "ASUS ROG Strix B650E-E Gaming WiFi" mit zwei PCIe-Karten auf 8+4 anstatt 8+8 PCIe-5.0 gewechselt wird?

unl34shed
2022-10-04, 19:04:12
Scheint eine 2. PCIe 5 M.2 zu sein, der vom x16 gefüttert wird.

Dr. Lloyd
2022-10-04, 19:22:10
Das wäre dann selbst von ASUS nicht optimal gelöst, wo doch die CPU mit ihren 24 PCIe-5.0-Lanes zwei entsprechende M.2-SSDs ohne Sharing ermöglicht. Bei den anderen Herstellern sieht es jedoch noch schlechter aus. Dort wird beim B650e i.d.R. nur eine M.2-SSD mit PCIe 5.0 unterstützt.

basix
2022-10-04, 21:45:30
Falls sich jemand in das Thema Oxide & Hybrid Bonding ein wenig einlesen will:
https://indico.cern.ch/event/829925/contributions/3514186/attachments/1909219/3154206/STREAM_Final_Meeting_ESR14_Fraunhofer_IZM.pdf
https://www.mdpi.com/2072-666X/7/10/184/pdf

Nightspider
2022-10-16, 15:38:41
https://www.computerbase.de/2022-10/amd-epyc-9004-genoa-server-cpus-benchmarks/

Bei dem 48 Kern Modell, ausgelegt auf hohen Takt, steigt der Basis-Takt von Zen3 mit 2,3 Ghz auf 3,5 Ghz und damit um ~56%. :)

(Beim Boost sind 4Ghz+ angegeben, also kein genauer Wert. 4Ghz wären etwas mehr als 11% über dem Zen3 Pendant)

Wenn AMD so ein Modell mit hohem Takt auch noch mit V-Cache anbieten würde, wäre das die perfekte CPU für Gaming-Server. :D

BlacKi
2022-10-16, 16:06:45
Diese Preise für ein B Board sind nicht übel, alter Schwede.


das geht noch weiter.


geizhals listet 59 boards.



3 mini itx ab 330€, 430€ mit pcie5.0


kein µatx mit 5.0

fondness
2022-10-16, 17:03:12
Diese Preise für ein B Board sind nicht übel, alter Schwede.

Der Euro ist auf den niedrigsten Stand seit einer halben Ewigkeit. Die Preise sind nicht mit früher vergleichbar.

OgrEGT
2022-10-16, 18:22:39
kein µatx mit 5.0


Das ist bitter :frown:
Mal hoffen, dass das salonfähiger wird mit Zen5 :)

just4FunTA
2022-10-16, 18:25:21
Der Euro ist auf den niedrigsten Stand seit einer halben Ewigkeit. Die Preise sind nicht mit früher vergleichbar.

trotzdem von ~80€ auf über 300€ zu gehen ist doch etwas krass..

KarlKastor
2022-10-16, 18:35:23
Das wäre dann selbst von ASUS nicht optimal gelöst, wo doch die CPU mit ihren 24 PCIe-5.0-Lanes zwei entsprechende M.2-SSDs ohne Sharing ermöglicht. Bei den anderen Herstellern sieht es jedoch noch schlechter aus. Dort wird beim B650e i.d.R. nur eine M.2-SSD mit PCIe 5.0 unterstützt.
Ja, sie hätten einen weiteren 5.0 Slot umsetzen können. Aber hier geht es mehr um den 4. M.2 Slot.
Asus verbrät 4 IO Lanes für SATA anstatt PCIe 3.0 und muss deswegen PCIe 4.0 Lanes für WiFi und LAN verschwenden.
MSI macht es als einziger clever. Die erklären SATA zu legacy und nutzen eine PCIe 3.0 Lane um einen SATA-Controller für sechs SATA Ports anzubinden. PCIe 3.0 bleibt für Gerödel frei und die vollen 8 PCIe 4.0 lanes vom Chipsatz bleiben für M.2.
Das ist echt AMDs Achillesverse beim B650. Die hätten 2 PCIe 3.0 Lanes mehr spendieren sollen.

fondness
2022-10-16, 18:43:09
trotzdem von ~80€ auf über 300€ zu gehen ist doch etwas krass..

Die b650 Boards kommen gerade auf den Markt und sind aktuell ab etwas über 200 Euro gelistet.

bbott
2022-10-16, 18:45:23
Die b650 Boards kommen gerade auf den Markt uns sind aktuell ab etwas über 200 Euro gelistet.
Was etwa etwa 160€ bei altem Euro Kurs bedeutet...

aceCrasher
2022-10-16, 22:09:37
Das ist bitter :frown:
Mal hoffen, dass das salonfähiger wird mit Zen5 :)
Ich befürchte das die Verbreitung von guten mATX Boards seit Jahren auf dem absteigenden Ast ist.

bbott
2022-10-16, 22:31:41
Ich befürchte das die Verbreitung von guten mATX Boards seit Jahren auf dem absteigenden Ast ist.
Für was auch mATX? Bei GPUs mit 3-4 Slotkühlung mach fast nur noch itx und ATX wirklich Sinn. Zumal die hohen TDPs auch große Gehäuse quasi verlangen.

Janos
2022-10-17, 00:48:02
wieso sollte matx nicht gehen?
Die CPU lässt sich sehr einfach auf die jeweiligen Bedürfnisse einstellen und eine >=3 Slot GPU ist keine Pflicht.
Meine GPU ist mit 2.7 Slots angegeben und was dickeres werde ich mir nicht kaufen, völlig egal wo hin der Markt geht.

robbitop
2022-10-17, 08:38:55
Die Boards sind überteuert. Da gibt es nicht viel zu diskutieren. Ggf. verkauft sich AM5 deshalb so schleppend. Ich habe allerdings irgendwo gelesen, dass das z.T. daran liegt, dass Boards noch per Luftfracht verteilt werden und sobald die großen Schiffe angekommen sind, der Logistikanteil der Boards sinkt. Momentan sind die Boards jedenfalls IMO überteuert.

dildo4u
2022-10-17, 10:05:32
Minimal zu teuer B660 ist 1 Jahr alt und die fangen bei 170 für DDR5 Modelle an, kann gut sein das der Nachfolger bei 200€ einsteigt.

https://geizhals.de/?cat=mbp4_1700&v=l&hloc=de&bl1_id=30&sort=p&xf=317_B660%7E493_4x+DDR5+DIMM

Die CPU Preise werden eher den Unterschied machen.

Nightspider
2022-10-17, 12:59:45
Da würde ich aktuell lieber ein AM5 Board mit PCIe 4.0 only nehmen und ohne den neuen Quatsch für den Preis der alten Am4 Boards. :D

Hauptsache die CPU Leistung stimmt. Leider gibts die Wahl nicht.

Ich werde auch USB4 noch Jahre lang nicht brauchen - ich wüsste nicht wofür.
Das ist ja am Laptop sinnvoll aber am Desktop PC ist mir das schnuppe.

Tangletingle
2022-10-17, 13:01:10
Itx pcie4 am5 Board feddisch ist die Laube. Alles andere wäre in meinem Fall zu viel und es kotzt mich jedes Mal an wenn ich es mitlaufen muss.

davidzo
2022-10-17, 13:46:07
Itx pcie4 am4 Board feddisch ist die Laube. Alles andere wäre in meinem Fall zu viel und es kotzt mich jedes Mal an wenn ich es mitlaufen muss.

Genau das würde ich mir auch wünschen!
Ich route sowieso den PCIslot mit einem Kabel um, aus praktischen gründen wäre ich sogar mit PCIe3 zufrieden, da sind die Kabel nicht so empfindlich und teuer!

Momentan wird es wohl eher AM4 ITX werden für mich. RAM, boards, CPUs sind soviel billiger und die Leistung ist soviel schlechter nicht. Statt 7600X+b650 + DDR5-5200 bekommt man auch eine 5900X + DDR4 3600 Kombi und die ist in MT +40% schneller und liegt in Games nur theoretische 10% hinten. Theoretisch weil keine GPU verwendet wird die schnell genug wäre um ein CPU-Limit zu erzeigen (wäre 500€+). Andererseits wäre ein 12700K oder 13th Gen midrange auch eine Alternative vom P/L, ich schrecke nur vor der theoretisch hohen Abwärme zurück die in Mini ITX hinderlich ist.
Vielleicht schlage ich sogar gebraucht zu wenn sich das anbietet.

Tangletingle
2022-10-17, 14:50:58
Oben hatte sich ein Typo eingeschlichen. Meinte natürlich am5. Am4 mit b450 itx hab ich hier. Vielleicht wird's ja irgendwann noch was. Am liebsten wäre mir ja sowas wie im ASRock a300 oder in den Brix von Gigabyte. Leider gibt's diese Boards nicht als retailware oder einfach als tray ohne sonstigen Zubehör Schnickschnack. Ich wurde sowas sogar in einer unbedruckten braunen Schachtel kaufen.

Zossel
2022-10-20, 17:46:07
Möge die Diskussion über AVX-512 wieder beginnen:

https://www.mersenneforum.org/showthread.php?p=614191
https://lemire.me/blog/2022/04/28/removing-characters-from-strings-faster-with-avx-512/
https://www.phoronix.com/news/Glibc-More-AVX-512-October-2022

r3ptil3
2022-10-20, 21:31:29
AMD Ryzen 7000 X3D “Zen 4 3D V-Cache” CPUs To Be Unveiled at CES 2023

Bisschen blabla... und dann:
"The Zen 4 V-Cache CPUs are said to ease down on these voltage restrictions and while their clock speeds are expected to be lower than the standard non-V-Cache parts, they will run at much higher speeds and the clock disparity will not be as significant as this time around."

Spekulieren die mal einfach frei raus oder wurde da tatsächlich mal was in die Richtung angedeutet?

https://wccftech.com/amd-ryzen-7000-x3d-zen-4-3d-v-cache-cpus-ces-2023-unveil/

sklave_gottes
2022-10-21, 08:57:57
Hat einer vielleicht eine gute Übersicht über die DIE Größen von der aktuellen und letzten Generation AMD und Intel?

basix
2022-10-21, 09:40:33
Hat einer vielleicht eine gute Übersicht über die DIE Größen von der aktuellen und letzten Generation AMD und Intel?

Zu Zen gibt es das von Locuza:
https://locuza.substack.com/p/zen-evolution-a-small-overview

Auf der Seite oder seinem YT-Kanal findest du auch Intel Zeugs, aber halt nicht so schön gegenübergestellt wie bei Zen.

Nightspider
2022-10-21, 10:37:43
Spekulieren die mal einfach frei raus oder wurde da tatsächlich mal was in die Richtung angedeutet?

Naja, im Prinzip ist es logisch das es darauf hinauslaufen wird.

robbitop
2022-10-21, 10:39:58
So ist es. Das liegt eigentlich auf der Hand und wurde auch indirekt so von Robert Hallock zum 5800X3D Launch so gesagt. (es war klar aus seinen Formulierungen zu erkennen, dass die Limitierungen des VCache der ersten Generation nur temporärer Natur sind)

Lehdro
2022-10-21, 13:19:14
AMD Ryzen 7000 X3D “Zen 4 3D V-Cache” CPUs To Be Unveiled at CES 2023

Bisschen blabla... und dann:
"The Zen 4 V-Cache CPUs are said to ease down on these voltage restrictions and while their clock speeds are expected to be lower than the standard non-V-Cache parts, they will run at much higher speeds and the clock disparity will not be as significant as this time around."

Spekulieren die mal einfach frei raus oder wurde da tatsächlich mal was in die Richtung angedeutet?

https://wccftech.com/amd-ryzen-7000-x3d-zen-4-3d-v-cache-cpus-ces-2023-unveil/
Wie ist das mit dem Takt überhaupt gemeint? Im englischen Sprachraum wird ja prozentual und overall gerne mal verquastet.

Bei Zen 3 hatten wir ca. 5% Taktdifferenz (4.7 vs. 4.5) bzw. knapp 200 MHz, was beim Multicore dann quasi auf nahe Null rauskam. Jetzt hat ein 7700X schon 5,4 GHz Single/ 5.3 Multi, d.h. wenn die Aussage da oben stimmt, sollten eigentlich locker >5 GHz Boost drin sein. Sind nun also weniger als 200 MHz Differenz gemeint, oder nur weniger als 5% Differenz? Macht bei den Taktraten nämlich schon 100 MHz mehr oder weniger aus. Oder bezieht man sich bei der Aussage wieder auf das Maximum der Architektur aka den 7950X mit seinen 5.7 GHz Boost, der sowieso generell eingekürzt werden müsste, ungeachtet der Positionierung im Portfolio als V-Cache-Modell, sprich alle eventuellen V-Cache Modelle haben denselben max. Boost, egal ob 16 oder 8 Kerner.

robbitop
2022-10-21, 13:25:00
Es soll diesmal wohl auch 3D Modelle für die großen SKUs geben. Entsprechend auch für den 16C der 5,7 GHz. Also mit 5,4-5,5 GHz wäre es nicht unrealistisch. :)

basix
2022-10-21, 14:14:52
Anhand der Zen 4 Tests sieht man gut, dass ~5.5 GHz hinsichtlich per-core-Verbrauch noch deutlich zahmer sind als die 5.7 GHz des 7950X.

X3D mit ~5.5 GHz sehe ich deswegen als gesetzt an, das wäre ein -200 MHz Offset verglichen mit den normalen SKUs. Bei 5+ GHz sind das gerade Mal 4% Takt-Regression.

IPC Vergleiche zwischen 5800X und 5800X3D (https://www.computerbase.de/2022-10/intel-core-i9-13900k-i7-13700-i5-13600k-test/5/#abschnitt_ipczuwachs_in_spielen) bescheinigen letzterem +30% IPC in Spielen. Das auf obige Takt-Regression angewandt, ergäbe durch den V-Cache +25% Performance in Spielen.
Raptor Lake kommt dem aber erstaunlich nahe, da in Spielen ~1.15...1.2x schneller als die Zen 4 Prozessoren. Hätte ich nicht erwartet.

aceCrasher
2022-10-21, 14:22:10
Raptor Lake kommt dem aber erstaunlich nahe, da in Spielen ~1.15...1.2x schneller als die Zen 4 Prozessoren. Hätte ich nicht erwartet.
Wo hast du das denn her? Ich habe bis jetzt eher ~1.1x so schnell gesehen. Dass der 13900K 20% auf den 7950X drauflegt wäre mir neu.

w0mbat
2022-10-21, 14:36:11
Raptor Lake kommt dem aber erstaunlich nahe, da in Spielen ~1.15...1.2x schneller als die Zen 4 Prozessoren. Hätte ich nicht erwartet.
Ich schau gerade das neue HWUB video an, und hier ist der 7700X knapp vor dem 13700K, und das in 1080p mit einer RTX 4090!

Bei Igor in 720p ist der 7700X 5-6% vor dem 13600K und der 7950X nur 4% hinter dem 13900K.

Wie kommst du auf 20%?

fondness
2022-10-21, 14:38:05
Wo hast du das denn her? Ich habe bis jetzt eher ~1.1x so schnell gesehen. Dass der 13900K 20% auf den 7950X drauflegt wäre mir neu.

Richtig, CB fällig hier deutlich aus der Reihe, warum auch immer.

Badesalz
2022-10-21, 14:46:32
Richtig, CB fällig hier deutlich aus der Reihe, warum auch immer.Der Rubel muss rollen...
Das war jetzt aber auch bisschen peinlich, basix ;)

fondness
2022-10-21, 14:51:56
Defacto ist die Sache ja relativ einfach. Spiele sind stark memory bounded. Raptor Lake hat durch den Ring bus niedrigere Latenzen plus einen größeren L1-, L2- und L3-Cache und ist dadurch in Spielen im Vorteil. Mit dem 3D Cache kann AMD das mindestens ausgleichen. In Anwendungen reichen ja nicht mal die 24 cores um 16 zen4 Kerne zu schlagen, bzw mit mesh sieht die Sache auch anders aus in Spielen.

robbitop
2022-10-21, 15:09:24
Liegt wahrscheinlich sehr stark an den verwendeten Spielen aber das CB Ergebnis fällt stark aus dem Rahmen. Insbesondere wenn man bedenkt, dass im IPC Test des selben Reviews nur +3% ggü Alderlake in Spielen rauskommt er aber laut Performanceindex viel viel schneller als ADL ist als der Takt und die 3% das hergeben. Irgendwas ist merkwürdig mit den Zahlen. Für den 13900K: PCGH landet bei +10% und LTT bei +4% ggü dem 7950X.

Für die MT Benchmarks muss AMD mittelfristig sich aber was ausdenken. Intel kann mit wenig Fläche E Cores spammen und damit MT Benchmarks deutlich beeinflussen.
Zen Cores sind jetzt nicht gerade groß aber ich habe die Vorahnung, dass Zen 5 das ändern könnte. Entsprechend würde sich das bestimmt nicht schlecht machen, wenn man die neuen Dense Cores als Counter nutzen würde.

Birdman
2022-10-21, 15:10:34
Richtig, CB fällig hier deutlich aus der Reihe, warum auch immer.
Bei PCGH ist 13700K 11% vor dem 7700x mit einer Geforce und 8% wenn man eine Radeon verwendet

Das Gros der Tests sieht es ähnlich und aus der Reihe tanzen hier schon viel mehr die Reviews welche den 7700x vorne sehen.

Badesalz
2022-10-21, 15:13:56
@fondnes
Vielleicht nicht auf CB... aber real werden die X3D auf RaprtorLake mindestens +10% bringen. Da mach ich mir keinen Kopf.

@Birdman
Du kennst den Unterschied zwischen 9% und 20% oder muss man bisschen nachhelfen? Ok, immerhin konntest du die Zahlen wenigstens lesen...

Wir reden grad über CB, du kommst mit der Computec-Brigade. Du blickst aber auch wirklich alles was? :usweet:

DeadMeat
2022-10-21, 15:17:34
Zen Cores sind jetzt nicht gerade groß aber ich habe die Vorahnung, dass Zen 5 das ändern könnte. Entsprechend würde sich das bestimmt nicht schlecht machen, wenn man die neuen Dense Cores als Counter nutzen würde.

Gabs da nichtmal ein Gerücht das große Zen5 Kerne mit kleinen Z4c Kernen kombiniert werden um dagegen zu steuern.

Badesalz
2022-10-21, 15:20:12
@DeadMeat
Hab ich mir vorher auch schon überlegt ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13145462#post13145462

Nazar
2022-10-21, 15:27:03
Im Prinzip muss AMD nur deutlich mit den Preisen runter, um ihre Core-Anzahl preislich so zu setzen, dass Intel nur noch mit derselben Core-Anzahl gegen halten kann, und schon zieht AMD alle Intel Prozessoren im MT ab.
RTL kann nur gleichziehen oder gewinnen, weil sie Threads gegen Threads antreten lassen und die Cores "keine" Rolle mehr spielen.
Allerdings muss man Intel zugestehen, dass sie sehr geschickt sind, die unterschiedlichen Cores einzusetzen.
Core gegen Core verliert Intel aber weiterhin deutlich. ;)

Badesalz
2022-10-21, 15:30:36
Man sollte aber auch nicht verschweigen, daß dies nur unter dem völlig benagelten PL2 funktioniert.

Birdman
2022-10-21, 15:48:27
Du kennst den Unterschied zwischen 9% und 20% oder muss man bisschen nachhelfen? Ok, immerhin konntest du die Zahlen wenigstens lesen...

Du aber offenbar nicht, was ich dir aber verzeihen will, denn durch die Fanbrille ist der Blick ja oftmals etwas getrübt...

Bei CB liegt der 13700k übrigens 11% (15% bei den 1%) vor dem 7700x
Dass Du hier draus 20% daraus machst und dies dann als Grund anführst um eine Bestechlichkeit zu unterstellen...spricht nicht gerade für deine Integrität

Wenn Du Reviews genauer lesen würdest, hättest Du (betrifft auch andere hier die sich über nicht zu Ihrem Bias passende Balken echauffieren) allenfalls bemerkt, dass CB die RaptorLakes mit 5600er Memory hat laufen lassen und Zen4 mit 5200
Das sind dann schnell mal 3% Differenz, die sich nur aufgrund der "wir nehmen stock/spec settings" Doktrin ergeben, die sich bei andern Tests so nicht zeigen. (da gleiche "overclock" memory Einstellungen verwendet)

basix
2022-10-21, 16:02:15
Das war jetzt aber auch bisschen peinlich, basix ;)

Wieso peinlich? CB hat das so gemessen, kann ich doch nichts dafür ;)

Wie es im Schnitt über viele Reviews aussieht, werden wir bei Leos Artikel dann schon sehen ;)

Zen 4 X3D wird Raptor Lake in Games im Schnitt zu 100% schlagen. Ist nur die Frage, wo es sich zwischen den +5-15% am Schluss einpendelt

Richtig, CB fällig hier deutlich aus der Reihe, warum auch immer.
Danke für den Hinweis ;)

Badesalz
2022-10-21, 16:04:57
@Birdman
Von einer stumpfen Bestechlichkeit war hier nie die Rede. So macht man das auf keinen Fall. Das kann aber trotzdem von so einigen Auffälligkeiten nicht ablenken.

Vor allem auch in der jeweiligen Prosa nicht. Manche Schreiberlinge geben ihr bestes feststellbar anders als andere. Allgemein sind die Bandagen aktuell eben härter als früher, daher fällt das auch eher auf.

Um das zu merken braucht man aber an der richtigen Stelle eine ausreichende Menge Grips. Ich mach trotzdem nie jemandem Vorwürfe, wenn es eher klar ist, das dies nicht schon entsprechend in der Wiege dabei lag. Kein Ding.

amdfanuwe
2022-10-21, 21:56:58
Gabs da nichtmal ein Gerücht das große Zen5 Kerne mit kleinen Z4c Kernen kombiniert werden um dagegen zu steuern.
Ich hab ja immer noch die Hoffnung, dass ein ZEN4 3D + 16C ZEN4c kommt.
Dann bitte nochmal gegen Intels 24 Kerner testen.

BlacKi
2022-10-21, 23:26:30
Ich hab ja immer noch die Hoffnung, dass ein ZEN4 3D + 16C ZEN4c kommt.
Dann bitte nochmal gegen Intels 24 Kerner testen.


ein großteil vom cache vorteil wird doch schon vom schnelleren speicher aufgefressen. +25% wird man eher selten sehen mit 6000mt/s und mehr.

robbitop
2022-10-22, 06:43:35
Bandbreite ist für Spiele relativ irrelevant. Der Cache bringt (mittlere) Latenz(verbesserung).

fondness
2022-10-22, 08:26:57
Ich hab ja immer noch die Hoffnung, dass ein ZEN4 3D + 16C ZEN4c kommt.
Dann bitte nochmal gegen Intels 24 Kerner testen.

Den hab ich auch schon länger auf dem Schirm. Sollte technisch nichts dagegen sprechen. Und man hätte dann wohl sowohl Single als als Multi threaded die Krone zurück.

HOT
2022-10-22, 09:08:12
Gar nix in dem Bereich kommt da, 16 Zen5 Kerne wirds geben sonst nix. Was danach kommt wird eher spannend.

fondness
2022-10-22, 09:32:29
Gar nix in dem Bereich kommt da, 16 Zen5 Kerne wirds geben sonst nix. Was danach kommt wird eher spannend.

Du glaubst doch selbst nicht, dass AMD das 16c Zen4c chiplett exklusiv für Server fertigt.

Complicated
2022-10-22, 09:34:26
Die werden sicherlich auch im Mobile zum Einsatz kommen.

HOT
2022-10-22, 09:47:46
Du glaubst doch selbst nicht, dass AMD das 16c Zen4c chiplett exklusiv für Server fertigt.
Ja sicher, was denn sonst. Ist doch mit Zen5c ebenfalls angekündigt. Die c-Varainten sind Serverexklusiv.
Im Mobile ist das überhaupt nicht nötig, da die Zen-Kerne sowieso schon sehr effizient sind. Außerdem wissen wir ja wie Phoenix Point aussieht, der wird nach wie vor 8C haben und in der Folie von Analysts Day steht eindeutig, dass er Zen4-Kerne hat. Bei Strix Point wissen wir es übrigens ebenfalls, da auch hier in der Analysts-Day-Folie eindeutig Zen5 mit RDNA3+-Grafik vermerkt wurde, da ist nix mit Zen5c. Was natürlich auch kein Wunder ist, denn die brauchen ja den Takt. Zen5c wird ja extra für einen Betriebspunkt um 2,5GHz optimiert sein.
AMD wird erst bei Zen6 grundsätzliche Änderungen durchführen, das halte ich für absolut klar.

fondness
2022-10-22, 09:55:59
Die werden sicherlich auch im Mobile zum Einsatz kommen.

Ja, das vielleicht auch. Mir gings aber um das Chiplet an sich. Das hat man ohnehin schon zur Verfügung, warum nicht verwenden für Desktop? Die Stückzahlen im Server-Bereich sind sehr gering, dafür eine eigene Fertigungststraße lohnt sich kaum. Zumal ja Zen4c auch im Server-Bereich nur in Spezialfällen zum Einsatz kommt. IMO ist eine Zen4 (X3D oder ohne) + 16c Zen4c Chiplet Variante fast aufgelegt.

Ich habe mir damals als ich den Zen4-Träger gesehen habe gedacht, seltsam...da bekommt man kein drittes Chiplet drauf. Wundert mich, dass AMD das nicht berücksichtigt hat. Denn wie Robi schon sagt, 16C sind zu wenig für AM5. Dann kam die Zen4c Variante mit dem 16C Chiplet und plötzlich machte alles Sinn. IMO läufts darauf hinaus, aber wir werden sehen.

robbitop
2022-10-22, 10:01:53
Es gab schon mehrfach Gerüchte über 32C SKUs in der Zen 5 Ära für Desktop. Muss man natürlich mal abwarten was und ob es kommt. Wir schon im Nachbarthread geschrieben wird AMD mit 16C keine Chance mehr haben MT Benchmarks mitzuhalten bei der nächsten E Core Verdopplung - und das hat Auswirkungen. 32E Cores wird mit Arrowlake eingeführt werden.

HOT
2022-10-22, 10:11:00
Halte ich für absoluten BS. Wird es mMn nicht geben. Die werden das jetzige IOD einfach weiterverwenden und fertig. Die Gerüchte waren von Anfang an kompletter Unsinn.
Vielleicht wird TR wiederbelebt als 32C-Variante für HEDT.

fondness
2022-10-22, 10:14:51
Erste Gerüchte zu einem 65W 7700 non-X
https://videocardz.com/newz/amd-ryzen-7-7700-non-x-cpu-allegedly-features-8-cores-and-65w-tdp

dildo4u
2022-10-22, 10:15:55
Was ist eigentlich aus SMT 4X geworden war das eine Ente?
Damit könnte sich AMD vielleicht retten wenn Intel weiterhin E Cores spamt.

HOT
2022-10-22, 10:40:11
Erste Gerüchte zu einem 65W 7700 non-X
https://videocardz.com/newz/amd-ryzen-7-7700-non-x-cpu-allegedly-features-8-cores-and-65w-tdp

Da wird AMD sich eh nicht mehr so viel Zeit lassen können wie bei Zen3. Die kleineren müssten recht zeitig den Markt auch erreichen nächstes Jahr. Genau wie ein A620.

dildo4u
4x SMT :freak: ja ne ist klar...

robbitop
2022-10-22, 10:40:13
Halte ich für absoluten BS. Wird es mMn nicht geben. Die werden das jetzige IOD einfach weiterverwenden und fertig. Die Gerüchte waren von Anfang an kompletter Unsinn.
Vielleicht wird TR wiederbelebt als 32C-Variante für HEDT.
Also erstens sollte man es so formulieren, dass es deiner eigenen Meinung entspricht (denn geirrt mit seinen Ansichten hat sich hier schon jeder inklusive dir oft genug - im Sinne dass es dann ganz anders kam) und nicht einem Faktum und zweitens wäre es sinnvoll das ganze mit Argumenten zu hinterlegen.

„wird es nicht geben BS“ ist einfach nur schwach für eine ernsthafte Diskussion.

robbitop
2022-10-22, 10:40:43
Und noch mal: Wann will Intel diese denn spammen? Bei MTL jedenfalls noch nicht.

Schon mehrfach geschrieben: Arrowlake (MTL Refresh).

HOT
2022-10-22, 10:42:33
Der kommt aber erst weit nach Zen5. Außerdem wird das auch nicht so leicht, mit Ringbus wird das jedenfalls ziemlichs schwierig werden, das Teil effizient zu bekommen.

robbitop
2022-10-22, 10:42:34
Was ist eigentlich aus SMT 4X geworden war das eine Ente?
Damit könnte sich AMD vielleicht retten wenn Intel weiterhin E Cores spamt.

Mit einem besonders breiten Kern wie Zen 5 es ggf wird, könnte SMT4x ggf auch ein sinnvolles Gegenmittel gegen die E Cores sein.

Aber auch die C Cores wären dafür geeignet. Sofern man die Implementierung mit dem Scheduler (und einem HW Gegenstück zum Threaddirector) hinbekommt. Das könnte ein Grund sein es nicht zu tun.

HOT
2022-10-22, 10:44:06
Ja klar doch ;D ymmd Sry aber jetzt wirds echt komplett lächerlich :D.

robbitop
2022-10-22, 10:46:37
Der kommt aber erst weit nach Zen5.

MTL 2023
ARL 2024
Zen 5 2023
Zen 5x3D 2024

Der X3D Teil hilft bei MT nicht - und es wäre nich Zen 5 Ära.
Außerdem ist mit dem billigen Skalieren der E Cores auch der IPC Gewinn einer neuen uArch schnell verdampft (zumal Intel ja auch immer mehr IPC draufpackt). Je mehr E Cores desto größer der Handlungsdruck auch bei AMD zu mehr als 32 Threads.
Und grundsätzlich zu mehr Treads auch in den geringeren SKUs weil ja auch die E Cores in den niedrigeren Preisgefilden die Threadanzahl boostet.
Der 7600X mit seinen 6C/12T muss es aktuell mit dem 13600K mit 14C/20T aufnehmen und das wird bei jeder E Core Verdopplung intensiver - in jeder SKU Klasse.

robbitop
2022-10-22, 10:47:34
Ja klar doch ;D ymmd Sry aber jetzt wirds echt komplett lächerlich :D.

Kannst du auch Argumente bringen oder willst du auf dem Troll Niveau bleiben? Sorry aber Diskussionskultur bei dir ist aktuell wirklich unter aller Sau.
These/Hypothese-Argument-Beleg-Beispiel. Oder zumindest eine große Teilmenge davon.

HOT
2022-10-22, 10:48:30
Ja die tollen Intel vorhersagen.

MTL-S zum Jahreswechsel 23/24, nicht vorher
ARL-S wird defintiv nichts vor 25, vielleicht mit ach und krach und Lieferschwierigkeiten Ende 24. Wer da was anderes erwartet glaubt auch noch an den Weihnachtsmann oder was. Außerdem werden wir da sehen, wie toll die MT-Leistung von dem Konstrukt dann ist.



Welche Argumente? Dass SMT4 völliger Schwachsinn ist ist total offensichtlich. Das ist was für ultrafette Server-CPUs, hat im Desktop aber mal gar nichts verloren. Und die c-Cores stehen in den Folien drin und zwar nur für spezielle Server, Punkt.

dildo4u
2022-10-22, 10:49:07
Hatte das wohl vertauscht IBM Server CPU kann SMT8 und SMT4.


Https://en.m.wikipedia.org/wiki/Power10

robbitop
2022-10-22, 10:53:07
Ja die tollen Intel vorhersagen.

MTL-S zum Jahreswechsel 23/24, nicht vorher
ARL-S wird defintiv nichts vor 25, vielleicht mit ach und krach und Lieferschwierigkeiten Ende 24. Wer da was anderes erwartet glaubt auch noch an den Weihnachtsmann oder was. Außerdem werden wir da sehen, wie toll die MT-Leistung von dem Konstrukt dann ist.



Ich kann mich noch gut entsinnen, wo du Alderlake für Q1 2022 gesagt hast obwohl offizielle Intel Roadmaps klar Q3 2021 sagten. Wann kam ADL nochmal? Deine Voraussagen sind offenbar nicht zuverlässig.

Intels Roadmap sieht MTL für 2023 und ARL für 2024 vor. Wahrscheinlich Q3.

AMD brauchte zuletzt zwischen 2 uArchs 7 Quartale. Im besten Fall 5 Q. Arrowlake wird vor Zen 6 da sein und auch Zen 6 hat das gleiche Problem wenn man die Corezahl nicht anhebt da IPC Steigerungen sich gegenseitig grob ausgleichen werden. Intel erhöht diese und AMD auch.



Welche Argumente? Dass SMT4 völliger Schwachsinn ist ist total offensichtlich. Das ist was für ultrafette Server-CPUs, hat im Desktop aber mal gar nichts verloren. Und die c-Cores stehen in den Folien drin und zwar nur für spezielle Server, Punkt.
Nur weil es bis dato so war muss das nicht allgemeingültig sein. SMT selbst kostet kaum Transistoren und je breiter ein Core wird desto mehr Sinn macht es. Das war bislang Sache der Server weil die Transistorbudgets in anderen Bereichen dafür nicht da waren. Zen 5 soll laut dem Anandtech Interview deutlich breiter werden. Die Cove Cores sind breit, die Apple Cores sind ultrabreit.
Dinge sind nicht statisch. Wer nur statisch und linear denkt, sieht Paradigmenwechsel nie kommen.

Soll nicht heissen, dass das wahrscheinlich ist das es kommt. Aber es ist eine hypothetische Option die mit immer breiteren designs immer valider wird.
Wie man an Intels breiten Power uArchs sehen kann hat das auch MT Leistung gebracht und wor sind von der breite bald da wo IBM vor 10 Jahren war als sie das eingeführt haben.

HOT
2022-10-22, 10:54:42
Ja, wann kam er? Q4 und zwar wie immer in homöopatischen Menge. Wann war der ADL-Launch für die Masse? Ah Q1 2022. Welch Überraschung. Eigentlich muss man die 11. Generation nicht mitzählen übrigens. Macht Gamersnexus beispielsweise so. Und RPL wurde erst für Q3 vorhergesagt und kommt weeeiiit vor Zen4 und all so ein Mist.


Fakt ist auf jeden Fall: Wenn Zen4 Q2 2024 kommt, braucht er nicht mehr als 16C und wird er auch nicht bekommen. Die werden ganz einfach das Zen4 IOD weiternutzen und 2 neue Zen5 CCDs verbauen. Das wars dann schon mit der Zen5-Generation. Dann gibts wieder nen Zen5X3D (welcher übrigens auch im Foliesatz steht), dann gibts das Upgrade für Phoenix Point, nämlich Strix Point und fertig.

robbitop
2022-10-22, 11:01:03
Du hast ihn für Frühling vorausgesagt und weit verfehlt. RTL kam dieses Jahr sogar im Oktober. Das wird grob der jährliche Releaseteitraum bleiben. Es gibt kein hartes Indiz für eine Verschiebung. Zumal das nichts am Thema der E Cores ändert ob ein paar Monate früher oder später.

Was Zen 5 für MTL braucht muss man sehen. Beide legen IPC drauf mit neuen uArchs. Mit der top dog SKU reichen heute 16C für einen knappen Gleichstand. In unteren SKUs wird man bereits jetzt in mt auseinander genommen.

Wir werden ja sehen ob AMD mehr Cores oder Threads spendiert in der Zen 5 / X3D Ära.

HOT
2022-10-22, 11:06:31
Solche CPUs werden ja nicht im Jahreszyklus geplant sondern eher im 3 Jahreszyklus. Wenn also Zen5 mit IOD von jetzt so geplant wurde in 2021, dann wird das auch so kommen. Und dann hat er 16C. Das sind ja auch alles mittelfristige Planungen.
Und bei ADL war das ja auch zu befürchten und gar nicht so weit hergeholt, siehe SR. Dass es dann doch schnell lief, war dann gut für Intel.

robbitop
2022-10-22, 11:17:12
Sie könnten aber mehr Treads bringen durch:
- größere ccx/ccds
- Mischung von Zen5 und Zen D CCDs
- smt4 für Zen 5

Nur hypothetische Möglichkeiten. Aber seit Zen 2 gan es keine Erhöhung des Threadcounts mehr und AMD hat gesagt, dass sie Intel nie wieder unterschätzen wollen und immer ihre Produkte gemäß optimistischer Roadmap von Intel designen. Und sie mussten davon ausgehen, dass Intel irgendwann den Corecount erhöhnt nach dem AMD sie in der Hinsicht 2x bloß gestellt haben.

Und es gab mehrfach Gerüchte von mlid und rgt (was auch nichts heisst aber immerhin Indizien) dass Zen 5 mehr Cores bringen wird.

Complicated
2022-10-22, 11:18:42
Also die Server-Stückzahl-Argumentation halt ich nicht für haltbar. AMD ist gerade sehr erfolgreich damit Custom-Flavors für unterschiedliche Anforderungen großer Unternehmen/OEMs zu liefern. Die Möglichkeiten unterschiedliche IP für kleine Stückzahlen zu kombinieren zeigt AMD in allen Varianten im Produktportfolio.

Der Serverumsatz ist so hoch wie der Consumer-Umsatz mit weniger Stückzahl und höheren Margen - warum sollte das ein Problem sein? Der Consumer Markt bricht zusammen und der Serverumsatz ist 40% gestiegen über das Jahr.

robbitop
2022-10-22, 11:20:37
Ja im Bereich Server läuft alles gut. Da ist man mit 64C/128T und bald 128C/256T sehr gut aufgestellt.

Das heißt aber nicht, dass man sich in Desktop und mobile sich nicht auch um Wachstum bemühen sollte. Und beides wird mittelfristig durch das Spammen von E Cores im MT Bereich ein Stück weit bedroht.

Complicated
2022-10-22, 11:35:44
In den Game-Benchmark bleibt davon nur heisse Luft übrig. Und irgendwann muss man halt auch mit 32 und mehr Kernen zeigen wie das gegen die großen TRs performt in Anwendungen - ich wüsste nicht wen diese E-Core spamen interessieren könnte? Welcher Usecase wird denn da adressiert der noch nicht abgedeckt ist?

HOT
2022-10-22, 11:42:55
Ja im Bereich Server läuft alles gut. Da ist man mit 64C/128T und bald 128C/256T sehr gut aufgestellt.

Das heißt aber nicht, dass man sich in Desktop und mobile sich nicht auch um Wachstum bemühen sollte. Und beides wird mittelfristig durch das Spammen von E Cores im MT Bereich ein Stück weit bedroht.

Es läuft auch im Desktop alles gut. AMD hat überhaupt kein Problem außer der PR durch Launchentscheidungen, die aber im Vorhinein schwer zu sehen waren.

Zen4 ist im MT sehr gut, trotz Intels E-Cores-Spamming, Zen4 wird als X3D die Spieleleistung weiterhin dominieren, bei Einstiegsprozessoren ändert sich ja nix, da Intel ja ADL recyclet. Technisch hat AMD keine Probleme und wird auch gegen MTL keine Probleme mit Zen5 haben.
Was jetzt Probleme macht ist die PR. Die Mainboards waren ein völliges Desaster (wärend die Plattform ja eigentlich auch sehr gut ist), die TDP war ein Desaster, hier hätte man offiziell Eco-CPUs mit anbieten müssen, die Temparaturen sind ein PR-Desaster (wenn auch aus meiner Sicht kaum zu verhindern).

robbitop
2022-10-22, 11:47:37
In den Game-Benchmark bleibt davon nur heisse Luft übrig. Und irgendwann muss man halt auch mit 32 und mehr Kernen zeigen wie das gegen die großen TRs performt in Anwendungen - ich wüsste nicht wen diese E-Core spamen interessieren könnte? Welcher Usecase wird denn da adressiert der noch nicht abgedeckt ist?



Du denkst leider zu informiert und zu intelligent. ;)
Wir sind hier halt in einer Filterblase. Die Masse sind Dullis und/oder Leute die einfach kein Bock haben sich damit zu beschäftigen.

Mehr Cores ist mehr besser. Und in MT Benchmarks gut dazustehen ist mehr besser. Und dann gibts die Leute die ans Futureproofing denken (was natürlich quatsch ist).

Und wie gesagt in den unteren SKU Rängen macht sogar schon heute es auch für informierte Leute Sinn. Der 13600K ist aus P/L Sicht der bessere Prozessor als der 7600K. Gleich viele P Cores und 8E Cores on top die wahrscheinlich zur Lebenszeit Vorteile (zB MT heavy RT Games) bringen kann. Wenn man das Namingscheme angepasst hätte wäre es weniger ausgeprägt also der 7600X hätte 8C und den gleichen Preis und der 7700X 10 oder 12C usw.

robbitop
2022-10-22, 11:48:49
Es läuft auch im Desktop alles gut. AMD hat überhaupt kein Problem außer der PR durch Launchentscheidungen, die aber im Vorhinein schwer zu sehen waren.

Zen4 ist im MT sehr gut, trotz Intels E-Cores-Spamming, Zen4 wird als X3D die Spieleleistung weiterhin dominieren, bei Einstiegsprozessoren ändert sich ja nix, da Intel ja ADL recyclet. Technisch hat AMD keine Probleme und wird auch gegen MTL keine Probleme mit Zen5 haben.
Was jetzt Probleme macht ist die PR. Die Mainboards waren ein völliges Desaster (wärend die Plattform ja eigentlich auch sehr gut ist), die TDP war ein Desaster, hier hätte man offiziell Eco-CPUs mit anbieten müssen, die Temparaturen sind ein PR-Desaster (wenn auch aus meiner Sicht kaum zu verhindern).
Im unteren Bereich steht Zen 4 gegen RTL nicht so toll da was Value angeht. Gerade der 7600X vs 13600K nicht. Und auch der 7700X vs 13700K. Erst der 7900 und 7950 stehen wieder gut da.

HOT
2022-10-22, 11:49:23
Das ist doch kein Problem, dann passt man halt ein paar Produktpreise neu an und die Sache ist geritzt. die 7800 kann man ja sogar noch als 10 oder 12C releasen, wenn man das will/braucht. Technisch gibts kein Problem, es ist das Marketing. AMD muss hier ein paar Sachen anders machen.

robbitop
2022-10-22, 11:50:06
Und man verliert Marge aber ja genau nur so gehts. Ist aber blöd wenn man Geld verdienen will.

HOT
2022-10-22, 11:52:30
Das kannste eh vergessen, in dem Umfeld werden eh alle auf Marge verzichten müssen, da muss man eh sehen wo man bleibt, um diese Krise zu überstehen. AMD müsste aus meiner Sicht folgende Dinge lösen:

- der 7800(X) sollte 10 oder 12C haben und maximal 105W
- alle CPUs sollten offiziell als Eco-CPUs eine TDP-Stufe weiter unten zusätzlich angeboten werden und das bitte auch so vermarkten und nicht einfach das X weglassen
- AMD muss schnell schnell schnell einen A630 oder B640 als B550-Ersatz bringen mit günstigen 6 Layer-Brettern
- die 8C gehören ins 200-300€-Segment (das passiert ja eh automatisch, das regeln die Marktteilnehmer)
- die 6C gehören ins 100-200€-Segment

robbitop
2022-10-22, 12:04:31
Sehe ich auch so.
Die neuen Boards sind auch alle viel zu teuer. Ggf normalisiert sich das ja noch etwas. Bei AM4 gab es ja auch schon ganz anständige Boards ab 100…120€. Und billigboards deutlich darunter.

Complicated
2022-10-22, 12:04:59
Du denkst leider zu informiert und zu intelligent. ;)
Wir sind hier halt in einer Filterblase. Die Masse sind Dullis und/oder Leute die einfach kein Bock haben sich damit zu beschäftigen.

Das ist der Forenkontext hier.
Ich finde die DAU-Stellvertreter-Argumentationen mühselig und vor allem auch wenig fundiert. Die kann sich jeder zu seinem Bauchgefühl zurechtrücken und hat eine eigene Meinung, wo ihn das Marketing kriegt oder auch nicht.

Who cares? Die Entscheidungen werden auf völlig anderer Basis getroffen über den nächsten Schritt einer CPU-Generation. Dann wird dem Marketing das Material zur Verfügung gestellt wo sie das Produkt abheben können im Markt.

robbitop
2022-10-22, 12:29:55
Das ist der Forenkontext hier.
Ich finde die DAU-Stellvertreter-Argumentationen mühselig und vor allem auch wenig fundiert. Die kann sich jeder zu seinem Bauchgefühl zurechtrücken und hat eine eigene Meinung, wo ihn das Marketing kriegt oder auch nicht.

Who cares? Die Entscheidungen werden auf völlig anderer Basis getroffen über den nächsten Schritt einer CPU-Generation. Dann wird dem Marketing das Material zur Verfügung gestellt wo sie das Produkt abheben können im Markt.
Naja wenn man sich anschaut was gerade die youtube reviews kumuliert für Viewerzahlen haben wäre es nicht weit hergeholt zu sagen, dass die einen Einfluss haben. Und MT wird bei so ziemlich jedem Review mit ettlichen Balkendiagrammen berücksichtigt. Ist der Einfluss 100%? Nein. Aber er wird da sein.
Intel wird das sicherlich mit Marketingvollzeitprofis untersucht haben als sie sich entschieden haben langfristig ein doubling down on E Cores zu betreiben.

Complicated
2022-10-22, 12:39:53
Keiner sagt die haben keinen Einfluß auf den Verkauf - doch niemand entscheidet danach was irgendeine Redaktion wohl schreiben/streamen würde. Dass dies andere Designs mit mehr Kernen (wo man schon deutlich mehr Kerne bieten kann!) nach sich zieht finde ich recht wackelig argumentiert.

Das Ganze ist nur logisch mit Scheuklappen für Threadripper und den ganzen HEDT-Markt insgesamt als nicht Existent zu betrachten. Willkommen im aktuellen Marketing für Intels E-Cores (Das früher völlig anders argumentiert hatte für seine Produkte). Nur warum sollte jemand mit Bedarf für viele Kerne bei seinem Workload auf diese Weise den Markt betrachten, abseits vom Marketing?

Complicated
2022-10-22, 12:43:59
Intel wird das sicherlich mit Marketingvollzeitprofis untersucht haben als sie sich entschieden haben langfristig ein doubling down on E Cores zu betreiben.Marketingprofis analysieren keinen Markt, das machen Marktanalysten auf realen Zahlen, nicht hypothetischen. Das sind zwei völlig unterschiedliche Jobs mit völlig anderem Ansatz und anderen Werkzeugen um erfolgreich zu sein. Die einen bilden das derzeitige Geschehen in Zahlen ab, die anderen suchen kreative psychologische Methoden um die realen Zahlen aus anderen Perspektiven und Prioritäten zu interpretieren.

robbitop
2022-10-22, 12:50:30
Keiner sagt die haben keinen Einfluß auf den Verkauf - doch niemand entscheidet danach was irgendeine Redaktion wohl schreiben/streamen würde. Dass dies andere Designs mit mehr Kernen (wo man schon deutlich mehr Kerne bieten kann!) nach sich zieht finde ich recht wackelig argumentiert.

Das Ganze ist nur logisch mit Scheuklappen für Threadripper und den ganzen HEDT-Markt insgesamt als nicht Existent zu betrachten. Willkommen im aktuellen Marketing für Intels E-Cores (Das früher völlig anders argumentiert hatte für seine Produkte). Nur warum sollte jemand mit Bedarf für viele Kerne bei seinem Workload auf diese Weise den Markt betrachten, abseits vom Marketing?
Die Masse braucht die Vielzahl an Kernen nicht. Aber MT Leistung ist nunmal da. Auch schon bei kleinen SKUs. Die Masse kauft sehr wahrscheinlich nicht ganz genau was sie braucht. Und ja wer explizit (insbesondere professionell) mehr Kerne braucht, der kauft HEDT. Auch weil IO deutlich stärker vertreten ist.

Und ja so ist es nunmal: Marketing wirkt. Sonst bräuchte man es nicht. Und wie gesagt die E Cores sind ja nicht nur immer schlecht. In den unteren SKUs bringen die IMO richtig value.


Man wird sehen was passiert. Intels Weg ist bereits durch die Roadmaps klar. Bis zu 32 E Cores mittelfristig im Mainstream Markt. Muss man mal sehen ob AMD da einfach nicht drauf reagiert oder eben doch - zB durch:

1. Preisreduktion pro SKU um den value zu matchen
2. die Bezeichnungen eine Klasse ändern: jede Klasse bekommt mehr Cores aber das ceiling bleibt bei 16 Cores
3. mehr Cores und/oder Threads

Ich würde mich wundern, wenn von all dem nichts geschieht - aber es kann natürlich sein. Ich würde aber eher darauf tippen dass wenigstens eines dieser Dinge passiert.

———————————————
Ich behaupte auch nicht die ultimative Argumentation zu haben. In jeder sind natürlich auch immer Lücken. Wobei es natürlich viel einfacher ist eine Argumentation anzuzweifeln als eine aufzubauen.

ryan
2022-10-22, 12:51:06
In den Game-Benchmark bleibt davon nur heisse Luft übrig. Und irgendwann muss man halt auch mit 32 und mehr Kernen zeigen wie das gegen die großen TRs performt in Anwendungen - ich wüsste nicht wen diese E-Core spamen interessieren könnte? Welcher Usecase wird denn da adressiert der noch nicht abgedeckt ist?



Von AMDs 16 big cores bleibt auch nur heiße Luft übrig in games. Ja wofür, für eine bessere MT Leistung etwa? Das gilt plötzlich für Intels E-Kerne nicht mehr, wie kann es Intel nur wagen die MT Leistung zu steigern. Das Geflenne von einigen ist wirklich köstlich. In 2-3 Jahren kommt AMD mit einer big little Architektur, dann ist es das beste der Welt, jede Wette.

Complicated
2022-10-22, 12:54:28
@robbitop
Keiner widerspricht Dir dass Marketing wirkt. Du benutzt es nur hier als Begründung für Ingenieurs-Entscheidungen - das wirkt nicht in diese Richtung. Das habe ich jetzt mehrfach wiederholt und Du wiederholst immer wieder worüber wir uns einig sind. Das Marketing kann durchaus auch mal einfach Schuld daran sein, dass ein gute Produkt falsch wahrgenommen wird und sich nicht gut verkauft.

Wir wollte hier allerdings über Technik diskutieren, wenn Du das nun zulassen könntest und Deine Marketing-Argumentation als wahrgenommen aber deutlich weniger relevant betrachten würdest als es hier gerade Platz einnimmt?

Complicated
2022-10-22, 12:55:26
Von AMDs 16 big cores bleibt auch nur heiße Luft übrig in games. Und sollten Sie jetzt noch mehr Cores verbauen die verpuffen? Nur weil Intel plötzlich ebenfalls mehr Cores kann? Welches Problem löst denn bitte Big-Little im Desktop?

basix
2022-10-22, 12:59:08
Ob big, Little, chiplets oder nicht: Die Performance und Energieffizienz sind entscheidend. 16C bringen in Games fast nichts (gibt Ausnahmen), 6C ist im Schnitt immer noch ausreichend. Aber ich wäre gespannt was passiert, wenn man dem 6-Kerner das SMT abschaltet ;)

Hinsichtlich Multi-Core / Rendering ist es egal, ob das von Big oder Little Cores gestemmt wird. Das Problem bei Intel: Es gibt Anwendungen, wo die E-Cores nicht schmecken und man hat eine massive Performance-Regression. Deswegen: Intels Konzept ist nicht per se schlechter, aber es gibt Stand heute auch einige handfeste Nachteile.

Für den normalen Desktop Use Case ist der Optimalfall vermutlich 8C/16T mit möglichst starken Kernen. Wer Rendering oder Simulationen z.B. berufsmässig macht, kann zu mehr Kernen greifen. Aber: Das ist Stand heute. Kann sich zukünftig (langsam) ändern. Heute will wohl auch niemand mehr mit einem 7600K (4C/4T) anspruchsvolle Spiele spielen.

robbitop
2022-10-22, 12:59:46
Keiner widerspricht Dir dass Marketing wirkt. Du benutzt es nur hier als Begründung für Ingenieurs-Entscheidungen - das wirkt nicht in diese Richtung. Das habe ich jetzt mehrfach wiederholt und Du wiederholst immer wieder worüber wir uns einig sind. Das Marketing kann durchaus auch mal einfach Schuld daran sein, dass ein gute Produkt falsch wahrgenommen wird und sich nicht gut verkauft.

Wir wollte hier allerdings über Technik diskutieren, wenn Du das nun zulassen könntest und Deine Marketing-Argumentation als wahrgenommen aber deutlich weniger relevant betrachten würdest als es hier gerade Platz einnimmt?

Es wäre schön wenn du nicht unfreundlich und überheblich wirst. Zumindest liest sich das so.

Ich behaupte auch nicht die ultimative Argumentation zu haben. In jeder sind natürlich auch immer Lücken. Wobei es natürlich viel einfacher ist eine Argumentation anzuzweifeln als eine aufzubauen.

Wer sagt, dass es hier rein um Technik geht und gehen muss? Wo steht das und wo haben alle dem zugestimmt? Das ist ein Forum wo man seine Ansichten kund tun darf und meine Argumentation hat nicht den Spielraum des Themas verlassen. Dass Designentscheidungen aber immer nur darauf basieren, glaube ich eher nicht.

Ja aus rein sachlichen, technischen Gründen reichen 16C mehr als locker für den Mainstream - sind sogar eher überdimensioniert. Da sind wir ja d‘accord. (tolle „technische“ „Diskussion“ - lass uns das vertiefen…)

robbitop
2022-10-22, 13:03:17
Und sollten Sie jetzt noch mehr Cores verbauen die verpuffen? Nur weil Intel plötzlich ebenfalls mehr Cores kann? Welches Problem löst denn bitte Big-Little im Desktop?
Real keines. Bzw aktuell nur bei den kleinen SKUs die wenig P Cores haben. Aber es gewinnt Benchmarks.

Complicated
2022-10-22, 13:08:22
Es wäre schön wenn du nicht unfreundlich und überheblich wirst. Zumindest liest sich das so.
Das tut mir Leid und ist nicht beabsichtigt. Das Gefühl könnte auch dadurch entstehen, dass die Marketing-Argumente einfach nicht überzeugen und ich dafür Gründe aufgeführt habe. Ich fühle mich auch nicht gut, wenn man mir eine Argumentationsschleife aufzeigt in die ich mich verbissen habe, die ich dann los lassen muss. Passiert mir oft genug.
Ja aus rein sachlichen, technischen Gründen reichen 16C mehr als locker für den Mainstream - sind sogar eher überdimensioniert. Da sind wir ja d‘accord. (tolle „technische“ „Diskussion“ - lass uns das vertiefen…)
*Lach* Ja schon klar, doch noch langweiliger ist zu postulieren, AMD müssen jetzt beim Corecount nachziehen - stimmt halt nicht ;). Die interessanteren Felder der Interconnects und der Packiging Verfahren wurde als treffenderes Thema in technischer Hinsicht ja genannt.

robbitop
2022-10-22, 13:16:29
Alles gut! :)
Schauen wir mal was AMD am Ende tatsächlich machen wird. :)

Complicated
2022-10-22, 13:18:24
:up:

KarlKastor
2022-10-22, 14:55:39
Und sollten Sie jetzt noch mehr Cores verbauen die verpuffen? Nur weil Intel plötzlich ebenfalls mehr Cores kann? Welches Problem löst denn bitte Big-Little im Desktop?
Die gleiche Situation gab es vor ein paar Jahren als AMD mit Zen 2 plötzlich massig Kerne angeboten hatte. Im Gaming waren die auch lahm. In Anwendungen haben die Skylake x.0 den Hintern versohlt.
Haben die Meisten auch nicht benötigt. Intels neue CPUs wurden aber überall als peinlich dargestellt. Keine Chance gegen die Konkurrenz.

Wird AMD gegen 8+32 genauso ergehen, wenn sie bei 16 Kernen bleiben, hilft nur viel Takt um überhaupt noch halbwegs dran zu bleiben.
Ja, die Meisten brauchen es nicht, aber die Konkurrenz bietet es. Zudem kann die Konkurrenz das auch noch vergleichsweise günstig herstellen, da die Kerne sehr klein sind.
Ich kann mir schon vorstellen, dass AMD nen drittes Chiplet draufpackt. Oder big.little. Bergamo zeigt wie es geht. Cache einsparen und dafür mehr Kerne. Kann man noch weiter führen und L2 und L3 ordentlich beschneiden, kompakt sind die Kerne ja ansonsten. Dann kann man ein Chiplet mit 8 fetten Kernen und dann noch 1-2 Chiplet mit etwas schwächeren Kernen bringen.

Savay
2022-10-22, 15:06:28
Halte ich für absoluten BS.

Dir ist schon klar, dass nach allen vorliegenden Daten Zen4C bisher "einfach nur" die logische Fortführung der Zen3(+) Kerne von Rembrandt und Cezanne ist?! :wink:
Das scheinen primär Kerne mit reduziertem L3 und angepasster Auslegung auf LowPower zu sein denen die jetzt einfach erstmals nur ne dedizierte Bezeichnung geben wird und die sie auch für Server CCDs zu nutzen statt das Design nur für die APUs zu adaptieren. :tongue:

Bin momentan davon überzeugt, das Zen4"C" letztlich genau das ist was wir auch in den ULP APUs sehen werden.

Und wenn die Bergamo CCDs erst produziert sind, ist es auch kein Hexenwerk die ganze auf normalen AM5 Desktop SKUs zu implementieren.

Die TR Plattform scheint eh eine Sackgasse zu sein, da käme so eine Variante mit maximierter Kernzahl grade recht würde ich sagen, abhängig davon was Intel macht.

BlacKi
2022-10-23, 10:04:30
oMcsW-myRCU

robbitop
2022-10-23, 10:09:00
Mega interessant zu sehen wie wenig das fertige Silizium von TSMC trotz leadijg edge Prozess kostet. Das ist ja immer das Argument warum HW so teuer geworden ist. Ein ganz großer Teil sind halt die Kosten der Organisation (es arbeiten ja viele tausend Menschen um das möglich zu machen bei einem ihv), die auf die Produkte logischerweise umgelegt werden und die Marge.

Zossel
2022-10-23, 11:19:27
Was ist eigentlich aus den befürchteten AGESA Problemen bei ZEN4 geworden?
Habe ich was verpasst oder übersehen?

Der_Korken
2022-10-23, 11:48:32
Was ist eigentlich aus den befürchteten AGESA Problemen bei ZEN4 geworden?
Habe ich was verpasst oder übersehen?

Irgendwo habe ich beim Launch aufgeschnappt, dass es noch Nachbesserungen beim Idle-Verbrauch geben soll. Die wären auch bitter nötig, aber ich mache mir da keine große Hoffnungen, ehrlich gesagt. AMD kann anscheinend einfach keine Nidriglast-Effizienz abseits der APUs.

fondness
2022-10-23, 11:49:40
Mega interessant zu sehen wie wenig das fertige Silizium von TSMC trotz leadijg edge Prozess kostet. Das ist ja immer das Argument warum HW so teuer geworden ist. Ein ganz großer Teil sind halt die Kosten der Organisation (es arbeiten ja viele tausend Menschen um das möglich zu machen bei einem ihv), die auf die Produkte logischerweise umgelegt werden und die Marge.

Zum einen hilft da das Chiplet-Design enorm, ein Single-Die würde ganz wo anders liegen und zum anderen sollten man auch die initial kosten nicht unterschätzen. Also Tapeout, etc. kosten viele Millionen.

r3ptil3
2022-10-23, 11:57:07
Irgendwo habe ich beim Launch aufgeschnappt, dass es noch Nachbesserungen beim Idle-Verbrauch geben soll. Die wären auch bitter nötig, aber ich mache mir da keine große Hoffnungen, ehrlich gesagt. AMD kann anscheinend einfach keine Nidriglast-Effizienz abseits der APUs.

Einer der Gründe wieso ich noch nicht umgestiegen bin.

Ich habe auch deinen Post gelesen mit dem Twitter-Beitrag, da wäre also definitiv theoretisch noch viel Potenzial vorhanden.
In Erinnerung habe ich, dass beim Release des X570 im ersten Jahr der IDLE-Verbrauch auch höher war und leider erst sehr viel später (Chipsatz-Update im Zeitraum der X570S Boards) dann wirklich besser wurde.

In der Prioritätsliste scheint da wohl ein tiefer IDLE-Verbrauch keinen hohen Stellenwert zu geniessen.

Es ist auch komisch, weshalb es praktisch keine brauchbaren B650(E) Reviews gibt. Würde mich interessieren wie sich die letzten BIOS-Updates ausgewirkt haben. Steht ja auch fast überall "improve system performance" in den Beschreibungen.

Windi
2022-10-23, 13:16:55
Zen1 soll ja nur 21$ in der Herstellung gekostet haben, dagegen ist Zen4 mit 69$ schon deutlich teurer.
Für die HighEnd Prozessoren ist dies kein großes Problem, da man eine sehr hohe Marge hat.
Bei den Billigprozessoren unter 80€ sieht das natürlich ganz anders aus.

Aber die Hauptkosten entstehen halt nicht aus dem Silizium, sondern der ganzen Forschung und Entwicklung. Und diese Kosten müssen halt anteilsmäßig auf die Prozessoren aufgeschlagen werden.
Wir hatten hier ja schon mal ein paar Folien, wieviel es kostet eine neue Prozessorgeneration zu entwickeln. Das war absolut krank. Nur für die Entwicklung von ein paar Softwaretools, die die Entwickler beim Chipdesign unterschtützen, müssen schon hunderte Millionen ausgegeben werden. Und es wird mit jeder neuen Generation immer teurer.

Nightspider
2022-10-24, 06:59:58
HWU hat nochmal einen neuen Test mit RTX4090 gemacht, wo alle CPUs imo gut miteinander verglichen werden, auch wenn relativ teurer Speicher bei allen Modellen verwendet wurde.

5800X3D, 13600K und 7600X liegen ganz grob gesagt ziemlich auf einem Niveau über viele Spiele hinweg. Es gibt keinen klaren Gewinner.

https://youtu.be/I7-2ArdYvfA?t=535

Platos
2022-10-24, 10:05:29
Bei einer GPU wie der 4090, die selbst in 1440p stark CPU limitiert ist, würden mich eig. vor allem CPU Tests in 4k interessieren.

Mit der 4090 erreicht man einfach ein Niveau, bei dem man sogar in 4k das eine oder andere Mal in harte CPU Limits kommen könnte - je nach CPU halt.

Es hat ja nicht jeder ein 13600k oder 7600X oder 5800X3D. Da wäre es sicherlich für viele Interessant zu wissen, ob die eigene CPU in 4k schon limitiert für die 4090 oder ob sie noch ausreicht.

Kennt jemand einen CPU Test, der CPUs unter 4k mit der 4090 testet, um zu schauen, ab wann die CPU hier schon limitiert ?

basix
2022-10-24, 10:34:47
Kennt jemand einen CPU Test, der CPUs unter 4k mit der 4090 testet, um zu schauen, ab wann die CPU hier schon limitiert ?
https://de.gamegpu.com/

Die testen immer mit allen CPUs alle GPUs ;) Halt jeweils pro Game Basis und nicht als Review. Beispiel:
https://de.gamegpu.com/Aktion-/-fps-/-tps/Uncharted-Legacy-of-Thieves-Collection-Test-GPU-CPU

Bei den GPU-Tests kannst du neben der Auflösung auch die getestete CPU auswählen. Zum Beispiel den alten 5960X, wo Nvidia inkl. der 4090 gegen RDNA2 abkackt ;)

r3ptil3
2022-10-24, 11:29:32
AMD Preps Up Ryzen 7 7700 “Zen 4” CPU, Non-X 65W Chips Coming To AM5 Soon

https://wccftech.com/amd-preps-up-ryzen-7-7700-zen-4-cpu-non-x-65w-chips-coming-to-am5-soon/

Sehr schön, aber wie positioniert man ein solches Produkt preislich?

Ryzen 7600X = 300$
Ryzen 7700X = 400$

350$ ergibt keinen Sinn, weil man zwei andere Produkte praktisch überflüssig machen würde.

Durch den, zum Glück, tollen Wettbewerb sehe ich folgendes:

Ryzen 7600 65W = 200$
Ryzen 7700 65W = 275$

dildo4u
2022-10-24, 11:36:37
Solche Modelle müssen schon für OEMs kommen damit sie ihre Schrott Kühler verbauen können.
Es gab z.b den 5800 den man nicht einzeln kaufen konnte.

https://www.amd.com/de/products/cpu/amd-ryzen-7-5800

HOT
2022-10-24, 11:42:09
Dir ist schon klar, dass nach allen vorliegenden Daten Zen4C bisher "einfach nur" die logische Fortführung der Zen3(+) Kerne von Rembrandt und Cezanne ist?! :wink:
Das scheinen primär Kerne mit reduziertem L3 und angepasster Auslegung auf LowPower zu sein denen die jetzt einfach erstmals nur ne dedizierte Bezeichnung geben wird und die sie auch für Server CCDs zu nutzen statt das Design nur für die APUs zu adaptieren. :tongue:

Bin momentan davon überzeugt, das Zen4"C" letztlich genau das ist was wir auch in den ULP APUs sehen werden.

Und wenn die Bergamo CCDs erst produziert sind, ist es auch kein Hexenwerk die ganze auf normalen AM5 Desktop SKUs zu implementieren.

Die TR Plattform scheint eh eine Sackgasse zu sein, da käme so eine Variante mit maximierter Kernzahl grade recht würde ich sagen, abhängig davon was Intel macht.

Das ist denke ich einfach falsch. Zen3+ ist eine Fortführung von Zen3, eine optimierte N6-Variante. Das ist bei Zen4c vollkommen anders.

basix
2022-10-24, 12:48:24
AMD Preps Up Ryzen 7 7700 “Zen 4” CPU, Non-X 65W Chips Coming To AM5 Soon

https://wccftech.com/amd-preps-up-ryzen-7-7700-zen-4-cpu-non-x-65w-chips-coming-to-am5-soon/

Sehr schön, aber wie positioniert man ein solches Produkt preislich?

Ryzen 7600X = 300$
Ryzen 7700X = 400$

350$ ergibt keinen Sinn, weil man zwei andere Produkte praktisch überflüssig machen würde.

Durch den, zum Glück, tollen Wettbewerb sehe ich folgendes:

Ryzen 7600 65W = 200$
Ryzen 7700 65W = 275$

350$ macht sehr wohl Sinn:
- ~7700X MT und ST Performance -> https://www.computerbase.de/2022-09/amd-ryzen-7950x-7900x-7700x-7600x-test/4/#abschnitt_leistung_in_multicorelasten_klassisch
- ST faktisch gleich
- MT bei 96% (65W TDP // 88W PPT)

Wieso sollte AMD da weniger als bei 7600X verlangen? Macht keinen Sinn.

Meine Prognose:
- 7600 = 249$
- 7700 = 349$

Klar, Intel hat mit dem 13600K eine gute CPU im Angebot, welche vor allem dem 7700(X) das Leben schwer macht. Hier sind die E-Cores für Intel Gold wert, weil sich das Teil effektiv wie eine ~10C CPU in MT-Rendering usw. verhält ;)

robbitop
2022-10-24, 13:00:14
Sehr gute Nachrichten. SKUs mit niedriger SKU für alle, die das wollen und auch günstiger. :up:
Jetzt müssen nur noch die Boardpreise runter.

basix
2022-10-24, 13:33:07
Jetzt müssen nur noch die Boardpreise runter.
In der Tat. B650 ist momentan etwas zu teuer. Von B650E reden wir noch gar nicht ;)

robbitop
2022-10-24, 13:35:44
Mir ist aufgefallen, dass selbst die billigsten Boards keine Budgetboards sind von der Ausstattung her. Soziemlich alles hat Wifi6 und so einen Schnulli. Entsprechend nehme ich an, dass das mittelfristig noch kommt. Auch soll wohl der Transport aktuell vor allem per Luftfracht kommen. Wenn die Schiffe ankommen sollten die Preise aufgrund besserer Logistikpreise auch sinken. Ich gehe mal davon aus, dass man Boards für deutlich unter 200 EUR Q1 2023 bekommen wird.

r3ptil3
2022-10-24, 13:39:58
In der Tat. B650 ist momentan etwas zu teuer. Von B650E reden wir noch gar nicht ;)

Ich habe das ASUS B650E-I im Fokus.
Ist in Deutschland erstaunlicherweise über 100 Euro teurer.

Aktuell gibt's sogar 45.- CHF Cashback.
https://i.ibb.co/887FHtS/image.png

Das Board hat praktisch alles was man braucht.

Nur die CPUs... 7600X jetzt, Zen4-3D später - schwierig.
Oder lieber noch ein paar Monate warten und ein Board holen, das schon einige Fehlerkorrekturen erfahren hat.

Savay
2022-10-24, 13:45:19
Das ist denke ich einfach falsch. Zen3+ ist eine Fortführung von Zen3, eine optimierte N6-Variante.

Ich bezog mich nicht auf das "+" :tongue:
Dir ist schon klar, dass Zen1-3 bisher eine recht generische Bezeichnung ist?

Davon gab es seit Zen1 bereits schon immer defacto zwei Varianten/Implementierungen.
Eine HPC Version in den Desktop/Server Dies/CCDs (Matisse bspw. mit 4MB L3/Core) und eine LP Variante mit reduziertem Cache und anderem Betriebspunkt in den APUs (Renoir bspw. mit 1MB L3/Core)
Es ist ja nicht nur so, dass die vom Cache abweichen, auch das Taktverhalten und die Takt/Leistungskurve ist eine ganz andere.

Das neue ist einfach, dass sie die cachereduzierte LP Version jetzt separat als Zen Variante benennen und auch für Server vermarkten.

Ich gehe davon aus, dass sich das langfristig zu ner eigenständigeren "Little"-Core Variante entwickeln wird, aber viel mehr als die Adaption der bisher APU exklusiven Kernvarianten wird das für Zen4C noch gar nicht sein.

Soziemlich alles hat Wifi6 und so einen Schnulli. Entsprechend nehme ich an, dass das mittelfristig noch kommt.

Besser wäre es...
Wenn ich WLAN brauche nehme ich nen Laptop. :freak:

MSABK
2022-10-24, 13:52:18
Solange keine Boards für 139€ +-10€ erscheinen, wird es schwierig werden für AMD.

Gipsel
2022-10-24, 14:12:13
Mir ist aufgefallen, dass selbst die billigsten Boards keine Budgetboards sind von der Ausstattung her. Soziemlich alles hat Wifi6 und so einen Schnulli. Entsprechend nehme ich an, dass das mittelfristig noch kommt. Auch soll wohl der Transport aktuell vor allem per Luftfracht kommen. Wenn die Schiffe ankommen sollten die Preise aufgrund besserer Logistikpreise auch sinken. Ich gehe mal davon aus, dass man Boards für deutlich unter 200 EUR Q1 2023 bekommen wird.
Solange keine Boards für 139€ +-10€ erscheinen, wird es schwierig werden für AMD.
Hat AMD bei der Vorstellung nicht gesagt, daß sie B650-Einsteigerboards in Zukunft ab 120€ oder so sehen?

Complicated
2022-10-24, 14:16:52
$ 125,- wurden genannt. Wenn wir Pech haben dürfen wir Steuer noch drauf rechnen und landen bei 150,-€

Platos
2022-10-24, 15:32:52
https://de.gamegpu.com/

Die testen immer mit allen CPUs alle GPUs ;) Halt jeweils pro Game Basis und nicht als Review. Beispiel:
https://de.gamegpu.com/Aktion-/-fps-/-tps/Uncharted-Legacy-of-Thieves-Collection-Test-GPU-CPU

Bei den GPU-Tests kannst du neben der Auflösung auch die getestete CPU auswählen. Zum Beispiel den alten 5960X, wo Nvidia inkl. der 4090 gegen RDNA2 abkackt ;)

Ah, das ist ja ne gute Seite. Kannte ich so noch nicht mit diesen Tests.

Bei dem von dir verlinkten Spiel limitiert ja schon ein 11900k bei 4k und 4090. Der 12600k und 7900X sind dann gleichauf.

Danke für die Webseite. Muss ich mir gleich noch andere Spiele anschauen.

user77
2022-10-24, 19:01:52
Ich habe das ASUS B650E-I im Fokus.
Ist in Deutschland erstaunlicherweise über 100 Euro teurer.

Aktuell gibt's sogar 45.- CHF Cashback.
https://i.ibb.co/887FHtS/image.png

Das Board hat praktisch alles was man braucht.

Nur die CPUs... 7600X jetzt, Zen4-3D später - schwierig.
Oder lieber noch ein paar Monate warten und ein Board holen, das schon einige Fehlerkorrekturen erfahren hat.

sorry das geht gar nicht ein AM4 itx mit Wifi kostet 140€ (ASRock B550M-ITX/ac)
AM5 Board müssen dringend billiger werden...

HPVD
2022-10-24, 20:57:03
Genoa wird nun 10. November vorgestellt: https://www.servethehome.com/amd-epyc-genoa-launches-10-november-2022/

Slipknot79
2022-10-24, 22:57:26
https://de.gamegpu.com/

Die testen immer mit allen CPUs alle GPUs ;) Halt jeweils pro Game Basis und nicht als Review. Beispiel:
https://de.gamegpu.com/Aktion-/-fps-/-tps/Uncharted-Legacy-of-Thieves-Collection-Test-GPU-CPU

Bei den GPU-Tests kannst du neben der Auflösung auch die getestete CPU auswählen. Zum Beispiel den alten 5960X, wo Nvidia inkl. der 4090 gegen RDNA2 abkackt ;)


Top Tests! Das ist genau das, was PCGH usw. ständig verschlafen abzuliefern und stattdessen in 720p rauf und runterballern. :rolleyes:
Also muss das jemand anderer nachholen. :rolleyes:
Gleich mal den Laden studieren. (y)

r3ptil3
2022-10-24, 23:03:56
sorry das geht gar nicht ein AM4 itx mit Wifi kostet 140€ (ASRock B550M-ITX/ac)
AM5 Board müssen dringend billiger werden...

Ganz schlechter Vergleich.

Das B650E-I hat PCIe 5.0 für GPU und M.2, Wifi 6E Modul und noch zahlreiche andere Komponenten, welche den Preis des Boards in die Höhe treiben.
Vergleichbare Boards sind da locker 100-150 Euro teurer.

Dein B550M-ITX/AC gehört zudem den Entry-Boards und nutzt nicht selten die günstigsten möglichen Bauteile.

Und wenn du meinen Post gelesen hast, dann merkst du dass da B650E-I abzüglich Cashback umgerechnet bei unter 300 Euro liegt. Gehört damit zu den günstigsten Boards der AM5 Modelle.

Dass die Plattform insgesamt noch viel zu teuer ist, bestreite ich aber nicht.

Platos
2022-10-25, 09:17:11
Top Tests! Das ist genau das, was PCGH usw. ständig verschlafen abzuliefern und stattdessen in 720p rauf und runterballern. :rolleyes:
Also muss das jemand anderer nachholen. :rolleyes:
Gleich mal den Laden studieren. (y)

Jap. 720p Tests sind ja schön und gut, aber Praxisrelevant werden sie erst, wenn man die anderen gängigen mittestet, um "hochzurechnen", wann! denn das 720p Szenario in anderen Auflösungen "ankommt".

Manche anderen Webseiten testen da auch durchs Band alle relevanten Auflösungen durch, aber oft nur avg FPS oder wenn nicht, dann ist es sicher immer die Top-CPU. Die haben aber die wenigsten.

Also da muss ich auch nochmals betonen: Super Seite. Da kann man wunderbar anschauen, welche CPU wie sehr limitiert bei einer spezifischen Grafikkarte auf einer spezifischen Auflösung.

BlacKi
2022-10-25, 09:22:40
720p tests dienen als einordnung der leistung. nicht direkt praxisrelevanz. aber 100% praxisrelvanz gibt es sowieso nicht beim spielen. mir scheint, die leute wollen die fps in spielen in benchmarks direkt ablesen. das ist komplett falsch und war nie richtig.

Platos
2022-10-25, 09:35:57
Ja, dient der Einordnung der Leistung in einem Szenario, von dem man nicht wissen kann, wann es in der "Praxis" (also seiner Auflösung) ankommt, wenn! man nicht auch immer höhere Auflösungen mittestet. Und das auf verschiedenen GPUs und CPUs. Und RAM am besten.

Ich wüsste auch nicht, wo hier irgendjemand eine 100%-ige übereinstimmung gefordert hätte.

720p Tests alleine sind einfach eine nutzlose Beratung. Ja, man testet CPUs, aber es hilft kein bisschen, mit 720p Tests alleine die geeignete CPU für seine Auflösung und seine gewünschte Lebensdauer des PCs zu finden.

Dazu braucht es auch noch 1080p, 1440p und 2160p Tests.

fondness
2022-10-25, 09:40:42
https://de.gamegpu.com/

Die testen immer mit allen CPUs alle GPUs ;) Halt jeweils pro Game Basis und nicht als Review. Beispiel:
https://de.gamegpu.com/Aktion-/-fps-/-tps/Uncharted-Legacy-of-Thieves-Collection-Test-GPU-CPU

Bei den GPU-Tests kannst du neben der Auflösung auch die getestete CPU auswählen. Zum Beispiel den alten 5960X, wo Nvidia inkl. der 4090 gegen RDNA2 abkackt ;)

Danke für den Link. Zeigt, dass der GPU-Treiber wichtiger ist als man denkt. Speziell wenn man nicht immer die aktuellste High-End-CPU hat.

Platos
2022-10-25, 09:41:58
Danke für den Link. Zeigt, dass der GPU-Treiber wichtiger ist als man denkt. Speziell wenn man nicht immer die aktuellste High-End-CPU hat.

Wo liest du das ab? Wurden da verschiedene Treiber im selben Spiel getestet?

basix
2022-10-25, 11:08:20
AMD vs. Nvidia ;)

Ob Treiber oder GPU Architektur, lässt sich nicht genau trennen. Tendenz, dass der Treiber den Hauptunterschied ausmacht, ist aber wohl schon richtig.

vinacis_vivids
2022-10-25, 11:39:19
Mit Zen4 gibs nun AVX512 instructions in bester Ausführung, die mehrere gens (3-5 Jahre) vor Intel liegt:
https://www.anandtech.com/show/17601/intel-core-i9-13900k-and-i5-13600k-review/9
https://abload.de/img/130475sqifl.png

68,7 Mio. 3D-Partikel werden da bewegt beim 7950X. Das ist absolut Irre. :eek:

Wenn davon auch nur halbwegs was umgesetzt wird bei den Game-Engines haben wir eine völlig andere Ära von Spielen mit dynamischen 3D-Movement von Partikeln und Game-Physik.

Savay
2022-10-25, 11:42:41
Echt krass finde ich in Uncharted das Verhalten des Ryzen 7 2700X mit unterschiedlichen GPUs im absolute Treiberlimit.
Von viel langsamer als der i3-10100 auf etwas schneller, nur durch Wechsel der GPU. :hammer:

Könnte eigentlich nur heißen, dass man als Ryzen Nutzer spätestens beim späteren Aufrüsten eigentlich keine nV Karte mehr in Betracht ziehen kann.

Und es bedeutet, dass man nicht einfach mit einem GPU Hersteller im angeblichen CPU Limit testen kann und das ganze einfach hochrechnet, nach dem Motto, der eine hat halt einfach nur einen relativen Overhead und lediglich eine Parallelverschiebung.
Durch den Wechsel ändert sich ja nicht nur die Balkenlänge, sondern anscheinend teilweise auch die Relationen ziemlich drastisch.

Und das hat dann mit einem CPU Limit in dem Sinne auch nicht mehr viel zu tun.
Viel mehr müsste man langsam mal konsequent von Treiberlimit sprechen!

Mit Zen4 gibs nun AVX512 instructions in bester Ausführung, die mehrere gens (3-5 Jahre) vor Intel liegt

Mit Gen 11 war es noch umgekehrt.
Das ist keine wirkliche AMD Stärke, sondern reinste Intel Dummheit. :freak:

Badesalz
2022-10-25, 11:56:50
@vinacis_vivids
Dir ist nur selten klar was und worüber du schreibst oder?

Ungeachtet dessen :rolleyes: ist es aber schade, daß hierbei https://www.spec.org/cpu2017/Docs/benchmarks/607.cactuBSSN_s.htmln
der 7950X in Single langsamer als gar der 11900K ist...

Ja, dient der Einordnung der Leistung in einem Szenario, von dem man nicht wissen kann, wann es in der "Praxis" (also seiner Auflösung) ankommt, wenn! man nicht auch immer höhere Auflösungen mittestet. Und das auf verschiedenen GPUs und CPUs. Und RAM am besten.

Ich wüsste auch nicht, wo hier irgendjemand eine 100%-ige übereinstimmung gefordert hätte.

720p Tests alleine sind einfach eine nutzlose Beratung. Ja, man testet CPUs, aber es hilft kein bisschen, mit 720p Tests alleine die geeignete CPU für seine Auflösung und seine gewünschte Lebensdauer des PCs zu finden.

Dazu braucht es auch noch 1080p, 1440p und 2160p Tests.Ich mecker über diesen Blödsinn schon seit Jahren, aber die Horden aus der pseudonerd Forenblase wollen nichts darüber wissen ;)

Ich weiß aber auch nicht warum keine ausreichend lange Normstrecke mit 25% Gefälle definiert ist um bei Autos die 0-100kmh Zeiten zu bestimmen. Wie soll man denn sonst herausfinden welches maximale Potenzial im Auto/Motor steckt? :uclap:

Mit Gen 11 war es noch umgekehrt.
Das ist keine wirkliche AMD Stärke, sondern reinste Intel Dummheit. :freak:Was soll daran dumm sein? Denen ist bei guter AVX-512 Auslastung wohl das gleiche passiert wie NV mit der RT40 Titan. Die kommt daher nicht. Und Intel erlaubt vorerst nicht durchgehend AVX-512.

Hammer des Thor
2022-10-25, 12:19:07
Mir ist aufgefallen, dass selbst die billigsten Boards keine Budgetboards sind von der Ausstattung her. Soziemlich alles hat Wifi6 und so einen Schnulli. Entsprechend nehme ich an, dass das mittelfristig noch kommt. Auch soll wohl der Transport aktuell vor allem per Luftfracht kommen. Wenn die Schiffe ankommen sollten die Preise aufgrund besserer Logistikpreise auch sinken. Ich gehe mal davon aus, dass man Boards für deutlich unter 200 EUR Q1 2023 bekommen wird.

Ja, manche boards sind ja erst ab Anfang Januar wieder verfügbar wie das Asus rog 650-f-gaming. Dieses board war am Anfang bei viel mehr Händlern verfügbar jetzt nur noch bei 2 gelistet bei einen davon erst ab Januar wieder. Wobei Luftfracht bei hochpreisigen Produkten die Preise nicht allzu sehr verteueren dürfte zumal sogar frisches Obst aus Südamerika eingeflogen wird.
Was meinst Du mit "Schnulli"?

Der_Korken
2022-10-25, 12:27:16
Ich weiß aber auch nicht warum keine ausreichend lange Normstrecke mit 25% Gefälle definiert ist um bei Autos die 0-100kmh Zeiten zu bestimmen. Wie soll man denn sonst herausfinden welches maximale Potenzial im Auto/Motor steckt? :uclap:

Falsche Analogie.

720p = Beschleunigungstest auf leerem Rollfeld
4K = Beschleunigungstest im Stau im Berufsverkehr

Letzteres ist ja deutlich praxisrelevanter, weil das öfter vorkommt. Da kommt endlich ans Licht, dsas ein Lamborghini gar nicht schneller als ein Corsa ist.

/überspitzungsmodus

25% Gefälle = CPU-Test in 720p mit Stickstoffkühlung

Badesalz
2022-10-25, 12:37:20
@Der_Korken
Falsche Analogie. Praxisrelevanz war gefragt. In der Praxis steht man nicht dauernd im Stau oder steckt im Berufsverkehr. Daher sind die 4k ungefähr so relevant wie die 720p. Was praxisrelevant ist bestimmt recht gut die Steam-Statistik ;)

basix
2022-10-25, 12:49:01
Mit Zen4 gibs nun AVX512 instructions in bester Ausführung, die mehrere gens (3-5 Jahre) vor Intel liegt:
https://www.anandtech.com/show/17601/intel-core-i9-13900k-and-i5-13600k-review/9
https://abload.de/img/130475sqifl.png

68,7 Mio. 3D-Partikel werden da bewegt beim 7950X. Das ist absolut Irre. :eek

Bitte fairerhalber Rocket Lake dazunehmen ;)
https://www.anandtech.com/show/16495/intel-rocket-lake-14nm-review-11900k-11700k-11600k/7

Platos
2022-10-25, 12:51:13
2160p ist natürlich nur bei einem Bruchteil der Masse relevant, getestet werden sollte es allerdings trotzdem. Ansonsten muss man auch keine RTX 4090 oder 12900K/ 7950X mehr testen, weil ist ja nur ein Bruchteil der Käuferschicht.

2160p ist nun wirklich langsam eine Auflösung, die nicht mehr zu ignorieren ist.

720p Tests alleine sind reine Theorie. Diese Theorie kann sich irgendwann, wenn die Grafikkarten schneller werden, in Praxis umwandeln. Aber wann das passiert, kann man mit nur 720p Tests kein bisschen einschätzen. Dazu braucht es die Auflösungen darüber. Und man testet für die Nutzer, d.h man muss dementsprechend die benutzten Auflösungen testen. Dazu gehört auch 4k. 4K Nutzer sind laut Steam mittlerweile in der Zahl etwa 1/5 so gross, wie 1440p Nutzer. Also das ist nicht mehr zu vernachlässigen.

Wobei Steam natürlich nicht alles abdeckt.

720p ist reine Theorie, die man mithilfe von anderen Tests (in anderen Auflösungen) dazu gebrauchen kann, um abzuschätzen, wann (=bei welcher GPU-Rechenleistung) in seiner Auflösung CPU xyz anfängt zu bremsen. Ohne die anderen Tests ist 720p einfach nur nutzlos. Man muss von 720p auf die Praxis schliessen können und das geht nicht, wenn man nur 720p Tests hat.

Und vor allem kann man nicht einfach nur immer mit den Top-Dogs testen. Genau das tun aber fast alle. Die verlinkte Seite von Basix ist da super. Eig. die einzige, die ich (jetzt) kenne, die sowas macht. Das einzige, was die besser machen könnten, wäre, auch noch 2-3 ältere CPUs mit rein zu nehmen (wie 4770k oder 6700k etc.)

Badesalz
2022-10-25, 13:38:55
Bitte fairerhalber Rocket Lake dazunehmen ;)
https://www.anandtech.com/show/16495/intel-rocket-lake-14nm-review-11900k-11700k-11600k/7Das gefällt mir. Das ist ja fast exakt die doppelte Leistung beim 7950X, obwohl 2x 256bit :tongue:

Habs aber auch schon erzählt, daß mir im Gegensatz zu dem Müll aus früheren Zeiten von 2x 64bit statt 128bit :wink: das bei AVX-512 an sich gefällt. Das bringt trotzdem noch einen klaren Mehrertrag gegenüber AVX2 und lässt die Watts trotzdem nicht gleich geradezu explodieren.

basix
2022-10-25, 13:39:31
Echt krass finde ich in Uncharted das Verhalten des Ryzen 7 2700X mit unterschiedlichen GPUs im absolute Treiberlimit.
Von viel langsamer als der i3-10100 auf etwas schneller, nur durch Wechsel der GPU. :hammer:

Könnte eigentlich nur heißen, dass man als Ryzen Nutzer spätestens beim späteren Aufrüsten eigentlich keine nV Karte mehr in Betracht ziehen kann.

Und es bedeutet, dass man nicht einfach mit einem GPU Hersteller im angeblichen CPU Limit testen kann und das ganze einfach hochrechnet, nach dem Motto, der eine hat halt einfach nur einen relativen Overhead und lediglich eine Parallelverschiebung.
Durch den Wechsel ändert sich ja nicht nur die Balkenlänge, sondern anscheinend teilweise auch die Relationen ziemlich drastisch.

Und das hat dann mit einem CPU Limit in dem Sinne auch nicht mehr viel zu tun.
Viel mehr müsste man langsam mal konsequent von Treiberlimit sprechen!
PCGH testet seit einiger Zeit Radeon und Nvidia in ihren CPU-Reviews ;) Kudos für das!

vinacis_vivids
2022-10-25, 19:15:28
Ryzen 7 7700 - 65W
https://wccftech.com/amd-ryzen-7-7700-non-x-zen-4-cpu-benchmark-leaks-out-5-3-ghz-clocks-at-65w/

Diese Zen4-CPU ist/wird der Verkaufsschlager.

Platos
2022-10-25, 19:24:51
Naja, dank hohen Plattformpreisen wohl eher (noch) nicht.

MSABK
2022-10-25, 19:44:40
Ryzen 7 7700 - 65W
https://wccftech.com/amd-ryzen-7-7700-non-x-zen-4-cpu-benchmark-leaks-out-5-3-ghz-clocks-at-65w/

Diese Zen4-CPU ist/wird der Verkaufsschlager.

Wenn es Mainboards für 129€ gibt warum nicht. Wenn der 3d kommt dann werden die Preise auch direkt um 100€ sinken meiner Meinung nach.

DaHansman
2022-10-25, 19:54:50
Ich bin beim DDR5 Ram noch skeptisch. Aber bei den 3d Varianten gibts dann wohl kein Halten mehr. :)

basix
2022-10-25, 20:43:20
Das gefällt mir. Das ist ja fast exakt die doppelte Leistung beim 7950X, obwohl 2x 256bit :tongue:

Habs aber auch schon erzählt, daß mir im Gegensatz zu dem Müll aus früheren Zeiten von 2x 64bit statt 128bit :wink: das bei AVX-512 an sich gefällt. Das bringt trotzdem noch einen klaren Mehrertrag gegenüber AVX2 und lässt die Watts trotzdem nicht gleich geradezu explodieren.

Falls du an Zen 4 mit AVX-512 interessiert bist: Hier gibt es die umfangreichsten Benches:
https://www.phoronix.com/review/amd-zen4-avx512

HPVD
2022-10-25, 21:59:15
Falls du an Zen 4 mit AVX-512 interessiert bist: Hier gibt es die umfangreichsten Benches:
https://www.phoronix.com/review/amd-zen4-avx512

Zusammenfassung:
On average for the tested AVX-512 workloads, making use of the AVX-512 instructions led to around 59% higher performance compared to when artificially limiting the Ryzen 9 7950X to AVX2 / no-AVX512.

From these results I am rather impressed by the AVX-512 performance out of the AMD Ryzen 9 7950X. While initially being disappointed when hearing of their "double pumping" approach rather than going for a 512-bit data path, these benchmark results speak for themselves.

https://www.phoronix.com/review/amd-zen4-avx512/6

=> mit diesen +59% sollte AMD auch in den letzten Bereichen wo Intels Xeons dank AVX512 trotz geringerer Core Anzahl noch in Führung lagen (manche HPC,KI, intel one optimiert...) klar vorbeiziehen :D

G3cko
2022-10-25, 23:22:12
720p Tests alleine sind reine Theorie.

Das spielt keine Rolle. Spiele-Engines sind so designt, dass sie nach Möglichkeit die Grafikkarte immer zu 100% auslastet. Es geht schließlich darum möglichst viele Bilder in möglichst hoher Qualität zu liefern.

Die CPU ist nur Mittel zum Zweck, da sie der Grafikkarte die nötigen Daten zur Berechnung zu liefert.

Ein Spiel welches CPU limitiert, ist wie ein Unfall. Das lässt sich aber nicht immer vermeiden, gerade in Strategiespielen. Daher auch der Druck der Industrie nach Low Level APIs.

Wir wollen aber wissen, welcher Prozessor für Spiele am besten geeignet ist. Das finden wir aber nur heraus, wenn wir alle anderen limitierenden Faktoren, also die Grafikkarte ausblenden. Auch andere Komponenten könnten limitieren. Eine uralte HDD oder zu wenig RAM können ebenso zu Rucklern führen wofür die CPU nichts kann.

CPUs testet man in 720p
GPUs testet man in 4k oder 8k

Wenn du das nicht verstehst, bitte anderes Forum vollspammen und wieder kommen wenn das Wissen angekommen ist...

vinacis_vivids
2022-10-25, 23:50:16
@G3cko

720p hat sich schon häufiger als Fail hingestellt, weil meistens mit der "schnellsten" NV-Karte getestet wurde. Mit dieser Metrik wurden Käufer schon getäuscht, die darauf hofften die schnellste CPU zu bekommen um dann mit einer AMD-GPU zu kombinieren.

Mitunter können solche Entscheidungen vorkommen wie hier:
CP2077 1080p
https://abload.de/img/rdna2ga1021qkgk.png

Es hat sich schon häufiger herausgestellt, dass NV uArch, hier Ampere häufiger die Leistungen von Zen uArch nicht rausholen kann, im Gegensatz zu RDNA2.

Folgendes Beispiel spricht gegen 720p als CPU-Test:
Neuere Engines wie Spider Man Remastered (Insomniac Games) lasten die CPU auch und insbesondere in höheren Auflösungen extrem gut aus wenn RT zugeschaltet wird.

https://tech4gamers.com/spider-man-remastered-cpu-intensive/#:~:text=Spider%2DMan%20Remastered%20can%20prove,100%20watts%20of%20power%20usag e.

Mit steigender Auflösung steigt somit auch die CPU-Last. Die 720p Test sind als Metrik (schon länger) nicht uneingeschränkt verwendbar.
Insbesondere die eingebauten Tensor-Cores von NV scheinen wie eine Art CPU zu wirken wenn proprietäres NV-DLSS zugeschaltet wird.

Zossel
2022-10-26, 05:31:48
CPUs testet man in 720p
GPUs testet man in 4k oder 8k

https://preview.redd.it/0wday281z3p21.jpg?width=640&crop=smart&auto=webp&

Badesalz
2022-10-26, 06:43:22
Falls du an Zen 4 mit AVX-512 interessiert bist: Hier gibt es die umfangreichsten Benches:
https://www.phoronix.com/review/amd-zen4-avx512Leider fahr ich weder Playsi-Emulatoren noch will ich den ganzen Tag auf y-cruncher starren.
Sonst wäre ich natürlich froh, wenn sich sonst irgendeine nützliche Soft durch die Nutzung von AVX(1) bereits hervortun könnte.

Was bisschen Hoffnung macht :usweet: bUseAVX (Boolean) ;)

Hier sieht es zwar bis zu 1%low recht ok aus, aber gegen 0.1%low hilft es auch nicht. Meist sogar schadet es...
https://www.youtube.com/watch?v=BXBSVT9lpGw

G3cko
2022-10-26, 08:53:11
@vinacis_vivids

720p ist immernoch die beste Möglichkeit für Laien um die Leistungsfähigkeit einer CPU in Spielen zu ermitteln. Unter 4k limitiert nunmal allzu oft die GPU, weshalb viele Laien auch ein Problem mit 720p haben und meinen "es bringt ja nichts" da alle CPUs vermeintlich gleich schnell sind. Sie verstehen halt nicht, dass bereits die GPU limitiert.

Aber auch die Anforderungen an die CPU steigen mit der Zeit. Und dann macht es nach 3-4 Jahren sehr wohl einen Unterschied ob man sich für einen Bulldozer oder einen SandyBridge entschieden hat. Da hat man dann teilweise 40% verschenkt, nur weil die Balken mal unter 4k gleich lang waren.

Dein Beispiel geht bei der Analyse schon tiefer, aber trifft nicht den Kern der Frage: "Welche CPU ist für die Zukunft die beste Wahl."

Das Problem, welches du ansprichst ist die unterschiedliche CPU Performance mit unterschiedlichen Grafikkarten. Hierzu gab es mal im Luxx einen umfangreichen Thread:

https://www.hardwareluxx.de/community/threads/amd-und-die-bescheidene-performance-im-dx11-cpu-limit.1089150/

Der Titel ist jedoch falsch gewählt. Es dürfte nicht "AMD und die bescheidene Performance im DX11 CPU Limit" lauten, sondern "Nvidias hervorragende Treiberarbeit zur Behebung des DX11-CPU-Overheads."

Es hieß ja mal DX11 sei die letzte Grafik API seitens Windows. Wie du sicherlich weißt hat AMD sich auf Mantle bzw. Vulkan konzentriert um das Problem des CPU-Overheads zu lösen. Nvidia hingegen hat via Treiber versucht den Mainthread aufwändig zu parallelisieren um den Overhead zu reduzieren. AMDs Treiber hingegen hat so gearbeitet wie es die DX11 APi vorgesehen hat.

Das führt natürlich dazu, dass unterschiedliche CPUs mit AMD oder Nvidia unterschiedlich performen. Wenn man jedoch konstant mit AMD oder Nvidia benchmarkt ändert das nichts an der Aussage, dass 720p für Laien die beste Möglichkeit ist die schnellste Gaming-CPU zu ermitteln.

Wie macht das nun der Profi?

Der hat noch ein paar weitere wichtige Hintergrundinformationen:

- Eine CPU mit vielen Kernen und somit freien Ressourcen in der Breite produziert ruhigere Frametimes, als eine mit weniger Kernen aber gleicher Architektur und Takt.

- Eine CPU mit hohem Takt und IPC produziert höhere fps, da Spiele fast immer einen asymetrischen Workload haben und ein Thread limitiert.

- Und die wichtigste Weisheit: DER PC IST NICHT DIE LEADPLATFORM! Wer weiß welche CPU in den Konsolen steckt, weiß auch wieviele Threads seine CPU im Gaming-PC mindestens haben sollte.

Eine Server CPU mit 48 Kernen und 2Ghz Takt ist genauso sinnvoll wie ein DualCore mit 8 Ghz.

Die ideale Gaming-CPU hat aktuell also mindestens 8 Kerne / 16 Threads und die höchste SingleCore-Leistung (Takt/ IPC) welche möglich ist. Fertig.

Wenn man nun weiß, welche CPU in den kommenden Konsolen stecken wird, dann kann man sich entsprechend danach ausrichten.

Neben Bulldozer der zu wenig SingleCore-Performance hatte mal ein anderes Negativbeispiel: Der vielbeworbene 6600k fürs Gaming war bereits ein 3/4 Jahr nach Release in BF1 überfordert. Kein HT, alle CPU-Cores zu 100% ausgelast. Folge: durch Mikroruckler unspielbar.

Badesalz
2022-10-26, 09:18:32
720p ist immernoch die beste Möglichkeit für Laien um die Leistungsfähigkeit einer CPU in Spielen zu ermitteln.Ja? Skalieren die Ergebnisse entsprechend bei FHD und 1440, also da, womit all die "Laien" (?) grad zocken?

"Nvidias hervorragende Treiberarbeit zur Behebung des DX11-CPU-Overheads."Falls dir das heute noch nicht klar ist: Diese "hervorragende Arbeit", ist ein Windows-Hack. Nicht weil man das so nur beschimpfen möchte. Das ist ein waschechter Systemhack ;) Was seinen Mehrwert zwar nicht schmälert, aber es ist und bleibt eben ein Hack.

720p für Laien die beste Möglichkeit ist die schnellste Gaming-CPU zu ermitteln.Die unsinnigste.

Platos
2022-10-26, 10:02:32
Er checkts halt nicht. Für Laien ist 720p alleine! die mit Abstand schlechteste Möglichkeit, die Leistung für sein Szenario (Auflösung, Framerate, gewünschte Lebensdauer der CPU) zu ermitteln. Genau das sollte doch aber das Ziel einer Testredaktion sein, also Laien vermitteln, was sie für ihr! Szenario brauchen.

720P Tests laden gerade zu ein, eine völlig überdimensionierte CPU zu kaufen.

Auch die meisten 1080P Tests (die meist genutzte Auflösung) sind für die Masse völlig irrelevant. Weil der Normalouser mit ner GTX 1060 oder sowas rumrennt. Die CPUs werden bei denen also auch in 1080p nicht so skalieren, wie die 1080p Benches mit RTX 3090 oder ab jetzt vermutlich meistens 4090.

Daher sind solche Seiten, wie von Basix verlinkt, eig. die einzig sinnvolle Testmethode. Alles andere ist Mumpilz.

Bis der Normalouser eine Grafikkarte mit der Perfomance einer 3090 im Kasten hat, wirds noch 6 Jahre oder mehr vergehen.

Der_Korken
2022-10-26, 10:06:36
Ja? Skalieren die Ergebnisse entsprechend bei FHD und 1440, also da, womit all die "Laien" (?) grad zocken?

Haben alle Laien eine RTX 4090 im Rechner, damit die die 1440p-Resultate auf ihre eigenen Systeme übertragen können? Nein? Dann ist die Auflösung wohl genauso "sinnlos".

Platos
2022-10-26, 10:11:10
Haben alle Laien eine RTX 4090 im Rechner, damit die die 1440p-Resultate auf ihre eigenen Systeme übertragen können? Nein? Dann ist die Auflösung wohl genauso "sinnlos".

Genau, deswegen gehören zu einem CPU-Beratungsartikel (Welche CPU brauche ich) auch jeweils verschiedene Grafikkarten dazu.

Siehe hier z.B:

https://de.gamegpu.com/Aktion-/-fps-/-tps/Uncharted-Legacy-of-Thieves-Collection-Test-GPU-CPU

Badesalz
2022-10-26, 10:12:24
@Der_Korken
Freut mich, daß du so langsam dahinter kommst :tongue:

Das kann man primär auch Testen wie man lustig ist. Wenn man seine Arbeit halt mag :wink: Sekundär aber sollte man aber auch realistische Szenarien mit paar realistischen Paarungen EBENFALLS abliefern.

Sonst macht das so oder so, doer auch so..., eben keinen Sinn, da man Tests ohne nützliche Aussagekraft macht. Kann man natürlich auch machen, dann muss solchen Tests halt auch eine entsprechende Gewichtung zugeteilt werden und das ist nicht jene, welche die Forenblase dazu produziert.

aufkrawall
2022-10-26, 10:17:43
Genau das sollte doch aber das Ziel einer Testredaktion sein, also Laien vermitteln, was sie für ihr! Szenario brauchen.

Nur bilden die meisten Tests nie und nimmer die Worst Cases für CPUs ab, weil die fast immer viel zu schlecht zu reproduzieren sind.
Um zu wissen, wie viel schneller eine CPU als eine andere ist in so einem Szenario (zumindest mit hoher Wahrscheinlichkeit), bleibt nur der Test im kompletten CPU-Limit. Wieso ist das für einige so verdammt schwer zu kapieren...

G3cko
2022-10-26, 10:17:46
720P Tests laden gerade zu ein, eine völlig überdimensionierte CPU zu kaufen.


Nö. Der 13600k wird doch aktuell in vielen Test lobend hervorgehoben. 4k Tests laden dazu ein sich ein Produkt schön zu reden. War lange Zeit immer wieder der Slogan der Bulldozer-Fraktion.

Platos
2022-10-26, 10:30:44
Zu Bulldozerzeiten hat man vermutlich auch nur mit avg FPS getestet, was halt null Aussagekraft hat. Abgesehen davon gab es zu Bulldozerzeiten keine Grafikkarten, die für 4k wirklich genug gut waren. Das ist so, als würde man heute 8K Benches (nativ) verlangen. Ist nicht das Selbe.

Aber hast es immer noch nicht verstanden. Man testet in vielen Auflösungen mit verschiedenen Grafikkarten. 720p alleine Testet erfolgreich Dinge, die der Normalouser nie in seinem Rechner sehen wird.

Zu Raptor-Lake mache ich keine grosse Aussagen, bis ich die Launchanalyse gesehen habe. Der 13600k ist aber sicher oberpowered (vermutlich auch wortwörtlich).

Für Gaming reicht nen 12400 bzw. dann irgendwann 13400 bzw. ein AMD Pendant. Von Zen4 ist ja leider gar nichts ein Pendant für gutes P/L wegen den Plattformpreisen.

Edit: Aber wieder lieferst du keinerlei Argumente. Nur weil der 13600K irgendwo empfohlen wird, ändert das genau gar nichts an der Sinnhaftigkeit von 720P Tests only.

Wenn du ernst genommen werden willst, musst du vlt. mehr wie "Nö" als Argument bringen.

BlacKi
2022-10-26, 10:33:14
Er checkts halt nicht. Für Laien ist 720p alleine! die mit Abstand schlechteste Möglichkeit, die Leistung für sein Szenario (Auflösung, Framerate, gewünschte Lebensdauer der CPU) zu ermitteln. Genau das sollte doch aber das Ziel einer Testredaktion sein, also Laien vermitteln, was sie für ihr! Szenario brauchen.

720P Tests laden gerade zu ein, eine völlig überdimensionierte CPU zu kaufen.

ach es geht nur darum, das die amd 16 kerner ihre zukünftige leistung nicht abbilden können, falls mal irgendwann die 16 kerne ausgelastet werden können.


aber wie soll da gpu limit helfen?


Für Gaming reicht nen 12400 bzw. dann irgendwann 13400 bzw. ein AMD Pendant. Von Zen4 ist ja leider gar nichts ein Pendant für gutes P/L wegen den Plattformpreisen.

du checkst es nicht. wenn ich 120fps haben will, dann brauche ich eine cpu die 120 fps schafft. da hat die auflösung nichts auszusagen.

beispiel:

wenn du 120fps mit einem 12400 hast und du in fhd mit einer 3050 spielst,

warum solltest du in 4k mit einer 3090 mit einem 12400 für 120 fps nicht klarkommen?

cpu leistung hat mit auflösung praktisch nichts am hut.

aufkrawall
2022-10-26, 10:33:47
Aber hast es immer noch nicht verstanden. Man testet in vielen Auflösungen mit verschiedenen Grafikkarten.

Für CPU-Tests nur verschwendete Zeit. Du siehst in CPU-Tests 720p, wie viele fps die CPU schafft. Dann kannst du dir Benchmarks von verschiedenen GPUs in höheren Auflösungen anschauen und entscheiden, welche CPU für den anvisierten Zweck genug fps liefert. Das große "Rätsel" ist gelöst.

Zossel
2022-10-26, 10:35:35
https://www.hardwareluxx.de/community/threads/amd-und-die-bescheidene-performance-im-dx11-cpu-limit.1089150/

Der Titel ist jedoch falsch gewählt. Es dürfte nicht "AMD und die bescheidene Performance im DX11 CPU Limit" lauten, sondern "Nvidias hervorragende Treiberarbeit zur Behebung des DX11-CPU-Overheads."


Es war absehbar das DX11 an die Decke schlagen würde und neue Konzepte notwendig waren. Wie auch bei SCSI vs. NVME.

Daher könnte der Titel auch lauten: "Warum reitet NV weiter ein totes Pferd?"

Platos
2022-10-26, 10:36:26
Für CPU-Tests nur verschwendete Zeit. Du siehst in CPU-Tests 720p, wie viele fps die CPU schafft. Dann kannst du dir Benchmarks von verschiedenen GPUs in höheren Auflösungen anschauen und entscheiden, welche CPU für den anvisierten Zweck genug fps liefert. Das große "Rätsel" ist gelöst.

Das sage ich doch die ganze Zeit. Es braucht noch andere Auflösungen. Ich sage doch die ganze Zeit, 720p alleine! ist mumpilz.

Zu sagen, es gibt ja andere Tests, ist hald ne Ausrede.

Redaktionen Testen nur für Enthusiasten. Mit Der Top-End CPU und Top-End GPU. Du hast recht, man muss dnan im Nachherein sich selbst noch alles andere zusammensuchen.

Ich kann das, aber ein Laie eben nicht. Der wird dann 720P Benches anschauen und sagen: Jo, 12900k ist beste...

ach es geht nur darum, das die amd 16 kerner ihre zukünftige leistung nicht abbilden können, falls mal irgendwann die 16 kerne ausgelastet werden können.


aber wie soll da gpu limit helfen?

Ich verstehe nicht ganz, was du mit dem nicht Abbilden meinst. Ehrlich.

Aber allgemein nochmals: Ein einziger! Test ist immer zu wenig. Natürlich kannst du nicht alle CPUs mit ner RTX 3060 testen und dann sagen, dass es egal ist, welche CPU man nimmt.

Es geht darum, dass man mehrere CPUs jeweils mit mehreren GPUs testet und das in jeweils 720p, 1080p, 1440p und 2160p.

Dann! sieht man, wie das ganze skaliert und kann wunderbar! abschätzen, wann das bei sich der Fall sein wird (vor allem auch in der Zukunft).

Die 720p Tests sind dann aber weiterhin maximal für Enthusiasten relevant (ist berechtigt). Aber für die Masse ist das nie Relevant. Die kann sich dann 1080P Benches geben und die Skalierung dort anschauen. Bis die nämlich ne Grafikkartenperf. einer 4090 haben, gehts lange. Am Ende des PC-Lebenszyklus werden die dann die Leistung ner 4090 haben...

aufkrawall
2022-10-26, 10:38:32
Das sage ich doch die ganze Zeit. Es braucht noch andere Auflösungen. Ich sage doch die ganze Zeit, 720p alleine! ist mumpilz.

Das sind dann aber GPU-Tests, also mit verschiedenen Grafikkarten und mit der schnellsten CPU fürs GPU-Limit. Hat also direkt nichts mit CPU-Tests zu tun, in denen CPUs (Plural) verglichen werden.

robbitop
2022-10-26, 10:42:21
Für CPU-Tests nur verschwendete Zeit. Du siehst in CPU-Tests 720p, wie viele fps die CPU schafft. Dann kannst du dir Benchmarks von verschiedenen GPUs in höheren Auflösungen anschauen und entscheiden, welche CPU für den anvisierten Zweck genug fps liefert. Das große "Rätsel" ist gelöst.
Besser kann man es nicht ausdrücken. :up:

Platos
2022-10-26, 10:50:43
Das sind dann aber GPU-Tests, also mit verschiedenen Grafikkarten und mit der schnellsten CPU fürs GPU-Limit. Hat also direkt nichts mit CPU-Tests zu tun, in denen CPUs (Plural) verglichen werden.

Ja, das ist so. Ich teste da ein bestimmtes Szenario.

Wie gesagt:

1. Ich bestreite nicht, dass man 720p tests machen soll/kann. Ich kritisiere, dass man oftmals nur! 720p Tests liefert.

2. Ich sage nicht, dass man nur in 4k testen soll. Blödsinn wäre das. Ich sage, man soll es dazu testen.

3. Sage ich, dass Tests immer nur mit dem Top-Dog nur für Enthusiasten relevant ist. Man muss jeweils immer mehrere Konfigurationen testen.

4. Nenne den Test wie du willst. Ich als Kunde will wissen, was mir in meinem! Szenario die CPU bringt.

Mit den von mir genannten Tests teste ich, bei welcher GPU und Auflösung und Framerate limitiert CPU a,b und c.

Ja, da rennt man oft ins GPU Limit. Ich will wissen, welche CPU brauche ich, um in meinem! Szenario (Auflösung, Framrerate, Lebensdauer des PCs) NICHT CPU limitiert zu werden. Das will ich wissen. Wie viel die CPU könnte! Interessiert mich doch nicht, wenn es in meinem Szenario niemals vorkommen wird.

Man kann sich also Fragen, für wen man testet. Für Leser oder für eine Wikipedia, um festzuhalten, was Hardware xyz theoretisch drauf hat?

Klar, der Aufwand ist gigantisch. Aber es muss ja auch nicht am Launchtag alles da sein. Anstatt die ganzen Clickbait-Artikel, kann man ja mal sowas machen, nach den Launches.

Besser kann man es nicht ausdrücken. :up:

Mit welcher CPU testet man denn immer GPUs ? Richtig, mit der Top-End CPU. Kann ich jetzt damit jetzt Rückschlüsse auf kleinere CPUs machen?

Nein, kann höchstens raten.

Also wiederholt: Redaktionen testen für Enthusiasten. Sie testen isoliert CPU und GPU. Jeweils immer mit dem Top-End Modell.

Hat einfach keine Aussagekraft.

Erkläre mir mal, wie man möglichst genau Perfomance/Kosten von nicht Top-End Modellen abschätzen soll, wenn man immer nur mit Top-End Hardware testet?

Kannst du nicht. Du kannst mit solchen Tests nur isoliert GPU und CPU anschauen, aber nicht zusammen.

Edit: Klar, wenn selbst in 720P eine CPU nichts bringt (bsp. 16 Kerner vs. 8 Kerner), gilt das auch für alles darüber. Aber darum gehts mir ja eben nicht. Es geht darum, weiter unten eine möglichst genaue Einschätzung zu kriegen.

Du kannst eben NICHT CPU Tests anschauen, und danach GPU Tests, weil bei den GPU Tests dann die Top-End CPU verwendet wird, also nicht die, von der ich heruszufinden versuche, ab wann/ob sie limitiert.

Edit: @ 3Dcenter: Ist echt müsham am Handy. Man kann einzelne Wörter nur schwer hervorheben, da man nicht kursiv oder fett schreiben kann.

Ändert das doch mal.

robbitop
2022-10-26, 11:05:13
Deshalb muss man 2x Schritte machen.

Schritt #1:
Mit einer top End CPU testet man alle GPUs. Entsprechend findet man heraus was die Wunsch GPU im Wunsch Spiel für fps für die Wunschauflösung erreicht ohne limitiert zu sein.

Schritt #2
Mit einer top End GPU testet man alle CPUs. Aber im CPU Limit. Also außerhalb des Einflussbereichs der GPU. Entsprechend findet man heraus was die Wunsch CPU im Wunsch Spiel für fps erreicht.

Und danach kann man sich entsprechend aussuchen welche Kombination man braucht als "schwächstes Glied der Kette".

Zum Beispiel: man sucht nach einer CPU und GPU für 85 fps in Red Dead Redepmtion 2 für 1440p.

Nun schaut man sich erst ein CPU Review an, und schaut, welche CPU im CPU Limit die 85 fps sicher packt (also noch einen Sicherheitsfaktor von 20-30% drauf - weil Szenen ja unterschiedlich sind). -> OK cool ein 12400/5600 reicht locker.

Nun schaut man sich das neuste GPU Review an. Gleiche Vorgehensweise - man weiß ja schon, dass der 12400 reicht - jetzt muss man nur eine GPU wählen die das Frametarget schafft. -> wunderbar eine 3700/6700XT reicht.

Hardwarekombination gefunden.

Und dann gibt es die User, die sich nur die jeweiligen Komponenten im Limit anschauen - einfach um relative Geschwindigkeitsunterschiede anzuschauen. Ich will eine CPU/GPU die X % schneller ist als die CPU/GPU die ich habe oder die ich kenne (also irgendein Referenzpunkt).

OpenVMSwartoll
2022-10-26, 11:05:55
@Platos: So viel Diskussion, wenn man Dir doch schon lange den Sinn von CPU-Benchmarks erklärt hat...

Mal abgesehen davon, dass die Lebensdauer der gegenwärtigen Hardware, die Du betrachtest, nicht absehbar ist.

Die Frage ist immer, was der Fokus des jeweiligen Artikels ist. Wenn es um die CPU-Leistung geht, muss man Settings und Konfigurationen so wählen, dass man die jeweilige Performance mit möglichst wenig Bottlenecks abbilden kann.

Was Du möchtest, ist dass Dir jemand vorkaut, was Du mit Gehirnschmalz selbst herausfinden kannst.

G3cko
2022-10-26, 11:10:10
Für CPU-Tests nur verschwendete Zeit. Du siehst in CPU-Tests 720p, wie viele fps die CPU schafft. Dann kannst du dir Benchmarks von verschiedenen GPUs in höheren Auflösungen anschauen und entscheiden, welche CPU für den anvisierten Zweck genug fps liefert. Das große "Rätsel" ist gelöst.


Das ist das was die Laien nicht verstehen. Die CPU liefert der GPU Daten zu und diese muss sie ausgeben.

Natürlich mag 4k die Praxis abbilden, aber man hat 0 Aussagekraft. Gerade für Laien. Der Laie verstehe den Unterschied zwischen GPU- und CPU-Limit nicht.

In einem 4k Bench wird es nämlich 2 Fraktionen an CPUs geben.
- Die erste Fraktion hat alle gleich langen Balken. GPU limitiert, CPU-Leistung "reicht".

- Die zweite Fraktion hat verschiedene Balkenlängen, jedoch abfallend. CPU-Limit.

Und nicht überall ist es so eindeutig wie hier:
https://i.postimg.cc/Y9wQqZ2k/GPU-CPU-Limit.png (https://postimg.cc/v1340P6S)

Typen wie Platos haben ein grundsätzliches Problem. Wenn die GPU voll ausgelastet ist, dann ist alles fein. Wenn es umgekehrt ist, dann geht die Welt unter. Dabei haben beide Komponenten Geld gekostet. Und es liegt an der Anwendung und Szene welches Limit vorliegt. Und beide Komponenten werden mit der Zeit den Anforderungen nicht mehr gerecht und zu langsam sein und ersetzt werden. ;D

Platos hätte nun Bulldozer gekauf, weil in seinem Lieblingsspiel F1 2020 ist er preiswert und "genauso schnell", was nur ein Trugschluss ist.

https://i.postimg.cc/6QB9Whsg/Bulldozer-Limit.png (https://postimg.cc/LJ0dvL83)

BlacKi
2022-10-26, 11:14:35
Nein, kann höchstens raten.



du kannst die tests nicht so gestalten, das man keine ableitungen machen muss.


die testszenen können nicht überall im worst case gebencht werden, und das werden sie nicht. oft werden die titel relativ am anfang des spiel gebencht, damit man möglichst früh benchmarkwerte hat.



daher ist die diskussion darüber, möglichst praxisnahe werte zu bekommen, unnötig.


das ist doch eigentlich der hauptgrund für gamer sich für hardware irgendwann mal zu interessieren. herauszufinden, welche performance bekommen ich mit welcher cpu/gpu. und da stehen mischwerte mit cpu und gpu limit im weg.

fondness
2022-10-26, 11:33:51
Deshalb muss man 2x Schritte machen.

Schritt #1:
Mit einer top End CPU testet man alle GPUs. Entsprechend findet man heraus was die Wunsch GPU im Wunsch Spiel für fps für die Wunschauflösung erreicht ohne limitiert zu sein.

Schritt #2
Mit einer top End GPU testet man alle CPUs. Aber im CPU Limit. Also außerhalb des Einflussbereichs der GPU. Entsprechend findet man heraus was die Wunsch CPU im Wunsch Spiel für fps erreicht.

Und danach kann man sich entsprechend aussuchen welche Kombination man braucht als "schwächstes Glied der Kette".

Zum Beispiel: man sucht nach einer CPU und GPU für 85 fps in Red Dead Redepmtion 2 für 1440p.

Nun schaut man sich erst ein CPU Review an, und schaut, welche CPU im CPU Limit die 85 fps sicher packt (also noch einen Sicherheitsfaktor von 20-30% drauf - weil Szenen ja unterschiedlich sind). -> OK cool ein 12400/5600 reicht locker.

Nun schaut man sich das neuste GPU Review an. Gleiche Vorgehensweise - man weiß ja schon, dass der 12400 reicht - jetzt muss man nur eine GPU wählen die das Frametarget schafft. -> wunderbar eine 3700/6700XT reicht.

Hardwarekombination gefunden.

Und dann gibt es die User, die sich nur die jeweiligen Komponenten im Limit anschauen - einfach um relative Geschwindigkeitsunterschiede anzuschauen. Ich will eine CPU/GPU die X % schneller ist als die CPU/GPU die ich habe oder die ich kenne (also irgendein Referenzpunkt).

Was bei einer solchen Betrachtungsweise - die eh von allen Testern verfolgt wird - halt völlig untergeht, sind unterschiedliche CPU-Limits je nach GPU und unterschiedliche GPU-Leistung je nach Auflösung.

BlacKi
2022-10-26, 11:36:58
Was bei einer solchen Betrachtungsweise - die eh von allen Testern verfolgt wird - halt völlig untergeht, sind unterschiedliche CPU-Limits je nach GPU und unterschiedliche GPU-Leistung je nach Auflösung.
+1

es gibt viel zu wenig tests dazu.

Der_Korken
2022-10-26, 12:19:26
Genau, deswegen gehören zu einem CPU-Beratungsartikel (Welche CPU brauche ich) auch jeweils verschiedene Grafikkarten dazu.

Siehe hier z.B:

https://de.gamegpu.com/Aktion-/-fps-/-tps/Uncharted-Legacy-of-Thieves-Collection-Test-GPU-CPU

Das kann man primär auch Testen wie man lustig ist. Wenn man seine Arbeit halt mag :wink: Sekundär aber sollte man aber auch realistische Szenarien mit paar realistischen Paarungen EBENFALLS abliefern.

Sonst macht das so oder so, doer auch so..., eben keinen Sinn, da man Tests ohne nützliche Aussagekraft macht. Kann man natürlich auch machen, dann muss solchen Tests halt auch eine entsprechende Gewichtung zugeteilt werden und das ist nicht jene, welche die Forenblase dazu produziert.

Um meinen flapsigen Post von oben etwas zu elaborieren: Jede Auflösung ist am Ende nur ein Teil der Wahrheit. Man kann in solchen Fällen natürlich immer sagen, dass man einfach noch mehr testen soll. Noch mehr Spiele, noch mehr Auflösungen und noch alle Kombinationen aus CPUs und GPUs zusammen. Das hat aber zwei neue Probleme:

1. Es kostet unendlich viel Zeit und somit Geld. Würde bspw. Raff so einen Bench-Marathon hinlegen und die Ergebnisse hinter eine 20€-Paywall packen, damit die Entlohnung halbwegs in Relation zum Arbeitsaufwand steht, würden auch wieder alle meckern.

2. Wer soll diesen Datenwust noch auswerten und interpretieren können? Hier wird gesagt, dass 720p für Laien irreführend wären. Aber einem Laien (der nicht nur von Hardware wenig versteht, sondern auch von Datenanalyse im Allgemeinen) so mit Informationen zu überhäufen, führt eher dazu, dass er sich genervt abwendet und die CPU mit der schönsten Verpackung kauft.

Ein 720p-Test kombiniert einem GPU-Test ist ein sehr guter Kompromiss aus Aufwand und Informationsgehalt. Die geistige Leistung des Lesers besteht dann darin, nach Studium der CPU-Benches einen sanity check zu machen, ob die Unterschiede zwischen den CPUs mit der gewünschten GPU (aus dem reinen GPU-Test) überhaupt relevant sind. Next-LevelReviews wären dann, wo man bei den CPU-Tests eine Graka und eine Auslösung dazu wählen kann und es wird dann ein vertikaler Balken in das CPU-Diagramm eingefügt, welches einem das im GPU-Test ermittelte GPU-Limit anzeigt. Dann hätte man die Informationen alle auf einen Blick und es würde vielleicht auch klarer werden, warum man 720p-CPU-Test und ein weiterer GPU-Test quasi 99% aller Fragen beantworten.

Und ja, es wird auch immer Sonderfälle geben, wo CPU A in 720p deutlich schneller und in 4K minimal langsamer als CPU B ist, weil die GPU zufälligerweise genau diese Stellen maskiert, wo CPU A so viel schneller ist. Es wird sich aber niemals das Bild ins komplette Gegenteil verkehren, wie manche sich das zurecht phantasieren. Ein GPU-Limit kann nicht irgendwas aufdecken, was nie existiert hat. Als Parade-Beispiel wurde früher immer 2500K vs FX8350 angegeben, wo der Bulldozer 5 Jahre später dann am 2500K vorbeigezogen ist. Was aber einzig daran lag, dass der 2500K nur 4 statt 8 Threads hatte und die Parallelisierung der Engines im Laufe der Zeit zugenommen hat.

Badesalz
2022-10-26, 12:22:44
Natürlich mag 4k die Praxis abbilden, Nicht wirklich. Und wenn denn, dann einen sehr geringen Teil davon.

Platos
2022-10-26, 12:22:56
Deshalb muss man 2x Schritte machen.

Schritt #1:
Mit einer top End CPU testet man alle GPUs. Entsprechend findet man heraus was die Wunsch GPU im Wunsch Spiel für fps für die Wunschauflösung erreicht ohne limitiert zu sein.

Schritt #2
Mit einer top End GPU testet man alle CPUs. Aber im CPU Limit. Also außerhalb des Einflussbereichs der GPU. Entsprechend findet man heraus was die Wunsch CPU im Wunsch Spiel für fps erreicht.

Und danach kann man sich entsprechend aussuchen welche Kombination man braucht als "schwächstes Glied der Kette".

Zum Beispiel: man sucht nach einer CPU und GPU für 85 fps in Red Dead Redepmtion 2 für 1440p.

Nun schaut man sich erst ein CPU Review an, und schaut, welche CPU im CPU Limit die 85 fps sicher packt (also noch einen Sicherheitsfaktor von 20-30% drauf - weil Szenen ja unterschiedlich sind). -> OK cool ein 12400/5600 reicht locker.

Nun schaut man sich das neuste GPU Review an. Gleiche Vorgehensweise - man weiß ja schon, dass der 12400 reicht - jetzt muss man nur eine GPU wählen die das Frametarget schafft. -> wunderbar eine 3700/6700XT reicht.

Hardwarekombination gefunden.

Und dann gibt es die User, die sich nur die jeweiligen Komponenten im Limit anschauen - einfach um relative Geschwindigkeitsunterschiede anzuschauen. Ich will eine CPU/GPU die X % schneller ist als die CPU/GPU die ich habe oder die ich kenne (also irgendein Referenzpunkt).


Ok, du hast recht, das geht (ohne Betrachtung von AMD vs nvidia).

Aber am Laien geht diese Information komplett vorbei. Hätte man Tests, in denen man 1a ablesen kann, ab wann welche CPU limitiert (auf einen bzw. ein paar wenige Blicke), dann wäre das ein riesen Gewinn. Das würde auch das Verständis für dieses Thema enorm steigern. Abgesehen davon, dass man bei CPU-Tests nur selten alte CPUs mit testet (um somit Tests seiner CPU für neue Spiele zu kriegen)


Hier mal ein Beispiel (unten angehängt): Man kann direkt ablesen, dass die CPU bei z.B Monsterhunter 115 FPS schafft und dass das auch bei höheren Auflösungen gilt. Diese Information kann ein Laie aus 720p Tests nicht ziehen.
Btw. sieht man extrem gut, wie krass unterschiedlich AMD und nvidia GPUs sein können.

Edit: Allerdings sollte man sich ab besten Videos anschauen. Da sieht man dann nämlich, dass in der einen Szene 70FPS drinn sind und in der anderen Szene auf einmal nur noch 50FPS trotz keinem GPU Limit und gleicher CPU.

Das sieht man hier: https://www.youtube.com/watch?v=iy_5m441QQk

Der Typ testet 2160p vs 1080p mit 4770k vs 12700k. Er testet leider (oder in diesem Fall zum Glück) verschiedene Szenen für 1080p und 2160p. Das zeigt auf, dass die 30-Sekunden Benches der Testredaktionen hald auch nur ein Teil der Wahrheit wiederspiegelt.



2. Wer soll diesen Datenwust noch auswerten und interpretieren können? Hier wird gesagt, dass 720p für Laien irreführend wären. Aber einem Laien (der nicht nur von Hardware wenig versteht, sondern auch von Datenanalyse im Allgemeinen) so mit Informationen zu überhäufen, führt eher dazu, dass er sich genervt abwendet und die CPU mit der schönsten Verpackung kauft.



Siehe angehängte Bilder. Aussagekräftiger gehts ja kaum. Man sieht sofort, wenn man 1080p und 2160p vergleicht, dass bei einem 4770k (Beispiel) die CPU 115FPS schafft (in dieser Szene).

Für den Laien ist das eben nicht ersichtlich ansonsten. Man kann so auch super Spiele entlarven (in einem! Blick), welche Spiele abkacken mit nvidia oder AMD GPU.

robbitop
2022-10-26, 12:28:41
Was bei einer solchen Betrachtungsweise - die eh von allen Testern verfolgt wird - halt völlig untergeht, sind unterschiedliche CPU-Limits je nach GPU und unterschiedliche GPU-Leistung je nach Auflösung.
Wobei das verglichen mit dem Target was man sucht und der Safety Marge die man drauf packen sollte wahrscheinlich von der Größenordnung kein relevanter Einfluss mehr ist. Die Methode sollte dafür ausreichen um kleinere Einflüsse noch abzudecken. Man kann auch eine Wissenschaft draus machen. ;)

Einflüsse die abzudecken sind:
- Treiberversion (moving target)
- Spielszene
- Spielpatches (moving target)
- OS Updates (moving target)

Ich denke, in Summe sind die Einflüsse wesentlich größer als ein auflösungs- und GPUvendor abhängiges CPU Limit.




--------------------
Am Ende kommt es darauf an, wie intensiv man sich mit dem Kauf von Hardware beschäftigt. Ein einziges Review deckt (so ist das eben) nie alle Permutationen ab. Entsprechend muss man halt diese 2 Schritte gehen. Oder einem reicht einfach ein relativer Vergleich im jeweiligen Limit. (Komponente X ist 60% Schneller als bekannte Komponente Y)

Und es ist auch realistisch, dass ein Hardwarekauf in der Regel nicht von einem Spiel abhängig ist sondern von der Vielzahl an Spielen und auch für zukünftige Spiele. Also ist etwas "Überdimensionierung", wenn man nicht 1 Jahr später wieder zu wenig fps haben möchte, eh sinnvoll. Entsprechend reicht dann IMO auch der relative Vergleich zu bekannten Komponenten im jeweiligen Limit.

Pirx
2022-10-26, 12:43:06
und man sollte auch berücksichtigen, daß es hier immer noch nur ums Spielen geht...:lol:

robbitop
2022-10-26, 12:47:40
Weswegen ich immer im Komponentenlimit schaue was das Performancedelta ist und dann schaue was an maximaler P/L für das Budget drin ist und kaufe. Und ich wette die meisten kaufen nach Budget und P/L und nicht genau der richtigen Benchmarkpermutation die gesucht wurde (und trotzdem werden Komponententests in Komponentenlimits kritisert).

davidzo
2022-10-26, 13:02:32
Typen wie Platos haben ein grundsätzliches Problem. Wenn die GPU voll ausgelastet ist, dann ist alles fein. Wenn es umgekehrt ist, dann geht die Welt unter. Dabei haben beide Komponenten Geld gekostet.

Ich zähle mich auch zur Sorte, die CPU-Limits etwas kritischer sieht als GPU Limits und zwar aus folgenden Gründen:
CPU Limits kann man nicht mal eben durch ändern der Auflösung, weglassen von FSAA oder zuschalten von DLSS1-2 oder FSR aufheben. Die meisten Spiele haben kaum Schalter um ein CPUlimit abzufedern. Wenn ich also mehr FPS möchte, muss ich zwingend die CPU upgraden, was aktuell meistens ein Motherboard und RAM Upgrade bedeutet.

Ein GPUlimit hingegen ist schnell mit einigen Einstellungen umgangen, zudem ist es einfacher die GPU zu wechseln und diese hat tendenziell im Gaming PC auch einen engeren replacement Zyklus als eine CPU.

Ich kaufe grundsätzlich midrange, gerne auch gebraucht. Aber die Plattform und CPU darf gerne für zwei GPU Generationen halten, weshalb ich verglichen zu robbitops Idealvorschlag wahrscheinlich meistens zuviel Geld auf die CPU verschwende. Wenn es nur nach FPS geht lohnen sich selbst so absurde Kombis wie 100€ CPU auf 50€ brett mit 400€ GPU. Bei mir hält sich das eher in Waage, CPU und mainboard dürfen zusammen genau soviel kosten wie die GPU.


Für mich sind daher nicht die Launch-Reviews am interessantesten, sondern eher solche:
- Neue midrange Karten getestet auf älteren CPUs und neuen midrange+lowcost CPUs
- Retests von GPUs und CPUs 4-6 Jahre nach Launch (Gebrauchtmarkt für GPUs, wie steht z.b. eine 1080ti gegen eine 3060?)

robbitop
2022-10-26, 13:05:02
Ja leider ist das so. :(
Allerdings solange man nicht immer nach großer dreistelliger FPS Anzahl aus ist, leben die meisten CPUs doch sehr lange. Mit optimierten Settings schafft mein 4790K (@4300 MHz und DDR3-2400 RAM) auch moderne Spiele noch mit 60-80 fps im CPU Limit. Und die CPU ist 8 Jahre alt.

Wenn man etwas überdimensioniert kauft und kein high fps Gamer ist, hält eine sehr gute CPU schon recht lange.

basix
2022-10-26, 13:05:45
CPU-Limits verstärken auch Nachladeruckler und Compile-Stocker. Hat man bei der CPU Reserven, ist dieser Effekt reduziert.

Man muss aber auch sehen, dass eigentlich alle modernen CPUs in praktisch allen Spielen >60fps schaffen. Modern ist für mich 6C mit Skylake / Zen 2 Niveau. Meistens reicht da aber sogar 4C/8T für 60fps.

robbitop
2022-10-26, 13:07:16
Gegen compiler stutter ist allerdings keine CPU gewappnet. Das muss offline passieren. Aber unsaubere Frametimes bekommt man mit einem (idealerweise spieleeigenen) Framelimiter eingefangen. Man kann schon ein bisschen was machen mit einer betagten CPU. :)

basix
2022-10-26, 13:10:43
Nein, man bekommt sie nicht weg. Sie werden aber abgeschwächt ;)

Ein Framelimiter kann hier definitiv viel bewirken.

robbitop
2022-10-26, 13:14:02
Nein, man bekommt sie nicht weg. Sie werden aber abgeschwächt ;)
Aber nicht auf ein erträgliches Maß. Das ist so oder so Müll.

davidzo
2022-10-26, 13:19:07
Ja leider ist das so. :(
Allerdings solange man nicht immer nach großer dreistelliger FPS Anzahl aus ist, leben die meisten CPUs doch sehr lange. Mit optimierten Settings schafft mein 4790K (@4300 MHz und DDR3-2400 RAM) auch moderne Spiele noch mit 60-80 fps im CPU Limit. Und die CPU ist 8 Jahre alt.

Exakt. Ich gurke auch noch auf einem 4770K herum, der hat aber auch schon zwei GPUs gesehen, zuerst ne Kepler GTX670, dann GTX980 Maxwell. Mein Wunsch-Upgrade war daher lange Zeit die 1080ti + ein 3600 oder 3700x, nur stimmten die Preise einfach nicht. Intel kam für mich nicht in Frage wegen der potentiellen maximal-Abwärme und Kühlbarkeit in Mini ITX, selbst wenn das beim light gaming weniger wäre.
Und jetzt wo die Preise endlich wieder normal sind gibt es weitaus mehr Auswahl und ich bezweifle gerade ob Zen2 und Pascal für mich noch ein sinnvolles Upgrade wären. Es scheint schon so als wenn Golden Cove und Zen4 bzw Zen3X3D einige Handbremsen lösen können. Und lohnt es sich noch von DDR3 auf DDR4 upzugraden oder lieber noch etwas warten und DDR5 mitnehmen?

basix
2022-10-26, 13:21:40
Aber nicht auf ein erträgliches Maß. Das ist so oder so Müll.

Naja, ich kann die Nachladeruckler nicht weg-coden. Ich kann nur versuchen sie zu verringern, falls sie vorhanden sind (ergo, das beste draus machen). Dass solche Ruckler gar nicht erst entstehen sollten ist der Idealfall, welcher so heute leider nicht existiert.

robbitop
2022-10-26, 13:28:03
Exakt. Ich gurke auch noch auf einem 4770K herum, der hat aber auch schon zwei GPUs gesehen, zuerst ne Kepler GTX670, dann GTX980 Maxwell. Mein Wunsch-Upgrade war daher lange Zeit die 1080ti + ein 3600 oder 3700x, nur stimmten die Preise einfach nicht. Intel kam für mich nicht in Frage wegen der potentiellen maximal-Abwärme und Kühlbarkeit in Mini ITX, selbst wenn das beim light gaming weniger wäre.
Und jetzt wo die Preise endlich wieder normal sind gibt es weitaus mehr Auswahl und ich bezweifle gerade ob Zen2 und Pascal für mich noch ein sinnvolles Upgrade wären. Es scheint schon so als wenn Golden Cove und Zen4 bzw Zen3X3D einige Handbremsen lösen können. Und lohnt es sich noch von DDR3 auf DDR4 upzugraden oder lieber noch etwas warten und DDR5 mitnehmen?
Die Preise sind IMO immernoch total irrsinnig. 2000 EUR für eine GPU und 300 EUR für Mainboards (ich bin bisher sehr gut damit gefahren ~100-120 EUR auszugeben und hatte nie Nachteile in der Praxis gegenüber den Geldverbrennermodellen) und doppelter Preis für DDR5? Die haben alle Batteriesäure getrunken... :D

AM4 Boards gibt es ab 60 EUR und der 5800X3D kommt aktuell 360 EUR und RAM gibt es ab 100 EUR ganz guten.
Oder man kauft ein Z690 Board mit flashback mit DDR4 support und einen 13600K. Oder man wartet bis AM5 günstiger wird (low end modelle kommen ja erst und aktuell wird noch viel per teurer Luftfracht geliefert)

GPU: gebrauchte 3080 oder mal schauen, was RDNA3 mit dem Markt macht. Ggf. erzeugt das mal wieder mehr Preisdruck und damit mehr P/L. ^^

Naja, ich kann die Nachladeruckler nicht weg-coden. Ich kann nur versuchen sie zu verringern, falls sie vorhanden sind (ergo, das beste draus machen). Dass solche Ruckler gar nicht erst entstehen sollten ist der Idealfall, welcher so heute leider nicht existiert.
Ich spiele/kaufe die Spiele dann nicht, die laufen wie ein Sack Nüsse. Pech gehabt.* Selbst verringerte Stotterer mit der schnellsten CPU würden mich noch zu sehr stören. Bäh bah.

*bzw warte dann wenn's sein muss Jahre bis es erträglich gepatcht wird. So wie mit CP2077 (2 Jahre bis es halbwegs okay war) :D

basix
2022-10-26, 13:38:25
GPU: gebrauchte 3080 oder mal schauen, was RDNA3 mit dem Markt macht. Ggf. erzeugt das mal wieder mehr Preisdruck und damit mehr P/L. ^^

Je nach Preis OK. Bei 1440p wird aber 10GB nicht bei jedem Spiel Freude bereiten. Stichwort Textur-Streaming und auch Nachladeruckler ;)

robbitop
2022-10-26, 13:43:53
Je nach Preis OK. Bei 1440p wird aber 10GB nicht bei jedem Spiel Freude bereiten. Stichwort Textur-Streaming und auch Nachladeruckler ;)
Man darf Texturdetails auch reduzieren um eine Stufe reduzieren bei Bedarf - ist oft visuell kein Drama. Ansonsten gibt es ja auch gebrauchte 12 GB Karten :)

davidzo
2022-10-26, 14:29:08
AM4 Boards gibt es ab 60 EUR und der 5800X3D kommt aktuell 360 EUR und RAM gibt es ab 100 EUR ganz guten.

Nicht für Mini ITX. Und da ist es egal ob AM4 oder LGA1700 oder gar LGA1200, die sinnvollen boards fangen ab 150€ an, lowcost gibts kaum unter 100€.
Aber nun genug OT, danke für den kleinen Ausflug :wink:

Ich hoffe dass AM5 und LGA1700 einen Druck auf den AM4 markt ausüben und somit endlich einfache Mini ITX boards zu ähnlichen preisen wie µATX verfügbar sind. Es gibt abseits von Stückzahlen keine wirklichen grund wieso Mini ITX so teuer ist. Die VRMs sind einfach, ur 2xDimm und keine PCIex1 slots vorhanden und die paar mehr Layer dürften durch die geringere Boardgröße gecountert werden.
Leider ist AM5 Mini ITX derzeit noch bei minimal 300€. Ich denke wenn AM5 bei 200€ landet geht es langsam los. Dann muss ich mich zwischen Zen3 + DDR4 mit mehr Kernen oder X3D und einem entrylevel DDR5 System entscheiden. Warte noch bis Jahresanfang...

Complicated
2022-10-26, 14:39:34
Was bei einer solchen Betrachtungsweise - die eh von allen Testern verfolgt wird - halt völlig untergeht, sind unterschiedliche CPU-Limits je nach GPU und unterschiedliche GPU-Leistung je nach Auflösung.
Zumal auch innerhalb von Wochentakten dann Treiber-Optimierungen die Ergebnisse ebenso verändern wie Patches der getesteten Spiele.
Für mich sind daher nicht die Launch-Reviews am interessantesten, sondern eher solche:
- Neue midrange Karten getestet auf älteren CPUs und neuen midrange+lowcost CPUs
- Retests von GPUs und CPUs 4-6 Jahre nach Launch (Gebrauchtmarkt für GPUs, wie steht z.b. eine 1080ti gegen eine 3060?)
Und die Ergebnisse unterscheiden sich oft deutlich. Mit den selben CPUs. Dessen Limit wurde eben nicht ermittelt in 720P, sondern der Treiber- und Softwarezustand. Erschwerend kommen bei manchen Reviews dann Balken von früheren Tests dazu um zu vergleichen.

Für die beabsichtigte Kaufentscheidung überhaupt nicht fundiert, wie das manche theoretisch erklären.

robbitop
2022-10-26, 16:24:03
Ich glaube, dass Kritisieren von Vorschlägen immer einfacher ist als eine (nicht immer perfekte) Lösung zu finden.
Ich vermute, die 100% Lösung für das Thema gibt es nicht, da vieles einfach zu sehr "moving target" ist. Und wenn sich viel später alles "gesetzt" hat (Fortschritte im Treiber und Spiel sind asymptotisch über viele Iterationen ausgereizt) steht die next gen schon fast wieder vor der Tür.

Die Werte aus Reviews (in zwei Stufen) mit ausreichend Sicherheitsmarge zu betrachten ist sicherlich eine (von sicherlich mehreren) praxistauglichen Lösungsmöglichkeiten.

Nichtsdesto trotz sind Re-Reviews wirklich hilfreich. Wenn die Redaktion anständig testet, bekommt man ein Re-review (also neue Daten) automatisch zum nächsten und übernächsten Test einer neuen Komponente (weil alles neu getestet wird). Gibt ja doch einige Redaktionen, die das machen. Die, die einfach nur Werte recyclen (ja spart Zeit) - da könnte ich mich auch jedes Mal auf's Neue wieder darüber aufregen.
Bei Computerbase wurde oft recyclet - ist das eigentlich immer noch so?

LTT baut aktuell an einem Tool zur Automatisierung von Benchmarks (das wird open source), was es potenziell ermöglicht bei gleicher Manpower mehr Daten pro Mannstunde zu generieren. Aber das muss erstens noch reifen und zweitens befreit es nicht vor dem Prüfen der Messwerte, ob sich da Fehler eingeschlichen haben. Ist denen zuletzt 2x passiert.

Zossel
2022-10-26, 16:41:55
1. Es kostet unendlich viel Zeit und somit Geld. Würde bspw. Raff so einen Bench-Marathon hinlegen und die Ergebnisse hinter eine 20€-Paywall packen, damit die Entlohnung halbwegs in Relation zum Arbeitsaufwand steht, würden auch wieder alle meckern.

Oder die Spiele bauen eine standardisierte Möglichkeit für automatisierbare Benchmarks ein, dann ist das nur noch eine Kiste die in der Ecke steht und das Zimmer heizt.
Und wenn das genügend Spiele haben werden keine Spiele mehr getestet die das nicht haben.

Und Performance-Regressions bei neuen Releases von X,Y oder Z könnte man den auch schneller finden.

Zossel
2022-10-26, 16:59:48
Wenn es nur nach FPS geht lohnen sich selbst so absurde Kombis wie 100€ CPU auf 50€ brett mit 400€ GPU.

Warum sollte so eine Kombination absurd sein bzw. was ist daran absurd?

Platos
2022-10-26, 17:03:25
Leider fahr ich weder Playsi-Emulatoren noch will ich den ganzen Tag auf y-cruncher starren.
Sonst wäre ich natürlich froh, wenn sich sonst irgendeine nützliche Soft durch die Nutzung von AVX(1) bereits hervortun könnte.

Was bisschen Hoffnung macht :usweet: bUseAVX (Boolean) ;)

Hier sieht es zwar bis zu 1%low recht ok aus, aber gegen 0.1%low hilft es auch nicht. Meist sogar schadet es...
https://www.youtube.com/watch?v=BXBSVT9lpGw

In welchem PS3 Emulator-Spiel profitiert man eig. von AVX512?

Grad gestern habe ich mir ein Test von 4-5 solchen Spielen angesehen und der 12900k war in allen Fällen deutlich besser, wie der 11900k.

Interessant dabei ist übrigens auch, dass mit dem 12900k endlich mal durchgehend mind. 60 FPS drinn liegen.

robbitop
2022-10-26, 17:08:49
Oder die Spiele bauen eine standardisierte Möglichkeit für automatisierbare Benchmarks ein, dann ist das nur noch eine Kiste die in der Ecke steht und das Zimmer heizt.
Du brauchst mehr als das. Du willst wenigstens 5x runs pro Setting. Du willst mehrere Auflösungen. Und du willst mehrere Spiele. Du willst eigentlich auch selbst ausgesuchte Savegames. Und das ohne Usereingriff.

Das geht nur mit externer Software. Wie gesagt LTT Labs arbeitet aktuell an sowas und stellt es als open source zur Verfügung. Das arbeitet mit Image Recognition und bewegt dann entsprechend die Maus auf die jeweiligen Settings, beendet das Spiel, startet ein neues uswf.
Protoyp haben sie schon gezeigt soll aber noch eine Weile dauern. Wenn das mal rund läuft, könnte das schon ermöglichen, dass deutlich mehr Daten pro Mannstunde erzeugt werden können.

Jeder der mal Tests gemacht hat, weiß wie aufwändig und auch nervig das ist. Die runs dauern nicht lange genug, damit man was anderes machen kann aber sie dauern zu lange als dass es schnell von der Hand geht. Es ist langweilig weil hoch repetitiv und so schleichen sich Fehler ein.
Ich habe vor vielen Jahren Tests für 3DCenter geschrieben und Benchmarking Wochenenden inkl Nachtschichten hinter mir - das ist super ätzend und zeitaufwändig. Eine entsprechende Automation, wo man am Ende nur noch zum Komponententausch ran muss und Werte kontrollieren muss (und natürlich dann die Fehlersuche) würde da ein ziemlicher Gamechanger sein. Viel mehr Datenpunkte (mehr Hardwarekombinationen, mehr Auflösungen, mehr Spiele), kein Recycling mehr, viel weniger Probleme bei sehr engen Embargos usw.

robbitop
2022-10-26, 17:10:02
In welchem PS3 Emulator-Spiel profitiert man eig. von AVX512?

Grad gestern habe ich mir ein Test von 4-5 solchen Spielen angesehen und der 12900k war in allen Fällen deutlich besser, wie der 11900k.

Interessant dabei ist übrigens auch, dass mit dem 12900k endlich mal durchgehend mind. 60 FPS drinn liegen.
RCPS3. Der 12900K kann das auch (zumindest in den anfänglichen Revisionen) wenn man die E cores deaktiviert.

bbott
2022-10-26, 17:15:12
Man darf Texturdetails auch reduzieren um eine Stufe reduzieren bei Bedarf - ist oft visuell kein Drama. Ansonsten gibt es ja auch gebrauchte 12 GB Karten :)
Warum sollte man denn RAM Geiz Supporten? Das ist doch geplante obsoleszenz, ganz offensichtlich vor den Augen der Kunden. Ich bin entsetzt wie es Kunden noch verteidigen und allen schön reden wollen.
Ich habe (fast) immer dank größerem RAM die Karte länger und mit höheren Details nutzen können.

bbott
2022-10-26, 17:19:15
In welchem PS3 Emulator-Spiel profitiert man eig. von AVX512?

Grad gestern habe ich mir ein Test von 4-5 solchen Spielen angesehen und der 12900k war in allen Fällen deutlich besser, wie der 11900k.

Interessant dabei ist übrigens auch, dass mit dem 12900k endlich mal durchgehend mind. 60 FPS drinn liegen.

Emulatoren sind sehr spezielle Software, welche häufig wenig Optimiert ist und sehr unterschiedlich auf Architekturen reagiert. Wäre zwar interessant, aber ich denke man würde eher Optimierung Potential für diverse Architekturen aufdecken.

robbitop
2022-10-26, 17:27:15
Warum sollte man denn RAM Geiz Supporten? Das ist doch geplante obsoleszenz, ganz offensichtlich vor den Augen der Kunden. Ich bin entsetzt wie es Kunden noch verteidigen und allen schön reden wollen.
Ich habe (fast) immer dank größerem RAM die Karte länger und mit höheren Details nutzen können.
Ich glaube, du hast mich falsch verstanden. Ich finde das auch nicht gut. Aber wenn man aktuell nach P/L kaufen will, gibt es zu einer gebrauchten 3080 nunmal kaum eine Alternative wenn man auch RT nutzen will. Entsprechend limitiert ist leider auch der VRAM. In irgendeinen sauren Apfel muss man aktuell beißen.
Das einzige was ich meinte in der Hinsicht ist, dass wenn man in der Lage ist, zu wenig VRAM zu haben, kann man trotzdem ohne große Einbußen spielen, wenn man den Texturdetailregler bedient.

Zossel
2022-10-26, 17:52:58
Du brauchst mehr als das. Du willst wenigstens 5x runs pro Setting. Du willst mehrere Auflösungen. Und du willst mehrere Spiele. Du willst eigentlich auch selbst ausgesuchte Savegames. Und das ohne Usereingriff.

Das Spiel müsste das per Commandlineswitches unterstützen, in der Form:

xrandr.exe --mode foo (Hier das Windows Equivalent zu xrandr nutzen)
spiel.exe -f save.game -s high -w result.file

usw.


Das geht nur mit externer Software. Wie gesagt LTT Labs arbeitet aktuell an sowas und stellt es als open source zur Verfügung. Das arbeitet mit Image Recognition und bewegt dann entsprechend die Maus auf die jeweiligen Settings, beendet das Spiel, startet ein neues uswf.

Grauselig, die Tester sollten Druck auf die Spielehersteller machen, jedes Spiel was das nicht kann wird nicht mehr getestet, Basta!

Ex3cut3r
2022-10-26, 18:00:32
Für CPU-Tests nur verschwendete Zeit. Du siehst in CPU-Tests 720p, wie viele fps die CPU schafft. Dann kannst du dir Benchmarks von verschiedenen GPUs in höheren Auflösungen anschauen und entscheiden, welche CPU für den anvisierten Zweck genug fps liefert. Das große "Rätsel" ist gelöst.

Kann man das irgendwie einrahmen? Gibt leider immer noch viele Leute, selbst hier, die das einfach nicht verstehen (wollen) ;D

Complicated
2022-10-26, 18:11:10
Weil es nicht stimmt und Unfug ist. Die Messwerte nach dem nächsten Treiber-Update nimmst Du dann am besten als Rahmen. Erst gibt es den Releasetest um dann mit dem nächsten Treiber-Update gravierende Unterschiede festzustellen.
https://www.computerbase.de/2022-10/geforce-522-25-im-benchmark-treiber-beschleunigt-geforce-rtx-3000-zum-rtx-4090-start/
Konkret soll der neue Treiber in DirectX-12-Anwendungen weniger Overhead und damit CPU-Last erzeugen, was dem Prozessor mehr freie Kapazitäten für die Bereitstellung von Daten an die Grafikkarte lässt, was wiederum deren Auslastung erhöht und damit schlussendlich auch die FPS. Umso niedriger die Auflösung oder umso schwächer die CPU im Vergleich zur GPU, desto größer sollte der Effekt sein.
Seltsam, dass der GPU-Treiber das CPU-Limit verschiebt. Dabei ist es die GPU-Software die limitiert hat. Das wollen einige andere nicht verstehen. Hauptsache Balken und die Welt ist simpel.

Platos
2022-10-26, 18:12:30
RCPS3. Der 12900K kann das auch (zumindest in den anfänglichen Revisionen) wenn man die E cores deaktiviert.

Ah ok, habe ich vergessen.

Wird denn AVX 512 zwangsläufig in jedem Spiel beim RPCS3 genutzt? Also ist das quasi grundlegend für den Emulator oder wird das nur manchmal genutzt ?

Ex3cut3r
2022-10-26, 18:31:39
Weil es nicht stimmt und Unfug ist.

Und was genau soll daran Unfug sein? Bin gespannt. ;D

Oder nee, lass mal lieber stecken, da jetzt sowie zu 100% irgendeine Schwachsinn Argumentation folgt, dafür ist mir meine Lebenszeit zu schade, schönes Leben noch. ;D

Grundkurs
2022-10-26, 18:35:40
Wenn es nur nach FPS geht lohnen sich selbst so absurde Kombis wie 100€ CPU auf 50€ brett mit 400€ GPU.
Eine solche Verteilung von 550 € für möglichst viel FPS wäre vernünftig

vinacis_vivids
2022-10-26, 18:36:17
Ah ok, habe ich vergessen.

Wird denn AVX 512 zwangsläufig in jedem Spiel beim RPCS3 genutzt? Also ist das quasi grundlegend für den Emulator oder wird das nur manchmal genutzt ?

https://hothardware.com/news/rpcs3-dev-details-gains-with-avx-512

"The emulator RPCS3 goes even further with AVX-512, and processors using it can see 30% or more improved performance in difficult-to-run PlayStation 3 games like God of War III and Red Dead Revolver. The reason for this is a collection of factors that programmer WhatCookie detailed in a post over at his blog."

https://whatcookie.github.io/posts/why-is-avx-512-useful-for-rpcs3/

Ist alles in Englisch Computersprache. Müsstest du dich mal einlesen :smile:

https://abload.de/img/gow3comparisonjeevl.png

Ganz rechts ist AVX 512

Interessant wird es auch für Steam Deck, welches Zen4 uArch nutzt.

Complicated
2022-10-26, 18:41:17
Und was genau soll daran Unfug sein? Bin gespannt. ;D

Oder nee, lass mal lieber stecken, da jetzt sowie zu 100% irgendeine Schwachsinn Argumentation folgt, dafür ist mir meine Lebenszeit zu schade, schönes Leben noch. ;D
Du hättest vielleicht zuerst die Beiträge vor Dir lesen sollen - man sieht Deine Sorgfalt. Der Link war auch nur Dekoration.

robbitop
2022-10-26, 18:48:55
Das Spiel müsste das per Commandlineswitches unterstützen, in der Form:

xrandr.exe --mode foo (Hier das Windows Equivalent zu xrandr nutzen)
spiel.exe -f save.game -s high -w result.file

usw.



Grauselig, die Tester sollten Druck auf die Spielehersteller machen, jedes Spiel was das nicht kann wird nicht mehr getestet, Basta!

Tja willkommen in der Realität.

Platos
2022-10-26, 18:50:10
https://hothardware.com/news/rpcs3-dev-details-gains-with-avx-512

"The emulator RPCS3 goes even further with AVX-512, and processors using it can see 30% or more improved performance in difficult-to-run PlayStation 3 games like God of War III and Red Dead Revolver. The reason for this is a collection of factors that programmer WhatCookie detailed in a post over at his blog."

https://whatcookie.github.io/posts/why-is-avx-512-useful-for-rpcs3/

Ist alles in Englisch Computersprache. Müsstest du dich mal einlesen :smile:

https://abload.de/img/gow3comparisonjeevl.png

Ganz rechts ist AVX 512

Interessant wird es auch für Steam Deck, welches Zen4 uArch nutzt.

Ah danke, aber dann läuft es ja ohne AVX eig. ja auch brauchbar.
Interessant wäre es also, obs auch mal darum geht, obs 60FPS oder nicht 60FPS sind. Hier gehts ja um 160 oder 200, was mich nicht interessiert.

Dürfte sicherlich, wie da steht, für schwächere CPUs ein wichtiger Faktor sein. Die Frage ist jetzt aber, ob das bei einem Dekstop-Alderlake auch nur irgend eine Relevanz hat (für 60FPS Gaming).

Bei Youtube sind die Tests aber irgendwie nie bei 200 FPS oder sowas. Weiss nicht, wie das geschafft wurde^^

robbitop
2022-10-26, 18:50:49
Ah ok, habe ich vergessen.

Wird denn AVX 512 zwangsläufig in jedem Spiel beim RPCS3 genutzt? Also ist das quasi grundlegend für den Emulator oder wird das nur manchmal genutzt ?

Für die Emulation der SPEs. Also jedes Spiel was die intensiv nutzt profitiert. Das sollte der Fall für die meisten AAA Spiele ab zweitem Drittel der Lebenszeit der PS3 der Fall sein.

Ex3cut3r
2022-10-26, 18:52:08
Du hättest vielleicht zuerst die Beiträge vor Dir lesen sollen - man sieht Deine Sorgfalt. Der Link war auch nur Dekoration.

Was soll ich mit so einen Link von CB anstellen? Der sage und schreibe 4% mehr FPS im CPU Limit durch einen Treiber fesstellt. Bei mir mit getunten RAM z.B. hat der neue Teiber keinen Mehrwert in 1440p oder 4K gebracht. Bei CB schon. Und jetzt?

Das Nvidias DX12 im CPU Limit zu 90% langsamer läuft, als AMDs ist doch überhaupt nichts neues. Ich finde es eher schwach, dass Nvidia erst jetzt versucht, mit den Treiber etwas mehr herauszuholen.

Platos
2022-10-26, 18:52:36
Für die Emulation der SPEs. Also jedes Spiel was die intensiv nutzt profitiert. Das sollte der Fall für die meisten AAA Spiele ab zweitem Drittel der Lebenszeit der PS3 der Fall sein.

Ah ok, danke. Aber gibts dazu Tests, die zeigen, dass man bei Alderlake ohne AVX 512 oft unter 60FPS fällt? Weil bei dem oben Verlinkten sind das ganz andere Frameraten, als ich bei YOutube-Tests gewöhnt bin bei RPCS3

Complicated
2022-10-26, 18:53:53
Das Nvidias DX12 im CPU Limit zu 90% langsamer läuft, als AMDs ist doch überhaupt nichts neues. Ich finde es eher schwach, dass Nvidia erst jetzt versucht, mit den Treiber etwas mehr herauszuholen.
Jetzt mußt Du es nur noch verstehen im Kontext. Alle Informationen sind Dir bekannt. Du mußt aber natürlich nicht.

Zossel
2022-10-26, 19:15:23
Ah ok, habe ich vergessen.

Wird denn AVX 512 zwangsläufig in jedem Spiel beim RPCS3 genutzt? Also ist das quasi grundlegend für den Emulator oder wird das nur manchmal genutzt ?

Bei der PS3 (Cell) Architektur drängt sich das quasi auf:

https://www.copetti.org/writings/consoles/playstation-3/

Zossel
2022-10-26, 19:17:52
Ah ok, danke. Aber gibts dazu Tests, die zeigen, dass man bei Alderlake ohne AVX 512 oft unter 60FPS fällt? Weil bei dem oben Verlinkten sind das ganz andere Frameraten, als ich bei YOutube-Tests gewöhnt bin bei RPCS3

Intel ist seit ZEN4 keine Referenz mehr für AVX-512.
AMD kann wahrscheinlich durch das hinzufügen weiterer ALUs auch gut nachlegen ohne solche dramatischen Takteinbrüche wie Intel zu haben.

Badesalz
2022-10-26, 20:43:31
Überschlagt euch nicht mit irgendwelchen Schwachsinnsbenchmarks ;) Das Zeug muss man wirklich erst lernen und damit auch immer ordentlich gegentesten.
Ein Minibeispiel von Zehntausenden im Netz
https://github.com/dotnet/runtime/issues/10552

Keine der AVX Versionen bringt sofortigen Heil. Selbst die guten Coder sind nicht automatisch gleich "Agner" :wink:

Andererseits fehlen aber meist Vergleiche mit einer Soft die jenachdem AVX2 (oder AVX) UND/oder AVX-512 fahren kann. Das ist imho bisschen... minderwertig zu schauen was AVX-512 bringt, wenn man was komplett ohne SIMD fährt oder halt sonst mit SSE.

@Zossel
Für mich hat Intel irgendwann einfach übertrieben. Mir stank das Theater um SSE4-xyz schon, aber mit den bekloppten Versprechungen bzw. Ansätzen die Leistungen durch AVX() meist zu vervielfachen... Und dafür dann immer die Seilakte mit dem Powerbudget... Übrigens gibt es dabei immer teils unterschiedliche Pferdefüsse je nach Architektur (!) was die Nutzung mit annehmbaren Mehrertrag angeht. Und damit Programmieraufwand. Das fällt nicht alles vom Himmel mit 3 Intelfolien. Vertut euch da mal nicht ;)

amdfanuwe
2022-10-26, 22:39:25
Mehr V-Cache, 96 MB, für ZEN4
https://twitter.com/HansDeVriesNL/status/1585359308392640513?s=20&t=V4tl4WIZ84_Vso4e609AxYqpUcGT5mKrTjdK-ubBHS4

PS:
Wie würde sich ein V-Cache bei Phönix auswirken, ich meine in Hinblick auf GPU Performance?

Nightspider
2022-10-26, 23:30:33
Mit einem 96MB V-Cache Chip hat wohl auch keiner bei Zen4 gerechnet. ^^

basix
2022-10-26, 23:30:50
Mehr V-Cache, 96 MB, für ZEN4
https://twitter.com/HansDeVriesNL/status/1585359308392640513?s=20&t=V4tl4WIZ84_Vso4e609AxYqpUcGT5mKrTjdK-ubBHS4

Nice :)

Tangletingle
2022-10-27, 00:45:28
Was mir an dem Screenshot auch gefällt sind die 5,8ghz für das vcache Modell.

Hammer des Thor
2022-10-27, 01:33:34
Mehr V-Cache, 96 MB, für ZEN4
https://twitter.com/HansDeVriesNL/status/1585359308392640513?s=20&t=V4tl4WIZ84_Vso4e609AxYqpUcGT5mKrTjdK-ubBHS4

PS:
Wie würde sich ein V-Cache bei Phönix auswirken, ich meine in Hinblick auf GPU Performance?


Damit dürfte das Tempo vom DDR5 umso unwichtiger werden, kann also dann auch zu billigerem RAM greifen. Aber Klasse ist das schon.

r3ptil3
2022-10-27, 01:36:16
12. September 2022, 5.8Ghz... wer sowas noch glaubt.

HOT
2022-10-27, 09:20:12
Der 7800X hat 10C und 170W. Dacht ich mirs doch.
Ein 7300X wird auch kommen. Fehlt noch der 7600 non-X.

https://www.computerbase.de/2022-10/amd-ryzen-7-7800x-ryzen-3-7300x-benchmark/

MSABK
2022-10-27, 09:34:50
Der 7800X hat 10C und 170W. Dacht ich mirs doch.
Ein 7300X wird auch kommen. Fehlt noch der 7600 non-X.

https://www.computerbase.de/2022-10/amd-ryzen-7-7800x-ryzen-3-7300x-benchmark/

Dann sollten die Boardpreise aber mal deutlich fallen.

KodeX
2022-10-27, 09:35:37
Der 7800X hat 10C und 170W. Dacht ich mirs doch.
Ein 7300X wird auch kommen. Fehlt noch der 7600 non-X.

https://www.computerbase.de/2022-10/amd-ryzen-7-7800x-ryzen-3-7300x-benchmark/

Eigentlich sollte man sich nicht selber loben, aber hier (Ende August) hatte ich scheinbar den richtigen Riecher. :cool::cool::cool:

Doch mal etwas anderes: Zwischen dem 7900X und dem 7700X klafft offenbar eine große Lücke, in der Intel wohl eiskalt einen 13600K platzieren könnte. Hier könnte AMD mit einem 7800X, konzipiert als 10-Kerner, erfolgreich dazwischengrätschen. Was haltet ihr von der Idee bzw. deren technischer Umsetzbarkeit?

robbitop
2022-10-27, 09:38:54
12. September 2022, 5.8Ghz... wer sowas noch glaubt.
Du weißt, wer Hans de Vries ist?

HAL
2022-10-27, 10:09:19
Um mal thematisch etwas dazwischenzugrätschen: Ich habe mir die letzten Seiten mal durchgelesen und auch gegoogelt, aber fast nichts gefunden:

Wie schaut's denn mit einigermaßen grafiktechnisch flotten Desktop APUs aus? Also Zen4 + RDNA3 für einen kleinen PC für Casual Gamer.
Ich habe noch sehr warme Erinnerungen an meinen Ryzen 3 2200G der damals für um die 100 EUR für die meisten meiner bescheidenen Spieleanwandlungen ausgereicht hat.

Da scheint wohl nichts geplant zu sein? Ich finde nur was bezüglich Laptop APUs...

davidzo
2022-10-27, 10:34:19
Um mal thematisch etwas dazwischenzugrätschen: Ich habe mir die letzten Seiten mal durchgelesen und auch gegoogelt, aber fast nichts gefunden:

Wie schaut's denn mit einigermaßen grafiktechnisch flotten Desktop APUs aus? Also Zen4 + RDNA3 für einen kleinen PC für Casual Gamer.
Ich habe noch sehr warme Erinnerungen an meinen Ryzen 3 2200G der damals für um die 100 EUR für die meisten meiner bescheidenen Spieleanwandlungen ausgereicht hat.

Da scheint wohl nichts geplant zu sein? Ich finde nur was bezüglich Laptop APUs...

Sowas heißt dann Phoenix, soll angeblich sogar mit RDNA3 kommen. Es gibt Gerüchte für 12DCUs, also 24CU, aber auch nur für 16CUs nach RDNA2 Rechnung. Nicht sicher ob der auch im Desktop kommt, der Desktop-APU Markt ist anscheinend tot.

In jedem Fall wäre Rembrandt jetzt schon ziemlich balanced. Wozu mehr als Zen3 und 8 Kerne wenn die GPU mit 12CU im Wesentlichen einer RX6400 entspricht? Zen4 braucht man da nicht, es gibt da eh kein CPU-Limit. Die Steamdeck kommt ja auch wunderbar mit 4x Zen2 Kernen aus.

AMD plant AM5 erstmal als enthusiast only und das liegt an den DDR5 kosten. APUs sind traditionell immer preisgetrieben, daher sieht man da aktuell noch keinen Markt für. Als richtige Budgetlösung wie den 2200G kann man sich das sowieso abschminken, denn dafür ist der Die in 6nm zu groß. Könnte sein dass AMD Rembrandt auf dem desktop etwas früher bringt wegen den dich aktuell füllenden Lagern und dem zu erwartenden DDR5 preisverfall.

HOT
2022-10-27, 10:40:46
Eigentlich sollte man sich nicht selber loben, aber hier (Ende August) hatte ich scheinbar den richtigen Riecher. :cool::cool::cool:
Übrigens ist damit auch klar, dass es keine Single-CCD-Varianten mit VCache geben dürfte. Das wird ein 7800X3D und 7950X3D mit insgesamt 256MB L3-Cache werden. Hier treffen beim 7800X3D 128MB L3$ auf 5 Kerne. Das ist schon was anderes als ein 5800X3D.

MSABK
2022-10-27, 10:44:07
Rembrandt ist ja noch Zen3. Ich denke das kommt nicht mehr für AM5. Im Januar wird ja die neue Apu vorgestellt für mobile, ich denke diese könnte auf AM5 kommen.

HAL
2022-10-27, 10:46:58
der Desktop-APU Markt ist anscheinend tot.
Ja, das Gefühl habe ich auch...

In jedem Fall wäre Rembrandt jetzt schon ziemlich balanced. Wozu mehr als Zen3 und 8 Kerne wenn die GPU mit 12CU im Wesentlichen einer RX6400 entspricht? Zen4 braucht man da nicht, es gibt da eh kein CPU-Limit. Die Steamdeck kommt ja auch wunderbar mit 4x Zen2 Kernen aus.
Jo, bei Zen4 ginge es mir auch eher um die bessere Effizienz als mehr Leistung und den Shift auf mehr Grafikleistung. 4 Kerner + RDNA3, das wär doch was.
Sowas wie ne aktualisierte Steam Deck APU für Desktop.

AMD plant AM5 erstmal als enthusiast only und das liegt an den DDR5 kosten.
Verständlich, aber Preise sind ja auch eine Zeitfrage. Gerade bei einer APU wäre schneller RAM halt wirklich sinnvoll.

Aber auf jeden Fall wohl erstmal nix in Sicht... Würde wohl auch den GPU Markt kanibalisieren...

HOT
2022-10-27, 10:49:28
Kommt offenbar erst in Richtiung Ende 2023 Phoenix für Desktop. 4 Kerne mit 2 WGPs bekommste übrigens schon mit dem 7300X :D.

Und die Mainboardpreise sind nur ne Frage der Zeit. Wenn die Lieferkette mal steht und kleinere Varianten auf den Markt kommen geht das ganz schnell mit den Preisen.