PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse AMD Ryzen 9 7900X3D & 7950X3D


Leonidas
2023-03-06, 18:22:23
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-amd-ryzen-9-7900x3d-7950x3d


Link zur Ersteindrucks-Umfrage zum 7950X3D:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-amds-ryzen-9-7950x3d


Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-amds-ryzen-9-7950x3d-und-ryzen-7-7800x3d

Blase
2023-03-06, 20:47:50
Danke Leo für den Artikel :up:

Der für mich wichtigste Satz fällt schon einleitend bezüglich der Spiele Performance:

WCCF Tech ermitteln beispielsweise unter der 4K-Auflösung zwischen Ryzen 7 7700X und Ryzen 9 7950X3D (als dem schwächsten und stärksten Modell der nachfolgenden Benchmark-Auswertung) gemittelt gerade einmal +3,1% Mehrperformance – und dies ohne wirkliche Ausreißer nach oben, da bewegt sich in keinem Spiel beachtbar etwas.

Wenn ich 2K für ne 4090 ausgebe, dann habe ich einen Leistungsschub, der mich durch die Decke bläst. Ich muss mitnichten so viel Geld für eine GPU ausgeben, aber wenn ich es tue, habe ich gegenüber einem Modell, was sagen wir mal lediglich ein drittel, oder gar nur ein viertel davon kostet, ein enormes Leistungsplus ohne Wenn und Aber. Und im Bereich der CPUs? Da muss man sich schon freuen, wenn der Performance-Boost prozentual knapp zweistellig wird, bei verdoppelter Preislage :freak:

Jo, haut rein. Ich leg mich wieder hin. Enthusiast - gerne. Aber doch bitte an den richtigen Stellen :)

MfG Blase

Sardaukar.nsn
2023-03-06, 21:10:22
@Blase Sehe ich ganz ähnlich. Das Upgrade von RTX 3080 10GB auf 4090 war kostpielig, aber liefert bei mir bis zu +124% Rohleistung, viel VRAM und Features wie DLSS3 FG. https://www.3dmark.com/compare/pr/709029/pr/1958110#

Ein Plattformwechsel von AM4 (5800x3D) auf AM5 scheint mir aus 4K-Gaming Perspektive aktuell noch extrem unattraktiv.

Denniss
2023-03-06, 21:46:45
Der WCCF test scheint aber ziemlich sinnlos zu sein wenn dort nur Average-FPS stehen denn der Cache schlägt ja gerade auf die Low-FPS durch

Leonidas
2023-03-07, 04:38:48
Letztlich bräuchten wir mal eine gänzlich andere Herangehensweise zu CPU-Benchmarks bei Gaming. Die aktuelle Methode ist nur ein Notnagel.

Gast
2023-03-07, 07:08:12
Ich zocke noch mit einem x5660 auf einem PC und einem 1600x auf dem anderen PC. Da ich 2K für meinen 75 Zoll Samsung TV ausgegeben habe, liegt es nicht am Geld...

Ich würde immer lieber Geld in einen grossen Monitor/Beamer und ein 5.1 System investieren anstatt in eine CPU. Die CPU braucht man für 99,9% der Games nicht. Den guten Sound und grossen Bildschirm aber immer.

Schade, dass man sich hier so sehr auf Hardware fokussiert für Gamer, die für die meisten Gamer kaum einen Mehrwert liefert. Ausser man schaltet die FPS Anzeige an und geilt sich an den Zahlen auf. Ich finde den Fokus falsch, entsprechend habe ich den Artikel selbst nicht mal gelesen.

Gast
2023-03-07, 08:13:54
Der WCCF test scheint aber ziemlich sinnlos zu sein wenn dort nur Average-FPS stehen denn der Cache schlägt ja gerade auf die Low-FPS durch

Artikel gelesen?
Die Performanceabstände sind bei den AVG FPS größer, je nach Test sogar deutlich größer.

Gast (Schussel)
2023-03-07, 08:49:52
An sich habt ihr schon recht direkt im Spiel merkt man recht wenig von einer neuen CPU-Updaten auf die nächste Generation. jedoch fühlt sich vieles drum herum einfach besser an, wenn die CPU noch paar Reserven hat. Gerade bei Onlinegames fallen die Unterschiede immer extrem auf, wenn man auf den letzten wieder 2 min Wartet bis die Holzkiste die Map fertig geladen hat und das liegt nicht nur an der Festplatte. Auch haben viele wahrscheinlich noch nen Discord, paar Internetseiten, zur Schulzeit damals noch die Hausaufgaben im Hintergrund =) etc. offen. Da zeigen sich zumindest Unterschiede deutlich eher als bei sauber aufgesetzten Test Systemen.

Allerdings Stimme ich auch zu, ne Highend-CPU braucht es deswegen trotzdem nicht wirklich. Bei mir gibt's die nächsten Tage noch nen Updaten vom 2700x auf den 5800x3D damit kann ich bestimmt AM5 auslassen und steig mit AM6/Intel wieder ein ;)

Blase
2023-03-07, 08:59:20
Ich wollte als erster Poster dem Thema hier keinen so negative drive mitgeben. Die X3Ds sind gute und äußerst effiziente Prozessoren und für Spieler interessant, die ohnehin neu kaufen wollen und auf den Taler nicht schauen brauchen oder wollen.

Ich bemängele eher die gefühlte (und reale?!) Stagnation im Prozessorbereich allgemein, was die Spiele Performance in realen Anwendungsfällen angeht. Ich meine - klar - realer Anwendungsfall bedeutet in aller Regel GPU limitierend. Es ist also kein wirkliches Wunder, dass da zwischen verschiedenen CPUs wenig bis gar nichts passiert...

... aber dann darf auch ketzerisch mal die Frage in den Raum geworfen werden, wofür eine solche "Gaming-CPU" überhaupt gut sein soll? Oder abgewandelt davon: Warum sollte man sich alle zwei, drei, oder auch nur alle vier Jahre ne neue CPU holen - wenn die alte es im realen Anwendungsfall noch auf ähnlichem Niveau packt?

Zurück zum einleitenden Satz von Leo - wenn der Ryzen 7 7700X und der Ryzen 9 7950X3D im realen Anwendungsfall also soweit beisammen liegen, dass man den Unterschied zwar noch messen, aber keinesfalls spüren kann, dann würde ich - wenn ich nicht die Sorte Enthusiast bin, die eh blind immer das Beste kauft - lieber die Hälfte sparen und den 7700X kaufen - und das gesparte Geld in eine dickere GPU stecken. Mehr als offensichtlich der bessere Deal...

Letztlich bräuchten wir mal eine gänzlich andere Herangehensweise zu CPU-Benchmarks bei Gaming. Die aktuelle Methode ist nur ein Notnagel.

Ich finde es putzig, in Auflösungen unterhalb FHD stellenweise 400, 500 oder gar mehr FPS im Balken zu sehen. Realitätsferner geht's kaum, bzw. der Mehrwert dieser Information im praktischen Nutzen ist gleich Null. Aber wenn die Min FPS doch so starke Ausschläge zeigen sollten, wäre das vielleicht etwas, was man zukünftig noch stärker ausarbeiten könnte. Denn die haben auch im Anwendungsalltag praktischen Nutzen und Mehrwert.

Die Performanceabstände sind bei den AVG FPS größer, je nach Test sogar deutlich größer.

In 1440p - aber nicht mehr in 4K. Da läuft sogar nen i5-13600K mit, der von den FPS auch nicht wirklich abfällt. Nen i5 - verglichen mit dem X3D Flaggschiff.

MfG Blase

Exxtreme
2023-03-07, 09:17:31
Ich bemängele eher die gefühlte (und reale?!) Stagnation im Prozessorbereich allgemein, was die Spiele Performance in realen Anwendungsfällen angeht. Ich meine - klar - realer Anwendungsfall bedeutet in aller Regel GPU limitierend. Es ist also kein wirkliches Wunder, dass da zwischen verschiedenen CPUs wenig bis gar nichts passiert...



Ja, das ist richtig. Es ist aber so: die richtigen CPU-Fresser ala Strategiespiele oder MMORPGs werden fast nirgendwo getestet. Hier gäbe es weit größere Unterschiede als in Schlauch-Shootern im GPU-Limit. Leider sind diese Spiele extrem schwer zu testen wenn man vergleichbare Ergebnisse haben will.

Und zweitens: x86 ist wohl so richtig ausgequetscht. Aber schon Herb Sutter sagte: The free lunch is over (http://www.gotw.ca/publications/concurrency-ddj.htm). Sprich, mehr Leistung wird es geben wenn die Spiele anfangen viel mehr Kerne zu nutzen und/oder Erweiterungen ala AVX512.

Blase
2023-03-07, 09:41:18
Ja, das ist richtig. Es ist aber so: die richtigen CPU-Fresser ala Strategiespiele oder MMORPGs werden fast nirgendwo getestet. Hier gäbe es weit größere Unterschiede als in Schlauch-Shootern im GPU-Limit. Leider sind diese Spiele extrem schwer zu testen wenn man vergleichbare Ergebnisse haben will.

Grade wenn es Genres und Titel gibt, die tatsächlich überproportional von starken Prozessoren profitieren - und das in normal üblichen Auflösungen - sollte das der bevorzugte Test Parkour hinsichtlich der Spiele werden.

Dann bräuchte es auch, wie Leo schrieb, keine gänzlich andere Herangehensweise an die CPU Tests im Spieleumfeld. Man lässt einfach die 0815 Titel weg, die Erfahrungsgemäß sich ein Ei drauf pellen, was für ne CPU in der Kiste steckt und konzentriert sich überwiegend auf das, was Ausschläge bringt. Und schon hat man praxisrelevanten Content, der gleichzeitig auch noch Unterschiede aufzeigen kann. Win-win. Und mir egal, ob das schwierig zu zeigen ist. Das ist die Aufgabe der Hardware Tester, sich darüber einen Kopf zu machen. Denn nur das ist es, meinetwegen mit den min FPS, was mir als Leser einen echten, praxisrelevanten Mehrwert bietet. Der Rest ist doch für die Tonne...

Und zweitens: x86 ist wohl so richtig ausgequetscht. Aber schon Herb Sutter sagte: The free lunch is over (http://www.gotw.ca/publications/concurrency-ddj.htm). Sprich, mehr Leistung wird es geben wenn die Spiele anfangen viel mehr Kerne zu nutzen und/oder Erweiterungen ala AVX512.

Mag sein, aber die Leier bezüglich "es müssen nur mehr Kerne genutzt werden", trällert ja auch bereits seit Jahren. In einem Schlauch-Shooter musst du ja erst einmal genügend Content haben, den du sinnvoll auf mehrere Kerne aufteilen kannst :freak: Blieben also wieder MMOs und Strategie? Und schon bist du wieder in dem ersten Absatz von mir.

Aber letztlich ist das ja meckern auf einem angenehmen Niveau. Ich meine, wenn ich im Bereich der CPUs auch gaaaanz locker im Bereich von 300€ +/- bleiben kann bei einem Neukauf, und dennoch keine wirklichen Einschränkungen im Bereich Gaming habe, warum sollte ich mich darüber beschweren!?

MfG Blase

G3cko
2023-03-07, 09:49:34
@Blase

Ich glaube du hast da einen Denkfehler.

Punkt 1 Wettbewerb:
Denk einfach mal ein paar Jahre zurück. Da gab es bei Intel nur QuadCores auf der Mainstreamplattform bis AMD wieder in den Ring stieg. Intel hatte versucht alles mit mehr Kernen auf die HEDT Platform auszulagern. Zu diesem Zeitpunkt hat man bereits gesehen was fehlender Wettbewerb ausmacht. Die beliebte Gaming-CPU 6600k war nur wenige Monate nach Release an der Kotzgrenze, da in BF1 aufgrund fehlendem HT die CPU zu massiven Microruklern neigte. Das war wohlgemerkt die zweitschnellste CPU auf der Plattform.

Punkt 2 PC ist nicht die Leadplatform:
Der PC spielt keine Rolle mehr. Entwicklet wird für die Konsolen und auf den PC portiert. Ein halb wegs aktueller 8-Core reicht daher für alles dicke aus.

Punkt 3 deine Anforderungen:
Du sagt, dass du bei einer 4090 immerhin einen Mehrwert spürst. Spiel doch mal in 1080p. Ist das dann immernoch so? Der Prozessor kann ja nichts dafür, wenn er von deiner Software nicht gefordert wird.

Punkt 4 Gaming Software:
Gaming-Software hat nicht zum Ziel den Prozessor maximal auszulasten, sondern die Grafikkarte. Der Prozessor ist nur Mittel zum Zweck und liefert der Grafikkarte nur die Daten zu. Vor ein paar Jahren gab es die großen Diskussionen um low-level-APIs um eben den CPU-Overhead zu senken.

Erfreu dich doch an dem Wettbewerb zwischen AMD und Intel, dass du keine teure CPU kaufen musst. Dass dank der Konsolen kein Aufrüstungsdruck herscht. Auch das Gaming Software bewusst die CPU eben nicht auslasten will.

Ich für meinen Teil gebe lieber mehr Geld für den Prozessor aus. Aber dann muss auch alles andere stimmen. Ich habe damals einen 5960x gekauft, da absehbar war, dass die Konsolen 8 Kerne haben. Mit OC hatte man auch genug Singlethread-Performance. Die Performancesprünge bei Grafikkarten sind viel größer, weshalb diese auch schneller wieder getauscht werden müssen und auch an Wert verlieren. Wenn ich heute abschätzen müsste, dann haben die kommen Konsolen bestimmt 16 Cores. Ob der 7950X3D aufgrund seiner beiden Chiplets und einseitigem Cache und ohne OC genauso lange nutzbar ist wie ein monolithischer 5960x mit 50% OC und damals noch fehlendem Wettbewerb im CPU-Bereich. Schwierig zu progostizieren.

Wenn man die Kohl hat, dann hat man auf jedenfall lange Ruhe. Ob das auch 10 Jahre sein werden? Und beim Prozessor kommt ja immer auch nunmal Board und RAM dazu.

Vermutlich wird es bei mir eine AM5 Plattform mit dem preiswertestem Prozessor und später noch einmal das schnellste Modell analog zum 5800x3d.

Buddy Casino
2023-03-07, 09:54:42
Letztlich bräuchten wir mal eine gänzlich andere Herangehensweise zu CPU-Benchmarks bei Gaming. Die aktuelle Methode ist nur ein Notnagel.
Was schwebt dir vor?

MiamiNice
2023-03-07, 09:59:54
Das von Dir vermittelte Szenario gilt aber nur für 08-15 Spiele, bzw. ich meine den "AAA" Sektor. Das der PC nicht mehr die Leadplattform ist, stimmt. Da hilft es einfach mehr Spiele zu spielen, die auf der Konsole gar nicht erscheinen. Zumindest mache ich das in der Art. Bei Punkt 4 bin ich irgendwie auch nicht bei Dir oder ich verstehe die Grundlage dazu nicht. Für mich ist ein Spiel welches die GPU voll auslastet, die CPU sich aber langweilt, meist ein Grafikblender. So etwas z.b. wie CP2077. Aber so Dinge wie Anno, die die GPU eher langweilen, das will man.

So ist das zumindest in meiner Blase :)

Blase
2023-03-07, 10:06:34
@Blase

Ich glaube du hast da einen Denkfehler.

Du, ich argumentiere einfach aus der heutigen Sicht eines Konsumenten und Gamers.

Mir ist die frühere, allgemeine Stagnation im CPU Bereich "dank Intel" natürlich bewusst. Aber das spielt für die heutige Betrachtung ja keine wirkliche Rolle (mehr). CPUs kommen mit immer mehr Kernen, wir durchbrechen bald die 6GHz, 3D-Cache,... im CPU Segment geht's wieder voran... nur was ich bemängele ist, dass wir diesen Fortschritt als Spieler in Praxis relevanten Auflösungen und Anforderungen nicht wirklich spüren. Ist doch völlig Banane, ob deine aktuelle CPU aus der aktuellen Generation kommt, oder aus der vorherigen - oder aus der davor. Mehr wollte ich gar nicht sagen.

Erfreu dich doch an dem Wettbewerb zwischen AMD und Intel, dass du keine teure CPU kaufen musst. Dass dank der Konsolen kein Aufrüstungsdruck herscht. Auch das Gaming Software bewusst die CPU eben nicht auslasten will.

Tue ich doch ;)

Aber letztlich ist das ja meckern auf einem angenehmen Niveau. Ich meine, wenn ich im Bereich der CPUs auch gaaaanz locker im Bereich von 300€ +/- bleiben kann bei einem Neukauf, und dennoch keine wirklichen Einschränkungen im Bereich Gaming habe, warum sollte ich mich darüber beschweren!?

Dein Beispiel mit der 4090 und 1080p - warum sollte ich denn die Auflösung verringern? Nur um zu sehen, dass der Mehrwert sich hier stark in Grenzen hält? :freak:

Dann kann ich CPUs auch weiterhin in 360p testen - um umgekehrt den Mehrwert deutlich aufzuzeigen. :eek:

Beides sinnlos... ;)

Exxtreme
2023-03-07, 10:10:18
Grade wenn es Genres und Titel gibt, die tatsächlich überproportional von starken Prozessoren profitieren - und das in normal üblichen Auflösungen - sollte das der bevorzugte Test Parkour hinsichtlich der Spiele werden.

Dann bräuchte es auch, wie Leo schrieb, keine gänzlich andere Herangehensweise an die CPU Tests im Spieleumfeld.


Richtig. Andererseits sind die Ergebnisse weder in Strategiespielen noch MMORPGs reproduzierbar. Und das ist das große Problem. Und deshalb testet es wahrscheinlich auch niemand. MMORPGs müsste man wohl per Multiboxing testen. Und das wird extrem aufwändig und nur für den einen einzigen Benchmark-Test gültig.


Mag sein, aber die Leier bezüglich "es müssen nur mehr Kerne genutzt werden", trällert ja auch bereits seit Jahren. In einem Schlauch-Shooter musst du ja erst einmal genügend Content haben, den du sinnvoll auf mehrere Kerne aufteilen kannst :freak: Blieben also wieder MMOs und Strategie? Und schon bist du wieder in dem ersten Absatz von mir.


Multithreading ist was Programmierung angeht extrem anspruchsvoll. Man fängt sich extrem schnell schwere und nicht reproduzierbare Bugs ein. Und deshalb vermeidet man es wenn es geht. :freak:

Blase
2023-03-07, 10:33:12
Richtig. Andererseits sind die Ergebnisse weder in Strategiespielen noch MMORPGs reproduzierbar. Und das ist das große Problem. Und deshalb testet es wahrscheinlich auch niemand. MMORPGs müsste man wohl per Multiboxing testen. Und das wird extrem aufwändig und nur für den einen einzigen Benchmark-Test gültig.

Naja, wie schwer kann es schon sein, einen Anno 1800 Spielstand zu laden und einfach 30 Sekunden laufen zu lassen? Das soll dann so schwer untereinander reproduzierbar sein? Will ja nicht in Frage stellen, dass es bei vielen Titeln äußerst schwierig ist - aber doch nicht bei solchen, oder?

Multithreading ist was Programmierung angeht extrem anspruchsvoll. Man fängt sich extrem schnell schwere und nicht reproduzierbare Bugs ein. Und deshalb vermeidet man es wenn es geht. :freak:

Das mag sicherlich so sein. So lange das Gros der Spiele auch auf einem Taschenrechner wie meinem 8700K läuft, soll es mir sogar Recht sein :tongue:

MfG Blase

Sardaukar.nsn
2023-03-07, 10:39:52
Es gibt schon praxisrelevante Tests. Z.B. der von Techpowerup hat maßgeblich dazu beigetragen vom 5800x auf den 3D zu wechseln. Ich spiele aber auch gerne Anno.

https://tpucdn.com/review/rtx-4090-53-games-ryzen-7-5800x-vs-ryzen-7-5800x3d/images/3840-2160.png
https://www.techpowerup.com/review/rtx-4090-53-games-ryzen-7-5800x-vs-ryzen-7-5800x3d/2.html

Das Preview zum 7800x3D war dann für mich weniger spannend: https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/19.html

Exxtreme
2023-03-07, 10:43:15
Naja, wie schwer kann es schon sein, einen Anno 1800 Spielstand zu laden und einfach 30 Sekunden laufen zu lassen? Das soll dann so schwer untereinander reproduzierbar sein? Will ja nicht in Frage stellen, dass es bei vielen Titeln äußerst schwierig ist - aber doch nicht bei solchen, oder?


Die Frage ist wiederum, wird der Anno-Benchmark nach dem Laden wirklich exakt gleich ablaufen? Wenn nein, dann sind die Ergebnisse nicht mehr vergleichbar.

Blase
2023-03-07, 10:59:04
Es gibt schon praxisrelevante Tests. Z.B. der von Techpowerup hat maßgeblich dazu beigetragen vom 5800x auf den 3D zu wechseln. Ich spiele aber auch gerne Anno.

Tatsächlich ist diese Übersicht sogar ziemlich gelungen. Sieht man doch auf einem Blick pro Spiel den Vorteil. Bezüglich der 7000X3D haben sie eine solche Übersicht leider nicht mehr erstellt.

Die Frage ist wiederum, wird der Anno-Benchmark nach dem Laden wirklich exakt gleich ablaufen? Wenn nein, dann sind die Ergebnisse nicht mehr vergleichbar.

Du, letztlich bin ich hier Laie und kann es nicht beurteilen. Aber als Konsument wäre es meine Erwartungshaltung an die Tester, diese Probleme so gut als geht zu lösen und die Titel heraus zu arbeiten, bei denen die Unterschiede eben doch in praxisrelevanten Auflösungen zum Vorschein treten...

MfG Blase

gbm31
2023-03-07, 11:00:29
Ich bemängele eher die gefühlte (und reale?!) Stagnation im Prozessorbereich allgemein, was die Spiele Performance in realen Anwendungsfällen angeht.

Hast du etwa schon die Intel-CPU Zeitlupe von Nehalem bis Skylake vergessen?

Ich finde CPU seitig tut sich in den letzten 5 Jahren mehr als in den "gefühlt" 15 davor.

Halt nicht in dem Tempo wie bei GPUs, aber das war auch schon immer so.

Allroundrechner kannst halt nicht einfach so beschleunigen wie Spezialisten.

Ich finde den Sprung von AM4 X3D zu AM5 X3D (da kommen ja noch paar CPU Gens) okay.

Was bei der Analyse komplett untergeht ist der Effizienzaspekt. Absichtlich weggelassen?

Leonidas
2023-03-07, 11:32:47
nd mir egal, ob das schwierig zu zeigen ist. Das ist die Aufgabe der Hardware Tester, sich darüber einen Kopf zu machen. Denn nur das ist es, meinetwegen mit den min FPS, was mir als Leser einen echten, praxisrelevanten Mehrwert bietet. Der Rest ist doch für die Tonne...

Zustimmung. Aber sich darüber einen Kopf zu zerbrechen, machen die wenigsten. Wer kritisiert auch schon das Zustandekommen von einzelnen Benchmarks irgendwelcher YouTuber - am besten wenn überhaupt nichts zur Meßmethodik gesagt wird? So lange sich Rotz-Content genauso gut verkauft, ist die Liebe zum Detail einfach nur unnötiger Kostenfaktor.


Was bei der Analyse komplett untergeht ist der Effizienzaspekt. Absichtlich weggelassen?

Energieeffizienz? Nahezu die komplette 3. Seite dreht sich drum.

Leonidas
2023-03-07, 11:36:28
Was schwebt dir vor?

1. Konzentration auf Spiele mit echter CPU-Last, sprich Strategie-Titel, Simulationen, etc.

2. Bei anderen Titeln herausarbeiten von ernsthaft CPU-limitierten Sequenzen. Die können dann auch mal minimal kurz sein.

Letzteres ist schwer zu finden und noch schwerer zu benchmarken. Schade das die Spiele-Entwickler hier nicht mithelfen und ordentliche interne Benchmarks integrieren. Unter "ordentlich" verstehe ich Benchmarks, wo alle CPU-Berechnungen live mitlaufen, das ganze also nicht zu einem Grafik-Demo verkommt. Konnte schon UT2003.

G3cko
2023-03-07, 11:47:58
Bei Punkt 4 bin ich irgendwie auch nicht bei Dir oder ich verstehe die Grundlage dazu nicht. Für mich ist ein Spiel welches die GPU voll auslastet, die CPU sich aber langweilt, meist ein Grafikblender. So etwas z.b. wie CP2077. Aber so Dinge wie Anno, die die GPU eher langweilen, das will man.

So ist das zumindest in meiner Blase :)

Naja, wie schwer kann es schon sein, einen Anno 1800 Spielstand...

Die CPU ist nur Mittel zum Zweck. Das hat nichts mit Grafikblendern zu tun. Meist sind es kleine Entwicklerklitschen, welche bereits bei nicht mehr zeitgemäßer Grafik voll ins CPU-Limit laufen.

Und Anno 1800 ist ein super Beispiel dafür. Klar Anno ist eine Referenz was Aufbauspiele betrifft und Detailverliebtheit. Aber die Engine war noch nie auf der Höhe der Zeit.

Ein 2700x mit knappt doppelt soviel Multithreading-Power wie ein 7700k wird trotzdem von dem QuadCore geschlagen. 4C/8T schneller als 8C/16T.

Eine herrausragende CPU-Auslastung bei gleichzeitig hoher Grafikqualität bekommt beispielsweise ein Battlefield mit der Frostbite Engine hin. Auch die Unreal 5 Engine hat im Vergleich zum Ergebnis eine niedrige CPU-Auslastung. Der Aufwand für Multithreading im Gaming ist hoch. Daher sterben auch die ganzen kleineren Engines und bedienen sich lieber aus dem Baukasten der AAA-Engines.

Kleebl00d
2023-03-07, 12:22:33
2. Bei anderen Titeln herausarbeiten von ernsthaft CPU-limitierten Sequenzen. Die können dann auch mal minimal kurz sein.

Da dann aber unbedingt drauf achten, dass sie auf jeden Fall signifikant länger dauern als typische Aufheiz- und Boostzeiträume!

Sonst startet der Prozessor bei entspannten 40°C und ist bei ausreichend thermischer Kazapität der Kühlung noch nicht mal auf Lasttemperatur bis der Benchmark vorbei ist.

Das gleiche bei irgendwelchen zeitlich limitierten Leistungs- und Taktratenboosts - erst seit Nootebookcheck das mal thematisiert hat ist mir bewusst geworden, was für Schindluder da getrieben wird. Manche Laptop-CPUs boosten in einer 5-sekündigen Benchmarkszene bis zum Moond und fabrizieren wahnsinnige Benchmarkbalken, danach muss aber erstmal wieder auf den Grundtakt oder sogar noch darunter gedrosselt werden.
Dadurch mag sich das Ansprechverhalten schön spritzig anfühlen, aber dem Laien gegenüber wird dann oft verschwiegen, dass das mitnichten der Dauerleistung entspricht sondern da gut und gerne mal ein Faktor zwei dazwischen liegt.

00-Schneider
2023-03-07, 12:44:39
Was mich in dem Zusammenhang wundert, ist der Sprung von 5800X3D oder 7950X auf 7950X3D bei der PS3-Emulation. Das Beispiel ist zwar arg Nische, aber trotzdem performed der 7950X3D hier 63(!)% schneller als der 7950X und 103(!)% schneller als der Vorgänger(5800X3D).

https://tpucdn.com/review/amd-ryzen-9-7950x3d/images/emulation-ps3.png

Woran das wohl liegt? Wird hier das wahre theoretische Potential des 7950X3D aufgezeigt?

Birdman
2023-03-07, 12:51:58
ich sehe hier vor allem 8 Core vs 16 Core und nichts von "Vorgänger" vs "Nachfolger" und einem theoretischen Potential des 7950X3D
Ist ja nicht so als würde hier eine 7950X3D Version mit deaktivierem CCD mitdrehen

Exxtreme
2023-03-07, 12:55:59
Woran das wohl liegt? Wird hier das wahre theoretische Potential des 7950X3D aufgezeigt?

RPCS3 nutzt AVX512, der 5800X3D beherrscht das gar nicht. Und zweitens, die Architektur der PS3 war komplett anders als die des PCs ist. Die PS3 war quasi spiegelverkehrt zum PC. Der PC hat große Caches, dafür sind die Busse, die die einzelnen Komponenten verbinden extrem schmal. Sprich, Daten vom RAM in den Grafikspeicher, oder von SSDs in den RAM zu transferieren ist lahm. Bei der PS3 war das andersrum. Kaum Caches, dafür für die damalige Zeit richtig fetter Durchsatz.

Sprich, muss der Emulator oft auf den PC-RAM ausweichen dann bremst das. Läuft der Emulator aber fast vollständig im Cache dann ist das viel schneller weil man sich den lahmen Zugriff auf den RAM spart.

Flusher
2023-03-07, 13:32:55
Wie immer eine tolle Analyse @Leo

So scheint der 12-Kerner Ryzen 9 7900X3D wohl doch eine gewisses Stück weniger Spiele-Performance als der Ryzen 9 7950X3D aufzuweisen, womit dann auch dessen besserer Preispunkt weniger verlockend wirkt.

Man sollte an dieser Stelle vielleicht hervorheben, dass AMDs Entscheidung den Cache nur auf einem CCD zu verbauen, zur skurrilen Situation führt, dass ein 7900X3D effektiv in Games nur wie ein 6-Kerner agiert. Daher auch die aussergewöhnlich grosse Performancedifferenz zum 7950X3D.

Dementsprechend sollte man erwarten, dass der kommende 7800X3D am 7900X3D in Games vorbeiziehen wird.

AMD hat sich beim 6+6 Layout des 7900X3D keinen Gefallen getan. Mit einem 8+4 Layout hätten die ersten 8 Kerne vollen Zugriff zum 3D-Cache.

Lehdro
2023-03-07, 13:33:53
Hierzu muss der zweite CCD (jener ohne 3D V-Cache) "geparkt" werden, dann sollte der Ryzen 9 7950X3D theoretisch wie ein Ryzen 7 7800X3D laufen. Leider bleibt es bei der Theorie, denn wie Hardwareluxx-Mitarbeiter Andreas Schilling auf Twitter zeigt, liegt trotzdem weiter eine kleine Last auf den acht geparkten CPU-Kernen an.
Deswegen sollte man für einen solchen Test den non Vcache CCD auch im UEFI deaktivieren und nicht nur unter Windows parken. Alle Tests die den 7800X3D nur unter Windows simuliert haben, kannst du direkt in die Tonne kloppen, weil wie schon geschrieben, ein Teil der Hintergrundlast auf den geparkten Kernen landet. Aber das ist halt nix anderes als "Prefer Vcache" per Xbox Game bar.

Exxtreme
2023-03-07, 13:45:07
Man sollte an dieser Stelle vielleicht hervorheben, dass AMDs Entscheidung den Cache nur auf einem CCD zu verbauen, zur skurrilen Situation führt, dass ein 7900X3D effektiv in Games nur wie ein 6-Kerner agiert. Daher auch die aussergewöhnlich grosse Performancedifferenz zum 7950X3D.


Der agiert schon weiterhin wie ein 12-Kerner, auch in Spielen. Nur wenn ein Spiel mehr als 6 Kerne nutzt dann wird halt auf Kerne ausgewichen, die vom Zusatzcache nicht abgedeckt werden.

Und ja, die Performancedifferenz ist schon recht hoch. Das kann aber auch daran liegen, dass die Treiber und Windows nicht optimal auf diese Situation optimiert sind und es intern irgendwelche Context-Switches obendrauf gibt etc. Und ja, 8+4 wäre wohl besser gewesen.

Sardaukar.nsn
2023-03-07, 13:49:36
PCGH simuliert auch den 8- und 6-Kerner mit 3D Cache. Leider konnte ich keine Auflösung finden in der die Benchmarks gemacht wurden: https://www.pcgameshardware.de/Ryzen-7-7800X3D-CPU-279471/Specials/7600X3D-vs-5800X3D-Benchmark-Simulation-1414806/

Corpsi
2023-03-07, 14:11:59
Bin mal gespannt, wie weit die Werte vom echten hinterher mit dem simulierten übereinstimmen.

Ich finde den Achtkerner am interessantesten, weil ich diese asymetrischen CPUs nicht mag.

Leonidas
2023-03-08, 03:24:44
Da dann aber unbedingt drauf achten, dass sie auf jeden Fall signifikant länger dauern als typische Aufheiz- und Boostzeiträume!

Guter Einwand. Der Benchmark müsste demzufolge folgendermaßen laufen: Die 3 Minuten vorher werden mitgespielt, aber gemessen werden dann nur die nachfolgenden 3-5 Sekunden. Kompliziert - und besser gleich vom Spiele-Entwickler zu machen.


Bin mal gespannt, wie weit die Werte vom echten hinterher mit dem simulierten übereinstimmen.

Schließe mich an. Leider gibt es wohl erst am 5./6. April vollständige Benchmarks zum Thema 7900X3D & 7800X3D.

gbm31
2023-03-08, 11:45:25
Energieeffizienz? Nahezu die komplette 3. Seite dreht sich drum.

Mea culpa - die haben mein smartes Phone oder mein dicker Daumen kurzerhand unterschlagen.

Leonidas
2023-03-09, 04:07:28
Passiert. Null problemo.

Casillas
2023-03-09, 15:52:51
Beim Test des 7950X3D die "scheinbare" Stagnation auf dem CPU Markt anzuprangern, finde ich ja schon interessant. Da gab es in der Vergangenheit sicherlich andere CPU Neuerscheinungen, mit denen sich weniger bewegt hat.

leicht schneller oder gleichschnell im Vergleich zum 13900KS, bei etwa halben Verbrauch ist schon ne Ansage in meinen Augen. Ob man es braucht, ist nen anderes Thema.

Meiner Meinung nach wird der Abstand der Leistung an Hardware, die man kaufen kann, zur Leistung die durchschnittlich gebraucht wird, um Spass zu haben, geht halt immer weiter auseinander. Das ist auch nicht erst seit gestern so.

CD-LABS
2023-03-09, 16:53:52
Für mich hat Raphael-X die Erwartungen übertroffen. Die Vorberichterstattung klang meiner Meinung nach eher so, als würde die praktische Leistungsaufnahme mindesten die 75W-Marke knacken. Derart gute Ergebnisse in Punkto Effizienz hatte ich entsprechend nicht mehr erwartet.

Das Highlight war aber definitiv die Enthüllung, dass das V-Cache-DIE weiterhin in N7 gefertigt wird. Das ist einfach eine unglaubliche Leistung.

CD-LABS
2023-03-09, 17:00:53
Beim Test des 7950X3D die "scheinbare" Stagnation auf dem CPU Markt anzuprangern, finde ich ja schon interessant. Da gab es in der Vergangenheit sicherlich andere CPU Neuerscheinungen, mit denen sich weniger bewegt hat.
(...)
Ja, das ist vollkommen absurd. Die Leute haben anscheinend alles vergessen, was die Jahre 2011 bis 2016 geprägt hatte. Im Vergleich dazu ist der Sprung von Vermeer-X zu Raphael-X sehr, sehr gut und wird ja auch nicht durch irgendwelche "Tricks" erkauft. Werder steigt die Leistungsaufnahme, noch werden jetzt gleich sieben weitere V-Cache-DIEs draufgestapelt oder ähnliches. :D

Complicated
2023-03-09, 17:04:22
Die Frage ist wiederum, wird der Anno-Benchmark nach dem Laden wirklich exakt gleich ablaufen? Wenn nein, dann sind die Ergebnisse nicht mehr vergleichbar.
Das ist halt die Frage welche Vergleichbarkeit angestrebt wird mit einem Test. Mit einem Reproduktionsfehler +-5% kann man halt nicht den Megaobersieger küren und so ist vielleicht mal die eine oder mal die andere CPU vorne von AMD oder Intel. Für den Kaufinteressenten ist das aber wohl deutlich sinnvoller bei der Entscheidung 8 oder 16-Core, da es nicht auf 3% Unterschied ankommt. Die meisten Redaktionen testen für den Fanboy-Battle und die daraus folgenden Follow-Up Artikel zu den überzogenen Kontroversen. Für eine Kaufentscheidung sind die meisten Testszenarien eher irreführend

Zustimmung. Aber sich darüber einen Kopf zu zerbrechen, machen die wenigsten. Wer kritisiert auch schon das Zustandekommen von einzelnen Benchmarks irgendwelcher YouTuber - am besten wenn überhaupt nichts zur Meßmethodik gesagt wird? So lange sich Rotz-Content genauso gut verkauft, ist die Liebe zum Detail einfach nur unnötiger Kostenfaktor.Eben. Doch braucht der Gamer diesen Detailgrad oder ist es der Fanboy der seine Kaufentscheidung in Foren martialisch verteidigt, weil die Konkurrenz "vernichtet", "zerstört" oder mal wieder alles ein "Fail" ist ab dem 2. Platz im Balken-Himmel?

MiamiNice
2023-03-09, 17:41:01
1. Konzentration auf Spiele mit echter CPU-Last, sprich Strategie-Titel, Simulationen, etc.



Das wäre tatsächlich der way to go. Ist z.b. der Grund warum ich immer Anno Benches vergleiche seit Jahren. Ob man jetzt 300 oder mit 3DCACHE 400 FPS im nächsten Kiddy Shooter hat, ist absolut "rille".

Casillas
2023-03-09, 19:10:11
Ja, das ist vollkommen absurd. Die Leute haben anscheinend alles vergessen, was die Jahre 2011 bis 2016 geprägt hatte. Im Vergleich dazu ist der Sprung von Vermeer-X zu Raphael-X sehr, sehr gut und wird ja auch nicht durch irgendwelche "Tricks" erkauft. Werder steigt die Leistungsaufnahme, noch werden jetzt gleich sieben weitere V-Cache-DIEs draufgestapelt oder ähnliches. :D

Du meinst die Zeit vor Ryzen? Als Intel uns mit Quadcores quasi gemolken hat? und ein 7700k so mit das beste war und 350€ gekostet hat? :freak::rolleyes:

iamthebear
2023-03-09, 19:59:13
Auch auf die Gefahr hin, dass jetzt alle mit Fackeln und Mistgabeln angerannt kommen aber ich muss den 7950X3D negativ beurteilen weil mir die Umsetzung mit dem Cache auf nur einem CCD absolut nicht gefällt:

1.) Das Scheduling scheint primär auf einer Whitelist zu basieren d.h. es müssen Spiele manuell hinzugefügt werden. Ich bin mal gespannt wie lange das wohl gemacht wird oder ob es in 3-4 Jahren nicht heißt "sorry die CPU wird nicht mehr aktiv unterstützt, kauf was Neues".

2.) Es wird bei Spielen das 2. CCD komplett deaktiviert d.h. man hat nur 8 Kerne zur Verfügung. Wenn ich schon den Aufpreis von fast 300 Euro auf einen 16 Kerne bezahle, dann will ich auch in der Lage sein die Kerne zu nutzen wenn zukünftige Spiele vielleicht mehr Threads haben oder gewisse Dinge wie Shader Compilation am Ladescreen (siehe HZD) in der Lage sind mehr Kerne auszulasten.

Meiner Meinung nach hat Intel das mit den e cores deutlich besser gelöst. Da hängt das Ganze an den Thread Prioritäten d.h. nicht performancekritische Hintergrundtasks können auf die e Cores verschoben werden während die kritischeren Threads auf den P Cores laufen. Das ist für die Entwickler auch kein Zusatzaufwand, denn die Thread Prioritäten müssen schon auf Grund von SMT korrekt gesetzt sein damit sich der Mainthread nicht einen physischen Kern teilen muss.

3.) Die Performance in Spielen ist zwar jetzt nicht schlecht aber auch nicht weltbewegend. So richtig absetzen kann man sich von einem 200 Euro billigeren 13900K nicht und da sind die höheren Boardkosten noch nicht mal mitberücksichtigt.

Eine Ebene darunter sieht es noch trauriger aus. Einen 13700K bekommt man schon um die 440 Euro gegenüber einem 7900X3D der nur 6 Kerne aktiv nutzt, was selbst bei aktuellen Spielen schon öfters etwas bremst.


Insgesamt erscheint mir der 7800X3D als die deutlich sinnvollere Lösung und hat zumindest technisch das Potential für eine gute Midrangelösung:
.) 8 starke Gamingkerne
.) Niedriger Energieverbrauch d.h. auch auf Mainstreamboards mit schlechteren VRMs lauffähig
.) Durch den Cache auch gut mit günstigeren DDR5 Rigeln lauffähig

Die Frage ist nur wo AMD diesen langfristig preislich positionieren wird. Auf Dauer werden sich die 400+ Euro für einen 8 Kerner kaum halten lassen.

FarCry
2023-03-09, 21:17:41
Negativer Ersteindruck. Und das sage ich als AMD-Fanboy.

Nach dem 5800X3D hatte ich erwartet, dass der 16-Kerner mit 3D-Cache alles wegfegt.
Mind. 25% Abstand zur nächst schlechteren CPU in den Spielen und stark engernieeffizient.
Dann wäre der Preis auch irgendwo gerechtfertig.
Aber so... hmmm.

Complicated
2023-03-09, 22:25:09
1.) Das Scheduling scheint primär auf einer Whitelist zu basieren d.h. es müssen Spiele manuell hinzugefügt werden. Das stimmt nicht.
Die Whitelist ist sekundär und kann von jedem selber ergänzt und abgeändert werden. Primär werden die C-States als Indikator genutzt.

2.) Es wird bei Spielen das 2. CCD komplett deaktiviert d.h. man hat nur 8 Kerne zur Verfügung. Das stimmt nicht.
Solange du es nicht selber im BIOS deaktivierst. Tests zeigen eindeutig, dass beide CCDs arbeiten und der sekundäre CCD die Performance stützt wenn Takt besser als Cache performt. In manchen Spielen ist der CCD ohne Cache performanter und der wird dann auch genutzt.

Platos
2023-03-09, 22:57:41
Preis ist viel zu hoch. Die Mehrleistung im Schnitt kaum da zum Konkurrent. Negativer Ersteindruck.

Der 7800X dürfte auch nicht gerade glänzen. Wird vermutlich ähnlich überteuert sein.

Aber solange die Plattformpreise so hoch sind, ist eig. die Diskussion um CPU Preise eh hinfällig, da sich das P/L durch die Plattform sowieso extrem verschlechtert.

Aroas
2023-03-10, 01:28:19
Also rein technisch eine sehr ordentliche CPU. Insbesondere die Effizienz ist herausragend.

Aber der Preis... ganz eindeutig viel zu teuer. Daher nur durchschnittlicher Eindruck.

Da bin ich mit meinem 5800X3D deutlich besser bedient zu einem Bruchteil der Kosten.

Leonidas
2023-03-10, 04:32:42
Doch braucht der Gamer diesen Detailgrad oder ist es der Fanboy der seine Kaufentscheidung in Foren martialisch verteidigt, weil die Konkurrenz "vernichtet", "zerstört" oder mal wieder alles ein "Fail" ist ab dem 2. Platz im Balken-Himmel?

Selbstverständlich. Deswegen halten wir diese Fahne hier auch weiterhin hoch.

Legendenkiller
2023-03-10, 07:59:10
Ich weiß immer nocht wo die Preisansprüche herkommen.

Wenn eine Firma, egal welche, es schafft das schnellste, besste Produkt am Markt zu bauen, wird sie dafür den höchsten Preis am Markt verlangen.



Kleiner Tip um preiswert zu Zocken, reicht ein 5600X/5700X oder 12/13400k. Selbst eine 5800X(X3D) und Intels 12/13600 bekommt man auf preiswerten Platformen mit DDR4 noch für schmales Geld.
Damit ist man locker für die nächsten 5 Jahre im grünen Bereich, wenns einfach nur Daddeln geht.

Und wer ein Supersportwagen haben will, den er in der Praxis faktisch nie ausfahren kann, aber es theoretisch gerne können möchte, muss halt auch super bezahlen.


PS: wann hatten wir den schon mal die Situation , das die letze CPU Generation ab 100€ ausreicht um sich ein Gaming PC zu bauen auf den man wirklich alles zocken kann.

Casillas
2023-03-10, 11:16:21
Auch auf die Gefahr hin, dass jetzt alle mit Fackeln und Mistgabeln angerannt kommen aber ich muss den 7950X3D negativ beurteilen weil mir die Umsetzung mit dem Cache auf nur einem CCD absolut nicht gefällt:

1.) Das Scheduling scheint primär auf einer Whitelist zu basieren d.h. es müssen Spiele manuell hinzugefügt werden. Ich bin mal gespannt wie lange das wohl gemacht wird oder ob es in 3-4 Jahren nicht heißt "sorry die CPU wird nicht mehr aktiv unterstützt, kauf was Neues".

2.) Es wird bei Spielen das 2. CCD komplett deaktiviert d.h. man hat nur 8 Kerne zur Verfügung. Wenn ich schon den Aufpreis von fast 300 Euro auf einen 16 Kerne bezahle, dann will ich auch in der Lage sein die Kerne zu nutzen wenn zukünftige Spiele vielleicht mehr Threads haben oder gewisse Dinge wie Shader Compilation am Ladescreen (siehe HZD) in der Lage sind mehr Kerne auszulasten.

Meiner Meinung nach hat Intel das mit den e cores deutlich besser gelöst. Da hängt das Ganze an den Thread Prioritäten d.h. nicht performancekritische Hintergrundtasks können auf die e Cores verschoben werden während die kritischeren Threads auf den P Cores laufen. Das ist für die Entwickler auch kein Zusatzaufwand, denn die Thread Prioritäten müssen schon auf Grund von SMT korrekt gesetzt sein damit sich der Mainthread nicht einen physischen Kern teilen muss.

3.) Die Performance in Spielen ist zwar jetzt nicht schlecht aber auch nicht weltbewegend. So richtig absetzen kann man sich von einem 200 Euro billigeren 13900K nicht und da sind die höheren Boardkosten noch nicht mal mitberücksichtigt.

Eine Ebene darunter sieht es noch trauriger aus. Einen 13700K bekommt man schon um die 440 Euro gegenüber einem 7900X3D der nur 6 Kerne aktiv nutzt, was selbst bei aktuellen Spielen schon öfters etwas bremst.


Insgesamt erscheint mir der 7800X3D als die deutlich sinnvollere Lösung und hat zumindest technisch das Potential für eine gute Midrangelösung:
.) 8 starke Gamingkerne
.) Niedriger Energieverbrauch d.h. auch auf Mainstreamboards mit schlechteren VRMs lauffähig
.) Durch den Cache auch gut mit günstigeren DDR5 Rigeln lauffähig

Die Frage ist nur wo AMD diesen langfristig preislich positionieren wird. Auf Dauer werden sich die 400+ Euro für einen 8 Kerner kaum halten lassen.

bis auf Punkt 2 war doch aber alles so oder so ähnlich vorher schon bekannt oder nicht?

Klar. Der 7900X3D ist nun unglücklick positioniert. Das stimmt wohl.

Und auch das der noch kommende 7800X3D mindestens preislich für Gamer die interessanteste CPU wird, war doch auch klar. Verstehe die Argumentation mit den e-Cores ehrlich gesagt nicht.

Complicated
2023-03-10, 12:42:39
Wie kann etwas bekannt sein was nicht stimmt? Punkt 1 und 2 treffen einfach nicht zu.

Semmel
2023-03-10, 13:34:47
Auch auf die Gefahr hin, dass jetzt alle mit Fackeln und Mistgabeln angerannt kommen aber ich muss den 7950X3D negativ beurteilen weil mir die Umsetzung mit dem Cache auf nur einem CCD absolut nicht gefällt:


Das sehe ich insgesamt genauso. Kein Bock auf solches Scheduling-Gefrickel.

Platos
2023-03-10, 14:28:42
Das witzige: Bei Intel mit dem Big.little kamen alle mit Scheduling. Jetzt bei AMD kein Problem. Manche sagen sogar, es sei besser, wenn nur eins den Cache hat ;D

Dass die CPUs völlig überteuert ist, interessiert hier das AMD Center auch nicht. Die meisten stimmen auch noch positiv. Ist ja AMD :D

Lehdro
2023-03-10, 15:25:02
Das witzige: Bei Intel mit dem Big.little kamen alle mit Scheduling. Jetzt bei AMD kein Problem. Manche sagen sogar, es sei besser, wenn nur eins den Cache hat ;D
Also ich weiß nicht welche Threads du konsumierst, aber genau diese Hauptkritikpunkte kommen doch auch hier alle Nase lang. Scheduling wird sogar soweit kritisiert, dass es faktisch schon wieder falsch ist ("der 7950X3D hat nur 8 Cores"). Dass das Scheduling nicht perfekt ist beweist jeder Test der mit manuellen Zuweisungen (oder per Game bar) arbeitet und mehr rausholt - da gibt es also durchaus noch Potenzial. Nur ist das halt weit von dem entfernt was Intel damals abgeliefert hat. Für AMD Verhältnisse ist das quasi fehlerfrei :wink:

Dass die CPUs völlig überteuert ist, interessiert hier das AMD Center auch nicht. Die meisten stimmen auch noch positiv. Ist ja AMD :D
Und dass die CPU überteuert ist steht wohl außer Frage. Nur ist sie halt die schnellste CPU derzeit und auch noch mit Abstand die effizienteste (siehe Launchanalyse), von daher eher: "Meh, an die Preise der Spitzen CPUs haben wir uns gewöhnt". Leider.

Exxtreme
2023-03-10, 15:29:29
Das witzige: Bei Intel mit dem Big.little kamen alle mit Scheduling. Jetzt bei AMD kein Problem. Manche sagen sogar, es sei besser, wenn nur eins den Cache hat ;D

Dass die CPUs völlig überteuert ist, interessiert hier das AMD Center auch nicht. Die meisten stimmen auch noch positiv. Ist ja AMD :D

OK, wieviele Leute sind es denn, die sagen, dass die AMD-Lösung was Tolles ist? Also ich sehe so ziemlich niemanden, der damit so richtig glücklich ist. Dafür viel mehr kritische Stimmen.

Platos
2023-03-10, 21:28:26
OK, wieviele Leute sind es denn, die sagen, dass die AMD-Lösung was Tolles ist? Also ich sehe so ziemlich niemanden, der damit so richtig glücklich ist. Dafür viel mehr kritische Stimmen.

Naja, anhand der vielen positiven Bewertung in der Umfrage, muss es ja anscheinend der Grossteil sein.

Aber ich weiss jetzt gerade nicht mehr, welche Nutzer das waren. Habe hier auch schon gelesen, dass das mit dem Cache auf nur einem Chiplet ein Vorteil sei.

Aber ist ja gut, dass es wenigstens auch genug gibt, die das kritisieren.

Also ich weiß nicht welche Threads du konsumierst, aber genau diese Hauptkritikpunkte kommen doch auch hier alle Nase lang. Scheduling wird sogar soweit kritisiert, dass es faktisch schon wieder falsch ist ("der 7950X3D hat nur 8 Cores"). Dass das Scheduling nicht perfekt ist beweist jeder Test der mit manuellen Zuweisungen (oder per Game bar) arbeitet und mehr rausholt - da gibt es also durchaus noch Potenzial. Nur ist das halt weit von dem entfernt was Intel damals abgeliefert hat. Für AMD Verhältnisse ist das quasi fehlerfrei :wink:

Und dass die CPU überteuert ist steht wohl außer Frage. Nur ist sie halt die schnellste CPU derzeit und auch noch mit Abstand die effizienteste (siehe Launchanalyse), von daher eher: "Meh, an die Preise der Spitzen CPUs haben wir uns gewöhnt". Leider.

Naja, der Unterschied ist halt, dass es nur die Halo-Produkte betrifft. Also quasi die Halo-Produkte der Halo Produtke. Bei Intel war es eben alles, was kleine Kerne hatte.

Ich bezweifle aber, dass AMD da viel optimiert. Das mit den 2 Chiplets trifft nicht so wie bei Intel das Grundlegende Portfolio, sondern nur Prozessoren, die im Grunde eh nur ein winziger Markt abdeckt. Von daher wird man da kaum wirklich viel tun.

Und ich denke nicht, dass es nur am Preis-Akzeptieren liegt. In Umfragen hat das Forum hier einfach extrem starken AMD-Bias.

Casillas
2023-03-10, 22:55:40
Und ich denke nicht, dass es nur am Preis-Akzeptieren liegt. In Umfragen hat das Forum hier einfach extrem starken AMD-Bias.

Ist das ein Problem für dich?

Exxtreme
2023-03-10, 22:58:55
Naja, anhand der vielen positiven Bewertung in der Umfrage, muss es ja anscheinend der Grossteil sein.

Aber ich weiss jetzt gerade nicht mehr, welche Nutzer das waren. Habe hier auch schon gelesen, dass das mit dem Cache auf nur einem Chiplet ein Vorteil sei.

Aber ist ja gut, dass es wenigstens auch genug gibt, die das kritisieren.


Positive Bewertung bedeutet jetzt nicht automatisch, dass die Leute mit dem Cache glücklich sind. Fällt wohl eher in die "ich kann damit leben"-Kategorie für die meisten. Diese CPUs haben ganz andere positive Aspekte.

ChaosTM
2023-03-10, 23:07:06
als jemand mit eine AMD "bias" (not an idiotic fanboy !)
7900X3D & 7950X3D sind overprized pieces of (shit) für gamers ...

auf den 7800X3D warten, oder den 5080X3d kaufen, wenn ein amd4 mainboards vorhanden ist

Lehdro
2023-03-10, 23:35:44
Von daher wird man da kaum wirklich viel tun.
Da sich die CPU eh nur an Enthusiasten richtet: Selber machen. AMD gibt dir immerhin die Tools an die Hand mit dem GameBar Feature dass du sagst was priorisiert werden soll, falls die Automatik versagt. Ansonsten ProcessLasso, CFX oder altmodisch über den Taskmanager. War bei ADL auch schon so...

Platos
2023-03-11, 10:17:56
Da sich die CPU eh nur an Enthusiasten richtet: Selber machen. AMD gibt dir immerhin die Tools an die Hand mit dem GameBar Feature dass du sagst was priorisiert werden soll, falls die Automatik versagt. Ansonsten ProcessLasso, CFX oder altmodisch über den Taskmanager. War bei ADL auch schon so...

Auf Gebastel verzichte ich gerne, wenn ich so viel Geld ausgebe würde. Also einmalig was einstellen (z.B Undervolting) ist ja ok, aber die ganz Zeit? Ne, das wäre ein No-Go.

Enthusiasten sind übrigens nivht selten technisch komplett unbegabt. Also das heisst nicht, dass Leute, die sich sowas kaufen, dann irgendwie Nerds sind, die das alles könnten.


Bezüglich Task MGR: Kann der wirklich zwischen physischen Kernen unterscheiden? Der Vertrilt doch immer die Last. Ich glaube nicht, dass das funktioniert. Wenn man da einer Software ein Kern zuweist, bedeutet das doch einfach, dass man die Rechenzeit eines Threads zuweist?

Positive Bewertung bedeutet jetzt nicht automatisch, dass die Leute mit dem Cache glücklich sind. Fällt wohl eher in die "ich kann damit leben"-Kategorie für die meisten. Diese CPUs haben ganz andere positive Aspekte.

Das stimmt schon.

Und der Preis ist schonmal keiner :D

Lehdro
2023-03-11, 15:45:09
Bezüglich Task MGR: Kann der wirklich zwischen physischen Kernen unterscheiden? Der Vertrilt doch immer die Last. Ich glaube nicht, dass das funktioniert. Wenn man da einer Software ein Kern zuweist, bedeutet das doch einfach, dass man die Rechenzeit eines Threads zuweist?

Ich habe bei Black Desert Online sowohl mit dem 5950X als auch mit dem 5800X3D massive Performancesteigerungen mit manuellem festpinnen der Cores erreichen können. Das waren Sprünge >50% von 16C/32T auf 8C/8T per Taskmanager (Core 0/2/4/6/8/10/12/14). Mit dem alten 2950X war ohne diese Maßnahme in TW:WH (1!) gar nicht an Spielbarkeit auf der Campaign Map zu denken, da das Spiel absolut allergisch auf alles >10Core reagiert. In den Schlachten (RTS Mode) ist es dann wieder egal gewesen.

Es funktioniert also definitiv.

Complicated
2023-03-11, 15:48:08
Enthusiasten basteln nicht gerne.. Du meinst einfach dich selbst. Schön, dass nun jeder Bescheid weiss wie deine Entscheidungsmatrix aussieht. Lässt sich genauso wenig drüber streiten, wie über Geschmack. Beanspruche jedoch nicht für eine Gruppe stellvertretend zu argumentieren. Das tust du nicht.

Leute die sich sowas kaufen, denken/können/würden....Du hast keine Ahnung was die Leute alles denken.

Casillas
2023-03-11, 17:43:16
Ich dachte das Scheduling hat AMD ganz gut hinbekommen. Wieso ist das jetzt so stark das Thema?

Lehdro
2023-03-11, 19:06:49
Ich dachte das Scheduling hat AMD ganz gut hinbekommen. Wieso ist das jetzt so stark das Thema?
Weil es nicht 100% perfekt ist. Das schmeckt einigen Leute aber so gar nicht, also wird das als Angriffspunkt genommen. Da wird dann halt gleich "BETRUG" gerufen, weil AMD es wagt Spiele auf nur 8 von 16 Kernen auszuführen :rolleyes:
Newsflash: Selbst mit 2x Vcache CCDs wäre oft eine Priorisierung auf nur eines davon schneller. Die IF Latenz lässt sich nun einmal mit Cache nur kaschieren, aber nicht vermeiden. Dem Sheduling würde es also nur helfen, aber auch nicht die perfekte Lösung darstellen.

lilgefo~
2023-03-11, 23:19:30
Mir sind die x3d CPUs einfach zu inkonsistent. Im besten Fall liegen sie weit vorne bei den AVG und MINfps. Meist aber nur mehr oder weniger knapp bei den AVG und unter den MINfps vergleichbarer Intel CPUs, was ich für ungleich relevanter halte. Was helfen mir bessere avgfps wenn die im Worstcase zusammenklappen. Insgesamt nette CPUs zum Zocken mit guter Energieeffizienz was aber speziell für Leute mit Wakü und in Spielen nicht so relevant ist. Mit AM5 gibts jetzt immerhin eine aktuelle Plattform was schonmal super ist. Trotzdem aus genannten Gründen für mich uninteressant.

P.S.: Das mit dem Scheduler kommt auch noch dazu. Im Prinzip ists bei jedem neuen Spiel was rauskommt ein 50/50 ob das sehr gut oder mittelmäßig mit dem 3dCache funktioniert. Das Prob hat man mit einem Intel nicht der liefert über alle Spiele eine konstante Performance auch wenn diese in ein paar Einzelfällen mal unter den x3ds liegt.

Lehdro
2023-03-13, 13:57:25
Das Prob hat man mit einem Intel nicht der liefert über alle Spiele eine konstante Performance auch wenn diese in ein paar Einzelfällen mal unter den x3ds liegt.
Wenn Intel langsamer als AMD ist: Völlig ok.
Wenn AMD langsamer als Intel ist: Gar nicht ok.

Aha.

Deine ganze Ausführung macht so gar keinen Sinn. Du kannst doch nicht bei den X3Ds ankreiden das sie nicht in jedem Fall weit vorne sind und dann bei Intel sagen dass das selbe bei denen nicht so schlimm wäre? "Einzelfälle", ich schmeiß mich weg. Komischerweise sind es genau die Einzelfälle in denen es relevant wird - sonst wäre der X3D nicht auch im Schnitt vorne. Ich brauche keine 500 fps in Doom Eternal, CS:GO oder Rainbow Six, aber die +FPS im MS:FS oder Anno nimmt man doch gerne mit. :confused:

Complicated
2023-03-13, 16:14:33
Ist doch ganz einfach: Überall wo Intel langsamer ist als der X3D, ist er Cache-Limitiert.
Die selbe Formulierung wird bei GPUs für RAM-Limits verwendet. Oder auch "Speicherkrüppel" oder auch "Totaler Fail", je nach stärke der Lager-Färbung /Ironie Off

In Limits ist die Performance gleichbleibend - keiner kommt auf die Idee das bei GPUs für toll zu halten und als Vorteil bei RAM-Limits zu verkaufen, dass die Performance da stabil ist und das besser wäre.

lilgefo~
2023-04-08, 01:21:10
Wenn Intel langsamer als AMD ist: Völlig ok.
Wenn AMD langsamer als Intel ist: Gar nicht ok.

Aha.

Deine ganze Ausführung macht so gar keinen Sinn. Du kannst doch nicht bei den X3Ds ankreiden das sie nicht in jedem Fall weit vorne sind und dann bei Intel sagen dass das selbe bei denen nicht so schlimm wäre? "Einzelfälle", ich schmeiß mich weg. Komischerweise sind es genau die Einzelfälle in denen es relevant wird - sonst wäre der X3D nicht auch im Schnitt vorne. Ich brauche keine 500 fps in Doom Eternal, CS:GO oder Rainbow Six, aber die +FPS im MS:FS oder Anno nimmt man doch gerne mit. :confused:

Schau dir den aktuellen PCGH Bench (https://www.pcgameshardware.de/Ryzen-7-7800X3D-CPU-279471/Tests/vs-7900X3D-Benchmark-Review-Release-Preis-1416589/2/) zum stärksten Spiele X3D an. Von den Titeln die da getestet wurden sind 3 bei mir auf der Platte; TW:WH3, CP2077 und Anno 1800. In TW:WH3 und CP sind die X3D MASSIV schlechter als mein 13700kf@ Stock und in Anno schafft es nur ein deutlich teurerer 7950x3d marginalst besser zu sein. In manchen Titeln die mich nicht interessieren wie FS sthet der X3D sehr gut da. In der Regel sind sie halt scheclhter und das meine ich mit inkonsistent. Mit 12th oder 13th Gen steht man über die Breite sehr gut da und hat meißt mehr FPS/€. Wenn man nur FS oder andere Spiele spielt in denen der X3D deutlich besser ist oder wenn man sich trotz Ruckeln drüber freuen kann, dass die FPS/W besser sind dann sind sie eine gute Wahl. Ansonsten halt nicht. AMD ist halt nur in Einzelfällen besser ansonsten nicht. Das ist eben die Inkonsistenz. Mit Zen3 hatte man Intel im ST grad überholt nur kam kurz darauf AlderLake und damit sind sie wieder hinten dran für Gamer die das Beste wollen.

Linmoum
2023-04-08, 02:10:30
Man könnte ja auch mal mehrere Reviews vergleichen um festzustellen, wie der Schnitt grob so ist. Und dann feststellen, dass PCGH hier ein Ausreißer nach unten ist. ;) Insbesondere bei Einzeltiteln.

Vor allem CP ist dort komplett broken, der 7800X3D und 5800X3D haben beide nur ein CCD mit V-Cache, beide 8C/16T, der 7800X3D aber mit höherer IPC und +11% Takt. Resultat bei PCGH sind aber die exakt selben fps, was schlicht nicht möglich ist (und auch zu keinem anderen Review da draußen passt, was generell auf CP dort zutrifft).

Anno 1800 performt bspw. bei CB auch deutlich besser als bei PCGH. Und wenn PCGH noch immer dasselbe Savegame von früher als Szene nutzt, ist das genutzte Savegame von CB sogar deutlich anspruchsvoller.

Die X3D sind in der Regel nicht schlechter, sondern besser. Sieht man beim Blick auf die Reviews da draußen eigentlich auch. Nicht mit extrem viel Vorsprung, aber eben messbar. Und wenn der Cache durchschlägt, dann auch gerne mal richtig. Und das ist bei Spielen kein seltener Fall.

lilgefo~
2023-04-08, 02:26:48
Reviews ohne minfps sind für mich sinnbefreit. Wie schon oben geschrieben, was interssiert mich wenn ich eh schon sher hope fps habe obs nochmal 20 mehr sind. Ob ich dann 140 oder 160 hab merke ich nicht. Und ja, wenns um maxfps geht ist der x3d deutlicu besser im Vergleich. Nur wenns dann wenn ichs brauche unter 60 droppt während der Intel noch auf 70 liegt ist das für mich nix wert. Die Plattform muss immer die Zielfps bereitstellen können (in meinem Falle 60) alles andere ist eine Frage der GPU. Und das kann der x3d halt einfach deutlich seltener und deshalb ist er für mich inconsistent.

Lehdro
2023-04-08, 23:19:45
Welches Review zeigt denn keine 1% lows an? Bei CB gibts das doch und da schneidet der X3D wiederrum gut ab...

Das PCGH Review hat mir einfach viel zu viele Fragezeichen, selbst nach dem Update. Dieselben Inkonsistenzen hatten die auch schon beim 7950X3D Review, wo sie den 7800X3D simuliert haben. Irgendwo hakt es da.

lilgefo~
2023-09-01, 19:00:20
Wenn Intel langsamer als AMD ist: Völlig ok.
Wenn AMD langsamer als Intel ist: Gar nicht ok.

Aha.

Deine ganze Ausführung macht so gar keinen Sinn. Du kannst doch nicht bei den X3Ds ankreiden das sie nicht in jedem Fall weit vorne sind und dann bei Intel sagen dass das selbe bei denen nicht so schlimm wäre? "Einzelfälle", ich schmeiß mich weg. Komischerweise sind es genau die Einzelfälle in denen es relevant wird - sonst wäre der X3D nicht auch im Schnitt vorne. Ich brauche keine 500 fps in Doom Eternal, CS:GO oder Rainbow Six, aber die +FPS im MS:FS oder Anno nimmt man doch gerne mit. :confused:

Hier mal wieder point in case. Im AMD sponsored Starfield wo CPU-Leistung wieder massiv gefragt wird sacken die ganzen x3d Dinger komplett ab und werden von Intels die teils nur die Hälfte kosten geschlagen. Das ist eigentlich das größte Problem denn gerade in Spielen die wirklich CPU Leistung brauchen sind die x3d seltenst auch nur auf Augenhöhe der Intel Counterparts. Das man in Rainbow Siege oder CSgo oder was weiß ich 20% vorn ist in den Avg bei 400fps+ hilft da einfach nicht.
Wenn ich mir für 700€+ nen 7950x3d geholt hab komm ich hier nichtmal auf 60fps (min), mit einem 13900k für weniger Geld hat man das Problem nicht. Und im Falle von Flugsimulator was sowohl sehr CPU intensiv als auch sehr gut mit dem x3d cache skaliert komm ich mit nem 13900k zwar nicht auf die fps vom 7950x3d trotzdem auf über 60fps min. Ergeben einfach keinen Sinn die Dinger ausser man spielt spezifisch die Spiele die sehr gut mit dem X3D laufen und will in diesen Spielen auch noch die maximal möglichen Frames (die im Falle von FS auch erstmal von er GPU geliefert werden müssen). Sprich, hab ich mir den teuersten und (theoretisch) schnellsten Ryzen 7000 geholt kommts immer auf das Spiel an ob ich überhaupt auf 60fps min komme, meistens ja aber manchmal nein. Für ~100€ weniger kriegt man nen 13900k der immer in allen Spielen über 60fps min kommt. Soviel zur Inkonsistenz die ich bemängelte.

https://www.pcgameshardware.de/Starfield-Spiel-61756/Specials/cpu-benchmark-requirements-anforderungen-1428119/

Nightspider
2023-09-01, 20:43:38
Laber Laber Rhabarbar

Die Avg_FPS sind bei dem Test bei Intel überproportional über den Min_fps wenn man den 13900K und 7800X3D ansieht.

Es kommt total aufs Spiel an. Manche Spiele machen einen riesigen Sprung durch den V-Cache bei den Min_fps

Wenn ich mir die Benchmarks von Starfield ansehe, bin ich mir auch nicht siher ob das Scheduling schon richtig funktioniert, weil der 7950X3D auf Augenhöhe mit dem 7950X liegt.

lilgefo~
2023-09-01, 20:46:48
Laber Laber Rhabarbar

Wenn ich mir die Benchmarks von Starfield ansehe, bin ich mir auch nicht siher ob das Scheduling schon richtig funktioniert, weil der 7950X3D auf Augenhöhe mit dem 7950X liegt.

Und während du dich fragst obs nu am Scheduling liegt das dein X3D nicht auf 60fps kommt spielen Leute mit 300€ Intel CPUs butterweich. :)

Lehdro
2023-09-02, 18:35:50
Und während du dich fragst obs nu am Scheduling liegt das dein X3D nicht auf 60fps kommt spielen Leute mit 300€ Intel CPUs butterweich. :)
Außer die haben noch einen 12900k drin, dann ist auf einmal ein 12700k besser, weil der nicht so in den lows abkackt. Bei RPL ist das komischerweise nicht der Fall. Klingt total plausibel, richtig?

Das Spiel scheint wie alles mit Creation Engine eine technische Wunderblume zu sein.

lilgefo~
2024-03-14, 15:18:06
PCGH hat Outcast 2 getestet und es ist scheinbar auch wieder ein CPU-Brecher der nicht automatisch auf allen halbwegs aktuellen CPUs läuft. Und wie auch in allen Fällen zuvor zeigt sich wieder mal, dass wenn es drauf ankommt ST Leistung das Maß der Dinge für konsistente Frametimes und möglichst häufiges GPU-busy ist.

https://www.pcgameshardware.de/Outcast-2-Spiel-73470/Specials/Review-Test-Benchmarks-Shader-Stuttering-1442776/2/