PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 9000 Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14]

Dorn
2025-03-11, 15:43:53
Jo Reviews seit 9 Minuten da und so ruhig hier :).Alle schauen nach der Verfügbarkeit von Grafikkarten. :biggrin:

Birdman
2025-03-11, 15:44:34
Ich gehe ja davon aus dass AMD beim 9800X3 absichtlich die Taktfrequenz etwas niedriger als nötig angesetzt hat, um den 9950X3D bei Games weniger "schlecht" aussehen zu lassen.
Die nun fast 10% mehr Taktfrequenz bügeln halt durchaus die eine oder andere Scheduling Unzulänglichkeit aus.

Lawmachine79
2025-03-11, 15:52:54
Die 500Mhz kannste bestimmt vergessen.

Lass es 200 bis 300 sein.
Warum? Die "Papierboostclocks" sind 5,2 vs. 5,7. Und der 9950X3D sollte besser gebinned sein. Und er hat eine TDP von 170W vs. 120W. Die TDP sinkt ja nicht, wenn man einen CCD deaktiviert.

Nightspider
2025-03-11, 15:53:58
Die 5,7 gelten doch nur für das CCD ohne X3D oder vielleicht für SC Last, wenn ich mich nicht irre.

Der 9800X3D läuft aber auch nicht am Limit und hat wahrscheinlich mehr Spielraum nach oben.

Lawmachine79
2025-03-11, 15:55:20
Der 9800X3D läuft aber auch nicht am Limit und hat wahrscheinlich mehr Spielraum nach oben.
Ja, aber für jeden, der nicht die Brechstange auspackt, ist das Limit PBO/CO. Und da sind maximal 200 Mhz drin. Und wenn ich die auch im 9950X3D kriege, habe ich wieder 500 Vorsprung.

Nightspider
2025-03-11, 15:56:57
Der Ryzen 9 7950X3D hatte auch 5,7Ghz Boosttakt. Aber eben nicht für das X3D CCD.

Nightspider
2025-03-11, 15:59:51
Boar ich find gerade keinen Test wo mal die realen Taktraten des V-Cache CCDs sichtbar sind unter MultiCore Last.

Ist das so schwer? Oder bin ich nur blind.

Raff schau mal deinen Kollegen über die Schulter bitte.

The_Invisible
2025-03-11, 16:04:11
Also wenn ich 200 Euro mehr 500 Mhz mehr Takt kriege, mache ich das. 98X3D gebraucht verkaufen, 9950X3D kaufen, 2. CCD deaktivieren, CO -20, +200 Mhz. Kein Gefummel mit Gamebar, nur das geile Gefummel.

Hier ist ein alter Artikel, wo diese Idee mal für den 7950X3D mit deaktiviertem zweiten CCD umgesetzt wurde. Da sind es aber nur 250 Mhz Unterschied, weil "damals" die Taktdifferenz zwischen dem X3D-CCD und dem anderen CCD größer war.
https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/24.html

Naja verschwendete Ressourcen aus meiner Sicht.

Hätte man lieber einen 9850x3d machen sollen mit gebinnten 3dcache ccd. Aber hoffe auch das die nächste Gen dann endlich nativen >=12Kerner bietet.

Coroner
2025-03-11, 16:07:50
Mich würde interessieren, wieviel Boosttakt man aus dem X3D-CCD quetschen kann, wenn man den anderen CCD deaktiviert. Dann dürfte ja massiv TDP-Reserve da sein. Da sollten doch 5,9 Ghz drin sein mit PBO.

Ich frage mich ob beim 9950X3D das cache-CCD solo überhaupt die komplette TDP/PPT abgreifen kann wenn man das frequency-CCD deaktiviert.

Ich habe das letztens mit meinem 7950X3D getestet. Wenn ich Cinebench R23 anwerfe so zieht das cache-CCD solo maximal etwas über 86 Watt bei ~4875 MHz boost-Takt (einzelne Kerne gehen ganz kurz mal auf 4890 MHz hoch) und ~77 °C Temperatur (Tctl/Tdie laut HWInfo).
Das frequency-CCD zieht solo ~147 W und wird dabei etwas über 87 °C heiß, wie hoch der boost ist habe ich gerade nicht mehr im Kopf.
Mit allen 16 Kernen habe ich mit Cinebench denselben Verbrauch wie mit dem frequency-CCD allein und der boost-Takt ist auf allen Kernen derselbe wie beim cache-CCD-only-Test (~4875 MHz) während die Temperatur ~77 °C beträgt. Das cache-CCD kann solo nicht die volle TDP/PPT ausnutzen.

Wäre cool wenn das beim 9950X3D anders wäre :smile:.

00-Schneider
2025-03-11, 16:08:08
Der 9800X3D ist über mehrere Games betrachtet quasi gleich schnell, säuft aber etwas weniger. Wenn man nur zockt, reicht also der 8-Kerner.

QhGsQvDaEPo

37f2p9hhrtk

Lehdro
2025-03-11, 16:08:18
9800X3D sagt: Wieso haste mich dann ausgebaut?
Weil immer mehr geht :)

Die 500Mhz kannste bestimmt vergessen.

Lass es 200 bis 300 sein.
Du hast schon 300 ootb + das Potenzial weiterer 200 MHz.

9800X3D: 5225 MHz + 200 MHz = 5425 MHz
9950X3D: 5550 MHz + 200 MHz = 5750 MHz

Lawmachine79
2025-03-11, 16:10:43
Der Ryzen 9 7950X3D hatte auch 5,7Ghz Boosttakt. Aber eben nicht für das X3D CCD.
Und die Frage ist, ob diese Feststellung sich auch auf den 9950X3D übertragen lässt (also die Feststellung, dass der Boosttakt für den X3D-CCD geringer ist und wenn ja, wieviel?)



9800X3D: 5225 MHz + 200 MHz = 5425 MHz
9950X3D: 5550 MHz + 200 MHz = 5750 MHz
Woher nimmst Du die 5550?

Lehdro
2025-03-11, 16:12:59
Und die Frage ist, ob diese Feststellung sich auch auf den 9950X3D übertragen lässt (also die Feststellung, dass der Boosttakt für den X3D-CCD geringer ist und wenn ja, wieviel?)


Woher nimmst Du die 5550?
Computerbase: (https://www.computerbase.de/artikel/prozessoren/amd-ryzen-9-9950x3d-test.91531/)
Beim 9950X3D erhält der CCD mit zusätzlichem L3-Cache einen Taktabschlag von 200 MHz, es liegen also maximal 5,55 GHz an.
Alle anderen Reviewer sind unfähig das zu kommunizieren und fabulieren nur von einem "Taktabschlag".

Nightspider
2025-03-11, 16:20:12
Du hast schon 300 ootb + das Potenzial weiterer 200 MHz.

9800X3D: 5225 MHz + 200 MHz = 5425 MHz
9950X3D: 5550 MHz + 200 MHz = 5750 MHz

Wir reden aber nicht von OC vs Stock weil das einfach keinen Sinn macht.


Alle anderen Reviewer sind unfähig das zu kommunizieren und fabulieren nur von einem "Taktabschlag".

Echt traurig das die Reviewer nichtmal diesen wichtigen Fakt in jedem Test wenigstens ein mal im Artikel / Video stehen haben.

Raff kann da seine Kollegen bitte auch mal anscheißen von uns.

Mr. Lolman
2025-03-11, 16:33:09
Das Ding versagt in zu vielen Spielen, um mich geil zu machen, das Gefummel mit der Game-Bar ist unschön. Insofern:



+1

... und bis dahin Spaß mit einem aufgedonnerten 9800X3D haben. :)

MfG
Raff


Der 9950X3D braucht bei euch im Idle mehr als im GPU-Limit? :freak:

Lehdro
2025-03-11, 16:38:31
Der 9950X3D braucht bei euch im Idle mehr als im GPU-Limit? :freak:
Idle = Gesamtsystem
GPU Limit = CPU only

Lawmachine79
2025-03-11, 16:40:01
Wir reden aber nicht von OC vs Stock weil das einfach keinen Sinn macht.

Der Vergleich passt doch, ist OC vs. OC.


Echt traurig das die Reviewer nichtmal diesen wichtigen Fakt in jedem Test wenigstens ein mal im Artikel / Video stehen haben.

Raff kann da seine Kollegen bitte auch mal anscheißen von uns.
Guter Hinweis, dass es nur 5550 sind.

Computerbase: (https://www.computerbase.de/artikel/prozessoren/amd-ryzen-9-9950x3d-test.91531/)

Alle anderen Reviewer sind unfähig das zu kommunizieren und fabulieren nur von einem "Taktabschlag".
Thx!

Lehdro
2025-03-11, 16:42:51
Wir reden aber nicht von OC vs Stock weil das einfach keinen Sinn macht.

Stimmt. Allerdings sind die CCDs des 9950X3D definitiv besser gebinned. Habe jetzt schon von mehreren 9800X3Ds gehört die die +200 MHz nicht schaffen. Bei einem 9950X3D hast du aber garantiert die 5,55 GHz drin + das Restpotenzial. Wenn ich sehe was die +200 MHz teilweise ausmachen, kann sich das schon "lohnen". Das ist dann dieselbe Diskussion wie 13900K/KS/14900K/KS - nur dass du da definitiv weniger Uplift garantiert hattest :wink:

Wie gesagt: Es geht um das letzte bisschen Performance, da hast du niemals ein Kosten/Nutzen Verhältnis was rational begründbar wäre.

Nightspider
2025-03-11, 19:31:52
Der Vergleich passt doch, ist OC vs. OC.

Dann hast du nicht richtig gelesen, weil Lehdro von ootb +300 +200 durch OC = 500 mehr als beim 9800X3D sprach, der 9800X3D meist aber auch grob 200 Mhz schaffen sollte.

Stimmt. Allerdings sind die CCDs des 9950X3D definitiv besser gebinned.

Das bessere Binning ermöglicht ja erst die zusätzlichen ~225 Mhz, wodurch der Vorteil schon aufgebraucht sein dürfte und es bedeutet nicht zwangsläufig das darüber hinaus noch mehr Luft ist als beim 9800X3D. :)

Kann natürlich sein das mit Direct Die WaKü / Kompressor noch mehr herauszuholen ist aber da müssen wir die Tests abwarten.

Aber es gab auch 9800X3Ds die +300-400 geschafft haben mit guter Kühlung.

Badesalz
2025-03-11, 20:39:26
Ganz schöne Saufziege gegenüber dem 9800X3D, nur fürs Zocken... Und mit dem alleraktuellste ;) 285k BIOS beim bauer lässt der sich auch nicht gleich komplett nass machen (bei weniger teils spürbar weniger Watts).

ou ou. Gut, daß es den 9800X3D gibt :wink:

Lawmachine79
2025-03-11, 23:49:25
285k
Ach bitte...

Nightspider
2025-03-12, 11:48:28
Hat man bei 2 CCDs dann eigentlich getrennte OC Einstellungen für jedes CCD ?

Kann man also mit OC das V-Cache CCD auf den gleichen Takt bringen wie das Non-V-Cache CCD oder gibts da irgendwelche Beschränkungen?

Und gibts noch immer kein Tester, der mal das OC Limit vom gebinnten X3D Chiplet getestet hat? Das hätte ich als erstes gemacht. ^^

Der_Korken
2025-03-12, 12:03:54
Hat man bei 2 CCDs dann eigentlich getrennte OC Einstellungen für jedes CCD ?

Kann man also mit OC das V-Cache CCD auf den gleichen Takt bringen wie das Non-V-Cache CCD oder gibts da irgendwelche Beschränkungen?

Und gibts noch immer kein Tester, der mal das OC Limit vom gebinnten X3D Chiplet getestet hat? Das hätte ich als erstes gemacht. ^^

Bei Ryzen nutzt man sowieso einen CO-Offset, den man pro Kern einstellen kann. Einzig den PBO-Takt-Offset kann man afaik nur global einstellen, d.h. wenn auf dem zweiten CCD die +200Mhz nicht stabil sind (weil das dann 5,95Ghz entspricht und das zu viel für Zen 5 ist), kannst du auf dem ersten CCD auch keine +200Mhz fahren, auch wenn sie laufen würden.

SentinelBorg
2025-03-12, 13:22:09
Weiss jemand die Launch Uhrzeit bei uns?

Edit: Laut Digitec Schweiz 15 Uhr

Nightspider
2025-03-12, 14:36:23
Bei dem Test hier sieht man zumindest mal die realen Taktraten aller Kerne bei starker Gaming Last:

https://youtu.be/gmI-yFw_LTA?t=594

Bei starker CPU Last @stock ~5400 bis 5450 Mhz und bei etwas leichterer Auslastung in anderen Spielen teilweise 5500 bis 5550 Mhz.

Lehdro
2025-03-12, 15:48:42
Hat man bei 2 CCDs dann eigentlich getrennte OC Einstellungen für jedes CCD ?

Kann man also mit OC das V-Cache CCD auf den gleichen Takt bringen wie das Non-V-Cache CCD oder gibts da irgendwelche Beschränkungen?
Du kannst das bei AMD alles haben in dem du die CPU manuell, also ganz klassisch per Multiplikator übertaktest. Da fällt aber das feingranulare rumgebooste weg und eventuell einige andere Sachen wie Energiesparzustände.

Das bessere Binning ermöglicht ja erst die zusätzlichen ~225 Mhz, wodurch der Vorteil schon aufgebraucht sein dürfte und es bedeutet nicht zwangsläufig das darüber hinaus noch mehr Luft ist als beim 9800X3D. :)
[...]
Aber es gab auch 9800X3Ds die +300-400 geschafft haben mit guter Kühlung.
Von den Voltages die so durchs Netz geistern, rennt das V-Cache CCD vom 9950X3D mit in etwa der gleichen Spannung ootb, wie die meisten 9800X3D mit +200 Offset - da sind schon mal >100 MHz Unterschied und vergleichbare Vcore auf der Habenseite des 9950X3D. Das Binning ist eben das interessante, weil du unter 1.30V bleiben willst, idealerweise möglichst weit unter 1.30V wenn du Skalar x10 benutzt, um den Boost auch ohne Langzeitfolgen halten zu können. Im Endeffekt, von normaler Skalierung ausgehend, sollten beim 9950X3D mit 1.30V im Schnitt ca. 150-200 MHz mehr möglich sein, als beim 9800X3D. Da wären wir dann schon bei 5.6 GHz - ohne Spannungskeule.

Um das mal in Zahlen zu packen, ohne CO:

9800X3D + 200 MHz = 5425 MHz @ 1.32V Stock
9950X3D (CCD0) @ 5400 MHz @ 1.27V Stock
9950X3D (CCD0) @ 5550 MHz @ 1.32V Stock

Jetzt kommt da noch CO drauf (oder besser: weg), gehen wir mal konservativ von -20 aus:
9800X3D + 200 MHz + CO -20 = 5425 MHz @ 1.28V
9950X3D (CCD0) @ 5400 MHz + CO -20 @ 1.18V
9950X3D (CCD0) @ 5550 MHz + CO -20 @ 1.27V
9950X3D (CCD0) @ 5600 MHz + CO -20 @ 1.30V

Das sind jetzt als Beispiel die groben Werte vom Skatterbencher.

VooDoo7mx
2025-03-12, 19:36:36
Und in AMDs absoluter Weisheit gibt es für Notebooks nur den 16 Kerner mit 3D V Cache. :facepalm:
Da sind echte Füchse am Werk...

Auf dem DIY PC kann man den wohl schon sehr deutllichen Mehrverbrauch wohl locker wegkühlen aber im (Gaming-)Notebook wo jedes Watt praktisch auch mehr Laustärke bedeutet ist es kompletter Mist die vielen unnützen Saufkerne immer mitziehen zu müssen.

Da wird echt der Arrow Lake schon wieder attraktiver...

Der_Korken
2025-03-12, 22:51:09
Für AMD gibt es doch nichts besseres als wenn die Leute sich viel zu viele Kerne kaufen, die sie gar nicht brauchen, aber nach ein paar Jahren trotzdem wieder aufrüsten, weil die nächste Gen durch IPC-Verbesserungen und mehr Cache in allen selbst genutzten Workloads besser läuft - selbst mit deutlich weniger Kernen.

Nightspider
2025-03-12, 22:55:55
Jepp. ^^

Für Zen6Ghz 12C wird dann wieder schön aufgerüstet. ^^

Und nicht lang danach steht dann schon langsam die Playstation 6 an die dann vielleicht auch 12 Kerne haben wird.
8 Kerne haben wir ja schon seit Zen1 (2017). Unreal Engine 5 und Co. dürfen ruhig mit 12 monolithischen BigCores erschlagen werden. ^^

Lawmachine79
2025-03-13, 00:37:02
Und in AMDs absoluter Weisheit gibt es für Notebooks nur den 16 Kerner mit 3D V Cache. :facepalm:
Da sind echte Füchse am Werk...

Auf dem DIY PC kann man den wohl schon sehr deutllichen Mehrverbrauch wohl locker wegkühlen aber im (Gaming-)Notebook wo jedes Watt praktisch auch mehr Laustärke bedeutet ist es kompletter Mist die vielen unnützen Saufkerne immer mitziehen zu müssen.

Da wird echt der Arrow Lake schon wieder attraktiver...
Da könnte ich auch kotzen. Einfach den HX370 nehmen und drunter mit dem X3D-Cache. Und der Gipfel des Schwachsinns ist, dass der 9955HX3D dann nicht einmal USB4 unterstützt und Thunderbolt bei AMD nicht drin ist. Man halt also einen 9955HX3D, die schnellste Laptop CPU, und man schließt sie dann an eine Docking Station per USB-C mit Displayport Alt-Mode und Power Delivery an, im Jahr 2025.

x-force
2025-03-13, 02:34:39
Auf dem DIY PC kann man den wohl schon sehr deutllichen Mehrverbrauch wohl locker wegkühlen aber im (Gaming-)Notebook wo jedes Watt praktisch auch mehr Laustärke bedeutet ist es kompletter Mist die vielen unnützen Saufkerne immer mitziehen zu müssen.

der unterschied im idle zwischen 6 und 16 kernen, also 7600x3d und 7950x3d beträgt laut pcgh ein watt, das möglicherweise auch noch aufgerundet ist. ;)
offcore zieht, aber der ist bei allen gleich und im mobilen bereich top.

Badesalz
2025-03-13, 09:03:29
Und nicht lang danach steht dann schon langsam die Playstation 6 an die dann vielleicht auch 12 Kerne haben wird.
8 Kerne haben wir ja schon seit Zen1 (2017). Unreal Engine 5 und Co. dürfen ruhig mit 12 monolithischen BigCores erschlagen werden. ^^Das dauert bis UE 6.5 bis sie davon etwas hat. Wenn denn.

PS:
Man rechnet immernoch in Cores und nicht in Threads? Machst du SMT immer aus?

Armaq
2025-03-13, 10:29:49
Also ich seh den 9950X3D kritisch. Ich wüsste nicht, warum man den jetzt ggü. den 9800X3D nehmen sollte und vom 7950 kommend kann man zwar höhere Anwendungsleistung sehen, aber relevant ist sie nicht. Wirkt ein wenig wie so ein Benchmark-Launch.

Exxtreme
2025-03-13, 10:42:55
Also ich seh den 9950X3D kritisch. Ich wüsste nicht, warum man den jetzt ggü. den 9800X3D nehmen sollte und vom 7950 kommend kann man zwar höhere Anwendungsleistung sehen, aber relevant ist sie nicht. Wirkt ein wenig wie so ein Benchmark-Launch.
Kommt drauf an welche Ansprüche man hat. Braucht man viel mehr MT-Leistung dann ist diese CPU sehr gut.

dildo4u
2025-03-13, 10:45:28
Das Ding kann bis zu 50% schneller sein kostet aber 700 statt 500$ klingt für mich ok, eher nimmt AMD die reinen Gamer aus.

ChaosTM
2025-03-13, 10:52:52
Der Aufpreis vom 9800X3D ist diesmal recht gemäßigt. Gäbe es zb. beim FS2024 oder anderen Spielen eine signifikante Leistungssteigerung, würde ich es mir überlegen.
Hab aber diesbezüglich bisher nur einen FS2024 BM gesehen und da war der Gewinn mit 5% sehr überschaubar.
Mehr als 8/16 wird kaum wo vernünftig unterstützt. Höchstens bei Aufbauspielen und das ist nicht mein Genre.

Palpatin
2025-03-13, 11:22:21
Gibt es irgendwo ein Review zum 9900X3D?

dildo4u
2025-03-13, 11:33:34
Gibt es irgendwo ein Review zum 9900X3D?

https://www.kitguru.net/components/cpu/leo-waldock/amd-ryzen-9-9900x3d-review

Nightspider
2025-03-13, 11:35:48
Man rechnet immernoch in Cores und nicht in Threads? Machst du SMT immer aus?

:confused:

Ein Zen6 CCD soll 12 Kerne (24 Threads) bekommen.

latiose88
2025-03-13, 12:09:06
Ja genau so ist es. Das wird schon stimmen weil was sonst soll AMD noch verbessern. Aber selbst wenn das nun teilweise stimmt, spätestens ab Zen 7 wird es mehr Kerne ganz sicher geben.

Badesalz
2025-03-13, 13:10:03
(nicht richtig gelesen)

Ja... Der 9800X3D bollert dermaßen alles weg, daß gleich 80% der Modelle in den Charts (Leo) daheim keinen Sinn ergeben :usweet: Da reiht sich der 9950X3D jetzt auch mit ein... Wer die Threads für seine Spielereien braucht, braucht eher selten auch X3D dabei.

@Nightspider
:uclap:

Lawmachine79
2025-03-13, 14:28:46
(nicht richtig gelesen)

Ja... Der 9800X3D bollert dermaßen alles weg, daß gleich 80% der Modelle in den Charts (Leo) daheim keinen Sinn ergeben :usweet: Da reiht sich der 9950X3D jetzt auch mit ein... Wer die Threads für seine Spielereien braucht, braucht eher selten auch X3D dabei.

@Nightspider
:uclap:
Wer wirklich absolut kompromisslos das Maximale rauskratzen will, ist auch mit dem 9950X3D besser bedient. "Game Mode" an im Bios, OC, fertig.

Twodee
2025-03-13, 16:04:17
Wer wirklich absolut kompromisslos das Maximale rauskratzen will, ist auch mit dem 9950X3D besser bedient. "Game Mode" an im Bios, OC, fertig.
Bei mir ist das mit 7950X3D tatsächlich so:
Mo-Fr: Bios Profile 1 - CCD0+CCD1
Fr-So: Bios Profile 2 - CCD0 only (5250MHz@90Watt aber mit SMT) - damit liegt man leicht oberhalb eines 7800X3D

Armaq
2025-03-13, 17:10:12
Bei mir ist das mit 7950X3D tatsächlich so:
Mo-Fr: Bios Profile 1 - CCD0+CCD1
Fr-So: Bios Profile 2 - CCD0 only (5250MHz@90Watt aber mit SMT) - damit liegt man leicht oberhalb eines 7800X3D
Das ist einfach nur die Kühlung die du optimieren musst. Den CCD abschalten ist unnötig. Im Benchmark Thread kannst du sehen, dass mein 7950X3D die 52xx Mhz konsequent auch in 20 Läufen hält und der CCD 1 ist weiterhin an.

Wo gibts 50% mehr vom 9950x3d zum 7950x3d? Ich habe mir einige Tests angesehen und die Ausreißer waren 30%, sonst um die 20% oder auch mal weniger. Ich find 20% völlig iO, aber das reicht imho nicht für ein Upgrade.

Radeonfreak
2025-03-13, 17:26:24
dass mein 7950X3D die 52xx Mhz konsequent auch in 20 Läufen hält und der CCD 1 ist weiterhin an.

+1

Co-20 auf allen 3d Kernen.

Twodee
2025-03-13, 17:38:21
Das ist einfach nur die Kühlung die du optimieren musst. Den CCD abschalten ist unnötig. Im Benchmark Thread kannst du sehen, dass mein 7950X3D die 52xx Mhz konsequent auch in 20 Läufen hält und der CCD 1 ist weiterhin an.

Kühlungsproblem habe ich nicht, liegt bei max 75°C im CCD0 bei 5.25Ghz.
Es gibt so ein paar Kandidaten die laufen ohne CCD1 einfach besser, und auf das Gefummel mit der Gamebar etc. habe ich keine Lust.

Twodee
2025-03-13, 17:39:01
+1

Co-20 auf allen 3d Kernen.

ist doch selbstverständlich.

Nightspider
2025-03-13, 18:39:47
Wo gibts 50% mehr vom 9950x3d zum 7950x3d?

Escape from Tarkov profitiert extrem von Zen5:

https://youtu.be/nDXE05RnepI?t=453

Ist aber auch das einzige mir bekannte Spiel was teilweise 50% bei den 0.1% lows zeigt.

Matrix316
2025-03-13, 18:47:45
9xCpggJXQ2Q

Radeonfreak
2025-03-13, 19:32:23
Escape from Tarkov profitiert extrem von Zen5:

https://youtu.be/nDXE05RnepI?t=453

Ist aber auch das einzige mir bekannte Spiel was teilweise 50% bei den 0.1% lows zeigt.

Das spricht entweder für eine Bananensoftware oder der Tester hat was versaut. 50% gibt die Hardware nicht her.

Nightspider
2025-03-13, 19:50:55
Tja woran es liegt kann ich auch nicht sagen.
Vielleicht hat Zen5 ein Bottleneck bei dem Spiel gelöst.
Aber es gibt keine andere CPU die an diese Leistung herankommt.

Extreme Ausreißer gab es aber schon immer mal hin und wieder.

Der Tester hat ziemlich viel Ahnung und den ganzen Raum voller Hardware.
Da auch andere Tarkov Spieler begeistert sind von Zen5 X3D scheint es am Spiel zu liegen.

Armaq
2025-03-13, 19:55:35
Escape from Tarkov profitiert extrem von Zen5:

https://youtu.be/nDXE05RnepI?t=453

Ist aber auch das einzige mir bekannte Spiel was teilweise 50% bei den 0.1% lows zeigt.
Ja, Ausnahmen gibt es.

Bei der PCGH ist Baldur's Gate auch krass bei min fps und liegt bei 36% bzw. FS24 mit 80% bei min fps. Das ist schon ein krasses Ergebnis und wer FS spielt muss sich die CPU quasi kaufen, denn unter 30 zu 50 ist einfach geil.

Hier finde ich bspw. Igors Herangehensweise sehr gut, auch wenn es weniger spektakuläre Balken gibt. Bei Igor sind aber bspw. die Frametimes extrem ähnlich bei 7950 zu 9950 in fast allem Spielen, was ich auch irgendwie komisch finde und vermute dass das CCD Scheduling manchmal nicht klappt (was ja auch unisono berichtet wird). Deshalb ist der 9800x3D bei der Frametime Konsistenz auch am besten. Damit bleibt also der 9800x3D die Option, außer ich hab ein paar ganz spezifische Lieblinge wie FS24 - das ist ja auch ne komplette Community.

Ich kümmere mich da übrigens weniger drum und schaue nicht nach ob jetzt der richtige CCD an ist. Leistung ist genug da.

Edit: Bei Igor kommt der 9950x3D auch in der Gesamtbetrachtung Effizienz besser weg als bei anderen und wahrscheinlich hat er auch recht damit. Mist, jetzt find ich den 9950x3D besser :D

Badesalz
2025-03-13, 20:08:43
Wer wirklich absolut kompromisslos das Maximale rauskratzen will, Ah komm...

Escape from Tarkov profitiert extrem von Zen5:
Total War sieht auch aus als wenn der Rest der PArkourteilnehmer von 2010 wäre.

Auch Intel hat aber seine paar Cherrys :usweet:

Badesalz
2025-03-14, 07:36:51
Die minFPS in Starfield zwischen dem 7800X3D und 9800X3D, hat das schon jemand zu erklären versucht? :freak: Das ist doch noch irgendsoein Microcode-Fail oder?
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/65699-16-superschnelle-kerne-der-amd-ryzen-9-9950x3d-im-test.html?start=8

Wobei das nicht das ist was z.B. CB in 1% gemessen hat. Schon hölle manchmal wer was wie misst. Zu schnallen wer jetzt nah an der Realität misst ist garnicht so einfach herauszufinden. Daher sag ich ja immer:
Lasst sie messen, aber ein gutes Forum mit ehrlichen Leuten ist immernoch die endgültig bessere Benchwiese.

Badesalz
2025-03-14, 11:04:49
9800X3D auf RAM-Steroiden :usweet:

https://www.hardwareluxx.de/community/threads/ddr5-6000cl26-2x32gb-der-neue-g-skill-ultra-low-latency-im-test.1364864/

Armaq
2025-03-14, 11:32:50
Die minFPS in Starfield zwischen dem 7800X3D und 9800X3D, hat das schon jemand zu erklären versucht? :freak: Das ist doch noch irgendsoein Microcode-Fail oder?
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/65699-16-superschnelle-kerne-der-amd-ryzen-9-9950x3d-im-test.html?start=8

Wobei das nicht das ist was z.B. CB in 1% gemessen hat. Schon hölle manchmal wer was wie misst. Zu schnallen wer jetzt nah an der Realität misst ist garnicht so einfach herauszufinden. Daher sag ich ja immer:
Lasst sie messen, aber ein gutes Forum mit ehrlichen Leuten ist immernoch die endgültig bessere Benchwiese.

Das Problem ist imho das sie keine Zeit haben Ausreißer zu untersuchen. Es gibt eigentlich jedes Mal Einzelergebnisse die fragwürdig sind.

MiamiNice
2025-03-14, 13:25:14
9800X3D auf RAM-Steroiden :usweet:

https://www.hardwareluxx.de/community/threads/ddr5-6000cl26-2x32gb-der-neue-g-skill-ultra-low-latency-im-test.1364864/

Danke für den Link Bademeister, ist geordert ;)

PHuV
2025-03-14, 13:44:11
Was mich wundert, daß der 9900X3D in den Spielen trotz vermeidlich höherem Takt dem 9800X3D unterliegt:
https://www.kitguru.net/components/cpu/leo-waldock/amd-ryzen-9-9900x3d-review/3/

MiamiNice
2025-03-14, 14:19:29
Dat Ding hat 2 CCDs. Das ist quasi der CPU, den man auf kein Fall kaufen mag weil nur 6 Kerne pro CCD. Entweder den ganz dicken 3D mit 8 Cores pro CCD und zum zoggen den non 3d CCD ausschalten oder 98003D. 99003D ist für Leute ohne Plan, bzw. non Gamer.

Lawmachine79
2025-03-14, 14:33:22
Dat Ding hat 2 CCDs. Das ist quasi der CPU, den man auf kein Fall kaufen mag weil nur 6 Kerne pro CCD. Entweder den ganz dicken 3D mit 8 Cores pro CCD und zum zoggen den non 3d CCD ausschalten oder 98003D. 99003D ist für Leute ohne Plan, bzw. non Gamer.
Für Leute, die nur bis Kartoffel zählen können und nicht bis 8.

00-Schneider
2025-03-14, 15:46:01
Der 9900X3D ist eine komplett sinnlose CPU aus Gamingsicht.

ChaosTM
2025-03-14, 16:23:39
Jo, der 9900X3D ist völlig sinnfrei für Gamer. Da hast dann einen 9600X3D

Ich hatte gehofft, dass der neue Flugsimulator einen Nutzen aus mehr "echten" Kernen (9950X3D) ziehen könnte, tut er aber nicht.
Vielleicht in 2 Jahren - der 7800X3D bleibt.

MiamiNice
2025-03-14, 17:46:26
Da müsste imo zuerst ein 3d auf den 2. ccd, damit das auch geil wird.

Badesalz
2025-03-14, 17:53:39
Danke für den Link Bademeister, ist geordert ;)Keine Ahnung warum du so einen nichtssagenden Nick hast. Zu dir würde eigentlich Eskalator am besten passen :ulol: :wink:

Nightspider
2025-03-14, 20:23:39
Die minFPS in Starfield zwischen dem 7800X3D und 9800X3D, hat das schon jemand zu erklären versucht?

Bei anderen Tests ist der 9800X3D 15% vor dem 7800X3D in den Starfield 0,1% lows.
https://www.pcgameshardware.de/Ryzen-7-9800X3D-CPU-280948/Tests/Review-Benchmark-Preis-Release-kaufen-vs-7800X3D-1458653/2/

Bei CB sind es 11%:
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-7-9800x3d-test.90151/seite-2#abschnitt_starfield

Lag in dem Fall wohl am Test von HwLuxx oder Windows hat im Hintergrund herumgemacht.

rentex
2025-03-15, 14:25:32
Bei anderen Tests ist der 9800X3D 15% vor dem 7800X3D in den Starfield 0,1% lows.
https://www.pcgameshardware.de/Ryzen-7-9800X3D-CPU-280948/Tests/Review-Benchmark-Preis-Release-kaufen-vs-7800X3D-1458653/2/

Bei CB sind es 11%:
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-7-9800x3d-test.90151/seite-2#abschnitt_starfield

Lag in dem Fall wohl am Test von HwLuxx oder Windows hat im Hintergrund herumgemacht.

15% sind kein Grund, das Seitenpanel zu öffnen.
Vom 7800X3D ein komplett sinnbefreites Upgrade, das noch mit nen erhöhten Verbrauch einhergeht.
Wer Anwendungsleistung braucht, hat das Problem schon vorher gelöst.

Nightspider
2025-03-15, 14:42:56
Wenn du meinst! ¯\_(ツ)_/¯

Mein Beitrag war aber auch nur die Antwort darauf, warum beim HardwareLuxx Test der 7800X3D 10% vor dem 9800X3D lag in Starfield bei den 1%lows.

Badesalz
2025-03-15, 22:05:33
15% sind kein Grund, das Seitenpanel zu öffnen.Es ging ja auch explizit um Spiderman. Was soll jetzt das Lispeln? Sonst sind es meist 20%-28%. 1%low wie auch 0,1%low.

Und die sind der King.

Badesalz
2025-03-16, 08:41:33
Und nochmal...
https://www.xda-developers.com/amds-ryzen-9-9950x3d-reportedly-runs-up-to-20-faster-on-windows-10/

SentinelBorg
2025-03-19, 20:45:53
Hab bei mir nun auch alles in meinen guten alten Stahltower gequetscht. 9950X3D, MSI MAG X870E Tomahawk, 64 GB Kingston 6000-CL30 und ein NH-D15 G2.

Funktioniert alles wie erwartet, bis auf das Qualcomm WiFi Modul, für das gibt es keine Win10 Treiber, aber ich hab ja eh Ethernet.
Auch meine gute alte Sound Blaster Zx läuft weiterhin.
Benchmarks ohne große Tunings gegenüber dem 5900X vorher: +70% bei Cyberpunk, Cinebench R23 mit 44k mehr als verdoppelt.

Einzige der System Idle Wert PD war deutlich höher als erwartet. Hab eigentlich da kaum eine Veränderung zum 5900X vorher erwartet, als auch so 120W rum. Stattdessen waren es über 150. Näher hingeschaut und siehe da, die Vcore Werte gehen nicht unter 1V. Wie sich dann heraus stellte, ist bei dem MSI Board standardmäßig die "ich hab ein scheiss PSU (vielleicht von MSI) das niedrige Werte nicht verträgt" Option aktiviert. Abgeschalten und nun geht die Vcore auf 0.6V und Idle liegt wieder bei 120W. ^^

Haufen
2025-03-20, 08:54:16
...
Einzige der System Idle Wert PD war deutlich höher als erwartet. Hab eigentlich da kaum eine Veränderung zum 5900X vorher erwartet, als auch so 120W rum. Stattdessen waren es über 150. Näher hingeschaut und siehe da, die Vcore Werte gehen nicht unter 1V. Wie sich dann heraus stellte, ist bei dem MSI Board standardmäßig die "ich hab ein scheiss PSU (vielleicht von MSI) das niedrige Werte nicht verträgt" Option aktiviert. Abgeschalten und nun geht die Vcore auf 0.6V und Idle liegt wieder bei 120W. ^^Wie lautet die seriöse Bezeichnung dieser Option?

SentinelBorg
2025-03-20, 13:25:43
Wie lautet die seriöse Bezeichnung dieser Option?
"Power Supply Idle Control" mit den Werten "Auto", "Low Current" und "Typical Current" bei mir.

Der 9950X3D zeigt auch schön wieder wie viel der Spitzenleistung mit Ineffizienz erkauft wird.

Handbrake X265 mit AVX512 und PBO Advanced, also Limit was Temp und Volt mäßig geht ergibt knapp 5.1 Ghz All-Core: 235W Package Power dafür

Powerplan mit 99% CPU Freq Cap (was anhand des Baseclocks gerechnet wird) und somit 4225 Mhz All-Core (-17%): 135W dann noch (-43%)

Kann da btw das Tool Powerplanswitcher empfehlen. Damit kann man dann ganz leicht im Tray den Plan mit zwei Klicks switchen: https://apps.microsoft.com/detail/9NBLGGH556L3?hl=en-us&gl=DE&ocid=pdpshare

Badesalz
2025-03-25, 10:53:32
Warum nochmal ist im Verhältnis zu den meisten anderen Sachen (auch nicht Spiele), AMD beim Handbrake dermaßen schlapp gegenüber Intel? Da helfen Teils nichtmal 8 Threads mehr... (egal ob V-Cache oder nicht)

Raff
2025-03-25, 11:49:10
Falls noch jemand einen Cache-Showcase sucht: https://www.pcgameshardware.de/Atomfall-Spiel-74887/Specials/Release-Test-Review-Steam-1468720/

Der venerable 5775C macht mit, wenngleich auf tieferem Niveau. :D

MfG
Raff

HOT
2025-03-25, 11:51:12
Es ist wirklich erstaunlich wie der 7700X in einigen Spielen performt heute.

Badesalz
2025-03-25, 12:05:17
Der venerable 5775C macht mit, wenngleich auf tieferem Niveau. :D:up: Ich hatte mal eine Lenovo XP-Workstaion mit dem Teil. Das war der lebendigste Rechner den ich je gentutz habe :usweet:

PS:
Habt ihr den 285k abgeben müssen (wegen dseiner Seltenheit...), den 265k aber behalten dürfen?

edit:
5775C vs. die 8000er, da hätte es aber eine Offenbarung gegeben, Intel :usweet:

edit 2:
Und wieder einmal. Je mehr "Details", desto dunkler die Szene. Man sieht also mehr Details, in den Bereichen, wo man überhaupt noch welche erkennt, was ~70% der Szene mit niedrigen Details ist.
kombiniere kombiniere

SentinelBorg
2025-03-25, 13:52:57
Warum nochmal ist im Verhältnis zu den meisten anderen Sachen (auch nicht Spiele), AMD beim Handbrake dermaßen schlapp gegenüber Intel? Da helfen Teils nichtmal 8 Threads mehr... (egal ob V-Cache oder nicht)
Inwiefern? Der 9950X3D führt bei alle Handbrake Benchmarks die ich gesehen habe gegenüber Intel. Obwohl die meistens nicht mal AVX512 aktiv haben (braucht bei h265 einen Profil Parameter [bringt so +6%] und bei AV1 ist es erst seit kurzem wieder im Kompilat).

Badesalz
2025-03-25, 18:48:49
Inwiefern? Der 9950X3D führt bei alle Handbrake Benchmarks die ich gesehen habe gegenüber Intel.Ne oder? Du guckst einfach nur stumpf auf den allerobersten Balken?

dildo4u
2025-03-26, 03:54:46
Digital Foundry rüstet um sie sind überzeugt das AMD für ihren Workflow taugt.
Es sei denn du meinst die Media Encoder dort hat Intel vermutlich Vorteile.

NWVnyIS7LMI

https://i.ibb.co/3yZRJVBp/Screenshot-2025-03-26-03-57-16-520-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/Rpwj5tz3)

latiose88
2025-03-26, 07:59:11
Es kommt nicht nur auf den Codec drauf an sondern auch auf die Einstellung. Ich durfte auch wenn ich den 285k nicht besessen hatte es dennoch selbst bei wem testen. Bei 720x576 ist z.b Intel wieder schneller als AMD. Bei 7950x vs 9950x konnte sich der 9950x bei 720x576 nicht vom Vorgänger absetzen. Je niedriger die Einstellung desto schlechter kann sich scheinbar eine breitere CPU absetzen.
Da hilft es nix die Anzahl zu erhöhen. Und so dümpelt mein threadripper 7960x trotz abgeschalteten smt mit 8 kerne bei richtung 100 % und der Rest bei unter 50 %. Ob ich Avx 1 & 2 ein oder aus schalte macht bei der Geschwindigkeit keinen Unterschied. Erst ab höhere Auflösung sehe ich da unterschiede und Vorteile für avx.
Intel ist also nur bei niedrigen Einstellung egal ob h264 oder h265 im Vorteil und ansonsten nicht.

Wenn ich da nun 3 gleichzeitig starte dann wird Intel wieder verlieren. 3 Videos gleichzeitig das packt dann der 285k nicht mehr. Da sind einfach dann zu wenig Kerne. Da wird dann auch der 9950x sich vom Vorgänger absetzen können. Bei 3 Gleichzeitig ist der 5950x bei 100 % last gewesen. gillt bestimmt dann auch für den 9950x mit Sicherheit.
Den 9700x hat wer mit Tricks zu mehr Leistung gebracht. Der holte also mit zielgerichteten festen zuordnen alles aus dem 8 Kerner raus was man kann. Das dieser dann bei 100 % Auslastung war ist klar.
Dank der niedrigen Einstellung klar schön eingeholt aber nen Abstand haben die mehr Kerner dennoch noch. Je breiter also der 8 Kerner wird, erhoffe ich mir massive Steigerung dank Zen 6 oder Zen 7 in Zukunft. Ob das ausreichend sein wird, mal sehen. denke mal dennoch nicht das ein 8 Kerner nen 16 Kerner überholen wird. Es sei denn es kommt ein takt Hammer von 6 GHz und mehr. Aber daran glaube ich selbst nicht dran. Würde nur die Hitze noch weiter in die Höhe treiben,es sei denn sie wären auf höheren takt ausgelegt.
Ab einen gewissen Punkt scheint allerdings Takt auch keine Wunder zu bringen. Meinen threadripper erhöhte ich von 4,8 auf 5 GHz. Leistung stieg nur minimal. Ich schade dachte immer takt sei King. Gillt also nicht überall. Naja Man muss wohl echt in die vollen gehen um die Anwendung mit bloßen takt zu erschlagen. Bis 5,3 GHz könnte ich noch gehen. Aber das wird eben auch nicht helfen. Der 285k ist somit zwar in Reichweite aber ganz Einholen kann ich diesen leider dann immer noch nicht.

SentinelBorg
2025-03-26, 11:21:40
Logisch, die Parallelisierung ist bei den Codecs limitiert und hängt stark an der Auflösung. Bei 1080p z.B. verwendet AV1-SVT nicht mehr als 16 Threads. X265 ist da besser, aber das kann je nach dem auch etwas Qualität kosten. Großteil des SIMD ist auch heute noch SSE2, AVX bringt nur da und dort was, AVX512 erst ab Zen 5 ein wenig.

latiose88
2025-03-26, 11:40:11
jap aber auch beim takt. Während beim ryzen 9 5950x allcore takt mehr brachte, sieht es beim 24 Kern threadripper schlechter aus, takt 200 mhz erhöht aber die Steigerung gering. Beim 8 Kerner bringt es wiederum sehr viel. Hier spielt also neben der auslastung auch der allcore takt eine Rolle, kann man so sagen. Ich sehe dann in Zukunft wie es mit den weniger cores so weiter gehen wird.

gedi
2025-03-26, 22:12:20
Der 9950x ohne 3d ist eine echt geniale CPU. Mit aktiviertem MPT und angepasster Curve braucht er nicht mehr als ein 5950x mit ähnlichem Setting. Der Vorteil: Das Ding ist ebend mal bis zu 50% schneller.

r3ptil3
2025-03-30, 17:42:49
Ich werde demnächst einen 9800X3D in einem ITX Case mit einem AXP90-47 betreiben.

Habe daher mal mit 65W Limit getestet. Im Gaming merkt man sowieso gar keinen Unterschied (4k), ausser dass die Temps unter 50° bleiben und in CPU-Z siehts wie folgt aus:
Single Thread: 805
Multi Thread: 8213

In AIDA64 "Stress FPU" ging der 9800X3D mit einem Arctic Liquid III 360 gleich mal auf ca. 82-84°, mit 65W Limit (sprich ca. 88W CPU Package):
https://i.ibb.co/TxP6xC0F/image.png
Man beachte die Umdrehungen der CPU-Lüfter.

Wird man also vermutlich mit dem kleinsten Luftkühler kühlen können.

Haufen
2025-03-31, 09:10:06
Sind Mainboards der früheren Generation (Ryzen 7000) mittlerweile weitgehend Ryzen 9000-tauglich ohne 'blind' neue BIOSe installieren zu müssen?

Lehdro
2025-03-31, 13:06:46
Sind Mainboards der früheren Generation (Ryzen 7000) mittlerweile weitgehend Ryzen 9000-tauglich ohne 'blind' neue BIOSe installieren zu müssen?
Wenn du die "frisch" kaufst, haben die meist schon ein UEFI drauf, was diese CPUs nativ unterstützt. Kann dir aber niemand außer der Händler garantieren.

MiamiNice
2025-03-31, 15:50:48
Habe daher mal mit 65W Limit getestet. Im Gaming merkt man sowieso gar keinen Unterschied (4k)

Woher kommen immer diese Aussagen? Wenn ich meinen 9800x3D auf 65 Watt kastriere, merke ich das direkt und in 4k. Sogar sehr deutlich.

Der_Korken
2025-03-31, 15:58:42
Ich werde demnächst einen 9800X3D in einem ITX Case mit einem AXP90-47 betreiben.

Habe daher mal mit 65W Limit getestet. Im Gaming merkt man sowieso gar keinen Unterschied (4k), ausser dass die Temps unter 50° bleiben und in CPU-Z siehts wie folgt aus:

Also von 88W auf 65W oder was genau ist anders als vorher? Ich weiß nicht, wieviel der Zen 4/5-IOD und deren IFOP ziehen, aber bei Zen 3 liegen zwischen PPT und CorePower unter Last etwa 30-35W. Wenn das immer noch 30W sind, hast du das Powerbudget der Kerne selbst also von 58W auf 35W gesenkt bzw. die Kerne haben vorher 67% mehr verbraucht. Das muss man bei Low-Power-Configs mit Ryzens immer beachten und dann sind die 30°C weniger im Hotspot durchaus plausibel.

Lehdro
2025-03-31, 16:38:57
Woher kommen immer diese Aussagen? Wenn ich meinen 9800x3D auf 65 Watt kastriere, merke ich das direkt und in 4k. Sogar sehr deutlich.
Du hast aber sicher die FMAX von +200 aktiv?

Ich denke mit aggressivem UV und ohne extra Takt, bekommt man da noch gut Leistung mit 65W Limit. Am besten noch async fahren, damit man beim IOD ordentlich Saft spart. So ein DDR5 8000 + IF 2000 Setting kriegt man mit sehr wenig SoC Voltage hin, so im Bereich um 1,0 V. Jedes Watt beim IOD gespart kommt direkt der CPU zugute!

Maximal sehe ich mal knapp ~110W in Spielen als Peak mit meinem OC/UV Setting aber typisch liegen eher so 65-85W an. Gesamtverbrauch, also PPT. Beim Shadercompilen oder Ladevorgängen wirst du aber gnadenlos ins Powerlimit rennen, das wird dann bitter. Da sehe ich bei mir durchaus mal >140W, da komme ich dann aber eh in thermische Limits mit meiner Lukü.

MiamiNice
2025-03-31, 16:47:26
Klar, bekommt man noch gute Leistung aus 65 Watt. Mich stört halt immer die Aussage, das dass keine Leistung kostet. Für die Games die an der GPU hängen stimmt das sicherlich. Aber wenn wir von anderen Spielen sprechen, z.b. WoW, EFT, Anno und derartige Konsorten, merkt man das schon intensiv. Die AMD CPUs sind extrem sparsam, aber nicht so sparsam das man von 120 Watt auf 65 Watt nichts merkt :biggrin:

x-force
2025-03-31, 20:30:33
ich würde sowas immer über ein fps limit regeln, da ich sonst angst hätte, dass irgendwo die frametimes leiden.

Lehdro
2025-04-02, 16:24:50
ich würde sowas immer über ein fps limit regeln, da ich sonst angst hätte, dass irgendwo die frametimes leiden.
Ein FPS Limit hilft dir aber nur bei der Verbrauchsreduktion, wenn du eh genug FPS hast. Beim Laden, Shader-Compile oder gar anspruchsvollen Spielen rennst du dann trotzdem gnadenlos in ein thermisches oder bestenfalls Lärmproblem.

Ich würde einfach UV + hartes Limit + FPS Limit kombinieren. Wie gesagt: Mit 65W kriegst du schon ordentlich Power, wenn du es richtig konfigurierst.

TheCounter
2025-04-02, 18:32:24
Hat von euch eigentlich auch jemand USB Probleme mit nem X870 Board? Hatte schon massive Probleme bei meinem vorherigen B550.

Und auch mit dem neuen Board hab ich zum Beispiel bei USB-Sticks das Problem, dass diese ständig die Verbindung verlieren. Also mal schnell was auf nen USB-Stick ziehen ist da nicht, da muss ich den Laptop dafür nutzen. Teilweise verlieren auch Joysticks immer wieder die Verbindung. Trotz neuestem Bios + Chipset Driver.

Slipknot79
2025-04-03, 02:24:09
Hat von euch eigentlich auch jemand USB Probleme mit nem X870 Board? Hatte schon massive Probleme bei meinem vorherigen B550.

Und auch mit dem neuen Board hab ich zum Beispiel bei USB-Sticks das Problem, dass diese ständig die Verbindung verlieren. Also mal schnell was auf nen USB-Stick ziehen ist da nicht, da muss ich den Laptop dafür nutzen. Teilweise verlieren auch Joysticks immer wieder die Verbindung. Trotz neuestem Bios + Chipset Driver.


Dunno woran das liegt. Hatte ich mit dem Anus ROG Strix B650E E-Gaming WIFI (AM5) auch. Habe ich wieder zurückgeschickt innerhalb 30d Rückgaberecht, kein Bock auf RMA hin und her.
Es fiel immer wieder nen aquacomputer-Gerät, was am internen USB2 hing, aus. Manchmal fiel dann auch die Mouse aus und auch mal der USB Stick.
Mit dem Tomacock X670E gibts nun keine Probleme.

Es gibt immer wieder Berichte über USB-Ausfälle in Zusammenhang mit den aktuellen AM5 Mobos.

Das einzige was hilft ist shinebar nen Mobo-Wechsel, anderer Hersteller jedenfalls.

Das Arschrock X870 Riptide WIFI hatte ich hier auch im Test, hatte damit aber keine USB-Probleme.

SentinelBorg
2025-04-03, 10:30:57
Also bei mir läuft USB mässig alles 1a auf dem MSI X870E. Und ich hab verdammt viele Geräte anhängen inkl. Klassiker wie einer G13.

TheCounter
2025-04-03, 17:28:12
Das Arschrock X870 Riptide WIFI hatte ich hier auch im Test, hatte damit aber keine USB-Probleme.

Das ist schon echt komisch. Jetzt aber so oft das Board wechseln, bis das Problem nicht mehr auftaucht, ist auch nicht wirklich ne Option. Es muss ja einen Grund geben, wieso es gerade bei den AMD Chipsätzen so krasse USB Probleme gibt. Das B550 war von MSI, mit den gleichen Problemen.

Cubitus
2025-04-05, 00:43:40
Auch das gleiche Board wie Sliptknot, gar keine Probleme bisher.

Colin MacLaren
2025-04-05, 17:41:30
Hat von euch eigentlich auch jemand USB Probleme mit nem X870 Board? Hatte schon massive Probleme bei meinem vorherigen B550.

Und auch mit dem neuen Board hab ich zum Beispiel bei USB-Sticks das Problem, dass diese ständig die Verbindung verlieren. Also mal schnell was auf nen USB-Stick ziehen ist da nicht, da muss ich den Laptop dafür nutzen. Teilweise verlieren auch Joysticks immer wieder die Verbindung. Trotz neuestem Bios + Chipset Driver.

Kaskadierende USB Hubs mit ümzig Geräten, keine Probleme, solange ich den KVM Switch mit den drei USB Hubs dahinter an den rot markierten Port anschließe. Im Gegenteil, am Intel Laptop habe ich auf das Problem, dass der USB zu nvme Adapter nicht mit voller Geschwindigkeit läuft.

Nightspider
2025-04-06, 19:04:03
Eben mal spaßeshalber Battlefield 4 getestest und 400-600fps mit dem 9800X3D gehabt.

Da haben dann aber weder die GPU noch die CPU irgendwo limitiert laut Anzeigen.

Bei einem 172fps cap für meinen 175Hz Monitor waren die CPU Kerne dann nur zu 15 bis rund 25% ausgelastet. :D

Lawmachine79
2025-04-07, 00:39:05
Eben mal spaßeshalber Battlefield 4 getestest und 400-600fps mit dem 9800X3D gehabt.

Da haben dann aber weder die GPU noch die CPU irgendwo limitiert laut Anzeigen.

Bei einem 172fps cap für meinen 175Hz Monitor waren die CPU Kerne dann nur zu 15 bis rund 25% ausgelastet. :D
Krass. Bei BF4 limitieren bald nicht mehr GPU oder CPU, sondern der Taktgeber.

aufkrawall
2025-04-07, 00:58:29
Alles, was kein GPU-Limit ist, ist prinzipiell eine Form von CPU-Limit.
Da werden sicherlich einzelne Threads limitiert haben, das muss mit dem OS-Scheduling nur nicht unbedingt eindeutig anhand der Auslastungsanzeige einzelner Kerne ersichtlich sein.

dildo4u
2025-04-07, 08:37:52
9600X3D simuliert.

https://www.computerbase.de/artikel/prozessoren/amd-ryzen-9-9900x3d-test.91949/seite-2

Nightspider
2025-04-08, 12:43:01
Dadurch das der simulierte 9600X3D knapp 3% höher taktet als der 9800X3D liegt der 6 Kerner halt in den Games vorne, die nur 6 Kerne sinnvoll nutzen.

aufkrawall
2025-04-08, 15:57:05
Tja, leider greifen Entwickler auf so unsinnige Dinge wie das Kompilieren von Shadern im Hintergrund zurück (anstatt zu 100% komplett vor und auf dem Ladeschirm), ob jetzt in Fortnite oder TLOU2. Da erhöht sich mit 6C die Chance, dass es irgendwann beim Traversal mal ärger hakt als mit mehr Kernen. So etwas bilden die typischen Benchmarks meist nicht gut ab. Versteh den Geiz nicht.

SentinelBorg
2025-04-22, 10:42:03
Was mir btw beim Thema USB noch aufgefallen ist bei meinem Board (MSI Mag X870E), dass von den drei USB Controllern in der CPU nur einer überhaupt physisch angebunden ist. Der ganze Rest hängt an den zwei Chipsätzen. Hab darum die anderen zwei jetzt auch deaktiviert im Gerätemanager.

Raff
2025-04-22, 13:00:56
AMD Ryzen 9 9900X3D mit 9600X3D-Simulation im Test: AMD hat noch Arbeit vor sich (https://www.pcgameshardware.de/Ryzen-9-9900X3D-CPU-281027/Tests/Preis-Brenchmark-Release-Review-1470961/)

Hardware-Scheduler needed.

MfG
Raff

Exxtreme
2025-04-22, 13:42:20
Hardware-Scheduler werden wohl niemals kommen. Ach ja, das Problem mit der falschen CCD-Zuweisung lässt sich immer beheben: während das Spiel läuft, Win+G drücken -> Einstellungen und dann das Häckchen setzen.

Damit ist der "AMD, mach endlich deine Hausaufgaben"-Kommentar überflüssig. :freak:

Complicated
2025-04-22, 13:54:13
Immer wieder wird der falsche Mond angeheult. Das ist ein Windows Problem, welches unter Linux nicht existiert. HARDWARE-Tester wissen das. Spiele-Tester nicht.

Raff
2025-04-22, 14:24:59
Am besten wissen es immer die, die sich nicht mit Beta-Hard- und Software herumschlagen müssen. ;)

"Für den Test des Ryzen 9 9900X3D kommt der neueste Chipsatztreiber mit Version 7.02.13.148 zum Einsatz. Des Weiteren ist Windows 11 24H2 mit aktuellen Updates versehen, und die Xbox Game Bar verfügt über das neueste Update. So sind alle Erweiterungen, die für das Core Scheduling von Belang sind, auf dem neuesten Stand."

Da wurde alles gemacht, was man erwarten kann. Ich frickel mir die Welt, wiedewiede-wie sie mir gefällt ist bei einem Hardware-Test mit anschließender Kaufberatung keine Option -> Zum reinen Zocken einfach keine Dual-CCD-CPU der aktuellen Bauart kaufen.

MfG
Raff

Exxtreme
2025-04-22, 14:28:43
Es gibt aktuellere Chipsatz-Treiber, nur halt nicht auf der AMD-Website:
https://pg.asrock.com/mb/AMD/B650E%20PG%20Riptide%20WiFi/index.de.asp#Download

Aber ich glaube nicht, dass diese Problematik dadurch behoben wird. Man muss leider öfter der Xbox Gamebar nachhelfen und ein Spiel auch als eins markieren.

Der_Korken
2025-04-22, 15:06:57
Ich habe schon damals zum 7950X3D-Release gesagt, dass dieses asymmetrische Design langfristig viel Aufwand und Frickelei erfordern wird. Dass man unter Windows einzelne Anwendungen whitelisten muss, damit des Scheduling nicht kaputtgeht, ist imho eine Farce. Und selbst wenn das CCD-Binding funktionieren würde, ist immer noch nicht das Problem gelöst, wie man mit Spielen umgeht, die mehr Kerne auslasten als der Cache-CCD hat. Entweder belastet man Kerne doppelt, obwohl im zweiten CCD welche Däumchen drehen oder man muss sich einzelne Threads aus dem Game-Prozess rauspicken und auslagern, mit dem Risiko von starken Performance-Regressionen, falls der falsche Prozess auf das langsame CCD verschoben wird.

Complicated
2025-04-22, 17:37:29
Am besten wissen es immer die, die sich nicht mit Beta-Hard- und Software herumschlagen müssen. ;)

Falsche Etiketten zu erkennen braucht nicht viel Fachwissen ;)
Auch nicht um zu unterscheiden bei welchem Bäcker die Brötchen besser schmecken. Das selbe gilt schon lange auch für angebliche Hardware Tester, die lediglich testen wie gut ihre Lieblingssoftware mit irgendwelcher Beta-Hardware funktioniert. Sagt halt wenig über die Hardware aus, führt aber oft zu falschen Schlussfolgerungen.

Yuko
2025-04-22, 21:40:37
Aber ich glaube nicht, dass diese Problematik dadurch behoben wird. Man muss leider öfter der Xbox Gamebar nachhelfen und ein Spiel auch als eins markieren.
Und warum glaubst du das die das nicht beachtet hätten? Ich finde die Tests bei PCGH eigentlich immer aufschlussreich.

Exxtreme
2025-04-22, 22:31:10
Und warum glaubst du das die das nicht beachtet hätten? Ich finde die Tests bei PCGH eigentlich immer aufschlussreich.

Es steht nicht im Artikel, dass sie es gemacht haben.

Yuko
2025-04-23, 09:21:24
Es steht nicht im Artikel, dass sie es gemacht haben.
Ja, aber für die blöd hältst du die denn? Meinst du die verarschen sich selbst und beachten das nicht? Wenn es immer auf den falschen Kernen berechnet worden wäre dann würden die Ergebnisse anders aussehen.

Exxtreme
2025-04-23, 09:27:10
Sowas kann man schnell vergessen.

Und angenommen, die haben das gemacht und Windows legt die Threads trotzdem auf das CCD ohne den Zusatzcache. In dem Fall kann AMD nichts machen. Denn Verteilung der Threads ist eine Aufgabe des Betriebssystems. Wenn WinDOS das ignoriert dann hat es Microsoft mal wieder versemmelt. Und dann wäre AMD der falsche Adressat.

latiose88
2025-04-23, 14:04:30
Es gibt aber auch Software die wo es die Entwickler versemmeln. Wenn es unter Windows 10 vollkommen normal und ohne Probleme läuft aber nur unter Windows 11 es allerdings meistens oder ganz zu Problemen kommt, dann ist es klar. Wenn man das reproduzieren kann. Es immer zu jeder Zeit so ist. Windows 11 ist ja nun kein total anderes OS. Wenn es also Probleme gibt ist doch der jeweilige Hersteller dafür verantwortlich oder nicht?

Anderst sähe es aus wenn die jeweilige Software genau wegen des Betriebssystems sich anderst verhalten würde weil beim Hintergrund Prozess sich durch das Betriebssystem anderst verhält oder Walter. Dann wäre in dem Fall microsoft schuld, das stimmt.

In dem von mir der Fall geschildert ist es nicht ganz sicher zu 100 % klar. Das kann man ja auch nicht sein.

two_smoking_barrels
2025-04-23, 17:25:08
Tja, leider greifen Entwickler auf so unsinnige Dinge wie das Kompilieren von Shadern im Hintergrund zurück (anstatt zu 100% komplett vor und auf dem Ladeschirm)

Wenn es Interessiert, hier mal ein Erklärungsversuch: Es hat ein Grund, warum Entwickler Shader "unsinnig" im Hintergrund kompilieren (JIT Shader Compiling) und es ist nicht mangelndes Talent.

Meines Verständnis nach liegt das an DX12 und Vulkan, welche komplett gescheitert sind, die graphic pipeline states gut zu handhaben. Graphic pipeline states konfigurieren die fix function-Hardware der GPUs, wie "rasterization settings", "primitive topology types", Formate der Buffer, etc. In Vulkan und DX12 gibt es das PSO (pipeline stages object), welches die meisten graphic pipeline states als auch die dazugehörigen Shader enthält. Das PSO wird als im Vorraus bekannt angenommen und erzählt dann der Hardware im Vorraus wie sie konfiguriert werden muss und dem Treiber wie die Shader zu kompilieren sind. Ändert sich eines dieser graphic pipeline states muss das PSO samt Shader neu kompiliert werden.

Hier (https://gamedev.stackexchange.com/questions/201859/handling-pipeline-objects-in-both-dx12-and-vulkan-like-graphics-apis) mal ein Beispiel aus einer Entwickler Diskussion: Hat man 5 verschiedene Mesh-Layouts, 300 verschiedene Materialen und 5 FrameBuffer mit jeweils verschiedene Formaten, gibt es den selben Shader in 5*300*5=7500 kombinationen. Hierdurch wird das Shader-Compiling zu einem Problem.

Natürlich gibt es Workarounds, wie beispielsweise im obigen Beispiel den Shader in Meshshader, Materialshader und "Buffer-Write"-Shader zu zerhacken. Das reduziert die Kombinationen von 7500 auf maximal 5+300+5=310. Aber das Wechseln der Shader und damit der graphic pipelines states zur Laufzeit auf der Grafikkarte bringt seine eigenen Probleme mit, vorallem signifikantes Overhead.

DX12 und Vulkan bieten den PSO-Cache an. Man sollen diesen "Vor Erhitzen" (Pre-Warming), also durch Shaderkompilierung im Vorraus (Main-Menü, Ladenbildschirm) füllen. Obwohl Shader relativ schnell kompiliert werden (bspw. von 50 bis 100ms), dauert es aufgrund der eskalierenden Anzahl an Permutationen in Horizon Zero Dawn 10-15min (https://forum.beyond3d.com/threads/shader-compilation-on-pc-about-to-become-a-bigger-bottleneck.61929/)* (und nach jedem Treiberupdate wird der PSO-Cache gelöscht). Jemand anderes beschreibt, das Detroit become human ein PSO-Cache von 1,26 GB (https://forum.beyond3d.com/threads/shader-compilation-on-pc-about-to-become-a-bigger-bottleneck.61929/page-2#post-2145030)* hat. Lächerlich riesige Shader-Caches und langes pre-warming Garantieren keine fast 100% Hitrate und damit ruckelfreies Spielen. Dies ist einfach nur Symptombekämpfung. Wenn man keine Workarounds implementieren kann und der PSO-Cache nicht ausreichend gut funktioniert, dann merkt man das JIT Shader Compiling und die Entwickler können nichts dagegen tun. Ich würde daher das kompilieren im Hintergrund daher nicht als unsinnig bezeichnen

*habe keine Ahnung, ob beide Beispiele noch aktuell sind oder diese Spiele bereits Workarounds erhalten haben

Da erhöht sich mit 6C die Chance, dass es irgendwann beim Traversal mal ärger [Anm.: länger] hakt als mit mehr Kernen. So etwas bilden die typischen Benchmarks meist nicht gut ab. Versteh den Geiz nicht.
Jup, leider ist die effizienteste Lösung als User, Softwareprobleme mit stärkerer Hardware zu mindern

Marscel
2025-04-23, 19:19:33
Meines Verständnis nach liegt das an DX12 und Vulkan, welche komplett gescheitert sind, die graphic pipeline states gut zu handhaben.

Mittlerweile glaube ich, dass das nur ein Symptom einer naiven Annahme seitens der Kommitees dahinter ist: Der Entwickler weiß am besten, was er will, und kriegt entsprechend die Werkzeuge an die Hand, das zielführend zu lösen. Klingt toll, hat aber ein massives Problem (ich spreche aus erster Hand bei Vulkan): Man hat doch am Anfang nicht die geringste Ahnung, was die drunterliegenden Treiber/HW iA toll finden, und wir stehen vor einer Monstrosität an Lösungsraum.

Zuallererst bei Dingen, die sich damit, d. h. explizite Willensbekundingen, überhaupt nicht gelöst haben, wie sonderbare Abweichungen in der Performance zw. Linux und Windows auf derselben AMD-Karte, oder auf einem Raspberry Pi, oder Intel HD-Chip. Dann recherchiert man und kriegt Aussagen, dass auf irgendeinem Open Source Treiber man sieht, dass etwas so implementiert wird, aber das gilt nicht für ... muss man halt ausprobieren, messen.

Oder: Wie blankt ein RPi seinen Screen (shared memory), wenn man ihn in einer der GLs dazu auffordert? Nein, er schreibt nicht irgendwo Nullen hin. Er rendert zwei große, schwarze Dreiecke. Alles so tückische Annahmen und Erleuchtungen.

Oder die genannte Spezialexperten-Konstruktion von Pipeline-Object, das massive Kopfschmerzen verursacht: Wie viele kann/soll/darf man (höchstens) allgemein anlegen? Soll man stattdessen lieber fette Shader und Shader-Pipelines und Konstruktionen bauen, um weniger von den Pipelines vorhalten zu müssen? Wie teuer sind die Switches? Und warum bitched dieser eine NV-Chip hier so herum? Und kann ich annehmen, dass diese VK_EXT wirklich verfügbar ist, wenn das irgendwo auf Android laufen soll, und brauche ich sonstl einen Fallback?

Ist echt ein Pain. :usad:

SentinelBorg
2025-04-23, 21:22:06
Hardware-Scheduler werden wohl niemals kommen. Ach ja, das Problem mit der falschen CCD-Zuweisung lässt sich immer beheben: während das Spiel läuft, Win+G drücken -> Einstellungen und dann das Häckchen setzen.

Damit ist der "AMD, mach endlich deine Hausaufgaben"-Kommentar überflüssig. :freak:
Im Notfall Process Lasso. Denn es gibt Spiele die mit dem Core Parking von AMD immer noch suboptimal laufen. Ein Beispiel das mir aufgefallen ist, ist Cyberpunk 2077. Das erzeugt teilweise so hohe Multicore Last, dass der AMD Treiber das Parking des CCD 1 wegnimmt. Was an sich gut ist für Dinge wie Shader Compilation oder Loading, wo man ja gerne von allen 16 Kernen profitiert. Aber in Cyberpunk führt es dann bei mir tatsächlich zu rund 10% weniger FPS im regulären Benchmark. Was sich aber fixen lässt mit einer simple CPU Set Zuweisung auf den CCD 0 mittels Process Lasso.

AMD könnte das "fixen" in dem sie den Schwellenwert bei der CPU Last für die Rücknahme des Parkings anpassen, vielleicht nur bei bestimmten Prozess Namen. Aber das wäre dann halt wieder eine Extrawurst im Vergleich zum aktuellen Model wo sie einfach nur darauf schauen ob der aktuelle Vordergrund-Prozess von der Gamebar als Game geflagged wurde.

Dieses Core Parking System ist immer noch etwas wirr und stammt wohl einfach von der Mechanik ab die AMD auch benutzt wenn man den Energiesparmodus verwendet.
Es hat auch den Nachteil, dass so kleinere Hintergrundprozesse wie z.B. MSI Afterburner dann auch mit dem Game auf CCD 0 laufen, weil halt CCD 1 komplett geparkt wurde. Das habe ich jetzt soweit umgangen, in dem ich mit Process Lasso diese Prozesse via Affinity (CPU Sets reichen da nicht) auf den zweiten CCD verbannt habe. Dadurch lässt der AMD Treiber dann wiederum immer einen Kern von CCD 1 aktiv auf dem dann das ganze Hintergrund Zeugs läuft.

ENKORE
2025-04-23, 21:51:52
Von Unreal gibt es auch einen Blog-Post zu dem Thema: https://www.unrealengine.com/en-US/tech-blog/game-engines-and-shader-stuttering-unreal-engines-solution-to-the-problem

Ich bin was DX12/VK angeht völlig unbedarft, aber es klingt halt stark nach Prinzipproblem. PSOs müssten statisch bekannt sein und erzeugt werden (sonst ruckelt es), aber Engines / Spiele generieren die zugrundeliegenden Eigenschaften oft dynamisch. Ergebnis: Irgendwelches Behelfs-Flickwerk ala "wir lassen die Kamera durchs Level fliegen und zeichnen auf, welche PSOs tatsächlich benötigt werden". Das ist ja wie CD-Layoutoptimierung anno 1997. Natürlich funktioniert das nur eher so statistisch im Mittel. Also kann's für pathologische Fälle und den longen Tail gar nicht funktionieren.

Entsprechend ist der korrekte Weg eben die Flexibilität aus den Materialsystem soweit rauszunehmen, dass man eben vorab bestimmen kann, welche PSOs das Ergebnis sind. Ich nehme an, dass das genau das ist was die Studios gemacht haben, bei denen das nicht passiert. Alles andere ist halt keine Engine, die "from first principles" mit DX12/VK klarkommt.


Dieses Core Parking System ist immer noch etwas wirr und stammt wohl einfach von der Mechanik ab die AMD auch benutzt wenn man den Energiesparmodus verwendet.
Es hat auch den Nachteil, dass so kleinere Hintergrundprozesse wie z.B. MSI Afterburner dann auch mit dem Game auf CCD 0 laufen, weil halt CCD 1 komplett geparkt wurde. Das habe ich jetzt soweit umgangen, in dem ich mit Process Lasso diese Prozesse via Affinity (CPU Sets reichen da nicht) auf den zweiten CCD verbannt habe. Dadurch lässt der AMD Treiber dann wiederum immer einen Kern von CCD 1 aktiv auf dem dann das ganze Hintergrund Zeugs läuft.

Das ist ehrlich gesagt ziemlich dämlich. Windows mal wieder "ein gewachsenes System".

SentinelBorg
2025-04-23, 21:54:26
Entsprechend ist der korrekte Weg eben die Flexibilität aus den Materialsystem soweit rauszunehmen, dass man eben vorab bestimmen kann, welche PSOs das Ergebnis sind. Ich nehme an, dass das genau das ist was die Studios gemacht haben, bei denen das nicht passiert. Alles andere ist halt keine Engine, die "from first principles" mit DX12/VK klarkommt.
Korrekt, dass ist dann was z.B. ID Tech, RedEngine oder Decima machen.

SentinelBorg
2025-04-23, 22:03:09
Das ist ehrlich gesagt ziemlich dämlich. Windows mal wieder "ein gewachsenes System".
Naja, mit CPU Sets gibt es seit Windows 8 dafür eigentlich eine bessere Lösung, aber die nutzt AMD nicht. Und ansonsten wurde NT ja auch mal für "symmetrisches Multiprocessing" entwickelt, nicht für so einen asymmetrischen Scheiss wie wir ihn jetzt haben. ^^

two_smoking_barrels
2025-04-28, 16:47:27
Entsprechend ist der korrekte Weg eben die Flexibilität aus den Materialsystem soweit rauszunehmen, dass man eben vorab bestimmen kann, welche PSOs das Ergebnis sind.

ok, danke für die Klarstellung

Von Unreal gibt es auch einen Blog-Post zu dem Thema: https://www.unrealengine.com/en-US/tech-blog/game-engines-and-shader-stuttering-unreal-engines-solution-to-the-problem

[...] Ergebnis: Irgendwelches Behelfs-Flickwerk ala "wir lassen die Kamera durchs Level fliegen und zeichnen auf, welche PSOs tatsächlich benötigt werden"
Ja, die UE trifft es besonders hart. Wenn man lästern wollte, könnte man sagen, Fortnite hat zu viele legacy skins, weshalb die ihr Materialsystem nicht anpassen wollen/können

aufkrawall
2025-04-28, 17:05:25
Ich würde daher das kompilieren im Hintergrund daher nicht als unsinnig bezeichnen

Wenn die Engine weiß, wann die konkreten Binaries vorgehalten werden müssen (durch PSO-Caching durch die QA, oder was auch immer), kann es auch im Hauptmenü vorab kompiliert werden. Schaffen andere Spiele auch, auch mit UE5 (z.B. Aveum). Also unsinnig.

Reduktion der Permutationen ist dann wieder ein anderes Thema und wahrscheinlich ein kontinuierlicher Prozess in der Engine, ähnlich der Verbesserung des MTs. Wird man sehen, ob Substrate da ggf. auf einen Schlag größere Linderung bietet. Soll Fortnite irgendwann bekommen.

ianm
2025-05-03, 15:58:06
Ich glaube mein 9800X3D ist gerade gestorben. Hard Freeze beim Spielen, Versuch eines Neustarts, CPU LED leuchtet rot. BIOS Clear und Update bringen nichts.

Asrock B850 Board + 9800X3D, da findet man leider einiges. Und das auf einen Samstag...

Matrix316
2025-05-04, 16:09:22
Ich glaube mein 9800X3D ist gerade gestorben. Hard Freeze beim Spielen, Versuch eines Neustarts, CPU LED leuchtet rot. BIOS Clear und Update bringen nichts.

Asrock B850 Board + 9800X3D, da findet man leider einiges. Und das auf einen Samstag...

Da denke ich mir: Zum Glück hab ich noch meine alte CPU und Board und so. :ugly: Die wollte ich eigentlich verscherbeln...

Ja das sieht nicht gut aus... ;(

Langlay
2025-05-04, 17:16:44
Ich glaube mein 9800X3D ist gerade gestorben. Hard Freeze beim Spielen, Versuch eines Neustarts, CPU LED leuchtet rot. BIOS Clear und Update bringen nichts.

Asrock B850 Board + 9800X3D, da findet man leider einiges. Und das auf einen Samstag...

So ähnlich war es bei mir vor 2-3 Monaten auch, allerdings war es bei mir nicht die CPU die abgeraucht ist sondern das Board.

Meine CPU lief auf einem anderen Board, eine andere CPU lief nicht auf meinem Board. Mit neuem Board dann wieder alles schick.

Ex3cut3r
2025-05-04, 19:05:55
Joa.

Wenn man Asrock B850 Board + 9800X3D googelt findet man Einträge z.B. auf Reddit, die genau das gleiche wir ihr zwei beschreiben.

Was ist da los? Warum passiert das? Wird da wieder die SOC Spannung ins Unendliche vom MB eingestellt?

Langlay
2025-05-04, 19:26:13
Joa.

Wenn man Asrock B850 Board + 9800X3D googelt findet man Einträge z.B. auf Reddit, die genau das gleiche wir ihr zwei beschreiben.

Was ist da los? Warum passiert das? Wird da wieder die SOC Spannung ins Unendliche vom MB eingestellt?


Bei mir wars 7950X3D und ein ASUS B650E-I. An zu hohen Spannungen kanns eigentlich bei mir nicht liegen. Vsoc war bei mir <1,15V und auch die anderen Spannungen waren eher am unteren Ende des Spektrums.

Allerdings bin ich ganz gut davon gekommen, Amazon hat mir das Geld für das B650E-I zurückersattet und ich hab für 20€ Aufpreis ein ASUS B850-I bekommen, das dann sogar 1-2 Features mehr (z.b. Clear Cmos auf der I/O-Blende) hat die ganz nützlich für mich sind.

ianm
2025-05-04, 20:47:34
Joa.

Wenn man Asrock B850 Board + 9800X3D googelt findet man Einträge z.B. auf Reddit, die genau das gleiche wir ihr zwei beschreiben.

Was ist da los? Warum passiert das? Wird da wieder die SOC Spannung ins Unendliche vom MB eingestellt?

Kannte das Problem schon Anfang Januar, weil MF ewig brauchte zu liefern und ich neugierig war auf die neue Handware. Aber ja, das scheint auf jeden Fall ein Problem zu sein.

Ich kann meine CPU morgen zum Glück in einem anderen System testen. Mal schauen, ob sie doch noch zuckt. Auch hier nochmal der Link zum Reddit Thread.

https://www.reddit.com/r/ASRock/comments/1iui7lx/9800x3d_failuresdeaths_megathread/

Und es sind nicht nur B850 Boards. SOC war bei mir fix auf 1.2V bei 2*32GB RAM. Lief prolemlos und stabil, bis gestern.

Lehdro
2025-05-05, 16:44:38
Welche UEFI Version hattest du drauf? Alte oder eine Neue, die genau das Problem beheben sollte?

Ansonsten mal bei GamersNexus nach dem entsprechenden Video suchen. Meist sind die CPUs heile, nur das Mainboard hat sich "verschluckt".

ianm
2025-05-05, 19:47:05
Welche UEFI Version hattest du drauf? Alte oder eine Neue, die genau das Problem beheben sollte?

Ansonsten mal bei GamersNexus nach dem entsprechenden Video suchen. Meist sind die CPUs heile, nur das Mainboard hat sich "verschluckt".

Version 3.16 war bisher drauf, Asrock sagte auch wenn man keine Probleme beim Booten hat, muss oder sollte man nicht updaten. Lief ja auch vier Monate alles top, war wirklich zufrieden. Und plötzlich ist die CPU platt. Habe dann trotzdem ein Flashback auf 3.20 gemacht, hat aber nicht geholfen.

Die CPU scheint aber wirklich hinüber zu sein. Hatte sie heute in einem anderen Board und wieder kein Boot. MF hat schon reagiert und ich kann die Hardware in die RMA geben.

Matrix316
2025-05-08, 13:19:08
Hmmm

YFYPnT_AQLk

ianm
2025-05-08, 13:51:25
Ich habe jetzt ein MSI MAG B850 Tomahawk Max WIFI bestellt, Hardware ist bei MF, mal schauen was die machen. Der 9800X3D ist bei MF gar nicht mehr lieferbar, zumindest als Retail Variante.

Geil ist das ganze auf jeden Fall nicht.

Ex3cut3r
2025-05-08, 14:26:33
Ne, das glaube ich dir natürlich.

Mich wurde mal die technische Seite interessieren, was läuft da schief?

dildo4u
2025-05-08, 15:06:34
Ist doch immer das selbe sie wollen mit dem hösten RAM Takt werben was mit einer unsicheren SOC Spannung erzielt wird.

Daredevil
2025-05-08, 16:22:01
Gibt es wenn wirklich ein flächendeckendes Problem, oder ist dieses Problem schlicht nur so prominent, weil gerade exakt genau der Prozessor so gut verkauft wird und eben auch heftig beliebt ist? Korrelation und Kausalität und so.

Wenn ein Xiaomi Smartphone überhitzt bei Nutzung interessiert es kein Schwein, wenn ein iPhone 15Pro Hotspots hat, findet man 2 Tage nach release hunderte Videos auf YouTube mit Wärmebildkamera. Bis dahin würde mich mir wenig Gedanken machen, aber natürlich die Ohren offen halten

Matrix316
2025-05-08, 18:17:24
Gibt es wenn wirklich ein flächendeckendes Problem, oder ist dieses Problem schlicht nur so prominent, weil gerade exakt genau der Prozessor so gut verkauft wird und eben auch heftig beliebt ist? Korrelation und Kausalität und so.

Wenn ein Xiaomi Smartphone überhitzt bei Nutzung interessiert es kein Schwein, wenn ein iPhone 15Pro Hotspots hat, findet man 2 Tage nach release hunderte Videos auf YouTube mit Wärmebildkamera. Bis dahin würde mich mir wenig Gedanken machen, aber natürlich die Ohren offen halten
Das Interessante ist ja, dass das hauptsächlich mit Asrock X870 Boards passieren soll und die CPU eigentlich egal, so lange es eine 9000er CPU ist.

Oder gab es die gleichen Fälle mit anderen Mainboardherstellern? Und 7000er Chips scheinen ja auch nicht betroffen zu sein.

joe kongo
2025-05-08, 21:43:11
Von ASRock gibts seit einer Woche (Geizhals Listung) ein B850M-X R2.0 mit und ohne Wifi, Unterschied zu den non-R2.0 finde ich auf deren Homepage im Produktvergleich keinen.
Ein Schelm...

Cubitus
2025-05-09, 09:18:18
Neulich hatte ich plötzlich Temperaturen von 95 °C mit dem 9800X3D beim Shaderwarmup und das mit meiner Arctic Freezer III. :freak:
Die AIO hat zwar grundsätzlich funktioniert, aber ich vermutete, dass die Wärmeleitpaste sich verflüssigt hat.

Hab jetzt anhand des kurzweiligen Videos mit Steve bei Roman ein Kontakt -Frame und die Duronaut WLP bestellt.

https://www.thermal-grizzly.com/contact-sealing-frame/s-tg-csf

https://www.thermal-grizzly.com/duronaut/s-tg-d

Als ich den Kühler abgenommen habe, hat sich meine Vermutung bestätigt:
Die Arctic MX-4 war nach nur wenigen Monaten hinüber, komplett verflüssigt. Zudem sah man am Abdruck auf dem Kühler, dass der Kontakt zur CPU wohl nie ganz sauber war.

Jetzt habe ich den Frame verbaut, sehr hochwertig verarbeitet,
passt perfekt und die neue WLP aufgetragen. Tipp: Die Duronaut lässt sich richtig gut auftragen, wenn man die Paste samt CPU kurz mit einem Haarföhn (1–2 Minuten) erwärmt.

Ergebnis: Unter Volllast bei 140 Watt komme ich nun auf stabile 69 °C – satte 10 Grad weniger als vorher mit frisch aufgetragener MX-4 und dem Standardframe.

Wenn die Duronaut auch langfristig hält, wie versprochen, dann ist das für mal ein echtes gutes Produkt. :)

dildo4u
2025-05-09, 09:24:04
Ich würde gern mal Kyrosheet teste um das zu verhindern aber 20€ ist heftig.

Cubitus
2025-05-09, 09:33:36
Das Kyrosheet ist halt elektrisch leitend daher brauchst du entweder Kapton-Tape als Isolierung oder nutzt den Frame mit optionalem DIE-Schutz, der im Lieferumfang enthalten ist.
Einmal richtig installiert, sollte das Ganze dauerhaft zuverlässig laufen. :)

Alternativ kannst du auch das PTM verwenden, das werde ich am Wochenende auf meiner GPU verbauen:
Es sollte deutlich langlebiger sein als herkömmliche Wärmeleitpaste und gute Ergebnisse liefern.

https://www.thermal-grizzly.com/phasesheet-ptm/s-tg-ps

Hatte mir das auch für die CPU überlegt, aber die CPU könnte ich mal auch schneller wechseln, oder falls die AIO ausfällt :freak: und es ist lang nicht so aufwendig als wie ein GPU-Kühler abzunehmen.

Gibt bei ALI-Express ja die Honeywell Dinger, allerdings sind mittlerweile so viele Fakes unterwegs, das ich lieber direkt bei Roman kaufe und mir dann auch sicher bin ein gutes Produkt zu bekommen.

latiose88
2025-05-09, 09:53:26
Hi an alle würdet ihr das machen wie ich aktuell vor der Entscheidung stehe. Ich habe den threadripper 7960x aber nur 2 funktionsfähige ram und der Rest der steckt in der schwebe also nicht zu bekommen. Nun hat mir der Verkäufer angeboten das System gegen einen ryzen 9 9950x zu tauschen mit 900 € Geld zurück. würdet ihr das denn machen oder ist das ein unfairer Tausch aus euer Sicht also der Aufpreis für einen anderen RAM ist super hoch.

Daredevil
2025-05-09, 09:59:44
Das kommt halt drauf an, wie sehr du MultiThread Leistung benötigst.
Der 9950X ist zwar der technologisch weiterentwickeltere Prozessor, der 7960X bietet aber mehr Leistung, weil er eben mehr Kerne hat. Zudem gibts ja noch mehr potentielle Zugewinne wie RAM Ausbau, Bandbreite und PCIe Lanes. Es kommt drauf an was du benötigst und ob dir dieses "Downgrade" ins Gewicht fällt oder eben nicht. Was machst du denn mit dem Threadripper, bzw. wieso hast du so einen? Ist ja kein Consumer Prozessor mehr.

latiose88
2025-05-09, 10:40:59
@Daredevil
Ich habe ihn gekauft in derHoffnun schneller als ein Ryzen 9 9950x zu sein,was leider nicht der Fall ist.Die Anwendung wo ich verwende,mag zwar ein Mutithreaded Programm sein,es lastet aber nur bis zu einer gewissen ANwzahl an Threads optimal aus,alles drüber bricht leicht die Leistung ein. Dies war halt beim Threadripper 7960x der Fall gewesen.Musste darum SMT abschalten.Die Leistung stieg etwas an.War damit allerdings nicht wirklich schneller gewesen,sondern nur gleichschnell wie der 9950x. Erst als es von 4,8 ghz auf 5 ghz hochgetaketet dank der Turbomodus(also kein richtiges OC),war der dann schneller gewesen.Aber auch nicht sehr viel. Nun ist dieser um rudn 4 % schneller als der 9950x.Den könnte man ja auch Oc (also TUrbo Takt erhöhen),wäre dann gleichstand mal wieder.
Im moment habe ich also 24 Threads aktiv in verwendung ohne SMT. Nur 2 Ramrriegel weil die anderen ich nicht mehr bekomme,weil nie lieferbar.Ich merke nicht das ich im Nachteil bin,also Ram Sache nutze ich kaum aus.Mehr PCI Express anschlüsse auch nicht.Höchstens von das ich mehr USB ANschlüsse also Usb Festplatten gleichzeitig anschließen kann,ohne Probleme zu haben.Ist also nur ein kleiner Vorteil den ich so habe.
Was sagt du dazu?

Temperatur ist momentan bei 89 Grad,ob die Lüfter auf maximum gestellt sind,weis ich nicht.Wäre aber hart wenn sie es wären,dann reicht es nicht aus für den Sommer.Noch ein Nachteil für das System.

ianm
2025-05-09, 11:42:39
Ich würde gern mal Kyrosheet teste um das zu verhindern aber 20€ ist heftig.
Ich kann dir sagen, dass sich das zumindest beim 5800X3D nicht gelohnt hat. Die Temperaturen waren nicht besser als mit normaler Kryonaut, eher etwas schlechter. Langlebig sind die Dinger auch nicht, zumindest nicht, wenn man dachte man könnte so ein Sheet über mehrere Kühlerwechsel etc. benutzen, da muss man sehr sehr vorsichtig sein, weil die Dinger wie verbranntes Papier super schnell zerbröseln, bzw. reissen.

Hat sich nicht gelohnt, ich bin mit neuer CPU wieder bei Kryonaut / Kryonaut Extreme. Die hält auch über Jahre und lässt sich gut verarbeiten.

ianm
2025-05-09, 11:46:33
Rückmeldung zur CPU, die war wirklich hinüber und MF verschickt einen neuen, sobald lieferbar (und alle Bestellungen abgearbeitet nehme ich an). Beim Board war laut MF alles in Ordnung, das kommt zurück.

Mein Vertrauen ist allerdings etwas erschüttert, gerade wenn man von der Problematik im Netz liest und Asrock überproportional betroffen ist.

Cubitus
2025-05-09, 13:06:22
Ich kann dir sagen, dass sich das zumindest beim 5800X3D nicht gelohnt hat. Die Temperaturen waren nicht besser als mit normaler Kryonaut, eher etwas schlechter. Langlebig sind die Dinger auch nicht, zumindest nicht, wenn man dachte man könnte so ein Sheet über mehrere Kühlerwechsel etc. benutzen, da muss man sehr sehr vorsichtig sein, weil die Dinger wie verbranntes Papier super schnell zerbröseln, bzw. reissen.


Die Sheets sind dafür auch nicht gemacht mehrere Kühlerwechsel sind da eher ungünstig.
Genau deshalb wollte ich bei der CPU lieber Wärmeleitpaste verwenden: Man ist damit flexibler und die Duronaut soll in der Regel auch länger halten. bist du einfach etwas freier in den Möglichkeiten.

latiose88
2025-05-10, 16:30:15
@Daredevil

Habe es nun besser lesbar verkürzt.Was sagst du denn dazu? Also ich denke mal bei mir macht das System so wie ich es geschildert habe,keinen Sinn oder wie ist so deine Meinung dazu?

Daredevil
2025-05-10, 16:48:05
@Daredevil
Ich habe ihn gekauft in derHoffnun schneller als ein Ryzen 9 9950x zu sein,was leider nicht der Fall ist.Die Anwendung wo ich verwende,mag zwar ein Mutithreaded Programm sein,es lastet aber nur bis zu einer gewissen ANwzahl an Threads optimal aus,alles drüber bricht leicht die Leistung ein. Dies war halt beim Threadripper 7960x der Fall gewesen.Musste darum SMT abschalten.Die Leistung stieg etwas an.War damit allerdings nicht wirklich schneller gewesen,sondern nur gleichschnell wie der 9950x. Erst als es von 4,8 ghz auf 5 ghz hochgetaketet dank der Turbomodus(also kein richtiges OC),war der dann schneller gewesen.Aber auch nicht sehr viel. Nun ist dieser um rudn 4 % schneller als der 9950x.Den könnte man ja auch Oc (also TUrbo Takt erhöhen),wäre dann gleichstand mal wieder.
Im moment habe ich also 24 Threads aktiv in verwendung ohne SMT. Nur 2 Ramrriegel weil die anderen ich nicht mehr bekomme,weil nie lieferbar.Ich merke nicht das ich im Nachteil bin,also Ram Sache nutze ich kaum aus.Mehr PCI Express anschlüsse auch nicht.Höchstens von das ich mehr USB ANschlüsse also Usb Festplatten gleichzeitig anschließen kann,ohne Probleme zu haben.Ist also nur ein kleiner Vorteil den ich so habe.
Was sagt du dazu?

Temperatur ist momentan bei 89 Grad,ob die Lüfter auf maximum gestellt sind,weis ich nicht.Wäre aber hart wenn sie es wären,dann reicht es nicht aus für den Sommer.Noch ein Nachteil für das System.
@Daredevil

Habe es nun besser lesbar verkürzt.Was sagst du denn dazu? Also ich denke mal bei mir macht das System so wie ich es geschildert habe,keinen Sinn oder wie ist so deine Meinung dazu?
Ich muss dazu nichts mehr schreiben, du beantwortest dir die Frage ja schon selbst. :)
Der AM5 + 9950X ist die "schlankere" Kombination und demnach effizienter/günstiger/wirtschaftlicher, sofern du eben nicht die möglichen Vorteile des Threadrippers in Anspruch nimmst.

Die Threadripper Plattform ist unterm Schnitt natürlich die wertvollere und damit grundsätzlich bessere, aber offenbar nicht für deinen Einsatzzweck. Das ersparte Geld kannste verurlauben, oder in 1-2 Jahren kannste immer noch ein CPU Upgrade machen, was dir vermutlich mehr bringt. Also mehr Leistung pro Kern anstatt mehr Kerne.

Lehdro
2025-05-10, 17:51:46
Rückmeldung zur CPU, die war wirklich hinüber und MF verschickt einen neuen, sobald lieferbar (und alle Bestellungen abgearbeitet nehme ich an). Beim Board war laut MF alles in Ordnung, das kommt zurück.
Immerhin gute Neuigkeiten.

Mein Vertrauen ist allerdings etwas erschüttert, gerade wenn man von der Problematik im Netz liest und Asrock überproportional betroffen ist.
Völlig verständlich!

Ja, AMD sollte ASRock da mal ein bissl Feuer unter dem Hintern machen, oder generell per AGESA solche Dinge unterbinden. So ganz ist ja immer noch nicht raus, woran es liegt. Ich vermute immer noch irgendwelche "Auto" Settings (vor allem Spannungen) die mit aktivieren von EXPO/XMP gesetzt werden. Die ASRock AM5 Systeme die ich persönlich kenne, haben alles manuell eingestellt in der Hinsicht und bisher gab es da auch noch keine Probleme. Toi toi toi.

Matrix316
2025-05-11, 16:14:36
Ist es nur eine Spannungseinstellung??? Wenn die SoC Voltage schwankt?

Nd-Ua_orG24