Archiv verlassen und diese Seite im Standarddesign anzeigen : CPU-Upgrade für RTX 4090
Colin MacLaren
2023-01-31, 22:44:51
Hi,
ich nutze im Moment noch den ollen 10700k. Der skaliert bis 4,9 GHz AllCore mit halbwegs akzeptablem Stromverbrauch.
Damit hänge ich mit der 4090 leider oft im CPU-Limit. Gespielt wird in 4K und 120Hz. Aber gerade Raytracing braucht ja auch gute CPU-Performance und mit der 4090 ist das zum ersten Mal nutzbar.
Daher die Überlegung:
- Jetzt einen 5800XD und ein B550M-Board kaufen. Wenn ich den 10700k und das Board verkaufe komme ich da mit ~200 EUR zusätzlichen Kosten hin und es ist Company of Heroes 3 dabei, was ich sowieso gekauft hätte (aber auch nur 35 EUR bei Gamivo und Co kostet).
- Bis Ende des Jahres warten. Wie es aussieht kommt bis dahin aber kein Meteor Lake auf dem Desktop sondern nur ein Raptor Lake Refresh. Die 7000er 3D-Modelle werden sicherlich abstrus teuer, daher habe ich die mal ausgeklammert. Beides erscheint mir P/L-technisch nicht optimal.
- Auf Meteor Lake warten und dann aber die teure Grafikkarte fast 2 Jahre lang nicht ordentlich ausfahren können.
- Jetzt den 5800XD holen und hoffen, dass der bis Lunar Lake oder Zen5 ausreicht.
Relevant wäre auch, dass ich meine Arctic Freezer 240 AIO weiter nutzen kann.
ChaosTM
2023-01-31, 22:50:28
Bleib wo du bist.
Du gewinnst mit einem CPU upgrade zwar ein paar %, aber das ist nicht spürbar.
Damit hänge ich mit der 4090 leider oft im CPU-Limit.
Und Du möchtest die Regler nicht bedienen, um dem bösen CPU-Limit zu entkommen. Deine CPU ist so lahm, dass Dir die FPS nicht ausreichen?
Ehrliche Frage.
Das CPU-Limit hat man immer selbst in der Hand.
Ist mein 3960X zu lahm?
https://abload.de/img/u4_2022_10_19_22_24_1vpcnb.jpg (https://abload.de/image.php?img=u4_2022_10_19_22_24_1vpcnb.jpg)
Oder hab ich nur die Regler nicht im Griff, und die Graka ist zu lahm?
https://abload.de/img/u4_2022_10_19_22_24_5cpcc9.jpg (https://abload.de/image.php?img=u4_2022_10_19_22_24_5cpcc9.jpg)
Ex3cut3r
2023-02-01, 03:44:06
In welchen Spielen denn? AAA? Oder die E-Sports Titeln? Und der 10700k getunt? Mit RAM Tuning? Und der schafft keine 120 FPS in gängigen Spielen? Kann ich kaum vorstellen.
aufkrawall
2023-02-01, 03:59:54
Ich schaffe nicht mal >120fps in Fortnite Worst Cases, trotz arg reduzierter Details :redface: :
ShuqY9nV6zI
Bro ist mit 4090 und höheren Details auch unzufrieden mit der 5800X3D-Performance in dem Spiel, bricht schon mal auf ~100fps ein.
Der 13700K hängt leider in der Post bzw. beim Händler zum Abschicken fest, sonst könnte ich darüber schon mehr sagen...
Ex3cut3r
2023-02-01, 04:56:24
Guten Morgen,
so ein Bottleneck je nach Szene, in MP Spielen kann schon mal auftreten, du bist da in der Szene immer noch bei 130 FPS.
Beim TE klang das aber eher nach -> 120 FPS werden in jeglichen Spielen gar nicht erreicht...das kann ich mir halt nicht so wirklich vorstellen mit der CPU und RAM. Vor allem, wenn man die CPU lastigen Settings je nach Spiel auch runterschraubt. LOD/Sichtweite, Schatten etc.
Colin MacLaren
2023-02-01, 08:39:37
Und Du möchtest die Regler nicht bedienen, um dem bösen CPU-Limit zu entkommen. Deine CPU ist so lahm, dass Dir die FPS nicht ausreichen?
Ehrliche Frage.
Das CPU-Limit hat man immer selbst in der Hand.
Ist mein 3960X zu lahm?
https://abload.de/img/u4_2022_10_19_22_24_1vpcnb.jpg (https://abload.de/image.php?img=u4_2022_10_19_22_24_1vpcnb.jpg)
Oder hab ich nur die Regler nicht im Griff, und die Graka ist zu lahm?
https://abload.de/img/u4_2022_10_19_22_24_5cpcc9.jpg (https://abload.de/image.php?img=u4_2022_10_19_22_24_5cpcc9.jpg)
Die Szenen sehen qualitativ identisch aus. Ich kann auch per DSR in 6K spielen, dann habe ich ohne DLSS in Modern Warfare 45fps. Auf Biegen und Brechen nur irgendwie die GPU dazu zu bringen, dass sie mehr Strom schluckt, ist nicht sinnvoll.
In welchen Spielen denn? AAA? Oder die E-Sports Titeln? Und der 10700k getunt? Mit RAM Tuning? Und der schafft keine 120 FPS in gängigen Spielen? Kann ich kaum vorstellen.
E-Sport geht, da spiele ich aber eh nur Modern Warfare 2 und Overwatch. Bei beidem kann ich bei der CPU den Turbo ausschalten.
In Forspoken z.B. habe ich aber so zickige Frametimes, dass ich auf 60fps locken muss, sonst ist es ein einziges Stutterfest. Da skaliert die Framerate 1:1 mit dem Prozessortakt.
Im Timepsy habe ich in der Graphics(!)-Score deutlich niedrigere Ergebnisse als andere mit schnelleren CPUs. Und TimeSpy ist nun mal von der Spielzeit meine unangefochtene Nummer 1 auf Steam ;D
Guten Morgen,
so ein Bottleneck je nach Szene, in MP Spielen kann schon mal auftreten, du bist da in der Szene immer noch bei 130 FPS.
Beim TE klang das aber eher nach -> 120 FPS werden in jeglichen Spielen gar nicht erreicht...das kann ich mir halt nicht so wirklich vorstellen mit der CPU und RAM. Vor allem, wenn man die CPU lastigen Settings je nach Spiel auch runterschraubt. LOD/Sichtweite, Schatten etc.
Gerade LOD ist aber nun etwas, was massiv Einfluss auf die Qualität hat, im Gegensatz zu sagen wir der Auflösung der Partikeleffekte.
Blase
2023-02-01, 08:51:42
Ich habe meine 4090 noch mit nem 8700K gepaart ;)
Ich persönlich würde dir also auch von einem Upgrade abraten. Klar, es gibt diese Spiele, die eher im CPU Limit hängen. Aktuelles Beispiel bei mir ganz klar der Witcher 3 NG. Aber es ist ja nicht so, dass du in diesen (wenigen) Spielen dann von 40 FPS CPU Limit auf einmal 80 FPS CPU Limit wärst - nur weil du dann zwei Generationen bezüglich CPU weiter bist. In diesen Spielen wirst du so oder so FG einschalten müssen, um - wie ich - auf die 120 FPS zu kommen. Und für das Gros der Spiele reicht dein Prozessor ohnehin locker aus, um dort hin zu kommen. Da reicht selbst meine alte Gurke.
Die X3D Modelle der 7000er Serie auszuklammern ist ein Fehler. Wären wahrscheinlich die einzigen Modelle, die wirklich signifikant gegenüber deiner jetzigen Kiste Leistungsplus bringen würden. Ich warte auch auf die Dinger und überlege dann zu wechseln.
Und Du möchtest die Regler nicht bedienen, um dem bösen CPU-Limit zu entkommen. Deine CPU ist so lahm, dass Dir die FPS nicht ausreichen?
Da ist aber nicht immer was mit Regler bedienen. Siehe den Witcher 3 NG. Wenn du da stellenweise mit 40 FPS oder weniger im CPU Limit rum läufst, nutzt es dir wenig, wen du die Grafikoptionen so hoch jagst, dass du dann bei den selben 40 FPS anschließend im GPU Limit liegst ;) Regler bedienen hieße hier auf DX12 zu verzichten und auf DX11 ohne RT zu switchen. Lustige Vorstellung, als 4090 Besitzer...
MfG Blase
ChaosTM
2023-02-01, 08:52:36
@Colin MacLaren
Schlechtes LOD - ( I am am looking at you CP77 - danke NV! - nur damit wir das Spiel in die 10GB quetschen können) - stört am meistens ja.
Die Pop-Ins sind immer noch grauslich
add2.: ich hab seit morgen eine 24GB 4090er ;)
Das ändert aber nichts an der Tatsache, dass NV eine beschissene Firma ist.
SamLombardo
2023-02-01, 09:06:26
add2.: ich hab seit morgen eine 24GB 4090er ;)
Das ändert aber nichts an der Tatsache, dass NV eine beschissene Firma ist.
Na das ist aber ein schöner Widerspruch. So beschissen kann NV wohl nicht sein, sonst hättest du eine AMD Karte gekauft;).
Cubitus
2023-02-01, 09:08:54
Ich hatte einen 10900F. Hab jetzt auf einen 13600k gewechselt, der Unterschied ist teilweise enorm. Bei 3440P und dying Light 2 oder cyberpunk waren es bis zu 30 Prozent.
Eine 4090 ist eine brachiale Karte die fördert.
Der 13600k bietet eine super Leistung, lässt sich gut kühlen und bietet mit Standardspannung sogar bisschen oc. 5300 P Cores und 4200 Ecores bei 1.2 Volt
Tipp hol dir ein Board mit z690 Chipsatz weil günstiger und je nach RAM kannst du auch ddr4 verwenden. Bei Timings zwischen 14-16 zwischen DDR3600-DDR4000 ist es such so schnell wie mit normalen DDR5 speichern.
Jedes neue Spiel, sei es witcher 3, deadspace forspoken etc benötigt anständige cpu Power.
Colin MacLaren
2023-02-01, 09:20:21
Ich hatte einen 10900F. Hab jetzt auf einen 13600k gewechselt, der Unterschied ist teilweise enorm. Bei 3440P und dying Light 2 oder cyberpunk waren es bis zu 30 Prozent.
Eine 4090 ist eine brachiale Karte die fördert.
Der 13600k bietet eine super Leistung, lässt sich gut kühlen und bietet mit Standardspannung sogar bisschen oc. 5300 P Cores und 4200 Ecores bei 1.2 Volt
Tipp hol dir ein Board mit z690 Chipsatz weil günstiger und je nach RAM kannst du auch ddr4 verwenden. Bei Timings zwischen 14-16 zwischen DDR3600-DDR4000 ist es such so schnell wie mit normalen DDR5 speichern.
Jedes neue Spiel, sei es witcher 3, deadspace forspoken etc benötigt anständige cpu Power.
ISt das wirklich attraktiv?
5800X3D: 338 EUR
Asus TUF Gaming b550-plus auf ebay: 102 EUR
Verkauf alter Kram -230 EUR
______
= 210 EUR
13700K: 449 EUR
GIGABYTE Z690 UD DDR4: 190 EUR
Company of Heroes 3: 35 EUR
Verkauf alter Kram -230 EUR
_________________
= 444 EUR
Und dass der 13700K mit DDR4 wirklich schneller ist als der 5800X3D ist eher fraglich.
Ich habe auch nur HArtz4-RAM. G-Skill Ripjaws 3600MHz @CL18.
Cubitus
2023-02-01, 09:34:51
ISt das wirklich attraktiv?
5800X3D: 338 EUR
Asus TUF Gaming b550-plus auf ebay: 102 EUR
Verkauf alter Kram -230 EUR
______
= 210 EUR
13700K: 449 EUR
GIGABYTE Z690 UD DDR4: 190 EUR
Company of Heroes 3: 35 EUR
Verkauf alter Kram -230 EUR
_________________
= 444 EUR
Und dass der 13700K mit DDR4 wirklich schneller ist als der 5800X3D ist eher fraglich.
Ich habe auch nur HArtz4-RAM. G-Skill Ripjaws 3600MHz @CL18.
Ich rede vom 13600K :)
https://www.computerbase.de/2022-10/gaming-benchmarks-intel-core-i5-13600k-mit-ddr5-und-ddr4-im-vergleich/
https://www.techpowerup.com/review/intel-core-i5-13600k/
Du könntest auch B660 oder B760er Chipsätze bei der K CPU verwenden
Vorteile vom Intel sind gegenüber AMD dann noch der gute Leerlauf mit 5-8 Watt verbrauch, keine nervige Lüfterkürve und entspannteres Bios-Handling.
Bei AMD gibts immer mal wieder AGESA-Updates die etwas verschlimm bessern.
Colin MacLaren
2023-02-01, 10:56:02
Ich rede vom 13600K :)
https://www.computerbase.de/2022-10/gaming-benchmarks-intel-core-i5-13600k-mit-ddr5-und-ddr4-im-vergleich/
https://www.techpowerup.com/review/intel-core-i5-13600k/
Du könntest auch B660 oder B760er Chipsätze bei der K CPU verwenden
Vorteile vom Intel sind gegenüber AMD dann noch der gute Leerlauf mit 5-8 Watt verbrauch, keine nervige Lüfterkürve und entspannteres Bios-Handling.
Bei AMD gibts immer mal wieder AGESA-Updates die etwas verschlimm bessern.
Ist halt trotzdem teurer. Bei Computerbase ist der 13600K mit CL14(!)-RAM 2% schneller. Dann ist er mit CL-18-RAM eher langsamer und halt teurer.
Cubitus
2023-02-01, 11:14:27
Ist halt trotzdem teurer. Bei Computerbase ist der 13600K mit CL14(!)-RAM 2% schneller. Dann ist er mit CL-18-RAM eher langsamer und halt teurer.
Etwas teurer ja, du kannst auch mit AMD dein Glück versuchen, aber ein AMD System kostet evtl. mehr Zeit zur Optimierung, ich weiß hier sehen das viele anders.
Aber meine Erfahrung hat sich da leider bestätigt. Und auch beim 5800X3D ist Speichertuning angesagt.
Der 13600K ist allg. bei einer Vielzahl an Spielen schneller als der 5800X3D.
Crazy_Chris
2023-02-01, 11:17:15
Die paar Wochen bis zum Zen 4-3D Release würde ich auf alle Fälle noch abwarten. Auf die paar Euro mehr kommts da dann sicher auch nicht an nach dem 4090 kauf.
dreas
2023-02-01, 11:26:37
Wie häufig spielst du denn 4K nativ?
Die meisten leistungskritischen Titel sind doch eh mit DLSS und FSR zu zocken, wo die CPU wieder nicht ganz so wichtig ist.
Daher, der Umstieg wird sich kaum lohnen.
Colin MacLaren
2023-02-01, 11:26:51
Etwas teurer ja, du kannst auch mit AMD dein Glück versuchen, aber ein AMD System kostet evtl. mehr Zeit zur Optimierung, ich weiß hier sehen das viele anders.
Aber meine Erfahrung hat sich da leider bestätigt. Und auch beim 5800X3D ist Speichertuning angesagt.
Der 13600K ist allg. bei einer Vielzahl an Spielen schneller als der 5800X3D.
Grundsätzlich ist mir Intel immer lieber. AMD auf dem Desktop ist übelstes Gebastel (hatte vor zwei Jahren mal ein 3600X System gebaut und nur Probleme, daher der 10700K).
Hmm, hab nochmal geschaut.
13600KF - 314 EUR.
GIGABYTE B660 Gaming X DDR4 - 137 EUR
Company of Heroes - 35 EUR
alten Kram verkaufen: -230 EUR
________________________
256 EUR
Oder halt auf einen 14600KF warten.
Cubitus
2023-02-01, 11:32:30
Grundsätzlich ist mir Intel immer lieber. AMD auf dem Desktop ist übelstes Gebastel (hatte vor zwei Jahren mal ein 3600X System gebaut und nur Probleme, daher der 10700K).
Hmm, hab nochmal geschaut.
13600KF - 314 EUR.
GIGABYTE B660 Gaming X DDR4 - 137 EUR
Company of Heroes - 35 EUR
alten Kram verkaufen: -230 EUR
________________________
256 EUR
Oder halt auf einen 14600KF warten.
Bei mir gab es mit dem 3900X üble Probleme :freak:
Wenn du die Leistung jetzt brauchst, spricht nichts gegen die CPU
Wie häufig spielst du denn 4K nativ?
Die meisten leistungskritischen Titel sind doch eh mit DLSS und FSR zu zocken, wo die CPU wieder nicht ganz so wichtig ist.
Daher, der Umstieg wird sich kaum lohnen.
Selbst DLSS (bei der 4080/4090) braucht eine ordentliche CPU-Leistung.
Bei Cyberpunk konnte ich in diversen Szenerien, trotzt DLSS bei 3440*1440, die FPS von 70 auf 100 durch einen CPU-Wechsel steigern.
vinacis_vivids
2023-02-01, 12:16:24
7950X3D
w0mbat
2023-02-01, 12:36:50
Ersten bin ich mir sicher, dass der 10700K noch völlig ausreichend ist, vor allem mit deinem schnellen Speicher. Aber wenn du unbedingt aufrüsten willst, würde ich auch Zen 4 X3D warten. Ein 7800X3D sollte spürbar schneller sein.
Colin MacLaren
2023-02-01, 12:44:36
Ersten bin ich mir sicher, dass der 10700K noch völlig ausreichend ist, vor allem mit deinem schnellen Speicher. Aber wenn du unbedingt aufrüsten willst, würde ich auch Zen 4 X3D warten. Ein 7800X3D sollte spürbar schneller sein.
Ich habe doch keinen schnellen Speicher, nur cl18 @3733Mhz.
7950X3D
Danke, 800 € Plus für einen CPU wollte ich nicht ausgeben.
Cubitus
2023-02-01, 13:30:58
Danke, 800 € Plus für einen CPU wollte ich nicht ausgeben.
Vor allem mit unnützen Kernen, für Cinebench top für andere Dinge (Spielen)
nicht notwendig.
Ex3cut3r
2023-02-01, 13:33:46
Vor allem mit unnützen Kernen, für Cinebench top für andere Dinge (Spielen)
nicht notwendig.
Dein Tipp mit dem 13600k, ist doch genau so eine "Witz-CPU" Nur 6 Performance Kerne, obwohl Games lieber 8 "richtige" Kerne mögen, und 8 "Witz" Kerne, die nur im Hintergrund idlen. Was soll man als Spieler damit?
7700X3D, 5800X3D, 13700k, 12700k, oder gleich den 13900k. Alles andere ist nur halbgar. 13600k wurde ich persönlich nie kaufen, ende des Jahres, hast du das Problem, das Spiele lieber 8 Performance Kerne mögen, und die E-Cores das nicht ausgleichen können. Sei es wegen Windows 10 (11) oder den Entwicklern von Spielen.
Cubitus
2023-02-01, 13:45:43
Dein Tipp mit dem 13600k, ist doch genau so eine "Witz-CPU" Nur 6 Performance Kerne, obwohl Games lieber 8 "richtige" Kerne mögen, und 8 "Witz" Kerne, die nur im Hintergrund idlen. Was soll man als Spieler damit?
7700X3D, 5800X3D, 13700k, 12700k, oder gleich den 13900k. Alles andere ist nur halbgar. 13600k wurde ich persönlich nie kaufen, ende des Jahres, hast du das Problem, das Spiele lieber 8 Performance Kerne mögen, und die E-Cores das nicht ausgleichen können. Sei es wegen Windows 10 (11) oder den Entwicklern von Spielen.
Ein Witz ist es das der 13600K in Games mit seinem 6P/8 E-Cores wesentlich schneller als mein 10900er mit nativen 10 Kernen + HT ist, und dafür sogar deutlich sparsamer im Verbrauch ist.
Bisher sehe ich, auch mittelfristig, noch keine Vorteile für mehr als 6-8 Kerne.
Die E-Cores werden zudem deutlich unterschätzt, für Desktop und kleinerer Verwaltungsaufgaben sind diese super geeignet.
Ein 5800X3D kann sich wenig bis gar nicht oder sogar schlechter vom 13600K absetzen. Dafür ist der 13600K verdammt sparsam.
Die Zukunft wird so sein das in Spielen immer mehr DirectStorage kommen wird, also hat die CPU sogar weniger zu tun. :wink:
Bei Anwendungen ist es etwas anderes, wer mit der CPU arbeitet und rendert, für den sind Mehr Kerner schon sinnvoll.
w0mbat
2023-02-01, 13:49:49
Sockel 1700 bekommt noch ein Raptor Lake refresh und das wars dann. Mit AM5 wirst du sicher auf Zen5 und wahrscheinlich sogar noch auf Zen6 aufrüsten können, dazu haben B650E Mobos schon PCIe 5.0 für PEG und M.2.
Wie gesagt, entweder System so behalten, oder ein 7800X3D.
Cubitus
2023-02-01, 13:54:19
Sockel 1700 bekommt noch ein Raptor Lake refresh und das wars dann. Mit AM5 wirst du sicher auf Zen5 und wahrscheinlich sogar noch auf Zen6 aufrüsten können, dazu haben B650E Mobos schon PCIe 5.0 für PEG und M.2.
Wie gesagt, entweder System so behalten, oder ein 7800X3D.
Dann läufts erst ordentlich mit dem zehnten Agesa Update.
Das Thema bei AMD ist doch, das diese Bretter und Chipsätze auf Teufel komm raus kompatibel sein wollen. Einerseits ist das gut auf der anderen Seite schleppst du halt immer wieder alte Zöpfe mit, was sich unter Umständen mit mehr "Bastelarbeit" auswirken kann.
Colin MacLaren
2023-02-01, 13:58:37
Sockel 1700 bekommt noch ein Raptor Lake refresh und das wars dann. Mit AM5 wirst du sicher auf Zen5 und wahrscheinlich sogar noch auf Zen6 aufrüsten können, dazu haben B650E Mobos schon PCIe 5.0 für PEG und M.2.
Wie gesagt, entweder System so behalten, oder ein 7800X3D.
Das letzte Mal, dass ich innerhalb einer Mainboard-Generation aufrüsten konnte, war beim Sockel-A vom 2.100+ auf 2500+, den ich dann auf 3200+ übertaktet habe. Und selbst da war es eher Basteltrieb als Notwendigkeit.
Das wird einem immer erzählt, lohnt sich aber fast nie.
Vom 5800X3D hat mich vor allem diese Grafik überzeugt, dafür, dass mich der Spaß maximal 200 Euro kosten würde.
https://tpucdn.com/review/rtx-4090-53-games-core-i9-13900k-vs-ryzen-7-5800x3d/images/directx-12-vulkan.png
RoNsOn Xs
2023-02-01, 13:59:53
Die besagten +30% in 4k möchte ich hier mal belegt sehen.
Es ist wie dreas sagte - dein System ist schnell genug für die Auflösung. Spare lieber und sitz die Zeit noch aus.
Master3
2023-02-01, 15:40:13
Machs doch einfach mit dem 5800X3D?!:confused:
Ehrlich, Knapp 2k Steine für ne GPU löhnen und dann nachdenklich sein wegen 200€ für einen neuen Unterbau der durchaus auch einiges an mehr Power bringt.
Ex3cut3r
2023-02-01, 16:20:39
Der 5800X3D kann aber auch in vielen Spielen ne "Gurke" sein. Vorallem, da wo der Cache nichts bringt, dann bist unter einem 5700X, weil der 3D einen Low Takt hat.
Wer eine 4090 kauft, hat das Geld auch für einen 13700k oder 13900k, DDR4 oder DDR5, kommt drauf an, ob er seinen "alten" RAM weiter nutzen möchte, oder aber gleich den Schritt auf DDR5 macht. So kann er sich später auch gleich wieder eine 5090 kaufen, der 13900k wird so schnell nicht limitieren.
aufkrawall
2023-02-01, 16:23:20
Ich bin wirklich auf die Performance des 13700K in DL2, Miles Morales oder CP77 gespannt. Wenn der dort davonzieht, ist AMD 8C imho nicht kaufbar aufgrund der seltsamen Auslastungs-Problematik in mehreren Spielen.
Ex3cut3r
2023-02-01, 16:28:15
Ich bin wirklich auf die Performance des 13700K in DL2, Miles Morales oder CP77 gespannt. Wenn der dort davonzieht, ist AMD 8C imho nicht kaufbar aufgrund der seltsamen Auslastungs-Problematik in mehreren Spielen.
Ganz genau. CP77 und Miles Morales, lasten meinen 5700X z.B. nicht gut aus. Ich komme einfach nicht über 40% Gesamt Auslastung. Die SMT Threads liegen brach. Bei CP77 kann ich es mit einer Hex Mod lösen, die Performance steigt dann um 30%.
In Miles Morales, bis heute kein Fix. :mad:
Das war auch meine letzte AMD CPU, gibt einfach zu viele Fuck Ups mit AMD HW, egal ob GPUs oder CPUs. Ich steige wieder auf Intel CPUs um.
Cubitus
2023-02-01, 16:30:15
Der 5800X3D kann aber auch in vielen Spielen ne "Gurke" sein. Vorallem, da wo der Cache nichts bringt, dann bist unter einem 5700X, weil der 3D einen Low Takt hat.
Wer eine 4090 kauft, hat das Geld auch für einen 13700k oder 13900k, DDR4 oder DDR5, kommt drauf an, ob er seinen "alten" RAM weiter nutzen möchte, oder aber gleich den Schritt auf DDR5 macht. So kann er sich später auch gleich wieder eine 5090 kaufen, der 13900k wird so schnell nicht limitieren.
Wie gesagt kommt drauf an was du machen willst. Ich weiß das ich mit dem PC zu 95 Prozent spiele. Also Fokus primär auf GPU Leistung. Features wie RT oder DLSDR sind mir wichtig. Die 4090 ist dabei auch dermaßen sparsam und leise
Die Mehrkerne bei einem 13900k machen keinen Sinn, wie gesagt es reicht ein effiziente CPU.
Der 13600k macht die sache aktuell sehr gut.
Bei DDR5 kommts drauf an, mehr Bandbreite hast du aber bei den Mittelklasse Modulen sind die Timings grottig. Da kannst gleich den DDR4 behalten
Wenn ich mit AMD keine so schlechten Erfahrungen gemacht hätte, würde ich auch einen X3D empfehlen. Die Dinger sind aufs Spielen optimiert.
aufkrawall
2023-02-01, 16:35:14
Das war auch meine letzte AMD CPU, gibt einfach zu viele Fuck Ups mit AMD HW, egal ob GPUs oder CPUs. Ich steige wieder auf Intel CPUs um.
12700K war bei Bro völlig kaputt, bei niedriger Auslastung Frame Times aus der Hölle. Kein Fix möglich, außer Linux oder Windows 10 mit deaktivierten E-Cores. Irgendeine Kacke kann immer sein. :freak:
Deshalb wird das spannend mit dem RPL. Schon unglaublich, wie gut die 4090 seit Release läuft im Vergleich zu anderer Hardware.
Die Szenen sehen qualitativ identisch aus. Ich kann auch per DSR in 6K spielen, dann habe ich ohne DLSS in Modern Warfare 45fps. Auf Biegen und Brechen nur irgendwie die GPU dazu zu bringen, dass sie mehr Strom schluckt, ist nicht sinnvoll.
Das will ja niemand.
Die Frage ist: Ist Deine CPU wirklich zu lahm, oder willst Du die Regler nicht bedienen. Wenn Du jetzt sagst Deine CPU schafft in Warfare nur 45 FPS. Dann kaufen Marsch Marsch.
Das macht sie aber nicht. Sie wird deutlich über 100 FPS schaffen. Und da ist es dann schon wieder Fraglich ob an einem 120hz Monitor ein Upgrade wirklich Punkte bringt. Ich kann mir gut vorstellen dass Deine CPU in Warfare locker an die 120 FPS rankommt.
Wo Deine CPU jetzt "zu lahm" ist hab ich hier auch noch nicht rausgelesen. Bist jetzt ist es nur "aber ich hänge im CPU-Limit".
Aber DAS ist zu viel verlangt? Die Regler da entsprechend zu bedienen anstatt es sofort zu überreißen, so dass nur noch 45 FPS bei rauskommen? Das ist doch selbstbeschiss^^
Deathcrush
2023-02-01, 19:30:23
Ersten bin ich mir sicher, dass der 10700K noch völlig ausreichend ist, vor allem mit deinem schnellen Speicher. Aber wenn du unbedingt aufrüsten willst, würde ich auch Zen 4 X3D warten. Ein 7800X3D sollte spürbar schneller sein.
Ich habe selbst meinen 10700F durch ein 13600KF ersetzt (mit DDR5) und ich merke den Unterschied deutlich, z.B. bei CP2077 und BF2042. Ich kann Colin MacLaren sehr gut verstehen, gerade wenn man eine 4090er hat.
RoNsOn Xs
2023-02-01, 19:46:03
https://www.youtube.com/watch?v=XjjHR4MnB3g
Muss jeder selbst wissen.
edit:
oder hier gegen einen 13700k
https://www.youtube.com/watch?v=98ZmMuOTeqQ
Deathcrush
2023-02-01, 19:50:27
Ich kann dir so schon sagen, das der Benchmark von CP2077 kompletter Blödsinn ist. Hab den Wechsel selbst vollzogen und der Unterschied war teils massiv.
RoNsOn Xs
2023-02-01, 19:56:09
Ich verstehe, dass man sich die gekaufte Hardware immer vorteilhafter reden möchte, allein schon wegen dem Suchtfaktor etwas neues zu besitzen und für manch einen auch die Bastelgier. Aber Zahlen lügen nicht. Natürlich bekommst du ein paar mehr Frames, die den Kohl jedoch nicht fett machen. Schon gar nicht in 4k.
CPUs nutzen sich heutzutage nicht mehr so schnell ab - allein Gaming betrachtet.
myMind
2023-02-01, 19:57:35
7900X3D (599$) / 7950X3D (699$) ab 28.02.2023
7800X3D (449$) ab 06.04.2023
FLxH9ivPWUI
Bin gespannt.
Deathcrush
2023-02-01, 19:57:46
Dann Spiele mit BF2042 mit 120 Leuten im Rush-Modus mit einem 10700f und einem 1300K, auch du wirst da einen Unterschied erkennen. Ich Spiele halt gerne mit 120FPS, das war mit dem 10700f so nicht mehr möglich.
RoNsOn Xs
2023-02-01, 20:04:04
Will dir nicht absprechen, dass ich manchen Szenarien die CPU etwas mehr durchschlägt. Ich glaube dir. Ob es einen den gesamten Aufpreis wert ist, muss man wie gesagt selbst wissen.
Cubitus
2023-02-01, 20:24:30
Ich verstehe, dass man sich die gekaufte Hardware immer vorteilhafter reden möchte, allein schon wegen dem Suchtfaktor etwas neues zu besitzen und für manch einen auch die Bastelgier. Aber Zahlen lügen nicht. Natürlich bekommst du ein paar mehr Frames, die den Kohl jedoch nicht fett machen. Schon gar nicht in 4k.
CPUs nutzen sich heutzutage nicht mehr so schnell ab - allein Gaming betrachtet.
Es kommt wirklich auf die Spiele an.
Warhammer, cyberpunk, chernobylite, dying Light 2 uva laufen mit dem neuen Intel wirklich massiv besser. Vorallem auch neure ue Titel profitieren.
Colin MacLaren
2023-02-01, 20:34:47
Ich verstehe, dass man sich die gekaufte Hardware immer vorteilhafter reden möchte, allein schon wegen dem Suchtfaktor etwas neues zu besitzen und für manch einen auch die Bastelgier. Aber Zahlen lügen nicht. Natürlich bekommst du ein paar mehr Frames, die den Kohl jedoch nicht fett machen. Schon gar nicht in 4k.
CPUs nutzen sich heutzutage nicht mehr so schnell ab - allein Gaming betrachtet.
Der Test von irgendeinem Random YouTube Kanal der aussieht wie mit Windows Movie Maker im Jahre 1998 gemacht, auf den würde ich jetzt eher weniger geben. Da vertraue ich doch eher auf Computerbase, TechpowerUp und Co. oder was Leute hier im Forum sagen.
Der Test ist eh Banane, ich weiß nicht was die da benchen, aber 186fps in Overwatch erscheint mir z.B. viel zu wenig. Mich interessiert vor allem 4K@DLSS Quality oder Balanced, gerne auch DLSS 3, mit Raytracing.
Nicht irgendwelche ollen DX11-Kamellen. Die laufen sowieso alle gut.
7900X3D (599$) / 7950X3D (699$) ab 28.02.2023
7800X3D (449$) ab 06.04.2023
https://youtu.be/FLxH9ivPWUI
Bin gespannt.
Geil, 7800X3D erst im April, 7900X3D dann erstmal Strapenpreis von 750 EUR und nirgends verfügbar. Dafür noch DDR5-RAM und ein teures Board kaufen. Nein, Danke.
Vielen Dank für Eure Tipps.
Ich werde mir entweder einen 13700K + DD4-Board zulegen oder noch bis zum Black Friday warten und dann mal schauen, was Raptor Lake refresh machen oder wo sich die PReise für 7800X3D und 790X3D einpendeln. AMDs Ankündigung erschient mir halt recht lächerlich. https://www.computerbase.de/2023-02/ryzen-mit-3d-cache-preise-und-termine-fuer-7950x3d-7900x3d-7800x3d/
Wen zur Hölle interessiert die Performance in DoW III, das toter als tot ist? Oder ob ich in CS:Go 450 oder 500fps habe? So ein Blödsinn. Ich will wissen, wie das Teil in UE4/UE5 oder Frostbite skaliert.
Colin MacLaren
2023-02-02, 09:20:17
So, ich habe noch einmal diverse Benchmarks durchgewälzt und mich doch für den 5800X3D entschieden. Mich überzeugt der 13600k/13700K mit DDR4 nicht und mit DDR5 wäre ein kompletter Plattform-Wechsel notwendig, der dann noch teurer wird. Die B660-Plattform ist zudem genauso eine Sackgasse wie AM4, denn ein Raptor-Lake Refresh wird sicher keine Wunder vollbringen. Vom 9900K bis zum 11900K tat sich ja auch nix.
Ich habe mir das MSI B550M Pro Board geholt. Das kam beim Hardware-Unboxed-Roundup bezüglich VRM-Temps gut weg. Dafür habe 99 EUR neu bezahlt auf ebay, davon konnte ich die 83 EUR an Punkten, die ich noch hatte, gleich mit einlösen.
Das Board braucht ein Bios-Update, dafür kann ich den Ryzen 3400G aus meinem Server nehmen, dann passt der 5800X3D auch. Es hat nur einen M.2-Slot, da nehme ich die 1TB NVME 4.0 SSD, die aus dem Laptop noch übrig ist, hebe eine meiner zwei SN550 für den kommenden GPD Win 4 auf und verkaufe die andere für einen Fuffi auf ebay. Über der Grafikkarte hat das Board einen PCI-E-Slot. Da kann ich meine Soundkarte einbauen bzw. überlege ich, ob ich die auch noch verkaufe, da ich sie eigentlich nicht mehr benötige.
Zusammen mit dem CoH3 Key komme ich dann auf effektiv 120 EUR, von denen ich 83 EUR mit ebay-Punkten bezahlen konnte.
Der 5800X3D stellt damit eine wirklich günstige Überbrückungsmöglichkeit dar und ich kann die 4090 besser ausfahren, habe aber keinen Druck und kann bis Meteor Lake und Zen5 warten, wo dann ein kompletter Plattform-Wechsel anstehen wird.
gnomi
2023-02-02, 09:41:47
Ich kann den Aufrüstwunsch voll nachvollziehen.
Mit dem Ziel von dreistelligen fps und neusten Ray Tracing Spielereien mit möglichst wenig Spikes, muss man ganz klar auf was aktuelles updaten.
Der Aufpreis ist ja auch verschmerzbar bei den schon getätigten GPU Kosten.
Wenn man dazu noch Bock auf die ganze Bastelei plus Software Kram hat, dann los. :freak:
Ich persönlich bräuchte es jetzt nicht, da bei 60 fps und SP Games auch die alte CPU noch passt.
Bei mir werkelt jedoch lediglich ein 9900KF mit einer 3080TI, und ich habe bereits für diese GPU Leistung zu viel abgedrückt.
Von daher warte ich jetzt erst mal auf 4090 GPU Leistung für weit weniger Geld.
Und dann baue ich wahrscheinlich eine DDR 4 Win11/DX12 CPU Plattform für den attraktivsten Preis Drumherum. Kann gerne Auslaufmodell sein.
Aber gerade keine Lust, die Plattform neu aufzusetzen.
Bei mir läuft im Grunde genommen alles immer nur bei Bedarf umgebaut seit 2010 auf der selben SSD.
Und bei der Software gehe ich auch ungerne bei.
Bei nochmals doppelter GPU Leistung wären aber 50-80% mehr CPU Power schon nicht schlecht. :wink:
Rooter
2023-02-02, 17:58:58
@Colin: Effektiv gelöst! :up:
MfG
Rooter
Hamster
2023-02-03, 12:18:03
Berichte bitte mal, ob sich der Tausch gelohnt hat.
Würde mich echt interessieren.
(5800x3d habe ich nämlich schon - Überlegungen bzgl. stärkeren Graka sind aber vorhanden…)
Blase
2023-02-03, 14:22:33
Berichte bitte mal, ob sich der Tausch gelohnt hat.
Würde mich echt interessieren.
(5800x3d habe ich nämlich schon - Überlegungen bzgl. stärkeren Graka sind aber vorhanden…)
Welcher Erkenntnisse ziehst du denn aus seinem Fazit für dich? Die 4090 ist gegenüber der 6800 ein ganzer Dimensionssprung - auch ohne den 5800 X3D. Dafür braucht es keinen (noch) stärkeren Prozessor...
MfG Blase
Hamster
2023-02-03, 16:04:11
Welcher Erkenntnisse ziehst du denn aus seinem Fazit für dich? Die 4090 ist gegenüber der 6800 ein ganzer Dimensionssprung - auch ohne den 5800 X3D. Dafür braucht es keinen (noch) stärkeren Prozessor...
MfG Blase
Es interessiert mich einfach, ob die CPU so einen Unterschied macht.
Denn ich hatte eher überlegt gar die Plattform zu wechseln.
Dass die olle 6800 weit langsamer ist, habe ich nie bezweifelt :uponder:
So ganz genau verstehe ich nicht, was du mir mit deinem Posting sagen möchtest :ugly:
Blase
2023-02-03, 19:28:26
So ganz genau verstehe ich nicht, was du mir mit deinem Posting sagen möchtest :ugly:
Siehste, so ging es mir auch mit deinem Posting :freak:
Es laß sich für mich halt so, als ob du deinen Kauf einer 4090 von seinem Ergebnis abhängig machen würdest - und ich habe nicht so recht einen Zusammenhang zwischen diesen beiden Dingen sehen können :)
Es interessiert mich einfach, ob die CPU so einen Unterschied macht.
Aber damit ist ja alles klar ;)
MfG Blase
Colin MacLaren
2023-02-04, 20:14:51
Berichte bitte mal, ob sich der Tausch gelohnt hat.
Würde mich echt interessieren.
(5800x3d habe ich nämlich schon - Überlegungen bzgl. stärkeren Graka sind aber vorhanden…)
Timespy Graphics Score: 34.238 -> 38.627
Timespy Extreme Graphics Score: 20.931 -> 21 250
Superposition HWLUX Schwanzvergleich: 5.695 -> 5.664
Forspoken, Ultra, 4K DLSS Quality
Average Frame Rate: 116 -> 120
Max. Frame Rate: 151 -> 151
Min. Frame Rate: 069 -> 087
Einschränkungen:
Der 10700k war an die Kotzgrenze getunt, beim 5800X3D habe ich nur den Referenztakt auf 101 MHz gesetzt und die Curve um -30 Punkte gesetzt. Der RAM lief @XMP mit dem 10700K auch bei 3733 MHz, mit Standardsettings bootet er beim 5800X3D nur mit 3.600MHz. Da ginge sicher noch was.
Außerdem war bei den 10700K-Werten der Grafikkarten-Ram und 200 MHz mehr übertaktet, das ging gerade nicht (wahrscheinlich Cold-Memory-Bug).
Hamster
2023-02-04, 20:55:37
Danke!
Kannst du schon ein Fazit ziehen?
Bist du zufrieden?
raffa
2023-02-04, 22:11:28
Zeit für ein GPU Upgrade!
Weg mit der ollen 4090, öhm, moment.
RoNsOn Xs
2023-02-04, 23:13:56
War doch klar, dass dort nicht mehr so viel kommen kann.
aufkrawall
2023-02-04, 23:34:29
Screenshots aus GFE-Capture, jeweils niedrigster Wert aus ein paar Sekunden:
5800X3D 3800 CL14:
https://abload.de/thumb/mpv-shot00029mf8t.png (https://abload.de/image.php?img=mpv-shot00029mf8t.png)
13700K 6400 CL32:
https://abload.de/thumb/mpv-shot0004vlih5.png (https://abload.de/image.php?img=mpv-shot0004vlih5.png)
Der Ryzen ist einer 4090 schlicht unwürdig.
Ex3cut3r
2023-02-05, 23:09:43
Screenshots aus GFE-Capture, jeweils niedrigster Wert aus ein paar Sekunden:
5800X3D 3800 CL14:
https://abload.de/thumb/mpv-shot00029mf8t.png (https://abload.de/image.php?img=mpv-shot00029mf8t.png)
13700K 6400 CL32:
https://abload.de/thumb/mpv-shot0004vlih5.png (https://abload.de/image.php?img=mpv-shot0004vlih5.png)
Der Ryzen ist einer 4090 schlicht unwürdig.
5700X 32GB DDR4 3800 Mhz CL16 + Subs ~ 80 FPS, was bitte macht der X3D da bei dir?
Das Ergebnis vom 13700k ist auch nicht grade rosig.
Max Settings + DLSS P mit RTX 3080 Ti CPU Limitiert.
https://abload.de/thumb/aplaguetalerequiem_x6niipa.png (https://abload.de/image.php?img=aplaguetalerequiem_x6niipa.png)
aufkrawall
2023-02-06, 00:10:17
RT-Schatten an?
Btw: Stehst du statisch rum? Der Einbruch kommt eher durchs Streaming, wenn man nach dem Laden zum ersten Mal da langgeht.
SamLombardo
2023-02-06, 07:30:48
RT-Schatten an?
Btw: Stehst du statisch rum? Der Einbruch kommt eher durchs Streaming, wenn man nach dem Laden zum ersten Mal da langgeht.
Sind die RT Schatten zu empfehlen? Es hieß doch mal, die würden schlechter aussehen als die nicht-RT Version. War das Quatsch?
Btw, beim Vergleich nicht vergessen, dass Ex3cut3r DLSS P nutzt.
Colin MacLaren
2023-02-06, 09:12:08
doppelpost
Colin MacLaren
2023-02-06, 09:13:27
Screenshots aus GFE-Capture, jeweils niedrigster Wert aus ein paar Sekunden:
5800X3D 3800 CL14:
https://abload.de/thumb/mpv-shot00029mf8t.png (https://abload.de/image.php?img=mpv-shot00029mf8t.png)
13700K 6400 CL32:
https://abload.de/thumb/mpv-shot0004vlih5.png (https://abload.de/image.php?img=mpv-shot0004vlih5.png)
Der Ryzen ist einer 4090 schlicht unwürdig.
Im ersten Screen hast Du 73% GPU-Last und 55 fps, im Zweiten 72% GPU-Last und 90 fps.
Da stimmt was nicht.
Ich finde 26% bessere Mindest-FPS in Forspoken mit DLSS jetzt nicht schlecht, genau dafür habe ich die CPU ja gekauft. Hätte ich jetzt gerade DDR5 6400 MHz RAM herumliegen gehabt, dann hätte ich mir auch einen 13700k geholt. Habe ich aber nicht, sondern Hynix JJR, also der unterste Drecks-Ausschuss den es überhaupt gibt.
Vor drei Jahren hat ein Kumpel ein 64GB-Kit von dem Speicher gekauft und mir die Hälfte günstig vermacht. Ich wollte von den 16GB 2666 MHz in meinen Desktop-PC den RAM aufrüsten, wo ich mit einer 2080 Super auf einem 49" Samsung auf 3840x1080 im GPU-Limit zockte. In der Konstellation war der deutliche Aufpreis für Samsung B-Dies nicht kosteneffizient, zumal Hardware in der Pandemie eh teuer war.
Ex3cut3r
2023-02-06, 14:31:37
RT-Schatten an?
Btw: Stehst du statisch rum? Der Einbruch kommt eher durchs Streaming, wenn man nach dem Laden zum ersten Mal da langgeht.
Hast recht, war ohne RT-Schatten. Ich werde es später mit RT Schatten reproduzieren.
Btw, beim Vergleich nicht vergessen, dass Ex3cut3r DLSS P nutzt.
Geht ja um das CPU-Limit. Selbst mit Q immer noch leicht im CPU Limit, einfach auf die GPU Usage achten.
aufkrawall
2023-02-06, 17:18:02
Im ersten Screen hast Du 73% GPU-Last und 55 fps, im Zweiten 72% GPU-Last und 90 fps.
Da stimmt was nicht.
Die fps-Anzeige ist wichtiger und beides ist locker im CPU-Limit. Kannst es dann ja gerne nachstellen.
Ex3cut3r
2023-02-07, 00:23:45
So, nun mit RT Schatten.
https://abload.de/thumb/aplaguetalerequiem_x6ewfdq.png (https://abload.de/image.php?img=aplaguetalerequiem_x6ewfdq.png)
EzNC04HkWE8
Der Cache scheint in diesem Spiel anscheinend nichts zu bringen, @ Krawall.
Läuft wie ein Sack Nüsse mit den RT-Schatten. Schluckt CPU Leistung und im GPU Limit, viel FPS. Ist es mir nicht wert.
Colin MacLaren
2023-02-07, 12:39:06
Es ist doch auch ziemlich irrelevant wie ein Halb-Indie-Spiel mit eigener Engine, die sonst nirgends zum Einsatz kommt, auf der CPU performt. Ach nee, wait. https://cdn.mos.cms.futurecdn.net/HVpkTKRnXG5M8dcq3xrSon-1200-80.png.webp
Casillas
2023-02-17, 08:21:06
Factorino ist auch noch ein schönes Beispiel :D
Der Vergleich 5800X3d zum 13700k ist ja auch ein wenig "unfair" oder? Der Intel kostet nen Drittel mehr, Plattform-Mehrkosten kommen noch oben drauf.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.