PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 24./25. August 2024


Leonidas
2024-08-26, 09:59:05
Link zur News:
https://www.3dcenter.org/news/news-des-2425-august-2024

bad_sign
2024-08-26, 10:40:27
der 9950X hat ein PPT von 200W, nicht 230W

Sehr schöne Tabelle!

Leonidas
2024-08-26, 10:43:50
Gefixt.

Aroas
2024-08-26, 10:56:44
Himmel, ist der 9600X überteuert. Im Schnitt gerade mal 10% mehr Leistung als ein 7600X, dafür aktuell aber gut 110€ teurer.
Wen glaubt AMD bitte damit abzuholen?

dildo4u
2024-08-26, 11:14:27
System Hersteller wollen jedes Jahr neue Modelle der zu hohe Preis ist ein kleiner Anteil bei einem 1000€ Gerät.
Wobei es natürlich davon abhängt welche Mengen abgenommen werden keiner der größeren Hersteller wird 300€ für 9600X abdrücken.

Gast
2024-08-26, 11:16:18
"Möglicherweise auch aus diesem Grund geht Intel bei "Arrow Lake" wohl wieder mehr in Richtung Energieeffizienz, da sich der nahezu Performance-Gleichstand mit AMD im Spiele-Feld unter dem Erkaufen einer drastisch schlechteren Energieeffizienz im Konsumverhalten des DIY-Segments als wenig zielführender Pfad erwiesen hat."
Solange das Ding mit einem vernünftigen Kühler (Luftkühler 30-50€) im Gaming halbwegs leise kühlbar ist, interessiert das außerhalb D niemanden. Insofern ist das maximal ein Bonus, den Intel da mit nehmen will. Vermutlich ist es eher ein Kostenfaktor bei den Boards (größere VRMs) und der Bedarf nach größeren Netzteilen in den Rechnern, vor allem bei den OEMs, die deswegen Druck machen.

Gast
2024-08-26, 11:26:16
Himmel, ist der 9600X überteuert. Im Schnitt gerade mal 10% mehr Leistung als ein 7600X, dafür aktuell aber gut 110€ teurer.
Wen glaubt AMD bitte damit abzuholen?
Schau dir mal den Preisverlauf des 7600X bei Geizhals an. Der lag das erste Monat nach dem Launch bei grob 350€, dann ging er grob zwei Wochen für 325€ über die Ladentheke, um dann in einer Woche um grob 60€ zu fallen. Ähnliches wird beim 9600X auch passieren (müssen). Das ist aber bei AMD CPUs eigentlich immer so nach dem Start, der Markt braucht da immer ein paar Monate, bis die sich einpendeln. Wer die Dinger jetzt kauft, ist da selber Schuld.

Gast
2024-08-26, 11:30:13
Möglicherweise auch aus diesem Grund geht Intel bei "Arrow Lake" wohl wieder mehr in Richtung Energieeffizienz, da sich der nahezu Performance-Gleichstand mit AMD im Spiele-Feld unter dem Erkaufen einer drastisch schlechteren Energieeffizienz im Konsumverhalten des DIY-Segments als wenig zielführender Pfad erwiesen hat.

Intel macht das nicht aus einer bewussten Entscheidung heraus, es ist einfach ein Ergebnis daraus dass man wieder eine konkurrenzfähige (wenn nicht sogar überlegene) Fertigung zur Verfügung hat.

MiamiNice
2024-08-26, 11:35:57
Die Performance Ausstellung ist hier genau so kaputt wie auf allen anderen Webseiten. Was wohl daran liegt, dass Leo nur kopiert und nicht selbst testet. Und da wo Leo kopiert, wird nicht anständig getestet an der Realität vorbei getestet.

gemittelte Spiele-Perf. 100% ~92% 98,6% 83,1% 87,7% 83,9% 87,4% 88,0% 93,6% 95,9%

Gast Ritis
2024-08-26, 11:37:22
Ich sehe da jetzt nicht viel Sinn darin die Zen5 Launch-Analyse in Details auseinanderzunehmen wenn doch klar ist, dass in wenigen Wochen OS-Patches das Ergebnis wieder verändern werden. Viel wird sich nicht tun, aber gerade bei Effizienz werden sich einige Prozentpunkte verschieben.
Ist auch nicht schön die beste CPU als Referenz zu nehmen, die Intel sehen dann extremst schlecht dabei aus.

Gast
2024-08-26, 11:44:28
Ich sehe da jetzt nicht viel Sinn darin die Zen5 Launch-Analyse in Details auseinanderzunehmen wenn doch klar ist, dass in wenigen Wochen OS-Patches das Ergebnis wieder verändern werden.


Die werden nichts großartiges ändern, die verbessern die Leistung aller CPUs.

OpenVMSwartoll
2024-08-26, 12:27:51
Die werden nichts großartiges ändern, die verbessern die Leistung aller CPUs.

Naja, wenn der Branch Predictor 2 Schritte vorwärts schaut, schlägt das Leeren des Branch Target Puffers auch härter zu.

Gast
2024-08-26, 12:46:30
Naja, wenn der Branch Predictor 2 Schritte vorwärts schaut, schlägt das Leeren des Branch Target Puffers auch härter zu.

Ein branch predictor schaut nicht nur 2 Schritte vorwärts.

Grafikspachtel
2024-08-26, 12:46:58
Spieleperformanceunterschiede, gemessen in 720p.
-> Für die Tonne.

Hier - wie üblich gehe ich davon aus, dass eine CPU mindestens 10% schneller sein muss, damit man überhaupt irgendetwas von dem Performanceunterschied merkt.
Und siehe da:
https://cdn1.picturebb.com/1/2024/08/26/bLeZ7.png
Alle CPUs innerhalb des grünen Rahmens sind in der Praxis ununterscheidbar vom 7800X3D.

Wenn Du Spiele spielen willst, tut es ein stinkgewöhnlicher Zen3. Ab 5600X oder 12400F bist Du im Club.

Gast
2024-08-26, 12:47:28
In der Tabelle wäre der 5800X3D noch als Vergleichswert interessant.

MiamiNice
2024-08-26, 12:55:58
Spieleperformance, gemessen in 720p.
-> Für die Tonne.


Oh nein, nicht schon wieder diese falsche Diskussion. Lass mich raten, niemand spielt in 720p :freak:

Exxtreme
2024-08-26, 13:00:17
Spieleperformance, gemessen in 720p.
-> Für die Tonne.

Wenn Du Spiele spielen willst, tut es ein stinkgewöhnlicher Zen3. Ab 5600X bist Du dabei.

Nur wenn dir die durchschnittlichen FPS wichtig sind. Willst du aber hohe 1%-FPS dann brauchst du eine sehr starke CPU. Auch Raytracing frisst viel CPU-Leistung etc.

Hier mal was:
https://www.pcgameshardware.de/Ryzen-9-9950X-CPU-280539/Tests/Release-Benchmark-Preis-kaufen-1453571/2/

Die Unterschiede sind enorm.

Grafikspachtel
2024-08-26, 13:10:04
Nur wenn dir die durchschnittlichen FPS wichtig sind. Willst du aber hohe 1%-FPS dann brauchst du eine sehr starke CPU. [...]
Die Unterschiede sind enorm.

Netter Versuch, hier dasselbe Bild in grün:
https://cdn1.picturebb.com/1/2024/08/26/b5Shy.png

downforze
2024-08-26, 13:20:09
Netter Versuch, hier dasselbe Bild

Voll Zustimmung. Bei einer "handelsüblichen" Auflösung wird zu 90% die GPU limitieren. Ausnahme vielleicht Anno. Hier sieht man es ja anhand der Ergebnisse, dass selbst eine 100€ CPU dem 7800 x3d nicht spürbar hinterherhängt.

Exxtreme
2024-08-26, 13:34:28
Netter Versuch, hier dasselbe Bild in grün:
https://cdn1.picturebb.com/1/2024/08/26/b5Shy.png
Voll Zustimmung. Bei einer "handelsüblichen" Auflösung wird zu 90% die GPU limitieren. Ausnahme vielleicht Anno. Hier sieht man es ja anhand der Ergebnisse, dass selbst eine 100€ CPU dem 7800 x3d nicht spürbar hinterherhängt.

Sorry, aber UHD ist schon nicht mehr handelsüblich sondern eine kleine Nische. Einfach mal die Hardware Steam Charts anschauen wenn ihr das nicht glaubt. Und dabei bitte bedenken, dass da ein großer Teil davon Laptops sind, die Spiele in dieser Auflösung gar nicht packen. Und ein zweites Problem ist: wenn die CPU limitiert dann könnt ihr nicht viel tun um sie zu entlasten. Schatten abschalten und Sichtweite stark verringern, viel mehr wirksame Möglichkeiten gibt es da nicht.

MiamiNice
2024-08-26, 13:36:33
Ich glaub die trollen nur. Die Zusammenhänge wurden schon 1000x auf dieser und allen anderen Webseiten verdeutlicht über die letzten 20 Jahre. Inklusive auslandener Foren Diskussionen rund um dieses Thema, jedes Jahr zum Weihnachtsfest.

Gast
2024-08-26, 13:42:34
Voll Zustimmung. Bei einer "handelsüblichen" Auflösung wird zu 90% die GPU limitieren. Ausnahme vielleicht Anno. Hier sieht man es ja anhand der Ergebnisse, dass selbst eine 100€ CPU dem 7800 x3d nicht spürbar hinterherhängt.

Man spielt aber nicht mehr nativ in 4k, sondern mit DLSS um high refresh Monitor auszunutzen, und schon reicht die CPU nicht mehr.

Wenn man sich mit zweistelligen Frameraten zufrieden gibt hast du natürlich größtenteils recht.

Locutus2002
2024-08-26, 14:04:39
Zudem stellen auch mehr Twitter-Nutzer Windows 11 mittels dieses Features grundsätzlich in Frage – was sich jedoch automatisch (erneut) mit dem Erfahrungswert verbinden läßt, dass für die meisten Anwender der Sprung zu Linux (vorerst) doch ein rein theoretischer bleibt.

Nicht vergessen: auf X tummeln sich die Vertreter der Social-Media-Bubble. Für die ist eine Abkehr von Windows (tendenziell) eher gleichbedeutend mit einem Wechsel zu macOS und nicht zu Linux! Im Gegensatz dazu ist 3DC nun mal Teil der Tech-Bubble, daher ist hier Linux der näherliegende Kandidat.

Kurz: Bei zwei stark heterogenen Nutzergruppen wie 3DC und X sind die Ergebnisse nur schwer vergleichbar.

bad_sign
2024-08-26, 14:12:53
Meanwhile AMD gibt Zen CPUs 10% mehr Performance mit Windows 24H2
Hardware Unboxed
https://www.youtube.com/watch?v=rlfTHCzBnnQ
Mal wieder ein PR Disaster für AMD, unfähig 100%ige Wins breitzutreten und Publik zu machen....

OpenVMSwartoll
2024-08-26, 14:46:50
Ein branch predictor schaut nicht nur 2 Schritte vorwärts.

2 Branches...

downforze
2024-08-26, 14:54:23
Sorry, aber UHD ist schon nicht mehr handelsüblich sondern eine kleine Nische. Einfach mal die Hardware Steam Charts anschauen wenn ihr das nicht glaubt. Und dabei bitte bedenken, dass da ein großer Teil davon Laptops sind, die Spiele in dieser Auflösung gar nicht packen. Und ein zweites Problem ist: wenn die CPU limitiert dann könnt ihr nicht viel tun um sie zu entlasten. Schatten abschalten und Sichtweite stark verringern, viel mehr wirksame Möglichkeiten gibt es da nicht.
Die Steamcharts bestehen zu 80% aus China mit ihrem League of Legends und Fortnite, wo jede igpu das schafft.
Handelsübliche Auflösungen sind für mich FullHD, WQHD und UHD. Unterhalb einer 4070 Super ist man selbst in FullHD im GPU-Limit.

Leonidas
2024-08-26, 15:16:17
Nicht vergessen: auf X tummeln sich die Vertreter der Social-Media-Bubble. Für die ist eine Abkehr von Windows (tendenziell) eher gleichbedeutend mit einem Wechsel zu macOS und nicht zu Linux! Im Gegensatz dazu ist 3DC nun mal Teil der Tech-Bubble, daher ist hier Linux der näherliegende Kandidat.

Kurz: Bei zwei stark heterogenen Nutzergruppen wie 3DC und X sind die Ergebnisse nur schwer vergleichbar.

Gute Erklärung. Aber so ungleich sind die Ergebnisse meistens nicht.

Exxtreme
2024-08-26, 15:40:45
Die Steamcharts bestehen zu 80% aus China mit ihrem League of Legends und Fortnite, wo jede igpu das schafft.
Handelsübliche Auflösungen sind für mich FullHD, WQHD und UHD. Unterhalb einer 4070 Super ist man selbst in FullHD im GPU-Limit.

Die Verkaufszahlen von MF sehen nicht viel anders aus als die Steam Charts. Wahrscheinlich hat der UltraGear 27GP850P-B dort mehr Verkäufe als alle UHD-Bildschirme zusammen.

Gast
2024-08-26, 15:45:46
Zen 5 ist gegenüber der alten Gen von Intel selbst unter Anwendungen zu teuer, und wird von Zen4 3d in Spielen klar geschlagen. Fragt man sich was dieser Blödsinn soll. Auch der Anwendungsverbrauch (gemittelt) ist nicht besonders gut. Erinnert mich an Bulldozer, niemand braucht es. Der ganze Hype den AMD im Vorfeld um die Spieleleistung veranstaltet hat, mein Gott und wie sie das im Nachgang begründen, was für eine Nebelkerzenverein. Alles zugenebelt, eine komplette Nebelkerzenorgie ist das.

Die haben wirklich an Wahrhaftigkeit verloren, was deren interne Testergebnisse angehen und viel Vertrauen verspielt. Hoffentlich wird dafür jemand zur Verantwortung gezogen. Aber die ganzen Ausreden und das später alles viel Besser wird kennt man schon. Nicht mal 40% von dem wird dann irgendwo ankommen, in Jahren siehe Vega. Einzig billig war es dann, aber das kann man von Zen5 absolut nicht behaupten. Schon Zen4 war eine Gelddruckmaschine mit dem ganzen PCIe5.0 Müll als Begründung, den bisher im Diy niemand braucht. Die Kosten der Plattform haben sich nahezu verdoppelt, teurer als Intel teilweise. Nun soll es USB4 richten.

Und wieder die Chance nicht genutzt um wirklich mal Anteile zu erobern und um Devs zu überreden auf AMD zu setzen, Intel lacht sich mit Arrow Lake eins. AMD lernt absolut nichts dazu, diese Schnarchnasen die da sitzen sind einfach unfähig. Da kannst du noch so gute Hardware entwickeln wollen.

Danke für die Übersicht. Lohnt sich komplett nicht zu solchen Preisen zu kaufen.

Grafikspachtel
2024-08-26, 15:54:02
Gefixt.
Dito.

https://cdn1.picturebb.com/1/2024/08/26/bthbw.png
Wer die Performanceunterschiede in 720p angibt, will völlig sinnfreie "Upgrade"käufe pushen.
Die "langsamste" CPU in dieser Liste ist keine 3% von der schnellsten entfernt.
Das ist kein Upgradegrund, das ist eine Farce.

Complicated
2024-08-26, 16:02:04
Damit ist sowieso der ganze Artikel inkl. Zahlen obsolet:
Wow, in Games +11% Performance auf einem 9700X und +10% bei einem 7700X mit dem Windows 11 24H2 Update (vs. 23H2):
https://www.youtube.com/watch?v=rlfTHCzBnnQ¨

downforze
2024-08-26, 16:06:49
Ich glaub die trollen nur. Die Zusammenhänge wurden schon 1000x auf dieser und allen anderen Webseiten verdeutlicht über die letzten 20 Jahre. Inklusive auslandener Foren Diskussionen rund um dieses Thema, jedes Jahr zum Weihnachtsfest.
Beim CB Test mit dem 7800x3d lag selbst mit einer 4090 bei 720p der Unterschied "nur" bei 20%.
Aber wer so seinen Post (deiner) beginnt, ... . Wenn ich in einem normalen Ton schreibe, kann ich auch eine normale Antwort erwarten.
Die Verkaufszahlen von MF sehen nicht viel anders aus als die Steam Charts. Wahrscheinlich hat der UltraGear 27GP850P-B dort mehr Verkäufe als alle UHD-Bildschirme zusammen.
Inwiefern hilft diese Information bei der Diskussion um das CPU Limit weiter?
Fakt ist: mit meiner 7800 XT kann ich statt dem aktuellen 5800 x3d auch den zukünftigen 9800 x3d raufschnallen und es wird die fps nicht verbessern.
Man spielt aber nicht mehr nativ in 4k, sondern mit DLSS um high refresh Monitor auszunutzen, und schon reicht die CPU nicht mehr.

Wenn man sich mit zweistelligen Frameraten zufrieden gibt hast du natürlich größtenteils recht.
Weil a)auch alle Spiele DLSS unterstützen und b)du den Standard festlegst oder was?
Die 144 Hz von meinem Monitor schaffe ich heutzutage nicht mal mit FSR2. Weil nichts mehr optimiert wird. Absolut zum Kotzen ist da die Unreal Engine. In EA WRC 2023 mit der Unreal Engine 4 habe ich in FullHD teilweise 25 (!) fps.

Aroas
2024-08-26, 16:08:02
Wer die Performanceunterschiede in 720p angibt, will völlig sinnfreie "Upgrade"käufe pushen.

Blödsinn.
Wenn man die Leistung einer CPU darstellen will, muss man sie nunmal ohne GPU Limit testen. Und das bedingt geringe Auflösung.

Was der Leser solcher Tests dann aus den Ergebnissen macht, ist allein seine Sache.

Außerdem kommt es immer auch auf das jeweilige Spiel an, inwieweit die CPU Performance eine größere oder kleinere Rolle spielt. Spieler von Titeln wie bspw. Stellaris sind teilweise ganz geil auf jedes Prozentchen mehr CPU Leistung.

MiamiNice
2024-08-26, 16:12:12
Beim CB Test mit dem 7800x3d lag selbst mit einer 4090 bei 720p der Unterschied "nur" bei 20%.
Aber wer so seinen Post (deiner) beginnt, ...

Tut mir leid, wirklich!
Aber zu diesem Thema gibt es einfach nichts mehr zu sagen oder zu schreiben.
Das wurde 100000ende Male bis zum Grundwasserlevel Erdkern durchgekaut, über Jahre hinweg (auf allen Techwebseiten dieser Welt und in jeder Sprache). Wer es bis heute nicht verstanden hat, trollt oder ist ahnungslos.
Sowohl Spachtel als auch Du seit Jahre dabei. Ahnungslosigkeit fällt damit wohl raus. Also bleibt nur trolling.

Aroas
2024-08-26, 16:15:49
Unterhalb einer 4070 Super ist man selbst in FullHD im GPU-Limit.

In den aktuellsten AAA Grafikkrachern vielleicht. Die Spielewelt besteht aber nicht nur aus solchen Produktionen, sondern bietet noch sehr viel mehr.
Vielleicht schaust du mal über deinen arg hohen Tellerrand des Enthusaisten Gamers hinaus und realisierst diesen Umstand.

downforze
2024-08-26, 16:17:46
Es bezweifelt niemand, dass man so CPUs testet, aber im realen Leben hat man denn eine höhere Auflösung, weil den Vorteil der CPU relativiert.

Aroas
2024-08-26, 16:23:32
Nochmal: Es gibt nicht nur Spiele, die GPU limitiert sind. Ist das denn so schwer zu kapieren?

Lehdro
2024-08-26, 16:31:18
Es bezweifelt niemand, dass man so CPUs testet, aber im realen Leben hat man denn eine höhere Auflösung, weil den Vorteil der CPU relativiert.
Nein.

Im realen Leben hat man Anwendungsfälle die eben nicht durch deine Sichtweise abgedeckt werden. CPU Leistung kannst du fast nicht substituieren durch Spiele-Settings. GPU Leistung hingegen schon.

Ich habe das schon mehrfach geschrieben, aber auch in heute gibt es diverse Fälle wo du selbst mit einem 14900KS/7800X3D "hangetuned" heftig in CPU Limits reinrennst - selbst bei >1440p. Diese Diskussion ist einfach komplett unnötig, weil die Gegenfraktion immer nur von den gleichen Datenpunkten ausgeht, die an sich schon "geglättet" sind. Games wie MMORPGs, non lineare Shooter (Multiplayer, Coop) oder diverse 4X sind unfassbar schwer reproduzierbar zu benchen, während Titel wie Anno zwar gut benchbar sind, allerdings auch eher weniger hohe FPS erfordern. Deswegen tauchen diese Games auch extrem selten in Benchmarks auf. Wer allerdings selber so etwas spielt, weiß, wie groß die Sprünge sein können (Beispiel: X3D in MMORPG Raids) oder wie groß die Sprünge sein müssten, damit die CPU "flott genug" ist (Beispiel Stellaris: it is never enough).

Da sind solche Luxusprobleme wie >60 FPS in "08/15" Shootern noch nicht einmal erwähnt.

downforze
2024-08-26, 16:31:21
Tut mir leid, wirklich!
Aber zu diesem Thema gibt es einfach nichts mehr zu sagen oder zu schreiben.
Das wurde 100000ende Male bis zum Grundwasserlevel Erdkern durchgekaut, über Jahre hinweg (auf allen Techwebseiten dieser Welt und in jeder Sprache). Wer es bis heute nicht verstanden hat, trollt oder ist ahnungslos.
Sowohl Spachtel als auch Du seit Jahre dabei. Ahnungslosigkeit fällt damit wohl raus. Also bleibt nur trolling.
Sorry, aber was ist das für ein arroganter Post? Bis jetzt hast du hier nichts argumentatives geliefert.
Mein Kenntnisstand ist folgender: CPU Limit, wenn ein oder mehrere Threads ausgelastet. Auflösung möglichst gering, um Abhängigkeit der GPU zu reduzieren. Details so wählen, wie bei höhere Auflösung gewünscht. Stimmt nun die "Grundperformance" gibt es keine Probleme.

Exxtreme
2024-08-26, 16:32:05
Inwiefern hilft diese Information bei der Diskussion um das CPU Limit weiter?
Fakt ist: mit meiner 7800 XT kann ich statt dem aktuellen 5800 x3d auch den zukünftigen 9800 x3d raufschnallen und es wird die fps nicht verbessern.


Das hilft deshalb weil das CPU-Limit kein theoretisches Konstrukt ist. Und dann hängt das auch noch von Spielegenres ab. Strategiespiele, Aufbauspiele, MMORPGs hängen an der CPU. Ein FF14 wird auch mit einer RTX 4090 zäh wenn sehr viele Spieler auf dem Bildschirm erscheinen. Und da rennt die Grafikkarte dann mit 30% Auslastung oder so. Weil schlicht die CPU nicht hinterherkommt.

MiamiNice
2024-08-26, 16:34:48
Es bezweifelt niemand, dass man so CPUs testet, aber im realen Leben hat man denn eine höhere Auflösung, weil den Vorteil der CPU relativiert.

Nur solange Du im GPU Limit bist und selbst das ist heute, dank RT, nicht mehr so klar. Auch gibt es Spiele die komplett im CPU Limit laufen (nicht nur Anno), es gibt Spiele die schanken zwischen CPU und GPU Limit je nach Szene.
Aber es ist müßig darüber zu sinnieren. Normalerweise müsste das jeder der sich für den Kram interessiert im Schlaf runterbeten können.

downforze
2024-08-26, 16:46:14
Das ist eine Frage der Wirtschaftlichkeit. Das GPU-Limit ist nunmal in deutlich mehr Spielen präsent. Da lohnt sich meiner Meinung nach der Wechsel nicht. Und schonmal gar nicht mit einer mittelprächtigen GPU.
Im Benchmark von Anno lagen zwischen den Generationen 15%. Viel schlimmeres als eine Großstadt in Anno dürfte es kaum geben.

Gast
2024-08-26, 17:00:24
https://docs.google.com/spreadsheets/d/1a7OWkeyHcdFgoQ395zmi7RlWluAKCv9bG_2silBQU5Q/edit?gid=0#gid=0
MLID AMD Accuracy

Geil. Danke für die Mühe Mr. Anon.
40 - 80 %. Also keine Menschen die echte, interne, geheime Leaks zugespielt bekommen, sondern nahezu alles nur geraten und erfunden.
Und 40 - 80 % auch nur deshalb, weil vieles von dem Erfundenem und Zusammenfewürfelten (sprichwörtlich aus dem Hintern gezogen), mit bereits etwas Verstand und aktuellem Wissen, selbsterklärend ist.

Oder anders ausgedrückt: Eine Youtube-Karriere als Entertainer könnte ich auch starten, und so tun als würde ich wöchentlich irgendwelche geheimen Leaks und Informationen zugespielt bekommen.
Dafür
1) lese ich einfach täglich die aktuellen Geschehnisse über Hardware, Industrie und co.
2) Schaue täglich bei 3dcenter ins Forum was intelligentere und wissende Menschen so über Hardware, Industrie und Technik schreiben
3) Reime mir (aus dem Hintern erfinden) daraufhin irgendwas eigenes zusammen wie
- "Bin mir 50 %, 40 %, 30 % sicher die nächste Intel CPU wird dies und jenes können"
- "Die nächte Nvidia-GPU wird 30 - 50 % schneller" (gaaaaanz weite Angaben, damit ich dann doch vllt. richtig liegen könnte)
etc. pp.

Oder anders ausgdrückt: So viel aus dem Hintern ziehen, dann man ab und zu doch mal korrekt liegt, und hinterher vorgeben kann man seie ein echter Leaker von geheimen, internen Informationen.
"Even a Broken Clock Is Right Twice a Day"
Sogar ein Youtube-Entertainer kann also so tun als habe er echte Leaks und so.


Also, was jeder mit halbwegs Verstand schon seit Jahren erkannt hat: Bullshit, Lügen, Erfindungen.
Ein Haufen von Entertainern die auf Youtube und co. mit Klicks und Werbung etc. Geld machen.

Genau wie (gefühlt) 90 % der Youtube Kanäle über Benchmarks, Betrüger und Fakes sind.
Von erfundenen Spielebenchmarks (einfach nur zusammengeschnittene Spielevideos), erfundene Benchmarkbalken, manipulierte Hardwareanzeigen (der Großteil von denen besitzt die Hardware gar nicht) etc. pp.

Echte "Leaker" erkennt man sofort. Die geben nur selten, dafür aber mit hoher Richtigkeit (> 90 %) die internen Informationen weiter.
Meistens auch nur relativ kurz vor Veröffentlichung eines Produktes.


Nun, loben kann man die Entertainer dennoch. Business halt. :-)

Gortha
2024-08-26, 17:35:59
Dämliche Disskussion seid Gedenken, ja....

Spiele wie ein Star Citizen oder andere CPU-Hungrige Spiele brauchen bzw. profitieren von jedem mehr an CPU-Performance. Auch in 4k!

Gast
2024-08-26, 17:59:26
RTX 4090 + Ryzen 5800X (15 % schneller als Stock, da händisch DDR4 getuned, samt OC + UV + PBO).
Gespielt unter 4K-UHD am Oled-TV 144 Hz.

So ein altes Spiel wie Mirror's Edge Catalyst (2016), schwankt aber dennoch jede Minute, nicht nur in Außenarealen, runter zwischen 100 - 120 fps.
Elden Ring genau so.
Redout 2 genau so.
Red Dead Redemption genau so.
Halo Infinite genau so.
Selbst bei Wolfenstein Colossus und Youngblood werden nur selten die 144 fps konstant gehalten.

Es sind nur grafisch sehr anspruchslose Spiele bei welchen auch eine GTX 1060, oder Spiele der letzten Konsolengeneration von den weltweit besten Spieleentwicklern (z.B. Doom Eternal oder Death Stranding), welche eine sehr gute CPU-Leistung aufweisen und nicht solch ein Verhalten an den Tag legen.

Bei nahezu jedem Spiel fallen ständig die 10 %, 1 %, 0.1 % FPS herunter.
Bildrate schwankend.
Gäbe es seit 10+ Jahren kein Adaptives Sync (G-Sync, Freesync), oder nunr HDMI VRR, wäre das Spielen echt eine Tortur.
Nie wieder zurück auf V-Sync + tripple buffering und hohen Latenzen ;-)

Nenene, CPU-Leistung ist nicht genug, und das bereits heute.

Ich lehne mich nicht weit aus dem Fenster uns sage dass zur nächsten Konsolengeneration (in 3 - 4 Jahren) selbst ein Ryzen 7800X3D bereits Alteisen sein wird.
Die lächerlich geringen 64 MB V-Cache werden limitieren.
Da geizt man bei AMD und will nicht mehr geben (dicke Taschen mit Produktmarge).
Das veraltete Packaging (wire copper bonding) mit dem veralteten Chipletdesign + I/O-die trägt bei Ryzen auch zu der miesen CPU-Spieleleistung bei.

Advanced Packaging wie bei Intel's Arrow Lake, RDNA 3, Mi300 und co. samt deutlich mehr Vache für X3D Prozessoren muss her, und zwar jetzt, sonst wird dies mit den schwankenden Bildrate und 10 %, 1 %, 0.1 % fps nie behoben.

Gast
2024-08-26, 18:13:36
Selbst bei Grafikkracher wie Cyberpunk 2077, bei welchen Tester "150 fps Durschnitt mit rtx 4090 unter 4K-UHD" angeben, fallen die 10 %, 1, 0.1 % fps ständing auf unter 100 %, selbst mit Ryzen 7800X3D herunter.
Bei einem Ryzen 5800X geht es halt ständig auf 60 - 100 Fps herunter ;-)
Die rtx 4090 ist also selbst bei einem Spiel von 2020 nie wirklich ausgelastet.
Eine rtx 4070/4080 hätte es unter 4K-UHD somit auch getan. ;-)

Dank Bildrekonstruktion (das nennt sich so, und nicht "Upscaling") wie DLSS 2/3, FSR 2/3 und Intels XeSS 1.2/1.3, verschiebt es sich auch weiterhin gen CPU-Limit.
Raytracing kann man abschalten um die GPU zu entlasten, um die CPU zu entlasten kann man wenig tun.


Das die meisten Grafikkracher-Spiele besser optimiert werden, wird nicht eintreten. Da mangelt es an Geld, Angestellten etc.
Es müssen also stärkere Prozessoren für Spiele her.

Alle 2 Jahre gibt es ein Plus von + 30 - 70 % Grafikkartenleistung für Spiele.
Alle 2 Jahre aber nur ein Plus von 10 - 25 % - ahem ahem, Zen5% - für Spiele.

Da liegt der Hund begraben.
Ob die Technik, das Design, die x86-64/AMD64 nicht größere Sprünge hergibt - mir egal.

Es muss mehr her, wie auch immer dies geschehen soll, k.A.
Werde dafür nicht bezahlt. Sollte doch möglich sein.
Advanced Packaging, mehr Vache - macht da was. Gier abschalten.

Ätznatron
2024-08-26, 18:15:41
Dämliche Disskussion seid Gedenken, ja....

Spiele wie ein Star Citizen oder andere CPU-Hungrige Spiele brauchen bzw. profitieren von jedem mehr an CPU-Performance. Auch in 4k!

Jau, und nicht nur Star Citizen oder Anno.

Sämtliche Flugsimulatoren, die ich kenne, ebenfalls. Allen voran X-Plane.

Allein dafür werde ich von einem 7800X3D auf mindestens einen 9800X3D aufrüsten.

So, wie ich damals von einem 5800X3D auf den 7800X3D gegangen bin, und das Tolle ist, es hat sich FPS-mäßig überaus gelohnt.

Gast
2024-08-26, 18:59:09
Allein dafür werde ich von einem 7800X3D auf mindestens einen 9800X3D aufrüsten.

Das wird keine Aufrüstung, der Unterschied ist kaum höher als die Messungenauigkeit.

Ätznatron
2024-08-26, 19:27:47
Das wird keine Aufrüstung, der Unterschied ist kaum höher als die Messungenauigkeit.

Wenn +20% in X-Plane im Rahmen der Messungenauigkeit liegen, dann hast du natürlich Recht.

Beim Aufrüsten vom 5800X3D auf den 7800X3D waren es etwa 20%. Wurde vorher auch als nicht spürbar oder als ohnehin vernachlässigbar klassifiziert.

Ähnliches verspreche ich mir von einem 9000X3D. Aber ich werde dann berichten,wie es in der Realität aussieht.

Gast
2024-08-26, 21:23:10
Wenn +20% in X-Plane im Rahmen der Messungenauigkeit liegen, dann hast du natürlich Recht.



Es werden eher <10% werden, und selbst 20% sind kaum wahrnehmbar.

Gast
2024-08-26, 22:24:12
Früher hat niemanden die Energieeffizienz interessiert.

Wenn wir in der BRD die selben Strompreise wie von vor 10 Jahren hätten, würde das niemanden jucken.

Heute wird die EE wie die Sau durchs Dorf getrieben.

Davon abgesehen lebt die Hälfte der User hier doch noch bei Mami & Papi, die schön brav den Strom bezahlen.

Umfrage 3DCenter:
Wer lebt noch bei Mami & Papi oder wer bezahlt den Strom selber.

Das Ergebnis würde mich bei der 3DCenter-Kundschaft schon interessieren.

Gast Ritis
2024-08-26, 22:50:42
https://docs.google.com/spreadsheets/d/1a7OWkeyHcdFgoQ395zmi7RlWluAKCv9bG_2silBQU5Q/edit?gid=0#gid=0
MLID AMD Accuracy

Geil. Danke für die Mühe Mr. Anon.
40 - 80 %. Also keine Menschen die echte, interne, geheime Leaks zugespielt bekommen, sondern nahezu alles nur geraten und erfunden.
Und 40 - 80 % auch nur deshalb, weil vieles von dem Erfundenem und Zusammenfewürfelten (sprichwörtlich aus dem Hintern gezogen)

Solche anonymen Google Tabellen gab es auch schon mal zu Jim von AdoredTV.
Bei genauer Betrachtung hat sich aber damals herausgestellt dass diese als falsche Leaks dargestellte Aussagen eher absichtlich missverstanden wurden um den Youtuber zu diskreditieren.

Die Frage ist letztlich wer macht sich so viel Mühe soetwas zu konstruieren. Die Youtuber nehmen anderen Medien die Kunden weg und nerven die Hersteller. Den BS der sonst in der Vergangenheit aus dem Marketing der Hersteller in Artikel übernommen wurde hat bisher nur noch niemand in Tabellen aufgearbeitet. ;D

Ätznatron
2024-08-27, 06:26:25
Es werden eher <10% werden, und selbst 20% sind kaum wahrnehmbar.

Wahrnehmbarkeit ist eine sehr individuelle Angelegenheit.

Und da jeder Frame zählt, wären selbst weniger als 10% für mich vollkommen akzeptabel.

WIr werden sehen.

Zossel
2024-08-27, 07:04:44
Dank Bildrekonstruktion (das nennt sich so, und nicht "Upscaling") wie DLSS 2/3, FSR 2/3 und Intels XeSS 1.2/1.3, verschiebt es sich auch weiterhin gen CPU-Limit.

Ich bevorzuge den Begriff "Halluzinationen".

Gast
2024-08-27, 15:47:22
Früher hat niemanden die Energieeffizienz interessiert.Das ist nicht korrekt.

Bei Gaming-PCs gilt das aber auch heute noch. Letztendlich fahren sie doch alle ihre möglichst leistungsfähige HW voll aus, statt mit max. fps/Watt Setting.

downforze
2024-08-29, 08:23:36
Zum Release des Prescott / Pentium 4 gab es Diskussionen zum Verbrauch.

Lehdro
2024-08-29, 08:28:21
Zum Release des Prescott / Pentium 4 gab es Diskussionen zum Verbrauch.
Ich kann mich noch an Athlons erinnern, die für den Verbrauch kritisiert wurden. Also die alten Thunderbirds, nicht die lowcost Namensschändungen...

Gast
2024-08-29, 10:33:25
Zum Release des Prescott / Pentium 4 gab es Diskussionen zum Verbrauch.


Und Tejas hat man der Welt vorenthalten, "weil man ja keine CPU die 150W braucht verkaufen kann" 😂

Leonidas
2024-08-29, 14:30:29
Andere Zeiten. Auf einen Ruck geht das nicht, das wäre zu unüblich gewesen. Aber wenn man stück-für-stück steigert, dann kann man locker zu 150W und mehr kommen. Wie Intel nachfolgend belegt hat.

Exxtreme
2024-08-29, 14:32:56
Ja. Damals gab es die Netzteile, die Stomversorgung der MoBos und auch die Kühler gar nicht her. Man hätte echt alles neu machen müssen.

MiamiNice
2024-08-29, 14:38:39
Früher hat niemanden die Energieeffizienz interessiert.

Wenn wir in der BRD die selben Strompreise wie von vor 10 Jahren hätten, würde das niemanden jucken.

Heute wird die EE wie die Sau durchs Dorf getrieben.

Davon abgesehen lebt die Hälfte der User hier doch noch bei Mami & Papi, die schön brav den Strom bezahlen.

Umfrage 3DCenter:
Wer lebt noch bei Mami & Papi oder wer bezahlt den Strom selber.

Das Ergebnis würde mich bei der 3DCenter-Kundschaft schon interessieren.

Wir sind hier nicht bei CB oder PCGH. Die meisten auf diesem Board sind 40+. Trotzdem zahlen viele Ihren Strom nicht selbst. Das nennt man Eigenheim mit Power Roof :wink:

Gast
2024-08-29, 15:29:52
Andere Zeiten. Auf einen Ruck geht das nicht, das wäre zu unüblich gewesen.

Prescott war ja auch schon um die 100W, so viel mehr wäre das jetzt auch nicht gewesen.

Die Steigerung von einer 125W "Normalität" auf 250W+ in den letzten Generationen war viel schneller und viel stärker.