Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 1. Dezember 2024


Leonidas
2024-12-02, 08:12:24
Link zur News:
https://www.3dcenter.org/news/news-des-1-dezember-2024

Exxtreme
2024-12-02, 08:27:51
Die Sektion "Files" listet Forums-Threads auf. Ich glaube, das ist nicht so gewollt. :)

Iscaran
2024-12-02, 09:59:21
Naja die CPU-Benchmarks sollten nicht strikt nach Zahl Threads gehen.

Wohl eher ist es immer noch so, dass die SINGLE-Thread Performance hier der limitierende Faktor ist.

Das erklärt nämlich auch den massiven Sprung von 7800 Ryzen zum 9800x3d...

86% Performance boost in wieviel CPU Generationen 5, 6 ? (vom 3700X zum 9800 X3?)
Dem gegenübergestellt wieviel single-Thread Leistung sind diese 5-6 Generationen?

Dazu noch den Takt-Zuwachs und man hat wohl 80% zwischen 3700X und 9800X3D...korrigiert mich wenn ich hier falsch schätze.

Gast
2024-12-02, 10:10:09
Zitat: "Ein Hersteller in derselben Situation wie "seinerzeit" AMD und nunmehr Intel sollte sich überlegen, ob man nicht eventuell einen "Relaunch-Tag" ansetzt, wo mehrere Hardwaretester gezielt mit neuen Performance-Resultaten anrücken."

Nein, AMD und Intel sollte einfach mal mit dem Launch von neuen Produkten warten, bis auch Firmware, Treiber und Software inklusive Betriebssystem fertig bzw. dafür angepasst sind. Produkt reift beim Kunden ist ja nun wohl das Allerletzte, da helfen dann auch keine "Relaunch-Tage" für so ein Fundamentalversagen.

Gast
2024-12-02, 10:21:05
Die Anzeichen hierfür sind allerdings als eher verhalten einzuschätzen, denn bis auf das Wort Intels, sich diesbezüglich bis zum Ende des Novembers bzw. Anfang des Dezembers zu äußern, gibt es da nichts konkretes. Dies sah bei Ryzen 9000 deutlich anders aus, wo schon in den Tagen nach dem Launch konkrete Ansätze zur Performance-Verbesserung innerhalb der Enthusiasten-Gemeinde besprochen wurden und einem Monat nach Launch schon einige neue Benchmarks existierten, welche klare Performance-Verbesserungen aufzeigen konnten.

Genau umgekehrt, bei Zen5 gab es zum Launch eine einzige sichtbare Performancebremse.

Bei Arrow-Lake gibt es dagegen mehrere potentielle Ansätze an denen Performance verloren geht.
Ob mehrere dieser Bremsen in Summe dann ein größeres Potential haben als jene bei Zen5 kann man freilich noch nicht wissen, unwahrscheinlich ist es aber nicht.

Gast
2024-12-02, 10:22:53
Wohl eher ist es immer noch so, dass die SINGLE-Thread Performance hier der limitierende Faktor ist.



Das wird sie auch immer bleiben, mehr Cores/Threads können nicht zu einer schnelleren Verarbeitung führen, man kann nur mehr gleichzeitig machen, aber das was man macht kann man nicht schneller machen.

Buchbichler
2024-12-02, 10:37:40
(Vergleich von Titan X vs GeForce RTX 5090 unter UltraHD)

Gibt es schon die ersten Benchmarks zur 5090? Wohl doch eher 4090

Iscaran
2024-12-02, 11:11:55
Das wird sie auch immer bleiben, mehr Cores/Threads können nicht zu einer schnelleren Verarbeitung führen, man kann nur mehr gleichzeitig machen, aber das was man macht kann man nicht schneller machen.

Dann sind aber die Benchmarks und Erklärungen etwas irreführend. Irgendwie wird da suggeriert der Boost käme durch die 32 Thread zustande (vs 12) bei den kleinen CPUs.

Und ja über die Problematik, dass der Throughput immer noch an der Single-Thread performance liegt brauchen wir nich zu reden.

Interessant ist allerdings, dass sich diese "Throughput" Problematik faktisch komplett genauso bei 4k zeigt wie bei den sonst von den Hardcore-CPU Testern zwanghaft angeführten 720p zeigen.

Wäre eigentlich interessant mal exemplarisch hier 720p mit 4k zu vergleichen

Also eben nebeneinander zu stellen. Ob man in 720p +- dieselben 86% erhält wie in 4k.

Fragt sich auch ob man da nun extra games gewählt hat, die eben auch in 4k nicht im GPU-Limit sind. So dass man diese Unterschiede eben sichtbar machen kann.

Badesalz
2024-12-02, 11:23:06
Nein, AMD und Intel sollte einfach mal mit dem Launch von neuen Produkten warten, bis auch Firmware, Treiber und Software inklusive Betriebssystem fertig bzw. dafür angepasst sind.
Den letzten Punkt verstehe ich nicht. Das mit 24H2 ist AMD so vom Himmel gefallen, weil M$ paar seiner coding fails :freak: im Kernel beseitigt hat. Das sind keine AMD-Patches gewesen :|

Was soll das auch für eine x86 Architektur sein, wenn man jedes Mal die Betriebssysteme dazu anpassen muss?? Und wer passt die Abermillionen an Anwendersoft an? Oder sollen das immer nur Betriebssysteme nötig haben? Warum?
Reden wir über Architekturen die der Benutzer jetzt unbedingt kaufen soll die aber nicht für das optimiert sind was der Benutzer grad benutzt? Nichtmal für den Unterbau? Ergibt das für dich Sinn?

Das wird sie auch immer bleiben, mehr Cores/Threads können nicht zu einer schnelleren Verarbeitung führen, man kann nur mehr gleichzeitig machen, aber das was man macht kann man nicht schneller machen.Es gibt tatsächlich ZWEI Arten von Parallelisierung. Was du meinst nennt der Fachmann auf Deutsch "Trivialparallel". Was du nicht meinst ist die andere Art. Das ist die von der du nicht glaubst, daß es sie gibt :usweet:

@Iscaran
Also von den FHD-Guys auf Steam rede ich nicht direkt, aber es gibt auch Millionen die in 1440 oder UWQHD spielen. Das 4k-Zeug ist eher so ein Nerdgamer Ding in der Forenwelt.

Gast
2024-12-02, 11:30:12
86% Performance boost in wieviel CPU Generationen 5, 6 ? (vom 3700X zum 9800 X3?)
[...]
Dazu noch den Takt-Zuwachs und man hat wohl 80% zwischen 3700X und 9800X3D.
Es sind 3 Generationen: 3700X ist Zen2, danach kam Zen3 (Ryzen 5k), Zen4 (Ryzen 7k) und jetzt Zen5 (Ryzen 9k). Die mobilen Derivate dazwischen sind ja meist nur Anpassungen, die würde ich nicht als neue Architektur bezeichnen.
Beim Takt sind es, je nach Takt Ansatz (Base oder Boost) 18-30% Unterschied. Der Rest ist Architektur und bessere Auslastung (3D-Cache).

Gast
2024-12-02, 11:56:17
>Performance-Plus von +548% erreichen (Vergleich von Titan X vs GeForce RTX 5090 unter UltraHD)

Ich komme bei 680% vs. 171% auf einen Faktor ~4, also gerade mal 298% Plus, und das bei 3840 vs. 16384 ALUs, Faktor 4,27 (bzw. 2,13 bei Berücksichtigung von Double Issue). Pro "Kern" also nur leicht besser bis erheblich schlechter als CPUs.

GerryB
2024-12-02, 12:11:39
G31 erst viel später!?
Intel könnte dann ruhig auf 3nm shrinken + Vram 15...18GB@GDDR7 mit den schnellen 3GB-Modulen nutzen.

Beides sollte zusammen die kritischen Watts einsparen können damit 2x 8pin reicht.

edit:
Wenn sich die heutigen Gerüchte zu N48 bewahrheiten dann braucht Intel den G31 gar nicht mehr bringen.

Gast
2024-12-02, 12:13:28
Ich finde die Aussagen im Artikel zur CPU Performance unseriös bzw. irreführend.

1. Warum nimmt man in der Tabelle Final Fantasy explizit raus aus den Ergebnissen? Das erweckt den Eindruck, dass man sich die Statistik für die eigene Aussagen zurecht biegt.
2. Warum nimmt man nur PCGH als Referenz? Techpowerup hat schon immer auch 4K Benchmarks zu CPUs und dort streuen die Ergebnisse bei weitem nicht so sehr. Klar widersprüchlich zu PCGH. Ich denke die Zahlen von PCGH sind nicht realistisch, um ehrlich zu sein, auch im Vergleich zu anderen Testern. Ich empfinde 3dcenter als zu nah an PCGH und es entstehen dadurch unseriöse bzw. falsche Aussagen, die sich nicht decken mit anderen Seiten.
3. Interessanterweise wird nicht darauf eingegangen ob man selbst im CPU Limit gut spielbare Frameraten hat. Bei Strategiespielen sind hohe FPS meist nicht nötig. Wozu dann eine neue CPU? Für den FPS Counter?
4. Der Artikel liest sich entsprechend so, dass man eine 500€ CPU braucht um gut zocken zu können. Eigentlich reicht ein 5600x für 100€ für 99,9% der Spiele aus.
5. Warum sollte man extra einen CPU Benchmark Parcour erstellen, abweichend von Grafikkarten? Die Frage ist doch mit welchen Settings und AAA Spielen heute aktuell gespielt wird und das gilt für einen PC allgemein. Andernfalls belegt man in Ausnahmefällen Aussagen zur CPU, die in der Praxis meist nicht relevant sind. Das ist schlichtweg irreführend.

Die goldene Regel lautet: PC upgraden wenn es ruckelt bzw. keinen Spass macht. Ansonsten FPS Counter ignorieren.

Gast
2024-12-02, 13:02:24
Den letzten Punkt verstehe ich nicht. Das mit 24H2 ist AMD so vom Himmel gefallen, weil M$ paar seiner coding fails :freak: im Kernel beseitigt hat. Das sind keine AMD-Patches gewesen :|




Microsoft hat das (langsamere) Verhalten nur wegen AMD eingebaut.
Den zeitlichen Ablauf wann/wie AMD MS mitgeteilt hat, dass dies warum auch immer nicht mehr notwendig ist können wir von außen nicht beurteilen.

nonharderware
2024-12-02, 13:26:47
2. Warum nimmt man nur PCGH als Referenz? Techpowerup hat schon immer auch 4K Benchmarks zu CPUs und dort streuen die Ergebnisse bei weitem nicht so sehr. Klar widersprüchlich zu PCGH. Ich denke die Zahlen von PCGH sind nicht realistisch, um ehrlich zu sein, auch im Vergleich zu anderen Testern. Ich empfinde 3dcenter als zu nah an PCGH und es entstehen dadurch unseriöse bzw. falsche Aussagen, die sich nicht decken mit anderen Seiten.


Ähm... "zu nah an PCGH"?
Es werden mit Quellen belegte Informationen analysiert.

Wo ist hier also eine "Nähe"?


4. Der Artikel liest sich entsprechend so, dass man eine 500€ CPU braucht um gut zocken zu können. Eigentlich reicht ein 5600x für 100€ für 99,9% der Spiele aus.


Ich denke 3Dc spricht einfach ein anderes Publikum an. Hier sind die Enthusiasten unterwegs, welche GENAU dies interessiert - zum Beispiel ich.


5. Warum sollte man extra einen CPU Benchmark Parcour erstellen, abweichend von Grafikkarten? Die Frage ist doch mit welchen Settings und AAA Spielen heute aktuell gespielt wird und das gilt für einen PC allgemein. Andernfalls belegt man in Ausnahmefällen Aussagen zur CPU, die in der Praxis meist nicht relevant sind. Das ist schlichtweg irreführend.


Wieso?
Weil du eine aktuelle Top-Grafikkarte in einen 8 Jahre alten PC stecken kannst - wenn PSU und Kompatibilität stimmen.

Somit ist es schon bedeutsam, wie sich der Rest in Bezug auf Grafik verhält.
Du testest bspw. mit einem 5000er Ryzen ja nicht nur die CPU, sondern auch die andere Speicheranbindung (DDR4) sowie das restliche Ökosystem PC.

Wie schon geschrieben: Du kannst eine der NextGen PCIe 5.0 Grafikkarten in einem i7-4770K mit DDR3 RAM betreiben ...


Die goldene Regel lautet: PC upgraden wenn es ruckelt bzw. keinen Spass macht. Ansonsten FPS Counter ignorieren.

Diese Leute werden aber wohl eher nicht die Stammleserschaft des 3Dc ausmachen ...

Gast
2024-12-02, 14:49:39
1. Ja, es wird aber oft nur auf PCGH als einzige Quelle verwiesen. Für ein Thema, dass in anderen Quellen seit Jahren bei jedem CPU Test analysiert wird.
2. Ich glaube nicht, dass jeder 3dc Leser eine 5K€ Gaming PC hat und auch andere Benutzer anspricht. Ich bin ein gutes Beispiel. Wenn du sowieso nur high-end kaufst, dann kauf es. Dann brauchst du auch nicht Tests lesen wie eine 8 Jahre alt CPU performt.
3. Ich glaube du hast das Problem nicht verstanden. Natürlich kannst du eine 4090 in einen alten PC stecken und das zu testen ist auch spannend. Es ist aber eben spannend diesen PC im allgemeinen Benchmark Parcour zu testen. Ich wüsste nicht warum man dafür einen extra Benchmark Parcour erstellt, den sowieso niemand zockt.

Leonidas
2024-12-02, 15:47:01
Die Sektion "Files" listet Forums-Threads auf. Ich glaube, das ist nicht so gewollt. :)

In der Tat nicht. Um eine Eingabe-Spalte verrutscht. Wurde gefixt.


86% Performance boost in wieviel CPU Generationen 5, 6 ? (vom 3700X zum 9800 X3?)

Wie im Text erwähnt: 3 Gens mehr.


Nein, AMD und Intel sollte einfach mal mit dem Launch von neuen Produkten warten, bis auch Firmware, Treiber und Software inklusive Betriebssystem fertig bzw. dafür angepasst sind.

Das ist natürlich noch besser.


Ich komme bei 680% vs. 171% auf einen Faktor ~4

Verglichen mit Titan X von Maxwell (3 Gens zurück, nicht 3 Gens insgesamt). Das sind 680% / 105%.


Ich finde die Aussagen im Artikel zur CPU Performance unseriös bzw. irreführend.

1. Warum nimmt man in der Tabelle Final Fantasy explizit raus aus den Ergebnissen? Das erweckt den Eindruck, dass man sich die Statistik für die eigene Aussagen zurecht biegt.
2. Warum nimmt man nur PCGH als Referenz? Techpowerup hat schon immer auch 4K Benchmarks zu CPUs und dort streuen die Ergebnisse bei weitem nicht so sehr. Klar widersprüchlich zu PCGH. Ich denke die Zahlen von PCGH sind nicht realistisch, um ehrlich zu sein, auch im Vergleich zu anderen Testern. Ich empfinde 3dcenter als zu nah an PCGH und es entstehen dadurch unseriöse bzw. falsche Aussagen, die sich nicht decken mit anderen Seiten.
3. Interessanterweise wird nicht darauf eingegangen ob man selbst im CPU Limit gut spielbare Frameraten hat. Bei Strategiespielen sind hohe FPS meist nicht nötig. Wozu dann eine neue CPU? Für den FPS Counter?
4. Der Artikel liest sich entsprechend so, dass man eine 500€ CPU braucht um gut zocken zu können. Eigentlich reicht ein 5600x für 100€ für 99,9% der Spiele aus.
5. Warum sollte man extra einen CPU Benchmark Parcour erstellen, abweichend von Grafikkarten? Die Frage ist doch mit welchen Settings und AAA Spielen heute aktuell gespielt wird und das gilt für einen PC allgemein. Andernfalls belegt man in Ausnahmefällen Aussagen zur CPU, die in der Praxis meist nicht relevant sind. Das ist schlichtweg irreführend.

1. Die anderen 6 waren CPU-limiert, FF16 hingegen rannte in eine Mauer, war seitens der PCGH eher das Gegenbeispiel.
2. Ausgewertet wurde das, was da lag. Das war keine generelle Betrachtung der Dinge, sondern die Betrachtung dieses einen Artikels.
4. Ich wollte eigentlich nur sagen, das es Unterschiede gibt. Ob man unbedingt eine 500€-CPU braucht, ist individuell (und wollte ich somit nicht sagen).
5. Wie gesagt: Wie lange überlebt ein nicht mit Gfx skalierendes Spiel in Grafikkarten-Benchmarks? Dort wird es auch herausgenommen werden.

Iscaran
2024-12-02, 16:21:06
Wie im Text erwähnt: 3 Gens mehr.


Ah OK...stimmt hatte vergessen dass AMD ja nur 3x, 5x, 7x und nun 9x released hat.

Trotzdem bin ich mir nicht sicher ob man im Fazit von einem so "generellen" CPU-Limit sprechen kann. Auch die ganze Darstellung der CPU-Leistung nach "Threads" wird gerade dem ganzen Problem nicht annähernd gerecht.

Eine kritische Betrachtung hätte sich doch mit dem Performance-Boost der Single-Thread leistung auseinadersetzen müssen.

Ggf. hat PCGh nur games getestet die "maximal" schlecht parallelisiert sind?
Usw. Gerade seitens breite CPU-Tests gibt es doch seit Jahren diese GameGPU Benchmark seite wo man anhand der Diagramme zumindest sehr gut die allgemeine Skalierung von CPU vs GPU ablesen kann. Da sieht man sehr oft dass man schon mit kleinen CPUs gegen die GPU Wand rennt.

IMHO eher wieder so ein PCGH-clickbait um teuere Hardware zu promoten.

GerryB
2024-12-02, 16:23:16
Warum hat PCGH nicht alle Gens mit gleichem RAM getestet und die interessanteste CPU, den 7600x3D weggelassen.
289€ sind derzeit nach m.E. der Sweetspot.(passend Dazu ein Test von CB)

leider auch bei () nur DDR5-5200 CL30
praktisch gibts ganz preiswert 6000-CL30 !?

Gast Ritis
2024-12-02, 16:58:24
Also wenn man die Verkäufe zu AMDs Top CPU sieht darf man davon ausgehen die meisten Käufer sind der Mär nicht aufgesessen in 4K wäre CPU fast egal.
Logisch geht es in jeder Auflösung um minimale Latenz je Berechnung.

Das Problem ist aber ein ganz anderes. Die Frage ob der 720er oder 1080er CPU Test einfach so für 4k den relativen Wert der CPU wiederspiegelt bleiben die LoRes Verfechter regelmässig schuldig.
Wo eine CPU mit möglichst hohem Takt in 720 mit zig hunderten FPS brilliert kann die womöglich in 4K mangels Cache Hits bei grösseren Assets den kürzeren ziehen. Und ja, natürlich sind die Abstände dann nicht mehr so extrem. Aber das will doch auch ein 4k Gamer sehen, und nicht für die Übertragbarkeit spekulieren müssen….
Und natürlich ist das Mass aller Dinge beim CPU Kauf die MinFPS. Man sollte den Durchschnitt getrost vergessen wenn man spielen und nicht benchen will.

Badesalz
2024-12-02, 17:24:00
Microsoft hat das (langsamere) Verhalten nur wegen AMD eingebaut.
Den zeitlichen Ablauf wann/wie AMD MS mitgeteilt hat, dass dies warum auch immer nicht mehr notwendig ist können wir von außen nicht beurteilen.Wow. Das knallt wohl richtig rein. Wenn du dir das doch anders überlegst melde dich bitte doch an und schreib mir eine PN wo du es her hast.

nonharderware
2024-12-02, 17:39:41
1. Ja, es wird aber oft nur auf PCGH als einzige Quelle verwiesen. Für ein Thema, dass in anderen Quellen seit Jahren bei jedem CPU Test analysiert wird.


Lies noch einmal meine Antwort, hier habe ich alles gesagt was von meiner Seite aus zu sagen ist.


2. Ich glaube nicht, dass jeder 3dc Leser eine 5K€ Gaming PC hat und auch andere Benutzer anspricht. Ich bin ein gutes Beispiel. Wenn du sowieso nur high-end kaufst, dann kauf es. Dann brauchst du auch nicht Tests lesen wie eine 8 Jahre alt CPU performt.


Siehst du, als Enthusiast interessieren mich eben genau solche "kuriosen" Themen.


3. Ich glaube du hast das Problem nicht verstanden. Natürlich kannst du eine 4090 in einen alten PC stecken und das zu testen ist auch spannend. Es ist aber eben spannend diesen PC im allgemeinen Benchmark Parcour zu testen. Ich wüsste nicht warum man dafür einen extra Benchmark Parcour erstellt, den sowieso niemand zockt.

Glaube was du willst, dies hat für mich keine Relevanz.

Lehdro
2024-12-02, 18:42:17
Das Problem ist aber ein ganz anderes. Die Frage ob der 720er oder 1080er CPU Test einfach so für 4k den relativen Wert der CPU wiederspiegelt bleiben die LoRes Verfechter regelmässig schuldig.
Wo eine CPU mit möglichst hohem Takt in 720 mit zig hunderten FPS brilliert kann die womöglich in 4K mangels Cache Hits bei grösseren Assets den kürzeren ziehen. Und ja, natürlich sind die Abstände dann nicht mehr so extrem. Aber das will doch auch ein 4k Gamer sehen, und nicht für die Übertragbarkeit spekulieren müssen….

So ein Unfug. Solange du nicht an dem Seitenverhältnis, FOV, LOD oder ähnlichem rumspielst, ist der CPU die Auflösung egal. Diese berechnet die Gamelogik und ist nicht mit Texturieren o.ä. beschäftigt. Der Gegenbeweis ist einfach zu erbringen, nimm ein Spiel welches auch in 4k rein gar nicht an der GPU hängt: Es wird immer im selben CPU Limit hängen, egal welche Auflösung. Ich empfehle dir Stellaris. Da kannst du auch in 16K 1A ins selbe CPU Limit rasseln wie in 720p, während deine GPU in beiden Fällen Mittagsschlaf hält.

Gast
2024-12-02, 20:05:25
Lies noch einmal meine Antwort, hier habe ich alles gesagt was von meiner Seite aus zu sagen ist.



Siehst du, als Enthusiast interessieren mich eben genau solche "kuriosen" Themen.



Glaube was du willst, dies hat für mich keine Relevanz.

Ich lese deine Antwort nicht nochmal. Die verstehst du vermutlich selbst nicht und meine Argumente kannst du immer noch nicht widerlegen. Zwecklos mit dir zu diskutieren.

Gast
2024-12-02, 20:17:06
Warum hat PCGH nicht alle Gens mit gleichem RAM getestet und die interessanteste CPU, den 7600x3D weggelassen.


Weil das die von den Herstellern garantierte Frequenzen sind, alles darüber ist OC, kann funktionieren muss aber nicht.

Gast
2024-12-02, 20:29:34
1. Die anderen 6 waren CPU-limiert, FF16 hingegen rannte in eine Mauer, war seitens der PCGH eher das Gegenbeispiel.
2. Ausgewertet wurde das, was da lag. Das war keine generelle Betrachtung der Dinge, sondern die Betrachtung dieses einen Artikels.
4. Ich wollte eigentlich nur sagen, das es Unterschiede gibt. Ob man unbedingt eine 500€-CPU braucht, ist individuell (und wollte ich somit nicht sagen).
5. Wie gesagt: Wie lange überlebt ein nicht mit Gfx skalierendes Spiel in Grafikkarten-Benchmarks? Dort wird es auch herausgenommen werden.

Wenn 3dc ein objektive Seite sein sollte, dann sollten auch andere Quellen hinzugezogen werden. Zumindest in einer der folgenden News. Ansonsten bleibt beim Leser der Eindruck, dass bevorzugt und ungefiltert PCGH Inhalte geteilt werden, was somit einer objektiven Betrachtung der Dinge nicht entspricht.

Ich denke es sollten einfach aktuelle Games hinzugezogen werden für Benchmarks. Es sollte nicht darum gehen selektiv einzelne Benchmarks zu suchen, die Hardware schlecht aussehen lässt. Weil das nicht repräsentativ ist und auch die Frage gestellt werden sollte, ob das nicht auch am Spiel selbst liegt, weil es schlecht optimiert wurde und eine Ausnahme ist. Wenn es sich rausstellen sollte, dass 90% der neuen Games auch mit alten CPUs prima laufen, warum soll man nicht diese Aussage einfach machen? Entsprechend bleibe ich bei meiner Meinung: Artikel und News sind irreführend.

Ich lese 3dc eigentlich echt gerne aber manchmal steht da einfach ungefilterte Grütze in den News.

Badesalz
2024-12-02, 22:16:58
Also wenn wir damit anfangen, daß MS das nur auf den Wunsch von AMD einbaute und dann auf deren Wunsch entfernte, dann weiß ich wie ich mit der Kritik an PCGH umgehen soll :uup:

MiamiNice
2024-12-02, 22:38:05
Logischerweise ist die Performance-Skalierung nicht ganz so prall wie im Grafikkarten-Bereich. Zwischen Ryzen 7 3700X und 9800X3D stehen drei neue Zen-Generationen, dafür sind +86% jetzt auch nicht übermäßig viel. Bei Grafikkarten konnte nVidia beispielsweise innerhalb von drei weiteren Generationen ein Performance-Plus von +548% erreichen (Vergleich von Titan X vs GeForce RTX 5090 unter UltraHD).

Grafikdetails kann man runter stellen um auf brauchbare FPS zu kommen. Man kann DLSS und CO. zuschalten um auf brauchbare FPS zu kommen. Wenn die CPU zu langsam ist, und das ist sie in 95% der "Gaming PCs" da draußen, machst Du einfach gar nichts mehr. Eine schnelle CPU ist das A und O eines Gaming PCs. CPU Power lässt sich nicht so einfach steigern wie bei der GPU paar Einheiten mehr verbauen. Single Thread ist das Maß der Dinge und jede 10% sind deutlich mehr wert als eine neue GPU Gen. Wissen nur die meisten nicht :biggrin:
Ich häme ja oft die PCGH, aber das ist mal ein toller Artikel :up:
Ist nur schade das er unter den Tisch diskutiert wird, hier könnten viele etwas mitnehmen.

Lehdro
2024-12-02, 23:20:27
Ist nur schade das er unter den Tisch diskutiert wird, hier könnten viele etwas mitnehmen.
Die Leute wollen es einfach nicht wahrhaben. CPU Power kann man nur in sehr begrenzten Maße substituieren. Ist halt einfach so.

GerryB
2024-12-02, 23:46:26
Definiere begrenzt!?

ab so ca. 45...50fps nativ ist FG schon in vielen Games nützlich, ... als CPU-Substitute
(nichtkompetive langsame Singleplayer-Games als CPU-Test sagen mir gar nix)

Bei Shootern oder Racing wirds dann interessant.
siehe S2

MiamiNice
2024-12-03, 00:02:21
Mit FG on machst Du Dir Deine Spielerfahrung eher kaputt. Die Latenz (Inputlag) sinkt nicht, sondern steigt ggf. leicht. Ja, dann kommt Reflex oben drauf wenn vorhanden, trotzdem imo kein Lösung (ohne FG und Reflex noch weniger Latenz). Man will exakt das Gegenteil davon haben. Gerade Shooter und Renngames, die man gerne online spielt. Da lieber weniger FPS und G-Sync.

Lehdro
2024-12-03, 00:13:02
Definiere begrenzt!?

Latenz zauberst du halt nicht weg im CPU Limit. Von ~50 FPS ausgehend wäre mir FG zu wenig, es sei denn es trifft nur die Lows die du anders nicht weg kriegst. Aber im Durchschnitt willst du es schon dreistellig haben, damit die FG Latenz quasi egal ist. Da rede ich aber noch nicht von hochkompetitiven Shootern, da willst du generell keine extra Latenz.

Wenn die Basis zu niedrig ist hilft auch kein FG. Sieht dann vielleicht flüssig aus, spielt sich aber wie sich ein Bad im Schlamm anfühlt: Träge.

ryan
2024-12-03, 02:03:12
Anders formuliert könnten somit die früheren hochfliegenden Gerüchte über höhere Einheiten-Anzahl oder/und einen fetten Zusatz-Cache durchaus korrekt gewesen sein


Es war eine Version mit 40 Xe Kernen und 500+ MB Adamantine Cache geplant.

Leonidas
2024-12-03, 03:46:24
Das Problem ist aber ein ganz anderes. Die Frage ob der 720er oder 1080er CPU Test einfach so für 4k den relativen Wert der CPU wiederspiegelt bleiben die LoRes Verfechter regelmässig schuldig.

Das stimmt. Hier ist noch eine klare Wissenslücke.

Leonidas
2024-12-03, 03:49:33
Wenn 3dc ein objektive Seite sein sollte, dann sollten auch andere Quellen hinzugezogen werden. Zumindest in einer der folgenden News. Ansonsten bleibt beim Leser der Eindruck, dass bevorzugt und ungefiltert PCGH Inhalte geteilt werden, was somit einer objektiven Betrachtung der Dinge nicht entspricht.

Das hast Du Recht. Leider gibt es zu wenige Benchmarks, die für das Thema wirklich passend wären. Die von Dir genannten TPU-Benchmarks sind derart schwach skalierend (selbst unter 1080p), dass ich sie im CPU-Bereich nicht besonders gern verwende.


Ich lese 3dc eigentlich echt gerne aber manchmal steht da einfach ungefilterte Grütze in den News.

Aber schön zumindest, dass man das hier sagen kann - und ich es Dir nicht einmal übelnehme, sondern als Kritik einbuche.

GerryB
2024-12-03, 07:57:21
Latenz zauberst du halt nicht weg im CPU Limit. Von ~50 FPS ausgehend wäre mir FG zu wenig, es sei denn es trifft nur die Lows die du anders nicht weg kriegst.

Jo, die Lows sind gemeint.
In S2 kommt ne 4090 selbst mit nem 9800x3D nicht vom Fleck.

Man müsste es jetzt mal genauer "subjektiv" testen, ob NV ab 45/90fps mit FG schon rund läuft, ... und AMD erst ab 50/100fps.
(die offiziellen Statements mit 60/120fps treffen nach m.E. nicht auf jedes Game zu)


ansonsten
Für eher gemütliche Singleplayergames würde ich vllt. die Frametimevarianz noch anschauen (ala Igor).
Könnte mir vorstellen, das ein Fps-Limit mit 5fps weniger maxFps den subjektiven Sprung von max auf min etwas glättet,
weil das Auge nur den Unterschied zw. 2 aufeinanderfolgenden Frames wahrnimmt und nicht so sehr die absoluten Werte.

Gast
2024-12-03, 12:25:52
Die von Dir genannten TPU-Benchmarks sind derart schwach skalierend (selbst unter 1080p), dass ich sie im CPU-Bereich nicht besonders gern verwende.

Darf ich fragen wieso? Nur weil sie schwach skalieren, müssen sie nicht falsch
oder schlecht sein. Dann ist es nun mal so, dass auch langsame Prozessoren hohe Frameraten erzeugen.

Badesalz
2024-12-03, 12:35:58
Darf ich fragen wieso?Die fallen so auffallend ;) bei angeblich ähnlichen Settings aus der Reihe, daß ich auch schon überlegt habe was er da eigentlich bencht.
Und er bencht zu allermeist grundsätzlich nur AVG. Selbst also wenn das alles irgendeine Art von Richtigkeit hätte, wäre es immernoch irrelevant.

Bist du jetzt von der Testtechnik dahinter so überzeugt - mal was aus dem Nähkästchen erzählen? - oder möchtest du das nur beachten sehen, weil deren Ergebnisse gut in deinen Kram passen? Wie wäre es, mittlerweile, wenn du einfach bisschen durch paar Foren streifst und dir anschaust was UMsteiger so erzählen? Da gibts nicht nur Jubelperser und Fähnchen im Winde, aber das Bild ist tatsächlich eher recht klar.

Gehts dir überhaupt um die Abbildung der Realität oder um eine publikumswirkamere Darstellung deiner persönlichen Ansichten? Interessen? Die Frage nach den Beweggründe wäre ggf. zulässig? Solange jedenfalls es nicht um einen ausgeprägten Gerechtigkeitssinn geht...

Gast
2024-12-03, 12:55:38
Wow. Das knallt wohl richtig rein. Wenn du dir das doch anders überlegst melde dich bitte doch an und schreib mir eine PN wo du es her hast.

Das war eine verdammte Spectre-Mitigation, die baut man nicht aus Spaß ein.

Gast
2024-12-03, 12:56:59
Wenn 3dc ein objektive Seite sein sollte, dann sollten auch andere Quellen hinzugezogen werden. Zumindest in einer der folgenden News. Ansonsten bleibt beim Leser der Eindruck, dass bevorzugt und ungefiltert PCGH Inhalte geteilt werden, was somit einer objektiven Betrachtung der Dinge nicht entspricht.

Man sollte hochwertige Quellen verwenden, besser Klasse statt Masse, und von diesen gibt es nun mal nicht wirklich viele.

Gast
2024-12-03, 12:59:57
Latenz zauberst du halt nicht weg im CPU Limit. .

Im CPU-Limit hast du "natürlicherweise" eine niedrige Latenz, 50FPS im CPU-Limit sind wesentlich besser als die selben 50FPS im GPU-Limit.

Badesalz
2024-12-03, 13:08:04
Das war eine verdammte Spectre-Mitigation, die baut man nicht aus Spaß ein.Boah hah :rolleyes: Was hat nochmal besonders AMD damit zu tun? die waren nur von V1 betroffen. Intel (und ARM) von V1 und V2.

M$ hat den Code für und wegen AMD verwurstelt? Ja. Klar.

Gast
2024-12-03, 13:16:15
Die fallen so auffallend ;) bei angeblich ähnlichen Settings aus der Reihe, daß ich auch schon überlegt habe was er da eigentlich bencht.
Und er bencht zu allermeist grundsätzlich nur AVG. Selbst also wenn das alles irgendeine Art von Richtigkeit hätte, wäre es immernoch irrelevant.

Bist du jetzt von der Testtechnik dahinter so überzeugt oder möchtest du das nur beachten sehen, weil deren Ergebnisse gut in deinen Kram passen? Wie wäre es, mittlerweile, wenn du einfach bisschen durch paar Foren streifst und dir anschaust was UMsteiger so erzählen? Da gibts nicht nur Jubelperser, aber das Bild ist eher recht klar.

Gehts dir um die Abbildung der Realität oder um eine publikumswirkamere deiner persönlichen Ansichten?
Die Frage nach den Beweggründe wäre ggf. zulässig? Solange jedenfalls es nicht um einen ausgeprägten Gerechtigkeitssinn geht...


Ich habe bei aktuell 2 Gaming PCs. Einmal einen X5660 (entsprechend dem ersten I7 980) auf 3,8 GHz mit RTX3070 und einen anderen PC mit einem Ryzen 3600 und einer RTX 3060TI. Gezockt wird jeweils auf 4K Fernsehern, meist auch in 4K oder QHD. RAM haben beide jeweils 32 GB.

Im 2. PC war bis vor kurzem noch ein 1600x drin. Der X5660 wird spätestens nächstes Jahr ausgemustert, weil er keinen Support für Win11 hat und ich auch nicht durch Tricks Win 11 installieren möchte. Zusätzlich unterstützt der X5660 kein AVX. Dadurch starten manche Spiele schon nicht mehr. Wenn die Spiele starten, war die CPU selten ein Bottleneck bzw. die Games liefen flüssig. Selbst VR Games auf der Quest 2 kann ich mit PC1 spielen und es ist immer die GPU limitierend. Bei Jagged Alliance 3 gab es z.B. auch keine Probleme mit der uralt CPU. Da hat auch die Grafikkarte limitiert.

PC1 hat eine ca. 10% schnellere Grafikkarte. PC2 eine gut 50% schnellere CPU. Dennoch laufen 90% der Games und Benchmarks eben diese 10% besser auf PC1. Habe ich beide schon mehrfach verglichen. Die CPU Auslastung ist auf PC1 immer höher aber es reicht eben noch für mehr FPS dank schnellerer Grafikkarte. Ausnahmen sind schlecht optimierte Games, die 1 Kern auslasten. Das Upgrade vom 1600x auf 3600 war teilweise spürbar bei Min FPS in einzelnen Games aber nicht dramatisch.

Um deine Frage zu beantworten: Den Hype um schnelle Gaming CPUs kann ich aus meiner Gaming Erfahrung überhaupt nicht bestätigen. Vielleicht spiele ich auch nur die "falschen" Spiele oder konfiguriere mein System effizient, mit wenig Hintergrunddiensten etc.

Gast
2024-12-03, 13:21:23
Boah hah :rolleyes: Was hat nochmal besonders AMD damit zu tun?


Vielleicht, dass Spectre-Mitigations CPU-Architekturspezifisch sind und AMD die einzigen sind, die wissen können was für ihre CPUs notwendig ist?


die waren nur von V1 betroffen. Intel (und ARM) von V1 und V2.


Spectre ist ein klein wenig komplizierter um es auf V1 und V2 zu reduzieren.


M$ hat den Code für und wegen AMD verwurstelt? Ja. Klar.

MS hat nichts verwurstelt, die haben das gemacht was AMD angeschafft hat.

Leonidas
2024-12-03, 14:10:21
Darf ich fragen wieso? Nur weil sie schwach skalieren, müssen sie nicht falsch
oder schlecht sein. Dann ist es nun mal so, dass auch langsame Prozessoren hohe Frameraten erzeugen.

Andere Reviews kommen mit selbigen Methodiken auf größere Unterschiede. TPU skaliert auch unter 720p mit am schlechtesten. Das sind keine falschen Ergebnisse, aber das Benchmark-Portfolio passt wohl schlecht zu CPU-Test. Eventuell sind auch die benutzten Testsequenzen dafür nicht geeignet (dieselben wie beim GPU-Test, möglicherweise).

Gast
2024-12-03, 14:46:09
Den letzten Punkt verstehe ich nicht. Das mit 24H2 ist AMD so vom Himmel gefallen, weil M$ paar seiner coding fails :freak: im Kernel beseitigt hat. Das sind keine AMD-Patches gewesen :|


Das sind Firmen, die reden vorher über nicht veröffentlichte Produkte und stimmen sich ab. 24H2-Entwickler-Builds gab es Monate vor Ryzen-9000-Start. Da hätte AMD das auffallen müssen, dass sich da Messwerte widersprechen. Und dann Microsoft kontaktieren bzw. den Launch verschieben.


Was soll das auch für eine x86 Architektur sein, wenn man jedes Mal die Betriebssysteme dazu anpassen muss??

Das gilt für alle Architekturen und Betriebssysteme. Es gibt ständig Befehlssatzerweiterungen oder neue Konzepte wie Hybrid-CPUs. Deshalb gibt es ja auch ständig neue Compiler, damit man das in der Software nutzen kann. Und Betriebssysteme sind auch nur Software.

Und wer passt die Abermillionen an Anwendersoft an?

Die Hersteller, das ist deren Job.

Oder sollen das immer nur Betriebssysteme nötig haben? Warum?

Hab ich nirgends geschrieben.

Reden wir über Architekturen die der Benutzer jetzt unbedingt kaufen soll die aber nicht für das optimiert sind was der Benutzer grad benutzt? Nichtmal für den Unterbau? Ergibt das für dich Sinn?


Das ist keine Einbahnstraße. Keine Software ohne Hardware und keine Hardware ohne Software. AMD, Intel, Microsoft, Qualcomm und alle anderen müssen halt miteinander reden. Notfalls muss man halt Industriekonsortien wie bei USB gründen um sich abzustimmen. Wenn jeder sein eigenes Süppchen kocht, kommt dann halt solche vermurksten Launches heraus. Inkompetenz war noch nie eine Entschuldigung. Sorry, aber die wollen mein Geld für Ihre Produkte. Dann sollen sie bitteschön vorher ihre Hausaufgaben machen.

Badesalz
2024-12-03, 19:12:54
Um deine Frage zu beantworten: Den Hype um schnelle Gaming CPUs kann ich aus meiner Gaming Erfahrung überhaupt nicht bestätigen. Vielleicht spiele ich auch nur die "falschen" Spiele oder konfiguriere mein System effizient, mit wenig Hintergrunddiensten etc.Ich weiß nicht was ich davon halten soll. Was würde das eigentlich bedeuten, wenn man die Berichte der Kollegen hier im 9000 Reviewthread verfolgt? Warum sollten sie den Rest zum Narren halten wollen? :freak:

Eventuell sind auch die benutzten Testsequenzen dafür nicht geeignet (dieselben wie beim GPU-Test, möglicherweise).Imho am wahrscheinlichsten.
Wenn man nach TPU geht braucht ein Enthusiast seit 4-5 Jahren keine neue CPU. Als Reviewer etc. garnicht mal so schlecht, aber einfach als Bencher sind sie für mich ungeeignet.

Gast
2024-12-03, 21:31:29
Andere Reviews kommen mit selbigen Methodiken auf größere Unterschiede. TPU skaliert auch unter 720p mit am schlechtesten. Das sind keine falschen Ergebnisse, aber das Benchmark-Portfolio passt wohl schlecht zu CPU-Test. Eventuell sind auch die benutzten Testsequenzen dafür nicht geeignet (dieselben wie beim GPU-Test, möglicherweise).

Wenn du mir erklärt wie du im worst case Szenarien ermittelte 0,1 oder 0,01 % Pertencile auf die allgemeine Spieleperformance überträgst wäre ich dir dankbar. Ein Spiel läuft nicht immer im worst case.

Ehrlich, du schreibt in letzter Zeit so viel Mist hier, nur um diesen Blödsinn von CB und PCGH zu verteidigen, dabei bist du dir nicht zu schade und wirfst anderen Redaktionen vor sie würden falsch testen. Kennst du überhaupt das Klientel anderer Redaktionen und wenn sie mit ihren Tests ansprechen wollen?

Die Szenen die PCGH verwendet sind worst case Szenarien das beschreiben Sie selbst, das gibt also die allgemeine Performance einer CPU überhaupt nicht wieder sondern nur wie sich sich im worst case verhält.

Das ist übrigens das gleiche Problem wie du Verkaufszahlen von MF auf das komplette Marktgeschehen extrapolierst und behauptest das wäre relevant.

Testszenarien dienen dazu festzustellen, wie eine CPU unter diesen Testszenarien agiert, sie geben in diesem Fall nicht in vollem Umfang wieder, wie sich eine CPU in NICHT worst case Szenarien verhält.

Wenn du dir eine neue CPU für die 5 oder 10% worst case in Spielen zulegen willst und die 7% die sie dann gegenüber älteren Modellen schneller ist (ich behaupte mal ganz frech, das merkt im laufenden Spiel kein Mensch), dann tut das einfach. Andere bedienen einfach Regler und gut. Leite davon aber nicht ab was der Markt der sich weniger dafür interessiert, schlussendlich braucht und schreibt anderen nicht vor, wie sie zu testen hätten und bezeichnet es nicht als falsch weil es nicht euer Weltbild passt. Das ist so ungeheuerlich frech, man glaubt es kaum.

Deine Analysen basieren zum Teil auf so unterschiedlichen Szenarien, daraus kann man nie und nimmer etwas Gehaltsvolles ableiten. Der Großteil deiner Erläuterungen sind dabei einfach nur Spekulationen, ohne die Hintergründe dazu genau zu kennen und deren Absichten auf einer Art Oberlehrerniveau.

Achso ja, ihr braucht das wieder nicht zu veröffentlichen, wegen dem fehlenden Level eurer Kritikfähigkeit.

Gast
2024-12-04, 00:38:02
Wenn du mir erklärt wie du im worst case Szenarien ermittelte 0,1 oder 0,01 % Pertencile auf die allgemeine Spieleperformance überträgst wäre ich dir dankbar. Ein Spiel läuft nicht immer im worst case.

Zuerst müsste man Mal die Windows Threads von denen die ein Spiel braucht trennen, das geht überhaupt nicht. Daher sind diesen ganzen
Test einfach nur für die Mülltonne. Da können pro sec zig Threads des Betriebssystems das Ergebnis nachhaltig beeinflussen, was auch Architekturen völlig anders verarbeiten. Nur weil um die Ausführung der gleichen Codebasis geht, muss das Ergebnis dabei nicht gleich ausfallen.

Wenn dann sind die Reviews womöglich ein Anhaltspunkt aber niemals etwas genaues, wo man Leistung oder Mehrleistung zielgerichtet abbilden kann, das gilt im Übrigen für alle diese Reviews. Ich habe diesen ganzen Unsinn schon immer angezweifelt. Mittlerweile verkaufen die Hersteller diesen Trend als Verkaufsargument gleich mit. Das ist so schwammig und ungenau, naja wers braucht.

Man sollte sich ganz klar damit selbst auseindersetzen und es in seinem speziellen Anwenderumfeld austesten. Alles andere macht überhaupt keinen Sinn. Ein Spiel kann dabei von vielen anderen Dingen im Hintergrund beeinflusst werden und man bekommt nicht alle auf ein Minimum reduziert.

Diese Reviews sind zum grossen Teil einfach Blendwerk, finanziert über Wohlwollen und Werbung als Gelddruckmaschine für alle Beteiligten.

Leonidas
2024-12-04, 03:33:36
Werbung als Gelddruckmaschine für alle Beteiligten.

Bezweifele ich doch stark. Vielleicht unter YouTube bei den allergrößten YouTubern. Aber beim geschriebenen Wort? Eher nicht.

Gast
2024-12-04, 08:31:08
Das sind Firmen, die reden vorher über nicht veröffentlichte Produkte und stimmen sich ab. 24H2-Entwickler-Builds gab es Monate vor Ryzen-9000-Start. Da hätte AMD das auffallen müssen, dass sich da Messwerte widersprechen. Und dann Microsoft kontaktieren bzw. den Launch verschieben.

Das ist ihnen nicht aufgefallen, weil AMD, nur als Admin testet und dort die Mitigations nicht aktiv sind.

Das Groteske ist ja, AMD hätte das schon Jahre vorher auffallen müssen, Zen4 ist ja genauso betroffen.

Gast
2024-12-04, 10:22:31
Das ist ihnen nicht aufgefallen, weil AMD, nur als Admin testet und dort die Mitigations nicht aktiv sind.

Das Groteske ist ja, AMD hätte das schon Jahre vorher auffallen müssen, Zen4 ist ja genauso betroffen.

Exakt, das ist pure Inkompetenz für einen Multimilliarden-Konzern. Goldene Regel: Man testet für Benchmarks immer so, wie die Anwender Hard- und Software benutzen und nicht im Developer-, Admin- oder Sonstwas-Spezialmodus.

Exxtreme
2024-12-04, 12:38:28
Exakt, das ist pure Inkompetenz für einen Multimilliarden-Konzern. Goldene Regel: Man testet für Benchmarks immer so, wie die Anwender Hard- und Software benutzen und nicht im Developer-, Admin- oder Sonstwas-Spezialmodus.

Da das den Anwendern nicht aufgefallen ist, war das wiederum auch nicht so schlimm.

Gast
2024-12-04, 15:56:07
Da das den Anwendern nicht aufgefallen ist, war das wiederum auch nicht so schlimm.

Die hatten die Ryzen-9000-CPUs ja auch noch gar nicht. Aufgefallen ist es aber den Hardware-Testern, dass die offiziellen Angaben im Marketing von AMD utopisch hoch und nichts mit der Realität zu tun hatten. Hier zeigt sich, warum unabhängige Medien wichtig sind.

Ansonsten interessante Auffassung. Wenn Beschiss also nicht auffällt, ist es nicht so schlimm. Danke, das merke ich mir. *facepalm*

Badesalz
2024-12-04, 16:37:08
Die hatten die Ryzen-9000-CPUs ja auch noch gar nicht. Aufgefallen ist es aber den Hardware-Testern, dass die offiziellen Angaben im Marketing von AMD utopisch hoch und nichts mit der Realität zu tun hatten. Tust du wieder so als wenn du nichts mitbekommen hättest? Was war dann mit den Angaben zum 9800X3D?

Exxtreme
2024-12-04, 16:39:03
Die hatten die Ryzen-9000-CPUs ja auch noch gar nicht.

Die Problematik hat auch die 7xxx-Serie. Und da ist es niemandem aufgefallen. :freak: Wahrscheinlich weil da auch alle mit Administratorrechten getestet haben.

Lehdro
2024-12-04, 18:57:09
Wer mit Win10 getestet hat, hatte dann eh das goldene Ticket gelöst. ;)

Gast
2024-12-04, 19:30:13
Die Problematik hat auch die 7xxx-Serie. Und da ist es niemandem aufgefallen. :freak: Wahrscheinlich weil da auch alle mit Administratorrechten getestet haben.

Vielleicht weil AMD da noch nicht im Admin-Modus getestet hat. Das weiß man nicht, weil AMD in den Reviewers Guide solche wichtigen Dinge nicht dokumentiert.

Aber Milliardenkonzerne machen halt nix falsch für Fanboys, stattdessen unterstellt man halt der Fachpresse, dass Sie falsch testet. Alter Schwede, so viele Konsumopfer hier.

Gast
2024-12-04, 19:31:22
Tust du wieder so als wenn du nichts mitbekommen hättest? Was war dann mit den Angaben zum 9800X3D?

Was soll mit denen sein? Da war 24H2 mit den Patches längst draußen.

Badesalz
2024-12-04, 20:59:44
Was soll mit denen sein?Die waren (Folien) untertrieben :uup:

Gast
2024-12-05, 11:01:01
Die waren (Folien) untertrieben :uup:

Das ist doch positiv, wenn AMD draus gelernt hat. Tiefstapeln ist immer sympathischer als Dinge zu versprechen, die man nicht einhalten kann.

Badesalz
2024-12-05, 13:31:26
Das ist doch positiv, wenn AMD draus gelernt hat. Tiefstapeln ist immer sympathischer als Dinge zu versprechen, die man nicht einhalten kann.Jep. Jetzt sind die Blauen dran :up: