Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 12./13. Oktober 2024
Leonidas
2024-10-14, 05:07:04
Link zur News:
https://www.3dcenter.org/news/news-des-1213-oktober-2024
Die Herstellerbenchmarks spiegeln also genau das was real auch beim Endkunden zählt und ankommt ;-)
In gefühlt 90% der Spiele ist die CPU so was von egal, in 8% zieht man dann nur einen Vorteil wenn man noch ne 2000€ GPU hat. Bleiben 2% Sinnfreie Spiele die von einer schnelleren CPU profitieren und von den 2% sind 50% nur mess- aber in keinster Weise Spürbar. CPUs sollten mit "Anwendungen" getestet werden und nicht mit "Spielen"!
AMD und Intel stellen ihre CPUs selbst schon passend gegeneinander, ob in der Marketingfolie oder durch ihre eigenen Klasse Einteilungen.
Wenn ich Mittelklasse AMD gegen Mittelklasse Intel antreten lasse wird es kein Anwendungsfalls geben wp plötzlich eine Spiel unspielbar wird, das erst recht nicht in der Highendklasse. Man geilt sich also hier an völlig banalen absolut unwichtigen Dingen auf. Ob jetzt 155FPS durch ne Dicke CPU oder 152 durch eine Mittelkasse oder den Mitbewerber ... juckt keinen Normalen außer Leute die ihr Leben nach nichtssagenden Balkenausrichten.
Eine CPU gehört in Benchmarks mit rendern, compilieren, de/codieren, ent/packen etc. hier hole ich x Minuten heraus oder im Extremfall sogar über den Tag Stunden heraus!
Da mit "unabhängige Hardwaretester" ja bestimmt irgendwelche Gaming-Seiten gemeint sind, sind das für mich die einzigen Witzbolde die sich in ihren eigenen sinnlosen Gaming-Test verrennen und daraus eine Wissenschaft machen. Spiele sind das schäbigste um die Rohleistung einer CPU zu bestimmen!
bad_sign
2024-10-14, 12:58:25
sehr guter Punkt Leo, dann werden wohl noch größere Differenzen zwischen 285K und dem Rest erwarten können.
Dann werden die X3D Preise wohl weiter steigen.
Altehardware
2024-10-14, 13:32:51
Das lässt sich einfach lösen
capframex oder intels presentmon log und gpu load tbp sowie fps.
Wer was open sorce nutzenw ill dann hwinfo log mit generic logview
Sieht nur nicht so fancy aus. Dafür lassen sich andere werte darstellen.
Gortha
2024-10-14, 13:51:49
....*blablablarant*
In gefühlt 90% der Spiele ist die CPU so was von egal, in 8% zieht man dann nur einen Vorteil wenn man noch ne 2000€ GPU hat. Bleiben 2% Sinnfreie Spiele die von einer schnelleren CPU profitieren und von den 2% sind 50% nur mess- aber in keinster Weise Spürbar. CPUs sollten mit "Anwendungen" getestet werden und nicht mit "Spielen"!
....*blablablarant*
In kritischen Min-FPS Szenarien bei diversen Games ist die CPU sehr wohl entscheidend. Das sind dann nicht nur 2% der ("Sinnfreie"(sic!)) Spiele.
Wenn dort, an Stellen in Spielen wo Min-FPS über eine gute Spielbarkeit entscheiden, die FPS zu Stark einbrechen, dann macht ein Prozessor der die min-FPS nicht so stark einbrechen lässt sehr wohl den Unterschied im Spielergebnis und Erlebnis.
In einem Shooter, ob jetzt Competitive oder Nicht, an einer haarigen Stelle +-20 FPS zu haben oder 40+ FPS, macht einen krassen Unterschied aus.
Deswegen, wie Leonidas es mehrfach erwähnte, auch die Frametimes Messungen und 1%Low-Perzentil Messungen. Average-FPS sagen nicht sehr viel.
MiamiNice
2024-10-14, 14:36:56
Ich wollte was ähnliches Richtung Gast schreiben. Aber bei seiner Wortwahl hat das keinen Sinn. Er trollt und stochert nach einer Antwort :wink:
Wenn man nicht absichtlich noch dazu eine langsame Grafikkarte verwendet, sind 1080p Spieletests heutzutage schon ziemlich gut als CPU-Tests zu gebrauchen.
Eine 4090 ist da meistens schon krass CPU-Limitiert und zeigt schon eine ziemlich gute Skalierung.
Fusion_Power
2024-10-14, 15:03:34
Die Herstellerbenchmarks spiegeln also genau das was real auch beim Endkunden zählt und ankommt ;-)
In gefühlt 90% der Spiele ist die CPU so was von egal, in 8% zieht man dann nur einen Vorteil wenn man noch ne 2000€ GPU hat. Bleiben 2% Sinnfreie Spiele die von einer schnelleren CPU profitieren und von den 2% sind 50% nur mess- aber in keinster Weise Spürbar. CPUs sollten mit "Anwendungen" getestet werden und nicht mit "Spielen"!
AMD und Intel stellen ihre CPUs selbst schon passend gegeneinander, ob in der Marketingfolie oder durch ihre eigenen Klasse Einteilungen.
Wenn ich Mittelklasse AMD gegen Mittelklasse Intel antreten lasse wird es kein Anwendungsfalls geben wp plötzlich eine Spiel unspielbar wird, das erst recht nicht in der Highendklasse. Man geilt sich also hier an völlig banalen absolut unwichtigen Dingen auf. Ob jetzt 155FPS durch ne Dicke CPU oder 152 durch eine Mittelkasse oder den Mitbewerber ... juckt keinen Normalen außer Leute die ihr Leben nach nichtssagenden Balkenausrichten.
Eine CPU gehört in Benchmarks mit rendern, compilieren, de/codieren, ent/packen etc. hier hole ich x Minuten heraus oder im Extremfall sogar über den Tag Stunden heraus!
Da mit "unabhängige Hardwaretester" ja bestimmt irgendwelche Gaming-Seiten gemeint sind, sind das für mich die einzigen Witzbolde die sich in ihren eigenen sinnlosen Gaming-Test verrennen und daraus eine Wissenschaft machen. Spiele sind das schäbigste um die Rohleistung einer CPU zu bestimmen!
Is mir auch nach wie vor ein Rätsel, warum die Hersteller ausgerechnet CPUs in Sachen Gaming-Performance so stark bewerben und da offenbar erhebliche Ressourcen und Marketing rein gesteckt werden, obwohls in der Praxis wie schon erwähnt in 90% der Fälle keine Rolle spielt im Vergleich zur Wichtigkeit von GPUs. Ok, das AMDs "X3D" bringt dann in der Praxis vielleicht doch etwas mehr fürs gaming, aber obs das in Relation zu den gesalzenen Preisen von X3D CPUs dann wiederum wert ist, muss jeder selber entscheiden.
Lehdro
2024-10-14, 15:08:10
Is mir auch nach wie vor ein Rätsel, warum ausgerechnet ne CPU in Sachen Gaming-Performance bewerben werden muss und da offenbar erhebliche Ressourcen und Marketing rein gesteckt werden, obwohls in der Praxis wie schon erwähnt in 90% der Fälle keine Rolle spielt im Vergleich zur Wichtigkeit von GPUs. Ok, das AMDs "X3D" bringt dann in der Praxis vielleicht doch etwas mehr fürs gaming, aber obs das in Relation zu den gesalzenen Preisen von X3D CPUs dann wiederum wert ist, muss jeder selber entscheiden.
Bei Office PCs interessiert niemanden ob die nun schneller oder langsamer sind. Anwender die CPU Leistung brauchen informieren sich eh explizit zu ihrem Usecase.
Also bleiben nur Gamer über. Die geben Geld dafür aus flüssiger spielen zu können. Im Serverbereich würde niemand auch nur darüber nachdenken eine CPU für +25% Leistung aufzurüsten, im Gaming ist das aber völlig normal. Seit Jahrzehnten, das ist nun wirklich nichts Neues. Und ebenfalls seit, *checks notes*, Menschengedenken kostet die schnellste Hardware unverhältnismäßig viel mehr als die Riege eins drunter.
Leonidas
2024-10-14, 15:20:53
Die Herstellerbenchmarks spiegeln also genau das was real auch beim Endkunden zählt und ankommt ;-)
Dies ist unter einem gewissen Blickwinkel nicht einmal falsch. Aber: Wieso die CPU bewusst so testen, dass sie im GPU-Limit läuft. Unter den CPU-limitierten Sequenzen, dort wo ich die CPU wirklich brauche, spielt der damit erreichte Benchmark-Wert keine Rolle. Dort ist wirklich der i9 schneller als der i3. Wieso also die Mist-Benchmarks zur CPU-Beurteilung nutzen, nur weil die CPU in der Praxis selten wirklich limitiert?
Es ist doch ehrlich gesagt scheißegal wenn eine GPU limitiert, limitiert sie und man könnte die CPU Performance nur in den 720p Settings mit denen getestet wird abrufen oder wenn es deutlich mehr GPU Performance gäbe. "Hätte der Hund nicht gesch*ssen, hätte er den Hasen gekriegt"...
AMD kann also noch so schnelle Gaming CPUs auf den Markt werfen, sie bewirken einfach nichts wenn die GPU Performance fehlt und warum soll man dann gottverdammt eine neue CPU für viel Geld kaufen, die dann vielleicht nicht mal in den alten Sockel passt und einen Rattenschwanz an Zusatzkosten für eine neue Plattform mit sich bringt? Das ist einfach Schwachsinn, denn für die heutige Gaming-Performance in höheren Auflösungen als 720p reicht jede 8 Core CPUs der neueren Generation. Niemand muss da wirklich wechseln. Mag ja 3 Cherry Picking Spiele geben, wo das nicht so ist und die sollen von mir aus alle zwei Jahre ihre Kohle zum Fenster rauswerfen.
AMD sattelt das Pferd für mich in dem Fall von hinten auf, wie wäre es denn wenn man selbst mal was in die GPU Entwicklung investiert das dies nicht so ist und neuere schnelle Gaming CPUs in höheren Auflösungen auch Sinn ergeben. Nichts kommt da, stillt ruht der See. Mittelklasse Schr*tt für den jede 6 Core CPU ausreicht.
Warum die Fachpresse immer wieder, und immer wieder um diesen Umstand umhereiert, wie die Katze um den heißen Brei müsste auch mal jemand erklären, wenn ich die CPU Leistung außer in 720p gar nicht nutzen kann, was soll ich dann mit diesem überteuerten Tünüff?
Das wäre so, als würde ich einen Ferrarie kaufen um 3km zur Arbeit zu fahren wo ein Fahrrad reicht und im Winter eine dicke Jacke dazu. Und für 1% der Tage im Jahr brauche ich dann ein Auto weil es schüttet ohne Ende oder weil es Mistforken hagelt. Da reicht dann ein alter Fiesta für 3K. Dafür muss ich keine 250k rauswerfen. Wer mit klaren Menschenverstand macht sowas? Niemand, die kaufen sich eine Konsole und gut ist's! Das werden auch immer mehr. PC Gaming interessiert mittlerweile keine S*u mehr und es liegt genau daran das jeder Hersteller sein eigenes Süppchen kocht, nicht nach rechts und links schaut, mit niemanden zusammen arbeitet, viel Geld dafür will und wirklich nichts von den ach so tollen Leistungsinnovationen mehr zusammen passt, was noch Sinn ergeben würde. Hauptsache heutzutage steht AI drauf, dann ist alles gut...Hauptsache in Benchmarksparkurs liegt man weit vor allen anderen und kann polarisieren. Ob diese Leistung im Alltag überhaupt abrufbar ist, interessiert niemanden.
Investiert das Geld in schnellere GPUs, man braucht nicht noch schnellere CPUs und das zeigt der Trend klar auf, die Leistung reicht für die nächsten Jahre mehr als aus, niemand braucht noch eine +5% Gen die einem in 720p mehr Leistung beschert, die man in 1080p schon nicht mehr in Anwendung bringen kann. Weil AMD nichts anderes kann, werfen sie noch und noch CPUs auf den Markt, die kein Mensch als Gamer wirklich braucht.
Die 9000 Serie mit ihren minimalen Leistungssteigerungen zeigt das bereits klar auf, hier wird unter dem Denkmantel einer neuen Gen mit tollen Namen und einer Steigerung bei der Bezeichnung (9000 versus 7000 im Desktopbereich), einfach die Preiserhöhungen in der Fertigung von TSMC an die Nutzer weitergereicht, damit die Marge wieder stimmt oder gesteigert werden kann (mehr Dies in feineren Verfahren aus einem Wafer bei fast zu gleicher Anwenderperformance). Das ist letztlich nichts anderes, als stupides Marketing und hat nichts damit zu tun das man Hardware kauft, die zwei Gens besser wäre. Das ganze hat nur Vorteile für den Hersteller indem er Gewinne steigert, nicht für den Anwender, der wird gemolken.
Poor AMD!
Blase
2024-10-14, 17:16:19
Bleiben 2% Sinnfreie Spiele die von einer schnelleren CPU profitieren und von den 2% sind 50% nur mess- aber in keinster Weise Spürbar. CPUs sollten mit "Anwendungen" getestet werden und nicht mit "Spielen"!
Spiderman, Hogwarts Legacy und Star Wars Jedi: Survivor sind drei aktuelle Beispiele, wo jeder in CPU Limits läuft, sofern er oder sie nicht mit 30 gecappten Frames rum läuft.
2DfGNPiNTuM
Du magst jetzt "unoptimiert" sagen und hast vielleicht sogar recht. Aber am Ende ist der Grund egal. Du solltest also deine Prozentangaben überdenken...
MfG Blase
bad_sign
2024-10-14, 17:31:17
Wenn man nicht absichtlich noch dazu eine langsame Grafikkarte verwendet, sind 1080p Spieletests heutzutage schon ziemlich gut als CPU-Tests zu gebrauchen.
Eine 4090 ist da meistens schon krass CPU-Limitiert und zeigt schon eine ziemlich gute Skalierung.
Nein, denn MSI zeigt dir genau warum diese Aussage Käse ist.
BMW -> Ingame Benchmark -> absolutes GPU Limit, trotz schnellster Karte auf dem Markt
Xergon
2024-10-14, 18:09:04
Fachlich falsch die Darstellung der Grenzen der KI. Sie kann sehr wohl mit Sonderfällen umgehen die es noch nie in den Trainingsdaten gesehen hat.
Allerdings ist z.b. Gpt4o darauf abgestimmt, Eingabefehler des Menschen zu korrigieren, und geht dementsprechend bei scheinbar unsinnigen Usereingaben erstmal davon aus, dass ein Eingabefehler vorliegt. Ein Anzeichen von scheinbarer Intelligenz.
Leonidas
2024-10-14, 19:16:34
Fachlich falsch die Darstellung der Grenzen der KI. Sie kann sehr wohl mit Sonderfällen umgehen die es noch nie in den Trainingsdaten gesehen hat.
Hast Du dazu Beispiele?
ChaosTM
2024-10-14, 19:24:23
Ein oft angeführtes Paradebeispiel ist der berühmte Zug 37 von AlphaGO 2016.
https://katzlberger.ai/2022/07/25/alphago-mit-zug-37-in-richtung-ki-kreativitaet/
Böse Zungen meinten es war nur Zufall, aber die nächste Iteration von AlphaGO hat die alte Version dann in Nullzeit vernichtet.
Letzte Woche war es die Wirkung der Corona-Pandemie auf der Wirtschaftssystem, was die KIs (als virtuelle Unternehmenslenker) außer Tritt brachte.
Die menschlichen Kapitalisten produzieren ganz ohne Lockdown-Regime hunderttausende Unternehmenspleiten jedes Jahr. "Unvorhergesehen" ist soetwas, weil die Trainingsdaten im Gegensatz zur menschlichen Konkurrenz unzureichend sind. Wenn man die LLM mit den passenden Trainingsdaten wie RKI-Files, Event 201 usw. trainiert, werden diese mindestens genauso effektive und skrupellose Kapitalisten wie ihre menschlichen Konkurrenten. Zum Beispiel bei der Spekulation an der Börse und bei den Kolonialkriegen für Blackrock & Co. wird das schon längst unter Beweis gestellt.
Eine heutige KI könnte wie im Film "Wargames" niemals ganz allein zur Entscheidung kommen, dass das dort gespielte Kriegsspiel nicht zu gewinnen ist – dafür wäre echte Intelligenz notwendig, was kein Merkmal heutiger KIs darstellt.
Danach würde es sich beim Menschen auch nicht um eine "echte Intelligenz" handeln. Dass die Menschheit das Fermi-Paradoxon noch nicht endgelöst hat, ist reiner Zufall.
"We escaped the Cold War without a nuclear holocaust by some combination of skill, luck and divine intervention, and I suspect the latter in greatest proportion."
- Former head of US Strategic Command, General Lee Butler
“We Could Lose Two Hundred Million People [in a Nuclear War] and Still Have More Than We Had at the Time of the Civil War”
http://nsarchive.gwu.edu/nukevault/ebb580-JCS-chairmans-diary-from-1971-reveals-high-level-deliberations/
"The Rise of U.S. Nuclear Primacy
...
If the United States launched a nuclear attack against Russia (or China), the targeted country would be left with a tiny surviving arsenal -- if any at all. At that point, even a relatively modest or inefficient missile-defense system might well be enough to protect against any retaliatory strikes, because the devastated enemy would have so few warheads and decoys left."
http://web.archive.org/web/20060406055430/http://www.foreignaffairs.org/20060301faessay85204/keir-a-lieber-daryl-g-press/the-rise-of-u-s-nuclear-primacy.html?mode=print
Leonidas
2024-10-15, 03:38:02
Ein oft angeführtes Paradebeispiel ist der berühmte Zug 37 von AlphaGO 2016.
https://katzlberger.ai/2022/07/25/alphago-mit-zug-37-in-richtung-ki-kreativitaet/
Ganz schwaches Indiz. Könnte die KI nicht einfach nur Glück gehabt haben? Das sich im Nachhinein ein mittelmäßiger Zug als Gewinnerzug herausstellt. Kann bei komplizierten Spielen immer passieren.
Gute Beispiele würden nachweisen, dass die KI *wiederholt* Dinge getan hat, die nicht in den Traininings-Daten lagen, von denen auch nicht ableitbar waren und somit nur mit echtem Daten-Verständnis zu erreichen waren. Alles andere ist KI-Mythologie.
Gastxx
2024-10-15, 07:14:05
Letztlich zählt doch nur was ich innerhalb meines Hardware- und Anwenderprofil's hinzugewinne und was mich das kostet. Ich bin auch ganz ehrlich, mich interessieren die 720p Benchmarks nicht die Bohne, wenn es um Spiele geht. Ich spiele in UHD mit DLSS also auf 1440p denke ich mal und nur dort ist wichtig was ich für wie viel hinzugewinne, wenn ich Geld in die Hand nehmen um etwas zu verbessern. Ich will ehrlich gesagt auch nicht mehr auf 1080p wechseln und 1080p auf einem UHD Panel sieht sicherlich selbst mit DLSS einfach vermatscht aus. Alles andere wäre ein Rückschritt.
Wenn ich tatsächlich UHD nativ einstelle dann ist es fast zu belanglos welche CPU ich im Rechner habe, da reicht ein 5800x oder 7700x immer noch. Die CPUs liegen da nicht mal 10% auseinander und wir sprechen da in einigen Fällen von wenigen FPS realem Zugewinn, 5 oder 6. Dafür bin ich nicht bereit hunderte Euro mehr zu zahlen. Wo dann eine schnellere CPU hinzugewinnt, gewinnt auch eine langsamere proportional hinzu, weil dort womöglich auf CPUs optimiert wurde oder sie weniger wichtiger ist oder eben die GPU limitiert.
Wer in 1080p spielt kann ja gerne auf die neuen CPUs setzen, DLSS oder FSR an und man spielt dann in 720p. Aber ehrlicherweise muss man sagen, wer dafür sowas wie eine 4090 kauft hat sie für mich nicht mehr alle. Damit testen die Redaktionen dann zu Hauf.
In vielen Fällen limitiert auf einem Spiele PC die GPU und nicht die CPU. Das die Hersteller in 1080p testen dürfte faktisch daran liegen, dass es real eine weit verbreitete Auflösung ist. Viele schalten dabei DLSS oder FSR nicht mal ein, was Nvidia anhand ihrer Metadaten schon ausgewertet hat, weil es wohl gerade in niedrigen Auflösungen bei geringer Pixelanzahl nicht so gut aussieht wie nativ. Es ist also nicht unbedingt der Umstand, das Intel nun unlegitim mit AMD vergleicht, sondern eher am Nutzerverhalten liegt was und wie sie testen. Zuletzt zählt eben nur was mir das wirklich bringt, dass Gannze kann man nur am eigenen Profil festmachen und nicht an synthetischen Benchmarkszenarien der Testredaktionen. Es macht keinen Sinn wenn die empfohlenen Wechselintervalle von CPUs bei ca. 5 Jahren liegen, für einen Spiele PC dicke CPUs zu kaufen deren Leistungsvermögen ich über die Laufzeit nie abrufen kann, weil es faktisch an der GPU Leistung fehlt.
Hardware sollte immer zusammenpassen. Zuletzt zählt nur das was meine persönliche Vorlieben oder das eigene Hardware- und Anwenderprofil hergeben und beschleunigen, 720p spielt dabei für mich keine Rolle. Diese Reviews sind für mich persönlich zum größten Teil nutzlos. Ich lese mir das erst gar nicht durch, weil ich nicht in 720p spiele.
Sorry Raff bis Dave&Co aber damit verdient ihr bei mir keinen Penny.
Mir kommt es mittlerweile so vor als wenn AMD längst erkannt haty wie getestet wird und liefert in 720p besonders gute Werte. Unter anderen Auflösungen sind sie dann kaum schneller als die Konkurrenz, die reine CPU Leistung zählt dann eher weniger. Da könnte dann die Effizienz eine Rolle spielen, aber auch dafür zahle ich nicht hunderte Euro, wenn es über die gesamte Laufzeit wenige Euro sind die man sparen könnte, dafür die CPU aber viel teurer ist als das Konkurrenzmodell. Das ergibt keinen Sinn.
Und so war es auch bei RDNA, in niedrigen Auflösungen schnell in höheren immer langsamer. Womöglich ist das AMDs Sweetspot für den sie entwickeln, weil einfach nicht mehr geht. Für mich ist das aber kaum interessant.
GastMichel
2024-10-15, 08:12:13
Die Herstellerbenchmarks spiegeln also genau das was real auch beim Endkunden zählt und ankommt ;-)
In gefühlt 90% der Spiele ist die CPU so was von egal,.....
Heute macht das kein Unterschied, in ein paar Jahren durchaus. Zwischen AMD x3d und langsameren (heute schnell genügenden CPUs) liegen je nach Spiel schnell mal über 50% Mehrleistung sobald die GPU als Limitierung rausfällt. Mit so einer CPU ist man dann schnell mal 1 bis 2 Jahre länger zufrieden.
GPU Wechsel ist meist nur die GPU. Bei CPUs hat man selbst bei AMD die Chance, dass sie einen Sockel überstehen und dann heißt es gleich Board+RAM+CPU.
Ist schon nett, wenn ich heute weiß wie groß die Unterschiede sind. Ich kaufe mir mein System ja so, dass ich auch möglichst lange zufrieden bin und nicht nur heute. Meine CPU sieht in ihrem Leben meist 2 bis 3 verschiedene GPUs.
Entsprechend vielen Dank an die aussagekräftigen Benchmarks bei den CPUs, bei denen der Einfluss der GPU möglichst rausgenommen wird.
Gast#5
2024-10-15, 08:40:03
...stark reduzierte Unterschiede zwischen den CPUs, im Extremfalls können Core i3 und Core i9 die gleiche Performance aufweisen, weil zumeist einfach nur im GPU-Limit getestet wird...
Ja und nun? Es würde doch aufzeigen, dass die i3 für selbiges Anwenderprofil reicht. Warum dann eine i9 oder x3D für viel Geld kaufen?
Erkläre es mir Bitte! Weil in den nächsten 5 Jahren zu erwarten ist, dass die abrufbare CPU Performance in Spielen durch die Decke geht? Selbst dann ist es höchst spekulativ in sowas zu investieren. Es geht um real abrufbare Performance, wozu die Hersteller mittlerweile verpflichtet sind dies anzugeben. Da eine CPU nur einen Teil davon in einem Spiele PC ausmacht, zuweilen den geringsten Teil, machen es die Hersteller richtig. Sie testen in realen Auflösungszenarien die im Markt existieren, an denen sich ein interessierter Käufer orientieren könnte - ob es zu seinem Anwenderprofil passt und dabei limitieren schon der Großteil der GPU.
Dein Text liest wie der eines Klugschei**er-Oberlehrers der nur theoretische Aspekete in seinen Bewertungen einfließen lässt und nichts von dem, was in der Welt real passiert. Das geht den meisten Testredaktionen übrigens genauso, wenn sie ihre Bewertungen und Empfehlungen lediglich auf 720p Benchmarks aufbauen. Die Welt da draussen und die der Spiele PC ist viel bunter als damit abgebildet wird. Ich kann diesen Dummfug ehrlich nicht mehr lesen. Ihr suggeriert den Leuten damit, sie müssten die zum Teil überteuerten aber für den Großteil nutzlosen CPU kaufen, die an der Performance bestehend aus CPU und GPU in Spielen kaum was ändern würden. Herzlichen Glückwunsch zu so viel Ignoranz.
MiamiNice
2024-10-15, 09:22:32
Und ich kann solchen Dummfug nicht mehr lesen :freak:
Leonidas
2024-10-15, 09:34:27
Ja und nun? Es würde doch aufzeigen, dass die i3 für selbiges Anwenderprofil reicht. Warum dann eine i9 oder x3D für viel Geld kaufen?
Ich denke, in diesem Fall wurde gezeigt, dass der i3 unter GPU-limitierten Sequenzen reicht. Ob dies auch für CPU-limitierte Sequenzen gilt, wurde gar nicht erst erörtert und bleibt somit offen.
PS: Und ja, es gibt auch Spiele, wo der i3 auch unter CPU-limitierten Szenen reicht bzw. ähnlich stark ist. Dann, wenn die Spiele-Engine an anderen Sachen limitiert oder aber die GPU-Limitierung einfach durchgehend ist. Aber es gibt halt auch genügend andere Spiele (eigentlich die klare Mehrheit), wo man unter CPU-limitierten Settings niemals den i3 auf der Höhe des i9 ausmisst.
Natürlich kann man diess Ergebnis ignorieren und sagen, zu 90% der Zeit ist der i3 genauso gut. Ich will wirklich nicht versuchen, den Effekt der CPU auf das Spielbarkeits-Empfinden so hoch hoch wie den Effekt der GPU ansetzen. Aber diese 10% der Zeit mit CPU-Limitierung sind halt da, dort gibt es (beachtbare) Unterschiede. Und es gibt genügend Leute, die dies zugunsten ihrer hochwertigen wie ausgewogenen Systeme einfach stört.
Badesalz
2024-10-15, 09:41:27
@gast#5
Du bekommst damit die Infos was die CPU noch durchschieben könnte, wenn die nächste Gen der Graka die du ggf. holst, mehr liefert.
Was du irgendwie auch nicht beachten möchtest ist, daß es so einige Tester gibt die NICHT NUR in 720 testen. Woraus sich ein allgemeineres Bild ergibt.
Ich sehe auch nicht die Stellen wo Leo so Luxx-like :rolleyes: die alleinige Sinnhaftigkeit dem 720-Test zuschreibt.
EGAL WEN mit seiner Einstellung so anzugehen ist imho idiotisch. Erst recht so einen der sich zwischen all den Welten immer mit stets erkennbarer Besonnenheit in der Meinung zu bewegen versucht.
Daher gilt: Nur weil man sich namenlos wie der sichtbare Teil des Darmausgangs benimmt, wird draus nicht nur ein Stoma. Man bleibt das wie man sich gibt.
Aktuell ist das alles aber tatsächlich nicht so kompliziert, daß man großartig grübeln müsste. Entweder man kauft einen X3D der für die Graka ausreicht oder man kauft einen X3D der voraussichtlich (und eben das lässt sich dadurch besser abschätzen) auch noch für die nächste Graka ausreicht. Sprich, aktuell ist das Thema nur ein Sturm im Wasserglas.
Übrigens bin ich selbst auch kein großer Freund von 720-only CPU-Tests. In diesen Fällen wären wir über die Sache der gleichen Meinung ;) Und auch kein Freund von Tests wo die 1%minFPS nicht klar hervorgehoben werden. Ich gehe da auch gern soweit zu befinden, daß avg. genauso wie max. etwas für noch nicht aufgeklärte Anfänger oder einfach ewige Idioten ist.
@Leo
Selbst alle paar Minuten eine halbe Sekunde Gezucke geht auch dann schwer auf die Nerven, wenn man kein sonst wertiges/ausgewogenes System hat ;)
Sardaukar.nsn
2024-10-15, 09:54:40
@Gast#5: Ich kann deinen Unmut schon etwas nachvollziehen. Theorie und Praxis gehen teilweise schon deutlich auseinander und man versucht mit sehr konstruierten Methoden Fortschritte zu zeigen die im Alltag der Spieler so gut wie nie vorkommen.
Aber es gibt natürlich auch Webseiten die relevante Auflösungen testen. Ich habe hier aktuell noch eine AM4 Plattform mit 5800x3D zusammen mit einer RTX 4090 nutze ich den an einem 4K Monitor (LG C2). Natürlich schaue ich bei Nachfolger CPUs mal in die neuen Benchmarks, aber was interessiert mich als potentieller Upgrade Kunde 720p? Wie gesagt, es gibt auch Seiten die mehrere Auflösungen testen Auch die für mich relevant sind. Und siehe da: https://www.igorslab.de/amd-ryzen-7-7800x3d-im-gaming-und-workstation-test-ultra-schnell-spielen-in-einer-anderen-energetischen-dimension/6/
Plattform Wechsel inkl. neuem Board und Ram für einen Nachfolge X3D liegen bei 700-1000€ für was? nicht mal 10%. Also werde ich mir dieses Einkauf sparen und das Budget kommt wohl ins Blackwell Sparschwein.
Toolface
2024-10-15, 10:55:31
Ich sehe das genau so wie es im Artikel steht. Wenn ich die Auswirkungen einer CPU testen will, dann muss ich den Einfluss der anderen Komponenten so weit wie möglich minimieren, wenn ich auf sie nicht verzichten kann. Das kann z.B. ein Test mit einer RTX 4090 auf 720p sein. Damit nehme ich die Grafikkarte als variable Größe aus der Gleichung.
Was der Anwender mit dem Testergebnis macht ist dann von seiner Anwendung und seiner Sachkenntnis abhängig. Es gibt grafiklastige Shooter die fast nur mit der Grafikkarte skalieren, und es gibt Flugsimulatoren wie DCS bei denen Wirbelschleppen mit simuliert werden. Das kann eine CPU ganz anders fordern. Wenn jetzt DCS, bis vor kurzer Zeit, nur auf einem Kern ausgeführt wurde, dann führt das zu einer sehr spezifischen Bewertung von CPUs. Das heißt ein hochgetakteter 6 Kerner ist einem 32 Kern Threadripper überlegen.
Ein Test soll darstellen was das zu testende Element leisten kann. Der Rezipient des Testes muss dann bewerten was dieser Test für ihn aussagt.
OpenVMSwartoll
2024-10-15, 11:35:09
Die menschlichen Kapitalisten produzieren ganz ohne Lockdown-Regime hunderttausende Unternehmenspleiten jedes Jahr. "Unvorhergesehen" ist soetwas, weil die Trainingsdaten im Gegensatz zur menschlichen Konkurrenz unzureichend sind. Wenn man die LLM mit den passenden Trainingsdaten wie RKI-Files, Event 201 usw. trainiert, werden diese mindestens genauso effektive und skrupellose Kapitalisten wie ihre menschlichen Konkurrenten. Zum Beispiel bei der Spekulation an der Börse und bei den Kolonialkriegen für Blackrock & Co. wird das schon längst unter Beweis gestellt.
Auch das wäre retrospektiv und kann die These damit nicht untermauern.
Zumal: Wer will bei den benannten Trainingsdaten über falsch und korrekt urteilen, um die KI zu trainieren?
Ich sehe das genau so wie es im Artikel steht. Wenn ich die Auswirkungen einer CPU testen will, dann muss ich den Einfluss der anderen Komponenten so weit wie möglich minimieren, wenn ich auf sie nicht verzichten kann. Das kann z.B. ein Test mit einer RTX 4090 auf 720p sein. Damit nehme ich die Grafikkarte als variable Größe aus der Gleichung.
Was der Anwender mit dem Testergebnis macht ist dann von seiner Anwendung und seiner Sachkenntnis abhängig. Es gibt grafiklastige Shooter die fast nur mit der Grafikkarte skalieren, und es gibt Flugsimulatoren wie DCS bei denen Wirbelschleppen mit simuliert werden. Das kann eine CPU ganz anders fordern. Wenn jetzt DCS, bis vor kurzer Zeit, nur auf einem Kern ausgeführt wurde, dann führt das zu einer sehr spezifischen Bewertung von CPUs. Das heißt ein hochgetakteter 6 Kerner ist einem 32 Kern Threadripper überlegen.
Ein Test soll darstellen was das zu testende Element leisten kann. Der Rezipient des Testes muss dann bewerten was dieser Test für ihn aussagt.
Den Meisten würde ein Mitteldingens reichen und das muss keineswegs viele Hundert oder Tausend Euro kosten.
Später wird alles besser, die Philosophie kennt man von AMD bereits. Ich erinnere da nur an Vega, nichts davon ist eingetreten, nach einem halbem Jahr war die Plattform tot. Lange Gesichter und Geschichtenschreiber blieben zurück.
Du beschreibst auch nur was dich persönliich stören würde oder wie dein Anspruch aussieht (übrigens schreibt genau das Gast#5=Anwenderprofil!), nicht das eines Daus oder einer Vielzahl im Markt verteten. Ich vermute Intel orientiert sich kaum an 5 % des Marktes, der von irgendwelchen Nerds beansprucht wird. Für AMD scheint ja Nische wichtig zu sein.
@Gast#5: Plattform Wechsel inkl. neuem Board und Ram für einen Nachfolge X3D liegen bei 700-1000€ für was? nicht mal 10%. Also werde ich mir dieses Einkauf sparen und das Budget kommt wohl ins Blackwell Sparschwein.
Will nicht unken, aber ich glaube genau das hat er gemeint.
Was ist wohl besser, versteckte CPU Performance oder sofort sichtbare Immersion. Die Frage muss man gar nicht stellen, wenn es um Qualität geht die man erkauft. Die will man nicht Jahre später erst sehen oder spüren. Da gibt es sowieso bessere Hardware, die alles noch besser kann.
Man muss ihm also teilweise Recht geben. Es hängt davon ab, was man damit machen will, wie der eigene Anspruch aussieht und was die Hardware darunter auch wirklich leistet. Nicht erst in Jahren. Wenn Intel dabei eine große Menge 1080p Anwender ansprechen will, ist das ihnen überlassen.
Sardaukar.nsn
2024-10-15, 12:56:40
Was ist wohl besser, versteckte CPU Performance oder sofort sichtbare Immersion. Die Frage muss man gar nicht stellen, wenn es um Qualität geht die man erkauft. Die will man nicht Jahre später erst sehen oder spüren. Da gibt es sowieso bessere Hardware, die alles noch besser kann.
Da stimme ich zu. Rückblickend war es in der Vergangenheit war es auch selten lohnend auf größere Mengen RAM, VRAM oder viele CPU-Kerne zu setzen. Ist dann doch meistens schlecht gealtert, weil die grundlegende Performance nicht mehr passte.
Was wurde bei den Ryzen CPUs ein Bohei um die vielen Kerne gemacht. Heute ist die Empfehlung doch eher wieder bei 8, wenn es um Preis/Leistung geht eher bei 6 Kernen zurück.
Badesalz
2024-10-15, 13:14:13
Wer hat denn wann >8 Kerne als Universallwaffe besungen? Wer mehr braucht hat das schon abgecheckt, ob er die verwerten kann. Mit Ryzen konnte man das damals ohne viel trara nur recht preiswert nutzen. Stadt HEDT + Xeon. Das war der Bohei.
Lehdro
2024-10-15, 15:06:01
Was hier schon wieder für Verklärung der Vergangenheit betrieben wird, uff. Und dann noch die Infragestellung der Testsetups mit reduzierten Auflösungen, zum x-ten Male. Ich wiederhole es gerne noch einmal: Nur weil die Unterschiede bei euch in der Praxis nicht ankommen mögen, bedeutet nicht das es tatsächlich keine Leistungsunterschiede gibt. Das führt aber nicht dazu, dass plötzlich CPUs unnötig schnell sind, außer vielleicht für euren Usecase. Ich habe zumindest niemanden gesehen der sich beschwert das in 720p alle GPUs gleichschnell sind und deswegen niemand mehr als eine 4060 kaufen sollte - denn so ungefähr hört sich das hier teilweise schon wieder an.
Man kriegt die Testkomponenten, die Software, die Einstellungen und die Messwerte für GPU und CPU getrennt geliefert, aus verschiedensten Quellen. Woran es scheitert ist das Kombinieren der Faktoren:
1. Finde heraus wie viele FPS ich "mag" oder "brauche".
2. Schauen welche CPU diese FPS liefern kann.
3. Schauen welche GPU diese FPS in der Wunschauflösung erreicht.
4. Sonderfälle (VRAM -> Streamingfails; Software; Upscaling; Media Encoder etc) beachten
Das wiederhole ich entweder mit jedem spezifischen Spiel was mir wichtig ist, oder ich verlasse mich auf einen breiten Index, der viel mehr abdeckt, aber logischerweise nicht so spezifisch ist. Und dann kaufe ich den Bumms einfach, oder rege mich über Preise auf. Aber was man nicht macht:
- Sinnhaftigkeit dieser präzisen Leistungsmessung in Frage stellen
- Schnellerer Hardware pauschal den Sinn absprechen
- langsamerer Hardware pauschal den Sinn absprechen
- seinen Usecase als den Normalfall darstellen
MiamiNice
2024-10-15, 15:47:38
Lehdro macht heute auf Don Quijote :biggrin:
Wenn jetzt noch der Gast aus Post 2 dazu stößt, mach ich mir :popcorn:
Sardaukar.nsn
2024-10-15, 16:24:57
@Lehdro: Niemand will die 720p Tests verbieten, nur sind sie halt graue Theorie. Zu einem guten Test insbesondere zu meinem Gaming-CPU gehören dann halt auch weitere Tests die näher an der Praxis der Spieler dran sind. Aber viele Review Seiten bekommen das inzwischen schon ganz gut hin: https://www.techpowerup.com/review/amd-ryzen-9-9950x/21.html
Lehdro
2024-10-15, 16:52:30
@Lehdro: Niemand will die 720p Tests verbieten, nur sind sie halt graue Theorie. Zu einem guten Test insbesondere zu meinem Gaming-CPU gehören dann halt auch weitere Tests die näher an der Praxis der Spieler dran sind. Aber viele Review Seiten bekommen das inzwischen schon ganz gut hin: https://www.techpowerup.com/review/amd-ryzen-9-9950x/21.html
4k "CPU Tests" sind auch nur graue Theorie. Sobald du die GPU wechselst, sieht dieser Graph sicherlich sehr ulkig aus. Warte ab was passiert, wenn ab nächstem Jahr mit einer 5090 in 4k getestet wird. Plötzlich sind da die Unterschiede deutlich größer, in denselben Games.
Der 720p Graph hingegen bleibt viel näher an der Wahrheit. Er zeigt eben das Potenzial auf und nicht limitierte Leistung durch externe Faktoren. Dessen muss man sich stets bewusst sein.
Sardaukar.nsn
2024-10-15, 17:07:42
Tests sind doch nur immer eine Momentaufnahme. Wenn es in Zukunft 9800x3D und 5090 gibt wird man die doch sicher auch zusammen testen. Die 720p Werte haben eher akademischen Wert, werden trotz geringen bis kaum vorhandenen Praxisbezug gerne dazu genommen. Seis drum.
In obigem Test des AMD Flaggschiff möchte ich aber auch noch mal die Preis/Leistungsbewertung anmerken. Bei Gaming CPUs auch gerne in "Kosten pro Frame". Scheinbar ist es doch möglich das darzustellen, ja auch sogar in 720p, aber eben nicht nur: https://www.techpowerup.com/review/amd-ryzen-9-9950x/28.html
Es macht halt grundsaetzlich selten Sinn, wenn man Spiele spielen will, eine High End CPU mit einer Mainstream GPU oder eine Main Stream GPU mit ner Low End CPU zu paaren. Aber das ist genau so oft anzutreffen wie die ganzen Weihnachtsbaumbuntiblinki PCs mit ner WaKu fuer die 70 Watt CPU und ne luftgekuehlte 400 Watt GPU.
CPU Benchmarkunterschiede bei Spielen sind oft im esotherischen Bereich unter Realbedingungen. Aber es scheint ja auch genug Menschen zu geben die mit ner 1000+ Euro GPU etwas kleines kompensieren muessen. Da sind natuerlich 2% mehr im CPU Schwanzmark sehr willkommen, auch wenn es real einfach keine Rolle spielt.
Just sain.
Badesalz
2024-10-15, 19:45:04
ALLE, als wenn ich bisher nichts erzählt hätte...
Und trotzdem, lügen wir uns nichts vor. Die Werbetester sollen Unterschiede ausarbeiten wo real kaum welche wären und das geht eben am besten mit einer 4090 auf 720 + DLSS :usweet:
Am Ende ist das nen shice Wert und man kauft so PiMalDaumen nach Budget und fragt in Foren rum was man beim Budget XY am besten paaren sollte und welche Ergebnisse die Leute mit was haben.
Nicht, ob sie irgendeinen Test für einen erklären können und auch nicht nach der blöden Frage "Was sind deine Ziel-FPS?". Als wenn das jemals zum Budget passen würde ;)
Fisch
2024-10-15, 20:38:33
Letztlich zählt doch nur was ich innerhalb meines Hardware- und Anwenderprofil's hinzugewinne und was mich das kostet. Ich bin auch ganz ehrlich, mich interessieren die 720p Benchmarks nicht die Bohne, wenn es um Spiele geht. Ich spiele in UHD mit DLSS also auf 1440p denke ich mal und nur dort ist wichtig was ich für wie viel hinzugewinne, wenn ich Geld in die Hand nehmen um etwas zu verbessern. Ich will ehrlich gesagt auch nicht mehr auf 1080p wechseln und 1080p auf einem UHD Panel sieht sicherlich selbst mit DLSS einfach vermatscht aus. Alles andere wäre ein Rückschritt.
Ich wünsche mir einen Button "Ich habe kapiert warum man CPUs im CPU Limit testet", und erst wenn man den drückt darf man solchen Quark verzapfen.
Badesalz
2024-10-15, 20:45:31
@Fisch
Schreib doch erst ein Wiki über "Was ist ein CPU-Limit?".
Es gibt kaum CPU-Tests im CPU-Limit. Man testet meist ein Teil des Systems mit. Oder wird z.B. bei einem realen 7-zip Testlauf nicht auch der Speicher getestet? Linpack im OCCT ist ein CPU-Test im CPU-Limit :up:
Hört doch endlich mal auf die Leute bekloppt zu machen :rolleyes: Alle wollen nur unser Bestes :wink: Kauft das Neuste, ist bald da.
Es ist nicht zu erwarten das sich die Ergebnisse in synthetischen Benchmark bei der 9000 Serie weiter verbessern und da suchen AMD nun Wege dies Marketingtechnisch auszumerzen, als denn technisch innovativ, Intel nutzt dies gleichfalls.
In der Entwicklung von Ryzen 9000 also AM5 wurden was den Workload betrifft grundlegende Änderungen an den Tuningparametern gegenüber der 7000 Serie vorgenommen, die von AMD so erwünscht waren. Sie haben vor allem Verbesserungen erzielt, mit dem was bei AMD intern getestet wurde, erst später hat man gemerkt das es für syntetische Spielebenchmarks bzw. unter Spielen nicht gut aussieht. Das bekommt man auch zukünftig mit zig Agesaupdates nicht ausgemerzt, weil es Teil der Entwicklung war. Es gibt dort was den Workloadparameter angeht deutliche Unterschiede zur 7000 Serie. Das ist und war nie ein Versehen, sondern pure Absicht seitens AMD. Es ist also nirgends ein Fehler passiert oder ein schlechter Launch wie das die Presse immer hinstellt.
Man kann also behaupten für Spieler bringt die 9000 absolut nichts, egal ob x3d oder nicht, den diese Gen wurde in der Entwicklung auf alles optimiert, nur nicht auf Spiele. AMD eiert jetzt wie gewohnt einfach nur umher, um das nicht offiziell zugeben zu müssen.
Intel hat das natürlich erkannt und nutzt das für sich, warum auch nicht. Es sind nun mal Konkurrenzunternehmen.
Das ganze ist in Insiderkreisen auch schon länger bekannt. Da diese Parameter dann unter Windows vermutlich ähnliche Probleme bereiten wie seiner Zeit der Threadsheduler, kann man nur hoffen das AMD irgendwas zurechtfrickelny was das teilweise verbessert, ausmerzen werden sie es nie. Ich kann mir ehrlich gesagt auch nicht vorstellen, das es nach den vielseitigen Problemen die Zen schon seid Jahren plagen, Spieleentwickler darüber erfreut sind, und wiederrum auf etwas AMD internes entwickeln müssen. Mitnichten. Wie man in der Entwicklung so blind so kann, wissen wohl nur die Manager bei AMD.
Ich wünsche mir einen Button "Ich habe kapiert warum man CPUs im CPU Limit testet", und erst wenn man den drückt darf man solchen Quark verzapfen.
Weil er weiß was ein GPU Limit ist, gibt er einen Shice auf das CPU Limit. Wenn er noch Spiele spielt die nicht CPU lastig sind um so besser, Geld gespart.
Es ist nicht zu erwarten das sich die Ergebnisse in synthetischen Benchmark bei der 9000 Serie weiter verbessern und da suchen AMD nun Wege dies Marketingtechnisch auszumerzen, als denn technisch innovativ, Intel nutzt dies gleichfalls.
In der Entwicklung von Ryzen 9000 also AM5 wurden was den Workload betrifft grundlegende Änderungen an den Tuningparametern gegenüber der 7000 Serie vorgenommen, die von AMD so erwünscht waren. Sie haben vor allem Verbesserungen erzielt, mit dem was bei AMD intern getestet wurde, erst später hat man gemerkt das es für syntetische Spielebenchmarks bzw. unter Spielen nicht gut aussieht.
Man kann also behaupten für Spieler bringt die 9000 absolut nichts, egal ob x3d oder nicht, den diese Gen wurde in der Entwicklung auf alles optimiert, nur nicht auf Spiele.
Intel hat das natürlich erkannt und nutzt das für sich, warum auch nicht. Es sind nun mal Konkurrenzunternehmen.
Das ganze ist in Insiderkreisen auch schon länger bekannt.
Jetzt versteht man vielleicht, wir warum die 7000ender X3D Preise für Gamer mit EOL der Serien durch die Decke gehen, AMD schnell die alten kostengünstigen X3D aus dem Markt nehmen will bzw. schnell abverkaufen (so wie den 5800X3D der nun in Deutschland nicht mehr erhältlich ist, dem AMD Land) und wieso die 7000 Serie für Gamer die bessere Option bleiben wird. Schnell abverkaufen, um die 9000ender loszuwerden und den Rest in die Versenkung schieben. Zu glauben AMD wüsste das nicht, lol. Der 9900X3D und 9950X3D kommen ja nicht umsonst viel später, da gibt es massive Probleme bei den Latenzen, die doppelt so hoch und deutlich höher ausfallen, als bei der 7000 Serie.
Poor AMD. Nebelkerzenorgie Ryzen 9000. Ich vermute das wird hier kaum auf Gegenliebe stoßen oder etwas bewirken, AMD is the best...:)
Letztlich trifft es Leo damit, das Hersteller zuweilen und wie hier schon in der Entwicklung kompletten Dummfug testen, wobei sie die Ergebnisse als Grundlage für ihre Entwicklung hernehmen. Intel ist natürlich clever und sieht für sich wahrscheinlich Bereiche wo man angreifen kann. Ryzen sollte wohl besonders effizient werden und nun sitzt man vor seinem Scherbenhaufen. Da wird wohl nur ein Refresh helfen, um das Potential von Ryzen 9000 zu entfesseln. Wird die Aktionäre garnicht freuen
Lehdro
2024-10-16, 14:09:44
Sie haben vor allem Verbesserungen erzielt, mit dem was bei AMD intern getestet wurde, erst später hat man gemerkt das es für syntetische Spielebenchmarks bzw. unter Spielen nicht gut aussieht.
Da hast du etwas gewaltig missverstanden.
Es gibt kaum Änderungen an der Performance OBWOHL die gemessene Latenz zwischen den CCDs mehr als halbiert(!) wurde. Die Re-Reviews mit neuen AGESAs sind da. Wenn sich das so krass negativ auf die Performance auswirken würde, wie hier angedeutet wird, hätten wir das in den Tests gesehen - es hat es sich aber fast nix getan im Vergleich zu Zen 4, der das Problem nicht hatte. Das Problem war tatsächlich nie wirklich eins: Einfach weil die Messmethode grundsätzlich komplett synthetisch ist und damit auch nur ein hochtheoretisches Szenario ausmisst.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.