PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 30. Juli 2025


Leonidas
2025-07-31, 09:35:56
Link zur News:
https://www.3dcenter.org/news/news-des-30-juli-2025

Blase
2025-07-31, 11:21:40
Dafür läßt sich jene bei Ryzen Threadripper (non-Pro) 9000 aber ganz gut an, gemäß der wenigen hierzu aussagekräftigen Testberichte kommt der 64-Kerner Ryzen Threadripper 9980X sogar grob auf der Spiele-Performance eines Core Ultra 9 285K heraus.

Das ließt sich etwas holprig bis zum Komma :tongue:

MfG Blase

Leonidas
2025-07-31, 11:53:21
Mmh. Ich habe eben das "aber" durch ein besser passendes "jedoch" getauscht (neben einer genaueren Formulierung zur Performance). Der Rest ist aber tatsächlich derart gedacht. "Läßt sich ganz gut an" kann man denke ich schreiben.

Blase
2025-07-31, 12:12:51
Tatsächlich ist es grade dieses "Läßt sich ganz gut an", über das ich gestolpert bin. Diese Formulierung ist mir überhaupt nicht geläufig, müsste fast raten, was du damit sagen möchtest.

Aber alles gut, wenn das hier, bei mir, einfach nur nicht gebräuchlich ist und anderswo schon, will ich nichts gesagt haben :tongue:

MfG Blase

Leonidas
2025-07-31, 12:33:15
"etwas lässt sich gut an"
https://www.redensarten-index.de/suche.php?suchbegriff=etwas%2Bl%C3%A4sst%2Bsich%2Bgut%2Ban&bool=and&gawoe=an&sp0=rart_ou&sp1=rart_varianten_ou&von=reg

Gast Ritis
2025-07-31, 12:40:18
Die Top-Ryzen auf AM5 haben HEDT doch bereits übernommen.
Alberne Kommentare, dass hier zu wenige PCIe Lanes geboten würden gibt es oft. Aber mittlerweile gibt es genug MB mit 2x 8L PCIe5 und mehr wird einfach nicht nachgefragt. Mehr breite PCIe4 Slots wären auf der Basis ja möglich, will offensichtlich nur keiner. Nur M.2 gibt es bis zu 5 Stück. Broadcom hat PLX Bridges/Switches eingestellt, die Nachfrage war offensichtlich zu gering. Gibt nur noch Exoten.
Der Rest muss halt Threadripper kaufen, aber das ist heute ein reines Workstation-Produkt.

Zossel
2025-07-31, 12:59:23
Broadcom hat PLX Bridges/Switches eingestellt, die Nachfrage war offensichtlich zu gering. Gibt nur noch Exoten.


Die Preise sind echt happig: (Broadcom ist schon keine Apotheke mehr)
https://www.alternate.de/HighPoint/Rocket-1628A-PCIe-Gen5-x16-to-4-MCIOx8-NVMe-Switch-Adapter-Schnittstellenkarte/html/product/100067388

Und auch Microchip lässt sich das gut bezahlen:

https://www.mouser.de/c/semiconductors/integrated-circuits-ics/interface-ics/pci-interface-ic/?m=Microchip&type=Switch%20-%20PCIe

Bushwacker
2025-07-31, 19:28:55
Die Top-Ryzen auf AM5 haben HEDT doch bereits übernommen.
Alberne Kommentare, dass hier zu wenige PCIe Lanes geboten würden gibt es oft. Aber mittlerweile gibt es genug MB mit 2x 8L PCIe5 und mehr wird einfach nicht nachgefragt.

Zugegeben, dem Normalo (faktisch mir auch, da ich nicht bereit bin, das notwendige Geld für das "mehr" auszugeben) ist alles außer Standard, den ich mal vom Notebook über Mini-PC bis zum Gaming PC mit 1 GPU und 1-2 M.2 SSD definiere, sowieso egal. Genau dafür wurden die Consumer Plattformen auch (Kosten-)optimiert. 95+% aller Anwender (zugegeben, ist geraten, wahrscheinlich sogar höher) sind damit auch völlig zufrieden.

Die bis zu 5% dazwischen sind zwischen Desktop- und Server-Plattform gefangen. Da in diesem Segment üblicherweise auch Geld verdient wird (oder nicht an Dienstleister überwiesen werden soll) oder vielleicht auch Datenschutzbedenken relevant sind, gibt es eben die HEDT (High-End DeskTop) Plattform. Genaugenommen passt die Bezeichnung nicht mehr, da wir hier eigentlich über den Workstation-Markt reden. Als Consumer geht man dann entweder für sein Hobby "all-in" oder ist eben heraus. HEDT für ein "gaming-only" Use Case ist tot. Wenn man Jensen Huang glaubt, allerdings nicht.
"you've probably already invested around $10,000 in your monitor and sound system – will definitely need the best GPU".

Sowie man etwas ernsthaft mit seinem System machen möchte und es nicht nur um Game Benchmarks geht, läuft man mit den Desktop-Plattformen, egal ob AMD oder Intel, vor die Wand.


Die Anzahl der PCIe Lanes ist wichtiger als der verfügbare Standard. Man kann aus 16x PCIe5 eben nicht einfach 32x PCIe4 machen. Bifurcation ist auch nicht allgemein unterstützt.
Egal ob lokale Laufwerke wie M.2 SSD oder schnelle NICs (10G+), um externe Systeme anzubinden, alles braucht PCIe Lanes. Nicht unbedingt den schnellsten Standard, aber eine definierte Anzahl (manche 10G Chips sind noch aus der PCIe3 Zeit, meistens 2-4 Lanes). Woher nehmen? 2.5G LAN reicht gerade mal für ein NAS mit einer (1) schnellen HDD, eine SATA SSD würde schon 5G auslasten, also ist 10G für eine Workstation schon das Minimum. Wie viele Lanes für die jeweilige Karte benötigt werden, kann sich jeder selbst heraussuchen.
Das betrifft auch andere Erweiterungskarten. Wie schön wäre es es, wenn man die lokalen M.2 Ports auf eine PCIe Karte auslagern könnte. Es muss nicht schön aussehen, es muss praktisch sein. Viele mit 4x M.2 Slots wollen dafür ebenfalls 16 Lanes (und Bifurcation).
Ab PCIe5 wäre sogar CXL mit all seinen Optionen denkbar. Das ist auf dem Desktop für die nächsten Jahre aber Wunschdenken.
Mehr RAM Channels und vor allem mit dem Support von (ECC) RDIMMs für die Kapazitätserweiterung. Für Office- und Gaming-PCs ist das aber völlig irrelevant, da die in der Regel mindestens einmal täglich neu gestartet werden und für die meisten Anwendungen auch 32-64GB für die nächsten Jahre ausreichend ist. Ob da irgendein Game einmal wegen eines "kippenden" Bits abstürzt, ist egal.


Unter Umständen kommt hier eines Tages eine neue Art von PCIe-Steckkarte heraus, welche dann eben eine leistungsfähige NPU trägt.

Das ist genau das Thema. Wie genau soll diese NPU denn das KI-Modell verarbeiten? Wenn sie eigenes RAM mit hoher Bandbreite wie eine GPU benötigt, wird sie für meisten Consumer uninteressant, sonst hätte jeder eine 5090 in seinem System (Kosten). Auf das RAM des Host könnte sie nur via CXL vernünftig zugreifen, was wiederum PCIe Lanes und genügend RAM-Slots benötigt (s.o).
In meinen zugegebenermaßen schon etwas längeren Leben habe war ich schon so manches Mal ein "early adopter" und die Erfahrung hat mir gezeigt, es setzt sich meistens nicht die technisch beste Lösung, sondern die mit "good enough for the best price" durch.
Wer ein Beispiel möchte: Die PhysX-Hardware als Steckkarte war genau so eine Lösung, aber für den Massenmarkt zu teuer und im Endeffekt wurde die gleiche und höhere Leistung durch die (Mit-)Nutzung der GPU sogar besser und schneller erbracht.

Seien wir mal realistisch, die Hardware-Hersteller wissen genau, wir sie ihre Pfründe schützen können.
Die Diskussion um den lokalen Betrieb von LLM auf Consumer-Systemen mit CPU/GPU/NPU Kombinationen (APUs) und unified RAM ist weitgehend sinnfrei (ja, wurde nicht in diesem Thread geführt, aber durchaus in anderen Foren und einer größeren Anzahl von Youtube-Kanälen). Wenn die Systeme für den Consumer erschwinglich werden, sind die Anforderungen an professionelle Systeme und Anwendungen in anderen Sphären.
Für Games ist das sowieso nicht zielführend. Ich behaupte mal, dass man Gegner durch KI-Modelle schneller mit intelligentem Verhalten realisieren könnte, als der Mensch lernt, wie er sie besiegen kann (sofern das überhaupt möglich ist). Ein Spiel, das man nicht gewinnen kann, würde aber kaum jemand kaufen, wodurch schon die Entwicklung desselben obsolet würde.

Platos
2025-08-01, 09:35:57
Abwandert sollte wohl eher abgewandert heissen?

Bezüglich Threadripper: Völlig überteuert. Dreimal so teuer + überteuerte Plattform un man kriegt + 50% Kerne. Dazu kommt noch, dass man davon ausgehen kann, dass mit Zen6 genau diese 24 Kerne deutlich günstiger zu haben sind und mit Zen7 dann 32 Kerne.

Also daher kann man m.M.n sagen, dass es reine Profi-CPUs sind. Gäbe es jetzt in absehbarer Zeit nicht mehr Kerne, könnte man ja über Enthusiastenstatus nachdenken, aber so ist das m.M.n nur für Profis sinnvoll und für Deppen :)

Aber gut, Threadripper ist das ja schon lange

Leonidas
2025-08-01, 11:13:04
Abwandert sollte wohl eher abgewandert heissen?

In der Tat, gefixt.

Gast
2025-08-01, 11:16:29
Für Games ist das sowieso nicht zielführend. Ich behaupte mal, dass man Gegner durch KI-Modelle schneller mit intelligentem Verhalten realisieren könnte, als der Mensch lernt, wie er sie besiegen kann (sofern das überhaupt möglich ist). Ein Spiel, das man nicht gewinnen kann, würde aber kaum jemand kaufen, wodurch schon die Entwicklung desselben obsolet würde.
Das kannst du mit nem "Aimbotter" schon heute haben.
Und sonst hilft die KI auch nix in Spielen. Die Rechenleistung und der Skill der Programmierer gibt noch nicht mal gescheite Wegpunktfindung und Variation mehr her. Da wae man 2005 schon weiter als heute. Bot-Fahrzeugsteuerung wurde bis heute niemals im Ansatz richtig betrieben, hallo Bazzelfield oder Arma.
UT 2004 vielleicht noch am besten, ein absolutes Armutszeugnis dieser Branche.
Man müsste die Programmierer und die Publisher-BWLer durch KI ersetzen, vielleicht wirds dann was.

Exxtreme
2025-08-01, 11:29:30
Das kannst du mit nem "Aimbotter" schon heute haben.
Und sonst hilft die KI auch nix in Spielen. Die Rechenleistung und der Skill der Programmierer gibt noch nicht mal gescheite Wegpunktfindung und Variation mehr her. Da wae man 2005 schon weiter als heute. Bot-Fahrzeugsteuerung wurde bis heute niemals im Ansatz richtig betrieben, hallo Bazzelfield oder Arma.
UT 2004 vielleicht noch am besten, ein absolutes Armutszeugnis dieser Branche.
Man müsste die Programmierer und die Publisher-BWLer durch KI ersetzen, vielleicht wirds dann was.

KI in Spielen ist mit voller Absicht schlecht. In den Nuller Jahren haben einige Leute Experimente gemacht mit sehr guter Spiele-KI. Und haben gemerkt, solche Spiele machen absolut keinen Spaß. Die Spiele waren viel zu schwer und das artete teilweise auch in Sisyphus-Arbeit aus zu gute KI-Gegner zu besiegen. Diese Gegner haben sich versteckt, haben Hinterhalte gelegt etc.

Deshalb ging die Entwicklung der KI in Spielen nicht in Richtung realistisches/immersives Verhalten der Gegner sondern mehr auf Show ala Gegner in Action-Filmen.

Platos
2025-08-02, 15:45:19
Schwarz-Weiss Denken hilft auch nicht. In der Community gibt es bei manchen Spielen oft Mods, bei dem die KI so spielt, wie echte Spieler.

Genau das bräuchte es. Natürlich in verschiedenen Stufen, das ist klar. Machbar wäre es auf jeden Fall. Niemand will eine "KI", die einfach unbesiegbar ist. Aber man will das Gefühl haben, gegen echte Spieler zu spielen und das geht genau dadurch wunderbar. Aber man macht sich (meistens) nicht den Aufwand.

Gast
2025-08-02, 16:58:13
KI in Spielen ist mit voller Absicht schlecht. In den Nuller Jahren haben einige Leute Experimente gemacht mit sehr guter Spiele-KI. Und haben gemerkt, solche Spiele machen absolut keinen Spaß. Die Spiele waren viel zu schwer und das artete teilweise auch in Sisyphus-Arbeit aus zu gute KI-Gegner zu besiegen. Diese Gegner haben sich versteckt, haben Hinterhalte gelegt etc.

Gute KI hat nichts mit Schwierigkeit zu tun, Doom 4/5 kann auch knackig sein trotz rudimentärster KI. Und ein Teil des Publikums mag das knackig sein. Die Wahrheit ist, die Programmierer können es sich nicht mehr und es kostet auch zuviel Entwicklungszeit. Deshalb gibt es ja kaum noch Bots, sondern nur billigstes Online, wo man mit jeglichem Menschenschlag Vorlieb nehmen muss und ohne wirklichen Cheat-Schutz.
Bot-Fahrzeugsteuerung kostet noch mehr CPU-Leistung, erinnere mich mal an nen Battlefield-2?-Mod, wo die Bots auch Heli und Flugzeuge fliegen konnten. Hat aber die CPU gut getanked. Multi-Core hilft da auch nur bedingt, weil die KI auch mit dem Mainthread kommunzieren muss.
Wir sind bei KI-Gaming wieder in der Dampflokzeit angekommen.
Physik ist auch weg, zuviel Aufwand, kein Können, zuviel CPU-Zeit, die eh schon durch Gurken-Engines fürs bloße Rendering verbraten wird.