Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 6. August 2025


Leonidas
2025-08-07, 09:03:46
Link zur News:
https://www.3dcenter.org/news/news-des-6-august-2025

Blase
2025-08-07, 09:13:19
... Preissteigerung bei der GeForce RTX 50 Serie in China. Begründet wird dies mit (angeblich) schwachen Absätzen sowie damit (über das Idealmaß) steigenden Lagerbeständen.

Schwacher Absatz und hohe Lagerbestände => Lasst uns die Preise erhöhen! :tongue:

;)

MfG Blase

Zossel
2025-08-07, 09:38:10
Beispielsweise kommt DDR5/6400 in einem DualChannel-System auf 102 GB/sec, das könnte eine SSD nach PCIe 8.0 mit 4 Lanes bereits leicht überbieten (128 GB/sec).

Mindestens einmal will man die Sachen die von SSD gelesen wurden auch anfassen, also kann man die RAM-Bandbreite durch zwei teilen.

Und In den meisten Anwendungsszenarien werden die Daten auch mehrfach kopiert.

Zossel
2025-08-07, 09:43:25
Bislang gilt der Support von AVX512 zwar eher als Platzfresser wie Verlustleistungssteigerer, aber natürlich könnten frühere Versuche auch einfach noch nicht zur (seinerzeit) vorhandenen Software-Landschaft gepasst haben und das Feature in ein paar Jahren viel eher denn einen Nutzern zeigen.

AMD kann AVX512 auch platzsparend. Intel ist da ganz klar nicht der Maßstab.
Und AVX512 soll auch den Wildwuchs bei SIMD on X64 baselinen.

Gast
2025-08-07, 11:43:33
Und In den meisten Anwendungsszenarien werden die Daten auch mehrfach kopiert.

Also in den meisten Anwendungsfällen werden Daten 1x vom permanenten Speicher in den RAM geladen, und ein vielfaches davon aus dem RAM geladen und damit gearbeitet. Die benötigte Bandbreite zum Laden und Verarbeiten der Daten zu der "Lesebandbreite" dazuzurechnen ist da nicht wirklich sinnvoll.

Dovregubben
2025-08-07, 11:50:53
Man könnte die neuen PCI-E Versionen ja auch dazu benutzen einfach weniger Lanes zu nutzen und damit die Mainboards vereinfachen. Dann läuft die Grafikkarte halt nur noch mit 4 Lanes und eine SSD mit einer Lane.

Leonidas
2025-08-07, 11:55:19
Korrekt. Darauf wird es wohl langfristig hinauslaufen. Bedeutet aber auch: Mindestens 1 Gen mit Performance-Stillstand. Denn PCIe 6.0 x4 = PCIe 7.0 x2 .... wer kauft dann diese SSDs, wenn sie nicht schneller sind?

Gast
2025-08-07, 12:20:54
Graphics Cards Besteller Newegg USA [TechEpiphany @ X]
CPU Besteller Newegg USA [TechEpiphany @ X]

Das sollen wohl Bestseller sein, oder?

Gast
2025-08-07, 12:27:12
Keychron verbessert MX-Master-Alternative mit Metallrad und Silent-Switches zum günstigeren Preis [Notebookcheck]

Da liegt ein falscher Link hinter.

Badesalz
2025-08-07, 12:32:07
Was PCIe angeht, ich glaub die geben das langsam auf das weiter rein elektrisch zu machen. Ich bin extrem gespannt auf die Steckverbindungen. Da wird sich jedenfalls anscheinend sehr viel ändern.
Eigentlich, eigentlich pfeift schon 5.0 aus dem letzten Loch. Es wird kaum noch was ohne LWL.

(am Rande: PCIe in netto ;) 250, 500, 985, 1969, 3938, 7562 und 15125 MB/s)

Und AVX512 soll auch den Wildwuchs bei SIMD on X64 baselinen.Intel redet schon von AVX 10.2 :ulol:
Darum muss sich jetzt die x86 advisory group mitkümmern. Intel drehte da jahrelang komplett am Rad bei SSE wie bei AVX. Völlig Banane.

edit
Sagt mal hört das Rumrotzen auf die Verkaufszahlen bei Mindfactory damit endlich auf, wenn AmazonUSA da so nah dran liegt? :wave:

Leonidas
2025-08-07, 12:59:36
Das sollen wohl Bestseller sein, oder?

In der Tat (ist aber auch schon im Original falsch). Gefixt.


Da liegt ein falscher Link hinter.

Gefixt & Danke. Korrekter Link lautet:
https://www.notebookcheck.com/Keychron-verbessert-MX-Master-Alternative-mit-Metallrad-und-Silent-Switches-zum-guenstigeren-Preis.1080895.0.html

Grafikspachtel
2025-08-07, 13:22:32
Man könnte die neuen PCI-E Versionen ja auch dazu benutzen einfach weniger Lanes zu nutzen und damit die Mainboards vereinfachen. Dann läuft die Grafikkarte halt nur noch mit 4 Lanes und eine SSD mit einer Lane.

Das ist bereits jetzt ein Riesenproblem.
Beispiel: Ich möchte eine U.2-SSD über einen PCIe-Adapter betreiben.
Die SSD kann/erwartet PCIe 5.0x4, aber es gibt nirgendwo ein Mainboard, welches 4 PCIe 5.0 Lanes anbietet, selbst die teuersten High-End AM5-Boards mit 870E liefern lausige PCIe 4.0x4 (ein x16-Slot hilft nichts, da die SSD nur exakt 4 Lanes kann - und diese müssen Gen5 sein).

Theoretisch haben wir im Jahr 2025 mit AM5 Support für PCIe 5.0
De facto heißt das eine Gen5 M.2 SSD (x4 Lanes) und eine Gen5 GPU (x16 Lanes) - und der gesamte Rest krebst weiterhin mit Gen4 rum.

Leonidas
2025-08-07, 13:28:33
Problem: Die Gen5 Controller kosten mehr und werden hitziger. Ergo verbaut man die nur dort, wo man sie unbedingt braucht. Dieses Problem wird mit neueren PCIe-Normen zunehmen.

Blase
2025-08-07, 13:53:58
Schwacher Absatz und hohe Lagerbestände => Lasst uns die Preise erhöhen! :tongue:

;)

MfG Blase

Scheinbar wurde mein augenzwinkernder Kommentar so nicht verstanden: Es geht hier nicht um eine Steigerung, sondern um eine Reduzierung der Preise. Der Text müsste entsprechend angepasst werden :tongue:

MfG Blase

Lehdro
2025-08-07, 14:30:11
Das ist bereits jetzt ein Riesenproblem.
Beispiel: Ich möchte eine U.2-SSD über einen PCIe-Adapter betreiben.
Die SSD kann/erwartet PCIe 5.0x4, aber es gibt nirgendwo ein Mainboard, welches 4 PCIe 5.0 Lanes anbietet, selbst die teuersten High-End AM5-Boards mit 870E liefern lausige PCIe 4.0x4 (ein x16-Slot hilft nichts, da die SSD nur exakt 4 Lanes kann - und diese müssen Gen5 sein).

Theoretisch haben wir im Jahr 2025 mit AM5 Support für PCIe 5.0
De facto heißt das eine Gen5 M.2 SSD (x4 Lanes) und eine Gen5 GPU (x16 Lanes) - und der gesamte Rest krebst weiterhin mit Gen4 rum.
AMD hat das maximal dämlich gelöst mit der USB 4.0 über die festen 5.0 x4 Lanes. Aber Intel halt auch. Niemand sieht derzeit 5.0 abseits von M.2 oder x16 Slots vor, aber eine Lösung gäbe es für AM5: teure Alternative (https://geizhals.de/asrock-rack-b650d4u-a2952737.html?hloc=de).
Was du aber eigentlich brauchst ist ein M.2 auf U.2 Adapter, denn 5.0 x4 M.2 Slots findest du eher auf aktuellen Mainboards als 5.0 fähige PCIe Slots die nicht mit dem primären 5.0 x16 geshared sind. Im Falle von B650E und X670E sogar teilweise zwei 5.0 x4 M.2 Slots ohne Sharing. Für 4.0 kostet so ein Adapter um die 50 €, für 5.0 habe ich noch keinen gefunden.

Leonidas
2025-08-07, 14:59:28
Scheinbar wurde mein augenzwinkernder Kommentar so nicht verstanden: Es geht hier nicht um eine Steigerung, sondern um eine Reduzierung der Preise. Der Text müsste entsprechend angepasst werden :tongue:

MfG Blase

Ich Idiot habe tatsächlich das vollständige Wort "Preissteigerung" anstatt "Preissenkung" geschrieben. Da soll eine Rechtschreibprüfung mal nachkommen! Schwerer Fehler, nunmehr erkannt und gefixt.

Rabiata
2025-08-07, 15:24:39
Mindestens einmal will man die Sachen die von SSD gelesen wurden auch anfassen, also kann man die RAM-Bandbreite durch zwei teilen.

Und In den meisten Anwendungsszenarien werden die Daten auch mehrfach kopiert.
Aber auch PCI Express 6.0 erwartet nicht vor 2030 (Leo)
Bis dahin dürfte sich auch beim RAM noch einiges tun. CAMM zum Beipiel. Ein Modul hat eine Busbreite von 128 bit, die wenigen die ich online gefunden habe sind LPDDR5X-7500. Das ergibt 120 GB/s pro Modul und entsprechend mehr für mehrere Module.
Auch mit Blick auf große APUs könnte ich mir vorstellen, daß Syteme mit zwei oder vier CAMM Modulen verfügbar werden. Das wäre dann im HEDT-Bereich, aber wenn die Leute auch 2000 Euro füre eine 5090 ausgeben, wieso nicht?

Leonidas
2025-08-07, 15:44:35
Nein, mehrere Modelle erhöhen nicht die Bandbreite. Das Speicherinterface in der CPU bleibt schließlich identisch. Siehe 2 Speicherbänke oder 4 Speicherbänke bei gewöhnlichen Mobos - die Bandbreite bleibt auch da dieselbe.

Hieraus helfen nur höhere Speichertaktraten, auf größere Interfaces muß man im Consumer-Bereich nicht setzen. Problem: Die Speichertaktraten bei DRAM entwickeln sich (gravierend) langsamer als eine Verdopplung aller drei Jahre.

Rabiata
2025-08-07, 16:19:08
Nein, mehrere Modelle erhöhen nicht die Bandbreite. Das Speicherinterface in der CPU bleibt schließlich identisch. Siehe 2 Speicherbänke oder 4 Speicherbänke bei gewöhnlichen Mobos - die Bandbreite bleibt auch da dieselbe.

Jedes CAMM-Modul belegt eine feste Breite des Speicherinterfaces.. Der Speicher auf dem Modul kann auf zwei Ebenen gestapelt werden, das "zweite Stockwerk" enthält dann die zweite Speicherbank.
Mehrere Module implizieren eine größere Breite des Speicherinterfaces. Feld-Wald-und Wiesen-Mainboards für den Durchschnittsnutzer werden einen Sockel haben, ein Board mit zwei Sockeln wird dann für Threadripper (non-Pro) oder Strix Halo sein.

Leonidas
2025-08-08, 03:55:09
Selbst wenn die CAMM-Module das könnten - das Interface auf CPU-Seite bleibt gleich breit. Mehr als dort an Bandbreite durchgeht, brauchen die Module nicht liefern. Irgendwelche Verdopplungen auf Modul-Seite sind auf der CPU-Seite somit wirkungslos. Ganz egal welche Technik man ansetzt.

PS: Technisch ist es im Endeffekt wie Clamshell. Die vielen Speichermodule erhöhen ja auch nicht die Bandbreite (obwohl deren kumulierte Interfaces dafür reichen würden), sondern nur die VRAM-Menge.

Zossel
2025-08-08, 07:46:28
da die SSD nur exakt 4 Lanes kann - und diese müssen Gen5 sein).

Dann ist das kein PCIe-Device.

Platos
2025-08-08, 09:18:47
Also hinsichtlich Konkurrenz von SSD und RAM: RAM hat doch viel niedrigere Zugriffszeiten. Das ist ja bei beiden das Problem: Bei RAM sinken die Latenzen eigentlich nie, bei keiner Generation und bei SSDs, sinken die Zugriffszeiten auch nur marginal über die Jahre.

Das ist doch viel wichtiger als DDR6-Bandbreitr und PCI-E 6.0 Bandbreite (also für Consumer).

Leonidas
2025-08-08, 11:59:04
Stimmt natürlich. Die maximale Bandbreite erreicht man ja letztlich auch nur in Benchmarks.

Rabiata
2025-08-08, 12:22:48
Selbst wenn die CAMM-Module das könnten - das Interface auf CPU-Seite bleibt gleich breit. Mehr als dort an Bandbreite durchgeht, brauchen die Module nicht liefern. Irgendwelche Verdopplungen auf Modul-Seite sind auf der CPU-Seite somit wirkungslos. Ganz egal welche Technik man ansetzt.

PS: Technisch ist es im Endeffekt wie Clamshell. Die vielen Speichermodule erhöhen ja auch nicht die Bandbreite (obwohl deren kumulierte Interfaces dafür reichen würden), sondern nur die VRAM-Menge.
"Wie Clamshell" verstehe ich auch so. Und das Speicherinterface auf der CPU müßte natürlich dazu passen. Toms Hardware (https://www.tomshardware.com/pc-components/cpus/amds-beastly-strix-halo-ryzen-ai-max-debuts-with-radical-new-memory-tech-to-feed-rdna-3-5-graphics-and-zen-5-cpu-cores) gibt für Strix Halo 256 bit und bis zu 256 GB/s an. Halbiert auf die heute üblichen 128 bit wären das immer noch 128 GB/s. Das ist existierende Technologie.

Am Desktop wären sowieso andere Mainboards nötig, weil die alten Speichermodule nicht passen würden. Das wird wahrscheinlich nicht vor AMD's nächstem Sockelwechsel auf CPU-Seite kommen, so ähnlich wie bei Zen 4 und DDR5. Vielleicht mit Zen 7? Was zeitlich auch zu "PCIe 6.0 erwartet nicht vor 2030" passen würde.

Leonidas
2025-08-08, 13:08:41
Strix Halo mit 256-bit wird aber im Special bleiben, voraussichtlich nie zum Mainstream werden. Naja, zumindest nicht in mittelfristiger Zukunft.

Exxtreme
2025-08-08, 13:25:54
256-Bit-Speicherinterfaces würden auch die Hauptplatinen verteuern. Und man müsste sie auch noch mit 4 RAM-Modulen bestücken für volle Leistung. Gut, man könnte DDR7-Module ebenfalls verbreitern auf 128 Bit.

Und die allerwenigste Software profitiert von viel Bandbreite. Denn die allerwenigste Software schiebt gigabyteweise Daten hin und her.

bun
2025-08-08, 13:31:47
Also hinsichtlich Konkurrenz von SSD und RAM: RAM hat doch viel niedrigere Zugriffszeiten. Das ist ja bei beiden das Problem: Bei RAM sinken die Latenzen eigentlich nie, bei keiner Generation und bei SSDs, sinken die Zugriffszeiten auch nur marginal über die Jahre.

Das ist doch viel wichtiger als DDR6-Bandbreitr und PCI-E 6.0 Bandbreite (also für Consumer).

Latenzen gehen automatisch hoch sobald man die Kapazität erhöht, Bandbreite geht automatisch hoch sobald man die Kapazität erhöht.

Stell dir einfach vor das die Geschwindigkeit mit der du auf eine einzelne Speicherzelle zugreifen kannst gleich bleibt.
Du erhöhst jetzt aber die Anzahl (Kapazität) der Speicherzellen. Bandbreite steigt perfekt linear mit wenn wir so organisieren das jede Speicherzelle parallel beschrieben und gelesen werden kann.
Latenz geht aber runter, weil jede Speicherzelle Platz braucht und das heißt das deine Speicherzellen jetzt weiter voneinander entfernt sind.
Ist natürlich Vereinfacht und ignoriert Organisations- und Verwaltungsaufwand, aber die Grundprinzipien sind korrekt.

D.h. mit der Kapazitätssteigerung gibt es Bandbreitensteigerungen quasi kostenlos mit, aber Latenz gleich zu halten und nicht zu Steigern braucht quasi Magie. Senken ist quasi unmöglich.

Daher kommt die Kapazität/Latenz Kopplung bei Speicher allgemein.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93844&stc=1&d=1754652569

Zossel
2025-08-08, 15:07:45
Latenzen gehen automatisch hoch sobald man die Kapazität erhöht, Bandbreite geht automatisch hoch sobald man die Kapazität erhöht.

DRAM-Latenzen sind schon seit Anno Schnuck quasi gleich.
NVME-Platten hängen auch an den round-trip Zeiten von PCIe, da ändert sich auch nicht viel.
Und das unabhängig von der Kapazität.

Wo wird den so ein Lötzinn unterrichtet?

Gast
2025-08-08, 19:07:24
Also hinsichtlich Konkurrenz von SSD und RAM:


Es geht nicht um die Konkurrenz von SSD und RAM, die existiert wie du sagst nicht. Es geht darum, dass die Daten die man von einer SSD liest irgendwo hin müssen, und das ist praktisch immer der RAM. Die RAM-Bandbreite begrenzt effektiv die mögliche SSD-Bandbreite, egal wie schnell PCIe ist.

Platos
2025-08-09, 13:37:03
Ja, das ist schon korrekt. Das habe ich mir auch kurz überlegt. Aber als Consumer ist das nicht sooo relevant. Also klar, vlt. mit AI-Zeugs, aber das ist ja dann nur noch halb-Consumer.

Aber ansonsten teicht doch DDR5 Bandbreite oder vlt. gibt es sogar DDR6 bis es PCI-E 6.0 auf Consumerhardware gibt.

Gast
2025-08-12, 07:41:30
Ja, das ist schon korrekt.


Es wäre relevant, wenn man die PCIe-Bandbreite skalieren würde, ohne die DRAM Bandbreite mit zu skalieren, was höchstwahrscheinlich nicht passieren wird.
Und nur weil die PCIe-Bandbreite vorhanden ist ist ja noch lange nicht sicher ob (consumer) SSDs diese auch wirklich voll ausnutzen, da gibt es in der Regel doch deutliche verzögerungen.


Also klar, vlt. mit AI-Zeugs, aber das ist ja dann nur noch halb-Consumer.


"A1-Zeugs" lässt du sicher nicht über SSDs laufen, und wenn dann höchstens as "Consumer-Spielerei", weil du nicht den RAM für beispielsweise ein volles Deepseek-Model hast.


Aber ansonsten teicht doch DDR5 Bandbreite oder vlt. gibt es sogar DDR6 bis es PCI-E 6.0 auf Consumerhardware gibt.

So wird es wahrscheinlich sein.