PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 18. März 2025


Leonidas
2025-03-19, 08:47:05
Link zur News:
https://www.3dcenter.org/news/news-des-18-maerz-2025

Gast
2025-03-19, 09:56:40
Ob nVidia damit dem Consumer-Markt diese 24-Gbit-Speicherchips entzieht, ist nicht gänzlich sicher, da für diese Profi-Karten GDDR7-Speicherchips mit EEC verwendet werden.

Den Speicherchips ist es egal ob sie "Nutzbits" oder "Fehlerkorrekturbits" speichern, die unterscheiden sich nicht.

Gast
2025-03-19, 10:38:10
Hatten ECC Speicherchips nicht zusätzliche Datenleitungen für die Korrekturdaten, sodass ein tatsächlicher Hardwareunterschied besteht? Diese extra Datenleitungen müssen dann in Consumerprodukten nicht genutzt werden, genauso wie ECC Ram DIMMs auch ohne ECC genutzt werden können.

Gast
2025-03-19, 13:48:32
Hatten ECC Speicherchips nicht zusätzliche Datenleitungen für die Korrekturdaten, sodass ein tatsächlicher Hardwareunterschied besteht? Diese extra Datenleitungen müssen dann in Consumerprodukten nicht genutzt werden, genauso wie ECC Ram DIMMs auch ohne ECC genutzt werden können.

So weit ich weiß, nicht bei GDDR7. Da ist ECC allein über den Memory Controller implementiert. Deswegen kann ECC in Nvidia Treiber an/ausgeschaltet werden.

Du denkst hier warscheinlich an DDR5 ECC RAM Module (also sowohl DIMMs als auch CAMM Module). Da braucht man tatsächlich extra Pins für ECC

Gastollero
2025-03-19, 16:04:02
Wo sind denn jetzt diese ganzen Kosten-Nutzen Rechnungen für KI-Systeme?
Eigentlich müssten doch längst harte Zahlen belegbar sein die zeigen was das bringt und warum man so einen KI-PC überhaupt kaufen sollte.

Nicht dass das im modernen wilden Westen hauptsächlich nur Schlangenöl vom Quacksalber war der das so schnell wie möglich von der Wagenpritsche runter verkaufte.

Kann es sein, dass diese ganze bescheuerte Werbung die in Adblockern hängen bleibt und das ganze Pseudo-Netz mit Ghost-Account-Content und Austausch zwischen Fake-Profilen künftig durch diese KI-Systeme noch billiger zu betreiben sein werden und eigentlich doch keiner normaler Mensch wirklich hinschauen will? Naja, mindestens die Trump-Wähler konsumieren so einen Driss vermutlich ungefiltert.

Gast
2025-03-19, 17:01:54
Du denkst hier warscheinlich an DDR5 ECC RAM Module (also sowohl DIMMs als auch CAMM Module). Da braucht man tatsächlich extra Pins für ECC

So ist es, Speicherchips selbst sind „dumm“ und einfach nur zum Speichern von Daten da.

Für ECC braucht es Logik, und die existiert nicht in den Speicherchips sondern in einem Controller der diese ansteuert. Solche existieren auf DIMMs aber nicht in den Speicherchips selbst.

Gast
2025-03-19, 17:05:49
Hatten ECC Speicherchips nicht zusätzliche Datenleitungen für die Korrekturdaten, sodass ein tatsächlicher Hardwareunterschied besteht? Diese extra Datenleitungen müssen dann in Consumerprodukten nicht genutzt werden, genauso wie ECC Ram DIMMs auch ohne ECC genutzt werden können.

Nein, die Chips sind die gleichen. Bei CPUs wird der Datenbus für ECC normalerweise verbreitert und entsprechend zusätzliche Chips verbaut. Bei GPUs wird das nicht gemacht, die extra Bits werden inline gespeichert, da nicht latenzkritisch. Entsprechend Benchmarken GPUs immer etwas langsamer, wenn man ECC einschaltet.

Unabhängig davon gibt es einen CRC auf der Protokollebene. Das dedektiert aber nur Übertragungsfehler.

Zossel
2025-03-19, 23:13:18
So weit ich weiß, nicht bei GDDR7. Da ist ECC allein über den Memory Controller implementiert. Deswegen kann ECC in Nvidia Treiber an/ausgeschaltet werden.

Das ist kein richtiges ECC, sondern lediglich eine Sicherung auf dem Bus.
Der Burst schiebt hinten noch eine CRC nach, und bei einem CRC Fehler folgt ein Retransmit.

Leonidas
2025-03-20, 03:56:22
Wo sind denn jetzt diese ganzen Kosten-Nutzen Rechnungen für KI-Systeme?

Da warte ich auch schon lange drauf.

Aber ich habe eine Theorie: Mittels des KI-Booms wird nur Geld verbrannt, was sowieso bei MS, Google, Amazon, Meta, Apple herumlag - und nutzlos herumlag, weil es keine Investionsmöglichkeit gab. Nun wird es in KI gepumpt in der Hoffnung, das nächste Weltwunder zu ermöglichen. Der Punkt hieran ist: Da es sich eh schon um Gewinne handelt, kommt keine der Firmen in Schwierigkeiten mit ihren Krediten. Andere Firmen hätten für den ganzen Zauber sich verschulden müssen - und dann ist der Weg kurz zu einer Neubewertung der Situation, ob denn die Investition grechtfertigt ist oder abzubrechen sei. Nicht so bei MS, Google, Amazon, Meta, Apple - die verbrennen nur Geld, was sie schon auf der Plus-Seite hatten.

Gast
2025-03-20, 07:32:11
Wo sind denn jetzt diese ganzen Kosten-Nutzen Rechnungen für KI-Systeme?


Die sind zumindest bei textbasierter KI enorm, hier halten sich die Kosten in grenzen, und die erreichbare Zeitersparnis ist enorm, und Arbeitszeit ist nun mal in vielen Branchen die größte Ausgabe.

Zossel
2025-03-20, 07:42:31
Da warte ich auch schon lange drauf.

Hier: https://www.customerexperiencedive.com/news/gartner-symposium-keynote-AI/731122/

Zossel
2025-03-20, 09:31:02
Die sind zumindest bei textbasierter KI enorm, hier halten sich die Kosten in grenzen, und die erreichbare Zeitersparnis ist enorm, und Arbeitszeit ist nun mal in vielen Branchen die größte Ausgabe.

Dem muss man auch die Schäden gegenüber stellen: https://www.derstandard.at/story/3000000262017/chatgpt-dichtete-einem-mann-einen-doppelten-kindsmord-an

Gast
2025-03-20, 18:34:40
Dem muss man auch die Schäden gegenüber stellen: https://www.derstandard.at/story/3000000262017/chatgpt-dichtete-einem-mann-einen-doppelten-kindsmord-an

Ähm nein, das eine hat mit dem anderen nichts zu tun.

AI ist ein Tool wie viele andere auch, nur weil man mit einem Tool Blödsinn anstellen kann ist nicht das gesamte Tool in Frage zu stellen.

Und wenn dieses Tool mir ermöglicht eine Aufgabe doppelt so schnell zu erledigen ist es ein Gewinn, jedem der diese Tools ernsthaft einsetzt und nicht nur als Spielerei ist klar, dass man den Output nicht 1:1 verwenden kann, aber eine große Hilfe sein kann wo und wie man starten sollte um ein Problem zu lösen.