PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - N1X & GB10 (SoC mit ARM-CPU von MediaTek und Blackwell-GPU von nVidia, 3 nm, 2026)


Seiten : 1 [2]

Badesalz
2025-09-19, 15:00:14
Edit:

https://www.computerbase.de/news/wirtschaft/details-zum-intel-nvidia-deal-ein-gb10-mit-x86-zu-erwarten-us-politik-ohne-einfluss.94393/#244. My Lord...

TheAntitheist
2025-09-20, 03:27:54
Was ein Bullshit aber halt mal wieder nVidia Gehirnwäsche Marketing at its best.

NVLINK ist im wesentlichen OpenCAPI das von IBM kommt. IBM hat also nVidia etwas gegeben und nicht umgekehrt...

Ob es am Ende überhaupt etwas in nVLink gibt das es in OpenCAPI nicht gibt kann man leider nicht sagen da eben proprietär...
Auf Wiki steht nichts davon das IBM das entwickelt hat und GPT findet auch gar nichts in diese Richtung. Beweis mal deine Behauptungen oder Bann

mironicus
2025-09-20, 06:53:46
Wenn dann eine APU mit LPPDR6x erscheint mit bis zu 128-256 GB RAM auf die die NVidia-Grafik Zugriff hätte, wäre das geil für LLM und Co.

basix
2025-09-20, 09:23:09
Sowas dürfte es von AMD und Nvidia in der nächsten Generation geben (RDNA5 + Zen 6; Rubin + ARM/Intel). Evtl. auch von Intel mit Celestial. Und Qualcomm wird dort vermutlich auch mitmischen wollen.

Ich finde diese "Big APU" Dinger generell cool für professionele Workstations (hauptsächlich MiniPC sowie Notebook). Als Entwickler / Ingenieur bekommt man dort genau das Richtige: Schnelle CPU, schnelle GPU für CAD usw. und viel Speicher. Und das in einem kompakten / mobilen Formfaktor.

Leonidas
2025-09-21, 07:59:28
Habe dem Thread mal einen neuen Namen gegeben, da sich nun langsam klärt, wie das ganze zusammenhängt. Daneben 3DC News-Übersichtsseite zu N1(X) und GB10 aufgelegt:
https://www.3dcenter.org/news/nvidia-n1x-gb10

MSABK
2025-09-21, 08:56:48
Ich bin maximal verwirrt. Kommt nun ein Windows on Arm Chip oder nicht?

robbitop
2025-09-21, 09:40:35
btw: Von einer shield2 hört man leider gar nichts. :( Weder mit dem Switch2 chip noch mit dem Mediatek. Anscheinend hat Nvidia keine Lust mehr auf diesen Markt.

Die Shield 1 altert leider nach 10 Jahren leider doch. RAM wird immer enger und aufgrund der alten Android Version sind Dinge wie modernes Refreshrate Switching in Verbindung mit dem Handshake von hdmi kaputt - und für eine neue Android Basis scheint die Plattform leider schon zu sehr in die Jahre gekommen zu sein.
Dazu könnte man mit einem modernen SoC sicherlich was Image Processing angeht auch richtig abliefern (bessere Motion Interpolation, Scaling, denoising etc)


—————————

Was den Nvidia Chip angeht. Ich hab mich schon länger gefragt warum man sich da den Aufwand von Chiplets mit 2,5d interconnects macht (iirc war das doch bei GB10x so). Jetzt word es klarer: so kann man die GPU mit verschiedensten CPUs kombinieren ohne neue Chips aufzulegen. ZB mit Intel, mit Mediatek oder oder

Leonidas
2025-09-21, 10:37:42
Ich bin maximal verwirrt. Kommt nun ein Windows on Arm Chip oder nicht?

Na logisch. Das ist N1(X). Unter dem Namen "GB10" wird 100% derselbe Chip verwendet für Profi-Mini-PCs (für Linux).

bbott
2025-09-21, 18:44:52
btw: Von einer shield2 hört man leider gar nichts. :( Weder mit dem Switch2 chip noch mit dem Mediatek. Anscheinend hat Nvidia keine Lust mehr auf diesen Markt.

Die Shield 1 altert leider nach 10 Jahren leider doch. RAM wird immer enger und aufgrund der alten Android Version sind Dinge wie modernes Refreshrate Switching in Verbindung mit dem Handshake ...

Ja, ich hätte auch extrem gerne eine Shield 2 mit echtem verbessertem AI upscaling, HDR10+ Support, HDMI 2.1+, mehr HW Codec Support, besserer HW,...

Aber ich denke NV sieht die NV Shield als Riesen flop, weil das Gaming Streaming kaum bzw. nicht genutzt wurde und so keine dauerhafte (zuverlässige) Einnahme Quelle geschaffen wurde. Die Marge viel kleiner als bei AI Produkten.

Gibt es ein Kalkulation, was die Shield in der Herstellung kostet? BOM Liste?

bbott
2025-09-21, 18:53:06
Ich habe mal mit ChatGPTdie BOM versucht zu schätzen:
NVIDIA Shield TV Pro (2019) – geschätzte BOM (auf Basis Nintendo Switch 2019)

Hinweis: Schätzungen basieren auf der Nintendo Switch 2019 BOM von IHS (~257 USD).
Shield spart Display, Akku, Joy-Cons & Dock, hat dafür Fernbedienung & Alu-Gehäuse.


Komponente Switch 2019 Shield Pro 2019 Kommentar
---------------------------------------------------------------------------
SoC (Tegra X1+) ~21 USD ~21 USD Gleicher Chip
RAM (LPDDR4) ~18 USD ~15 USD Switch 4 GB, Shield 3 GB
Flash (NAND) ~16 USD ~8 USD 32 GB vs. 16 GB
Mainboard + I/O ~50 USD ~45 USD Ähnliche Ausstattung
Display (LCD+Touch) ~45 USD – Shield ohne Display
Akku + Power Mgmt ~15 USD – Nur Netzbetrieb
Joy-Cons/Controller ~45 USD – Shield nur mit Remote
Dock ~20 USD – Entfällt
Fernbedienung – ~20 USD Mit BT, IR, Mikrofon
Gehäuse + Kühlung ~10 USD ~15 USD Hochwertiges Alu
Netzteil ~8 USD ~10 USD Stationäres Netzteil
---------------------------------------------------------------------------
GESAMT (BOM) ~257 USD ~135–150 USD


Verkaufspreis Shield Pro (2019): 199 USD
→ Bruttomarge geschätzt: ~25–40 %
→ Fazit: Keine klassische Konsolen-Subvention, sondern Premium-Streaminggerät mit kleiner Gewinnspanne.

TheAntitheist
2025-09-21, 22:20:47
controller so teuer wie das display?
Die Teile kosten maximal 15$

bbott
2025-09-21, 22:28:32
controller so teuer wie das display?
Die Teile kosten maximal 15$
Sind zwei und stecken viele Features drin, also 22,5 $ je Controller. Vielleicht ist es etwas übertrieben, aber 15 $ werden sicher nicht reichen.

MSABK
2025-09-22, 08:42:29
Im Anandtech Forum schreiben sie die ganze Zeit die Hersteller warten auf die Windows 12 Ankündigung, W12 wird es ja aber nicht geben in nächster Zeit.

mboeller
2025-10-06, 14:17:28
https://www.notebookcheck.com/HP-packt-Prozessor-mit-20-ARM-Kernen-Nvidia-GPU-und-240W-USB-C-in-ZGX-Nano-G1n-AI-Mini-PC.1132335.0.html

https://www.hp.com/at-de/workstations/zgx-nano-ai-station.html

mironicus
2025-10-14, 09:14:31
Erster Test.

zs-J9sKxvoM

dildo4u
2025-10-14, 09:39:59
Das Hauptfeature ist wie bei Strix Halo die 128GB Performance im Bereich einer 5060?


https://i.ibb.co/jP7MzcD1/spark.png (https://ibb.co/8LF5bW9S)

https://youtu.be/-3r2woTQjec?si=bQIDLgpsin3x9TvO&t=299

mironicus
2025-10-14, 10:05:03
In dem von mir verlinkten Video testet er GPT-OSS 120B und erreicht bei dem großen Modell etwa 30 Tokens/Sekunde. Strix Halo erreicht hier interessanterweise auch etwa 30 Tokens/Sekunde laut externen Tests. Beide Geräte sind aber weder für Bildgenerierung oder Videogenerierung geeignet, viel zu langsam.

Daredevil
2025-10-14, 10:10:37
Die Plattform ist das Feature, nicht die Leistung. Alles was du darauf testest, schreibst und ausführst kannst du in Rechenzentren hoch skalieren. Das klappt weder bei AMD noch bei Apple.
So habe ich die Daseinsberechtigung jetzt verstanden.

mironicus
2025-10-14, 10:25:49
Das stimmt. DGX Spark ist kein klassischer Standalone‑Supercomputer, sondern ein „persönliches Gateway“ in NVIDIAs KI‑Cloud.

In dem Beispiel trainierte er ein Gemma3 4B-Modell um für seine Zwecke, damit es zuverlässig antwortet. Das Training von kleinen spezialisierten Modellen scheint gerade besonders spannend zu sein.

PatkIllA
2025-10-14, 11:08:39
Die Plattform ist das Feature, nicht die Leistung. Alles was du darauf testest, schreibst und ausführst kannst du in Rechenzentren hoch skalieren. Das klappt weder bei AMD noch bei Apple.
So habe ich die Daseinsberechtigung jetzt verstanden.
Oder mehrere vor Ort verbinden.
Da geht es doch auch darum, dass man die für KI Dinge nutzt die auch ohne Verbindung zur Cloud funktionieren müssen. Z.B. autonomes fahren oder halt aus Datenschutzgründen.

Gouvernator
2025-10-14, 11:10:32
Das stimmt. DGX Spark ist kein klassischer Standalone‑Supercomputer, sondern ein „persönliches Gateway“ in NVIDIAs KI‑Cloud.

In dem Beispiel trainierte er ein Gemma3 4B-Modell um für seine Zwecke, damit es zuverlässig antwortet. Das Training von kleinen spezialisierten Modellen scheint gerade besonders spannend zu sein.
Nvidias KI Cloud Zugang ist aber auch nicht kostenlos. Wenn dein freies Ticket von der Hardware nach paar Jahren abgelaufen ist kostet der Eintritt 5k$ pro Jahr. Das ist jetzt auch nichts was ein Normalo von DGX Spark Anschaffung auf den ersten Blick erwartet...
NVIDIA DGX Software Bundle & NVIDIA AI Enterprise
NVIDIA AI Enterprise is included in the NVIDIA DGX software bundle for NVIDIA DGX systems using the NVIDIA Hopper architecture. This enables users to streamline their AI development with a full-stack solution and enterprise support. NVIDIA AI Enterprise licenses need to be purchased separately for NVIDIA DGX systems using the NVIDIA Blackwell architecture.
https://www.deltacomputer.com/nvidia-ai-enterprise-essentials-subscription-per-gpu-1-year.html
DGX=horrende Lizenz Kosten, egal ob das ein popliges Mini-PC ist wie Spark, oder ein NVL72 System.

NVIDIA AI Enterprise is a cloud-native suite of software tools, libraries, and frameworks designed to deliver optimized performance, robust security, and stability for production AI deployments.

mironicus
2025-10-14, 17:21:20
Lqd2EuJwOuw

mironicus
2025-10-14, 19:16:46
Dieses Review vom DGX Spark sprüht vor Ironie, weil hier wird der DGX Spark gegen ein PC mit Dual RTX-4090 verglichen (was ja soviel kostet wie ein Spark) und geht natürlich gnadenlos unter. Der große Vorteil verbleibt halt das der Spark dank der 128 GB RAM größere Modelle ausführen kann.

FYL9e_aqZY0

BUG
2025-10-14, 19:25:03
Naja 4-Stück von den AMD Instinct MI50-32GB sind dann auch 128GB mit der Performance einer ~RTX 3060. Also ausführen kann man es dann, es ist aber natürlich etwas langsamer als die nVidia Lösung. Die MI50 wird aktuell gerade bei eBay verramscht und dann gibts da noch das Thema Treiber Kompatibilität und man benötigt eine Platform mit 4 PCIE Slots und/oder Riser, mit AMD ROCm oder via Vulkan Fallback gibt es aber eine alternative und da entsteht auch gerade eine kleine Community um die MI50.

https://www.piospartslap.de/AMD-Radeon-Instinct-MI50-Accelerator-Vega-20-32GB-HBM2-AI-HPC-GPU-PCIe-40-x16-102D1631711

Daredevil
2025-10-14, 19:40:34
Spätestens wenn du nicht nur 5 Minuten Ai Workloads laufen lässt sondern mehrere Wochen oder Monate, schießt man sich mit ineffektiver Hardware schon enorm ins Bein weil die Stromkosten und die Hitze im Raum abgeführt werden will. Das will ich mal sagen als jemand, der 14 Monate lang 24/7 6x Radeon VIIs laufen hatte, immer Sommer als auch im Winter. :D
Zumal ist das zusammenschalten mehrere GPUs deutlich komplexer und nicht jede Software macht da mit.

Ansonsten würden die Leute auch aus M3 Ultras mit 512GB via Thunderbolt 5 AI „Supercluster“ bauen, zu mehr als ein YouTube Video reicht es dann aber doch nicht. Ist ähnlich wie SLI, kann gut gehen, ist aber meist Käse. DGX hat genauso wie Strix Halo entscheidende Vorteile, wenn man VRAM über Rechenleistung stellen muss.

BUG
2025-10-14, 19:52:56
Auf jeden Fall, aber wenn man das ich sag mal eher nur gelegentlich mal nutzt ggf. eine Alternative. Für Hardcore User und jemand der das im professionellen Umfeld einsetzt gibt es sinnvollere Lösungen. Das Thema wird dann wohl im Prosumer/Hobby Bereich und Semi-Profi Lösung irgendwann Ryzen AI / Strix Halo ablösen.

Relic
2025-10-15, 15:12:09
Naja 4-Stück von den AMD Instinct MI50-32GB sind dann auch 128GB mit der Performance einer ~RTX 3060. Also ausführen kann man es dann, es ist aber natürlich etwas langsamer als die nVidia Lösung. Die MI50 wird aktuell gerade bei eBay verramscht und dann gibts da noch das Thema Treiber Kompatibilität und man benötigt eine Platform mit 4 PCIE Slots und/oder Riser, mit AMD ROCm oder via Vulkan Fallback gibt es aber eine alternative und da entsteht auch gerade eine kleine Community um die MI50.

https://www.piospartslap.de/AMD-Radeon-Instinct-MI50-Accelerator-Vega-20-32GB-HBM2-AI-HPC-GPU-PCIe-40-x16-102D1631711

Ja 2x Mi50 sind der Sweetspot im Moment. Da läuft sogar OSS-120b ganz passabel:

pp512 487.06 tg128 55.03 build: 3a002afa (6698)

for llama-bench -fa 1 -m gpt-oss-120b-GGUF/gpt-oss-120b-MXFP4-00001-of-00002.gguf

Gouvernator
2025-10-17, 07:16:34
Dieses Review vom DGX Spark sprüht vor Ironie, weil hier wird der DGX Spark gegen ein PC mit Dual RTX-4090 verglichen (was ja soviel kostet wie ein Spark) und geht natürlich gnadenlos unter. Der große Vorteil verbleibt halt das der Spark dank der 128 GB RAM größere Modelle ausführen kann.

https://youtu.be/FYL9e_aqZY0
Für Training mag Spark vielleicht gut sein. Aber bei Inference ist es exakt so schnell bzw. Stückchen langsamer wie GPU+RAM. Insbesondere MoE LLMs sind mit HighEnd GPUs deutlich schneller. Ich rede von 2T/s vs 5T/s und 5T/s vs 15T/s je nach LLM-Modell.

Und auch 128Gb sind mittlerweile nicht soooo berauschend. Wenn man easy mit Dual-GPU + Ram in den selben Bereich kommt. Rein von den Specs sollte so ein mini-PC so viel RAM aufbieten, wie wir als Consumer gar nicht bauen können bzw. nicht so leicht bauen können. 96GB Kit + 24Gb Dual GPU = easy 144Gb Minimum.

Zossel
2025-10-17, 07:52:02
Für Training mag Spark vielleicht gut sein. Aber bei Inference ist es exakt so schnell bzw. Stückchen langsamer wie GPU+RAM. Insbesondere MoE LLMs sind mit HighEnd GPUs deutlich schneller. Ich rede von 2T/s vs 5T/s und 5T/s vs 15T/s je nach LLM-Modell.

Und auch 128Gb sind mittlerweile nicht soooo berauschend. Wenn man easy mit Dual-GPU + Ram in den selben Bereich kommt. Rein von den Specs sollte so ein mini-PC so viel RAM aufbieten, wie wir als Consumer gar nicht bauen können bzw. nicht so leicht bauen können. 96GB Kit + 24Gb Dual GPU = easy 144Gb Minimum.
Das ist lediglich ein Device für Entwickler um seinen Kram vortesten zu können.

Troyan
2025-10-17, 14:47:14
Für Training mag Spark vielleicht gut sein. Aber bei Inference ist es exakt so schnell bzw. Stückchen langsamer wie GPU+RAM. Insbesondere MoE LLMs sind mit HighEnd GPUs deutlich schneller. Ich rede von 2T/s vs 5T/s und 5T/s vs 15T/s je nach LLM-Modell.

Und auch 128Gb sind mittlerweile nicht soooo berauschend. Wenn man easy mit Dual-GPU + Ram in den selben Bereich kommt. Rein von den Specs sollte so ein mini-PC so viel RAM aufbieten, wie wir als Consumer gar nicht bauen können bzw. nicht so leicht bauen können. 96GB Kit + 24Gb Dual GPU = easy 144Gb Minimum.

Der Superchip hat 128GB bei 270GB/s Bandbreite. Wie sollen da Systeme, die ihren Speicher per PCIe 5.0 mit 64GB/s verwalten lassen müssen, besser sein?

Gouvernator
2025-10-17, 17:23:13
Der Superchip hat 128GB bei 270GB/s Bandbreite. Wie sollen da Systeme, die ihren Speicher per PCIe 5.0 mit 64GB/s verwalten lassen müssen, besser sein?
Ja das funktioniert irgendwie. Ich teste schon den ganzen Tag den Speed auf meinem Setup aus 5090+3090. Durchgehend niedrige Quants von 70b-120b Modellen die in gemeinsamen Vram passen. Dieses Modell Bereich ist durchgehend mit ca. 20 t/s nutzbar.

mistral large 218b 11t/s
ernie 4.5 300b 2t/s
llama 4 scout 33T/s
qwen3 225b 2 t/s
70b llama3 20t/s
qwen3 53b 67 t/s
pixtral large 16 t/s
mistral large 128b 16 t/s
GML Air 4.5 110b 60t/s

Zossel
2025-10-17, 21:49:38
Der Superchip hat 128GB bei 270GB/s Bandbreite. Wie sollen da Systeme, die ihren Speicher per PCIe 5.0 mit 64GB/s verwalten lassen müssen, besser sein?
Wie empfindlich reagiert der KI-Kram auf Latenzen?

https://github.com/andre-richter/pcie-lat

mironicus
2025-10-23, 11:56:52
ComfyUI, Nutzung von generativer KI (Qwen Edit Image, großes Modell) auf dem DGX Spark und noch einiges mehr wird hier gezeigt.

0mXR_tdIwPQ

PHuV
2025-11-01, 17:54:41
Hab mir gerade eine gekauft:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13834854&postcount=18719

Ich war kurz davon, 2 zu kaufen, aber das ist mir dann doch zu viel Geld.

MSABK
2025-11-01, 20:57:12
Hab mir gerade eine gekauft:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13834854&postcount=18719

Ich war kurz davon, 2 zu kaufen, aber das ist mir dann doch zu viel Geld.

Was willst du damit machen?

PHuV
2025-11-02, 00:13:35
Programmieren, Testen, Lernen.

Daredevil
2025-11-02, 00:15:51
Geil! Bin gespannt was du zu berichten hast. :)

BUG
2025-11-02, 00:29:09
Freue mich auch über weitere Informationen. :smile:

Befürchte aber, in 6 bis 12 Monaten kostet das Teil die Hälfte wenn jetzt nicht gerade die Stückzahlen stark limitiert sind. Allerdings agiert nVidia da die letzten Jahre recht clever bzgl. Angebot und Nachfrage.

War da nicht auch noch was mit einem Abo Modell oder Lizenzen?!

mironicus
2025-11-03, 16:11:16
Custom-DGX Spark von MSI vorgestellt. Auch bei Asus ist so eine vorbestellbar und kostet sogar weniger als von NVidia, ab 3499 Euro mit 1 TB SSD.

aKcmx1cWTHc

dildo4u
2025-11-08, 15:01:08
Mit Win11 26H1 kommt angeblich der N1X Support


https://www.windowscentral.com/microsoft/windows-11/microsoft-confirms-windows-11-version-26h1

mocad_tom
2025-11-08, 21:05:34
https://geizhals.de/?cat=sysdiv&hloc=de&asuch=spark+gb10&asd=on&bpmin=&bpmax=&v=e&hloc=at&plz=&dist=&mail=&sort=p&bl1_id=1000

Welcher davon wird wohl die beste Kühllösung haben oder meint ihr den kann man modden und einen Noctua draufspannen?

PHuV
2025-11-10, 17:19:09
Hail to the king, babe.
https://i.imgur.com/9ECr7dM.jpeg

https://i.imgur.com/0U9HCjg.jpeg

robbitop
2025-11-10, 17:37:28
Und was ist die Anwendung dafür?

PHuV
2025-11-10, 17:55:01
Meinst Du das jetzt allgemein oder wie? :confused:

robbitop
2025-11-11, 10:27:05
Naja du hast 3,5K ausgegeben für das Gerät. Würde mich interessieren wo der Mehrwert / die Anwendungen in deinem Fall liegen.

PHuV
2025-11-11, 12:37:30
Es war mehr:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13834854&postcount=18719
Und Mehrwert ist relativ. Ich will mir keine Gedanken machen, wenn ich große Modelle probieren will und mir bei 32GB das VRAM ausgeht. Ansonsten verfolge ich gerade ein privates ML Projekt, wo ich mehr VRAM brauche, und eine RTX PRO 6000 Blackwell wäre mir zu teuer.

mironicus
2025-11-11, 12:43:12
Wer kam bloß auf das Design mit der Front? Ich finde es hübsch.

PHuV
2025-11-14, 12:26:27
Mehrere Tage Frust mit dem Ding, nix läuft richtig, Doku paßt teilweise nicht, und ich mußte es schon 2x zurücksetzen, gestern wieder, weil die gnome-Gui kaputt war. Ansonsten muß man viel nachinstallieren.
Erste Lichtblicke aber mit LM-Studio und Comfy. Mit LM-Studio habe ich das gpt-oss-120B Modell problemlos fahren können, und die Antwortzeiten waren zügig und erst mal ok. Aber die GPU geht auf 95% hoch.

Troyan
2025-11-14, 18:10:16
Könntest in einer Runde Cyberpunk dich abreagieren: https://www.reddit.com/r/nvidia/comments/1opofuj/comment/no110jy/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1

robbitop
2025-11-14, 18:58:32
Es war mehr:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13834854&postcount=18719
Und Mehrwert ist relativ. Ich will mir keine Gedanken machen, wenn ich große Modelle probieren will und mir bei 32GB das VRAM ausgeht. Ansonsten verfolge ich gerade ein privates ML Projekt, wo ich mehr VRAM brauche, und eine RTX PRO 6000 Blackwell wäre mir zu teuer.

Lässt du da fertige ML Modelle drauf laufen oder trainierst du die selbst?

Daredevil
2025-11-14, 19:33:53
Der gpt-oss-20b LLM Benchmark Thread wartet sehnsüchtig auf Spark Ergebnisse. :D
Spannend wäre da der Vergleich zum M4 Max, der nahezu das gleiche kostet mit 128GB(Mickrige SSD :c ), Strix Halo hat sich noch nicht im Thread verirrt.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=622170

mironicus
2025-11-14, 20:26:24
qhcVT58BByY

DGX Spark von Gigabyte - auch mit Strix Halo verglichen.

PHuV
2025-11-14, 23:17:36
Lässt du da fertige ML Modelle drauf laufen oder trainierst du die selbst?
Ich will selbst etwas entwickeln, und auch selbst Modelle trainieren, und setze hier erst mal auf Cuda. Deshalb arbeite ich mich schon seit einer Weile so langsam in Python, Pytorch, Tensorflow und Co. ein. Aber es ist leider so wie immer, nichts von dem Zeugs funktioniert so richtig auf Anhieb, viel Fein- und Nacharbeiten sind notwendig, um simpeleste Sachen zu machen.

Aber ja, ich jetzt erst mal zum Testen fertige Modelle verwendet, um zu sehen, ob das überhaupt so klappt.
Der gpt-oss-20b LLM Benchmark Thread wartet sehnsüchtig auf Spark Ergebnisse. :D

Morgen, versprochen, heute bin zu zu erledigt, war gerade wieder knapp 2 Stunden auf dem Rad, nachdem es diese Woche wieder repariert wurde. Ich habe schon ein Satz Pedale verschlissen, und ich hab das Ding gerade mal letzten Oktober gekauft.

@Daredevil
Werte sind da: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13840667&postcount=74

https://youtu.be/qhcVT58BByY
DGX Spark von Gigabyte - auch mit Strix Halo verglichen.
Hier auch das als Text, wer kein Video schauen will: https://www.heise.de/news/Duell-der-KI-Kisten-Nvidia-DGX-Spark-vs-AMD-Strix-Halo-11079206.html
Ich teile seine Meinung, wer nur LLMs ausführen will, ist mit anderen Geräten günstiger bedient. Wenn ich jetzt nicht unbedingt CUDA und Co. machen wollte, hätte ich auch eher zu einem Mini-PC mit Strix Halo gegriffen.

Hier hat jemand mal ein Mac M3 mit einer DGX kombiniert
NVIDIA DGX Spark™ + Apple Mac Studio = 4x Faster LLM Inference with EXO 1.0 (https://blog.exolabs.net/nvidia-dgx-spark/)
Configuration Prefill Time Generation Time Total Time Speedup
DGX Spark 1.47s 2.87s 4.34s 1.9×
M3 Ultra Mac Studio 5.57s 0.85s 6.42s 1.0× (baseline)
DGX Spark + M3 Ultra 1.47s 0.85s 2.32s 2.8×

Daredevil
2025-12-24, 14:51:46
Battle of the 750$ Notebooks:
Wir brauchen echt dringend Nvidia(+Intel) im Notebook markt, weil einfach jeder andere komplett scheitert an Apple. Ein MacBook führt den Rest vom Fest vor mit einem helleren Display, einer höheren Auflösung, dem dünnsten Design in Kombination mit einer passiven Kühlung und hat dabei noch die längste Akkulaufzeit.

Daten von MaxTech: https://youtu.be/3sPcL6BuxtE?si=UdtMxMy6GP1U6i7D&t=1328

https://s1.directupload.eu/images/251224/jr2l3ink.png

https://s1.directupload.eu/images/251224/zo87tqhh.png

https://s1.directupload.eu/images/251224/7kry2hbo.png

https://s1.directupload.eu/images/251224/i2fmt6mn.png

https://s1.directupload.eu/images/251224/vnselgg9.png

Fusion_Power
2025-12-24, 15:05:48
Wer hätte noch vor ein paar Jahren gedacht dass ausgerechnet ein Gerät von Apple einmal ein Preis/Leistungs-Sieger werden könnte, verrückt.
Ich würde persönlich in Sachen PC trotzdem (erst mal) bei x86 bleiben, hab aber zugegeben ein iPad.
Der Intel 258V macht ja auch ne relativ gute Figur da, nur warum kackt er bei dem einen Lightroom Test so dermaßen ab im Vergleich?

dildo4u
2025-12-24, 15:08:51
Das kannst du jetzt sowieso vergessen, da kein einzelner Notebook Hersteller die Einkaufs Power hat um günstig für RAM zu verhandeln.
Was zu den höheren Kosten für den Nvidia Chip dazu kommt.

Daredevil
2025-12-24, 15:20:20
Wer hätte noch vor ein paar Jahren gedacht dass ausgerechnet ein Gerät von Apple einmal ein Preis/Leistungs-Sieger werden könnte, verrückt.
Ich würde persönlich in Sachen PC trotzdem (erst mal) bei x86 bleiben, hab aber zugegeben ein iPad.
Der Intel 258V macht ja auch ne relativ gute Figur da, nur warum kackt er bei dem einen Lightroom Test so dermaßen ab im Vergleich?
Lunar Lake ist extrem stark auf Effizienz getrimmt gepaart mit modernen Features, was man bei den Batterieergebnissen ja auch sieht. Lunar Lake war noch nie für heavy MT Workloads gedacht, das kann AMD wiederum deutlich besser, säuft dafür aber auch deutlich mehr.
Dafür hat Intel die nettere Fluppdizität ( SC ) und die besseren GPU Features mit XeSS2, offenbar fehlt aber auch hier ein wenig viel Optimierung bei Blender und co.
Insofern sehe ich bei er Intel+Celestial Kombination und noch viel lieber Intel+Nvidia sehr sehr nette Produkte kommen. Oder Nvidia baut den Kram halt alleine, wenn die Kinderkrankheiten bei WindowsARM dank Qualcomm zur Seite geschafft worden sind, falls sie nicht direkt gleich ein neues OS bauen, das sehe ich unwahrscheinlicher, aber Nvidia typischer.

MSABK
2025-12-24, 17:27:07
An einen release von GB10 für Windows glaube ich nicht mehr. Da sollten die aktuellen Ram-Preise endgültig der Todesstoß sein.

dildo4u
2025-12-25, 05:54:28
An einen release von GB10 für Windows glaube ich nicht mehr. Da sollten die aktuellen Ram-Preise endgültig der Todesstoß sein.
Kommt sicherlich dort wurde schon Entwicklungszeit reingesteckt, die Marge für diese Chips sind absurd 5070 Performance für über 3000€ das fängt die RAM Preise ab.

Fusion_Power
2025-12-27, 02:59:40
Lunar Lake ist extrem stark auf Effizienz getrimmt gepaart mit modernen Features, was man bei den Batterieergebnissen ja auch sieht. Lunar Lake war noch nie für heavy MT Workloads gedacht, das kann AMD wiederum deutlich besser, säuft dafür aber auch deutlich mehr.
Dafür hat Intel die nettere Fluppdizität ( SC ) und die besseren GPU Features mit XeSS2, offenbar fehlt aber auch hier ein wenig viel Optimierung bei Blender und co.
Insofern sehe ich bei er Intel+Celestial Kombination und noch viel lieber Intel+Nvidia sehr sehr nette Produkte kommen. Oder Nvidia baut den Kram halt alleine, wenn die Kinderkrankheiten bei WindowsARM dank Qualcomm zur Seite geschafft worden sind, falls sie nicht direkt gleich ein neues OS bauen, das sehe ich unwahrscheinlicher, aber Nvidia typischer.
Ne Zeit lang wollte ich mit garantiert nen AMD Laptop zulegen…so garantiert ist das nun nicht mehr. Intel hat mittlerweile auch brauchbare iGPUs und mehr brauch ich im Grunde nicht. Und ja, da spielt dann auch bissl die „Fluppdizität“ ne Rolle. Anyways…

Beeindruckende Maschinchen diese GB10 Dingers, halt auch kein Schnäppchen.
FjRKvKC4ntw

Vielleicht fällt irgend wann mal was für den Durchschnittsuser ab von dieser Architektur. Weniger AI Krams, mehr Alltags-Tauglichkeit.

MSABK
2026-01-20, 15:26:44
Angeblich soll die Windows on ARM Version diesmal wirklich kommen.

Für Nvidias GB10/N1 lief es zum Start selbst mit viel Verspätung nicht rund und auch der N1X ist spät dran – soll aber noch in diesem Quartal erscheinen. Dennoch soll es bereits im nächsten Jahr jeweils einen Nachfolger geben. Ob und wie das angesichts anziehender Speicherpreise so umgesetzt wird, bleibt abzuwarten.

https://www.computerbase.de/news/prozessoren/nvidia-n1x-n2-und-n2x-start-des-notebookchips-noch-in-q1-nachfolger-ab-mitte-2027.95843/

MSABK
2026-01-23, 14:46:59
Wird spannend, angeblich kommen einge Notebooks von Lenovo. Unter anderem ein Legion 7 15N1X11.

https://videocardz.com/newz/lenovo-preparing-legion-7-laptop-with-nvidia-n1x-could-be-the-first-true-windows-11-on-arm-gaming-laptop

davidzo
2026-03-03, 15:42:48
Sehr interessanter Artikel zur CPU-Hälfte von GB10: https://chipsandcheese.com/p/arms-cortex-x925-reaching-desktop


Es sieht so aus als hätten ARM, nvidia und Mediatek mit dem x925 im GB10 Parität erreicht bei der ST performance gegenüber Zen5 und Lion Cove.

Strix Halo performt trotz 16 Kernen meist immer noch ein bisschen besser. Das liegt in Spielen wohl daran dass ein Core auf maximal 32MB an L3 Cache zugreifen kann während es bei GB10 nur 16MB sind und zum anderen daran dass 16 Zen5 mit 32Threads und starker Vektoreinheit wohl in MT workloads häufig noch noch schneler sind als 20C/20T mixed x925/A725 Arm Cores.

GB10 sieht außerdem schwach aus was das Speichersubsystem angeht: https://chipsandcheese.com/p/inside-nvidia-gb10s-memory-subsystem

Wenn man sich Intel mit ARL anschaut ist es aber eventuell nicht nur nvidia die schwach aussehen beim Speichersubsystem sondern einfach nur AMD die hier ungewöhnlich stark sind mit Zen5 + ladder cache und optionalem x3d cache.

Trotzdem eine starke Leistung von Mediatek für den ersten Wurf, gerade in Anbetracht der PPA. Leider scheint auch der Energievebrauch voll auf Desktop Niveau angekommen zu sein. Besonders der Idleverbrauch von GB10 scheint schlecht optimiert zu sein..

robbitop
2026-03-03, 15:53:33
Zumal es mit C1 Ultra schon Nachfolgecores von ARM gibt und laut Gerüchten ist im GB10 Nachfolger ein nvidia custom core verbaut. :)

Ist obiges gleiche Performance inkl Taktunterschied? Denn Zen 5 in Strix Halo taktet ja sicherlich ein gutes Stück höher :)

davidzo
2026-03-03, 16:38:06
laut Gerüchten ist im GB10 Nachfolger ein nvidia custom core verbaut. :)

Rein von nvidias track record mit custom cores her ist das nicht unbedingt ein gutes Zeichen :freak:. Nur Samsung ist da historisch noch schlimmer.


Ist obiges gleiche Performance inkl Taktunterschied? Denn Zen 5 in Strix Halo taktet ja sicherlich ein gutes Stück höher :)

Die low level Benchmarks sind ja nicht taktnormiert (L1/l2 misses, branch prediction, fetch/cycle oder oOo window) - aber die spec rate benches sind in der Rat 4Ghz GB10 vs 9900X mit biszu 5.6Ghz (?).

Gerade dass der 9800x3d in der specsuite langsamer ist als der 9900x zeigt schön auf dass es hier um 1Thread performance geht und nicht die IPC.

Chester hat auch IPC Diagramme und da ist der x925 bis zu 20% schneller als Zen5 und Lion Cove.

Allerdings muss ein ARM core auch mehr IPC haben, da dieselben workloads unter AArch in mehr einzelne befehle dekodieren als unter x86, vor allem bei floating point lastigen workloads.
Der x925 ist daher 10-wide im vergleich zu AMD und Intels 8-wide Architekturen. Außerdem hat er mit 768 instructions einen riesigen ROB.

Klingt eher wie ein Mix aus Apple M4 (10wide decode) mit oOo Ressourcen eher wie Apple M3 aber einem traditionellen Arm Cortex x-series cache setup.

robbitop
2026-03-03, 17:42:17
Ich würde Nvidia da nicht unterschätzen. Die lernen aus Fehlern der Vergangenheit und haben riesige Budgets. Man hat nach Dem never und Carmel die custom Cores eingestellt weil man eingesehen hat, dass die nicht so toll waren. Wenn jetzt wieder welche kommen, dann hat das wahrscheinlich einen Grund.

davidzo
2026-03-04, 00:17:25
Grace und Vera haben mich jetzt nicht vom Hocker gehauen.

Das sind bei Grace zwar standard Neoverse V2 Cores, aber mit nvidias selbst gebrautem Cache-subsystem und SCF fabric vernetzt. Und das eigene Gelöt ist super latenzintensiv und lahmer als ARMs standardlösung und von der besseren I/O Bandbreite zur GPU kommt auch nicht wirklich etwas an. Der L3 Cache ist zwar monolitisch, aber viel kleiner als bei AMD, kaum größer als das was ein Single CCD mit x3d cache bei AMD bekommt. Trotz LPDDR5X hat man weniger Bandbreite als Zen4 Epyc mit normalem DDR5. Beim Corecount liegt man auch zurück. Und das ganze bei einer monolitischen Diegröße nahe an H200.
Nvidia wendet sich im Datacenter nun wieder Intel zu wenn es um CPUs geht. So richtig viel erwarte ich von den nvidia Ingenieuren in Bezug auf CPUs also nicht mehr.

Skysnake
2026-03-04, 00:49:10
Jup, CPU Design ist ne ganz andere Liga als GPU Design. Die ganze Latenzgeschichte ist da einfach viel diffizieler zu lösen als die Durchsatzthemen bei GPUs.

Badesalz
2026-03-04, 07:19:37
Wenn man sich Intel mit ARL anschaut ist es aber eventuell nicht nur nvidia die schwach aussehen beim Speichersubsystem sondern einfach nur AMD die hier ungewöhnlich stark sind mit Zen5 + ladder cache und optionalem x3d cache.Skysnake redet darüber gelegentlich schon seit Monaten. AMD ist da bisher in seiner eigenen Liga.

robbitop
2026-03-04, 07:23:36
Grace und Vera haben mich jetzt nicht vom Hocker gehauen.

Das sind bei Grace zwar standard Neoverse V2 Cores, aber mit nvidias selbst gebrautem Cache-subsystem und SCF fabric vernetzt. Und das eigene Gelöt ist super latenzintensiv und lahmer als ARMs standardlösung und von der besseren I/O Bandbreite zur GPU kommt auch nicht wirklich etwas an. Der L3 Cache ist zwar monolitisch, aber viel kleiner als bei AMD, kaum größer als das was ein Single CCD mit x3d cache bei AMD bekommt. Trotz LPDDR5X hat man weniger Bandbreite als Zen4 Epyc mit normalem DDR5. Beim Corecount liegt man auch zurück. Und das ganze bei einer monolitischen Diegröße nahe an H200.
Nvidia wendet sich im Datacenter nun wieder Intel zu wenn es um CPUs geht. So richtig viel erwarte ich von den nvidia Ingenieuren in Bezug auf CPUs also nicht mehr.

Grace und Vera hatten keine custom ARM Cores insofern ist das kein Indiz auf kommende eigene uArch cores. Und ich vermute, dass cpu uarch von anderen Leuten gemacht wird als eine fabric. Insofern kann ich die Argumentation nicht ganz nachvollziehen.

Wird nicht immer beides (CPU und GPU) auf dem selben Board verbaut? Sicher dass die CPUs nicht verbaut werden? Gibt es dafür Quellen?

Man darf nicht vergessen dass Nvidia enorme resources hat und im Silicon Valley jeden hiren kann den sie wollen. Und das Unternehmen wird aggressiv und ambitioniert geführt - die machen Fehler selten mehrfach.

AffenJack
2026-03-04, 09:40:31
Man darf nicht vergessen dass Nvidia enorme resources hat und im Silicon Valley jeden hiren kann den sie wollen. Und das Unternehmen wird aggressiv und ambitioniert geführt - die machen Fehler selten mehrfach.

Das Problem ist auch nicht nur das können, sondern am Ende das Wollen. CPUs sind für Nvidia nur ein Randprodukt und selbst da sind die Servercpus das deutlich wichtigere im Vergleich zu Consumer. Nvidia wird für Consumer da nix spezielles für horrende Kosten zaubern, sondern dass einfach als Nebenprodukt etwas mitentwickeln um sein Ökosystem zu vervollständigen. Dementsprechend erwarte ich da wenig.

reunion
2026-03-04, 09:46:44
Man darf nicht vergessen dass Nvidia enorme resources hat und im Silicon Valley jeden hiren kann den sie wollen. Und das Unternehmen wird aggressiv und ambitioniert geführt - die machen Fehler selten mehrfach.

Das stimmt. Die Ressourcen hatten sie aber auch schon bei den CPU fails in der Vergangenheit. Deshalb verstehe ich ehrlich gesagt auch nicht, warum man da nicht aggressiv Spezialisten anheuert sondern anscheinend glaubt es intern besser zu wissen. Das erinnert mich fast ein bisschen an Intel, die auch geglaubt haben sie wissen besser wie man GPUs baut und alles intern gemacht haben - der "Erfolg" dessen ist bekannt.

Das Problem ist auch nicht nur das können, sondern am Ende das Wollen. CPUs sind für Nvidia nur ein Randprodukt und selbst da sind die Servercpus das deutlich wichtigere im Vergleich zu Consumer. Nvidia wird für Consumer da nix spezielles für horrende Kosten zaubern, sondern dass einfach als Nebenprodukt etwas mitentwickeln um sein Ökosystem zu vervollständigen. Dementsprechend erwarte ich da wenig.

Naja, wenn ich so viel Geld einnehme wie Nvidia, dann spiele ich auf jedem Feld. Warum auch nicht? Von Intel abhängig zu sein klingt jetzt auch nicht so prickelnd. Und eine CPU wird man immer brauchen.

The_Invisible
2026-03-04, 10:02:55
Das Problem ist auch nicht nur das können, sondern am Ende das Wollen. CPUs sind für Nvidia nur ein Randprodukt und selbst da sind die Servercpus das deutlich wichtigere im Vergleich zu Consumer. Nvidia wird für Consumer da nix spezielles für horrende Kosten zaubern, sondern dass einfach als Nebenprodukt etwas mitentwickeln um sein Ökosystem zu vervollständigen. Dementsprechend erwarte ich da wenig.

Glaub ich nicht, entweder versucht es NV immer aggressiv und failed eventuell oder lässt es gleich bleiben, zwischendrin kann ich mir nix vorstellen.

AffenJack
2026-03-04, 10:06:02
Naja, wenn ich so viel Geld einnehme wie Nvidia, dann spiele ich auf jedem Feld. Warum auch nicht? Von Intel abhängig zu sein klingt jetzt auch nicht so prickelnd. Und eine CPU wird man immer brauchen.

Auch mit viel Geld wird Nvidia nicht einfach so tonnen von Ressourcen reinstecken. Man braucht ne CPU für einen Singulären Workload und das ist KI im Server. Dafür wird man auch etwas bauen, was dafür maximal angepasst ist.

Im PC-Bereich ist damit nicht viel Geld zu holen. Am Ende ist die Rechnung immer, wieviel Gewinn kann ich für XY Kosten generieren und bei Consumercpus ist da das Potential ziemlich gering ohne einen Jahrelangen ungewissen Kampf gegen X86 und riesige Ressourcenverschwendung. Geld ist sogar weniger das Problem, aber wenn Nvidia entscheiden muss, wo der Top-Ingenieur arbeitet, dann wird er dann die gewinnträchtigen Projekte gesetzt und nicht ins Nice-to-have Feld.

reunion
2026-03-04, 10:26:53
Auch mit viel Geld wird Nvidia nicht einfach so tonnen von Ressourcen reinstecken. Man braucht ne CPU für einen Singulären Workload und das ist KI im Server. Dafür wird man auch etwas bauen, was dafür maximal angepasst ist.

Im PC-Bereich ist damit nicht viel Geld zu holen. Am Ende ist die Rechnung immer, wieviel Gewinn kann ich für XY Kosten generieren und bei Consumercpus ist da das Potential ziemlich gering ohne einen Jahrelangen ungewissen Kampf gegen X86 und riesige Ressourcenverschwendung. Geld ist sogar weniger das Problem, aber wenn Nvidia entscheiden muss, wo der Top-Ingenieur arbeitet, dann wird er dann die gewinnträchtigen Projekte gesetzt und nicht ins Nice-to-have Feld.

Es geht um die CPU IP. Da arbeiten die Top-Ingenieure und die braucht NV sowieso. Dass dann zu skalieren ist ein Klacks, dafür braucht es keine Top-Ingenieure. AMD entwickelt auch nur einen Core und skaliert den dann in alle Märkte.

Skysnake
2026-03-04, 10:40:56
Denkst du. AMD und Intel haben Jahrzehnte Tuningerfahrung und Unmengen an Patenten.

Mal ganz abgesehen davon, das x86 eben noch immer ein Brett ist.

MSABK
2026-03-04, 10:50:44
Auch auf der MWC jetzt haben sie nicht Laptops mit dem Chip vorgestellt. Gerüchteweise soll dieser ja jeden Moment kommen.

robbitop
2026-03-04, 10:57:59
Das Problem ist auch nicht nur das können, sondern am Ende das Wollen. CPUs sind für Nvidia nur ein Randprodukt und selbst da sind die Servercpus das deutlich wichtigere im Vergleich zu Consumer. Nvidia wird für Consumer da nix spezielles für horrende Kosten zaubern, sondern dass einfach als Nebenprodukt etwas mitentwickeln um sein Ökosystem zu vervollständigen. Dementsprechend erwarte ich da wenig.
Aber wenn es nur ein Nebenprodukt ist wozu denn custom cores?

The_Invisible
2026-03-04, 11:09:56
Geld ist sogar weniger das Problem, aber wenn Nvidia entscheiden muss, wo der Top-Ingenieur arbeitet, dann wird er dann die gewinnträchtigen Projekte gesetzt und nicht ins Nice-to-have Feld.

Die sind viel zu spezialisiert, du kannst nicht einfach einen LowLevel-GPU Treiberentwickler in die AI Abteilung verschieben usw

AffenJack
2026-03-04, 11:41:32
Aber wenn es nur ein Nebenprodukt ist wozu denn custom cores?

Custom bedeutet doch erstmal gar nix. Nimm ne ARM CPU von der Stange und baue 2 Befehlssätze für KI ein und du hast ne Custom CPU.

Es ist einfach nen großer Unterschied ob ich IP nehme und singulär für einige Workloads optimiere oder eine CPU haben will die in allen Workloads deutlich besser performt. Optimierung in eine Richtung ist deutlich einfacher, in allem gut performen dagegen die hohe Kunst die mit Kosten und viel Erfahrung verbunden ist und nicht so einfach mal nachstellbar ist.

Bestes Beispiel Stromspartechniken. Wenn dein Design darauf ausgelegt ist unter Full-Load im Server zu laufen, dann kannst du die Fläche für Stromsparmechanismen im Idle lieber in Performance packen. Bei einer Laptop und Desktopcpu musst du das alles viel feiner ausbalancieren.

robbitop
2026-03-04, 13:33:56
Ich meine schon echte custom cores. Also komplett eigene uArch.

davidzo
2026-03-04, 19:41:17
Und ich vermute, dass cpu uarch von anderen Leuten gemacht wird als eine fabric.

Welchen Leuten denn? Etwa die von Denver und Carmel? haben die etwa die ganze Zeit Däumchen gedreht seitdem?
Dass man den Job für GB10 überhaupt an Mediatek gegeben hat zeigt doch wie schlecht man hier personell aufgestellt war, bzw. wie unvorbereitet. Wenn überhaupt hat man noch ein Rumpfteam mit veralteten Patenten und Konzepten und lauter neue Leute die vielleicht kompetent und gut bezahlt sind aber mit nvidia CPU µArches noch keinen Track record, roadmap oder Strategie haben.

Ich meine Jim Keller ist im August 2012 zu AMD gekommen um die K12 Entwicklung zu leiten aus der dann Zen wurde. Der hat damals aus vorhandenen Ingenieuren völlig neue Teams zusammengestellt und eine x86_64 µArch von Grund auf neu entworfen. Zen1 ist dann im März 2017 gelauncht.

Auch auf der MWC jetzt haben sie nicht Laptops mit dem Chip vorgestellt. Gerüchteweise soll dieser ja jeden Moment kommen.
Nvidia macht mehr $/Wafer mit AI Beschleunigern und GPUs, es gibt also keine Eile. Außerdem zeigen die GB10 und Jetson Thor katastrophales power management, vor allem im Idle. Da sind also noch viel firmware-power management dinge zu fixen und ggf. sogar hardware iterationen zu leisten bevor das im notebook vernünftigt läuft. Kann man sich jetzt auch sparen nachdem das Teil über ein Jahr Verspätung hat und mit dem X2 Elite, Medusa Halo vermutlich gegen die Nachfolger antreten muss als gegen was es konzipiert war. N1X für Windows on Arm Notebooks stand mal für H2 2025 im Plan und MIcrosoft war sicher nicht sehr amused über die Verzögerung. Mit Glück hatte man bis dahin gerade mal GB10 DGX gelauncht.

Glaub ich nicht, entweder versucht es NV immer aggressiv und failed eventuell oder lässt es gleich bleiben, zwischendrin kann ich mir nix vorstellen.

Ist das so? nvidia entwickelt viel wenn der Tag lang ist, was nicht unbedingt erscheint bzw. auch mal still und heimlich eingestellt wird.
3D Vision, Nvidia GRID, Nvidia Shield Tablet 2, Nvidia GameStream für den Shield, Nvidia SLI, Titan Ada / 4090ti, 3080ti 20GB, ...

Es geht um die CPU IP. Da arbeiten die Top-Ingenieure und die braucht NV sowieso.

Wieso sollten sie an CPUs arbeiten wenn das Geld bei GPUs bzw. KI-Beschleunigern schneller multipliziert wird?

Und bloß weil du Top Ingenieure bei AMD und Intel abwerben kannst, hast du damit noch lange kein funktionierendes Team oder eine zukunftsfähige Architektur, Roadmap, etc.
- Frag mal intel wie gut es für sie gelaufen ist als sie 2016-17 Top-Talent von nvidia, AMD und IMG abgeworben haben um in Zukunft eigene GPUs zu bauen. Und GPU µArch lässt sich leichter skalieren weil es parallele Rechenwerke sind - CPUs sind eben noch mal deutlich komplexer.

Aber wenn es nur ein Nebenprodukt ist wozu denn custom cores?

Genau, wozu mehr als das was Affenjack sagt?
2 Befehlssätze für KI ein und du hast ne Custom CPU.


Um zur Wirtschaftlichkeitsdebatte von so einem Unterfangen zurück zu kommen:
- Der einzige Grund wieso nvidia das macht ist als de-Risking Strategie. Also dass man einen Plan B hat falls Intel ins straucheln Gerät bzw. AMD zu viel Kompetitiven Druck auf den Rackscale Markt ausübt (bzw. auch Intel/AMD umgekehrt).
Außerdem muss man sich darauf vorbereiten dass man falls die AI bubble platzt wieder auf den klassischen Server- und Consumer Markt umschwenken kann. AMD steht da mit ihren APUs was Konsolen und Notebooks angeht besser da.

Was liegt da näher als die eigenen CPU-Ingenieure mit unbedeutenden Märkten zu Beschäftigungs-therapieren? GB10 und Jetson sind super low volume für nvidia, da wäre es nicht schlimm wenn mal eine CPU µArch floppt.

robbitop
2026-03-04, 20:03:25
Ich behaupte mal, dass wir hier nicht seriös beurteilen können wer bei Nvidia am CPU Team arbeitet und wer dort seit Denver und Carmel (das ist 8 Jahre her - das ist fast so lange her wie die AMD Bulldozerfamilie noch lebte) dazu gekommen ist. Insofern halte ich das Argument für etwas schwach von Denver und Carmel auf etwas zu schließen was viele Jahre später ist nach dem potenziell gravierende Veränderungen in dem Bereich stattgefunden haben können von dem wir nichts wissen.

Egal das führt zu nichts - warten wir mal ab was da genau kommt. Aber: Nvidia sollte man nie unterschätzen. :)

Skysnake
2026-03-05, 04:59:09
Du musst aber anerkennen, dass das einfach zu dem schwierigsten gehört was man machen kann.

Also eine general purpose CPU mit hoher Leistung.

GPU ist da an sich einfacher von der HW her. Du hast da dann aber das Problem von über Jahrzehnte gewachsenen Treibern, was es am Ende auch sehr schwer macht, aber halt auf einer anderen Ebene als der HW an sich.

robbitop
2026-03-05, 07:37:14
Klar ist es nicht leicht. Haben aber schon genug Unternehmen die nur ein Bruchteil der Möglichkeiten von Nvidia haben geschafft. Es gibt genug Präzedenzfälle. Schwierig und komplex ist kein Showstopper wenn genug Wille und Möglichkeiten da sind.

Skysnake
2026-03-05, 14:00:29
Aha, welche Firmen wären das denn?