Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - N1X & GB10 (SoC mit ARM-CPU von MediaTek und Blackwell-GPU von nVidia, 3 nm, 2026)
Badesalz
2025-09-19, 15:00:14
Edit:
https://www.computerbase.de/news/wirtschaft/details-zum-intel-nvidia-deal-ein-gb10-mit-x86-zu-erwarten-us-politik-ohne-einfluss.94393/#244. My Lord...
TheAntitheist
2025-09-20, 03:27:54
Was ein Bullshit aber halt mal wieder nVidia Gehirnwäsche Marketing at its best.
NVLINK ist im wesentlichen OpenCAPI das von IBM kommt. IBM hat also nVidia etwas gegeben und nicht umgekehrt...
Ob es am Ende überhaupt etwas in nVLink gibt das es in OpenCAPI nicht gibt kann man leider nicht sagen da eben proprietär...
Auf Wiki steht nichts davon das IBM das entwickelt hat und GPT findet auch gar nichts in diese Richtung. Beweis mal deine Behauptungen oder Bann
mironicus
2025-09-20, 06:53:46
Wenn dann eine APU mit LPPDR6x erscheint mit bis zu 128-256 GB RAM auf die die NVidia-Grafik Zugriff hätte, wäre das geil für LLM und Co.
basix
2025-09-20, 09:23:09
Sowas dürfte es von AMD und Nvidia in der nächsten Generation geben (RDNA5 + Zen 6; Rubin + ARM/Intel). Evtl. auch von Intel mit Celestial. Und Qualcomm wird dort vermutlich auch mitmischen wollen.
Ich finde diese "Big APU" Dinger generell cool für professionele Workstations (hauptsächlich MiniPC sowie Notebook). Als Entwickler / Ingenieur bekommt man dort genau das Richtige: Schnelle CPU, schnelle GPU für CAD usw. und viel Speicher. Und das in einem kompakten / mobilen Formfaktor.
Leonidas
2025-09-21, 07:59:28
Habe dem Thread mal einen neuen Namen gegeben, da sich nun langsam klärt, wie das ganze zusammenhängt. Daneben 3DC News-Übersichtsseite zu N1(X) und GB10 aufgelegt:
https://www.3dcenter.org/news/nvidia-n1x-gb10
MSABK
2025-09-21, 08:56:48
Ich bin maximal verwirrt. Kommt nun ein Windows on Arm Chip oder nicht?
robbitop
2025-09-21, 09:40:35
btw: Von einer shield2 hört man leider gar nichts. :( Weder mit dem Switch2 chip noch mit dem Mediatek. Anscheinend hat Nvidia keine Lust mehr auf diesen Markt.
Die Shield 1 altert leider nach 10 Jahren leider doch. RAM wird immer enger und aufgrund der alten Android Version sind Dinge wie modernes Refreshrate Switching in Verbindung mit dem Handshake von hdmi kaputt - und für eine neue Android Basis scheint die Plattform leider schon zu sehr in die Jahre gekommen zu sein.
Dazu könnte man mit einem modernen SoC sicherlich was Image Processing angeht auch richtig abliefern (bessere Motion Interpolation, Scaling, denoising etc)
—————————
Was den Nvidia Chip angeht. Ich hab mich schon länger gefragt warum man sich da den Aufwand von Chiplets mit 2,5d interconnects macht (iirc war das doch bei GB10x so). Jetzt word es klarer: so kann man die GPU mit verschiedensten CPUs kombinieren ohne neue Chips aufzulegen. ZB mit Intel, mit Mediatek oder oder
Leonidas
2025-09-21, 10:37:42
Ich bin maximal verwirrt. Kommt nun ein Windows on Arm Chip oder nicht?
Na logisch. Das ist N1(X). Unter dem Namen "GB10" wird 100% derselbe Chip verwendet für Profi-Mini-PCs (für Linux).
bbott
2025-09-21, 18:44:52
btw: Von einer shield2 hört man leider gar nichts. :( Weder mit dem Switch2 chip noch mit dem Mediatek. Anscheinend hat Nvidia keine Lust mehr auf diesen Markt.
Die Shield 1 altert leider nach 10 Jahren leider doch. RAM wird immer enger und aufgrund der alten Android Version sind Dinge wie modernes Refreshrate Switching in Verbindung mit dem Handshake ...
Ja, ich hätte auch extrem gerne eine Shield 2 mit echtem verbessertem AI upscaling, HDR10+ Support, HDMI 2.1+, mehr HW Codec Support, besserer HW,...
Aber ich denke NV sieht die NV Shield als Riesen flop, weil das Gaming Streaming kaum bzw. nicht genutzt wurde und so keine dauerhafte (zuverlässige) Einnahme Quelle geschaffen wurde. Die Marge viel kleiner als bei AI Produkten.
Gibt es ein Kalkulation, was die Shield in der Herstellung kostet? BOM Liste?
bbott
2025-09-21, 18:53:06
Ich habe mal mit ChatGPTdie BOM versucht zu schätzen:
NVIDIA Shield TV Pro (2019) – geschätzte BOM (auf Basis Nintendo Switch 2019)
Hinweis: Schätzungen basieren auf der Nintendo Switch 2019 BOM von IHS (~257 USD).
Shield spart Display, Akku, Joy-Cons & Dock, hat dafür Fernbedienung & Alu-Gehäuse.
Komponente Switch 2019 Shield Pro 2019 Kommentar
---------------------------------------------------------------------------
SoC (Tegra X1+) ~21 USD ~21 USD Gleicher Chip
RAM (LPDDR4) ~18 USD ~15 USD Switch 4 GB, Shield 3 GB
Flash (NAND) ~16 USD ~8 USD 32 GB vs. 16 GB
Mainboard + I/O ~50 USD ~45 USD Ähnliche Ausstattung
Display (LCD+Touch) ~45 USD – Shield ohne Display
Akku + Power Mgmt ~15 USD – Nur Netzbetrieb
Joy-Cons/Controller ~45 USD – Shield nur mit Remote
Dock ~20 USD – Entfällt
Fernbedienung – ~20 USD Mit BT, IR, Mikrofon
Gehäuse + Kühlung ~10 USD ~15 USD Hochwertiges Alu
Netzteil ~8 USD ~10 USD Stationäres Netzteil
---------------------------------------------------------------------------
GESAMT (BOM) ~257 USD ~135–150 USD
Verkaufspreis Shield Pro (2019): 199 USD
→ Bruttomarge geschätzt: ~25–40 %
→ Fazit: Keine klassische Konsolen-Subvention, sondern Premium-Streaminggerät mit kleiner Gewinnspanne.
TheAntitheist
2025-09-21, 22:20:47
controller so teuer wie das display?
Die Teile kosten maximal 15$
bbott
2025-09-21, 22:28:32
controller so teuer wie das display?
Die Teile kosten maximal 15$
Sind zwei und stecken viele Features drin, also 22,5 $ je Controller. Vielleicht ist es etwas übertrieben, aber 15 $ werden sicher nicht reichen.
MSABK
2025-09-22, 08:42:29
Im Anandtech Forum schreiben sie die ganze Zeit die Hersteller warten auf die Windows 12 Ankündigung, W12 wird es ja aber nicht geben in nächster Zeit.
mboeller
2025-10-06, 14:17:28
https://www.notebookcheck.com/HP-packt-Prozessor-mit-20-ARM-Kernen-Nvidia-GPU-und-240W-USB-C-in-ZGX-Nano-G1n-AI-Mini-PC.1132335.0.html
https://www.hp.com/at-de/workstations/zgx-nano-ai-station.html
mironicus
2025-10-14, 09:14:31
Erster Test.
zs-J9sKxvoM
dildo4u
2025-10-14, 09:39:59
Das Hauptfeature ist wie bei Strix Halo die 128GB Performance im Bereich einer 5060?
https://i.ibb.co/jP7MzcD1/spark.png (https://ibb.co/8LF5bW9S)
https://youtu.be/-3r2woTQjec?si=bQIDLgpsin3x9TvO&t=299
mironicus
2025-10-14, 10:05:03
In dem von mir verlinkten Video testet er GPT-OSS 120B und erreicht bei dem großen Modell etwa 30 Tokens/Sekunde. Strix Halo erreicht hier interessanterweise auch etwa 30 Tokens/Sekunde laut externen Tests. Beide Geräte sind aber weder für Bildgenerierung oder Videogenerierung geeignet, viel zu langsam.
Daredevil
2025-10-14, 10:10:37
Die Plattform ist das Feature, nicht die Leistung. Alles was du darauf testest, schreibst und ausführst kannst du in Rechenzentren hoch skalieren. Das klappt weder bei AMD noch bei Apple.
So habe ich die Daseinsberechtigung jetzt verstanden.
mironicus
2025-10-14, 10:25:49
Das stimmt. DGX Spark ist kein klassischer Standalone‑Supercomputer, sondern ein „persönliches Gateway“ in NVIDIAs KI‑Cloud.
In dem Beispiel trainierte er ein Gemma3 4B-Modell um für seine Zwecke, damit es zuverlässig antwortet. Das Training von kleinen spezialisierten Modellen scheint gerade besonders spannend zu sein.
PatkIllA
2025-10-14, 11:08:39
Die Plattform ist das Feature, nicht die Leistung. Alles was du darauf testest, schreibst und ausführst kannst du in Rechenzentren hoch skalieren. Das klappt weder bei AMD noch bei Apple.
So habe ich die Daseinsberechtigung jetzt verstanden.
Oder mehrere vor Ort verbinden.
Da geht es doch auch darum, dass man die für KI Dinge nutzt die auch ohne Verbindung zur Cloud funktionieren müssen. Z.B. autonomes fahren oder halt aus Datenschutzgründen.
Gouvernator
2025-10-14, 11:10:32
Das stimmt. DGX Spark ist kein klassischer Standalone‑Supercomputer, sondern ein „persönliches Gateway“ in NVIDIAs KI‑Cloud.
In dem Beispiel trainierte er ein Gemma3 4B-Modell um für seine Zwecke, damit es zuverlässig antwortet. Das Training von kleinen spezialisierten Modellen scheint gerade besonders spannend zu sein.
Nvidias KI Cloud Zugang ist aber auch nicht kostenlos. Wenn dein freies Ticket von der Hardware nach paar Jahren abgelaufen ist kostet der Eintritt 5k$ pro Jahr. Das ist jetzt auch nichts was ein Normalo von DGX Spark Anschaffung auf den ersten Blick erwartet...
NVIDIA DGX Software Bundle & NVIDIA AI Enterprise
NVIDIA AI Enterprise is included in the NVIDIA DGX software bundle for NVIDIA DGX systems using the NVIDIA Hopper architecture. This enables users to streamline their AI development with a full-stack solution and enterprise support. NVIDIA AI Enterprise licenses need to be purchased separately for NVIDIA DGX systems using the NVIDIA Blackwell architecture.
https://www.deltacomputer.com/nvidia-ai-enterprise-essentials-subscription-per-gpu-1-year.html
DGX=horrende Lizenz Kosten, egal ob das ein popliges Mini-PC ist wie Spark, oder ein NVL72 System.
NVIDIA AI Enterprise is a cloud-native suite of software tools, libraries, and frameworks designed to deliver optimized performance, robust security, and stability for production AI deployments.
mironicus
2025-10-14, 17:21:20
Lqd2EuJwOuw
mironicus
2025-10-14, 19:16:46
Dieses Review vom DGX Spark sprüht vor Ironie, weil hier wird der DGX Spark gegen ein PC mit Dual RTX-4090 verglichen (was ja soviel kostet wie ein Spark) und geht natürlich gnadenlos unter. Der große Vorteil verbleibt halt das der Spark dank der 128 GB RAM größere Modelle ausführen kann.
FYL9e_aqZY0
Naja 4-Stück von den AMD Instinct MI50-32GB sind dann auch 128GB mit der Performance einer ~RTX 3060. Also ausführen kann man es dann, es ist aber natürlich etwas langsamer als die nVidia Lösung. Die MI50 wird aktuell gerade bei eBay verramscht und dann gibts da noch das Thema Treiber Kompatibilität und man benötigt eine Platform mit 4 PCIE Slots und/oder Riser, mit AMD ROCm oder via Vulkan Fallback gibt es aber eine alternative und da entsteht auch gerade eine kleine Community um die MI50.
https://www.piospartslap.de/AMD-Radeon-Instinct-MI50-Accelerator-Vega-20-32GB-HBM2-AI-HPC-GPU-PCIe-40-x16-102D1631711
Daredevil
2025-10-14, 19:40:34
Spätestens wenn du nicht nur 5 Minuten Ai Workloads laufen lässt sondern mehrere Wochen oder Monate, schießt man sich mit ineffektiver Hardware schon enorm ins Bein weil die Stromkosten und die Hitze im Raum abgeführt werden will. Das will ich mal sagen als jemand, der 14 Monate lang 24/7 6x Radeon VIIs laufen hatte, immer Sommer als auch im Winter. :D
Zumal ist das zusammenschalten mehrere GPUs deutlich komplexer und nicht jede Software macht da mit.
Ansonsten würden die Leute auch aus M3 Ultras mit 512GB via Thunderbolt 5 AI „Supercluster“ bauen, zu mehr als ein YouTube Video reicht es dann aber doch nicht. Ist ähnlich wie SLI, kann gut gehen, ist aber meist Käse. DGX hat genauso wie Strix Halo entscheidende Vorteile, wenn man VRAM über Rechenleistung stellen muss.
Auf jeden Fall, aber wenn man das ich sag mal eher nur gelegentlich mal nutzt ggf. eine Alternative. Für Hardcore User und jemand der das im professionellen Umfeld einsetzt gibt es sinnvollere Lösungen. Das Thema wird dann wohl im Prosumer/Hobby Bereich und Semi-Profi Lösung irgendwann Ryzen AI / Strix Halo ablösen.
Relic
2025-10-15, 15:12:09
Naja 4-Stück von den AMD Instinct MI50-32GB sind dann auch 128GB mit der Performance einer ~RTX 3060. Also ausführen kann man es dann, es ist aber natürlich etwas langsamer als die nVidia Lösung. Die MI50 wird aktuell gerade bei eBay verramscht und dann gibts da noch das Thema Treiber Kompatibilität und man benötigt eine Platform mit 4 PCIE Slots und/oder Riser, mit AMD ROCm oder via Vulkan Fallback gibt es aber eine alternative und da entsteht auch gerade eine kleine Community um die MI50.
https://www.piospartslap.de/AMD-Radeon-Instinct-MI50-Accelerator-Vega-20-32GB-HBM2-AI-HPC-GPU-PCIe-40-x16-102D1631711
Ja 2x Mi50 sind der Sweetspot im Moment. Da läuft sogar OSS-120b ganz passabel:
pp512 487.06 tg128 55.03 build: 3a002afa (6698)
for llama-bench -fa 1 -m gpt-oss-120b-GGUF/gpt-oss-120b-MXFP4-00001-of-00002.gguf
Gouvernator
2025-10-17, 07:16:34
Dieses Review vom DGX Spark sprüht vor Ironie, weil hier wird der DGX Spark gegen ein PC mit Dual RTX-4090 verglichen (was ja soviel kostet wie ein Spark) und geht natürlich gnadenlos unter. Der große Vorteil verbleibt halt das der Spark dank der 128 GB RAM größere Modelle ausführen kann.
https://youtu.be/FYL9e_aqZY0
Für Training mag Spark vielleicht gut sein. Aber bei Inference ist es exakt so schnell bzw. Stückchen langsamer wie GPU+RAM. Insbesondere MoE LLMs sind mit HighEnd GPUs deutlich schneller. Ich rede von 2T/s vs 5T/s und 5T/s vs 15T/s je nach LLM-Modell.
Und auch 128Gb sind mittlerweile nicht soooo berauschend. Wenn man easy mit Dual-GPU + Ram in den selben Bereich kommt. Rein von den Specs sollte so ein mini-PC so viel RAM aufbieten, wie wir als Consumer gar nicht bauen können bzw. nicht so leicht bauen können. 96GB Kit + 24Gb Dual GPU = easy 144Gb Minimum.
Zossel
2025-10-17, 07:52:02
Für Training mag Spark vielleicht gut sein. Aber bei Inference ist es exakt so schnell bzw. Stückchen langsamer wie GPU+RAM. Insbesondere MoE LLMs sind mit HighEnd GPUs deutlich schneller. Ich rede von 2T/s vs 5T/s und 5T/s vs 15T/s je nach LLM-Modell.
Und auch 128Gb sind mittlerweile nicht soooo berauschend. Wenn man easy mit Dual-GPU + Ram in den selben Bereich kommt. Rein von den Specs sollte so ein mini-PC so viel RAM aufbieten, wie wir als Consumer gar nicht bauen können bzw. nicht so leicht bauen können. 96GB Kit + 24Gb Dual GPU = easy 144Gb Minimum.
Das ist lediglich ein Device für Entwickler um seinen Kram vortesten zu können.
Troyan
2025-10-17, 14:47:14
Für Training mag Spark vielleicht gut sein. Aber bei Inference ist es exakt so schnell bzw. Stückchen langsamer wie GPU+RAM. Insbesondere MoE LLMs sind mit HighEnd GPUs deutlich schneller. Ich rede von 2T/s vs 5T/s und 5T/s vs 15T/s je nach LLM-Modell.
Und auch 128Gb sind mittlerweile nicht soooo berauschend. Wenn man easy mit Dual-GPU + Ram in den selben Bereich kommt. Rein von den Specs sollte so ein mini-PC so viel RAM aufbieten, wie wir als Consumer gar nicht bauen können bzw. nicht so leicht bauen können. 96GB Kit + 24Gb Dual GPU = easy 144Gb Minimum.
Der Superchip hat 128GB bei 270GB/s Bandbreite. Wie sollen da Systeme, die ihren Speicher per PCIe 5.0 mit 64GB/s verwalten lassen müssen, besser sein?
Gouvernator
2025-10-17, 17:23:13
Der Superchip hat 128GB bei 270GB/s Bandbreite. Wie sollen da Systeme, die ihren Speicher per PCIe 5.0 mit 64GB/s verwalten lassen müssen, besser sein?
Ja das funktioniert irgendwie. Ich teste schon den ganzen Tag den Speed auf meinem Setup aus 5090+3090. Durchgehend niedrige Quants von 70b-120b Modellen die in gemeinsamen Vram passen. Dieses Modell Bereich ist durchgehend mit ca. 20 t/s nutzbar.
mistral large 218b 11t/s
ernie 4.5 300b 2t/s
llama 4 scout 33T/s
qwen3 225b 2 t/s
70b llama3 20t/s
qwen3 53b 67 t/s
pixtral large 16 t/s
mistral large 128b 16 t/s
GML Air 4.5 110b 60t/s
Zossel
2025-10-17, 21:49:38
Der Superchip hat 128GB bei 270GB/s Bandbreite. Wie sollen da Systeme, die ihren Speicher per PCIe 5.0 mit 64GB/s verwalten lassen müssen, besser sein?
Wie empfindlich reagiert der KI-Kram auf Latenzen?
https://github.com/andre-richter/pcie-lat
mironicus
2025-10-23, 11:56:52
ComfyUI, Nutzung von generativer KI (Qwen Edit Image, großes Modell) auf dem DGX Spark und noch einiges mehr wird hier gezeigt.
0mXR_tdIwPQ
Hab mir gerade eine gekauft:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13834854&postcount=18719
Ich war kurz davon, 2 zu kaufen, aber das ist mir dann doch zu viel Geld.
MSABK
2025-11-01, 20:57:12
Hab mir gerade eine gekauft:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13834854&postcount=18719
Ich war kurz davon, 2 zu kaufen, aber das ist mir dann doch zu viel Geld.
Was willst du damit machen?
Programmieren, Testen, Lernen.
Daredevil
2025-11-02, 00:15:51
Geil! Bin gespannt was du zu berichten hast. :)
Freue mich auch über weitere Informationen. :smile:
Befürchte aber, in 6 bis 12 Monaten kostet das Teil die Hälfte wenn jetzt nicht gerade die Stückzahlen stark limitiert sind. Allerdings agiert nVidia da die letzten Jahre recht clever bzgl. Angebot und Nachfrage.
War da nicht auch noch was mit einem Abo Modell oder Lizenzen?!
mironicus
2025-11-03, 16:11:16
Custom-DGX Spark von MSI vorgestellt. Auch bei Asus ist so eine vorbestellbar und kostet sogar weniger als von NVidia, ab 3499 Euro mit 1 TB SSD.
aKcmx1cWTHc
dildo4u
2025-11-08, 15:01:08
Mit Win11 26H1 kommt angeblich der N1X Support
https://www.windowscentral.com/microsoft/windows-11/microsoft-confirms-windows-11-version-26h1
mocad_tom
2025-11-08, 21:05:34
https://geizhals.de/?cat=sysdiv&hloc=de&asuch=spark+gb10&asd=on&bpmin=&bpmax=&v=e&hloc=at&plz=&dist=&mail=&sort=p&bl1_id=1000
Welcher davon wird wohl die beste Kühllösung haben oder meint ihr den kann man modden und einen Noctua draufspannen?
Hail to the king, babe.
https://i.imgur.com/9ECr7dM.jpeg
https://i.imgur.com/0U9HCjg.jpeg
robbitop
2025-11-10, 17:37:28
Und was ist die Anwendung dafür?
Meinst Du das jetzt allgemein oder wie? :confused:
robbitop
2025-11-11, 10:27:05
Naja du hast 3,5K ausgegeben für das Gerät. Würde mich interessieren wo der Mehrwert / die Anwendungen in deinem Fall liegen.
Es war mehr:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13834854&postcount=18719
Und Mehrwert ist relativ. Ich will mir keine Gedanken machen, wenn ich große Modelle probieren will und mir bei 32GB das VRAM ausgeht. Ansonsten verfolge ich gerade ein privates ML Projekt, wo ich mehr VRAM brauche, und eine RTX PRO 6000 Blackwell wäre mir zu teuer.
mironicus
2025-11-11, 12:43:12
Wer kam bloß auf das Design mit der Front? Ich finde es hübsch.
Mehrere Tage Frust mit dem Ding, nix läuft richtig, Doku paßt teilweise nicht, und ich mußte es schon 2x zurücksetzen, gestern wieder, weil die gnome-Gui kaputt war. Ansonsten muß man viel nachinstallieren.
Erste Lichtblicke aber mit LM-Studio und Comfy. Mit LM-Studio habe ich das gpt-oss-120B Modell problemlos fahren können, und die Antwortzeiten waren zügig und erst mal ok. Aber die GPU geht auf 95% hoch.
Troyan
2025-11-14, 18:10:16
Könntest in einer Runde Cyberpunk dich abreagieren: https://www.reddit.com/r/nvidia/comments/1opofuj/comment/no110jy/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1
robbitop
2025-11-14, 18:58:32
Es war mehr:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13834854&postcount=18719
Und Mehrwert ist relativ. Ich will mir keine Gedanken machen, wenn ich große Modelle probieren will und mir bei 32GB das VRAM ausgeht. Ansonsten verfolge ich gerade ein privates ML Projekt, wo ich mehr VRAM brauche, und eine RTX PRO 6000 Blackwell wäre mir zu teuer.
Lässt du da fertige ML Modelle drauf laufen oder trainierst du die selbst?
Daredevil
2025-11-14, 19:33:53
Der gpt-oss-20b LLM Benchmark Thread wartet sehnsüchtig auf Spark Ergebnisse. :D
Spannend wäre da der Vergleich zum M4 Max, der nahezu das gleiche kostet mit 128GB(Mickrige SSD :c ), Strix Halo hat sich noch nicht im Thread verirrt.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=622170
mironicus
2025-11-14, 20:26:24
qhcVT58BByY
DGX Spark von Gigabyte - auch mit Strix Halo verglichen.
Lässt du da fertige ML Modelle drauf laufen oder trainierst du die selbst?
Ich will selbst etwas entwickeln, und auch selbst Modelle trainieren, und setze hier erst mal auf Cuda. Deshalb arbeite ich mich schon seit einer Weile so langsam in Python, Pytorch, Tensorflow und Co. ein. Aber es ist leider so wie immer, nichts von dem Zeugs funktioniert so richtig auf Anhieb, viel Fein- und Nacharbeiten sind notwendig, um simpeleste Sachen zu machen.
Aber ja, ich jetzt erst mal zum Testen fertige Modelle verwendet, um zu sehen, ob das überhaupt so klappt.
Der gpt-oss-20b LLM Benchmark Thread wartet sehnsüchtig auf Spark Ergebnisse. :D
Morgen, versprochen, heute bin zu zu erledigt, war gerade wieder knapp 2 Stunden auf dem Rad, nachdem es diese Woche wieder repariert wurde. Ich habe schon ein Satz Pedale verschlissen, und ich hab das Ding gerade mal letzten Oktober gekauft.
@Daredevil
Werte sind da: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13840667&postcount=74
https://youtu.be/qhcVT58BByY
DGX Spark von Gigabyte - auch mit Strix Halo verglichen.
Hier auch das als Text, wer kein Video schauen will: https://www.heise.de/news/Duell-der-KI-Kisten-Nvidia-DGX-Spark-vs-AMD-Strix-Halo-11079206.html
Ich teile seine Meinung, wer nur LLMs ausführen will, ist mit anderen Geräten günstiger bedient. Wenn ich jetzt nicht unbedingt CUDA und Co. machen wollte, hätte ich auch eher zu einem Mini-PC mit Strix Halo gegriffen.
Hier hat jemand mal ein Mac M3 mit einer DGX kombiniert
NVIDIA DGX Spark™ + Apple Mac Studio = 4x Faster LLM Inference with EXO 1.0 (https://blog.exolabs.net/nvidia-dgx-spark/)
Configuration Prefill Time Generation Time Total Time Speedup
DGX Spark 1.47s 2.87s 4.34s 1.9×
M3 Ultra Mac Studio 5.57s 0.85s 6.42s 1.0× (baseline)
DGX Spark + M3 Ultra 1.47s 0.85s 2.32s 2.8×
Daredevil
2025-12-24, 14:51:46
Battle of the 750$ Notebooks:
Wir brauchen echt dringend Nvidia(+Intel) im Notebook markt, weil einfach jeder andere komplett scheitert an Apple. Ein MacBook führt den Rest vom Fest vor mit einem helleren Display, einer höheren Auflösung, dem dünnsten Design in Kombination mit einer passiven Kühlung und hat dabei noch die längste Akkulaufzeit.
Daten von MaxTech: https://youtu.be/3sPcL6BuxtE?si=UdtMxMy6GP1U6i7D&t=1328
https://s1.directupload.eu/images/251224/jr2l3ink.png
https://s1.directupload.eu/images/251224/zo87tqhh.png
https://s1.directupload.eu/images/251224/7kry2hbo.png
https://s1.directupload.eu/images/251224/i2fmt6mn.png
https://s1.directupload.eu/images/251224/vnselgg9.png
Fusion_Power
2025-12-24, 15:05:48
Wer hätte noch vor ein paar Jahren gedacht dass ausgerechnet ein Gerät von Apple einmal ein Preis/Leistungs-Sieger werden könnte, verrückt.
Ich würde persönlich in Sachen PC trotzdem (erst mal) bei x86 bleiben, hab aber zugegeben ein iPad.
Der Intel 258V macht ja auch ne relativ gute Figur da, nur warum kackt er bei dem einen Lightroom Test so dermaßen ab im Vergleich?
dildo4u
2025-12-24, 15:08:51
Das kannst du jetzt sowieso vergessen, da kein einzelner Notebook Hersteller die Einkaufs Power hat um günstig für RAM zu verhandeln.
Was zu den höheren Kosten für den Nvidia Chip dazu kommt.
Daredevil
2025-12-24, 15:20:20
Wer hätte noch vor ein paar Jahren gedacht dass ausgerechnet ein Gerät von Apple einmal ein Preis/Leistungs-Sieger werden könnte, verrückt.
Ich würde persönlich in Sachen PC trotzdem (erst mal) bei x86 bleiben, hab aber zugegeben ein iPad.
Der Intel 258V macht ja auch ne relativ gute Figur da, nur warum kackt er bei dem einen Lightroom Test so dermaßen ab im Vergleich?
Lunar Lake ist extrem stark auf Effizienz getrimmt gepaart mit modernen Features, was man bei den Batterieergebnissen ja auch sieht. Lunar Lake war noch nie für heavy MT Workloads gedacht, das kann AMD wiederum deutlich besser, säuft dafür aber auch deutlich mehr.
Dafür hat Intel die nettere Fluppdizität ( SC ) und die besseren GPU Features mit XeSS2, offenbar fehlt aber auch hier ein wenig viel Optimierung bei Blender und co.
Insofern sehe ich bei er Intel+Celestial Kombination und noch viel lieber Intel+Nvidia sehr sehr nette Produkte kommen. Oder Nvidia baut den Kram halt alleine, wenn die Kinderkrankheiten bei WindowsARM dank Qualcomm zur Seite geschafft worden sind, falls sie nicht direkt gleich ein neues OS bauen, das sehe ich unwahrscheinlicher, aber Nvidia typischer.
MSABK
2025-12-24, 17:27:07
An einen release von GB10 für Windows glaube ich nicht mehr. Da sollten die aktuellen Ram-Preise endgültig der Todesstoß sein.
dildo4u
2025-12-25, 05:54:28
An einen release von GB10 für Windows glaube ich nicht mehr. Da sollten die aktuellen Ram-Preise endgültig der Todesstoß sein.
Kommt sicherlich dort wurde schon Entwicklungszeit reingesteckt, die Marge für diese Chips sind absurd 5070 Performance für über 3000€ das fängt die RAM Preise ab.
Fusion_Power
2025-12-27, 02:59:40
Lunar Lake ist extrem stark auf Effizienz getrimmt gepaart mit modernen Features, was man bei den Batterieergebnissen ja auch sieht. Lunar Lake war noch nie für heavy MT Workloads gedacht, das kann AMD wiederum deutlich besser, säuft dafür aber auch deutlich mehr.
Dafür hat Intel die nettere Fluppdizität ( SC ) und die besseren GPU Features mit XeSS2, offenbar fehlt aber auch hier ein wenig viel Optimierung bei Blender und co.
Insofern sehe ich bei er Intel+Celestial Kombination und noch viel lieber Intel+Nvidia sehr sehr nette Produkte kommen. Oder Nvidia baut den Kram halt alleine, wenn die Kinderkrankheiten bei WindowsARM dank Qualcomm zur Seite geschafft worden sind, falls sie nicht direkt gleich ein neues OS bauen, das sehe ich unwahrscheinlicher, aber Nvidia typischer.
Ne Zeit lang wollte ich mit garantiert nen AMD Laptop zulegen…so garantiert ist das nun nicht mehr. Intel hat mittlerweile auch brauchbare iGPUs und mehr brauch ich im Grunde nicht. Und ja, da spielt dann auch bissl die „Fluppdizität“ ne Rolle. Anyways…
Beeindruckende Maschinchen diese GB10 Dingers, halt auch kein Schnäppchen.
FjRKvKC4ntw
Vielleicht fällt irgend wann mal was für den Durchschnittsuser ab von dieser Architektur. Weniger AI Krams, mehr Alltags-Tauglichkeit.
MSABK
2026-01-20, 15:26:44
Angeblich soll die Windows on ARM Version diesmal wirklich kommen.
Für Nvidias GB10/N1 lief es zum Start selbst mit viel Verspätung nicht rund und auch der N1X ist spät dran – soll aber noch in diesem Quartal erscheinen. Dennoch soll es bereits im nächsten Jahr jeweils einen Nachfolger geben. Ob und wie das angesichts anziehender Speicherpreise so umgesetzt wird, bleibt abzuwarten.
https://www.computerbase.de/news/prozessoren/nvidia-n1x-n2-und-n2x-start-des-notebookchips-noch-in-q1-nachfolger-ab-mitte-2027.95843/
MSABK
2026-01-23, 14:46:59
Wird spannend, angeblich kommen einge Notebooks von Lenovo. Unter anderem ein Legion 7 15N1X11.
https://videocardz.com/newz/lenovo-preparing-legion-7-laptop-with-nvidia-n1x-could-be-the-first-true-windows-11-on-arm-gaming-laptop
davidzo
2026-03-03, 15:42:48
Sehr interessanter Artikel zur CPU-Hälfte von GB10: https://chipsandcheese.com/p/arms-cortex-x925-reaching-desktop
Es sieht so aus als hätten ARM, nvidia und Mediatek mit dem x925 im GB10 Parität erreicht bei der ST performance gegenüber Zen5 und Lion Cove.
Strix Halo performt trotz 16 Kernen meist immer noch ein bisschen besser. Das liegt in Spielen wohl daran dass ein Core auf maximal 32MB an L3 Cache zugreifen kann während es bei GB10 nur 16MB sind und zum anderen daran dass 16 Zen5 mit 32Threads und starker Vektoreinheit wohl in MT workloads häufig noch noch schneler sind als 20C/20T mixed x925/A725 Arm Cores.
GB10 sieht außerdem schwach aus was das Speichersubsystem angeht: https://chipsandcheese.com/p/inside-nvidia-gb10s-memory-subsystem
Wenn man sich Intel mit ARL anschaut ist es aber eventuell nicht nur nvidia die schwach aussehen beim Speichersubsystem sondern einfach nur AMD die hier ungewöhnlich stark sind mit Zen5 + ladder cache und optionalem x3d cache.
Trotzdem eine starke Leistung von Mediatek für den ersten Wurf, gerade in Anbetracht der PPA. Leider scheint auch der Energievebrauch voll auf Desktop Niveau angekommen zu sein. Besonders der Idleverbrauch von GB10 scheint schlecht optimiert zu sein..
robbitop
2026-03-03, 15:53:33
Zumal es mit C1 Ultra schon Nachfolgecores von ARM gibt und laut Gerüchten ist im GB10 Nachfolger ein nvidia custom core verbaut. :)
Ist obiges gleiche Performance inkl Taktunterschied? Denn Zen 5 in Strix Halo taktet ja sicherlich ein gutes Stück höher :)
davidzo
2026-03-03, 16:38:06
laut Gerüchten ist im GB10 Nachfolger ein nvidia custom core verbaut. :)
Rein von nvidias track record mit custom cores her ist das nicht unbedingt ein gutes Zeichen :freak:. Nur Samsung ist da historisch noch schlimmer.
Ist obiges gleiche Performance inkl Taktunterschied? Denn Zen 5 in Strix Halo taktet ja sicherlich ein gutes Stück höher :)
Die low level Benchmarks sind ja nicht taktnormiert (L1/l2 misses, branch prediction, fetch/cycle oder oOo window) - aber die spec rate benches sind in der Rat 4Ghz GB10 vs 9900X mit biszu 5.6Ghz (?).
Gerade dass der 9800x3d in der specsuite langsamer ist als der 9900x zeigt schön auf dass es hier um 1Thread performance geht und nicht die IPC.
Chester hat auch IPC Diagramme und da ist der x925 bis zu 20% schneller als Zen5 und Lion Cove.
Allerdings muss ein ARM core auch mehr IPC haben, da dieselben workloads unter AArch in mehr einzelne befehle dekodieren als unter x86, vor allem bei floating point lastigen workloads.
Der x925 ist daher 10-wide im vergleich zu AMD und Intels 8-wide Architekturen. Außerdem hat er mit 768 instructions einen riesigen ROB.
Klingt eher wie ein Mix aus Apple M4 (10wide decode) mit oOo Ressourcen eher wie Apple M3 aber einem traditionellen Arm Cortex x-series cache setup.
robbitop
2026-03-03, 17:42:17
Ich würde Nvidia da nicht unterschätzen. Die lernen aus Fehlern der Vergangenheit und haben riesige Budgets. Man hat nach Dem never und Carmel die custom Cores eingestellt weil man eingesehen hat, dass die nicht so toll waren. Wenn jetzt wieder welche kommen, dann hat das wahrscheinlich einen Grund.
davidzo
2026-03-04, 00:17:25
Grace und Vera haben mich jetzt nicht vom Hocker gehauen.
Das sind bei Grace zwar standard Neoverse V2 Cores, aber mit nvidias selbst gebrautem Cache-subsystem und SCF fabric vernetzt. Und das eigene Gelöt ist super latenzintensiv und lahmer als ARMs standardlösung und von der besseren I/O Bandbreite zur GPU kommt auch nicht wirklich etwas an. Der L3 Cache ist zwar monolitisch, aber viel kleiner als bei AMD, kaum größer als das was ein Single CCD mit x3d cache bei AMD bekommt. Trotz LPDDR5X hat man weniger Bandbreite als Zen4 Epyc mit normalem DDR5. Beim Corecount liegt man auch zurück. Und das ganze bei einer monolitischen Diegröße nahe an H200.
Nvidia wendet sich im Datacenter nun wieder Intel zu wenn es um CPUs geht. So richtig viel erwarte ich von den nvidia Ingenieuren in Bezug auf CPUs also nicht mehr.
Skysnake
2026-03-04, 00:49:10
Jup, CPU Design ist ne ganz andere Liga als GPU Design. Die ganze Latenzgeschichte ist da einfach viel diffizieler zu lösen als die Durchsatzthemen bei GPUs.
Badesalz
2026-03-04, 07:19:37
Wenn man sich Intel mit ARL anschaut ist es aber eventuell nicht nur nvidia die schwach aussehen beim Speichersubsystem sondern einfach nur AMD die hier ungewöhnlich stark sind mit Zen5 + ladder cache und optionalem x3d cache.Skysnake redet darüber gelegentlich schon seit Monaten. AMD ist da bisher in seiner eigenen Liga.
robbitop
2026-03-04, 07:23:36
Grace und Vera haben mich jetzt nicht vom Hocker gehauen.
Das sind bei Grace zwar standard Neoverse V2 Cores, aber mit nvidias selbst gebrautem Cache-subsystem und SCF fabric vernetzt. Und das eigene Gelöt ist super latenzintensiv und lahmer als ARMs standardlösung und von der besseren I/O Bandbreite zur GPU kommt auch nicht wirklich etwas an. Der L3 Cache ist zwar monolitisch, aber viel kleiner als bei AMD, kaum größer als das was ein Single CCD mit x3d cache bei AMD bekommt. Trotz LPDDR5X hat man weniger Bandbreite als Zen4 Epyc mit normalem DDR5. Beim Corecount liegt man auch zurück. Und das ganze bei einer monolitischen Diegröße nahe an H200.
Nvidia wendet sich im Datacenter nun wieder Intel zu wenn es um CPUs geht. So richtig viel erwarte ich von den nvidia Ingenieuren in Bezug auf CPUs also nicht mehr.
Grace und Vera hatten keine custom ARM Cores insofern ist das kein Indiz auf kommende eigene uArch cores. Und ich vermute, dass cpu uarch von anderen Leuten gemacht wird als eine fabric. Insofern kann ich die Argumentation nicht ganz nachvollziehen.
Wird nicht immer beides (CPU und GPU) auf dem selben Board verbaut? Sicher dass die CPUs nicht verbaut werden? Gibt es dafür Quellen?
Man darf nicht vergessen dass Nvidia enorme resources hat und im Silicon Valley jeden hiren kann den sie wollen. Und das Unternehmen wird aggressiv und ambitioniert geführt - die machen Fehler selten mehrfach.
AffenJack
2026-03-04, 09:40:31
Man darf nicht vergessen dass Nvidia enorme resources hat und im Silicon Valley jeden hiren kann den sie wollen. Und das Unternehmen wird aggressiv und ambitioniert geführt - die machen Fehler selten mehrfach.
Das Problem ist auch nicht nur das können, sondern am Ende das Wollen. CPUs sind für Nvidia nur ein Randprodukt und selbst da sind die Servercpus das deutlich wichtigere im Vergleich zu Consumer. Nvidia wird für Consumer da nix spezielles für horrende Kosten zaubern, sondern dass einfach als Nebenprodukt etwas mitentwickeln um sein Ökosystem zu vervollständigen. Dementsprechend erwarte ich da wenig.
reunion
2026-03-04, 09:46:44
Man darf nicht vergessen dass Nvidia enorme resources hat und im Silicon Valley jeden hiren kann den sie wollen. Und das Unternehmen wird aggressiv und ambitioniert geführt - die machen Fehler selten mehrfach.
Das stimmt. Die Ressourcen hatten sie aber auch schon bei den CPU fails in der Vergangenheit. Deshalb verstehe ich ehrlich gesagt auch nicht, warum man da nicht aggressiv Spezialisten anheuert sondern anscheinend glaubt es intern besser zu wissen. Das erinnert mich fast ein bisschen an Intel, die auch geglaubt haben sie wissen besser wie man GPUs baut und alles intern gemacht haben - der "Erfolg" dessen ist bekannt.
Das Problem ist auch nicht nur das können, sondern am Ende das Wollen. CPUs sind für Nvidia nur ein Randprodukt und selbst da sind die Servercpus das deutlich wichtigere im Vergleich zu Consumer. Nvidia wird für Consumer da nix spezielles für horrende Kosten zaubern, sondern dass einfach als Nebenprodukt etwas mitentwickeln um sein Ökosystem zu vervollständigen. Dementsprechend erwarte ich da wenig.
Naja, wenn ich so viel Geld einnehme wie Nvidia, dann spiele ich auf jedem Feld. Warum auch nicht? Von Intel abhängig zu sein klingt jetzt auch nicht so prickelnd. Und eine CPU wird man immer brauchen.
The_Invisible
2026-03-04, 10:02:55
Das Problem ist auch nicht nur das können, sondern am Ende das Wollen. CPUs sind für Nvidia nur ein Randprodukt und selbst da sind die Servercpus das deutlich wichtigere im Vergleich zu Consumer. Nvidia wird für Consumer da nix spezielles für horrende Kosten zaubern, sondern dass einfach als Nebenprodukt etwas mitentwickeln um sein Ökosystem zu vervollständigen. Dementsprechend erwarte ich da wenig.
Glaub ich nicht, entweder versucht es NV immer aggressiv und failed eventuell oder lässt es gleich bleiben, zwischendrin kann ich mir nix vorstellen.
AffenJack
2026-03-04, 10:06:02
Naja, wenn ich so viel Geld einnehme wie Nvidia, dann spiele ich auf jedem Feld. Warum auch nicht? Von Intel abhängig zu sein klingt jetzt auch nicht so prickelnd. Und eine CPU wird man immer brauchen.
Auch mit viel Geld wird Nvidia nicht einfach so tonnen von Ressourcen reinstecken. Man braucht ne CPU für einen Singulären Workload und das ist KI im Server. Dafür wird man auch etwas bauen, was dafür maximal angepasst ist.
Im PC-Bereich ist damit nicht viel Geld zu holen. Am Ende ist die Rechnung immer, wieviel Gewinn kann ich für XY Kosten generieren und bei Consumercpus ist da das Potential ziemlich gering ohne einen Jahrelangen ungewissen Kampf gegen X86 und riesige Ressourcenverschwendung. Geld ist sogar weniger das Problem, aber wenn Nvidia entscheiden muss, wo der Top-Ingenieur arbeitet, dann wird er dann die gewinnträchtigen Projekte gesetzt und nicht ins Nice-to-have Feld.
reunion
2026-03-04, 10:26:53
Auch mit viel Geld wird Nvidia nicht einfach so tonnen von Ressourcen reinstecken. Man braucht ne CPU für einen Singulären Workload und das ist KI im Server. Dafür wird man auch etwas bauen, was dafür maximal angepasst ist.
Im PC-Bereich ist damit nicht viel Geld zu holen. Am Ende ist die Rechnung immer, wieviel Gewinn kann ich für XY Kosten generieren und bei Consumercpus ist da das Potential ziemlich gering ohne einen Jahrelangen ungewissen Kampf gegen X86 und riesige Ressourcenverschwendung. Geld ist sogar weniger das Problem, aber wenn Nvidia entscheiden muss, wo der Top-Ingenieur arbeitet, dann wird er dann die gewinnträchtigen Projekte gesetzt und nicht ins Nice-to-have Feld.
Es geht um die CPU IP. Da arbeiten die Top-Ingenieure und die braucht NV sowieso. Dass dann zu skalieren ist ein Klacks, dafür braucht es keine Top-Ingenieure. AMD entwickelt auch nur einen Core und skaliert den dann in alle Märkte.
Skysnake
2026-03-04, 10:40:56
Denkst du. AMD und Intel haben Jahrzehnte Tuningerfahrung und Unmengen an Patenten.
Mal ganz abgesehen davon, das x86 eben noch immer ein Brett ist.
MSABK
2026-03-04, 10:50:44
Auch auf der MWC jetzt haben sie nicht Laptops mit dem Chip vorgestellt. Gerüchteweise soll dieser ja jeden Moment kommen.
robbitop
2026-03-04, 10:57:59
Das Problem ist auch nicht nur das können, sondern am Ende das Wollen. CPUs sind für Nvidia nur ein Randprodukt und selbst da sind die Servercpus das deutlich wichtigere im Vergleich zu Consumer. Nvidia wird für Consumer da nix spezielles für horrende Kosten zaubern, sondern dass einfach als Nebenprodukt etwas mitentwickeln um sein Ökosystem zu vervollständigen. Dementsprechend erwarte ich da wenig.
Aber wenn es nur ein Nebenprodukt ist wozu denn custom cores?
The_Invisible
2026-03-04, 11:09:56
Geld ist sogar weniger das Problem, aber wenn Nvidia entscheiden muss, wo der Top-Ingenieur arbeitet, dann wird er dann die gewinnträchtigen Projekte gesetzt und nicht ins Nice-to-have Feld.
Die sind viel zu spezialisiert, du kannst nicht einfach einen LowLevel-GPU Treiberentwickler in die AI Abteilung verschieben usw
AffenJack
2026-03-04, 11:41:32
Aber wenn es nur ein Nebenprodukt ist wozu denn custom cores?
Custom bedeutet doch erstmal gar nix. Nimm ne ARM CPU von der Stange und baue 2 Befehlssätze für KI ein und du hast ne Custom CPU.
Es ist einfach nen großer Unterschied ob ich IP nehme und singulär für einige Workloads optimiere oder eine CPU haben will die in allen Workloads deutlich besser performt. Optimierung in eine Richtung ist deutlich einfacher, in allem gut performen dagegen die hohe Kunst die mit Kosten und viel Erfahrung verbunden ist und nicht so einfach mal nachstellbar ist.
Bestes Beispiel Stromspartechniken. Wenn dein Design darauf ausgelegt ist unter Full-Load im Server zu laufen, dann kannst du die Fläche für Stromsparmechanismen im Idle lieber in Performance packen. Bei einer Laptop und Desktopcpu musst du das alles viel feiner ausbalancieren.
robbitop
2026-03-04, 13:33:56
Ich meine schon echte custom cores. Also komplett eigene uArch.
davidzo
2026-03-04, 19:41:17
Und ich vermute, dass cpu uarch von anderen Leuten gemacht wird als eine fabric.
Welchen Leuten denn? Etwa die von Denver und Carmel? haben die etwa die ganze Zeit Däumchen gedreht seitdem?
Dass man den Job für GB10 überhaupt an Mediatek gegeben hat zeigt doch wie schlecht man hier personell aufgestellt war, bzw. wie unvorbereitet. Wenn überhaupt hat man noch ein Rumpfteam mit veralteten Patenten und Konzepten und lauter neue Leute die vielleicht kompetent und gut bezahlt sind aber mit nvidia CPU µArches noch keinen Track record, roadmap oder Strategie haben.
Ich meine Jim Keller ist im August 2012 zu AMD gekommen um die K12 Entwicklung zu leiten aus der dann Zen wurde. Der hat damals aus vorhandenen Ingenieuren völlig neue Teams zusammengestellt und eine x86_64 µArch von Grund auf neu entworfen. Zen1 ist dann im März 2017 gelauncht.
Auch auf der MWC jetzt haben sie nicht Laptops mit dem Chip vorgestellt. Gerüchteweise soll dieser ja jeden Moment kommen.
Nvidia macht mehr $/Wafer mit AI Beschleunigern und GPUs, es gibt also keine Eile. Außerdem zeigen die GB10 und Jetson Thor katastrophales power management, vor allem im Idle. Da sind also noch viel firmware-power management dinge zu fixen und ggf. sogar hardware iterationen zu leisten bevor das im notebook vernünftigt läuft. Kann man sich jetzt auch sparen nachdem das Teil über ein Jahr Verspätung hat und mit dem X2 Elite, Medusa Halo vermutlich gegen die Nachfolger antreten muss als gegen was es konzipiert war. N1X für Windows on Arm Notebooks stand mal für H2 2025 im Plan und MIcrosoft war sicher nicht sehr amused über die Verzögerung. Mit Glück hatte man bis dahin gerade mal GB10 DGX gelauncht.
Glaub ich nicht, entweder versucht es NV immer aggressiv und failed eventuell oder lässt es gleich bleiben, zwischendrin kann ich mir nix vorstellen.
Ist das so? nvidia entwickelt viel wenn der Tag lang ist, was nicht unbedingt erscheint bzw. auch mal still und heimlich eingestellt wird.
3D Vision, Nvidia GRID, Nvidia Shield Tablet 2, Nvidia GameStream für den Shield, Nvidia SLI, Titan Ada / 4090ti, 3080ti 20GB, ...
Es geht um die CPU IP. Da arbeiten die Top-Ingenieure und die braucht NV sowieso.
Wieso sollten sie an CPUs arbeiten wenn das Geld bei GPUs bzw. KI-Beschleunigern schneller multipliziert wird?
Und bloß weil du Top Ingenieure bei AMD und Intel abwerben kannst, hast du damit noch lange kein funktionierendes Team oder eine zukunftsfähige Architektur, Roadmap, etc.
- Frag mal intel wie gut es für sie gelaufen ist als sie 2016-17 Top-Talent von nvidia, AMD und IMG abgeworben haben um in Zukunft eigene GPUs zu bauen. Und GPU µArch lässt sich leichter skalieren weil es parallele Rechenwerke sind - CPUs sind eben noch mal deutlich komplexer.
Aber wenn es nur ein Nebenprodukt ist wozu denn custom cores?
Genau, wozu mehr als das was Affenjack sagt?
2 Befehlssätze für KI ein und du hast ne Custom CPU.
Um zur Wirtschaftlichkeitsdebatte von so einem Unterfangen zurück zu kommen:
- Der einzige Grund wieso nvidia das macht ist als de-Risking Strategie. Also dass man einen Plan B hat falls Intel ins straucheln Gerät bzw. AMD zu viel Kompetitiven Druck auf den Rackscale Markt ausübt (bzw. auch Intel/AMD umgekehrt).
Außerdem muss man sich darauf vorbereiten dass man falls die AI bubble platzt wieder auf den klassischen Server- und Consumer Markt umschwenken kann. AMD steht da mit ihren APUs was Konsolen und Notebooks angeht besser da.
Was liegt da näher als die eigenen CPU-Ingenieure mit unbedeutenden Märkten zu Beschäftigungs-therapieren? GB10 und Jetson sind super low volume für nvidia, da wäre es nicht schlimm wenn mal eine CPU µArch floppt.
robbitop
2026-03-04, 20:03:25
Ich behaupte mal, dass wir hier nicht seriös beurteilen können wer bei Nvidia am CPU Team arbeitet und wer dort seit Denver und Carmel (das ist 8 Jahre her - das ist fast so lange her wie die AMD Bulldozerfamilie noch lebte) dazu gekommen ist. Insofern halte ich das Argument für etwas schwach von Denver und Carmel auf etwas zu schließen was viele Jahre später ist nach dem potenziell gravierende Veränderungen in dem Bereich stattgefunden haben können von dem wir nichts wissen.
Egal das führt zu nichts - warten wir mal ab was da genau kommt. Aber: Nvidia sollte man nie unterschätzen. :)
Skysnake
2026-03-05, 04:59:09
Du musst aber anerkennen, dass das einfach zu dem schwierigsten gehört was man machen kann.
Also eine general purpose CPU mit hoher Leistung.
GPU ist da an sich einfacher von der HW her. Du hast da dann aber das Problem von über Jahrzehnte gewachsenen Treibern, was es am Ende auch sehr schwer macht, aber halt auf einer anderen Ebene als der HW an sich.
robbitop
2026-03-05, 07:37:14
Klar ist es nicht leicht. Haben aber schon genug Unternehmen die nur ein Bruchteil der Möglichkeiten von Nvidia haben geschafft. Es gibt genug Präzedenzfälle. Schwierig und komplex ist kein Showstopper wenn genug Wille und Möglichkeiten da sind.
Skysnake
2026-03-05, 14:00:29
Aha, welche Firmen wären das denn?
mocad_tom
2026-03-11, 10:36:42
Ich mag es, wie Jensen Huang mit seiner Aussage "das sei die alte Art von AI-Server" (und er deutet auf einen HGX-Servereinschub mit x86 Headnode)
so richtig schön auf die Fresse fällt:
https://x.com/jukan05/status/2031640412541321630
Some sell-side analysts are expecting that NVIDIA may unveil an x86 CPU developed in collaboration with Intel at GTC 2026.
Hier ist der auf die Schnauze-Fall-Moment von der GTC 2025 (ich hab schon an die richtige Zeitmarke hingespult):
https://www.youtube.com/live/_waPvOwL9Z8?t=2904
Der impact des STRONG memory model hat Jensen Huang auf die Schnauze fallen lassen.
Fakt ist - kein einziges Frontier Model aus China hat je auch nur die Nähe eines Grace Chips gesehen.
Vergesst die ganze scheiß ISA-Diskussion.
Linux-Entwickler stöhnen aber nicht wegen der ISA.
Apple ist ja auch gerade wieder ganz still beim Server-CPU entwickeln.
Gibt auch einen Grund, warum in die großen NAS eine x86-CPU reinkommt.
Gibt auch einen Grund, warum ein Steamdeck(Linux) mit x86 einfach cool läuft und Steamdeck mit ARM einfach nicht (die Switch / Switch 2 hat ein komplett schlankes OpenBSD drauf).
Und die Server-APU wird wieder kommen (sowas ähnliches wie im El Capitan).
Schon lustig, wie das Cerebras-Zeug eigentlich auch wieder nicht so richtig zu Mixture of Experts passt.
Auch lustig, wie der Schwanz mit dem Hund wackelt.
China hat keinen Zugang zu guten Lithographie-Systemen macht aber aus der Not eine Tugend. In dem sie Software-Optimierungen im Kleinen vorantreiben "shapen" sie die nächsten Architekturen und nVidia kann nur drauf reagieren. Indem China Mixture of Experts etablierte brachten sie die strategische Roadmap von nVidia komplett durcheinander.
Indem China weiterhin Models open-sourced kann nVidia keine "schlüsselfertigen AI-Factories" verkaufen.
Strategische Ausrichtung von China ist auch, dass nVidia die firmeninterne Forschung nicht monetarisieren kann. Weil China sonst die Macht von nVidia nicht mehr brechen kann.
Profiteure sind gerade kleine Firmen, die sich über On-Prem-Server gedanken machen können.
Die Telekom hat sich kein Grace-Hopper oder Grace-Blackwell sondern Blackwell+X86-Headnode in die Serverhalle gestellt.
AffenJack
2026-03-11, 11:24:43
Ich mag es, wie Jensen Huang mit seiner Aussage "das sei die alte Art von AI-Server" (und er deutet auf einen HGX-Servereinschub mit x86 Headnode)
so richtig schön auf die Fresse fällt:
Also manchmal frage ich mich, wie Leute in einem anderen Universum leben. Nvidia ist eins der profitabelsten Firmen auf dem Planeten mit Grace+Blackwell und du schwadronierst hier von auf die Fresse fallen?
X86+Nvlink ist genauso wie die SoCs nur ne kleine Portfolioerweiterung von Nvidia. Aber das große Geschäft ist Grace+Blackwell/Vera+Rubin als Rackscale.
Würde es keinen Wirtschaftskrieg China/USA geben dann würde China genauso auf Grace/Blackwell setzen und Nvidia das Zeug aus den Händen reißen.
Ganon
2026-03-11, 14:43:47
(die Switch / Switch 2 hat ein komplett schlankes OpenBSD drauf).
Welche KI hat dir denn den Mist erzählt?
mocad_tom
2026-03-11, 16:36:37
Easy Leute 16. März bis 19. März da ist GTC 2026
nVidia bleibt ein One-Trick-Pony (na klar können sie mehr aber der "Schlüsselfertig Anbieter" werden sie nimmer)
Hopper -> Blackwell -> Rubin
Das ganze Grace Gedöns (und Vera Gedöns) geht gerade NULL auf.
Es kostet halt einfach Tranistoren, wenn man MOESI im Silizium und nicht in Software haben will:
https://chipsandcheese.com/p/grace-hopper-nvidias-halfway-apu
Besides higher bandwidth, NVLink C2C has hardware coherency support. The CPU can access HBM3 memory without explicitly copying it to LPDDR5X first, and the underlying hardware can ensure correct memory ordering without special barriers. Nvidia is confident enough in their NVLink C2C implementation that HBM3 memory is directly exposed to the CPU side as a NUMA node.
Ja Ja Chester Lam schön aus dem Marketing-Material rauskopiert.
Die Datacenter-Betreiber befreien sich vom Vendor-Lockin wo sie selber können und soviel sie selber können (deshalb greifen sie auch lieber zu einem RoCEv2-Compliant-Switch als zu einem Infiniband-Switch).
Und wenn nvidia bei HBF nicht aufs Gas drückt wird es echt witzig.
Scheichs haben sich einlullen lassen und Grace-Blackwell-Datacenter / sogenannte "AI-Factories" gekauft.
Wir sehen GB10 und sind etwas "underwhelmed", wieso es nicht besser arbeitet.
Tja. Naja. Wieder das Weak Memory Model.
robbitop
2026-03-17, 09:54:31
https://www.computerbase.de/news/grafikkarten/nvidia-roadmap-feynman-nutzt-gpu-die-stacking-custom-hbm-und-rosa-cpu.96567/
Vera hat eigene custom cores und Rosa (Vera Nachfolger) wohl auch.
reunion
2026-03-17, 10:54:44
https://www.computerbase.de/news/grafikkarten/nvidia-roadmap-feynman-nutzt-gpu-die-stacking-custom-hbm-und-rosa-cpu.96567/
Vera hat eigene custom cores und Rosa (Vera Nachfolger) wohl auch.
Leider null Details was genau daran "custom" sein soll, basiert wohl auf Arm Neoverse V2. Nvidia war schon immer sehr kreativ mit Marketing. Hoffentlich kommt da noch was. 88 Kerne scheint etwas wenig für eine Server-CPU.
/Edit: Die-Stacking kommt finally 2028 auch bei Nvidia.
/Edit2: Hier gibt es doch ein paar Details: https://www.computerbase.de/news/prozessoren/cpus-bleiben-wichtig-nvidia-bietet-reines-vera-cpu-rack-mit-256-prozessoren-an.96550/
mczak
2026-03-17, 13:26:15
Leider null Details was genau daran "custom" sein soll. Nvidia war schon immer sehr kreativ mit Marketing. Hoffentlich kommt da noch was. 88 Kerne scheint etwas wenig für eine Server-CPU.
Grace hat ja bisher "nur" 72 Kerne ohne SMT, da sind 88 Kerne mit SMT schon eine Steigerung.
reunion
2026-03-17, 14:50:19
Grace hat ja bisher "nur" 72 Kerne ohne SMT, da sind 88 Kerne mit SMT schon eine Steigerung.
Klar, aber zeitgleich kommt Zen6 mit 256 Kernen inkl. SMT.
AffenJack
2026-03-17, 15:51:03
Leider null Details was genau daran "custom" sein soll, basiert wohl auf Arm Neoverse V2. Nvidia war schon immer sehr kreativ mit Marketing. Hoffentlich kommt da noch was. 88 Kerne scheint etwas wenig für eine Server-CPU.
/Edit: Die-Stacking kommt finally 2028 auch bei Nvidia.
/Edit2: Hier gibt es doch ein paar Details: https://www.computerbase.de/news/prozessoren/cpus-bleiben-wichtig-nvidia-bietet-reines-vera-cpu-rack-mit-256-prozessoren-an.96550/
https://pics.computerbase.de/1/2/1/7/8/3-e8d9dc42f9f7fd02/3-640.eb0b0366.jpg
Also was grün markiert ist, ist Custom und Rest von der Stange?
Aber das passt nicht zu 1,5x IPC vs Grace oder? Gibts nen ARM Core der soviel mehr als Neoverse 2 in Grace leistet? SMT gibts bei ARM noch nicht oder? Also dann doch mehr Custom als erwartet.
davidzo
2026-03-17, 16:10:15
Leider null Details was genau daran "custom" sein soll, basiert wohl auf Arm Neoverse V2. Nvidia war schon immer sehr kreativ mit Marketing. Hoffentlich kommt da noch was. 88 Kerne scheint etwas wenig für eine Server-CPU.
Grace war schon Neoverse V2, war aber ein Reinfall. Die IPC war knapp hinter Zen4, aber bei nur 3-3,44Ghz max. Selbst der 192Kern 9965 erreicht 3,7Ghz und andere Zen5 Epycs gehen bis 5Ghz.
Die ganzen Transistoren die man für den monolitischen 112mb L3 Cache und das nvidia SCF verschleudert hat haben sich wohl nicht gelohnt. Im Endeffekt ist im Chips and Cheese test Gravitron4 mit ebenfalls Neoverse V2 Kernen schneller und sparsamer und die hohe Bandbreite des L3 und LPDDR5X ist kaum nutzbar weil auch die Latenzen extrem hoch sind.
Welche hohe Bandbreite überhaupt? Die lügen sich wieder was zurecht indem sie die Linkbreite zur GPU zur Speicherbandbreite addieren. Außerdem addiert nvidia in der Präsentation die Bandbreite pro Server tray von zwei völlig getrennten CPU-GPU Modulen zusammen. Das ist nicht nur dual socket, das wäre streng genommen dual system. Die Angabe von 1tb/s ist nicht nur deswegen ein Taschenspielertrick. Fast alle ausgelieferten CPUs mit 480GB Speicher haben eben keine 512gb/s sondern nur 384gb/s LPDDR5X. Die 120GB und 240Gb Version mit angeblich 512gb/s gibt es praktisch nur auf dem papier.
384gb/s ist nicht besser als Genoa/Bergamo mit DDR5-4800 und deutlich schlechter als Turin mit DDR5-6400 mit dem man sich zeitlich eigentlich vergleichen müsste.
Soviel zu Grace, der eins einiges über nvidias CPU-Roadmap und Team-Strategie verrät.
Neoverse V2 ist 8wide und hat OoO Ressourcen etwa wie Zen4.
Ich denke Nvidias neue "custom" Cpu Kerne werden im besten Fall so ähnlich wie die x925 Kerne in GB10 performen. Die sind auch 10-issue wide, so wie nvidias angebliche "custom" Kerne. Der x925 hat zwar kein SMT, aber eine sehr gute ST-IPC noch vor Zen5. AMD hat durch Takt und SMT mit 16C/32T vs 10+10 bei GB10 noch minimal die Nase vorn, aber laut chips and cheese bewegen sie sich immerhin noch auf demselben Spielfeld. Ebenfalls ist GB10 in TSMC N3 gefertigt, genau wie Vera.
Für einen auf dem x925 basierenden 10wide + SMT2 Core in TSMC N3 würde ich wegen den erhöhten Latenzen einer größeren Implementierung eher etwas weniger IPC und 1T Leistung erwarten als bei GB10.
227Milliarden Transistoren ist aber eine Ansage.
- Nvidias CPU Design scheinen nicht wirklich PPA optimiert zu sein. Schon Grace war mit angeblich rund 120Mrd Transistoren ein Monster wenn man bedenkt dass ein etwas schnellerer Epyc Genoa oder Bergamo nur rund 80-90Mrd braucht.
Epyc Turin Dense mit 192 Kernen hat nur rund 150Mrd (?), kommt aus der gleichen TSMC Fertigung, sollte durch Chiplets viel billiger herzustellen sein und dreht Kreise um Grace.
- mal sehen wie es bei Zen6 aussehen wird. bei der Bandbreite hat man jedenfalls schon verloren, denn AMD geht mit 16ch MCR-Dimm all in und schlägt nvidias 1,2Tb/s mit soliden 1,6tb/s.
reunion
2026-03-17, 16:30:03
https://pics.computerbase.de/1/2/1/7/8/3-e8d9dc42f9f7fd02/3-640.eb0b0366.jpg
Also was grün markiert ist, ist Custom und Rest von der Stange?
Aber das passt nicht zu 1,5x IPC vs Grace oder? Gibts nen ARM Core der soviel mehr als Neoverse 2 in Grace leistet? SMT gibts bei ARM noch nicht oder? Also dann doch mehr Custom als erwartet.
Hm, du hast Recht. Aber ich sehe gerade ARM hat den Neoverse V4 für das 2. Halbjahr 2026 mit Optimierungen für Agentic AI angekündigt. Das würde also passen. Ob der SMT hat ist allerdings nicht überliefert.
reunion
2026-03-17, 16:37:38
Welche hohe Bandbreite überhaupt?
Naja, bei AI (gerade bei Inference) ist Bandbreite schon enorm wichtig. Zusammen mit dem NVLink Richtung GPU, den man bei den x86-CPUs aktuell nicht hat, gleicht das wohl so manchen anderen Nachteil aus.
davidzo
2026-03-17, 17:15:22
Naja, bei AI (gerade bei Inference) ist Bandbreite schon enorm wichtig. Zusammen mit dem NVLink Richtung GPU, den man bei den x86-CPUs aktuell nicht hat, gleicht das wohl so manchen anderen Nachteil aus.
Naja, ich kann da nur Chips and Cheese zitieren die meinten dass es ihnen schwer gefallen ist einen workload zu finden wo man was von der Bandbreite sehen kann, weil die DRAM Latenz (über 200ns) so grottig ist dass diese immer vorher limitiert.
Es hilft natürlich nicht dass nvidia den lokalen l2 auf 1MB kastriert hat (Neoverse V2 laut Arm 2mb, wie beib Gravitron4 umgestetzt) und dass der 112mb L3 eine Latenz von 125 Zyklen hat.
Bei 3,4Ghz sind das 38ns - das ist schon fast auf dem Niveau der DRAM latenz eines gut getunten Zen5 oder Raptorlake.
Dabei hilft wohl auch nicht dass Grace nicht mal besonders tolle Bandbreite hat. Wie gesagt ist selbst Zen4 Epyc genoa / Bergamo beim Speichersubsystem besser. +50% L1 Bandbreite, +50% L2 Bandbreite, +100% l3 Bandbreite und die dreifache L3 Größe, halbe DRAM Latenz. Und das ist nur ST! Wenn man dann noch den Core-count Unterschied einrechnet (96 vs 72), dann hat zen4 Epyc in Summe ein fast doppelt so starkes Cache/Speichersystem.
https://chipsandcheese.com/p/grace-hopper-nvidias-halfway-apu
Die versprochene "riesige Bandbreite" ergibt sich eben nur mit einem Taschenspielertrick der Daten-interleaving zwischen LPDDR5X und direkt in die CPU gemapptem HBM3 der GPU betreibt. Die sich daraus ergebenden rund 800ns Latenz erwürgen aber jegliche Rest-CPU performance, so dass das kein klar denkender Mensch machen würde. Sobald du mehr als eine Rechenoperation auf den Daten ausführst lohnt es sich diese vorher in den LPDDR5X zu kopieren.
Und die vollmundige Behauptung von 3x Speicherbandbreite per Core lässt sich auch anders formulieren: 3.4x less Cores & 33% less bandwidth per Socket.
robbitop
2026-03-18, 07:23:12
Also eigentlich war Nvidia bis dato transparent bei CPU Cores iirc. Als es selbst entwickelte Cores waren (Denver/Carmell) wurde das als custom bezeichnet. Die Standard ARM A Cores wurden in den Nachfolge Tegra Chips so benannt und bei den HPC Chips wurde auch Neoverse geflagt. Insofern sehe ich jetzt keine Anlass zu bezweifeln dass die Olympic Cores wieder eine eigene uArch sind.
reunion
2026-03-18, 10:45:39
Nvidia Vera CPU im Detail
https://www.computerbase.de/artikel/prozessoren/nvidias-vera-cpu-details.96581/
"Es handelt es sich zudem nicht mehr um Neoverse-V2-Kerne von Arm, sondern um ein Custom-Design namens Olympus, dem die Architektur Arm v9.2 zugrunde liegt, auf der auch Neoverse-V3-Kerne basieren. Vera sei vollständig Arm-kompatibel, erklärt Nvidia."
robbitop
2026-03-18, 11:03:19
Also neuste ARM ISA und SMT (bei ARM CPUs definitiv eine Seltenheit) und ziemlich breit. Mal schauen was dabei rauskommt. Aber 1,5x IPC ggü den bisherigen Neoverse Cores klingt schonmal sehr vielversprechend.
Man darf Nvidia halt nicht unterschätzen. :)
reunion
2026-03-18, 11:33:11
Also neuste ARM ISA und SMT (bei ARM CPUs definitiv eine Seltenheit) und ziemlich breit. Mal schauen was dabei rauskommt. Aber 1,5x IPC ggü den bisherigen Neoverse Cores klingt schonmal sehr vielversprechend.
Man darf Nvidia halt nicht unterschätzen. :)
Unterschätzen sollte man Nvidia definitiv nicht. Aber zuviel erwarten sollte man IMO auch nicht. Man vergleicht auch nur mit dem Vorgänger, nicht mit der Konkurrenz und das auch nur in einem Benchmark der stark von Bandbreite und FP profitiert. Dementsprechend sind die 1,5x IPC auch eher fraglich. 88 Kerne sind für eine "ausgewachsene" Server-CPU zudem eigentlich zu wenig. Hoffentlich kommt Phoronix an so ein Teil ran und macht einen schönen Test.
davidzo
2026-03-18, 12:27:51
https://www.computerbase.de/artikel/prozessoren/nvidias-vera-cpu-details.96581/
Sieht für mich aus wie ein Autounfall.
Die Problemfelder von Grace sind alle wieder mit dabei und dazu kommen neue Ungewissheiten.
Nvidia SCF ist wieder mit dabei und scheint kaum verändert. Die Folie zum Mesh Layout ist praktisch identisch mit der Grace Folie. 3,2tb/s vs 3,4tb/s klingt auch eher nach refresh denn als was Neuem.
der LLC ist mit 162MB nur 30% größer und immer noch nicht konkurrenzfähig mit AMD. Zen6 bekommt 1GB bzw. 256mb pro 32C Chiplet - und das ist noch nichtmal die X3D Variante.
physical partitioned SMT weckt Bulldozer Erinnerungen. Deterministische performance schön und gut, aber hat man dann nicht wieder Auslastungspropbleme? Das war doch der ganze Sinn von SMT, die Auslastung zu verbessern?
Von 6-wide auf 10wide und nur 46% mehr Performance? Den eventuellen Mehrtakt muss man da noch abziehen. Also vielleicht +30% IPC? klingt unterdurchschnittlich und dürfte eher auf Zen5 Level hinauslaufen wenn Grace doch schon mit Zen4 Probleme hatte.
Auch hat nvidia die 46% bessere ST performance nur im AV1 Video kodieren gemessen und nicht in breiten Anwendungsfällen wie spec. Das ist fast ein reiner Vektorworkload der auch nicht wenig bandbreitenlimitiert ist. +46% Leistung für +50% Floating Point einheiten und +130% Bandbreite ist absolut erbärmlich.
- Wieviel IPC ist Abseits solcher Inselbegabungen übrig?
Faktor 2,02x in MT workloads reicht nicht annähernd gegenüber Epyc. Epyc Genoa war mit 96 Zen4 Kernen schon erheblich schneller als Grace. Turin mit 192 zen5 Kernen dürfte daher mit Vera leichtes Spiel haben. Der wahre Gegner ist aber Epyc Venice und der wird mit Vera den Boden aufwischen.
Die Effizienz hat sich anscheinend fast gar nicht verändert, bzw. ohne SMT hätte sie sich sogar verschlechtert. Vera ist mit 500Watt TDP erst mit SMT knapp 2x so schnell wie Grace mit 250Watt.
Ich glaube ich verstehe langsam wieso man Intel CPUs braucht...
Ailuros
2026-03-18, 12:52:56
Entschuldigt die Unterbrechung, aber der thread handelt ueber einen zukuenftigen SoC von Mediatek fuer angeblich 2026. So wie ich die bisherigen Einzelheiten der Vera CPU (und den dementsprechenden TDP) lese, entwickelt Mediatek einen Server SoC oder was?
https://www.computerbase.de/artikel/prozessoren/nvidias-vera-cpu-details.96581/
Zum Abschluss der Session folgte im Raum noch eine letzte Frage zum Verbrauch von Vera. Nvidia gibt bis zu 450 Watt pro Sockel an. Bei Grace sollen es inklusive Speicher 500 Watt sein. Vera könne mit einer TDP von minimal 250 Watt konfiguriert werden.
davidzo
2026-03-18, 14:30:28
Zum Abschluss der Session folgte im Raum noch eine letzte Frage zum Verbrauch von Vera. Nvidia gibt bis zu 450 Watt pro Sockel an. Bei Grace sollen es inklusive Speicher 500 Watt sein. Vera könne mit einer TDP von minimal 250 Watt konfiguriert werden.
Das ist eine Finte. 500Watt war für den "Grace Superchip" - das sind 2x Grace CPUs auf einem Board (144C). Ergo 250W pro Chip.
Ein GH200 Superchip (Grace + H100) hat eine TDP von 450-1000W. Angesichts dessen dass ein einzelner H100 schon mit 700Watt TDP läuft dürfte die TDP des single Grace Chips also um die 250-300Watt betragen, nicht 500.
Und ja, TDPdown gab es immer. Aber das ist nicht wie die performancemessungen entstehen oder man es im rechenzentrum mit Wasserkühlung laufen lässt. Siehe Chips and Cheese, die haben es ja in einer Cloudinstanz gemessen.
Btw, ist niemandem aufgefallen wie mittelmäßig nvidias spatial SMT laut den Folien skaliert?
- 173% vs 202% sind gerade mal 14,4% performance Delta bzw. +16% und das obwohl nvidia den Benchmark für die Folien cherrypicken konnte.
AMD Epyc gen5 erreicht im Mittel von Server workloads eher + 20%:
https://www.servethehome.com/the-key-feature-for-server-cpus-amd-still-two-threads-per-core/
Ailuros
2026-03-20, 07:07:34
Ich kann mir zwar vorstellen dass NV/MTK einen bescheideneren SoC entwickelt haben (theoretisch) und dieser dann sagen wir mal einen TDP bei =/>100W (hypothetisch); in solch einem Fall haben wir dann einen high end notebook SoC, der das Leben von aehnlichen Apple/QCOM Loesungen schwer machen sollte. Selbst wenn der TDP etwas ueber den vorerwaehnten Loesungen liegt, hat eine integrierte NV GPU stets den Vorteil von meilenweit besseren GPU Treibern fuer fast alles.
Alles andere kann nur server SoC Material sein, wobei es mir aber merkwuerdig klingt, ausser dass MTK sich tatsaechlich mit solch einem Markt beschaeftigen will.
davidzo
2026-03-20, 14:45:03
Ich kann mir zwar vorstellen dass NV/MTK einen bescheideneren SoC entwickelt haben (theoretisch) und dieser dann sagen wir mal einen TDP bei =/>100W (hypothetisch); in solch einem Fall haben wir dann einen high end notebook SoC, der das Leben von aehnlichen Apple/QCOM Loesungen schwer machen sollte. Selbst wenn der TDP etwas ueber den vorerwaehnten Loesungen liegt, hat eine integrierte NV GPU stets den Vorteil von meilenweit besseren GPU Treibern fuer fast alles.
Alles andere kann nur server SoC Material sein, wobei es mir aber merkwuerdig klingt, ausser dass MTK sich tatsaechlich mit solch einem Markt beschaeftigen will.
Es gibt aktuell Null Gründe für nvidia GB10 als N1X im Consumermarkt zu verkaufen wenn sie in DGX boxen rund viermal soviel dafür bekommen und jeder Chip ihnen trotzdem aus den Händen gerissen wird.
Und dass eine CPU die in general purpose workloads zwar knapp mit Zen5 konkurrieren kann, aber vom Cachesystem gerade in Spielen deutlich hinter AMD liegen dürfte ernsthaft Apple gefährlich werden würde, das bezweifle ich. Der X925 ist gut, aber nicht auf dem level wie Apple oder Qualcomm, sondern eher wie Intel und AMD.
Bei der 1T perf liegt Apple noch um mehrere Generationen vorne und bei der Effizienz auch. GB10 braucht über 140Watt um den M5pro mit ach und Krach zu schlagen (62PL2 34Watt dauer). Vom Pricing und Diegröße müsste nvidia sich aber eher mit dem Max duellieren und der ist auch bei der GPU wesentlich schneller (5090 labtop niveau) und hat exzellente Softwareunterstützung für professionellen Workloads. Für den Profimarkt sehe ich keinen Trreibervorteil bei nvidia, im Gegenteil.
N1X wäre also wenn dann nur was für den Gamingmarkt - und dafür ist die CPU nicht ideal (x86 emulation + schwaches gaming cache setup) und das Gesamtkonstrukt einfach zu teuer. Und der Profimarkt nimmt entweder schon Apple oder findet ARM an sich unattraktiv und bleibt daher bei Intel CPU + nvidia dGPU.
vBulletin®, Copyright ©2000-2026, Jelsoft Enterprises Ltd.