Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - N1X & GB10 (SoC mit ARM-CPU von MediaTek und Blackwell-GPU von nVidia, 3 nm, 2026)


Seiten : 1 [2]

Badesalz
2025-09-19, 15:00:14
Edit:

https://www.computerbase.de/news/wirtschaft/details-zum-intel-nvidia-deal-ein-gb10-mit-x86-zu-erwarten-us-politik-ohne-einfluss.94393/#244. My Lord...

TheAntitheist
2025-09-20, 03:27:54
Was ein Bullshit aber halt mal wieder nVidia Gehirnwäsche Marketing at its best.

NVLINK ist im wesentlichen OpenCAPI das von IBM kommt. IBM hat also nVidia etwas gegeben und nicht umgekehrt...

Ob es am Ende überhaupt etwas in nVLink gibt das es in OpenCAPI nicht gibt kann man leider nicht sagen da eben proprietär...
Auf Wiki steht nichts davon das IBM das entwickelt hat und GPT findet auch gar nichts in diese Richtung. Beweis mal deine Behauptungen oder Bann

mironicus
2025-09-20, 06:53:46
Wenn dann eine APU mit LPPDR6x erscheint mit bis zu 128-256 GB RAM auf die die NVidia-Grafik Zugriff hätte, wäre das geil für LLM und Co.

basix
2025-09-20, 09:23:09
Sowas dürfte es von AMD und Nvidia in der nächsten Generation geben (RDNA5 + Zen 6; Rubin + ARM/Intel). Evtl. auch von Intel mit Celestial. Und Qualcomm wird dort vermutlich auch mitmischen wollen.

Ich finde diese "Big APU" Dinger generell cool für professionele Workstations (hauptsächlich MiniPC sowie Notebook). Als Entwickler / Ingenieur bekommt man dort genau das Richtige: Schnelle CPU, schnelle GPU für CAD usw. und viel Speicher. Und das in einem kompakten / mobilen Formfaktor.

Leonidas
2025-09-21, 07:59:28
Habe dem Thread mal einen neuen Namen gegeben, da sich nun langsam klärt, wie das ganze zusammenhängt. Daneben 3DC News-Übersichtsseite zu N1(X) und GB10 aufgelegt:
https://www.3dcenter.org/news/nvidia-n1x-gb10

MSABK
2025-09-21, 08:56:48
Ich bin maximal verwirrt. Kommt nun ein Windows on Arm Chip oder nicht?

robbitop
2025-09-21, 09:40:35
btw: Von einer shield2 hört man leider gar nichts. :( Weder mit dem Switch2 chip noch mit dem Mediatek. Anscheinend hat Nvidia keine Lust mehr auf diesen Markt.

Die Shield 1 altert leider nach 10 Jahren leider doch. RAM wird immer enger und aufgrund der alten Android Version sind Dinge wie modernes Refreshrate Switching in Verbindung mit dem Handshake von hdmi kaputt - und für eine neue Android Basis scheint die Plattform leider schon zu sehr in die Jahre gekommen zu sein.
Dazu könnte man mit einem modernen SoC sicherlich was Image Processing angeht auch richtig abliefern (bessere Motion Interpolation, Scaling, denoising etc)


—————————

Was den Nvidia Chip angeht. Ich hab mich schon länger gefragt warum man sich da den Aufwand von Chiplets mit 2,5d interconnects macht (iirc war das doch bei GB10x so). Jetzt word es klarer: so kann man die GPU mit verschiedensten CPUs kombinieren ohne neue Chips aufzulegen. ZB mit Intel, mit Mediatek oder oder

Leonidas
2025-09-21, 10:37:42
Ich bin maximal verwirrt. Kommt nun ein Windows on Arm Chip oder nicht?

Na logisch. Das ist N1(X). Unter dem Namen "GB10" wird 100% derselbe Chip verwendet für Profi-Mini-PCs (für Linux).

bbott
2025-09-21, 18:44:52
btw: Von einer shield2 hört man leider gar nichts. :( Weder mit dem Switch2 chip noch mit dem Mediatek. Anscheinend hat Nvidia keine Lust mehr auf diesen Markt.

Die Shield 1 altert leider nach 10 Jahren leider doch. RAM wird immer enger und aufgrund der alten Android Version sind Dinge wie modernes Refreshrate Switching in Verbindung mit dem Handshake ...

Ja, ich hätte auch extrem gerne eine Shield 2 mit echtem verbessertem AI upscaling, HDR10+ Support, HDMI 2.1+, mehr HW Codec Support, besserer HW,...

Aber ich denke NV sieht die NV Shield als Riesen flop, weil das Gaming Streaming kaum bzw. nicht genutzt wurde und so keine dauerhafte (zuverlässige) Einnahme Quelle geschaffen wurde. Die Marge viel kleiner als bei AI Produkten.

Gibt es ein Kalkulation, was die Shield in der Herstellung kostet? BOM Liste?

bbott
2025-09-21, 18:53:06
Ich habe mal mit ChatGPTdie BOM versucht zu schätzen:
NVIDIA Shield TV Pro (2019) – geschätzte BOM (auf Basis Nintendo Switch 2019)

Hinweis: Schätzungen basieren auf der Nintendo Switch 2019 BOM von IHS (~257 USD).
Shield spart Display, Akku, Joy-Cons & Dock, hat dafür Fernbedienung & Alu-Gehäuse.


Komponente Switch 2019 Shield Pro 2019 Kommentar
---------------------------------------------------------------------------
SoC (Tegra X1+) ~21 USD ~21 USD Gleicher Chip
RAM (LPDDR4) ~18 USD ~15 USD Switch 4 GB, Shield 3 GB
Flash (NAND) ~16 USD ~8 USD 32 GB vs. 16 GB
Mainboard + I/O ~50 USD ~45 USD Ähnliche Ausstattung
Display (LCD+Touch) ~45 USD – Shield ohne Display
Akku + Power Mgmt ~15 USD – Nur Netzbetrieb
Joy-Cons/Controller ~45 USD – Shield nur mit Remote
Dock ~20 USD – Entfällt
Fernbedienung – ~20 USD Mit BT, IR, Mikrofon
Gehäuse + Kühlung ~10 USD ~15 USD Hochwertiges Alu
Netzteil ~8 USD ~10 USD Stationäres Netzteil
---------------------------------------------------------------------------
GESAMT (BOM) ~257 USD ~135–150 USD


Verkaufspreis Shield Pro (2019): 199 USD
→ Bruttomarge geschätzt: ~25–40 %
→ Fazit: Keine klassische Konsolen-Subvention, sondern Premium-Streaminggerät mit kleiner Gewinnspanne.

TheAntitheist
2025-09-21, 22:20:47
controller so teuer wie das display?
Die Teile kosten maximal 15$

bbott
2025-09-21, 22:28:32
controller so teuer wie das display?
Die Teile kosten maximal 15$
Sind zwei und stecken viele Features drin, also 22,5 $ je Controller. Vielleicht ist es etwas übertrieben, aber 15 $ werden sicher nicht reichen.

MSABK
2025-09-22, 08:42:29
Im Anandtech Forum schreiben sie die ganze Zeit die Hersteller warten auf die Windows 12 Ankündigung, W12 wird es ja aber nicht geben in nächster Zeit.

mboeller
2025-10-06, 14:17:28
https://www.notebookcheck.com/HP-packt-Prozessor-mit-20-ARM-Kernen-Nvidia-GPU-und-240W-USB-C-in-ZGX-Nano-G1n-AI-Mini-PC.1132335.0.html

https://www.hp.com/at-de/workstations/zgx-nano-ai-station.html

mironicus
2025-10-14, 09:14:31
Erster Test.

zs-J9sKxvoM

dildo4u
2025-10-14, 09:39:59
Das Hauptfeature ist wie bei Strix Halo die 128GB Performance im Bereich einer 5060?


https://i.ibb.co/jP7MzcD1/spark.png (https://ibb.co/8LF5bW9S)

https://youtu.be/-3r2woTQjec?si=bQIDLgpsin3x9TvO&t=299

mironicus
2025-10-14, 10:05:03
In dem von mir verlinkten Video testet er GPT-OSS 120B und erreicht bei dem großen Modell etwa 30 Tokens/Sekunde. Strix Halo erreicht hier interessanterweise auch etwa 30 Tokens/Sekunde laut externen Tests. Beide Geräte sind aber weder für Bildgenerierung oder Videogenerierung geeignet, viel zu langsam.

Daredevil
2025-10-14, 10:10:37
Die Plattform ist das Feature, nicht die Leistung. Alles was du darauf testest, schreibst und ausführst kannst du in Rechenzentren hoch skalieren. Das klappt weder bei AMD noch bei Apple.
So habe ich die Daseinsberechtigung jetzt verstanden.

mironicus
2025-10-14, 10:25:49
Das stimmt. DGX Spark ist kein klassischer Standalone‑Supercomputer, sondern ein „persönliches Gateway“ in NVIDIAs KI‑Cloud.

In dem Beispiel trainierte er ein Gemma3 4B-Modell um für seine Zwecke, damit es zuverlässig antwortet. Das Training von kleinen spezialisierten Modellen scheint gerade besonders spannend zu sein.

PatkIllA
2025-10-14, 11:08:39
Die Plattform ist das Feature, nicht die Leistung. Alles was du darauf testest, schreibst und ausführst kannst du in Rechenzentren hoch skalieren. Das klappt weder bei AMD noch bei Apple.
So habe ich die Daseinsberechtigung jetzt verstanden.
Oder mehrere vor Ort verbinden.
Da geht es doch auch darum, dass man die für KI Dinge nutzt die auch ohne Verbindung zur Cloud funktionieren müssen. Z.B. autonomes fahren oder halt aus Datenschutzgründen.

Gouvernator
2025-10-14, 11:10:32
Das stimmt. DGX Spark ist kein klassischer Standalone‑Supercomputer, sondern ein „persönliches Gateway“ in NVIDIAs KI‑Cloud.

In dem Beispiel trainierte er ein Gemma3 4B-Modell um für seine Zwecke, damit es zuverlässig antwortet. Das Training von kleinen spezialisierten Modellen scheint gerade besonders spannend zu sein.
Nvidias KI Cloud Zugang ist aber auch nicht kostenlos. Wenn dein freies Ticket von der Hardware nach paar Jahren abgelaufen ist kostet der Eintritt 5k$ pro Jahr. Das ist jetzt auch nichts was ein Normalo von DGX Spark Anschaffung auf den ersten Blick erwartet...
NVIDIA DGX Software Bundle & NVIDIA AI Enterprise
NVIDIA AI Enterprise is included in the NVIDIA DGX software bundle for NVIDIA DGX systems using the NVIDIA Hopper architecture. This enables users to streamline their AI development with a full-stack solution and enterprise support. NVIDIA AI Enterprise licenses need to be purchased separately for NVIDIA DGX systems using the NVIDIA Blackwell architecture.
https://www.deltacomputer.com/nvidia-ai-enterprise-essentials-subscription-per-gpu-1-year.html
DGX=horrende Lizenz Kosten, egal ob das ein popliges Mini-PC ist wie Spark, oder ein NVL72 System.

NVIDIA AI Enterprise is a cloud-native suite of software tools, libraries, and frameworks designed to deliver optimized performance, robust security, and stability for production AI deployments.

mironicus
2025-10-14, 17:21:20
Lqd2EuJwOuw

mironicus
2025-10-14, 19:16:46
Dieses Review vom DGX Spark sprüht vor Ironie, weil hier wird der DGX Spark gegen ein PC mit Dual RTX-4090 verglichen (was ja soviel kostet wie ein Spark) und geht natürlich gnadenlos unter. Der große Vorteil verbleibt halt das der Spark dank der 128 GB RAM größere Modelle ausführen kann.

FYL9e_aqZY0

BUG
2025-10-14, 19:25:03
Naja 4-Stück von den AMD Instinct MI50-32GB sind dann auch 128GB mit der Performance einer ~RTX 3060. Also ausführen kann man es dann, es ist aber natürlich etwas langsamer als die nVidia Lösung. Die MI50 wird aktuell gerade bei eBay verramscht und dann gibts da noch das Thema Treiber Kompatibilität und man benötigt eine Platform mit 4 PCIE Slots und/oder Riser, mit AMD ROCm oder via Vulkan Fallback gibt es aber eine alternative und da entsteht auch gerade eine kleine Community um die MI50.

https://www.piospartslap.de/AMD-Radeon-Instinct-MI50-Accelerator-Vega-20-32GB-HBM2-AI-HPC-GPU-PCIe-40-x16-102D1631711

Daredevil
2025-10-14, 19:40:34
Spätestens wenn du nicht nur 5 Minuten Ai Workloads laufen lässt sondern mehrere Wochen oder Monate, schießt man sich mit ineffektiver Hardware schon enorm ins Bein weil die Stromkosten und die Hitze im Raum abgeführt werden will. Das will ich mal sagen als jemand, der 14 Monate lang 24/7 6x Radeon VIIs laufen hatte, immer Sommer als auch im Winter. :D
Zumal ist das zusammenschalten mehrere GPUs deutlich komplexer und nicht jede Software macht da mit.

Ansonsten würden die Leute auch aus M3 Ultras mit 512GB via Thunderbolt 5 AI „Supercluster“ bauen, zu mehr als ein YouTube Video reicht es dann aber doch nicht. Ist ähnlich wie SLI, kann gut gehen, ist aber meist Käse. DGX hat genauso wie Strix Halo entscheidende Vorteile, wenn man VRAM über Rechenleistung stellen muss.

BUG
2025-10-14, 19:52:56
Auf jeden Fall, aber wenn man das ich sag mal eher nur gelegentlich mal nutzt ggf. eine Alternative. Für Hardcore User und jemand der das im professionellen Umfeld einsetzt gibt es sinnvollere Lösungen. Das Thema wird dann wohl im Prosumer/Hobby Bereich und Semi-Profi Lösung irgendwann Ryzen AI / Strix Halo ablösen.

Relic
2025-10-15, 15:12:09
Naja 4-Stück von den AMD Instinct MI50-32GB sind dann auch 128GB mit der Performance einer ~RTX 3060. Also ausführen kann man es dann, es ist aber natürlich etwas langsamer als die nVidia Lösung. Die MI50 wird aktuell gerade bei eBay verramscht und dann gibts da noch das Thema Treiber Kompatibilität und man benötigt eine Platform mit 4 PCIE Slots und/oder Riser, mit AMD ROCm oder via Vulkan Fallback gibt es aber eine alternative und da entsteht auch gerade eine kleine Community um die MI50.

https://www.piospartslap.de/AMD-Radeon-Instinct-MI50-Accelerator-Vega-20-32GB-HBM2-AI-HPC-GPU-PCIe-40-x16-102D1631711

Ja 2x Mi50 sind der Sweetspot im Moment. Da läuft sogar OSS-120b ganz passabel:

pp512 487.06 tg128 55.03 build: 3a002afa (6698)

for llama-bench -fa 1 -m gpt-oss-120b-GGUF/gpt-oss-120b-MXFP4-00001-of-00002.gguf

Gouvernator
2025-10-17, 07:16:34
Dieses Review vom DGX Spark sprüht vor Ironie, weil hier wird der DGX Spark gegen ein PC mit Dual RTX-4090 verglichen (was ja soviel kostet wie ein Spark) und geht natürlich gnadenlos unter. Der große Vorteil verbleibt halt das der Spark dank der 128 GB RAM größere Modelle ausführen kann.

https://youtu.be/FYL9e_aqZY0
Für Training mag Spark vielleicht gut sein. Aber bei Inference ist es exakt so schnell bzw. Stückchen langsamer wie GPU+RAM. Insbesondere MoE LLMs sind mit HighEnd GPUs deutlich schneller. Ich rede von 2T/s vs 5T/s und 5T/s vs 15T/s je nach LLM-Modell.

Und auch 128Gb sind mittlerweile nicht soooo berauschend. Wenn man easy mit Dual-GPU + Ram in den selben Bereich kommt. Rein von den Specs sollte so ein mini-PC so viel RAM aufbieten, wie wir als Consumer gar nicht bauen können bzw. nicht so leicht bauen können. 96GB Kit + 24Gb Dual GPU = easy 144Gb Minimum.

Zossel
2025-10-17, 07:52:02
Für Training mag Spark vielleicht gut sein. Aber bei Inference ist es exakt so schnell bzw. Stückchen langsamer wie GPU+RAM. Insbesondere MoE LLMs sind mit HighEnd GPUs deutlich schneller. Ich rede von 2T/s vs 5T/s und 5T/s vs 15T/s je nach LLM-Modell.

Und auch 128Gb sind mittlerweile nicht soooo berauschend. Wenn man easy mit Dual-GPU + Ram in den selben Bereich kommt. Rein von den Specs sollte so ein mini-PC so viel RAM aufbieten, wie wir als Consumer gar nicht bauen können bzw. nicht so leicht bauen können. 96GB Kit + 24Gb Dual GPU = easy 144Gb Minimum.
Das ist lediglich ein Device für Entwickler um seinen Kram vortesten zu können.

Troyan
2025-10-17, 14:47:14
Für Training mag Spark vielleicht gut sein. Aber bei Inference ist es exakt so schnell bzw. Stückchen langsamer wie GPU+RAM. Insbesondere MoE LLMs sind mit HighEnd GPUs deutlich schneller. Ich rede von 2T/s vs 5T/s und 5T/s vs 15T/s je nach LLM-Modell.

Und auch 128Gb sind mittlerweile nicht soooo berauschend. Wenn man easy mit Dual-GPU + Ram in den selben Bereich kommt. Rein von den Specs sollte so ein mini-PC so viel RAM aufbieten, wie wir als Consumer gar nicht bauen können bzw. nicht so leicht bauen können. 96GB Kit + 24Gb Dual GPU = easy 144Gb Minimum.

Der Superchip hat 128GB bei 270GB/s Bandbreite. Wie sollen da Systeme, die ihren Speicher per PCIe 5.0 mit 64GB/s verwalten lassen müssen, besser sein?

Gouvernator
2025-10-17, 17:23:13
Der Superchip hat 128GB bei 270GB/s Bandbreite. Wie sollen da Systeme, die ihren Speicher per PCIe 5.0 mit 64GB/s verwalten lassen müssen, besser sein?
Ja das funktioniert irgendwie. Ich teste schon den ganzen Tag den Speed auf meinem Setup aus 5090+3090. Durchgehend niedrige Quants von 70b-120b Modellen die in gemeinsamen Vram passen. Dieses Modell Bereich ist durchgehend mit ca. 20 t/s nutzbar.

mistral large 218b 11t/s
ernie 4.5 300b 2t/s
llama 4 scout 33T/s
qwen3 225b 2 t/s
70b llama3 20t/s
qwen3 53b 67 t/s
pixtral large 16 t/s
mistral large 128b 16 t/s
GML Air 4.5 110b 60t/s

Zossel
2025-10-17, 21:49:38
Der Superchip hat 128GB bei 270GB/s Bandbreite. Wie sollen da Systeme, die ihren Speicher per PCIe 5.0 mit 64GB/s verwalten lassen müssen, besser sein?
Wie empfindlich reagiert der KI-Kram auf Latenzen?

https://github.com/andre-richter/pcie-lat

mironicus
2025-10-23, 11:56:52
ComfyUI, Nutzung von generativer KI (Qwen Edit Image, großes Modell) auf dem DGX Spark und noch einiges mehr wird hier gezeigt.

0mXR_tdIwPQ