PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Nvidia arbeitet an einer neuen CPU


00-Schneider
2024-11-06, 19:20:51
Nvidia is planning to take on Intel and AMD with a new CPU designed for use in consumer PCs, according to a report. The move could see the gaming GPU maker challenge the domination of Intel and AMD in the PC world, particularly when it comes to laptops and AI, but the company’s lack of an x86 license will present a challenge when it comes to this rumored Nvidia CPU running PC games and the PC’s expansive software back catalog.

This latest report comes from DigiTimes (behind a paywall), which claims that Nvidia is working on a new Arm-based CPU to directly challenge Intel and AMD, corroborating previous rumors of an Nvidia Arm PC CPU. Nvidia can already make Arm CPUs, of course. If you own a Nintendo Switch, then you already have one in the device’s Tegra chip. Nvidia’s Tegra chips have also made their way into various Android phones and tablets, but so far Windows 10 and 11 on Arm have been exclusive to Qualcomm’s Snapdragon chips.

https://www.neogaf.com/threads/rumor-nvidia-is-making-a-new-pc-cpu-to-take-on-intel-amd-and-apple-says-report.1677089/

(falls es das Thema schon gibt, bitte entsprechend verschieben)

Mortalvision
2024-11-06, 19:25:55
Hmmm, jaaa, eine „schiebe Daten vom Speicher in GPU und zeige zwölfdreißigstel Milliarden Pixel“- CPU ist jetzt echt nicht so dass, was ich unter einer „Gaming“-CPU heutzutage verstehen würde…

Daredevil
2024-11-06, 19:29:01
Meine Erwartung, wenn dies wirklich wahr werden sollte:
Jensen wird sich sicherlich niemanden unterordnen und von jemand abhängig machen und damit meine ich ganz speziell Microsoft und Windows. Wenn so ein Stück Hardware kommt, dann ggf. als "Gaming Konsole" oder Handheld, was mit z.B. Steam o.ä. gefüllt wird oder eben Notebooks mit Linux und meinetwegen als Option Windows ARM. Jensen baut keine Hardware, wenn die Software hinterherhinkt, der will alles aus seiner Hand haben.

Intel ist gerade so innovationsschwach, das man tatsächlich versuchen kann, Platz zwei zu stürzen, was sich gerade wie ein verletztes Elefantenbaby hinter dem Leopard AMD herschleppt. :D
ARM zu pushen wäre nicht nur ein besonderes Standing für Nvidia, sondern auch eins gegen Microsoft/Intel und AMD mit X86. Alles außer die verdongelte Weltherrschaft ist für den doch keine Option.
Und Apple ist so langsam auch eine GPU Gefahr für Nvidia. Wenn Apple Silicon in der Geschwindigkeit weiter macht, sind die 140w SoCs bald schneller als die 450w Boliden von Nvidia mit mehr Performance und mehr RAM. Apple baut ihre KI Infrastruktur ja offenbar selber mit eigenen Chips und braucht Nvidia dafür gar nicht. Das kann Jensen auch nicht gefallen. ^^

basix
2024-11-06, 19:53:42
Bei dem Gerücht frage ich mich, ob das ein Eigendesign ist oder einfach der Cortex X925 / dessen Nachfolger.

Eine APU im Strix Halo Format macht für Nvidia aber definitiv Sinn um gegen AMD und Apple in diesem Markt auch was zu haben.

fondness
2024-11-06, 20:01:00
https://www.neogaf.com/threads/rumor-nvidia-is-making-a-new-pc-cpu-to-take-on-intel-amd-and-apple-says-report.1677089/

(falls es das Thema schon gibt, bitte entsprechend verschieben)

Die nehme so viel Geld ein, irgendwo muss man das ja investieren.

Aber ja, das Nvidia an einer CPU bastelt ist offensichtlich. Die greifen ja auch massenweise die Intel ingenieure ab welche das sinkende Schiff verlassen.

MSABK
2024-11-07, 09:59:01
Sehe ehrlich gesagt auch nicht, dass sich Nvidia diesen Markt "antut". Windows on ARM entwickelt sich zwar relativ schnell und es kommen auch immer meh native Anwendungen, aber was will Nvidia dort? Der Anspruch der Kunden wäre dan erstklassiges Gaming auch mit DLSS. Wäre das möglich unter Windows on ARM?

Auf der anderen Seite hätte man auch evtl. die Möglichkeit in ein Steam Deck zu kommen.

Zossel
2024-11-07, 10:37:51
Auf der anderen Seite hätte man auch evtl. die Möglichkeit in ein Steam Deck zu kommen.

Warum sollte sich Valve diese unterirdischen Treiber-BLOBs antun?

readonly
2024-11-07, 10:43:21
Ich kann mir schon vorstellen dass die das angehen. Wohin mit der Kohle wenn nicht investieren, da bleibt tatsächlich nur noch wettbewerbsfähige CPUs in den Markt zu bringen. Microsoft war von der Dominanz Intels ja eh nicht begeistert, denke die würden das ganz sicher unterstützen. Wenn es auch fraglich ist, von einem Monopol zum nächsten zu wandern.

HOT
2024-11-07, 10:45:26
Wenn das was werden soll, muss NV schon der X86-Collab beitreten, sonst wird das wieder nix.

davidzo
2024-11-07, 11:05:18
Sehe ehrlich gesagt auch nicht, dass sich Nvidia diesen Markt "antut". Windows on ARM entwickelt sich zwar relativ schnell und es kommen auch immer meh native Anwendungen, aber was will Nvidia dort? Der Anspruch der Kunden wäre dan erstklassiges Gaming auch mit DLSS. Wäre das möglich unter Windows on ARM?

Im Gegensatz zum AI Markt ist das ein etablierter, stabiler Markt. Nvidia weiß auch dass ihre Kunden noch keine Gewinne machen und auch wenn Jensen an die Geschäftsmodelle der Kunden glaubt kann nvidia sich für den Fall absichern dass die konsolidierungsphase härter wird als gedacht. Gerade weil man im moment im Luxus schwimmt ist das ein nobrainer. Und soviele andere größere Märkte in die nvidia rein könnte gibt es auch nicht. Igrendwann hast du auch von Immobilien genug. Der PC Markt ist zwar nicht Margenstark, aber groß genug um ein solides extra Standbein zu bilden. Und die Technik dafür hat man ja eh.

Wenn das was werden soll, muss NV schon der X86-Collab beitreten, sonst wird das wieder nix.

Glaube ich nicht. Qualcomm muss das ja auch nicht. In Businesskreisen ist es jetzt schon cool mit einem x-Elite Gerät herumzulaufen, für die reicht Prism also schon. Und was das große Games-Thema angeht ist Microsoft ja auch gerade dabei die Letzten Straßensperrungen aus dem Weg zu räumen (AVX, AVX2, etc.) und für den Rest hat nvidia selber den größten Hebel in der Hand, da sie die GPU Architekturen verwalten für die nahezu alle Spiele entwickelt wurden.

HOT
2024-11-07, 11:23:56
Qualcomm hat im PC auf GANZER LINIE VERSAGT.
Dank Microsoft natürlich in erster Linie. Aber der Befehlssatz ist eben doch wichtig, genau das haben die Tests gezeigt. Diese ARM-Romantisierung ist total lächerlich.

MSABK
2024-11-07, 12:46:17
Qualcomm hat im PC auf GANZER LINIE VERSAGT.
Dank Microsoft natürlich in erster Linie. Aber der Befehlssatz ist eben doch wichtig, genau das haben die Tests gezeigt. Diese ARM-Romantisierung ist total lächerlich.

Klar, läuft schleppend aber als Versagen würde ich das nicht sehen.

davidzo
2024-11-07, 13:07:08
Klar, läuft schleppend aber als Versagen würde ich das nicht sehen.

Das gilt aber für den gesamten PC-Markt derzeit. AI ist eben noch lange nicht das Zugpferd das man sich erhofft hat um einen Generationswechsel bei den PCs auszulösen. Microsoft ist auch mal wieder spät dran aber zu früh mit den Launches von unfertiger Software. Die Leute warten lieber und das auch zurecht wenn man sich mal die grottige Softwareunterstützung der NPU in AI workloads anguckt.

Qualcomms Verkaufsergebnisse sind schon ganz ordentlich verglichen mit Intel und AMD.
Das Interesse am X-Elite ist ungebrochen hoch, während Lunarlake kaum eine Sau interessiert.

Notebookcheck hat 15 Tests von X-Elite Geräten, 12 mit Strix point aber nur zwei zu Lunarlake.

Das gleiche sieht man an den Listings bei Geizhals. Von der aktuellen Generation werden 65 Geräte mit Qualcomm, 32 mit AMD und 23 mit Intel angeboten (lieferbar). Das Interesse der OEMs an Lunarlake ist also sehr überschaubar, eben auch weil das Marktinteresse kaum vorhanden ist.

Lunarlake ist eben kein X-Elite-Beater, sondern lediglich ein "Konkurrent" der "gut genug" ist. THG fasst es ganz gut zusammen:
As you can see from the chart of results above, the Lunar Lake laptops we've tested so far all perform a bit worse than the latest laptops powered by AMD and Apple chips in terms of single-core and multi-core performance.

The Snapdragon laptops we've tested are more skewed, with the Lunar Lake chips beating the Snapdragon X Plus on single-core performance but not multi-core. Qualcomm's more capable Snapdragon X Elite chips perform better in both regards, revealing that while the Lunar Lake chip we've tested so far is an improvement over its Meteor Lake predecessors, it can't match the performance of the best laptop chips on the market.

"Gut genug" reicht aber eben nicht mehr um Interesse zu bekommen.
Wenn man pure Leistung will geht man zu AMD, wenn man Leistung abseits der Steckdose will, geht man zu Qualcomm. Oder man will beides, ist mit dem Aufpreis okay und nimmt gleich Apple. Lunarlake ist einfach zu durchschnittlich um sich irgendwo merklich abzuheben und das Intel branding zieht auch nicht mehr so wie früher.



Und wenn wir über Nvidia reden, dann wird Jensen sich wohl kaum von der kurzfristigen Entwicklung des PC-Markts abhalten lassen. Bis Nvidia am Markt fuß gefasst hat ist die Flaute eh schon vorüber und wahrscheinlich der nächste Zyklus in vollem Gange oder schon wieder vorbei.

Jensen ist nicht der Typ der Investitionen nach dem me2 Prinzip tätigt. Das ist Intels Job, denn die haben offensichtlich niemanden der den Schweinezyklus durchschaut. Zum Peak der Mining-Phase mit GPU Höchstmargen hat Intel sich entschieden in den discrete Markt einzusteigen. Selbstverständlich war der GPU-mining Hype dann aber schon vorüber. Ebenso ging es bei den Manycore CPUs für Hyperscaler, bei HPC GPUs und so wird es nun auch mit AI sein.

Nvidias Strategie der Produktentwicklung ist da ähnlicher zu Apple in dem Sinne dass man um ein großartiges Produkt zu bauen die Konkurrenz auch ein bisschen ignorieren muss. Sonst matchst du nur dass was die Konkurrenz vor 2-3 Jahren gemacht hat und schaffst keine neuen Erlebnisse.

Wenn Nvidia in den PCmarkt einsteigt, dann mit einer eigenen Vision. Was Qualcomm zu der Zeit macht oder davor gemacht hat ist Jensen für diese Vision maximal egal.

Janos
2024-11-08, 07:35:44
Solange ich nicht die freie Wahl des OS habe ist ARM für mich keine Option.
Wenn ich an einem Windows oder Apple System sitze, habe ich nicht das Gefühl das ich das Gerät besitze.
Ein OS sollte sich im Hintergrund halten und nur genau das tun was ich möchte, nicht mehr und nicht weniger.
Ich war letzte Woche bei einem Bekannten um für ihn Libreelec einzurichten, dazu wollte ich an seinem frisch installierten Win11 PC den LibreELEC USB-SD Creator installieren.
Ich war einigermaßen verblüfft das Windows beim ausführen des Installers nur meinte "Wir haben sie vor Schaden bewahrt" und als einzige Option "nicht ausführen" angeboten hat, WTF was für ein arrogantes Pack!
Ich bin dann doch noch mal zum Auto und habe mein Notebook geholt, weil als ich dann noch die Werbung gesehen habe, hatte ich sofort Blutdruck.
Was für ein Drama wenn man sich nicht auskennt und dem Hersteller von seinem PC Alternativlos ausgesetzt ist und man kann ja nicht jedem den ganzen Mist entfernen ohne gleich den Support auf Lebenszeit für dieses System an der Backe zu haben.
Wenn Nvidia eine CPU entwickelt kaufe ich die gerne wenn sie es schaffen einen vergleichbaren OS Support wie X86 zu bieten.
Solange aber jeder SOC einen Custom Kernel benötigt hat man quasi Elektroschrott sobald der Hersteller kein Update mehr anbietet.
Ich habe keine Ahnung wie das zur Klimadiskussion passen soll, wenn das dazu führt, dass noch weitere Geräteklassen keine vernünftige Zweitverwertung ermöglichen.

Zossel
2024-11-08, 08:27:30
Ich war letzte Woche bei einem Bekannten um für ihn Libreelec einzurichten, dazu wollte ich an seinem frisch installierten Win11 PC den LibreELEC USB-SD Creator installieren.
Ich war einigermaßen verblüfft das Windows beim ausführen des Installers nur meinte "Wir haben sie vor Schaden bewahrt" und als einzige Option "nicht ausführen" angeboten hat, WTF was für ein arrogantes Pack!
Und dann kostet Windows auch noch Geld.
Das muss etwas psychologisches sein, weswegen die Leute daran festhalten, rational ist das einfach nicht erklärbar.

Zossel
2024-11-08, 08:29:48
Qualcomms Verkaufsergebnisse sind schon ganz ordentlich verglichen mit Intel und AMD.
Das Interesse am X-Elite ist ungebrochen hoch, während Lunarlake kaum eine Sau interessiert.
Schmeiß mal belastbare und aussagefähige Quellen rüber.
Und kann man das in die Zukunft interpolieren?

robbitop
2024-11-08, 08:45:35
Qualcomm hat im PC auf GANZER LINIE VERSAGT.
Dank Microsoft natürlich in erster Linie. Aber der Befehlssatz ist eben doch wichtig, genau das haben die Tests gezeigt. Diese ARM-Romantisierung ist total lächerlich.
Die Laptops verkaufen sich doch erstmalig und erstmalig läuft der meiste Kram halbwegs. Kalkuliere ein paar Iterationen dazu und dass Software (PRISM, Treiber, Anwendungen) reifen. Dann werden es immer mehr Hindernisse. Wenn man dran beleibt. Mit etwas Weitblick ist IMO erkennbar, dass es durchaus passieren kann, dass ARM ISA CPUs zu normalen Wettbewerbern im X86 CPU Markt werden für Windows PCs. Ob sie das irgendwann mal dominieren liegt IMO nicht an der ISA sondern an an den Implementierungen.
X86 was ein für den Endkunden unschönes Oligopol, was Wettbewerb gehemmt hat. ARM ISA kann man immerhin lizensieren. Schöner wäre RISCV gewesen weil man dann nicht vom nächsten Monopolisten abhängig wird. Insofern wäre es schön, wenn es zumindest die 2x ISAs im Wettbewerb langfristig gäbe. Für uns Endkunden.

Fliwatut
2024-11-08, 11:19:08
Ich sehe da nur eine Chance, wenn Nvidia sich selber ein OS baut, das so wie macOS stark an die Nvidia-Hardware angepasst wird. Wenn die es dann schaffen, Spiele und gewisse Anwendungen (Adobe) ähnlich schnell oder gar schneller wie auf Windows laufen zu lassen, dann halte ich einen Erfolg gar nicht für unrealistisch. Mit solchen Systemen kann man auch viel Geld zu verdienen, siehe Apple, und es gibt viele treue Nvidiakunden, die so etwas sicher auch ausprobieren würden.

MSABK
2024-11-08, 11:20:32
Naja. Es bewegt sich ja was bei Windows on ARM, es wird immer mehr Software portiert. Was fehlt sind GPU-Treiber aus Sicht von Nvidia. Ist jetzt nicht so, dass WoA kompletter Schrott wäre aktuell.

basix
2024-11-08, 12:53:00
mMn ist es unwahrscheinlich, dass Nvidia ein komplett eigenes OS bringen wird. WoA oder Linux bringen ja das meiste mit, ist nur eine Frage der SoC-Treiber und genereller Optimierung auf ARM.

Nvidia kann ja auch ohne eigenes OS ein paar Features pushen. Dann halt mit Partnerschaften (OS, Applikationen), wenn Nvidia das nicht komplett alleine bringen kann. Machen sie mit GeForce ja schon lange so.

davidzo
2024-11-08, 13:13:09
Und dann kostet Windows auch noch Geld.
Das muss etwas psychologisches sein, weswegen die Leute daran festhalten, rational ist das einfach nicht erklärbar.

Das ist das tiefe Trauma der Gewöhnung was einen seit dem ersten Windows verfolgt. Windows hat Useabilitybugs, absichtlich oder unabsichtlich führen die dazu dass man als user lernt dass man doof ist und nicht einfach etwas ausprobieren soll.

Als ich ein Kind war hatten wir den ersten Win95 PC und ich bin heimlich rangegangen und hab ihn nicht mehr aus gekriegt. Ich wusste dass etwas kaputt geht wenn ich ihn nicht herunterfahre vor dem Ausschalten und dass sich der "Beenden" Button hinter dem "Start" knopf verbirgt kann ja niemand ahnen. Start ist in allen Sprachen der Welt das logische Gegenteil von Beenden. Entsprechend habe ich den PC nicht herunterfahren können und meinen Eltern bescheid sagen müssen dass ich verbotenerweise an deren PC war.
Hier hat die psychologische Geiselhaft durch Windows dann seinen Anfang genommen. Und jedes mal dass ich eine neue Ausnahme und unlogische UI kennen lernte wurde die Abhängigkeit größer und damit die Angst diesen Lernprozess von Neuem beginnen zu müssen.
Irgendwann habe ich Linux probiert, hatte dann aber zu wenig Zeit zum basteln und habe meinen Geiselnehmer gewechselt zu Apple.

Stell dir vor ein 50jähriger normalo hat nach 30 Jahren PC Nutzung endlich verstanden wie er einen Passwortsafe benutzt oder einen eigenen Browser mit Adblocker benutzt. Ihm Linux vorzuschlagen ist wie eine Drohung die letzten 30 Jahre Lernkurve rückgängig zu machen. Selbst wenn die UI besser ist und sogar einfacher wird er auf nichts klicken, einfach weil er noch traumatisiert ist von W32 blaster oder iloveyou die seine gesamten damaligen Daten zerstört haben weil es natürlich kein Backup gab das sich einfach einspielen ließe weil Windows einen dabei nicht wirklich unterstützt.


Schmeiß mal belastbare und aussagefähige Quellen rüber.
Und kann man das in die Zukunft interpolieren?

Hätte ich auch gerne, habe leider auch nur Anekdoten. Ich habe ein bisschen kontakt zur startup-finance bubble und da gibt es durchaus einige richtige Qualcomm fanboys die Christiano Amon bewundern etc. Ich kenne Leute persönlich die sich direkt ein Slim 7x vorbestellt haben und damit auch sehr zufrieden sind. Die Android Szene die jedes Jahr ein neues Oneplus oder nothing sammeln und sich auch mit mobile games und Car-entertainment befassen zum Beispiel hat mit der Qcomm fanbasis auch eine große Überschneidung. Zu PC-Foren wie 3Dcenter oder CB haben diese Gruppe aber kau Überschneidung, daher bekommen wir das in der Regel nicht mit.
Belastbare Zahlen wären aber sehr interessant, oder zumindest Aussagen von Retailern oder so.

MSABK
2024-11-08, 13:54:27
Belastbare Zahlen wären gut, aber unrealistisch daran zu kommen. Ich schnappe auch hier und da auf reddit was von den IT-Leuten auf. In den Firmen scheint es eine Wahrnehmung zu geben und diese würden sehen, dass die Geräte kühler und länger laufen. Ist aber ein anderes Thema.

Gerade auf notebookcheck gesehen:

Speaking to MLID, an “Nvidia Partner” claimed that Nvidia is going to launch an 80 W APU “within a couple years” for thin and light laptops. Team Green is reportedly partnering with Dell to launch the APU inside Alienware machines. This is quite interesting since Alienware laptops are not exactly known for being thin and light. So, we might be in for a portable Alienware gaming laptop that relies on an Nvidia ARM APU.

An Nvidia source confirmed to MLID that the company is indeed working on a “consumer APU” and it is a “VERY serious project”. This source also mentioned that Nvidia is trying to release the APU in late 2025 or early 2026 before AMD Sound Wave. AMD Sound Wave is Team Red’s ARM-based answer to Qualcomm that is reportedly coming in 2026.

AMD scheint auch wohl was mit ARM zu planen, das kann ich mir aber 0 vorstellen.

https://www.notebookcheck.net/Nvidia-ARM-APU-vs-AMD-Strix-Halo-on-cards-as-Team-Green-is-reportedly-preparing-APU-for-gamers-and-creators.914626.0.html

Fliwatut
2024-11-08, 13:59:42
Ein eigenes OS hat aber imho den großen Vorteil, dass man es auf die eigene Hardware optimieren kann. Und es könnte ja auch sein, dass man einen großen Entwickler an Land zieht oder kauft, der dann Spiele nur für diese Plattform veröffentlicht oder es lange dauert, bis die begehrten Spiele auch für den PC und die Konsolen kommen.

MSABK
2024-11-08, 14:19:02
Ein eigenes OS ist aber sehr unrealistisch. Es gibt ja Linux, das als Alternative hebt nicht mal ab.

davidzo
2024-11-08, 14:50:46
Ein eigenes OS würde immer auf etwas aufbauen was es schon gibt. Im Zweifelsfalle das Projekt mit dem geradlinigsten, am besten dokumentierten Code. So wie MacOS auf Mach und FreeBSD basiert und Safari die Codebasis von Konqueror als Ausgangsbasis hatte. Ich kann mir kaum vorstellen dass Nvidias Software Ingenieure sich deshalb gegen linux entscheiden könnten, es ist einfach so offensichtlich die beste Codebasis.

Eigentlich würde es Sinn machen wenn nvidia sich SteamOS zuwendet und um das Steamdeck2 mitbietet. Aber Nvidia hat wenig Lust auf niedrigmarge und Valve wohl auch keine Lust bei den Kompatibilitätsbibliotheken von vorn anzufangen. SteamOS und SteamPCs sind ja schon ein ewiges Projekt bei valve und ich bin mir sicher dass es viel Kontakt mit nvidia währenddessen hinter den Kulissen gab. Da nvidia sich aber gegen open source und für Treiberblobs entschieden hat gehe ich davon aus dass die Fronten entsprechend verhärtet sind. Selbst für Apple war nvidia ja zu proprietär und arrogant, das muss man sich mal vorstellen heutzutage.
Wenn valve eine öffentlich gelistete Firma wäre, wäre das trotzdem kurz und knapp. Nvidia würde sie schlucken, egal was für ein mega Premium für eine gut performende Firma wie Valve man bieten müsste. Da Valve aber glücklicherweise im Privatbesitz ist wird Valve weiterhin Valve-Dinge tun.

MSABK
2024-11-08, 15:02:48
Ich glaube evtl verwischen in der Gerüchteküche viele Dinge und am Ende ist es doch nur der Chip für die Nintendo Switch 2.

Evtl. ist ja der Switch 2 Chip so gut, dass Nvidia diesen für Windows bringt.

Ich kann den Mark aktuell 0 einschätzen, es scheint sich im Hintergrund was aufzubrauen was Windows on ARM betrifft und Microsoft entwickelt da mit gutem Tempo immer weiter. Von Tag zu Tag kommen immer mehr native ARM-Anwendungen.

Bei Spielen sollte der Vorteil sein, dass man unter Windows nur X86 zu ARM emulieren muss. Bei Apple glaube ich doppelt.

Fliwatut
2024-11-08, 15:07:32
Es gibt ja Linux, das als Alternative hebt nicht mal ab.
Ja, weil wichtige Software unter Linux nicht funktioniert.

Zossel
2024-11-08, 15:25:31
Das ist das tiefe Trauma der Gewöhnung was einen seit dem ersten Windows verfolgt. Windows hat Useabilitybugs, absichtlich oder unabsichtlich führen die dazu dass man als user lernt dass man doof ist und nicht einfach etwas ausprobieren soll.

Bei mir ist es umgekehrt, ich war bereits mit Unix unterwegs als es noch gar kein Windows 3.x gab. DOS habe ich damals nur gegen Geld gemacht.

Vielleicht hat du ja dann eine Vorstellung wie krude dieses DOS/Windows Zeug auf einen wirkt wenn man vorher mit Unix vertraut ist.
Allerdings hatte ich damals schon sehr häufig das MKS Toolkit (https://en.wikipedia.org/wiki/MKS_Toolkit) auf den Dosen installiert.

Janos
2024-11-08, 16:41:57
meine Mutter benutzt seit über 10 Jahren Linux und hat damit keine Probleme.
Nach dem ihr Mann gestorben war, habe Ich mich einfach geweigert ihrem PC mit Windows zu supporten :biggrin:
Selbst für Nvidia ist es aussichtslos ein völlig neues OS zu etablieren, zumindest wenn es innerhalb der nächsten 15 Jahre nennenswerte Marktanteile gewinnen soll.
Da würde ich eher den Weg einer eigenen Linux Distribution gehen und Adobe dazu bringen ihre Software auf Linux zu portieren, ich denke damit würde ein weiterer Damm brechen.
Wo die Gamer und die Kreativen sind kommen die anderen irgendwann auch hin.

aufkrawall
2024-11-08, 16:46:29
Kein Office, kein Adobe, kein Call of Duty, kein Fortnite -> Totgeburt oder Nische. Ganz einfache Formel.

robbitop
2024-11-08, 16:54:49
Dank PRISM funktioniert doch schon fast alles außer bestimmte Treiber. Man gebe dem ganzen noch 1-2 Jahre Zeit dann hat sich bei den verbleibenden Treibern auch was getan und PRISM ist noch besser. Das kann auch auf Windows alles gut funktionieren

Mayhem
2024-11-08, 17:02:39
Ich denke NVidia sieht sich eher im Markt der Apple Silicon Pro/Max/Ultra Geräte auf Basis von WoA. Dieses Segment wird von Qualcomm nicht bedient werden.

aufkrawall
2024-11-08, 17:04:45
Ich sage auch nicht, dass es nicht klappt, sondern falls es nicht klappt. Aktuell funktioniert Kernel Anti-Cheat aber wohl nicht mit prism? Für eine Firma, die mit Gaming wirbt, auch nochmal wichtiger als für ULP für das leichteste Convertible.

readonly
2024-11-08, 17:09:38
Ich denke NVidia sieht sich eher im Markt der Apple Silicon Pro/Max/Ultra Geräte auf Basis von WoA. Dieses Segment wird von Qualcomm nicht bedient werden.

This, was sollen die im Bereich der Mobile Gaming Hardware, das kann man am Rande noch mitnehmen. Notebooks mit guter CPU und GPU Kombination auf Basis von Windows. Genau das Ding. Da hampelt momentan nur Qualcom rum, kann aber nix so richtig. Nvidia könnte Windows ähnlich performant da stehen lassen wie Apple mit ihren Mx

MSABK
2024-11-08, 17:11:34
Ich sage auch nicht, dass es nicht klappt, sondern falls es nicht klappt. Aktuell funktioniert Kernel Anti-Cheat aber wohl nicht mit prism? Für eine Firma, die mit Gaming wirbt, auch nochmal wichtiger als für ULP für das leichteste Convertible.

Das verstehe ich nicht so gerade was geht und was nicht.

https://devblogs.microsoft.com/directx/step-forward-for-gaming-on-arm-devices-2024/#:~:text=We%20are%20excited%20to%20announce,and%20fairly%2C%20on%20Copilot%2B%20 PCs.

Laut dem Blog sollte vieles laufen.

aufkrawall
2024-11-08, 18:18:11
Ok, BattlEye soll laufen. Schon mal nicht schlecht, aber das wird auch kaum noch genutzt vs. EAC. Und EA-AC nutzen auch immer mehr Titel. Also offenbar immer noch viel Warten und Hoffen, dass viele Spiele vielleicht irgendwann mal gehen werden.
Alles außer 100% Abdeckung ist im Grunde ein riesiger Nachteil.

Fliwatut
2024-11-08, 18:19:59
Da würde ich eher den Weg einer eigenen Linux Distribution gehen und Adobe dazu bringen ihre Software auf Linux zu portieren...
Das wäre dann ja auch ein eigenes OS.

MSABK
2024-11-08, 18:28:41
Cyberpunk kommt ja auf den Mac. Wäre das was komplett anderes das auf WoA zu portieren?

Ganz ohne Spieleunterstützung würde Nvidia nicht in den Markt einsteigen. Wenn dann kochen die mit Microaoft an etwas. Ich denke halt dieser „AI“ Pc -Markt sieht aktuell eher wie ein Flopp aus.

Zossel
2024-11-08, 18:33:17
Das verstehe ich nicht so gerade was geht und was nicht.

https://devblogs.microsoft.com/directx/step-forward-for-gaming-on-arm-devices-2024/#:~:text=We%20are%20excited%20to%20announce,and%20fairly%2C%20on%20Copilot%2B%20 PCs.

Laut dem Blog sollte vieles laufen.

Eine andere CPU mit subtil anderen memory-ordering, interrupts, mmu, etc. im Kernel-Space emulieren, du bist echt lustig.
Was hast du bisher in deinem Leben an Low-Level/Bare-Metal Code geschrieben?

PatkIllA
2024-11-08, 18:36:29
Cyberpunk kommt ja auf den Mac. Wäre das was komplett anderes das auf WoA zu portieren?. Für Windows on Arm muss man das wahrscheinlich nur mal durch den Compiler laufen lassen.
Bei einem anderen OS hat dagegen wieder andere APIs.
Das ist der große Aufwand. Mit prozessorspezifischen Krams hat mal als Entwickler kaum direkt zu tun.

Dafür muss es natürlich auch deine Tools/Bibliotheken für die andere Architektur geben. Das hat damals beim Wechsel auf 64 Bit aber schon teilweise ewig gedauert.

Das ist nicht mehr der C64 wo man mit Assembler programmiert.


Mich stört auch an Arm, dass man da eben nicht mal eine Linux Distro seiner Wahl einlegen und benutzen kann.
Und praktisch kaufen kann man auch nur die Super Low End Dinger. Wenn man was mit PCIe für M2, Netzwerk usw haben will gibt es praktisch nichts.

Zossel
2024-11-08, 18:46:29
Hätte ich auch gerne, habe leider auch nur Anekdoten. Ich habe ein bisschen kontakt zur startup-finance bubble und da gibt es durchaus einige richtige Qualcomm fanboys die Christiano Amon bewundern etc. Ich kenne Leute persönlich die sich direkt ein Slim 7x vorbestellt haben und damit auch sehr zufrieden sind. Die Android Szene die jedes Jahr ein neues Oneplus oder nothing sammeln und sich auch mit mobile games und Car-entertainment befassen zum Beispiel hat mit der Qcomm fanbasis auch eine große Überschneidung. Zu PC-Foren wie 3Dcenter oder CB haben diese Gruppe aber kau Überschneidung, daher bekommen wir das in der Regel nicht mit.
Belastbare Zahlen wären aber sehr interessant, oder zumindest Aussagen von Retailern oder so.

Die Hipster und Laptop-Poser sind auch schnell wieder woanders wenn was anderes hip wird und die werden doch eh nur 08/15 auf den Kisten machen.

Zossel
2024-11-08, 18:53:57
. Für Windows on Arm muss man das wahrscheinlich nur mal durch den Compiler laufen lassen.
Bei einem anderen OS hat dagegen wieder andere APIs.

Naja, es gibt auch vulkan2apple-3d-kram Umsetzer.

PatkIllA
2024-11-08, 19:25:16
Naja, es gibt auch vulkan2apple-3d-kram Umsetzer.
Ist halt auch wieder nen extra Layer. Vergleichbar mit Proton.
Stelle mir auch schwierig vor da gezielt zu tweaken oder Probleme zu debuggen.

Auf dem Mac dafür nur einen Grafikchiphersteller.

Zossel
2024-11-08, 19:45:20
Ist halt auch wieder nen extra Layer. Vergleichbar mit Proton.
Stelle mir auch schwierig vor da gezielt zu tweaken oder Probleme zu debuggen.

Vulkan, Dx12 und das Apple-Zeug sind wohl alle ziemlich ähnlich. Aber die Deppen von Apple mussten unbedingt was eigenes machen.

Unter Linux schiebt sich langsam alles über Vulkan, ist ja auch sehr praktisch dann implementiert man das einmal und alles darüber läuft dann, und weniger Bugs sollten als Nebeneffekt dabei auch raus kommen.

MSABK
2025-01-07, 09:21:37
Nvidia sagt zwar, dass das nicht der Einstieg in die PC-Welt ist, aber meint ihr das war der Chip aus den Gerüchten? Ist das die direkte Konkurrenz zu Strix Halo? Welches OS läuft auf diesem Rechner?

Im kompakten System steckt der neue GB10, wie Nvidia den Chip getauft hat. Darin wiederum steckt die volle Kraft von Blackwell (1 PetaFLOPFP4-Leistung) gepaart mit einer Grace-Arm-CPU mit hier nur noch 20 Kernen (der Grace-Blackwell-Superchip bietet ein SoC mit 72 Kernen nebst zwei GB200-GPUs), genauer gesagt 10 Arm Cortex-X925 und 10 Cortex-A725.

Beim Design zur Seite stand Nvidia MediaTek. Das SoC dürfte damit Grundlage für Gerüchte gewesen sein, denen zufolge beide zusammen den Nvidias Einstieg in das PC-Segment mit einer Arm-CPU entwickeln. Mit solch einer Lösung wie heute hatte da aber noch keiner gerechnet.

https://www.computerbase.de/news/pc-systeme/project-digits-mit-gb10-nvidias-erster-schritt-auf-dem-weg-zu-eigenen-desktop-pcs.90904/

Mayhem
2025-01-07, 09:32:47
Nvidia sagt zwar, dass das nicht der Einstieg in die PC-Welt ist, aber meint ihr das war der Chip aus den Gerüchten? Ist das die direkte Konkurrenz zu Strix Halo?

Das hier soll ein 3000$ AI-Dev-PC sein, also kein Mainstream. Strix Halo wird ein Macbook Pro/Max Konkurrent.
Aber schon heftig, dass NVidia bereits jetzt was präsentiert. Wenn da jetzt noch WoA Treiber für kommen.... :eek:


Welches OS läuft auf diesem Rechner?

Aus dem Artikel

Das System setzt dabei auf Linux, genauer gesagt Nvidias DGX OS

Loeschzwerg
2025-01-07, 09:33:55
Wenn da jetzt noch WoA Treiber für kommen.... :eek:

Ich hoffe es!

robbitop
2025-01-07, 09:38:18
Was komisch ist, dass das als Grace ARM CPU bezeichnet wird. Grace nutzt Arm Neoverse V2. Die Mediatek CPU nutzt Cortex X925 + A725 was nichts mit den Neoverse V2 von Grace zu tun hat.

Mayhem
2025-01-07, 09:44:30
Was komisch ist, dass das als Grace ARM CPU bezeichnet wird. Grace nutzt Arm Neoverse V2. Die Mediatek CPU nutzt Cortex X925 + A725 was nichts mit den Neoverse V2 von Grace zu tun hat.

Vielleicht nur weil der GPU-Teil Grace-ähnlich ist? Die Formulierung "Grace-Blackwell-Superchip in geschrumpfter Form" ist dabei etwas schwammig, vllt auch um zu unterstreichen/suggerieren, dass es sich nicht um einen klassischen Desktop-NUC handelt sondern einen "geschrumpften Supercomputer"

EDIT: Naja, steht ja eigentlich auch so im Artikel :)

robbitop
2025-01-07, 09:46:01
Naja Grace war eigentlich die CPU. Hopper und Blackwell dann die GPU. Es hieß ja immer Grace-Hopper Super Chip.

Ggf. ist Grace (für jetzt) auch ein Name den man etablieren will. ^^

MSABK
2025-01-07, 10:07:45
Das hier soll ein 3000$ AI-Dev-PC sein, also kein Mainstream. Strix Halo wird ein Macbook Pro/Max Konkurrent.
Aber schon heftig, dass NVidia bereits jetzt was präsentiert. Wenn da jetzt noch WoA Treiber für kommen.... :eek:




Aus dem Artikel

Ah danke, habe das total übersehen.

WoA wäre gut, aber ich habe das Gefühl Microsoft arbeitet da exklusiv mit Qualcomm und ich sehe da keine Anzeichen, dass es anders wird. Wahrscheinlich ist es ein größerer Aufwand für Microsoft ARM auf jeden Chip anzupassen bzw auszurollen und sie bleiben deshalb bei Qualcomm. Anders kann ich mir diese Qualcomm Bindung nicht erklären.

Wenn man ein MacBook gut ausstattet dann ist das ja auch ein Konkurrent zum Nvidia AI PC und Strix Point mit ordentlich RAM wird da auch sicherlich in den Bereich kommen.

Loeschzwerg
2025-01-07, 10:22:38
WoA läuft auch ganz normal auf Ampere Altra, speziell anpassen muss MS da eigentlich nix. Es bräuchte halt Treiber von Seiten der Hersteller.

MSABK
2025-01-13, 16:34:12
Es scheint wirklich was zu kommen, bei Lenovo hat man Spuren eines Nvidia N1x gefunden. Spannend spannend.

https://www.notebookcheck.com/Leak-Nvidia-N1x-ARM-Chip-fuer-Laptops-soll-Qualcomm-Snapdragon-X-Elite-noch-2025-Konkurrenz-machen.946321.0.html

Fusion_Power
2025-01-13, 16:40:50
Gabs und gibts das eigentlich in der Form überhaupt: x86 PC CPU und Hardware aber ARM Grafikeinheit? Falls Nvidia auch wirklich dedizierte Desktop Grafikkarten auf ARM Basis plant. Auch wenns für mich seltsam klingt.

MSABK
2025-01-13, 16:54:53
Das klingt mir er so, dass Nvidia eine APU anbieten wird.

aufkrawall
2025-01-13, 16:58:38
ARM Grafikeinheit
Was hat man sich darunter vorzustellen?

MSABK
2025-01-13, 18:02:30
Es gibt Gerüchte, dass Microsoft aktuelle Spiele auf die neue Switch bringen soll. Wäre das ein Indiz dafür, dass diese Spiele nativ auf Arm kommen?

Fusion_Power
2025-01-13, 18:08:45
Was hat man sich darunter vorzustellen?
Ne PC Grafikkarte auf ARM Basis?

MSABK
2025-01-14, 10:48:46
Was meint ihr zur Motivation von Nvidia, wurden die iGPUs der Konkurrenz so stark, dass Nvidia da auch mitmischen will?

Loeschzwerg
2025-01-14, 10:55:17
Ne PC Grafikkarte auf ARM Basis?

Du meinst Mail/Immortalis als dedizierte Grafikkarte?

MSABK
2025-03-19, 17:56:49
Meint ihr die gestern vorgestellte DGX Station war die neue "CPU" (ist ein Rechner geworden) aus der Gerüchteküche?

https://www.computerbase.de/news/pc-systeme/blackwell-mini-pc-und-workstation-nvidia-bietet-dgx-spark-und-dgx-station-fuer-endkunden-an.91819/

Troyan
2025-03-19, 18:01:44
Meint ihr die gestern vorgestellte DGX Station war die neue "CPU" (ist ein Rechner geworden) aus der Gerüchteküche?

https://www.computerbase.de/news/pc-systeme/blackwell-mini-pc-und-workstation-nvidia-bietet-dgx-spark-und-dgx-station-fuer-endkunden-an.91819/

Nein, die nutzen Grace und Blackwell. Die "neue" CPU ist in dem Spark drin (Mediathek) und nächstes Jahr mit Vera.

robbitop
2025-03-19, 18:19:38
Ich meine, im Mediatek war laut Gerüchten ein Cortex X925 drin.
Ich bin mal gespannt ob die Nv custom cores da wirklich Mehrwert bieten. ARM hat ja seit dem X925 die Lücke selbst zu Apples Cores geschlossen. Der X930 steht auch schon in den Startlöchern. Die Neoverse Kerne sind afaik noch schneller.

davidzo
2025-03-20, 09:37:19
ARM hat ja seit dem X925 die Lücke selbst zu Apples Cores geschlossen. Der X930 steht auch schon in den Startlöchern. Die Neoverse Kerne sind afaik noch schneller.

Zur vorletzten Generation (M2) ja und mit übertaktung vielleicht auch zum M3. Aber der M4 steht anscheinend auf weiter Flur und die Neoverse Kerne würde ich auch nicht überbewerten. Zu den Versprechungen von ARM muss ich ergänzen dass die leider auch eine Tradition von overpromising haben. Zwar nicht faktisch inkorrekt wie Intel, aber mit geschönten Taktraten, praxisfernen Cache Konfigurationen oder absurden edge-cases wie nvidia das auch tut.

Neoverse ist nur der Marketingname für X-1/2/3/5 Kerne mit support für mehr Kerne und der Option für fettere FPUs. 128+ Kerne support braucht halt neue herangehensweisen für die Cache Kohärenz und ggf. auch größere private Caches, sonst bricht die Leistung ein.
Schneller werden die dadurch nicht. Oder findest du das Sapphire rapids Cove Kerne schneller sind als Raptor Cove? Die haben viel größere Caches und auch eine viel fettere FPU Implementation.

Es sind die X-x Kerne welche die Leistungsspitze markieren, nicht Neoverse. Und die sind nur marginal schneller als die X-xxx Kerne. Das ist so als wenn du raptor Cove oder Zen4 mal eben 3mal soviel private Cache gibst. Mehr als einstellige Gewinne in edge cases sind da nicht drin. Außerdem differiert meist die Implementierung und die X-Cores werden mit high performance libraries für mehr Takt zusammengebaut.

robbitop
2025-03-20, 10:00:32
Ah ok - das wusste ich noch nicht. Ich hatte angenommen, dass das eigene Kerne sind da ich mich meine zu erinnern, dass ARM die auf einer slide mit nochmal deutlich höherer Performance als die X Kerne einsortiert hatte.

Hat ARM das so kommuniziert (oder steht das in einem Review was ich verpasst habe?)?

Zur Performance - du scheinst Recht zu haben - Apple liegt noch 20% vorn mit M4:

GB6.2 Single Thread
M3:3076
M4: ~3800
Apple A18 Pro: 3350
Dimensity 9400 mit X925: 3055
Qualcomm Snapdragon 8 Elite (Oryon V32): 3261

https://youtu.be/yg-YT3ERFNE?si=OSS28IEtJiO4O810&t=322
https://www.mediamarkt.de/de/content/it-informatik/ki/snapdragon-x-elite-vs-m3
https://www.notebookcheck.net/Apple-M4-New-Geekbench-listing-highlights-25-single-core-performance-improvement-over-Apple-M3.835472.0.html
https://www.reddit.com/r/hardware/comments/1g9ff4o/qualcomm_snapdragon_8_elite_single_thread/

edit
Oryon V2

MSABK
2025-03-20, 10:55:36
@robbitop

Es sollte sich um Oryon V2 handeln oder?

robbitop
2025-03-20, 11:24:22
Du hast Recht. Mich verwirrt dieses unnormal schnelle Vorstellen an Cores. 2024 kam ja erst V1 und dann wurden ja kurz hintereinander SoCs mit V2 und V3 vorgestellt. Der Snapdragon 8 Elite wird V2 haben und der nächste X Elite dann V3. Frage mich warum die in so kurzer Zeit so zwischen cores hin und her hüpfen. Warum nicht sortenrein pro Produktjahr? Wenn man schon einen V3 hat warum noch einen V2 verbauen. Sehr konfus.

MSABK
2025-03-20, 11:34:09
Das war doch immer so bei Qualcomm. Die haben soo viele Produktreihen und teils verwirrende Namen, da blickt man nicht durch was sich dahinter verbirgt.

mironicus
2025-03-20, 13:12:41
DGX Spark Inside First Look.

AOL0RIZxJF0

ChaosTM
2025-03-20, 13:22:31
Nvidia wird zuerst das Apple unter den X64 Dinosauriernsein, und wenig später die beherrschende Macht sein.
Ist/war nur eine Frage der Zeit. Jensen weiß genau was er tut..

Zossel
2025-03-20, 13:47:06
Nvidia wird zuerst das Apple unter den X64 Dinosauriernsein, und wenig später die beherrschende Macht sein.
Ist/war nur eine Frage der Zeit. Jensen weiß genau was er tut..

Welches OS will NV dafür eigentlich promoten?

=Floi=
2025-03-20, 13:48:49
Wenn die anderen die igpu einheiten bis heute nicht nutzen, braucht man sich nicht wundern.

mironicus
2025-03-20, 16:00:05
Den DGX Spark kann man offenbar schon "reservieren".
https://marketplace.nvidia.com/de-de/developer/dgx-spark/

PGW90Uz-w7c

davidzo
2025-03-20, 17:04:49
Ah ok - das wusste ich noch nicht. Ich hatte angenommen, dass das eigene Kerne sind da ich mich meine zu erinnern, dass ARM die auf einer slide mit nochmal deutlich höherer Performance als die X Kerne einsortiert hatte.

Das stimmt sicher auch, in selektiven beschönigenden Serverbenchmarks. Klar wären X-Kerne langsamer wenn du 128 oder 192 von denen auf ein DIE quetscht ohne irgendwas an der Cache Architektur zu machen. Die Latenz im Server ist viel höher und der Kohärenzaufwand wäre enorm. Wie gesagt, Sapphire Rapids hat auch mehr Cache pro Core und die fetter FPU, kann trotzdem bei der singlecore Leistung nicht mit Raptorlake mithalten. Die X-Cores haben trotz mobile-fokus meist ebenfalls höhere maximale Taktraten. Außerdem hat ARM speziell für die Neoverse Cores aufgebohrte FPU Designs. Je nach Implementierung und Benchmark können die also schon mal schneller sein. In Client workloads und Core für Core aber eher nicht.


Du hast Recht. Mich verwirrt dieses unnormal schnelle Vorstellen an Cores. 2024 kam ja erst V1 und dann wurden ja kurz hintereinander SoCs mit V2 und V3 vorgestellt. Der Snapdragon 8 Elite wird V2 haben und der nächste X Elite dann V3. Frage mich warum die in so kurzer Zeit so zwischen cores hin und her hüpfen. Warum nicht sortenrein pro Produktjahr? Wenn man schon einen V3 hat warum noch einen V2 verbauen. Sehr konfus.

Apple macht das ja auch. Könnte auch eine de-risking Strategie sein. Man hat ja eh mehrere Teams die sich leapfroggen sollen. Wenn dann mal was nicht klappt ist das nächste schon in der Pipeline. Bei den ARM Big Cores gab es ja auch ein paar Fehlschläge in Texas und dann konnte man aber einfach einen guten Mid-sized Core aus Sophia Antipolis einschieben der eigentlich gar nicht als A7x projektiert war.
Ich denke aber mal dass die Teams generell sehr viel kleiner sind als bei Intel, weshalb die wohl effizienter arbeiten könnten und eine ganz andere Schlagzahl erreichen.

Welches OS will NV dafür eigentlich promoten?
Nvidia DGX base OS ist relativ betriebssystem-agnostisch. Läuft mit Ubuntu, Red Hat Enterprise Linux, and Rocky Linux als Base-OS.

PHuV
2025-03-20, 17:09:40
Ich bin ja mal auf die ersten konkreten Benchmarkwerte gespannt.

Zossel
2025-03-20, 17:16:01
Nvidia DGX base OS ist betriebssystemagnostisch. Läuft mit Ubuntu, Red Hat Enterprise Linux, and Rocky Linux als Base-OS.

Also Linux? Oder braucht das Linux noch dieses zusätzliche Marketinggefasel damit das läuft?

davidzo
2025-03-20, 17:31:46
Also Linux? Oder braucht das Linux noch dieses zusätzliche Marketinggefasel damit das läuft?
Natürlich Linux, was denn sonst? Apple wird denen wohl kaum eine MacOS Lizenz geben.

Ja, brauchst du. Nvidia liebt doch proprietäre software. Du brauchst also die Binary blobs die DGX OS ausmachen. DGX Base OS ist Marketingsprech für "Friss oder stirb". Btw, der Standard mit dem sie DGX oder Spark ausliefern scheint ein Ubuntu Base-OS zu sein, mit DGX base vorinstalliert. Aber DGX Server gehen ja überwiegend in größere Installationen und da setzten wohl viele Rechenzentrenbetreiber auf REL.

Achill
2025-03-20, 22:17:08
[..]
Nvidia DGX base OS ist relativ betriebssystemdistribution-agnostisch. Läuft mit Ubuntu, Red Hat Enterprise Linux, and Rocky Linux als Base-OS.

Kleine aber wichtige Korrektur ... gibt nicht mehrere "Linuxe" sondern Distributionen von Linux.

Gouvernator
2025-03-21, 02:25:39
Das größere Problem als Linux sind ARM Cpu Kerne. Deswegen muss der beschleunigte x86 Python Code erst portiert werden. ARM ist erst 2024 pyTorch beigetreten. 128gb sind schön und gut aber man will ja primär nicht mit Nvidias Cloud Zeug herumspielen sondern mit kleinen Github Projekten die mit x86 laufen.

Zossel
2025-03-21, 08:47:43
Das größere Problem als Linux

Du meinst wenn ein Computer nach jedem zweiten Update nicht kaputt geht taugt der nichts?

y33H@
2025-03-21, 09:30:21
Spannend finde ich SMT2 für Vera, gibt nicht allzu viele ARM-Designs mit SMT und zudem zuletzt die Tendenz auf SMT zu verzichten für AI/Cloud.

Zossel
2025-03-21, 09:37:25
Spannend finde ich SMT2 für Vera, gibt nicht allzu viele ARM-Designs mit SMT und zudem zuletzt die Tendenz auf SMT zu verzichten für AI/Cloud.

Man muss es ja nicht nutzen, und da Windows in diesem Markt keine Rolle spielt hat man ja auch kein Problem mit den mangelhaften Hotplug Fähigkeiten von Windows für CPUs.
Und auf einer dedizierten Physik für Aufgabe X nimmt man sicherlich den zusätzlichen Bumms gerne mit.

Troyan
2025-03-21, 10:23:56
Jetson Thor:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92207&stc=1&d=1742549179

Zossel
2025-03-21, 10:34:49
Jetson Thor:
Wer meckert als erstes das 256-Bit Speicherinterface zu teuer ist und OEMs dafür kein extra Design auflegen werden?

davidzo
2025-03-21, 10:46:54
Wird Windows überhaupt noch weiterentwickelt? Ich habe nicht den Eindruck. Die Suche im Startmenü ist zum Beispiel seit Jahrzehnten kaputt und anscheinend haben die niemanden der das fixt. Wo war Microsoft als neue Hardware eingeführt wurde? Zen3, zen4, Zen5 oder Intels Thread Scheduler, AMDs, Qualcomms und Intels NPU? Wenn da überhaupt mal was an Softwareunterstützung kam war es verspätet und nicht von Microsoft Entwicklern angestoßen...

Und bevor du mit Windows ein KI Repo klonen und code kompilieren kannst dauert es auch Stunden an extradownloads und Konfiguration. Keiner will ein Developmentsystem dass von Haus aus nichts kann, voller Baustellen, ungefixter und unfixbarer Bugs ist (weil closed source) und anscheinend nicht mal mehr aktiv weiterentwickelt wird. Viel zu unkomfortabel und vermutlich eh inkompatibel mit den meisten AI-Projekten da draußen. Gibt es überhaupt Windowstreiber für die Datacenter Hardware die in GPU server Farmen oder HPC eingestetzt wird? Ich könne mir gut vorstellen dass man sich für Bluefield und andere kritische Netzwerk-komponenten, embedded system controller etc. gar nicht erst die Mühe gemacht hat einen Windowstreiber zu veröffentlichen den nachher eh keiner nutzt.

Its dead, Jim.

mczak
2025-03-21, 11:07:37
Wer meckert als erstes das 256-Bit Speicherinterface zu teuer ist und OEMs dafür kein extra Design auflegen werden?
Naja ab einer gewissen Grösse der GPU ist das halt unverzichtbar, 3 GPCs wäre ja auf dem Niveau von GB206, da wären 256bit lpddr5x sicher nicht verkehrt - das wäre immer noch deutlich weniger Bandbreite als Karten mit GB206 haben werden.
Wobei ich mich frage was das für eine Blackwell GPU sein soll, laut der Folie hat das Teil eine Tensor-Leistung oberhalb von GB203 aber normale FP32 Rechenleistung unterhalb GB207...

Zossel
2025-03-21, 11:30:54
Naja ab einer gewissen Grösse der GPU ist das halt unverzichtbar, 3 GPCs wäre ja auf dem Niveau von GB206, da wären 256bit lpddr5x sicher nicht verkehrt - das wäre immer noch deutlich weniger Bandbreite als Karten mit GB206 haben werden.

Bei der großen APU von AMD wurde das von einigen Forenten hier als Problem dargestellt.

Troyan
2025-03-21, 12:20:46
Naja ab einer gewissen Grösse der GPU ist das halt unverzichtbar, 3 GPCs wäre ja auf dem Niveau von GB206, da wären 256bit lpddr5x sicher nicht verkehrt - das wäre immer noch deutlich weniger Bandbreite als Karten mit GB206 haben werden.
Wobei ich mich frage was das für eine Blackwell GPU sein soll, laut der Folie hat das Teil eine Tensor-Leistung oberhalb von GB203 aber normale FP32 Rechenleistung unterhalb GB207...

Hopper und DC-Blackwell haben deutlich dickere TensorCores.

=Floi=
2025-03-21, 14:22:22
so dick, dass nur noch FP4 hinten rauskommen. :D

Zossel
2025-03-21, 18:42:33
so dick, dass nur noch FP4 hinten rauskommen. :D

Und dann kommt so ein Scheiß dabei raus:

https://thelibre.news/foss-infrastructure-is-under-attack-by-ai-companies/
https://www.golem.de/news/gegen-datenklau-cloudflare-beschaeftigt-rebellische-crawler-mit-ki-muell-2503-194540.html

Und auch nur der Fürst darf klauen:

https://media.infosec.exchange/infosec.exchange/cache/media_attachments/files/114/199/717/964/818/144/original/1d375a10d1a595b3.png

ENKORE
2025-03-23, 12:09:21
Wird Windows überhaupt noch weiterentwickelt? Ich habe nicht den Eindruck. Die Suche im Startmenü ist zum Beispiel seit Jahrzehnten kaputt und anscheinend haben die niemanden der das fixt. Wo war Microsoft als neue Hardware eingeführt wurde? Zen3, zen4, Zen5 oder Intels Thread Scheduler, AMDs, Qualcomms und Intels NPU? Wenn da überhaupt mal was an Softwareunterstützung kam war es verspätet und nicht von Microsoft Entwicklern angestoßen...

Und bevor du mit Windows ein KI Repo klonen und code kompilieren kannst dauert es auch Stunden an extradownloads und Konfiguration. Keiner will ein Developmentsystem dass von Haus aus nichts kann, voller Baustellen, ungefixter und unfixbarer Bugs ist (weil closed source) und anscheinend nicht mal mehr aktiv weiterentwickelt wird. Viel zu unkomfortabel und vermutlich eh inkompatibel mit den meisten AI-Projekten da draußen. Gibt es überhaupt Windowstreiber für die Datacenter Hardware die in GPU server Farmen oder HPC eingestetzt wird? Ich könne mir gut vorstellen dass man sich für Bluefield und andere kritische Netzwerk-komponenten, embedded system controller etc. gar nicht erst die Mühe gemacht hat einen Windowstreiber zu veröffentlichen den nachher eh keiner nutzt.

Its dead, Jim.

Den nVidia Data Center Treiber gibt es tatsächlich für Windows Server, aber das dürfte wie Microsoft MPI und Konsorten sein: Benutzt außer 1-2 Klitschen mit wahnhafter MS-IT niemand.

mironicus
2025-03-24, 13:50:33
AaWCbPPgxxE

MSABK
2025-05-05, 13:44:48
Angeblich soll der PC-Chip bald wirklich kommen. Glaube ich aber erst wenn ich es sehe.

https://www.computerbase.de/news/wirtschaft/nvidia-gb10-und-mehr-mediateks-pc-chip-im-plan-computex-vorstellung-vermutet.92465/

bbott
2025-05-05, 17:10:05
Ich weiß nicht warum viele so gegen x86 schießen. ARM ist oft nicht abwärtskompatibel, neustes Beispiel ist die Switch 2 zur Switch. Die Emulation kostet wiederum Leistung bzw. Akku...
Also ich hoffe das x86 weiter lebt. Denn auch ein Quasi ARM Monopol mit nur unterschiedlichen Lizenznehmer ist auch nicht wirklich toll...

Troyan
2025-05-05, 17:39:03
Die Switch 2 emuliert den GPU-Teil. ARM ist doch kompatibel untereinander.

Daredevil
2025-05-05, 17:48:19
Wenn es demnach geht, darf es ja nie wieder in der Zukunft der Menschheit eine technologische Weiterentwicklung geben, weil man mit jedem Umbruch in was neues immer alte Zöpfe abschneiden muss. Wenn allerdings neue Technologien eklatant besser sind als vorige, dann ist auch Emulation kein Problem. Man muss sich bei diesem Switch für den Nutzer aber eben auch Mühe geben.
Apple ist nahezu "unsichtbar" in den letzten Jahren auf ARM gewechselt und diese Maschinen kann man heute bedenkenlos empfehlen für einen Großteil der Nutzer, ohne eben auf Probleme in der Kompatibilität hinzuweisen. Mit dem Snapdragon gibt es genug Power im SoC, nur Windows hängt halt hinterher.

Der Markt entscheidet am Ende genau, was das bessere Produkt ist, da mache ich mir überhaupt keine Sorgen. Ich denke Nvidia ist gar nicht in der Lage, "einfach mal so" einen X86 Prozzi zu bauen aufgrund von Patenten und anderen Späßen, oder? Deswegen wollten sie sich ja auch ARM unter den Nagel reißen. ^^
Am Ende ist mir egal, ob ARM, X86, RISC oder whatever dran steht, sofern es seinen Zweck erfüllt. Da Nvidia ziemlich enthusiastisch an die Sache rangeht und sich nicht davor scheut, komplette Industrien und Firmen zu disruptieren, finde ich die Entwicklung hier sehr spannend. :)

robbitop
2025-05-05, 17:57:32
Ob ARM oder x86 oder RISC-V oder POWER oder oder spielt keine Rolle für die Performance oder Effizienz des Endproduktes. Es ist nur ein Instruction set und es lässt sich so ziemlich alles mit jedem Instruction set grundsätzlich machen. Von mW cores bis hin zu kW Cores. Das gro liegt in der uArch.
Aber: x86 war halt lange sehr restriktiv. Bis auf ganz wenige hatte niemand eine Lizenz - also ein abgesperrter Markt. Insofern ist es gut dass MS Windows für ARM öffnet denn bis dato kann jeder der möchte eine ARM Lizenz erwerben. Der nächste Schritt wäre eine offene ISA wie risc-v. Dann kann niemand jemals wieder Steine in den Weg von irgendwem legen. Komplett freier Wettbewerb.

=Floi=
2025-05-05, 19:24:10
Wenn es demnach geht, darf es ja nie wieder in der Zukunft der Menschheit eine technologische Weiterentwicklung geben, weil man mit jedem Umbruch in was neues immer alte Zöpfe abschneiden muss. Wenn allerdings neue Technologien eklatant besser sind als vorige, dann ist auch Emulation kein Problem. Man muss sich bei diesem Switch für den Nutzer aber eben auch Mühe geben.
Apple ist nahezu "unsichtbar" in den letzten Jahren auf ARM gewechselt und diese Maschinen kann man heute bedenkenlos empfehlen für einen Großteil der Nutzer, ohne eben auf Probleme in der Kompatibilität hinzuweisen. Mit dem Snapdragon gibt es genug Power im SoC, nur Windows hängt halt hinterher.

Der Markt entscheidet am Ende genau, was das bessere Produkt ist, da mache ich mir überhaupt keine Sorgen. Ich denke Nvidia ist gar nicht in der Lage, "einfach mal so" einen X86 Prozzi zu bauen aufgrund von Patenten und anderen Späßen, oder? Deswegen wollten sie sich ja auch ARM unter den Nagel reißen. ^^
Am Ende ist mir egal, ob ARM, X86, RISC oder whatever dran steht, sofern es seinen Zweck erfüllt. Da Nvidia ziemlich enthusiastisch an die Sache rangeht und sich nicht davor scheut, komplette Industrien und Firmen zu disruptieren, finde ich die Entwicklung hier sehr spannend. :)


was fürn käse! Du solltest selbst wissen, dass x86 ne ganz andere welt ist. Viel breitere einsatzbereiche und andere anforderungen als an nem apple os primär für consumer und office.

MSABK
2025-05-05, 21:35:27
was fürn käse! Du solltest selbst wissen, dass x86 ne ganz andere welt ist. Viel breitere einsatzbereiche und andere anforderungen als an nem apple os primär für consumer und office.

Consumer? Apple hat auch Geräte mit Power für Pro‘s.

x-force
2025-05-06, 01:37:45
Insofern ist es gut dass MS Windows für ARM öffnet denn bis dato kann jeder der möchte eine ARM Lizenz erwerben.

das sieht arm anders, bzw ausschließlich zu arms konditionen, die keinen zeitlichen bestand haben ;)

https://www.heise.de/news/ARM-zieht-CPU-Beschwerde-gegen-Qualcomm-zurueck-prozessiert-weiter-gegen-Nuvia-10273544.html

robbitop
2025-05-06, 06:45:47
Naja die fühlen sich halt um ihre Lizenzgebühren veräppelt. Nuvia hat als startup super wenig bezahlt für ihre uArch Lizenz und QCom nutzt die für startup billo Lizenz für Massenproduktion-godtier levels X-D.
Aber grundsätzlich jeder der eine Lizenz erwerben möchte und ARM nicht verarscht kann eine kaufen.
Das ist und war mit x86 ganz anders. Gab es abseits derjenigen die sich das einmalig aus Sonderkonstellationen der 80/90er Jahre erstritten haben nicht. Für kein Geld der Welt.
Aber ja - am Ende hängen dann trotzdem alle der ARM Welt an ARM. Auch ein Monopol was ausgenutzt werden kann. Deshalb war es IMO kurzsichtig von MS auf ARM zu schwenken. Risc-V wäre sinnvoller gewesen weil es dann keine Abhängigkeit von einem Lizenzgeber gäbe.

Zossel
2025-05-06, 07:33:25
Naja die fühlen sich halt um ihre Lizenzgebühren veräppelt. Nuvia hat als startup super wenig bezahlt für ihre uArch Lizenz und QCom nutzt die für startup billo Lizenz für Massenproduktion-godtier levels X-D.
Aber grundsätzlich jeder der eine Lizenz erwerben möchte und ARM nicht verarscht kann eine kaufen.

Warum sollten die Shareholder von ARM freiwillig auf Kohle verzichten?
Und was jucken die Shareholder von ARM die Shareholder anderer Butzen?

Badesalz
2025-05-06, 07:40:06
was fürn käse! Du solltest selbst wissen, dass x86 ne ganz andere welt ist. Viel breitere einsatzbereiche und andere anforderungen als an nem apple os primär für consumer und office.Ist das eine Eigenschaft der CPUs oder der Geräte die man mit den CPUs ausstattet? :|

Aber ja. Mit den aktuellsten "mobile" AMD und Intel Chips ist bei Apple nichts mehr gleich "eklatant" besser. Die x86 Welt kränkelt eher an Windows als an x86 selbst. Und wieviel besser Arm ist, wenn man ein System nimmt für welches es nur einen Treiberersteller gibt..., kann man anhand dessen eben nicht direkt vergleichen.

Ob Mediatek oder Nvidia, die CPU ist keine Stelle wo aktuell irgendein Schuh drückt. Keine Ahnung was dieses Kasperletheater soll. Hauptsache wir entsorgen etwas und KAUFEN etwas neues :ufinger: Wenn man etwas schlechtes an den s.g. PC-Systemen und deren Mobiles der Reihe nach auflistet, dann sind da die ersten 5 Plätze von Windows belegt.

Zossel
2025-05-06, 07:54:56
Aber ja. Mit den aktuellsten "mobile" AMD und Intel Chips ist bei Apple nichts mehr gleich "eklatant" besser. Die x86 Welt kränkelt eher an Windows als an x86 selbst. Und wieviel besser Arm ist, wenn man ein System nimmt für welches es nur einen Treiberersteller gibt..., kann man anhand dessen eben nicht direkt vergleichen.

Was ist an einem Treiber besser oder schlechter wenn man den für ARM oder X64 compiliert?

Badesalz
2025-05-06, 09:26:56
Was ist an einem Treiber besser oder schlechter wenn man den für ARM oder X64 compiliert?Wohl nichts, aber das ist auch nicht der Kontext, denn Apple macht kein x64. Der Kontext ist halt, daß nahezu alle Treiber von Apple selbst gemacht und optimiert sind und sie halten die Manigfaltigkeit ihrer HW-Lösungen eben stark in Grenzen.

Wenn man das Betriebssystem und die Treiber für eine HW-Plattform (und das ebenfalls seine eigene) macht, dann wirds ungleich einfacher das ganze System an nahezu optimal zu fahren. Für Apple jedenfalls gibt es da nur Wins bei.
Eine x86 Platine ist dagegen meist multikulti und dazu legt sich da noch ggf. Windows drüber.

Was hier bequatscht wird sind also keine Vorteile von Arm, sondern vom Apple-System selbst. Für Apple, jedenfalls. Für den Consumer, wenn er bereit ist sich allgemein drauf einzulassen (ich eher nicht) und auch entsprechend in der Apotheke einzukaufen.

Daredevil
2025-05-06, 09:57:26
Mit den aktuellsten "mobile" AMD und Intel Chips ist bei Apple nichts mehr gleich "eklatant" besser. Die x86 Welt kränkelt eher an Windows als an x86 selbst.
ARM wurde ja speziell designed für LowPower und Mobile Chips, insofern hatte man hier durchaus schon einen gewissen Fokus, welcher sich ja auch durchgesetzt hat. Aber ja, Windows ist einfach ein absoluter Flaschenhals, vollgepackt mit Werbung.
Glücklicher weise braucht man heute ja nicht mehr X86 um Windows laufen zu lassen. Dies bekommt man ja als ARM Version auf Linux/MacOS locker flockig gestartet und verliert dabei nicht die Eigenschaften der darunter liegenden Plattform.

Passend zum Thema bzw. was frisches aus der YT Bubble
zxP6B2HZ_IY

robbitop
2025-05-06, 10:07:59
ARM wurde ja speziell designed für LowPower und Mobile Chips, insofern hatte man hier durchaus schon einen gewissen Fokus, welcher sich ja auch durchgesetzt hat. Aber ja, Windows ist einfach ein absoluter Flaschenhals, vollgepackt mit Werbung.
Das hat aber mit dem ARM Instructionset nichts zu tun. Eher mit der Firmenhistorie der Firma ARM, mit welcher Philosophie sie ihre CPUs ausgelegt haben. Nämlich schon immer low power und entsprechend kam man damit in die embedded / mobile devices.

Man kann grundsätzlich low power aber auch HPC mit allen ISAs machen.

Badesalz
2025-05-06, 10:16:27
Dies bekommt man ja als ARM Version auf Linux/MacOS locker flockig gestartet und verliert dabei nicht die Eigenschaften der darunter liegenden Plattform.Das ist nicht der Punkt. Der Punkt ist die Eigenschaften der draufliegenden Plattform zu verlieren und das ist damit nicht getan :uup:

ARM wurde ja speziell designed für LowPower und Mobile Chips, insofern hatte man hier durchaus schon einen gewissen FokusUnd daraus folgend sogar einen Vorteil und Vorsprung. Das ist aber soweit dahin bzw. aufgeholt, daß es keine für den Consumer relevante Rolle mehr spielt.

edit:
Deine Antwort hatte übrigens 10% Kontextanteil an dem Gequoteten. Bravo. Meine Zitate als occasion-vehicle für seine Fiebertraum-Agenda nutzen... Mutig :ulol:

Zossel
2025-05-06, 10:32:34
Wenn man das Betriebssystem und die Treiber für eine HW-Plattform (und das ebenfalls seine eigene) macht, dann wirds ungleich einfacher das ganze System an nahezu optimal zu fahren. Für Apple jedenfalls gibt es da nur Wins bei.
Eine x86 Platine ist dagegen meist multikulti und dazu legt sich da noch ggf. Windows drüber.

Rein technisch ist das ziemlicher Humbug, hat überhaupt schon mal jemand diese vermeintlichen Vorteile nachgemessen oder ist das mal wieder reines Internetgequatsche?

Badesalz
2025-05-06, 10:59:10
Rein technisch ist das ziemlicher Humbug, hat überhaupt schon mal jemand diese vermeintlichen Vorteile nachgemessen oder ist das mal wieder reines Internetgequatsche?Was wird das?
1. Hast du dich noch nie mit einem Treiber unter Win abgef*ckt?
2. Hast du eingehende Erfahrungen damit wie das so unter MacOS ist?

Da meine Holde alle ~6 Jahre einen neue Macbook holt, aktuell einen Air, kann ich zum ersten wie zum zweiten Punkt von Erfahrungswerten sprechen.

Steck bei dir irgendein Netzwerkmüll von ncgiga rein und warte bis die ganze Kiste mal tief eingeschlafen ist. Und dann mach wieder irgendwas damit und stelle fest, daß LAN erst wieder geht, wenn du die Strippe 1x abziehst und wieder reinsteckst (plakativ, aber real)
rein technisch, ziemlicher Humbug :freak: Fokussier dich nicht immer nur fachidiotisch auf Einzelheiten, sondern nehme das Ganze wahr.

Nur hat das eben nichts mit Arm ist besser als x86 zu tun. Das Gellalle und der schwachsinnige Bash von x86 betrifft vs. Apple eben immer die komplette Plattform. Nicht die CPUs an sich. Da ist wenig Vergleichbar (CPUs) weil Apple das System quasi komplett alleine macht und verwaltet (und testet) und optimiert.

Neben Apple und den recht kleinen Teelichtern von Qualcomm gibts dadraussen NICHTS an Arm was man auch nur in Betracht als x86-Ersatz ziehen könnte. Es sei denn man hat irgendwo einen Tabeltt mit dem Atom...

Zossel
2025-05-06, 17:59:24
Was wird das?
1. Hast du dich noch nie mit einem Treiber unter Win abgef*ckt?
2. Hast du eingehende Erfahrungen damit wie das so unter MacOS ist?


Windows soll eine Referenz bzgl. Treibern und Kernel sein, wie kommt man den auf dieses schmale Brett?
Und unter Macos läuft jedes stinkende USB- Gadget ohne Probleme?

Fusion_Power
2025-05-06, 18:30:53
Was ist an einem Treiber besser oder schlechter wenn man den für ARM oder X64 compiliert?
Naja, irgend wo muss es bei ARM in manchen Bereichen noch haken wenn man sieht wie diese ganzen neumodischen Snapdragon Laptops beim Gaming Totalversager sind. Ja, die Dinger sind nicht dafür gedacht und ARM Windows trägt sicher auch noch seinen Teil mit bei aber mal ehrlich, da ginge doch wesentlich mehr oder?

Daredevil
2025-05-06, 19:06:28
Das liegt aber nicht an ARM, sondern an Windows oder der Snapdragon Kompatibilität, oder?
Du bekommst mit nem Apple Silicon Prozessor und MacOS soweit ich weiß mehr Windows Spiele zum laufen auf MacOS über das GPTK als mit einem Snapdragon auf Windows, das sollte so sicherlich nicht sein.
Spiele Kompatibilität für Apple Silicon ist ein Witz, der triumphiert aber trotz der fremden Plattform auf Windows ARM. :D

Clair Obscur: Expedition 33 läuft als aktueller Titel z.B. "okayisch" als Windows Spiel mit Crossover.
Preis/Leistung ist natürlich für den Arsch, nativ würde es bedeutend besser laufen, aber es läuft irgendwie.
La3j-qYM-a0

Imho hat das aber auch weniger mit x86 vs. Windows vs. ARM zutun. Es geht nur darum, wer die bessere Software/Emulator baut und da hat Apple offenbar ihre Hausaufgaben besser gemacht als Windows. Man kann von Nvidia erwarten, das sie gerade beim Thema Gaming deutlich enthusiastischer an die Sache rangehen und die werden alles so krass verdonglen, das sie sich damit ne goldene Nase verdienen.
NvidiaOS, mark my words. ;D

Badesalz
2025-05-06, 19:19:10
Windows soll eine Referenz bzgl. Treibern und Kernel sein, wie kommt man den auf dieses schmale Brett?Boah ej... Das war doch mein Kontext :rolleyes: daß die Lobhudelei über Arm größtenteils nur auf Apple-HW beruht und mein Einwurf diesbezüglich, daß man bei Apple das gesamte System diesbezüglich einbeziehen soll, wenn man das so vergleicht, um festzustellen, daß es auch bei Apple nicht einfach nur wegen Arm so läuft wie es grad läuft. Das war alles.

Wenn man Windows als Referenz heranzieht taugt keine HW was :uup:

MSABK
2025-05-06, 19:22:50
Soo schlecht laufen spiele jetzt nicht auf Windows on Arm. Ich hab ein X Elite Gerät und spiele Skyrim und Anno 1800. Halt mit AutoSR. Ist keine Gamingmaschine. Einzig God of War zickt, das hatte mega störende Ruckler.

Fusion_Power
2025-05-06, 19:35:38
Das liegt aber nicht an ARM, sondern an Windows oder der Snapdragon Kompatibilität, oder?
Du bekommst mit nem Apple Silicon Prozessor und MacOS soweit ich weiß mehr Windows Spiele zum laufen auf MacOS über das GPTK als mit einem Snapdragon auf Windows, das sollte so sicherlich nicht sein.
Spiele Kompatibilität für Apple Silicon ist ein Witz, der triumphiert aber trotz der fremden Plattform auf Windows ARM. :D

Ja ok, mit der brachialen Rohpower eines Apple M3 oder M4 kriegt man natürlich vieles zum laufen. Sind halt auch keine Bllo-Chips oder Geräte. Und naja, niemand kauft sich nen Mac zum zocken, das hat sich bisher nicht wirklich geändert was jetzt aber kein Kritikpunkt sein soll.


Imho hat das aber auch weniger mit x86 vs. Windows vs. ARM zutun. Es geht nur darum, wer die bessere Software/Emulator baut und da hat Apple offenbar ihre Hausaufgaben besser gemacht als Windows. Man kann von Nvidia erwarten, das sie gerade beim Thema Gaming deutlich enthusiastischer an die Sache rangehen und die werden alles so krass verdonglen, das sie sich damit ne goldene Nase verdienen.
NvidiaOS, mark my words. ;D
Mobil (Android) laufen auch alle möglichen Games auf ARM Geräten, das geht also tatsächlich super wenn man nur will, stimmt. Weiß jetzt aber nicht ob Apple wirklich "seine Hausaufgaben" gemacht hat in Bezug auf Gaming, siehe oben.
OKOK... ich will mir vllt. ein iPad holen um AUCH MAL Diablo Immortal drauf zu zocken weils besser unter Apple als unter Android laufen soll...aber gut, ich zähle das dann ehr als Mobile Game und es ist nicht der Hauptgrund warum ich nen iPad möchte... ^^""

Hab noch ein uralt Android Tablet mit nem NVIDIA TEGRA 3 (!) und das kann leider so gar nix (mehr). Weiß nicht wo die Tegra heute so stehen aber der große Wurf wars zumindest damals wohl nicht.

davidzo
2025-05-07, 14:32:10
Das ist und war mit x86 ganz anders. Gab es abseits derjenigen die sich das einmalig aus Sonderkonstellationen der 80/90er Jahre erstritten haben nicht. Für kein Geld der Welt.


Ich stelle mal in den Raum dass es spätestens jetzt sinnvoll für Intel und AMD wäre x86 zu öffnen. Durch Qualcomm und Nvidia ist x86 langfristig ernsthaft bedroht, es geht ums Überleben der ISA. Wenn man Lizenzen vergeben würde an Rockchip, Broadcom, Mediatek und Co, wäre das einstarkes Zugpferd für den bestand von x86.

Das ist aber soweit dahin
;D Nee, gar kein relevanter Vorteil :freak:
Nur Faktor 4x-6x
Bzw. liefert ein Macbook 50% mehr Leistung und das auf dem Idlepower Niveau einer x86 CPU. AMDs beste Zen5 mobile CPU ist nicht nur drei Generationen langsamer sondern braucht mal eben das vierfache an Energie um auf trab zu kommen.


Bei 173 Punkten insgesamt und der damit höchsten Single-Core-Leistung unter allen aktuellen Notebook-Prozessoren erhält man somit 31,8 Punkte pro Watt – weitaus mehr als bei AMD oder Intel.

(...)

Ein Vergleich mit Lunar Lake, Intels derzeit effizientester Notebook-Plattform: Beim Core Ultra 9 288V stehen 16 Watt Verbrauch 127 Punkten im Cinebench 24 gegenüber, also 7,94 Punkte pro Watt und damit lediglich ein Viertel der Leistung des M4. Anders ausgedrückt: Apple Silicon hat die vierfache Single-Core-Effizienz von Intel Lunar Lake. AMDs Ryzen AI 9 HX 370 schneidet mit 5,89 Punkten pro Watt noch schlechter ab.

https://www.computerbase.de/artikel/notebooks/apple-macbook-air-m4-test.91907/seite-2#abschnitt_macbook_air_mit_m4_im_benchmark

Und glaub mir bei M4max vs 9950x oder M3Ultra vs Threadripper 7000 sieht es nicht viel anders aus mit der Effizienz.

robbitop
2025-05-07, 15:26:12
Ich stelle mal in den Raum dass es spätestens jetzt sinnvoll für Intel und AMD wäre x86 zu öffnen. Durch Qualcomm und Nvidia ist x86 langfristig ernsthaft bedroht, es geht ums Überleben der ISA. Wenn man Lizenzen vergeben würde an Rockchip, Broadcom, Mediatek und Co, wäre das einstarkes Zugpferd für den bestand von x86.

Würde ich auch so sehen. Ich vermute aber, dass es a) schon zu spät sein könnte und b) AMD/Intel dafür zu kurzsichtig sein könnten.

Badesalz
2025-05-07, 20:38:11
@davidzo
Überschlag dich nicht...
Bei Laufzeiten haben wir das schon zeitig rausgefunden ;) daß OLED-Modelle am Akku wie Sau nuckeln. Und man darf sich über die Anwendung Cinebench mittlerweile gar lustig machen, wenn Fanboys sich damit bewerfen, aber nicht wenns um MacOS geht? hmm

Das wird nicht geöffnet, weil das beim x86 keinen Sinn ergibt. Genauso wie es bei Arm keinen ergeben würde, wenn Arm selbst CPUs herstellen und vermarkten würde. Wem und warum ist das nicht klar?
Die guten Beispiele, wo es so einer CPU-Plattform geholfen hat sich zu... öffnen, sind welche?

Bei gleichen Displays :wink: gibt es nun das erste Mal einfach genug Leistung mit einer zu Mac konkurrenzfähigen Laufzeiten. Samt Dicke und Gewicht der Geräte die ebenfalls zu Apple konkurrenzfähig sind. Nannte ich es davor wie jetzt direkt duellieren? Nein. Tat ich nicht. Und redete auch nicht über Freaks mit Synthbenches.

"Trotzdem reicht es für ein competetives Tablett nicht". Nein. Tatsächlich nicht, aber im iPad steckt auch kein M oder?
Stationäre BüroPCs in der Verwaltung sind bei uns nur noch die Optilex 3060 Mini (i5-8400T). Und die rennen. Was solls also? Das Ding ist nur noch unwesentlich größer als der Sky IPTV Receiver...

Das große Problem der x86-Plattform ist aktuell erstmal nur Windows. Ein Problem was Apple nicht hat. Wenn ihr also direkt vergleichen wollt, müsst ihr es wie Zossel (korrekterweise) machen. Schaut euch nur Windows auf Qualcomm an :uup:

Zossel
2025-05-08, 06:54:54
@davidzo
Überschlag dich nicht...
Bei Laufzeiten haben wir das schon zeitig rausgefunden ;) daß OLED-Modelle am Akku wie Sau nuckeln. Und man darf sich über die Anwendung Cinebench mittlerweile gar lustig machen, wenn Fanboys sich damit bewerfen, aber nicht wenns um MacOS geht? hmm


Als wenn man so ein Ding nicht einfach zuklappen könnte und Messungen per ssh auf dem Ding laufen lassen könnte.

Badesalz
2025-05-08, 07:50:19
@Zossel
Find ich toll. Sollte mal ruhig jemand machen. Das ist aber keine Aufgabe welche die von Daredevil ständig hervorgeholten Influencer bewältigen können.

Zossel
2025-05-08, 07:56:48
@Zossel
Find ich toll. Sollte mal ruhig jemand machen. Das ist aber keine Aufgabe welche die von Daredevil ständig hervorgeholten Influencer bewältigen können.

Und bis dahin könnte jemand mal die Plattenlatenzen vom macos mit fio vermessen.

Badesalz
2025-05-09, 09:32:04
Huawei/Lenovo
https://www.computerbase.de/news/prozessoren/arm-socs-fuer-windows-pcs-huaweis-chip-mit-smt-und-lenovos-loesung-vor-marktstart.92551/

Daredevil
2025-05-09, 09:40:31
Das macht imho auch total Sinn. Smartphone SoCs sind mittlerweile gut genug für Office Aufgaben, nur traut sich da aktuell einfach komischer weise niemand ran. Das sind ja keine Intel Atoms, die Kisten haben ordentlich dampf unter der Haube.
Die GPU Teile sind teilweise auch einer "normalen" IGP deutlich überlegen durch Features vom Smartphone.

MSABK
2025-05-09, 10:01:09
Huawei/Lenovo
https://www.computerbase.de/news/prozessoren/arm-socs-fuer-windows-pcs-huaweis-chip-mit-smt-und-lenovos-loesung-vor-marktstart.92551/

Jetzt wollen alle auf einmal in den Notebookmarkt. Wobei man bei Huawei das nicht global bekommen könnte. Die wollen soweit ich weiß ein eigenes PC-OS bringen, HarmonyOS5 glaube ich. Das soll auf deren Notebooks laufen. Könnte dann der passende Chip sein. Windows on ARM wird da sicherlich nicht laufen.

Lenovo hatte ich nicht auf dem Radar, mal schauen ob das ein Windows on ARM Chip wird.
Das macht imho auch total Sinn. Smartphone SoCs sind mittlerweile gut genug für Office Aufgaben, nur traut sich da aktuell einfach komischer weise niemand ran. Das sind ja keine Intel Atoms, die Kisten haben ordentlich dampf unter der Haube.
Die GPU Teile sind teilweise auch einer "normalen" IGP deutlich überlegen durch Features vom Smartphone.

Ich fand es eigentlich nicht verkehrt, dass Qualcomm die letzten Jahre ihre Handy-Chips in den Windows on ARM notebooks verbaut hatte, die waren mega sparsam.

Es bleibt spannend. Je mehr Anbieter umso besser. Der Linux-Support ist halt mau bei den Qualcomm ARM-Geräten, hoffentlich machen das die anderen besser.

mboeller
2025-05-09, 10:29:56
Huawei/Lenovo
https://www.computerbase.de/news/prozessoren/arm-socs-fuer-windows-pcs-huaweis-chip-mit-smt-und-lenovos-loesung-vor-marktstart.92551/

ich glaube nicht das der Huawei-Chip für Windows kommt. Huawei hat heute HarmonyOS vorgestellt

zB.: https://x.com/sohbunshu/status/1920632606346920396

Badesalz
2025-05-09, 11:02:37
Das macht imho auch total Sinn.Das macht heutzutage Null sinn :uup: Vor 3-5 Jahren wäre das der Hammer gewesen. Heute ist das nur etwas ähnliches in grün, nachdem Intel wie AMD beim Flatbook endlich einen realen Anschluss gefunden haben.

Hier kann man nur mit dem not-Windows Label punkten;)
Smartphone SoCs sind mittlerweile gut genug für Office Aufgaben, nur traut sich da aktuell einfach komischer weise niemand ran.kombiniere kombiniere

Daredevil
2025-05-09, 13:56:13
Mit einem ULV-SoC kannst du günstige <500€ Notebooks bauen mit guter Peripherie, 20+ Std. Akkulaufzeit, Ultra dünn und ohne, das du dort nen Lüfter verbauen musst. Nicht mal Apple geht diesen Weg und verbaut immer nur ihre besten M Chips, das muss imho gar nicht sein. So etwas gibt es weder von AMD noch Intel, zumindest die Kombination Laufzeit, Performance, Lüfterlos, <500€.

=Floi=
2025-05-09, 14:01:47
NV verlangt schon fürn namen 500€
Da hast dann noch keinen laptop.

MSABK
2025-05-09, 14:15:17
Mit einem ULV-SoC kannst du günstige <500€ Notebooks bauen mit guter Peripherie, 20+ Std. Akkulaufzeit, Ultra dünn und ohne, das du dort nen Lüfter verbauen musst. Nicht mal Apple geht diesen Weg und verbaut immer nur ihre besten M Chips, das muss imho gar nicht sein. So etwas gibt es weder von AMD noch Intel, zumindest die Kombination Laufzeit, Performance, Lüfterlos, <500€.

Verstehe das auch nicht warum es sowas nicht gibt. Es gibt nicht mal eine ebenbürtige Konkurrenz zum MacBook Air.

davidzo
2025-05-09, 16:03:45
@davidzo
Und man darf sich über die Anwendung Cinebench mittlerweile gar lustig machen, wenn Fanboys sich damit bewerfen, aber nicht wenns um MacOS geht? hmm

Sorry aber das sieht anderswo genau so aus. Im mobile geht es doch hauptsächlich um Schwuppdizität, also ST Leistung. Und da liegen die x86 CPUs gerademal auf M1 Niveau, also drei Generationen zurück.



Die guten Beispiele, wo es so einer CPU-Plattform geholfen hat sich zu... öffnen, sind welche?

Die Anzahl an relevanten CPU-Plattformen für Desktop / Server der letzten 20 Jahre sind wieviele? Sorry, aber da gibt es keine Statistik.



Bei gleichen Displays :wink: gibt es nun das erste Mal einfach genug Leistung mit einer zu Mac konkurrenzfähigen Laufzeiten.

Nicht wirklich. Das Zenbook S14 kommt bei CB zwar mit 360nit 14" screen und 72WH relativ nah an das Macbook Air mit 15" und 66wh heran, aber im YT-Videotest tut die CPU ja auch auch kaum was sondern das ist eher ein Hardwarecodec- + Idlepower vergleich. Unter wechselnder CPUlast sieht das ganz anders aus. In der Praxis traut sich kein x86 Nutzer einen Arbeitstag ohne Netzteil in reserve zu haben zu bestreiten, etwas was macbook Nutzer jeden Tag machen weil sie schon vergessen haben dass die Kisten überhaupt Strom brauchen.

Btw, alle Windowsgeräte die im Test von CB höhere YT-Laufzeiten als das Air liefern sind mit Qualcomm CPUs ausgestattet.



"Trotzdem reicht es für ein competetives Tablett nicht". Nein. Tatsächlich nicht, aber im iPad steckt auch kein M oder?

ich weiß zwar nicht wen du da quotest (mich nicht), aber doch in meinem ipad steckt ein M4. Ein weniger als 500g schweres Tablet zersägt noch jeden x86 Desktop PC in der ST Performance und schafft 4K Videoschnitt in Final Cut besser als ein Highend-PC mit Adobe Premiere.

Schaut euch nur Windows auf Qualcomm an :uup:

ich bin gespannt darauf welches Betriebssystem Mediatek mitliefert. So ein Windows / MacOS Konkurrenten strickt man nicht über Nacht.

Daredevil
2025-05-09, 16:32:05
Hier sieht man btw. auch sehr gut, wie sehr der Rest gegen ARM Produkte abstinkt, ist ein Auszug aus dem Switch2 Video von Geekerwan
https://www.youtube.com/watch?v=3pr_V8rtzrE

Man muss sich einfach nur vor Augen führen, welche Produkte dort eine aktive und welche eine passive Kühlung haben, daran kann man die Effizienz sehr gut messen. Nintendo verbaut hier eine "altbacken" Ampere GPU, wenn Nvidia es in irgendeiner Form ernst nimmt und Ada Lovelace bzw. Blackwell Grafik integriert, dann kracht das ganze schon schön rein. Ob die CPU Seite dann selbst entwickelt kommt oder von der ARM Stange, ist ja erstmal irrelevant. Nvidias Kompetenz liegt natürlich in den GPUs und da bekommt man z.B. eine "Nvidia Konsole" locker flockig gebaut und zusätzlich noch Handhelds, Tablets, Notebooks und für den Automotive Markt braucht man sowas ja auch gerne.
https://s1.directupload.eu/images/250509/b5azqkdj.png

Zossel
2025-05-09, 16:48:12
Sorry aber das sieht anderswo genau so aus. Im mobile geht es doch hauptsächlich um Schwuppdizität, also ST Leistung.

Den größten Sprung der Schwuppdizität gab es mit der Einführung von multi-core im Mainstream. Selbst SMT war da deutlich spürbar.

Badesalz
2025-05-10, 09:56:25
Die Anzahl an relevanten CPU-Plattformen für Desktop / Server der letzten 20 Jahre sind wieviele? Sorry, aber da gibt es keine Statistik.Und damit auch keine Erfahrungswerte mit so einer Nummer. Richtig?
Unter wechselnder CPUlast sieht das ganz anders aus. In der Praxis traut sich kein x86 Nutzer einen Arbeitstag ohne Netzteil in reserve zu haben zu bestreitenDas ist mir zu viel Binse. Man sollte schon, wenn denn grad, den "x86 Nutzer" meinen der mit den angesprochenen x86-Plattformen rumläuft. Nicht jeden. Und zu dem einen Fall haben wir halt die Zahlen, zu den "sieht ganz anders aus", sehe ich keine. Das ist nur Trommeln und Trommeln ist mir grad zu wenig.

Mit einem ULV-SoC kannst du günstige <500€ Notebooks bauen mit guter Peripherie, 20+ Std. Akkulaufzeit, Ultra dünn und ohne, das du dort nen Lüfter verbauen musst.Wie? Da ist 6-7x soviel Material drin als in einem iphone :wink: Und das Geschwurbel mit 3dmark - oder Cinebench - bringt was genau?

Den größten Sprung der Schwuppdizität gab es mit der Einführung von multi-core im Mainstream.:rolleyes: -> SSD

robbitop
2025-05-10, 10:53:57
Mit Lunar Lake gibt es ja immerhin mal einen x86 SoC der so konzipiert wurde wie Apple ihre M SoCs. Und mit dem gleichen bloat OS (Win11) stand der was Energieeffizienz angeht IIRC dem Qualcomm ARM SoC nicht hinterher. ISA does not matter. Es geht nur um die Auslegung des SoCs und der jeweiligen Kerne.

Badesalz
2025-05-10, 12:38:04
@Robbi
Warum? Ist der Pendant vom AMD da soviel schlechter?

Und zum Rest: Das wollen die Trommler nicht hören. Und was die letzten Sätze angeht ist der Bloat der Software natürlich signifikant.

Nochmal, an Leute die sich vom Grips her in das Thema erst einarbeiten müssen:
Man kann Arm vs. x86 nicht vergleichen, wenn man stellvertretend für Arm, die CPUs von Apple nimmt. Das ist einfach idiotisch.
Komplette jeweilige Plattformen so zu vergleichen, das geht.

Und auch dann haben wir da noch TSMC N3E vs. ...? :freak:

robbitop
2025-05-10, 13:23:22
Naja N3B (die Müllvariante von N3 X-D)vs N4P. N3B bringt sehr sehr wenig gegen N4P. Und vor allem kaum in dem Bereich der für die lange Akkulaufzeit nötig ist: geringe Teillast.
IMO ist deswegen der Schnappdrache von QCOM der beste Vergleich zu LL. Denn beide nutzen bloaty Win11 X-D

Ansonsten ist Lunarlake ggü Strix Point in folgender Hinsicht anders:

1.) on package memory (jedes bit braucht weniger joule was bewegt werden muss aufgrund der kürzeren Leitungslänge)
2.) ein echter SLC -> weniger Zugriff an den RAM nötig. Insbesondere bei Dingen wie mediaplayback - da soll das laut Intel genutzt werden
3.) viel weniger I/O (PCIe Lanes etc) - der Kram saugt leider
4.) die GPU hat ein gutes Stück mehr L2 (weniger RAM Zugriffe)
5.) e Cores welche zuerst angehen und die P Cores werden erst zuletzt angeknipst. Und die P Cores inkl. deren Fabric und deren L3 sind ausgeknipst. Also quasi wie der LP-e Cluster in Meteorlake

und da waren noch etliche andere Detailoptimirungwn in der Auslegung des SoCs an die ich mich nicht mehr (bzw. zu vage) erinnere.

Und das kann AMD natürlich wenn sie das wollen auch so bauen. Scheint aber so als würde auch Intel das nicht mehr machen. Ein Lunar Lake Nachfolger ist nicht geplant - war anscheinend nicht genug nachgefragt.

Der Punkt ist: ISA spielt kaum eine Rolle - aber die Masse denkt: Energieeffizienz gibts nur mit ARM und x86 ist durstig. Dass der Eindruck entstanden ist, ist rein durch die historische Entwicklung des Fokus der Produkte der jeweiligen Firmen entstanden. x86 Firmen haben PC und Server CPUs gemacht und ARM Fimen halt Smartphone SoCs. Mit ganz anderen schwerpunkten. Wäre es andersherum gewesen, wäre jetzt das Image vertauscht X-D
Jim Keller (wenn sich jemand mit CPUs auskennt denn er) hat das ja auch schon mehrfach betont.

Badesalz
2025-05-10, 13:29:22
Ansonsten ist Lunarlake ggü Strix Point in folgender Hinsicht anders: Das ist Technik an der sich Nerds aufgeilen. Mir ging es um die Leistung und den Verbrauch (ergo Gewicht, ergo Laufzeit).

99,9998% Leute die grad mit derartigen Laptops liebäugeln interessieren sich nicht für on-package irgendwas :freak:

robbitop
2025-05-10, 13:32:36
Naja all diese Dinge machen aber sehr sehr viel aus was Verbrauch und Effizienz in niedrigen TDPs angeht. Durch solche Dinge kommen die großen Laufzeiten raus. Entsprechend auch kleinere Kühllösungen und Stromversorgungen -> weniger Bauraum und Gewicht. Insbesondere Laufzeit- oder performancenormiert.

Fusion_Power
2025-05-10, 15:08:16
Hier sieht man btw. auch sehr gut, wie sehr der Rest gegen ARM Produkte abstinkt, ist ein Auszug aus dem Switch2 Video von Geekerwan
https://www.youtube.com/watch?v=3pr_V8rtzrE

Man muss sich einfach nur vor Augen führen, welche Produkte dort eine aktive und welche eine passive Kühlung haben, daran kann man die Effizienz sehr gut messen. Nintendo verbaut hier eine "altbacken" Ampere GPU, wenn Nvidia es in irgendeiner Form ernst nimmt und Ada Lovelace bzw. Blackwell Grafik integriert, dann kracht das ganze schon schön rein. Ob die CPU Seite dann selbst entwickelt kommt oder von der ARM Stange, ist ja erstmal irrelevant. Nvidias Kompetenz liegt natürlich in den GPUs und da bekommt man z.B. eine "Nvidia Konsole" locker flockig gebaut und zusätzlich noch Handhelds, Tablets, Notebooks und für den Automotive Markt braucht man sowas ja auch gerne.
https://s1.directupload.eu/images/250509/b5azqkdj.png
Die Switch 2 soll nicht viel mehr Leistung haben als eine GTX 750 Ti, und quasi gleich viel wie das Steam Deck?. Hmm, es hörte sich so an als sollte die kommen Nintendo Konsole eigentlich wesentlich mehr Dampf haben. OK, zugegeben, schon die Switch 1 hat beeindruckendes auf den Screen zaubern können in Relation zu ihrer bescheidenen Leistung. Switch 2 wird sicher noch einiges drauf setzen, da brauchen PCs wesentlich mehr Leistung für. Wir ja nicht mehr viel optimiert heutzutage.
Aber das meine betagte GTX 1050 Ti laut dem Chart noch so weit oben mitspielen kann, kaum zu glauben. ^^" Die macht das dann wohl einfach mit ihren 75W Rohpower wett. :D

Troyan
2025-05-11, 10:51:14
Hier sieht man btw. auch sehr gut, wie sehr der Rest gegen ARM Produkte abstinkt, ist ein Auszug aus dem Switch2 Video von Geekerwan
https://www.youtube.com/watch?v=3pr_V8rtzrE

Man muss sich einfach nur vor Augen führen, welche Produkte dort eine aktive und welche eine passive Kühlung haben, daran kann man die Effizienz sehr gut messen. Nintendo verbaut hier eine "altbacken" Ampere GPU, wenn Nvidia es in irgendeiner Form ernst nimmt und Ada Lovelace bzw. Blackwell Grafik integriert, dann kracht das ganze schon schön rein. Ob die CPU Seite dann selbst entwickelt kommt oder von der ARM Stange, ist ja erstmal irrelevant. Nvidias Kompetenz liegt natürlich in den GPUs und da bekommt man z.B. eine "Nvidia Konsole" locker flockig gebaut und zusätzlich noch Handhelds, Tablets, Notebooks und für den Automotive Markt braucht man sowas ja auch gerne.
https://s1.directupload.eu/images/250509/b5azqkdj.png

Welchen Sinn macht es einen reinen GPU-Benchmarks zu nehmen, wo die CPU-Leistung nicht relevant und somit massiv gedrosselt werden kann? Was glaubst du, passiert mit den tollen ineffizienten AMD Handhelds, wenn CPU und GPU benötigt werden? Richtig, die brechen massiv ein. Das Problem gibt es bei der Switch nicht, weil hier die Leistung explizit so bestimmt wurde, dass man die 60 FPS in 720p/1080p entsprechend erreichen kann. Oder sogar 120 FPS in Metroid.

Ansonsten ist es lustig, dass die Series S dort 77% schneller ist, aber als Komplett-System mindesten die doppelte Leistungsaufnahme hat. Sieht jetzt nicht berauschend aus für AMD.

Daredevil
2025-05-11, 11:10:25
Es macht insofern Sinn, weil CPUs heute nicht mehr der saufende Flaschenhals sind, sondern die halbe Welt auf GPU/NPUs läuft.
NVIDIA braucht keine CPU, die alle anderen deklassiert, sie brauchen einfach nur eine ordentliche und effiziente Plattform für ihre GPUs.

robbitop
2025-05-11, 11:17:05
Welchen Sinn macht es einen reinen GPU-Benchmarks zu nehmen, wo die CPU-Leistung nicht relevant und somit massiv gedrosselt werden kann? Was glaubst du, passiert mit den tollen ineffizienten AMD Handhelds, wenn CPU und GPU benötigt werden? Richtig, die brechen massiv ein. Das Problem gibt es bei der Switch nicht, weil hier die Leistung explizit so bestimmt wurde, dass man die 60 FPS in 720p/1080p entsprechend erreichen kann. Oder sogar 120 FPS in Metroid.

Ansonsten ist es lustig, dass die Series S dort 77% schneller ist, aber als Komplett-System mindesten die doppelte Leistungsaufnahme hat. Sieht jetzt nicht berauschend aus für AMD.

Naja. Die fps sind abhängig von der Last. Klar dass man mit Titeln die weniger Last erzeugen sich höhere Auflösung und/oder Frameraten bringen kann. Metroid ist eines der Spiele mit niedriger Last weil es eben auf der Switch 1 laufen kann. Das ist 10 Jahre alte mobile HW. Natürlich läuft das dann auf viel neurer HW auch schneller.

Weiterhin ist VG im Deck ziemlich effizient. Wenn da Spiele vergleichbarer Last laufen (man bedenke dass Switch 1 Titel in etwa PS360 Titeln entsprechen oder leicht darunter) dann zieht CPU und GPU jeweils 1-2 W.
Aber: der SoC der Switch 1/2 ist ja explizit für sub 10W designt - entsprechend läuft der in dem Bereich auch effizienter. VG ist eben eher für 15W designt. Auslegung macht da sehr viel aus.
Grundsätzlich denke ich aber auch dass Nvidia GPUIP effizienter ist als AMD IP. Zumindest bis inkl RDNA3.
Bei der CPU ist es wieder eher Auslegung. Die ARM A78 Cores wurden für Smartphones ausgelegt, Zen 2 für Desktop. Das sind dann Limitationen der Skalierung und Auslegung. Im Endeffekt allerdings dann egal weil das Ergebnis zählt.

Hypadaiper
2025-05-11, 15:58:12
Was man bei sowas auch nie vergessen darf (insbesondere wenn man auch mit Apple vergleicht) ist ja auch darin begründet, dass die Chips möglichst schmal und klein gehalten werden. Bei so einem Konsolenchip steht Wirtschaftlichkeit im Vordergrund. Und da die Kisten für 500 Euro an den Kunden müssen, wird da mit Chipfläche sehr gegeizt. Leistung geht dann eher über Takt.

So ein M4 geht ja doch ziemlich in die Breite. Allein dadurch hat man ja schon Effizienzvorteile.

MSABK
2025-05-12, 14:30:13
Neuerlich hat ja Nvidia Probleme mit den Treibern. Meint ihr das könnte dait zusammenhängen, dass Nvidia intern auch schon für Windows on ARm Treiber entwickelt und hier es zu mehr Problemen kommen könnte?

=Floi=
2025-05-12, 15:25:29
Naja N3B (die Müllvariante von N3 X-D)vs N4P. N3B bringt sehr sehr wenig gegen N4P. Und vor allem kaum in dem Bereich der für die lange Akkulaufzeit nötig ist: geringe Teillast.
IMO ist deswegen der Schnappdrache von QCOM der beste Vergleich zu LL. Denn beide nutzen bloaty Win11 X-D

Ansonsten ist Lunarlake ggü Strix Point in folgender Hinsicht anders:

1.) on package memory (jedes bit braucht weniger joule was bewegt werden muss aufgrund der kürzeren Leitungslänge)
2.) ein echter SLC -> weniger Zugriff an den RAM nötig. Insbesondere bei Dingen wie mediaplayback - da soll das laut Intel genutzt werden
3.) viel weniger I/O (PCIe Lanes etc) - der Kram saugt leider
4.) die GPU hat ein gutes Stück mehr L2 (weniger RAM Zugriffe)
5.) e Cores welche zuerst angehen und die P Cores werden erst zuletzt angeknipst. Und die P Cores inkl. deren Fabric und deren L3 sind ausgeknipst. Also quasi wie der LP-e Cluster in Meteorlake

und da waren noch etliche andere Detailoptimirungwn in der Auslegung des SoCs an die ich mich nicht mehr (bzw. zu vage) erinnere.

Und das kann AMD natürlich wenn sie das wollen auch so bauen. Scheint aber so als würde auch Intel das nicht mehr machen. Ein Lunar Lake Nachfolger ist nicht geplant - war anscheinend nicht genug nachgefragt.


Die frage ist auch, was das ganze bringt!
Wenn AMD stumpf energiesparender ist, bringt bei intel das drumherum nichts. Die cores saufen im turbo weiterhin zu viel.
Cache verteilt man auch nur mit den salzstreuer.

AMDs 3d cache ist da schon ein wahnsinns benchmark im bereich effizienz. Ein 5800x3d ist da wahnsinn.

Apple hat teilweise über 400gb zum ram.

Die low hanging fruits für NV hängen tief.

robbitop
2025-05-12, 16:05:25
am Also Lunar Lake von Intel ist sparsamer als jeder AMD SoC. Geht ja hier um SoCs nicht um Desktop Chips (weil du ja X3D benennst).

=Floi=
2025-05-12, 18:16:32
37W mit 4P kernen ;D

robbitop
2025-05-12, 21:31:19
Lunar Lake ist eine sub 15W SKU (ich bin mir sicher dass es auch Vendors gibt welche die auf Sinnlosbetriebspunkte prügeln aber in 15W und darunter ist sie effizienter als alles was AMD und Intel je gebaut haben und auf Augenhöhe mit dem was wir von den ARM Smartphone SoCs kennen) und hat 4P und 4E Kerne?

MSABK
2025-05-15, 17:16:11
Laut den Gerüchten soll es aber nicht vor mitte/ende 2026 Geräte mit dem Chip geben. Angeblich warten die Hersteller auf Windows 12 welches dann auch andere ARM-Chips neben Qualcomm unterstützen soll.

Mal sehen was da stimmt.

Zossel
2025-05-15, 18:32:00
Angeblich warten die Hersteller auf Windows 12 welches dann auch andere ARM-Chips neben Qualcomm unterstützen soll.
Jetzt hamse ARM schon diesen UEFI-Bloat verpasst und dann sowas.

Daredevil
2025-05-15, 19:29:18
Ich tu mir damit schwer, das so ein Egostarkes Dickschiff wie NVIDIA auf andere wartet und dann schon mal gar nicht auf Microsoft. ^^
Eher bauen die sich selber alternative Betriebssysteme oder eben Produkte, die „Powered by NVIDIA“ branden. Oder setzen ihr Ökosystem auf WinARM auf.
Vormachtstellung bedeutet, das man Hard- und Software aus einer Hand hat und niemanden anderen daran lässt, von Microsoft abhängig zu sein und dann sogar noch Konkurrenz zuzulassen klingt irgendwie nicht nach dem neuen 3 trillion NVIDIA.

Die RTX Creator Suite hätte man bestimmt auch lieber ins OS integriert, anstatt auf ner App in Windows zu laufen. Und das Microsoft jede billo NPU als „CoPilot+ PC“ brandet, eine 5090 aber nicht, gibt hoffentlich nen Denkzettel. :D

x-force
2025-05-15, 19:35:10
Eher bauen die sich selber alternative Betriebssysteme oder eben Produkte, die „Powered by NVIDIA“ branden. Oder setzen ihr Ökosystem auf WinARM auf.

gute programmierer fallen nicht vom himmel. den berichten nach hat nv gerade ordentlich probleme überhaupt einen vernünftigen treiber zu schreiben.

MSABK
2025-05-20, 16:40:10
Hmm, auf der Computex wurde nichts vorgestellt. Kann alles auch nur ein Gerücht gewesen sein und es kommt nichts.

Daredevil
2025-06-10, 13:46:28
First Leaks oder ... whatever

https://www.computerbase.de/news/prozessoren/n1x-benchmark-nvidias-erster-pc-chip-im-geekbench-gesichtet.93068/
Das System mit Nvidia N1x bringt es auf 3.096 Punkte im Single-Core-Test und 18.837 Punkte im Multi-Core-Test. Im direkten Vergleich mit einem aktuellen Eintrag mit einem Gerät mit Snapdragon X fällt die Single-Core-Leistung etwa 8 Prozent höher und die Multi-Core-Leistung sogar rund 24 Prozent höher aus. Bei letzterer ist aber zu bedenken, dass der Snapdragon X lediglich über 12 Kerne/Threads verfügt. Pro Kern wäre die Leistung des N1x sogar geringer (942 vs. 1.195 Punkte).

GB6 Single:
A18pro: 3353pts
M1 Max: 2440pts
M2: 2550pts
N1X: 3096pts
245K.OC: 3248pts
M3 Ultra 28c: 3242pts

GB6 Multi:
A18pro: 8131pts
M1 Max: 12917pts
M2: 10028pts
N1X: 18837pts
245K.OC: 19664pts
M3 Ultra 28c: 26891pts

PS: Core Ultra 245K / P-Core 55x / E-Core 51x / Cache 42x / DDR7600Cl42 at 220w :D

DrFreaK666
2025-06-10, 14:24:37
Ryzen 9 9950X3D:
3379/22536

MSABK
2025-06-10, 14:57:00
Sieht passabel aus. Mal sehen wie die GPU wird. Am wichtigsten wird sein was Microsoft noch macht, ob sie den Chip auch Hardcoden wie bei Qualcomm oder sie das universal in den Kernel integrieren.

Edit: Könnte das nicht der AI PC von HP sein? Also dxg spark oder wie es heißt?

Der_Korken
2025-06-10, 15:30:17
Multicore kann man nicht einordnen, ohne den Verbrauch zu kennen. Zumal Geekbench nicht gut skaliert und man deswegen eigentlich nur CPUs mit gleicher Kernzahl vergleichen kann. Singlecore sieht aber mal sehr ordentlich aus. Wenn das Teil die 3K bei apple-typischen Verbrauch von 5-7W erreicht, dann müssen sich Intel und AMD warm anziehen, denn für die gerade mal 10% Vorsprung saufen deren Chips ein Vielfaches der Apple-M-Chips in ST.

Daredevil
2025-06-10, 15:50:01
Eben drum. Der "typischen Workstation" in 2025 ist es eigentlich fast egal, obs ein 8C Ryzen, ein 16C Ryzen oder ein 32C Threadripper ist. Wichtig ist, welche GPU man drin hat, wie groß der Speicher dieser GPU ist ( alternativ Speicher für die CPU ) und ob I/O für spezialisierte Hardware vorhanden ist. Für Video/3D/AI Kram jault am Ende doch eh nur die GPU und wenn es mobil ist, vielleicht ein wenig die NPU.

Ich würde liebend gerne CPU Kerne gegen GPU Kerne tauschen. Give it to me. :D
Aber fürs Marketing isses natürlich auch nicht verkehrt, wenn man im Vergleich zu Apple/Snapdragon/Lunar Lake nicht komplett absackt.
Am Ende entscheidet eh nur die Software und Nvidia legt sich die Zahlen so zurecht, wie sie wollen. ^^