PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel iGPU+dGPU Multi-Adapter Tech


nonharderware
2022-01-29, 22:23:05
https://www.techpowerup.com/265073/intel-igpu-dgpu-multi-adapter-tech-shows-promise-thanks-to-its-realistic-goals

Denkt ihr da kommt noch was?

Daredevil
2022-01-29, 22:26:21
MultiGPU ist ja annähernd tot und DX12 hat da leider auch nicht viel geholfen für die Verbreitung. ( Die Technik alleine war ja recht solide, z.B. bei Tomb Raider ).
Insofern ist immer alles möglich, die Wahrscheinlichkeit ist aber sehr gering, dass 1. mGPU allgemein nochmal kommt, 2. Das dann auch so funktioniert wie gedacht und 3. Es von Intel kommt, die sich nicht unbedingt mit Ruhm bekleckert haben ja GPU Treibern.
Theoretisch finde ich den Gedanken natürlich grandios. Flexibilität zwischen Effizienter Hardware und Leistung ist nie verkehrt.

ryan
2022-01-29, 23:13:41
In naher Zukunft ist damit nicht zu rechnen von dem was man so hört. Wenn so etwas kommt, dann am ehesten noch von Intel. Die machen sich mehr Gedanken, immerhin geht iGPU+dGPU im Zusammenspiel schon für Encoding Zwecke (Deep Link Hyper Encode): https://www.youtube.com/watch?v=0QXT8B8OWZI

nonharderware
2022-01-29, 23:43:36
Vielleicht mit dem Launch der eigenen dGPUs als Feature ..

basix
2022-01-29, 23:53:29
Wäre auch was für N24 ;)

Gast
2022-01-30, 09:36:02
Zumindest für Desktopverhältnise mit einer DGPU die locker 10x schneller als die IGPU ist dürfte das den Aufwand nicht wert sein.

Leonidas
2022-01-30, 14:26:30
Eigentlich müsste man es machen. Es kann immer hilfreich sein, gerade bei leistungsfähigen iGPUs. Aber der darstellbare Praxisnutzen ist zu gering: Den größten Effekt hat es auf schwächeren dGPUs, dafür muß man dann Ressourcen reinschicken und am Ende nehmen es die Spiele-Programmierer nicht an, weil es denen zu wenig zählbaren Erfolg gibt und die auf einen übergeordneten Standard warten, anstatt AMDs oder Intels Intel-Lösungen zu supporten.

Am Ende zu viel Aufwand für zu wenig darstellbaren Erfolg. Den realen Erfolg will ich gar nicht anzweifeln, aber so richtig schon plakativ darstellbar ist da wenig. Wer glaubt, dass 5% mehr fps auf eine Mainstream-Grafikkarte Klasse "6600XT" mit verbundener iGPU irgendwie einen Werbewert ergibt?

nonharderware
2022-01-30, 16:39:01
Eigentlich müsste man es machen. Es kann immer hilfreich sein, gerade bei leistungsfähigen iGPUs. Aber der darstellbare Praxisnutzen ist zu gering: Den größten Effekt hat es auf schwächeren dGPUs, dafür muß man dann Ressourcen reinschicken und am Ende nehmen es die Spiele-Programmierer nicht an, weil es denen zu wenig zählbaren Erfolg gibt und die auf einen übergeordneten Standard warten, anstatt AMDs oder Intels Intel-Lösungen zu supporten.

Am Ende zu viel Aufwand für zu wenig darstellbaren Erfolg. Den realen Erfolg will ich gar nicht anzweifeln, aber so richtig schon plakativ darstellbar ist da wenig. Wer glaubt, dass 5% mehr fps auf eine Mainstream-Grafikkarte Klasse "6600XT" mit verbundener iGPU irgendwie einen Werbewert ergibt?

Angesichts der aktuellen Situation, könnte dies eventuell ein Argument sein sich eine neue CPU mit starker iGPU zu kaufen während die alte GraKa noch weiterwerkt.

Btw. Könnt ihr mit den Nick abändern? Hab es eh im Kontaktforum gepostet - dann passt es auch mit Twitter ;-)
Dankeschön!

https://twitter.com/nonharderware/status/1487536533913673729

ryan
2022-01-30, 17:53:33
Zumindest für Desktopverhältnise mit einer DGPU die locker 10x schneller als die IGPU ist dürfte das den Aufwand nicht wert sein.


Ich denke auch, dass das aktuell nicht lohnenswert wäre. Auf dem Deskop schon mal gar nicht mit lächerlichen 32 EUs. Wenn die iGPUs bei 5+ Tflops angekommen sind, könnte man nochmal drüber reden. Intel hat sicher andere Probleme, die sie lösen müssen mit ihrer ersten Arc Generation.

Daredevil
2022-01-30, 18:57:52
Es könnte beim Desktop die Effizient aber maßgeblich steigern.
HighEnd Karten verbrauchen unnötig viel Strom im Desktop, selbst wenn sie nur leicht belastet werden.
Eine 3090 oder 6900xt sollte nicht 30w ziehen, ohne das sie irgendwas tun muss, da sind iGPUs deutlich besser geeignet.

ceed
2022-01-30, 19:49:34
Es könnte beim Desktop die Effizient aber maßgeblich steigern.
HighEnd Karten verbrauchen unnötig viel Strom im Desktop, selbst wenn sie nur leicht belastet werden.
Eine 3090 oder 6900xt sollte nicht 30w ziehen, ohne das sie irgendwas tun muss, da sind iGPUs deutlich besser geeignet.

Das sind so Sachen die ich nicht verstehe, es ist doch technisch garantiert möglich den Chip aufm "Desktop Idle" auch nur mit 5 Watt laufen zu lassen? Das würde so viel Strom sparen global gesehen.
Ne CPU bekommt man ja auch so gebaut, wieso macht man es bei Grafikkarten nicht?
Zylinderteilabschaltung ftw

-/\-CruNcher-/\-
2022-01-30, 21:34:04
Die GPU läuft mit ~10W in einer Ausbalancierten SKU
der rest ist anderes gedönns

Erklär mal den ganzen OC freaks sie sollen ihr scheiss hobby aufgeben viel spaß die Industrie wird dir auch schnell einen strick am nächsten baum knöpfen.
Aber vielleicht geschiet ja noch ein Wunder und man besinnt sich zurück.

nonharderware
2022-01-31, 16:06:49
Intel developed easy code for game engine developers to integrate the new tech, with code for creating cross-adapter resources, shared heaps, and resources.


Quelle: https://www.techpowerup.com/265073/intel-igpu-dgpu-multi-adapter-tech-shows-promise-thanks-to-its-realistic-goals


Klingt für mich jetzt so, dass auch andere dies problemlos einbinden könnten - ergo AMD mit den APUs.

Daredevil
2022-01-31, 16:14:45
Das sind so Sachen die ich nicht verstehe, es ist doch technisch garantiert möglich den Chip aufm "Desktop Idle" auch nur mit 5 Watt laufen zu lassen? Das würde so viel Strom sparen global gesehen.
Ne CPU bekommt man ja auch so gebaut, wieso macht man es bei Grafikkarten nicht?
Zylinderteilabschaltung ftw
Die GPU läuft mit ~10W in einer Ausbalancierten SKU
der rest ist anderes gedönns

Erklär mal den ganzen OC freaks sie sollen ihr scheiss hobby aufgeben viel spaß die Industrie wird dir auch schnell einen strick am nächsten baum knöpfen.
Aber vielleicht geschiet ja noch ein Wunder und man besinnt sich zurück.

Das hier ist eine guter Kompromiss aus Idle Verbrauch und Leistung. ( Inkl. 120hz miniLED Display! )
M1 Max mit 10c CPU und 32c GPU, alles andere sieht dagegen einfach nur veraltet aus.

https://abload.de/img/bildschirmfoto2022-01xuka6.png


Im Desktop Bereich muss unbedingt mehr "Mobile Tech" einhält finden wie z.B. Optimus oder was auch immer.
Ist nicht relevant für den Käufer, sollte aber dem Image nicht schaden der Herstellers, eher helfen.

Gast
2022-02-01, 13:05:26
https://abload.de/img/bildschirmfoto2022-01xuka6.png



Kurze OT-Frage, was verwendest du hier für ein Programm für die Anzeige von Temperaturen etc?

-/\-CruNcher-/\-
2022-02-03, 02:03:44
Das hier ist eine guter Kompromiss aus Idle Verbrauch und Leistung. ( Inkl. 120hz miniLED Display! )
M1 Max mit 10c CPU und 32c GPU, alles andere sieht dagegen einfach nur veraltet aus.

https://abload.de/img/bildschirmfoto2022-01xuka6.png


Im Desktop Bereich muss unbedingt mehr "Mobile Tech" einhält finden wie z.B. Optimus oder was auch immer.
Ist nicht relevant für den Käufer, sollte aber dem Image nicht schaden der Herstellers, eher helfen.

Nvidia waren die ersten die diesen Schritt auch gegangen sind mit Maxwell die Arbeit an Tegra und das know how was daraus wieder zurückfloss war schon ein wichtiger Schritt auch wenn man ARM in Mobile nicht standhalten konnte und das rennen letztendlich verlor.
Nvidia ist wieder dabei mit AI diesmal das spart ordentlich energie soviel das man mit AMDs Node Vorteil mithalten kann ohne Probleme.
Nvidias eigene ARM Platform ist ja auch noch da, allerdings wird die wohl eher dann nur noch an Nvidias Cloud angebunden die durch sie zum Großteil dann auch gepowered werden wird und nicht mehr zu einem End Consumer Power Standalone System ausgefahren so wie es Apple scheinbar noch vor hat in Lokaler Hardware.
Allerdings wird der AI Vorteil auch bei Apple zum tragen kommen und da vieleicht sogar nocht etwas deutlicher Intel wird hier vor allem versuchen massiv lokal dagegen zu halten innerhalb ihres OneAPI Hardware approaches.

Apples Master Vorteil ist halt jetzt so gut wie das gesammte Ökosystem unabhängig unter seiner Kontrolle zu haben von A bis Z und damit allen einen ticken voraus zu sein.

Selbst die Konsolen sind nicht so einzigartig wie Apples eigene ARM Platform momentan.

Man muss echt Nvidias Entscheidungen für Local Hardware abwarten, wenn das mit der ARM übernahme nicht klappt.