Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erste 3DMark-Werte zu Intels APU mit AMD-Grafik
Leonidas
2017-11-12, 08:26:49
Link zur News:
https://www.3dcenter.org/news/erste-3dmark-werte-zu-intels-apu-mit-amd-grafik
Complicated
2017-11-12, 10:46:12
Ich finde es wirklich seltsam wie der Begriff APU hier immer wieder verwendet wird. Zumindest die Fachleute sollten nicht den Foristen folgen und die Unterscheidung herausstellen was eine integrierte GPU ist und was eine dedizierte GPU mit eigenem Speicher auf einem separaten Die ist. Nur weil man 2 Chips auf das selbe Board packt, wird doch daraus keine APU. Es ist immer noch eine diskrete GPU bei Intels Konstrukt.
uweskw
2017-11-12, 11:04:15
Hammer, wenn ich mir die Absatzzahlen von der 1050/1050Ti und der 1060 sowie HD380 anschaue. Die werden bei Neuanschaffung ja allesamt obsolet. So ziemlich alles unter 200-250,00€
greetz
US
M4xw0lf
2017-11-12, 12:09:11
Hammer, wenn ich mir die Absatzzahlen von der 1050/1050Ti und der 1060 sowie HD380 anschaue. Die werden bei Neuanschaffung ja allesamt obsolet. So ziemlich alles unter 200-250,00€
greetz
US
Wohl kaum. Dieses Konstrukt wird definitv zu Premiumpreisen über den Ladentisch gehen und somit absolut nichts an der Daseinsberechtigung der Einsteigerkarten ändern.
@News: Performance sieht sehr gut aus, ich bin schon gespannt auf die fertigen Systeme, in denen das Teil zum Einsatz kommen wird.
Flusher
2017-11-12, 13:03:37
Wird wohl in den professionellen Apple Geräte Einzug finden und im Businessbereich etwas zwischen Thin-Client und Workstation sein.
Für AMD ist das eigentlich ein genialer Schachzug. Dadurch wird auch vermehrt professionelle Software auf AMD GPU-Technik optimiert.
Fraglich ist nur ob man dann einen generellen Vorteil ausarbeiten kann der auch bei anderen AMD GPUs wirkt. Bei den Konsolendeals hat man ja ähnliches prognostiziert, doch seit Jahren sieht man bei den Konsolenports keinen eindeutigen Vorteil gegenüber NVIDIA GPUs.
superdash
2017-11-12, 13:04:16
Dabei dürfte die Intel-APU zumindest im Mobile-Bereich sogar noch energieeffizienter als die Lösungen mit regulärer CPU und extra nVidia-Grafik arbeiten können.
Gibt es eine Begründung dazu? Warum soll Vega jetzt plötzlich effizienter sein als die Pascal-Architektur?
Und wenn ich mir die TDP von 45W-60W so ansehe, die Leonidas so geschrieben hat, dann ergibt sich mir der Sinn dieser Lösung noch viel weniger. In einem 13" Ultrabook ist so etwas kaum kühlbar. Und in 15" gibt es doch bereits deutlich mehr Leistung. --> Wo soll das eingebaut werden? :confused::confused::confused: (Zumal dann ein Vergleich mit UHD-Grafik sinnfrei ist. Bei der TDP ist die Konkurrenz doch eine ganz andere!)
uweskw
2017-11-12, 17:50:17
Gibt es eine Begründung dazu? Warum soll Vega jetzt plötzlich effizienter sein als die Pascal-Architektur?
Und wenn ich mir die TDP von 45W-60W so ansehe, die Leonidas so geschrieben hat, dann ergibt sich mir der Sinn dieser Lösung noch viel weniger. In einem 13" Ultrabook ist so etwas kaum kühlbar. Und in 15" gibt es doch bereits deutlich mehr Leistung. --> Wo soll das eingebaut werden? :confused::confused::confused: (Zumal dann ein Vergleich mit UHD-Grafik sinnfrei ist. Bei der TDP ist die Konkurrenz doch eine ganz andere!)
Meint ihr die APU kostet wirklich mehr als eine entsprechende Desktop CPU plus eine 1050Ti/1060?
Da wären wir bei 5-600€. Nur der Chip? Kann ich mir nicht vorstellen. Zumal man sicher auch günstigere Mainboards dazu designen kann.
greetz
US
Grafikspachtel
2017-11-12, 19:27:13
So ganz kann ich diesen Schachzug nicht nachvollziehen.
Da hat AMD also mit Zen endlich eine vernünftige CPU-Architektur, die - kombiniert mit der überlegenen Grafik - zu den besten APUs und Notebook-CPUs führen sollte.
Zu Excavator-Zeiten konnte Intel immer noch ankommen und betonen wieviel wichtiger die CPU ist und wieviel toller ihre IPC doch ist - damit ist seit Zen Schluss.
Jetzt ist AMD am Drücker und sie geben den Grafiktrumpf einfach aus der Hand.
Wenn's ganz dick kommt, erscheinen diese Intel-Notebooks mit AMD-Grafik sogar noch früher als AMDs eigene Notebook APUs...
Kurz: Ich kapier's nicht.
Complicated
2017-11-12, 19:37:13
Eine APU besteht aus einem Chip - das hier ist eine CPU mit einer diskreten GPU auf einem Modul.
Solche COMs baut AMD für die Medizintechnik schon lange.
https://www.amd.com/de/products/embedded-imaging
Daredevil
2017-11-12, 19:41:14
Wenn's ganz dick kommt, erscheinen diese Intel-Notebooks mit AMD-Grafik sogar noch früher als AMDs eigene Notebook APUs...
Kurz: Ich kapier's nicht.
Kann AMD doch egal sein, Hauptsache die Verkaufen etwas.
Wenn man nicht auf die Notebook Hersteller vertrauen kann, muss man halt seinen Markt diversifizieren.
Wenn am Ende Intel UND Amd Notebooks mit ihrer Grafik im Regal stehen, haben wir doch fast die PS4 oder Xbox Geschichte. Bei AMD klingelt immer die Kasse.
Ontopic:
Beeindruckend. :)
Bin auf Preise und Einsatzfelder gespannt.
Gibt es eine Begründung dazu? Warum soll Vega jetzt plötzlich effizienter sein als die Pascal-Architektur?
Du kennst die GPU schon?
Woher denn?
Das ist eine Custom-GPU, es ist noch nichtmal bekannt ob es sich um Vega oder Polaris handelt.
Aktuell schaut es eher nach Polaris auch!
Aber wie auch immer, es ist eine Custom-GPU, denen Eigenschaften wir nicht kennen, die Effizienz kann durchaus besser sein als bei Polaris/Vega!
uweskw
2017-11-12, 22:02:17
Eine APU besteht aus einem Chip - das hier ist eine CPU mit einer diskreten GPU auf einem Modul.
Solche COMs baut AMD für die Medizintechnik schon lange.
https://www.amd.com/de/products/embedded-imaging
K.A. ob das ein Die, ein Chip oder ein sonstwas ist. Jedenfalls ist es CPU und GPU in einem Modul. Wenn nicht nicht APU was ist es dann?
greetz
US
anddill
2017-11-12, 22:07:49
Es ist keine APU, da GPU und CPU keinen direkten gemeinsamen Zugriff auf die gleichen Speicherbereiche haben.
Es ist schlicht eine diskrete GPU incl eigenem RAM, die halt nicht auf einem separaten Substrat sitzen, sondern direkt neben der CPU. Und was denkst denn Du was dieser ominöse Intel Interconnect ist? Das ist schlicht PCIe.
Complicated
2017-11-12, 22:23:37
Wenn nicht nicht APU was ist es dann?
Das habe ich doch geschrieben. Ein COM (Computer on Module) und einen Link zu AMDs anderen COMs habe ich dir auch gegeben. AMD macht COMs mit APUs oder auch nur mit CPUs in seinen embedded Produkten - das ist nichts anderes als ein embedded COM oder auch ein COMe.
Aus dem Link das Schema:
https://www.amd.com/system/files/20573-gpu-compute-1260x.png
Es ist keine APU, da GPU und CPU keinen direkten gemeinsamen Zugriff auf die gleichen Speicherbereiche haben.
Das hatte Llano doch auch noch nicht?
Ist aber trotzdem eine APU!
Und was denkst denn Du was dieser ominöse Intel Interconnect ist? Das ist schlicht PCIe.
Wohl kaum, der HBM ist sicher nicht per PCIe an die GPU angebunden!
Die CPU ist ganz "klassisch" über das Package per PCIe mit der GPU verbunden.
Für diese Verbindung wird kein EMIB genutzt!
anddill
2017-11-12, 23:04:52
Das hatte Llano doch auch noch nicht?
Ist aber trotzdem eine APU!
Der Konsens war damals daß das zwar vom AMD Marketing behauptet wurde aber eben nicht stimmte.
Wohl kaum, der HBM ist sicher nicht per PCIe an die GPU angebunden!
Natürlich nicht.
Die CPU ist ganz "klassisch" über das Package per PCIe mit der GPU verbunden.
Für diese Verbindung wird kein EMIB genutzt!
Das meinte ich. Und damit ist es halt ein ganz normaler per PCIe angebundener Grafikchip.
Der Konsens war damals daß das zwar vom AMD Marketing behauptet wurde aber eben nicht stimmte.
Der Begriff APU kommt doch von AMD, warum darf AMD nicht selbst definieren was eine APU ist?
Das meinte ich. Und damit ist es halt ein ganz normaler per PCIe angebundener Grafikchip.
Ja eh, mehr ist ja auch nicht wirklich nötig.
Wenn die CPU per EMIB an die GPU angebunden wäre, wäre das System wohl bei grafiklastigen Anwendungen nicht viel schneller.
AMD GPU_ 1536SP, 1,0-1,1Ghz -> 3,0-3,4Tflops
GTX1060_ 1280SP, 1,5-1,7Ghz -> 3,8-4,3Tflops
AMD braucht hier weniger rohpower für die ~gleiche Leistung. Intel setzt wohl nicht nur Aufgrund des Preises auf rot.
Leonidas
2017-11-13, 03:36:45
Der Begriff "APU" wird hier nur als Notbehelf verwendet und ist technisch sicher nicht korrekt. SO lange aber nicht klar ist, ob das nun Kaby-Lake-G oder Coffee-Lake-G ist, brauchte ich einfach einen Namen, um das ganze anzureden.
Gast Ritis
2017-11-13, 09:30:02
AFAIK gibt es für APU keine klare technische Definition. Es ist ein Begriff des AMD Marketings um eine Processing Unit bestehend aus CPU und GPU zu beschreiben.
Zuminest gab es vor der APU keinerlei CPU/GPU Kombis auf einem Modul oder in einem Package, oder SoC von AMD.
Auch bei Infinity Fabric basiert die Datenübertragung auf PCIe verwandten Protokollen, das ist kein Ausschlusskrietium. Spätestens mit PCIe4 und 5 wird das ohnehin als SoC interconnect immer interessanter/relevanter.
So lange AMD und Intel auf dem GPU-Teil OpenCL zulassen haben wir die Acceleration einer APU gegeben.
So gesehen könnte alles eine APU sein, bei der der iGPU Teil nicht auf einem North-Bridge Chipsatz ausgelagert ist... aber genaues weiss vielleicht die AMD Marketing Abteilung, oder auch nicht...
uweskw
2017-11-13, 09:56:22
Diese Erbsenzählerei versüßt mir den Morgen.
"Lachen am Morgen vertreibt Kummer und Sorgen."
Ist irgendwo festgelegt dass der nur für mobil verwendet wird?
Greetz
US
Cyphermaster
2017-11-13, 10:32:06
Gibt es eine Begründung dazu? Warum soll Vega jetzt plötzlich effizienter sein als die Pascal-Architektur?Siehe:
AMD GPU_ 1536SP, 1,0-1,1Ghz -> 3,0-3,4Tflops
GTX1060_ 1280SP, 1,5-1,7Ghz -> 3,8-4,3Tflops
AMD braucht hier weniger rohpower für die ~gleiche Leistung. Intel setzt wohl nicht nur Aufgrund des Preises auf rot.Wie schon der Vergleich V56/V64 und die Undervolting-Versuche andeuten, scheint Vega nicht unbedingt insgesamt komplett ineffizient. Vega säuft bekanntlich extrem, wenn man die Architektur auf wirklich hohe Taktraten prügelt; bei den 1/3 niedrigeren Taktraten nahe der Fury kann das also deutlich anders sein.
Mal abwarten, in wie weit man dazu noch Genaueres hören/sehen wird.
blinki
2017-11-13, 11:19:59
Als AMD damals den Begriff APU eingeführt haben, haben sie auf Synergieeffekte herumgeritten, die die enge Koppelung von CPU und GPU ondie bringen: -Damals war noch nicht die Rede von gemeinsamem Speicherbereich, aber sehr wohl von "Zero-Copy" , d.h. bei entsprechender Implementierung können Rechenergebnisse direkt an die CPUs geschickt werden und müssen nicht erst umkopiert werden. Schon mein Bobcat E350 listet dieses Feature auf, wenn man die OpenCL capabilities abfragt.
Kleine Korrektur:
Der 3DMark11 GPU Wert von Bristol Ridge bezieht sich lediglich auf die 15W Notebook Modelle. Nur bei den Intel HD Modellen hat NBC auch Desktop CPUs mit getestet...
Complicated
2017-11-13, 12:37:36
Wie soll denn Zero-Copy ohne gemeinsam adressierten Speicher gehen? Das ist ja die Voraussetzung und war schon immer zentraler Bestandteil. Zero-Copy leitet den "Pointer" wo die Daten liegen z.B. von GPU an CPU anstatt die Daten von einem Speicherbereich (GPU) in den anderen (CPU) zu kopieren. Wenn die nicht die selben Speicher-Adressen nutzen, ist der Pointer sinnlos.
Hier ist nochmal die detaillierte Folie von AMD: https://developer.amd.com/wordpress/media/2013/06/1004_final.pdf
Daraus geht übrigens auch klar hervor was eine APU ausmacht: der Radeon Memory Bus (RMB aka Garlic-Interconnect) und der Fusion Compute Link (FCL aka Onion-Interconnect)
Ohne RMB kein gemeinsamer Speicherzugriff und ohne FCL keine Cache-Kohärenz beim Zugriff - das macht eine APUs aus und keiner außer AMD hat bis heute ähnliche Techniken in seiner iGPU integriert - man bedenke, dass AMDs APUs mit L1 und L2 auskommen. Intel tauscht die Daten über den LLC aus auf seinen iGPUs. (L3 bei normalen CPUs und eDRAM bei seinen schnellsten iGPUs)
MrSpadge
2017-11-13, 12:51:40
Dass GPUs für Spieler nicht am Punkt maximaler Energieeffizienz betrieben werden, ist klar. Und genauso ist klar, dass man auch Pascal mit abgesenkten Spannungen & Taktraten betreiben kann. Sinnvoller als der Vergleich mit der Desktop-Vollgas-1060 wäre derjenige zur mobilen oder MaxQ-Lösung.
Und zur These "wir wissen ja noch gar nichts über den Chip, daher könnte er viel effizienter sein": wir wissen sehr wohl, dass er von AMD kommt und deshalb entweder auf Polaris oder Vega basiert. Wie wahrscheinlich ist es wohl, dass AMD jahrelang an Vega tüftelt, überhastet nen ziemlich großen und hungrigen Chip auf den Markt wirft, dessen Treiber noch nichtmal fertig ist, nur um dann ein paar Monate später eine deutliche Verbesserung fertig zu haben und an Intel zu verkaufen? Das wäre völliger Blödsinn. Ich denke, die Anpassungen für Intel werden sich eine evtl. schnellere Verbindung als PCIe 3 16x und sowas wie Quicksync beschränken. Die schnellere Verbindung wäre durch die Nähe der Chips gut möglich und würde für GP-GPU helfen.
MrS
Complicated
2017-11-13, 13:04:34
Und zur These "wir wissen ja noch gar nichts über den Chip, daher könnte er viel effizienter sein": wir wissen sehr wohl, dass er von AMD kommt und deshalb entweder auf Polaris oder Vega basiert.
Das halte ich für vorschnell - AMDs Semi-Custom Unit hat auch den Konsolen ganz andere Features spendiert die erst in kommenden dGPU zu finden waren. Hier wäre es durchaus auch möglich, dass schon Features von Navi enthalten sind. Zumal weder Polaris noch Vega Interconnets für EMIB hatten, diese (rein Spekulativ von mir) möglicherweise bei Navi zum Einsatz kommen um kostengünstiger als Interposer-Designs zu werden. Alleine wegen EMIB ist der Chip mit eigenen Masken gefertigt und kann alles enthalten was nach Vega noch in der Pipeline war. Und wenn es nur eine verbesserte VCE ist.
Die 24Cus bei dieser mobilen Lösung sind wahrscheinlich entschlankt und nicht mit Vega10 vergleichbar. AMD kann beliebig modifizieren, da alle CGNs untereinander kompatibel sind. Niedrige Taktrate spart auch Transistoren, weglassen von Features wie fp16, primitive shader usw. spart ebenfalls.
So oder so. Tendenziell wird dieser Chip noch weiter reifen und noch effizienter werden während Pascal bereits ausgereift ist. Auch ein leicht verbesserter Prozess ist möglich. Dazu kommt noch Raja als Bindeglied und kennt sich mit HBCC aus. Es kommen so viele Punkte zusammen, dass man eine bessere Performance/Watt erwarten kann, ja schon erwarten muss.
ein PCGH Leser
2017-11-13, 13:21:12
Du was dieser ominöse Intel Interconnect ist? Das ist schlicht PCIe.
Nein, ich würde mich eher an QPI mit eigenem Framework erinnern (ähnlich zum Hypertransportprotokoll), dass ist kein PCIe - zumal das nicht nur ein Bus ist, sondern zugleich ein Verbindungsstandard von Peripherie. Das bedarf es auf einem Träger nicht und lässt sich schneller lösen, da die Signalwege deutlich kürzer sind und weniger limitieren. Es geht um "Die to Die" Verbindungen auf Level von "Siliziumverbindungsgeschwinigkeiten" auf Basis einer Embedding Interconnect Bridge. Intel entwickelte diesen Standard zum Gegenpart von 2.5D in Form von Multi-Die-Integrationen.
https://www.altera.com/content/dam/altera-www/global/en_US/pdfs/literature/wp/wp-01251-enabling-nextgen-with-3d-system-in-package.pdf
Das EMIB ist dabei eine kostengüstigere Variante zu Interposern. Man sollte es trotzdem als Einheit sehen, denn genauso wird es auch angesprochen. Welche Daten dann in welchem Prozess und durch welchen Prozessor abgearbeitet werden, entscheidet sich auf dem Träger. Da ändert sich an Intels Ansatz nichts, nur das man eben HBM2 als Cache zur Verfügung hat.
Danke an Leo für den Bericht auf 3dcenter. Für AMD ist das eine große Chance auch im mobilen Bereich wieder ein Wörtchen mitzureden. Die Häme in der letzten Zeit ist einfach bezeichnend dafür, dass AMD wahrscheinlich immer mehr zum OEM mutiert und andere Bereiche über kurz oder lang aufgibt. Das kann einen schon ein wenig traurig machen, denn gearbeitet wurde dort sehr hart! Nicht zuzletzt hat man immer wieder dazu animiert dass sich Monopole auch mal bewegen (lassen).
Ich schreibe sonst auf 3dcenter nicht, denke aber dass der Link sehr interessant ist und hier gut aufgehoben ist.
danarcho
2017-11-13, 13:33:52
Wie soll denn Zero-Copy ohne gemeinsam adressierten Speicher gehen? Das ist ja die Voraussetzung und war schon immer zentraler Bestandteil. Zero-Copy leitet den "Pointer" wo die Daten liegen z.B. von GPU an CPU anstatt die Daten von einem Speicherbereich (GPU) in den anderen (CPU) zu kopieren. Wenn die nicht die selben Speicher-Adressen nutzen, ist der Pointer sinnlos.
So weit, so korrekt.
Ohne RMB kein gemeinsamer Speicherzugriff und ohne FCL keine Cache-Kohärenz beim Zugriff - das macht eine APUs aus und keiner außer AMD hat bis heute ähnliche Techniken in seiner iGPU integriert - man bedenke, dass AMDs APUs mit L1 und L2 auskommen. Intel tauscht die Daten über den LLC aus auf seinen iGPUs. (L3 bei normalen CPUs und eDRAM bei seinen schnellsten iGPUs)
Aus meiner Sicht ist das die richtige Definition von APU, aber es ist nicht zwingend für unified memory. Du kannst auch über PCIe atomics relaxed consistency herstellen und mehr bietet dir die APU auch nicht an (oder?!).
Deshalb bietet AMD ja zB HSA ab Fiji an. Das ist nur aus performance gründen nicht zero-copy. Theoretisch wäre es aber machbar. Auf der APU führt der Unterschied natürlich zu dem krassen Vorteil, dass man nicht mehr zwischen GPU- und Hauptspeicher unterscheiden brauch, da auf beides gleich schnell (!) zugegriffen werden kann.
Was den Intel-GCN (@Leonidas ;) ) Prozessor angeht, dürfte er sich von der memory architecture wie eine Intel CPU + AMD GPU verhalten. Eine richtige Integration mit einem gemeinsamen Speichercontroller würde ich mir auch für die Zukunft wünschen.
Cyphermaster
2017-11-13, 14:12:26
Wie wahrscheinlich ist es wohl, dass AMD jahrelang an Vega tüftelt, überhastet nen ziemlich großen und hungrigen Chip auf den Markt wirft, dessen Treiber noch nichtmal fertig ist, nur um dann ein paar Monate später eine deutliche Verbesserung fertig zu haben und an Intel zu verkaufen? Das wäre völliger Blödsinn.Es ist keine Verbesserung einer Architektur notwendig, um sie auf signifikant niedrigeren Spannungen und Takt laufen zu lassen. Daß das grade im Vergleich bis-zum-Erbrechen hochgeprügelten Desktop-Chips größere Effizienz ergibt, ist ein ziemlicher No-Brainer, da diese Erkenntnis (wie schon erwähnt) auch schon für die Desktop-Chips in den Unvervolting-/Powertarget-Tests rausgekommen ist.
(https://www.3dcenter.org/artikel/zum-potential-der-stromspar-modi-von-radeon-rx-vega)Was dann in der Zwischenzeit an Treiberarbeit, ggf. einfließenden weiteren Verbesserungen usw. noch passiert ist, kommt da oben auf.
Leonidas
2017-11-13, 14:40:49
Kleine Korrektur:
Der 3DMark11 GPU Wert von Bristol Ridge bezieht sich lediglich auf die 15W Notebook Modelle. Nur bei den Intel HD Modellen hat NBC auch Desktop CPUs mit getestet...
Korrrekt. Wird korrigiert.
basix
2017-11-13, 16:41:46
AMD GPU_ 1536SP, 1,0-1,1Ghz -> 3,0-3,4Tflops
GTX1060_ 1280SP, 1,5-1,7Ghz -> 3,8-4,3Tflops
AMD braucht hier weniger rohpower für die ~gleiche Leistung. Intel setzt wohl nicht nur Aufgrund des Preises auf rot.
Nun ja, 3DMark skaliert hinsichtlich Radeon / GeForce Verhältnis besser als bei Spielen. Eine GTX1060 wird schneller sein in Spielen und die Energieeffizienz wird plus-minus ähnlich sein. Was Nvidia nicht bieten kann:
Sehr kompakte Lösung aufgrund HBM2. Das geht gar nicht mit GDDRx
Apple verwendet breitflächig AMD (bin mir hier aber nicht ganz sicher ob ausschliesslich oder vor allem AMD)
AMD macht wahrscheinlich den besseren Preis
Cyphermaster
2017-11-13, 16:52:50
AMD dürfte als Partner insgesamt vielleicht auch weitere Vorteile auf Feature-Seite ins Feld führen können, wie HBCC und FreeSync. Beide Features sind -zum Beispiel- für den in Konkurrenz zum klassischen Workstation-Desktop/Tower mittlerweile recht gängigen CAD- oder Video-Laptop (zumindest Viewer, mit wenigen Einschränkungen auch Editor) in größeren Firmen ziemlich interessant (HBCC bezüglich Leistungsfähigkeit, FreeSync bezüglich Monitor-Anschaffungspreis) relevant. Und Firmenkunden kaufen im Normalfall auch nicht nur ein paar, sondern gleich palettenweise Geräte ein, da wird der eine oder andere Euro schnell zum Zünglein an der Kaufen-/Nicht-Kaufen-Waage.
Complicated
2017-11-13, 17:32:15
Aus meiner Sicht ist das die richtige Definition von APU, aber es ist nicht zwingend für unified memory. Da stimme ich dir zu.
Es ist lediglich die Implementation von AMD, welche sie als APU bezeichnen. Nicht alles was Unified Memory kann ist automatisch eine APU. AMDs zentrales Element in aktuellen APUs ist die IOMMUv2, welche den UNB ersetzt hat.
Du kannst auch über PCIe atomics relaxed consistency herstellen und mehr bietet dir die APU auch nicht an (oder?!).
Deshalb bietet AMD ja zB HSA ab Fiji an. Das ist nur aus performance gründen nicht zero-copy. Theoretisch wäre es aber machbar. Auf der APU führt der Unterschied natürlich zu dem krassen Vorteil, dass man nicht mehr zwischen GPU- und Hauptspeicher unterscheiden brauch, da auf beides gleich schnell (!) zugegriffen werden kann.
Was den Intel-GCN (@Leonidas ) Prozessor angeht, dürfte er sich von der memory architecture wie eine Intel CPU + AMD GPU verhalten. Eine richtige Integration mit einem gemeinsamen Speichercontroller würde ich mir auch für die Zukunft wünschen.
Was eine diskrete GPU als Vorteil aus den HSA Funktionen mit nimmt ist der große adressierbare Speicherbereich. So kann Vega z.B. direkte memory read/write (PCIe atomics relaxed consistency) auf SSD/HDD und auch Netzwerkspeicher ausführen. Dies führt mit dem HBCC zu weitergehende Zeitersparnissen, da keine Konvertierung auf die block-basierten Protokolle mehr erfolgt wie es ansonsten üblich ist. Zudem kann der Adressbereich deutlich vergrößert werden über den VRAM oder den Hauptspeicher hinaus. Dies sorgt dafür, dass Systeme mit deutlich weniger Systemspeicher dennoch große Datenmengen Adressieren können. Mit HBM entsteht da ein Caching-Level. Wer weiß ob dies bei dem Intel MCP auch zusätzlich integriert wurde. Bis zu 512 TB können so adressiert werden. Die Kostenunterschiede ob diese aus VRAM oder DDDR oder SSD oder gar günstigen HDDs bestehen sind enorm. Nvidia NVLink kann maximal den verbauten VRAM+DDR im System gemeinsam adressieren. Sehr interessanter Artikel zu HBCC mit Fokus auf gaming.
https://techgage.com/article/a-look-at-amd-radeon-vega-hbcc/
Übrigens wer erinnert sich noch an die Präsentation von AMD (Raja) von Spielen unter 4 GB HBM?
During his presentation (YouTube), Raja touted the potential of seeing +50% gains to average framerates, and a staggering +100% boost to minimum framerates in our gaming. In the demo he gave, Deus Ex: Mankind Divided was run on a 4GB RX Vega, giving us a good use case of how HBCC could help with big games on more modest hardware. Dies wird nun auf diesem Intel MCP voll zur Geltung kommen.
https://www.youtube.com/watch?v=bDl6xJJqIAU&t=20m
Hier ein deutscher Artikel dazu: https://www.computerbase.de/2017-02/amd-radeon-rx-vega/
superdash
2017-11-13, 20:14:05
Du kennst die GPU schon?
Woher denn?
Das ist eine Custom-GPU, es ist noch nichtmal bekannt ob es sich um Vega oder Polaris handelt.
Aktuell schaut es eher nach Polaris auch!
Aber wie auch immer, es ist eine Custom-GPU, denen Eigenschaften wir nicht kennen, die Effizienz kann durchaus besser sein als bei Polaris/Vega!
Es war eine Frage an Leonidas, der eine höhere Effizienz behauptet hat. Ich hätte gerne eine Begründung dazu gehabt, woher er das hat und warum er darauf kommt. DENN BISHER hat AMD bei seinen Grafikkarten die rote Laterne bzgl. der Effizienz getragen. DAHER: Ich hinterfrage die Behauptung von Leonidas ODER hätte gerne eine Quelle oder Begründung gesehen. Es kann ja auch gut sein, dass er da schon mehr weiß. Das allein hat mich interessiert.
Complicated
2017-11-13, 21:01:50
Gibt es eine Begründung dazu? Warum soll Vega jetzt plötzlich effizienter sein als die Pascal-Architektur?
Das hat Leonidas aber nicht geschrieben.
Er schrieb, dass die Implementierung mittels EMIB und anderen Techniken von Intel zur besseren Energieeffizienz führt. Allein das nutzen von HBM reduziert den Strombedarf.
Und die Aussage stützt sich auf Intels Ausführungen:
https://newsroom.intel.com/editorials/new-intel-core-processor-combine-high-performance-cpu-discrete-graphics-sleek-thin-devices/
EMIB eliminates height impact as well as manufacturing and design complexities, enabling faster, more powerful and more efficient products in smaller sizes. This is the first consumer product that takes advantage of EMIB.
Not only does it help manage temperature, power delivery and performance state in real time, it also enables system designers to adjust the ratio of power sharing between the processor and graphics based on workloads and usages, like performance gaming. Balancing power between our high-performing processor and the graphics subsystem is critical to achieve great performance across both processors as systems get thinner.
Darauf basierend hat Leonidas den von dir zitierten Satz völlig zurecht geschrieben:
Dabei dürfte die Intel-APU zumindest im Mobile-Bereich sogar noch energieeffizienter als die Lösungen mit regulärer CPU und extra nVidia-Grafik arbeiten können.Da auch der Konjunktiv mit "dürfte" signalisiert, dass es noch abzuwarten gilt ob sich das bewahrheitet. Über die Architekturen wurde kein Wort verloren.
Edit: Vor allem wenn du den Satz genau liest impliziert er, dass die Messlatte als beste Energieeffizienz derzeit die Intel CPU mit diskreter Nvida GPU ist.
Leonidas
2017-11-14, 04:53:44
Ich hinterfrage die Behauptung von Leonidas ODER hätte gerne eine Quelle oder Begründung gesehen. Es kann ja auch gut sein, dass er da schon mehr weiß. Das allein hat mich interessiert.
Nein, da habe ich keine besseren Infos. An der Stelle spekuliere ich einfach auf Basis der vorliegenden Benchmarks - und zwar ohne das Wissen einer exakten TDP. Ich glaube aber nicht an 100W-TDP-Monster. Davon verkauft man ein paar Stück, aber das ist selbst Apple zu wenig. Die wollen sicherlich auch wieder Geräte, die Millionenfach weggehen. Ergo wird es etwas gängiges sein. Selbst 60W TDP für die APU könnten zu hoch gegriffen sein. Mit 60W TDP wäre AMD aber bei der Effizienz gemäß dieser Benchmarks ganz vorn dabei. Mehr hab ich nicht sagen wollen.
Vega säuft bekanntlich extrem, wenn man die Architektur auf wirklich hohe Taktraten prügelt; bei den 1/3 niedrigeren Taktraten nahe der Fury kann das also deutlich anders sein.
Blöd nur, dass Vega ausgerechnet für hohe Taktraten designet wurde und ausgerechnet da ziemlich versagt.
Da die aktuellen 3DMark-Werte ja mit einem desktopähnlichen Testboard durchgeführt wurden kann man sich auch ziemlich sicher sein, dass auch die TDP deutlich höher als bei zukünftigen realen Notebooks sein wird.
In realen Notebooks wird die Performance also vermutlich auch deutlich geringer sein, soweit ich verstanden habe bei dieser Intel-Lösung GPU+CPU ein gemeinsames Power-Budget haben. Potentiell kann damit das Gesamtsystem durchaus energieeffizienter ausfallen, als ein System mit extra Intel-CPU und Nvidia GPU, obwohl die reine GPU in letzterem fall natürlich deutlich effizienter ist.
MrSpadge
2017-11-14, 20:52:49
Es ist keine Verbesserung einer Architektur notwendig, um sie auf signifikant niedrigeren Spannungen und Takt laufen zu lassen. Daß das grade im Vergleich bis-zum-Erbrechen hochgeprügelten Desktop-Chips größere Effizienz ergibt, ist ein ziemlicher No-Brainer, da diese Erkenntnis (wie schon erwähnt) auch schon für die Desktop-Chips in den Unvervolting-/Powertarget-Tests rausgekommen ist.
(https://www.3dcenter.org/artikel/zum-potential-der-stromspar-modi-von-radeon-rx-vega)
Äh ja.. lies noch mal bitte, was ich 2 Sätze vorher im gleichen Beitrag geschrieben hatte.
MrS
Cyphermaster
2017-11-15, 10:07:31
Blöd nur, dass Vega ausgerechnet für hohe Taktraten designet wurde und ausgerechnet da ziemlich versagt.
Da die aktuellen 3DMark-Werte ja mit einem desktopähnlichen Testboard durchgeführt wurden kann man sich auch ziemlich sicher sein, dass auch die TDP deutlich höher als bei zukünftigen realen Notebooks sein wird.
In realen Notebooks wird die Performance also vermutlich auch deutlich geringer sein, soweit ich verstanden habe bei dieser Intel-Lösung GPU+CPU ein gemeinsames Power-Budget haben. Potentiell kann damit das Gesamtsystem durchaus energieeffizienter ausfallen, als ein System mit extra Intel-CPU und Nvidia GPU, obwohl die reine GPU in letzterem fall natürlich deutlich effizienter ist.
Äh ja.. lies noch mal bitte, was ich 2 Sätze vorher im gleichen Beitrag geschrieben hatte.
MrSIch hatte schon verstanden, daß das noch mehr Desktop-Frickelgedöns als finale Lösung ist. Aber grade deshalb fand ich den Vergleich zwischen nahzu-Desktop-Vega mit einer normalen 1060 auch halbwegs passend, weil einigermaßen Augenhöhe? Final aussagekräftige Werte kriegt man eh erst mit Serien-Mobillösung vs. Serien-Mobillösung, das ist klar. Wo das meinem Ansatz, daß Vega "gedrosselt" fühlbar effizienter als auf Vollgas-Niveau arbeiten dürfte, also sich auch neue Verhältnisse zu nVidia-Chips ergeben könnten, fundamental widersprechen soll, verstehe ich grade nicht. Klar, auch nVidia-Chips verändern ihre Effizienz bei anderen Settings; das heißt aber noch lange nicht, daß dabei der Unterschied bei Perf./Watt zwischen unterschiedlichen Chips/Architekturen bei allen Settings immer konstant bleiben müßte.
MrSpadge
2017-11-15, 18:11:45
OK, dann versteh ich dich besser. Der Vergleich Desktop zu Desktop ist erstmal ein guter Ausgangspunkt. Gestört hat mich allerdings der Vergleich einer Vega mit manuellem Eco-tuning, welches auch an die gleichen Stabilitätsreserven wie eine Übertaktung geht, mit einem nahezu auf Vollgas gefahrenen Pascal. Den bekommt man nämlich auch gut auf 2/3 der Leistungsaufnahme, ohne viel Geschwindigkeit zu verlieren, wie die mobilen bzw. MaxQ-Modelle demonstrieren.
Ignoriert man letzteres, vergleicht man den Bestfall für AMD (Spannungsabsenkung bis in die Stabilitätsreserve hinein) mit dem (fast) schlechtesten für nVidia (Vollgas-Desktop-GPU mit Stabilitätsreserve). Dadurch sieht der mögliche Vorteil für nen mobilen Vega viel größer aus, als er meiner Meinung nach ist. Vorhanden ist er aber natürlich, das möchte ich weder in Abrede stellen noch zum jetzigen Zeitpunkt quantifizieren.
MrS
superdash
2017-11-16, 22:51:21
Nein, da habe ich keine besseren Infos. An der Stelle spekuliere ich einfach auf Basis der vorliegenden Benchmarks - und zwar ohne das Wissen einer exakten TDP. Ich glaube aber nicht an 100W-TDP-Monster. Davon verkauft man ein paar Stück, aber das ist selbst Apple zu wenig. Die wollen sicherlich auch wieder Geräte, die Millionenfach weggehen. Ergo wird es etwas gängiges sein. Selbst 60W TDP für die APU könnten zu hoch gegriffen sein. Mit 60W TDP wäre AMD aber bei der Effizienz gemäß dieser Benchmarks ganz vorn dabei. Mehr hab ich nicht sagen wollen.
Ok. Danke für die weiteren Infos. Ich würde da sogar sagen, dass 60W schon ordentlich ist. Eine Kombination aus U-Prozessor mit 4 Kernen (15W TDP) und AMD Grafik mit zusätzlichen 30W wäre für flache Geräte wie das MacBook sogar noch wahrscheinlicher. Ich bin wirklich gespannt, wie sich das in der Praxis dann schlägt. Vielleicht gibt es ja auch verschiedene Varianten davon. Wäre ja sehr leicht zu realisieren...
Cyphermaster
2017-11-17, 13:17:36
OK, dann versteh ich dich besser. Der Vergleich Desktop zu Desktop ist erstmal ein guter Ausgangspunkt. Gestört hat mich allerdings der Vergleich einer Vega mit manuellem Eco-tuning, welches auch an die gleichen Stabilitätsreserven wie eine Übertaktung geht, mit einem nahezu auf Vollgas gefahrenen Pascal. Den bekommt man nämlich auch gut auf 2/3 der Leistungsaufnahme, ohne viel Geschwindigkeit zu verlieren, wie die mobilen bzw. MaxQ-Modelle demonstrieren.
Ignoriert man letzteres, vergleicht man den Bestfall für AMD (Spannungsabsenkung bis in die Stabilitätsreserve hinein) mit dem (fast) schlechtesten für nVidia (Vollgas-Desktop-GPU mit Stabilitätsreserve). Dadurch sieht der mögliche Vorteil für nen mobilen Vega viel größer aus, als er meiner Meinung nach ist. Vorhanden ist er aber natürlich, das möchte ich weder in Abrede stellen noch zum jetzigen Zeitpunkt quantifizieren.
MrSIch wollte noch nicht mal drauf raus, daß da unbedingt ein Vorteil auf AMD-Seite rauskommen müßte (bzw. unter welchen Szenarien, man denke z.B. an HBCC und VRAM-intensive Software wie Spiele oder Anschließen von externen, hochauflösenden Displays). Mir geht es darum, daß Vega@Desktop eben zugunsten der Performance übelst in die Ineffizienz getrieben wurde, d.h. beim Betrieb mit reduzierter Spannung und Takt in Relation zu den sich @Desktop viel mehr am Sweetspot befindlichen Pascal größeres Verbesserungspotential bei der Effizienz zu erwarten ist. Das macht die Betrachtung deutlich spannender, als es bei den PCIe-Karten der Fall ist, und könnte schon erahnen lassen, wie es bei den AMD-eigenen "APUs" (Mobil wie Desktop) werden könnte.
MrSpadge
2017-11-17, 16:14:47
@superdash: Den Chip nicht in verschiedenen Varianten zu bringen wäre ziemlich dumm. Er wird sicherlich von 25 bis 65 W gut skalieren und auch für 15 und 90 W TDP noch brauchbar sein.
@Cyphermaster: kein Einspruch mehr!
MrS
Schön zu sehen das AMD endlich mal in richtige Segmente investiert. Ich wünsche denen natürlich erfolgreiche Umsetzung. dGPU braucht doch irgendwann kein Mensch mehr. Mit Intel an deren Seite wird das ganz sicherlich ein Burner. Letztlich stecken sie dann in fast jedem CPU Angebot (ausser Enthisuast/Enthusiast wo sie sowieso nicht hinwollen), endlich konzentiereren sie sich wieder auf ihr Kerngeschäft mit CPUs. Was sie auch gut können.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.