PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMDs HBCC-Feature kann bis zu 70% Mehrperformance bringen


Leonidas
2018-03-27, 03:19:30
Link zur News:
https://www.3dcenter.org/news/amds-hbcc-feature-kann-der-richtigen-situation-bis-zu-70-mehrperformance-bringen

Gast
2018-03-27, 04:32:43
HBCC kann bei einm IGP aber auch dann etwas bringen, wenn der IGP über dedizierten Speicher verfügt, was bei den AMD APUs leider nicht der Fall ist.

Loeschzwerg
2018-03-27, 06:53:29
KabyLake-G mit Vega M steht quasi vor der Türe. Sofern HBCC aktivierbar ist, könnte ich mir in gewissen Situationen ein Plus an Leistung vorstellen.

Gast
2018-03-27, 07:08:33
Was bitte hat HBCC mit Raven Ridge zu tun? Habe ich eine "GT3(e)"-Variante mit dediziertem Grafik-RAM übersehen?

amdfanuwe
2018-03-27, 09:17:16
Was bitte hat HBCC mit Raven Ridge zu tun? Habe ich eine "GT3(e)"-Variante mit dediziertem Grafik-RAM übersehen?
Wird noch kommen.
Wäre der logische Schritt für AMD im Rennen um kleinere Chips eine APU mit HBM zu bringen.
Raven Ridge mit einem 8GB HBM Stack würde für die meisten Notebook und embedded Lösungen ausreichen ohne weiteren dedizierten Speicher zu benötigen.
Wäre sehr klein und benötigte nur einfache günstige Mainboards.

Gast
2018-03-27, 09:30:10
HBCC bringt auch was beim "Mining". Bei "XMR Stak AMD" steigt die Hashrate von 1350 kh/s auf 2000 kH/s. -> bei gleichem Energieverbrauch.

Ich denke für die Zukunft könnte auch bei Raytracing HBCC Pflicht werden.

Gast Ritis
2018-03-27, 09:31:14
HBCC macht Sinn sobald HBM bei den Midrange-Lösungen eingeführt würde.

2GB HBM auf Laptop oder 4GB HBM auf Polaris-Nachfolger würde immer noch bessere oder gleichwertige Performance bringen wie aktuelle Lösungen. Mit halben RAM in GB sollte das auch preislich machbar sein.

Momentan scheint die Verfügbarkeit kleiner HBM-Einheiten noch zu gering, bzw. ist man froh die 4GB Stapel bestellen zu können, aber eigentlich erwarten wir doch Vega Varianten nächstes Jahr im Einsteigersegment.

Bei teureren Karten ist der psychologische Effekt zu kleiner GB-Zahlen wohl kaum zu überwinden.

Was man mit HBCC zumindest erreicht ist, dass die Karten noch bessere Langlebigkeit erhalten, ein Upgrade wegen zu wenig VRAM werden diese Vegas nicht erzwingen (=schon wieder weniger Umsatz).

Kulasko
2018-03-27, 10:15:37
Bei einem 8GB HBM Stack mit dem Kostenvorteil von Mainboards zu kommen, halte ich nicht unbedingt für sinnvoll. Aber ja, zukünftige APUs kötten unter Umständen auch den Low cost HBM adaptieren und in den höchsten Modellen dann 2-4GB mitbringen, oder eben 8GB und keinen zusätzlichen Ram in Spezialfällen. Wobei ich da auch noch bezweifeln würde, dass es großartig Situationen gibt, wo 8GB reichen, aber kein DDR4.

5CH4CHT3L
2018-03-27, 15:45:54
selbst 2/4GB als L4 für CPU und GPU würden schon massig Leistung bringen

cat
2018-03-27, 16:41:53
Kann es sein, dass ein Interposer und alles was für HBM sonstnoch fällig wird so teuer ist, dass es wenig Sinn macht diesen Aufwand für nur einen Stack und eine sehr kleine GPU zu aufzubringen?

Intels EMIB-Lösung könnte eine "gerade noch" wirtschaftlicher Ansatz sein.

Mir wurde oft gesagt, dass ein HBC-Controller ohne HBM nicht vorhanden sein dürfte.
HBCC wäre also angeblich selbst an einem 512-bit GDDR6 Interface mit 1TB/sek. nicht möglich.

Schade eigentlich bei den weitgesteckten Vorteilen.

BlacKi
2018-03-27, 17:31:29
KabyLake-G mit Vega M steht quasi vor der Türe. Sofern HBCC aktivierbar ist, könnte ich mir in gewissen Situationen ein Plus an Leistung vorstellen.
ist die formulierung nicht falsch? HBCC vermindert einen leistungseinbruch.

Gast Ritis
2018-03-27, 17:43:42
Kann es sein, dass ein Interposer und alles was für HBM sonstnoch fällig wird so teuer ist, dass es wenig Sinn macht diesen Aufwand für nur einen Stack und eine sehr kleine GPU zu aufzubringen?.

Das ist wohl alles eine Frage der Preisgestaltung über die Massenfertigung.

Im Prinzip sieht man an den Preisen für Ryzen-MCMs, dass es da kaum erhebliche Kosten geben kann.

Ein Package aus GPU und VRAM bringt dem Hersteller (AMD/Intel/nVidia) schon mal mehr Umsatz als wenn der Board-Partner einzelne GDDR Chips selbst einkauft und verlötet. Die Platinen für die GPUs incl. Stromversorgung werden theoretisch erst mal auch viel weniger aufwändig und kleiner, können schneller entwickelt werden.

Sofern die Fertigungstechnologien im Griff sind und der Yield für das fertige GPU-HBM Package stimmt sollte das im Endpreis nicht mehr ins Gewicht fallen.
Nach Ryzen erwarten wir doch auch alle für die GPUs eine entsprechende Multi-Die Architektur, bei GPUs sollte das doch eigentlich ebenso einfach machbar sein wie bei CPUs.

Allerdings hat man bei GDDR mehr Fertiger und der Markt ist dynamischer. Bei HBM kann man wohl nur zu SK Hynix und Samsung gehen.

Letztlich wird es wohl allein an der Preisgestaltung der HBM-Hersteller liegen, wie diese sich HBM-Chips vergolden lassen.

Loeschzwerg
2018-03-27, 17:59:38
Hehe, da hast du vollkommen recht :) War wohl noch zu früh am Morgen ^^

Bin echt gespannt ob Hades Canyon die entsprechende Option bietet. Müsste ich aber fast noch ein 32GB Kit bestellen, bei 2x 8GB würde ich nicht unbedingt etwas abknüpfen wollen.

Gast
2018-03-27, 22:33:03
Wird noch kommen.

Rede ich schon lange von.
Aber "Wird noch kommen." ist automatisch ungleich Raven Ridge. Dass RR auf Vega basiert, ist für die Betrachtung von HBCC im Gegensatz zu dem, was der Artikel sagen will, völlig Banane.

G3cko
2018-03-28, 20:11:40
wieso das Foren-User herausfinden müssen, was eigentliche AMDs Job wäre.


Bitte was? Du meinst soetwas?
https://www.youtube.com/watch?v=85ProuqAof0

Hier hatte AMD das Feature vorgestellt und den VRAM künstlich auf 4GB limitiert. Kann doch AMD nichts dafür wenn die Presse kein passendes Setting findet um die 8GB auszureizen.

Du wolltest wohl schreiben:
wieso das Foren-User herausfinden müssen, was eigentliche der Job der Hardwarepresse/-tester wäre.

Gast 200
2018-03-29, 10:34:04
Falsch! AMD hat das HBCC Feature vorgestellt und den VRAM künstlich auf 2GB limitiert, um die ach so tollen HBCC Fähigkeiten mit +50% avg.FPS & +100% min.FPS werbewirksam als 'das neue Ding' zu präsentieren.

In 99% aller Spiele bringt HBCC nichts, denn genügend VRAM ist durch nichts zu ersetzen - da nutzt auch AMD's 'fake' PR Marketing nichts.

Vega mit 2GB VRAM = HBM2 VRAM Krüppel

Gast
2018-03-29, 23:09:25
Falsch!
Falsch!

Der Spruch ist so dumm wie der mit Hubraum.

Angesichts der aktuellen Preise wäre ein gut funktionierendes Cache-System ein Segen, wenn man für die einstellige Prozentzahl an Fällen, wo man mit der Hälfte an VRAM nicht hin kommt, ein Segen.

G3cko
2018-03-30, 10:28:16
Das Feature ist doch in der News ausreichend beschrieben? Es dient lediglich dazu Engpässe besser zu überbrücken. Bestes Beispiel wäre Fury. 4 GB sind für die Karte klar zu wenig. Das betrifft aber nicht alle spiele. Mit HBCC sähe das Gesamtbild schon besser aus.

Oder GTX1080 vs Vega10. Beide haben 8 GB. Vega kann dank HBCC jedoch über 8 GB nutzen ohne das es zwingend gleich zu Problemen kommt.

Genau das soll auch die Demo zeigen. Es geht nicht darum Speicherkrümel zu bauen. Das ist bei AMD auch nicht zu erwarten, sondern darum mit Engpässen besser zurecht zu kommen.

Und gerade Vega11 im NUC dürfte stark von HBCC als Feature profitierten.

Ich weiß nicht warum man krampfhaft das Haar in der Suppe sucht. HBCC ist das genialsten Feature der letzten Jahre. 8800GT, 4780, GTX680, GTX970. Stell dir Mal die Karten mit HBCC vor. Wenn einem HBCC nicht gefällt muss man das Feature ja nicht nutzen. Am Ende hat man immernoch eine 8 GB Karte.

HBCC sorgt dafür dass AMD Karten weiterhin besser altern, ohne das AMD immer zwingend deutlich mehr vram verbauen muss. Das sorgt für eine Kostenersparnis, welche in günstigen Preisen oder mehr Performance münden.

BlacKi
2018-03-30, 12:39:13
Das Feature ist doch in der News ausreichend beschrieben? Es dient lediglich dazu Engpässe besser zu überbrücken. Bestes Beispiel wäre Fury. 4 GB sind für die Karte klar zu wenig. Das betrifft aber nicht alle spiele. Mit HBCC sähe das Gesamtbild schon besser aus.

Oder GTX1080 vs Vega10. Beide haben 8 GB. Vega kann dank HBCC jedoch über 8 GB nutzen ohne das es zwingend gleich zu Problemen kommt.

Genau das soll auch die Demo zeigen. Es geht nicht darum Speicherkrümel zu bauen. Das ist bei AMD auch nicht zu erwarten, sondern darum mit Engpässen besser zurecht zu kommen.

Und gerade Vega11 im NUC dürfte stark von HBCC als Feature profitierten.

Ich weiß nicht warum man krampfhaft das Haar in der Suppe sucht. HBCC ist das genialsten Feature der letzten Jahre. 8800GT, 4780, GTX680, GTX970. Stell dir Mal die Karten mit HBCC vor. Wenn einem HBCC nicht gefällt muss man das Feature ja nicht nutzen. Am Ende hat man immernoch eine 8 GB Karte.

HBCC sorgt dafür dass AMD Karten weiterhin besser altern, ohne das AMD immer zwingend deutlich mehr vram verbauen muss. Das sorgt für eine Kostenersparnis, welche in günstigen Preisen oder mehr Performance münden.
so wie du es beschreibst, würde der hbcc aus einer speicherkrüppelkarte eine vollwertige grafikkarte mit(fast) unbegrenztem vram machen.

in der theorie und laut den benchmarks soll das wohl fast dieses ziel erreichen. aber das problem ist die mangelnde nachweißbarkeit, höchstens das was dargo gebencht hat in einem spiel und das was amd an videomaterial gestellt hat.

ob das aber so auf alle spiele zutrifft oder auf ein paar wenige das wird erst der NUC vega zeigen können, da die anzahl der spiele die mehr als 8gb nutzen noch ziemlich rar sind, aber der nuc wohl 2 (oder4?) gb vram hat und die spiele deutlich mehr brauchen werden als verfügbar ist.

ich bin gespannt.

G3cko
2018-03-30, 17:47:19
Für was soll denn sonst der HBCC gut sein? Klar, nativer VRAM wird dadruch nicht gleichwertig ersetzt, aber mal als Gegenfrage: Es gibt doch genug iGPUs, welche ausschließlich den RAM als VRAM verweden. Mir wäre neue, wenn es da massive Probleme mit dem shared VRAM aka Rucklern gäbe.

Nun kommt mal ein Hersteller auf die Idee beide Vorteile mit einem mächten Speichercontroller zuvereinen und man tut so als wäre das kein großer Wurf?


Ich denke, dass sowieso zukünftig der HBCC noch besser funktioniert. Grund ist einfach, dass moderne Spiele teilweise bereits selbst ein gutes Streaming ohne Ruckler beherrschen. Auch bei steigenden VRAM-Größen sollte ein Tiering mit kleineren Dateien besser funktionieren, da diese dann für sich einen geringeren Einfluss haben.

Und nicht zuletzt bietet AMD ja selbst eine Lösung an wo der VRAM via SSD direkt auf der Grafikkarte auf mehre TB vergrößert wird.

Wie gut das am Ende funktioniert hängt also von vielen Faktoren ab, aber besser garkein extra VRAM ist es allemal.

Gast
2018-04-01, 11:12:16
Ich denke, dass sowieso zukünftig der HBCC noch besser funktioniert. Grund ist einfach, dass moderne Spiele teilweise bereits selbst ein gutes Streaming ohne Ruckler beherrschen.

HBCC ist kein Wundermittel und nicht echten VRAM ersetzen.
Damit es zu keinen Einbrüchen kommt müssen alle Daten die für einen Frame gebraucht werden im VRAM liegen, wenn sich das nicht ausgeht nützt auch HBCC nichts.
Was HBCC macht ist quasi dynamisches Streaming aus dem RAM in den VRAM, also quasi id-techs Megatexture in Hardware.
Bei Spielen die selbst gutes Streaming beherrschen kann das logischerweise dann auch nur geringe Vorteile bringen.
Es bringt dann viel wenn die Software selbst eben kein gutes Streaming beherrscht und Daten in den VRAM lädt die eigentlich aktuell nicht benötigt werden und dafür andere nicht die gerade für den nächsten Frame gebraucht werden.
In dem Fall hilft HBCC indem es der Software einen viel größeren VRAM vortäuscht und selbst dynamisch entscheidet was wirklich im VRAM und was im Hauptspeicher landet.

Die Frage ist natürlich was besser funktioniert, kann ein dynamischer Algorithmus besser entscheiden was wirklich in den VRAM soll oder kann es eigentlich die Anwendung besser?

Ein weiterer Vorteil, der aber logischerweise erst zum Tragen kommen kann wenn ein Großteil der eingesetzten Hardware etwas vergleichbares beherrscht, sind potentielle Einsparungen in den Entwicklungskosten für Spiele. Weil wieso das Rad neu Erfinden und selbst ein kompliziertes Streaming entwickeln, wenn das die Hardware selbst eh gut genug macht?

IceKillFX57
2018-04-01, 12:26:03
Ist das ganze nicht wie dieses Shared Memory nur in schneller?
Da hatten die GPUs ja auch einen eigenen Speicher und dann durfte man auch den RAM nutzen.

Oder war das nur mobil exklusive.?

Gast
2018-04-02, 00:06:33
Ist das ganze nicht wie dieses Shared Memory nur in schneller?

Nicht wirklich, da hatte die GPU einen eigenen kleinen Speicher als Cache, in erster Linie für Frame- und Z-Buffer und der ganze Rest war im Hauptspeicher. Das war eher vergleichbar mit dem eDRAM der Intel IGPs.

HBCC ist quasi Paging für den VRAM.
So wie der Hauptspeicher in einzelne Pages unterteilt wird, die entweder tatsächlich im Speicher oder auch auf der HDD liegen können wird auch der gesamte VRAM-Inhalt in kleine Stücke zerteilt die einzeln verschoben werden können. Man hat wohl wie auch in den CPUs eine Art MMU verbaut die sich um die Übersetzung kümmert und dafür sorgt dass die Daten auch da sind wenn sie benötigt werden.

Vereinfacht gesagt könnte der Entwickler sagen "Lade große 4k-Textur" in den VRAM, real wird aber nur der gerade sichtbare Teil geladen und der Rest bleibt im Hauptspeicher.

Die Software selbst könnte auch die große Textur in mehrere kleine unterteilen und selbst nur die benötigten Stücke laden, wobei die HBCC-Lösung wohl weniger CPU-Overhead erzeugt und vor allem auch Entwicklungskosten sparen könnte, wenn man sich als Entwickler keine Gedanken mehr darum machen muss.

IceKillFX57
2018-04-02, 10:13:07
Nicht wirklich, da hatte die GPU einen eigenen kleinen Speicher als Cache, in erster Linie für Frame- und Z-Buffer und der ganze Rest war im Hauptspeicher. Das war eher vergleichbar mit dem eDRAM der Intel IGPs.(gekürzt).......

(y):smile:

RavenTS
2018-04-08, 13:40:17
Nicht wirklich, da hatte die GPU einen eigenen kleinen Speicher als Cache, in erster Linie für Frame- und Z-Buffer und der ganze Rest war im Hauptspeicher. Das war eher vergleichbar mit dem eDRAM der Intel IGPs.
...

Und wirklich durchgesetzt hat sich dies schon seit den AGP-Tagen nicht, d.h. es war immer nur eine gewisse Krücke für besondere Situationen, eine Art Fallback-Modus damit der Speicher nicht überläuft mit all den unschönen Effekten.