PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia sieht langfristig Stromverbrauchsprobleme bei HBM-Speicher


Leonidas
2015-12-08, 17:37:05
Link zur News:
http://www.3dcenter.org/news/nvidia-sieht-langfristig-stromverbrauchsprobleme-bei-hbm-speicher

Gast
2015-12-08, 18:00:47
"damit sollte man deren Speicherbedarf doch eigentlich deutlich senken können"

Das soll doch eher "Stromverbrauch" statt "Speicherbedarf" heißen?

tm0975
2015-12-08, 19:04:29
das ist doch in erster linie der versuch, negatives image über die neue technologie zu streuen, weil man selbst noch nciht so weit ist. wozu soll denn bitte eine ver-7-fachung der bandbreite bei aktuellen oder in den nächsten paar jahren kommenden karten sinnvoll sein. da gibt es doch auf logik-und konzeptebene dinge, die dem sinnvoll entgegen wirken (kompression, HSA vor allem, ...). das ist mmn viel lärm um nichts. wahrscheinlich sind fertigungsvorteile auch ausgeklammert aus dieser netten smiley-folie.

Ravenhearth
2015-12-08, 19:11:05
Wozu sollte man ein schlechtes Licht auf die Technologie werfen, wenn man sie nächstes Jahr selbst nutzen will? Davon abgesehen sind solche hohen Bandbreiten definitiv sinnvoll. *hust* Professioneller Markt *hust* Double Precision *hust* Da ist nichts mit Kompression oder HSA. Bandbreite ist durch nichts zu ersetzen außer durch noch mehr Bandbreite. :D

Flusher
2015-12-08, 19:29:19
Typische NVIDIA Masche - ich seh schon worauf hinaus läuft. NVIDIA wird HBM offenbar nicht in Pascal einsetzen, weil man die Technologie offenbar verpennt hat. Also versucht man die Technologie des Konkurrenten schlecht zu machen, bis man es in der nächsten Generation selber einsetzen kann.

Auf die zukünftige Frage was man denn nun zum Problem des Stromverbrauchs zu sagen habe, wird dann verlautbart, dass durch fantastische NVIDIA Technologie dieses Problem keines mehr sein wird.

Atma
2015-12-08, 19:51:44
Typische NVIDIA Masche - ich seh schon worauf hinaus läuft. NVIDIA wird HBM offenbar nicht in Pascal einsetzen, weil man die Technologie offenbar verpennt hat. Also versucht man die Technologie des Konkurrenten schlecht zu machen, bis man es in der nächsten Generation selber einsetzen kann.

Auf die zukünftige Frage was man denn nun zum Problem des Stromverbrauchs zu sagen habe, wird dann verlautbart, dass durch fantastische NVIDIA Technologie dieses Problem keines mehr sein wird.
Eher typischer Nvidia Hater. Es ist doch quasi schon bestätigt, dass Pascal mit HBM kommt. Was soll das Geblubber also?

anddill
2015-12-08, 19:54:53
HBM kann man ja auch einfach breiter machen, dann braucht man den nicht durch die Decke takten.

BlacKi
2015-12-08, 19:55:35
ich finde das diagramm selbst sieht doch ziemlich positiv aus.

1tb/s braucht immernoch weniger strom als gddr5 bei fast 3x leistung. warum man da ein :( smiley hinsetzt verstehe ich nicht.

Gast
2015-12-08, 20:01:47
Die nVidia Folie ist doch völliger Blödsinn. Warum soll jetzt nach GDDR5 bei HBM plötzlich der Bedarf an Speicherbandbreite exponentiell wachsen?

Zuerstmal müssen die Compute Einheiten bzw. Shader in der Masse integriert werden können, dass die Speicheranbindung derart anwachsen muss.
Bei Fiji haben wir schon zu viel Speicherbandbreite, die ist nicht der Flaschenhals. nVidia kann da auch nicht zaubern. Bei massiv parallel kann man auch in den Compute Einheiten Caches nutzen.

Biegt einfach mal gedanklich die schwarz gestrichelte Kurve runter zu moderat ansteigend, der Strombedarf ist dann auch nur moderat ansteigend.

Mögliche Optimierungen bei HBM sind da noch nicht mal berücksichtigt.
nVidia will vielleicht FUD streuen, damit man mehr Zeit für eigene Entwicklung gewinnt?

Gast
2015-12-08, 20:45:07
Mal davon ausgehend, dass nVidia recht hat, ist entweder die Präsentation daneben oder das aus der Präsentation gezogene Fazit.
Wie schon erwähnt wurde, sollte man mit breiterem Interface gegensteuern können (bei GDDR ein Problem), denn das Interface ist bei HBM im Vergleich ein kleineres Problem. Hinzu kommen Fortschritte bei der Fertigungstechnologie.
Womit der 2. Faktor gegen die Panikmache offensichtlich wird. Auch GDDR hat von Technologiefortschritt profitiert. Und wichtiger - wie sollte man die HBM2/3 Bandbreiten mit 'klassischem' GDDR erreichen, ohne noch viel höhere Verlustleistung als bei HBM?

Dass in der GDDR-Entwicklung der Wurm drin ist, wird u.a. daran offensichtlich, dass man 2012 von GDDR6 für 2014 geschrieben hat und bis heute nichts davon zu sehen ist. Nicht mal in der Wikipedia.
Im Gegenteil ist nur eine Frage der Zeit, bis Geräte mit AMD-APUs erscheinen, die gar kein (G)DDR-RAM(-Sockel) mehr haben (So, jetzt habe ich es geschrieben, statt nur seit Wochen anzudeuten :-). PCs oder doch zuerst PS5?

Also müsste nVidia mit etwas völlig anderen kommen. Wurde irgendwie erwähnt mit was?

Der_Korken
2015-12-08, 20:46:22
Das Diagramm finde ich wirklich irreführend. Man sollte sich eher das Verhältnis zwischen Bandbreite und Stromverbrauch ansehen. Dann stellt man nämlich fest, dass HBM nicht nur absolut höhere Bandbreiten ermöglicht, sondern auch etwa drei Mal so viel Bandbreite pro Watt liefert. Dass die Technologie in der Zukunft vielleicht nicht so gut skaliert wie erhofft, ist natürlich schade, aber was besseres ist doch soweit ich weiß nicht in Sicht was Marktreife angeht.

Gast
2015-12-08, 20:55:39
Hm, zum gegenwärtigen Zeitpunkt schwer zu interpretieren, aber es wirkt auf mich eben wirklich ein wenig nach einem Versuch, HBM schlecht zu machen, um dann eine eigene (möglicherweise nVidia-typisch proprietäre) Technologie dagegen platzieren zu können, oder nur weil es ursprünglich von der Konkurrenz stammt.

Aber genauso gut kann es auch sein, dass es ein reales Problem ist und nVidia lediglich ein paar Warnschüsse abschießt, damit früh genug gegengesteuert wird.

Elkinator
2015-12-08, 21:25:41
NVIDIA hat HBM verpennt udn jetzt reden sie es mal schlecht.
Dieses Spiel kennt man bei NVIDIA ja schon!

BlacKi
2015-12-08, 21:27:42
schlecht reden tun sie es wohl wirklich, ob sie es verpennt haben werden wir in ein paar monaten sehen.

Godmode
2015-12-08, 21:33:01
NVIDIA hat HBM verpennt udn jetzt reden sie es mal schlecht.
Dieses Spiel kennt man bei NVIDIA ja schon!
Typische NVIDIA Masche - ich seh schon worauf hinaus läuft. NVIDIA wird HBM offenbar nicht in Pascal einsetzen, weil man die Technologie offenbar verpennt hat. Also versucht man die Technologie des Konkurrenten schlecht zu machen, bis man es in der nächsten Generation selber einsetzen kann.

Auf die zukünftige Frage was man denn nun zum Problem des Stromverbrauchs zu sagen habe, wird dann verlautbart, dass durch fantastische NVIDIA Technologie dieses Problem keines mehr sein wird.

:facepalm: hoch 3

Sorry, aber habt ihr mal die letzten zig Seiten in unserem Pascal Thread gelesen? Informiert euch bitte, bevor ihr solch fast schon unlauteren Stuss erzählt.

Ich habe mir den Vortrag schon angesehen und dort wird nur gesagt, dass man eben auch mit HBM bald wieder in der Memory-Wall klebt, selbst mit 1,5 fach effizienterem HBM. Fazit des Ganzen ist eigentlich nur, dass man bald wieder was neues, deutlich effizienteres als HBM benötigt. Schlecht geredet wird hier überhaupt nichts.

MrSpadge
2015-12-08, 22:36:45
@Godmode: ja, so verstehe ich es auch. Ne Warnung im professionellen Umfeld, sich nicht zu sehr auf den Lorbeeren auszuruhen und weiter an Alternativen zu arbeiten.

Auf der Folie fällt mir allerdings noch auf, dass die Zahlen für "160 Bytes/Act." angegeben sind. Mangels besserer Informationen interpretiere ich das als 160 Bytes = 1280 Bit pro Adressierung. D.h. ein 128 Bit GDDR5-Interface könnte nach der Adressierung 10 Take lang im Burst Mode transferieren, bevor die nächste Adresse angesprungen werden muss. Dieser Wechsel dürfte ungefähr CAS+RAS Latenz lang dauern, also viel länger als diese 10 Takte. Sowas kann auf ner GPU nur GP-GPU Code machen (Zugriffsmuster wie sprunghafter CPU-Code), eigentlich versucht man sowas dringend zu vermeiden.

Ein 4k HBM1/2 Interface sieht da natürlich ganz mies aus: pro externem Takt gibt es überhaupt nur Daten für 1/3 der Bus-Breite, der Rest muss leer laufen und warten, bis die Speicherzellen wieder CAS+RAS Latenz hinter sich gebracht haben. Könnte sein, dass deshalb die "column power" (CAS) bei HBM auf der Folie so unverhältnismäßig durch die Decke schießt.

MrS

Dorn
2015-12-08, 22:37:52
:facepalm: hoch 3

Sorry, aber habt ihr mal die letzten zig Seiten in unserem Pascal Thread gelesen? Informiert euch bitte, bevor ihr solch fast schon unlauteren Stuss erzählt.

Ich habe mir den Vortrag schon angesehen und dort wird nur gesagt, dass man eben auch mit HBM bald wieder in der Memory-Wall klebt, selbst mit 1,5 fach effizienterem HBM. Fazit des Ganzen ist eigentlich nur, dass man bald wieder was neues, deutlich effizienteres als HBM benötigt. Schlecht geredet wird hier überhaupt nichts.

Danke für die Richtigstellung.

Gast
2015-12-09, 00:17:01
Ich versteh die Aufregung nicht, Das Einzige was in der Grafik exponentiell durch die Decke schießt ist die Bandweite (schwarze Linie), während der Stromverbrauch schlimmstenfalls linear anwächst !?

Die letzten drei Stufen:

Stromverbrauch von 60W (100%) auf 120W (200%) auf 160W (266%)
Bandweite von 1000GB/s (100%) auf 2000GB/s (200%) auf 4000GB/s (400%)

Vielliecht kann mir jemand dieses "Desaster" erklären, ich raffs nicht.... Sollte da nicht ein grüner Smiley mit Daumen hoch statt nem Totenschädel stehen???

Leonidas
2015-12-09, 03:32:26
"damit sollte man deren Speicherbedarf doch eigentlich deutlich senken können"

Das soll doch eher "Stromverbrauch" statt "Speicherbedarf" heißen?


Korrekt. Gefixt.

kruemelmonster
2015-12-09, 03:59:00
Vielliecht kann mir jemand dieses "Desaster" erklären, ich raffs nicht.... Sollte da nicht ein grüner Smiley mit Daumen hoch statt nem Totenschädel stehen???

Ganz egal wieviel Bandbreite du bereitstellen könntest, du wirst im üblichen 250-300w Rahmen keine 160w nur für den Speicher ausgeben wollen.

Gast
2015-12-09, 09:50:11
:facepalm: hoch 3

Sorry, aber habt ihr mal die letzten zig Seiten in unserem Pascal Thread gelesen? Informiert euch bitte, bevor ihr solch fast schon unlauteren Stuss erzählt....
was soll da schon drin stehen? Irgendwelche Spekulationen über Bandbreitenbedarf der Pascal Architektur. Pascal ist mit HBM2 möglich und wird kommen, so die Aussagen von nVidia.
Und wenn in Zukunft für mehr Leistung mit höherer Integration auf kleinere Strukturen gesetzt werden muss wird das auch für HBMx eine mögliche Entwicklung sein. Mehr Bandbreite pro Watt geht nur über engere Anbindung on-die. Wenn Stacking zu viel Strom benötigt bindet man breiter an.
Das ändert nichts daran dass die nVidia Folie Epic Fail ist, ist aber nichts ungewöhnliches bei nVidia, man muss deren Präsentationen immer mit grösster Vorsicht "geniessen".

BlacKi
2015-12-09, 11:09:51
Ganz egal wieviel Bandbreite du bereitstellen könntest, du wirst im üblichen 250-300w Rahmen keine 160w nur für den Speicher ausgeben wollen.
und auch nie werden.

bis wir wirklich 3tb/s sehen werden, wird hbm keine 160w mehr benötigen.

Gast
2015-12-11, 19:12:38
Ganz egal wieviel Bandbreite du bereitstellen könntest, du wirst im üblichen 250-300w Rahmen keine 160w nur für den Speicher ausgeben wollen.
Und wer sagt, dass in ein paar Jahren 250-300W 'üblich' sein werden?
Ich verweise darauf, dass es eine Zeit gab, in selbst High-End Grafikakrten ohne Lüfter kamen, in geschickt gestalteten Office-PCs auch die CPU passiv gekühlt wurde und 1kW-Netzteile im Desktop-Bereich nicht mal denkbar waren.

scully1234
2015-12-13, 13:50:51
Und wer sagt, dass in ein paar Jahren 250-300W 'üblich' sein werden?


Die Logik in der Kühlerentwicklung ,oder besser deren Stagnation bei summa summarum 300/400 Watt für eine Grafikkarte bei einen Standard PC, und die Ziele der Erderwärmung

Reicht dir das?

Die Folie von Nvidia soll nur eins auf eine Problematik der stacked Modulbauweise für HBM aufmerksam machen und das tut sie!

Gast
2015-12-17, 23:25:32
Der Witz mit der Erderwärmung war gut, aber nicht zielführend.

Den Rest könnte man knapp oder gar nicht beantworten und einem Troll würde man so gerecht werden, aber ich bin mal nicht so.

Ja was denn jetzt? 250W? 300? 400? Das sind immerhin schon 60% Unterschied.

Ein PC mit einer Fury X/Titan X ist selbst bei großzügiger Auslegung des Begriffes kein Standard.

Die Referenz-Vorgaben liegen tatsächlich offiziell bei 250 bzw. 275W oder ähnlichen Werten.
Vorausgesetzt, dass nicht 'Wer misst, misst Mist.' gilt, beweisen Tests, wie wenig streng sich die Kartenhersteller dran halten.

De facto liegt AMD weit drüber. Sehr weit. NVidia würgt scheinbar recht effektiv ab. Siehe z.B. http://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/28.html

Aktuell werden ~90 Single-GPU-Karten angeboten, die dauerhaft 150+150+75 ziehen dürften.
Kingpin und Lighting sogar 450W. Beide luftgekühlt. Da geht noch was.

Welcher Teil der "Logik in der Kühlerentwicklung" sollte gegen ein Änderung sprechen?
HBM vergrößert die problematisch heiße Kontaktfläche. Das sagt nVidia ja selbst. Und wenn man tatsächlich zu Multi-Chip-GPUs kommen sollte (glaube ich persönlich allerdings noch nicht dran) würde es erneut mehr werden.

Stacking ist neben Hot-Spots ein Kühlproblem. Aber kein Argument für gleichbleibenden Maximalverbrauch.

KHJ
2015-12-29, 12:51:28
Ich hab ja von der Materie absolut keine Ahnung , aber HBM 1 selbst schafft derzeit doch schon mehr Bandbreite als GDDR5 , also könnte man theoretisch HBM1 mit doppelter Speichermenge aka 8GB VRAM bei selber Bandbreite nutzen und muss doch nicht zwingend die Taktraten schon nach oben schrauben.
Nicht mal jetzt limitert die Bandbreite wirklich bei den High End Karten.
Und HBM 2 sollte dann mit der doppelten möglichen Taktrate ja für weit über 2020 nicht limiteren.

Ich glaube ja eher das NV hier einen eigenen Speicherstandard durchdrücken will , oder sie haben HBM nicht gut im Griff was die produktion/design angeht und wollen so von ihrer "Unfähigkeit" ablenken.

Bin ja gespannt was sie als Alternative vorstellen werden.