Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 28. August 2017
Leonidas
2017-08-29, 12:14:14
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-28-august-2017
Gast Ritis
2017-08-29, 12:49:58
Big Picture?
AFAIK hat AMD die HBM Technologie wesentlich mitentwickelt und war einer der Initiatoren.
Im Kern steht die Anforderung den Speicher in grossen Dimensionen so nah wie möglich an die Ausführungseinheiten zu bringen. Deshalb Stacked und Interposer.
Ist doch logisch, dass AMD an dem Konzept festhält, solange es vor der Hand nur Probleme in der Einführung und Produktreife sind und nicht grundsätzliche Fragen. Man sucht auch bei SK Hynix und Samsung möglichst viele Kunden für HBM um über die Massenproduktion ähnlich günstig wie GDDR zu werden.
Langfristig ist es für AMD auch besser der VRAM kommt integriert von denen selbst, für mehr Umsatz und mehr Kontrolle zu den SKU Bestückungen. Ohne HBM wird man mit den APUs für Laptops auch keinen Durchbruch landen, mit HBM stehen die Chancen gegen Intel aber ganz gut, dafür muss er Massentauglich gemacht werden.
Die Verfügbarkeit von Vega ist übrigens nicht unbedingt auf HBM2 zurückzuführen. Die Gerüchte bei DigiTimes um Probleme gingen auch in Richtung des Packaging Partners...
CD-LABS
2017-08-29, 13:05:52
Hmm, ich hoffe ja immer noch darauf, dass Vega den Weg in Notebooks findet. Eigentlich was schon Fiji dafür prädestiniert gewesen und ist auch im Vergleich prädestinierter als Vega (im Vergleich zur Konkurrenz effizienter), trotzdem: Das durch HBM ermöglichte schmale Board hat im Notebookbereich ordentlich Gewicht, der gleichzeitig große Chip ist auch alles andere als unpraktisch. (kann gut gekühlt werden)
Also, bitte Vega10 auf 1Ghz drosseln und gute FreeSync-Notebooks draus bauen lassen!
Ansonsten: Bei HBM2 gibt es noch viel Luft nach oben, was Takt, Spannungen und Stackhöhe angeht. Vielleicht schiebt AMD ja noch eine Karte mit rundherum besseren HBM nach---naja, momentan dank der Miner und der Ram-Knappheit zugleich eh nichts praxisrelevantes!
y33H@
2017-08-29, 13:10:28
Ein GDDR5-Chip kann durchaus 1,5 bis 2 Watt ziehen. Bei acht Packages macht das immerhin 12 bis 16 Watt aus plus Interface - wenngleich zusammen wohl kaum 50 Watt.
The Radeon RX Vega 64 Liquid, Vega 64 & Vega 56 Test: 32 Games Benchmarked (https://www.techspot.com/review/1476-amd-radeon-vega-64/page13.html)
In bereits optimierten Titeln kann Vega mithalten oder überholen.
hellm
2017-08-29, 14:44:15
..aber genau das war doch gemeint, das Speicherinterface mit einbegriffen. Ich denke Buildzoid hat das Steve auch so erklärt..
"So verbrauchen die 8 GB GDDR5-Speicher auf einer Radeon RX 480 nicht wirklich 40-50 Watt – die hiermit angegebene Differenz zwischen Stromverbrauch des Grafikchips (~110W) und Stromverbrauch der ganzen Karte (~164W) wird primär durch die Stromversorgung auf der Platine bzw. die dort entstehenden Wandlerverluste generiert."
Da übersiehst du aber auch was Leonidas. das Speicherinterface im Chip braucht bei GDDR auch ordentlich Saft!
Leonidas
2017-08-30, 08:56:49
Ein GDDR5-Chip kann durchaus 1,5 bis 2 Watt ziehen. Bei acht Packages macht das immerhin 12 bis 16 Watt aus plus Interface - wenngleich zusammen wohl kaum 50 Watt.
Schätze ich ganz exakt so. Die "40-50W" bezogen sich wie gesagt auf die Differenz zwischen Power-Limit (110W) und Gesamtverbrauch (offiziell 150W, real ~160W) - und diese Rechnung ist natürlich falsch. Es sind die Wandlerverluste, die hier den größten Teil ausmachen.
Da übersiehst du aber auch was Leonidas. das Speicherinterface im Chip braucht bei GDDR auch ordentlich Saft!
Genau das meinte ich aber. Stromverbraucher bei GDDR ist nicht der Speicher selber, sondern dessen Interface.
Ferenzo
2017-08-30, 15:18:37
Mal ein großes Lob an PCGamer für die Turbo-Tabelle. Das ist doch mal eine Übersicht, mit der man was anfangen kann :smile:
Edit: Es ist schon ernüchternd, dass die werten Hersteller gerade mit steigenden Kernzahlen solche Angaben nicht preisgeben (wollen)....
Genau das meinte ich aber. Stromverbraucher bei GDDR ist nicht der Speicher selber, sondern dessen Interface.
Die Angaben beziehen sich allerdings auf das komplette Speichersubsystem, also Speicher selbst + Interface.
Edit: Es ist schon ernüchternd, dass die werten Hersteller gerade mit steigenden Kernzahlen solche Angaben nicht preisgeben (wollen)....
Die Aussagekraft ist auch sehr begrenzt, da die maximal möglichen Taktraten nichts über die real anliegenden aussagen.
Vor allem mit vielen Kernen wo die reale Taktrate durch Temperatur oder Powerlimit begrenzt ist, sagt die maximal mögliche Taktrate relativ wenig aus.
Die war höchstens noch bei den "alten" Prozessoren mit massiv überdimensionierter TDP interessant, wo praktisch immer die maximale Taktrate anliegt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.