PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GDDR5X: Nicht mit höheren Taktraten, sondern mit QDR-Datenübertragung


Leonidas
2016-02-11, 16:55:53
Link zur News:
http://www.3dcenter.org/news/gddr5x-nicht-mit-hoeheren-taktraten-sondern-mit-qdr-datenuebertragung

Gast
2016-02-11, 17:05:15
Meiner Meinung nach habt ihr die gesamte Entwicklung schon vor knapp 1,5 Jahren falsch interpretiert und hier Leuten sogar den Mund verboten, dass es so eine Fortentwicklung aus technischer Sicht nicht gäbe. Hoffe das ist auch für euch eine weitere Erfahrung die ihr mal positiv zu nutzen wisst.

Vor allem, den gebannten Account von demjenigen endlich mal löscht.

Leonidas
2016-02-11, 17:16:34
Nanana, ich hab hier niemanden den Mund verboten. Und auch niemanden gebannt. Und aus so einem Grund würde das auch niemals passieren.

PS: Was soll dieser absurde Vorwurf?! Ich weiss ehrlich nicht, was hiermit gemeint sein soll! Reden wir wirklich über dieselbe Sache?

PS2: GDDR5X war vor 1,5J noch lange nicht im Gespräch. Was sollen wir "seit 1,5J" falsch interpretiert haben?

Complicated
2016-02-11, 18:05:17
Ich denke, dass die Flexibilität der Speichermenge bei HBM falsch dargestellt ist.
HBM gibt es auch in Stacks mit 1 GB die nicht 4-Hi sind und somit 4 GB beinhalten. Auch HBM 1 ist nicht zwangsläufig mit 4 GB zu bestücken, wenn 4 Stacks mit je 1 GB verwendet wurden bei Fiji. Also ist durchaus auch eine GPU mit 1, 2, 3 oder sonstigen Speichermengen denkbar. GDDR5 ist da nicht flexibler. Wo soll da HBM weniger flexibel sein?

Elkinator
2016-02-11, 18:08:58
Warum schreibt ihr bei HBM2 üblich: 1, 2 oder 4?

Es gibt noch keine Karten mit HBM2, wie kann man also behaupten etwas wäre üblich?

Grabhopser
2016-02-11, 19:09:26
Sollte es dann nicht eigentlich GQDR5x heißen? Oder besser einfach GQDR.

Ravenhearth
2016-02-12, 01:01:53
jener Strombedarf hängt bei GDDR5 & GDDRX bekannterweise maßgeblich vom Speichertakt ab, wobei das Speicherinterface im Grafikchip selber hierbei der Hauptverbraucher ist.

Das scheint nicht ganz zu stimmen. Die neuere Revision der PS4 hat bspw. die Hälfte an Chips und verbraucht nun rund 20W weniger. Damit kämen 16 GDDR5-Chips bei 5,5 Gbps auf rund 40W.

Von anandtech:

The company [Micron] says that GDDR5X’s power consumption is 2-2.5W per DRAM component [...]

Wie gesagt: Nur für die Speicherbausteine!

Leonidas
2016-02-12, 03:03:27
Das scheint nicht ganz zu stimmen. Die neuere Revision der PS4 hat bspw. die Hälfte an Chips und verbraucht nun rund 20W weniger. Damit kämen 16 GDDR5-Chips bei 5,5 Gbps auf rund 40W.



Alle bisherigen Infos deuten darauf hin, daß das Speichersubsystem bei einem großen Grafikchip um die 50-80 Watt weniger verbraucht, wenn man von GDDR5 auf HBM wechselt - bei gleicher Speichermenge. Auch alle Detailinfos gehen klar davon aus, daß das Speicherinterface selber hier der Hauptverbraucher ist.

Bei der PS4 könnten ja auch noch andere Komponenten für diese 20W Ersparnis aufkommen. Sind diese 20 Watt allein nur den Speicherchips zugewiesen und ist dies ein exakter Wert (und keine Rundung)?




Ich denke, dass die Flexibilität der Speichermenge bei HBM falsch dargestellt ist.
HBM gibt es auch in Stacks mit 1 GB die nicht 4-Hi sind und somit 4 GB beinhalten. Auch HBM 1 ist nicht zwangsläufig mit 4 GB zu bestücken, wenn 4 Stacks mit je 1 GB verwendet wurden bei Fiji. Also ist durchaus auch eine GPU mit 1, 2, 3 oder sonstigen Speichermengen denkbar. GDDR5 ist da nicht flexibler. Wo soll da HBM weniger flexibel sein?


Deswegen "üblich". HBM1 ist auch anders baubar, hat aber niemand getan - und so lange keine Massenfertigung vorliegt, wird es auch niemand anderer tun. Weshalb also etwas an Flexibilität vorgaukeln, welches nur in der Spezifikation steht, jedoch nie auf den Markt kommt? Bei HBM2 das gleiche - maximal wurde das notiert, was üblich ist. Und GDDR5/X ist in der Tat deutlich flexibler: Flexible Speichermenge pro Interface, sehr viel mehr Interface-Breiten auswählbar.

Complicated
2016-02-12, 07:18:30
Ich glaube nicht das dies ein valides Argument ist. Nur weil bisher noch nicht alle Varianten genutzt wurden, die möglich sind ist es nicht mehr oder weniger flexibel. Eine neue Technologie als unflexibel zu benennen weil keine Produkte bisher erschienen sind.

GDDR5 scheint mir eher unflexibel zu sein wenn ich die GTX 970 als Beispiel heranziehe, da sie nicht alle Speicher gleich schnell anbinden kann als 4 GB benötigt wurden.

Gast
2016-02-12, 07:22:55
Ich bin mal gespannt ob der Stromverbrauch wirklich nicht deutlich steigt.
Niemand scheint daran zu denken, dass zwar der Takt nicht verdoppelt wird, aber die Daten-Signalleitungen mit doppelter Frequenz takten ;-)
Siehe dazu auch:
https://en.wikipedia.org/wiki/Quad_data_rate

anddill
2016-02-12, 08:39:53
Was auch das Interface im Grafikchip betrifft.

Complicated
2016-02-12, 08:51:39
In der dargebotenen Tabelle wurde hierzu bewußt versucht, nicht die theoretischen Möglichkeiten laut Spezifikation aufzuzählen, sondern nur das, was rein praktisch auch in den Markt kommt. Ansonsten wäre dies ein unfairer Vergleich gegenüber GDDR5, wo alles das, was die Tabelle aufzählt, auch rein praktisch schon längst vorhanden und benutzt wird.
Ich kann beim besten Willen den Grund für dieses Argument nicht nachvollziehen. Eine neue Technik ist automatisch unflexibler weil der Vergleich zur alten Technik nur auf schon vorhandenen Produkten basiert. Somit verändert sich die Flexibilität der Technik ganz von alleine, ohne dass jemand technisch etwas ändern muss, alleine mit der Martkdurchdringung und Zeit. Speichertechnik ist doch kein Wein.

Ich kann nicht erkennen was dies in einer Tabelle zum Vergleich der technischen Spezifikationen zu suchen hat.

ndrs
2016-02-12, 10:28:27
Ich kann nicht erkennen was dies in einer Tabelle zum Vergleich der technischen Spezifikationen zu suchen hat.
Dito. Zumal mit dem Argument die Einträge in den Spalten GDDR5X und HBM2 leer sein sollten, da es ja noch keine Produkte gibt. Dass es GDDR5X mit 32GB geben wird ist reine Spekulation und dürfte nach Leos Argumentation nicht in der Tabelle stehen.
Wenigstens sollte die Zeilenbezeichnung geändert werden. 4GB HBM ist nicht die einzige Menge die "realisierbar" ist. Ich sage ja auch nicht, dass ein Hotel mit 147 Zimmern nicht realisierbar ist, nur weil bisher alle andere Zimmerzahlen benutzt haben.

Edit: Und was die Leistungsaufnahme betrifft. Die Frequenzen auf den Leitungen steigen zwar nicht, allerdings kann ich mir durchaus vorstellen, dass die Flankensteilheit dennoch höher sein muss, da die Zeit um den aktuellen Zustand auszuwerten sich dennoch halbieren müsste (Stichwort Augendiagramm). Das würde dann trotz gleichbleibender Signalfrequenz leistungsfähigere Treiber erfordern.

Leonidas
2016-02-12, 11:14:33
GDDR5 scheint mir eher unflexibel zu sein wenn ich die GTX 970 als Beispiel heranziehe, da sie nicht alle Speicher gleich schnell anbinden kann als 4 GB benötigt wurden.


Das ist aber eine bewußte Kastration von NV. Das hat mit dem vorliegenden Fall nichts zu tun, weil es hier nicht um Können geht, sondern um Nicht-Wollen.


Und zur Tabelle: Auch bei GDDR5 steht nur das drin, was üblich und angeboten wird. Ein 1024 Bit Interface ist auch mit GDDR5 möglich! Auch ein 2048 Bit Interface! Also: Mögliche Speicherbandbreite bei GDDR5 verdoppeln oder vervierfachen???

Complicated
2016-02-12, 11:16:53
Eigentlich müsste sogar drin stehen GDDR5X ist noch unflexibler, da es gar kein Produkt damit gibt. Sollte man dieser Logik folgen. Wer weiss ob überhaupt jemand diesen Speicher nutzen wird.

Complicated
2016-02-12, 12:03:08
Das ist aber eine bewußte Kastration von NV. Das hat mit dem vorliegenden Fall nichts zu tun, weil es hier nicht um Können geht, sondern um Nicht-Wollen
Gilt das selbe nicht auch für 4 GB HBM auf der Fiji? Da hat sich AMD bewusst gegen 1 GB und 2 GB entschieden.

Ravenhearth
2016-02-12, 12:34:47
Alle bisherigen Infos deuten darauf hin, daß das Speichersubsystem bei einem großen Grafikchip um die 50-80 Watt weniger verbraucht, wenn man von GDDR5 auf HBM wechselt - bei gleicher Speichermenge. Auch alle Detailinfos gehen klar davon aus, daß das Speicherinterface selber hier der Hauptverbraucher ist.

Bei der PS4 könnten ja auch noch andere Komponenten für diese 20W Ersparnis aufkommen. Sind diese 20 Watt allein nur den Speicherchips zugewiesen und ist dies ein exakter Wert (und keine Rundung)?

Der Wert ist nicht aufs Watt genau, aber fast. Je nach Messung ist es mal ein Watt mehr oder weniger. Zumal Micron doch selbst sagt, dass die GDDR5X-Chips jeweils 2-2,5W verbrauchen, was bei 8 Chips bis zu 20W und bei 16 Chips etwa 40W wären. Das deckt sich mit den Messungen der PS4, auch wenn hier nur GDDR5 zum Einsatz kommt. Aber da soll sich ja nicht viel beim Stromverbrauch geändert haben.

AnarchX
2016-02-12, 19:26:15
Gilt das selbe nicht auch für 4 GB HBM auf der Fiji? Da hat sich AMD bewusst gegen 1 GB und 2 GB entschieden.
Wer hätte 2GiB HBM1 liefern sollen?

GDDR5X ist durchaus flexibler: 32/64-Bit Skalierbarkeit mit 0,75/1,0/1,5/2,0GiB Modulen. Und das alles noch nachdem der fertige Chip das Werk verlassen hat.
HBM2 ist die Zukunft aber wohl erst 2017/2018.

Complicated
2016-02-13, 07:59:30
Bei einem internen HBM-Stapel aus vier einzelnen 2-Gigabit-Dice fasst ein HBM-Chip 1 GByte

Du meinst AMD hätte Fury nicht mit 2GB liefern können wenn sie es gewollt hätten und für sinnvoll erachtet hätten? 2 statt 4 Stacks auf dem Interposer wäre inwiefern nicht möglich?

Feinere Granularität im Ausbau von Speicher halte ich nicht automatisch für eine größere Flexibilität. Denn wer verbaut Speicher in 0,75 GB Schritten? Die verbaute Granularität ist seit Jahren in 1 GB Schritten und das GDDR5-Speicherinterface sorgt sogar für solche Speichersubsysteme wie bei der GTX970 - da wollte auch niemand mit 3,5 GB in den Markt gehen im Marketing.

AnarchX
2016-02-13, 11:28:53
Du meinst AMD hätte Fury nicht mit 2GB liefern können wenn sie es gewollt hätten und für sinnvoll erachtet hätten? 2 statt 4 Stacks auf dem Interposer wäre inwiefern nicht möglich?
Ich ging von der Stackgröße aus. Ein <4GiB Fiji wäre in der Tat fragwürdig.
Da wird wohl AMD genügend Redundanz eingebaut haben, um möglichst wenig Chips mit kaputten HBM-Controllern zu haben. Oder es kommt dann 2016 noch ein Fiji LE mit 3GiB. ;D


Feinere Granularität im Ausbau von Speicher halte ich nicht automatisch für eine größere Flexibilität. Denn wer verbaut Speicher in 0,75 GB Schritten? Die verbaute Granularität ist seit Jahren in 1 GB Schritten und das GDDR5-Speicherinterface sorgt sogar für solche Speichersubsysteme wie bei der GTX970 - da wollte auch niemand mit 3,5 GB in den Markt gehen im Marketing.
Die 0,75/1,5GiB Module sind bei GDDR5X doch gerade die Neuerung.
Damit kann man den 16nm GPUs eine sinnvolle Steigerung verpassen, ohne gleich den Speicher zu verdoppeln. Und 3GiB/6GiB sind doch durchaus etablierte Speichergrößen.

Complicated
2016-02-13, 12:08:56
Und das sind 1 GB Schritte. Warum kann ein Interposer nicht mit 3 oder 6 Stacks a 1GiB oder 3x2GiB bei HBM2 bestückt werden?
Die Granularität in den fertigen Endprodukte ist bei 1 GB. Bei HBM muss man zudem auch das Speicherinterface nicht ändern am Chip, ob man 1 GB oder 4 GB verbaut. Mit mehr Stacks gibt es auch mehr SI, da diese in den Logic Dies verbaut sind und nicht auf der GPU. Das ist erst bei der Bestückung der SKUs zu entscheiden - hier ist IMHO deutlich mehr Flexibilität vorhanden.

Troyan
2016-02-13, 13:03:43
GDDR5 scheint mir eher unflexibel zu sein wenn ich die GTX 970 als Beispiel heranziehe, da sie nicht alle Speicher gleich schnell anbinden kann als 4 GB benötigt wurden.

Was natürlich am GDDR5 Speicher und nicht an der Architektur der GPU liegt. :facepalm:

Complicated
2016-02-13, 13:24:20
Das benötigte Interface für GDDR5 Speicher ist direkt in dessen JEDEC mit spezifiziert. Und da konnte Nvidia für die gewählte SI Größe keine 4 GB gleich schnell anbinden. Wenn man über Flexibilität von Speicher spricht ist das mit Sicherheit ein wichtiger Punkt die Abhängigkeiten, welches eben diese einschränken mit zu berücksichtigen. Das hat mit der Architektur gar nichts zu tun.

Troyan
2016-02-13, 13:46:45
Du schreibst gerade wirres Zeug.

Die Limitierung geschieht innerhalb Architektur. Der Speicher ist weiterhin mit "vollen" 256bit angebunden. Die interne Verdrahtung wird gekappt. Das hat nichts mit dem Speicher und seinem Interface zu tun.

AnarchX
2016-02-13, 14:03:36
Bei der GTX 970 war ganz klar das Ziel ein "256-Bit" Interface. Mit der 32-Bit Granularität hätte man auch ein 224-Bit Interface mit einem Controller mit Clamshell (2x16-Bit 2 Chips) umsetzen können.

Und das sind 1 GB Schritte. Warum kann ein Interposer nicht mit 3 oder 6 Stacks a 1GiB oder 3x2GiB bei HBM2 bestückt werden?
Die Granularität in den fertigen Endprodukte ist bei 1 GB. Bei HBM muss man zudem auch das Speicherinterface nicht ändern am Chip, ob man 1 GB oder 4 GB verbaut. Mit mehr Stacks gibt es auch mehr SI, da diese in den Logic Dies verbaut sind und nicht auf der GPU. Das ist erst bei der Bestückung der SKUs zu entscheiden - hier ist IMHO deutlich mehr Flexibilität vorhanden.
Wieviel HBM verbaut wird, muss schon während der Fertigung bestimmt werden. Bei den üblichen GDDR5(X)-Performance GPUs kann sich der Hersteller die Chips auf das Lager legen und dann nach Bedarf des Marktes mit Speicher bestücken. Bei HBM hat man das Risiko auf bestimmten Konfigurationen sitzen zu bleiben. Und spätestens wenn es um kleinere GPUs geht, die vielleicht nur 1-2 Stacks anbinden können, ist die Skalierbarkeit deutlich eingeschränkt gegenüber GDDR5(X).

Complicated
2016-02-13, 15:40:18
Ich bin da anderer Ansicht. Bisher habe ich keine Quelle gesehen die sagt, dass die Menge des HBM-Speichers mit der Fertigung des GPU/CPU Chips festgelegt wird. Die Anbindung des Chips an den Speicher erfolgt mittels PHY ebenso wie USB oder LAN. Die Speichercontroller sitzen in den HBM-Stacks im Logic-Die. Daher ist auch das SI skalierbar mit der Menge des verbauten HBM (Mit der Anzahl der Stacks, ebenso wie mit der Anzahl der Lagen) und wird nicht limitiert durch Entscheidungen beim Design des Chips.

Zudem ihr beide an mir vorbei argumentiert. Wäre die GTX970 mit HBM Speicher ausgestattet worden wären alle Speicher gleich schnell angebunden gewesen trotz dem Cut bei der Crossbar:
http://www.pcgameshardware.de/screenshots/662x/2015/01/SMM_Diagramm-pcgh.jpg

Die dort eingezeichneten MCs sitzen bei HBM in den DRAM-Kästchen (wenn es HBM-Stacks wären) also Off-Chip. Und es gibt nur noch einen "Central Controller" der dies verwaltet. Siehe Grafik das rechte Bild, die beiden Linken zeigen wie das mit GDDR aussehen würde:
http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=32739&stc=1

Complicated
2016-02-14, 08:57:30
Ich habe nach etwas Recherche einen Dieshot gefunden der dies zeigt:
Vergleich Fiji-Tonga

http://cdn.wccftech.com/wp-content/uploads/2015/11/AMD-Fiji-Tonga-Die-shots-2.jpg