PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: DDR2-Speicher auf Mainstream-Grafikkarten


Leonidas
2010-06-27, 22:10:01
Link zum Artikel:
http://www.3dcenter.org/artikel/ddr2-speicher-auf-mainstream-grafikkarten

aths
2010-06-28, 17:35:37
Endlich ein Artikel zu diesem Thema. Mich wurmt es geradezu, wie die Presse die guten DDR3-Versionen bekommt und den Kunden im Mediamarkt und Co. die DDR2-Version untergejubelt wird.

Gast
2010-06-29, 08:41:49
Endlich ein Artikel zu diesem Thema. Mich wurmt es geradezu, wie die Presse die guten DDR3-Versionen bekommt und den Kunden im Mediamarkt und Co. die DDR2-Version untergejubelt wird.

Das ist richtig. Allerdings muss man dazu sagen, dass der Kenner ob dieses Artikelinhalts natürlich nur ein müdes Lächeln übrig hat. Die Ergebnisse sind alles andere als unerwartet. Man kann sich das ja händisch ausrechnen...
Dem Fazit kann ich so übrigens auch nicht ganz zustimmen. Denn nicht nur der DDR2, sondern auch der DDR3 haben auf modernen Grafikkarten ab 75 € gar nichts mehr zu suchen...
Es ist hier in jedem Fall ein halbwegs ordentlicher GDDR3 zu bevorzugen. Alles andere ist sprichwörtlich hinausgeworfenes Geld.
Außerdem wird hier sehr deutlich, das bei den Grafikkarten die "OC ab Werk" versprechen eigentlich nur eines zählt; hochwertigster GDDR3/5 mit 1. hohem Takt, 2. hohem Takt, 3. hohem Takt! Heutzutage ist das entscheidenste Kriterium für die Leistungsfähigkeit einer Karte in aller Regel die Speicherbandbreite. Das gilt insbesondere bei den Karten, die zwar eine hohe Rohleistung haben, aber nur über ein 256-Bit SI angebunden sind.


Den unwissenden MM-Kunden wird das 3DC damit übrigens auch nicht umerziehen. Der Artikel müsste in den Printausgaben von Blättern wie "ComputerBlöd Spiele" oder "PC Games" veröffentlicht werden, um tatsächlich was bei Otto N. Verbraucher zu bewirken.

Kleine Anregung an Leo;
Stoß' doch die Printkollegen mal an, über dieses Thema zu berichten
(natürlich nicht ohne Verweis auf die kühnen Forscher von 3DC). :-)

Denniss
2010-07-04, 19:52:56
Was für Quellen habt Ihr eigentlich dafür das GDDR2 mit einem 4fach-prefetch arbeitet ?
War sowas bei DDR1-basiertem Speicher überhaupt möglich ?

Auch vermisse ich den Hinweis das viele Hersteller auf Packungen und Webseiten gerne mal von GDDR2 sprechen obwohl DDR2 verbaut ist. Dies trägt nur zur Verwirrung bei bzw soll wohl besseren "DDR2" suggerieren.

Spasstiger
2010-07-04, 20:38:46
GDDR2-Speicher ist eigentlich keine eigene Speicherart, sondern einfach DDR2-Speicher mit einer für Grafikkarten passenden Datenbreite (x16 oder x32).
Und was man früher mal als GDDR2-Speicher bezeichnet hat - z.B. auf den GeForce-FX-5900-Topmodellen - war ganz normaler GDDR(1)-Speicher. Beispiel:
- http://ixbtlabs.com/articles2/gffx/gffx-37.html
- http://www.hynix.com/datasheet/eng/graphics/details/graphics_04_HY5DU283222AF.jsp?menu1=01&menu2=07&menu3=03&menuNo=1&m=7&s=3
Hynix hat nie Speicher mit der Bezeichnung "GDDR2" verkauft, auch wenn das in manchen Reviews suggeriert wurde. Entweder war hochgezüchteter GDDR-Speicher verbaut (zu GeForce-FX-Zeiten) oder DDR2-Speicher.

/EDIT: Das ist der gDDR2-Speicher von Samsung, der auf der GeForce-FX-5800-Serie eingesetzt wurde: http://www.samsung.com/global/system/business/semiconductor/product/2008/5/28/873604ds_k4n26323ae_rev17.pdf.
Echter DDR2-Speicher mit 4-Bit-Prefetch. Samsung setzt ein kleines g vor die eigentliche Speicherbezeichnung, wenn es sich um normalen Consumer-Speicher handelt, der für durch seine Datenbreite als Grafikspeicher ausgelegt ist. GDDR2-Speicher mit großem G hat auch Samsung nie offeriert (auch wenn die Bezeichnung so im Datenblatt gewählt wurde, auf der Homepage wird er unter gDDR2 geführt).

Ich würde evtl. in der Tabelle die Zeile GDDR2 streichen und bei DDR2 erwähnen, dass Samsung diesen gDDR2 nennt.

Denniss
2010-07-04, 23:25:42
http://www.hynix.com/datasheet/eng/graphics/details/graphics_04_HY5DW113222FM.jsp?menu1=01&menu2=07&menu3=03&menuNo=1&m=7&s=3

Passender GDDR2 von Hynix, hier allerdings unter GDDR einsortiert. Ist zu erkennen an der Speicherspannung von 2,5V und der I/O-Spannung von 1,8V. Bei Hynix wird von 2fach-prefetch gesprochen, bei den Samsung steht dann 4fach in der Grafik - seltsam.

Ich bin gerade auf der suche nach Datasheets von Infineon.

Spasstiger
2010-07-05, 00:04:40
http://www.hynix.com/datasheet/eng/graphics/details/graphics_04_HY5DW113222FM.jsp?menu1=01&menu2=07&menu3=03&menuNo=1&m=7&s=3

Passender GDDR2 von Hynix, hier allerdings unter GDDR einsortiert. Ist zu erkennen an der Speicherspannung von 2,5V und der I/O-Spannung von 1,8V.
Das ist entsprechend der Einordnung auf der Homepage, dem Produktcode, der Speicherspannung und dem 2n-Prefetch GDDR1-Speicher. Wie kommst du drauf, dass das GDDR2-Speicher sein könnte? Es ist halt auf bessere Energieeffizienz optimierter GDDR1-Speicher, deshalb nur 1,8 Volt Vddq.
DDR2 definiert sich in erster Linie über den 4n-Prefetch, nicht über die Vddq-Spannung.
Samsung bietet z.B. DDR2-Speicher mit Untergrenze 1,7 Volt Vdd und Vddq an, was von den 1,8 Volt der JEDEC-Spezifikation abweicht.

Schrotti
2010-07-05, 03:26:28
Fehler.

Erste Seite, dritter Absatz von unten, letzter Satz.

Wenn man solche Karten auflegt, wo der DDR2-Speicher ja gerade aus Kostengründen verbaut wird, dann sollte man dem Grafikkartenkäufer auch einen klaren Preisvorteil geben.

Denniss
2010-07-05, 10:30:37
Das ist entsprechend der Einordnung auf der Homepage, dem Produktcode, der Speicherspannung und dem 2n-Prefetch GDDR1-Speicher. Wie kommst du drauf, dass das GDDR2-Speicher sein könnte? Es ist halt auf bessere Energieeffizienz optimierter GDDR1-Speicher, deshalb nur 1,8 Volt Vddq.
DDR2 definiert sich in erster Linie über den 4n-Prefetch, nicht über die Vddq-Spannung.
Samsung bietet z.B. DDR2-Speicher mit Untergrenze 1,7 Volt Vdd und Vddq an, was von den 1,8 Volt der JEDEC-Spezifikation abweicht.Ich habe niemals behauptet das GDDR2 eine DDR2-derivat ist/war, das war euer Artikel. Mir ist bisher nichts bekannt das diese Annahme irgendwie bestätigt. Auch der verlinkte Samsung-Speicher ist GDDR2 mit 2,5V Betriebsspannung und 1,8V für I/O und daher kaum auf DDR2-Basis.

Spasstiger
2010-07-05, 10:50:22
DDR-Speicher, der in 4 Bänken organisiert ist und mit einem 4n-Prefetch arbeitet, ist DDR2-Speicher. Die Speicherzellen an sich sind ja eh immer mehr oder weniger gleich und lassen bedingt durch Fertigungsfortschritte und die stagnierende Zugriffszeit immer niedrigere Spannungen zu. Irgendwann ist der Vorteil so groß, dass man halt mehr Zellen gleichzeitig bei gleichbleibender Leistungsaufnahme ansteuert, um die Performance zu steigern, und somit einen neuen DDR-Typ begründet.

P.S.: Der gDDR2-Speicher von Samsung war ja damals (2003) wegen seinem hohen Stromverbrauch verschrien. Das lag eben daran, dass man fertigungstechnisch noch nicht so weit war, Speicherzellen für 1,8 Volt zu bauen. Deshalb 2,5 Volt und im Verbund mit dem 4n-Prefetch führte das zu einem deutlich gesteigerten Verbrauch gegenüber GDDR1. Die 2,5 Volt hatten nichts damit zu tun, dass es verkappter GDDR1-Speicher war. Du kannst DDR2-Speicher alleine anhand des logischen Blockdiagramms identifizieren, ohne die physikalischen Parameter zu kennen. DDR2 steht nicht für einen bestimmte Art von DRAM-Zellen, sondern für eine bestimmte Art der Ansteuerung von DRAM-Zellen.

Denniss
2010-07-05, 12:52:50
Wenn der GDDR2 auf DDR2 basiert, warum musste ATI bei der Radeon 9800 Pro 256MiB den Speichertakt um 10 MHz erhöhen um die gleiche Leistung wie die 9800 Pro mit 128 MiB DDR zu bekommen ?
Müsste eine DDR2-basierte Speicherlösung bei gleichem Speichertakt und gleicher Anbindung nicht deutlich schneller sein ?

Spasstiger
2010-07-05, 13:36:25
Nein, DDR2 ist bei gleichem Bustakt langsamer als DDR1, weil die Latenzen bei DDR2 größer sind. Die Speicherzellen selbst arbeiten in diesem Fall gegenüber DDR1 nur mit dem halben Takt.

Leonidas
2010-07-05, 15:33:57
Schrotti: Schreibfehler gefixt, Danke.


An alle: Ihr habt Recht mit dem GDDR2-Speicher, da hab ich falsch geschaltet. Ich hab das korrigiert und dabei auch gleichmal DDR1 mit in die Liste aufgenommen.

Gast
2010-07-05, 16:34:12
Wenn der GDDR2 auf DDR2 basiert
Was er aber mitnichten tut.
GDDR2 war eine unbedeutende Weiterentwicklung des "GDDR(1)", welcher wiederum auf DDR-SDRAM basiert, damit ist die korrekte Entsprechung:
GDDR2 <-> DDR.
Die weiteren Paarungen sind;
GDDR3 <-> DDR2
GDDR4 <-> DDR3
GDDR5 <-> hat keine Entsprechung mehr zu "normalen RAM" und ist technisch noch weiter vom GDDR4 entfernt als seinerzeit der GDDR2 vom (G)DDR(1).

Ich hab's nicht erfunden. Es ist eben einfach so.

Spasstiger
2010-07-05, 21:41:02
Der Samsung-"G"DDR2-Speicher, den ich oben verlinkt habe, hat einen 4n-Prefetch, setzt also das DDR2-Prinzip um.

Leonidas
2010-07-06, 04:31:53
Wo wurde der verbaut? Derzeit läßt sich nämlich GDDR2 aud DDR1-Basis und dein Samung-Speicher auf DDR2-Basis kaum voneinander trennen.

Spasstiger
2010-07-06, 13:04:14
Wo wurde der verbaut?
Geforce FX 5800/Ultra, GeForce FX 5700 Ultra.
Hast du Belege für GDDR2 auf DDR1-Basis? Alles was ich finde, ist der schon genannte und oben verlinkte Speicher. Außer Samsung hat auch kein Hersteller Speicher mit der Bezeichnung GDDR2 verkauft. Heute nennt Samsung den DDR2-Speicher für Grafikkarten gDDR2.

P.S.: Ein paar Reviews haben der GeForce FX 5900/Ultra damals GDDR2-Speicher angedichtet. Da war aber zweifelsfrei GDDR1-Speicher verbaut, der bei den Speicherherstellern unter der Bezeichnung GDDR lief.

Leonidas
2010-07-06, 18:41:55
Vermutlich lasse ich mich da von Wikipedia täuschen, wo viel GDDR2 notiert wird, aber das vermutlich auch nicht auf sicheren Infos basiert.

Ich nehm den GDDR2 mal aus der Tabelle generell raus.

Spasstiger
2010-07-06, 21:50:00
Das Produkt, was 2003 offiziell unter dem Namen GDDR2 von Samsung verkauft wurde, war Speicher mit einem DDR2-Interface und entsprechend einem 4n-Prefetch. Das gibts eigentlich keine Unklarheiten. Die einzige Gemeinsamkeit mit DDR1-Speicher war die Versorgungsspannung von 2,5 Volt, die aber prozessbedingt war. Man hat halt damaligen DDR1-Speicher als Basis genommen und das speicherinterne Interface auf DDR2 erweitert.
Letztlich brachte das kaum Vorteile, weil der Stromverbrauch durch die hohe Versorgungsspannung und den 4n-Prefetch höher ausfiel als bei damaligem DDR1-Speicher und der GDDR2-Speicher aufgrund der höheren Latenzen sogar langsamer war als gleichgetakteter DDR1-Speicher. Zudem hat man ja bekanntermaßen keinen wesentlichen Bandbreitenvorteil erreicht.
Mit der Senkung der Versorgungsspannung auf 1,7-1,9 Volt und Fortschritten bei der Prozesstechnik entstand aus dem damaligen GDDR2-Speicher der DDR2-Speicher, der heute auf Budget-Karten eingesetzt wird.

Redirion
2010-07-26, 23:21:41
In diesem Artikel wird im Wesentlichen folgendes in Bezug auf GDDR3 und DDR3 behauptet, bevor die beiden Varianten dann als quasi gleichgesetzt im Artikel verwendet werden:
DDR3....
...sei gegenüber GDDR3 kostengünstiger
...erreicht nicht die maximalen Taktraten von GDDR3 (maximum 900Mhz)
...ist bei gleicher Taktrate gleichschnell wie GDDR3

Die letzten beiden Punkte sind meiner Kenntnis nach leider nicht ganz korrekt

Es wird korrekt angegeben, dass GDDR3 4fach-Prefetch und DDR3 hingegen 8fach-Prefetch einsetzt. D.h. wir haben hier den technologischen Unterschied DDR2 vs. DDR3.

Warum wird dann nicht erklärt, weswegen im Artikel beide als gleichschnell bei gleichem Takt angenommen werden?

Um möglicher Verwirrung vorzubeugen, hätte vll die Datenbreite noch angegeben werden müssen. DDR3 wird nämlich nur mit 16bit angebunden, GDDR dagegen mit 32bit. Damit wird der Vorteil des 8fach-Prefetch wieder aufgehoben.
Darüberhinaus leidet DDR3 jedoch technisch bedingt auch an höheren Zugriffszeiten. Wir haben damit die gleiche Problematik wie beim Sprung von DDR1 zu DDR2.

Bei Nvidias aktuellen "Performance"-Karten im Notebookbereich (325M, 330M, 335M und 240M) werden sehr schön die unterschiedlichen Speicherausbauten und zugehörige Taktraten angegeben.
"Up to 600 (DDR2), Up to 1066 (DDR3), Up to 800 (GDDR3) (http://www.nvidia.com/object/product_geforce_gt_335m_us.html)"
DDR3 wird also hier sogar höher getaktet als GDDR3 und ist mit 1066mhz auch deutlich über den hier genannten 900mhz. Wenn man von dem Ausreisser in Form der GTX 285 absieht, sind DDR3 und GDDR3 vom Maximaltakt her damit gleich auf.

Dennoch soll die Performance einer GDDR3 Grafikkarte mit 800mhz "minimal" über der DDR3-Variante mit 1066mhz liegen. Das behauptet die bekannte Webseite Notebookcheck (http://www.notebookcheck.com/NVIDIA-GeForce-GT-335M.24055.0.html). Leider fehlen dazu irgendwelche Belege. Dementsprechend müssten DDR3-Karten aber spürbar langsamer sein, als GDDR3-Karten.

Interessante Kandidaten für einen praktischen Vergleich wären die ASUS 4670 (http://geizhals.at/deutschland/a364017.html) und die Sapphire 4670 (http://geizhals.at/deutschland/a457838.html). Übrigens auch lustig, allein das Vorhandensein der ASUS-Karte bestätigt, dass 900mhz eben nicht die Obergrenze bei DDR3 sind.

Hat vielleicht jemand einen direkten Vergleich im Internet gefunden? Ich war bisher leider nicht so erfolgreich.. aber meiner Meinung nach dürfen DDR3 und GDDR3 nicht praktisch gleichgesetzt werden (wie in diesem Artikel)

Leonidas
2010-07-27, 07:51:14
Sry, aber hier irrst Du Dich. Man kann alle genannten Speicher anhand ihrer nominellen Taktfrequenz gleichsetzen, weil in diese Taktfrequenz bereits der höhere Prefetch einiger Speicher mit einfließt.

Eine unterschiedliche Anbindung existiert dagegen nicht. Zwar gab es früher 16bit und 32bit ausgeführten Speicher, heute gibt es fast nur noch 64bit ausgeführten Speicher. Aber dies bedeutet nicht, daß die so angebunden werden. Relevant ist immer das, was das Speicherinterface tut.

Zur Vereinfachung reicht nach wie vor die Rechnung:

Speicherinterface x 2 (wegen DDR) x nomineller Speichertakt

aus, daraus ergibt sich die Speicherbandbreite. Sicherlich ist es so, daß zwischen GDDR3 (aka DDR2) und DDR3 selbst auf gleichem Takt und Speicherbandbreite immer noch ein gewisser Unterschied herrscht, aber diese Unterschiede liegen im Rahmen von 5 bis maximal 10 Prozent und sind für eien grobe Betrachtung daher nicht relevant.

Redirion
2010-07-27, 12:25:14
Zwar gab es früher 16bit und 32bit ausgeführten Speicher, heute gibt es fast nur noch 64bit ausgeführten Speicher. Aber dies bedeutet nicht, daß die so angebunden werden. Relevant ist immer das, was das Speicherinterface tut.

das stimmt so nicht! Es geht hier nicht um das Speicherinterface einer Grafikkarte mit seinen 64bit-Speichercontrollern (ja hier hats die von dir erwähnten 64bit). Mir geht es darum wie die einzelnen Module angeschlossen sind. Ein wichtiger Unterschied, der eben den Performanzunterschied zwischen 4fach-Prefetch GDDR3 und 8fach-Prefetch DDR3 erklärt. Wie soll man sonst auch auf den "nominellen" Speichertakt kommen? Der müsste bei DDR3 gegenüber GDDR3 ja doppelt so hoch liegen, wenn man die einzelne Modulbreite eben unberücksichtigt lässt.

Wie das Speicherinterface, die Modulbreite und Modulgröße die Modulanzahl beeinflussen, sieht man unter anderem wunderbar bei der 768mb GTX460 und der 1024mb GTX460
Hier sitzen auf der 768mb Karte drei 64bit Speichercontroller (192bit) bei der 1024mb Karte derer vier für 256bit. Nun sitzen auf der 768mb 6 Module (a 32bit mit 1024mbit Größe), während auf der 1024mb Karte 8 verbaut sind (a 32bit mit 1024mbit Größe).

Der Vollständigkeit halber das übliche Beispiel:
512mb GDDR3 Karte mit 128bit vs 1024mb DDR3 128bit Karte oder warum auch Notebookcheck folgendes schreibt
Eine Besonderheit der Mobility HD 4000 Serie ist die Möglichkeit neben GDDR (Grafics-DDR) auch normalen DDR Hauptspeicher zu verwenden. Dieser ist mit einem 16 Bit Bus zwar langsamer als der GDDR Speicher mit der 32 Bit Verbindung, jedoch im Einkauf auch deutlich billiger. So kann man z.B. 1024 MB DDR3 zum Preis von 512 MB GDDR3 auf der Karte verbauen (mit Marketing-Vorteil). MSI hat auf der CES bereits das Bravo EX625 mit 4670 und "normalen" DDR3 als Grafikspeicher angekündigt.

das heißt also:
512mb GDDR3 = 4x 1024mbit Module a 32bit = 128bit
1024mb DDR3 = 8x 1024mbit Module a 16bit = 128bit

billige Module mit halber Speicherbreite = doppelt so hoher Speicherausbau bei gleichem Speicherinterface ... das ist der Marketingeffekt und gleichzeitig wirkts sich negativ auf die Performance aus.
Um mit einer GDDR3 Karte 1024mb zu erreichen, sind also sehr teure 2048mbit Module erforderlich oder ein anderes Speicherinterface (siehe meine Rechnung zur 1024mb GTX 460).

Leonidas
2010-07-28, 08:14:03
Du irrst Dich.

512mb GDDR3 = 4x 1024mbit Module a 32bit = 128bit
1024mb DDR3 = 8x 1024mbit Module a 16bit = 128bit

Ergibt in beiden Fällen dieselbe Speicherbandbreite. Es ist für diesen Zweck völlig egal, ob man die 128 Bit mit 16Bit-, 32Bit- oder auch 1Bit-Modulen auffüllt. So lange am Ende die 128 Bit voll werden, ist es ein 128 Bit Interface und wird auch die entsprechende Speicherbandbreite erreicht.




Eine Besonderheit der Mobility HD 4000 Serie ist die Möglichkeit neben GDDR (Grafics-DDR) auch normalen DDR Hauptspeicher zu verwenden. Dieser ist mit einem 16 Bit Bus zwar langsamer als der GDDR Speicher mit der 32 Bit Verbindung, jedoch im Einkauf auch deutlich billiger. So kann man z.B. 1024 MB DDR3 zum Preis von 512 MB GDDR3 auf der Karte verbauen (mit Marketing-Vorteil). MSI hat auf der CES bereits das Bravo EX625 mit 4670 und "normalen" DDR3 als Grafikspeicher angekündigt.


Wo steht das? Das ist übler Schwachsinn. Der Unterschied bei DDR/GDDR besteht *nicht* in der Bitbreite des Speicherchips. Du kannst DDR mit 8bit, 16bit, 32bit, 64bit und 128bit bauen - und genauso auch GDDR. Dies ist eine Frage des Entwicklungsstandes der Speicherindustrie * und keine Frage der Bandbreite. Deswegen geben die Speicherhersteller die Bandbreite ihrer Chips immer pro Pin an - weil ansonsten würde ein 64bit-Speicherchip die doppelte Bandbreite haben wie ein gleichartiger 32bit-Speicherchip. In der Praxis ist die Bandbreite aber gleich, es kommt *nicht* auf den Speicherchip an, sondern auf das Interface, woran er angeschlossen wird.


* Früher wurden Speicherchips eben 8bit oder 16bit gebaut. Heute werden sie 32bit oder 64bit gebaut - nicht weil das eine höhere Bandbreite ergibt, sondern weil sich damit größere Speichermengen realisieren lassen. Man kann heute auch problemlos 8bit-Speicher auf eine Grafikkarte bauen (theoretisch jedenfalls), nur wird man dann eben 128 kleine Speicherchips verbauen müssen, weil es die 8Bit-Dinger nur mit kleinen Speichermengen gibt. Das ganze hat wie gesagt nix mit dem Interface und der Bandbreite zu tun.

Redirion
2010-07-28, 09:01:47
ja dann zeig mir mal 64bit Speicherchips.. dann würde eine 128bit Karte nur aus 2 einzelnen Rammodulen bestehen und für 1024mb dann jeweils eine Kapazität von 4096mbit benötigen..

Und natürlich spielt die Modulbreite eine Rolle! Wie gesagt, erkläre mir doch bitte, wie du auf den gleichen nominellen Takt für GDDR3 und DDR3 kommst. Das war auch extra in Fettschrift meine Frage.

Wenn es sich nicht mit der Modulbreite erklären lässt, womit dann? Warum sollte dann 8fach-Prefetch Ram genauso schnell sein wie der Vorgänger mit 4fach-Prefetch sein?

GDDR5 hat ja tatsächlich einen doppelt so hohen nominellen Takt.. und zufällig 32bit Module..

DDR3 stellt sich viel mehr als "verkapptes" GDDR4 dar.. hier gab es schon mehrere Berichte darüber, dass GDDR4 Grafikkarten langsamer sein sollen als GDDR3 Grafikkarten mit gleichem Takt. Siehe z.B. hier bei Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/april/hd_3870_gddr3_gddr4/)

GDDR4 wurde nämlich auch trotz seines DDR3-8fach-Prefetch auch nur mit 16bit-Modulen angebunden. D.h. 8 Module für 512mb(sieht man sehr schön auf der 3870)....


würde der Bericht also behaupten DDR3 = GDDR4 wäre alles "richtig" somit hat sich GDDR4 unter anderem Namen nämlich doch noch durchgesetzt. Dank der Massenproduktion von DDR3 konnte er ja dann auch günstiger produziert werden. Allerdings wie gesagt zu Lasten der Performance. Das sollte meiner Meinung nach in diesem Artikel nicht fehlen. Weswegen ich immernoch gegen die Gleichstellung von GDDR3 und DDR3(GDDR4) bin..


edit:
falls du deine Tabelle noch um die Breite der Chips erweitern möchtest.. dann hier die Liste für dich:
DDR 16bit
DDR2 16bit
GDDR3 32bit
DDR3 16bit
GDDR4 16bit
GDDR5 32bit

und schon wieder edit, um ein eventuelles Missverständnis aus dem Weg zu räumen:
Du irrst Dich.

512mb GDDR3 = 4x 1024mbit Module a 32bit = 128bit
1024mb DDR3 = 8x 1024mbit Module a 16bit = 128bit

Ergibt in beiden Fällen dieselbe Speicherbandbreite.
Ich habe nie bezweifelt, dass die Speicherbandbreite gleich ist. Allerdings sollte sie das nicht sein, da DDR3 wie gesagt 8fach-Prefetch RAM ist und somit die doppelte Bandbreite erreichen sollte. Meine Vermutung ist daher, dass die 16bit Module diesen Vorteil wieder negieren. Wie gesagt wurde auch von 3Dcenter nie klargestellt, woher der gleiche nominelle Takt und dementsprechend die ominöse gleiche Performance von 8fach-Prefetch und 4fach-Prefetch RAM herkommt.

Leonidas
2010-07-28, 14:45:35
Dein Fehler: Die Prefetches haben nichts mit der Bandbreite zu tun und auch nichts mit dem Interface. Der Prefetch ist ein (grässlicher) Kunstbegriff, welcher nur anzeigt, wo der Unterschied zwischen Realtakt des Interfaces und dem Takt der reinen Speicherzellen (nicht des gesamten Speicherchips!) ist.

2fach Prefetch: einfach nur DDR-Übertragungsprotokoll
4fach Prefetch: DDR-Übertragungsprotokoll + Speicherzellen takten 1/2 Interface-Takt
8fach Prefetch: DDR-Übertragungsprotokoll + Speicherzellen takten 1/4 Interface-Takt

Da der Prefetch aber einfach eine Speicher-interne Sache ist, spielt der für die Berechnung der Bandbreite keine Rolle.

Daher: Nimm den Prefetch aus allen Deinen Rechnungen raus. Und wenn Du den rausnimmst, dann passt Deine Einrechnung der Bit-Breite der Speicherchips nicht mehr. Der gehört nämlich auch raus. Und dann bist Du am Ende bei meiner vorherigen Rechnung.


PS: Das mit den 64bit- und 128bit-Speicherchips war nur ein theoretisches Beispiel. Mir ist klar, daß die meisten der heutigen Speicher als 16bit und 32bit hergestellt werden.

Spasstiger
2010-07-28, 16:53:20
Der Prefetch ist ein (grässlicher) Kunstbegriff, welcher nur anzeigt, wo der Unterschied zwischen Realtakt des Interfaces und dem Takt der reinen Speicherzellen (nicht des gesamten Speicherchips!) ist.
Prefetching ist das Funktionsprinzip und kein grässlicher Kunstbegriff: http://de.wikipedia.org/wiki/Dynamic_Random_Access_Memory#Prefetch. Aber die Diskussion hatten wir schonmal und ich weiß, dass deiner Meinung nach technische Datenblätter nur Marketinginstrumente sind und auf gar keinem Fall dem Ingenieur bei der Realisierung helfen. :freak:

Redirion
2010-07-28, 17:19:39
Ja also wenn ich das Prinzip von Prefetching richtig verstanden habe, können doch mit 8fach-Prefetching(DDR3) pro Takt doppelt soviele Daten übertragen werden wie mit 4fach-Prefetching(DDR2) ....Hier wird das auch noch einmal erklärt und die jeweilige theoretische Bandbreitenverdopplung bei PC-Ram gezeigt (http://ht4u.net/reviews/2007/ddr3/index3.php). damit bleibe ich weiterhin beim gleichen Problem hängen..

Wir haben nämlich ominöserweise bei DDR2(GDDR3) und bei DDR3(und GDDR4) die gleichen Bandbreiten, während anderer DDR3(nämlich GDDR5) erstaunlicherweise bei identischem Speicherinterface die doppelte Bandbreite erreicht.

Meine Frage bleibt immernoch: Warum?! Wieso wird bei diesem DDR3(GDDR5) der Nominaltakt verdoppelt und bei den anderen nicht? bzw. die Frage zuvor lautete ja, wieso DDR3 nicht schneller ist als DDR2.. ;-)

Da fällt mir dann als einziger Unterschied eben die Modulbreite auf und alles scheint zu passen.
Der DDR2-Ram (GDDR3) 32bit-Anbindung -> gleiche Bandbreite wie DDR3-Ram, der zum einen zwar doppelt soviele Daten übertragen können sollte, jedoch nur mit 16bit Angebunden ist
Der DDR3-Ram, der dann mit 32bit angebunden ist(GDDR5), kann dann tatsächlich sein Potenzial nutzen und hat mal eben die doppelte Bandbreite...

Gast
2010-07-28, 19:20:33
Bei Nvidias aktuellen "Performance"-Karten im Notebookbereich (325M, 330M, 335M und 240M) werden sehr schön die unterschiedlichen Speicherausbauten und zugehörige Taktraten angegeben.
"Up to 600 (DDR2), Up to 1066 (DDR3), Up to 800 (GDDR3) (http://www.nvidia.com/object/product_geforce_gt_335m_us.html)"
DDR3 wird also hier sogar höher getaktet als GDDR3 und ist mit 1066mhz auch deutlich über den hier genannten 900mhz.
Nvidia ist einfach nur zu dämlich die Frequenzen richtig anzugeben. Mal wird der effektive und mal der reale Takt angegeben.


@Leonidas
Im Artikel sind einige Taktraten nicht ganz korrekt. GDDR3 und 4 wurden mit bis zu 1,4 GHz gefertigt.
DDR3 wird mit bis zu 1 GHz angeboten.

Gast
2010-07-28, 19:25:14
Achso, hab noch was vergessen.
Hynix bietet GDDR5 mit bis zu 3 GHz und DDR2 mit bis zu 600 MHz an.

Leonidas
2010-07-29, 07:28:35
Im Artikel steht auch, daß ich nur diese Frequenzen beachtet habe, die auch auf Grafikkarten verbaut waren. Die Speicherhersteller können immer viel anbieten, aber wenn es unbezahl teuer ist, hat das keine Marktrelevanz. Alle Angaben bezogen sich ausschließlich auf real kaufbare Taktfrequenzen.

Leonidas
2010-07-29, 07:37:12
Meine Frage bleibt immernoch: Warum?! Wieso wird bei diesem DDR3(GDDR5) der Nominaltakt verdoppelt und bei den anderen nicht? bzw. die Frage zuvor lautete ja, wieso DDR3 nicht schneller ist als DDR2.. ;-)


Machen wir mal ein Beispiel: DDR2-Speicher mit 400 MHz und GDDR5-Speicher mit 1600 MHz.


DDR2 mit 400 MHz
Takt der Speicherzellen des Speicherchips: 200 MHz (DDR2-Prinzip: Speicherzellen takten die Hälfte der I/O-Einheiten)
Takt der I/O-Einheiten des Speicherchips: 400 MHz
Daten-Takt zwischen Speicherchip und Speicherinterface: 400 MHz DDR (deswegen wir dieser Speicher als PC-Hauptspeicher auch "DDR2/800" genannt)
effektiver Takt: 800 MHz (weil 400 MHz x2 wegen DDR eben 800 ergeben)

GDDR5 mit 1600 MHz
Takt der Speicherzellen des Speicherchips: 400 MHz (DDR3-Prinzip: Speicherzellen takten ein Viertel der I/O-Einheiten)
Takt der I/O-Einheiten des Speicherchips: 1600 MHz
Command-Takt zwischen Speicherchip und Speicherinterface: 800 MHz (dieser Takt wird gern bei GDDR5 als "Taktrate" angegeben, obwohl es überaus sinnlos ist, einen Command-Takt dafür zu verwenden, weil auf diesem nur Steuerbefehle und keine Daten übertragen werden - die Command-Takt könnte 1 MHz oder 1000 THz sein, an der Bandbreite des Speichers ändert das nichts, wer der durch den Daten-Takt bestimmt wird)
Daten-Takt zwischen Speicherchip und Speicherinterface: 1600 MHz DDR
effektiver Takt: 3200 MHz

Redirion
2010-07-29, 08:35:11
Sorry Leonidas.. aber meine Frage, ist nach wie vor unbeantwortet..

mir ist das Verhältnis von IO-Takt zu realem Speicherzellentakt bei den verschiedenen DDR-Technologien bekannt.
Deine Rechnung sieht auch richtig aus, auch wenn es wohl sinnvoll gewesen wäre, für einen direkten Vergleich jeweils Speicher mit identischem Realtakt zu wählen.


Allerdings ist damit immer noch nicht meine Frage beantwortet:
Wieso geht die Rechnung dann bei DDR3 und GDDR4 nicht auf, obwohl sie ebenfalls DDR3 sind, ebenso wie GDDR5? Ich werd hier langsam kirre :)

Wieso haben DDR3 und nochmal DDR3(GDDR4) bei gleichem Realtakt die gleiche Bandbreite wie DDR2(GDDR3) - während nur bei einem anderen DDR3(GDDR5) die Rechnung aufgeht?

Man siehts ja auch bei allen Testseiten mit den Bandbreitenangaben:
1000Mhz DDR2(GDDR3) mit 128bit = 32000MB/s
1000Mhz DDR3 mit 128bit = 32000MB/s
1000Mhz DDR3(GDDR4) mit 128bit = 32000MB/s
1000Mhz DDR3(GDDR5) mit 128bit = 64000MB/s

edit: nun beschleicht mich gerade ein furchtbarer Verdacht...
liegt der Realtakt von DDR3 und GDDR4 etwa nur halb so hoch wie bei DDR2(GDDR3)? Dann würde die theoretische gleiche Bandbreite ja nur über den "Prefetch-Vorteil" geholt werden. Jedoch müssen dann ja immer ausreichend Daten im Puffer stehen, damit das Prefetching überhaupt vollständig genutzt werden kann. Das würde auch den Performanceunterschied erklären..

Leonidas
2010-07-29, 10:27:47
Man siehts ja auch bei allen Testseiten mit den Bandbreitenangaben:
1000Mhz DDR2(GDDR3) mit 128bit = 32000MB/s
1000Mhz DDR3 mit 128bit = 32000MB/s
1000Mhz DDR3(GDDR4) mit 128bit = 32000MB/s
1000Mhz DDR3(GDDR5) mit 128bit = 64000MB/s


Das ist einfach: 1000 MHz DDR3 ergeben immer 32 GB/sec. Immer. Aber 1000 MHz GDDR5 ergeben 64 GB/sec ... wenn man bei der Taktrate den Befehlstakt angibt. Ich bin dagegen, das man den benutzt, weil der nichts mit der Datenübertragung selber zu tun und keinen Bezug zur Bandbreite hat, aber viele Hersteller tun das so.

Deswegen benutze ich immer den Daten-Takt zur Angabe der Taktrate und deswegen gebe ich GDDR5 halt immer mit 2000 MHz anstatt 1000 MHz an. Und dann stimmen alle Rechnungen und es ist auch einfach auf den ersten Blick ersichtlich, was schneller ist.



PS: So etwas wie einen "Realtakt" gibt es nicht. Es gib im modernen Speicherchip verschiedene Taktraten und diese haben alle ihre eigenen Namen, aber es gibt keine allgemeingültige Definition, was der "Realtakt" sein soll.

Redirion
2010-07-29, 10:43:17
Das ist einfach: 1000 MHz DDR3 ergeben immer 32 GB/sec. Immer. Aber 1000 MHz GDDR5 ergeben 64 GB/sec [...]

Das ist doch ein Widerspruch in sich!

GDDR5 IST DDR3!!! das schreibst du doch selbst in deinem Artikel!!

und DDR2 (GDDR3) hat seltsamerweise trotz der Tatsache, dass er DDR2 ist und theoretisch bei gleichem Takt nur die halbe Bandbreite hat, exakt die gleiche Bandbreite. Als einziger DDR3 hat GDDR5 hier tatsächlich mal die doppelte Bandbreite!
:freak:;D:freak:

Selbst wenn es so ist und GDDR5 halt so unglaublich hohe Taktraten im Vergleich zu DDR3 und GDDR4 hat.. warum zum Geier hat DDR2 Ram dann die gleiche Bandbreite?


Ich wiederhol mich hier zum x-ten mal.. ist meine Frage so undeutlich? :confused:

Leonidas
2010-07-30, 07:52:38
Kein Widerspruch, weil ... nicht zu Ende gelesen!

1000 MHz DDR3, 128 DDR Bit Interface = 32 GB/sec
1000 MHz GDDR5, 128 Bit DDR Interface = 64 GB/sec
wenn man bei GDDR5 den Befehlstakt angibt, was gern viele Speicherhersteller machen

wenn man mit dem Datentakt rechnet, wie ich es tue, dann lautet es:
1000 MHz DDR3, 128 DDR Bit Interface = 32 GB/sec
1000 MHz GDDR5, 128 Bit DDR Interface = 32 GB/sec


Zweiter Fehler Deinerseits:
theoretisch bei gleichem Takt nur die halbe Bandbreite hat

Falsch. Alle DDR-basierten Speicher mit demselben Datentakt haben am selben Interface immer dieselbe Bandbreite. Die Sache mit den Prefetches ist eine rein interne Sache, ab dem I/O-Interface der Speicherzelle spielt das keine Rolle mehr.

Spasstiger
2010-07-30, 12:50:53
Ich bin dagegen, das man den benutzt, weil der nichts mit der Datenübertragung selber zu tun und keinen Bezug zur Bandbreite hat, aber viele Hersteller tun das so.
Wer sagt denn, dass der Speichertakt einen direkten Bezug zur Bandbreite haben muss? Vielleicht interessiert manch einen Entwickler auch eher die Latenz. Und dafür ist der Befehlstakt ausschlaggebend.

Redirion
2010-07-30, 13:01:08
Nein. Ich glaube wir reden nur aneinander vorbei. Vielen Dank dennoch für deine Geduld.

Aber mir ist es jetzt denke ich klar.. vor allem wegen deines Datentaktes.. denn damit hat sich meine Vermutung bestätigt.
Damit DDR3 den gleichen Datentakt hat wie DDR2, muss der Realtakt der Speicherhips nämlich nur halb so hoch liegen.

wir haben dann nämlich folgende Konstellation:
Datentakt:
1000mhz DDR2(z.B. DDR2, GDDR3) mit 128bit = 32000Mb/s
1000mhz DDR3(z.B. DDR3, GDDR4) mit 128bit = 32000Mb/s

Realtakt der Speicherzellen:
500mhz DDR2(z.B. DDR2, GDDR3) mit 128bit = 32000Mb/s
250mhz DDR3(z.B. DDR3, GDDR4, GDDR5) mit 128bit = 32000Mb/s

Alle Fragen sind damit beantwort:
- warum DDR3 die gleiche Bandbreite wie DDR2 hat: eben weil der Realtakt halbiert wurde
- warum DDR3 preiswerter als der hochgetaktete GDDR3 ist
- und auch warum DDR3 bei gleichem Takt langsamer ist: da sich DDR3 eben auf die interne Bandbreitenerhöhung durch 8fach-Prefetch verlassen muss, was nicht immer 100%ig effizient ist

edit:
achso wegen der Modulbreite: vll geben 32bit Module dann Hinweis auf höher getaktete Module, die Modulbreite hat aber dann anscheinend nichts direkt mit der Bandbreite zu tun

Spasstiger
2010-07-30, 13:28:59
Bei DDR2 und DDR3 werden die Speicherzellen üblicherweise mit 133-266 MHz angesteuert (sowohl Desktop- als auch Grafikspeicher), nur GDDR3 bringt es auf 500 MHz und mehr.
Bei GDDR5 arbeiten die Speicherzellen mit derselben Geschwindigkeit wie bei GDDR3.

Redirion
2010-07-30, 13:32:52
jo danke für die Ergänzung Spasstiger.

die 266mhz ergeben dann ja auch wunderbar die Angabe von Nvidia (1060mhz) und entsprechen damit wohl dem natürlichen Maximum von DDR3

:-)

edit: noch eine Nachfrage:
ist es denn Zufall, dass GDDR3 und GDDR5 (eben die mit den sehr hohen Taktraten) 32bit Module haben und die langsameren Vertreter nur 16bit? Ist es vielleicht nötig entsprechende Modulbreiten zu verwenden, um bei dem hohen Takt auch die Daten übertragen zu können?

Spasstiger
2010-07-30, 13:43:59
Auf Grafikkarten sind die Speicherinterfaces wesentlich breiter und da man keine Unmengen von Speicherchips verbauen möchte, um z.B. auf ein 512-Bit-SI zu kommen, sind die Grafikspeicherchips etwas breiter. 32 Bit breite GDDR5-Chips sind zudem flexibel und können als x32 oder x16 konfiguriert werden (Clamshell Mode).

Leonidas
2010-07-31, 06:54:27
Nein. Ich glaube wir reden nur aneinander vorbei. Vielen Dank dennoch für deine Geduld.

Aber mir ist es jetzt denke ich klar.. vor allem wegen deines Datentaktes.. denn damit hat sich meine Vermutung bestätigt.
Damit DDR3 den gleichen Datentakt hat wie DDR2, muss der Realtakt der Speicherhips nämlich nur halb so hoch liegen.

wir haben dann nämlich folgende Konstellation:
Datentakt:
1000mhz DDR2(z.B. DDR2, GDDR3) mit 128bit = 32000Mb/s
1000mhz DDR3(z.B. DDR3, GDDR4) mit 128bit = 32000Mb/s

Realtakt der Speicherzellen:
500mhz DDR2(z.B. DDR2, GDDR3) mit 128bit = 32000Mb/s
250mhz DDR3(z.B. DDR3, GDDR4, GDDR5) mit 128bit = 32000Mb/s

Alle Fragen sind damit beantwort:
- warum DDR3 die gleiche Bandbreite wie DDR2 hat: eben weil der Realtakt halbiert wurde
- warum DDR3 preiswerter als der hochgetaktete GDDR3 ist
- und auch warum DDR3 bei gleichem Takt langsamer ist: da sich DDR3 eben auf die interne Bandbreitenerhöhung durch 8fach-Prefetch verlassen muss, was nicht immer 100%ig effizient ist

edit:
achso wegen der Modulbreite: vll geben 32bit Module dann Hinweis auf höher getaktete Module, die Modulbreite hat aber dann anscheinend nichts direkt mit der Bandbreite zu tun


Alles richtig.

Nur als Hinweis: Es ist nur der Takt der reinen Speicherzellen. Die I/O-Einheit des Speichers taktet dann mit dem Bustakt oder Datentakt. Sprich: Man kann nicht beim Takt der Speicherzellen davon reden, dies wäre der Takt des Speichers. Im Speicherchip sind halt zwei Taktraten (ab DDR2) enthalten.







edit: noch eine Nachfrage:
ist es denn Zufall, dass GDDR3 und GDDR5 (eben die mit den sehr hohen Taktraten) 32bit Module haben und die langsameren Vertreter nur 16bit? Ist es vielleicht nötig entsprechende Modulbreiten zu verwenden, um bei dem hohen Takt auch die Daten übertragen zu können?


Es geht hierbei nicht um die Bandbreite, sondern einfach darum, daß der Platz auf Grafikkarten begrenzt ist und die Speicherchips alle unter das Interface passen müssen. Beispiel: Man nehme eine Grafikkarte mit 512 Bit SI und dann nehme man alte 8-Bit-Speicherchips. Da müsste man dann 64Stück draufpappen auf die Grafikkarte, um das Interface zu füllen. Deswegen sind die Interfaces der Speicherchips gerade im Grafikkartenbereich gestiegen - weil die Interfaces der Grafikchips gestiegen sind und man trotzdem immer nur 16 Speicherchips auf eine Grafikkarte unterbringen kann.

aths
2010-07-31, 14:40:25
Es geht hierbei nicht um die Bandbreite, sondern einfach darum, daß der Platz auf Grafikkarten begrenzt ist und die Speicherchips alle unter das Interface passen müssen. Beispiel: Man nehme eine Grafikkarte mit 512 Bit SI und dann nehme man alte 8-Bit-Speicherchips. Da müsste man dann 64Stück draufpappen auf die Grafikkarte, um das Interface zu füllen. Deswegen sind die Interfaces der Speicherchips gerade im Grafikkartenbereich gestiegen - weil die Interfaces der Grafikchips gestiegen sind und man trotzdem immer nur 16 Speicherchips auf eine Grafikkarte unterbringen kann.Genau, und bei kleineren Karten (GTX 460) sind es sogar nur maximal 8 Speicherchips. Ich muss mir noch angucken wie genau Gainward die 2-GiB-Version der 460-er realisiert hat, die müssen den GDDR5 irgendwie anders ansprechen.

Spasstiger
2010-07-31, 18:24:28
Genau, und bei kleineren Karten (GTX 460) sind es sogar nur maximal 8 Speicherchips. Ich muss mir noch angucken wie genau Gainward die 2-GiB-Version der 460-er realisiert hat, die müssen den GDDR5 irgendwie anders ansprechen.
Clamshell-Mode. Sechszehn 32-Bit-Chips zu je 1024 MBit. Dabei teilen sich jeweils zwei Speicherchips 32 (logische) Datenleitungen (physikalisch handelt es sich um Leitungspaare wg. der differentiellen Signalübertragung)*) und die zugehörigen Adress- und Steuerleitungen.

*) GDDR5 nutzt doch keine differentiellen Datensignale, nur die Taktsignale sind differentiell ausgeführt. Hatte das was falsch in Erinnerung.