PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : FYI: Samsung stoppt GDDR2 und baut jetzt GDDR3


Demirug
2004-02-03, 00:21:07
Samsung hat die GDDR2 Produktion komplett eingestellt und liefert erste GDDR3 Chips (Sample) aus.

Die neuen Chips haben eine Kernsapnnung von 1,9 Volt und verbrauchen maximal zwischen etwa 1,5 (500MHz) und ca 2W (800MHz) pro Chip.

Die CAS Latenz liegt zwischen 7(500MHz) und 9 (800MHz).

So und jetzt noch ein bischen was zum vergüngen :cop: FUAD :cop: (http://www.theinquirer.net/?article=13948)

StefanV
2004-02-03, 00:24:59
Hast du mal ein paar vergleichswerte zu dem 2(,2)ns RAM, der auf der FX5800 (ULTRA) und FX5700 ULTRA verbaut wird??

Endorphine
2004-02-03, 00:48:54
Demi,

hast du Dokumente zur Technik von GDDR-3? Mich würde mal interessieren, wo nun wirklich der Unterschied im Vergleich zu (G)DDR2 liegt.

Ailuros
2004-02-03, 04:57:44
GDDR 2 was sampled in Q3 2003 by Samsung and rated at 600 to 800MHz -- effectively 1200MHz to 1600MHz. Insiders have told us that Nvidia received 10,000 memory chips back in Q4 last year to prepare prototypes of its NV40 boards. We also learned that NV40 has 16 memory chips on board. Nvidia is aiming at a frequency of 750MHz -- or 1500MHz effectively -- but this depends on PCB quality and the number of layers. The first NV40 silicon-powered prototypes are currently meandering through the offices of special, beloved Nvidia partners, we are given to understand.

Stimmt mehr oder weniger schon. Es waren aber <10.000 chips 750MHz DDR2 chips, denn die Anzahl reichte gerade noch fuer ~500 boards.

Was jetzt am Ende benutzt wird, haengt auch u.a. vom finalen vorgesehenen Preis ab, da es sich um 256-512MB ram handeln wird.

Demirug
2004-02-03, 07:51:57
Original geschrieben von Stefan Payne
Hast du mal ein paar vergleichswerte zu dem 2(,2)ns RAM, der auf der FX5800 (ULTRA) und FX5700 ULTRA verbaut wird??

Das war doch "K4N26323AE-GC20" und "K4N26323AE-GC22"?

Falls ja: 2,5V mit 3,5W bzw 3,25W. CL ist 7 bzw 6.

Demirug
2004-02-03, 08:13:41
Original geschrieben von Endorphine
Demi,

hast du Dokumente zur Technik von GDDR-3? Mich würde mal interessieren, wo nun wirklich der Unterschied im Vergleich zu (G)DDR2 liegt.

Eine Erklärung der Unterschiede habe ich nicht. Ich habe aber ein wenig in den Datenblätter gesucht.

Aufgefallen ist mir folgendes:

Der Strobe wurde verändert. Bei GDDRII wurden die 4 Leitungen noch für den Read/Write Strobe geteilt. Bei GDDRIII sind es jetzt 8 Leitungen. Read/Write getrennt.

Es gibt jetzt eine Resetleitung und einen Low-Power Modus.

Demirug
2004-02-03, 13:21:06
Endorphine, ich habe was für dich aufgetrieben es steht nur dummerweise überall "Confidential" drauf. Ich werde aber trotzdem mal ein bischen was rausschreiben:

-Das mit dem Strobe habe ich ja schon erwähnt. Inzwischen habe ich aber auch den Vorteil herausgefunden. Durch die Verwendung von getrennten Leitungen kann der Übergang von Read zum Writemodus um einen Takt verkürzt werden.

-Das Empfänger Interface wurde geändert. Das neue (Pseudo Open Drain) bruacht gegenüber dem alten (Push Pull) weniger Leistung. Dafür ist wohl die Signalqualität schlechter. Kompatibel zum GDDRI und II ist das ganze auch nicht mehr.

-Die Power-Up Sequenz ist kürzer weil der Chip nicht mehr erst mit weniger als 100 MHz angefahren werden muss bevor man in auf volle Geschwindigkeit hochschalten kann.

-Die Kontrolwörter für die Konfiguration sind etwas anders

-Das Ballout hat sich etwas geändert.

haifisch1896
2004-02-03, 21:28:11
Wobei das mit dem Chip doch eher nebensächlich ist, oder nicht? Denn ich denke mal, dass dieses PowerUp ja beim Booten geschieht. Und dafür braucht man ja keine 100+ MHz...
Berichtigt mich bitte, wenn ich mich irre.

Endorphine
2004-02-03, 21:38:27
Original geschrieben von Demirug
Endorphine, ich habe was für dich aufgetrieben es steht nur dummerweise überall "Confidential" drauf. Ich werde aber trotzdem mal ein bischen was rausschreiben:

-Das mit dem Strobe habe ich ja schon erwähnt. Inzwischen habe ich aber auch den Vorteil herausgefunden. Durch die Verwendung von getrennten Leitungen kann der Übergang von Read zum Writemodus um einen Takt verkürzt werden.

-Das Empfänger Interface wurde geändert. Das neue (Pseudo Open Drain) bruacht gegenüber dem alten (Push Pull) weniger Leistung. Dafür ist wohl die Signalqualität schlechter. Kompatibel zum GDDRI und II ist das ganze auch nicht mehr.

-Die Power-Up Sequenz ist kürzer weil der Chip nicht mehr erst mit weniger als 100 MHz angefahren werden muss bevor man in auf volle Geschwindigkeit hochschalten kann.

-Die Kontrolwörter für die Konfiguration sind etwas anders

-Das Ballout hat sich etwas geändert. Danke. Nur Kleinkram also, keine Änderungen in der Architektur von DDR2-SDRAM?

Ich frage mich, was die Motivation zu GDDR3 ist, wenn sich die Vorteile auf etwas geringere Leistungsaufnahme, minimal mehr Geschwindigkeit (read -> write) und auf eine vereinfachte Anfahrsequenz beschränken. Zudem wird die geringere Leistungsaufnahme gegen eine schlechtere Signalqualität eingetauscht (erzielbare I/O-Taktfrequenz?).

Wenn sich die Unterschiede zu (G)DDR2-SDRAM darauf beschränken verstehe ich die Motivation hinter GDDR3 ehrlich gesagt nicht.

Demirug
2004-02-03, 21:43:01
Original geschrieben von hendrikhey
Wobei das mit dem Chip doch eher nebensächlich ist, oder nicht? Denn ich denke mal, dass dieses PowerUp ja beim Booten geschieht. Und dafür braucht man ja keine 100+ MHz...
Berichtigt mich bitte, wenn ich mich irre.

Der Wechsel von einer Taktrate zu einer anderen geht schneller. Möglicherweise wollen einzelne IHV auch Speicherchip mal abschalten wenn sie nicht gebraucht werden.

Demirug
2004-02-03, 21:49:33
Original geschrieben von Endorphine
Danke. Nur Kleinkram also, keine Änderungen in der Architektur von DDR2-SDRAM?

Nein Intern bleibt alles beim alten.

Ich frage mich, was die Motivation zu GDDR3 ist, wenn sich die Vorteile auf etwas geringere Leistungsaufnahme, minimal mehr Geschwindigkeit (read -> write) und auf eine vereinfachte Anfahrsequenz beschränken. Zudem wird die geringere Leistungsaufnahme gegen eine schlechtere Signalqualität eingetauscht (erzielbare I/O-Taktfrequenz?).

Die getrennten Strobes scheinen es auch einfacher zu machen höhere Taktraten zu erreichen.

Das mit dem Signal geht wohl schon in Ordnung. Man muss ja bedenken das GDDR bisher das gleiche physikalische Interface wie "normaler" DDR Speicher benutzt hat. Die Anforderungen an die Signalqualität sind ja bei den Verbindungen auf einer Grafikkarte nicht ganz so hoch. Die Messdiagramme sahen auch nicht so schlecht im vergleich zum alten aus.

Wenn sich die Unterschiede zu (G)DDR2-SDRAM darauf beschränken verstehe ich die Motivation hinter GDDR3 ehrlich gesagt nicht.

Ich vermute mal das man die Fortschritte (Spannung, Leistungsaufnahme) einfach unter einem neuen Namen vermarkten will. GDDR II hat ja einen schlechten Ruf als Heitzwerk.

Leonidas
2004-02-07, 02:30:20
Original geschrieben von Endorphine
Ich frage mich, was die Motivation zu GDDR3 ist, wenn sich die Vorteile auf etwas geringere Leistungsaufnahme, minimal mehr Geschwindigkeit (read -> write) und auf eine vereinfachte Anfahrsequenz beschränken. Zudem wird die geringere Leistungsaufnahme gegen eine schlechtere Signalqualität eingetauscht (erzielbare I/O-Taktfrequenz?).

Wenn sich die Unterschiede zu (G)DDR2-SDRAM darauf beschränken verstehe ich die Motivation hinter GDDR3 ehrlich gesagt nicht.



So weit ich das weiss (bezieht sich allerdings eher auf DDR3 für PC-Hauptspeicher) ist DDR3 eigentlich nur ein Speed-Update für DDR2. Man senkt im Prinzip nur die Kernspannung und erreicht so höhere Taktraten. Aus Gründen der besseren Vermarktbarkeit nun DDR3 genannt :-).

Bei GDDR3 kann das allerdings aussehen. Dort dürfte auch der Übergang GDDR2 zu GDDR3 eher fließender sein, da man sich bei Grafikkartenspeicher nicht an eine bestimmte Vorgabe bei der Speicherspannung halten muß.

Riptor
2004-02-07, 14:02:37
Original geschrieben von Demirug
Möglicherweise wollen einzelne IHV auch Speicherchip mal abschalten wenn sie nicht gebraucht werden.

Sozusagen ein Sparmodus, wie nVidia das auch derzeit mit dem runtertakten er GPU bei 2D-Anwendungen macht?