PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Einblick in GDDR5


AnarchX
2008-05-28, 14:41:30
GDDR5 Memory--Under the Hood (http://www.extremetech.com/article2/0,2845,2309870,00.asp)

Sehr interessant, dass die Ansprüche an das PCB nicht gestiegen sind bzw. sogar zurückgegangen, da dürfte GDDR5 auch bald in niedrigeren Preissegmenten zu sehen sein.

Gast
2008-05-28, 18:29:27
Sehr interessant, dass die Ansprüche an das PCB nicht gestiegen sind bzw. sogar zurückgegangen,


logisch, war ja bis jetzt bei jedem echten generationswechsel der speicher der fall.


da dürfte GDDR5 auch bald in niedrigeren Preissegmenten zu sehen sein.

ich denke da wird noch eine ganze weile der preis der speicher einen strich durch die rechnung machen.

selbst die neuen ATI-karten mit GDDR5 sollen ja erstmals nur mit 512MiB kommen, und diese sollen ja nicht unbedingt in den niedrigen preissegmenten starten.

Spasstiger
2008-05-28, 19:04:53
Laut dem Artikel soll GDDR5-Speicher nur 10-20% teurer sein als schneller GDDR3-Speicher und das bei verdoppelter Bandbreite.
Auf die Gesamtkosten einer High-End-Grafikkarte hat die Speicherwahl also offenbar keinen großen Einfluss. Wahrscheinlich kommt AMD noch mit 512 MiB Grafikspeicher gut zurecht und kann durch die geringere Speichermenge auch einen niedrigen Stromverbrauch im idle garantieren. 10 Watt mehr nur wegen 1 GiB VRAM statt 512 MiB fallen bei 20-30 Watt idle-Verbrauch halt schon ins Gewicht.
Und die Performancekrone scheinen sie auch nicht direkt anzupeilen.

/EDIT: Die Radeon HD4850 und HD4870 kommen ohnehin mit 512 MiB und 1 GiB VRAM: http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/mai/vier_versionen_rv770_catalyst_86/.

Gast
2008-05-30, 02:51:33
Ich glaub zwar, das sich kein Schwein damit befasst hat (wie üblich), aber ich frag trotzdem mal.

GDDR5 wird ja gerne als stromsparender angepriesen. Aber leider vergessen die Marketing-blubb-Typen nur zu oft, nebenbei noch zu erwähnen, ob der Stromspareffekt bei den höheren Taktraten überhaupt noch da ist?

robbitop@work
2008-05-30, 08:37:42
Wenn ich die Datasheets richtig gelesen habe, ist Q3 08 der schnellste Baustein mit 1566 MHz spezifiziert. Ich hätte ein wenig mehr erwartet.

GeneralHanno
2008-05-30, 08:48:59
DDR2-1066 wurde auch erst 2 jahre nach den ersten kaufbaren samples spezifiziert ;)

Spasstiger
2008-05-30, 09:15:18
GDDR5 wird ja gerne als stromsparender angepriesen. Aber leider vergessen die Marketing-blubb-Typen nur zu oft, nebenbei noch zu erwähnen, ob der Stromspareffekt bei den höheren Taktraten überhaupt noch da ist?
Bei solchen Aussagen wird natürlich immer von der gleichen Speicherbandbreite ausgegangen.
Im verlinkten Artikel steht nur, dass sich die Leistungsaufnahme nicht verdoppelt trotz verdoppelter Bandbreite.

GeneralHanno
2008-05-30, 09:31:02
wenn man für die bandbreite X entweder 8 GDDR5-speicherbausteine @256bit oder 16 speicherbausteine GDDR3 @512bit verbaut, dann darf der GDDR5-ram auch etwas mehr verbrauchen wegen des höheren taktes. das resultat bleibt aber das gleiche: konstante bandbreite bei geringerem verbrauch (SUMME)

Gast
2008-05-30, 16:26:28
GDDR5 wird ja gerne als stromsparender angepriesen. Aber leider vergessen die Marketing-blubb-Typen nur zu oft, nebenbei noch zu erwähnen, ob der Stromspareffekt bei den höheren Taktraten überhaupt noch da ist?

speicher braucht im verhältnis zu anderen dingen im pc dermaßen wenig strom, dass es sich kaum lohnt darüber zu diskutieren.

Spasstiger
2008-05-30, 17:45:55
speicher braucht im verhältnis zu anderen dingen im pc dermaßen wenig strom, dass es sich kaum lohnt darüber zu diskutieren.
Der Speicher auf heutigen High-End-Grafikkarten braucht mehr Strom als z.B. ein Asus EEE PC.

AnarchX
2008-05-30, 17:47:41
Der Speicher auf heutigen High-End-Grafikkarten braucht mehr Strom als z.B. ein Asus EEE PC.
Genau, 8-16 Module mit je 2-3W TDP, im Falle von GDDR3, sind nicht ganz unerheblich.

Gast
2008-05-30, 17:58:26
Sehe ich das richtig, das zuerst 512MBit Chips forciert werden? Warum nicht gleich 1 GBit?

Wird langsam mal Zeit, die 1 GB zum Grafikstandard zu machen!

Da hätte ich mir weitaus mehr erwartet. Immerhin gibts auch schon 1 GBit GDDR4 seit einer halben Ewigkeiten und kaum einer benutzt es.

AnarchX
2008-05-30, 18:05:26
In den Dokumenten, die Quimonda auf der Page hat, wird von 1GBit für Q2 gesprochen und 512MBit wurde gar nicht erwähnt.

Aber letzeres macht doch noch Sinn für kleinere 256-Bit Karten, wo 512MiB doch ausreichend sind.

haifisch1896
2008-05-30, 19:22:50
Kleinere 256bit-Karten..... (512bit Standard???)
Aber im Endeffekt stimmts schon, mehr macht keinen Sinn, da die Rohleistung fehlt.
Aber vielleicht kommt man so bei neuen Spielen zu noch größeren / detaillierteren Texturen, die nicht den VRAM sprengen.

Gast
2008-05-31, 11:20:40
Genau, 8-16 Module mit je 2-3W TDP, im Falle von GDDR3, sind nicht ganz unerheblich.

nicht TDP-werte mit realen verbrauchswerten vermischen, diese sind um größenordnungen geringer, besonders beim speicher.

Gast
2008-05-31, 11:37:35
nicht TDP-werte mit realen verbrauchswerten vermischen, diese sind um größenordnungen geringer, besonders beim speicher.

Nein, die TDP spiegelt schon den realen Verbrauch wider. Sonst wäre eine TDP-Angabe ja völlig sinnlos.

Gast
2008-05-31, 12:07:34
Nein, die TDP spiegelt schon den realen Verbrauch wider.


nein, und das hatten wir schon öfters.

Sonst wäre eine TDP-Angabe ja völlig sinnlos.

kommt darauf an wofür man sie verwendet. wenn man auf den realen verbrauch schließen will ist die angabe in der tat sinnlos.
wenn man kühlung und stromversorgung dimensionieren will braucht man die angaben allerdings, denn man muss damit rechnen dass die TDP irgendwann mal kurzfristig erreicht werden kann.

Gast
2008-05-31, 14:18:02
kommt darauf an wofür man sie verwendet. wenn man auf den realen verbrauch schließen will ist die angabe in der tat sinnlos.
wenn man kühlung und stromversorgung dimensionieren will braucht man die angaben allerdings, denn man muss damit rechnen dass die TDP irgendwann mal kurzfristig erreicht werden kann.

was widerum bedeutet, das man davon ausgehn darf, das ein Rambaustein auch 2Watt Verbraucht. und wenn 16x2Watt wenig is dann kannst du nich rechnen

Gast
2008-05-31, 16:00:11
nein, und das hatten wir schon öfters.


Falsches wird durch öfteres Wiederholen nicht richtiger!


kommt darauf an wofür man sie verwendet. wenn man auf den realen verbrauch schließen will ist die angabe in der tat sinnlos.


Nein, die TDP gibt den mittleren Verbrauch bei Maximallast an.


wenn man kühlung und stromversorgung dimensionieren will braucht man die angaben allerdings, denn man muss damit rechnen dass die TDP irgendwann mal kurzfristig erreicht werden kann.

Und nochmals nein, hat du denn gar keine Ahnung?

Die Stromversorgungsdimensionierung muß ÜBER der TDP liegen, weil die momentanen Lastspitzen ein gutes Stück über der TDP liegen!
Beim 8800GTX zB. liegt die Lastspitze bei 230W, der mittlere Verbrauch liegt bei etwa 170W und das ist dann auch die TDP.

davidzo
2008-06-02, 15:34:35
Nana, da hat der Gast aber einiges zu seinem Gusto verdreht

Ursprünglich war die TDP wirklich die maximale lastspitze. D.h. meisten lag sie ein gutes Stück drüber, war also Richtwert für die Spawas und Kühler. Das erklärt wieso AMD in der Regel auch immer nur TDP-Klassen verwendet, wie zum beispiel 35, 65 und 95 Watt...

Die TDP als mittlerer Wert wurde von Intel für den prescott eingeführt, weil der tatsächliche maximalverbrauch insbesondere bei den dualcore prescott (smithfield) dermaßen peinlich gewesen wäre.

Es gibt hier also je nach hersteller unterschiedliche übersetzungen für TDP. Zuerst kehrte Intel dem mit dem prescott eingeführten TDP-scheme aber bei den mobilprozessoren den Rücken. Das macht sinn, weil hier in den notebookbarebones eine entsprechende Kühllösung fest drinsitzt und nicht ohne weiteres auf den jeweilig verbauten prozessor angepasst werden kann.
Mittlerweile haben sie dem alten TDP-schema auch bei den desktopprozessoren wieder den Rüpcken zugekehrt.

Bei Grafikkarten der beiden großen Hersteller ist bis dato die TDP auch immer der Maximalverbrauch.

Ich arbeite selber im Kühlerbusiness und kann dir daher sagen, dass ein Kühler bestimmt nicht für eine TDP 170Watt konstruiert wird, wenn die Karte mal eben 230Watt bei einer Lastspitze saugen kann. Kupfe rund Aluminium haben verschwindend geringe Wärmekapazitäten die nicht ausreichen um soetwas zu überbrücken. Wenn der Kühler also für 170Watt konzipiert wurde, wird er bei 230Watt belastung innerhalb von sekunden heißer.


Was natürlich nichts ändert, dass die TDP von Rambausteinen häufig nicht ganz stimmt.
Es kommt nämlich auch stark auf Taktr- und timing an, welche Spannung die Boardhersteller verwenden. Und mit Takt und Spannung verändert sich auch mal eben die TDP stark.
Es liegt letzendlich daran, wie die D-ramhersteller einkaufen und einstellen. Natürlich ist es billiger langsamere rams zu kaufen und sie mit höherer spannung zu betreiben um dann über die timings wieder etwas Leistung reinzubekommen...
Bei D-ram TDP liegt man je nach hersteller im wirklichen verbrauch mal drunter und mal sogar drüber. Das ist also wesentlich krasser als die TDP der grafikchips oder cpus, welche generell eigentlich niedriger als die Angabe liegt.
Aber im D-ram Business gilt mehr als in jedem anderen geschäft: "letzendlich konkurriert man über den preis."

Gast
2008-06-03, 00:57:50
Weis eigentlich schon einer was über die Timings bei GDDR5?

Es werden immer die schönen hohen Taktraten angegeben, aber über die Timings hört man kein einziges Wort dazu.

Wie effizient ist GDDR5 im Vergleich zu GDDR3 wirklich?

Coda
2008-06-03, 01:59:43
Timings sind für Grafikkarte eh eher zweitrangig. Die ganze Pipeline ist schon so tief dass die Latenzen eh ewig sind. Man versteckt vieles davon durch die vielen Threads und bei vielen Dingen weiß man auch im voraus wann man sie brauchen wird.

Gast
2008-06-03, 18:04:23
Klar sind die Timings wichtig, gerade des wegen konnte sich GDDR4 ja auch nie durchsetzten, GDDR4 braucht gut 100MHz mehr als GDDR3 für die gleiche Leistung.

GDDR3 und GDDR4 basieren aber noch auf DDR2, GDDR5 aber auf DDR3 und da dürften die Timings noch mal in die höhe gehen.

Wieso hat wohl die 4870 512MB 120GB/s für eine GPU die mit so viel Bandbreite kaum was anfangen kann? Für mich ein ganz klares Zeichen!

Spasstiger
2008-06-03, 19:23:28
GDDR3 und GDDR4 basieren aber noch auf DDR2, GDDR5 aber auf DDR3 und da dürften die Timings noch mal in die höhe gehen.
DDR3 hat die bisher kürzesten absoluten Latenzen von allen Desktopspeichern. Es gibt z.B. im OC-Speicherbereich DDR3-1800-Riegel mit CL7-7-7-20 ab Werk. Das ist um rund 30% schneller als DDR2-800 CL4-4-4-12 und nur um 4% langsamer als DDR2-800 CL3-3-3-8, wobei DDR3 ja noch nichtmal am Massenmarkt angekommen ist, während die schnellsten DDR2-Speicher erst nach mehreren Jahren der Marktpräsenz von DDR2 kamen.
Bei GGDR5 wird das wohl nicht anders sein, ich rechne mit einer mindestens ebenbürtigen Leistung pro Takt wie bei GDDR3.

Gast
2008-06-03, 19:37:40
Du darfst aber nicht Overclocker Speicher mit normalen vergleichen. Das ist doch Unsinn.

Es gibt keinen JEDEC zerfizierten DDR3-1800 Speicher. DDR2-800 aber sehr wohl.

Außerdem gibts auch DDR2-1150 mit 4er Latenzen. Die sind noch mal Welten besser.

Spasstiger
2008-06-03, 19:42:48
Du darfst aber nicht Overclocker Speicher mit normalen vergleichen. Das ist doch Unsinn.
Ich hab OC-Speicher mit OC-Speicher verglichen.

Außerdem gibts auch DDR2-1150 mit 4er Latenzen. Die sind noch mal Welten besser.
Hast du dazu einen Link? Das wäre ja phänomenal.

Gast
2008-06-03, 19:46:17
Hast du dazu einen Link? Das wäre ja phänomenal.

Nee, gibts schon ewig. Stand in einigen der RAM-Threads.

http://www.geilusa.com/products/showSpec/id/97

War sogar DDR2-1160. ;)

Coda
2008-06-04, 01:18:29
Klar sind die Timings wichtig, gerade des wegen konnte sich GDDR4 ja auch nie durchsetzten, GDDR4 braucht gut 100MHz mehr als GDDR3 für die gleiche Leistung.
Das hat andere Gründe.

Wieso hat wohl die 4870 512MB 120GB/s für eine GPU die mit so viel Bandbreite kaum was anfangen kann? Für mich ein ganz klares Zeichen!
Glaub was du willst ;)

Gast
2008-06-24, 23:42:03
Hallo,
ich hab eine frage wie sich die frequenz beim gddr5 speicher zusammensetzt

ist das wie beim ddr3 speicher? sprich 450mhz speichertakt ->1800mhz I/O-takt ->3600mhz "effektiver takt" bzw. 3,6gbit pro sec und pin?

denn ich verstehe die erklärung von quimonda nicht ganz
http://195.190.140.131/dispatcher/service?dh=70830104328552002&l=de&o=0&a=70829143257273096
da wird von einem commandclock und von einem write clock gesprochen
ist damit jetzt wie bei ddr2/3 speichertakt und I/O-takt gemeint?
desweiteren geben die in der liste den speicher mit 3,6gbit/s mit 900mhz aus
das ist doch jetzt nicht der reale speichertakt oder? wäre doch ein zu riesiger sprung

Spasstiger
2008-06-25, 00:03:58
Prefetch 8 -> Speicherchips takten mit einem Viertel des I/O-Taktes + DDR-Verfahren (beide Taktflanken werden ausgewertet). Deine 450 MHz sind also ganz richtig.

Der I/O-Takt entspricht dem Write-Clock, der Command-Clock ist halt genau halb so hoch, aber hat nix mit dem Takt der Speicherzellen zu tun. Die laufen immer mit einem Viertel des Write-Clocks.

Gast
2008-06-25, 10:06:37
danke, dann gibt quimonda in ihrer liste also den commandclock als speichertakt an.
zusammengefasst kann man also sagen das das ganz wie bei ddr3 funktioniert oder?

Crazy_Chris
2008-06-25, 10:35:23
Das ist ja klasse. Dann kann man endlich auch Karten mit 64bit oder 128bit Speicheranbindung bauen die extrem billig sind aber trotzdem eine brauchbare Bandbreite liefern können. :eek:

GeneralHanno
2008-06-25, 12:09:15
Das ist ja klasse. Dann kann man endlich auch Karten mit 64bit oder 128bit Speicheranbindung bauen die extrem billig sind aber trotzdem eine brauchbare Bandbreite liefern können. :eek:

jein ;)
man muss eben abwägen was günstiger ist:
billiges 128bit SI (sowohl kleines PCB als auch speichercontroler), dafür teurer GDDR5 ram
oder 256bit SI (teures PCB und SC), dafür sehr günstiger GDDR3 ram ...

mittelfristig wird GDDR5 aufgrund des hohen preises (und der verfügbarkeit) nur für "upper" karten benutzt werden, langfristig wird sich GDDR5 aber klar durchsetzen.

Spasstiger
2008-06-26, 18:08:45
Ein Problem bei den aktuellen Architekturen ist auch, dass man nur 4 ROPs pro 64 Bit Speicherinterface hat. Bei Mainstream- und Performancekarten ist das recht egal, aber im High-End sind 16 ROPs (256 Bit Interface) einfach grenzwertig (siehe Radeon HD4870).

Sorkalm
2008-06-26, 18:10:31
AMD hat das Problem doch weniger, ist ja nicht gekoppelt. Außerdem, meinst du das bei der 4870 in manchen Fällen schon wieder die Z-Füllrate das Limit darstellt?

Ich würde eher sagen, für generelle Ausnutzung von mehr Bandbreite braucht es noch mehr GPU-Leistung generell.

Spasstiger
2008-06-27, 00:56:11
Ich würde eher sagen, für generelle Ausnutzung von mehr Bandbreite braucht es noch mehr GPU-Leistung generell.
Rechenleistung hat AMD mehr als genug für die Bandbreite, sind ja immerhin 1,2 Teraflops und ca. 32 Milliarden bilinear gefilterte fp16-Textursamples in der Sekunde (GeForce GTX 280: 24 Gigatexel/s bei fp16-Filterung, 48 Gigatexel/s bei int8).
AMD könnte sicherlich die Auslastung der Shadereinheiten deutlich verbessern, wenn sie eine feinere Granularität wählen würden (ähnlich wie es Nvidia mit dem Threading erreicht). Aber irgendwo muss man halt bei gegebenen Transistorbudget sparen.

Ich denke, dass dem RV770 die doppelte ROP-Anzahl sicherlich gut stehen würde, gerade in Kombination mit dem GDDR5-Speicher.
Aber alles in allem hat AMD mit den knapp 1 Mrd. Transistoren schon ein beeindruckendes Gesamtpaket auf die Beine gestellt, an diese Effizienz von Rechenleistung pro Transistor kommt Nvidia nicht ganz ran, weil sie wesentlich mehr Transistoren investieren, um ihre Shadereinheiten gut ausgelastet zu bekommen. Die Entscheidung für GDDR5 war für den RV770 sicherlich ideal hinsichtlich der Wirtschaftlichkeit (Transistoren für ein breiteres SI gespart, Leitungen auf dem PCB gespart).

AnarchX
2008-06-27, 08:00:55
Ich denke, dass dem RV770 die doppelte ROP-Anzahl sicherlich gut stehen würde, gerade in Kombination mit dem GDDR5-Speicher.

Das wo es drauf ankommt hat sich doch bei RV770 gegenüber RV670 verdoppelt -> Z-Füllrate.

ShadowXX
2008-06-27, 09:30:33
Rechenleistung hat AMD mehr als genug für die Bandbreite, sind ja immerhin 1,2 Teraflops und ca. 32 Milliarden bilinear gefilterte fp16-Textursamples in der Sekunde (GeForce GTX 280: 24 Gigatexel/s bei fp16-Filterung, 48 Gigatexel/s bei int8).
AMD könnte sicherlich die Auslastung der Shadereinheiten deutlich verbessern, wenn sie eine feinere Granularität wählen würden (ähnlich wie es Nvidia mit dem Threading erreicht). Aber irgendwo muss man halt bei gegebenen Transistorbudget sparen.

Der RV770 hat kein FP16-TMUs mehr. Das sind alles INT8-Werte.
Diese Designentscheidung wurde getroffen da die FP16TMUs nicht gebraucht wurden.


The TUs themselves are changed from what we used to have in the R600:

Whilst the R600 could setup 8 addresses per clock, out of which only 4 values could be filtered, the RV770 does away with the extra addressing capability and maintains a 1:1 ratio between Texture Address Processors (TA) and Texture Filtering Units (TFU). This that we go from having 32 addresses per clock in the R600 to having 40 of them in the RV770. The reduction in texture addresing oomph (hah) per TU isn't exactly a loss, given the fact that the extra capability found in the R600 was only useful in non-filtered scenarios, which are hardly ubiquitous (yes, we're taking into account Vertex Texture Fetch). It could be said that the R600 had too much addresing capability for what it could normally take advantage of, which probably made the TUs larger than needed.

The number of FP32 texture samplers also takes a step-back (logically, since they were also relevant only for non-filtered situations and tied to the extra addressing capability somewhat), going from 20 per TU to 16 per TU, but given the 2.5x increase in number of TUs that nets the RV770 double the texture fetching capability, at 160 texture fetches per clock (the R600 could do only 80).

An interesting tidbit we're is that 64-bit filtering capability has gone from one value per clock to half of that-which means 2 clocks per bilinear filtered 64-bit color value. This was done because having full rate 64-bit filtering consumed quite a chunk of silicon, and internal analysis showed that perf/W and perf/mm2 would increase if the filtering rate was reduced and thus transistors were saved, allowing for more TUs to be implemented overall. Going by the quoted performance numbers and what we've seen in practice in terms of 64-bit filtering, this was a correct engineering choice.

Quelle: http://www.rage3d.com/reviews/video/atirv770/architecture/index.php?p=5

Dieses wurde auch schon mehrfach von ATI (u.a. im Beyond3D Forum) bestätigt.


Hier ist es vielleicht nochmal deutlicher:

We've tested the RV770's fillrate with a number of apps, and always came up with numbers in the (19,20) GigaTexel interval...too low for a 10 TU/40 TA&TF part-should be near the 25 GigaTexel mark (625*40/1000). For all those of you who cried "FOUL!", relax for a bit- we actually went and asked ATi why we were getting this behavior and they explained that in spite of having 10 TUs on chip, there are only 32 interpolators, so the INT8 bilinear rate will be limited by that. Once you get filtering limited, with Anisotropic Filtering, or by filtering FP textures, the architecture should behave like a 10 TU one. We've verified this using FP texturing, because that has also allowed us to check the assumption that the RV770 does FP filtering at half-rate:

deekey777
2008-07-08, 21:30:34
Damien Triolets Artikel ist wirklich genial: Radeon HD 4800: GDDR5 utile? (http://www.hardware.fr/articles/726-1/b-maj-b-radeon-hd-4800-gddr5-utile.html)

Der Artikel ist insoweit sehr interessant, weil er:
- einmal die GPU der beiden "Schwestern" auf 725 MHz laufen ließ, aber ihren Speichertakt beibehielt,
- und dann die HD4870 mit 725 MHz für die GPU und 933 MHz für den GDDR5-Speicher getestet hat.

Dh wir haben einmal eine Aussage, wie der RV770 mit steigendem GPU-Takt von Speichertakt abhängt, auf der anderen Seite sieht man, dass der GDDR5-Speicher langsamer als GDDR3-Speicher beim äquivalenten Takt ist.

Gast
2008-07-18, 16:34:21
so hier schwarz auf weiss, GDDR5 ist bei selben Takt 14% langsamer als GDDR3!!!

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/

mir soll noch mal einer kommen das Timings sind bei Grafikkarten egal!

Und der bescheuerte Spruch von wegen GDDR5 2000MHz 256Bit ist gleich schnell wie GDDR3 1000MHz 512Bit steht jetzt ziemlich dumm da...

Nakai
2008-07-18, 17:09:01
so hier schwarz auf weiss, GDDR5 ist bei selben Takt 14% langsamer als GDDR3!!!

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/

mir soll noch mal einer kommen das Timings sind bei Grafikkarten egal!

Und der bescheuerte Spruch von wegen GDDR5 2000MHz 256Bit ist gleich schnell wie GDDR3 1000MHz 512Bit steht jetzt ziemlich dumm da...

Man hätte die Timings bei niedrigerem Takt besser einstellen können.


mfg Nakai

Gast
2008-07-18, 17:13:55
so hier schwarz auf weiss, GDDR5 ist bei selben Takt 14% langsamer als GDDR3!!!

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_was_gddr5_radeon_hd_4870/

mir soll noch mal einer kommen das Timings sind bei Grafikkarten egal!

Und der bescheuerte Spruch von wegen GDDR5 2000MHz 256Bit ist gleich schnell wie GDDR3 1000MHz 512Bit steht jetzt ziemlich dumm da...


Das kommt raus wenn man die Timings nicht dem Takt anpasst und nur plump runtertaktet. Wurden die Timings angepasst? Also wer steht hier bescheuert da?

Gast
2008-07-18, 17:15:30
wieso?
woher weisst du das ein 512bit SI sich gleich verhält wie ein 256bit SI?
dazu müsste man mal ein 512bit SI mit gddr3 bei 500mhz und ein 256bit SI mit 1000mhz untersuchen

AnarchX
2009-10-05, 11:02:52
PC Watch hat noch ein paar Interessante Folien von der GTC zum Stromverbrauch von GDDR5 und dessen Entwicklung in der Zukunft:
http://translate.google.ch/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2Fnews%2Fevent%2F20091005 _319593.html%3Fref%3Drss&sl=ja&tl=en&hl=de&ie=UTF-8

Gast
2010-07-23, 23:34:42
Was soll DaisyChain GDDR5 sein?

K4G10325FE-HCDS,1G,x32,DaisyChain Sample,170FCFBGA,1.5V,8K/32ms,POD,N/A(N/A),,,,,,,,,,,

http://www.samsung.com/global/business/semiconductor/productList.do?fmly_id=759&xFmly_id=758

Spasstiger
2010-07-23, 23:45:45
Ein Daisy Chain Sample kenne ich als Chip, der keine Logik enthält, sondern nur den Pinout und eine interne Verdrahtung. Damit kann man PCBs und Packages testen.