PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was ist effektiver/leistungsstärker: Breite Ramanbindung oder hoher Takt?


Piffan
2002-12-14, 11:02:10
Ati ist ja mit der R300 auf den 256bit- Bus für die Speichernanbindung aufgesprungen, NV meint nocht, dass die Zeit dafür noch nicht gekommen sei ;)

Jetzt würde ich gerne mal flamefreie Aussagen hören:

1. Ist es richtig, dass die Effiziens des schmalen Busses besser ist, weil man weniger "Verschnitt" hat?

2. Wie schaut es mit den Latenzen aus? Muß NV hier Kompromisse wegen der hohen Taktzahlen des Speichers eingehen, so dass zwar die Bandbreite zunimmt, aber letztlich die Performance unter ungünstigen Latenzen wieder leidet?

3. Wie ist unter den ersten Gesichtspunkten der hohe Kühlaufwand zu bewerten? Notlösung, weil NV im Druck ist oder wohldurchdachtes Kalkül?

4. Kommt es vielleicht ganz anders als man denkt und NV räumt im März ab? Weil nämlich die Füllrate und die Shader mächtig Dampf machen?

Unregistered
2002-12-14, 11:08:31
1.+2.: Ja

3. alles spekulativ, wer soll das wissen?

4. eher Nein

StefanV
2002-12-14, 12:04:43
Piffan, um den 'Verschnitt' bei breiteren RAM Controllern zu vermindern, hat eine schlaue Person irgendwann mal den Crossbar Memory Controller erfunden, deshalb ist der Verschnitt bei breiterem RAM nicht unbedingt höher ;)

Endorphine
2002-12-14, 12:09:51
Letzendlich zählen bei Speicher ja grob gesagt nur zwei Geschwindigkeitskomponenten: in der Praxis erreichbare (Burst-) Bandbreite und die Latenz.

Der Takt spielt da eigentlich nur indirekt rein. Wenn die Latenzen sonst wo sind, kann man den Takt auch raufschrauben bis auf 20 GHz, der Speicher wartet eben dann nur eben mehr Takte und ist keinen Deut schneller. DDR-II macht genau das: minimale Weiterentwicklungen (on-die Terminierung, posted CAS und Kleinkram), und dann werbewirksam Takt hochsetzen. Die Latenzen werden ebenfalls hochgesetzt, so dass der Speicher in der Praxis kaum wirklich schneller wird. Ausser bei längeren Bursts.

Da nVidia aber die angeblich effizientere 32-Bit Segmentierung des Speicherbusses bevorzugt bleibt abzuwarten, wer denn in der Praxis wirklich die schnellere Speicheranbindung hat. Und bei Bandbreitenschonung war nVidia in der Vergangenheit ATI auch überlegen.

DDR-II ist jedoch ein klein wenig eine Mogelpackung. Viel Rohtakt und höhere Latenzen.

Piffan
2002-12-14, 13:04:35
Originally posted by Endorphine

DDR-II ist jedoch ein klein wenig eine Mogelpackung. Viel Rohtakt und höhere Latenzen.

Diese "Mogelpackung" kommt vielleicht auch daher, dass viele Redakteure und Overclocker sich nunmal am Takt hochziehen und die Bandbreite als das Maß der Dinge hingestellt wird.....Prominentes Beispiel ist da KT 400: Eher nicht der Bringer, weil die Boardhersteller per Bios die Latenzen verschlechtern bei hoher Taktzahl.....

Was den Crossbar- Controller angeht: Da spielt doch eine Rolle, wie breit da die einzelnen simulierten Busse sind. Und da ist kleiner doch auch besser oder nicht? Wenn ich also den gleichen Controller auf einen schmaleren Bus ansetze, nimmt der Verschnitt auch ab..

Wenn ich das richtig peile, dann versucht NV die Latenzen mit entsprechenden "Hochspannungen" in den Griff zu kriegen, d.h. vielleicht der hohe Kühlaufwand....

Falls tatsächlich kaum Vorteile rauskommen gegenüber der 256bit- Lösung von NV, dann wird es sogar NVs Marktetingabteilung schwerfallen, die Fans von der Zweckmäßigkeit eines lauten Lüfters zu überzeugen... Wenn er nicht laut ist, dann ziehen sich immer noch genug an dem hohen Platzbedarf hoch....


edit: Im Prinzip finde ich eine Kühllösung, die die Wärme direkt vor Ort entsorgt und nicht den Rechner mit Abwärme belastet, zeitgemäß angesichts der dramatisch steigenden Leistungsfähigkeit der Grakas..allerdings nicht, wenn die Leistung im Verhältnis zum Kühlaufwand gar nicht so dolle steigt, sondern Designschwächen durch hohe Spannung, Taktraten und damit steigender Verlustwärme kompensiert werden sollen. Schlußendlich hängt es für mich von der puren Leistung ab, ob ich mir ne FX kaufen werde....

Demirug
2002-12-14, 13:44:20
Die Breite eines Memorykanals ist nur die halbe Wahrheit. Die wichtige Kenngrösse ist wie viele Daten während eines Transferzyklus eingelesen bzw. geschrieben werden müssen.

Beim NV30: 32 * 2 (DDR) * 4 (Burst bei DDR-II) = 512 Bit = 64 Byte

Beim R300 gibt es 3 möglichkeiten:

1. 64 * 2 (DDR) * 2 (Burst) = 512 Bit = 64 Byte
2. 64 * 2 (DDR) * 4 (Burst) = 1024 Bit = 128 Byte
3. 64 * 2 (DDR) * 8 (Burst) = 2048 Bit = 256 Byte

Mit welchem Burst ATI jetzt arbeitet ist schwer zu sagen.

Für einen Burst von 2 spricht:

64 Tilegrösse * 6 AA Sample * 32 Bit/Sample / 24 max. Compression = 512 Bit

Für einen Burst von 4 spricht:

R300 ist laut ATI "ready for DDR-II" dort wird ein Burst von 4 vorgeschrieben

Wird jedoch der Frame und Z Buffer ein Tile gemeinsam gepeichert ergibt sich die doppelte Datenmenge wie oben, also 1024 Bit.

Persönlich tendiere ich eher zu 4 Takten Burst aber das ist nur ein Gefühl.

Was nun die Latenzen angeht so ist das bei Grafikchips kein so grosses Problem wie man denkt. Wenn man die Latenzen des Speichers genau kennt kann man die Renderpipelines so auslegen das sie die Latenz kompensieren in dem man dort Wait-Stages einbaut. Dadurch wird die Pipeline nicht durch das Speicherinterface blockiert und kann weiterlaufen. Problematisch wird es nur wenn die Bandbreite als ganzen nicht reicht und/oder der Memory-Kontroller des entsprechende Kanals mal nicht zur Verfügung steht weil auch andere Einheiten des Chips Daten brauchen.

Matrix316
2002-12-14, 14:17:48
Ist eigentlich schon jemals jemand auf die Idee gekommen Rambus Speicher auf einer Grafikkarte zu verwenden? Für die ganz Highen High End Karten. ;)

nggalai
2002-12-14, 14:22:34
Passt hier IMO besser rein. *verschieb*

Zu RAMBUS: RAMBUS-Speicher verbraucht wohl zuviel Strom, als dass das praktikabel wäre. Ausserdem sind die Lizenzgebühren noch immer recht hoch.

ta,
-Sascha.rb

Endorphine
2002-12-14, 14:23:46
Originally posted by Matrix316
Ist eigentlich schon jemals jemand auf die Idee gekommen Rambus Speicher auf einer Grafikkarte zu verwenden? Für die ganz Highen High End Karten. ;)

Ja, Cirrus Logic mit dem CL GD5464 "Laguna 3D". Das war AFAIR anno 1997.

Das praktische bei RDRAM ist ja sogar, dass jeder Chip allein die gesamte Bandbreite bereitstellen kann und der GPU-Designer dann über die vielen offenen Seiten nur sehr wenige Page Misses hätte, z.B. bei Texturzugriffen. Mit 4 oder gar 8 RDRAM-Devices und nem hohen Takt, der nicht auf Module, Leiterbahnlänge und ähnliches Rücksicht nehmen müsste, wären geradezu traumhafte Speichergeschwindigkeiten möglich.

Edit:
Kehrseite der Medaille wäre - wie schon erwähnt - ein höherer Strombedarf und eine zwingend notwendige Speicherkühlung.

Endorphine
2002-12-14, 14:41:08
Hab noch schnell ein Bild zusammengeschnippelt, zum glotzen ;)

Damals war Kühlung scheinbar noch nicht notwendig. Und ja, wie uralt, es ist noch eine PCI-Grafikkarte :)

robbitop
2002-12-14, 16:47:00
äähhmm der erste Glaze3D Chip von BitBoys sollte mit RD Ram ausgestattet werden....

Endorphine
2002-12-14, 17:58:58
Originally posted by robbitop
äähhmm der erste Glaze3D Chip von BitBoys sollte mit RD Ram ausgestattet werden....

Ja richtig, "sollte". Der ist aber nie über Prototypenstatus hinausgekommen... Der Laguna 3D war dagegen real käuflich zu erwerben :)

Edit:
Zum Nachfolger existieren sogar noch Spezifikationen:
http://support.tangent.com/hardware/videocard/vga-001.htm
http://www.2ka.mipt.ru/~alexp/docs/hw/chips/gd546xpb.pdf

Ein etwas grösseres Bild einer Spezialkarte mit 5465. Die RDRAM-Devices kann man gut erkennen: http://www.auctionworks.com/hi/47/47158/j2sb.jpg

StefanV
2002-12-14, 20:20:09
Originally posted by Endorphine
Hab noch schnell ein Bild zusammengeschnippelt, zum glotzen ;)

Damals war Kühlung scheinbar noch nicht notwendig. Und ja, wie uralt, es ist noch eine PCI-Grafikkarte :)

300MHz, 8bit, SDR...

Kaum Vorteil ggÜ den damals verbauten 64bit EDO-DRAM Interfaces.

Das damalige RDRAM hat AFAIK nicht mehr viel mit dem heute verwendeten Direct RAMBUS zu tun...

Pussycat
2002-12-14, 20:25:59
Originally posted by Stefan Payne
Piffan, um den 'Verschnitt' bei breiteren RAM Controllern zu vermindern, hat eine schlaue Person irgendwann mal den Crossbar Memory Controller erfunden, deshalb ist der Verschnitt bei breiterem RAM nicht unbedingt höher ;)

Wohl aber wenn beide Firmen ein 4x crossbar benutzen. Was auch so ist.

tb
2002-12-16, 00:02:32
Hier mal was zum Thema R300 und Latenzen:

http://www.beyond3d.com/forum/viewtopic.php?t=3530&highlight=latency

Hmmm - I seem to remember from when geforcefx was announced that some ATI engineers said that the R300 was more limited by memory latency than bandwidth. If that is the case, you could get good scaling of performance with memory clock speed even if the memory bandwidth is totally overkill in the first place ...



Thomas