PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Problem NextGen-Beschleuniger und Speicherbandbreite. Ideen und Lösungen


Gast
2006-01-08, 10:49:12
Hallo.

Da in den aktuellen Diskussionen zur Leistungsfähigkeit der ersten D3D10-Beschleuniger auf die quasi stagnierende Speicherbandbreite verwiesen wird, wollte ich mal eure und meine Ideen diesbezüglich zur Diskussion stellen.

So wie es momentan ausschaut, tun sich die Speicherhersteller wohl schwer, ihr schnellstes GDDR3-Modell mit 1,1 ns in größeren Mengen auszuliefern. Dies entspricht rund 900 MHz und damit, in entsprechender Anzahl an einem 256 Bit breiten Bus betrieben, rund 57 GB/s Speicherbandbreite.

Nun stehen sowohl Nvidias als auch ATi Refreshes der aktuellen High-End Produkte vor der Tür. Während bei ATi eher die wenig bandbreitenintensive arithmetische Leistung aufgebohrt werden wird, dürfte bei Nvidia der traditionelle Weg beschritten werden und komplette Pixelprozessoren mit TMU hinzugefügt und der Takt erhöht werden.

Mehr noch aber sind die (ich nenne sie mal) Next-Gen Chips G80 und R600 interessant. Diese sollten ja nochmals über eine gesteigerte Leistung gegenüber den bald kommenden Refreshes verfügen und damit vermutlich auch noch mehr Bandbreite zur Entfaltung dieser verfügen.

Mögliche Auswege:
- Effizienterer Speichercontroller. ATi tut in dieser Hinsicht etwas, obwohl mir scheint, dass der RingBus-Speichercontroller etwas überhypt ist. Von Nvidia hört man diesbezüglich so gut wie gar nichts.

- GDDR3-Takt erhöhen. Das wird in gewissem Rahmen wohl passieren, aber viel mehr als nochmals etwa 20-30% wird AFAIK von dieser Speichertechnologie nicht mehr erwartet.

- GDDR4. ATis Speichercontroller ist dafür vorbereitet (lt. eigenen Angaben), reale Taktraten sollen, den Projektionen zufolge, bis 2,8 GHz in >zwei Jahren erreicht haben.

- 512 Bit Interface. Laut diverser Aussagen und großer Zustimmung hier im Forum scheidet dies aufgrund zu hoher Kosten, besonders auf Seiten des PCB und des Routings, wohl noch einige Zeit lang aus.

- ATi hat beim Xenos/C1 einen Teil des Bandbreitenproblems auf einen externen Chip ausgelagert, was ich persönlich für eine zwar kostenintensive, wenig skalierbare und damit mittlerweile (früher war ich anderer Meinung) für den PC-Markt unpassende, nichts desto trotz elegante Lösung halte.

- Nvidia hat bei RSX (ein G70-Derivat) bereits ein funktionierendes XDR-Interface, der RSX wird wohl ebenfalls bereits in 0,09µ hergestellt – Grundlage für eine zukünftige High-End Version im PC-Desktop?

Eure Vorschläge und Meinungen?


*nachdenklich*
Q

Gast
2006-01-08, 12:36:21
gerade die speicherbandbreiten werden imo immer weniger wichtig.

GDDR4 steht bereits vor der tür und wird die physikalische taktfrequenz gegenüber heutigen GDDR3-speichern fast verdoppeln.

weiters werden moderne spiele immer rechenlastiger, wodurch jedes pixel immer mehr takte in der pipeline verbringt und immer weniger bandbreite benötigt wird um die fertigen pixel auch rauszuschreiben.

HDR-rendering wird natürlich deutlich mehr bandbreite brauchen, allerdings auch deutlich mehr rechenleistung, so dass sich imo das verhältnis von benötigter bandbreite zu benötigter rechenleistung auch nicht zu stark ändern wird, spätestens mit GDDR4 wird man genug bandbreite haben.

am speichercontroller dürfte man nicht mehr sehr viel optimieren können, einzig eine feinere unterteilung des interfaces könnte noch ein wenig bringen.
der ringbus-controller von ATI ist imo in erster linie marketing und gestaltet in erster linie den internen datenfluss zwischen den einzelnen rechenwerken effizienter, und nicht die externe bandbreitenausnutzung.
diese wird eigentlich "nur" durch die feinere unterteilung des interfaces.

trotz allen scheint die effizienz der bandbreitenausnutzung bei beiden fast gleich zu sein. die vorteile von ATI in bandbreitenlimitierten situationen kommen in erster linie von der höheren taktfrequenz (7800GTX256 vs x1800xt)

Trap
2006-01-08, 14:11:37
XDR2 sieht für mich ideal für Grafikkarten geeignet aus. Preis und Verfügbarkeit dazu weiß ich allerdings nicht. Wahrscheinlich Rambus-typisch "zu teuer".

http://www.rambus.com/products/xdr/xdr2.aspx

Wenn die Chips das halten was die Werbeseite verspricht bekommt man damit locker auf 100 GB/s (mit XDR1 allerdings auch schon, mit etwas Aufwand).

Nightspider
2006-01-08, 23:51:32
Wenn Nvidia bereits in der Lage ist, XFR Chips mit ihren Chips zu kombinieren, warum baut Nvidia dann nicht schon jetzt oder zumindest sehr bald XDR Chips auf ihr G70/71/80 ?

Coda
2006-01-09, 00:18:08
- Nvidia hat bei RSX (ein G70-Derivat) bereits ein funktionierendes XDR-Interface, der RSX wird wohl ebenfalls bereits in 0,09µ hergestellt – Grundlage für eine zukünftige High-End Version im PC-Desktop?Haben sie nicht. Der RSX verwendet in der PS3 auch GDDR3. Nur Cell hat ein XDR-Interface.

Nightspider
2006-01-09, 13:40:18
Achsoooooo, wieso hat der Cell an sich XDR Unterstützung ? Hat der als Cache oder so XDR Speicher(technologie) :confused:

Coda
2006-01-09, 13:48:16
Cell verwendet als Hauptspeicher XDR. Der GPU-Speicher ist GDDR3. So einfach ist das.

Nightspider
2006-01-09, 16:15:03
Stimmt, du hast recht...thx :)

seahawk
2006-01-09, 17:00:49
Fillrate und Bandbreite werden in Zukunft an Bedeutung verlieren. Ganz einfach weil diese Faktoren hauptsächlich von der gewählten Auflösung und dem AA Grad beeinflußt werden. Durch die Verbreitung der TFTs werden Auflösungen über 1600x1200 bei mehr als 4xAA immer weniger praxisrelevant. Für Menschen, die mehr verlangen haben beide ja Dual-Kartenlösungen im Angebot.