PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Die Nachteile eines "krummen" Speicherinterfaces mit "geraden" ...


Leonidas
2012-08-13, 11:02:52
Link zur News:
http://www.3dcenter.org/news/die-nachteile-eines-krummen-speicherinterfaces-mit-geraden-speichermengen

Gast
2012-08-13, 14:12:21
Ihr habt da einen groben Denkfehler.

Es werden nicht 768/1536MB mit 192bit und 256/512MB mit 64bit angesteuert, wenn doch hätte man ja erst wieder ein 256bit Interface.

Es sind vielmehr 2x 512Mb und 1x 1024MB, jeweils an einem 64bit-Interface.

Wie viel von der Bandbreite tatsächlich nutzbar ist hängt natürlich, wie auch bei symmetrischer Bestückung, vom Zugriffsmuster ab. Auch bei symmetrischer Bestückung wären Situationen denkbar, in welchen alle benötigten Daten physisch in den Speicherblöcken liegt, die an einen Controller angeschlossen sind, und damit die effektive Busbreite auf 64bit sinkt.

Je nachdem wie nun die logischen Speicheradressen physisch auf die Speicherbausteine aufgeteilt werden, lässt sich das Zugriffsmuster entsprechend beeinflussen.

Wenn man den Speicherzugriff von Anfang an auf "krumme" Interfaces auslegt wird man in den meisten Fällen durchaus die gesamte Speicherbandbreite nutzen können, auch mit asymmetrischer Bestückung.

Nur wenn man linear alle vorhanden Speicheradressen durchgeht lässt sich die asymmetrische Bestückung irgendwann nicht mehr verstecken, da man dann natürlich alle Speichercontroller durchgeht und irgendwann an den Controllern mit geringer Speichermenge einfach nichts mehr da ist was man lesen kann und demzufolge nur mehr aus einem Controller gelesen wird.
Im realen Einsatz bei Grafikberechnung dürfte das allerdings eher selten der Fall sein und spielt zudem nur eine Rolle wenn man mehr Speicher verwendet, als bei symmetrischer Bestückung möglich wäre.
Mit CUDA programmierte Bandbreitentests werden vermutlich genau so einen Mechanismus benutzen, um die vorhandene Bandbreite zu ermitteln und zeigen dann natürlich kaum eine Steigerung gegenüber einem 128bit Interface.

Leonidas
2012-08-13, 15:40:15
Ihr habt da einen groben Denkfehler.

Es werden nicht 768/1536MB mit 192bit und 256/512MB mit 64bit angesteuert, wenn doch hätte man ja erst wieder ein 256bit Interface.

Es sind vielmehr 2x 512Mb und 1x 1024MB, jeweils an einem 64bit-Interface.


Stimmt natürlich. Aber ich meinte dies anders: *Relativ* gesehen sind die ersten 768 MB wie mit 192 Bit (für den gesamten Speicher) angebunden, die restlichen 256 MB dann nur noch so, wie wenn man nur ein 64 Bit Interface (für den gesamten Speicher) hätte.

Ich versuche, die Formulierung schärfer zu machen.






Mit CUDA programmierte Bandbreitentests werden vermutlich genau so einen Mechanismus benutzen, um die vorhandene Bandbreite zu ermitteln und zeigen dann natürlich kaum eine Steigerung gegenüber einem 128bit Interface.


Vermute ich auch. Schön wäre es, wenn man das praktisch bestätigen könnte.

S940
2012-08-13, 15:56:53
Also ich hoffe doch wirklich, dass sich ein Hersteller erbarmt und ein custom 1,5GB Design rausbringt. Das reicht doch dann schön. Die meisten Spiele sind immer noch auf 1 GB optimiert und mit 500 MB hat man noch etwas Luft und gegenüber 2 GB spart man sich ein paar Cent.

Beim Thema Sparen wäre es außerdem noch intererssant, ob die krummen Ausbaustufen schlecht fürs ne GDDR5 Massenbestellung ist, da man ja 2 unterschiedliche RAM-Typen verbauen muss. Bei den ganz großen Herstellern vielleicht egal, aber bei nem kleineren ...

elianda
2012-08-13, 16:47:37
Ich bezweifle stark, dass NVidia kurzfristig die Speicherverwaltungsstrategien des Treibers abaendert, da dies ein tiefer Eingriff waere. Normalerweise benoetigt sowas eine längere Testphase.
Dabei kommt natuerlich gleich eine Anschlussfrage auf:
Wie ist denn die Speicherverwaltungsstrategie bei Grafikkarten?

Im schlimmsten Fall waere es sogar so, dass der Treiber 'von oben' beginnt zu allokieren und damit der langsame Speicher zuerst genutzt wird.

Zergra
2012-08-13, 16:50:50
Warscheinlich schon.. nur die frage ist ob 2x 512 MB billiger sind als einmal 1GB...

denn wenn das so wäre würde sich eine 1.5GB Karte ja anbieten

schreiber
2012-08-13, 17:02:23
wenn mehr als 1.5gb vram benötigt werden, ist der Chip sowieso in den meisten fällen zu lahm. unnötige Diskussion, nur technisch interessant.

aufkrawall
2012-08-13, 18:13:40
wenn mehr als 1.5gb vram benötigt werden, ist der Chip sowieso in den meisten fällen zu lahm. unnötige Diskussion, nur technisch interessant.
Nicht unbedingt.
MSAA + hochaufgelöste Texturen können ganz gut fressen.

Schaffe89
2012-08-13, 19:00:41
Hm.. interessanter Artikel.
Ich werd am freien Mittwoch mal meine 550Ti in den PC schrauben und bisschen Testen. :)

schreiber
2012-08-13, 19:29:00
Nicht unbedingt.
MSAA + hochaufgelöste Texturen können ganz gut fressen.
Schau dir das Review von CB an zur 7850 1GB. Da gabs nur einen Fall, wo der Speicher Vorteile im spielbaren Bereich brachte. Und zwischen 1,5 und 2GB Ram wird man noch verzweifelter nach einem Vorteil suchen müssen.

aufkrawall
2012-08-13, 20:00:48
Schau dir das Review von CB an zur 7850 1GB. Da gabs nur einen Fall, wo der Speicher Vorteile im spielbaren Bereich brachte. Und zwischen 1,5 und 2GB Ram wird man noch verzweifelter nach einem Vorteil suchen müssen.
Stocker müssen nicht in Benchmarks durchschlagen.
Bei BF3 ist die 560 Ti im Schnitt auch nur minimal langsamer als eine 6950.
Dass die Geforce etwa auf Caspian Border, im Gegensatz zur Radeon, hin und wieder mal nervig stockt, sieht man aber in keinem Benchmark.

Ich würd mir ne ne Karte mit weniger als 2 GB holen.

Gast
2012-08-13, 20:49:22
Wieso nutzt Nvidia nicht einfach Speicherbausteine mit 768 mb?
Dann hätte man solche Probleme nicht und käme trotzdem über 2GB! (~2,3GB)

LuLuXX
2012-08-13, 22:59:01
Schön erklärt...512mb GDDR dümplen eigentlich nutzlos durch die Gegend, oder werden generell sehr langsam angesprochen. Das kann immer nur dann der Fall sein soweit der 2GB GDDR mit über 1,5GB am 192bit Interface ausgelastet wird.
Möglich ist auch das zwei der 64bit Controller stärker ausgelastet werden als der dritte und damit die Bestückung asyncron sinnvoll erfolgt.

Das kann zu einem Performanceeinbruch führen, wobei nicht viele Spiele über 1,5gb GDDR benötigen um flüssig zu laufen. Bei GDDR lastigen Spielen wird das sicher gegenüber der GTX670 bis zu 17% Speicherperformance ausmachen.

Warten wir mal ab, ich hoffe die GTX660ti kommt mit 256bit und ab der GTX660 wird dann beschnitten.

schreiber
2012-08-13, 23:28:16
Die 660 TI mit 256bit gibts schon. Nennt sich GTX 670 und kostet etwas mehr.

AnarchX
2012-08-14, 08:28:37
Wieso nutzt Nvidia nicht einfach Speicherbausteine mit 768 mb?
Dann hätte man solche Probleme nicht und käme trotzdem über 2GB! (~2,3GB)
Gibt es nicht (momentane GDDR5-Chip-Größen sind 128/256MiB) und ist wohl schwer adressierbar.

Die 660 TI mit 256bit gibts schon. Nennt sich GTX 670 und kostet etwas mehr.

Man hätte bei der 660 Ti auch auf <1334SPs und 256-Bit@5Gbps setzen können.
Aber man hat wohl mehr Chips, wo eben die ROPs/Speicherkanäle defekt sind.


Um die 2GiB@192-Bit zu beurteilen, muss man wohl die Tests abwarten.
Theoretisch klingen 512MiB@48GB/s Puffer vor einer RAM-Auslagerung über PCIe mit nur 16GB/s bzw. gar nur 8GB/s (Gen2) nicht so schlecht.

V2.0
2012-08-14, 08:38:09
Gibt es nicht (momentane GDDR5-Chip-Größen sind 128/256MiB) und ist wohl schwer adressierbar.



Man hätte bei der 660 Ti auch auf <1334SPs und 256-Bit@5Gbps setzen können.
Aber man hat wohl mehr Chips, wo eben die ROPs/Speicherkanäle defekt sind.


Um die 2GiB@192-Bit zu beurteilen, muss man wohl die Tests abwarten.
Theoretisch klingen 512MiB@48GB/s Puffer vor einer RAM-Auslagerung über PCIe mit nur 16GB/s bzw. gar nur 8GB/s (Gen2) nicht so schlecht.

Es ist bei GK104 einfach leichter ALU Leistung durch OC zu kompensieren als Bandbreite. Die 660 ist in allen Auflösungen <= Full HD sowieso schon zu nah an der 670.

AnarchX
2012-08-14, 08:49:45
Single-6-Pin und Powertarget <150W würden wohl OC-Ausflüge für die meisten User stark einschränken. ;)

V2.0
2012-08-14, 09:07:50
Nur bis die Hersteller OC-Karten liefern. Die gewählte Version ist selbst in diesem Falle immer deutlicher im Nachteil gegenüber der 670. Denn machen wir uns nichts vor eine reine ALU Reduktion und TDP Reduktion lässt sich einfach umgehen, wenn man den 660er Chip in einer 670er Referenzboard wirft. So wie wir ja auch 670er in 680er Boards sehen.

Spasstiger
2012-08-16, 19:35:17
Anandtech hat das Thema nochmal bei der GTX 660 Ti aufgegriffen, ohne allerdings die Speicherbandbreite zu messen.
http://www.anandtech.com/show/6159/the-geforce-gtx-660-ti-review/2