PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 256-Bit- vs. 512-Bit-Speicher-Interface


john carmack
2009-08-25, 15:22:48
Hallo Leute,

hier ein Ausschnitt aus den aktuellen News:

"...Eine gesicherte Erkenntnis ist allerdings, daß es ATI nicht mit einem 384 Bit DDR Speicherinterface versuchen wird, da die angegebene Speichermenge von 1 GB dazu nicht passt. Demzufolge können wir uns also überraschen lassen, ob ATI ein 256 Bit oder ein 512 Bit DDR Interface verbaut – mit den sich jeweils daraus ergebenden Vor- und Nachteilen. ..."


Kann mir mal jemand erklären was es für Vor- und Nachteile bei den
256Bit/512Bit Interfaces gibt?

ATI kam doch mal mit einem 512Bit Interface bei der 2900´er Serie.
Bei der aktuellen Serie sind es nur noch 256Bit! Warum?

_DrillSarge]I[
2009-08-25, 15:24:56
weil es billiger ist (spart transistoren). und die 3800er hatten auch ein 256bit-SI.

James Ryan
2009-08-25, 15:26:56
Vorteil 256 Bit:
- einfachere PCBs mögich.
- kleinere DIEs möglich.
- daher günstig zu fertigen.

Nachteil 256 Bit:
- Speicherbandbreite selbst mit GDDR5 und hohen Takt könnte für die nächste GPU-Generation zu knapp sein.

Vorteil 512 Bit:
- doppelte Speicherbandbreite bei gleichem Takt als bei einem 256 Bit Speicherinterface.
- dadurch mehr Leistung möglich!

Nachteil 512 Bit:
- PCB komlizierter.
- DIE muss eine bestimmte Größe haben, damit die 512 Bit richtig angebunden werden können (vereinfacht ausgedrückt!).
- dadurch höhere Fertigungskosten.

MfG :cool:

mapel110
2009-08-25, 15:27:09
Kosten! Ein 512er SI ist deutlich teurer.

Derzeit siehts wohl nach einem 256er SI aus. bzw. dann fürs High End 2x256er SI für Dual GPU.

Tigerchen
2009-08-25, 15:28:10
Hallo Leute,

hier ein Ausschnitt aus den aktuellen News:

"...Eine gesicherte Erkenntnis ist allerdings, daß es ATI nicht mit einem 384 Bit DDR Speicherinterface versuchen wird, da die angegebene Speichermenge von 1 GB dazu nicht passt. Demzufolge können wir uns also überraschen lassen, ob ATI ein 256 Bit oder ein 512 Bit DDR Interface verbaut – mit den sich jeweils daraus ergebenden Vor- und Nachteilen. ..."


Kann mir mal jemand erklären was es für Vor- und Nachteile bei den
256Bit/512Bit Interfaces gibt?

ATI kam doch mal mit einem 512Bit Interface bei der 3800´er Serie.
Bei der aktuellen Serie sind es nur noch 256Bit! Warum?
Ist wie bei der Autobahn. 6 Spuren sind teurer als 4 oder gar nur 2.
Darum werden Billiggrafikkarten gerne mit nur 64 Bit Speicherinterface gebaut.

john carmack
2009-08-25, 15:33:09
I[;7492369']weil es billiger ist (spart transistoren). und die 3800er hatten auch ein 256bit-SI.


Dann war es halt die 2900´er...

Die Radeon hatte schon ein 512Bit Interface.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/2/#abschnitt_technische_daten

StefanV
2009-08-25, 15:37:45
Nein, nur die 2900XT!

Die Pro hatte (meist) ein 256bit SI.

john carmack
2009-08-25, 15:41:19
Sag ich doch die 2900´er Serie!

von mir aus...

INDEX75
2009-08-25, 16:01:53
Aber würde die Leistungssteigerung durch ein 512 Bit Speicherinterface nicht die dadurch resultierende Preissteigerung rechtfertigen?

Um wie viel % (ca.) würde/n sich die Leistung und Kosten erhöhen?

mapel110
2009-08-25, 16:04:21
Aber würde die Leistungssteigerung durch ein 512 Bit Speicherinterface nicht die dadurch resultierende Preissteigerung rechtfertigen?

Um wie viel % (ca.) würde/n sich die Leistung und Kosten erhöhen?
Wenn der Chip nicht darauf ausgelegt ist, kann der Leistungsgewinn auch bei 0-10 % liegen. Hat man schön bei der Geforce 5xxx gesehen. 256bit SI hat da nicht viel gebracht gegenüber einem 128bit SI.
ATI wird sich schon Gedanken gemacht haben, wie sie den Chip ausgewogen gestalten.

LovesuckZ
2009-08-25, 16:18:50
Aber würde die Leistungssteigerung durch ein 512 Bit Speicherinterface nicht die dadurch resultierende Preissteigerung rechtfertigen?

Um wie viel % (ca.) würde/n sich die Leistung und Kosten erhöhen?

Die Kosten erhöhen sich deutlich - größerer Die und somit geringre Ausbeute. Deutlich teures PCB sowie doppelt soviele Speichersteine.
Wenn AMD wirklich nur noch Single-GPUs für unter 299$ anbieten will, dann wäre ein 512bit Speicherinterface finanziell einfach viel zu aufwendig.

Spasstiger
2009-08-25, 16:28:25
Dann war es halt die 2900´er...

Die Radeon hatte schon ein 512Bit Interface.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/2/#abschnitt_technische_daten
Das 512-Bit-Speicherinterface war bei der Karte völlig fürn Arsch und hat nur den Preis in die Höhe getrieben. Das hat AMD auch schnell eingesehen und die Radeon HD 38xx wieder mit einem 256-Bit-Speicherinterface ausgestattet.

StefanV
2009-08-25, 16:34:48
Sieht man auch ganz hervorragend, wenn man (übertaktete?) HD2900 PROs mit 256bit SPeicher Interface mit der 512bit Version vergleicht.

Lawmachine79
2009-08-25, 17:30:33
EIGENTLICH beeinflußt das SI doch nur die PCB-Kosten - und die sind gem. dem Artikel doch nicht so hoch?

LovesuckZ
2009-08-25, 17:36:12
EIGENTLICH beeinflußt das SI doch nur die PCB-Kosten - und die sind gem. dem Artikel doch nicht so hoch?

Erstmal benötigt dein Die Verbindungspins - das macht ihn größer. Dadurch verringert sich die Ausbeute und erhöht die Kosten pro Die. Du brauchst auch 16 statt 8 Speichersteine, was wiederrum zu einem aufwendigeren PCB sowie besserer Stromversorgung und höheren Speicherkosten führt. Und letzlich müssen die Verbindungen von den Steinen zur GPU gelangen, dass wiederrum die Kosten des PCB erhöht.

reunion
2009-08-25, 17:37:09
EIGENTLICH beeinflußt das SI doch nur die PCB-Kosten - und die sind gem. dem Artikel doch nicht so hoch?

Falsch. Es braucht doppelt so viele Speichercontroller, es braucht ein größeres Die für den Pinout um das ganze zu verdrahten, es braucht mindestens 16 Speicherchips um auf 512bit breite zu kommen, es braucht ein wesentlich komplexeres PCB.

Lawmachine79
2009-08-25, 17:44:23
Auää, das klatscht ja doch ganz schön rein...naja, irgendwann wird man nicht mehr drumherum kommen, die Speicherentwicklung kommt ja nicht ganz mit dem Bandbreitenbedarf mit.

Tigerchen
2009-08-25, 18:31:43
Auää, das klatscht ja doch ganz schön rein...naja, irgendwann wird man nicht mehr drumherum kommen, die Speicherentwicklung kommt ja nicht ganz mit dem Bandbreitenbedarf mit.
Nö. Richtig viel mehr an Leistung braucht man ja nur noch für richtig hohe Auflösungen. Ich sehe da eine Entwicklung die mehr als ausreichende Leistung zu immer geringen Preisen ermöglicht. Daher bleibt es wohl bei 256 Bit. Mehr brauchen in Zukunft nur noch echte Nerds. Und die werden immer weniger. Erkennt man ja auch in diesem Forum. Heutzutage ist im Politikforum mehr los.

reunion
2009-08-25, 18:33:00
Nö. Richtig viel mehr an Leistung braucht man ja nur noch für richtig hohe Auflösungen. Ich sehe da eine Entwicklung die mehr als ausreichende Leistung zu immer geringen Preisen ermöglicht. Daher bleibt es wohl bei 256 Bit. Mehr brauchen in Zukunft nur noch echte Nerds. Und die werden immer weniger. Erkennt man ja auch in diesem Forum. Heutzutage ist im Politikforum mehr los.

Das Problem ist vorallem das Verdrahtung nicht/kaum billiger wird mit der Zeit. Speicherbausteine sinken natürlich ständig im Preis.

Tigerchen
2009-08-25, 18:57:58
Das Problem ist vorallem das Verdrahtung nicht/kaum billiger wird mit der Zeit. Speicherbausteine sinken natürlich ständig im Preis.
Kann sein daß du da was anderes meinst als ich.

Also ich meine daß ich und andere in Vergangenheit geradezu auf neue Grafikkartengenerationen gelauert haben. Ständig brauchte man viiiiiiiiel Leistung um aktuelle Spiele ruckelfrei spielen zu können. Dann hat man ein teures Design in Kauf genommen. Dann kostete die ATI 9700 Pro eben 450 €uro.

Heute sinkt meine Bereitschaft viel Geld für Grafik auszugeben immer mehr. Und da steh ich wohl nicht alleine. Könnte also sein daß eine gute Mittelklassenkarte wie es die ATI 4850 war in etwas weiterer Zukunft nur noch ein 128 Bit Speicherinterface haben wird. Und das bei weiterhin üppiger Leistung. Natürlich auch um die Preise weiter sinken zu lassen Ich finde es ist sogar fraglich ob es in 10 Jahren noch dezidierte Grafikkarten geben wird.

LovesuckZ
2009-08-25, 19:13:49
Natürlich sinkt die Bereitschaft viel Geld auszugeben, wenn es keinen Markt mehr für > 200€ gibt. Vor 3 Jahren hättest du noch was anderes gesagt.
Auch wird es immer dedizierte Grafikkarten geben, da der Bedarf nach mehr Leistung immer vorhanden sein wird. Man sollte sich eher fragen, ob es in Zukunft noch die CPU als alleinstehenden Prozessor geben wird.

Gast
2009-08-25, 23:16:46
Ich denke, dass es ein 256-bit Interface wird. Mehr macht nur für sehr hohe Auflösungen in Verbindung mit qualitätssteigernden Features Sinn. Dazu ist dann die X2 gedacht. Vielleicht mit einem 512-bit Interface.
Es hat sich zwar mittlerweile eine Auflösung von 1900x1080(1200) etabliert, aber für die meisten Spiele, die von der Konsole portiert wurden, reicht die Leistung einer Einzelkarte gerade noch für diese Auflösung aus (für den Normalanwender, der u. a. auch die Auflösung runterdreht!). Daran wird sich, bis auf Ausnahmen, die nächste Zeit wenig ändern. Denke da gerade wieder an Wolfenstein. Grauenhaft. :D
AMD/ATI zielen mit ihren Karten ganz klar auf den Mainstreammarkt. Dafür rentiert sich aus Kostensicht schon gar kein 512-bit SI. Aber das wurde ja schon diskutiert, genauso wie die Vor- und Nachteile.

Knuddelbearli
2009-08-26, 15:32:58
Vorteil 256 Bit:
- einfachere PCBs mögich.
- kleinere DIEs möglich.
- daher günstig zu fertigen.

Nachteil 256 Bit:
- Speicherbandbreite selbst mit GDDR5 und hohen Takt könnte für die nächste GPU-Generation zu knapp sein.

Vorteil 512 Bit:
- doppelte Speicherbandbreite bei gleichem Takt als bei einem 256 Bit Speicherinterface.
- dadurch mehr Leistung möglich!

Nachteil 512 Bit:
- PCB komlizierter.
- DIE muss eine bestimmte Größe haben, damit die 512 Bit richtig angebunden werden können (vereinfacht ausgedrückt!).
- dadurch höhere Fertigungskosten.

MfG :cool:


einen Einwand hätte ich, mit 512 Bit kann man deutlich günstigeren RAm nehmen der unter umständen die mehrkosten des 512 Bit mehr als Ausgleicht ( siehe die aktuelle Liste der Herstellungskosten )

der relativ günstige GDDR5 der 48xx kostet bereits über 30$ besserer sicherlichd eutlich mehr, PCB ( was die meisten mehrkosten der grösseren SI tragen muss ) kostet nur 8$


mein tipp ist 5870 und x2 512 und 4850 256 beide mit gleichem gddr5

StefanV
2009-08-26, 16:53:33
Auää, das klatscht ja doch ganz schön rein...naja, irgendwann wird man nicht mehr drumherum kommen, die Speicherentwicklung kommt ja nicht ganz mit dem Bandbreitenbedarf mit.
Nicht zwangsläufig, gibt da noch anderes was man machen könnte, aber aufgrund von offensichtlichen Dingen (Lizenzkosten) nicht tut.

Ich glaub, jeder weiß, welches (Klage) Unternehmen ich gerad meine...

Sonyfreak
2009-08-26, 17:01:19
Ich glaub, jeder weiß, welches (Klage) Unternehmen ich gerad meine...Rambus? :confused:

mfg.

Sonyfreak

Gast
2009-08-27, 14:45:11
Aber würde die Leistungssteigerung durch ein 512 Bit Speicherinterface nicht die dadurch resultierende Preissteigerung rechtfertigen?


Sehr fraglich, vor allem wenn man die aktuelle entwicklung (bzw. eigentlich schon über sehr lange zeit) ansieht, merkt man, dass die speicherbandbreite im verhältnis immer unwichtiger wird.

Wenn jedes pixel schon ein paar 100 takte im shader verbringt bevor es endlich rausgeschrieben wird, braucht man eben deutlich weniger bandbreite/pixel als noch vor einigen jahren als man einfach ein paar texturen zusammengewürfelt hat.


Vor allem liest man bei den neuen karten immer nur von der rechenleistung, um die zu versorgen braucht kaum mehr bandbreite, über die texturleistung liest man rein garnichts, und dafür wird die bandbreite benötigt.

AnarchX
2009-08-27, 14:52:04
Vor allem liest man bei den neuen karten immer nur von der rechenleistung, um die zu versorgen braucht kaum mehr bandbreite,
Gerade für GPGPU und somit die Rechenleistung ist Bandbreite entscheidend und einer der größten Flaschenhälse aktueller GraKas, wenn man dazu Entwickler sowohl auf der SW-Seite als auch direkt bei AMD und NV hört.


über die texturleistung liest man rein garnichts, und dafür wird die bandbreite benötigt.
Da wohl kaum jemand einen RV870 für alte Single-Texturing-Spiele kauft oder weniger als 8xAF einsetzt ist Bandbreite im Bezug auf die Texelleistung heutzutage nahezu irrelevant.

derguru
2009-08-27, 20:00:51
Sehr fraglich, vor allem wenn man die aktuelle entwicklung (bzw. eigentlich schon über sehr lange zeit) ansieht, merkt man, dass die speicherbandbreite im verhältnis immer unwichtiger wird.
das hat sich im interview mit huddy aber ganz anders angehört.

Zunächst einmal gibt es die übergeordente Frage nach der Speicherbandbreite.Wir hatten nie genug davon und ich glaube,wir werden auch nie genug davon haben.Darum arbeiten wir an etlichen Baustellen,um jeweils möglichst wenig von dieser kostbaren Bandbreite zu verbrauchen.

StefanV
2009-08-27, 21:38:35
Rambus? :confused:
Who else ;)

Gast
2009-08-27, 22:04:25
Ohne Rambus wäre auch die parallele Speichertechnik bei weitem nicht dort, wo sie heute ist. Die fordern schon zu Recht ihre Prozente von den großen Haien.

Gast
2009-08-28, 00:38:38
Gerade für GPGPU und somit die Rechenleistung ist Bandbreite entscheidend und einer der größten Flaschenhälse aktueller GraKas, wenn man dazu Entwickler sowohl auf der SW-Seite als auch direkt bei AMD und NV hört.

Auch hier kann die bandbreite und rechenleistung nur mit ausreichender "texturleistung" auch benutzt werden.
Die "Texturleistung" wird in dem fall natürlich nicht fürs filtern sondern für lesezugriffe auf den VRAM gebraucht, die LOAD-UNITS einer GPU sind nämlich nun mal die TMUs (die nebenbei auch noch filtern können)

Aber GPGPU ist natürlich etwas völlig anderes als spiele. Bei GPGPU hängt es auch extrem stark von der problemstellung ab ob viel bandbreite gebraucht wird oder nicht, da kann in einem fall die bandbreite völlig limitieren, in einem anderen ist sie praktisch egal. Wird viel gerechnet ist die bandbreite egal, fallen viele speicherzugriffe an ist sie natürlich sehr wichtig.

Bei spielen brauchen aber nur texturzugriffe und frame/z-bufferzugriffe bandbreite, die rechnerei praktisch überhaupt keine.

Deshalb ist die ganze rechnerei von XX GB/s/GFlop insbesondere bei spielen extrem irreführend. (Im prinzip auch bei GPGPU, auch hier bringt die höhere bandbreite nichts, wenn man sie nicht in form von mehr TMUs bzw. ROPs auch nutzen kann)

hardtech
2009-08-28, 00:48:55
man darf bei der diskission nicht vergessen, dass wir heute in einem bereich angekommen sind, wo die auflösung für einen recht langen zeitraum reichen wird. 1920x1080 bzw. 1920x1200 hat sich stark etabliert sowohl im pc- als auch im tv-markt. (mal von den wenigen ausnahmen mit 30" tft und 2560x1600 abgesehen.)
zusätzlich kommt bei pc-spielen hinzu, dass sie grafisch nicht mehr mit der geschwindigkeit weiter entwickelt werden wie einst. das liegt zum größten teil an dem zwang der kopplung der plattformen. reine pc-spiele entwicklungen gibt es heute doch nicht, da angeblich zu teuer und zu kleiner markt. und da die abstände der konsolen-neuerscheinungen eher zunehmen, verstärkt sich diese problematik entsprechend.

ati ist doch nach der Radeon HD 2900XT vom 512mbit zurückgerudert und kommt bisher bestens mit 256bit aus. gerade entscheidungen wie "512 vs. 256mbit speicherinterface" werden durch forschungsgelder intensiv erforscht, was nun "mehr" bringt.

Gast
2009-08-28, 03:02:42
Ich denke es wird hier ein wenig unterschätzt, wie viel Bandbreite diese neuen Performance-Karten brauchen werden.
Mit der 2900XT ist das nicht im Ansatz zu vergleichen. Die hatte zwar damals ein 512bit Interface, aber auch Probleme diese auszunutzen, da die Hardwareinheiten in dem ein oder anderen Bereich ziemlich knapp bemessen waren (anisotrope filterung=starker einbruch etc).

Außerdem sind die neuen Karten ein ganz anderes Kaliber, bei 4-5fach so viel theoretischer Rechenleistung ist ein 512bit Interface nichtmal mehr überdimensioniert, vielleicht schon hier und da zu wenig, denn schneller Speicher ist immer noch sehr teuer und gerade bei den dann höher werdenden auflösungen, wächst ja nicht nur die Datenmenge an, sondern auch der Bedarf an Bandbreite. Was nützt ein Chip, der zwar 2000er Auflösungen mit AA darstellen könnte, wenn die Bandbreite ihn einbremst? Das wäre verschenkte Performance und würde auch dem Energieverbrauchscheck (Leistung <> Verbrauch) nicht gut bekommen.
1920x1200 ist schon lange nichts besonders mehr, seit es Bildschirme gibt, die für unter 200,- solche Auflösungen bieten und das wird in Zukunft nur noch extremer.
Selbst wenn die 30" keinen Durchbruch schaffen, so könnte es hier mit höherer auflösung bei gleicher Größe geben. Kommt nur auf den Preis im Massenmarkt an... möglich ist es bereits, gabs vor Jahren schonmal.

Wenn nicht jetzt, dann später mit einem Refresh... die 200-250GB/s halte ich schon für notwendig um der Leistung einigermaßen gerecht zu werden.

RavenTS
2009-08-29, 11:12:34
Wenn man sich die ganzen Argumente Pro/Contra 256/512 Bit SI ansieht und die tagelange Spekulationen in den news betrachtet, fragt man sich doch warum ATi nicht einen halben Schritt weitergeht und auch ein 384 Bit-SI nutzt, wie es nVIDIA schon macht. Sollten hier die Vorteile die Nachteile nicht überwiegen oder befürchtet man, daß die Speicherpreise weiter steigen, der Marketingeffekt schlechter ist etc.?!

Stormscud
2009-08-29, 16:51:55
Wenn man annimmt, dass die dann Karten mit 768 und 1536 MB Speicher rausbringen scheint das doch schon ein Marketingnachteil zu sein, wenn die Konkurrenz hier 1GB und 2 GB vorweisen kann. Und ganze 3GB halte ich für etwas zu teuer / überdimensioniert, um die Menge zum Start zu bringen.

RavenTS
2009-08-30, 10:50:29
Wenn man annimmt, dass die dann Karten mit 768 und 1536 MB Speicher rausbringen scheint das doch schon ein Marketingnachteil zu sein, wenn die Konkurrenz hier 1GB und 2 GB vorweisen kann. Und ganze 3GB halte ich für etwas zu teuer / überdimensioniert, um die Menge zum Start zu bringen.

Aber die ATi-Karten galten doch zuletzt recht genügsam was den Speicher betrifft, während nVIDIA doch immer etwas mehr benötigte. Sollte das ncht etwas kompensieren oder ist diese einzelne Zahl wirklich so ausschlaggebend für manche Käufer. Kann ich einfach nicht recht nachvollziehen...

Showtime
2009-08-30, 11:00:13
Aber die ATi-Karten galten doch zuletzt recht genügsam was den Speicher betrifft, während nVIDIA doch immer etwas mehr benötigte.

Es geht um Marketing, d.h. das, was die Menschen beeinflusst, die sich nicht wirklich auskennen. Und diese potentiellen Käufer werden garantiert nicht über so etwas wie unterschiedlichen Speicherverbrauch bei den verschiedenen IHVs Bescheid wissen ;).

Sonyfreak
2009-08-30, 11:45:52
Wenn man annimmt, dass die dann Karten mit 768 und 1536 MB Speicher rausbringen scheint das doch schon ein Marketingnachteil zu sein, wenn die Konkurrenz hier 1GB und 2 GB vorweisen kann. Und ganze 3GB halte ich für etwas zu teuer / überdimensioniert, um die Menge zum Start zu bringen.Dann stellt sich mir halt die Frage was letztendlich schwerer wiegt: Ein reiner Marketingnachteil, oder einer der sich im normalen Spieleralltag durchaus gravierend auswirken kann.

mfg.

Sonyfreak

anddill
2009-08-30, 11:47:24
Der Marketingnachteil. Das echte Problem merkst Du ja erst, wenn das geld ausgegeben ist.

Sonyfreak
2009-08-30, 12:06:04
Aber nur solange sich die niedrige Speicherbandbreite nicht negativ bei Grafikkartenreviews auswirkt. Wäre schade um den Chip, wenn er an diesem Mangel verhungern würde.

mfg.

Sonyfreak

Gast
2009-08-30, 12:36:30
Hallo,

dass ein 512bit Si in der Chip- und PCB-Fertigung deutlich höhere Kosten mit sich bringt ist klar. Man darf aber nicht vergessen, dass man dadurch deutlich billigere Speicherbausteine verwenden kann, da man nicht mehr so extrem hochgetaktete GDDR5 Speicherbausteine benötigt, die sehr viel Strom benötigen und so unnötig auch den IDLE-Stromverbrauch in die Höhe treiben (Da war doch mal ne Geschichte, dass man den GDDR5 nicht richtig runtertakten kann, da sonst Bildruckler entstehen).

Zudem geht man Momentan doch von 2,2 TFLOP/s aus, was einer ungefähren Verdopplung der Rechenpower entspricht. Ich denke nicht, dass da nur selbst eine Verdopplung der Speicherbandbreite genügt, sondern es darüber hinaus gehen muss. Die HD4870 hat gegenüber der HD4850 überproportional mehr Speicherbandbreite gegenüber der Rechenleistungszunahme.

Man kann aber von ausgehen, dass AMD das ausgewogen hinbekommt und uns ein Zuckerstück präsentieren wird. Diese Geheimhaltung seitens AMD und die daraus entstehenden Diskussionen fördern, dass AMD in aller Munde bleibt und führt so zu guter/günstiger Werbung!

Gruß an alle...
Martin

Gast
2009-08-30, 23:19:33
Man darf aber nicht vergessen, dass man dadurch deutlich billigere Speicherbausteine verwenden kann, da man nicht mehr so extrem hochgetaktete GDDR5 Speicherbausteine benötigt, die sehr viel Strom benötigen und so unnötig auch den IDLE-Stromverbrauch in die Höhe treiben (Da war doch mal ne Geschichte, dass man den GDDR5 nicht richtig runtertakten kann, da sonst Bildruckler entstehen).
GDDR5 ist sparsam, zumindest wenns nicht der höchstgetaktete ist.

Bisher AMDs Controller schuld am hohen Idle Verbrauch, lösbar ist das Problem durch einen anderen Controller oder dem heruntertakten.
Letztere Lösung kann AMD sofort anwenden, AMD war nur zu faul und hats erst dem High-End 4870 X2 beigebracht.

Knuddelbearli
2009-08-31, 01:34:05
ja klar zu faul

da sieht man dasde wohl selber keine ati mit gddr5 hast, sonst hättest das flimemrn bestimmt bemerkt ...

zu faul ist wenn dann NV um den 2D Modus bei mehreren Monitoren zu fixen ( auch mal bisl mit Schlamm rumwerf )

und es ging doch gerade um die hochgetakteten modelle die viel Strom, brauchen sollen

Ihm
2009-08-31, 02:02:03
Letztendlich ist es völlig egal, ob nun 128, 256 oder 512 Bit verbaut werden. Es zählt nur das was hinten rauskommt.
So könnte man prinzipiell auch einen 128Bit Speichercontroller nehmen, wenn der verbaute Speicher die Bandbreite wieder in die Höhe treibt.
Und das die GPU auch noch effizient damit umgehen muss, hat man bei der hier auch schon erwähnten 2900XT gesehen, welche in diesem Punkt eher ein Flop war.

Wenn die neuen GPU's in Sachen Effizienz ordentlich zulegen können, dann halte ich 512Bit+GDDR5 in Hinblick auf GPGPU auch für sehr interessant.

StefanV
2009-08-31, 09:24:31
Letztendlich ist es völlig egal, ob nun 128, 256 oder 512 Bit verbaut werden. Es zählt nur das was hinten rauskommt.
Öhm, nein, ists nicht.
Denn mit dem einen (512bit) habts mehr Bandbreite als mitm anderen, entsprechend kann man auch den Chip entsprechend auslegen und so weiter.

Von daher solltest dich mal mehr mit der Technik beschäftigen und nicht mit der 'ich hab keine Ahnung und es ist egal, weil ichs eh nicht verstehe' Masche kommen.

So könnte man prinzipiell auch einen 128Bit Speichercontroller nehmen, wenn der verbaute Speicher die Bandbreite wieder in die Höhe treibt.
Richtig und den Speicher dafür kannst du wo kaufen?!
Oh, gibts nicht, so ein pech auch...

Musst wohl doch ein 256bit Speicher Interface nehmen, oder mal bei RAMBUS nachfragen, ob die nicht eventuell was hätten...


Und das die GPU auch noch effizient damit umgehen muss, hat man bei der hier auch schon erwähnten 2900XT gesehen, welche in diesem Punkt eher ein Flop war.
2900XT ist andere Baustelle.
Hier passten Speicherinterface und Inhalt der GPU nicht zusammen.
Mit mehr TMUs (Shadern und ALUs) hätt es aber anders ausgesehen, so in etwa das was der RV770 ist, aber das war wohl damals schlecht möglich...


Wenn die neuen GPU's in Sachen Effizienz ordentlich zulegen können, dann halte ich 512Bit+GDDR5 in Hinblick auf GPGPU auch für sehr interessant.
Tja, nur wie stellst du dir vor, dass die GPUs in Sachen Effizienz noch deutlich zulegen können?!
Schon mal auf den Gedanken gekommen, das man in diesem Punkt schon alles tut wo geht und hier nicht mehr viel zu holen ist??