Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Infos zur 40nm-Generation von ATI & nVidia
Leonidas
2009-02-06, 13:51:04
Link zum Artikel:
http://www.3dcenter.org/artikel/infos-zur-40nm-generation-von-ati-nvidia
Zusammengefaßt läßt sich dies wie nachfolgend visualisiert:visualisieren ;)
Danke für die Zusammenfassung des aktuellen Spekulationsstands!
Leonidas
2009-02-06, 19:20:23
Wird gefixt. Danke.
ShadowXX
2009-02-06, 20:53:33
Meinst du nicht, dass der Sprung auf 80 Textureinheiten beim RV790 (RV770 hat 40 Textureinheiten) etwas groß ist?
Leonidas
2009-02-06, 22:24:53
Örks, C&P-Fehler. Gemeint sind hier natürlich 50 Stück, die exakte Vervielfachtung angesichts von 800->1000 Shader-Einheiten.
Gefixt.
Spasstiger
2009-02-06, 23:27:40
Ich finde es gewagt, sovielen unbelegten Spekulationen einen eigenen Artikel zu widmen. Viele Angaben habe ich noch auf keiner anderen Seite und in keinem Forum gesehen. Das neueste Gerücht ist ja sogar, dass die Budget- und Mainstream-Chips lediglich 40-nm-Refreshes der G9x-Chips sein werden.
Beim GT214 hast du dich mit der Speicherbandbreite vertan, sofern du die Angabe nicht irgendwo rauskopiert hast, sondern sie selbst anhand der von dir vermuteten Spezifikationen berechnet hast. Mit einem 128-Bit-Speicherinterface und GDDR5-Speicher oder einem 256-Bit-Speicherinterface und GDDR3-Speicher sind 115 GB/s im Jahr 2009 ein Ding der Unmöglichkeit.
Und noch eine klugscheisserische Bemerkung:
Bei GDDR5-Speicher wird als Speichertakt der Befehlstakt angegeben und nicht der Datentakt. Die Radeon HD 4870 hat z.B. laut offizieller Spezifikation einen Speichertakt von 900 MHz (und nicht 1800 MHz).
Leonidas
2009-02-07, 09:59:28
Ich finde es gewagt, sovielen unbelegten Spekulationen einen eigenen Artikel zu widmen. Viele Angaben habe ich noch auf keiner anderen Seite und in keinem Forum gesehen. Das neueste Gerücht ist ja sogar, dass die Budget- und Mainstream-Chips lediglich 40-nm-Refreshes der G9x-Chips sein werden.
Streitbar, in der Tat. Ich hab es getan, weil ich denke, daß ich die grundsätzliche Ordnung mittlerweile sehen kann. Ob ich mich irre - wir werden sehen.
Beim GT214 hast du dich mit der Speicherbandbreite vertan, sofern du die Angabe nicht irgendwo rauskopiert hast, sondern sie selbst anhand der von dir vermuteten Spezifikationen berechnet hast. Mit einem 128-Bit-Speicherinterface und GDDR5-Speicher oder einem 256-Bit-Speicherinterface und GDDR3-Speicher sind 115 GB/s im Jahr 2009 ein Ding der Unmöglichkeit.
Hier hab ich mich heftig vertan. Die Beschreibung war so gemeint, der Wert zur Speicherbandbreite natürlich falsch. Hier kommen ca. 60 GB/sec hin. Mein Fehler.
Und noch eine klugscheisserische Bemerkung:
Bei GDDR5-Speicher wird als Speichertakt der Befehlstakt angegeben und nicht der Datentakt. Die Radeon HD 4870 hat z.B. laut offizieller Spezifikation einen Speichertakt von 900 MHz (und nicht 1800 MHz).
Das denke ich ist Marketing-Bla. In einem GDDR5-Chip dieser Bauart liegt nirgendwo dieser Takt an. 1800 MHz hat der Bus, 1800 MHz haben die I/O-Einheiten. 450 MHz haben die Speicherzellen. Nirgendwo sehe ich da 900 MHz.
Spasstiger
2009-02-07, 11:48:15
Streitbar, in der Tat. Ich hab es getan, weil ich denke, daß ich die grundsätzliche Ordnung mittlerweile sehen kann. Ob ich mich irre - wir werden sehen.
Du solltest deine Angaben wenigstens durch Links zu glaubwürdigen und aktuellen Gerüchten/Insidernews belegen.
Den GT214 sehe ich z.B. deutlich stärker, laut letztem Gerücht wird er ein Performancechip (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11788&Itemid=34). Dieser wird wohl schneller sein als der aktuelle Performancechip G92, d.h. mehr als 32 TMUs und 128 SPs. Auch ein 256-Bit-SI an langsamem GDD5-Speicher kann ich mir da vorstellen, zumindest hatte die letzte Performance-Chip-Generation auch ein 256-Bit-SI und bei AMD eben auch GDDR5-Speicher.
Der GT218 könnte einfach nur ein geshrinkter G96 sein (Link (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11868&Itemid=1)).
Im Treiber wird noch ein GT215 gelistet. Darunter könnte ich mir das vorstellen, was du als GT214 präsentierst. Außerdem berichtet Fudzilla von Mainstream-Chips in 40 nm unter den Namen GT100 und GT120: http://www.fudzilla.com/index.php?option=com_content&task=view&id=11694&Itemid=34.
Vielleicht verbergen sich dahinter der GT218 und der GT216.
Das denke ich ist Marketing-Bla.
Die Marketing-Abteilung hat doch gar nichts davon, einen niedrigeren Speichertakt anzugeben, wenn er tatsächlich höher wäre. Die 900 MHz Speichertakt (3,6 Gbps) bei der Radeon HD 4870 sind die offizielle Spezifikation, siehe z.B. Sapphire (http://products.amd.com/en-us/GraphicCardDetail.aspx?detailId=188&id=197&id=177&id=179&id=187&id=188), Powercolor (http://products.amd.com/en-us/GraphicCardDetail.aspx?detailId=179&id=197&id=177&id=179&id=187&id=188), Gigabyte (http://products.amd.com/en-us/GraphicCardDetail.aspx?detailId=187&id=197&id=177&id=179&id=187&id=188), GeCube (http://products.amd.com/en-us/GraphicCardDetail.aspx?detailId=197&id=197&id=177&id=179&id=187&id=188), ...
In einem GDDR5-Chip dieser Bauart liegt nirgendwo dieser Takt an.
Doch, natürlich, sonst würde die Spezifikation ja keinen Sinn machen. Der GDDR5-Speicher auf einer Radeon HD 4870 verarbeitet Befehle im 900-MHz-Takt. Dieser Befehlstakt wird auch dediziert bereit gestellt:
http://www.abload.de/img/gddr524qxy.png
http://www.abload.de/img/gddr51yx0d.png
http://www.qimonda-news.com/download/Qimonda_GDDR5_whitepaper.pdf
Leonidas
2009-02-07, 13:54:30
Es widerspricht allem, was wir zu DDR3 wissen. Und GDDR5 ist nun einmal technologisch DDR3: Speicherzellen takten mit 1/4 des I/O-Takts.
Das da oben ist letztlich nur eine Zusammenfassung, die kommt Marketing-Material gleich. Ich rede aber darüber, was wirklich passiert. Kann sein, das ich mich da irre. Aber ich will es dann auch wirklich wissen: Wie ist das Teil aufgebaut, wie kommen die Taktraten zustande, wie die Bandbreite.
Ergo: Rechne mir bitte vor, wie Du mit 900 MHz Takt auf die Bandbreite des Speichers kommst. Ich hab kein Problem damit, was dazuzulernen, ich will es nur eben begreifen.
Zu den Anmerkungen zu den einzelnen Grafikchips: Generall habe ich doch maßlos viel offengelassen an Spielräumen.
GT214: Nichts spricht gegen mehr als 128 SE. Dies muß natürlich in die 100W TDP passen, aber ansonsten - warum nicht. Die 128 SE sind "möglicherweise". Aber nochmals: Es muß in die 100W TDP passen. Das sind bestenfalls 85W real - welche der aktuellen NV-Grafikkarten würde wir bestenfalls in 85W bekommen, wenn wir sie in 40nm produzieren? GeForce GTX 260. So falsch dürfte ich nicht liegen, egal ob 128 SE oder mehr.
GT218 als geshrinkter G96: Der G96 hat 32 SE - insofern passt das doch fast. Nur wird der GT218 eben ein 64 Bit SI haben, insofern ist dies kein 1:1-Shrink des G96.
Generell halte ich die Shrink-Idee für absurd: Wenn man eh ein neues Design auflegen muß, dann kann man auch ein paar Änderungen dran machen. Fudzilla tut aber gerade so, was würde NV gar nichts außer der Fertigung verändern wollen. Extrem unwahrscheinlich - vor allem, da NV momentan in vielen Marktsegmenten zurückliegt und daher was tun muß. Reine Die-Shrinks kann man sich leisten, wenn man meilenweit in Führung liegt und eine ruhige Kugel schieben will - genau das Gegenteil von dem, was NV machen wird.
GT215: NV wird sicherlich nicht mit 5 Chips auf einmal antreten. Der GT215 ist vermutlich ein direktes Derivat des GT214 oder GT216 mit abgeschalteten HW-Einheiten, der einfach einen extra Codenamen bekommen hat. Zudem fällt auf, daß es bisher Infos zu GT218 bis GT212 gibt, der GT215 aber nur ein einziges Mal erwähnt wurde.
Leonidas
2009-02-07, 14:13:36
PS: Obiges Paper sagt doch ganz eindeutig, daß der Command Clock was anderes ist das der Daten Clock. Wenn also ATI bei GDDR5-Speicher nun plötzlich einen Kommandotakt anstatt eines Speichertakts angeben will - muß mich das interessieren? Ich redete immer vom Speichertakt.
PS2: Sry, wenn das jetzt unbeabsichtigt großkotzig rüberkommt. Das ist nicht so geplant, hast mich nur auf dem falschen Fuß erwischt. Bitte weiterhin kritisieren.
Spasstiger
2009-02-07, 14:21:45
Die IHVs geben als Speichertakt den Befehlstakt an und an diese Konvention sollte man sich auch als Redakteur halten. Kein einziger Grafikkartenhersteller gibt den Speichertakt der Radeon HD 4870 mit 1800 MHz an. Entweder wird der Befehlstakt (z.B. 900 MHz) angegeben oder die Datenrate pro Datenleitung in Gbps (z.B 3,6 Gbps).
Die Bandbreite errechnet sich bei GDDR5-Speicher folgendermaßen:
Speichertakt (CK) * 2 (wg. WCK = 2*CK) * 2 (wg. DDR) * Breite des Speicherinterfaces.
Leonidas
2009-02-07, 15:40:33
CK = Command Clock
WCK = Write Clock
Was würde ich hier eher als "Speichertakt" bezeichnen, wenn ich genau nach einem "Speichertakt" suchen würde? Der CK ist meines Erachtens nach ein Hilfstakt, er ist aber für die Leistung der Karte nicht relevant. Und genau danach suche ich doch: Nach einem Takt, aus dem man die Leistung abschätzen kann.
Nebenbei: Und was ist, wenn die morgen einen GDDR5+ Speicher erfinden, wo alles gleich ist, nur der CK-Takt wurde geviertelt. Die Leistung ist die gleiche, der "Speichertakt" nach deiner Rechnung sinkt dann auf 225 MHz?!
Ich will im übrigen ja gerade nicht zwingend eine Herstellerangabe verwenden. Ich will das verwenden, was der Leser verstehen kann, was ihm die Orientierung erleichtert. Bei allen anderen Speichersorten den echten Speichertakt anzugeben und nur bei ATIs GDDR5 (keine Ahnung, eventuell macht es nVidia ja ganz anders?) den Kommandotakt, ist das genaue Gegenteil von möglichst verständlichen Daten.
Nebenbei: Wenn GDDR5 einen CK von 1/2 des WCK hat, wie liegt dies bei GDDR4? GDDR4 und GDDR5 sind ja enorm verwandt.
Spasstiger
2009-02-07, 16:23:15
GDDR4 und GDDR5 sind ja enorm verwandt.
Sind sie nicht. GDDR4 verwendet keine getrennten Befehls- und Datentaktsignale. GDDR4 kennt auch kein Takt- und Datentraining. GDDR4 ist eigentlich wie GDDR3 nur halt mit einem 8n-Prefetch statt einem 4n-Prefetch.
GDDR5 hat zwar auch einen 8n-Prefetch, aber eine Speicherart definiert sich ja nicht alleine über die Anzahl der Prefetch-Bits.
Nebenbei: Und was ist, wenn die morgen einen GDDR5+ Speicher erfinden, wo alles gleich ist, nur der CK-Takt wurde geviertelt. Die Leistung ist die gleiche, der "Speichertakt" nach deiner Rechnung sinkt dann auf 225 MHz?!
Das kommt auf die Konvention der Hersteller an. Nach GDDR5-Konvention hättest du 225 MHz.
Und natürlich ist der Befehlstakt ebenfalls ein Leistungsindikator. Um GDDR5 bestmöglich auszulasten, muss man mit einem Befehl stets zwei Schreib-/Lesezyklen füllen.
Du kannst deine Konventionen halten wie du willst, aber ich persönliche finde es sinnvoller, wenn man sich an die Hersteller- und Entwicklerkonventionen hält. Nachher wundert sich noch ein Leser, warum kein Shop die Radeon HD 4870 mit 1800 MHz angibt, obwohl alle Reviews davon schreiben. Er kommt dann vielleicht sogar zu dem Schluss, dass die 1800 MHz aus den Reviews lediglich der "effektive Takt" sein könnten, die übliche Deppenverdoppelung - was ja nicht zutrifft.
Ich persönlich halte es so, dass ich bei bei GDDR5 neben dem Speichertakt (= Befehlstakt) noch die Datenrate pro Datenleitung angeben. Z.B.:
Radeon HD 4870, Speichertyp: GDDR5, Speichertakt 900 MHz (3,6 Gbps)
Bei allen anderen Speichersorten den echten Speichertakt anzugeben und nur bei ATIs GDDR5 (keine Ahnung, eventuell macht es nVidia ja ganz anders?) den Kommandotakt, ist das genaue Gegenteil von möglichst verständlichen Daten.
Der Befehlstakt ist der echte Speichertakt. In diesem Rhytmus kann der Speicher die ihm aufgetragenen Aufgaben verrichten.
In Marketingfolien vermeiden die IHVs übrigens den Speichertakt, da gibt man lieber die Datenrate pro Datenleitung an. Auch die Speicherhersteller bewerben ihre Speicherchips mit Datenraten und nicht mit Taktfrequenzen.
Und noch eine klugscheisserische Bemerkung:Klugscheißerisch. (ß).
Bei GDDR5-Speicher wird als Speichertakt der Befehlstakt angegeben und nicht der Datentakt. Die Radeon HD 4870 hat z.B. laut offizieller Spezifikation einen Speichertakt von 900 MHz (und nicht 1800 MHz). Das verwirrt mich. Ich denk sie hat "effektiv" 3600 MHz.
Ronny145
2009-02-07, 19:09:11
Die HD4670 mit GDDR3/DDR3 Speicher wird mit 900/1000 Mhz angegeben von AMD. Wie ist es möglich, dass dann GDDR5 nur 900 Mhz haben soll mit gleichzeitig mehr Bandbreite?
Ich weiß, es ist ziemlich konfus, aber nicht vergessen: Double Data Rate.
Bei DDR1 hattest du mit 200 physikalischen Takt noch die Bandbreite eines 400 MHz SDR Moduls. Bei DDR2 brauchst du dafür aber nur noch 100 MHz und so weiter.
Wer sich mal etwas länger die Tabellen bei Wikipedia anschaut wird sicher merken, das es darauf ankommt, wie etwas bezeichnet wird.
http://de.wikipedia.org/wiki/DDR3#DDR3-SDRAM
Ich verwende nur ungern "MHz" wenn etwas lediglich "so effektiv" ist, also in Wirklichkeit diesen Takt gar nicht besitzt.
Bei Geizhals steht das auch so, obwohl es mittlerweiler verwirrend wird =) Eigentlich sollte ein "900er GDDR5" von der Bandbreite ein "1800er GDDR4" sein.
Wir sollten uns mal darauf einigen, was wir nun angeben: physikalischer, I/O oder effektiver Takt.
Gipsel
2009-02-08, 01:59:09
Örks, C&P-Fehler. Gemeint sind hier natürlich 50 Stück, die exakte Vervielfachtung angesichts von 800->1000 Shader-Einheiten.
Gefixt.
Zu dem Thema der Anzahl der Einheiten glaube ich schon mal vor einiger Zeit (2 Monaten?) gehört zu haben, daß die Anzahl der SIMDs moderat von jetzt 10 auf dann 12 steigen soll.
Jedem SIMD stehen beim RV770 und auch RV670 16 VLIW- (jeweils fünf 32bit Shader) und 4 Textureinheiten zur Verfügung. Das würde dann in der Summe 960 Shader und 48 Textureinheiten ergeben. Schon beim Schritt vom RV670 zum RV770 wurden ja im Prinzip nur die Anzahl der SIMDs von 4 auf 10 erhöht (der RV730 hat aber 8 SIMDs mit je 8 VLIWs, also nicht die gleiche Organisation wie der RV670, trotz gleicher Anzahl der Shadereinheiten, das soll beim RV740 ja wohl auf 8x16x5 und damit das HD4830 Schema angehoben werden). Das Maximalupdate (falls der Stromverbrauch unter Kontrolle bleibt) wären meiner Meinung nach 16 SIMDs zu 16 VLIWs mit jeweils 5 "stream cores", also 1280 Shader und 64 TMUs.
Wie sollen denn die 1000 Shader organisiert sein? Zehn SIMDs mit jeweils 20 VLIWs und 5 Textureinheiten klingt für mich nicht überzeugend (aber auch nicht unmöglich). Prinzipiell gesehen, sollten für die Zukunft mehr SIMDs mit dann weniger (oder zumindest nicht mehr) Einheiten eigentlich das effizientere Konzept sein, insbesondere für anspruchsvolle Shader (Branching) als auch für GPGPU. Aber das ist natürlich auch aufwendiger zu bauen.
@Leonidas
Ich frage mich wie du mit deinen Specs für den GT214 auf die Performance einer GTX260 kommen willst.
128SP 32TMUs und 60GB/s sind ziemlich wenig. Damit wird man Mühe haben an eine 9800GTX+ ranzukommen. Bei der Texelfüllrate und vor allem bei der Speicherbandbreite ist man sehr weit weg von einer GTX260. Einzig die rechenleistung läge auf gleichem Niveau.
IMHO sind da schon 6 Cluster nötig um die GTX260 zu erreichen.
Leonidas
2009-02-16, 06:52:40
Du kannst deine Konventionen halten wie du willst, aber ich persönliche finde es sinnvoller, wenn man sich an die Hersteller- und Entwicklerkonventionen hält. Nachher wundert sich noch ein Leser, warum kein Shop die Radeon HD 4870 mit 1800 MHz angibt, obwohl alle Reviews davon schreiben. Er kommt dann vielleicht sogar zu dem Schluss, dass die 1800 MHz aus den Reviews lediglich der "effektive Takt" sein könnten, die übliche Deppenverdoppelung - was ja nicht zutrifft.
Ich persönlich halte es so, dass ich bei bei GDDR5 neben dem Speichertakt (= Befehlstakt) noch die Datenrate pro Datenleitung angeben. Z.B.:
Radeon HD 4870, Speichertyp: GDDR5, Speichertakt 900 MHz (3,6 Gbps)
Der Befehlstakt ist der echte Speichertakt. In diesem Rhytmus kann der Speicher die ihm aufgetragenen Aufgaben verrichten.
In Marketingfolien vermeiden die IHVs übrigens den Speichertakt, da gibt man lieber die Datenrate pro Datenleitung an. Auch die Speicherhersteller bewerben ihre Speicherchips mit Datenraten und nicht mit Taktfrequenzen.
Ich denke, du hast letztlich einige starke Argumente gebracht und ich werde mich prüfen müssen, wie ich dies künftig handeln will. Ich würde ungern die bisherige Konvention zerstören, wonach man am Speichertakt direkt die Leistung ablesen kann (wenn bei GDDR5 nur noch die Hälfte angegeben wird, ist dies dann nicht mehr augenscheinlich). Insofern warte ich ab, wie dies bei weiteren Grafikkarten angegeben wird, die mit GDDR5 kommt. Setzt sich dort überall die Hälftelung durch, werde ich allerdings auch nichts anderes machen können, als mich dem zu beugen.
@Leonidas
Ich frage mich wie du mit deinen Specs für den GT214 auf die Performance einer GTX260 kommen willst.
128SP 32TMUs und 60GB/s sind ziemlich wenig. Damit wird man Mühe haben an eine 9800GTX+ ranzukommen. Bei der Texelfüllrate und vor allem bei der Speicherbandbreite ist man sehr weit weg von einer GTX260. Einzig die rechenleistung läge auf gleichem Niveau.
IMHO sind da schon 6 Cluster nötig um die GTX260 zu erreichen.
Ich bin von einem deutlich höheren Takt durch die 40nm-Fertigung ausgegangen. Immerhin ist die GTX260 ja eher gemächlich getaktet. Aber ja: 160 SP oder 192 SP und "normale" Taktraten machen es genauso.
Puh da bist du aber optimistisch.
Um die gleiche Texelleistung zu erreichen müsste man deutlich über 1000MHz takten.
bei der Rechenleistung wird das ohne Frage möglich sein.
Nur wenn ich die Rechenleistung einer GTX260, die Speicherbandbreite einer 8800GT(wie du selbst sagst) und eine Texelfüllrate von weniger als 30GTex/s nehme, kommt schwerlich die Leistung einer GTX260 bei raus.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.