PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 40nm Refreshes für GF110 und Cayman?


AnarchX
2010-12-15, 10:32:08
Nachdem man die 28nm Chips wohl frühestens gegen Ende 2011 erwarten kann, erstreckt sich bis dahin noch eine Zeitspanne von etwa 11 Monaten.

Mit 389mm² ist Cayman noch nicht am Maximum des 40nm Prozess angelangt und Nvidia besitzt mit dem Architekturkonzept von GF104 Potential für einen echten Gamer-Fermi, der auch noch einige Zeit nach der Kepler-Vorstellung verkauft werden könnte.
Denkbar wäre nun, dass beide Hersteller die Chance ergreifen und zum Back to school Sale (Juli bis September) diese möglichen Chips vorstellen.
Alternativ wäre es aber auch möglich, dass man sich auf Dual-GPU-Flagschiffe (Antilles VS Dual-GF104/GF110) beschränkt und im Single-GPU-Markt die Preise kontinuierlich senkt.

Was ist eure Meinung dazu?

fondness
2010-12-15, 11:00:43
Solange GF weiter 28nm Chips für das erste Halbjahr 2011 verspricht würde ich nicht davon ausgehen. Oder hat sich daran etwas geändert?

AffenJack
2010-12-15, 11:12:47
Die letzte Folie zeigte Massenproduktion ab Q3 glaub ich, für ne ganze generation könnte das knapp werden 2011, aber nen 28nm Testchip, zb nen geshrinkter Barts sollte doch eigentlich recht früh möglich sein.

fondness
2010-12-15, 11:17:02
Die letzte Folie zeigte Massenproduktion ab Q3 glaub ich, für ne ganze generation könnte das knapp werden 2011, aber nen 28nm Testchip, zb nen geshrinkter Barts sollte doch eigentlich recht früh möglich sein.

Das bezog sich aber nur auf den neuen HPP-Prozess AFAIK.

tombman
2010-12-15, 11:20:06
Ich glaub, die werden mit DualKarten kommen...

AffenJack
2010-12-15, 11:35:20
Das bezog sich aber nur auf den neuen HPP-Prozess AFAIK.
falsch, die bezog sich auf HP.
http://h-4.abload.de/img/gtc_2arwd.jpg
Massenproduktion ab August 2011. HPP ist erst weit in 2012

N0Thing
2010-12-15, 11:41:32
Ob Refresh oder nicht hängt wohl davon ab, ob man lieber auf Dual-Karten setzt und sich eine weitere Zwischenentwicklung spart, oder ob AMD und Nvidia davon ausgehen, daß sich die 28nm Produktion so weit nach hinten verschiebt, daß sich die Kosten für eine eine 250-300W Single-GPU-Karte lohnen würde.

Ich bin da einer Meinung mit Tombman, daß es Dual-GPU-Karten anstelle eines Refresh geben wird.

V2.0
2010-12-15, 12:44:03
Antilles vs. GF114 X².

Hugo
2010-12-15, 20:26:43
ich denke, dass im High End bis 28nm nix mehr passieren wird.

Ailuros
2010-12-15, 20:32:12
AMD's GDP hat nicht gerade wenig am Hut bis auch Fusion so richtig in Trab kommt.

Spasstiger
2010-12-15, 21:33:27
Ich glaub, die werden mit DualKarten kommen...
Richtig, mit denen wird man die Zeit schon überbrücken. Dazu noch diverse Herstellervarianten mit höheren Taktraten und/oder mehr Speicher. Treiberoptimierungen und neue Treiberfeatures werden die Leute weiter bei der Stange halten.
NV konnte mit dem G80 auch eine ruhige Kugel schieben, der GT200 kam erst 1,5 Jahre später, dazwischen kam noch ein "Billig-G80" (G92).

OBrian
2010-12-16, 00:11:19
Für die Enthusiasten wird es wohl ein mageres Jahr 2011, aber die meisten Leute sind ja keine Enthusiasten, d.h. es besteht nicht unbedingt Bedarf für schnellere Karten (auch weil die uralten Konsolen kräftig bremsen, werden die Spiele nicht so schnell anspruchsvoller). Mit günstig herstellbaren Karten auf Barts-/GF106-Basis kann man die Preise senken und trotzdem noch Gewinn machen, während die sich wie geschnitten Brot verkaufen. Immerhin sind das auch schon gute Upgrades von z.B. einer 4850 oder 9800GTX.

Ich sehe also aus Sicht beider Firmen nicht die Notwendigkeit, sind zu weiteren Abenteuern auf 40nm-Basis hinreißen zu lassen. Wenn noch Abstufungen notwendig sind, kann man die aus der vorhandenen Chips bauen.

N0Thing
2010-12-16, 00:35:08
Mit günstig herstellbaren Karten auf Barts-/GF106-Basis kann man die Preise senken und trotzdem noch Gewinn machen, während die sich wie geschnitten Brot verkaufen. Immerhin sind das auch schon gute Upgrades von z.B. einer 4850 oder 9800GTX.

Davon könnten letzten Endes auch wieder die Enthusiasten profitieren, wenn dadurch die Basis der DX11-User schneller als erwartet ansteigt. :smile:

aylano
2010-12-17, 15:49:59
@AnarchX
Der 2GB-Caymann zeigt IMO ja, dass es keine weiteren Refreshes geben wird. Sonst hätte AMD noch 1 GB sowie Komponenten genutzt, die zu keiner Verschiebung geführt hätte.
Und mit der Zeit im Verlauf des Jahres 2011 werden die 2 GB (=2Gbits?)-Arbeitsspeicher immer billiger.

Wenn AMD 28nm-GPUs in TMSC & GF machen will, dann würden da wahrscheinlich eh noch kaum R&D-Kapazitäten im Jahre 2011 für weitere 40nm-GPUs übrigbleiben.

AnarchX
2010-12-17, 15:55:43
NV konnte mit dem G80 auch eine ruhige Kugel schieben, der GT200 kam erst 1,5 Jahre später, dazwischen kam noch ein "Billig-G80" (G92).
Mit G80-A3 hat man nach 6 Monaten immerhin die Shaderleistung um 11% und die Bandbreite um 20% angehoben. Auch bei der 8800 GTS erlaubte die A3-Revision deutlich schnellere OC-Versionen.

G A S T
2010-12-19, 00:26:50
Also ich würde gerne möglichst zügig eine GTS 550
mit 1536 MB GDDR5, 192-Bit SI, 288 SPs und 48 TMUs sehen. :freak:

Dann muss man nicht mehr über die HD 5770 reden. :P

Ailuros
2010-12-19, 09:11:05
Mit G80-A3 hat man nach 6 Monaten immerhin die Shaderleistung um 11% und die Bandbreite um 20% angehoben. Auch bei der 8800 GTS erlaubte die A3-Revision deutlich schnellere OC-Versionen.

IMHO (und es gilt wohl fuer beide IHVs) haengt es eher davon ab ob A oder B die Resourcen auflegen will fuer einen weiteren Refresh. Selbst wenn der Aufwand klein sein sollte, bleibt dann immer noch der Gedanke dass jegliches Resultat eine viel zu kurze Lebenszeit haben koennte.

Wie lange brauchen beide heutzutage fuer einen refresh unter dem gleichen Herstellungsprozess? Sagen wir mal nicht weniger als 9 Monate die irgendwo von November ab zaehlen sollten. Ergo fruehestens 08/11' egal von wem der beiden und das sogar als "best case scenario". Wenn man dann bedenkt wann die ersten 28nm GPUs erscheinen koennten sieht es nicht nach einer logischen Zeitspanne aus fuer weitere refreshes.

Ausser einer der beiden weiss mit absoluter Sicherheit schon jetzt dass X 28nm GPU sich um Y Monate verspaeten wird. Etwas schwer zu glauben momentan.

Nightspider
2010-12-19, 17:42:22
Nvidias GTX580 war ja kein echter Refresh...die könnten schon vor 08/11 etwas auf den Markt bringen, wenn man schon vor der GTX580 an etwas neuem gearbeitet hat.

Ailuros
2010-12-19, 18:15:26
Nvidias GTX580 war ja kein echter Refresh...die könnten schon vor 08/11 etwas auf den Markt bringen, wenn man schon vor der GTX580 an etwas neuem gearbeitet hat.

Nach alten vendor road-maps war eine GF104/GX2 fuer Q4 2010 und eine GT5xx fuer Q1 2011. Ich kann natuerlich nicht ausschliessen dass irgend jemand nur Quark aufgeschnappt hat, aber ich koennte auch kinderleicht spekulieren dass NV vielleicht doch nicht hoffte dass GF110 so frueh ankommen kann. Zu guter letzt wurde 110 auf A1 gelauncht was auch ziemlich selten ist fuer so komplizierte GPUs.

Wenn NV tatsaechlich noch einen refresh fuer Fermi plant, warum dann nicht gleich auf 28nm?

Bucklew
2010-12-19, 18:20:09
Wenn NV tatsaechlich noch einen refresh fuer Fermi plant, warum dann nicht gleich auf 28nm?
Ist auch Quatsch jetzt noch einen GF110-Nachfolger in 40nm nachzulegen. Dafür wären die Vorteile viel zu gering im Vergleich zur Entwicklung.

Duplex
2010-12-19, 18:30:33
Die GTX580 ist die schnellste Single GPU Karte, erstmal wird Nvidia viele Karten im Markt absetzen, von AMD wird es außer der Dual Karte 6990 wahrscheinlich keine neue High End Karten mehr geben, wozu soll Nvidia also ein Refresh in 40nm planen? wenn dann wird es eine Dual Karte auf GF110 Basis geben die dann wieder AMDs Dual Karte schlagen wird.

Ailuros
2010-12-19, 18:40:54
Ist auch Quatsch jetzt noch einen GF110-Nachfolger in 40nm nachzulegen. Dafür wären die Vorteile viel zu gering im Vergleich zur Entwicklung.

Sieht IMO aehnlich bei AMD aus. Wie ich schon sagte nur im Fall wo einer der beiden oder beide IHVs mit Sicherheit wissen dass sich 28nm um X Zeit verspaeten wird waere es ein sinnvoller Gedanke.

deekey777
2010-12-19, 18:54:31
Ich will ja nicht die alte Geschichte aufwärmen, aber auch von dem Cayman gibt es keinen Die-Shot. Wer weiß, vielleicht schlummern im Cayman noch paar SIMDs, die bloß auf einen Respin warten.

Ailuros
2010-12-19, 19:12:27
Ich will ja nicht die alte Geschichte aufwärmen, aber auch von dem Cayman gibt es keinen Die-Shot. Wer weiß, vielleicht schlummern im Cayman noch paar SIMDs, die bloß auf einen Respin warten.


Entschuldige aber hier passt wohl nur dass Hoffnung als letzte stirbt. Bei 389mm2? :rolleyes:

Spasstiger
2010-12-19, 20:08:32
Wenn man die Skalierung von der HD 6950 zur HD 6970 anschaut (10% höhere fps bei 20% mehr Rechenleistung und Texelfüllrate, 15% mehr Speicherbandbreite und 10% mehr Takt), dann machen mehr SIMDs bei Cayman auch nur begrenzt Sinn.
Selbst der achso am Limit laufende Cypress skalierte etwas besser mit den Einheiten (20% höhere fps bei 30% Rechenleistung und Texelfüllrate, 20% mehr Speicherbandbreite und 17% mehr Takt).

Bucklew
2010-12-19, 20:33:28
Ich will ja nicht die alte Geschichte aufwärmen, aber auch von dem Cayman gibt es keinen Die-Shot. Wer weiß, vielleicht schlummern im Cayman noch paar SIMDs, die bloß auf einen Respin warten.
Müssen die Yields ja verdammt schlecht sein, wenn man Cayman nicht vollaktiviert auf den Markt bringen kann.

Duplex
2010-12-19, 20:38:18
Selbst der achso am Limit laufende Cypress skalierte etwas besser mit den Einheiten (20% höhere fps bei 30% Rechenleistung und Texelfüllrate, 20% mehr Speicherbandbreite und 17% mehr Takt).vielleicht gibt es in 28nm wieder 5D Shader, eine weiterentwicklung von Cypress mit 640-800-5D (3200/4000) Shader, 64 ROPs, 160 TMUs, 512 Bit SI & 2GB DDR5, das wäre dann sehr leistungsstark gegenüber aktuelle Karten!

Spasstiger
2010-12-19, 20:51:48
Imo wird man einfach das Cayman-Konzept weiterausbauen. Z.B. 3 Raster-Engines, evtl. 2 Tessellatoren pro Raster-Engine (siehe Barts), 16 statt 12 SIMDs (VLIW4) pro Raster-Engine, 48 ROPs, 384 Bit SI. Damit kann man das Die etwas schrumpfen und reduziert das Risiko, im neuen 28-nm-Verfahren nur geringe Yields zu erzielen. Außerdem bleibt dann Spielraum für den 28-nm-Refresh.
Sicherlich ist Cayman auch noch nicht ausgereizt, der VLIW4-Compiler hat vermutlich noch Potential und die parallelen Rasterengines lassen sicherlich auch noch Raum für Verbesserungen. Caymans ALUs erreichen jedenfalls noch keine 80% Auslastung wie im Vorfeld gemutmaßt. Man ist immer noch bei den 70%, die Cypress erreichte. Wenn man die Auslastung dort hinbringt, wo sie sein sollte, hat man auch schonmal 10% mehr Performance for free.
Startschwierigkeiten bei einer neuen Architektur sind nicht ungewöhnlich. Siehe z.B. CineFX. Bei der GeForce FX noch eine mittlere Katastrophe, bei der GeForce 6 dagegen schon mehr als konkurrenzfähig.

Coda
2010-12-19, 21:04:27
Siehe z.B. CineFX. Bei der GeForce FX noch eine mittlere Katastrophe, bei der GeForce 6 dagegen schon mehr als konkurrenzfähig.
Das Beispiel ist ziemlicher Unsinn. Die GeForce 6 hat völlig andere Shaderprozessoren als eine GeForce FX mit viel mehr FP-Leistung.

Bucklew
2010-12-19, 21:23:05
Besseres Beispiel für das was Spasstiger sagen wollte wäre wohl der r600 gewesen.

Spasstiger
2010-12-19, 21:35:49
Das Beispiel ist ziemlicher Unsinn. Die GeForce 6 hat völlig andere Shaderprozessoren als eine GeForce FX mit viel mehr FP-Leistung.
Ich weiß, dass man die vierfache Anzahl an fp-ALUs verbaut hat. War ja auch nur ein Beispiel, dass man sich nicht sofort von einer Architektur abwenden muss, wenns im ersten Anlauf nicht so klappt wie erhofft.

Imo liegt bei Cayman noch Leistung brach und zwar um 5-8%. Das bekomme ich jedenfalls raus, wenn ich versuche, über mein Verfahren des geometrischen Mittels das Verhältnis der HD 6970 zur HD 6950 im Vergleich der HD 5870 zur HD 5850 zu erklären. Nur wenn Cayman 5-8% schneller wäre, komme ich überhaupt in den benötigten Lösungsbereich:

[siehe angehängte Grafiken]

a und b müssen jeweils zwischen 0 und 1 liegen. Das ist nur möglich, wenn der hintere Teil der Gleichung zwischen 1.05 und 1.08 liegt. Das ist quasi das Handicap, das ich Cayman im Vergleich zu Cypress gewähre.

Besseres Beispiel für das was Spasstiger sagen wollte wäre wohl der r600 gewesen.
Vom R600 zum RV670 gabs aber abseits der Taktsteigerung keine nennenswerte Performanceverbesserung. Man hat "lediglich" die Diesize reduziert.

/EDIT: Mir fällt gerade auf, dass ich in den Gleichungen einen Faktor 1.2/1.1 vergessen habe (Performanceunterschied HD 6970 zu HD 6950 vs. HD 5870 zu HD 5850). Das Handicap bei Cayman ist also gar nicht notwendig. Um in den Lösungsbereich zu kommen, muss ich sogar Cypress ein kleines Handicap von 1-4% zugestehen.
Beim Vergleich Cypress vs. Barts benötige ich übrigens kein Handicap, da führt mich ein Faktor 1.00 (also kein Handicap) genau in die Mitte des Lösungsbereiches. Die Performance der Barts-Ableger ist also mit meinem Ansatz "gewichtetes geometrisches Mittel" anhand der Eckdaten genauso schlüssig nachvollziehbar wie bei den Cypress-Ablegern. Die Cayman-Ableger dagegen tanzen geringfügig aus der Reihe (damit meine ich die Performance HD 6950 vs. HD 6970).

Bucklew
2010-12-19, 21:38:13
Vom R600 zum RV670 gabs aber abseits der Taktsteigerung keine nennenswerte Performanceverbesserung. Man hat "lediglich" die Diesize reduziert.
Es gab noch mehr Chips nach dem RV670, die auf der r600-Architektur aufgebaut haben.

AnarchX
2010-12-19, 21:54:07
Vielleicht gibt es ja bei AMD einen Refresh in der Art der X1950XT(X), sofern Caymans IMC höhere GDDR5-Geschwindigkeiten zulässt. Das dürfte bei Tessellation das Off-Chip-Buffering wohl noch etwas beschleunigen.

deekey777
2010-12-20, 11:41:27
Wenn man die Skalierung von der HD 6950 zur HD 6970 anschaut (10% höhere fps bei 20% mehr Rechenleistung und Texelfüllrate, 15% mehr Speicherbandbreite und 10% mehr Takt), dann machen mehr SIMDs bei Cayman auch nur begrenzt Sinn.
Selbst der achso am Limit laufende Cypress skalierte etwas besser mit den Einheiten (20% höhere fps bei 30% Rechenleistung und Texelfüllrate, 20% mehr Speicherbandbreite und 17% mehr Takt).
Dieser Punkt bereitete mir schon vorher Sorgen. Und hätte ich noch einen Blick auf die Skalierung HD5850 vs. HD5870 geworfen, wäre meine Idee gleich für den Popo.
Ich habe mich schon vor dem Launch gefragt, ob die Dispatcher überhaupt schaffen, mehr als 10 SIMDs zu verwalten.

Müssen die Yields ja verdammt schlecht sein, wenn man Cayman nicht vollaktiviert auf den Markt bringen kann.
Was hat Redunanz mit Yields zu tun?
Alsob die Chips nur aus SIMDs bestehen würden...

AnarchX
2010-12-20, 11:48:09
Dieser Punkt bereitete mir schon vorher Sorgen. Und hätte ich noch einen Blick auf die Skalierung HD5850 vs. HD5870 geworfen, wäre meine Idee gleich für den Popo.
Ich habe mich schon vor dem Launch gefragt, ob die Dispatcher überhaupt schaffen, mehr als 10 SIMDs zu verwalten.

Das Gerücht gab es ja auch bei Cypress, dass dieser bis zum GF100-Launch mit gedrosseltem Front-End läuft. ;D

Aber mehr als 24 SIMDs sind bei der bekannten Die-Size und Transistorzahl eher unglaubwürdig. Die 1920SPs kamen wohl wirklich nur auf Basis von Unwissen über Wave-Front-Sizes und dem Wissen über 24 SIMDs.

Bucklew
2010-12-20, 16:39:18
Was hat Redunanz mit Yields zu tun?
Alsob die Chips nur aus SIMDs bestehen würden...
Was soll Redundanz in diesem Falle bringen?

Gipsel
2010-12-20, 17:33:36
Es gab noch mehr Chips nach dem RV670, die auf der r600-Architektur aufgebaut haben.
Kommt drauf an, was Du mit R600-Architektur meinst. Die ALUs selber sind zwar recht ähnlich, allerdings wurde beim Schritt RV670 => RV770 ziemlich viel an der internen Organisation und dem Aufbau der SIMDs gedreht (Stichworte: TMUs und Caches), so daß man ab da eigentlich auch vom R700-Layout (oder wem die Nummern nicht gefallen, der Codename war Wekiva) sprechen kann, wenn man sich nicht nur auf die ALUs versteift. Nur dadurch war überhaupt die Skalierung auf 10 SIMDs möglich, mit dem R600-Aufbau wäre das schlicht sehr ineffizient geworden.

Ailuros
2010-12-20, 18:07:50
Was hat Redunanz mit Yields zu tun?

Gar nichts. Yields steht bei mir fuer die Anzahl der operativen chips pro wafer und ist zu 100% eine Herstellungsprozess bzw. Foundry-Angelegenheit.

Alsob die Chips nur aus SIMDs bestehen würden...

Mich wuerde es persoenlich kein bisschen ueberraschen wenn AMD pro cluster einen 17. SIMD fuer Redudanz haben koennte wie in der Vergangenheit. Aber einen oder mehr cluster die deaktiviert sind?

Ich kann zwar keine Milchmaedchen-rechnung aufstellen wieviel die area fuer A,B oder C Einheiten zustehen koennten, aber wenn ich bin mir ziemlich sicher dass wenn man die 389mm2 so unter die Lupe nimmt, dass die groesste Menge den zusaetzlichen 16 TMUs im Vergleich zu Cypress entspricht.

Gipsel
2010-12-20, 18:51:00
Ich kann zwar keine Milchmaedchen-rechnung aufstellen wieviel die area fuer A,B oder C Einheiten zustehen koennten, aber wenn ich bin mir ziemlich sicher dass wenn man die 389mm2 so unter die Lupe nimmt, dass die groesste Menge den zusaetzlichen 16 TMUs im Vergleich zu Cypress entspricht.
Die TMUs alleine sind gar nicht so groß (4 TMUs inklusive L1-Tex-Cache wohl nur irgendwas bei 2mm², also 16 Stück dann auch nur höchstens 10mm²). Aber in der Summe machen dann die 4 zusätzlichen SIMDs doch was aus. die TMUs kann man ja nicht einfach im luftleeren Raum plazieren. Das sind dann neben den größeren Schedulern (für 12 statt 10 SIMDs) dann auch sowas wie die Anbindung zum L2 oder an die Output Buffer/ROPs (da müssen größere Crossbars mit mehr Ports hin). Oder eben auch so Sachen wie die schiere Menge an Registerfiles (Cayman hat 6 MB Registerspace, Cypress nur 5 MB).

Alles in allem würde ich schätzen, daß Fläche rein der Shadereinheiten (ohne TMUs) des Cayman minimal kleiner ist als die von Cypress, sogar mit der Steigerung auf 24 SIMDs. Die TMUs bringen das dann wahrscheinlich grob auf Gleichstand mit Cypress und die fehlenden 50mm² gehen für Scheduler, doppeltes Frontend, schnelleren Speichercontroller, überholte ROPs usw. drauf. Allerdings habe keine konkrete Idee, wie aufwendig die Virtualisierung der GPU-Resourcen ist (bei Cayman steht jedem Programm eine eigene Queue zur Verfügung, verschiedene Prozesse können also simultan aber vollständig getrennt mit der GPU arbeiten mit jeweils eigenem virtuellem Speicher usw.), ich würde aber mal vermuten, daß das nicht wirklich viel kostet.

PS:
Sig sollte weg sein (zumindest für neue Beiträge).

Ailuros
2010-12-20, 19:10:01
Danke fuer die Erlaeuterung.

nagus
2011-02-15, 19:00:45
Müssen die Yields ja verdammt schlecht sein, wenn man Cayman nicht vollaktiviert auf den Markt bringen kann.

da sogut wie alle 6950 auf 6970 freischaltbar sind, dürften die yields sogar maximal prima sein :wink:

evtl. kommt vielleicht noch eine höher getaktete variante... aber selbst das ist alleine aus namenstechnischen gründen ziemlich "ungut" ... wie würde die dann heißen? 6980 ? ..... neee. aber im prinzip wär sowas wie von 4870 auf 4890 schon denkbar falls sich 28nm verspätet. aber selbst dann haben sie ja noch den schnelleren 6990.

an einen refresh mit mehr einheiten glaube ich jedenfalls nicht.

Nightspider
2011-02-17, 21:45:30
Wie hoch ist eigentlich die Wahrscheinlichkeit, das NV und AMD VRAM auf die GPU packen?

Würde man damit nicht stark Herstellungskosten und Latenzen senken, sowie die Bandbreite nach oben schrauben?

Wenn Intel das schon bei Ivy Bridge plant wäre es sicherlich nicht all zu weit hergeholt, dass das auch bald die GPU Produzenten nachmachen.

Spasstiger
2011-02-17, 22:12:22
VRAM auf dem GPU-Träger ist sicherlich ein Thema, mit dem sich NV und AMD beschäftigen. NV tut es ganz gewiss, hab da mal eine Folie gesehen. Wobei das bei NV vermutlich eher ein Thema für Tegra und Ion ist und weniger für die Desktop-GPUs.

Coda
2011-02-17, 23:01:22
Solang man Imediate Mode rendert muss man zumindest den kompletten Framebuffer in wie auch immer schnelleren VRAM bekommen. Das ist beim PC schwierig.