PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33

Coda
2014-04-25, 09:12:31
Natürlich, es gibt absolut nichts was dagegen spricht.
Außer die Die-Size. Selbst mit Maxwell-Architektur wäre das ein großer Chip.

Ravenhearth
2014-04-25, 10:29:00
Nicht unbedingt. GK104 hat vier Mal so viele Shader wie GK107, ist aber nur rund 2,5x so groß. Wenn man das nun per Milchmädchenrechnung auf GM107->GM204 überträgt (2560 Shader für GM204), landet man bei rund 370mm². Real dürfte ein Stück mehr herauskommen.

fondness
2014-04-25, 11:20:50
Man muss sich dennoch die Frage stellen, warum man jetzt noch einen großen 28nm Chip bringen sollte, wenn man dasselbe wenig später dank 20nm mit deutlich weniger Die-Size und Stromverbrauch haben könnte. Der Chip wäre wenig später schon wieder veraltet.

AnarchX
2014-04-25, 11:25:38
Man muss sich dennoch die Frage stellen, warum man jetzt noch einen großen 28nm Chip bringen sollte, wenn man dasselbe wenig später dank 20nm mit deutlich weniger Die-Size und Stromverbrauch haben könnte. Der Chip wäre wenig später schon wieder veraltet.
Aber möglicherweise weit in 2015 hinein deutlich günstiger in der Herstellung.

Timbaloo
2014-04-25, 11:26:03
Geringere Die-Size bringt nichts wenn der Chip in der Herstellung mehr kostet, und nach dem was man so von den Prozessen hört ist das mMn genau so. Vom Risiko das man mit 20nm hat mal ganz abgesehen. Und wann 20nm Chips dann tatsächlich auftauchen ist ja auch nicht sicher.

Dawn on Titan
2014-04-25, 11:46:18
Außer die Die-Size. Selbst mit Maxwell-Architektur wäre das ein großer Chip.

Wieso, schneller und kleiner als GK110 bei wahrscheinlich weniger Leistungsaufnahme - what is not to like?

Selbst ein Chip mit 400-450mm ist immer noch 20% kleiner als GK110. Dazu wahrscheinlich von Anfang an gute Yields und viele nun preiswerte Wafer.

Botcruscher
2014-04-25, 12:11:45
Aber möglicherweise weit in 2015 hinein deutlich günstiger in der Herstellung.

Die Mehrkosten bringt der Kunde durch die Leistung doppelt wieder rein. Damit bleibt nur eine Antwort: 20nm läuft extrem scheiße und entsprechende Chips sind nicht möglich. Zusätzlich wird die Lebensspanne von min. 9 Monaten auch noch voll ausgeschöpft. Vor Q2 15 ist also überhaupt nichts großes von 20nm zu erwarten.

VooDoo7mx
2014-04-25, 12:16:02
Zudem denke ich, auf 256 Bit tritt eine klare Performance-Bremse auf, wenn man wirklich die 780Ti einholen wollte. Unklar, ob dies mit 256 Bit überhaupt möglich ist.

Maxwell ist was das Speicherinterface angeht sehr effizient. Erste getestete GM108 (3SMM 384 Shader Cores, 64 Bit SI) Notebooks mit GT 840M zeigen trotz halber Speicherbandbreite die gleiche Performance wie eine DDR3 GT 750M (GK107 384 Shader, 128 Bit SI).

HOT
2014-04-25, 12:54:00
Maxwell ist was das Speicherinterface angeht sehr effizient. Erste getestete GM108 (3SMM 384 Shader Cores, 64 Bit SI) Notebooks mit GT 840M zeigen trotz halber Speicherbandbreite die gleiche Performance wie eine DDR3 GT 750M (GK107 384 Shader, 128 Bit SI).
Verbesserte Organisation, erheblich mehr Cache - das kommt schon hin. Ein GK204 wäre sicherlich gut mit 256Bit RAM-Interface zu realisieren. Dennoch wär mMn ein GM204 in 28nm nicht so viel kleiner als ein GK104. Mit 350mm² und etwas mehr Takt kann man sicherlich einiges rausholen ohne die Speicherbandbreite signifikant zu erhöhen. Aber auch das hat Grenzen.
400mm²+ würde sicherlich 384Bit Speicherbandbreite erfordern, was die Kosten wieder sprengen würde. Der GK104 war so eine schöne Cachcow. NV wird das mit dem GM204 sicher auch wieder wollen. Also <350mm² und 256Bit sind durchaus wahrscheinlich und sehr effizient, auch wenn eine 780ti dennoch erhaben ist. Aber dafür gibts ja dann einen GK210, den man nochmals höher takten kann. Passt doch. Ich glaube nicht, dass AMD was auf die Beine stellt, was dem GK210 davonrennt in 28nm, von daher besteht auch keine großartige Gefahr.
Aber eines ist auch klar: Es wird eng für 20nm, wenn man Anfang 2016 schon FinFETs fertig haben will.

robbitop
2014-04-25, 12:54:57
Man muss sich dennoch die Frage stellen, warum man jetzt noch einen großen 28nm Chip bringen sollte, wenn man dasselbe wenig später dank 20nm mit deutlich weniger Die-Size und Stromverbrauch haben könnte. Der Chip wäre wenig später schon wieder veraltet.

Ganz einfach. 20 nm allein bringt offenbar nicht viel. Und es ist nicht unwahrscheinlich, dass ein 400 sqmm Chip nicht teurer in 28 nm ist als eine geshrinkte Version in 20 nm.

Nightspider
2014-04-25, 13:13:58
Außer die Die-Size. Selbst mit Maxwell-Architektur wäre das ein großer Chip.

Unter 28nm lässt sich mittlerweile verhältnismäßig günstig fertigen.Wenn Nividia mit einem großen Chip 30-50% mehr Gaming-Leistung herausholen könnte als beim GK110 und ihn entsprechend teuer vermarktet würde Nvidia Gewinn machen und einen angenehmen Fortschritt bieten.

Und falls NV nicht in die vollen geht (>500mm²) sondern nur einen mittelgroßen Chip bieten wird 400-450mm² würde man knapp schneller als ein GK110 sein bei niedrigeren Fertigungskosten und niedrigerem Stromverbrauch, den man gut als GK104 Nachfolger vermarkten könnte zu einem Anfangspreis von ~500 Dollar.

Vergesst nicht das selbst ein krüppel GK110 nur noch 390 Euro kostet in Form der GTX780. So teuer ist der 28nm Prozess keinesfalls. Nvidia saugt nur gern seine Jünger aus.

Einen entsprechend großen 500-600mm² Chip könnte Nvidia dann wieder locker für 600-700 Euro vermarkten, selbst wenn er "nur" 30-50% mehr leistet in Games als GK110.

ndrs
2014-04-25, 13:59:57
Bei so großen (und entsprechend teuer zu verkaufenden) Chips stellt sich allerdings noch die Frage nach den erzielbaren Stückzahlen. Vielleicht lohnt sich so ein Chip ohne GPGPU-Features garnicht ausschließlich für den Gaming-Markt.

Nightspider
2014-04-25, 14:37:14
Ein 550mm² Chip dürfte zur Zeit zwischen 200 und 250 Dollar in der Produktion kosten in 28nm.

Bei einem 600mm² Chip würde ich auf einen Preis von 240-340 Dollar tippen.

Quellen findet ihr in den Bergen.

Gipsel
2014-04-25, 14:55:21
Ein 550mm² Chip dürfte zur Zeit zwischen 200 und 250 Dollar in der Produktion kosten in 28nm.

Bei einem 600mm² Chip würde ich auf einen Preis von 240-340 Dollar tippen.

Quellen findet ihr in den Bergen.Die Wahrheit vermutlich auch. Die Preise nur für den Chip (das Die) liegen bei solchen Größen deutlich niedriger, unter hundert Dollar, solange der Yield nicht absolut beschissen ist. Was glaubst Du denn, wieviel ein 28nm Wafer (aus dem man bei den von Dir erwähnten Größen z.B. locker um die 100 funktionsfähige Dies rausbekommen kann) kostet?

Unicous
2014-04-25, 15:14:12
Nightspider, bitte nicht übertreiben.:wink:


http://img813.imageshack.us/img813/1461/q2msa.gif

Ein GTX 580 Die hat laut Mercury Research (2011?) $120 gekostet. Produktionskosten.

Der Preis hat sich kaum verdoppelt, ist wahrscheinlich eher gleich geblieben.

ndrs
2014-04-25, 15:17:37
@ Nightspider
Ich rede nicht von Produktionskosten, sondern Fixkosten, wie Design, Maskenfertigung, Validierung etc.
absolut beschissen ist. Was glaubst Du denn, wieviel ein 28nm Wafer [...] kostet?
Vermutlich nichtmal "over 9000" :D

Unicous
2014-04-25, 15:21:40
Die Waferkosten kann man leider nicht wirklich festsetzen. Da hängt zu sehr von den Arbeitsschritten ab, die dafür nötig sind. Von $2000-3500 geht da glaube ich die Schätzung bei Bulk. Einige behaupten sogar, dass ein Wafer z.B. mit SOI und Co. $5000+ kostet und dass FinFET auch nicht soo günstig ist wie immer (von Intel) behauptet.



edit:

Da gibt es ja sogar ne schicken Chart:

http://www.advancedsubstratenews.com/wp-content/uploads/2014/03/IBS14_FDSOI_FinFET_wafercost.jpg

http://www.advancedsubstratenews.com/2014/03/why-migration-to-fd-soi-is-a-better-approach-than-bulk-cmos-and-finfets-at-20nm-and-1416nm-for-price-sensitive-markets/

edit:

Muss man aber wohl aufpassen. Könnte von SOI-fanbois zu sein. ;-)

ASN is sponsored by Soitec, the world leader in manufacturing SOI and other engineered substrates. :biggrin:

Ailuros
2014-04-25, 15:26:46
Q3 11' fuer die Tabelle oben und die Preise galten fuer 28HP Herstellung in etwa zum Zeitpunkt wo GK110 auf dem desktop erschien. Vorsicht: GTX580= $120, GTX570= $85.

Wenn ein GK110 als chip alleine >$200 in der Herstellung kosten wuerde es nur GTX Titan bei >800 Euros auch heute nur geben.

Sonst zum eigentlichen Thema nur mal sehr schnell: kann sich jemand an die generellen "too good to be true" Sentimente vor dem GK104 launch erinnern?

@ Nightspider
Ich rede nicht von Produktionskosten, sondern Fixkosten, wie Design, Maskenfertigung, Validierung etc.

Vermutlich nichtmal "over 9000" :D

Nimm nochmal >20% weg fuer NVIDIA (fuer einen realistischen heutigen Durschnitt bei sehr komplizierten chips), sonst wuerden sie fuer Rabbatt auch nicht konstant herumheulen.

Die Waferkosten kann man leider nicht wirklich festsetzen. Da hängt zu sehr von den Arbeitsschritten ab, die dafür nötig sind. Von $2000-3500 geht da glaube ich die Schätzung bei Bulk. Einige behaupten sogar, dass ein Wafer z.B. mit SOI und Co. $5000+ kostet und dass FinFET auch nicht soo günstig ist wie immer (von Intel) behauptet.

[

Wafer Kosten sind im strengen Sinn weder auf "per wafer" oder "per chip" Basis sondern ein seltsame Mischung die sowohl die foundry als auch den IHV so gut wie moeglich schuetzt. NV erreicht meistens nach intensiver Heulerei noch ein 5% premium gegenueber der Konkurrenz dank hohem Volumen.

Tools hingegen sind schweineteuer geworden; stet in dem graph aber nicht drin.

Nightspider
2014-04-25, 15:28:06
Ja gut, habe die Preise etwas zu hoch angesetzt. Ich weiß das der Chip der GTX 580 damals 120 Dollar gekostet hat aber der Chip war erstens bisschen kleiner (520mm²) und der 40nm Prozess dürfte damals schon etwas billiger gewesen sein.
Hat hier nicht jmd erst vor paar Tagen eine Folie gepostet wo gezeigt wird das schon bei 28nm ein Step mehr nötig ist und mit 20nm dann noch ein Step mehr. Wird ja auch immer gesagt das die Prozesse jetzt jedes mal 20-30% teurer werden.

Es dürften also 140-160 Dollar sein für einen GK110 würde ich schätzen.

Umso besser, es spricht also nichts dagegen einen reinen Gamer Chip mit 400-600mm² als GK104 Nachfolger auf den Markt zu bringen. Der Preis ist am Ende halt abhängig von der Leistung aber Nvidia würde eine GTX 880 nur auf den Markt werfen wenn der GK104 Nachfolger mindestens 10% über GTX 780ti liegt.

Ailuros
2014-04-25, 15:33:23
Ja gut, habe die Preise etwas zu hoch angesetzt. Ich weiß das der Chip der GTX 580 damals 120 Dollar gekostet hat aber der Chip war erstens bisschen kleiner (520mm²) und der 40nm Prozess dürfte damals schon etwas billiger gewesen sein.
Hat hier nicht jmd erst vor paar Tagen eine Folie gepostet wo gezeigt wird das schon bei 28nm ein Step mehr nötig ist und mit 20nm dann noch ein Step mehr. Wird ja auch immer gesagt das die Prozesse jetzt jedes mal 20-30% teurer werden.

Vorsicht: haengt vom Zeitpunkt ab. Haette NV Fermi/GF100 zeitgleich mit Cypress unter 40G (ganz am Anfang) hergestellt haette jeder chip locker ueber $200 gekostet, denn Cypress war schon ueber der $120 Grenze.

Es dürften also 140-160 Dollar sein für einen GK110 würde ich schätzen.

Nein. Es waren $120 beim GK110b Produktionsstart und der Preis verfaellt staendig.

Umso besser, es spricht also nichts dagegen einen reinen Gamer Chip mit 400-600mm² als GK104 Nachfolger auf den Markt zu bringen. Der Preis ist am Ende halt abhängig von der Leistung aber Nvidia würde eine GTX 880 nur auf den Markt werfen wenn der GK104 Nachfolger mindestens 10% über GTX 780ti liegt.

Tja nur ist er nicht so gross.

Unicous
2014-04-25, 15:33:47
Das ist ja richtig, aber die Schätzungen sind ja auch nur...Schätzungen. Von daher kann man da eh nur eine Preis-Tendenz sehen.

Die SC-Branche heult ja eh nur rum, alles Scheiße außer Muttis Waffeln.

Die per good die/per wafer Sachen sind da natürlich nicht mit drin.

Aber man kann sagen, das ein fetter Die unter 28nm eher in Tendenz $100 geht, als zur $200-Schwelle und sich Nvidia diamantene Zacken für ihre Platinkrone bestellen kann, anstatt auf Strasssteine zu setzen.

Ailuros
2014-04-25, 15:35:27
Aber man kann sagen, das ein fetter Die unter 28nm eher in Tendenz $100 geht, als zur $200-Schwelle und sich Nvidia diamantene Zacken für ihre Platinkrone bestellen kann, anstatt auf Strasssteine zu setzen.

[/sign]....

***edit: die diamantene Zacken fuer die Platinkrone wird man fuer den GK104 Nachfolger so oder so bezahlen muessen :P

AnarchX
2014-04-25, 15:48:24
Tja nur ist er nicht so gross.
Dafür spricht auch die bei Zauba genannte Package-Größe von 40x40mm. Wohl in der Tat 300-350mm².


Sonst zum eigentlichen Thema nur mal sehr schnell: kann sich jemand an die generellen "too good to be true" Sentimente vor dem GK104 launch erinnern?

Die 1536SPs@1GHz versprachen auf dem Papier etwas mehr als was am Ende durch die SMX-Flaschenhälse herauskam. Und die ~$299 MSRP wären wohl eher angemessen, als "too good to be true" gewesen.

Mit einem ~300mm² GM204 könnte man GK104 EOL gehen lasssen und wohl einen etwas höhere Preispunkt anzielen ($399 für eine 4GiB Karte auf 290(X)/780 Niveau).
Nachdem Titan Z wohl ohne Samples gelauncht wird und auf ein paar Profi-Kunden hofft, wäre es wohl für NV auch interessant noch 2014 einen Dual-GM204 zu veröffentlichen.

aufkrawall
2014-04-25, 15:51:33
Bringt der mGPU-Kram eigentlich wirklich noch Prestige?

Ailuros
2014-04-25, 15:55:29
Dafür spricht auch die bei Zauba genannte Package-Größe von 40x40mm. Wohl in der Tat 300-350mm².

Bleib mal sicherheitshalber <400mm2.

Die 1536SPs@1GHz versprachen auf dem Papier etwas mehr als was am Ende durch die SMX-Flaschenhälse herauskam. Und die ~$299 MSRP wären wohl eher angemessen, als "too good to be true" gewesen.

Die 660Ti hat gezeigt wie ein $299 Produkt ausgesehen haette; aber das war nicht der too good to be true Effekt der gemeint war; keiner wollte damals annaehernd schlucken dass ein 294mm2 die um 30% schneller sein kann als GF110; und was kam dann? "Nein soooo klein unmoeglich dass er eine 580 schlaegt" und "nie im Leben mit einem 256bit bus" etc etc.

Mit einem ~300mm² GM204 könnte man GK104 EOL gehen lasssen und wohl einen etwas höhere Preispunkt anzielen ($399 für eine 4GiB Karte auf 290(X)/780 Niveau).

Das waere zu viel Aufwand fuer zu wenig Gewinn.

Nachdem Titan Z wohl ohne Samples gelauncht wird und auf ein paar Profi-Kunden hofft, wäre es wohl für NV auch interessant noch 2014 einen Dual-GM204 zu veröffentlichen.

Der "Z" chip liegt direkt vor Deiner Nase in den Bildern die Du selber entdeckt hast.

N0Thing
2014-04-25, 16:13:55
Die 660Ti hat gezeigt wie ein $299 Produkt ausgesehen haette; aber das war nicht der too good to be true Effekt der gemeint war; keiner wollte damals annaehernd schlucken dass ein 294mm2 die um 30% schneller sein kann als GF110; und was kam dann? "Nein soooo klein unmoeglich dass er eine 580 schlaegt" und "nie im Leben mit einem 256bit bus" etc etc.

Da war es aber auch 300mm² in 28nm vs. 520mm² in 40nm. Nun wäre es ~350mm2 in 28nm vs. 533mm² in 28nm. Das wird schon einen Unterschied machen, im Vergleich zu damals.

=Floi=
2014-04-25, 16:28:06
[/sign]....

***edit: die diamantene Zacken fuer die Platinkrone wird man fuer den GK104 Nachfolger so oder so bezahlen muessen :P

die frechheit an titan ist ja nicht mal mehr der preis, sondern die kleinen updates und einschränkungen.
erstkäufer der titan sind sowieso gearscht und bei der 780Ti wird auch der ram künstlich zurückgehalten. soll man da dann warten bis der nachfolger kommt?!


DP macht die karte auch nur unnötig teuer und nützt nichts.


eine bessere ausrichtung und beständigkeit wäre mal was. zuerst EIN topmell und dann dessen refresh nach nem jahr, wo man bedenkenlos zugreifen kann und auch 1 jahr aktuell bleibt.

Cubitus
2014-04-25, 16:33:10
Bringt der mGPU-Kram eigentlich wirklich noch Prestige?

Leider nicht wirklich. Weil es Viele User nicht mehr zu schätzen wissen. Und mGpu ist einfach total nerdig und kostet zu viel Strom... Ist einfach zu uncool für den Mainstream...

Passt auf irgendwann kommt Brüssel auf den Trichter und regelt die Watt Zahlen der Grafikkarten. Dann sind ab sofort mgpu Modelle, wie die 2000 Watt Staubsauger unerwünscht ;D

Zudem sind die SingelGPUs ja wirklich stark....atm. Reicht für alles.
Kantenglättung will der Pleb eh nicht. 4K dann schon... hmm naja dann hat wohl SLI zukünftig doch wieder seine Daseinsberechtigung ;)

Nightspider
2014-04-25, 16:49:56
Tja nur ist er nicht so gross.

Sicher? Wobei knapp unter 400 und über 400 nimmt sich auch nicht viel. ;)

Du spielst auf das Gleiche Pin-Layout beim GM104 wie beim GK104 an oder? Gut möglich das die Pinarea gleich bleibt und der Chip darüber hinaussteht. Vom Chip selbst wird ja eh viel Cache sein.

Also können wir unterm Strich sagen das 360-420mm² im Wahrscheinlichsten sind oder? Damit dürfte der Chip knapp über GTX780ti landen, in einigen Games am Anfang vllt aber auch langsamer sein.

GK104 war damals auch nicht in allen Games der heilige Gral. Wenn ich mich nicht irre war GK104 gerade in Anno 1404 sehr schlecht und nur auf GTX 580 Niveau. Oder war das anders herum? :uponder:


Nein. Es waren $120 beim GK110b Produktionsstart und der Preis verfaellt staendig.

Versteh ich dich richtig das der Chip der GTX780ti bei Produktionsstart nur 120$ gekostet haben soll?

AnarchX
2014-04-25, 17:03:22
Der "Z" chip liegt direkt vor Deiner Nase in den Bildern die Du selber entdeckt hast.
GK210? Die Pressemeldung sprach doch eindeutig von GK110?


Versteh ich dich richtig das der Chip der GTX780ti bei Produktionsstart nur 120$ gekostet haben soll?
96 Chips mit wohl >80% Yield je $5000 Wafer und man ist dadurchaus bei $100 für den Kartenhersteller.


Du spielst auf das Gleiche Pin-Layout beim GM104 wie beim GK104 an oder? Gut möglich das die Pinarea gleich bleibt und der Chip darüber hinaussteht. Vom Chip selbst wird ja eh viel Cache sein.

Auf ein 40x40mm Package passt in der Tat ein deutlich größerer Chip (GF1x0 war 42,5x42,5, GK110 45x45). Aber wie erkannt bleibt wohl die Pinzahl/-layout gleich zu GK104. Wenn auch GM204-GB3-256 die Möglichkeit lässt, dass 4 teildeaktivierte Varianten gibt (bei GF114 war das GF114-KA bis KD).

Ailuros
2014-04-25, 17:14:27
Versteh ich dich richtig das der Chip der GTX780ti bei Produktionsstart nur 120$ gekostet haben soll?

Ja.

GK210? Die Pressemeldung sprach doch eindeutig von GK110?

Und wie wuerde GK110b auch in der Vergangenheit spekulativ genannt?

96 Chips mit wohl >80% Yield je $5000 Wafer und man ist dadurchaus bei $100 für den Kartenhersteller.

So geht's nicht; es gibt auch binning yields vom gleichen wafer. Nur weil Du sagen wir mal 50 heile chips/wafer bekommst heisst es noch lange nicht dass sie alle alle cluster einschalten koennen.

Nightspider
2014-04-25, 17:17:20
Dann ist ja eine GTX780ti selbst zu 560 Euro immer noch super extrem überteuert.

Ailuros
2014-04-25, 17:18:49
Dann ist ja eine GTX780ti selbst zu 560 Euro immer noch super extrem überteuert.

Ich hab auch nie das Gegenteil behauptet; irgendwie muss Shield und co auf finanziert werden :weg:

Nightspider
2014-04-25, 17:22:48
Ergo würde eine GTX880 mit ~400mm² Chip für 600 Euro die Gewinnspanne für Nvidia noch mehr vergrößern.

Theoretisch könnte NV die Karten auch für 400 verticken. Man, dann hätte ich schon längst SLI. *seufz* :usad:

AMD soll mal mehr Druck machen und die Hersteller sollen mal schneller UHD auf den Markt bringen. Das kurbelt die Verkaufszahlen an und senkt langfristig die Preise.

Unicous
2014-04-25, 17:31:35
Nvidia hat ne Brutto Marge von über 50%. Mit AMD ist das natürlich schlecht vergleichbar, da bei denen das CPU-Geschäft mit reingerechnet ist, aber sie liegt auch bei den GPUs deutlich unter 50%, behaupte ich.

(Liegt natürlich auch daran, dass AMD weiterhin den Preiskampf anführt.)

aufkrawall
2014-04-25, 17:34:04
AMD soll mal mehr Druck machen
Nur wie? Bisher scheinen Exklusivfeatures und Gamebundles nicht durchzuschlagen.
Ein nicht verkacktes Referenzdesign brächte wohl was. Fragt sich nur, wie viel.

AnarchX
2014-04-25, 17:39:22
Und wie wuerde GK110b auch in der Vergangenheit spekulativ genannt?

GK180 ist bzw. war laut CUDA ein eigenständiger Chip. Also mehr als ein Respin. Und mit den GK180 Samples Anfang 2013 (siehe Zauba) gab es offenbar den Plan auch diesen einzusetzen, wie die ursprünglichen Dokumente um K6000 und K40 belegen.
Insofern war GK110B wohl hier eher der Plan B, welcher dann schnell bis zum Sommer 2013 umgesetzt wurde (2-3 Monate für einen Respin).

Mal sehen unter welcher Device-ID die Titan Z auftaucht, wenn es schon kein Reviews mit Boardbildern gibt.

Hübie
2014-04-25, 17:59:26
Nvidia hat ne Brutto Marge von über 50%. Mit AMD ist das natürlich schlecht vergleichbar, da bei denen das CPU-Geschäft mit reingerechnet ist, aber sie liegt auch bei den GPUs deutlich unter 50%, behaupte ich.

(Liegt natürlich auch daran, dass AMD weiterhin den Preiskampf anführt.)

Ich widerspreche nicht. AMD lernt langsam. Die argumentieren noch oft über Performance aber checken nicht dass das Gesamtpaket den Deal bringt. Jensen könnte nem Eskimo einen Kühlschrank verkaufen eh der merkt dass er sowas gar nicht benötigt.
Und solang wir so blöde sind horrende Preisaufschläge zu zahlen hat AMD das Ruder nicht rumreißen können. Denn was wäre ein deutlicherer Beweis für ein Spitzenprodukt als Absatzzahlen? ;)
Für GM104/204 (was auch immer) gebe ich mich gar nicht mehr der Illusion hin da könnte was fettes für 399$ kommen.
Ich erwarte da aber auch wie gesagt nichts über Ti-Niveau aus dem Performance-Sektor.

Botcruscher
2014-04-25, 18:04:27
Dann ist ja eine GTX780ti selbst zu 560 Euro immer noch super extrem überteuert.
Guten Morgen! GK104 war quasi Silizium in Gold umwandeln. :freak:

Und solang wir so blöde sind horrende Preisaufschläge zu zahlen hat AMD das Ruder nicht rumreißen können.
Weil AMD sich mit der Klein-Chip Strategie selber ein Bein gestellt hat. Die Leistung von GK104 war dann das Loch. Pitcairn ist dazu viel, viel, viel, viel, zu weit weg.

Hübie
2014-04-25, 19:08:24
Da stecken noch viel feinere Nuancen als nur die Strategie drin.
Preisfrage! Was lohnt sich eher: Performance-Chip um 320-360 sqcm @28nm oder Big-Chip 520-560 sqcm @20nm?

Unicous
2014-04-25, 19:15:45
@Hübie

Spoiler weil OT


Ich widerspreche nicht. AMD lernt langsam. Die argumentieren noch oft über Performance aber checken nicht dass das Gesamtpaket den Deal bringt. Jensen könnte nem Eskimo einen Kühlschrank verkaufen eh der merkt dass er sowas gar nicht benötigt.
Und solang wir so blöde sind horrende Preisaufschläge zu zahlen hat AMD das Ruder nicht rumreißen können. Denn was wäre ein deutlicherer Beweis für ein Spitzenprodukt als Absatzzahlen? ;)
Für GM104/204 (was auch immer) gebe ich mich gar nicht mehr der Illusion hin da könnte was fettes für 399$ kommen.
Ich erwarte da aber auch wie gesagt nichts über Ti-Niveau aus dem Performance-Sektor.

Ist zwar jetzt OT, aber ich frage mich echt wer beim Marketing/PR die Personalentscheidungen macht. Da denkt man sich echt, wie inkompetent kann man eigentlich sein. Bei AMD stimmt aber leider oft auch das Gesamtpaket nicht. Gute Rohleistung bzw. die kann dann auch auf den Monitor gebracht werden, aber es krankt am Drumherum. Da hat man dann ein Referenzgerät "das so ja gar nicht über die Ladentheke geht" und dann gibt es außer diesen Brüllquadern nichts Gescheites.

Da hat AMD jetzt erst reagiert mit der 295X2. Das Design ist annehmbar, die Wasserkühlung macht für die Preisklasse Sinn. Wenn sie das auf die unteren Preisbereiche ausdehnen könnten sie Nvidia auch die hohen Margen streitig machen. Ich denke auch dass Nvidia zunehmend im Profibereich feuchte Hände bekommt, denn AMD hat da in den letzten Jahren gut aufgeholt. Von nicht vorhanden auf wohl 15-20%, angepeilt sind 30%.

Die nächsten zwei, drei Jahre könnten da wirklich interessant werden, denn Nvidia fühlt sich im Consumerbereich im Moment nicht wirklich bedroht, schätze ich. Beim professionellen Bereich sehe ich das aber anders. Intels Ritter werden da mE zwar auch weiterhin nichts zu melden haben, aber AMD könnte das Feld ordentlich aufreißen und das wiederum könnte auch auf den Consumerbereich Einfluss haben.

Habe gestern ne Werbung von Boxx gesehen (Workstations und Co.). Da mokieren sie sich über den Mac Pro und ein Argument, dass sie anbringen ist doch tatsächlich, dass beim Pro ne AMD verbaut ist, bei ihrem Produkt jedoch eine Nvidia.:rolleyes:
Da fragt man sich auch manchmal wie solche Ressentiments weiter fortbestehen?

_KK2NAwULUA

Edit:
Kommt drauf an wie teuer 20nm "wirklich" ist. Wenn es so schlimm ist wie alle behaupten, dann ist alles was 28nm ist wohl erst einmal einträglicher weil hohes Volumen und geringe Kosten. Nvidia müsste dann schon fett die Preise anheben damit es sich lohnt. Ist 20nm nicht so schlimm wie alle behaupten ist ein großer Die sicherlich sehr einträglich weil du halt einen riesigen Markup hast(also hohe Marge).

Ailuros
2014-04-25, 19:31:43
Ergo würde eine GTX880 mit ~400mm² Chip für 600 Euro die Gewinnspanne für Nvidia noch mehr vergrößern.

Theoretisch könnte NV die Karten auch für 400 verticken. Man, dann hätte ich schon längst SLI. *seufz* :usad:

AMD soll mal mehr Druck machen und die Hersteller sollen mal schneller UHD auf den Markt bringen. Das kurbelt die Verkaufszahlen an und senkt langfristig die Preise.

AMD muss an ihrem image arbeiten und u.a. aus ein paar Kleinigkeiten achten die bei jedem launch zum Kritikpunkt werden. Billiger zu verkaufen ist IMHO nicht die richtige Gegenstrategie fuer desktop; fuer Profi-Maerkte ja.

GK180 ist bzw. war laut CUDA ein eigenständiger Chip. Also mehr als ein Respin. Und mit den GK180 Samples Anfang 2013 (siehe Zauba) gab es offenbar den Plan auch diesen einzusetzen, wie die ursprünglichen Dokumente um K6000 und K40 belegen.
Insofern war GK110B wohl hier eher der Plan B, welcher dann schnell bis zum Sommer 2013 umgesetzt wurde (2-3 Monate für einen Respin).

Mal sehen unter welcher Device-ID die Titan Z auftaucht, wenn es schon kein Reviews mit Boardbildern gibt.

Keine Ahnung ob es stimmt aber der Tipp den ich bekam ist dass der 210 ein aehnlicher Fall ist. Mein einziges Problem ist CC3.7 und 80k shared memory size/SMX.

GK180 klang mir eher als ein merkwuerdiges Verwirrungsspiel.

Botcruscher
2014-04-25, 20:16:36
Preisfrage! Was lohnt sich eher: Performance-Chip um 320-360 sqcm @28nm oder Big-Chip 520-560 sqcm @20nm?

Ohne Rahmenbedingungen ein Apfel. Wenn sich ein großer Chip herstellen lässt, dann schon aus Marketinggründen letzterer. Titan 2 für 3000€ mit 2xGK110 Leistung.

Skysnake
2014-04-25, 20:55:04
Tools hingegen sind schweineteuer geworden; stet in dem graph aber nicht drin.
Oh ja, und man braucht nicht nur eine Lizenz. Ganz zu schweigen davon, das Simulationen auch gern mal Tage lang laufen...

Dann ist ja eine GTX780ti selbst zu 560 Euro immer noch super extrem überteuert.
Guten Morgen, schön das du auch schon aufgewacht bist. :tongue:

ndrs
2014-04-25, 22:25:45
Scheinbar haben viele die Preise zu GT200/RV770-Zeiten vergessen :)

Hübie
2014-04-26, 02:01:48
Ach komm. GT200 war ne Keule und hoffnungslos überteuert. Das waren aber auch andere Zeiten.

uweskw
2014-04-26, 03:43:29
Zitat von Nightspider http://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/viewpost.gif (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10190260#post10190260)
AMD soll mal mehr Druck machen


Nur wie? Bisher scheinen Exklusivfeatures und Gamebundles nicht durchzuschlagen.
Ein nicht verkacktes Referenzdesign brächte wohl was. Fragt sich nur, wie viel.

Richtig: Nur wie? wenn all die ForenBots ständig NV Hochjubeln und AMD niedermachen? Da sieht man mal wieder warum die Schlipsträger aus der PR-Abteilung soviel mehr einsacken wie die Ingenieure. Rechnet sich halt.


Guten Morgen! GK104 war quasi Silizium in Gold umwandeln.

Weil AMD sich mit der Klein-Chip Strategie selber ein Bein gestellt hat. Die Leistung von GK104 war dann das Loch. Pitcairn ist dazu viel, viel, viel, viel, zu weit weg.

Wirklich wichtig ob mein Chip "grooosss" ist? Oder ein paar Watt +/- im Spielbetrieb? Hier zählt halt Verkaufstalent! Und da kann NV so schnell keiner was vormachen. Schade dass die "Fachpresse" so leicht um den Finger zu wickeln ist.

Greetz
U.S.

Pentium M
2014-04-26, 03:52:28
Wo ist der Gefällt mir Button.

Ailuros
2014-04-26, 08:30:56
Richtig: Nur wie? wenn all die ForenBots ständig NV Hochjubeln und AMD niedermachen? Da sieht man mal wieder warum die Schlipsträger aus der PR-Abteilung soviel mehr einsacken wie die Ingenieure. Rechnet sich halt.

Selbst wenn es der Fall waere wuerde es gar nichts beinflussen, ausser Du glaubst wirklich der mittlere Endverbraucher ist so naiv sich stets an der Nase herumziehen zu lassen. Eventuell kannst Du es ja auch behaupten nur gewinnt man mit solchen Einstellungen auch keine Freunde.

Aber ich kann Dir sagen warum Deine Lieblingsfirma eine daemliche Einstellung hat: vor dem launch der vorigen Familie sagte ich nur ca. eine Woche vor der Vorstellung dass chip X nur 10 CUs hat hier im Forum. Schon schwirrte die AMD PR "leak-Polizei" im Hintergrund herum und wollte privat wissen woher ich es habe.

Da ich keinen Bock habe dass jegliche PR Heinis staendig den Chef hier stoeren fuer meine Privat-addresse (und womoeglich mit scheinheiligem legalem Mist zu drohen) halt ich mich einfach fern davon. NV, Intel, IMG oder sonst welcher IHV haben mich nie diesbezueglich darueber gefragt in aehnlichen Faellen.

Und bevor es jemand sagt: es ist alles nur eine daemliche Einstellung. Wenn ich heute ein paar Fetzen ueber Pirate islands angebe dann kann NVIDIA gar nichts dagegen mehr anrichten und anders rum.

Zusammengefasst: anstatt in jeder Ecke eine daemliche Konspirations-these zu sehen waere es mal hoechste Zeit zur Selbstkritik und dazu von oben nach unten; so und jetzt mach den Bogen zum ersten Satz.

Dawn on Titan
2014-04-26, 09:32:28
Als ob die Foren entscheidend sind.

Gucken wir uns doch mal an was bei AMd nicht läuft:

- Unglückliche Sampleverteilung beim Launch
- grausame Referenzkühler und Referenzboards

Und Punkt 2 beeinflusst die massenwirksame Wahrnehmung massiv. Niemand will heute eine 9 Sone Graka.

robbitop
2014-04-26, 14:35:37
Es ist halt alles nicht so polished wie bei NV. Und außerdem leistet NV deutlich bessere Arbeit hinsichtlich SW. Bei AMD bekommt man gute HW. Die SW ist ok - aber IMO hängen sie da leider hinterher. Und irgendwann hat man sich einfach einen Ruf erarbeitet.

aufkrawall
2014-04-26, 14:43:08
Wie zuletzt auch wieder im Catalyst 14.4 WHQL-Thread zu beobachten, ist kein reiner Mythos.

-/\-CruNcher-/\-
2014-04-26, 14:54:31
Nicht umsonst flippen 3D Programierer aus wenn sie das wort AMD Windows Treiber hören (die raufen sich oft genug die Haare beim Bug workaround finding) und macht man mal einen direkten vergleich ist Nvidia bei beidem gut Linux/Windows
AMD hauts aber vor allem bei ihrem Linux treiber voll aus der Bahn wie schlecht der ist ist nicht mehr feierlich da reist mal locker die 760 GTX die 290x über den Tisch und das ohne wie ein Mega Jumbo beim Start zu klingen ;)

fondness
2014-04-26, 15:02:43
Vor wenigen Monaten, als es bei den NV-Treibern einige Probleme gab und die AMD-Treiber gut liefen, wurde hier noch ganz andere Dinge diskutiert. Es ist nicht alles so schwarz/weiß wie es gerne dargestellt wird. Dann noch eine Priese Linux, größtenteils von Leute die in ihrem leben wohl noch nie eine Linux Distri gebootet haben und schon ist das Vorurteil wieder bestätigt.

-/\-CruNcher-/\-
2014-04-26, 15:08:39
Nö die Einzige Rettung für AMD ist Mantle und DX12, da wird die Hardware endlich mal liefern so wie auf den Konsolen schon der Fall ;)

aufkrawall
2014-04-26, 15:09:41
Offenbar nicht, mit Mantle kackt es auf AMD bei BF4 im Vehicle Zoom genau so ein.

Iruwen
2014-04-26, 15:34:19
Vor wenigen Monaten, als es bei den NV-Treibern einige Probleme gab und die AMD-Treiber gut liefen, wurde hier noch ganz andere Dinge diskutiert. Es ist nicht alles so schwarz/weiß wie es gerne dargestellt wird. Dann noch eine Priese Linux, größtenteils von Leute die in ihrem leben wohl noch nie eine Linux Distri gebootet haben und schon ist das Vorurteil wieder bestätigt.
Nur weil bei NV logischerweise auch nicht alles perfekt ist und es durchaus auch mal schwerwiegende Probleme gibt ändert das langfristig betrachtet nichts an der Tatsache, dass AMD nach so langer Zeit immer noch viele offene Baustellen hat.

aufkrawall
2014-04-26, 15:36:58
Bei NV war, abseits von SLI, mit Kepler-Karten eigentlich schon ewig nichts mehr ernsthaft kaputt. Bei AMD krankts dagegen nach einem halben Jahr immer noch bei den aktuellen Produkten.
Da zahle ich gerne deutlich mehr, wenn es dafür mein Hobby nicht vermiest.

Ailuros
2014-04-26, 15:43:14
Zurueck zum Thema Maxwell bitte.

Leonidas
2014-04-26, 18:26:07
Da ich keinen Bock habe dass jegliche PR Heinis staendig den Chef hier stoeren fuer meine Privat-addresse (und womoeglich mit scheinheiligem legalem Mist zu drohen)


... würde mich aber überhaupt nicht interessieren. Dafür ist 3DC rechtlich zu gut abgesichert. Außerdem darf jede Hersteller-Firma vorab wissen, daß ich Drohungen etc. sofort unzensiert veröffentlichen würde.

Ergo: Ich kann nur jeden Hersteller o.ä. extrem davor warnen, einen solchen Weg zu gehen.

Hübie
2014-04-26, 18:31:29
Genau deshalb haben die ja immer schiss und verabreichen hin und wieder ne Dosis virales Marketing oder stiften einfach nur Verwirrung.
Ich bin mir immer noch nicht sicher ob wir dieses Jahr einen Maxwell im Performance-Sektor sehen werden welcher A) 20nm Strukturgröße haben wird und B) schneller als 780 Ti ist. Vom Rätselraten bzgl. ARM-Kerne onGPU mal abgesehen. Die kommen, wenn dann eh erst im topdog für absurde MSRP (meiner Einschätzung nach!).

Ailuros
2014-04-26, 19:06:33
... würde mich aber überhaupt nicht interessieren. Dafür ist 3DC rechtlich zu gut abgesichert. Außerdem darf jede Hersteller-Firma vorab wissen, daß ich Drohungen etc. sofort unzensiert veröffentlichen würde.

Ergo: Ich kann nur jeden Hersteller o.ä. extrem davor warnen, einen solchen Weg zu gehen.

Es wird wohl auch schwer jemand bezweifeln dass Deine Einstellung falsch ist, aber es ist dann eben auch wiederrum so dass mir und womoeglich auch anderen irgendwo die Lust vergeht.

3DC respektiert nach meiner Erfahrung alle Seiten und es wuerde auch so leicht irgend etwas erwaehnen oder anstellen was einem schaden koennte. Am Rand die Anzahl der clusters eines GPU chips nur Tage vor dem launch zu erwaehnen gehoert zu den verdammt harmlosen Einzelheiten.

Genau deshalb haben die ja immer schiss und verabreichen hin und wieder ne Dosis virales Marketing oder stiften einfach nur Verwirrung.
Ich bin mir immer noch nicht sicher ob wir dieses Jahr einen Maxwell im Performance-Sektor sehen werden welcher A) 20nm Strukturgröße haben wird und B) schneller als 780 Ti ist. Vom Rätselraten bzgl. ARM-Kerne onGPU mal abgesehen. Die kommen, wenn dann eh erst im topdog für absurde MSRP (meiner Einschätzung nach!).

Ich kann Dich auch nicht ueber etwas versichern denn ich hab nur das was mir zugesteckt wird:

204 und 206 hatten ihre tape outs (beide unter 28nm) und die screenshots die AnarchX gefunden hat beweisen dass 204 Silizium von der fab zurueckgereist sind. Im allerbesten Fall geht GM204 Anfang Oktober in die Massenproduktion und sie koennen Ende Oktober/Anfang November auch schon lauchen wenn sie es wollen. Das Potential fuer (B) ist durchaus da aber man kann mit einem solchen chip viel anstellen.

Denver cores unter GM200 IMHO nein und wenn die groesste GM204 basierende SKU um ein gutes Stueck schneller sein wird als eine 780ti dann wird sich auch nicht mit Sicherheit 300 oder sogar nur $400 kosten. Das ist eine Angelegenheit die davon abhaengt wo NVIDIA jedes Produkt leistungsmaessig im insgesamten Produkt-portofolio platzieren wird.

Fetza
2014-04-27, 13:42:11
Denver cores unter GM200 IMHO nein und wenn die groesste GM204 basierende SKU um ein gutes Stueck schneller sein wird als eine 780ti dann wird sich auch nicht mit Sicherheit 300 oder sogar nur $400 kosten. Das ist eine Angelegenheit die davon abhaengt wo NVIDIA jedes Produkt leistungsmaessig im insgesamten Produkt-portofolio platzieren wird.

Wäre es nicht ratsam von Nvidia wenn sie AMDs Hawai auch mal preislich kontern? Dafür würde sich ein GM204 mit max 350m^2 doch anbieten. Die aktuelle Situation verstehe ich nicht, Nvidia war ja schon immer etwas teurer als AMD bzw. ATI, aber eine 290x kostet gut 100 Euro weniger, als eine ungefähr gleichschnelle 780ti.
Wenn das, was ihr hier so spekuliert wirklich eintritt, muss ja eigentlich niemand auf die kommende Generation an Grakas warten - oder sehe ich das falsch? Maximal 30% Mehrperformance zur aktuellen High-End-Generation ist ja nicht gerade orgiastisch - vor allem, wenn die dann angebotenen Karten nur etwas schneller sind und dabei keinen Cent günstiger angeboten werden.

Blediator16
2014-04-27, 13:45:21
Solange sich bei AMD nichts an der Softwarefront tut, wird NV sich einen feuchten kehren was an den Preisen zu tun.

fondness
2014-04-27, 13:45:22
Naja die Salami-Taktik geht halt weiter. Die Zeiten wo man plötzlich doppelte Leistung zu gleichen Preis bekam sind definitiv vorbei. Wenn man Glück hat bekommt man den etwas schnelleren GM204 dann zum selben Preis wie heute eine 780Ti.

Fetza
2014-04-27, 14:20:46
Solange sich bei AMD nichts an der Softwarefront tut, wird NV sich einen feuchten kehren was an den Preisen zu tun.

In wiefern? Wenn ich mir die Testberichte so durchlese scheint da alles in Butter zu sein, von Mantle ganz zu schweigen.
Will hier jetzt übrigends auch nicht mit OT-Zeuch nerven, aber ich wundere mich wirklich über NVidias Preispolitik.

-/\-CruNcher-/\-
2014-04-27, 14:21:19
Taktisch wäre es klug die GTX 760 abzulösen und AMD wenig chancen zu geben im Mainstream Preisbereich, vor allem da das release schon viel zu lange dauert ;)

Sprich wieder eine Karte zu releasen die Preislich und Technisch (Perf,Watt,Compute) absolut top ausbalanciert ist und nicht erst bei 300 oder 400 € anfängt und versucht die Kids und deren Elterns Taschengeld einzufangen ;)

Die nächste Karte darf nur maximal 250 € sein, dann würde AMD ein heftiger schlag versetzt werden, auch mit ihrer Konsolendominanz.

Wie gesagt 4-5 Gflops mit einem vernünftigen Leistungsverbrauch scheinen super geignet um AMD jetzt wegzuputzen :)

Und ihren Release Cycle Timing vorteil praktisch in luft aufzulösen, und vor allem um den AVG user klar zu machen das der Konsolenvorteil dem AVG user mit AMD nichts bringen wird :)

Und den markt schnell mit Nvidia Hardware zu fluten, das hat bei der GTX 460 damals gut geklapt ;)

Skysnake
2014-04-27, 14:25:01
Solange sich bei AMD nichts an der Softwarefront tut, wird NV sich einen feuchten kehren was an den Preisen zu tun.
An der Software"front" wird aber auch gern maßlos übertrieben. So schlimm wie es aussieht ist es bei weitem nicht.

Es wird halt jedwede Verbesserung als Selbstverständlich hingenommen und so getan als ob sich rein gar nichts tun würde.

AMD hat halt aktuell das Problem, dass Sie trotz wirklich solider Leistung viel zu wenige Karten absetzen. Gut, das ist teils auch durch die RAM-Knappheit mit selbst verschuldet, aber wenn man ihnen auch keine Chance gibt, werden Sie auch nie die Kohle über haben für Extrawürste, die sich die Enthusiasten halt wünschen

Fetza
2014-04-27, 14:58:47
An der Software"front" wird aber auch gern maßlos übertrieben. So schlimm wie es aussieht ist es bei weitem nicht

Mir ist immer noch nicht klar was damit gemeint ist. Die Treiber sind doch in Ordnung und mit Mantle hat man eigenes eine API umgesetzt, die jetzt die gesamte Industrie vorwärts bringt.

Ailuros
2014-04-27, 15:10:49
Wäre es nicht ratsam von Nvidia wenn sie AMDs Hawai auch mal preislich kontern? Dafür würde sich ein GM204 mit max 350m^2 doch anbieten. Die aktuelle Situation verstehe ich nicht, Nvidia war ja schon immer etwas teurer als AMD bzw. ATI, aber eine 290x kostet gut 100 Euro weniger, als eine ungefähr gleichschnelle 780ti.

Ich wuerde mal von max 350mm2 noch nicht ausgehen. Die Antwort zu Deiner Frage ist dass solange sich N teureres Produkt so verkauft wie man es erwartet ist keine Firma bloed die Preise zu reduzieren.

Wenn das, was ihr hier so spekuliert wirklich eintritt, muss ja eigentlich niemand auf die kommende Generation an Grakas warten - oder sehe ich das falsch? Maximal 30% Mehrperformance zur aktuellen High-End-Generation ist ja nicht gerade orgiastisch - vor allem, wenn die dann angebotenen Karten nur etwas schneller sind und dabei keinen Cent günstiger angeboten werden.

Haette ich genauso fuer die GTX680 gegen die GTX580 behaupten koennen bei der vorigen Runde. Wieso sich jetzt GK104 wie warme Semmeln verkauft hat von notebooks ueber PC und auch Server GPUs ueberlasse ich jedermans Phantasie.

Vielleicht hilft es auch nachzudenken warum sich die GM107 SKUs so gut verkaufen in letzter Zeit.

Skysnake
2014-04-27, 15:11:03
Ja, aber hin und wieder hackt es schon an der einen oder anderen Stelle. Irgendwo ist das auch normal. Es gibt bei allen immer wieder mal Probleme.

Es wird nur unterschiedlich damit umgegangen. Bei nVidia habe ich den Eindruck das man sich sagt: Ja gut mei, alles andere ist ja praktisch perfekt, also schwamm drüber

Bei AMD: BOAH ALTOR!!! schon wieder son Murks, das geht mal gar nicht bei dem Drecksverein haste aber immer nur Scherereien.

Ailuros
2014-04-27, 15:17:16
Naja die Salami-Taktik geht halt weiter. Die Zeiten wo man plötzlich doppelte Leistung zu gleichen Preis bekam sind definitiv vorbei. Wenn man Glück hat bekommt man den etwas schnelleren GM204 dann zum selben Preis wie heute eine 780Ti.

Wenn ich X% mehr Leistung bekomme bei Y% weniger Stromverbrauch einer jeglichen 780, bin ich wohl als User der eine GeForce will NICHT so bloed und kauf mir eine 780 stattdessen. Es ist doch genau das Gleiche bei AMD und ja beide kochen mit Wasser [/signed Captain Obvious].

Ja, aber hin und wieder hackt es schon an der einen oder anderen Stelle. Irgendwo ist das auch normal. Es gibt bei allen immer wieder mal Probleme.

Es wird nur unterschiedlich damit umgegangen. Bei nVidia habe ich den Eindruck das man sich sagt: Ja gut mei, alles andere ist ja praktisch perfekt, also schwamm drüber

Bei AMD: BOAH ALTOR!!! schon wieder son Murks, das geht mal gar nicht bei dem Drecksverein haste aber immer nur Scherereien.

Wer von Euch ist denn aktiv bei GPU Unterstuetzung in einem Forum? Ich hab im lokalen forum wo ich auch moderiere und GPUs unterstuetze ueber 250k Users insgesamt und Du darfst raten wo ich die meisten hw und sw Probleme sehen kann.

Dawn on Titan
2014-04-27, 16:09:18
GM204 muss gar nicht die Mehrheit der Besitzer von GK110 ansprechen, es reicht wenn es die absoluten Leistungsfreaks und GK104 Besitzer anspricht.

Ailuros
2014-04-27, 16:48:22
GM204 muss gar nicht die Mehrheit der Besitzer von GK110 ansprechen, es reicht wenn es die absoluten Leistungsfreaks und GK104 Besitzer anspricht.

Wenn GM206 oder AMDs PI Gegenangebot auf einer aehnlichen Schiene wie GM107 fahren, dann wird es Anfang 15' wohl schon eine gesunde Welle an PC GPU uprades geben.

Timbaloo
2014-04-27, 16:50:59
Aber hallo. Bei mir stellt sich nur die Frage ob meine GF114 durch GM106 oder GM104 ersetzt wird. Die TPD wird's entscheiden :)

-/\-CruNcher-/\-
2014-04-27, 16:58:41
Naja ich würde jetzt lieber zukunftsorientiert auf das DX12 Featureset schauen aber Microsoft released ja nix was neu hinzukommen wird genausowenig wie die IHVs die momentan die klappe halten und nur das nötigste von low level offenlegen bis jetzt, einige features lassen sich allerdings schon erahnen an den Research releases ;)

Ailuros
2014-04-27, 17:12:07
Aber hallo. Bei mir stellt sich nur die Frage ob meine GF114 durch GM106 oder GM104 ersetzt wird. Die TPD wird's entscheiden :)

Bei einem 170W TDP fuer eine 560Ti waren schon seit einer Ewigkeit 660/660Ti SKUs wuerdige Aufruestungen mit einem bis zu 1:2 perf/W Unterschied. Glaubst Du ernsthaft dass es weniger als 1:3 sein wird beim GM206? Eher mehr.

Skysnake
2014-04-27, 17:33:04
Wer von Euch ist denn aktiv bei GPU Unterstuetzung in einem Forum? Ich hab im lokalen forum wo ich auch moderiere und GPUs unterstuetze ueber 250k Users insgesamt und Du darfst raten wo ich die meisten hw und sw Probleme sehen kann.
Hab ich auch einige Zeit gemacht. Die Probleme waren ganz unterschiedlich. Entweder war es eine Inkompabilität mit einer Anwendung/Game, was eher selten war, aber im Überwiegenden Teil ein vermülltest System. Also nicht richtig installierte/deinstallierte Treiber.

Und da ist mir z.B. immer wieder nVidia negativ aufgefallen. Wenn ich Probleme bei einem GPU-Wechsel hatte dann nVidia->AMD, und da war bis auf einmal immer der nVidia-Treiber mit einer ungenügenden Deinstallationsroutine am Ende die Ursache. Der Driver Sweeper ist daher für mich ein unverzichtbares Tool, wenn man den GPU-Hersteller wechseln will ohne das System komplett platt zu machen. Zudem hat das Ding auch ansonsten sehr sehr sehr sehr oft gute Dienste geleistet.

Außer bei der HD5870, wos ne zeitlang keinen lauffähigen Treiber für Vista gab :mad: Da saß ich ne Woche ohne PC da wegen dem Mist... Das war aber eine einmalige Sache, und Vista eh eine Seuche.

Timbaloo
2014-04-27, 17:38:49
Bei einem 170W TDP fuer eine 560Ti waren schon seit einer Ewigkeit 660/660Ti SKUs wuerdige Aufruestungen mit einem bis zu 1:2 perf/W Unterschied. Glaubst Du ernsthaft dass es weniger als 1:3 sein wird beim GM206? Eher mehr.
An der Stelle glaube ich erstmal garnichts sondern warte einfach ab. Und die aktuelle Gen hab ich mangels Notwendigkeit einfach übersprungen.

Ailuros
2014-04-27, 17:41:27
Hab ich auch einige Zeit gemacht. Die Probleme waren ganz unterschiedlich. Entweder war es eine Inkompabilität mit einer Anwendung/Game, was eher selten war, aber im Überwiegenden Teil ein vermülltest System. Also nicht richtig installierte/deinstallierte Treiber.

Und da ist mir z.B. immer wieder nVidia negativ aufgefallen. Wenn ich Probleme bei einem GPU-Wechsel hatte dann nVidia->AMD, und da war bis auf einmal immer der nVidia-Treiber mit einer ungenügenden Deinstallationsroutine am Ende die Ursache. Der Driver Sweeper ist daher für mich ein unverzichtbares Tool, wenn man den GPU-Hersteller wechseln will ohne das System komplett platt zu machen. Zudem hat das Ding auch ansonsten sehr sehr sehr sehr oft gute Dienste geleistet.

Ja entschuldige die typischen Probleme beim GPU Wechel (egal von was auf was) sind zu 99% ein Problem dass zwischen dem keyboard und Stuhl liegt.

Außer bei der HD5870, wos ne zeitlang keinen lauffähigen Treiber für Vista gab :mad: Da saß ich ne Woche ohne PC da wegen dem Mist... Das war aber eine einmalige Sache, und Vista eh eine Seuche.

Na dann versuch es mal heutzutage bei den R9 GPUs ueberhaupt bei allem ueber 270. Die Anzahl der RMAs ist praegend bemerkbarer und es muss nicht direkt AMD Schuld daran sein. Ich hab eine zunehmende Masse von neutralen Users die nichts von Radeons hoeren wollen weil sie wegen der zahlreichen reports einfach davon Schiss haben.

An der Stelle glaube ich erstmal garnichts sondern warte einfach ab. Und die aktuelle Gen hab ich mangels Notwendigkeit einfach übersprungen.

Ist auch eine zu 100% gesunde Reaktion. Eine normal uebertaktete 750Ti ist schon in etwa auf 560Ti Leistungs-Niveau und das im besten Fall bei schaetzungsweise 70-75W (realem) TDP.

Skysnake
2014-04-27, 17:55:39
Ja entschuldige die typischen Probleme beim GPU Wechel (egal von was auf was) sind zu 99% ein Problem dass zwischen dem keyboard und Stuhl liegt.

Also ich bezweifle jetzt mal, das ich zu doof bin einen treiber zu deinstallieren mit den Standardroutinen. Seit ich die 8600GT habe, habe ich auch bei JEDEM! Wechsel auf AMD den gleichen Schiss. Erst wenn ich mit dem Driver Sweeper nochmal drüber bin, lässt sich der AMD Treiber richtig installieren, weil sonst in den Tiefen des Systems noch irgend ein nVidia Treiberscheis rumhängt.

Sowas fällt dann aber auch gern AMD dann auf die Füße, weil die Leute deren Treiber dafür verantwortlich machen, weil die nVidia geht ja ohne Probleme, wenn man die wieder installiert, auch bei einer anderen nVidia...


Na dann versuch es mal heutzutage bei den R9 GPUs ueberhaupt bei allem ueber 270. Die Anzahl der RMAs ist praegend bemerkbarer und es muss nicht direkt AMD Schuld daran sein. Ich hab eine zunehmende Masse von neutralen Users die nichts von Radeons hoeren wollen weil sie wegen der zahlreichen reports einfach davon Schiss haben.

Bei der R9 280(x) wundert es mich etwas, aber mag sein. Der Brand bei Hynix ist echt nen Problem für AMD und ihre Partner. Da kann ich mir auch gut vorstellen, dass der Alternativram doch so seine Probleme macht und zu recht viel RMA führt, aber das ist reine Spekulation.

Bei min 99% sitzt das Problem vor dem Monitor, oder es sind irgendwelche Treiberreste.

Ailuros
2014-04-27, 18:03:24
Also ich bezweifle jetzt mal, das ich zu doof bin einen treiber zu deinstallieren mit den Standardroutinen. Seit ich die 8600GT habe, habe ich auch bei JEDEM! Wechsel auf AMD den gleichen Schiss. Erst wenn ich mit dem Driver Sweeper nochmal drüber bin, lässt sich der AMD Treiber richtig installieren, weil sonst in den Tiefen des Systems noch irgend ein nVidia Treiberscheis rumhängt.

Sowas fällt dann aber auch gern AMD dann auf die Füße, weil die Leute deren Treiber dafür verantwortlich machen, weil die nVidia geht ja ohne Probleme, wenn man die wieder installiert, auch bei einer anderen nVidia...

Das Problem tritt immer und immer wieder auf egal ob von Radeon auf GeForce oder ansdersrum. DDU ist meistens der einzige Segen.

aufkrawall
2014-04-27, 18:14:23
Wer von AMD den Catalyst-Uninstaller so konzipiert hat, dass man ihn nicht im Safe Mode starten kann, gehört verprügelt.
Ich wüsste nicht, wann ich bei NV jemals auf den DDU angewiesen wäre. Einfach den offiziellen im Safe Mode starten, falls mal gehörig was klemmen sollte, und gut ist.

Bei AMD hatte ich in wenigen Wochen gleich mehrfach das Vergnügen mit DDU.
Sehr obskur (Anzeige alter Treiberversionen, CCC startet nicht, CCC wählt inkompatible Auflösung für Monitor mit DL-DVI ohne Scaler, weiß ist lila...)

Iruwen
2014-04-27, 18:26:34
In 800x600 lässt sich der Treiber gar nicht vernünftig installieren weil man aufgrund der Fenstergröße nicht an die Buttons kommt. Und wenn man einfach mal Enter drückt wird die depperte Raptr Software installiert und öffnet ein noch viel größeres Fenster. Und das CCC ist immer noch sauträge.

Skysnake
2014-04-27, 19:21:38
Das Problem tritt immer und immer wieder auf egal ob von Radeon auf GeForce oder ansdersrum. DDU ist meistens der einzige Segen.
Wie gesagt, ich nur andersum bisher. Kann aber auch einfach ein spezielles Problem der 8600er Serie sein :ka:

Im Prinzip ist es aber auch egal. Wenn man weiß was man macht, und zur Not das Internet um Rat frägt, bekommt man eigentlich jedes Problem gelöst, und die, die man dann nicht gelöst bekommt sind nur sehr sehr sehr wenige, egal bei welchem Hersteller.

Blöd ist natürlich, wenn es sowas wie der PAL/NTSC(?) Bug bei Intel ist. Da hat man dann halt Pech gehabt. Und selbst wenn es ne reine Softwarekiste ist, ist man dann halt oft der Sonderfall unter der Randgruppe. Irgendwelche Probleme findet man bei jedem Hersteller.

Da X oder Y deswegen ganz allgemein zu verteufeln finde ich unangemessen. Jeder muss ganz allein für SICH schauen, mit welchem System er den besten Deal macht, bzw eben keine Einschränkungen hat.

Hübie
2014-04-27, 19:40:50
Könnte die AMD-/NVIDIA-Polizei mal wieder zum Thema zurück kommen? Ich klicke auf den Button in der Hoffnung neue Infos zu bekommen und dann lese ich hier wer welche Problem mit Treiber XY hat. Super!

@Ailuros: GM2xx suggeriert 20 nm? Ist das in Stein gemeißelt?

Ailuros
2014-04-27, 20:04:11
Könnte die AMD-/NVIDIA-Polizei mal wieder zum Thema zurück kommen? Ich klicke auf den Button in der Hoffnung neue Infos zu bekommen und dann lese ich hier wer welche Problem mit Treiber XY hat. Super!

Uhmm dafuer bin ich verantwortlich und muss mich jetzt demuetig dafuer im dunklen Keller selber auspeitschen ;D

@Ailuros: GM2xx suggeriert 20 nm? Ist das in Stein gemeißelt?

Nein; GM204/6 sind 28nm und IMHO GM200 und nur dieser momentan ist 20SoC.

Vorsicht bloedeste Milchmaedchen-Rechnung ueberhaupt:

GK107 = 1.3b
GK110 = 7.1b
-----------------
Faktor = 5.46x

GM107 = 1.87b * 5.46x = 10.2b

Ich schmeiss noch etwas Petersilie und ein paar Denver in den Eintopf, runde auf 11b Transistoren auf und mit einer theoretischen Packdichte von 20Mio/mm2 kommt man auf nette 550mm2@20SoC.

Hübie
2014-04-27, 20:31:10
Dann ginge es auch gar nicht anders. Also sind Namen auch wieder nur Schall und Rauch.
Wie genau kommst du auf 20Mio/mm^2?

Ailuros
2014-04-27, 20:36:56
Dann ginge es auch gar nicht anders. Also sind Namen auch wieder nur Schall und Rauch.
Wie genau kommst du auf 20Mio/mm^2?

Verdammt konservative Einschaetzung fuer 20SoC; gerade etwas ueber 50% mehr pro mm2 wie in 28HP, obwohl es um einiges mehr sein koennte theoretisch.

AffenJack
2014-04-27, 21:06:16
Man sollte bei TSMC 20nm auch keine allzu hohe Packdichte erwarten. Das sieht man schon den Sram Zellengrößen:

40 nm: 0.242 um²
28 nm: 0.127 um²
20 nm: 0.081 um²
40 nm-> 28nm Erhöhung der Packdichte um Faktor 1.97
28 nm-> 20nm Erhöhung um Faktor 1.57

Ausgehend von der jetzigen Packdichte könnten 20Mio/mm² also schon ne gute Schätzung sein.

Skysnake
2014-04-27, 23:20:48
Man muss halt das ganze auch verdrahtet bekommen, und das ist nicht wirklich immer trivial.

Was nutzen einem ne kleine Fertigung, wenn man auf den Metallagen die Signale nicht geroutet bekommt. Richtig, rein gar nichts, und bei größeren Chips wird das Problem auch noch größer statt kleiner, weil man allgemein breitere Busse hat usw.

Ailuros
2014-04-28, 08:40:13
Man muss halt das ganze auch verdrahtet bekommen, und das ist nicht wirklich immer trivial.

Was nutzen einem ne kleine Fertigung, wenn man auf den Metallagen die Signale nicht geroutet bekommt. Richtig, rein gar nichts, und bei größeren Chips wird das Problem auch noch größer statt kleiner, weil man allgemein breitere Busse hat usw.

Wenn es wirklich irgendwo zu problematisch wird dann haetten sich beide IHVs ihren Arsch bewegen sollen und eine anstaendige Leistungsskalierung fuer mGPU in hw giessen sollen.

AnarchX
2014-04-28, 09:38:31
8GiB Speicher:

E2724-A01 GM204 8GB GDDR5 POWER MEA ADP FUNTIONAL TEST PCA BOARDS, 699-12724-0071-100

E2724-A01 GM204 BRINGUP 8GB GDDR5X ADP FUNTIONAL TEST PCA BOARDS, 699-12724-0000-100
Quelle: Zauba

Ob das natürlich der Speicherausbau der Verkaufsversion ist, könnte fraglich sein. Die Clamshell-Fähigkeit des PCBs und der GPU muss wohl auch getestet werden.

Ailuros
2014-04-28, 09:43:35
Ich lass mich gerne korrigieren, aber es duftet auch ziemlich eindeutig dass sie mit A1 in die Produktion gehen werden. Danke AnarchX.

AnarchX
2014-04-28, 09:45:38
Die Kennung mit dem A01 könnte aber auch eine PCB-Revision sein.

Ailuros
2014-04-28, 09:48:18
Die Kennung mit dem A01 könnte aber auch eine PCB-Revision sein.

BRINGUP :wink:

Loeschzwerg
2014-04-28, 10:52:50
Eine 8GB Variante wird es bestimmt geben, aber vermutlich überlässt man das den Boardpartnern, NV Referenz ist sicherlich 4GB.

Bringup Boards dienen nach meinem Verständniss dem puren Debugging und der Validierung von neuen GPUs. Werden wir so zu 100% nicht im Handel sehen.

E2724-A01 gibt hier die Board ID (A01 entspricht dabei idR der PCB Revision) an und 699-12724-0000-100 die BOM.

Botcruscher
2014-04-28, 11:01:02
Vollausbau zum Start ist untypisch für die Geschäftsstrategie. Zur Fehlerbereinigung klar aber den Speicherausbau wird man im Handel nicht so schnell sehen.

Dawn on Titan
2014-04-28, 11:05:07
GTX680 4GB ... war doch ziemlicher Vollausbau eines GK104.

Ailuros
2014-04-28, 11:16:19
Eine 8GB Variante wird es bestimmt geben, aber vermutlich überlässt man das den Boardpartnern, NV Referenz ist sicherlich 4GB.

Bringup Boards dienen nach meinem Verständniss dem puren Debugging und der Validierung von neuen GPUs. Werden wir so zu 100% nicht im Handel sehen.

E2724-A01 gibt hier die Board ID (A01 entspricht dabei idR der PCB Revision) an und 699-12724-0000-100 die BOM.

Das obrige stimmt auch, aber ich hab den Eindruck dass man nicht zu hw bringup kommt wenn der chip noch einen spin brauchen wuerde, lass mich aber gerne korrigieren.

horn 12
2014-04-28, 11:24:09
Release der Karte dann Ende Oktober/ Anfang November 2014 wenn alles passen würde?

AnarchX
2014-04-28, 11:25:25
Das obrige stimmt auch, aber ich hab den Eindruck dass man nicht zu hw bringup kommt wenn der chip noch einen spin brauchen wuerde, lass mich aber gerne korrigieren.
Gerade mit so einem Board stellt man wohl Fehler fest, die einen einfachen Respin nötig machen könnten.

GK104 Bringup hatte auch 4GiB. Und bei GM107 waren wohl die Bringup Boards im Sommer 2013 zusammen mit dem A1 Chip unterwegs.

Release der Karte dann Ende Oktober/ Anfang November 2014 wenn alles passen würde?
Durchaus möglich.

Botcruscher
2014-04-28, 11:27:15
GTX680 4GB ... war doch ziemlicher Vollausbau eines GK104.

Da waren auch ein paar Monate dazwischen. Da man mit der DP Leistung dem Profisegment nicht in die Quere kommt, lasse ich mich aber auch gerne überraschen. Wobei 8GB echt zweifelhaft sind. Ob da Spiele ohne Altkonsolenballast einen Schubs über 4GB geben bezweifle ich mal.

Loeschzwerg
2014-04-28, 11:36:27
Kommt halt jetzt darauf an was die HW Engineers da zusammengeschustert haben.

Die existierenden 3dfx Rampage A0 und A1 Karten waren auch Bringup Boards für den Chip, der hatte aber noch massive Probleme/Bugs. Der VSA100 lief dagegen in der ersten Revision schon recht gut, hatte lediglich gröbere Probleme mit dem SLI.

ATi R600 in der Revision A11 (nach meinem Stand ebenfalls Bringup Silicon) war nur teilweise funktionstüchtig, jemand hat geschlampt und Traces vom DIE zum Träger vergessen. Entsprechend Bringup Boards gab es aber schon.

Zu GF100 A1 gab es auch Bringup Boards.

Letztendlich erwecken diese PCBs den Chip das erste mal richtig zum leben.

Nachdem NV aber schon den GM107 erfolgreich über die Bühne gebracht hat, gehe ich von wenig Problemen beim GM204 aus. Die Chancen von einem direkten Rev A1 Launch stehen also wirklich ganz gut.

@horn12: Gesetzt dem Fall die GPU hat keine herben Probleme ca. ein halbes Jahr bis zum Launch, passt also.

HOT
2014-04-28, 12:07:36
Ist Maxwell nicht in kleineren Einheiten strukturiert als Kepler? Wie aufwändig muss denn im Vergleich zu Kepler die Organisation in großen Chips sein? Lohnt das überhaupt für einen GKx10-Ersatz? Mir kommt Maxwell eher wie auf Mobil angepasst vor (Single/Double-Precision 1/32, weniger TMUs usw.). Der GM107 ist in seiner bescheidenen Größe ja wirklich ein Effizienzmonster. Aber das heißt doch nicht, dass das für Große dann zwangsläufig auch so ist? Sicher, ein GM204 ist sicher deutlich besser als ein schon sehr guter GK104 (aber sicher keine 50% bei gleichem Prozess), das stelle ich nicht in Frage. Ich setze das Fragezeichen an einen GM200. MMn könnte das Projekt durch den GK210 schlicht ersetzt worden sein.

Dawn on Titan
2014-04-28, 12:44:31
GK210 ist unbedeutend für die Geforce-Linie. GM200 kann man relativ leicht als zu groß für 28nm errechnen, damit braucht man 20nm SOC und damit wird er entsprechend später kommen. Wenn man ihn vor H2/15 sehen wird, dann sicher in anderen Karten als den Geforce.

Ailuros
2014-04-28, 15:53:58
Ist Maxwell nicht in kleineren Einheiten strukturiert als Kepler? Wie aufwändig muss denn im Vergleich zu Kepler die Organisation in großen Chips sein? Lohnt das überhaupt für einen GKx10-Ersatz? Mir kommt Maxwell eher wie auf Mobil angepasst vor (Single/Double-Precision 1/32, weniger TMUs usw.).

In kleineren und etwas effizienteren Einheiten. DP wird womoeglich gleich sein beim allen Maxwell cores unter dem top dog.

Kepler GK10x = 8 FP64 SPs/SMX --> GK107 = 2 SMX = 16 FP64 SPs/SMX
Maxwell GM107-204 = 4 FP64 SPs/SMM --> GM107 = 5 SMX = 20 FP64 SPs/SMM

Gleiches gilt auch fuer TMUs:

GK107
4 quad TMUs/SMX * 2 SMX = 32 TMUs

GM107
2 quad TMUs/SMM * 5 SMM = 40 TMUs

Im Gegenfall haetten 80 TMUs insgesamt nicht effizienter gemacht fuer einen low end core; mehr die area, mehr Stromverbrauch fuer einen ziemlich fragliche Investition.


Der GM107 ist in seiner bescheidenen Größe ja wirklich ein Effizienzmonster. Aber das heißt doch nicht, dass das für Große dann zwangsläufig auch so ist?

Es kann sein dass Damien Triolet recht hat und sie am GM107 dank nur einem GPC/raster/trisetup etwas am interconnect kastriert haben aber der Einfluss von diesem ist eher die Kirsche auf der Torte, denn den meisten Strom verbrauchen immer noch ALUs und TMUs, obwohl ich dummerweise dachte dass es der Gegenfall ist.

Sicher, ein GM204 ist sicher deutlich besser als ein schon sehr guter GK104 (aber sicher keine 50% bei gleichem Prozess), das stelle ich nicht in Frage.

GM107 ist um die 70% insgesamt effizienter als ein GK107 auf dem gleichen Prozess.

Ich setze das Fragezeichen an einen GM200. MMn könnte das Projekt durch den GK210 schlicht ersetzt worden sein.

GK210 hat nichts das geringste mit GM200 zu tun und ich hab auch keine Ahnung wo es herkommen soll. GK210 - was immer es auch wirklich ist - hatte schon seinen tape out, waehrend GM200 wenn alles nach Plan laeuft erst im Juni so weit kommt.

HOT
2014-04-28, 16:12:32
Danke für die Antworten. Aber an GM200 glaub ich erst wenn ich ihn sehe. Einen einzigen Chip in 20nm SoC zu bringen, während die komplette 2015er-Generation noch 28nm ist und 2016 Pascal in 16nm steht vor der Tür wäre mMn echt eine ziemlich heftige Investition. Da gibts ja keine Synergien. Und warum ist der Rest dann nicht 20nm?

GK107 und GM107 unterscheidet immerhin 30mm². Das sind immerhin 20% mehr.

Das bringt mich zu der Frage, warum die GM2xx-Serie so ein verdammt spätes Tapeout hatte, also ein Tapeout erst einiges nach(!) dem offiziellen Erscheinen des ersten Ablegers der Generation und das trotz der "alten" Fertigung. GM107 muss sein Tapeout ja schon vor ca. einem Jahr gehabt haben.

Timbaloo
2014-04-28, 16:22:38
Bei GM200 kann man das doch leicht über die Verfügbarkeit von 20nm argumentieren. Bei GM204/6 zieht das nicht direkt, 28nm sollte ja keine Probleme (mehr) machen. Die Frage die ich mir hier stelle ist: Wann hat sich NV entschieden GM204/6 auf 28nm zu bringen. Und wie freiwillig war diese Entscheidung...

Dawn on Titan
2014-04-28, 16:42:46
Danke für die Antworten. Aber an GM200 glaub ich erst wenn ich ihn sehe. Einen einzigen Chip in 20nm SoC zu bringen, während die komplette 2015er-Generation noch 28nm ist und 2016 Pascal in 16nm steht vor der Tür wäre mMn echt eine ziemlich heftige Investition. Da gibts ja keine Synergien. Und warum ist der Rest dann nicht 20nm?

GK107 und GM107 unterscheidet immerhin 30mm². Das sind immerhin 20% mehr.

Das bringt mich zu der Frage, warum die GM2xx-Serie so ein verdammt spätes Tapeout hatte, also ein Tapeout erst einiges nach(!) dem offiziellen Erscheinen des ersten Ablegers der Generation und das trotz der "alten" Fertigung. GM107 muss sein Tapeout ja schon vor ca. einem Jahr gehabt haben.

Was hat man erst vor Kurzem abgesegnet - DX12....

Ansonsten ist das doch recht einfach.

GM perf. 28nm
GM big 20nm
GP perf 20nm
GP big 16nm

Es ist heute so, dass der neue Prozess gut 1 Jahr nach Verfügbarkeit teurer ist als der alte. Das wird in Zukunft nicht besser werden.

Duplex
2014-04-28, 16:46:47
Die Frage die ich mir hier stelle ist: Wann hat sich NV entschieden GM204/6 auf 28nm zu bringen.
z.b. als Sie gemerkt haben das Maxwell deutlich effizienter als Kepler sein kann? GM204 wird aber nach meiner Meinung nach kein kleiner Chip wie GK104, ich tippe auf 450-500mm² Chip Größe & >40% mehr Performance als GK110b.

HOT
2014-04-28, 16:48:04
Was hat man erst vor Kurzem abgesegnet - DX12....

Ansonsten ist das doch recht einfach.

GM perf. 28nm
GM big 20nm
GP perf 20nm
GP big 16nm

Es ist heute so, dass der neue Prozess gut 1 Jahr nach Verfügbarkeit teurer ist als der alte. Das wird in Zukunft nicht besser werden.


Wär immerhin ne Theorie, das stimmt. Und zwischen GP100 und GK210 wäre auch ne ziemlich heftige Lücke. Ob das wirklich 20 oder 28 wird lass ich mich überraschen, spielt aber auch keine Rolle. Jedenfalls bin ich jetzt auch von einem GM200 überzeugt. Da muss was dazwischen kommen (Herbst 2014 GK210 (28nm), Herbst 2015 GM200 (20/28nm), Herbst 2016 GK100 (16nm)).

An DX12 zweifle ich aber, deshalb schmeißt man nicht gleich ne ganze Generation in die Tonne (soll nicht heißen, dass GM2xx nicht DX12-fähig ist, nicht missverstehen). Als GM1xx designt und seine Tapeouts hatte hat man das ganz sicher nicht wegen DX12, von dem damals keine Rede war, abgebrochen. Die Theorie wage ich also ernsthaft zu bezweifeln, auch wenn sie im ersten Augenblick mit dem Wissen über DX12 schlüssig erscheint. Aber man muss auch immer den zeitlichen Zusammenhang im Auge behalten. Die wurden ja sicherlich nicht jetzt gecancelt sondern vor 1/2 Jahr oder früher.
Entweder hat man mit 20nm rumexperimentiert für GM >107 und das ging schief oder es gab ne irreparable Architekturmacke, andere Gründe für einen Designabbruch einer ganzen Generation kann ich mir kaum vorstellen. Und das GM107 sicher nicht als Einzelstück geplant war ist glaube ich klar.

Ailuros
2014-04-28, 18:03:58
Danke für die Antworten. Aber an GM200 glaub ich erst wenn ich ihn sehe. Einen einzigen Chip in 20nm SoC zu bringen, während die komplette 2015er-Generation noch 28nm ist und 2016 Pascal in 16nm steht vor der Tür wäre mMn echt eine ziemlich heftige Investition. Da gibts ja keine Synergien. Und warum ist der Rest dann nicht 20nm?

GK107 und GM107 unterscheidet immerhin 30mm². Das sind immerhin 20% mehr.

Warum ist GM107 nicht auf 20SoC hergestellt? Du beantwortest selber Deine eigene Fragen. IHVs fertigen unter DEM Prozess wo es je nach Komplexitaet, Zeitpunkt und Herstellungskosten am meisten lohnt. GM200 ist noch kein fertiger chip aber als Konzept passt er nicht in 28nm rein.

Das bringt mich zu der Frage, warum die GM2xx-Serie so ein verdammt spätes Tapeout hatte, also ein Tapeout erst einiges nach(!) dem offiziellen Erscheinen des ersten Ablegers der Generation und das trotz der "alten" Fertigung. GM107 muss sein Tapeout ja schon vor ca. einem Jahr gehabt haben.

GM206 und 204 haben auch eine 2 und keine 1 und werden offiziell von NV die "zweite" Maxwell Generation genannt. Ob jetzt etwas mit etwas Substanz dahinter steckt ist eine Sache fuer sich.

Sonst ist ja NVIDIA unter sooo gewaltigem Druck von der Konkurrenz dass sie gar nicht schnell genug entwickeln koennen oder? :freak: Je problematischer die Prozesstechnologie UEBERALL wird, desto groesser werden die Zeitspannen zwischen Generationen und refreshes..


Entweder hat man mit 20nm rumexperimentiert für GM >107 und das ging schief oder es gab ne irreparable Architekturmacke, andere Gründe für einen Designabbruch einer ganzen Generation kann ich mir kaum vorstellen. Und das GM107 sicher nicht als Einzelstück geplant war ist glaube ich klar.

Nein und das mit absoluter Sicherheit; sie hatten einen Haufen resources auf Tegra geschmissen nach Kepler um da ein paar Strecken aufzuholen mit GPUs und endlich mal Denver aufs Laufband zu bringen, haben einige seither auf andere GPU Architekturen wieder zurueckgeschickt und es wurde nur schnell ein Design team zu Tegra zurueckportiert weil sie 16FF Parker (SoC) verschoben haben und zwischen Logan (K1/28HPm) und Parker (16FF) Erista auf 20SoC gesteckt.

Es wurde gar nichts abgebrochen. Es gibt aus gutem Grund eine "zweite" Maxwell Generation.

AffenJack
2014-04-28, 18:15:11
Wer redet überhaupt von in die Tonne schmeißen HOT? Namen sind Schall und Rauch,GM106 und GM104 wurden einfach in GM204/206 umbenannt und fertig. Man hat da keine Chips gecancelt, sondern einige Zeit vor dem Tapeout beschlossen, dass man die Chips noch auf DX12 umbaut. GM107 hatte Juni 2013 sein Tapeout und da wusste Nvidia schon lange über Mantle bescheid und wollte wohl auf DX12 warten. Möglich, dass die DX12 Spezifikationen da auch noch etwas gebraucht haben und man nen fast fertiges Design in der Schublade hatte, was man aber noch auf DX12 aufbohren wollte. Da man nicht weiß, was noch in DX12 kommt ist das alles schwer einzuschätzen, wieviel man noch verändern wollte. Ich gehe aber davon aus, dass GM204/6 nix anderes als die früheren GM104/6 mit DX12 sind.

Dawn on Titan
2014-04-28, 18:18:47
An DX12 zweifle ich aber, deshalb schmeißt man nicht gleich ne ganze Generation in die Tonne (soll nicht heißen, dass GM2xx nicht DX12-fähig ist, nicht missverstehen). Als GM1xx designt und seine Tapeouts hatte hat man das ganz sicher nicht wegen DX12, von dem damals keine Rede war, abgebrochen. Die Theorie wage ich also ernsthaft zu bezweifeln, auch wenn sie im ersten Augenblick mit dem Wissen über DX12 schlüssig erscheint. Aber man muss auch immer den zeitlichen Zusammenhang im Auge behalten. Die wurden ja sicherlich nicht jetzt gecancelt sondern vor 1/2 Jahr oder früher.
Entweder hat man mit 20nm rumexperimentiert für GM >107 und das ging schief oder es gab ne irreparable Architekturmacke, andere Gründe für einen Designabbruch einer ganzen Generation kann ich mir kaum vorstellen. Und das GM107 sicher nicht als Einzelstück geplant war ist glaube ich klar.

DX12 war nicht sehr viel Aufwand und so aus dem heiteren Himmel kam es auch nicht, aber imho passt es vom Zeitplan als Auslöser für 1. und 2. Generation Maxwell.

Coda
2014-04-28, 18:27:25
DX12 war nicht sehr viel Aufwand
Sagt wer?

Ailuros
2014-04-28, 18:30:26
Sagt wer?

Ein hw engineer in einem grossen IHV.

HOT
2014-04-28, 18:36:47
Warum ist GM107 nicht auf 20SoC hergestellt? Du beantwortest selber Deine eigene Fragen. IHVs fertigen unter DEM Prozess wo es je nach Komplexitaet, Zeitpunkt und Herstellungskosten am meisten lohnt. GM200 ist noch kein fertiger chip aber als Konzept passt er nicht in 28nm rein.

Quod erat demonstrandum.
Klar kann der auch 28 sein, warum denn nicht? Wenn wie behauptet Maxwell soviel effizienter wird kann er auch in 28 effizienter sein. Ich will nicht wieder auf die elende 20nm Diskussion kommen, also lass du es bitte auch. Wir sind da einfach verschiedener Ansicht, fertig. Ich schreib da auch nix mehr zu.


GM206 und 204 haben auch eine 2 und keine 1 und werden offiziell von NV die "zweite" Maxwell Generation genannt. Ob jetzt etwas mit etwas Substanz dahinter steckt ist eine Sache fuer sich.

Da stimme ich zu. Dennoch gibt man denen nicht umsonst die 2. Wo eine 2 ist ist für gewöhnlich vorher auch eine 1 und die gab es offensichtlich nicht. Das muss einen Grund haben.

Sonst ist ja NVIDIA unter sooo gewaltigem Druck von der Konkurrenz dass sie gar nicht schnell genug entwickeln koennen oder? :freak: Je problematischer die Prozesstechnologie UEBERALL wird, desto groesser werden die Zeitspannen zwischen Generationen und refreshes..

Von Druck hat keiner geredet. NV hatte viel Zeit, je mehr AMD sich selber Zeit nahm und selber zig SI und VI-Chips cancelte. So gesehen standen beide unter Druck, nur kam so gut wie nichts dabei heraus außer Hawaii und GM107. Anders sah es bei den APUs und SoCs aus.

Nein und das mit absoluter Sicherheit; sie hatten einen Haufen resources auf Tegra geschmissen nach Kepler um da ein paar Strecken aufzuholen mit GPUs und endlich mal Denver aufs Laufband zu bringen, haben einige seither auf andere GPU Architekturen wieder zurueckgeschickt und es wurde nur schnell ein Design team zu Tegra zurueckportiert weil sie 16FF Parker (SoC) verschoben haben und zwischen Logan (K1/28HPm) und Parker (16FF) Erista auf 20SoC gesteckt.

Tegra kann durchaus als 3. Grund für das Canceln der GM1xx-Linie herhalten, guter Punkt. Damit sind die ersten zwei aber nicht aus dem Rennen ;).

Es wurde gar nichts abgebrochen. Es gibt aus gutem Grund eine "zweite" Maxwell Generation.
Das wage ich sehr stark zu bezweifeln. Sowohl bei AMD als auch bei NV wurden ziemlich sicher eine ganze Menge Projekte abgebrochen. Allein was schon an Generationen gecancelt wurde.

Und klar ist Maxwell 2 DX12, wenn der jetzt erst Tapeout hatte, das ist denke ich extrem wahrscheinlich, nur um das klarzustellen.

Ailuros
2014-04-28, 18:41:57
Quod erat demonstrandum.
Klar kann der auch 28 sein, warum denn nicht? Wenn wie behauptet Maxwell soviel effizienter wird kann er auch in 28 effizienter sein.

Genau; das meisten an zusaetzlicher Effizienz einer Generation kommt hauptsaechlich von der Architektur selber. Wenn ein kleinerer Prozess benutzt werden kann wird dann halt aus +70 einfach sagen wir mal +100%.

Da stimme ich zu. Dennoch gibt man denen nicht umsonst die 2. Wo eine 2 ist ist für gewöhnlich vorher auch eine 1 und die gab es offensichtlich nicht. Das muss einen Grund haben.

Es ist weder eine dekorative Zahl nur begrenzen sich die Aenderungen nur auf sw.

Von Druck hat keiner geredet. NV hatte viel Zeit, je mehr AMD sich selber Zeit nahm und selber zig SI und VI-Chips cancelte. So gesehen standen beide unter Druck, nur kam so gut wie nichts dabei heraus.

Es hat KEIN IHV etwas storniert; umgebaut***edit: leicht erweitert ja.

Tegra kann durchaus als 3. Grund für das Canceln der GM1xx-Linie herhalten, guter Punkt.

Wie gesagt es wurde nirgends etwas storniert.

Das wage ich sehr stark zu bezweifeln. Sowohl bei AMD als auch bei NV wurden ziemlich sicher eine ganze Menge Projekte abgebrochen.

Dann mach mal eine Liste.

Und klar ist Maxwell 2 DX12, wenn der jetzt erst Tapeout hatte, das ist denke ich extrem wahrscheinlich, nur um das klarzustellen.

Wo liegt dann die Logik dass GM104 angeblich fuer GM204 "storniert" wurde. In dem Fall ist der 204 lediglich ein leicht erweiterter 104; Du hast es Dir fast schon selber ausgerechnet wenn Du auf AffenJack's Post geachtet hast. Es liegt weniger als ein halbes Jahr zwischen den beiden.

Coda
2014-04-28, 18:43:43
Ein hw engineer in einem grossen IHV.
Sorry, für den nervigen, üblichen, generischen Kommentar, aber: Quelle?

Ailuros
2014-04-28, 18:48:21
Sorry, für den nervigen, üblichen, generischen Kommentar, aber: Quelle?

Offensichtlich war es off the record und nicht in aller Oeffentlichkeit.

Unicous
2014-04-28, 18:49:18
@HOT

Quod erat demonstrandum?

Meinst du nicht eher quod esset demonstrandum.:tongue:




scnr

boxleitnerb
2014-04-28, 18:52:37
Wie gesagt es wurde nirgends etwas storniert.

Hm, hatten SA und ein paar andere damals hier nicht geschrieben bzw. zugestimmt, dass wirklich ein Maxwell gecancelt wurde? Also alles Humbug zur Klickgenerierung?

HOT
2014-04-28, 18:54:59
[...]
Dann mach mal eine Liste.
[...]

AMD:
- Northern Islands (32nm) komplett, Cayman als Ersatzchip in 40nm
- Sea Islands komplett bis auf Bonaire
- Volcanic Islands (20nm) komplett, Hawaii als Ersatzchip in 28nm
- Pirate-Islands kommt in 28 statt 20nm, also auch gecancelt

NV:
- Kepler Refresh außer GK210
- Erste Maxwell-Generation außer GM107
- zweite Maxwell-Geneation kommt in 28 statt 20nm, also auch gecancelt
- Einstein
- Volta gen.1

Loeschzwerg
2014-04-28, 19:02:16
...in der IT kann man nicht immer seine Pläne stur durchziehen, man muss flexibel auf gewisse Ereignisse reagieren. Dadurch ändern sich Dinge und dann eben auch die Codenamen. Logisch, es entspricht schließlich nicht mehr der 100% geplanten Marschrichtung. Deswegen ist ein Design aber noch lange nicht gecancelt.

Sich auf Codenamen zu versteifen hilft hier nicht wirklich weiter, aber die Presse kann es natürlich schön ausschlachten, an Namen lässt sich super festhalten.

AnarchX
2014-04-28, 19:06:58
AMD:
- Northern Islands (32nm) komplett, Cayman als Ersatzchip in 40nm
- Sea Islands komplett bis auf Bonaire
- Volcanic Islands (20nm) komplett, Hawaii als Ersatzchip in 28nm
- Pirate-Islands kommt in 28 statt 20nm, also auch gecancelt

NV:
- Kepler Refresh außer GK210
- Erste Maxwell-Generation außer GM107
- zweite Maxwell-Geneation kommt in 28 statt 20nm, also auch gecancelt
- Einstein
- Volta gen.1
Ernsthafte Hinweise gibt es bei NV aber nur für GK180 und GT212/214/206. Das waren wohl Produkteinstellungen als schon Simulationen der Chips vorlagen. Bei AMD gibt/gab es im Treibercode ja auch diverse Codenamen, die auf Simulationen hindeuten.

HOT
2014-04-28, 19:07:06
...in der IT kann man nicht immer seine Pläne stur durchziehen, man muss flexibel auf gewisse Ereignisse reagieren. Dadurch ändern sich Dinge und dann eben auch die Codenamen. Logisch, es entspricht schließlich nicht mehr der 100% geplanten Marschrichtung. Deswegen ist ein Design aber noch lange nicht gecancelt.

Sich auf Codenamen zu versteifen hilft hier nicht wirklich weiter, aber die Presse kann es natürlich schön ausschlachten, an Namen lässt sich super festhalten.
Es ging um das Projekt. Ich glaub hier war einfach ein Missverständnis. Natürlich muss man flexibel sein, deshalb bastelt man auch "Provisorien" und bennent Projekte beispielsweise einfach um usw. Das ist alles klar. Es ging nur darum, dass auch Projekte abgebrochen werden, das ist obligatorisch.

Ailuros
2014-04-28, 19:20:21
AMD:
- Northern Islands (32nm) komplett, Cayman als Ersatzchip in 40nm

Cayman ist der ein und gleiche chip; es wurde lediglich von 32 auf 40nm neu aufgelegt.

- Sea Islands komplett bis auf Bonaire
- Volcanic Islands (20nm) komplett, Hawaii als Ersatzchip in 28nm
- Pirate-Islands kommt in 28 statt 20nm, also auch gecancelt

Junge bei Dir wird aber viel "storniert"; genauso wie beim obrigen?

NV:
- Kepler Refresh außer GK210
- Erste Maxwell-Generation außer GM107
- zweite Maxwell-Geneation kommt in 28 statt 20nm, also auch gecancelt
- Einstein
- Volta gen.1

Es gab nie einen "Einstein" auf irgend einer NV roadmap und Volta gibt es immer noch; nix mit gen1 bullshit.

Es gibt nur eine Erklaerung dafuer: unter "gecancelt" verstehst Du wenn ich einen chip names Borgo Shpinxter nehme ihm das minimalst moegliche innerhalb nur ein paar Monate dazufuege oder aendere. Nein IHVs wie NV und AMD haben nicht den Luxus Milliarden in R&D Gelder nur so aus dem Fenster zu schmeissen und Du darfst auch 3x Mal raten welche Architektur in Intel's HPC GPUs hockt, weil auch sie nicht den Luxus hatten/haben Milliarden aus dem Fenster zu kippen.

Aenderungen an chips bzw. roadmaps sind stinknormal bei allem IHVs. Storniert wird gar nichts selbst wenn man weiss dass man einen "loser" wie NV30, R600 oder Larabee entwickelt hat.

Loeschzwerg
2014-04-28, 19:24:21
Es ging um das Projekt. Ich glaub hier war einfach ein Missverständnis. Natürlich muss man flexibel sein, deshalb bastelt man auch "Provisorien" und bennent Projekte beispielsweise einfach um usw. Das ist alles klar. Es ging nur darum, dass auch Projekte abgebrochen werden, das ist obligatorisch.

Aber es wurde ja eben nichts direkt abgebrochen. Man entwickelt eine Architektur und darauf dann seine Produkte. GM107 war logisch da hier im Markt eine deutliche Lücke existierte und der Chip klein genug für eine Art "Test" ist/war.
Mit GM106 und GM104 sieht die Sache schon wieder anders aus. Der Markt steht still und AMD ist keine Gefahr in diesem Leistungssegment. Wozu also dieses Lineup bringen wenn die alten Produkte noch gut laufen?

Feilt man halt weiter an der Architektur und verschiebt die Sache. Die geleistete Arbeit geht ja nicht verloren.

Edit: Sign @Ailuros

Unicous
2014-04-28, 19:26:50
Außerdem hat AMD schon vor einiger Zeit gesagt, dass die Codenamen nichts mit neuen Architekturen zu tun haben, sondern lediglich eine neue "SKU-Generation" darstellen. Daher gehören auch die ganzen umgelabelten OEM-SKUs zu neuen Generationen. Aber eigentlich müsste HOT das ja wissen. Da er sich aber seine Fakten gerne selber bastelt kann man dagegen ja eh nicht argumentieren, denn es ist ja eh falsch.:freak:

Ailuros
2014-04-28, 19:29:23
Außerdem hat AMD schon vor einiger Zeit gesagt, dass die Codenamen nichts mit neuen Architekturen zu tun haben, sondern lediglich eine neue "SKU-Generation" darstellen. Daher gehören auch die ganzen umgelabelten OEM-SKUs zu neuen Generationen. Aber eigentlich müsste HOT das ja wissen. Da er sich aber seine Fakten gerne selber bastelt kann man dagegen ja eh nicht argumentieren, denn es ist ja eh falsch.:freak:

Du kannst dafuer sogar Wavey zitieren da es nicht allzu lange her ist als er es bei B3D bestaetigte und auch vieles anderes.

Koennen wir jetzt den Bogen machen und zu Maxwell zurueckkommen?

Quiz des Tages wie viele Transen auf GM204 in your humble opinion monsieur?

Unicous
2014-04-28, 19:32:53
Transen? Mit oder ohne Stöckelschuhe?

Ailuros
2014-04-28, 19:34:24
Transen? Mit oder ohne Stöckelschuhe?

LOL :biggrin: von mir aus mit Dirndl.

boxleitnerb
2014-04-28, 19:35:15
5,2 Mrd bei 400mm2. Mach einen Poll auf, der Gewinner darf einen Tag straffrei trollen :D

ndrs
2014-04-28, 19:38:40
Transen? Mit oder ohne Stöckelschuhe?
Du meinst Sockelschuhe, Computerchips stehen idR nicht auf Stöckeln :D

Ailuros
2014-04-28, 19:40:19
5,2 Mrd bei 400mm2. Mach einen Poll auf, der Gewinner darf einen Tag straffrei trollen :D

Ihr habt interessante Hemmungen ;) Ohne Poll und Troll sollte es auch gehen :P

Nakai
2014-04-28, 19:42:02
5,2 Mrd bei 400mm2. Mach einen Poll auf, der Gewinner darf einen Tag straffrei trollen :D

GM107 := 12,6 Mio. Tr/mm²
GM204 := ~13 Mio.Tr/mm²

Bei ~350mm² -> 4,5 Mio. Tr/mm².

GM204 blos nicht zu groß schätzen.

Loeschzwerg
2014-04-28, 19:52:06
GM107 := 12,6 Mio. Tr/mm²
GM204 := ~13 Mio.Tr/mm²

Bei ~350mm² -> 4,5 Mio. Tr/mm².

GM204 blos nicht zu groß schätzen.

Wäre zumindest ein P/L Knaller, aber dann natürlich nur 1920 Cores. Muss es halt der Takt richten.

boxleitnerb
2014-04-28, 19:56:26
Ihr habt interessante Hemmungen ;) Ohne Poll und Troll sollte es auch gehen :P

Hemmungen? Also größer??? :confused:

Ailuros
2014-04-28, 19:56:34
Es deckt sich auch mit Nakai's restlicher These. Ich bin dann schon eher in box's Region.

Hemmungen? Also größer??? :confused:

LOL war nur ein Witz weil Du straffreies trolling vorgeschlagen hast.

Loeschzwerg
2014-04-28, 20:06:26
Ich frage mich halt wie viel Zukunft ein GM204 mit ~350mm² hat, das Ding muss immerhin recht lange durchhalten. Viel Luft beim Takt bleibt da nicht und man kann schwerer auf AMD reagieren (ganz unabhängig davon was die evtl. in der Hinterhand haben).

Nakai
2014-04-28, 20:09:25
Wäre zumindest ein P/L Knaller, aber dann natürlich nur 1920 Cores. Muss es halt der Takt richten.

Wieso? GM107 hat bereits ein 128Bit SI mit 2MB L2-Cache. GM107 hat 2 ROP-Partitionen, GM204 könnte 4 Partitionen haben und somit 4MB L2-Cache. GM206 kommt dann mit 3 ROP-Partitionen, also 3MB L2-Cache und 192Bit SI.

Unter 350mm² wird man mehr als nur 1920SPs unterbringen können.

€: Analog: GK107 hat 118mm². GK104 hat 294mm². 5fache Anzahl an SPs bei ~2,5facher Fläche.

Timbaloo
2014-04-28, 20:10:45
370mm² @ 2560SPs. Das habt ihr nicht von mir.

Loeschzwerg
2014-04-28, 20:33:44
Unter 350mm² wird man mehr als nur 1920SPs unterbringen können.


Es wird schon etwas mehr sein als 350mm². Ich finde die Aufschlüsselung von Leonidas da ganz passend:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=553021

boxleitnerb
2014-04-28, 20:38:09
Tahiti hat nur unwesentlich mehr wie 365 mm2 aber 2048 SP und ein 384 bit Interface. Man sollte eigentlich erwarten, dass Nvidia mindestens diese Packdichte erreichen kann nach 2 Jahren, wenn nicht übertreffen.

Nakai
2014-04-28, 20:38:28
Ich taste mich mal an GM200 ran. Bei ~50% höhere Packdichte, sollte man ordentlich die Einheitenzahl erhöhen können. Eventuell geht man endlich auf ein 512Bit SI, ergo 8 ROP-Partitionen Außerdem mindestens 8 Denvercores(eher 16).

GM204 unter 20nm wäre etwa ~235mm² groß.

Ein doppelter GM204 mit noch zusätzlichen Denver-Kernen könnte die 500mm² sprengen.

€: Es wird schon etwas mehr sein als 350mm². Ich finde die Aufschlüsselung von Leonidas da ganz passend:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=553021

Siehe Box's Kommentar oder warum ich ~13MioTr/mm2 geschrieben habe. Nochmal, Hawaii hatte 14,1MioTr/mm2.
Nichts gegen Leonidas | 3DC, aber jegliches Gemunkel/Geschätze seitens 3DC hat sich als unakkurat herausgestellt.

Dawn on Titan
2014-04-28, 21:03:47
4,5-5 Millionen. Ich lasse mir eine Reserve nach oben für große Caches.

VooDoo7mx
2014-04-28, 21:06:13
Ich gehe von 20SMM, 2560 Cores, 4,5-5 Mrd Transistoren bei über 400mm², aber kleiner als Hawaii aus. 230W-250W TDP 1x6pin+1x8pin Connector

nVidia sagt ja auch selber das ein Maxwell SMM 90% der Geschwindigkeit eines Kepler SMX erreicht.

Variante 1: Da wird es mit 15 SMM schon sehr eng. Man benötigt sehr viel Takt um mit prognostizierten 30% über der GTX780Ti zu landen. Ich glaube nicht das so ein 1920 Core Chip mit 1,4GHz gelauncht wird. Stromverbrauch ist dann auch sehr hoch.

Variante 2: Bei 20SMM und ca 1GHz Takt kommt man an Hand nVidias 90% Aussage, ziemlich bequem und genau bei ca 30% über der GTX780Ti raus. Der selbe Sprung wie von GTX580 auf GTX680. Das passt einfach alles sehr gut zusammen. Ein größerer Chip mit weniger Takt ist auch immer effizienter als ein kleinerer mit viel Takt.

Ravenhearth
2014-04-28, 21:28:20
20 SMM, 2560 Cores, ~ 5,2 Mrd. Transen, ~ 380 mm², ~ 170W.

Skysnake
2014-04-28, 21:36:32
Wenn es wirklich irgendwo zu problematisch wird dann haetten sich beide IHVs ihren Arsch bewegen sollen und eine anstaendige Leistungsskalierung fuer mGPU in hw giessen sollen.
Was hat denn bitte die Skalierung von mGPU rein mit der Verschaltung von Transistoren zu tun :freak:

Das sind mal sowas von zwei Paar Stiefel.

Eine 8GB Variante wird es bestimmt geben, aber vermutlich überlässt man das den Boardpartnern, NV Referenz ist sicherlich 4GB.

Bringup Boards dienen nach meinem Verständniss dem puren Debugging und der Validierung von neuen GPUs. Werden wir so zu 100% nicht im Handel sehen.

E2724-A01 gibt hier die Board ID (A01 entspricht dabei idR der PCB Revision) an und 699-12724-0000-100 die BOM.
Dem schließe ich mich auch mal an. Irgendwas braucht man ja, um überhaupt mal zu schauen, ob das Teil überhaupt funktioniert oder eben nicht.

Nicht das am Ende jemand vergessen hat nen Pin an zu schließen :freak:

Das obrige stimmt auch, aber ich hab den Eindruck dass man nicht zu hw bringup kommt wenn der chip noch einen spin brauchen wuerde, lass mich aber gerne korrigieren.
Doch genau das tut man.

Du kannst dir eigentlich nie 100% sicher sein, dass der Chip auch wirklich funktioniert. Dafür gibt es zwar Testchips, aber es macht immer nochmal einen Unterschied, alles zusammen zu packen.

Der ganze Interface(Analog) Kram ist halt so ne Sache, und bei Chips wie GPUs auch immer!!! die power/gnd Distribution. Timings sollte man eigentlich ziemlich gut im Griff haben, wenn man aber bei Power nen fail gebaut hat, dann kanns selbst da mal knallen. Kommt halt auch immer darauf an, wie Spitz auf Knopf man alles genäht hat.


Es kann sein dass Damien Triolet recht hat und sie am GM107 dank nur einem GPC/raster/trisetup etwas am interconnect kastriert haben aber der Einfluss von diesem ist eher die Kirsche auf der Torte, denn den meisten Strom verbrauchen immer noch ALUs und TMUs, obwohl ich dummerweise dachte dass es der Gegenfall ist.

Für nen GM107 kann das sicherlich der Fall sein. Für nen Chip vom Schlage eines GK110 würde ich das nicht mehr sagen wollen. Allein die clock zu verteilen macht da keinen Spaß und saugt dir richtig Strom aus der Leitung.

Signale einmal quer über den Chip ist auch keine Freude mit zich Buffern zum Signalrefresh drin.

ndrs
2014-04-29, 00:16:43
Wäre zumindest ein P/L Knaller
Du meinst ein Margen-Knaller :D

€: Analog: GK107 hat 118mm². GK104 hat 294mm². 5fache Anzahl an SPs bei ~2,5facher Fläche.
Das kannst du aber nicht so auf Maxwell übertragen, da bei GM107 der %uale Anteil an bspw PCIe-Interface, SI, UVD, ... kleiner ist. Das Shaderarray nimmt also mehr Anteil von der Die-Fläche ein.
Was hat denn bitte die Skalierung von mGPU rein mit der Verschaltung von Transistoren zu tun :freak:

Er meint wohl: wenn die Skalierung einer Architektur auf immer größere Chips (also zB GM107->GM204) verdrahtungstechnisch so kompliziert wird, sollten sie lieber zusehen mGPU richtig zu machen und einfach 4*GM107 auf eine Karte zu bauen. Dann bräuchte es keine großen Dies mehr.

Hübie
2014-04-29, 04:52:52
Ich sage mal nach wie vor dass vorerst nicht die 780 Ti der Maßstab sein sollte ;)

aufkrawall
2014-04-29, 06:35:23
Grundtakt höher, weniger OC-Potenzial (auch durch weniger Bandbreite)?

Dawn on Titan
2014-04-29, 07:10:22
Im Endeffekt 580 vs. 680 mit etwas kleinerem Delta.

Ailuros
2014-04-29, 08:15:43
Was hat denn bitte die Skalierung von mGPU rein mit der Verschaltung von Transistoren zu tun :freak:

Das sind mal sowas von zwei Paar Stiefel.

Natuerlich sind es zwei paar Stiefel, aber wenn es zur jeglichen Prozess-Problematik kommt und da es allen IHVs schon seit einer Ewigkeit bewusst ist, ist es deren Bier Alternativen fuer die Problematik zu bekaempfen. Unter der Logik ist effektives mGPU in hw eine Alternative denn man koennte locker nur bis zu 250-300mm2 cores bauen und die dann je nach Markt von mainstream desktop bis high end HPC skalieren.


Für nen GM107 kann das sicherlich der Fall sein. Für nen Chip vom Schlage eines GK110 würde ich das nicht mehr sagen wollen. Allein die clock zu verteilen macht da keinen Spaß und saugt dir richtig Strom aus der Leitung.

Signale einmal quer über den Chip ist auch keine Freude mit zich Buffern zum Signalrefresh drin.

Wenn wir ueber einen GM204 reden dann ist wohl der Vergleich zu einem 551mm2 GK110 wohl doch um einiges uebertrieben; wenn dann waere der Vergleich wohl eher zum 294mm2 GK104 mit 8 clusters/4 GPCs.


Er meint wohl: wenn die Skalierung einer Architektur auf immer größere Chips (also zB GM107->GM204) verdrahtungstechnisch so kompliziert wird, sollten sie lieber zusehen mGPU richtig zu machen und einfach 4*GM107 auf eine Karte zu bauen. Dann bräuchte es keine großen Dies mehr.

Einen virtuellen Keks fuer den Herren bitte :)


Das kannst du aber nicht so auf Maxwell übertragen, da bei GM107 der %uale Anteil an bspw PCIe-Interface, SI, UVD, ... kleiner ist. Das Shaderarray nimmt also mehr Anteil von der Die-Fläche ein.


Was meinst Du genau mit "shaderarray" denn ich hab wohl gerade meinen blonden Moment? Es sind wie schon weiter oben erwaehnt halb so viel TMUs pro cluster auf Maxwell/SMM vs. Kepler/SMX.

Skysnake
2014-04-29, 09:14:39
Natuerlich sind es zwei paar Stiefel, aber wenn es zur jeglichen Prozess-Problematik kommt und da es allen IHVs schon seit einer Ewigkeit bewusst ist, ist es deren Bier Alternativen fuer die Problematik zu bekaempfen. Unter der Logik ist effektives mGPU in hw eine Alternative denn man koennte locker nur bis zu 250-300mm2 cores bauen und die dann je nach Markt von mainstream desktop bis high end HPC skalieren.

Ja könnte man, aber die Hersteller machen es offensichtlich ja nicht, weil man dann ein Multi-Chip-Package bräuchte usw usw.

Zudem würde ein MCM das Problem nicht wirklich beheben. Du musst die ganzen Sachen ja dennoch Routen, und wenn das halt zu viele Signale sind, bekommste die Wires halt einfach nicht mehr zu den Gates, und da haste dann halt einfach pech gehabt.

Das routing über "große" Strecken kannste ja "einfach" durch höhere Metalllagen machen. Dafür gibt es ja heutzutage >4 Lagen. Das Problem ist aber eher M1 und M2, wo du einfach gar nicht mehr so viele Datenpfade verlegen kannst, wie du teilweise brauchst für ne maximale Packdichte.

Dann musste halt Platz lassen.

Timbaloo
2014-04-29, 09:29:50
Seit wann geht mGPU nur mit MCMs?

N0Thing
2014-04-29, 09:53:30
Bisher scheint es in diesem Bereich kein Problem zu geben, was die Hersteller nicht lösen können. Da arbeiten ja keine Laien oder nur Frischlinge von der Uni, also kann man diese Diskussion verschieben, bis sie eventuell mal aktuell wird.

-/\-CruNcher-/\-
2014-04-29, 10:02:35
Deswegen ist der Verkauf von IBMs Semiconductor part ja auch so interessant alle wollen ihr Research aber bekommen tun sie im Endeffekt nur Produktionskapazitäten ;)

ndrs
2014-04-29, 10:05:29
Einen virtuellen Keks fuer den Herren bitte :)

Ahhh, Frühstück :)

Was meinst Du genau mit "shaderarray" denn ich hab wohl gerade meinen blonden Moment? Es sind wie schon weiter oben erwaehnt halb so viel TMUs pro cluster auf Maxwell/SMM vs. Kepler/SMX.
Ja, ok, vielleicht hab ich da was mit den Begriffen durcheinandergewürfelt.

Prinzipiell meine ich folgendes, wenn ich mal mit Zahlen vom (in dem Fall vollkommen unwissenden) Milchmädchen um mich werfe: Wenn GK107 angenommen 50mm^2 für PCIe, Video-out, UVD VPx, ... verbraucht (also alles was es nur einmal gibt, egal wie groß der Chip ist) und sagen wir 10mm^2 für das 128Bit SI, dann bleiben 58mm^2 Für die SMXe. Bei GK104 wären das dann 294-50-2*10=224mm^2. Schon ist der Faktor nur noch 1:4 statt 1:2,5.
Wende ich das nun auf Maxwell an, und unterstelle KM107 148-50-10=88mm^2 Für die SMMs lande mit vorstehender Rechnung bei 88*4+50+2*10=422mm^2.

So, das wollte ich eigentlich gar nicht so ausführlich breittreten. Ich hab jetzt auch keine Ahnung ob die Zahlen ansatzweise passen, wollte aber nur darauf hinweisen, dass man nicht einfach stur die Verhältnisse übertragen kann.

Edit hat sich ausgetobt.

Dawn on Titan
2014-04-29, 10:10:10
SMs sind überraschend klein im Vergleich zu den anderne "fixed" Functions die eine GPU braucht.

-/\-CruNcher-/\-
2014-04-29, 10:11:14
Nvidias Video Decoder Asic heist offiziel VPx (x steht für die Version) (volksprachlich auch manchmal PureVideo bezeichnet eher das ökosystem mit allen übergeordneten funktionen PP ect) ;)

robbitop
2014-04-29, 10:39:10
20 SMM, 2560 Cores, ~ 5,2 Mrd. Transen, ~ 380 mm², ~ 170W.
So in etwa schätze ich auch. Ein 1920 SP Chip würde NV nicht sooo viel bringen. Ich sehe da keinen großen Kaufreiz.
NV ist für hohe Margen bekannt. Die können sie sich nur holen, wenn ihre GPU schneller als GK110 ist. Mit 350...450 sqmm ist das ganze nicht mal teuer (im Vergleich zu GK110). Warum sollte man diese Chance nicht ergreifen? Das Ding wäre je nach Taktrate ~20 % schneller als die 780Ti und man kann es wieder teuer verkaufen.

Eine Karte mit 1920 SP würde grob GK110 Leistung bringen. Evtl. etwas weniger als 780Ti.

Und wir wissen ja spätestens seit GK104, wie kaufwillig Enthusiasten sind. :)

Ailuros
2014-04-29, 11:13:31
Ahhh, Frühstück :)

Ja, ok, vielleicht hab ich da was mit den Begriffen durcheinandergewürfelt.

Prinzipiell meine ich folgendes, wenn ich mal mit Zahlen vom (in dem Fall vollkommen unwissenden) Milchmädchen um mich werfe: Wenn GK107 angenommen 50mm^2 für PCIe, Video-out, UVD, ... verbraucht (also alles was es nur einmal gibt, egal wie groß der Chip ist) und sagen wir 10mm^2 für das 128Bit SI, dann bleiben 58mm^2 Für die SMXe. Bei GK104 wären das dann 294-50-2*10=224mm^2. Schon ist der Faktor nur noch 1:4 statt 1:2,5.
Wende ich das nun auf Maxwell an, und unterstelle KM107 148-50-10=88mm^2 Für die SMMs lande mit vorstehender Rechnung bei 88*4+50+2*10=422mm^2.

So, das wollte ich eigentlich gar nicht so ausführlich breittreten. Ich hab jetzt auch keine Ahnung ob die Zahlen ansatzweise passen, wollte aber nur darauf hinweisen, dass man nicht einfach stur die Verhältnisse übertragen kann.

Akzeptiert aber es duerften keine Summen sein die einen besoneren Kopfschmerz machen wuerden stets IMHO; da macht mir eher die Moeglichkeit eines kastrierten interconnects eher Sorgen. Ist aber nur auf Triolet's These basiert.

Gipsel
2014-04-29, 16:24:50
Seit wann geht mGPU nur mit MCMs?
Wenn man nicht dämliches AFR machen will, benötigt man Unmengen an Bandbreite (mit nicht zu hoher Latenz) zwischen den Chips. Ein MCM oder besser gar ein Interposer bietet das.

Godmode
2014-04-29, 16:32:43
Wenn man nicht dämliches AFR machen will, benötigt man Unmengen an Bandbreite (mit nicht zu hoher Latenz) zwischen den Chips. Ein MCM oder besser gar ein Interposer bietet das.

Wie sieht es eigentlich mit Chip Stacking aus? Beim Speicher kommt das in Bälde.

Ailuros
2014-04-29, 16:53:25
Wie sieht es eigentlich mit Chip Stacking aus? Beim Speicher kommt das in Bälde.

Wenn sie den ersten erfolgreichen Schritt mit Speicher machen kommt es dann auch wohl zum naechsten Schritt; wird aber noch dauern IMHO.

Godmode
2014-04-29, 17:18:51
Wenn sie den ersten erfolgreichen Schritt mit Speicher machen kommt es dann auch wohl zum naechsten Schritt; wird aber noch dauern IMHO.

Man wird sich dann wohl auch was mit der Kühlung überlegen müssen, weil wenn die Die Fläche sinkt und die TDP steigt gibt es ein Problem.

Ailuros
2014-04-29, 17:20:25
Man wird sich dann wohl auch was mit der Kühlung überlegen müssen, weil wenn die Die Fläche sinkt und die TDP steigt gibt es ein Problem.

Stacked heatsinks (heatsinks for heatsinks)? :freak:

Godmode
2014-04-29, 17:33:02
Stacked heatsinks (heatsinks for heatsinks)? :freak:

Hab da eher an Integrated micro-channel cooling in silicon gedacht:

http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=1356506&url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F9370%2F29754%2F01356506.pdf%3Farnu mber%3D1356506
http://nanoheat.stanford.edu/sites/default/files/publications/A80.pdf

AnarchX
2014-05-02, 17:06:40
Damit sind die Prototypen wohl komplett:
IC (INTEGRATED CIRCUIT) PI-HER FCBGA (ELF) (40*40) 1745 DEVICE:AS GM204-A01 LOT NO:T6A995.005 S.PN:AJC4040B
25 Chips in dieser Lieferung.

Quelle: Zauba

Hübie
2014-05-02, 18:30:36
So in etwa schätze ich auch. Ein 1920 SP Chip würde NV nicht sooo viel bringen. Ich sehe da keinen großen Kaufreiz.
NV ist für hohe Margen bekannt. Die können sie sich nur holen, wenn ihre GPU schneller als GK110 ist. Mit 350...450 sqmm ist das ganze nicht mal teuer (im Vergleich zu GK110). Warum sollte man diese Chance nicht ergreifen? Das Ding wäre je nach Taktrate ~20 % schneller als die 780Ti und man kann es wieder teuer verkaufen.

Eine Karte mit 1920 SP würde grob GK110 Leistung bringen. Evtl. etwas weniger als 780Ti.

Und wir wissen ja spätestens seit GK104, wie kaufwillig Enthusiasten sind. :)

Mittelfristig würde ich auch sagen dass was mit 2560 ALUs kommt, aber mein Tipp ist nach wie vor dass man zunächst kleinere Chips an den Start bringt bevor man die Keule erneut schwingt :smile:
Irgend jemand hier hatte das treffend formuliert: "Ein gutes Pferd springt nur so hoch wie es muss."

@godmode: Klingt ja interessant aber wie willst du das all-in-one integrieren? Vor allem mit entsprechenden Druckkonstanten. Wusste gar nicht dass man sich schon so lange damit beschäftigt :eek:

AnarchX hat wohl eine neue Lieblingsseite ;D ;D

robbitop
2014-05-02, 18:51:04
1920 SPs sind aber nicht hoch genug gesprungen. Wer soll das kaufen? Jedenfalls nicht zu exorbitanten Preisen.

Hübie
2014-05-02, 19:07:38
Naja sagen wir mal 400-450 Euro. Leistungstechnisch gehe ich von 780 (non-Ti) +x% aus.

robbitop
2014-05-02, 20:49:01
So eine Karte gibt's aber schon. (die 780) Wozu das also? Eine neue Maske, neues PCB etc ist sehr teuer. Das sollte sich doch besser lohnen. Dann lieber ein paar sqmm mehr investieren und 200 € mehr absahnen. Da ist die Gewinnspanne viel höher.

Knuddelbearli
2014-05-02, 21:00:08
soll ja angeblich pin compatibel sein

robbitop
2014-05-02, 21:12:18
Kann er doch auch mit 2560 SPs bleiben. ;)

Würde mich aber wirklich überraschen. Gabs sowas eigentlich schonmal? :) Eine Nachfolger µ-Arch die auf dem exakt gleichen PCB lief, wie die Vorgänger-µ-Arch. (im GPU Bereich!)

Nakai
2014-05-02, 21:22:23
Kann er doch auch mit 2560 SPs bleiben. ;)

Würde mich aber wirklich überraschen. Gabs sowas eigentlich schonmal? :) Eine Nachfolger µ-Arch die auf dem exakt gleichen PCB lief, wie die Vorgänger-µ-Arch. (im GPU Bereich!)

Keine Ahnung. Es ist aber ein Indiz oder Beleg für...

...das Speicherinterface -> 256Bit
...eventuelle Diesize -> ~350mm²

Timbaloo
2014-05-02, 22:06:46
Würde die ganze Chose nochmal deutlich günstiger machen. Was beim Kunden maximal dadurch ankommt, dass 3rd party Kühler problemlos passen dürften (wenn man natürlich keine Stunts wie Stromturm oder sonstiges startet).

Hübie
2014-05-03, 02:27:46
So eine Karte gibt's aber schon. (die 780) Wozu das also? Eine neue Maske, neues PCB etc ist sehr teuer. Das sollte sich doch besser lohnen. Dann lieber ein paar sqmm mehr investieren und 200 € mehr absahnen. Da ist die Gewinnspanne viel höher.

Hm. Bei entsprechenden Mengen dürfte so ein "kleiner" 20-nm-Chip deutlich günstiger und effizienter sein als GK110 (salvage). Vielleicht nicht from the very first time aber so nach ein paar Monaten stelle ich es mir jedoch profitabel vor. Gingen eigentlich 2048 SM?

Ailuros
2014-05-03, 07:34:23
Hm. Bei entsprechenden Mengen dürfte so ein "kleiner" 20-nm-Chip deutlich günstiger und effizienter sein als GK110 (salvage). Vielleicht nicht from the very first time aber so nach ein paar Monaten stelle ich es mir jedoch profitabel vor. Gingen eigentlich 2048 SM?

Welches 20nm?

Hübie
2014-05-03, 10:44:21
Gibt doch aktuell nur 20SoC oder? Bin momentan nicht so auf dem laufenden ;D

AffenJack
2014-05-03, 11:10:37
Ail meint damit, dass kein 20nm kommt erstmal kommt.

Hübie
2014-05-03, 11:51:42
Ach so. Ja gut es ist ja auch noch nicht klar ob jetzt eher so eine Gurke, welche GK106 ersetzt, kommt oder eher was in Richtung GK104-Ersatz. Vor Ende 2014 rechne ich eh nicht mit GPUs @20 nm.
Wenn als nächstes noch n Gurken-Chip wie GM107++ kommt würden sich 28 nm nach wie vor anbieten.
Beim Performance-Chip hängts dann eben von der die-Area und Performance ab. Man müsste GK110 obsolet machen um den Preis bei weniger Kosten verlangen zu können. Könnt ihr mir gerade folgen? Ja? Gut. ;D

AffenJack
2014-05-03, 12:39:28
Ich kann dir ehrlich gesagt nicht folgen. Was als nächstes kommt ist doch ganz klar, GM204 und danach GM206 irgendwann. GM204 sollte in 28nm Ende des Jahres kommen.

Ailuros
2014-05-03, 12:41:39
GM206 ersetzt GK106 & GM204 ersetzt GK104. Alle sind 28nm und well alles nach Plan läuft erscheinen beide auf GPUs noch innerhalb 2014.

boxleitnerb
2014-05-03, 12:44:15
Wäre es dann möglich, dass die Spanne zwischen GM200 (oder wie er auch heißt) und GM204 größer wird als zwischen GK110 und GK104? Eben weil GM200 ja wohl in 20nm gefertigt wird.

fondness
2014-05-03, 12:46:26
Entweder das oder 20nm bringt wirklich fast nix oder kommt erst sehr spät. Ende des Jahres noch größere 28nm Chips deuten für mich sehr stark darauf das man vor H2/2015 wohl nichts ernst zu nehmendes in 20nm erwarten bracht.

AnarchX
2014-05-03, 12:47:40
ARM-Cores und dedizierte DP-Einheiten (GM200 mit 1:2?) könnten auch den Prozessvorteil etwas reduzieren aus Gamer-Sicht.

robbitop
2014-05-03, 13:07:05
Oder man hebt sich genug Potenzial des 20 nm Prozess für spätere Salamitaktik auf. ;)

AffenJack
2014-05-03, 13:08:40
Es werden keine zwei High-End Maxwells in 20nm kommen. Danach ist 16FF dran. Man wird den Prozess ausnutzen soweit es geht. Hawai mit seinem hohen DP Verhältnis ist schon jetzt harte Konkurenz und 14nm Larrabee hat man auch noch als Gegner.

Timbaloo
2014-05-03, 13:24:02
Oder man hebt sich genug Potenzial des 20 nm Prozess für spätere Salamitaktik auf. ;)
Alles andere würde mich schwer wundern. GM204/6 in 28nm und dann später ein Refresh in 20nm.

Ailuros
2014-05-03, 17:37:34
Wäre es dann möglich, dass die Spanne zwischen GM200 (oder wie er auch heißt) und GM204 größer wird als zwischen GK110 und GK104? Eben weil GM200 ja wohl in 20nm gefertigt wird.

Mit 2 Monaten Unterschied zwischen den projezierten tape outs der beiden? :rolleyes:

boxleitnerb
2014-05-03, 17:43:17
Mit 2 Monaten Unterschied zwischen den projezierten tape outs der beiden? :rolleyes:

Ich meinte Performance,falls das nicht klar war.

Ailuros
2014-05-03, 17:51:37
Es werden keine zwei High-End Maxwells in 20nm kommen. Danach ist 16FF dran. Man wird den Prozess ausnutzen soweit es geht. Hawai mit seinem hohen DP Verhältnis ist schon jetzt harte Konkurenz und 14nm Larrabee hat man auch noch als Gegner.

Hat sich NV selbst off the record ueber den Prozess fuer Pascal geaeussert?

Tegra roadmap war vor einiger Zeit:

Tegra5/Logan/K1 28HPm
Tegra6/Parker 16FF (ja es stand 16FF auf der roadmap drauf fuer Parker unter Denver cores + Maxwell GPU)

Heute:

Tegra5/Logan/K1 28HPm
Tegra6/Erista ??nm
Tegra7/Parker ??nm

Aehnliches passierte bei high end desktop GPUs:

Vorher:

Maxwell 2014
Volta 2015/6 16FF

Heute:

Maxwell
Pascal ??nm
Volta ??nm

Ich muss es sowieso noch zumindest einmal bestaetigen aber zumindest einer versichterte mich dass Erista auf 20SoC hergestellt wird fuer H2 2015. Wieso hab ich den Eindruck dass sowohl Erista und auch Pascal einfach nur schnelle Zwischenschieber sind bis NV auf 16FF bei logischeren Kosten steigen kann?

Ich wunderte mich uebrigens vor einiger Zeit wohin NV engineering resources von Tegra und co. auf GPU Projekte kurzfristig verschickte. Jetzt zumindest mit Pacal hab ich eine halbwegs logische Erklaerung dafuer.

Ich meinte Performance,falls das nicht klar war.

Nicht wirklich IMHO. Ich schaetze den top dog nach wie vor auf ca. 11b transistors ein und nein es basiert nicht auf irgend etwas handfestem sondern ist eine pure Schaetzung zeitlich. Mit noch etwas mehr Bauchgefuehl sieht es irgendwo auf dem gleichen Nivaeu aus wie bisher. Koennte mich aber auch total irren.

AffenJack
2014-05-03, 18:16:16
Hat sich NV selbst off the record ueber den Prozess fuer Pascal geaeussert?

Nein, haben sie nicht, aber du schreibst auch vom Prozess für Volta. Zumindest offiziell gabs da nie Meldungen in was für einem Prozess der kommen soll. Deshalb war mein Eindruck immer etwas anders.


Tegra5/Logan/K1 28HPm
Tegra6/Parker 16FF (ja es stand 16FF auf der roadmap drauf fuer Parker unter Denver cores + Maxwell GPU)

Heute:

Tegra5/Logan/K1 28HPm
Tegra6/Erista ??nm
Tegra7/Parker ??nm

Hier würde 20nm für Erista Ende 2015 und 16FF für Parker Ende 2016 für mich auch am meisten Sinn machen. Hatten auch schon paar Leute wie Anand vermutete, aber ka obs Bestätigungen dafür gibt.

Aehnliches passierte bei high end desktop GPUs:

Vorher:

Maxwell 2014
Volta 2015/6 16FF

Heute:

Maxwell
Pascal ??nm
Volta ??nm


So hier ist meine Meinung
Vorher:
Maxwell 2014 20nm Node, damals vll sogar mit FF geplant.
Volta 2016 1 Fullnode weiter, reale 14nm (Heutzutage 10FF genannt)

16FF ist nicht wirklich 1 Node weiter, sondern nur nen kleiner Zwischensprung, das hat aber Nvs Pläne verändert. Die Roadmap basierte eher auf TSMC illusorischen Versprechungen.
Und nun :
Maxwell 20nm 2014/2015
Pascal 16FF 2016
Volta 10FF 2017/2018

Ist natürlich immer auf den größten Chip bezogen. Pascal wird eingeführt, da man sonst zu lange auf 10FF und Stacked Dram warten muss. Dementsprechend würde ich bei Pascal architekturell eher kleinere Änderungen erwarten, die mit der Speichertechnologie zutun haben.

Bei den kleineren Chips wirds für mich verworrener
Maxwell 28nm Ende 2014
Maxwell 20nm Ende 2015?
Pascal Ende 2016?
Keine Ahnung.

Ailuros
2014-05-03, 18:23:19
Hier würde 20nm für Erista Ende 2015 und 16FF für Parker Ende 2016 für mich auch am meisten Sinn machen. Hatten auch schon paar Leute wie Anand vermutete, aber ka obs Bestätigungen dafür gibt.

NV laesst bis jetzt keinen Pieps diesbezueglich raus ist aber auch verstaendlich.

So hier ist meine Meinung
Vorher:
Maxwell 2014 20nm Node, damals vll sogar mit FF geplant.
Volta 2016 1 Fullnode weiter, reale 14nm (Heutzutage 10FF genannt)

Maxwell war am Anfang fuer 22nm geplant.

16FF ist nicht wirklich 1 Node weiter, sondern nur nen kleiner Zwischensprung, das hat aber Nvs Pläne verändert. Die Roadmap basierte eher auf TSMC illusorischen Versprechungen.
Und nun :
Maxwell 20nm 2014/2015
Pascal 16FFnm 2016
Volta 10FFnm 2017/2018

Ist natürlich immer auf den größten Chip bezogen. Pascal wird eingeführt, da man sonst zu lange auf 10FF und Stacked Dram warten muss. Dementsprechend würde ich bei Pascal architekturell eher kleinere Änderungen erwarten, die mit der Speichertechnologie zutun haben.

Die ALUs bleiben auf jeden Fall im grossen Ganzen bei Pascal auf der gleichen Schiene wie Maxwell.

Fuer Volta kein Einwand aber ich hab so manche Zweifel fuer Pascal. Ist aber auch wirklich Bloedsinn schon jetzt darueber zu diskuttieren wenn nur ein Fetzen von Maxwell (GM107) bis jetzt veroeffentlicht wurde.

Thunder99
2014-05-04, 14:19:21
Ist nun eigentlich raus oder gibt es Indizien weshalb es GM2xx heißt? Wegen dem Feature Set was nun full hw-compatible zu DX12 ist?

AnarchX
2014-05-04, 14:28:08
Neben Compute Capability 5.0 (GM107/108) kannte die CUDA 6.0 Beta auch eine Version 5.2

Ailuros
2014-05-04, 17:54:59
Pfffff nichtmal 750Ti GPUs http://www.geeks3d.com/20140502/geforce-gtx-titan-vs-a-render-farm-with-six-gtx-750/

:D

Timbaloo
2014-05-04, 18:49:29
Wahrscheinlich bringen die 2GB RAM nicht viel beim Rendern, somit dürfte die 750 Preis/Leistungstechnisch deutlich attraktiver sein. Nettes Projekt auf jeden Fall :D

Dural
2014-05-05, 09:15:54
die Verpackungen dahinter sind aber Ti ;)

CD-LABS
2014-05-05, 09:55:42
die Verpackungen dahinter sind aber Ti ;)
Das ist sicher nur Dekoration... :biggrin:
Naja sagen wir mal 400-450 Euro. Leistungstechnisch gehe ich von 780 (non-Ti) +x% aus.
Moment mal: Zu dem Zeitpunkt, als du das geschrieben hast, gingst du doch noch von 20nm aus?! Für 20nm wäre das zu schwach gewesen! Für ein 28nm-Karte haben die Spekulationen aber durchaus Sinn...

Nehmen wir nurmal den etwas milchmädchenhaften, verdreifachten Aufbau der 750TI , aber an 256bit Interface.
Da stellt sich dann die große Frage: Bleibt es beim alten Layout von 8 ROPs pro 64 bit? Oder geht das hoch auf 12?
Ich tippe mal einfach auf letzteres, also 48 ROPs (genau wie bei einer Verdreifachung halt und genau wie bei 780) denn der letzte Sprung in dem Bereich ist schon ewig her.
Als Ausgleich für das Speicherinterface gibt es dann entweder >7000 MHZ-GDDR5 oder gleich GDDR6---was in dem Bereich des Grafikkartenspeichers passieren wird ist ja noch vollkommen ungewiss.

Unter 1000 Mhz wird der GM 204 nicht haben. Egal, wie er aufgebaut ist, es ergäbe einfach keinen Sinn mehr, denn eins hat uns 28nm bisher gezeigt: Alles bewegt sich um 1000 Mhz Base-GPU-Clock herum. Viel höher geht nicht, viel niedriger ist zu flächenineffizient!
Gehen wir mal von 1100mhz Realtakt aus. Der prügelt den Chip deutlich über die Rohleistung der 780, aber er bleibt trotzdem mehr als 20% unterhalb der Rohleistung der 780 TI. Und das ist wichtig bei der Preisgestaltung.

Die GTX 780 TI liegt momentan bei ca. 570€. Geben wir ihr noch bis zum Herbst, dann liegt sie bei 500€. Die 780 liegt jetzt bei 440, dann vielleicht 375€ oder so.
Ich würd sagen, dass der GM 204 genau an dem Punkt knapp über ihr landet, also 400€. Mit kleinerem Chip als die 780---aber im Vollausbau. Lohnt sich für Nvidia trotzdem enorm, da die 28nm-Fertigung mittlerweile so weit fortgeschritten ist, dass wir davon ausgehen können, dass fast nur noch Vollausbau auf dem Markt landet. Und irgendne Resteverwertungskarte wird Nvidia schon parat haben.

Hübie
2014-05-05, 11:11:16
Oder man hebt sich genug Potenzial des 20 nm Prozess für spätere Salamitaktik auf. ;)

THIS! :up:

Zum Projekt:
Wären das GTX 750 non-Ti könnte man schon locker 10 Stück für eine Titan einsetzen. Straßenpreis der non-Ti: 91 Euro (http://geizhals.de/palit-geforce-gtx-750-stormx-oc-ne5x750s1301f-a1072364.html?v=l) und acht mal 750 Ti (http://geizhals.de/palit-geforce-gtx-750-ti-stormx-oc-ne5x75ts1341f-a1072385.html?v=l) sind etwa der Preis einer Titan (http://geizhals.de/palit-geforce-gtx-titan-ne5xtit010jb-p2083f-a907910.html?v=l). Also echt interessanter Ansatz. :freak:

@CD-LABS: Dein zweiter und dritter Satz ergeben so keinen Sinn :freak:

CD-LABS
2014-05-05, 12:23:21
@CD-LABS: Dein zweiter und dritter Satz ergeben so keinen Sinn :freak:
Äheem, jaah?
Da sieht man halt mal, das mein Postingansatz "denk dir was, produziere die passenden Versatzstücke und füg sie hinterher sinnvoll zusammen" manchmal in die Hose geht :biggrin:

robbitop
2014-05-05, 12:36:01
Rechenleistung ist bei Computing leider nicht alles. Man braucht in vielen Anwendungsfällen auch viel lokalen Speicher. Gerne auch mal deutlich mehr als in heutigen Profikarten kaufbar ist. Da sind die 2 GiB der 750 einfach für vieles zu wenig.

Skysnake
2014-05-05, 13:50:03
Es gibt aber auch genug Anwendungen, bei denen man praktisch nur am RAM-Interface liegt, und die Gesamtspeicherbandbreite von 9(8) 750(Ti) wird wohl deutlich höher sein ;)

fondness
2014-05-05, 15:49:17
Angeblich GM204-A1 28nm, GM204-B1 20nm:
http://videocardz.com/50448/nvidia-geforce-gtx-880-feature-8gb-gddr5-memory

AnarchX
2014-05-05, 16:01:35
Interessanter ist wohl eher die Aussage des Chinesen: GM204-A2 ~1,1x GTX 780 Ti @ 499-549 USD. Wenn es noch A2 benötigt, ist wohl eher Winter das Launch-Fenster.

HOT
2014-05-05, 16:02:00
Angeblich GM204-A1 28nm, GM204-B1 20nm:
http://videocardz.com/50448/nvidia-geforce-gtx-880-feature-8gb-gddr5-memory

Das gabs ja schon mal bei NV: 65nm -> 55nm mit neuer Rev.

AnarchX
2014-05-05, 16:13:20
Das gabs ja schon mal bei NV: 65nm -> 55nm mit neuer Rev.
Nur war 55nm ein Half-Node zu 65nm. Der Aufwand war da wohl deutlich geringer.

Godmode
2014-05-05, 20:34:37
Kommt dann noch irgendwas vor GM104, weil das letzte war ja nur die verrückte TI Black und noch verrücktere Titan Z? Das wäre für das Mainstreamsegment eine recht lange Zeit mit GK104, wenn man bedenkt, dass die 680 doch schon im H1/2012 vorgestellt wurde.

MD_Enigma
2014-05-05, 21:40:56
Da sind die 2 GiB der 750 einfach für vieles zu wenig.
Das ist dann halt was für die Optimierung. Lieber 10% Leistung opfern, dafür aber mit 1 GB RAM auskommen. Was ich nicht abschätzen kann, wäre wie viel eine Unified Memory Architektur bringen würde und wie diese mit so vielen GPUs skaliert.

Ailuros
2014-05-05, 22:37:24
20nm shrinks für Maxwell kann man schwer ausschließen, aber wenn gerade Anfang April GM204 seinen tape out hatte kommt nicht einen Monat später ein 20nm shrink zum tape out, es reicht nicht mal für einen spin.

Hugo
2014-05-06, 07:38:51
benötigt NV denn einen spin?

Dawn on Titan
2014-05-06, 08:08:47
Tendenz - eher nein.

Loeschzwerg
2014-05-06, 08:58:37
Interessanter ist wohl eher die Aussage des Chinesen: GM204-A2 ~1,1x GTX 780 Ti @ 499-549 USD. Wenn es noch A2 benötigt, ist wohl eher Winter das Launch-Fenster.

Jag das mal durch den Google Übersetzer, ich lese da nix davon dass A2 nötig ist.

Vielleicht fallen auch nur nicht genügend voll funktionstüchtige GM204 A1 ab und fährt deshalb noch A2 nach. Deswegen könnte man aber immer noch recht früh eine GTX 880 (um ein Cluster beschnitten) raushauen und später eine Ti nachschieben.

Vielleicht gab es A1 auch nie :freak:

Witzig finde ich zumindest wie wenig bei VC selber das Hirn eingeschaltet wird, es steht doch eindeutig "TEST PCA BOARD" dabei, aber die 8GB sind gleich in Stein gemeißelt :D

AnarchX
2014-05-06, 09:04:07
Laut Zauba sind 43 A1-Chips von Taiwan versendet wurden. Übrigens mit einem deklarierten Wert von ca. 80 USD pro Chip. ;)
Aber die A2-Aussage des Chinesen kann natürlich auch nur auf der Annahme basieren, dass es häufig noch einen A2-Spin benötigte.

Loeschzwerg
2014-05-06, 09:08:16
Laut Zauba sind 43 A1-Chips von Taiwan versendet wurden. Übrigens mit einem deklarierten Wert von ca. 80 USD pro Chip. ;)Aber die A2-Aussage des Chinesen kann natürlich auch nur auf der Annahme basieren, dass es häufig noch einen A2-Spin benötigte.

I know, sollte auch nur eine kleine Stichelei hinsichtlich der A2 Speku sein :D

robbitop
2014-05-06, 09:31:46
Es gibt aber auch genug Anwendungen, bei denen man praktisch nur am RAM-Interface liegt, und die Gesamtspeicherbandbreite von 9(8) 750(Ti) wird wohl deutlich höher sein ;)
Ich kann nur über unsere Störmungssimulation sprechen. Da hätten wir am liebsten 64 GiB lokal auf der Karte.

Das ist dann halt was für die Optimierung. Lieber 10% Leistung opfern, dafür aber mit 1 GB RAM auskommen. Was ich nicht abschätzen kann, wäre wie viel eine Unified Memory Architektur bringen würde und wie diese mit so vielen GPUs skaliert.
Das ist nicht immer ein Punkt der Optimierung. Wenn du einfach viel Daten für eine komplexe Simulation brauchst und erzeugst, damit das ganze aussagekräftig/nutzbar ist, dann lässt sich daran nichts optimieren.

Timbaloo
2014-05-06, 09:58:51
Witzig finde ich zumindest wie wenig bei VC selber das Hirn eingeschaltet wird, es steht doch eindeutig "TEST PCA BOARD" dabei, aber die 8GB sind gleich in Stein gemeißelt :D
8GB sind doch Käse. 4GB als Standard wären o.k. und würden zur 750ti passen. 2GB-Varianten verkneift sich NV hoffentlich ;D

Loeschzwerg
2014-05-06, 10:48:07
8GB für den Performance Chip sind auch Schmarrn, zumindest für die meisten Anwendungsfälle im Heimumfeld. Generell muss es halt getestet werden, da natürlich später auch Quadro/Tesla und Enthusiasten Builds (SLI) gefüttert werden müssen.

@AnarchX: Also wenn NV beim A1 nicht total Mist gebaut hat, dann sehe ich in einer A2 Revision keinen Sinn, zumindest wenn wirklich ein B1 @ 20nm in 2015 ansteht.

Ailuros
2014-05-06, 11:32:27
@AnarchX: Also wenn NV beim A1 nicht total Mist gebaut hat, dann sehe ich in einer A2 Revision keinen Sinn, zumindest wenn wirklich ein B1 @ 20nm in 2015 ansteht.

Ein spin macht sehr wohl Sinn fuer 28nm GM204 wenn sie es fuer Q4 14' oder Q1 15' veroeffentlichen wollen. Es muss erstmal der chip produktionsreif sein damit es erstmal zu einem shrink kommt und der shrink war auch wohl NIE fuer einen so fruehen release gedacht sondern eher H2 15'.

Gibt es Probleme mit A1 silicon@28nm dann sieht man erst zu dass alles beseitigt wird bevor man nochmal 6 Monate verplempert um auf die 20SoC libraries zu steigen fuer den shrink. Best case scenario= sie gehen Anfang Oktober 2014 in die Produktion, vor Mai 2015 sehe ich keinen Einstieg in die 20SoC Massenproduktion fuer einen hypothetischen 20nm/GM204.

Loeschzwerg
2014-05-06, 11:53:35
Ein spin macht sehr wohl Sinn fuer 28nm GM204 wenn sie es fuer Q4 14' oder Q1 15' veroeffentlichen wollen. Es muss erstmal der chip produktionsreif sein damit es erstmal zu einem shrink kommt und der shrink war auch wohl NIE fuer einen so fruehen release gedacht sondern eher H2 15'.

Gibt es Probleme mit A1 silicon@28nm dann sieht man erst zu dass alles beseitigt wird bevor man nochmal 6 Monate verplempert um auf die 20SoC libraries zu steigen fuer den shrink. Best case scenario= sie gehen Anfang Oktober 2014 in die Produktion, vor Mai 2015 sehe ich keinen Einstieg in die 20SoC Massenproduktion fuer einen hypothetischen 20nm/GM204.

So hab ich es auch gemeint :) Wenn A1 sauber ist, dann braucht es kein A2.

Hoffe ich zumindest, denn bis Q4 14' / Q1 15' wäre schon eine lange Durststrecke.

Mandalore
2014-05-06, 13:55:54
Verdammt, wie konnte das passieren?:eek::eek:

Fast jeder war sich sicher, dass wir GM200 Ende des Jahres sehen werden.:mad:


H2/2015 ist vieeeeel zu spät, da bringen dann auch +100% gegenüber der Titan Black nichts. Nvidia hat seit Kepler eine wirklich hässliche Politik entwickelt. Hoffentlich kann ATi da was machen mit GCN2:redface:

Timbaloo
2014-05-06, 14:04:32
Du hast eine seltsame Definition von "fast jeder" und "sicher" ;D

Godmode
2014-05-06, 14:11:58
Verdammt, wie konnte das passieren?:eek::eek:

Fast jeder war sich sicher, dass wir GM200 Ende des Jahres sehen werden.:mad:


H2/2015 ist vieeeeel zu spät, da bringen dann auch +100% gegenüber der Titan Black nichts. Nvidia hat seit Kepler eine wirklich hässliche Politik entwickelt. Hoffentlich kann ATi da was machen mit GCN2:redface:

Du warst doch hier im Thread dabei. Die Schätzungen für das Erscheinungsdatum für GM200 lagen immer im Jahr 2015. Einzig die Profi Variante (Tesla) könnte schon Ende 2014 aufschlagen, aber momentan sieht es ja nicht so aus, da es noch nichtmal ein Tapeout gibt.

Siehe: (Juni 2013)
Mit GM100 oder GM110 rechne 2015. 2014 gibts erstmal wieder das Mainstream-Ding um 500 Euro (GM204) und etwas schneller als Titan. 2015 gibts dann den GK110 Nachfolger.

Nightspider
2014-05-06, 14:18:54
Imo spricht ein Shrink von GM204 auch dafür das GM200 sehr spät im Consumer-Markt erscheint und uns die ganze 800/900er-Maxwell-Serie lange Zeit erhalten bleiben wird. Gut möglich das GM200 dann 9-15 Monate später auch einen Shrink zu "16nm" bekommt.

Nehmen wir mal an GM204 wird 400-450mm² groß, dann dürfte der Chip @20nm nur 200-240mm² groß werden und Nvidia könnte den Gewinn maximal maximieren. Natürlich wird die GM204(b) Karten dann Ende 2015 für immer noch teure 300 Euro verkauft werden. :D

Nachdem von AMD auch schon erste 8GB Karten in den Markt sickern, wenn auch nur in homöopathischen Dosen, bin ich mir sogar ganz sicher das 8GB GM204 Karten auf den Markt kommen werden. Die Frage ist nur ob zum Release oder als Special-Edition wie die Titan damals.

Genug Kunden zum Abzocken hat NV ja. :D

8GB sind doch Käse. 4GB als Standard wären o.k. und würden zur 750ti passen. 2GB-Varianten verkneift sich NV hoffentlich ;D

8GB sind für die GTX 880 Titan ;)

Verdammt, wie konnte das passieren?:eek::eek:

Fast jeder war sich sicher, dass wir GM200 Ende des Jahres sehen werden.:mad:


H2/2015 ist vieeeeel zu spät, da bringen dann auch +100% gegenüber der Titan Black nichts. Nvidia hat seit Kepler eine wirklich hässliche Politik entwickelt. Hoffentlich kann ATi da was machen mit GCN2:redface:

Wenn Maxwell schon in 28nm viel bringt und der GM200 wieder sehr groß wird trotz 20nm sind da auch + 125-150% drin imo.
Im Endeffekt weiß ja keiner ob 2H15 für Consumer oder Server steht und Big Maxwell könnte somit 1,5 Jahre nach GM204 @28nm kommen.

Dawn on Titan
2014-05-06, 14:45:25
Was sagt ein theoretischer GM204 Shrink über GM200 - ich denke nix.

GM200 hat am Anfang sicher einen stattlichen Preis und wird in andere Märkte gehen als GM204, ergo dürfte er auf 20nm SOC eher finanziell profitabel sein als GM204.

Für mich ist folgende Reihenfolge logisch GM204 28nm - GM200 20nm - GM204B 20nm

Sollte es einen B Version Shrink geben dient der meist nicht der Erzielung von mehr Performance sondern einzig der Reduktion der Kosten, bis 20nm billiger als 28nm HPM ist, wird man tief in 2015 sein. Bei der Zeitschiene würde mich ein reiner Shrink allerdings wundern und ich würde eher einen GM214 erwarten, der einige Verbesserungen mit bringt ohne nun in der Leistung massiv besser zu sein. (dafür spürbar besser in Perf / W)

Mandalore
2014-05-06, 14:50:21
Du hast eine seltsame Definition von "fast jeder" und "sicher" ;D


Unglücklich formuliert:redface::biggrin:

Es sollte ja Ende 2014 oder Anfang 2015 sein. Aber auch Anfang 2015 ist viel früher als H2/2015. Verdammt, das hätte echt interessant werden können und upgraden wollte ich auch:frown:


@Nightspider: Meiner Meinung nach muss Nvidia BigMaxwell auch für Consumer noch 2015 bringen, weil falls sie sich an ihren Plan halten kommt ja kurze Zeit später Pascal, der dank 3D-Memory +Architekturverbesserungen nochmals Maxwell (massiv) verdrängen sollte.

Ailuros
2014-05-06, 15:19:37
Verdammt, wie konnte das passieren?:eek::eek:

Fast jeder war sich sicher, dass wir GM200 Ende des Jahres sehen werden.:mad:

Ich und viele andere hier auch, wohl nicht.

H2/2015 ist vieeeeel zu spät, da bringen dann auch +100% gegenüber der Titan Black nichts. Nvidia hat seit Kepler eine wirklich hässliche Politik entwickelt. Hoffentlich kann ATi da was machen mit GCN2:redface:

Hoffentlich verfolgst Du den richtigen thread, denn ich hab ehrlich gesagt nicht den blassesten Schimmer auf was Du Dich mit H2/15' beziehst.

Nightspider
2014-05-06, 15:21:22
Was sagt ein theoretischer GM204 Shrink über GM200 - ich denke nix.

GM200 hat am Anfang sicher einen stattlichen Preis und wird in andere Märkte gehen als GM204, ergo dürfte er auf 20nm SOC eher finanziell profitabel sein als GM204.

Für mich ist folgende Reihenfolge logisch GM204 28nm - GM200 20nm - GM204B 20nm

Sollte es einen B Version Shrink geben dient der meist nicht der Erzielung von mehr Performance sondern einzig der Reduktion der Kosten, bis 20nm billiger als 28nm HPM ist, wird man tief in 2015 sein. Bei der Zeitschiene würde mich ein reiner Shrink allerdings wundern und ich würde eher einen GM214 erwarten, der einige Verbesserungen mit bringt ohne nun in der Leistung massiv besser zu sein. (dafür spürbar besser in Perf / W)

Naja GM204b würde sich sicherlich 20-30% höher Takten lassen. Ich kann mich nicht daran erinnern das es schon einmal ein Fullnode-Shrink eines Chips gab.
Und wenn der GM204 @20nm so winzig wird, wie ich spekuliere, wird der wahrscheinlich mit 550mm² mächtige, GM200 extrem schnell werden.
Demzufolge bräuchte Nvidia eine Karte, welche keine zu große Lücke zur GTX 970 lässt. (970 wird sicherlich einen teildeaktivierten GM200 besitzen)

Deswegen spekuliere ich:

Karte | Chip | Chipgröße | Leistung | Release
GTX 880 | GM204 28nm| 380-450mm² | 100% | Aug-Dez/14
GTX 960 | GM204 20nm | 200-240mm² | 130% | Dez/15-Feb/16
GTX 970 | GM200 (teildeaktiviert) | 520-560mm² | 170% | Nov/15-Feb/16
GTX 980 | GM200 | 520-560mm² | 200% | Okt/15-Jan/16

Falls Nvidia jeweils noch eine GTX 880 Titan und GTX 980 Titan herausbringt könnten diese jeweils auch schon 1-2 Monate eher mit 8GB - 12GB VRAM auf den Markt kommen und die normalen 880 / 980 sich jeweils vielleicht noch 1-3 Monate nach hinten schieben.

GM204A ~1 Ghz
GM204B ~1,3 Ghz

GM200 könnte vielleicht schon ab April-Juni 2015 in den erstern Servern landen.

Edit:

Tabelle nochmal mit vermuteter Chipgröße ergänzt.

Ailuros
2014-05-06, 15:23:04
Unglücklich formuliert:redface::biggrin:

Es sollte ja Ende 2014 oder Anfang 2015 sein. Aber auch Anfang 2015 ist viel früher als H2/2015. Verdammt, das hätte echt interessant werden können und upgraden wollte ich auch:frown:

Wenn's nur das einzige "unglueckliche" waere. Es hat uebrigens NIE jemand behauptet dass wenn GM200 zu N Zeitpunkt kommen wird dieses auch automatisch von Anfang an fuer desktop sein wird. Haengt von den Herstellungskosten zum spezifischen Zeitpunkt ab.

Thunder99
2014-05-06, 15:50:07
das die GK104/110 Taktik so gut funktioniert hat wieso sollte da nvidia es nicht nochmal machen? Erwarte daher auch die 800er Serie mit GM20x in 28nm und dann irgendwann 2016 die 20nm GM200 20nm bzw GM2xx 20nm als 900er Serie.

Wenn GM200 so teuer in 20nm wird wie vermutet wird es nur im Profi Bereich am Anfang verkauft werden

Mandalore
2014-05-06, 17:06:22
Wenn's nur das einzige "unglueckliche" waere. Es hat uebrigens NIE jemand behauptet dass wenn GM200 zu N Zeitpunkt kommen wird dieses auch automatisch von Anfang an fuer desktop sein wird. Haengt von den Herstellungskosten zum spezifischen Zeitpunkt ab.


Ja schon klar. Aber Nvidia weiß halt nicht wie es diesmal mit der Konkurrenz ausschauen wird. Damals wars ja ein Glücksfall TahitiXTX vs. GK104. Könnte diesmal komplett anders ausschauen. Natürlich muss man auch die technische Machbarkeit beachten wie ihr schon sagt, denn dann kanns von Anfang an nicht klappen.

AnarchX
2014-05-06, 17:26:33
Einen ~350mm² 28nm GM204 könnte man wohl auch für $299 und weniger verkaufen, falls der Konkurrenzdruck zu hoch wäre. Aber dazu muss AMD erstmal einen ähnlichen Schritt wie Maxwell machen.

Timbaloo
2014-05-06, 17:59:50
Ja schon klar. Aber Nvidia weiß halt nicht wie es diesmal mit der Konkurrenz ausschauen wird. Damals wars ja ein Glücksfall TahitiXTX vs. GK104.
GK104 kam fast ein halbes Jahr nach Tahiti, auch wenn das heute nicht mehr so präsent ist.

Ailuros
2014-05-06, 18:01:06
Ja schon klar. Aber Nvidia weiß halt nicht wie es diesmal mit der Konkurrenz ausschauen wird.

Seit wann weiss jede Seite NICHT was die andere kocht? :confused:

Damals wars ja ein Glücksfall TahitiXTX vs. GK104. Könnte diesmal komplett anders ausschauen. Natürlich muss man auch die technische Machbarkeit beachten wie ihr schon sagt, denn dann kanns von Anfang an nicht klappen.

...und all das schoene hat jetzt genau was mit 20SoC, GM200 oder sonst etwas zu tun?

Die eigentliche Wahrheit ist dass wenn AMD kein image Problem haben wuerde, dass jegliche GTX670/680 kein Land gesehen haette gegen jegliche 7900 SKU eben weil die letzteren fuer eine sehr lange Zeit um ca. 100 Euro teurer waren fuer einen nicht bemerkbaren Leistungs-Unterschied zwischen konkurrierenden SKUs.

Das tolle ist dass ich schon zum zweiten Mal hier im forum lese dass 20SoC fuer H2 15' "bestaetigt" wurden. Es ist ja schoen und gut mit den Maerchen aber man muss sie auch halbwegs belegen koennen sonst gibt es keinen "told you so" virtuellen Keks ;)

boxleitnerb
2014-05-06, 18:07:53
GK104 kam fast ein halbes Jahr nach Tahiti, auch wenn das heute nicht mehr so präsent ist.

2,5 Monate ;)

Mr.Ice
2014-05-06, 18:13:27
EDIT mal wieder zuspät

Timbaloo
2014-05-06, 18:14:30
2,5 Monate ;)
Self-owned :P

Kam mir tatsächlich deutlich länger vor :redface:

N0Thing
2014-05-06, 18:16:02
Nvidia Geforce GTX 880 - Angeblich mit 8 GByte GDDR5, kein Leistungssprung

http://www.gamestar.de/hardware/graf...3,3055473.html

10% das ist ein witz-.-

Reine Spekulationen von Gamestar, über die Quelle wurde hier im Thread ja schon diskutiert. 8GB waren auf den Testplatinen, für Endekunden erscheinen 4GB als deutlich wahrscheinlicher im Hinblick auf die 3GB bei der GTX 780 und den 4GB bei der Radeon R290.

Mr.Ice
2014-05-06, 18:25:53
Reine Spekulationen von Gamestar, über die Quelle wurde hier im Thread ja schon diskutiert. 8GB waren auf den Testplatinen, für Endekunden erscheinen 4GB als deutlich wahrscheinlicher im Hinblick auf die 3GB bei der GTX 780 und den 4GB bei der Radeon R290.

Ja ich habs gemerkt das ich es verpennt hab :D

aber wenn da wirklich nur 10% rauspringt gegenüber einer 780ti ist das einfach dreiste Abzocke von NV.

Ailuros
2014-05-06, 18:30:47
aber wenn da wirklich nur 10% rauspringt gegenüber einer 780ti ist das einfach dreiste Abzocke von NV.

GPUs sind seit dem Advent von 28nm wieder ueberteuert. Sonst klingen manchen hier schon als ob GM204 gerade um die Ecke kommt. Wir haben einen sehr schoenen Sommer vor und einen noch schoeneren Herbst bis dann.

Nightspider
2014-05-06, 21:04:03
Ja ich habs gemerkt das ich es verpennt hab :D

aber wenn da wirklich nur 10% rauspringt gegenüber einer 780ti ist das einfach dreiste Abzocke von NV.

Wieso? Mehr Leistung zu einem geringeren Preis und 33% mehr VRAM. Dazu vielleicht DX12 Support, schnellere Videoencoder und vielleicht stromsparender.

Wenn etwas Abzocke ist dann die Kartenpreise der letzten 2 Jahre bei Nvidia.

aufkrawall
2014-05-06, 21:20:46
Wenn etwas Abzocke ist dann die Kartenpreise der letzten 2 Jahre bei Nvidia.
Du kaufst halt immer auch mit Software. Ob du die unbedingt brauchst, sei dahin gestellt. Anders könnte NV sich diese Preise im Desktop-Segment nie erlauben.

occ-kh@Mirko
2014-05-06, 21:44:00
Was meinste damit? Registrierpflichtige OEM Software oder die Treiber CD. Bei manchen Angeboten ist nicht mehr dabei! Die kosten auch nicht viel weniger.

Mr.Ice
2014-05-06, 21:54:07
Wieso? Mehr Leistung zu einem geringeren Preis und 33% mehr VRAM. Dazu vielleicht DX12 Support, schnellere Videoencoder und vielleicht stromsparender.

Wenn etwas Abzocke ist dann die Kartenpreise der letzten 2 Jahre bei Nvidia.

Also ob NV die Karte mit 8GB V-Ram bringt da werden 4GB draus. Die Sollen da erstmal eine gescheite speicherabdindung machen und nicht was von 256bit faseln...

Jede Karte is doch im moment scheisse von NV. Entweder hast nur 3GB Ram oder die Karte kostet 950€ total überteuert+scheiss kühlsystem.

wieso das Abzocke ist ganz einfach erst 28NM rausbringen 6 Monate später dann 20NM

occ-kh@Mirko
2014-05-06, 21:58:45
erst 28NM rausbringen 6 Monate später dann 20NM
Das liegt ja nicht an Nvidia. Sollen die den GK110 weiter ausschlachten? Das bringt garnix, wenn der GM204 schneller bei weniger TDP (vllt. 20% bei 10% mehr Zuwachs) wird ist das schon Fortschritt. Da läge man dann 50W unter ti Niveau.

aufkrawall
2014-05-06, 22:15:38
Was meinste damit? Registrierpflichtige OEM Software oder die Treiber CD. Bei manchen Angeboten ist nicht mehr dabei! Die kosten auch nicht viel weniger.
Treiber, Cuda, PhysX, nvapi, TXAA.
Scheint wesentlich durchschlagender zu sein als D3D11.2, Mantle oder TrueAudio.