PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33

Nightspider
2014-05-06, 22:34:51
Also ob NV die Karte mit 8GB V-Ram bringt da werden 4GB draus. Die Sollen da erstmal eine gescheite speicherabdindung machen und nicht was von 256bit faseln...

Jede Karte is doch im moment scheisse von NV. Entweder hast nur 3GB Ram oder die Karte kostet 950€ total überteuert+scheiss kühlsystem.

wieso das Abzocke ist ganz einfach erst 28NM rausbringen 6 Monate später dann 20NM

Junge 20nm geht nicht eher! Sei froh das ein Zwischenschritt in Form der GTX880 kommen wird, welche die Preise drückt.

3GB VRAM reichen bei Nvidia derzeit sogar länger als 4GB bei AMD + Mantle, weil Mantle massig VRAM schluckt und Nvidia bisher NIE 3GB benötigt hat, in normalen Auflösungen.

Abgesehen davon glaubst du nicht ernsthaft das der Shrink schon 6 Monate später kommt oder? 1 Jahr ist realistisch sonst könnte Nvidia sich die Arbeit auch ganz sparen einen extra 28nm Chip auf den Markt zu bringen.

Mr.Ice
2014-05-06, 22:53:17
Junge 20nm geht nicht eher! Sei froh das ein Zwischenschritt in Form der GTX880 kommen wird, welche die Preise drückt.

3GB VRAM reichen bei Nvidia derzeit sogar länger als 4GB bei AMD + Mantle, weil Mantle massig VRAM schluckt und Nvidia bisher NIE 3GB benötigt hat, in normalen Auflösungen.

Abgesehen davon glaubst du nicht ernsthaft das der Shrink schon 6 Monate später kommt oder? 1 Jahr ist realistisch sonst könnte Nvidia sich die Arbeit auch ganz sparen einen extra 28nm Chip auf den Markt zu bringen.

wieso schafft es Intel dann auf 22NM ? is das so ein großer unterschied ? CPU und GPU-CPU.

Fetza
2014-05-06, 22:56:53
Treiber, Cuda, PhysX, nvapi, TXAA.
Scheint wesentlich durchschlagender zu sein als D3D11.2, Mantle oder TrueAudio.

Meine letzten fünf Grafikkarten waren alle von NV, aber Mantle und TrueAudio halte ich für wesentlich interessanter, als die von dir genannten NV-Features. Hawai scheint sich ja auch wie geschnitten Brot zu verkaufen.

Timbaloo
2014-05-06, 23:02:43
wieso schafft es Intel dann auf 22NM ? is das so ein großer unterschied ? CPU und GPU-CPU.
Es ist wohl eher so ein großer Unterschied zwischen intel-R&D und TSMC/GloFo-R&D. Aber auch bei intel laufen neue Prozesse nicht mehr so geschmeidig an wie gewohnt. Und in Zukunft wird das auch nicht besser werden, eher sogar ziemlich sicher schlechter.

aufkrawall
2014-05-06, 23:03:48
Meine letzten fünf Grafikkarten waren alle von NV, aber Mantle und TrueAudio halte ich für wesentlich interessanter, als die von dir genannten NV-Features. Hawai scheint sich ja auch wie geschnitten Brot zu verkaufen.
Warum heben sie die Preise dann nicht an?

occ-kh@Mirko
2014-05-06, 23:07:35
Treiber, Cuda, PhysX, nvapi, TXAA.
Scheint wesentlich durchschlagender zu sein als D3D11.2, Mantle oder TrueAudio.
Wenn man von der breitflächigen Anwendung und Verbreitung ausgeht, ja. Wenn man an Neuerungen am/im Markt denkt, die auch mal etwas revolutionieren nein, da ist mir Nvidia zur Zeit etwas zu ruhig. Das mögliche bzw. gesteigerte Effiziensverhalten der eigenen Architektur interessiert mich aber stark.

Ich glaube trotzden beides (Nvidia vs. AMD) hat seine Daseinberechtigung. Mantle muss man vllt. etwas mehr Zeit geben, DICE hatte mehr Probs mit BF4, verbugtes Game, für mich immer noch Betastatus. Thief naja, war so schon kein Überflieger. Trueaudio, da sind andere mit ähnlichen Vorhaben bereits gescheitert (siehe EAX 5.0), wenn es nichts kostet, warum nicht. Ich brauch es ehrlich gesagt nicht, weil ich auf klassische Soundkarten setze (eben altmodisch), onbord Sound, nee pfui Spinne.

PhysX da kann man mit Tressfx 1.0 und 2.0 etwas gegenhalten, alles sinnvoll. Order Independent Transparency immer noch eine Schwäche bei Nvidia?

Mich interessiert jetzt sehr stark was Witcher 3 und PhysX-mäßig bietet.

TXAA auch Bildunschärfe? Da machen für mich SGSSAA und Downsampling mehr Sinn, aber Geschmacks- und Anspruchssache. Bei letzterem ist Nvidias Aufwand und Nutzen ausgezeichnet einfach.

DX FL 11.2, naja hätte erwartet das Nvidia den Support bereits implentiert. Schon allein wegen der Ultra-HD-Texturen Unterstützung (Tier_2).

Weiteres würde wohl den Threadrahmen sprengen, sind eh schon offtopic...:smile:.

Ailuros
2014-05-06, 23:11:34
Total unerwartet: zurück zum Thema!

Ailuros
2014-05-06, 23:23:14
Also ob NV die Karte mit 8GB V-Ram bringt da werden 4GB draus. Die Sollen da erstmal eine gescheite speicherabdindung machen und nicht was von 256bit faseln...

Eine jegliche Architektur sollte gerade genug Bandbreite haben für die meisten Falle. Wenn diese dann mit 256bit gedeckt werden kann dann gibt es daran nichts auszusetzen.

Jede Karte is doch im moment scheisse von NV. Entweder hast nur 3GB Ram oder die Karte kostet 950€ total überteuert+scheiss kühlsystem.


Dann Kauf Dir eine 290 wenn Du nicht schon eine hast. Die Auswahl ist ja da.

wieso das Abzocke ist ganz einfach erst 28NM rausbringen 6 Monate später dann 20NM

Wer sagt dass ein 204 schon nach 6 Monaten unter 20nm auftauchen wird? Es dreht sich einem so langsam der Kopf mit dem Unsinn der herumschwirt.

occ-kh@Mirko
2014-05-06, 23:24:42
Jupps, weiter!

http://www.pcgameshardware.de/screenshots/811x455/2014/05/13a-pcgh.jpg

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Lieferverzeichniss-einer-Geforce-GTX-880-Engineering-Sample-abgefangen-GM204-und-8-GB-Speicher-1119955/

Jede Karte is doch im moment scheisse von NV. Entweder hast nur 3GB Ram oder die Karte kostet 950€ total überteuert+scheiss kühlsystem.
Lustig schon mal was von der 780 6GB gehört?

Mich interssiert ja der 5. Eintrag vom 23.04.2014 auf der Liste. @Ailuros ist dazu was bekannt?

Ailuros
2014-05-06, 23:37:28
Wasserkühlung? Keine Ahnung mit was sie experimentieren.

Dawn on Titan
2014-05-07, 07:01:26
Dual GPU Lösung.

Loeschzwerg
2014-05-07, 07:34:04
Wasserkühlung? Keine Ahnung mit was sie eperimentieren.

Da würde ich mir nicht zu viele Gedanken drüber machen, es gab z.B. etliche G80 Engineering Karten mit Wasserkühlung :)

http://www.blogcdn.com/www.engadget.com/media/2006/10/nvidia-geforce-8800-hc.jpg

Skysnake
2014-05-07, 08:55:50
Ich kann nur über unsere Störmungssimulation sprechen. Da hätten wir am liebsten 64 GiB lokal auf der Karte.

hm...

Ist doch eine FiniteElemente Simulation. Da sollte es doch eigentlich scheis egal sein, wie der Speicher verteilt ist, so lange die Latenzen versteckt werden können, was im Allgemeinen ja ganz gut geht. Man muss halt genug Rechenaufwand haben, das ist klar, aber sollte eigentlich schon drin sein.

Mal RDMA angeschaut? Oder noch keine asynchrone Speichertransfers?

Gerade solche Probleme sollten ja eigentlich recht gut skalieren. Wenn nicht, wäre es ja der absolute Horror! Dann würde ja fast nichts auf großen Systemen skalieren :(


Das ist nicht immer ein Punkt der Optimierung. Wenn du einfach viel Daten für eine komplexe Simulation brauchst und erzeugst, damit das ganze aussagekräftig/nutzbar ist, dann lässt sich daran nichts optimieren.
Naja, dann muss man halt schauen, wie man das Problem segmentiert bekommt. Das ist halt die große Kunst zu sehen, wie man es richtig macht, und was man lieber bleiben lässt. Da kann man unglaublich schnell unglaublich viel Zeit verballern.


Verdammt, wie konnte das passieren?:eek::eek:

Fast jeder war sich sicher, dass wir GM200 Ende des Jahres sehen werden.:mad:


H2/2015 ist vieeeeel zu spät, da bringen dann auch +100% gegenüber der Titan Black nichts. Nvidia hat seit Kepler eine wirklich hässliche Politik entwickelt. Hoffentlich kann ATi da was machen mit GCN2:redface:
Bitte WAS?

Sorry, aber nur total verblendete sind bei GM200 von 2014 ausgegangen. Vor H2/15 muss man bei dem Ding wirklich überhaupt nichts in Betracht ziehen.

Ja ich habs gemerkt das ich es verpennt hab :D

aber wenn da wirklich nur 10% rauspringt gegenüber einer 780ti ist das einfach dreiste Abzocke von NV.
Warum?

Passt doch genau zu dem, was nVidia seit GK104 macht, und es hat doch klasse funktioniert. Es laufen doch genug Leute rum, die nVidia kaufen, wiel es halt ne nVidia ist, und nciht die Konkurrenz.

AnarchX
2014-05-07, 09:07:41
Da würde ich mir nicht zu viele Gedanken drüber machen, es gab z.B. etliche G80 Engineering Karten mit Wasserkühlung :)

http://www.blogcdn.com/www.engadget.com/media/2006/10/nvidia-geforce-8800-hc.jpg

Selbst für GM107 gab es wohl eine Wasserkühlung ("WATER COOLING LID,FCBGA29X29"). Wahrscheinlich kann man damit auch verschiedene Kühlsysteme simulieren und auch die Takt/Spannung-Skalierung der Chips besser austesten.

ndrs
2014-05-07, 09:57:06
Sorry, aber nur total verblendete sind bei GM200 von 2014 ausgegangen. Vor H2/15 muss man bei dem Ding wirklich überhaupt nichts in Betracht ziehen.
Man erinnere sich nur mal, dass für Hawaii schon 20nm spekuliert wurde. Jetzt sind wir tief in 2015. Da sieht man mal, wie weit man damals daneben lag.

Botcruscher
2014-05-07, 10:05:52
Hawaii in 20nm war schon immer lächerlich. 28nm HPM stand mal auch für die 750 zur Debatte.

Ailuros
2014-05-07, 10:47:50
Ich weiss jetzt nicht was der angebliche "leaker" bei chiphell genau behauptet hat, aber da sich einiger Unsinn wie ein Lagerfeuer verbreitet hat:

http://videocardz.com/50448/nvidia-geforce-gtx-880-feature-8gb-gddr5-memory

Someome at Chiphell wrote a very brief post about the upcoming Maxwell GM204 GPU. It’s the same GPU that is believed to power soon-to-be-released GeForce GTX 880.

Man muss sich verdammt selbstsicher sein wenn man glaubt dass SKU Namen schon festliegen. Ist aber eine daemliche Angewohnheit von videocardz generell anscheinend.

What really caught my attention was the part where he mentioned GM204-B1 stepping. According to his sources, the B1 stepping would power future GeForce 900 series, and it’s based on 20nm process, while the A1 and A2 steppings are reserved for GTX 800 series. I found this very interesting and it actually makes sense. The only part that still bothers me is where NVIDIA uses both GM1xx and GM2xx parts on the same node, instead of splitting the them to 28 and 20nm process respectively.

Hier hat weder der Leaker noch WhyCry die blasseste Ahnung ueber chip-Herstellung. Wenn es wirklich einen metal spin fuer A1 silicon geben wird (mit A1 silicon back Anfang April) dann ist dieser noch nicht zurueck vom fab und ohne dass dieser produktionsreif ist kann man gar NICHTS auf 20SoC schrumpfen. Und nein NV hat wohl nicht zweischienig fuer beide Prozesse entwickelt, so idiotisch entwickelt keiner.

The ‘leaker’ also mentioned that GTX 970 is currently planned for the second half of 2015, which is pretty obvious. He also reported that GM204 (aka GTX 880) would be 10% faster than GTX 780 Ti and it would have more than twice of the 780 Ti’s frame buffer — 8GB. This would also mean it has 256b or 512b interface. Of course you all know that DX12 will be fully supported by this new card.

Ein GM204 je nach Produkt-Platzierung kann bis zu 780Ti +20% erreichen. 8GB my ass (fuer NV's offizielle SKU) und 204 hat wohl "offensichtlich" einen 256 und keinen 512bit bus. Woher wir jetzt "wissen" dass GM204 wirklich DX12 kompliant ist weiss der Author nur selber. Er ist sich sogar sicher dass er sich immer noch wundert wieso es GM1xx und GM2xx gibt.

:rolleyes:

deekey777
2014-05-07, 11:02:32
GTX 880 klingt ja fast nach 8800 GTX, und diesem Namen muss die kommende Generation gerecht werden.

Ailuros
2014-05-07, 11:06:48
GTX 880 klingt ja fast nach 8800 GTX, und diesem Namen muss die kommende Generation gerecht werden.

Unter der Logik haette es NIE eine GTX580 geben sollen nach dem leafblower FLOP der 5800 :freak:

Duplex
2014-05-07, 11:16:45
Unter der Logik haette es NIE eine GTX580 geben sollen nach dem leafblower FLOP der 5800 :freak:
Der war gut :smile:

Godmode
2014-05-07, 11:43:38
Ich weiss jetzt nicht was der angebliche "leaker" bei chiphell genau behauptet hat, aber da sich einiger Unsinn wie ein Lagerfeuer verbreitet hat:

http://videocardz.com/50448/nvidia-geforce-gtx-880-feature-8gb-gddr5-memory



Man muss sich verdammt selbstsicher sein wenn man glaubt dass SKU Namen schon festliegen. Ist aber eine daemlich Angewohnheit von videocardz generell anscheinend.



Hier hat weder der Leaker noch WhyCry die blasseste Ahnung ueber chip-Herstellung. Wenn es wirklich einen metal spin fuer A1 silicon geben wird (mit A1 silicon back Anfang April) dann ist dieser noch nicht zurueck vom fab und ohne dass dieser produktionsreif ist kann man gar NICHTS auf 20SoC schrumpfen. Und nein NV hat wohl nicht zweischienig fuer beide Prozesse entwickelt, so idiotisch entwickelt keiner.



Ein GM204 je nach Produkt-Platzierung kann bis zu 780Ti +20% erreichen. 8GB my ass (fuer NV's offizielle SKU) und 204 hat wohl "offensichtlich" einen 256 und keinen 512bit bus. Woher wir jetzt "wissen" dass GM204 wirklich DX12 kompliant ist weiss der Author nur selber. Er ist sich sogar sicher dass er sich immer noch wundert wieso es GM1xx und GM2xx gibt.

:rolleyes:

Im Endeffekt kann man auf das Geschwätz dieser ganzen Möchtegern Seiten scheißen. Aus einem Minileak wird ein schöner Text gebastelt mit Leistungsangaben, Produktnamen, Erscheinungsdatum. Man freut sich halt irgendwie trotzdem, wenn man ein halbes Jahr vor einem Launch wieder ein paar Fetzen zu lesen bekommt.

Die wenigen die was wissen sagen wenig bis nichts und die anderen die eigentlich nichts wissen, haben ständig die Klappe offen.

Ailuros
2014-05-07, 11:51:49
....und die anderen die eigentlich nichts wissen, haben ständig die Klappe offen.

Waere doch eine Schande wenn die Unmenge an Insekten die herumfliegen nicht genutzt werden :weg:

occ-kh@Mirko
2014-05-07, 11:52:16
Ein GM204 je nach Produkt-Platzierung kann bis zu 780Ti +20% erreichen.
Kommt sicher drauf an was die Konkurrenz macht und wie weit man mit dem "Großen" gekommen ist. Man wird sicher nicht gleich aufs "Volle" gehen wenn man sparen kann. Ansonsten reichen ja +10% wenn man mit dem Preis 499-549 in den Markt geht, billiger wird es kaum mehr werden, 28nm bleiben teuer. Vllt. bleibt dann sogar was zum OC wenns effizient wird..

Ailuros
2014-05-07, 11:59:51
Kommt sicher drauf an was die Konkurrenz macht und wie weit man mit dem "Großen" gekommen ist.

AMD kocht auf der Ebene mit dem genau gleichen 28nm Abwaschwasser fuer kommende SKUs und GM200 hatte noch nicht seinen tape out. Bis fruehestens Juni wird niemand wissen koennen wie die binning yields aussehen und bis wo man wirklich schaetzungsweise takten koennte.

Man wird sicher nicht gleich aufs "Volle" gehen wenn man sparen kann. Ansonsten reichen ja +10% wenn man mit dem Preis 499-549 in den Markt geht, billiger wird es kaum mehr werden, 28nm bleiben teuer. Vllt. bleibt dann sogar was zum OC wenns effizient wird..

IMHO ist die Moeglichkeit von 7.0Gbps GDDR5 eher das Problem fuer den TDP als alles andere. Die 770 taktet nur minimal hoeher als die GTX680 hat aber statt 6 Gbps dann 7 Gbps Speicher; die 770 hat eine TDP von 230W und die 680 bei 195W obwohl beide in Echtzeit in der Mehrzahl der Faelle um die 160-170W zu verbrauchen scheinen.

28nm sind nicht teuer; Du hast wohl verpasst dass NV selber als Wert fuer den chip $80 angiebt :P Und bevor es jemand sagt NV ist aus eigener Erfahrung verdammt genau mit solchen Sachen wenn es zu auslaendischen Zoll-Behoerden kommt.

***edit: fuer's letzte kommt es dann in den Bereich wo mir wenige glauben wollen dass ein GK110 heute unter 28HP weniger als $120 kostet herzustellen. Herstellungspreise sind heute so niedrig wie zu 65/55nm Zeiten und haben mit dem Verkaufspreis gar nichts gemeinsam. Ein GK104 duerfte heute schaetzungsweise nicht mehr als =/>$60 kosten herzustellen und dabei ist es wurscht dass heute noch eine GTX770 fast 300 Euros kostet.

******edit Nr.2: wenn NV die erste GM204 SKU als GTX780 (vanilla) Ersatz plant, sollte diese IMHO nicht mehr als 450 Euro am Anfang kosten. =/>500 Euro MSRP waere schon wirklich zu weit gestreckt (und ja ich gehe von $ = € fuer Preise aus).

occ-kh@Mirko
2014-05-07, 12:36:04
LOL ...Wenn du sowas verbreitest, wunder dich nicht das dann "gejammert wird". Da kann Nvidia noch so ehrlich sein, an der Tanke siehts dann ja völlig anders aus! Da will man mehr fürs Benzin als es eigentlich wert ist.

Botcruscher
2014-05-07, 12:41:37
Das Tegra-Abenteuer will halt finanziert werden.

Hübie
2014-05-07, 12:46:25
Ja gut das kann man nun auch nicht komplett nVidia ankreiden. Der Chip macht ein Teil aus. Dann kommen Bauteile, PCB und natürlich Logistik dazu. Und bevor der Kunde eine Karte in den Pfoten hält hatten 5 weitere die Pfoten dran und an jeder klebt das Geld der Endkunden. Dazu noch Märchensteuer.
Klar sackt nVidia sich auch eine saftige Marge ein ;) Aber es sind eben mehr in der Kette die für unsere Endpreise "sorgen". :|

@botcrusher: X-D yeah..

Ailuros
2014-05-07, 12:50:38
Saftig sind Apple's i-gear Gewinn-Margen; im Vergleich zu diesen sind NV's desktop GPU Gewinn-Margen eher klein :biggrin:

Godmode
2014-05-07, 12:50:52
Ja gut das kann man nun auch nicht komplett nVidia ankreiden. Der Chip macht ein Teil aus. Dann kommen Bauteile, PCB und natürlich Logistik dazu. Und bevor der Kunde eine Karte in den Pfoten hält hatten 5 weitere die Pfoten dran und an jeder klebt das Geld der Endkunden. Dazu noch Märchensteuer.
Klar sackt nVidia sich auch eine saftige Marge ein ;) Aber es sind eben mehr in der Kette die für unsere Endpreise "sorgen". :|

@botcrusher: X-D yeah..

Die Kette ist heute nicht länger als früher. Auch die Boards sind jetzt nicht unbedingt soviel komplexer. Es liegt einzig und alleine an Nvidia, die damit den Umsatzrückgang in der PC-Sparte kompensieren und die Finanzierung für zukünftige Projekte sicher stellen.

Thunder99
2014-05-07, 12:53:22
sind die 80$ Produktionskosten oder Herstellungskosten inkl. R&D und Gedöns?

Ein Top-Modell wird immer bei nvidia am Anfang +500€/$ Kosten. Wie die Preise aber fallen können sieht man am GT200.

+10% wäre aber für ein TopDog von der Bezeichnung ein Witz. Stromverbrauch und DX12 hin oder her. Leute mit GK110 werden da immer auf den GM200 warten

dildo4u
2014-05-07, 12:56:16
Die Kette ist heute nicht länger als früher. Auch die Boards sind jetzt nicht unbedingt soviel komplexer. Es liegt einzig und alleine an Nvidia, die damit den Umsatzrückgang in der PC-Sparte kompensieren und die Finanzierung für zukünftige Projekte sicher stellen.
NV hat keine Rückgänge bei den externen GPU's.

The company reported that its GPU revenue totaled $947 million, up 14 percent from the year-earlier period. Graphics sales were particularly strong for desktop PCs, the company said, with its GeForce GTX GPU sales jumping nearly 50 percent.

http://www.cnet.com/news/pcs-sales-may-suck-but-people-still-are-buying-nvidia-gpus/

Hübie
2014-05-07, 12:56:50
R&D will ebenso finanziert werden. Wir können jetzt alles zerbröseön oder uns darauf einigen dass sich GK110 für nVidia sehr gelohnt hat. Oder weiter gespannt: Kepler ist die bisher erfolgreichste Serie bzgl. des Gewinns und ich glaube (ohne nachzusehen) sogar die langlebigste wenn GM104 tatsächlich erst so "spät" aufkreuzt.
@Ail: Ja gut dass ist BMW&Audi zusammen ;)

Godmode
2014-05-07, 13:00:17
NV hat keine Rückgänge bei den externen GPU's.



http://www.cnet.com/news/pcs-sales-may-suck-but-people-still-are-buying-nvidia-gpus/

Da gehts um Umsätze, nicht um Stückzahlen. Wenn ich um x% weniger Stücke verkaufe und diese aber um y% teurer verkaufe, mache ich mehr Umsatz.

sind die 80$ Produktionskosten oder Herstellungskosten inkl. R&D und Gedöns?

Ein Top-Modell wird immer bei nvidia am Anfang +500€/$ Kosten. Wie die Preise aber fallen können sieht man am GT200.

+10% wäre aber für ein TopDog von der Bezeichnung ein Witz. Stromverbrauch und DX12 hin oder her. Leute mit GK110 werden da immer auf den GM200 warten

GM204 ist auch eher für Leute mit nem GK104 interessant.

Hübie
2014-05-07, 13:06:04
Mich interessiert Maxwell irgendwie gar nicht mehr. Zwei GK104 mit 4 GB VRAM und wenig Zeit zum Zocken lassen mich dieses Mal entspannt an die Sache rangehen. GK110 hatte mich unglaublich durch den absurden Preis enttäuscht. Leider wusste ich vorm Erscheinen schon die Kosten und hatte die Hoffnung auf einen gerechten Preis. War seeehr naiv von mir. Nun geh ich da halt anders ran.

Hugo78
2014-05-07, 13:08:06
Ein GK104 duerfte heute schaetzungsweise nicht mehr als =/>$60 kosten herzustellen und dabei ist es wurscht dass heute noch eine GTX770 fast 300 Euros kostet.

Es sind 249€ und für eine "gute 70er" sind das völlig normale Preise.

Botcruscher
2014-05-07, 13:12:11
2GB Gurken gibt es ab dem Preis. PS: Und selbst dann müsste bei normalen Preisen an der Stelle die Abspeckversion von GK110 stehen. 780 ahoi.

Godmode
2014-05-07, 13:20:32
Mich interessiert Maxwell irgendwie gar nicht mehr. Zwei GK104 mit 4 GB VRAM und wenig Zeit zum Zocken lassen mich dieses Mal entspannt an die Sache rangehen. GK110 hatte mich unglaublich durch den absurden Preis enttäuscht. Leider wusste ich vorm Erscheinen schon die Kosten und hatte die Hoffnung auf einen gerechten Preis. War seeehr naiv von mir. Nun geh ich da halt anders ran.

OT:
Ich wollte keinen GK104 sondern GK110 und hab mir - um die lange Wartezeit zu versüßen - zwei GTX 690 gekauft. :freak:
Als GK110 endlich da war, wollte ich natürlich mehr Leistung als mit nur zwei GTX 690, also einfach mal 4 Titans geordert. :freak: Nach dem anfänglichem Enthusiasmus dann doch wieder zwei verkauft, da mGPU einfach immer noch nicht das Wahre ist. Vor ein paar Monaten dann noch die letzten zwei Titans verkauft und auf ne GTX 760 umgestiegen.

Für die Zukunft ist momentan nichts geplant. Da müsste schon ein neuer Grafikkracher (Crysis 4, ...) erscheinen, dann könnte es schon sein, dass ich wieder zuschlage.

Wenn man das alles noch einmal rückblickend betrachtet, hat man mit der Titan nicht viel falsch gemacht, bis auf den verrückten Preis. Titan hält bis GM200 und dann kann man ja wieder ordentlich Geld ausgeben.

occ-kh@Mirko
2014-05-07, 13:30:42
War ein Scherz! ;) Ist aber seit 28nm deutlich teurer geworden. Die Rangeleien um die Fertigungskapazitäten dürften weiterhin die Preise bestimmen.

@...4x Titan vs. 1 GTX760? Das würde meinen Tod bedeuten...:comfort:

Ailuros
2014-05-07, 13:49:50
Es sind 249€ und für eine "gute 70er" sind das völlig normale Preise.

Ab != gleich.

2GB Gurken gibt es ab dem Preis. PS: Und selbst dann müsste bei normalen Preisen an der Stelle die Abspeckversion von GK110 stehen. 780 ahoi.

Seit wann bringen 4GB framebuffer etwas sehenswertes auf einem GK104?

Dawn on Titan
2014-05-07, 13:56:42
Ist doch auch völlig egal, GM204 muss nur ein ausreichendes Upgrade für GK104 (und älter) Besitzer sein.

Und ich denke ~200W, ~780ti+X Leistung, 499$ würde funktionieren. Es muss kein Ersatz für GK110 sein und wird es auch nicht sein.

Timbaloo
2014-05-07, 14:17:51
~200W Spieleverbrauch? Das wäre bitter viel für einen GM204, das wären gerademal ~10% unter der 780ti (~225W). Das wäre maximal enttäuschend.

Nightspider
2014-05-07, 14:22:12
10% weniger Verbrauch bei 10-20% mehr Leistung ergeben eine ~23-30% bessere Effizienz im gleichen Fertigungsprozess für weniger Geld bei gleichzeitig besserem Featureset.

Maximal enttäuschend sind eher Beiträge wie deiner. :P

Botcruscher
2014-05-07, 14:22:40
Seit wann bringen 4GB framebuffer etwas sehenswertes auf einem GK104?

Wenn 2GB voll sind nutzt dir mehr Rohleistung auch nichts. Klassische Beispiel ist dann ruckeln bei Skyrim. Dafür sind nicht mal Mods notwendig. BF4 knallt dir auch alles voll. Gegenfrage: Welcher Next-Gen Port wird noch auf 2GB richtig laufen?
...für weniger Geld bei gleichzeitig besserem Featureset.
Dein Wort in NVs Ohr.

Dawn on Titan
2014-05-07, 14:22:44
10% weniger als GTX770 bei gut 70%+ Leistung.

Wenn 2GB voll sind nutzt dir mehr Rohleistung auch nichts. Klassische Beispiel ist dann ruckeln bei Skyrim. Dafür sind nicht mal Mods notwendig. BF4 knallt dir auch alles voll. Gegenfrage: Welcher Next-Gen Port wird noch auf 2GB richtig laufen?

Welcher wird mit 4GB nicht auskommen?

Nightspider
2014-05-07, 14:28:52
Stromverbräuche fast aller aktuellen Karten:

http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_ti_gk110_complete_review/index17.php

GTX 770 ~ 195W
GTX 780ti ~ 260W

GTX 880 mit 200W wäre EXTREM(!) sparsam und effizient für die hohe Leistung.


Dein Wort in NVs Ohr.

Bessere (H.265?) und schnellere (gesichert) Video-Encoder zählen bei mir schon als neues Featureset. :tongue:

Mandalore
2014-05-07, 14:37:23
10% weniger Verbrauch bei 10-20% mehr Leistung ergeben eine ~23-30% bessere Effizienz im gleichen Fertigungsprozess für weniger Geld bei gleichzeitig besserem Featureset.

Maximal enttäuschend sind eher Beiträge wie deiner. :P


Weniger Geld? Eher nicht, die wird mindestens 600€ kosten und somit auf (fast) gleichem Niveau wie GTX780(Ti). Und bitte, wer achtet bei einer High-End-Grafikkarte auf den Stromverbrauch? Die Mehrheit der Kundschaft sicherlich nicht, denn in dem Bereich ist Leistung alles was zählt siehe R9 295X2!!!

Und ja, 30% bessere Effizienz ist zwar sehr gut, entspricht aber nicht dem Maxwell, der von Nvidia angekündigt wurde bzw. was die GTX750 gezeigt hat....daher hat Timbaloo schon recht. Aber jedem seine Meinung...

Ailuros
2014-05-07, 14:42:31
Wenn 2GB voll sind nutzt dir mehr Rohleistung auch nichts. Klassische Beispiel ist dann ruckeln bei Skyrim. Dafür sind nicht mal Mods notwendig. BF4 knallt dir auch alles voll. Gegenfrage: Welcher Next-Gen Port wird noch auf 2GB richtig laufen?


Wieso hast Du den Eindruck dass einem GK104 zuerst der framebuffer limitiert als jegliche andere resources? Anders Du darfst mir gerne einen neuen thread aufmachen und mir reviews bzw. Messungen einer 2GB vs. einer 4GB 770 zeigen wo die letztere einen deutlichen Vorteil zeigt. Wenn man wirklich mehr bezahlen kann fuer eine 770 4GB ist es IMHO eine fragliche Investion gegen eine Vanillav R9 290 und ich denke nicht dass ich extra erlaeutern muss warum.

Weniger Geld? Eher nicht, die wird mindestens 600€ kosten und somit auf (fast) gleichem Niveau wie GTX780(Ti). Und bitte, wer achtet bei einer High-End-Grafikkarte auf den Stromverbrauch? Die Mehrheit der Kundschaft sicherlich nicht, denn in dem Bereich ist Leistung alles was zählt siehe R9 295X2!!!

Ich leih mir nur den Mist aus der Geruechtekueche aber 780Ti + 10% ist GTX680/770 + 60% zumindest. Unter 20nm sind es dann um die +90%.

Und ja, 30% bessere Effizienz ist zwar sehr gut, entspricht aber nicht dem Maxwell, der von Nvidia angekündigt wurde bzw. was die GTX750 gezeigt hat....daher hat Timbaloo schon recht. Aber jedem seine Meinung...

GTX750Ti vs. GTX650 ist bei bis zu +70%. Ich weiss wirklich nicht was Ihr wieder zusammenreimt. GM204 ist ein GK104 Nachfolger und lernt endlich Aepfel gegen Aepfel zu vergleichen; den Unsinn mit der GTX680 vs. GTX580 hatten wir schon seit einer Ewigkeit.

Godmode
2014-05-07, 14:50:53
Sind wohl die selben Leute, die behauptet haben, dass die GTX 680 Highend war, nur weil sie zu Ex-Highend Preisen und Highendnamen verkauft wurde.

Dawn on Titan
2014-05-07, 15:11:25
GTX680 war High-End aber kein High-End Chip... Ich bin von 460 auf 670 gegangen und war sehr zufrieden und werde wahrscheinlich auch zufrieden sein wenn ich auf 880 wechsele.

500 Euro für die Karte wird völlig ok sein (Featureset, TDP, Leistung) - GM200 wird deutlich darüber einsteigen und deutlich später kommen.

occ-kh@Mirko
2014-05-07, 15:24:07
Sind wohl die selben Leute, die behauptet haben, dass die GTX 680 Highend war, nur weil sie zu Ex-Highend Preisen und Highendnamen verkauft wurde.
Da muss ich aber Nvidia etwas in Schutz nehmen (obwohl naja...;)). Die haben ihre Preise "leistungsmäßig" an AMD angelehnt.... Das der GK104 als Highend geplant war oder ist, haben die nie behauptet. Kam denen aber gelegen, siehe GK110. Die hatten dann irgendwann die Nase über Tahiti gerüpft und behauptet sie hätten mehr erwartet.

Ailuros
2014-05-07, 15:25:01
GTX680 war High-End aber kein High-End Chip... Ich bin von 460 auf 670 gegangen und war sehr zufrieden und werde wahrscheinlich auch zufrieden sein wenn ich auf 880 wechsele.

500 Euro für die Karte wird völlig ok sein (Featureset, TDP, Leistung) - GM200 wird deutlich darüber einsteigen und deutlich später kommen.

Na dann ist es auch kein Wunder dass diverse sich ueber einen 256bit bus beschweren bei einem performance chip wie der GK104 oder GM204. Die GTX680 mit 256bit und auch noch mit einem standard 2GB framebuffer war nichts anderes als eine performance SKU. Wenn Du high end nach dem MSRP meinst dann war die GTX Titan mit ihrem $999 genau was? Eine GPU-Supernova?

Botcruscher
2014-05-07, 16:22:19
Wieso hast Du den Eindruck dass einem GK104 zuerst der framebuffer limitiert als jegliche andere resources? Anders Du darfst mir gerne einen neuen thread aufmachen und mir reviews bzw. Messungen einer 2GB vs. einer 4GB 770 zeigen wo die letztere einen deutlichen Vorteil zeigt. Wenn man wirklich mehr bezahlen kann fuer eine 770 4GB ist es IMHO eine fragliche Investion gegen eine Vanillav R9 290 und ich denke nicht dass ich extra erlaeutern muss warum.

Gibt es doch schon. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=544775&page=17)
http://s10.postimg.org/qse4ta6qh/Titanfall_Benchmarks_Retail_20140324092345_pcgh.png
Das die 290 dagegen unschlagbar günstig ist, ist hier nicht Thema.

PS: Da das Thema wieder hoch kocht... was ist denn nur High-End?! Preis und Leistung der 680 treffen den Bereich auf jeden Fall. Vom Chip haben die meisten Konsumenten doch eh keinen Ahnung. Können wir uns nicht einfach auf schnellste Karte zu einem bestimmten Zeitpunkt einigen?

Titan war übrigens Abzocke.

Godmode
2014-05-07, 16:55:51
Da muss ich aber Nvidia etwas in Schutz nehmen (obwohl naja...;)). Die haben ihre Preise "leistungsmäßig" an AMD angelehnt.... Das der GK104 als Highend geplant war oder ist, haben die nie behauptet. Kam denen aber gelegen, siehe GK110. Die hatten dann irgendwann die Nase über Tahiti gerüpft und behauptet sie hätten mehr erwartet.

GK104 als GTX 680 aka Highendname mit Midrange Chip zu verkaufen, war betriebswirtschaftlich gesehen die beste Entscheidung der letzten Jahre bei NV. Man hätte natürlich auch gleich als 660/670 verkaufen können, aber dann hätten sicher mehr Leute auf GK110 gewartet, dann nicht doppelt gekauft hätten.

Mich hat das ganze einfach geschockt, wie schnell man das Preisgefüge in einem jahrelang stabilen Markt durcheinander bringen kann. Jahre hatte man um ca. 500 +/- 100 € den dicksten Chip bekommen und plötzlich ist alles anders.



PS: Da das Thema wieder hoch kocht... was ist denn nur High-End?! Preis und Leistung der 680 treffen den Bereich auf jeden Fall. Vom Chip haben die meisten Konsumenten doch eh keinen Ahnung. Können wir uns nicht einfach auf schnellste Karte zu einem bestimmten Zeitpunkt einigen, was nun Performance und was Highend ist.

Titan war übrigens Abzocke.

Da wir hier nicht einfach nur Konsumenten sind, sondern Hardcore GPU Nerds, würde ich mich schon eher auf die Technik hinter dem Namen konzentrieren. Und da GK104 nunmal die Fortsetzung von GF104 ist und GK110 die Fortsetzung von GF110 ist, kann man hier schon eine recht klare Linie ziehen. Wenn du jetzt einfach nur nach Stichtag gehst, hast du recht, dann war der GK104 zum Zeitpunkt seines Erscheinens das schnellste was es zu diesem Zeitpunkt gab. Es wusste aber schon jeder hier, dass der wirkliche Highend Chip noch aussteht.

Und um nicht völlig OT zu bleiben: GM204 wird ein tolles Produkt für alle Aufrüster die von einer 670/680/770 kommen. GM200 ist weit weg, ist also noch die einzige Frage, wie man mit dem 20nm GM204 verfährt?

occ-kh@Mirko
2014-05-07, 17:05:17
@Godmode
Erstkäufer sind immer die gemeierten, aber was will man machen. So wirds auch beim GM204 er wird gekauft und irgendwann wieder billiger. Der Lauf der Dinge.

Nee nee, erinnere dich mal an die TNT Ultra Zeiten 1000 - 1200 Flocken und wollte auch jeder. Leistung über ein bestimmtes Maß kostet nun mal, dass ist Luxus und Luxus hat auch seinen Preis. Werden wir nicht ändern. Wenn der 204 mit 10% mehr Leistung als die ti kommt und 450 kostet, wo ist das Problem?

Alles was danach kommt, wird sich kurzfristig einreihen, auch nicht schlecht!

Titan war eher für die Unis oder professionell angehauchte Felder und die waren froh die Dinger so billig gekriegt zu haben, haben sie gleich in Viererpaketen bestellt.

Dawn on Titan
2014-05-07, 17:07:07
Na dann ist es auch kein Wunder dass diverse sich ueber einen 256bit bus beschweren bei einem performance chip wie der GK104 oder GM204. Die GTX680 mit 256bit und auch noch mit einem standard 2GB framebuffer war nichts anderes als eine performance SKU. Wenn Du high end nach dem MSRP meinst dann war die GTX Titan mit ihrem $999 genau was? Eine GPU-Supernova?

Trotzdem war diese SKUs zu damaligen Zeitpunkt die schnellste GPU Lösung von NV am Markt und konkurrenzfähig zur Lösung von AMD. Sie hat die 580 weitgehend überflüssig gemacht. Dass das nur eine Performance-GPU war und nicht der eigentliche Nachfolger von Big-Thermi war schon damals klar, aber sie war (auch zum damaligen Preis) das bessere Angebot als Big-Thermi.

Godmode
2014-05-07, 17:11:17
@Godmode
Erstkäufer sind immer die gemeierten, aber was will man machen. So wirds auch beim GM204 er wird gekauft und irgendwann wieder billiger. Der Lauf der Dinge.

Nee nee, erinnere dich mal an die TNT Ultra Zeiten 1000 - 1200 Flocken und wollte auch jeder. Leistung über ein bestimmtes Maß kostet nun mal, dass ist Luxus und Luxus hat auch seinen Preis. Werden wir nicht ändern. Wenn der 204 mit 10% mehr Leistung als die ti kommt und 450 kostet, wo ist das Problem?

Alles was danach kommt, wird sich kurzfristig einreihen, auch nicht schlecht!

Titan war eher für die Unis oder professionell angehauchte Felder und die waren froh die Dinger so billig gekriegt zu haben, haben sie gleich in Viererpaketen bestellt.

Ich schrieb von den letzten Jahren; die TNT Ultra, GF3 etc. das ist ja ne halbe Ewigkeit her. ^^

Hugo78
2014-05-07, 17:13:12
2GB Gurken gibt es ab dem Preis. PS: Und selbst dann müsste bei normalen Preisen an der Stelle die Abspeckversion von GK110 stehen. 780 ahoi.

Eine 780 für 250€? Ja klar.
AMD verramscht ihre 290 nicht mal für den Preis.

Gibt es doch schon. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=544775&page=17)
http://s10.postimg.org/qse4ta6qh/Titanfall_Benchmarks_Retail_20140324092345_pcgh.png
Das die 290 dagegen unschlagbar günstig ist, ist hier nicht Thema.

Titanfall ist verbugt, da werden die Videos und alles, im VRAM gehalten.
So kann man den natürlich auch voll bekommen.

AnarchX
2014-05-07, 17:28:12
Eine 780 für 250€? Ja klar.
AMD verramscht ihre 290 nicht mal für den Preis.

Gewinn würde wohl beide Karten noch zu diesem Preis abwerfen.

Mal sehen was NV letztlich für GM204 aufrufen wird. Bei GK104 konnte man ja noch mit dem teuren 28nm Prozess argumentieren. Wenn jetzt GM204 500€ kosten sollte, dann müsste man hier wohl fast mehr als 100€ allein für die Entwicklungskosten der Maxwell-Architektur "bezahlen" (4GiB 770 @ 300€ als Referenz).

Dawn on Titan
2014-05-07, 17:34:26
Gewinn würde wohl beide Karten noch zu diesem Preis abwerfen.

Mal sehen was NV letztlich für GM204 aufrufen wird. Bei GK104 konnte man ja noch mit dem teuren 28nm Prozess argumentieren. Wenn jetzt GM204 500€ kosten sollte, dann müsste man hier wohl fast mehr als 100€ allein für die Entwicklungskosten der Maxwell-Architektur "bezahlen" (4GiB 770 @ 300€ als Referenz).

Zwischen 450 und 600 Euro je nachdem wie groß der Abstand zur 780ti ist.

Ravenhearth
2014-05-07, 17:53:20
Wenn man auf die 300€ der 770 4GB den erwarteten Performance-Sprung von 60-70% draufrechnet, landet man doch bei rund 500€ :freak:

Gemessen an seiner Leistung im Vergleich mit anderen Karten wird der GM204/GTX880 nicht zu teuer sein. Gemessen an dem, was er eigentlich ist (Performance), dagegen schon.

occ-kh@Mirko
2014-05-07, 17:55:12
Ich schrieb von den letzten Jahren; die TNT Ultra, GF3 etc. das ist ja ne halbe Ewigkeit her. ^^
Aber ab diesem Zeitpunkt kam die Mär auf man wolle nie mehr als 1000 (welchen Geldwert auch immer) oder damit einhergehend 500 Euro verlangen wollen. (Umfragen bestätigten den Wert als Grenzwert für die Anschaffung bestimmter Baugruppen oder Komponenten).

Wie soll das gehen, soll man die Hardware und das was sich damit verbindet verschenken? Wir kennen die tatsächlichen Kosten nicht! Ist ja nicht nur allein der Chip der Kohle kostet. Selbst AMD hat mittlerweile erkannt, dass man mehr verlangen kann und muss wenn es weitergehen soll.

In der Spielebranche beglückwünscht man sich mittlerweile 500mio für ein Spiel draufzuhauen...das sind Relationen über die man reden bzw. kritisieren kann. Aber 450 Flocken für eine SingleGPU Karte die dann die Schnellste ist bzw. zu den schnellsten gehört, kein Thema wir liegen unter der 500 Euro Marke. Her damit, da kaufe ich zwei..;) und mehr wenns taugt.

Eine TNT war auch mal "high" wo gurkt die jetzt rum? Ist der Lauf der Dinge, der Fortschritt den wir uns wünschen.^^

Ailuros
2014-05-07, 18:02:33
Gibt es doch schon. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=544775&page=17)
http://s10.postimg.org/qse4ta6qh/Titanfall_Benchmarks_Retail_20140324092345_pcgh.png
Das die 290 dagegen unschlagbar günstig ist, ist hier nicht Thema.

Genauso dass Hawaii um einiges mehr an resources und davon am wichtigsten Bandbreite hat als ein GK104. Und im thread gibt es nicht einen Haken ein Beweiss dass eine 770 4GB sich irgendwo einen Vorteil gegen die 2GB Variante einspielt. Ich hab zumindest bis heute nicht einen einzigen Vergleich gelesen der dieses bestaetigt.

Vielleicht hilft es meinen uralten memory consumption writeup aus dem Jahr 2005 auszugraben, wo man kinderleicht sieht dass man in nicht realistischen Eckfaellen jederzeit den framebuffer fuellen konnte und es hat sich auch heute nichts daran geaendert.

PS: Da das Thema wieder hoch kocht... was ist denn nur High-End?! Preis und Leistung der 680 treffen den Bereich auf jeden Fall. Vom Chip haben die meisten Konsumenten doch eh keinen Ahnung. Können wir uns nicht einfach auf schnellste Karte zu einem bestimmten Zeitpunkt einigen?

Titan war übrigens Abzocke.

Ehrlich wenn Ihr nach all der Zeit einen 294mm2 performance von einem 551mm2 high end chip NICHT unterscheiden koennt, dann muessen manche von Euch wirklich mal einen reality check besorgen.

Spar mir die lahme Ausrede dass Verbraucher von chips keine Ahnung haben; man war aeusserst bloed wenn man glaubte dass eine 680 high end ist und daran aendert sich auch nichts heute. Titan hat einen GK110 chip und deren SKUs sind alle wahres high end ob Ihr es jetzt akzeptieren wollt oder nicht; und dazu gehoeren auch alle high end Quadros, alle high end Teslas und jegliche GTX780-Variante.

Und nein es gibt hier auch nichts zu verhandeln. GM206 = mainstream, GM204 = performance und GM200 = high end. Es ist eben SCHEISSEGAL wann jeder chip einer jeden Generation ankommt. GM204 wird eben NICHT den Grossteil von HPC SKUs bedienen.

aufkrawall
2014-05-07, 18:07:23
Genauso dass Hawaii um einiges mehr an resources und davon am wichtigsten Bandbreite hat als ein GK104. Und im thread gibt es nicht einen Haken ein Beweiss dass eine 770 4GB sich irgendwo einen Vorteil gegen die 2GB Variante einspielt. Ich hab zumindest bis heute nicht einen einzigen Vergleich gelesen der dieses bestaetigt.

Thief und BF4 stocken in 1440p mit 2GB, die 4GB-Variante ist nicht völlig sinnfrei.
Mitunter steigt der VRAM-Bedarf mit steigender Auflösung aber auch nicht mehr so stark an, weil etwa der Texture Streaming Pool relativ fixed ist.

Theoretisch soll das zwar alles so variabel laufen, dass es eben nicht zu Nachteilen kommt, praktisch ist aber häufig mit Frametime-Spikes zu rechnen. Ist halt ärgerlich, wenn die fps hoch genug sind, es wegen so was aber trotzdem unsauber läuft.

Godmode
2014-05-07, 18:08:37
Ehrlich wenn Ihr nach all der Zeit einen 294mm2 performance von einem 551mm2 high end chip NICHT unterscheiden koennt, dann muessen manche von Euch wirklich mal einen reality check besorgen.

Spar mir die lahme Ausrede dass Verbraucher von chips keine Ahnung haben; man war aeusserst bloed wenn man glaubte dass eine 680 high end ist und daran aendert sich auch nichts heute. Titan hat einen GK110 chip und deren SKUs sind alle wahres high end ob Ihr es jetzt akzeptieren wollt oder nicht.

Und nein es gibt hier auch nichts zu verhandeln. GM206 = mainstream, GM204 = performance und GM200 = high end. Aus damit.

Danke :up:

Das einzige was noch spannend wird, ist wie man GM204 in 28nm und GM204 in 20nm positionieren wird. Die 28nm Variante könnte man als 880 vorstellen und die 20nm dann als 960-970. GM200 dann als 980 - Titan 2 whatever...

Ailuros
2014-05-07, 18:14:06
Wenn man auf die 300€ der 770 4GB den erwarteten Performance-Sprung von 60-70% draufrechnet, landet man doch bei rund 500€ :freak:

Angenommen GM204 = 780ti+10% stimmt, dann GTX680+60% oder 770+50%.

Danke :up:

Das einzige was noch spannend wird, ist wie man GM204 in 28nm und GM204 in 20nm positionieren wird. Die 28nm Variante könnte man als 880 vorstellen und die 20nm dann als 960-970. GM200 dann als 980 - Titan 2 whatever...

Nicht dass es irgendwie wichtig sein sollte oder etwas bedeutet, aber NV nannte die groesste GT200@65nm SKU GTX280 und den 55nm shrink davon GTX285.

occ-kh@Mirko
2014-05-07, 18:19:47
Thief und BF4 stocken in 1440p mit 2GB, die 4GB-Variante ist nicht völlig sinnfrei.
Mitunter steigt der VRAM-Bedarf mit steigender Auflösung aber auch nicht mehr so stark an, weil etwa der Texture Streaming Pool relativ fixed ist.

Theoretisch soll das zwar alles so variabel laufen, dass es eben nicht zu Nachteilen kommt, praktisch ist aber häufig mit Frametime-Spikes zu rechnen. Ist halt ärgerlich, wenn die fps hoch genug sind, es wegen so was aber trotzdem unsauber läuft.
In vielerlei Hinsicht wurde durch alle Redaktionen nach den Tests der 7970 die erhöhte VRAM Menge empfohlen, aber selbst in 1440p macht der Unterschied in manchen Spielen einfach nur 2-3 fps aus. Natürlich muss man Neuerungen auch empfehlen, aber im Januar 2013 z.B. wars noch so http://ht4u.net/reviews/2013/50_directx_11_grafikkarten_im_test/index34.php über den gesamten Benchmarkparkur (einfach mal ein Bsp. rausgesucht) sind das 6% Prozent Unterschied bei einem Wert von 136. Wer weiss ob da nicht Tahiti treiberbedingt etwas besser spieleoptimiert war, zudem ja etwas mehr Roh-Leistung mitbrachte (+3% dann +7-8%?)

Ailuros
2014-05-07, 18:20:23
Thief und BF4 stocken in 1440p mit 2GB, die 4GB-Variante ist nicht völlig sinnfrei.
Mitunter steigt der VRAM-Bedarf mit steigender Auflösung aber auch nicht mehr so stark an, weil etwa der Texture Streaming Pool relativ fixed ist.

Theoretisch soll das zwar alles so variabel laufen, dass es eben nicht zu Nachteilen kommt, praktisch ist aber häufig mit Frametime-Spikes zu rechnen. Ist halt ärgerlich, wenn die fps hoch genug sind, es wegen so was aber trotzdem unsauber läuft.

Eine solche GPU wird nur dann ueberfoerdert wenn man es wirklich auch mit den Anforderungen an die GPU selber uebertreibt. Denn wenn eine 770 wirklich nicht voll mit 2GB in allen Normalfaellen mehr auskommt dann passiert genau das gleiche auf einer 3GB 780Ti oder noch besser auf einer 4GB 290X.

Nochmal es gibt nirgends Messungen das Zeug zu belegen und auch nicht in BF4 oder sonst einem Fall.

Macht gefaelligst eine thread dafuer auf, wo ich mich gerne - aber diesmal mit handfesten Beweissen - darueber ueberreden lasse.

Godmode
2014-05-07, 18:27:38
Nicht dass es irgendwie wichtig sein sollte oder etwas bedeutet, aber NV nannte die groesste GT200@65nm SKU GTX280 und den 55nm shrink davon GTX285.

An so ein Schema habe ich auch schon gedacht, aber irgendwie glaube ich nicht so recht daran. Neuer Name macht schließlich mehr Geld.

Ailuros
2014-05-07, 18:30:10
Wayne interessieren Namen wirklich...:rolleyes:

Godmode
2014-05-07, 18:32:56
Wayne interessieren Namen wirklich...:rolleyes:

Uns nicht, weil wir wissen was dahinter steht, aber der normale Hardware Käufer denkt sich: Hey geil Geforce GTX 980. Das ist für ihn mehr als nur Geforce GTX 785.

aufkrawall
2014-05-07, 18:37:25
Eine solche GPU wird nur dann ueberfoerdert wenn man es wirklich auch mit den Anforderungen an die GPU selber uebertreibt. Denn wenn eine 770 wirklich nicht voll mit 2GB in allen Normalfaellen mehr auskommt dann passiert genau das gleiche auf einer 3GB 780Ti oder noch besser auf einer 4GB 290X.

Nein. Hat auch nichts mit "übertreiben" zu tun, wenn das Streaming den Speicher vollhaut.


Nochmal es gibt nirgends Messungen das Zeug zu belegen und auch nicht in BF4 oder sonst einem Fall.

Wer misst denn auch Frametimes, schnelle Kameradrehungen und lässt eine Zeit lang den VRAM vollcachen? Spiel selber und achte auf so etwas, dann fällt dir auf, dass die meisten Benchmarks viel zu wenig Aussagekraft haben.
Ich habe keine 2GB 670 mehr verbaut, sonst hätt ich dir schon längst besagte Frametimes um die Ohren gehauen. ;)

Botcruscher hat übrigens auch schon harte Zahlen verlinkt. Die solltest du vielleicht mal zur Kenntnis nehmen.
Den Thread kannst du ja splitten.

Ailuros
2014-05-07, 18:42:36
Nehme ich eben nicht aus Gruenden die schon auf der vorigen Seite erwaehnt wurden. Sonst zurueck zum Thema und wer will kann die Speicherdebatte woanders weiterfuehren.

N0Thing
2014-05-07, 20:12:14
Titanfall ist verbugt, da werden die Videos und alles, im VRAM gehalten.
So kann man den natürlich auch voll bekommen.

Im Benchmark sind auch Ergebnisse mit deaktivierter Videospeicherung im VRAM. Die 4GB GTX 680 liegt trotzdem deutlich vorn.
Aber da Titanfall offensichtlich ein besonderer Fall ist, sollte man wirklich nicht daraus eine Regel ableiten.


Und im thread gibt es nicht einen Haken ein Beweiss dass eine 770 4GB sich irgendwo einen Vorteil gegen die 2GB Variante einspielt. Ich hab zumindest bis heute nicht einen einzigen Vergleich gelesen der dieses bestaetigt.

Schau mal in den Spoiler, da ist zumindest ein Fall, wo ohne MOD ein Unterschied zwischen 4GB und 2GB deutlich wird.


e:\
Sonst zurueck zum Thema und wer will kann die Speicherdebatte woanders weiterfuehren.

Sorry, hab vor dem absenden des Beitrags nicht auf die neue Seite geschaut.

Ailuros
2014-05-07, 21:01:59
Schau mal in den Spoiler, da ist zumindest ein Fall, wo ohne MOD ein Unterschied zwischen 4GB und 2GB deutlich wird.

Ja eine Ausnahme wo es an bugs nur so herumschwirrt. Im Normalverbrauch sind 4GB auf einer GPU wie die 770 bzw. 680 Geldverschwendung weil GK104 zu bescheidene resources/Bandbreite hat fuer mehr, genauso wie auf einer 780Ti 6GB nichts sehenswertes bringen wuerde. Will ich jetzt wirklich den framebuffer selbst bei dem letzten hypothetischen config vollstopfen ist es jederzeit kinderleicht; ein normaler Anwendungsfall wird es aber nicht sein.

So koennen wir jetzt zum Thema zurueckkommen denn ohne modtext scheint es nicht zu klappen?

hell_bird
2014-05-07, 21:14:31
Gab es eigentlich seit Anfang 2011 von Nvidia ein Update zu dem Thema ob da die ARM Kerne dabei sind? Oder ist einfach die Spekulation, dass sie damals gesagt hatten Maxwell ist Project Denver und da die erste Generation es nicht hatte muss es die zweite haben?

y33H@
2014-05-07, 22:04:56
Denver ist ja u.a. auch Tegra K1.

ndrs
2014-05-07, 22:20:39
K1 ist weiterhin 4xA15 + 1xA7. Nix Denver.

Guckst du: http://www.nvidia.de/object/tegra-k1-processor-de.html

Edit sagt, dass das nur halb richtig ist. Siehe unten.

Hugo78
2014-05-07, 22:23:07
K1 gibt es aktuell als 32bit Version, mit 4*A15 und ist als 64bit mit 2*Denver Kernen für Ende diesen Jahres angekündigt.
http://www.youtube.com/watch?v=QkbWn9YxwlA

^^ ab 50s

y33H@
2014-05-07, 22:24:23
K1 ist weiterhin 4xA15 + 1xA7. Nix Denver.

Guckst du: http://www.nvidia.de/object/tegra-k1-processor-de.htmlGuckst du selba :biggrin:

http://scr3.golem.de/screenshots/1404/64-Bit-im-Smartphone/64-Bit-Smartphone-ra-10.jpg

Mandalore
2014-05-07, 23:02:59
@Ailuros:

Ich kann verstehen was du meinst, dass man GM204 mit GK104 vergleichen muss/kann und nicht mit GK110. Da NVidia aber den Preis bei Release auf GK110-Niveau anhebt ist das die EINZIGE Möglichkeit eines Vergleichs. Ich meine wenn VW morgen ihren Golf auf dem Preisniveau 150.000€ setzt, dann werden die Leute das garantiert nicht mit den anderen 20-30.000€ Wägen vergleichen, sondern mit Fahrzeugen wie Porsche, Lamborghini usw. Und wenn Nvidia möchte, dass wir alle so beeindruckt sind von dem "billigen" GM204, dann sollen sie den für 300-350€ verkaufen, denn dann wäre es etwas. Aber so können sie das vergessen und das zurecht:rolleyes::cool: Und meiner Meinung nach wird Nvidia mit dieser Taktik nicht lange durchhalten können. DIe Konkurrenz schläft nicht und Nvidia verschiebt ihre Produkte in letzter Zeit viel zu oft und wenn sie erscheinen halten sie nicht ein wenig vom den ein, was versprochen wurde...

hell_bird
2014-05-07, 23:28:56
Denver ist ja u.a. auch Tegra K1.
Ja, aber mich interessiert aber eher der Einsatz auf der dedizierten GPU. Huang hat es irgendwie in der Art ausgedrückt, dass die GPU dann autonomer v.a. beim computing ist. Das klingt ja schon ziemlich nett, aber leider wurde es seit dem nicht wirklich erwähnt (bis auf die Tatsache, dass es jetzt als SoC aufgetaucht ist).

Andererseits: ich kann mir gar nicht so recht vorstellen welche Anwendungen von soetwas profitieren würden.

ndrs
2014-05-08, 00:19:54
Guckst du selba :biggrin:

http://scr3.golem.de/screenshots/1404/64-Bit-im-Smartphone/64-Bit-Smartphone-ra-10.jpg
Ach fuck. Ich dachte der würde dann anders heißen. Shit happens :D

-/\-CruNcher-/\-
2014-05-08, 00:48:01
GTX680 war High-End aber kein High-End Chip... Ich bin von 460 auf 670 gegangen und war sehr zufrieden und werde wahrscheinlich auch zufrieden sein wenn ich auf 880 wechsele.

500 Euro für die Karte wird völlig ok sein (Featureset, TDP, Leistung) - GM200 wird deutlich darüber einsteigen und deutlich später kommen.

500 € sind 1000 DM soviel haben GPUs nie gekostet im Consumerbereich früher, wer sowas kauft hat ehrlich gesagt nicht mehr alle latten am Zaun.

ndrs
2014-05-08, 01:26:38
500 € sind 1000 DM soviel haben GPUs nie gekostet im Consumerbereich früher
Bist du dir da ganz sicher? :)
Geforce 2 Ultra: 1200DM (http://www.hartware.de/review.html?id=111)

Dawn on Titan
2014-05-08, 06:58:49
500 € sind 1000 DM soviel haben GPUs nie gekostet im Consumerbereich früher, wer sowas kauft hat ehrlich gesagt nicht mehr alle latten am Zaun.

Wenn ich jetzt eine 780ti oder 290X für das Geld kaufe ist es ok, wenn ich mir Ende des Jahres für das Geld eine schnellere und sparsamere GM204 GPU nicht? Komische Logik.

Hugo78
2014-05-08, 07:36:32
Bist du dir da ganz sicher? :)
Geforce 2 Ultra: 1200DM (http://www.hartware.de/review.html?id=111)

Und wenn TPU richtig liegt, bei grade mal 90mm^2 die size *mimimi* :biggrin:
http://www.techpowerup.com/gpudb/736/geforce2-ultra.html

Mancko
2014-05-08, 08:19:27
500 € sind 1000 DM soviel haben GPUs nie gekostet im Consumerbereich früher, wer sowas kauft hat ehrlich gesagt nicht mehr alle latten am Zaun.

Autos haben sich seit der EURO Einführung auch fast im Preis verdoppelt. Ein VW Golf mit guter Ausstattung hat jedenfalls früher nicht fast 60.000 DM gekostet.

Dawn on Titan
2014-05-08, 08:35:35
Es ist doch ne sinnlose Debatte. Sagen wir ich will zu Zeitpunkt X eine Grafikkarte kaufen: Zu diesem Zeitpunkt ist der schnellste Chip eine Performance SKU die für 500 Euro verkauft wird.

Y Monate vorher gab es für den Preis eine High-End-SKU die langsamer ist, Z Monate später wird es für den Preis eine neue High-End-SKu geben, die schneller ist, das hilft dem Käufer zu Zeitpunkt X genau wie?

Solange GM204 schneller und nicht wesentlich teurer als der aktuelle Marktpreis von GK110 ist, finde ich das völlig in Ordnung. Sollten sie den allerdings mit den Launchpreisen von GK110 einsteigen, dann ist jeder selber Schuld, der die Karten kauft.

Knuddelbearli
2014-05-08, 08:41:59
Autos haben sich seit der EURO Einführung auch fast im Preis verdoppelt. Ein VW Golf mit guter Ausstattung hat jedenfalls früher nicht fast 60.000 DM gekostet.

kauf den VW nicht in Deutschland dann kostet er auch heute nicht annähernd 60.000 DM ;-)

robbitop
2014-05-08, 09:23:01
Inflationsbereinigt kostete die GF2 Ultra 774,42 € (1200 DM im Jahr 2000). Das kann man einfach ausrechnen. Da braucht es keine unsinnigen Autovergleiche...

Ailuros
2014-05-08, 12:06:35
@Ailuros:

Ich kann verstehen was du meinst, dass man GM204 mit GK104 vergleichen muss/kann und nicht mit GK110. Da NVidia aber den Preis bei Release auf GK110-Niveau anhebt ist das die EINZIGE Möglichkeit eines Vergleichs.

Die Kundschaft fuer die ersten GM204 SKUs wird wohl offensichtlich NICHT aus GK110 Inhabern bestehen. Gut Spinner gibt es immer aber wir reden hier ueber die grosse Mehrzahl.

Und wenn Nvidia möchte, dass wir alle so beeindruckt sind von dem "billigen" GM204, dann sollen sie den für 300-350€ verkaufen, denn dann wäre es etwas. Aber so können sie das vergessen und das zurecht:rolleyes::cool:

Ich mecker schon seit dem Tahiti launch ueber zu hohe GPU Preise generell, es hat aber nichts mit dem Thema zu tun. Ein performance chip ist immer noch ein performance chip egal wieviel er kostet.

Ich meine wenn VW morgen ihren Golf auf dem Preisniveau 150.000€ setzt, dann werden die Leute das garantiert nicht mit den anderen 20-30.000€ Wägen vergleichen, sondern mit Fahrzeugen wie Porsche, Lamborghini usw.

Glaubst Du vielleicht dass Du mit solchen Uebertreibungen Dir selber einen Punkt erringen kannst? Aber wenn es schon um Volkswagen geht ich hab im vorigen Jahr einen lokalen VW Verkaeufer gefragt warum selbst ihre kleine Karren um so viel teurer sind als konkurrierende Autos und sie nicht die Preise reduzieren und die Antwort war ein total logisches "wieso? so lange wir so viel verkaufen wie wir einschaetzen gibt es keinen Grund dazu".

Ein mittlerer Verbraucher der sich einen Golf holt goennt sich die Preisdifferenz und will eben auch nichts von einem Huyndai oder sonst was nichts wissen.

Gleiches gilt auch bei NVIDIA. NV verkauft ihr Zeug und so lange bei N Preisen verkauft wird werden sich die Preise auch nicht aendern. Eine jegliche Firma faengt nur dann an Preise zu reduzieren wenn die ersten Spinnweben auf Ladenregalen auftauchen.


Und meiner Meinung nach wird Nvidia mit dieser Taktik nicht lange durchhalten können. DIe Konkurrenz schläft nicht und Nvidia verschiebt ihre Produkte in letzter Zeit viel zu oft und wenn sie erscheinen halten sie nicht ein wenig vom den ein, was versprochen wurde...

AMD verkauft um deutlicher billiger seit dem GTX680 launch. Ja natuerlich gibt es Schwankungen in Markanteilen aber sobald NV nicht mehr das eingeschaetzte Volumen erreicht, werden sie auch natuerlich ihre Preise reduzieren.

Momentan sind die Preise bei direkt konkurrierenden SKUs zwischen den roten und den gruenden bis zu einem Punkt durchaus vergleichbar. Eine 750Ti kostet hier zumindest genauso viel wie eine R9 260X. Warum ich generell mehr Interesse am ersten sehe wird wohl nicht am Preis liegen diesmal.

Iruwen
2014-05-08, 12:28:17
NV wäre schon blöd, jetzt mitnehmen was geht und hamstern und in R&D investieren. Dann kann man im Fall der Fälle später immer noch über den Preis kontern. Ist ja nicht so, dass irgendjemand in zwei Jahren beim Kauf einer Grafikkarte denkt "oh, die waren früher immer so teuer, die nehm ich nicht" :freak:

Inflationsbereinigt kostete die GF2 Ultra 774,42 € (1200 DM im Jahr 2000). Das kann man einfach ausrechnen. Da braucht es keine unsinnigen Autovergleiche...
http://www.altersvorsorge-und-inflation.de/euro-rechner.php
Damit Mancko sich auch gleich noch seinen Autovergleich umrechnen kann.

Ailuros
2014-05-08, 12:52:04
Es ist zwar verdammt OT aber VWs sind hier ein klein bisschen billiger als in Deutschland und das seit langen und ja sie werden in Deutschland hergestellt.

Aber wenn es schon zu daemlichen Vergleichen kommen muss: eine 60m2 Zwei-Zimmer Wohnung die aus X Grund verdammt teuer verkauft wird ist eben nicht gleich eine 90m2 Drei-Zimmer Wohnung die mit vergleichbarem Baualter und Bezirk zu vergleichbarem Preis verkauft wird. Das einzige was man machen kann ist den ersten Fall minimaler einrichten damit dem Auge vorgegaukelt wird dass sie etwas "groesser" ist, aber die 60m2 bleiben 60m2.

Mancko
2014-05-08, 13:27:10
kauf den VW nicht in Deutschland dann kostet er auch heute nicht annähernd 60.000 DM ;-)

Wenn jeder so denkt, müsste VW wahrscheinlich die Modalitäten für die Arbeitnehmer früher oder später anpassen. Das Geschrei höre ich heute schon. Der deutsche Konsument sollte sich m.E. tunlichst damit beschäftigen:

1) welche Produkte er kauft und wo die herkommen
2) wo er sie kauft
3) was der Preis dafür ist, dass er ein Produkt zum einem ggf. günstigen Preis X bekommt.

Das ist aber ein anderes Thema und da könnte man ewig darüber reden. Hat jetzt aber nichts mit dem Thema hier zu tun.

Im Grunde ist die Rechnung ganz einfach. Wenn sich ein Produkt für einen Preis X absetzen lässt, dann gibt es keinen Grund den Preis zu senken.

Dawn on Titan
2014-05-08, 13:30:35
Es ist zwar verdammt OT aber VWs sind hier ein klein bisschen billiger als in Deutschland und das seit langen und ja sie werden in Deutschland hergestellt.

Aber wenn es schon zu daemlichen Vergleichen kommen muss: eine 60m2 Zwei-Zimmer Wohnung die aus X Grund verdammt teuer verkauft wird ist eben nicht gleich eine 90m2 Drei-Zimmer Wohnung die mit vergleichbarem Baualter und Bezirk zu vergleichbarem Preis verkauft wird. Das einzige was man machen kann ist den ersten Fall minimaler einrichten damit dem Auge vorgegaukelt wird dass sie etwas "groesser" ist, aber die 60m2 bleiben 60m2.

Man will ja nicht in der GPU wohnen :biggrin: , daher ist die Größe egal, denn average 100FPS sind 100FPS egal ob aus 550mm² oder 380mm².

Ailuros
2014-05-08, 13:37:43
Man will ja nicht in der GPU wohnen :biggrin: , daher ist die Größe egal, denn average 100FPS sind 100FPS egal ob aus 550mm² oder 380mm².

Wenn Du 100fps von einer GTX680 bekommen hast, dann sind es 150fps von einer 780Ti. Die Leistungssteigerung ist zwar in diesem Fall nicht analog der Transistoren- bzw. Flaechen-steigerung aber NV's top dog chips haben auch stets ihren zusaetzlichen HPC Schnickschnack.

Es ist eben nicht so dass Flaeche (und ja Transistoren-dichte ist bei allen NV 28nm chips auf vergleichbarer Ebene) innerhalb einer Architektur-Familie irrelevant zur Leistung ist.

Dawn on Titan
2014-05-08, 14:08:05
Das ist ja unzweifelhaft, es geht doch um den Preis und da finde ich, dass es egal ist ob alte Architektur und großer Chip oder neue Architektur und Performancechip wenn beide gleich kosten und die gleiche Leistung haben. Dass der Top-Dog der neuen Architektur mehr leisten wird ist logisch, er wird (wahrscheinlich) aber auch teurer sein. Im Endeffekt ist das aber egal, da er zum GM204 Launch der Top Dog noch gute 6 Monate entfernt sein dürfte.

Ailuros
2014-05-08, 15:03:23
Bei der 680 war es auch logisch mehr zu verlangen als einer 580 mit ca. 30% Leistungs-unterschied. Bei den 10% die die happy-go-merry-leakers jetzt angeben ist es dann ein total anderes Kapitel.

Dawn on Titan
2014-05-08, 15:07:46
Kommt halt auf den Aufschlag und das Featureset an. Aber 500-550 wären wahrscheinlich im Rahmen. (in Q4 - heute gingen auch 600+)

Ailuros
2014-05-08, 15:35:46
Kommt halt auf den Aufschlag und das Featureset an. Aber 500-550 wären wahrscheinlich im Rahmen. (in Q4 - heute gingen auch 600+)

Ich weiss wirklich noch nicht was NV vorhat und ich bezweifle dass sie ihre finalen Entscheidungen schon getroffen haben momentan. 6 oder mehr Monate bis zur Massen-produktion ist genug Zeit jegliche Einzelheiten ihrer Strategie zu aendern. Ich auf jeden Fall wuerde so einen chip fuer den Anfang als vanilla 780 Ersatz einsetzen und nicht mehr.

http://www.fudzilla.com/home/item/34697-second-generation-maxwell-to-support-h265

Hoffentlich ist das nicht alles.

Mandalore
2014-05-08, 16:34:03
3D-Memory wäre sowas von ein Killer-Feature für Maxwell gewesen, da er so spät kommt. So ne Art 1. Testgang noch bevor Pascal erscheint:rolleyes:Ist das im Bereich des Möglichen?


Fudzilla scheint sich sicher zu sein, dass 20nm noch dieses Jahr erscheint.:rolleyes:

aufkrawall
2014-05-08, 16:52:35
Wenn Du 100fps von einer GTX680 bekommen hast, dann sind es 150fps von einer 780Ti.
Sind mehr:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10192245&postcount=664

Zumindest, wenn du Custom-Karten mit OC kaufst (was hier die Regel ist).

Dawn on Titan
2014-05-08, 17:19:05
Ich weiss wirklich noch nicht was NV vorhat und ich bezweifle dass sie ihre finalen Entscheidungen schon getroffen haben momentan. 6 oder mehr Monate bis zur Massen-produktion ist genug Zeit jegliche Einzelheiten ihrer Strategie zu aendern. Ich auf jeden Fall wuerde so einen chip fuer den Anfang als vanilla 780 Ersatz einsetzen und nicht mehr.

http://www.fudzilla.com/home/item/34697-second-generation-maxwell-to-support-h265

Hoffentlich ist das nicht alles.

Möglich ist auch das. Aber im Endeffekt hat NV bei der Karte allen Spielraum sie im Markt zu platzieren.

Ailuros
2014-05-08, 18:00:45
Sind mehr:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10192245&postcount=664

Zumindest, wenn du Custom-Karten mit OC kaufst (was hier die Regel ist).

Ich hab nirgends "bis zu" gesagt sondern hab mich eher auf einen Durchschnitt bei default Frequenzen bezogen; so lange die Leser den Sinn der Sache verstehen sind solche Haarspaltereien bei frei erfundenen Zahlen ueberfluessig.

Möglich ist auch das. Aber im Endeffekt hat NV bei der Karte allen Spielraum sie im Markt zu platzieren.

GM107 ist zwar ein etwas merkwuerdiges Beispiel und ein schlechter Vergleich zu GM204, aber sie haben mit den 750-ern tatsaechlich bevorzugt auf die niedrigste moegliche TDP zu setzen (egal wenn sie "vergessen" haben das 3.3V rail mitzuberechnen) :P

Dawn on Titan
2014-05-08, 18:38:27
Naja, ~780 (non ti) Leistung im Laptop wäre schon eine Leistung. Wobei ich erwarte, dass man die größte Desktop SKU ~ bei 780ti Leistung für 680 TDP setzen wird. Da bleibt dann Headroom für einen Taktschub.

tsaG
2014-05-09, 19:51:22
Kurz eine, mehr oder weniger, OT Frage: Kommt diesen oder nächsten Monat irgendein neuer Chip ,schneller als die 780GTX, auf dem Markt auf den es sich zu warten lohnt?

aufkrawall
2014-05-09, 19:53:40
Das würde sogar Ailuros überraschen. ;)

Ailuros
2014-05-09, 21:59:58
Kurz eine, mehr oder weniger, OT Frage: Kommt diesen oder nächsten Monat irgendein neuer Chip ,schneller als die 780GTX, auf dem Markt auf den es sich zu warten lohnt?

Vor Herbst 2014 sieht es nicht danach aus.

Duplex
2014-05-09, 22:55:31
Kommt diesen oder nächsten Monat irgendein neuer Chip ,schneller als die 780GTX, auf dem Markt auf den es sich zu warten lohnt?
Selbst wenn ein neuer Chip kommen würde, der wäre Preislich nicht interessanter als aktuelle Grafikkarten, im gleichen Prozess wirst du für das selbe Geld auch nicht viel mehr bekommen, bei 390 Euro macht man mit einer GTX780 nichts verkehrt, die aktuellen Preise sind Super im Vergleich zum Launch, bis 16nm sollte die Karte idR für die meißten vollkommen ausreichend sein. :smile:

occ-kh@Mirko
2014-05-09, 23:13:14
Davon wäre ich jetzt nicht felsenfest überzeugt, selbst in 20nm ist es möglich bis Faktor 1.9 mehr Transistoren unterbringen und die Leistungsaufnahme um 25% reduzieren. Wenn man beide Bereiche dazu benutzen kann die Leistung potentiell zu steigern könnte es eng werden. Aber dieses Jahr definitiv nicht, dass einzige was man vllt. verschenkt ist ein kleiner Preisvorteil im Konkurrenzkampf über die historischen Absatz-Quartale gesehen. Besser im späten zweiten Quartal kurz vorm Sommer kaufen, da interessiert man sich nicht ganz so für PC-Hardware. Aber das kann auch in die Hose gehen, wieder teurer werden wenn Zulieferprobleme irgendwelcher Art bestehen.

Also kaufen, nicht drüber nachdenken, freuen und gut. Auch wenn hier einige aufschreien werden, ich denke in diesem Jahr tut sich garnichts hinsichtlich einer GPU in 20nm, von Verfügbarkeit ganz zu schweigen. Mehrere Generationen zu überspringen macht auch nicht immer Sinn. Ausser man braucht die Neuerungen oder die Performance nicht.

Mr.Ice
2014-05-09, 23:15:44
Wenn der Chip auf 20NM gesenkt wird oder mehr heißt es dann Automatisch das auch die Karten insgesamt kleiner werden ? weil bei einer 780 ichill muss ich erstmal ausmessen ob die Karte überhaupt rein passt ins Pc-Gehäuse

occ-kh@Mirko
2014-05-09, 23:30:54
Wie? :uponder: was hat der Fertigungsprozess eines Die mit der Platinengröße (Kartengröße) zu tun? Das beeinflussen viele weitere Faktoren. Du willst doch einen Joke machen oder? Wenn nicht, Thema fürs Hilfeforum?

Mr.Ice
2014-05-09, 23:37:51
Wie? :uponder: was hat der Fertigungsprozess eines Die mit der Platinengröße (Kartengröße) zu tun? Das beeinflussen viele weitere Faktoren. Du willst doch einen Joke machen oder? Wenn nicht, Thema fürs Hilfeforum?

ich mein ja nur wenn man den Chip kleiner machen kann dann wäre es ja auch möglich die Platine kleiner zu machen in ein paar jahren ;) Türlich spielen da auch andere Faktoren mit ;)

-/\-CruNcher-/\-
2014-05-09, 23:41:18
Wenn jeder so denkt, müsste VW wahrscheinlich die Modalitäten für die Arbeitnehmer früher oder später anpassen. Das Geschrei höre ich heute schon. Der deutsche Konsument sollte sich m.E. tunlichst damit beschäftigen:

1) welche Produkte er kauft und wo die herkommen
2) wo er sie kauft
3) was der Preis dafür ist, dass er ein Produkt zum einem ggf. günstigen Preis X bekommt.

Das ist aber ein anderes Thema und da könnte man ewig darüber reden. Hat jetzt aber nichts mit dem Thema hier zu tun.

Im Grunde ist die Rechnung ganz einfach. Wenn sich ein Produkt für einen Preis X absetzen lässt, dann gibt es keinen Grund den Preis zu senken.

Preisschwellenanalyse nennt man das man lotet den Kunden ihre bereitschaft ganz genau aus also wo ist die schwelle wo die Kunden sagen "nö mehr nicht", angebot und nachfrage gelten hier nicht immer.
Das machen so gut wie alle Marken die auch eine marketing Abteilung haben, es ist eine verhaltenswissenschaftliche manipulation die man hier durchführt Price-Sensitivity-Meter (PSM).

http://de.wikipedia.org/wiki/Marktpsychologie

occ-kh@Mirko
2014-05-09, 23:45:42
@Mr.Ice
Sieh dir den Thread zu "Pascal" an und wie zukünftige Möglichkeiten aussehen können. Bitte dran denken, die Mods nehmen ihre Aufgabe und die Themenstarter sehr Ernst. Deine Frage passt nicht ganz in den Spekulationsbereich, ist eher eine technische Frage. Also einen tiefer als Spekulation oder unter Grafikchips und Grafikkarten angesiedelt. Sonst im Hilfeforum, wenn es um Abmaße etc. geht die du einhalten musst.

Duplex
2014-05-10, 00:12:50
Davon wäre ich jetzt nicht felsenfest überzeugt, selbst in 20nm ist es möglich bis Faktor 1.9 mehr Transistoren unterbringen und die Leistungsaufnahme um 25% reduzieren.
Ich kann abschätzen was mit neuer Fertigung möglich sein kann, nur sind wir noch weit entfernt von 20nm Chips, das dauert noch locker 1 Jahr.

Der User hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10206716&postcount=2856) fragte ob es sich lohnt zu warten, weil er denkt das er vielleicht etwas besseres als eine GTX780 für das Geld bekommen kann.

Eine GTX870 (GM204 @28nm > Q4/14) auf GTX780 Ti Niveau wird bestimmt zwischen 450-500 Euro kosten, die GTX880 (GM204 Full @28nm) schätze ich zwischen 600-650 Euro ein, zwischen beiden Karten hat man vermutlich nur 15% Unterschied.

Es lohnt sich definitiv nicht zu warten!

occ-kh@Mirko
2014-05-10, 00:21:33
Wir sagen definitv das Gleiche, ich glaub ich muss mir angewöhnen zu zitieren. Meine persönliche Meinung/Äußerung war auf den zweiten Teil deiner Antwort bezogen. Ob die 780 bis 16nm reicht, dass wird eng wenn man sich im Highendbereich bewegen will. Da kann man möglicherweise von doppelter Leistung in 16nm ausgehen. 20nm/20nm Refresh/16nm. Und den Status den man hat, gibt man nicht gerne wieder her.

Ansonsten dito..;). Kaufen und nicht zuviel nachdenken.

Ailuros
2014-05-10, 00:29:59
ich mein ja nur wenn man den Chip kleiner machen kann dann wäre es ja auch möglich die Platine kleiner zu machen in ein paar jahren ;) Türlich spielen da auch andere Faktoren mit ;)

Ist zwar OT aber bei Kepler gibt es afaik nur bis zu GTX760 (GK104) solche Loesungen:

6,7" https://www.asus.com/Graphics_Cards/GTX760DCMOC2GD5/

gegen

8,6" http://www.asus.com/Graphics_Cards/GTX760DC2OC2GD5/

Hübie
2014-05-10, 05:01:42
Ganz Unrecht hat Mr.ICE nicht. Denn immerhin kommen über die Jahre hinweg auch weniger Komponenten zum Einsatz. Das beginnt bei Spannungsversorgung und endet bei der Menge an BGA-RAM und Steuer-/Regelchips.
Das ist aber eher ein langer Intervall und wird jetzt nicht plötzlich mit 20-nm kommen.

Die neuen kleinen Karten machen ja vor wohin die Reise geht. Das werden sicher nicht weniger und wäre damals (~RV700-Zeiten) kaum möglich gewesen.

occ-kh@Mirko
2014-05-10, 09:29:58
@Hübie
Natürlich sind solchen Fragen berechtigt, nur in dem Zusammenhang vllt. nicht. @Mr.Ice sprach ja von einer ICHILL 780 und Platzbedaf im Gehäuse. Maxwell wird da keine so unterschiedlichen Größen mitbringen, womöglich auf den Bords mit gleichen Aufbau Verwendung finden. Siehs wie ein Update.

Einen Umbruch sehe ich erst mit Pascal sollte Nvidia seine Vorhaben in die Tat umsetzen, was dann in 16nm grössentechnisch zu erwarten ist, fraglich. NV-Link bringt eine viel höhere Daten-Geschwindigkeit mit, bis 80gb/s, dass kann man mit PCIe kaum abdecken, deshalb sind vllt. auch Diskussionen zum Sinn von AFR oder anderen ressourcehungrigen alternativen Rendertechnologien zur Bildratenerhöhung unnötig, oder bringen einen kaum weiter, denn so wie es aussieht und soweit man solche Geschwindigkeiten auch erreichen kann braucht man nicht unbedingt 2 GPUs um die fps Raten deutlich zu erhöhen oder vllt. 60 fps in UHD darzustellen.

Womöglich verabschieden wir uns irgendwann vom bekannnten PCIe Protokoll bei Grafikkarten. Das würde bedeuten man benötigt eine neue Architektur, daher würde ich jetzt einfach zuschlagen und gut. Das an der Länge einer ICHILL festzumachen, vllt.hab ich es auch falsch verstanden. Gibt ja viele andere gute Angebote in dem Bereich. Bis Maxwell würde ich jetzt auch nicht warten, auch wenn der Chip ggf. sehr effizient werden kann sind vllt. 10-20% Leistungszuwachs auch anders zu kompensieren. Da müsste man dann im Vergleich vllt. eine 770 oder 780, oder eben 290 oder 280x im Gehäuse haben, ansonsten macht das Gewarte auf besseres keinen Sinn.

Skysnake
2014-05-10, 10:03:59
Wenn der RAM aufs gleiche Package wandert, wird die Karte logischerweise deutlich kleiner, ansosnten wird sich da nicht viel tun.

occ-kh@Mirko
2014-05-10, 10:13:33
Stacked-Ram könnte helfen, aber vorerst wohl teurer in der Herstellung, daher lieber nicht.

fondness
2014-05-10, 11:27:49
Die Größe der Karte hat doch schon lange nichts mehr mit der Komplexität des PCBs oder der verbauten Bauteile zu tun sondern dient als Halterung für die wachsender Kühler.

aufkrawall
2014-05-10, 11:37:31
Da dürfte es aber eine starke Korrelation geben.

fondness
2014-05-10, 11:41:55
Da dürfte es aber eine starke Korrelation geben.

Kaum. Es wäre kein Problem ein PCB einer 290X zu fertigen das nur halb so groß ist wie das aktuelle.

aufkrawall
2014-05-10, 11:57:00
Du hast mich nicht verstanden. Ich sagte, dass auf kleineren PCBs eher Bauteile verbaut sind, die etwa weniger Strom mitmachen als die auf größeren. Einfach, weil es Geldverschwendung wäre.

fondness
2014-05-10, 11:57:41
Achso ja das stimmt natürlich.

AffenJack
2014-05-17, 09:04:17
So ich setzte mal AnarchX Werk mit Zauba fort, es ist nämlich was neues aufgetaucht:

15-May-2014 85437099 E2724-A00 GM204 BRINGUP 8GB GDDR5 4.000 X16 MO ADP FUNCTIONAL TEST PCA BOARDS 699-12724-0000-000 United States Banglore Air Cargo NOS 4 144,440 36,110
15-May-2014 85437099 E2724-A-- GM204 NB ADP FUNCTIONAL TEST PCA BOARDS 699-12724-0010-000 United States Banglore Air Cargo NOS 19 599,365 31,546

Die 4000 beim Bringup Board sollten denke ich den 8Ghz Ram bestätigen. Die 8GB werden sicher auch 4Gb reduziert, aber beim Speichertakt dürfte man höchstens runtergehen, wenn sich mit 8Ghz zu hoher Stromverbrauch oder Instabilitäten ergeben. Mit 256GB/s ist man dann wenigstens nah an der normales 780 und den Rest muss der aufgebohrte Cache kompensieren.

AnarchX
2014-05-17, 09:13:10
Passen würde die 4000 zum Speichertakt. Bisher gab es bei den Bringup-Boards keine solche Angabe. Das erste PCB ist aber älter als die bisher bekannten Bringup-PCBs - Rev00 stat Rev01.

Skysnake
2014-05-17, 09:35:48
Wenn jetzt aber erst die Bringup Boards ankommen, dann kannste noch gut und gerne nen halbes Jahr rechnen, bis die mit der Validierung und dem Start der Massenproduktion durch sind, es also ans Ausliefern geht. Und das nur, wenn Sie nicht auf irgendwelche Bugs stoßen, und einen Metal-spin brauchen.

Hübie
2014-05-17, 10:40:35
Die Größe der Karte hat doch schon lange nichts mehr mit der Komplexität des PCBs oder der verbauten Bauteile zu tun sondern dient als Halterung für die wachsender Kühler.

Bei AMD vielleicht X-D scnr

Also wenigstens ist jetzt schon mal eine Linie erkennbar wie das mit Maxwell in etwa ablaufen wird.

fondness
2014-05-17, 11:10:48
Bei AMD vielleicht X-D scnr


Als ob die NV-Karten auch nur einen cm kürzer wären. :)

AffenJack
2014-05-17, 13:21:37
Wenn jetzt aber erst die Bringup Boards ankommen, dann kannste noch gut und gerne nen halbes Jahr rechnen, bis die mit der Validierung und dem Start der Massenproduktion durch sind, es also ans Ausliefern geht. Und das nur, wenn Sie nicht auf irgendwelche Bugs stoßen, und einen Metal-spin brauchen.

Das ist schon allen klar, die Bringup Board gabs sowieso schon vor 3 Wochen. Das neue waren die 4000 die für die Ramgeschwindigkeit stehen sollten.

Ailuros
2014-05-17, 13:34:36
So ich setzte mal AnarchX Werk mit Zauba fort, es ist nämlich was neues aufgetaucht:



Die 4000 beim Bringup Board sollten denke ich den 8Ghz Ram bestätigen. Die 8GB werden sicher auch 4Gb reduziert, aber beim Speichertakt dürfte man höchstens runtergehen, wenn sich mit 8Ghz zu hoher Stromverbrauch oder Instabilitäten ergeben. Mit 256GB/s ist man dann wenigstens nah an der normales 780 und den Rest muss der aufgebohrte Cache kompensieren.

Netter Fund fuer den teuflischen 999-en Post :D Der Haarspalterei zu Liebe wenn dann 8Gbps oder 2.0GHz GDDR5 :P

Ailuros
2014-05-24, 20:07:25
Erinyes (B3D) ist sich jetzt sicher dass auch GM200 auf 28nm hergestellt wird. Wie ich schon bei B3D erwaehnte wenn sie nicht auf irgend eine verrueckte Transistoren-dichte gestiegen sind (unwahrscheinlich IMHO) und irgendwo auf ~550mm2 insgesamt bleiben reden wir theoretisch um eine Steigerung von ca. 4x Mal mehr Transistoren im Vergleich zu GM107.

Mehr als +50-60% im Vergleich zu GK110 erwarte ich demzufolge von GM200 nicht ausser ich verpasse wesentliches.

fondness
2014-05-24, 20:10:40
Also scheint 20nm SoC doch nicht so gut geeignet für GPUs?

Ailuros
2014-05-24, 20:13:34
Also scheint 20nm SoC doch nicht so gut geeignet für GPUs?

Bleibt abzusehen.

AffenJack
2014-05-24, 20:17:07
Du hast immer von einem 20nm Chip von Nvidia für dieses Jahr geredet, also war das ne Ente? Wenn wir auf jeden Fall nichtmal GM200 in 20nm sehen, dann wird HOT wohl recht bekommen und 20nm wird übersprungen.
Wie zuverlässig ist denn dieser Erinyes?

Unicous
2014-05-24, 20:41:37
Ich bin mir relativ sicher, dass Ailuros das nicht getan hat, bzw. wenn dann zeitnah revidiert hat. Von 2015 war zuletzt die Rede.

Ich glaube auch weiterhin, dass 20SOC NICHT ungeeignet ist, sondern dass da im Zweifel was bei TSMC im Argen liegt. Ob Yield oder generell der Prozess ist natürlich die Frage. Oder einfach beschissene Designs.:tongue:

Ailuros
2014-05-24, 21:11:42
Du hast immer von einem 20nm Chip von Nvidia für dieses Jahr geredet, also war das ne Ente? Wenn wir auf jeden Fall nichtmal GM200 in 20nm sehen, dann wird HOT wohl recht bekommen und 20nm wird übersprungen.
Wie zuverlässig ist denn dieser Erinyes?

Ich kann mich an keinen Fall erinnern wo er nicht recht hatte.

AnarchX
2014-05-25, 11:29:35
Wenn GM200 nun auch in 28nm kommt, ist der GK210 ja noch mal um einiges fragwürdiger. :freak:

Ailuros
2014-05-25, 12:48:06
Das einzige wo vor es mir schaudert sind Charlie's "I told you so"....

Ailuros
2014-05-25, 13:15:14
Uebrigens:

http://forum.beyond3d.com/showpost.php?p=1848488&postcount=1677

Interesting article on EE Times - http://www.eetimes.com/author.asp?section_id=36&doc_id=1322399

Some data which is very relevant to the discussion above:-

Cost of a 28nm wafer - $4,500-$5,000
Cost of a 20nm wafer - $6,000
Cost of a 16/14nm Finfet wafer - $7,270

There's a lot of other good info..worth a read. Some more key points mentioned were:-

TSMC's 20nm capacity is expected to be 60,000 Wafers per month in Q4.
A number of fabless companies will tape out their 16/14 FinFET product designs in the third quarter of 2014 with high-volume production planned for the second or third quarter of 2015.

Die Kosten fuer masks bzw. tools ist wohl hier auch nicht miberechnet, aber nur mal so dass bisherige Behauptungen ueber pro wafer pro Prozess Kosten eben NICHT frei erfunden waren. NV wurde gefragt warum 28nm auch fuer den 200 und wir warten auf eine Antwort.

Timbaloo
2014-05-25, 13:19:32
Beim Quoten ist der EE Times-Link im Quote kaputtgegangen. Über den b3d Beitrag kommt man drauf.

Ailuros
2014-05-25, 13:27:04
Beim Quoten ist der EE Times-Link im Quote kaputtgegangen. Über den b3d Beitrag kommt man drauf.

Fixed. Danke :)

fondness
2014-05-25, 13:33:44
NV wurde gefragt warum 28nm auch fuer den 200 und wir warten auf eine Antwort.

Wäre interessant wenn du das dann auch hier ausführst. :smile:

Ailuros
2014-05-25, 14:36:36
Wäre interessant wenn du das dann auch hier ausführst. :smile:

Mach ich so oder so immer.

Mandalore
2014-05-25, 15:31:58
Verdammt, da scheint ja bei 20 nm echt was schiefzulaufen:eek::eek:


Naja, gleicher Prozess muss nicht unbedingt was Schlechtes bedeuten, hat man ja bei G80 vs G71 gesehen....

Blediator16
2014-05-25, 15:33:36
Verdammt, da scheint ja bei 20 nm echt was schiefzulaufen:eek::eek:


Naja, gleicher Prozess muss nicht unbedingt was Schlechtes bedeuten, hat man ja bei G80 vs G71 gesehen....

32nm gabs ja auch nicht.

Botcruscher
2014-05-25, 16:40:18
FinFet wird deswegen auch nicht auf einmal der heilige Gral. Ansonsten ist doch alle wie immer. Prognosen +1,5Jahre und es passt.

Nakai
2014-05-25, 17:17:15
FinFet wird deswegen auch nicht auf einmal der heilige Gral. Ansonsten ist doch alle wie immer. Prognosen +1,5Jahre und es passt.

Naja wenigstens bringen FinFet im Vgl zu 20nm gegenüber 28nm einigermaßen Stromverbrauchsreduzierungen mit sich.

Ansonsten braucht NV dank Maxwell-Architektur unbedingt 20nm zur Effizienzsteigerung. Das einzige Problem ist die Die Größe, welche unter 28nm nicht ewig ansteigen darf. Ergo wir sehen bei NV endlich mal eine höhere Packdichte, weil anders kann man sich einen GM200 unter 28nm nicht vorstellen.;)


mfg

Thunder99
2014-05-25, 17:22:44
32nm gabs ja auch nicht.
Stimmt aber 28nm wie davor 40nm aber kein 45nm. Und es gibt kein 22nm sondern 20 also ist alles normal seit sie den Sprung von 65->40nm gemacht haben :wink:

Jetzt müsste man nur wissen was Intel besser macht damit Sie ihren Prozess einigermaßen im Griff haben und wir würden nicht so ewig auf 20nm warten :D

Ailuros
2014-05-25, 17:25:59
Naja wenigstens bringen FinFet im Vgl zu 20nm gegenüber 28nm einigermaßen Stromverbrauchsreduzierungen mit sich.

Ansonsten braucht NV dank Maxwell-Architektur unbedingt 20nm zur Effizienzsteigerung. Das einzige Problem ist die Die Größe, welche unter 28nm nicht ewig ansteigen darf. Ergo wir sehen bei NV endlich mal eine höhere Packdichte, weil anders kann man sich einen GM200 unter 28nm nicht vorstellen.;)


mfg

Mehr als ~14Mio/mm2 sehe ich auch nicht, welches Dir auch nicht mehr als maximal um die 8.5Mrd. Transistoren gibt wenn sie die ~550mm2 Schwelle unter 28nm nicht ueberschreiten werden.

Vereinfacht GM200 kann nur 40-50% schneller sein als GK110 am Ende unter solchen Bedingungen und erreicht wohl auch 2x Mal so viel DP GFLOPs/W wie Kepler Tesla. Wehe aber dann wenn Intel mit erstem KL Silizium ihre 14-15 FLOPs DP/W erreichen sollte.

Sonst Arun zum GM200@28nm:

http://forum.beyond3d.com/showpost.php?p=1849822&postcount=1691

If GM2xx isn't 20nm then this would be the first time TSMC achieved >20% revenue from a process without either NVIDIA or AMD. It's definitely possible but the implications about TSMC's other customers are massive.

Wenn man scharf weiterdenkt will ich nicht wissen was sich genau TSMC eingebrockt hat wenn Apple in Zukunft als Beispiel nicht mehr bei ihnen herstellt. Anders wenn's stimmt dann war es eine verdammte "teure" Eintagsfliege langfristig.

fondness
2014-05-25, 18:02:08
Naja der Prozess heißt sogar 20 SoC, der 28nm Prozess dürfte wohl der letzte TSMC Prozess gewesen sein wo AMD und Nvidia noch die Richtung vorgeben konnten. Inzwischen sind die SoC-Hersteller wesentlich größer und wichtiger für TSMC daher wundert mich diese Ausrichtung nicht. Noch dazu wo AMD Richtung GF abwandert.

Sunrise
2014-05-25, 18:18:28
...Wenn man scharf weiterdenkt will ich nicht wissen was sich genau TSMC eingebrockt hat wenn Apple in Zukunft als Beispiel nicht mehr bei ihnen herstellt. Anders wenn's stimmt dann war es eine verdammte "teure" Eintagsfliege langfristig.
Zu den Kunden gehören ja auch noch die anderen Branchenriesen. NV und AMD fallen ja nicht weg, die Zyklen werden jetzt eben länger und die Steigerungen kleiner. Dass TSMC da natürlich nicht stillstehen darf, ist klar.

Um Kundschaft braucht TSMC sich allerdings nicht wirklich allzu große Sorgen zu machen, wenn Intel nicht eine 180 Grad-Wendung hinlegt. TSMC wird so schnell keiner wirklich gefährlich. SoCs sind nunmal die Massenware schlechthin geworden. Ich habe gerade gelesen (http://www.patentlyapple.com/patently-apple/2014/03/tsmc-fighting-for-apples-16nm-a9-processor-business.html), dass TSMC aktuell versucht, Apple als A9-Fertiger mit einem adaptierten 16nm FinFET+ Prozess (http://wallstcheatsheet.com/technology/rumor-this-chipmaker-wants-to-produce-apples-a9-processor.html/?a=viewall) zu gewinnen. Also wohl quasi wieder sowas wie "16nm FF SoC". Da das scheinbar auch beim A8 geklappt hat, hat man da sicher gute Chancen, solange man da den Anforderungen ggü. der Konkurrenz gewachsen ist.

Mal davon ab, dass TSMC aktuell kaum mit der Abarbeitung von Aufträgen der Auftraggeber (auf 28nm!) nachkommt. Ich will nicht wissen, wie die SoC-Auftraggeber sich um diese Kapazitäten gegenseitig die Köpfe einschlagen (und das wird sich TSMC auch gut bezahlen lassen).

Wenn GM2xx wirklich (zuerst) auf 28nm kommt, dann spricht das eigentlich eine ganz klare Sprache. 20nm wird derzeit für NV (und AMD) wohl zu teuer (Wafer, Yield) sein, mit deutlich zuwenig Kapazität und das viel höhere Risiko kommt auch noch dazu.

Solange GM204 wie spekuliert etwas schneller wird (10-20%) als GK110 und GM200 dann min. 50% (das ist mein persönliches Ziel) drauflegt, ist das eigentlich OK. Nur werden uns dann wohl die Preise relativ zur Performance-Steigerung nicht gefallen.

Allerdings kann man dann natürlich super Vergleiche mit Kepler und Maxwell bzgl. der Architektur anstellen. Auch wird man sich auf 28nm dann wohl die Denver-Cores gänzlich schenken und man wird sich stattdessen (siehe GM107) auf größere Caches (die auch der Packdichte zugute kommen) konzentrieren.

Nakai
2014-05-25, 20:09:21
Mehr als ~14Mio/mm2 sehe ich auch nicht, welches Dir auch nicht mehr als maximal um die 8.5Mrd. Transistoren gibt wenn sie die ~550mm2 Schwelle unter 28nm nicht ueberschreiten werden.

Vereinfacht GM200 kann nur 40-50% schneller sein als GK110 am Ende unter solchen Bedingungen und erreicht wohl auch 2x Mal so viel DP GFLOPs/W wie Kepler Tesla. Wehe aber dann wenn Intel mit erstem KL Silizium ihre 14-15 FLOPs DP/W erreichen sollte.


50% klingt gut, ich würde sogar etwas mehr erwarten. GK110 ist fast doppelt so schnell wie GF110, also etwa 80~90%. Ich erwarte von 20nm eh nicht wirklich etwas. Der Prozess erhöht die Packdichte und nicht die Energieffizienz.

Wenn man scharf weiterdenkt will ich nicht wissen was sich genau TSMC eingebrockt hat wenn Apple in Zukunft als Beispiel nicht mehr bei ihnen herstellt. Anders wenn's stimmt dann war es eine verdammte "teure" Eintagsfliege langfristig.

Vielleicht hat TSMC den Prozess gemäß SOCs und Apples als Kunde dementsprechend abgewandelt. Ansonsten sieht es so aus, dass AMD und NV bei 28nm noch für mind. ein Jahr bleiben.

Ailuros
2014-05-25, 20:20:37
50% klingt gut, ich würde sogar etwas mehr erwarten. GK110 ist fast doppelt so schnell wie GF110, also etwa 80~90%.

GK110 = 28HP
(32nm)
GF110 = 40G

Ich erwarte von 20nm eh nicht wirklich etwas. Der Prozess erhöht die Packdichte und nicht die Energieffizienz.

Wie kann man die Packdichte erhoehen ohne dass selbst die Energie-effizienz steigt? Klar kommt die Mehrzahl der eigentlichen Effizienz vom Prozess aber im gegebenen Fall bremst es automatisch die maximale Groesse des GM200 ab und somit auch sein volles Leistungs-potential.

Vielleicht hat TSMC den Prozess gemäß SOCs und Apples als Kunde dementsprechend abgewandelt. Ansonsten sieht es so aus, dass AMD und NV bei 28nm noch für mind. ein Jahr bleiben.

Dann hat TSMC eine ziemlich daemliche Design-Entscheidung getroffen denn Apple hat eben KEINEN jahrelangen Vertrag mit TSMC unterschrieben. Liefert die Kombination von Samsung und GloFo auch das was sie versprechen kann TSMC lange mit 16FF+ vergebens wedeln.

AffenJack
2014-05-25, 21:50:03
50% klingt gut, ich würde sogar etwas mehr erwarten.

In 28nm erwarte ich weniger. 30% mehr Leistung, mehr kann man vergessen bei gleicher Diesize für G200. Zumindest bei Spielen. Im prof. Bereich siehts da schon anders aus, darauf sollte der Chip ja hauptsächlich ausgelegt sein. Da würde ich nen 2:1 DP Verhältnis erwarten und dann kriegt man da ne gute Steigerung hin. Denver ist dann auch noch ne Frage, aber würde auf jeden Fall auch Diesize fressen. Vll ists dann sogar nen reiner HPC Chip kommt und Gaming bekommt nur GM204.


Dann hat TSMC eine ziemlich daemliche Design-Entscheidung getroffen denn Apple hat eben KEINEN jahrelangen Vertrag mit TSMC unterschrieben. Liefert die Kombination von Samsung und GloFo auch das was sie versprechen kann TSMC lange mit 16FF+ vergebens wedeln.

Es geht ja nicht nur um Apple, sondern genauso QC, Mediathek usw. Kann mir da gut vorstellen, dass der Prozess eher auf deren Bedürfnisse optimiert ist, da der größte Teil des Umsatzes davon kommt.

Nakai
2014-05-25, 21:55:05
GK110 = 28HP
(32nm)
GF110 = 40G


Ja, wenn GM200 in 28nm kommt, dann gibt es nicht so einen großen Sprung, wie von GF110 auf GK110. Aber die Maxwell-Verbesserungen sind schon erheblich. Wenn GM200 in 28nm kommt, wird er größer als 550mm² sein, eher so ziemlich am Maximum, wie es auch für Fiji/Maui gesagt wird.

Wie kann man die Packdichte erhoehen ohne dass selbst die Energie-effizienz steigt? Klar kommt die Mehrzahl der eigentlichen Effizienz vom Prozess aber im gegebenen Fall bremst es automatisch die maximale Groesse des GM200 ab und somit auch sein volles Leistungs-potential.

Laut TSMC bringt 20nm etwa 1.9fache Packdichte und 30% höhere Geschwindigkeit/25% niedrigerem Stromverbrauch. Der Geschwindigkeitsvorteil/Stromverbrauch steht in keiner Relation zur Packdichte.

Sunrise
2014-05-25, 21:57:14
...Dann hat TSMC eine ziemlich daemliche Design-Entscheidung getroffen denn Apple hat eben KEINEN jahrelangen Vertrag mit TSMC unterschrieben. Liefert die Kombination von Samsung und GloFo auch das was sie versprechen kann TSMC lange mit 16FF+ vergebens wedeln.
Also das hier (http://www.cadence.com/Community/blogs/ii/archive/2014/04/28/2014-tsmc-technology-symposium-full-speed-ahead-for-16nm-finfet-plus-10nm-and-7nm.aspx) klingt für mich schon ziemlich überzeugend.

He noted that the 16FF yield has already caught up with the 20nm planar (20SoC) process node. As a second-generation FinFET technology, he said, 16FF+ can provide an additional 15% die size reduction compared to 20SoC.

Liu said that TSMC plans 15 16FF tapeouts this year, and that compared to 20SoC, 16FF can provide a 40% performance increase at the same power consumption. 16FF+ allows an additional 15% performance increase. Volume production for the 16nm FinFET nodes is expected in 2015. "We are confident that our customers can use this [16nm] technology to produce mobile devices superior to those produced by IDMs," he said.

Da müssen Samsung und GloFo erstmal hin, wenn TSMC das bereits vorzeigen kann. Natürlich muss das alles wieder mit Skepsis betrachtet werden, denn wenn die Foundries eins können, dann reden. Wenn TSMC das aber auch so liefern kann (und es sieht danach aus, dass 16FF bereits sehr beliebt sein wird), dann hat TSMC alles richtig gemacht.

20nm zu überspringen war hinsichtlich Maxwell dann wohl ziemlich clever, wenn NV sich sicher ist, dass GM200 so schnell ist, dass man sich ggü. Intel nicht verstecken muss.

fondness
2014-05-25, 22:00:52
Wo ist eigentlich HOT? Sieht so aus als hätte er recht behalten. ;)

Unicous
2014-05-25, 22:45:51
Bitte was?

HOT hat behauptet es werde gar keine 20nm GPUs geben. Ob er "recht hat":rolleyes:, werden wir frühestens im nächsten Jahr wissen. Und mit 100%er Sicherheit auch erst Ende 2015.

Godmode
2014-05-25, 22:49:01
Wenn GM200 in 28nm kommt, wird er größer als 550mm² sein, eher so ziemlich am Maximum, wie es auch für Fiji/Maui gesagt wird.


Was ist wirtschaftlich möglich? 600-700 mm2?

Knuddelbearli
2014-05-25, 22:50:55
570mm² bis 600mm²

Loeschzwerg
2014-05-26, 08:35:34
Also ein dicker Brocken wie damals der GT200, krasse Sache. Da bin ich mal auf die Temperaturen gespannt.

Haltet ihr einen zukünftigen Shrink auf 20nm für realistisch?

AffenJack
2014-05-26, 08:56:58
Nein, wenn man auf 20nm gehen würde, würde man das direkt tun. Das Ding hatte noch ncihtmal seinen Tapeout, daher 16FF als nächstes.

HOT
2014-05-26, 09:32:55
Bitte was?

HOT hat behauptet es werde gar keine 20nm GPUs geben. Ob er "recht hat":rolleyes:, werden wir frühestens im nächsten Jahr wissen. Und mit 100%er Sicherheit auch erst Ende 2015.
Falsch. Ich hab behauptet, es würde wenn überhaupt nur kleine und mobile GPUs geben und genau das kann auch passieren. Was sicher ist, es wird einen ARM57 und einen geshrinkten Mullins geben, AMD lässt also 20nm nicht aus. NV wird vllt. auch 20nm für kleine und mobil-GPUs und SoCs nutzen.

robbitop
2014-05-26, 09:40:08
Bitte was?

HOT hat behauptet es werde gar keine 20nm GPUs geben. Ob er "recht hat":rolleyes:, werden wir frühestens im nächsten Jahr wissen. Und mit 100%er Sicherheit auch erst Ende 2015.
HOT wurde hier ganz schön aufgerieben wegen seiner Sichtweise. Und 1-2 Meldungen später wird es eben doch als nicht unwahrscheinliche Möglichkeit betrachtet.
Ob er nun Recht behält oder nicht. Eines finde ich immer faszinierend: dass viele so sehr ihre Meinung ändern können, obwohl sie vor kurzer Zeit mit Krallen und Zähnen verbissen dagegen angegangen sind. Da sollte IMO jeder mal in sich gehen, was das Miteinander im Speku-Forum angeht. :)

Timbaloo
2014-05-26, 09:57:24
Also ein dicker Brocken wie damals der GT200, krasse Sache. Da bin ich mal auf die Temperaturen gespannt.
Wenn man nicht mit Gewalt versucht das Maximum aus dem Chip zu pressen (über Takt + Spannung) sollte die Temperatur doch eigentlich kein Thema sein. Belibt man bei der TDP von GK110 wäre die Wärmedichte bei einem gößeren Chip ja sogar geringer.

Loeschzwerg
2014-05-26, 10:09:10
@AffenJack: Thx. Macht auch Sinn wenn der 16nmFF schon so weit fortgeschritten ist.

@Timbaloo: Hm... die Packdichte wird sich verbessern und dann rennst du in ähnliche Probleme wie beim Hawaii.

Dawn on Titan
2014-05-26, 10:22:09
Nein, wenn man auf 20nm gehen würde, würde man das direkt tun. Das Ding hatte noch ncihtmal seinen Tapeout, daher 16FF als nächstes.
Das wäre schon mutig. Das man jetzt nicht auf 20nm SOC geht bedeutet nicht, dass man es später nicht tut. Und mit 16nm FF wird sich der Punkt ab dem dieser Prozess billiger als 20nm SOC ist noch weiter nach hinten verschieben. Wenn also 20nm SOC im ersten Jahr der Massenfertigung wirtschaftlich nicht attraktiv ist, dann wird es bei 16nm nicht besser sein. Also kann es 2017 werden bis wir diese Fertigung auf GPUs sehen.

ndrs
2014-05-26, 10:29:35
@AffenJack: Thx. Macht auch Sinn wenn der 16nmFF schon so weit fortgeschritten ist.

Wie weit ist denn 16FF? Waren die letzten Infos nicht, dass vor Mitte/Ende 2016 nichts mit ansprechender Die-Size kommen soll?

@Timbaloo: Hm... die Packdichte wird sich verbessern und dann rennst du in ähnliche Probleme wie beim Hawaii.
Welche Probleme meinst du damit?

Loeschzwerg
2014-05-26, 10:36:59
Wie weit ist denn 16FF? Waren die letzten Infos nicht, dass vor Mitte/Ende 2016 nichts mit ansprechender Die-Size kommen soll?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10224259&postcount=2910

Nach den Aussagen hört sich das ziemlich positiv an.


Welche Probleme meinst du damit?

Punktuell höhere Wärmeabgabe und damit höhere Anforderungen an den Kühler.

AffenJack
2014-05-26, 10:39:29
Wirtschaftlichkeit ist bei GM204 und kleiner nen großes Argument. Bei GM200 ist das weniger der Fall bei den Preisen im prof. Bereich. Das sieht dann wirklich eher danach aus, als wenn der Prozess nicht gut dafür ist. Vor allem mit 28nm gegen nen Intel 14nm Larrabee kämpfen ist nicht die beste Perspektive. Das macht man nicht, wenn nur das Die etwas teurer werden würde.

Unicous
2014-05-26, 10:41:16
HOT wurde hier ganz schön aufgerieben wegen seiner Sichtweise. Und 1-2 Meldungen später wird es eben doch als nicht unwahrscheinliche Möglichkeit betrachtet.
Ob er nun Recht behält oder nicht. Eines finde ich immer faszinierend: dass viele so sehr ihre Meinung ändern können, obwohl sie vor kurzer Zeit mit Krallen und Zähnen verbissen dagegen angegangen sind. Da sollte IMO jeder mal in sich gehen, was das Miteinander im Speku-Forum angeht. :)

Sprich nur von dir selbst. Ich bin weiterhin der Überzeugung, dass 20nm GPUs kommen.

Und nein HOT, dein Grundtenor war: keine 20nm GPUs. Ob du das dann mal relativiert hast, als die Krallen und Zähne an deine Tür geklopft haben ist mir egal. Im Bruston der Überzeugung hast du diesen Blog-Eintrag aus dem Nichts verteidigt, bzw. seinen inhaltslosen Inhalt und bei 20SOC "but not for GPUs" drangehängt, ohne Beweise oder gar Indizien. Allein der Name schon war wohl Indiz genug. (Und übrigens gibt es immer noch GF.)

Der einzige Grund den ich als legitim ansehe, ist die Unfähigkeit von TSMC und Konsorten langfristige Zeitpläne einzuhalten (und dem zeitlichen Reinholen der Nachfolgeprozesse). Das hat schon öfter zu Produktverschiebungen/-anullierungen oder gar Rückportierungen geführt.

ndrs
2014-05-26, 11:14:43
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10224259&postcount=2910

Nach den Aussagen hört sich das ziemlich positiv an.

Kann ich da nicht wirklich rauslesen. 15 Tapeouts 2014 klingt für mich nach Massenproduktion Mitte 2015. Das gilt dann für kleine Chips. Das übliche Jahr für größere GPUs draufgerechnet landen wir doch wieder bei Mitte 2016 oder nicht?

Loeschzwerg
2014-05-26, 11:34:13
GM200 in 28nm hatte noch keinen Tapeout (zumindest wissen wir es nicht), daher kommt das Teil vermutlich erst Q1-Q2 2015. Betrachtet man die Lebensdauer würde es doch reichen wenn Anfang/Mitte 2016 ein neuer Chip kommt.

HOT
2014-05-26, 11:57:45
[...]
Und nein HOT, dein Grundtenor war: keine 20nm GPUs. Ob du das dann mal relativiert hast, als die Krallen und Zähne an deine Tür geklopft haben ist mir egal. Im Bruston der Überzeugung hast du diesen Blog-Eintrag aus dem Nichts verteidigt, bzw. seinen inhaltslosen Inhalt und bei 20SOC "but not for GPUs" drangehängt, ohne Beweise oder gar Indizien. Allein der Name schon war wohl Indiz genug. (Und übrigens gibt es immer noch GF.)

Zuerst rechnete ich damit, dass man 20 Planar ganz aussetzt, das ist aber zumindest bei AMD nicht der Fall. Ich bin doch lernfähig, was willst du eigentlich von mir? Natürlich gibts hier keine Beweise und nur wenige Indizien, wir sind hier im Spekuforum, das schließt Krallen und Zähne eigentlich aus, da hier keiner den Stein der Weisen hat. Zudem bist du keinen Deut besser als wir alle was da Thema Beweise und Indizien angeht, also spiel hier nicht den Moralapostel.
Übrigens war meine Grundaussage eine andere: Ich glaubte nicht an 20nm planar, weil ich nicht damit gerechnet habe, dass die Foundies es hinbekommen darauf Hochleistungschips zu fertigen, eben weil er "SoC" heißt und eher der Low-Power-Sparte angehören dürfte und das einfach den Kostenrahmen sprengen dürfte darin große GPUs zu fertigen, nur um das noch mal klarzustellen. Ich weiss ganz genau, was ich damals gedacht habe.

[...]

GM200 in 28nm hatte noch keinen Tapeout (zumindest wissen wir es nicht), daher kommt das Teil vermutlich erst Q1-Q2 2015. Betrachtet man die Lebensdauer würde es doch reichen wenn Anfang/Mitte 2016 ein neuer Chip kommt.

Im Anbetracht der Tatsache, dass es zuerst einen GK210 geben wird, wohl eher Herbst bis Winter 2015. NV hat ziemlich lange für den GK110 gebraucht und auch bei AMD verspätete sich Venus/Hawaii. Ich glaub für die großen Chips muss man schon mehr als ein Jahr nach Tapeout einkalkulieren, eher 1 1/2. Dem zweiten Teil würde ich mich anschließen, jedoch weiss ich nicht ob der 3. GK110 Aufgruss gegen Fiji/Maui so lange bestehen kann, deshalb meine Wette wäre Oktober 2015.

fondness
2014-05-26, 12:03:15
Das SoCs in einem 20nm "SoC" Prozess kommen ist jetzt nicht wirklich überraschend, ob allerdings auch dezidierte GPUs kommen bleibt weiter offen.

Unicous
2014-05-26, 12:20:04
Im Gegensatz zu dir HOT, gebe ich nichts auf Nomen und Namen. Ob der Prozess 20kleineGeißlein heißt ist mir scheiß egal. Für mich, im Gegensatz zu dir, ist das auch kein Indiz geschweige denn ein Beweis für irgendwas. Es gibt auch sonst keinerlei Indizien und Beweise, außer einem Rant-Blogeintrag von einem Nichts. Niemand kennt den Typen, niemand hat je wieder etwas von ihm gehört. Ich bin hier das Moralapostel weil ich Gerüchte niemals für voll nehme, solange sie nicht einen gewisses Maß an Plausibilität überschritten haben.

Du hast dich auf den Namen 20SOC eingeschossen, dabei gibt es noch andere Mitbewerber die mit ähnlichen Parametern arbeiten und auch mit Wasser kochen.

Und außerdem ist es weiterhin zu früh um laut "Jubel, Jubel, froi, froi" zu singen (http://vimeo.com/57583664).

Hättest du jetzt gesagt, 2014 wird es keine GPUs mehr in 20nm geben hätte ich gesagt, joar ist nicht unwahrscheinlich aber was AMD macht ist noch nicht raus. Nun ist es ziemlich sicher, dass da nichts mehr kommt.
Was hingegen 2015 geschieht kannst weder du noch ich postulieren weil es gar keine Anhaltspunkte dafür gibt.

Spekulieren auf Basis von gar nichts ist Blödsinn. Mein Standpunkt.

HOT
2014-05-26, 12:45:34
[...]
A Propos Zähne und Klauen... Ignore an für die nächte Woche so einen stressigen Diskussionsstil brauch ich nicht ;).

Das SoCs in einem 20nm "SoC" Prozess kommen ist jetzt nicht wirklich überraschend, ob allerdings auch dezidierte GPUs kommen bleibt weiter offen.
Klar. Da aber die SoCs ja auch GPUs enthalten, wäre es denke ich ein leichtes auch eine kleine sparsame GPU im SoC-Prozess zu bringen. Für Notebooks wär das ideal.

Unicous
2014-05-26, 12:52:34
Dann ignoriere robbitop gleich mit, von ihm habe ich das nur übernommen. Entschuldige wenn ich deine empfindsame Seele mit geklauten Metaphern malträtiert habe.:rolleyes:

(Aber denk dran. ERST ab bzw. "an für die nächte" Woche!!!)


Edit:

Übrigens geht es nicht um deine Spekulationen an sich nur wie du diese präsentierst und vehement gegen Gegenargumente verschließt. Wie ein Verschwörungstheoretiker. Der muss auch keine Beweise für seine Verschwörungstheorie erbringen, es "reicht" wenn er versucht die andere Seite mit FUD zu überschütten.

Timbaloo
2014-05-26, 13:25:35
Der Diskussionsstil ist unter aller Sau...

nalye
2014-05-26, 13:33:28
Der Diskussionsstil ist unter aller Sau...
This! Ich bitte darum, wieder auf eine sachliche ebene zu kommen, ansonsten gibt es hier Auszeiten!

Nakai
2014-05-26, 14:15:18
570mm² bis 600mm²

Es sollte sogar noch etwas mehr drin sein. Sogar über 600mm² bei rechteckigen Dies.

20nm würde theoretisch Vorteile bringen, nur steht FinFet schon vor der Tür und 20SOC ist einfach kaum besser als 28nm. 20SOC ist teurer, trotz höherer Packdichte. 20SOC bringt kaum mehr Energieeffizienz. Da macht es mehr Sinn 28nm vollkommen auszulasten.

GPUs in 20nm sehen wir, da es APUs in 20nm geben wird.

N0Thing
2014-05-26, 14:49:41
Es gibt auch sonst keinerlei Indizien und Beweise, außer einem Rant-Blogeintrag von einem Nichts. Niemand kennt den Typen, niemand hat je wieder etwas von ihm gehört.

Der Kommentar war kein rant und hatte nicht den Schwerpunkt: Der Prozess heißt 20mSoC, ergo keine GPUs, sondern es wurde die These aufgestellt, 20nmSoC könnte von AMD und Nvidia für GPUs übersprungen werden, weil er keinen Preisvorteil gegenüber 28nm bringen würde (was die spekulierten eher geringen technischen Verbesserungen mit einschließt) und 16nmFinFet schon relativ schnell auf 20nmSoC folgen könnte.

Für diese These wurden in dem Kommentar ganz unaufgeregt einige Argumente gebracht, die natürlich nicht immer überzeugend waren, wie der Hinweis auf die Namensgebung, aber zumindest eine weitere Diskussion hätten anstoßen können, die sich mehr mit den technischen Details der Prozesse und deren Kosten hätte auseinander setzen können.

Unicous
2014-05-26, 16:45:43
Also wenn ich jetzt einen Blog aufmache, Zitate aus dem Kontext reiße und allgemein verfügbare Informationen und Fakten zusammenbastele und meine eigene Narrative hinzufüge dann macht mich das automatisch glaubwürdig? Gut zu wissen.

Mein Masterplan

Ich mache mir eine Wordpress-Seite

http://techsoda.com/

Einen Twitter Account

https://twitter.com/Tech_Soda

(passe aber auf, dass ich ja nicht mehr Follower habe als ich selbst Folge)

Nicht vergessen einen YT-Acc mit genau einem Video wie ich ein Spiel spiele.

https://www.youtube.com/channel/UCi473aEUYEfY9tT1WY6Em5Q/videos

Kredibilitätslevel: 100%.


Auf Basis dessen wurde nun faktualisiert, dass es keine 20nm GPUs geben wird (oder eben keine großen Chips:rolleyes:) und über Monate in verschiedenen Foren und Threads kolportiert. Das ist einfach nur nervig.

Botcruscher
2014-05-26, 16:57:28
Die Frage ist eher warum 20nm nicht gehen sollen aber FinFet für 16nm zeitnah einfach so aus dem Hut fallen.
Selbst wenn das nur ein 3/4 Jahr dauern sollte ,sind da trotzdem locker 30% mehr Leistung drin. Wer die nicht mit nimmt wird bei den Verkäufen regelrecht zerstört.

Unicous
2014-05-26, 17:05:54
Das würde mich ja auch brennend interessieren.
Aber so weit möchte sich HOT nicht in die Karten schauen lassen.

Warum ist FinFET besser geeignet für GPUs als ein planar Bulk Prozess? Diese Frage wird nie beantwortet obwohl sie die ganze Zeit im Raum steht.
Dass 20nm teurer ist als 28nm und sonst auch nicht so der Bringer ist. Geschenkt. Aber was macht FinFET für GPUs zum Heilsbringer?


(Übrigens verstehe ich immer noch nicht, warum das nicht ausgelagert wird. Das ist nämlich das Nervigste an Allem. Ständiges Prozess-Rumdiskutiere, obwohl wir uns im Maxwell Thread befinden. In den AMD-GPU Threads ist es das Gleiche)

Timbaloo
2014-05-26, 17:35:45
Wer sagt, dass das Auslassen/Verschieben von 20SoC (nur) technische Gründe hat? Vielleicht hat Apple ja wirklich zuviel Kapa gefressen und 20SoC wird dadurch für NV schlicht unrentabel?

Skysnake
2014-05-26, 18:06:41
Der Kommentar war kein rant und hatte nicht den Schwerpunkt: Der Prozess heißt 20mSoC, ergo keine GPUs, sondern es wurde die These aufgestellt, 20nmSoC könnte von AMD und Nvidia für GPUs übersprungen werden, weil er keinen Preisvorteil gegenüber 28nm bringen würde (was die spekulierten eher geringen technischen Verbesserungen mit einschließt) und 16nmFinFet schon relativ schnell auf 20nmSoC folgen könnte.

Für diese These wurden in dem Kommentar ganz unaufgeregt einige Argumente gebracht, die natürlich nicht immer überzeugend waren, wie der Hinweis auf die Namensgebung, aber zumindest eine weitere Diskussion hätten anstoßen können, die sich mehr mit den technischen Details der Prozesse und deren Kosten hätte auseinander setzen können.
sorry, aber das ist doch scheinheilig wie noch was. Es wurden so manche hints gestreut, und auf Techdocs verwiesen, interessiert hats keine sau, was ic auch teils verstehen kann. Wer hat schon den nerv sich durch xhundert Seiten durch zu wühlen, von denen hier wohl nur ganz wenige überhaupt verstehen würden worum es geht.

Ich sag jetzt nochmals. Ihr seid sooooo weit weg von der Realität bzgl Fertigung, das es weh tut. Wenn informiert euch, bevor ihr euch auslasst. Es gibt mehr im Netz zu finden, als ich erwartet habe, aber hört doch auf damit als Taubstumme-Blinde über Opern zu fachsimpeln...

Unicous
2014-05-26, 18:13:17
Und was willst du uns damit jetzt sagen? Die Antwort ist irgendwo da draußen?

Hört sich nach einer Fernsehserie an, die ich als Kind gerne geschaut habe.


http://screenphiles.files.wordpress.com/2013/07/screen-shot-2013-07-26-at-9-43-38-am.png

Skysnake
2014-05-26, 18:33:23
hmm, was könnte ich wohl nur gemeint haben?

Ich mach mal einen Deutungsversuch :)

Informieren bevor man sich über ein Thema auslässt? Klingt das gut?

Unicous
2014-05-26, 18:53:23
Ich verstehe deine vom hohen Thron der Weisheit getätigten Bemerkungen nicht.
Wenn man sich nur darüber informieren müsste, warum rätselt dann die ganze (und nicht nur die halbe) IT-Welt was so abgeht im Semi-Bereich? Es gibt zig Blogs, Websites, Gerüchteschmieden und dennoch weiß niemand gar nichts.

Selbst über Apple Produkte weiß man mehr, obwohl die sich abschotten wie keine andere Firma.

Man weiß nicht genau, wie sich die Waferkosten zusammensetzen und kann jeweils nur guesstimates machen. Man weiß nicht genau auf welche Parameter die Prozesse "getoolt" werden, man kann nur Vermutungen anstellen. Es gibt viel Gemunkel, aber harte Fakten findet man sehr selten.

Dein arroganter "ihr seid zu doof zu googleln" Kommentar läuft also ins Leere.

Wenn du uns beeindrucken willst, dann google uns das Ganze doch zusammen und lass uns an deiner Weisheit teilhaben. Sprüche klopfen kann ich auch. (Und mach ich auch:biggrin:).

Skysnake
2014-05-26, 19:49:40
Jetzt rate einfach mal, warum man im Allgemeinen keine Aussagen findet. Kleiner Tip. Es fängt mit "N" an und hört mit "DA" auf.

Ich überlasse es dir jetzt auch an der Stelle selbst, die richtigen Schlüsse zu ziehen, warum ich hier keinen Link auf gewisse Dokumente poste, sondern nur einen hint gebe, das es im Netz gewisse Dinge überraschenderweise gibt.

Und ums mal klar zu sagen, ich habe mir ernsthaft überlegt, ob ich überhaupt soviel sage. Wohler wäre mir an sich, ne Mail zu schreiben, um das ausm Netz fliegen zu lassen, aber an sich ist das eben am Ende doch NICHT mein Problem, wenn Leute so "intelligent" sind, von TSMC Docs ins Netz zu stellen, wobei ich nicht davon ausgehe, dass das Zeug an sich übers Inet zugänglich sein sollte. Da hat wohl eher jemand Mist gebaut, wobei es auch "nur" Docs zu ein paar Standardlibs sind, und keine Techfiles mit den Designrules usw.

N0Thing
2014-05-26, 20:46:46
Also wenn ich jetzt einen Blog aufmache, Zitate aus dem Kontext reiße und allgemein verfügbare Informationen und Fakten zusammenbastele und meine eigene Narrative hinzufüge dann macht mich das automatisch glaubwürdig? Gut zu wissen.
Kredibilitätslevel: 100%.


Auf Basis dessen wurde nun faktualisiert, dass es keine 20nm GPUs geben wird (oder eben keine großen Chips:rolleyes:) und über Monate in verschiedenen Foren und Threads kolportiert. Das ist einfach nur nervig.

Ne. Aber wenn du dir die Mühe machst ein paar Seiten zu einem Thema zu verfassen, dabei die bekannten Informationen verwendest, die im Netz zu finden sind und darüber eine These und Fragestellung entwickelst, hast du gute Chancen von dem ein oder anderen ein offenes Ohr zu bekommen. Andererseits mußt du dich aber auch mit Anfeindungen von Fanatikern klar kommen, die keine andere Sichtweise dulden.

sorry, aber das ist doch scheinheilig wie noch was. Es wurden so manche hints gestreut, und auf Techdocs verwiesen, interessiert hats keine sau, was ic auch teils verstehen kann. Wer hat schon den nerv sich durch xhundert Seiten durch zu wühlen, von denen hier wohl nur ganz wenige überhaupt verstehen würden worum es geht.

Ich sag jetzt nochmals. Ihr seid sooooo weit weg von der Realität bzgl Fertigung, das es weh tut. Wenn informiert euch, bevor ihr euch auslasst. Es gibt mehr im Netz zu finden, als ich erwartet habe, aber hört doch auf damit als Taubstumme-Blinde über Opern zu fachsimpeln...

Scheinheilig, aha. Ich finde es echt erstaunlich, wie locker flockig hier Personen persönlich angegangen, diffamiert und beleidigt werden, anstatt sich sachlich mit dem Thema zu beschäftigen. Der Einzige der sich mal ansatzweise die Mühe gemacht hat war Ailuros.
Aber es entbehrt nicht einer gewissen Komik wenn man sieht, wer hier wieder versucht sich als Experte versucht zu profilieren. :rolleyes:

Unicous
2014-05-26, 21:15:29
Eigentlich war Ailuros einer der Ersten die Bullshit gerufen haben, aber das nur am Rande.

Von welchen Fanatikern sprichst du denn? Falls du mich damit meinst, bin ich lediglich jemand der eine sehr niedrige Bullshit-Schmerzschwelle hat und verlange dass solche Behauptungen auch mit etwas Substantiellem unterlegt werden, wenn sie monatelang wiederholt werden. Wenn das dann nach endlosem Nachfrage nicht kommt, werde ich eher ungehalten.

Skysnake
2014-05-26, 22:20:36
Scheinheilig, aha. Ich finde es echt erstaunlich, wie locker flockig hier Personen persönlich angegangen, diffamiert und beleidigt werden, anstatt sich sachlich mit dem Thema zu beschäftigen.

Weil ich seit Anbeginn der SOC Diskussion den Leuten sage, dass Sie komplett auf dem Holzweg bin, und immer wieder soweit möglich Brocken hingeschmissen habe?

Wenn auf sanfte Winks mit dem Zaunpfahl nicht reagiert wird, muss man halt deutlicher winken :P


Der Einzige der sich mal ansatzweise die Mühe gemacht hat war Ailuros.

Soll ich jetzt die Posts raussuchen, wo ich darauf eingegangen sind, das es einige wichtige Parameter bei Prozessen gibt? Da habe ich einige ganz offensichtliche Hints gegeben. Da gab es sogar den Einwand, das es die Informationen nicht gibt, was ich zunächst sogar bestätigt, mich dann aber eben revidiert habe, mit dem hint, das man entsprechendes findet, wenn man etwas sucht, ich das aber nicht weiterverlinken werde.

Aber selbst wenn man das nicht macht, kann man auch sonst einiges lernen, bzw ran ziehen und interpolieren. Ich kann da sogar zwei gute Bücher empfehlen.

"ANALYSIS AND DESIGN OF ANALOG INTEGRATED CIRCUITS" von Gray, Hurst, Lewis und Meyer. Da werden MOSFETs, aber auch BiPolartransistoren, und so ziemlich alle Grundschaltungen sehr ausührlich behandelt. Das hilft sehr für das Verstädnis. Besonders die Herleitungen der Groß und Kleinsignal-Modelle ist ziemlich aufschlussreich. Ist aber schon ziemlich heftiger Tobak und sehr sehr sehr detailiert. Was aber noch ganz gut ist, ist der Einblick in SPICE.

Einfacher, und auch deutlich leichter zu verstehen, da man auf BiPolartransistoren gänzlich verzichtet ist der Razavi. Also "Design of Analog CMOS Integrated Circuits". Wenn man ein bischen sucht, findet man dazu sogar das ganze Buch als PDF sehr schnell unter den ersten Treffern bei google.

Besonders empfehlenswert sind hier die Kapitel über 1/f und Thermal noise, sowie die Kapitel bzgl. Layouting und Matching. Das hilft schon sehr für das Verständnis. Wenn das dann alles klar ist, kann man sich dann auch noch mit den ganzen parasitären Effekten beschäftigen.


Aber es entbehrt nicht einer gewissen Komik wenn man sieht, wer hier wieder versucht sich als Experte versucht zu profilieren. :rolleyes:
Dünnes Eis. Sehr dünnes Eis....

Mandalore
2014-05-26, 23:44:39
Dünnes Eis. Sehr dünnes Eis..........:confused:



:facepalm::facepalm:

N0Thing
2014-05-26, 23:49:10
Eigentlich war Ailuros einer der Ersten die Bullshit gerufen haben, aber das nur am Rande.

Jepp hat er, aber er hat sich abgesehen davon auch irgendwann teilweise zum Inhalt geäußert, Stichwort Schall und Rauch. Dieser Aspekt hatte sich damit dann auch eigentlich erledigt, denn wenn 20nmSoC generell nicht für GPUs geeignet wäre, dann würde dies ja auch auf 16nmFinfet zutreffen.

Beim Hauptargument für den spekulierten Verzicht von 20nmSoC, den Kosten, gab es außer Nvidia jammert immer eigentlich keine weiteren Argumente für die Nutzung von 20nmSoC. und wenn 20nmSoC später kommt, dann wohl auch 16nmFinfet eigentlich keine weiteren Argumente für die Nutzung von 20nmSoC. Beide Einwände finde ich absolut berechtigt, aber nen Beweis würde ich es nicht nennen. Von daher finde ich es immer noch spannend, was das nächste Jahr bringen wird.

Das Thema ist für mich auch eigentlich durch, solange es keine neuen Informationen gibt, ich wollte nur den ursprünglichen Verfasser des Kommentars in Schutz nehmen, der meiner Meinung nach nicht unseriös oder hetzerisch irgendwelchen Müll verbreitet hat, sondern recht nüchtern und engagiert eine These in den Raum gestellt hat.


Weil ich seit Anbeginn der SOC Diskussion den Leuten sage, dass Sie komplett auf dem Holzweg bin, und immer wieder soweit möglich Brocken hingeschmissen habe?

Wenn auf sanfte Winks mit dem Zaunpfahl nicht reagiert wird, muss man halt deutlicher winken :P


Soll ich jetzt die Posts raussuchen, wo ich darauf eingegangen sind, das es einige wichtige Parameter bei Prozessen gibt? Da habe ich einige ganz offensichtliche Hints gegeben. Da gab es sogar den Einwand, das es die Informationen nicht gibt, was ich zunächst sogar bestätigt, mich dann aber eben revidiert habe, mit dem hint, das man entsprechendes findet, wenn man etwas sucht, ich das aber nicht weiterverlinken werde.



Nach dem Link zum Artikel von techsoda hat Ailuros sehr viele Beiträge geschrieben und keine Zweifel mehr an der technischen Tauglichkeit gelassen.
Ein paar Seiten später findet sich dann auch ein Beitrag von dir, aber wenn dir ein Fleißkärtchen wichtig ist, schenke ich dir gerne eins. :)

Skysnake
2014-05-27, 00:11:14
Es gibt auch schlicht keinen Grund dafür, das 20SOC nicht auch! für GPUs mit 200W Verbrauch geeignet sein soll.

Absolut gar keinen. Wenn muss man sich eventuell nochmal anschauen, wie ein paar Parameter gewählt sind im Vergleich static vs dynamic leakage usw.

Besser als 28nm wirds aber ziemlich sicher sein. Vor allem AMD und nVidia sind eh keine 0815 Kunden bei TSMC. Die haben so viel Manpower und KnowHow, dass die auch ihre ganz eigenen full custom Libs haben. Zur Not reizt man den Prozess halt nicht komplett aus, um die time to market zu beschleunigen, die yields zu verbessern und eben nicht unnötig R&D Ressourcen für 16FF zu verbrauchen.

16FF wird aber am Anfang wohl eh spannend werden. Mit FF betritt man ja quasi auch Neuland. Klar gibts Testchips, aber das ist schon nochmal was anderes als nen Chip den ich in den Handel bringen und vor allem Gewinne damit machen will.

Mich würde es absolut nicht überraschen, wenn zur Einführung von 16FF sich min ein Hersteller mit nem Design auf die Nase legt.

Dawn on Titan
2014-05-27, 07:08:00
Und deswegen ist es wahrscheinlich, dass 16nmFF später in GPU-Massenproduktion geht als viele denken. Von den Prozesskosten mal ganz zu schweigen.

Im Endeffekt muss man sich nur die Versprechungen zu 20nm SOC ansehen und die Grafiken der Waferkostenentwicklung bei einem neuen, komplexeren Prozess und man sieht warum wir da sind wo wir sind und warum 28nm HP immer noch seinen Reiz hat.

X.Perry_Mental
2014-05-29, 17:48:44
Und deswegen ist es wahrscheinlich, dass 16nmFF später in GPU-Massenproduktion geht als viele denken. Von den Prozesskosten mal ganz zu schweigen.

Im Endeffekt muss man sich nur die Versprechungen zu 20nm SOC ansehen und die Grafiken der Waferkostenentwicklung bei einem neuen, komplexeren Prozess und man sieht warum wir da sind wo wir sind und warum 28nm HP immer noch seinen Reiz hat.
TSMC hat wohl auch noch einen neuen 28nm HPC-Prozess im Angebot, über den sie neben dem Status von 20nm und 16nmFF ab dem 1.6. auf der DAC 2014 berichten werden. Ein paar interessante Info-Häppchen gibt es hier (https://www.semiwiki.com/forum/content/3509-tsmc-keynote-oip-20nm-16nm-panels-more-51dac.html).

Ailuros
2014-05-29, 18:32:57
Ich bin immer noch dabei mehr Infos zu sammeln; und nein ich hab kein Problem zu sagen dass ein Prozentual HOT's These oder Theorie (je nach Perskeptive) unterstuetzt. Da ich aber etwas mehr als nur ein subjektives Bild haben will, etwas mehr Geduld und falls ich falsch gelegen bin, hab ich nicht das geringste Problem es einzugestehen.

Ailuros
2014-06-01, 18:57:17
So jetzt mal cliff notes von dem was ich sammeln konnte und das von allen moeglichen Richtungen und diversen IHVs:

1. Keiner aber wirklich KEINER wollte sich darueber aeussern ob Apple's 20SoC Herstellung irgendwo einen Zusammenhang hat. Die Reaktionen waren von "keine Ahnung" bis keine Antwort. Was zum Henker ist los? IHVs hoeren selbst off the record fruitco und scheissen sich die Hosen voll? Ist doch nicht normal...

2. Das merkwuerdigste ist dass selbst die Vereinfachung 16FF = 20SoC + FinFET als ungueltig abgestempelt wurde. Erlaeuterungen dafuer muessten wohl dann unsere heimischen Gurus versuchen zu liefern...

3. Nur NV behauptet zwischen Linien dass 20SoC zu viel fuer SoCs angeblich angepasst sei, von der direkten Konkurrenz kam so etwas nicht.

4. Alles sammelte sich auf einen wichtigen Punkt: zwar reduziert um N% 20SoC die area im Vergleich zu 28nm (HPm u.a.) aber nirgends wird vergleichsmaessig der Stromverbrauch analog zur die area Reduzierung reduziert, welches theoretisch 20SoC vermeidbar wenn moeglich praktisch fuer alles machen sollte, ausser man hat wirklich keinen anderen Ausweg.

5. Tegra Erista ist auf 20SoC aber auch nur weil Parker@16FF in 2015 zu suendhaft teuer gewesen waere in Herstellung.

Alles in allem hatte wohl keiner wirklich recht am Ende :freak:

My 2 cents...

Mandalore
2014-06-01, 20:53:32
Der 3. Punkt ist vor allem interessant:rolleyes::cool:

Erinnert so bisschen and 80nm vs. 90nm von damals, wo sich NVidia auch gegen 80 nm entschieden hat und weiterhin auf 90nm setzte, während ATi/AMD das kaum bessere 80nm erprobten und damit "mutig" waren:freak:

Nakai
2014-06-01, 23:14:41
4. Alles sammelte sich auf einen wichtigen Punkt: zwar reduziert um N% 20SoC die area im Vergleich zu 28nm (HPm u.a.) aber nirgends wird vergleichsmaessig der Stromverbrauch analog zur die area Reduzierung reduziert, welches theoretisch 20SoC vermeidbar wenn moeglich praktisch fuer alles machen sollte, ausser man hat wirklich keinen anderen Ausweg.

Wenn 20SOC auch noch die Kosten in die Höhe treibt, macht es keinen Sinn diesen Prozess zu benutzen. Man wird eher versucht haben, die Effizienz der Architekturen zu steigern und die Chips breiter zu machen. Eventuell wird noch etwas an der Taktschraube gedreht und versucht die Diesize zu verkleinern. Im Endeffekt bleibt man auf 28nm mit wohl ähnlichen Stromeinsparungen, welche 20SOC bringt, bei größerem Die, aber geringeren Kosten.

GM107 hat schon eindrucksvoll gezeigt, was möglich ist.

HOT
2014-06-02, 09:12:03
Falls AMD nicht mehr bei TSMC produzieren sollte ist Punkt 3 irrelevant. Wer weiss, vllt. ist der GloFo-20nm planar-Prozess anders.

horn 12
2014-06-02, 09:18:51
Gut möglich somit das auch AMD die R9 290(X) Karten nochmals überarbeitet und optimiert durch den GloFo-Prozess und somit die GTX 780TI in die Schranken weist.

Dawn on Titan
2014-06-02, 09:31:58
4. ist doch nicht neu. Es hieß immer X% mehr Komplexität oder Y% weniger Verbrauch bei gleicher Komplexität.

Nakai
2014-06-02, 12:39:12
4. ist doch nicht neu. Es hieß immer X% mehr Komplexität oder Y% weniger Verbrauch bei gleicher Komplexität.

Nein.

Ein jeglicher neuer Prozess hat die Packdichte erhöht und den Stromverbrauch in einem ähnlichen Rahmen gesenkt. Es ist ja nicht nur seit 20SOC so, sondern schon davor, haben neue Prozesse den Stromverbrauch nicht mehr in dem Maß gesenkt, wie die Packdichte angestiegen ist. 20SOC ist dabei schon sehr krass. Laut TSMC erhöht sich die Packdichte um 1.9x, aber der Stromverbrauch senkt sich nur um ~30% bei gleichem Takt.

Dawn on Titan
2014-06-02, 13:33:58
Ich meinte für 20nm SOC galt dies schon lange als bekannt.

Mandalore
2014-06-02, 13:47:56
Weiß man schon was dieser neue 28nm HPC bringt?


Wegen 20nm ist es echt schade.:frown: Das zeigt aber, dass man spätestens jetzt auf Packaging setzen sollte bzw. anzufangen mehr in diese Forschung zu investieren.

Ailuros
2014-06-02, 20:01:07
4. ist doch nicht neu. Es hieß immer X% mehr Komplexität oder Y% weniger Verbrauch bei gleicher Komplexität.

Du mich falsch verstanden. Uebrigens ist Samsung's 20nm angeblich schlimmer als 20SoC.

Ich meinte für 20nm SOC galt dies schon lange als bekannt.

Auch für SoCs?

Dawn on Titan
2014-06-03, 07:01:52
Das wäre die spannende Frage. Leider habe ich dazu keine sichere Antwort. Für GPUs waren die Annahmen immer eher bescheiden, für SOCs habe ich da keine Daten, aber die Tatsache dass Apple dabei ist und auch die sonstigen Absatzzahlen lassen vermuten, dass die Prozess zumindest innerhalb des Konkurrenzumfeldes für SOCs deutlich tauglicher ist.

Ailuros
2014-06-03, 13:47:32
Das wäre die spannende Frage. Leider habe ich dazu keine sichere Antwort. Für GPUs waren die Annahmen immer eher bescheiden, für SOCs habe ich da keine Daten, aber die Tatsache dass Apple dabei ist und auch die sonstigen Absatzzahlen lassen vermuten, dass die Prozess zumindest innerhalb des Konkurrenzumfeldes für SOCs deutlich tauglicher ist.

Ja aber wenn Samsung's 20nm beschissener (hypothetisch) ist als bei TSMC dann hat Apple guten Grund bei TSMC herzustellen. Sonst duerfte es Apple ziemlich wurscht sein ob der Stromverbrauch zwischen TSMC 28nm und TSMC 20nm gering ist, da sie so oder so bis zu 28nm bei Samsung hergestellt haben. Im Vergleich zum letzten ist TSMC's 28HPm mehr als ein half node Unterschied wert. Sonst waere eigentlich TSMC ziemlich bloed wenn sie unter diesen Bedingungen Apple 20nm nicht "angedreht" haetten; irgendwie muessen sie auch selber ihre projezierten 20nm Umsatz-ziele erreichen.

AnarchX
2014-06-04, 07:11:38
18 "GM204-INT3-A1" bei Zauba am 2. Juni registriert.

Dawn on Titan
2014-06-04, 07:42:59
Ja aber wenn Samsung's 20nm beschissener (hypothetisch) ist als bei TSMC dann hat Apple guten Grund bei TSMC herzustellen. Sonst duerfte es Apple ziemlich wurscht sein ob der Stromverbrauch zwischen TSMC 28nm und TSMC 20nm gering ist, da sie so oder so bis zu 28nm bei Samsung hergestellt haben. Im Vergleich zum letzten ist TSMC's 28HPm mehr als ein half node Unterschied wert. Sonst waere eigentlich TSMC ziemlich bloed wenn sie unter diesen Bedingungen Apple 20nm nicht "angedreht" haetten; irgendwie muessen sie auch selber ihre projezierten 20nm Umsatz-ziele erreichen.

Das trifft wahrscheinlich das Problem recht gut. 20nm SOC dürfte zu anderen 28nm SOC / LP Prozessen ziemlich tauglich sein, im Vergleich zu 28nm HP dürfte es für große Chips weniger Vorteile bieten, bei höheren Kosten. Und es gibt ja auch die Möglichkeit, dass TSMC dies gezielt so steuert. 20nm SOC hat auch ohne NV + AMD genug Nachfrage, bei 28nm HP sieht das anders aus. Daraus kann sich gut ergeben, dass momentan für alle Beteiligten es sinnvoll war noch eine Runde GPUs in 28nm HP zu machen.

Ailuros
2014-06-04, 14:01:04
Mit Absicht klingt etwas zu weit getrieben; auf jeden Fall klingt das Ganze fuer TSMC "business as usual" ohne besondere Sorgen.

Hübie
2014-06-04, 14:14:17
Das halte ich auch für übertrieben. Es wäre ein "nettes Bonbon" wenn 20SoC auch für GPUs effektiv genutzt werden würde nur ist/war das nicht der Fokus.

robbitop
2014-06-04, 15:13:58
18 "GM204-INT3-A1" bei Zauba am 2. Juni registriert.
Ist das schon ein Schritt weiter als die Bringupboards? Wofür steht "INT3"? :)

Dawn on Titan
2014-06-04, 16:55:48
Mit Absicht klingt etwas zu weit getrieben; auf jeden Fall klingt das Ganze fuer TSMC "business as usual" ohne besondere Sorgen.

Ich meinte auch nur damit, dass man Waferpreise eben anpassen kann. Taugt 20nm SOC weniger für GPUs verkauft man 28HP eben etwas billiger und hält die GPU Hersteller dort.

Ailuros
2014-06-04, 18:07:36
Ist das schon ein Schritt weiter als die Bringupboards? Wofür steht "INT3"? :)

3bit pro Farbkanal ist es auf jeden Fall nicht ;D

Loeschzwerg
2014-06-04, 18:10:36
Ist das schon ein Schritt weiter als die Bringupboards? Wofür steht "INT3"? :)

Nope, immer noch Rev A1 des GM204. "INT3" kann alles mögliche bedeuten, evtl "Internal 3rd Batch" oder "Initial 3rd irgendwas".

GM107-CS1-A2 vom 1. Oktober 2013 => Könnte etwas mit finaler Qualifikation zu tun haben.

Diese Bezeichnungen sind mir auf meinen Samples zumindest noch nicht untergekommen.

Ailuros
2014-06-04, 18:15:12
Ich meinte auch nur damit, dass man Waferpreise eben anpassen kann. Taugt 20nm SOC weniger für GPUs verkauft man 28HP eben etwas billiger und hält die GPU Hersteller dort.

Tja nur ist Apple nicht gerade der IHV der bei seinem Herstellungs-volumen irgendwelche hohe Preise bezahlen wuerde. Egal in welcher Branche wenn es um hohe Volumen geht knallt man Dir im besten Fall einen fertigen Vertrag auf den Schreibtisch und Du "darfst" ihn demuetig unterschreiben. Natuerlich in Grenzen uebertrieben, aber das Gefuehl ist leider meistens schon da in solchen Faellen.

Dawn on Titan
2014-06-04, 18:28:54
Tja nur ist Apple nicht gerade der IHV der bei seinem Herstellungs-volumen irgendwelche hohe Preise bezahlen wuerde. Egal in welcher Branche wenn es um hohe Volumen geht knallt man Dir im besten Fall einen fertigen Vertrag auf den Schreibtisch und Du "darfst" ihn demuetig unterschreiben. Natuerlich in Grenzen uebertrieben, aber das Gefuehl ist leider meistens schon da in solchen Faellen.

Aber man hat Apple gekriegt. Gut, ob das wirklich ne gute Entscheidung war wird sich noch zeigen, aber im Grundsatz hat man deren Volumen von Samsung abgeworben.

-/\-CruNcher-/\-
2014-06-06, 09:21:18
Das Release von The Witcher 3 ist ja jetzt offiziel 25 Februar dann denke ich mal kommt der Maxwell dazu irgendwan im Januar 1 Jahr nach dem Entry Chip kommt erst der neue junge das ist mal ein heftiger release cycle change den wir da sehen, ich hab noch beim AMD release mit Juni/Juli gerechnet wie eigentlich üblich ?

Da ist AMD ja schon fast wieder ready mit dem neuen Release oder was sagt ihre Roadmap ?

ndrs
2014-06-06, 10:15:36
Welcher neue Junge?

-/\-CruNcher-/\-
2014-06-06, 11:22:35
Die neue Karte nach der 750 GTX für mich ist es eindeutig das sie eine Release Karte für The Witcher 3 planen und somit erst kurz vor Game Release wir überhaupt irgendwas neues sehen werden.

Hatte damit eigentlich früher gerechnet aber dann kamm ja schon die hiobsbotschaft von CDPR das sie es verschieben und nun heist es ja Februar 2015, mit Maxwell will Nvidia ja vor allen ihre Compute fortschritte demonstrieren gegenüber AMD vor allen für den Mainstream Preisbereich.

The Witcher 3 ist hier ein Release Title für irgend eine Maxwell Karte, aber ich bin mir ziemlich sicher die Planung für das alles sah ziemlich anders aus nach dem AMD release letztes Jahr und wir müssten eigentlich so langsam die nächste Karte sehen so wie es aussieht wird die aber erstmal ausfallen ;)

N0Thing
2014-06-06, 11:32:02
Welcher neue Junge?

:D

Timbaloo
2014-06-06, 11:42:57
Verstehe ich das richtig? Ein NV-Release wird verzögert weil The Witcher 3 verzögert wurde?

ndrs
2014-06-06, 11:43:06
Die neue Karte nach der 750 GTX für mich
Kommt die nur für dich oder kann die dann jeder kaufen?

Unicous
2014-06-06, 11:46:07
Verstehe ich das richtig? Ein NV-Release wird verzögert weil The Witcher 3 verzögert wurde?

Na klar. Ist doch...logisch.:freak:

Dawn on Titan
2014-06-06, 11:54:23
Kein IHV richtet seine Release-Dates an einem Spiel aus.

Hübie
2014-06-06, 11:57:31
X-D Ich sehe da auch ganz klar Kausalität!

-/\-CruNcher-/\-
2014-06-06, 12:03:58
Direkt nicht aber im Vorlauf sicherlich vor allen muss ein Compute title her für AMD war das ja auch Tomb Raider 2013 (Tressfx) und BF4 für Mantle.

Für Maxwell wird Nvidia sicherlich vor allen GI works und Hair works pushen, zu erst wird The Witcher 3 vor allen nochmal Hair works pushen was genau der erste title sein wird der dann auch noch GI works voll nutzt ist noch die Masterfrage :)

fondness
2014-06-06, 14:10:52
Nvidia delays another GPU
http://semiaccurate.com/2014/06/06/nvidia-delays-another-gpu/

Unicous
2014-06-06, 14:16:15
Ich vermisse TW3 in den Tags. Charlies Quellen sind auch nicht mehr das, was sie mal waren. Vllt. sollte er mal mit Cruncher PMs austauschen.

Ailuros
2014-06-06, 15:42:40
Nvidia delays another GPU
http://semiaccurate.com/2014/06/06/nvidia-delays-another-gpu/

My Denver lives over the ocean, my Denver lives over the sea, my Denver lives over the ocean...oh bring back my Denver to me.......;D

robbitop
2014-06-06, 19:35:19
Denver ist doch aber gar keine GPU. (oder habe ich deine Anspielung falsch verstanden?)
Oder meinst du, dass Charlie statt "GPU" -> "SoC" bzw "SFF CPU Core" meinte?

Ailuros
2014-06-06, 19:48:53
Denver ist doch aber gar keine GPU. (oder habe ich deine Anspielung falsch verstanden?)
Oder meinst du, dass Charlie statt "GPU" -> "SoC" bzw "SFF CPU Core" meinte?

Ich hab nicht die blasseste Ahnung was hinter SA's paywall wieder steht; dass sollte nicht heissen dass es womoeglich sogar teilweise stimmt.

Wie dem auch sei wenn NV heute GPUs verspaeten muss dann ist eines der moeglichen "Suendenboecke" Denver/Tegra wobei dafuer Entwicklungs-resourcen verschoben wurden. Denver wurde sowieso nicht von CPU engineers entwickelt falls jemand den Eindruck haben sollte.

robbitop
2014-06-06, 21:00:50
Hat NV nicht vor vielen Jahren 2 CPU Firmen gekauft? Stexar und irgendeine andere deren Namen ich vergessen habe.

AffenJack
2014-06-07, 09:57:00
Ich hab nicht die blasseste Ahnung was hinter SA's paywall wieder steht; dass sollte nicht heissen dass es womoeglich sogar teilweise stimmt.


Wenns stimmt kann es sich doch eigentlich eh nur um GM200 handeln. 204 ist unterwegs, 206 laut dir auch, auch wenns bei Zauba nicht aufgetaucht ist. Bleibt also GM200 der sein Tapeout nicht mehr im Juni schafft.

Edit:
Wobei nee, kann eigentlich auch heißen, dass GM204 nen weiteres Stepping braucht.

Ailuros
2014-06-07, 14:35:56
Hat NV nicht vor vielen Jahren 2 CPU Firmen gekauft? Stexar und irgendeine andere deren Namen ich vergessen habe.
Ja und? Denver wurde nach wie vor von GPU engineering Teams entwickelt.

Wenns stimmt kann es sich doch eigentlich eh nur um GM200 handeln. 204 ist unterwegs, 206 laut dir auch, auch wenns bei Zauba nicht aufgetaucht ist. Bleibt also GM200 der sein Tapeout nicht mehr im Juni schafft.

Edit:
Wobei nee, kann eigentlich auch heißen, dass GM204 nen weiteres Stepping braucht.

Keine Ahnung welche er meint; es kann alles oder gar nichts sein. Mag sein dass ich mich irre aber selbst subscriptions scheinen wahlweise zu Stande zu kommen...

hasebaer
2014-06-07, 17:58:17
In den Tags zu dem Artikel steht doch "2016, Computex 2014, delay, Einstein, GE300, GPU, nvidia, SemiAccurate".

Charlie ist nicht ganz up to date wenn er Einstein aus der Mottenkiste holt oder?! Das war mal vor zwei Jahren ein Thema.
Mittlerweile gibt es Pascal für (Ende) 2015 und für (Ende) 2016 steht Volta im Raum.
Und bei dem Bingospiel um 20SOC und 16FF verschieb sich eh wieder nochwas...

Unicous
2014-06-07, 18:02:49
Nicht an den Tags aufhängen, die sind meist zu Charlie's eigener Belustigung. Das entspricht bei paywall-Artikeln meist nicht der enthaltenen Information/Gerücht/Behauptung.

hasebaer
2014-06-07, 18:05:41
Das ist ja mal Journalismus deleux.
Und sowas nehmt ihr ernst?

Unicous
2014-06-07, 18:13:12
Und du nimmst Tags eines Artikels hinter einer pay wall Ernst?

Bzw.


Du nimmst Tags ernst?:eek:


Komm mal runter vom "Journalismus-Thron". Gerade im IT-Bereich ist man da zum Teil noch weit entfernt. Und der tradionelle Journalist entfernt sich auch immer weiter davon.

hasebaer
2014-06-08, 03:07:42
Und du nimmst Tags eines Artikels hinter einer pay wall Ernst?

Bzw.


Du nimmst Tags ernst?:eek:

Bei so wenig Inhalt aber dann soviel Polemik auf die paar Zeilen,
ja da werden Tags zum einzig objektivem Anhaltspunkt, sofern man dem Autor unterstellt, seine Website ordentlich zuführen.
Ok, ist nicht der Fall, Schwamm drüber, ist nur FUD eines Verpissers der ne vorsorgliche Exit Strategie in seine Artikel einbaut.


Komm mal runter vom "Journalismus-Thron". Gerade im IT-Bereich ist man da zum Teil noch weit entfernt.

Und doch reicht es das Charlie irgendeinen Dreizeiler postet und die Leute fragen sich was der große Guru wohl gemeint haben könnte.

Ailuros
2014-06-08, 08:46:20
Und doch reicht es das Charlie irgendeinen Dreizeiler postet und die Leute fragen sich was der große Guru wohl gemeint haben könnte.

Den Effekt haettest Du auf jeder relativ gut besuchten Seite, egal ob ein Chameleon wie Charlie der Author ist oder nicht.